JP2020203014A - 評価装置、評価方法、及び評価プログラム - Google Patents

評価装置、評価方法、及び評価プログラム Download PDF

Info

Publication number
JP2020203014A
JP2020203014A JP2019113412A JP2019113412A JP2020203014A JP 2020203014 A JP2020203014 A JP 2020203014A JP 2019113412 A JP2019113412 A JP 2019113412A JP 2019113412 A JP2019113412 A JP 2019113412A JP 2020203014 A JP2020203014 A JP 2020203014A
Authority
JP
Japan
Prior art keywords
image
evaluation
unit
display unit
gazing point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019113412A
Other languages
English (en)
Other versions
JP7172870B2 (ja
Inventor
林 孝浩
Takahiro Hayashi
孝浩 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2019113412A priority Critical patent/JP7172870B2/ja
Priority to PCT/JP2020/024119 priority patent/WO2020256097A1/ja
Publication of JP2020203014A publication Critical patent/JP2020203014A/ja
Priority to US17/543,849 priority patent/US20220087583A1/en
Priority to JP2022173385A priority patent/JP7435694B2/ja
Application granted granted Critical
Publication of JP7172870B2 publication Critical patent/JP7172870B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Eye Examination Apparatus (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】精度よく認知機能障害及び脳機能障害の評価を行う。【解決手段】評価装置100は、表示部11と、被験者の注視点の位置を検出する注視点検出部32と、被験者への設問情報を含む設問画像を表示部11に表示した後、設問情報に対する正解となる特定対象物及び特定対象物とは異なる比較対象物を含む回答画像を表示部11に表示し、設問画像を表示部11に表示する際、回答画像における特定対象物と比較対象物との位置関係を示す参照画像を表示部11に表示する表示制御部31と、表示部11上において、特定対象物に対応する特定領域と、比較対象物に対応する比較領域とを設定する領域設定部32と、注視点の位置に基づいて、注視点が特定領域及び比較領域に存在するかを判定する判定部34と、判定部34の判定結果に基づいて、評価用パラメータを算出する演算部35と、評価用パラメータに基づいて、被験者の評価データを求める評価部36とを備える。【選択図】図2

Description

本発明は、評価装置、評価方法、及び評価プログラムに関する。
近年、認知機能障害および脳機能障害が増加傾向にあるといわれており、このような認知機能障害および脳機能障害を早期に発見し、症状の重さを定量的に評価することが求められている。認知機能障害および脳機能障害の症状は、認知能力に影響することが知られている。このため、被験者の認知能力に基づいて被験者を評価することが行われている。例えば、複数種類の数字を表示し、その数字を被験者に加算させて答えを求めさせ、被験者の出した答えを確認する装置が提案されている(例えば、特許文献1参照)。
特開2011−083403号公報
しかしながら、特許文献1等の方法では、被験者がタッチパネルの操作等により答えを選択する形態であり、偶然の正解や被験者の操作ミスなどが原因で高い評価精度を得ることが難しかった。そのため、精度よく認知機能障害および脳機能障害を評価することが求められていた。
本発明は、上記に鑑みてなされたものであり、精度よく認知機能障害および脳機能障害の評価を行うことが可能な評価装置、評価方法、及び評価プログラムを提供することを目的とする。
本発明に係る評価装置は、表示部と、前記表示部上における被験者の注視点の位置を検出する注視点検出部と、前記被験者への設問情報を含む設問画像を前記表示部に表示した後、前記設問情報に対する正解となる特定対象物及び前記特定対象物とは異なる比較対象物を含む回答画像を前記表示部に表示し、前記設問画像を前記表示部に表示する際、前記回答画像における前記特定対象物と前記比較対象物との位置関係を示す参照画像を前記表示部に表示する表示制御部と、前記表示部上において、前記特定対象物に対応する特定領域と、前記比較対象物に対応する比較領域とを設定する領域設定部と、前記注視点の位置に基づいて、前記注視点が前記特定領域及び前記比較領域に存在するかを判定する判定部と、前記判定部の判定結果に基づいて、評価用パラメータを算出する演算部と、前記評価用パラメータに基づいて、前記被験者の評価データを求める評価部とを備える。
本発明に係る評価方法は、表示部上における被験者の注視点の位置を検出することと、前記被験者への設問情報を含む設問画像を前記表示部に表示した後、前記設問情報に対する正解となる特定対象物及び前記特定対象物とは異なる比較対象物を含む回答画像を前記表示部に表示し、前記設問画像を前記表示部に表示する際、前記回答画像における前記特定対象物と前記比較対象物との位置関係を示す参照画像を前記表示部に表示することと、前記表示部上において、前記特定対象物に対応する特定領域と、前記比較対象物に対応する比較領域とを設定することと、前記注視点の位置に基づいて、前記注視点が前記特定領域及び前記比較領域に存在するかを判定することと、前記判定部の判定結果に基づいて、評価用パラメータを算出することと、前記評価用パラメータに基づいて、前記被験者の評価データを求めることとを含む。
本発明に係る評価プログラムは、表示部上における被験者の注視点の位置を検出する処理と、前記被験者への設問情報を含む設問画像を前記表示部に表示した後、前記設問情報に対する正解となる特定対象物及び前記特定対象物とは異なる比較対象物を含む回答画像を前記表示部に表示し、前記設問画像を前記表示部に表示する際、前記回答画像における前記特定対象物と前記比較対象物との位置関係を示す参照画像を前記表示部に表示する処理と、前記表示部上において、前記特定対象物に対応する特定領域と、前記比較対象物に対応する比較領域とを設定する処理と、前記注視点の位置に基づいて、前記注視点が前記特定領域及び前記比較領域に存在するかを判定する処理と、前記判定部の判定結果に基づいて、評価用パラメータを算出する処理と、前記評価用パラメータに基づいて、前記被験者の評価データを求める処理とをコンピュータに実行させる。
本発明に係る評価装置、評価方法、及び評価プログラムによれば、精度よく認知機能障害および脳機能障害の評価を行うことが可能となる。
図1は、本実施形態に係る評価装置の一例を模式的に示す図である。 図2は、評価装置の一例を示す機能ブロック図である。 図3は、表示部に表示する設問画像の一例を示す図である。 図4は、表示部に表示する中間画像の一例を示す図である。 図5は、表示部に表示する中間画像の他の例を示す図である。 図6は、表示部に表示する回答画像の一例を示す図である。 図7は、表示部にアイキャッチ映像を表示させる場合の一例を示す図である。 図8は、本実施形態に係る評価方法の一例を示すフローチャートである。 図9は、表示部に表示する中間画像の他の例を示す図である。 図10は、本実施形態に係る評価方法の他の例を示すフローチャートである。
以下、本発明に係る評価装置、評価方法、及び評価プログラムの実施形態を図面に基づいて説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。
以下の説明においては、三次元グローバル座標系を設定して各部の位置関係について説明する。所定面の第1軸と平行な方向をX軸方向とし、第1軸と直交する所定面の第2軸と平行な方向をY軸方向とし、第1軸及び第2軸のそれぞれと直交する第3軸と平行な方向をZ軸方向とする。所定面はXY平面を含む。
[評価装置]
図1は、本実施形態に係る評価装置100の一例を模式的に示す図である。本実施形態に係る評価装置100は、被験者の視線を検出し、検出結果を用いることで認知機能障害および脳機能障害の評価を行う。評価装置100は、例えば被験者の瞳孔の位置と角膜反射像の位置とに基づいて視線を検出する方法、又は被験者の目頭の位置と虹彩の位置とに基づいて視線を検出する方法等、各種の方法により被験者の視線を検出することができる。
図1に示すように、評価装置100は、表示装置10と、画像取得装置20と、コンピュータシステム30と、出力装置40と、入力装置50と、入出力インターフェース装置60とを備える。表示装置10、画像取得装置20、コンピュータシステム30、出力装置40及び入力装置50は、入出力インターフェース装置60を介してデータ通信を行う。表示装置10及び画像取得装置20は、それぞれ不図示の駆動回路を有する。
表示装置10は、液晶ディスプレイ(liquid crystal display:LCD)又は有機ELディスプレイ(organic electroluminescence display:OLED)のようなフラットパネルディスプレイを含む。本実施形態において、表示装置10は、表示部11を有する。表示部11は、画像等の情報を表示する。表示部11は、XY平面と実質的に平行である。X軸方向は表示部11の左右方向であり、Y軸方向は表示部11の上下方向であり、Z軸方向は表示部11と直交する奥行方向である。表示装置10は、ヘッドマウント型ディスプレイ装置であってもよい。表示装置10がヘッドマウント型ディスプレイ装置である場合、ヘッドマウントモジュール内に画像取得装置20のような構成が配置されることになる。
画像取得装置20は、被験者の左右の眼球EBの画像データを取得し、取得した画像データをコンピュータシステム30に送信する。画像取得装置20は、撮影装置21を有する。撮影装置21は、被験者の左右の眼球EBを撮影することで画像データを取得する。撮影装置21は、被験者の視線を検出する方法に応じた各種カメラを有する。例えば被験者の瞳孔の位置と角膜反射像の位置とに基づいて視線を検出する方式の場合、撮影装置21は、赤外線カメラを有し、例えば波長850[nm]の近赤外光を透過可能な光学系と、その近赤外光を受光可能な撮像素子とを有する。また、例えば被験者の目頭の位置と虹彩の位置とに基づいて視線を検出する方式の場合、撮影装置21は、可視光カメラを有する。撮影装置21は、フレーム同期信号を出力する。フレーム同期信号の周期は、例えば20[msec]とすることができるが、これに限定されない。撮影装置21は、例えば第1カメラ21A及び第2カメラ21Bを有するステレオカメラの構成とすることができるが、これに限定されない。
また、例えば被験者の瞳孔の位置と角膜反射像の位置とに基づいて視線を検出する方式の場合、画像取得装置20は、被験者の眼球EBを照明する照明装置22を有する。照明装置22は、LED(light emitting diode)光源を含み、例えば波長850[nm]の近赤外光を射出可能である。なお、例えば被験者の目頭の位置と虹彩の位置とに基づいて視線を検出する方式の場合、照明装置22は設けられなくてもよい。照明装置22は、撮影装置21のフレーム同期信号に同期するように検出光を射出する。照明装置22は、例えば第1光源22A及び第2光源22Bを有する構成とすることができるが、これに限定されない。
コンピュータシステム30は、評価装置100の動作を統括的に制御する。コンピュータシステム30は、演算処理装置30A及び記憶装置30Bを含む。演算処理装置30Aは、CPU(central processing unit)のようなマイクロプロセッサを含む。記憶装置30Bは、ROM(read only memory)及びRAM(random access memory)のようなメモリ又はストレージを含む。演算処理装置30Aは、記憶装置30Bに記憶されているコンピュータプログラム30Cに従って演算処理を実施する。
出力装置40は、フラットパネルディスプレイのような表示装置を含む。なお、出力装置40は、印刷装置を含んでもよい。また、表示装置10が出力装置40を兼ねてもよい。入力装置50は、操作されることにより入力データを生成する。入力装置50は、コンピュータシステム用のキーボード又はマウスを含む。なお、入力装置50が表示装置である出力装置40の表示部に設けられたタッチセンサを含んでもよい。
本実施形態に係る評価装置100は、表示装置10とコンピュータシステム30とが別々の装置である。なお、表示装置10とコンピュータシステム30とが一体でもよい。例えば評価装置100がタブレット型パーソナルコンピュータを含んでもよい。この場合、当該タブレット型パーソナルコンピュータに、表示装置、画像取得装置、コンピュータシステム、入力装置、出力装置等が搭載されてもよい。
図2は、評価装置100の一例を示す機能ブロック図である。図2に示すように、コンピュータシステム30は、表示制御部31と、注視点検出部32と、領域設定部33と、判定部34と、演算部35と、評価部36と、入出力制御部37と、記憶部38とを有する。コンピュータシステム30の機能は、演算処理装置30A及び記憶装置30B(図1参照)によって発揮される。なお、コンピュータシステム30は、一部の機能が評価装置100の外部に設けられてもよい。
表示制御部31は、被験者への設問情報を含む設問画像を表示部11に表示する。表示制御部31は、設問画像を表示部11に表示した後、設問情報に対する正解となる特定対象物及び特定対象物とは異なる比較対象物を含む回答画像を表示部11に表示する。表示制御部31は、設問画像を表示部11に表示する際、回答画像における特定対象物と比較対象物との位置関係を示す参照画像を設問画像の一部に表示する。参照画像は、回答画像における特定対象物に対応する第1対象物と、回答画像における比較対象物に対応する第2対象物とを含む。第1対象物及び第2対象物は、特定対象物及び比較対象物と同様の位置関係となるように配置される。参照画像としては、例えば、回答画像の透過率を上昇させた画像、又は回答画像を縮小した画像等を用いることができる。
表示制御部31は、設問画像の表示を開始してから所定時間が経過した後に参照画像を表示部11に表示する。表示制御部31は、例えば設問情報に重畳するように参照画像を表示してもよいし、設問情報から外れた位置に参照画像を表示してもよい。
なお、設問画像と、回答画像と、設問画像に参照画像を含んだ状態の中間画像とを予め作成しておいてもよい。この場合、表示制御部31は、設問画像を表示した後、所定時間経過後に中間画像を表示し、中間画像を表示してから所定時間が経過した後に回答画像を表示する、というように、3つの画像を切り替えるようにしてもよい。
注視点検出部32は、被験者の注視点の位置データを検出する。本実施形態において、注視点検出部32は、画像取得装置20によって取得される被験者の左右の眼球EBの画像データに基づいて、三次元グローバル座標系で規定される被験者の視線ベクトルを検出する。注視点検出部32は、検出した被験者の視線ベクトルと表示装置10の表示部11との交点の位置データを、被験者の注視点の位置データとして検出する。つまり、本実施形態において、注視点の位置データは、三次元グローバル座標系で規定される被験者の視線ベクトルと、表示装置10の表示部11との交点の位置データである。注視点検出部32は、規定のサンプリング周期毎に被験者の注視点の位置データを検出する。このサンプリング周期は、例えば撮影装置21から出力されるフレーム同期信号の周期(例えば20[msec]毎)とすることができる。
領域設定部33は、表示部11において、回答画像に表示される特定対象物に対応する特定領域と、比較対象物に対応する比較領域とを設定する。また、領域設定部33は、表示部11において、設問画像に表示される参照画像に対応する参照領域を設定する。この場合、領域設定部33は、参照画像のうち特定対象物に対応する第1参照領域と、参照画像のうち比較対象物に対応する第2参照領域とを設定することができる。
判定部34は、領域設定部33によって特定領域及び比較領域が設定される期間に、注視点の位置データに基づいて、注視点が特定領域及び比較領域に存在するか否かをそれぞれ判定し、判定結果を判定データとして出力する。また、判定部34は、領域設定部33によって参照領域が設定される期間に、注視点の位置データに基づいて、注視点が参照領域(第1参照領域、第2参照領域)に存在するか否かをそれぞれ判定し、判定結果を判定データとして出力する。判定部34は、規定の判定周期毎に注視点が特定領域、比較領域、参照領域に存在するか否かを判定する。判定周期としては、例えば撮影装置21から出力されるフレーム同期信号の周期(例えば20[msec]毎)とすることができる。つまり、判定部34の判定周期は、注視点検出部32のサンプリング周期と同一である。判定部34は、注視点検出部32で注視点の位置がサンプリングされる毎に当該注視点について判定を行い、判定データを出力する。
演算部35は、判定部34の判定データに基づいて、上記の特定領域及び比較領域が設定される期間における注視点の移動の経過を示す評価用パラメータを算出する。また、演算部35は、判定部34の判定データに基づいて、上記の参照領域(第1参照領域、第2参照領域)が設定される期間における注視点の移動の経過を示す評価用パラメータを算出する。本実施形態において、注視点は、被験者によって指定される表示部上の指定点に含まれる。
演算部35は、評価用パラメータとして、例えば到達時間データ、移動回数データ及び存在時間データのうち少なくとも1つのデータと、最終領域データとを算出する。特定領域及び比較領域が設定される期間において、到達時間データは、注視点が特定領域に最初に到達した到達時点までの時間を示す。移動回数データは、注視点が最初に特定領域に到達するまでに複数の比較領域の間で注視点の位置が移動する回数を示す。存在時間データは、参照画像の表示期間に注視点が特定領域に存在した存在時間を示す。最終領域データは、特定領域及び比較領域のうち表示時間において注視点が最後に存在していた領域を示す。また、参照領域(第1参照領域、第2参照領域)が設定される期間において、到達時間データは、注視点が第1参照領域に最初に到達した到達時点までの時間を示す。移動回数データは、注視点が最初に第1参照領域に到達するまでに複数の第2参照領域の間で注視点の位置が移動する回数を示す。存在時間データは、参照画像の表示期間に注視点が第1参照領域に存在した存在時間を示す。最終領域データは、第1参照領域及び第2参照領域のうち表示時間において注視点が最後に存在していた領域を示す。
演算部35は、表示部11に評価用映像が表示されてからの経過時間を検出するタイマと、判定部34により特定領域、比較領域、参照領域(第1参照領域、第2参照領域)に注視点が存在すると判定された判定回数をカウントするカウンタとを有する。また、演算部35は、評価用映像の再生時間を管理する管理タイマを有してもよい。
評価部36は、評価用パラメータに基づいて、被験者の評価データを求める。評価データは、表示部11に表示される特定対象物及び比較対象物を被験者が注視できているかを評価するデータを含む。
入出力制御部37は、画像取得装置20及び入力装置50の少なくとも一方からのデータ(眼球EBの画像データ、入力データ等)を取得する。また、入出力制御部37は、表示装置10及び出力装置40の少なくとも一方にデータを出力する。入出力制御部37は、被験者に対する課題をスピーカ等の出力装置40から出力してもよい。また、入出力制御部37は、回答パターンが複数回連続で表示される場合に、再度特定対象物を注視させるための指示をスピーカ等の出力装置40から出力してもよい。
記憶部38は、上記の判定データ、評価用パラメータ(到達時間データ、移動回数データ、存在時間データ、最終領域データ)、及び評価データを記憶する。また、記憶部38は、表示部11上における被験者の注視点の位置を検出する処理と、被験者への設問情報を含む設問画像を表示部に表示した後、設問情報に対する正解となる特定対象物及び特定対象物とは異なる比較対象物を含む回答画像を表示部11に表示し、設問画像を表示部11に表示する際、回答画像における特定対象物と比較対象物との位置関係を示す参照画像を設問画像に表示する処理と、表示部11上において、特定対象物に対応する特定領域と、比較対象物に対応する比較領域とを設定する処理と、注視点の位置に基づいて、注視点が特定領域及び比較領域に存在するかを判定する処理と、判定部の判定結果に基づいて、評価用パラメータを算出する処理と、評価用パラメータに基づいて、被験者の評価データを求める処理とをコンピュータに実行させる評価プログラムを記憶する。
[評価方法]
次に、本実施形態に係る評価方法について説明する。本実施形態に係る評価方法では、上記の評価装置100を用いることにより、被験者の認知機能障害および脳機能障害を評価する。
図3は、表示部11に表示する設問画像の一例を示す図である。図3に示すように、表示制御部31は、例えば被験者に対する設問情報Qを含む設問画像P1を表示部11に所定期間表示する。本実施形態において、設問情報Qは、被験者に「8−3=?」の引き算の答えを計算させる内容の設問が例として示されている。なお、設問情報Qとしては、被験者に計算させる内容に限定されず、他の内容の設問であってもよい。なお、入出力制御部37は、設問情報Qの表示に加えて、設問情報Qに対応する音声をスピーカから出力してもよい。
図4は、表示部11に表示する参照画像の一例を示す図である。図4に示すように、表示制御部31は、設問画像P1を表示する際、設問画像P1と同時に参照画像R1を表示部11に表示させることができる。以下、参照画像が表示された状態の設問画像P1を中間画像P2と表記する。例えば、設問画像P1に参照画像R1を含んだ状態の中間画像P2を予め作成しておく。この場合、表示制御部31は、設問画像P1を表示した後、所定時間経過後に中間画像P2を表示する。図4に示す中間画像P2において、参照画像R1は、例えば後述する回答画像P3の透過率を上昇させた画像である。表示制御部31は、設問画像P1に重畳させるように参照画像R1を表示することができる。表示制御部31は、設問画像P1の表示が開始された後、所定時間が経過した後に、参照画像R1を含む中間画像P2表示することができる。
参照画像R1は、参照対象物Uを含む。参照対象物Uは、第1対象物U1と、第2対象物U2、U3、U4とを含む。第1対象物U1は、回答画像P3における特定対象物M1(図6参照)に対応する。第2対象物U2〜U4は、回答画像P3における比較対象物M2〜M4(図6参照)に対応する。第1対象物U1及び第2対象物U2〜U4は、回答画像P3における特定対象物M1及び比較対象物M2〜M4(図6参照)と同様の位置関係となるように配置される。
図5は、表示部11に表示する中間画像の他の例を示す図である。図5に示す中間画像P2は、設問画像P1の一部に参照画像R2を含む。参照画像R2は、例えば後述する回答画像P3を縮小した画像である。参照画像R2は、例えば表示部11の角部等のように設問情報Qと重ならない位置、つまり表示部11のうち設問情報Qの表示領域から外れた位置に表示される。なお、参照画像R2は、設問情報Qと重ならない位置であれば、表示部11の角部とは異なる他の位置に配置されてもよい。
参照画像R2は、参照対象物Uを含む。参照対象物Uは、第1対象物U5と、第2対象物U6、U7、U8とを含む。第1対象物U5は、回答画像P3における特定対象物M1(図6参照)に対応する。第2対象物U6〜U8は、回答画像P3における比較対象物M2〜M4(図6参照)に対応する。第1対象物U5及び第2対象物U6〜U8は、回答画像P3における特定対象物M1及び比較対象物M2〜M4(図6参照)と同様の位置関係となるように配置される。
図6は、表示部11に表示する回答画像の一例を示す図である。図6に示すように、表示制御部31は、中間画像P2を表示してから所定の時間が経過した後、回答画像P3を表示部11に表示する。なお、図6では、表示部11において、例えば計測後に結果表示される注視点Pの一例を示しているが、当該注視点Pは、実際には表示部11には表示されない。回答画像P3は、設問情報Qに対して正解となる特定対象物M1と、設問情報Qに対して不正解となる複数の比較対象物M2とが配置される。特定対象物M1は、設問情報Qに対して正解となる数字「5」である。比較対象物M2〜M4は、設問情報Qに対して不正解となる数字「1」「3」「7」である。
領域設定部33は、回答画像P3が表示される期間、設問情報Qに対して正解となる特定対象物M1に対応した特定領域X1を設定する。また、領域設定部33は、設問情報Qに対して不正解となる比較対象物M2〜M4に対応した比較領域X2〜X4を設定する。
領域設定部33は、特定対象物M1及び比較対象物M2〜M4の少なくとも一部を含む領域に、それぞれ特定領域X1及び比較領域X2〜X4を設定することができる。本実施形態において、領域設定部33は、特定対象物M1を含む円形の領域に特定領域X1を設定し、比較対象物M2〜M4を含む円形の領域に比較領域X2〜X4を設定する。
図7は、表示部11にアイキャッチ映像を表示させる場合の一例を示す図である。表示制御部31は、中間画像P2の表示から回答画像P3の表示に切り替える際、図7に示すように、例えば表示部11の中央部等の目標位置に向けて中間画像P2を縮小させる映像をアイキャッチ映像として表示部11に表示してもよい。この場合、表示制御部31は、中間画像P2に表示される参照画像R1(又は参照画像R2)についても中間画像P2と一体の画像として縮小させるようにする。これにより、被験者の視線を目標位置に誘導することができる。
認知機能障害および脳機能障害の症状は、被験者の認知能力及び計算能力に影響することが知られている。被験者が認知機能障害および脳機能障害ではない場合、設問画像P1に対しては設問情報Qを認知して計算を行い、回答画像P3に対しては正解となる特定対象物M1を注視することができる。また、被験者が認知機能障害および脳機能障害である場合、設問画像P1に対しては設問情報Qを認知して計算を行うことができない場合があり、回答画像P3に対しては正解となる特定対象物M1を注視することができない場合がある。
一方、上記のような表示を行う場合、回答画像P3に特定対象物M1及び比較対象物M2〜M4がどのように配置されているかについては、回答画像P3が表示されるまで分からない。このため、被験者は、回答画像P3の表示が開始された場合、表示部11の全体を見て特定対象物M1及び比較対象物M2〜M4がどのように配置されているかを理解する必要がある。この行動により、認知機能障害および脳機能障害ではない被験者であっても、回答画像P3の表示開始から特定対象物M1を注視するまでの過程を評価する際、精度が低下してしまう場合がある。
また、特定対象物M1及び比較対象物M2〜M4を表示部11に単に表示して注視させる方式では、回答画像P3の表示期間に、被験者の注視点が正解である特定対象物M1に偶然配置されてしまう場合がある。このような場合、被験者が認知機能障害および脳機能障害であるか否かに関わらず正解として判定される可能性があるため、被験者を高精度に評価することが困難となる。
このため、例えば以下の手順を行うことにより、被験者を高精度に評価することが可能である。まず、表示制御部31は、表示部11に設問画像P1を表示する。設問画像P1の表示開始から所定時間が経過した後、表示制御部31は、設問画像P1に参照画像R1(又はR2)を含む中間画像P2を表示する。参照画像R1には、この後に表示される回答画像P3における特定対象物M1及び比較対象物M2〜M4の配置が示されている。表示制御部31は、中間画像P2を表示してから所定時間が経過した後、表示部11に回答画像P3を表示する。
この手順を行うことにより、被験者は、設問画像P1に表示される設問情報Qの回答に際して、回答画像P3が表示される前に、中間画像P2における参照画像R1を注視することで、特定対象物M1及び比較対象物M2〜M4の配置を理解することができる。これにより、回答画像P3が表示された後、被験者は、設問情報Qに対する正解となる特定対象物M1を素早く注視することができる。
注視点検出部32は、回答画像P3が表示される期間において、規定のサンプリング周期(例えば20[msec])毎に、被験者の注視点Pの位置データを検出する。判定部34は、被験者の注視点Pの位置データが検出された場合、被験者の注視点が特定領域X1、及び比較領域X2〜X4に存在するかを判定し、判定データを出力する。したがって、判定部34は、上記のサンプリング周期と同一の判定周期毎に判定データを出力する。
演算部35は、判定データに基づいて、表示期間における注視点Pの移動の経過を示す評価用パラメータを算出する。演算部35は、評価用パラメータとして、例えば存在時間データと、移動回数データと、最終領域データと、到達時間データとを算出する。
存在時間データは、注視点Pが特定領域X1に存在した存在時間を示す。本実施形態では、判定部34により注視点が特定領域X1に存在すると判定された回数が多いほど、特定領域X1に注視点Pが存在した存在時間が長いと推定することができる。したがって、存在時間データは、特定領域X1に注視点が存在すると判定部34に判定された回数とすることができる。つまり、演算部35は、カウンタにおけるカウント値NX1を存在時間データとすることができる。
移動回数データは、注視点Pが最初に特定領域X1に到達するまでに複数の比較領域X2〜X4の間で注視点Pの位置が移動する移動回数を示す。したがって、演算部35は、特定領域X1及び比較領域X2〜X4の領域間で注視点Pが何回移動したかをカウントし、注視点Pが特定領域X1に到達するまでのカウント結果を移動回数データとすることができる。
最終領域データは、特定領域X1及び比較領域X2〜X4のうち注視点Pが最後に存在していた領域、つまり被験者が回答として最後に注視していた領域を示す。演算部35は、注視点Pが存在する領域を当該注視点Pの検出毎に更新することにより、回答画像P3の表示が終了した時点における検出結果を最終領域データとすることができる。
到達時間データは、回答画像P3の表示開始の時点から注視点Pが特定領域X1に最初に到達した到達時点までの時間を示す。したがって、演算部35は、表示開始からの経過時間をタイマTによって測定し、注視点が最初に特定領域X1に到達した時点でフラグ値を1としてタイマTの測定値を検出することで、当該タイマTの検出結果を到達時間データとすることができる。
評価部36は、存在時間データ、移動回数データ、最終領域データ、及び到達時間データに基づいて評価値を求め、評価値に基づいて評価データを求める。例えば、最終領域データのデータ値をD1、存在時間データのデータ値をD2、到達時間データのデータ値をD3、移動回数データのデータ値をD4とする。ただし、最終領域データのデータ値D1は、被験者の最終的な注視点Pが特定領域X1に存在していれば(つまり、正解であれば)1、特定領域X1に存在していなければ(つまり、不正解であれば)0とする。また、存在時間データのデータ値D2は、特定領域X1に注視点Pが存在した秒数とする。なお、データ値D2は、表示期間よりも短い秒数の上限値が設けられてもよい。また、到達時間データのデータ値D3は、到達時間の逆数(例えば、1/(到達時間)÷10)(10:到達時間の最小値を0.1秒として到達時間評価値を1以下とするための係数)とする。また、移動回数データのデータ値D4は、カウント値をそのまま用いることとする。なお、データ値D4は、適宜上限値が設けられてもよい。
この場合、評価値ANS1は、例えば、
ANS1=D1・K1+D2・K2+D3・K3+D4・K4
と表すことができる。なお、K1〜K4は、重みづけのための定数である。定数K1〜K4については、適宜設定することができる。
上記式で示される評価値ANS1は、最終領域データのデータ値D1が1である場合、存在時間データのデータ値D2が大きい場合、到達時間データのデータ値D3が大きい場合、移動回数データのデータ値D4の値が大きい場合に、値が大きくなる。つまり、最終的な注視点Pが特定領域X1に存在し、特定領域X1における注視点Pの存在時間が長く、表示期間の開始時点から特定領域X1に注視点Pが到達する到達時間が短く、注視点Pが各領域を移動する移動回数が多いほど、評価値ANS1が大きくなる。
一方、評価値ANS1は、最終領域データのデータ値D1が0である場合、存在時間データのデータ値D2が小さい場合、到達時間データのデータ値D3が小さい場合、移動回数データのデータ値D4が小さい場合に、値が小さくなる。つまり、最終的な注視点Pが特定領域X1に存在せず、特定領域X1における注視点Pの存在時間が短く、表示期間の開始時点から特定領域X1に注視点Pが到達する到達時間が長く、注視点Pが各領域を移動する移動回数が少ないほど、評価値ANS1が小さくなる。
したがって、評価部36は、評価値ANS1が所定値以上か否かを判断することで評価データを求めることができる。例えば評価値ANS1が所定値以上である場合、被験者が認知機能障害および脳機能障害者である可能性は低いと評価することができる。また、評価値ANS1が所定値未満である場合、被験者が認知機能障害および脳機能障害者である可能性は高いと評価することができる。
また、評価部36は、評価値ANS1の値を記憶部38に記憶させておくことができる。例えば、同一の被験者についての評価値ANS1を累積的に記憶し、過去の評価値と比較した場合の評価を行ってもよい。例えば、評価値ANS1が過去の評価値よりも高い値となった場合、脳機能が前回の評価に比べて改善されている旨の評価を行うことができる。また、評価値ANS1の累積値が徐々に高くなっている場合等には、脳機能が徐々に改善されている旨の評価を行うことができる。
また、評価部36は、存在時間データ、移動回数データ、最終領域データ、及び到達時間データを個別又は複数組み合わせて評価を行ってもよい。例えば、多くの対象物を見ている間に、偶発的に特定領域X1に注視点Pが到達した場合には、移動回数データのデータ値D4は小さくなる。この場合には、上述した存在時間データのデータ値D2と併せて評価を行うことができる。例えば、移動回数が少ない場合であっても存在時間が長い場合には、正解となる特定領域X1を注視できていると評価することができる。また、移動回数が少ない場合であって存在時間も短い場合、偶発的に注視点Pが特定領域X1を通過したものがあると評価することができる。
また、移動回数が少ない場合において、最終領域が特定領域X1であれば、例えば正解の特定領域X1に注視点移動が少なくて到達したと評価することができる。一方、上述した移動回数が少ない場合において、最終領域が特定領域X1でなければ、例えば偶発的に注視点Pが特定領域X1を通過したものあると評価することができる。したがって、評価用パラメータを用いて評価を行うことにより、注視点の移動の経過に基づいて評価データを求めることができるため、偶然性の影響を低減することができる。
本実施形態において、入出力制御部37は、評価部36が評価データを出力した場合、評価データに応じて、例えば「被験者は認知機能障害および脳機能障害者である可能性が低いと思われます」の文字データや、「被験者は認知機能障害および脳機能障害者である可能性が高いと思われます」の文字データ等を出力装置40に出力させることができる。また、入出力制御部37は、同一の被験者についての評価値ANS1が過去の評価値ANS1に比べて高くなっている場合、「脳機能が改善されています」等の文字データ等を出力装置40に出力させることができる。
次に、本実施形態に係る評価方法の一例について、図8を参照しながら説明する。図8は、本実施形態に係る評価方法の一例を示すフローチャートである。本実施形態においては、演算部35は、以下の設定及びリセットを行う(ステップS101)。まず、演算部35は、設問画像P1、中間画像P2及び回答画像P3を表示させる表示時間T1、T2、T3を設定する。また、演算部35は、タイマT及びカウンタのカウント値NX1をリセットし、フラグ値を0にリセットする。また、表示制御部31は、中間画像P2において示す参照画像R1の透過率αを設定してもよい。
上記設定及びリセットを行った後、表示制御部31は、設問画像P1を表示部11に表示する(ステップS102)。表示制御部31は、設問画像P1を表示してから、ステップS101で設定した表示時間T1が経過した後、中間画像P2を表示部11に表示する(ステップS103)。なお、設問画像P1に参照画像R1を重畳させる処理を行ってもよい。表示制御部31は、中間画像P2を表示してから、ステップS101で設定した表示時間T2が経過した後、回答画像P3を表示する(ステップS103)。回答画像P3の表示に際し、領域設定部33は、回答画像P3の特定領域X1及び比較領域X2〜X4を設定する。
注視点検出部32は、表示部11に表示された画像を被験者に見せた状態で、規定のサンプリング周期(例えば20[msec])毎に、表示部11における被験者の注視点の位置データを検出する(ステップS105)。位置データが検出された場合(ステップS106のNo)、判定部34は、位置データに基づいて注視点Pが存在する領域を判定する(ステップS107)。また、位置データが検出されない場合(ステップS106のYes)、後述するステップS129以降の処理を行う。
注視点Pが特定領域X1に存在すると判定された場合(ステップS108のYes)、演算部35は、フラグ値Fが1であるか否か、つまり、注視点Pが特定領域X1に到達したのが最初か否か(1:到達済み、0:未到達)を判定する(ステップS109)。フラグ値Fが1である場合(ステップS109のYes)、演算部35は、以下のステップS110からステップS112までを飛ばして後述するステップS113の処理を行う。
また、フラグ値Fが1ではない場合、つまり、特定領域X1に注視点Pが到達したのが最初である場合(ステップS109のNo)、演算部35は、タイマTの計測結果を指示到達時間データとして抽出する(ステップS110)。また、演算部35は、特定領域X1に到達するまでに注視点Pが領域間の移動を何回行ったかを示す移動回数データを記憶部38に記憶させる(ステップS111)。その後、演算部35は、フラグ値を1に変更する(ステップS112)。
次に、演算部35は、直近の検出において注視点Pが存在した領域、つまり最終領域が特定領域X1であるか否かを判定する(ステップS113)。演算部35は、最終領域が特定領域X1であると判定した場合(ステップS113のYes)、以下のステップS114からステップS116までを飛ばして後述するステップS129の処理を行う。また、最終領域が特定領域X1ではないと判定した場合(ステップS113のNo)、演算部35は、注視点Pが領域間で何回移動したかを示す積算回数を+1とし(ステップS114)、最終領域を特定領域X1に変更する(ステップS115)。また、演算部35は、特定領域X1での存在時間データを示すカウント値NX1を+1とする(ステップS116)。その後、演算部35は、後述するステップS129以降の処理を行う。
また、注視点Pが特定領域X1に存在しないと判定された場合(ステップS108のNo)、演算部35は、注視点Pが比較領域X2に存在するか否かを判定する(ステップS117)。注視点Pが比較領域X2に存在すると判定された場合(ステップS117のYes)、演算部35は、直近の検出において注視点Pが存在した領域、つまり最終領域が比較領域X2であるか否かを判定する(ステップS118)。演算部35は、最終領域が比較領域X2であると判定した場合(ステップS118のYes)、以下のステップS119及びステップS120を飛ばして後述するステップS129の処理を行う。また、最終領域が比較領域X2ではないと判定した場合(ステップS118のNo)、演算部35は、注視点Pが領域間で何回移動したかを示す積算回数を+1とし(ステップS119)、最終領域を比較領域X2に変更する(ステップS120)。その後、演算部35は、後述するステップS129以降の処理を行う。
また、注視点Pが比較領域X2に存在しないと判定された場合(ステップS117のNo)、演算部35は、注視点Pが比較領域X3に存在するか否かを判定する(ステップS121)。注視点Pが比較領域X3に存在すると判定された場合(ステップS121のYes)、演算部35は、直近の検出において注視点Pが存在した領域、つまり最終領域が比較領域X3であるか否かを判定する(ステップS122)。演算部35は、最終領域が比較領域X3であると判定した場合(ステップS122のYes)、以下のステップS123及びステップS124を飛ばして後述するステップS129の処理を行う。また、最終領域が比較領域X3ではないと判定した場合(ステップS122のNo)、演算部35は、注視点Pが領域間で何回移動したかを示す積算回数を+1とし(ステップS123)、最終領域を比較領域X3に変更する(ステップS124)。その後、演算部35は、後述するステップS129以降の処理を行う。
また、注視点Pが比較領域X3に存在しないと判定された場合(ステップS121のNo)、演算部35は、注視点Pが比較領域X4に存在するか否かを判定する(ステップS125)。注視点Pが比較領域X4に存在すると判定された場合(ステップS125のYes)、演算部35は、直近の検出において注視点Pが存在した領域、つまり最終領域が比較領域X4であるか否かを判定する(ステップS126)。また、注視点Pが比較領域X4に存在しないと判定された場合(ステップS125のNo)、後述するステップS129の処理を行う。また、演算部35は、最終領域が比較領域X4であると判定した場合(ステップS126のYes)、以下のステップS127及びステップS128を飛ばして後述するステップS129の処理を行う。また、最終領域が比較領域X4ではないと判定した場合(ステップS126のNo)、演算部35は、注視点Pが領域間で何回移動したかを示す積算回数を+1とし(ステップS127)、最終領域を比較領域X4に変更する(ステップS128)。その後、演算部35は、後述するステップS129以降の処理を行う。
その後、演算部35は、タイマTの検出結果に基づいて、回答画像P3の表示時間T3が経過したか否かを判断する(ステップS129)。回答画像P3の表示時間T3が経過していないと判断された場合(ステップS129のNo)、上記のステップS105以降の処理を繰り返し行う。
演算部35により回答画像P3の表示時間T3が経過したと判断された場合(ステップS129Yes)、表示制御部202は、映像の再生を停止させる(ステップS130)。映像の再生が停止された後、評価部36は、上記の処理結果から得られる存在時間データと、移動回数データと、最終領域データと、到達時間データに基づいて、評価値ANS1を算出し(ステップS131)、評価値ANS1に基づいて評価データを求める。その後、出力制御部226は、評価部224で求められた評価データを出力する(ステップS132)。
なお、中間画像P2が表示部11に表示される際、当該中間画像P2(参照画像R1)に含まれる第1対象物U1及び第2対象物U2〜U4を用いて被験者の評価を行うことができる。図9は、表示部11に中間画像を表示する場合の他の例を示す図である。図9に示すように、表示制御部31は、設問画像P1を所定時間表示した後、設問画像P1及び参照画像R1を含む中間画像P2を表示部11に表示させる。この場合、領域設定部33は、中間画像P2(参照画像R1)が表示される期間、第1対象物U1に対応した第1参照領域Aを設定する。また、領域設定部33は、第2対象物U2〜U4に対応した第2参照領域B、C、Dを設定する。以下、中間画像P2に含まれる参照画像として、参照画像R1を例に挙げて説明するが、参照画像R2が含まれる場合であっても同様の説明が可能である。
領域設定部33は、第1対象物U1及び第2対象物U2〜U4の少なくとも一部を含む領域に、それぞれ参照領域A〜Dを設定することができる。本実施形態において、領域設定部33は、第1対象物U1を含む円形の領域に第1参照領域Aを設定し、第2対象物U2〜U4を含む円形の領域に第2参照領域B〜Dを設定する。このように、領域設定部33は、参照画像R1に対応する参照領域A〜Dを設定することができる。
注視点検出部32は、中間画像P2が表示される期間において、規定のサンプリング周期(例えば20[msec])毎に、被験者の注視点Pの位置データを検出する。判定部34は、被験者の注視点Pの位置データが検出された場合、被験者の注視点が第1参照領域A、及び第2参照領域B〜Dに存在するかを判定し、判定データを出力する。したがって、判定部34は、上記のサンプリング周期と同一の判定周期毎に判定データを出力する。
演算部35は、判定データに基づいて、上記同様に、中間画像P2が表示される期間における注視点Pの移動の経過を示す評価用パラメータを算出する。演算部35は、評価用パラメータとして、例えば存在時間データと、移動回数データと、最終領域データと、到達時間データとを算出する。
存在時間データは、注視点Pが第1参照領域Aに存在した存在時間を示す。存在時間データは、第1参照領域Aに注視点が存在すると判定部34に判定された回数とすることができる。つまり、演算部35は、カウンタにおけるカウント値NA、NB、NC、NDを存在時間データとすることができる。
移動回数データは、注視点Pが最初に第1参照領域Aに到達するまでに複数の第2参照領域B〜Dの間で注視点Pの位置が移動する移動回数を示す。演算部35は、第1参照領域A及び第2参照領域B〜Dの領域間で注視点Pが何回移動したかをカウントし、注視点Pが第1参照領域Aに到達するまでのカウント結果を移動回数データとすることができる。
最終領域データは、第1参照領域A及び第2参照領域B〜Dのうち注視点Pが最後に存在していた領域、つまり被験者が回答として最後に注視していた領域を示す。演算部35は、注視点Pが存在する領域を当該注視点Pの検出毎に更新することにより、回答画像P3の表示が終了した時点における検出結果を最終領域データとすることができる。
到達時間データは、中間画像P2の表示開始の時点から注視点Pが第1参照領域Aに最初に到達した到達時点までの時間を示す。演算部35は、表示開始からの経過時間をタイマTによって測定し、注視点が最初に第1参照領域Aに到達した時点でタイマTの測定値を検出することで、当該タイマTの検出結果を到達時間データとすることができる。
図10は、本実施形態に係る評価方法の他の例を示すフローチャートである。図10に示すように、まず、設問画像P1、中間画像P2及び回答画像P3を表示させる表示時間(所定時間)T1、T2、T3を設定し(ステップS201)、中間画像P2に表示する参照画像R1の透過率αを設定する(ステップS202)。また、回答画像P3における第1参照領域A及び第2参照領域B〜Dについての設定を行う(ステップS203)。
また、第1参照領域A及び第2参照領域B〜Dについて、被験者がいくつの領域を注視したかを示す注視領域数Mについての閾値MOを設定する(ステップS204)。図9の例では領域が4つ(A〜D)存在するため、MOを0から4の間で設定する。また、以下の注視点の閾値を設定する(ステップS205)。まず、第1参照領域A及び第2参照領域B〜Dを注視したと判定するために必要な注視点の数NA0〜ND0を設定する。第1参照領域A及び第2参照領域B〜Dに対して、それぞれ設定したNA0〜ND0以上の注視点が得られた場合、該当する領域を注視したと判定される。また、中間画像P2が表示されてから参照画像R1の各領域(第1参照領域A、第2参照領域B〜D)を認識するまでの時間TA〜TDを決定するための注視点数NTA0〜NTD0を設定する。
上記の設定を行った後、注視点検出部32は、注視点の計測を開始する(ステップS206)。また、演算部35は、時間経過を計測するタイマTをリセットして計時を開始する(ステップS207)。表示制御部31は、表示部11に設問画像P1を表示する(ステップS208)。表示制御部31は、設問画像P1の表示を開始した後、ステップS201において設定した表示時間T1が経過するまで待機する(ステップS209)。
表示制御部31は、表示時間T1が経過した後、ステップS203で設定した透過率αの参照画像R1を含む中間画像P2を表示部11に表示する(ステップS210)。このとき、領域設定部33は、参照画像R1の第1対象物U1に対応する第1参照領域Aと、第2対象物U2〜U4に対応する第2参照領域B〜Dを設定する。また、中間画像P2の表示開始と同時に、第1参照領域A及び第2参照領域B〜Dについての注視点をカウントするカウンタのカウント値NA〜NDをリセットし、時間経過を計測するタイマTをリセットして計時を開始する(ステップS211)。その後、ステップS202で設定した表示時間T2が経過するまで待機する(ステップS212)。
表示時間T2が経過した後、表示制御部31は、表示部11に回答画像P3を表示する(ステップS242)。表示時間T2が経過しない場合(ステップS212のNo)、以下の領域判定を行う。
注視点Pが第1参照領域Aに存在すると判定された場合(ステップS213のYes)、演算部35は、第1参照領域Aについてのカウント値NAを+1とする(ステップS214)。カウント値NAが閾値NA0に到達した場合(ステップS215)、注視領域数Mの値を+1とする(ステップS216)。また、カウント値NAが注視点数NTA0に到達した場合(ステップS217)、タイマTの値を、第1参照領域Aを認識するまでにかかった時間TAとする(ステップS218)。その後、最終領域を第1参照領域Aに変更する(ステップS244)。
注視点Pが第1参照領域Aに存在しないと判定された場合(ステップS213のNo)、注視点Pが第2参照領域B〜Dのそれぞれについて、ステップS213〜ステップS219と同様の処理を行う。つまり、第2参照領域Bについては、ステップS220〜ステップS226の処理を行う。第2参照領域Cについては、ステップS227〜ステップS233の処理を行う。第2参照領域Dについては、ステップS234〜ステップS240の処理を行う。
ステップS219、S226、S233、S240又はステップS234のNoの処理の後、演算部35は、被験者が注視した領域の数MがステップS205で設定した閾値MOに到達したか否かを判定する(ステップS241)。閾値MOに到達していない場合(ステップS241のNo)、ステップS212以降の処理を繰り返し行う。閾値MOに到達した場合(ステップS241のYes)、表示制御部31は、表示部11に回答画像P3を表示する(ステップS242)。その後、演算部35は、タイマTをリセットし(ステップS243)、図8で説明した回答画像P3における上記の判定処理(図8に示すステップS105〜ステップ128参照)と同様の処理を行う(ステップS244)。その後、演算部35は、タイマTのカウント値がステップS201で設定した表示時間T3に到達したか否かを判定する(ステップS245)。表示時間T3に到達しない場合(ステップS245のNo)、演算部35は、ステップS244の処理を繰り返し行う。表示時間T3に到達した場合(ステップS245のYes)、注視点検出部32は、注視点の計測を終了する(ステップS246)。その後、評価部36により評価演算を行う(ステップS247)。
評価部36は、存在時間データ、移動回数データ、最終領域データ、及び到達時間データに基づいて評価値を求め、評価値に基づいて評価データを求める。評価部36による評価は、上記した回答画像P3における評価と同様であってもよい。ここでは、例えば、最終領域データのデータ値をD5、到達時間データのデータ値をD6、存在時間データのデータ値をD7、移動回数データのデータ値をD8とする。ただし、最終領域データのデータ値D5は、被験者の最終的な注視点Pが第1参照領域Aに存在していれば(つまり、正解であれば)1、第1参照領域Aに存在していなければ(つまり、不正解であれば)0とする。また、到達時間データのデータ値D6は、到達時間TAの逆数(例えば、1/(到達時間)÷10)(10:到達時間の最小値を0.1秒として到達時間評価値を1以下とするための係数)とする。また、存在時間データD7については、第1参照領域Aを注視した割合(NA/NA0)(最大値は1.0とする)によって示すことができる。また、移動回数データD8については、被験者が注視した領域の数Mを閾値MOで除算した割合(M/MO)によって示すことができる。
この場合、評価値ANS2は、例えば、
ANS2=D5・K5+D6・K6+D7・K7+D8・K8
と表すことができる。なお、K5〜K8は、重みづけのための定数である。定数K5〜K8については、適宜設定することができる。
上記式で示される評価値ANS2は、最終領域データのデータ値D5が1である場合、到達時間データのデータ値D6が大きい場合、存在時間データのデータ値D7が大きい場合、移動回数データのデータ値D8の値が大きい場合に、値が大きくなる。つまり、最終的な注視点Pが第1参照領域Aに存在し、参照画像R1の表示開始から第1参照領域Aに注視点Pが到達する到達時間が短く、第1参照領域Aにおける注視点Pの存在時間が長く、注視点Pが各領域を移動する移動回数が多いほど、評価値ANS2が大きくなる。
一方、評価値ANS2は、最終領域データのデータ値D5が0である場合、到達時間データのデータ値D6が小さい場合、存在時間データのデータ値D7が小さい場合、移動回数データのデータ値D8の値が小さい場合に、値が小さくなる。つまり、最終的な注視点Pが第2参照領域B〜Dに存在し、参照画像R1の表示開始から第1参照領域Aに注視点Pが到達する到達時間が長く(又は到達せず)、第1参照領域Aにおける注視点Pの存在時間が短く(又は存在せず)、注視点Pが各領域を移動する移動回数が少ないほど、評価値ANS2が小さくなる。
評価値ANS2が大きい値となる場合、参照画像R1を素早く認識し、設問情報Qの内容を正確に理解した上で正解(第1参照領域A)を注視したと判定できる。一方、評価値ANS2が小さい値となる場合、参照画像R1を素早く認識できず、設問情報Qの内容を正確に理解できず、又は正解(第1参照領域A)を注視できなかったと判定できる。
したがって、評価部36は、評価値ANS2が所定値以上か否かを判断することで評価データを求めることができる。例えば評価値ANS2が所定値以上である場合、被験者が認知機能障害および脳機能障害者である可能性は低いと評価することができる。また、評価値ANS2が所定値未満である場合、被験者が認知機能障害および脳機能障害者である可能性は高いと評価することができる。
また、評価部36は、上記同様に、評価値ANS2の値を記憶部38に記憶させておくことができる。例えば、同一の被験者についての評価値ANS2を累積的に記憶し、過去の評価値と比較した場合の評価を行ってもよい。例えば、評価値ANS2が過去の評価値よりも高い値となった場合、脳機能が前回の評価に比べて改善されている旨の評価を行うことができる。また、評価値ANS2の累積値が徐々に高くなっている場合等には、脳機能が徐々に改善されている旨の評価を行うことができる。
また、評価部36は、存在時間データ、移動回数データ、最終領域データ、及び到達時間データを個別又は複数組み合わせて評価を行ってもよい。例えば、多くの対象物を見ている間に、偶発的に第1参照領域Aに注視点Pが到達した場合には、移動回数データのデータ値D8は小さくなる。この場合には、上述した存在時間データのデータ値D7と併せて評価を行うことができる。例えば、移動回数が少ない場合であっても存在時間が長い場合には、正解となる第1参照領域Aを注視できていると評価することができる。また、移動回数が少ない場合であって存在時間も短い場合、偶発的に注視点Pが第1参照領域Aを通過したものがあると評価することができる。
また、移動回数が少ない場合において、最終領域が第1参照領域Aであれば、例えば正解の第1参照領域Aに注視点移動が少なくて到達したと評価することができる。一方、上述した移動回数が少ない場合において、最終領域が第1参照領域Aでなければ、例えば偶発的に注視点Pが第1参照領域Aを通過したものあると評価することができる。したがって、評価用パラメータを用いて評価を行うことにより、注視点の移動の経過に基づいて評価データを求めることができるため、偶然性の影響を低減することができる。
また、評価部36は、上記した回答画像P3における評価値ANS1と、設問画像P1における評価値ANS2とを用いて、最終評価値ANSを判定することができる。この場合、最終評価値ANSは、例えば
ANS=ANS1・K9+ANS2・K10
と表すことができる。なお、K9、K10は、重みづけのための定数である。定数K9、K10については、適宜設定することができる。
評価値ANS1が高く、評価値ANS2が高い場合、例えば設問情報Qに対する認知能力、理解能力及び処理能力の全体に亘ってリスクが無いと評価することができる。
評価値ANS1が高く、評価値ANS2が低い場合、例えば設問情報Qに対する理解能力及び処理能力についてはリスクが無いが、設問情報Qに対する認知能力にリスクがあると評価することができる。
評価値ANS1が低く、評価値ANS2が低い場合、例えば設問情報Qに対する認知能力、理解能力及び処理能力の全体においてリスクがあると評価することができる。
以上のように、本実施形態に係る評価装置100は、表示部11と、表示部11上における被験者の注視点の位置を検出する注視点検出部32と、被験者への設問情報を含む設問画像を表示部11に表示した後、設問情報に対する正解となる特定対象物及び特定対象物とは異なる比較対象物を含む回答画像を表示部11に表示し、設問画像を表示部11に表示する際、回答画像における特定対象物と比較対象物との位置関係を示す参照画像を表示部11に表示する表示制御部31と、表示部11上において、特定対象物に対応する特定領域と、比較対象物に対応する比較領域とを設定する領域設定部33と、注視点の位置に基づいて、注視点が特定領域及び比較領域に存在するかを判定する判定部34と、判定部34の判定結果に基づいて、評価用パラメータを算出する演算部35と、評価用パラメータに基づいて、被験者の評価データを求める評価部36とを備える。
また、本実施形態に係る評価方法は、表示部11と、表示部11上における被験者の注視点の位置を検出する注視点検出部32と、被験者への設問情報を含む設問画像を表示部11に表示した後、設問情報に対する正解となる特定対象物及び特定対象物とは異なる比較対象物を含む回答画像を表示部11に表示し、設問画像を表示部11に表示する際、回答画像における特定対象物と比較対象物との位置関係を示す参照画像を表示部11に表示する表示制御部31と、表示部11上において、特定対象物に対応する特定領域と、比較対象物に対応する比較領域とを設定する領域設定部33と、注視点の位置に基づいて、注視点が特定領域及び比較領域に存在するかを判定する判定部34と、判定部34の判定結果に基づいて、評価用パラメータを算出する演算部35と、評価用パラメータに基づいて、被験者の評価データを求める評価部36とを備える。
また、本実施形態に係る評価プログラムは、表示部11上における被験者の注視点の位置を検出する処理と、被験者への設問情報を含む設問画像を表示部11に表示した後、設問情報に対する正解となる特定対象物及び特定対象物とは異なる比較対象物を含む回答画像を表示部11に表示し、設問画像を表示部11に表示する際、回答画像における特定対象物と比較対象物との位置関係を示す参照画像を表示部11に表示する処理と、表示部11上において、特定対象物に対応する特定領域と、比較対象物に対応する比較領域とを設定する処理と、注視点の位置に基づいて、注視点が特定領域及び比較領域に存在するかを判定する処理と、判定部34の判定結果に基づいて、評価用パラメータを算出する処理と、評価用パラメータに基づいて、被験者の評価データを求める処理とをコンピュータに実行させる。
本実施形態によれば、被験者は、回答画像P3が表示される前に、設問画像P1における参照画像Rを注視することで、特定対象物M1及び比較対象物M2〜M4の配置を理解することができる。これにより、回答画像P3が表示された後、被験者は、設問情報Qに対する正解となる特定対象物M1を素早く注視することができる。また、評価用パラメータを用いて評価を行うことにより、注視点の移動の経過に基づいて評価データを求めることができるため、偶然性の影響を低減することができる。
本実施形態に係る評価装置100において、領域設定部33は、表示部11上において、参照画像R1に対応する参照領域A〜Dを設定し、判定部34は、注視点の位置に基づいて、注視点が参照領域A〜Dに存在するかを判定する。これにより、参照画像R1に対する評価用パラメータを含めた評価を行うことができる。
本実施形態に係る評価装置100において、参照画像R1は、特定対象物M1に対応する第1対象物U1と、比較対象物M2〜M4に対応する第2対象物U2〜U4とを含み、領域設定部33は、参照画像R1において第1対象物U1に対応する第1参照領域Aと、参照画像R1における第2対象物U2〜U4に対応する第2参照領域B〜Dと、を参照領域として設定する。これにより、回答画像P3が表示される前の段階において評価を得ることができる。
本実施形態に係る評価装置100において、評価用パラメータは、注視点が第1参照領域Aに最初に到達した到達時点までの時間を示す到達時間データと、注視点が最初に第1参照領域Aに到達するまでに複数の第2参照領域B〜Dの間で注視点の位置が移動する回数を示す移動回数データと、参照画像R1の表示期間に注視点Pが第1参照領域Aに存在した存在時間を示す存在時間データのうち少なくとも1つのデータと、第1参照領域A及び第2参照領域B〜Dのうち表示時間において注視点Pが最後に存在していた領域を示す最終領域データと、を含む。したがって、偶然性を排した高精度の評価を得ることができる。
本実施形態に係る評価装置100において、参照画像は、回答画像P3の透過率を変更した画像(R1)、又は回答画像を縮小した画像(R2)である。参照画像として回答画像P3を用いることにより、回答画像P3における特定対象物M1と比較対象物M2〜M4との位置関係を容易に把握することができる。
本実施形態に係る評価装置100において、表示制御部31は、設問画像P1の表示を開始してから所定時間が経過した後に参照画像R1を表示する。これにより、設問情報Qの内容を被験者に検討させる時間を与えることができ、被験者に対する混乱を避けることができる。
本発明の技術範囲は上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。例えば、上記実施形態において、表示制御部31は、設問画像P1の表示開始から所定時間が経過した後に参照画像R1を表示させる場合を例に挙げて説明したが、これに限定されない。例えば、表示制御部31は、設問画像P1の表示開始と同時に参照画像R1を表示してもよい。また、表示制御部31は、設問画像P1を表示させる前に参照画像R1を表示してもよい。
α…透過率、A〜D…参照領域(A…第1参照領域、B〜D…第2参照領域)、M1…特定対象物、M2〜M4…比較対象物、EB…眼球、P…注視点、P1…設問画像、P2…中間画像、P3…回答画像、Q…設問情報、R,R1,R2…参照画像、U…参照対象物、U1,U5…第1対象物、U2〜U4,U6〜U8…第2対象物、X1…特定領域、X2〜X4…比較領域、10…表示装置、11…表示部、20…画像取得装置、21…撮影装置、21A…第1カメラ、21B…第2カメラ、22…照明装置、22A…第1光源、22B…第2光源、30…コンピュータシステム、30A…演算処理装置、30B…記憶装置、30C…コンピュータプログラム、31,202…表示制御部、32…注視点検出部、33…領域設定部、34…判定部、35…演算部、36,224…評価部、37…入出力制御部、38…記憶部、40…出力装置、50…入力装置、60…入出力インターフェース装置、100…評価装置、226…出力制御部

Claims (8)

  1. 表示部と、
    前記表示部上における被験者の注視点の位置を検出する注視点検出部と、
    前記被験者への設問情報を含む設問画像を前記表示部に表示した後、前記設問情報に対する正解となる特定対象物及び前記特定対象物とは異なる比較対象物を含む回答画像を前記表示部に表示し、前記設問画像を前記表示部に表示する際、前記回答画像における前記特定対象物と前記比較対象物との位置関係を示す参照画像を前記表示部に表示する表示制御部と、
    前記表示部上において、前記特定対象物に対応する特定領域と、前記比較対象物に対応する比較領域とを設定する領域設定部と、
    前記注視点の位置に基づいて、前記注視点が前記特定領域及び前記比較領域に存在するかを判定する判定部と、
    前記判定部の判定結果に基づいて、評価用パラメータを算出する演算部と、
    前記評価用パラメータに基づいて、前記被験者の評価データを求める評価部と
    を備える評価装置。
  2. 前記領域設定部は、前記表示部上において、前記参照画像に対応する参照領域を設定し、
    前記判定部は、前記注視点の位置に基づいて、前記注視点が前記参照領域に存在するかを判定する
    請求項1に記載の評価装置。
  3. 前記参照画像は、前記特定対象物に対応する第1対象物と、前記比較対象物に対応する第2対象物とを含み、
    前記領域設定部は、前記参照画像において前記第1対象物に対応する第1参照領域と、前記参照画像における前記第2対象物に対応する第2参照領域と、を前記参照領域として設定する
    請求項2に記載の評価装置。
  4. 前記評価用パラメータは、前記注視点が前記第1参照領域に最初に到達した到達時点までの時間を示す到達時間データと、前記注視点が最初に前記第1参照領域に到達するまでに複数の前記第2参照領域の間で前記注視点の位置が移動する回数を示す移動回数データと、前記参照画像の表示期間に前記注視点が前記第1参照領域に存在した存在時間を示す存在時間データのうち少なくとも1つのデータと、前記第1参照領域及び前記第2参照領域のうち前記表示時間において前記注視点が最後に存在していた領域を示す最終領域データと、を含む
    請求項3に記載の評価装置。
  5. 前記参照画像は、前記回答画像の透過率を変更した画像、又は前記回答画像を縮小した画像である
    請求項1から請求項4のいずれか一項に記載の評価装置。
  6. 前記表示制御部は、前記設問画像の表示を開始してから所定時間が経過した後に前記参照画像を表示する
    請求項1から請求項5のいずれか一項に記載の評価装置。
  7. 表示部上における被験者の注視点の位置を検出することと、
    前記被験者への設問情報を含む設問画像を前記表示部に表示した後、前記設問情報に対する正解となる特定対象物及び前記特定対象物とは異なる比較対象物を含む回答画像を前記表示部に表示し、前記設問画像を前記表示部に表示する際、前記回答画像における前記特定対象物と前記比較対象物との位置関係を示す参照画像を前記表示部に表示することと、
    前記表示部上において、前記特定対象物に対応する特定領域と、前記比較対象物に対応する比較領域とを設定することと、
    前記注視点の位置に基づいて、前記注視点が前記特定領域及び前記比較領域に存在するかを判定することと、
    前記判定部の判定結果に基づいて、評価用パラメータを算出することと、
    前記評価用パラメータに基づいて、前記被験者の評価データを求めることと
    を含む評価方法。
  8. 表示部上における被験者の注視点の位置を検出する処理と、
    前記被験者への設問情報を含む設問画像を前記表示部に表示した後、前記設問情報に対する正解となる特定対象物及び前記特定対象物とは異なる比較対象物を含む回答画像を前記表示部に表示し、前記設問画像を前記表示部に表示する際、前記回答画像における前記特定対象物と前記比較対象物との位置関係を示す参照画像を前記表示部に表示する処理と、
    前記表示部上において、前記特定対象物に対応する特定領域と、前記比較対象物に対応する比較領域とを設定する処理と、
    前記注視点の位置に基づいて、前記注視点が前記特定領域及び前記比較領域に存在するかを判定する処理と、
    前記判定部の判定結果に基づいて、評価用パラメータを算出する処理と、
    前記評価用パラメータに基づいて、前記被験者の評価データを求める処理と
    をコンピュータに実行させる評価プログラム。
JP2019113412A 2019-06-19 2019-06-19 評価装置、評価方法、及び評価プログラム Active JP7172870B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019113412A JP7172870B2 (ja) 2019-06-19 2019-06-19 評価装置、評価方法、及び評価プログラム
PCT/JP2020/024119 WO2020256097A1 (ja) 2019-06-19 2020-06-19 評価装置、評価方法、及び評価プログラム
US17/543,849 US20220087583A1 (en) 2019-06-19 2021-12-07 Evaluation device, evaluation method, and evaluation program
JP2022173385A JP7435694B2 (ja) 2019-06-19 2022-10-28 評価装置、評価方法、及び評価プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019113412A JP7172870B2 (ja) 2019-06-19 2019-06-19 評価装置、評価方法、及び評価プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022173385A Division JP7435694B2 (ja) 2019-06-19 2022-10-28 評価装置、評価方法、及び評価プログラム

Publications (2)

Publication Number Publication Date
JP2020203014A true JP2020203014A (ja) 2020-12-24
JP7172870B2 JP7172870B2 (ja) 2022-11-16

Family

ID=73838070

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019113412A Active JP7172870B2 (ja) 2019-06-19 2019-06-19 評価装置、評価方法、及び評価プログラム
JP2022173385A Active JP7435694B2 (ja) 2019-06-19 2022-10-28 評価装置、評価方法、及び評価プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022173385A Active JP7435694B2 (ja) 2019-06-19 2022-10-28 評価装置、評価方法、及び評価プログラム

Country Status (3)

Country Link
US (1) US20220087583A1 (ja)
JP (2) JP7172870B2 (ja)
WO (1) WO2020256097A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115409419B (zh) * 2022-09-26 2023-12-05 河南星环众志信息科技有限公司 业务数据的价值评估方法、装置、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014208761A1 (ja) * 2013-06-28 2014-12-31 株式会社Jvcケンウッド 診断支援装置及び診断支援方法
WO2018216347A1 (ja) * 2017-05-22 2018-11-29 株式会社Jvcケンウッド 評価装置、評価方法、及び評価プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170188930A1 (en) 2014-09-10 2017-07-06 Oregon Health & Science University Animation-based autism spectrum disorder assessment
CN110582811A (zh) * 2017-03-03 2019-12-17 贝赫维尔有限责任公司 用于影响行为改变的动态多感官模拟系统
BR112020006142A2 (pt) * 2017-09-27 2020-11-24 University Of Miami óculos corretivos terapêuticos digitais
WO2019188152A1 (ja) * 2018-03-26 2019-10-03 株式会社Jvcケンウッド 評価装置、評価方法、及び評価プログラム
WO2020031471A1 (ja) * 2018-08-08 2020-02-13 株式会社Jvcケンウッド 評価装置、評価方法、及び評価プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014208761A1 (ja) * 2013-06-28 2014-12-31 株式会社Jvcケンウッド 診断支援装置及び診断支援方法
WO2018216347A1 (ja) * 2017-05-22 2018-11-29 株式会社Jvcケンウッド 評価装置、評価方法、及び評価プログラム

Also Published As

Publication number Publication date
WO2020256097A1 (ja) 2020-12-24
JP7172870B2 (ja) 2022-11-16
US20220087583A1 (en) 2022-03-24
JP2023015167A (ja) 2023-01-31
JP7435694B2 (ja) 2024-02-21

Similar Documents

Publication Publication Date Title
JP6737234B2 (ja) 評価装置、評価方法、及び評価プログラム
JP2019171022A (ja) 評価装置、評価方法、及び評価プログラム
US20210401287A1 (en) Evaluation apparatus, evaluation method, and non-transitory storage medium
JP7435694B2 (ja) 評価装置、評価方法、及び評価プログラム
JP7239856B2 (ja) 評価装置、評価方法、及び評価プログラム
US20210345924A1 (en) Evaluation device, evaluation method, and non-transitory compter-readable recording medium
JP7047676B2 (ja) 評価装置、評価方法、及び評価プログラム
JP7057483B2 (ja) 評価装置、評価方法、及び評価プログラム
WO2020256148A1 (ja) 評価装置、評価方法、及び評価プログラム
WO2020183792A1 (ja) 表示装置、表示方法、及び表示プログラム
WO2020031471A1 (ja) 評価装置、評価方法、及び評価プログラム
WO2019188152A1 (ja) 評価装置、評価方法、及び評価プログラム
JP7247690B2 (ja) 評価装置、評価方法、及び評価プログラム
WO2021059746A1 (ja) 視線データ処理装置、評価装置、視線データ処理方法、評価方法、視線データ処理プログラム、及び評価プログラム
WO2020194841A1 (ja) 評価装置、評価方法、及び評価プログラム
JP7027958B2 (ja) 評価装置、評価方法、及び評価プログラム
JP7056550B2 (ja) 評価装置、評価方法、及び評価プログラム
WO2021010122A1 (ja) 評価装置、評価方法、及び評価プログラム
JP2023142110A (ja) 評価装置、評価方法及び評価プログラム
JP2022158711A (ja) 視野評価装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221017

R150 Certificate of patent or registration of utility model

Ref document number: 7172870

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150