JP2019150253A - 視機能検出装置、視機能検出方法及びプログラム - Google Patents

視機能検出装置、視機能検出方法及びプログラム Download PDF

Info

Publication number
JP2019150253A
JP2019150253A JP2018036603A JP2018036603A JP2019150253A JP 2019150253 A JP2019150253 A JP 2019150253A JP 2018036603 A JP2018036603 A JP 2018036603A JP 2018036603 A JP2018036603 A JP 2018036603A JP 2019150253 A JP2019150253 A JP 2019150253A
Authority
JP
Japan
Prior art keywords
image
visual function
determination
display
gazing point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018036603A
Other languages
English (en)
Other versions
JP7043890B2 (ja
Inventor
修二 箱嶋
Shuji Hakojima
修二 箱嶋
美玖 小村田
Miku Komurata
美玖 小村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2018036603A priority Critical patent/JP7043890B2/ja
Priority to PCT/JP2019/007120 priority patent/WO2019167899A1/ja
Priority to EP19760204.8A priority patent/EP3747351B1/en
Publication of JP2019150253A publication Critical patent/JP2019150253A/ja
Priority to US17/000,455 priority patent/US11957411B2/en
Application granted granted Critical
Publication of JP7043890B2 publication Critical patent/JP7043890B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

【課題】被験者の視機能を適切に検査する。【解決手段】視機能検出装置は、表示部の表示画面101S上の表示領域101Tに判断用画像231を表示させ、判断用画像231の位置を連続的に移動させる表示制御部と、表示画面101Sを観察する被験者の注視点の位置を検出する注視点検出部と、表示画面101S上の判断用画像231の位置と、注視点の位置との位置関係を検出する位置関係検出部と、位置関係に基づき、被験者Hの視機能を検出する視機能検出部と、を有する。【選択図】図14

Description

本発明は、視機能検出装置、視機能検出方法及びプログラムに関する。
従来、視力検査には、ランドルト環を用いた方法がある。例えば特許文献1には、画面にランドルト環を表示させて、視力検査を用いる方法が開示されている。また、例えば特許文献2には、縞模様の画像を画面に表示させて、被験者がその画像を見ているかを検査者が判断することで、視力検査を行う方法も開示されている。
特開2007−143665号公報 特許第4683280号公報
しかし、特許文献1のようにランドルト環を表示させる方法では、被験者が見え方を自己申告する必要があるため、例えば乳幼児など、被験者によっては、適切な検査ができないおそれがある。また、特許文献2のように被験者が画像を見ているかを判断する場合、実際に被験者が画像を見ているかについて、客観的な判定が困難である。従って、被験者の視機能を適切に検査することができる技術が求められている。
本発明は、上記課題を鑑み、被験者の視機能を適切に検査することができる視機能検出装置、視機能検出方法及びプログラムを提供することを目的とする。
本発明の一態様にかかる視機能検出装置は、表示部の表示画面上の表示領域に判断用画像を表示させ、前記判断用画像の位置を連続的に移動させる表示制御部と、前記表示画面を観察する被験者の注視点の位置を検出する注視点検出部と、前記表示画面上の前記判断用画像の位置と、前記注視点の位置との位置関係を検出する位置関係検出部と、前記位置関係に基づき、前記被験者の視機能を検出する視機能検出部と、を有する。
本発明の一態様にかかる視機能検出方法は、表示部の表示画面上の表示領域に判断用画像を表示させ、前記判断用画像の位置を連続的に移動させる表示制御ステップと、前記表示画面を観察する被験者の注視点の位置を検出する注視点検出ステップと、前記表示画面上の前記判断用画像の位置と、前記注視点の位置との位置関係を検出する位置関係検出ステップと、前記位置関係に基づき、前記被験者の視機能を検出する視機能検出ステップと、を有する。
本発明の一態様にかかるプログラムは、表示部の表示画面上の表示領域に判断用画像を表示させ、前記判断用画像の位置を連続的に移動させる表示制御ステップと、前記表示画面を観察する被験者の注視点の位置を検出する注視点検出ステップと、前記表示画面上の前記判断用画像の位置と、前記注視点の位置との位置関係を検出する位置関係検出ステップと、前記位置関係に基づき、前記被験者の視機能を検出する視機能検出ステップと、をコンピュータに実行させる。
本発明によれば、被験者の視機能を適切に検査することができる。
図1は、本実施形態に係る視機能検出装置の一例を模式的に示す斜視図である。 図2は、本実施形態に係る視機能検出装置のハードウェア構成の一例を示す図である。 図3は、本実施形態に係る視機能検出装置の一例を示す機能ブロック図である。 図4は、本実施形態に係る角膜曲率中心の位置データの算出方法を説明するための模式図である。 図5は、本実施形態に係る角膜曲率中心の位置データの算出方法を説明するための模式図である。 図6は、本実施形態に係るキャリブレーション処理の一例を説明するための模式図である。 図7は、本実施形態に係る注視点検出処理の一例を説明するための模式図である。 図8は、本実施形態に係る判断用画像を示す図である。 図9は、本実施形態に係る判断用画像を示す図である。 図10は、判断用画像の表示を変化させた場合を説明した図である。 図11は、判断用画像の表示を変化させた場合を説明した図である。 図12は、判断用画像の表示を変化させた場合を説明した図である。 図13は、視機能を検出するフローを説明するフローチャートである。 図14は、判断用画像の移動を説明する図である。 図15は、注視点と判断用画像との位置関係を説明する図である。 図16は、注視点と判断用画像との位置関係を説明する図である。 図17は、被験者の視力を検出する場合の一例を示すフローチャートである。 図18は、コントラストが異なる判断用画像の例を示す図である。 図19は、コントラストが異なる判断用画像の例を示す図である。 図20は、有効注視点の検出の他の例を示す図である。 図21は、視線の追従性を検査するフローチャートである。 図22は、視線の追従性を検査する場合を説明する図である。 図23は、判断用画像の他の例を示す図である。 図24は、判断用画像の他の例を示す図である。 図25は、判断用画像の他の例を示す図である。
以下、本発明に係る視機能検出装置、視機能検出方法及びプログラムの実施形態を図面に基づいて説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。
以下の説明においては、三次元グローバル座標系を設定して各部の位置関係について説明する。所定面の第1軸と平行な方向をX軸方向とし、第1軸と直交する所定面の第2軸と平行な方向をY軸方向とし、第1軸及び第2軸のそれぞれと直交する第3軸と平行な方向をZ軸方向とする。所定面はXY平面を含む。
(視機能検出装置)
図1は、本実施形態に係る視機能検出装置の一例を模式的に示す斜視図である。視機能検出装置100は、被験者Hを評価する評価装置としても用いられる。図1に示すように、視機能検出装置100は、表示装置101と、ステレオカメラ装置102と、照明装置103とを備える。
表示部としての表示装置101は、液晶ディスプレイ(liquid crystal display:LCD)又は有機ELディスプレイ(organic electroluminescence display:OLED)のようなフラットパネルディスプレイを含む。本実施形態において、表示装置101は、表示画面101Sを有する。表示画面101Sは、画像を表示する。表示画面101Sは、XY平面と実質的に平行である。X軸方向は表示画面101Sの左右方向であり、Y軸方向は表示画面101Sの上下方向であり、Z軸方向は表示画面101Sと直交する奥行方向である。
ステレオカメラ装置102は、第1カメラ102A及び第2カメラ102Bを有する。ステレオカメラ装置102は、表示装置101の表示画面101Sよりも下方に配置される。第1カメラ102Aと第2カメラ102BとはX軸方向に配置される。第1カメラ102Aは、第2カメラ102Bよりも−X方向に配置される。第1カメラ102A及び第2カメラ102Bはそれぞれ、赤外線カメラを含み、例えば波長850[nm]の近赤外光を透過可能な光学系と、その近赤外光を受光可能な撮像素子とを有する。
照明装置103は、第1光源103A及び第2光源103Bを有する。照明装置103は、表示装置101の表示画面101Sよりも下方に配置される。第1光源103Aと第2光源103BとはX軸方向に配置される。第1光源103Aは、第1カメラ102Aよりも−X方向に配置される。第2光源103Bは、第2カメラ102Bよりも+X方向に配置される。第1光源103A及び第2光源103Bはそれぞれ、LED(light emitting diode)光源を含み、例えば波長850[nm]の近赤外光を射出可能である。なお、第1光源103A及び第2光源103Bは、第1カメラ102Aと第2カメラ102Bとの間に配置されてもよい。
照明装置103は、検出光である近赤外光を射出して、被験者Hの眼球111を照明する。ステレオカメラ装置102は、第1光源103Aから射出された検出光が眼球111に照射されたときに第2カメラ102Bで眼球111を撮影し、第2光源103Bから射出された検出光が眼球111に照射されたときに第1カメラ102Aで眼球111を撮影する。
第1カメラ102A及び第2カメラ102Bの少なくとも一方からフレーム同期信号が出力される。第1光源103A及び第2光源103Bは、フレーム同期信号に基づいて検出光を射出する。第1カメラ102Aは、第2光源103Bから射出された検出光が眼球111に照射されたときに、眼球111の画像データを取得する。第2カメラ102Bは、第1光源103Aから射出された検出光が眼球111に照射されたときに、眼球111の画像データを取得する。
眼球111に検出光が照射されると、その検出光の一部は瞳孔112で反射し、その瞳孔112からの光がステレオカメラ装置102に入射する。また、眼球111に検出光が照射されると、角膜の虚像である角膜反射像113が眼球111に形成され、その角膜反射像113からの光がステレオカメラ装置102に入射する。
第1カメラ102A及び第2カメラ102Bと第1光源103A及び第2光源103Bとの相対位置が適切に設定されることにより、瞳孔112からステレオカメラ装置102に入射する光の強度は低くなり、角膜反射像113からステレオカメラ装置102に入射する光の強度は高くなる。すなわち、ステレオカメラ装置102で取得される瞳孔112の画像は低輝度となり、角膜反射像113の画像は高輝度となる。ステレオカメラ装置102は、取得される画像の輝度に基づいて、瞳孔112の位置及び角膜反射像113の位置を検出することができる。
図2は、本実施形態に係る視機能検出装置100のハードウェア構成の一例を示す図である。図2に示すように、視機能検出装置100は、表示装置101と、ステレオカメラ装置102と、照明装置103と、コンピュータシステム20と、入出力インターフェース装置30と、駆動回路40と、出力装置50と、入力装置60とを備える。
コンピュータシステム20と、駆動回路40と、出力装置50と、入力装置60とは、入出力インターフェース装置30を介してデータ通信する。コンピュータシステム20は、演算処理装置20A及び記憶装置20Bを含む。演算処理装置20Aは、CPU(central processing unit)のようなマイクロプロセッサを含む。記憶装置20Bは、ROM(read only memory)及びRAM(random access memory)のようなメモリ又はストレージを含む。演算処理装置20Aは、記憶装置20Bに記憶されているコンピュータプログラム20Cに従って演算処理を実施する。演算処理装置20Aは、記憶装置20Bに記憶されているコンピュータプログラム20Cを実行して視線検出処理を実行するため、本実施形態に係る視線検出装置であるともいえる。
駆動回路40は、駆動信号を生成して、表示装置101、ステレオカメラ装置102、及び照明装置103に出力する。また、駆動回路40は、ステレオカメラ装置102で取得された眼球111の画像データを、入出力インターフェース装置30を介してコンピュータシステム20に供給する。
出力装置50は、フラットパネルディスプレイのような表示装置を含む。なお、出力装置50は、印刷装置を含んでもよい。入力装置60は、操作されることにより入力データを生成する。入力装置60は、コンピュータシステム用のキーボード又はマウスを含む。なお、入力装置60が表示装置である出力装置50の表示画面に設けられたタッチセンサを含んでもよい。
本実施形態においては、表示装置101とコンピュータシステム20とは別々の装置である。なお、表示装置101とコンピュータシステム20とが一体でもよい。例えば視機能検出装置100がタブレット型パーソナルコンピュータを含む場合、そのタブレット型パーソナルコンピュータに、コンピュータシステム20、入出力インターフェース装置30、駆動回路40、及び表示装置101が搭載されてもよい。
図3は、本実施形態に係る視機能検出装置100の一例を示す機能ブロック図である。図3に示すように、入出力インターフェース装置30は、入出力部302を有する。駆動回路40は、表示装置101を駆動するための駆動信号を生成して表示装置101に出力する表示装置駆動部402と、第1カメラ102Aを駆動するための駆動信号を生成して第1カメラ102Aに出力する第1カメラ入出力部404Aと、第2カメラ102Bを駆動するための駆動信号を生成して第2カメラ102Bに出力する第2カメラ入出力部404Bと、第1光源103A及び第2光源103Bを駆動するための駆動信号を生成して第1光源103A及び第2光源103Bに出力する光源駆動部406とを有する。また、第1カメラ入出力部404Aは、第1カメラ102Aで取得された眼球111の画像データを、入出力部302を介してコンピュータシステム20に供給する。第2カメラ入出力部404Bは、第2カメラ102Bで取得された眼球111の画像データを、入出力部302を介してコンピュータシステム20に供給する。
コンピュータシステム20は、視機能検出装置100を制御する。コンピュータシステム20は、光源制御部204と、画像データ取得部206と、入力データ取得部208と、位置検出部210と、曲率中心算出部212と、注視点検出部214と、表示制御部216と、位置関係検出部218と、視機能検出部220と、記憶部222とを有する。コンピュータシステム20の機能は、演算処理装置20A及び記憶装置20Bによって発揮される。
光源制御部204は、光源駆動部406を制御して、第1光源103A及び第2光源103Bの作動状態を制御する。光源制御部204は、第1光源103Aと第2光源103Bとが異なるタイミングで検出光を射出するように第1光源103A及び第2光源103Bを制御する。
画像データ取得部206は、第1カメラ102A及び第2カメラ102Bを含むステレオカメラ装置102によって取得された被験者の眼球111の画像データを、入出力部302を介してステレオカメラ装置102から取得する。
入力データ取得部208は、入力装置60が操作されることにより生成された入力データを、入出力部302を介して入力装置60から取得する。
位置検出部210は、画像データ取得部206で取得された眼球111の画像データに基づいて、瞳孔中心の位置データを検出する。また、位置検出部210は、画像データ取得部206で取得された眼球111の画像データに基づいて、角膜反射中心の位置データを検出する。瞳孔中心は、瞳孔112の中心である。角膜反射中心は、角膜反射像113の中心である。位置検出部210は、被験者の左右それぞれの眼球111について、瞳孔中心の位置データ及び角膜反射中心の位置データを検出する。
曲率中心算出部212は、画像データ取得部206で取得された眼球111の画像データに基づいて、眼球111の角膜曲率中心の位置データを算出する。
注視点検出部214は、画像データ取得部206で取得された眼球111の画像データに基づいて、被験者の注視点の位置データを検出する。本実施形態において、注視点の位置データとは、三次元グローバル座標系で規定される被験者の視線ベクトルと表示装置101の表示画面101Sとの交点の位置データをいう。注視点検出部214は、眼球111の画像データから取得された瞳孔中心の位置データ及び角膜曲率中心の位置データに基づいて、被験者の左右それぞれの眼球111の視線ベクトルを検出する。視線ベクトルが検出された後、注視点検出部214は、視線ベクトルと表示画面101Sとの交点を示す注視点の位置データを検出する。
表示制御部216は、表示装置101及び出力装置50の少なくとも1つにデータを出力する。本実施形態において、表示制御部216は、表示装置101に判断用画像231を表示させるためのデータを表示装置101に出力して、表示装置101の表示画面101S上に、判断用画像231を表示させる。表示制御部216が表示させる判断用画像231については、後述する。また、表示制御部216は、被験者Hの左右それぞれの眼球111の注視点の位置を表示画面101S又は出力装置50に表示させてもよい。
位置関係検出部218は、表示画面101S上の判断用画像231の位置と、注視点検出部214が検出した注視点の位置との関係を示す情報である位置関係を検出する。位置関係の検出方法については後述する。
視機能検出部220は、位置関係検出部218が検出した位置関係に基づき、被験者Hの視機能を検出する。視機能検出部220は、位置関係に基づき、判断用画像231が被験者Hに見えているかを判定するための基準となる情報を導出することで、視機能を検出する。すなわち、ここで視機能を検出するというのは、判断用画像231が視認可能であるかという判定の基準となる情報を導出することであるといえる。また、視機能検出部220は、判断用画像231が被験者Hに見えているかの判定に基づき、被験者の視力を判定するための基準となる情報を導出してもよいし、例えば白内障であるかを判定するための基準となる情報を導出してもよい。また、視機能検出部220は、後述するように、判断用画像231、すなわち被視物への被験者Hの視線の追従性の度合いを検出して、視線の追従性を判定するための基準となる情報を導出してもよい。
記憶部222は、注視点検出部214が検出した注視点の位置データ、表示画面101Sに表示させる画像(例えば判断用画像231)の画像データ、位置関係検出部218が検出した位置関係のデータ、及び視機能検出部220による視機能の検出結果のデータなどを記憶する。
記憶部222は、表示画面101Sに画像を表示させる処理と、表示画面101Sを観察する被験者Hの注視点の位置を検出する処理と、判断用画像231の位置と注視点の位置との位置関係を検出する処理と、位置関係に基づき視機能を検出する処理とをコンピュータに実行させるプログラムを記憶する。
次に、本実施形態に係る曲率中心算出部212の処理の概要について説明する。曲率中心算出部212は、眼球111の画像データに基づいて、眼球111の角膜曲率中心の位置データを算出する。図4及び図5は、本実施形態に係る角膜曲率中心110の位置データの算出方法を説明するための模式図である。図4は、1つの光源103Cで眼球111が照明される例を示す。図5は、第1光源103A及び第2光源103Bで眼球111が照明される例を示す。
まず、図4に示す例について説明する。光源103Cは、第1カメラ102Aと第2カメラ102Bとの間に配置される。瞳孔中心112Cは、瞳孔112の中心である。角膜反射中心113Cは、角膜反射像113の中心である。図4において、瞳孔中心112Cは、眼球111が1つの光源103Cで照明されたときの瞳孔中心を示す。角膜反射中心113Cは、眼球111が1つの光源103Cで照明されたときの角膜反射中心を示す。角膜反射中心113Cは、光源103Cと角膜曲率中心110とを結ぶ直線上に存在する。角膜反射中心113Cは、角膜表面と角膜曲率中心110との中間点に位置付けられる。角膜曲率半径109は、角膜表面と角膜曲率中心110との距離である。角膜反射中心113Cの位置データは、ステレオカメラ装置102によって検出される。角膜曲率中心110は、光源103Cと角膜反射中心113Cとを結ぶ直線上に存在する。曲率中心算出部212は、その直線上において角膜反射中心113Cからの距離が所定値となる位置データを、角膜曲率中心110の位置データとして算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値であり、記憶部222に記憶されている。
次に、図5に示す例について説明する。本実施形態においては、第1カメラ102A及び第2光源103Bと、第2カメラ102B及び第1光源103Aとは、第1カメラ102Aと第2カメラ102Bとの中間位置を通る直線に対して左右対称の位置に配置される。第1カメラ102Aと第2カメラ102Bとの中間位置に仮想光源103Vが存在するとみなすことができる。角膜反射中心121は、第2カメラ102Bで眼球111を撮影した画像における角膜反射中心を示す。角膜反射中心122は、第1カメラ102Aで眼球111を撮影した画像における角膜反射中心を示す。角膜反射中心124は、仮想光源103Vに対応する角膜反射中心を示す。角膜反射中心124の位置データは、ステレオカメラ装置102で取得された角膜反射中心121の位置データ及び角膜反射中心122の位置データに基づいて算出される。ステレオカメラ装置102は、ステレオカメラ装置102に規定される三次元ローカル座標系において角膜反射中心121の位置データ及び角膜反射中心122の位置データを検出する。ステレオカメラ装置102について、事前にステレオ較正法によるカメラ較正が実施され、ステレオカメラ装置102の三次元ローカル座標系を三次元グローバル座標系に変換する変換パラメータが算出される。その変換パラメータは、記憶部222に記憶されている。曲率中心算出部212は、ステレオカメラ装置102で取得された角膜反射中心121の位置データ及び角膜反射中心122の位置データを、変換パラメータを使って、三次元グローバル座標系における位置データに変換する。曲率中心算出部212は、三次元グローバル座標系で規定される角膜反射中心121の位置データ及び角膜反射中心122の位置データに基づいて、三次元グローバル座標系における角膜反射中心124の位置データを算出する。角膜曲率中心110は、仮想光源103Vと角膜反射中心124とを結ぶ直線123上に存在する。曲率中心算出部212は、直線123上において角膜反射中心124からの距離が所定値となる位置データを、角膜曲率中心110の位置データとして算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値であり、記憶部222に記憶されている。
このように、光源が2つある場合でも、光源が1つである場合の方法と同様の方法で、角膜曲率中心110が算出される。
角膜曲率半径109は、角膜表面と角膜曲率中心110との距離である。したがって、角膜表面の位置データ及び角膜曲率中心110の位置データが算出されることにより、角膜曲率半径109が算出される。
次に、本実施形態に係る視線検出方法の一例について説明する。図6は、本実施形態に係るキャリブレーション処理の一例を説明するための模式図である。キャリブレーション処理では、被験者に注視させるため、目標位置130が設定される。目標位置130は、三次元グローバル座標系において規定される。本実施形態において、目標位置130は、例えば表示装置101の表示画面101Sの中央位置に設定される。なお、目標位置130は、表示画面101Sの端部位置に設定されてもよい。出力制御部226は、設定された目標位置130に目標画像を表示させる。直線131は、仮想光源103Vと角膜反射中心113Cとを結ぶ直線である。直線132は、目標位置130と瞳孔中心112Cとを結ぶ直線である。角膜曲率中心110は、直線131と直線132との交点である。曲率中心算出部212は、仮想光源103Vの位置データと、目標位置130の位置データと、瞳孔中心112Cの位置データと、角膜反射中心113Cの位置データとに基づいて、角膜曲率中心110の位置データを算出することができる。
次に、注視点検出処理について説明する。注視点検出処理は、キャリブレーション処理の後に実施される。注視点検出部214は、眼球111の画像データに基づいて、被験者の視線ベクトル及び注視点の位置データを算出する。図7は、本実施形態に係る注視点検出処理の一例を説明するための模式図である。図7において、注視点165は、一般的な曲率半径値を用いて算出された角膜曲率中心から求めた注視点を示す。注視点166は、キャリブレーション処理で求められた距離126を用いて算出された角膜曲率中心から求めた注視点を示す。瞳孔中心112Cは、キャリブレーション処理において算出された瞳孔中心を示し、角膜反射中心113Cは、キャリブレーション処理において算出された角膜反射中心を示す。直線173は、仮想光源103Vと角膜反射中心113Cとを結ぶ直線である。角膜曲率中心110は、一般的な曲率半径値から算出した角膜曲率中心の位置である。距離126は、キャリブレーション処理により算出した瞳孔中心112Cと角膜曲率中心110との距離である。角膜曲率中心110Hは、距離126を用いて角膜曲率中心110を補正した補正後の角膜曲率中心の位置を示す。角膜曲率中心110Hは、角膜曲率中心110が直線173上に存在すること、及び瞳孔中心112Cと角膜曲率中心110との距離が距離126であることから求められる。これにより、一般的な曲率半径値を用いる場合に算出される視線177は、視線178に補正される。また、表示装置101の表示画面101S上の注視点は、注視点165から注視点166に補正される。
(視機能検出方法)
次に、本実施形態に係る視機能検出方法について説明する。図8及び図9は、本実施形態に係る判断用画像を示す図である。表示制御部216は、視機能検出を行う際、表示装置101に画像230を表示させるためのデータを表示装置101に出力して、表示装置101の表示画面101S上に、画像230を表示させる。図8に示すように、画像230は、判断用画像231と、背景用画像232とを含む。すなわち、表示制御部216は、表示装置101に判断用画像231を表示させるためのデータと、背景用画像232を表示させるためのデータとを出力して、表示装置101の表示画面101S上に、判断用画像231と背景用画像232とを表示させるといえる。なお、画像230は、表示画面101Sの全域を占める画像であるが、表示画面101Sの一部を占める画像であってもよい。
図8に示すように、判断用画像231は、画像230が表示される領域(ここでは表示画面101S)内の一部の領域である表示領域101T内に、表示される。すなわち、判断用画像231は、表示画面101Sの一部の領域である表示領域101Tの、全域を占めるように表示される。表示制御部216は、時間経過に伴い、判断用画像231を、表示画面101S内で移動させる。さらに詳しくは、表示制御部216は、判断用画像231の表示位置、すなわち、表示領域101Tの位置を、判断用画像231を表示させたままの状態で、時間経過に伴い、表示画面101S内で連続的に移動させる。なお、判断用画像231は、表示画面101Sの0.5倍以下の大きさであることが好ましい。このような大きさとすることで、位置の移動経路を長く保つことができる。また、判断用画像231は、表示画面101Sの0.25倍以下であることがより好ましい。このようにすることで、X軸方向とY軸方向との両方への移動経路の柔軟性を高くすることができる。ただし、表示領域101Tの大きさは、任意に設定できる。
判断用画像231は、模様を表示する画像である。具体的には、判断用画像231は、第1画像241と第2画像242とを有する。言い換えれば、表示領域101Tは、第1画像241が表示される第1領域と、第2画像242が表示される第1領域とに区分されている。従って、第1画像241とは、第1画像241が表示される第1領域と言い換えることができ、第2画像242とは、第2画像242が表示される第2領域であると言い換えることができる。第1画像241と第2画像242とは、互いに輝度が異なる画像である。本実施形態において、第1画像241は、第2画像242よりも輝度が低い画像である。また、本実施形態の例では、第1画像241と第2画像242とは、無彩色の画像である。従って、第1画像241は、第2画像242よりも黒成分が強く、第2画像242は、第1画像241よりも白成分が強い。ただし、第1画像241と第2画像242とは、互いに輝度が異なる画像であれば、彩色の画像であってもよい。
図8に示すように、本実施形態においては、判断用画像231は、第1画像241と第2画像242とを複数含み、第1画像241と第2画像242とが、交互にストライプ状に配列している。すなわち、第1画像241と第2画像242とは、Y軸方向に沿った長さが、表示領域101TのY軸方向に沿った長さと同じであり、Y軸方向に沿って、表示領域101Tの上端から下端まで延在する。そして、第1画像241と第2画像242とは、X軸方向に沿った長さ(幅)が、表示領域101TのX軸方向に沿った長さより短くなっている。第1画像241と第2画像242とは、表示領域101T内で、X軸方向に沿って交互に並んでいる。なお、本実施形態では、第1画像241同士は、面積が等しく、第2画像242同士も、面積が等しい。そして、それぞれの第1画像241と第2画像242とも、面積が等しい。また、第1画像241の数と第2画像242の数も同じである。ただし、第1画像241同士の面積及び形状は互いに異なってもよいし、第2画像242同士の面積及び形状も、互いに異なってよい。そして、第1画像241の数と第2画像242の数とも、異なっていてよい。
図8に示すように、背景用画像232は、画像230が表示される領域(ここでは表示画面101S)内において、判断用画像231が表示される表示領域101T以外の領域に表示される画像である。すなわち、背景用画像232は、表示領域101T(判断用画像231)の周囲を囲うように表示される画像である。背景用画像232は、画像230が表示される領域のうち、表示領域101T以外の領域の全域を占めるように表示される。ただし、背景用画像232は、表示領域101Tの周囲を囲うものであれば、表示領域101T以外の領域の一部を占めるものであってもよい。
図8の例では、説明の便宜のために、背景用画像232を白色としている。ただし、背景用画像232は、判断用画像231との輝度の関係上、実際には、図9に示すような色となっている。すなわち、図9に示すように、背景用画像232は、平均輝度が、判断用画像231の平均輝度と一致している。判断用画像231の平均輝度とは、判断用画像231の各位置の輝度(ピクセル毎の輝度)の平均値である。例えば、判断用画像231の平均輝度は、判断用画像231の各位置の輝度(ピクセル毎の輝度)を合計して、判断用画像231のピクセルの総数で除した値となる。また、背景用画像232の平均輝度も、同様に、背景用画像232の各位置の輝度(ピクセル毎の輝度)の平均値であり、例えば、背景用画像232の各位置の輝度(ピクセル毎の輝度)を合計して、背景用画像232のピクセルの総数で除した値となる。なお、背景用画像232の平均輝度と、判断用画像231の平均輝度とは、必ずしも一致していることに限られないが、背景用画像232の平均輝度と、判断用画像231の平均輝度との差分は、背景用画像232と判断用画像231の平均輝度とのいずれかに対し、20%以下となることが好ましい。
また、判断用画像231は、模様がない一様な画像である。本実施形態において、背景用画像232は、全域において輝度が一定の画像であり、さらに言えば、判断用画像231と同じ彩色、すなわち無彩色の画像である。従って、背景用画像232は、第1画像241よりも、輝度が大きく、白色成分が高い。そして、背景用画像232は、第2画像242よりも、輝度が小さく、黒色成分が高い。なお、以降では、説明の便宜上、背景用画像232と、第1画像241及び第2画像242との輝度の関係が、図9とは異なる図もあるが、実際には、図9に示した関係となっていることが好ましい。
図10から図12は、判断用画像の表示を変化させた場合を説明した図である。表示制御部216は、視機能検出検査のために、例えば図10から図12に示すように、異なるパターンの判断用画像231を表示する場合がある。図10から図12は、説明の便宜上、表示領域101T、すなわち判断用画像231の大きさが、図8のものより大きくなっているが、表示領域101Tは、実際には、図8を用いて説明した大きさでとなる。図10に示す判断用画像231Aと、図11に示す判断用画像231Bと、図12に示す判断用画像231Cとは、第1画像241及び第2画像242の大きさ(面積)が、互いに異なり、第1画像241及び第2画像242の数も、互いに異なる。すなわち、判断用画像231A、231B、231Cは、第1画像241及び第2画像242の粗密分布が互いに異なる。一方、判断用画像231Aと判断用画像231Bと判断用画像231Cとは、全体の大きさ、すなわち表示領域101Tの大きさが、互いに等しいが、大きさが互いに異なってもよい。
図10から図12の例では、判断用画像231Bの第1画像241B及び第2画像242Bは、判断用画像231Aの第1画像241A及び第2画像242Aよりも、面積が小さい。さらに言えば、第1画像241Bと第2画像242Bとの方向Xに沿った長さは、第1画像241Aと第2画像242Aとの方向Xに沿った長さよりも短い。また、判断用画像231Bは、第1画像241B及び第2画像242Bの数が、判断用画像231Aの第1画像241A及び第2画像242Aよりも多い。そして、判断用画像231Cの第1画像241C及び第2画像242Cは、判断用画像231Bの第1画像241B及び第2画像242Bよりも、面積が小さい。さらに言えば、第1画像241Cと第2画像242Cとの方向Xに沿った長さは、第1画像241Bと第2画像242Bとの方向Xに沿った長さよりも短い。また、判断用画像231Cは、第1画像241C及び第2画像242Cの数が、判断用画像231Bの第1画像241B及び第2画像242Bよりも多い。
図11に示す判断用画像231Bは、第1画像241と第2画像242とが、図10に示す判断用画像231Aより小さいため、判断用画像231Aよりも、被験者に視認され難い。同様に、図11に示す判断用画像231Cは、判断用画像231Bよりも、被験者に視認され難い。従って、表示制御部216は、このように異なるパターンの判断用画像231を表示させることで、被験者Hの視機能の度合い(例えば視力など)を、段階的に検出することができる。
表示制御部216は、視機能検出を行う際、このようにして、表示装置101の表示画面101Sに判断用画像231と背景用画像232とを表示させる。被験者Hは、視機能検出の際、表示画面101Sを観察しており、注視点検出部214は、その時の被験者Hの注視点166を検出する。位置関係検出部218は、表示画面101S上の判断用画像231の位置と、注視点検出部214が検出した注視点の位置との関係を示す位置関係を検出し、視機能検出部220は、その位置関係の検出結果に基づき、被験者Hの視機能を検出する。以下、視機能を検出するフローについて、説明する。
図13は、視機能を検出するフローを説明するフローチャートである。図14は、判断用画像の移動を説明する図である。図13に示すように、視機能検出を行う場合、視機能検出装置100は、注視点検出部214により、上述した注視点検出処理を実行して(ステップS10)、表示画面101Sの前に位置する被験者Hの注視点166の位置の検出を開始する。被験者の眼球111の画像データは、画像データ取得部206の撮像により、所定時間毎に取得される。従って、注視点検出部214は、所定時間毎に、注視点166の位置を検出する。この所定時間は、例えば1/60秒程度であるため、注視点166は、1秒間に60回程度検出される。ただし、この所定時間の長さは任意である。注視点検出部214は、後述する判断用画像231が表示される期間中、注視点166の位置検出を続ける。
そして、視機能検出装置100は、検出時間をリセットし、有効注視点数を0に設定し(ステップS12)、表示制御部216により、判断用画像231を表示させる(ステップS14)。検出時間とは、予め定められた時間であり、判断用画像231を表示して注視点検出を行う期間である。視機能検出装置100は、検出時間をリセットして判断用画像231の表示と注視点検出とを開始させ、開始させたタイミングからの時間のカウントを始める。有効注視点とは、判断用画像231の表示領域101T内にあるとされた注視点166を指すが、詳しくは後述する。視機能検出装置100は、有効注視点数を0として、有効注視点のカウントを開始する。なお、検出時間は、例えば3秒以上5秒以下程度であるが、それに限られず任意に設定可能である。
注視点検出部214は、表示制御部216により判断用画像231が表示されている期間において、注視点166の検出を行っている。視機能検出装置100は、位置関係検出部218により、注視点検出部214が検出した注視点166の位置データと、表示画面101S上での判断用画像231(表示領域101T)の位置データとから、有効注視点があるかを検出する(ステップS16)。具体的には、位置関係検出部218は、注視点166が検出されたタイミングにおいて表示されている判断用画像231の表示領域101T内に、その注視点166が位置しているかを検出する。位置関係検出部218は、その注視点166が、その注視点166の検出されたタイミングでの表示領域101T内に位置している場合、その注視点166を有効注視点であると判断する。位置関係検出部218は、その注視点166が、その注視点166の検出されたタイミングでの表示領域101T内に位置していない場合、すなわち表示領域101T外に位置している場合、その注視点166を有効注視点でないと判断する。言い換えれば、位置関係検出部218は、ある位置での判断用画像231の表示期間内で検出された注視点166のうち、その判断用画像231の表示領域101T内に位置している注視点166を、有効注視点であると判断する。この有効注視点であるかの判断が、位置関係の検出に相当する。
視機能検出装置100は、有効注視点があると判断した場合(ステップS16;Yes)、位置関係検出部218により、有効注視点数をカウントする(ステップS18)。すなわち、注視点検出部214は、有効注視点があると判断した場合、有効注視点であると判断された注視点166の数を、これまでにカウントしていた有効注視点の数に加える。すなわち、これまで有効注視点の数が0であり、新たに1つの有効注視点が検出された場合、有効注視点の数は1となる。
視機能検出装置100は、有効注視点数をカウントしたら、表示制御部216により、判断用画像231の表示領域101T(判断用画像231)を移動させる(ステップS20)。また、視機能検出装置100は、有効注視点があると判断しない場合(ステップS16;No)、すなわち有効注視点が無いと判断した場合も、ステップS20に移り、判断用画像231の表示領域101Tを移動させる。視機能検出装置100は、表示領域101Tを移動させたら、検出時間が経過したかを判断し(ステップS22)、検出時間が経過していない場合(ステップS22;No)、ステップS16に戻り、その後の処理を繰り返す。すなわち、視機能検出装置100は、移動した先での判断用画像231の表示期間内に検出された注視点166のうち、その判断用画像231の表示領域101T内に位置している注視点166を、有効注視点であると判断する。視機能検出装置100は、検出時間が経過するまで、表示領域101Tを移動させつつ有効注視点を検出する処理を、繰り返す。
ここで、判断用画像231、ここでは表示領域101Tを移動させる例について説明する。図14は、表示領域101Tを、軌跡Cに沿って移動させる例を説明している。図14の左上の絵は、表示領域101Tが初期位置にある状態を示している。すなわち、表示制御部216は、ステップS14において、図14の左上の絵の位置、すなわち初期位置に、表示領域101Tを設定して、その位置に判断用画像231を表示させる。初期位置とは、表示領域101Tとして最初に設定される表示画面101S上の位置であり、任意に設定された位置である。表示制御部216は、設定した初期位置に表示領域101Tが位置するように、画像230を表示させる。これにより、画像230のうちの判断用画像231は、初期位置に位置した表示領域101T内に表示され、画像230のうちの背景用画像232は、表示領域101Tの外側に表示される。
そして、表示制御部216は、検出時間に達するまで、フレーム毎に、すなわちステップS20毎に、表示領域101Tを軌跡Cに沿って徐々に移動させる。表示制御部216は、判断用画像231を表示させている状態で、表示領域101Tを軌跡Cに沿って移動させるの。従って、判断用画像231は、図14に示すように、軌跡Cに沿って、連続的に移動する。なお、ここでの連続的な移動とは、フレーム毎に表示領域101Tの位置が移動すると言い換えることもできる。
表示制御部216は、ステップS20毎に、表示領域101Tを予め定めた距離だけ移動させる。この移動させる距離は、表示領域101T自体の長さより短いことが好ましい。これにより、判断用画像231が切り替わるように見えることが抑制され、判断用画像231が、よりなめらかに移動するように視認される。なお、図14に示す軌跡Cは、左下から中央上に向かい、右下へ向かうものであったが、軌跡Cは、任意に設定可能である。例えば、軌跡Cは、X軸方向にのみ移動するものであってもよいし、Y軸方向にのみ移動するものであってもよいし、円状など、X軸方向及びY軸方向の両方に移動するものであってもよい。また、本実施形態においては、表示領域101Tの移動中の判断用画像231の表示する内容は変わらないが、移動中に内容が変化してもよい。
また、注視点検出のフレームレートは、表示領域101Tの移動のフレームレート以上となることが好ましい。これにより、注視点検出部214は、表示領域101Tが連続的に移動している際にも、表示領域101Tの位置毎に、少なくとも1つ以上検出される。ただし、注視点検出のフレームレートは、表示領域101Tの移動のフレームレート以下であってもよい。
このように、視機能検出装置100は、検出時間に達するまで、判断用画像231を表示させたまま表示領域101Tを移動させつつ、注視点166の検出を行っている。そして、視機能検出装置100は、検出時間に達するまで、表示領域101Tの位置毎の有効注視点の検出を続け、検出された有効注視点の数をカウントし続ける。
視機能検出装置100は、検出時間が経過した場合(ステップS22;Yes)、視機能検出部220により、位置関係、すなわち検出された有効注視点に基づき、被験者Hの視機能の判断を行う。具体的には、視機能検出部220は、検出時間が経過した場合、表示領域101Tの位置毎の有効注視点の総数が、予め定めた閾値より大きいかを判断する(ステップS24)。視機能検出部220は、有効注視点の総数が閾値より大きい場合(ステップS24;Yes)、被験者Hの視機能が、検査基準を満たしていると判断する(ステップS26)。一方、視機能検出部220は、有効注視点の総数が閾値より大きくない場合(ステップS24;No)、すなわち閾値以下である場合、被験者Hの視機能が、検査基準を満たしていないと判断する(ステップS28)。このステップS26又はS28により、本処理は終了する。視機能検出部220は、この検査基準を満たしているか否かという判断結果を、視機能を検出するための基準となる情報として導出し、例えば記憶部222に記憶させる。
図15及び図16は、注視点と判断用画像との位置関係を説明する図である。表示画面101S上に表示される判断用画像231は、被験者Hの注意を引く画像である。従って、被験者Hが判断用画像231を視認できている場合、被験者Hは、判断用画像231に視線を向ける。そして、判断用画像231の表示領域101Tが連続的に移動した場合、被験者Hの視線は、表示領域101Tの移動に追従して移動する。一方、被験者Hが判断用画像231を視認できていない場合、被験者Hは、判断用画像231に視線を向けず、表示領域101Tの移動に追従しない。本実施形態においては、この傾向を利用して、被験者Hの注視点の位置と判断用画像231との位置関係に基づき、被験者Hが判断用画像231を視認できているかを判断することで、被験者Hの視機能を検出する。
図15の例では、表示領域101T内の移動に追従して注視点166が移動しており、表示領域101T内に位置する注視点166の数、すなわち有効注視点の数が多い。従って、このような場合、視機能検出部220は、被験者Hが判断用画像231を視認できているとして、被験者Hの視機能が検査基準を満たしていると判断する。一方、図16の例では、注視点166は、表示領域101T内の移動に追従せずばらついており、表示領域101T内に位置する注視点166の数、すなわち有効注視点の数が少ない。従って、視機能検出部220は、被験者Hが判断用画像231を視認できていないとして、被験者Hの視機能が検査基準を満たしていないと判断する。なお、例えば図16の右上の絵の注視点166は、別のタイミングの表示領域101T、すなわち右下の絵に移動したタイミングでの表示領域101T内には入る。しかし、図16の右上の注視点166は、右下の絵の表示領域101T内に位置していたとしても、同じタイミングである右上の絵の表示領域101T内に入っていないため、表示領域101T内に入っていると判断されず、有効注視点とは判断されない。
また、被験者Hは、判断用画像231を視認できていない場合でも、一点を集中して見つめるおそれがあり、偶然、判断用画像231に注視点が集中する可能性がある。それに対し、本実施形態に係る視機能検出装置100は、表示領域101Tを連続的に移動させながら判断用画像231を表示させ、それぞれのタイミングで注視点166を検出する。視機能検出装置100は、このように判断用画像231の位置を連続的に移動させることで、視認できていないのに判断用画像231に注視点が集中する偶然性を低減し、視機能の検出精度を向上させている。
また、本実施形態では、表示領域101Tを移動させる毎に、有効注視点の検出を行っている。ただし、位置関係検出部218は、検出期間の経過後に、まとめて有効注視点の検出を行ってもよい。この場合、位置関係検出部218は、タイミング毎の注視点166の位置データと、タイミング毎の表示領域101Tの位置データとを取得する。そして、位置関係検出部218は、同じタイミングの表示領域101Tと注視点166とを抽出して、その表示領域101T内に注視点166が位置しているかを検出する。位置関係検出部218は、これを注視点166毎に行うことで、検出期間の経過後に、まとめて有効注視点の総数を算出することができる。
また、視機能検出装置100は、異なるパターンの判断用画像231を表示させることで、被験者Hの視機能の度合いを、段階的に検出する。以下、その方法について説明する。図17は、被験者の視力を検出する場合の一例を示すフローチャートである。図17に示すように、視機能検出装置100は、最初に、第1判断用画像で検査を行う(ステップS30)。第1判断用画像とは、複数のパターンの判断用画像231のうち、第1画像241及び第2画像242の面積が大きい画像であり、本実施形態の例では、図10に示す判断用画像231Aである。視機能検出装置100は、ステップS30において、この第1判断用画像(判断用画像231A)を用いて、図13に示す検査を実行する。すなわち、この場合、視機能検出装置100は、第1判断用画像(判断用画像231A)を表示させることで、検査基準を満たすかを判断する。
第1判断用画像での検査で検査基準を満たさないと判断された場合(ステップS32;No)、視機能検出装置100は、被験者Hの視力が、第1視力値より低いと判断して(ステップS33)、本処理を終了する。第1視力値とは、第1判断用画像の検査基準を満たすと判断された場合の視力であり、例えば、0.3である。ただし、第1視力値の値は、第1判断用画像の形状、すなわち第1画像241と第2画像242との大きさによって定められるものである。
第1判断用画像での検査で検査基準を満たすと判断された場合(ステップS32;Yes)、視機能検出装置100は、第2判断用画像で検査を行う(ステップS34)。第2判断用画像は、第1判断用画像よりも、第1画像241及び第2画像242の面積が小さい画像であり、本実施形態の例では、図11に示す判断用画像231Bである。視機能検出装置100は、ステップS34において、この第2判断用画像(判断用画像231B)を用いて、図13に示す検査を実行し、検査基準を満たすかを判断する。
第2判断用画像での検査で検査基準を満たさないと判断された場合(ステップS36;No)、視機能検出装置100は、被験者Hの視力が、第1視力値であると判断して(ステップS37)、本処理を終了する。第2判断用画像での検査で検査基準を満たすと判断された場合(ステップS36;Yes)、視機能検出装置100は、第3判断用画像で検査を行う(ステップS38)。第3判断用画像は、第2判断用画像よりも、第1画像241及び第2画像242の面積が小さい画像であり、本実施形態の例では、図12に示す判断用画像231Cである。視機能検出装置100は、ステップS38において、この第3判断用画像(判断用画像231C)を用いて、図13に示す検査を実行し、検査基準を満たすかを判断する。
第3判断用画像での検査で検査基準を満たさないと判断された場合(ステップS40;No)、視機能検出装置100は、被験者Hの視力が、第2視力値である判断して(ステップS41)、本処理を終了する。第2視力値とは、第2判断用画像の検査基準を満たすと判断された場合の視力であり、第1視力値より高い値である。第2視力値は、例えば、0.5である。ただし、第2視力値の値は、第2判断用画像の形状、すなわち第1画像241と第2画像242との大きさによって定められるものである。
第3判断用画像での検査で検査基準を満たすと判断された場合(ステップS40;Yes)、視機能検出装置100は、被験者Hの視力が、第3視力値である判断して(ステップS42)、本処理を終了する。第3視力値とは、第3判断用画像の検査基準を満たすと判断された場合の視力であり、第2視力値より高い値である。第3視力値は、例えば、1.0である。ただし、第3視力値の値は、第3判断用画像の形状、すなわち第1画像241と第2画像242との大きさによって定められるものである。視機能検出部220は、このように判断した視力値(第1視力値、第2視力値、第3視力値)と判断した情報を、視機能としての視力を検出するための基準となる情報として導出し、例えば記憶部222に記憶させる。
このように段階的な評価をする場合、視機能検出装置100は、表示領域101Tを移動させる軌跡Cと初期位置とを、段階ごとに異ならせることが好ましい。すなわち、第2判断用画像の検査での初期位置と軌跡Cとを、その前に実施した第1判断用画像の検査での初期位置と軌跡Cとに対し、異ならせることが好ましい。これにより、偶然性を好適に排除可能である。例えば、視機能検出装置100は、初期位置と軌跡Cとを、複数パターン設定しておき、段階ごとに、初期位置と軌跡Cとを選択してもよい。そして、視機能検出装置100は、次の段階の検査を行う場合に、前の段階での検査で選択した初期位置及び軌跡C以外から、初期位置と軌跡Cとを選択する。
また、視機能検出装置100は、図17の例では、1つの判断用画像231での検査が終了したら、判断用画像231の表示を停止させて、次の判断用画像231での検査を開始している。ただし、視機能検出装置100は、複数の判断用画像231での検査を、連続的に行ってもよい。この場合、視機能検出装置100は、図13のステップS22での検出時間が経過したら、ステップS12に戻り、次のフレームから別の判断用画像231を表示させて、同様に表示領域101Tを移動させながらの検査を行ってもよい。例えば、視機能検出装置100は、判断用画像231Aを検出時間の間表示したら、次のフレームから、例えば判断用画像231Bに切り替えて同様の検査を続けてもよい。このように連続的に検査を行うことで、検査時間を短縮することができる。さらに、視機能検出装置100は、判断用画像231Bを検出時間の間表示した後、次のフレームから、例えば判断用画像231Aに切り替えることも可能であり、ある視力の画像が見えなかった場合に、それよりも低視力用の画像での検査に戻ることもできる。
また、図17の例では、第3判断用画像の検査結果を満たした場合に、視力値を判断して処理を終了していたが、より高い検査基準となる判断用画像231がある場合、処理を続けてもよい。より高い検査基準となる判断用画像231としては、第3判断用画像より第1画像241と第2画像242との大きさが小さい画像が挙げられる。ただし、より高い検査基準となる判断用画像231としては、第3判断用画像よりコントラストが小さい判断用画像231であってもよい。
図18と図19とは、コントラストが異なる判断用画像の例を示す図である。ここでのコントラストとは、判断用画像231内の最大輝度と最小輝度との輝度の違いの度合いである。最大輝度と最小輝度との輝度の違いの度合いが大きいほど、コントラストが大きくなり、最大輝度と最小輝度との輝度の違いの度合いが小さいほど、コントラストが小さくなる。例えば、コントラストは、判断用画像231内の画素のうち輝度が最大となる画素の輝度、すなわち最大輝度を、判断用画像231内の画素のうち輝度が最小となる画素の輝度、すなわち最小輝度で除した値である。
図18に示す判断用画像231Dと、図19に示す判断用画像231Eとは、第1画像241と第2画像242との大きさが等しい。ただし、図19に示す判断用画像231Eは、図18に示す判断用画像231Dよりも、コントラストが小さい。すなわち、判断用画像231Eは、判断用画像231Dよりも、最大輝度と最小輝度との輝度の違いの度合いが小さい。従って、判断用画像231Eは、判断用画像231Dよりも、被験者Hに視認され難い。なお、本実施形態では、第2画像242が最大輝度となり、第1画像241が最小輝度となる。コントラストが小さくなれば、第1画像241と第2画像242との輝度差が小さくなるため、被験者は、視認し難くなる。
このように、判断用画像231のコントラストを異ならせることによっても、段階的な検査を行うことができる。視機能検出装置100は、第1画像241と第2画像242との大きさが異なる判断用画像231のみを用いて検査を行ってもよいし、コントラストが異なる判断用画像231のみを用いて検査を行ってもよいし、それらの両方を用いたり、組み合わせたりしてもよい。
以上説明したように、本実施形態に係る視機能検出装置100は、表示制御部216と、注視点検出部214と、位置関係検出部218と、視機能検出部220と、を有する。表示制御部216は、表示部(表示装置101)の表示画面101S上に判断用画像231を表示させ、判断用画像231の位置を、判断用画像231が表示されている状態で、時間経過に伴い連続的に移動させる。注視点検出部214は、表示画面101Sを観察する被験者Hの注視点の表示画面101S上の位置を検出する。位置関係検出部218は、表示画面101S上の判断用画像231の位置と、注視点の位置との位置関係を検出する。視機能検出部220は、位置関係に基づき、被験者Hの視機能を検出する。この視機能検出装置100は、被験者Hの注意を引く判断用画像231を表示することで、その判断用画像231が視認できている場合は、被験者Hの視線を判断用画像231に誘導する。そして、その被験者の視線を注視点として検出し、その注視点の位置と判断用画像231の位置とに基づき、被験者Hが判断用画像231を視認できているか判断して、被験者Hの視機能を検出している。従って、この視機能検出装置100によると、視認できているかの自己申告が不要となり、注視点を適切に検出でき、注視点に基づき、被験者Hが判断用画像231を視認できているかを適切に判断できる。従って、この視機能検出装置100によると、被験者Hの視機能を適切に検査することができる。
さらに、視機能検出装置100は、判断用画像231が表示されている状態で、判断用画像231の位置を連続的に移動させる。従って、この視機能検出装置100は、被験者Hが視認できていないのにもかかわらず、判断用画像231を視認する可能性を低くして、偶然性を抑制して、被験者Hの視機能を適切に検査することができる。また、視機能検出装置100は、表示領域101Tの位置を連続的に移動させるため、被験者Hの視線の追従性についても検査することができる。
また、表示制御部216は、判断用画像231として、表示領域101T内に、互いに輝度の異なる第1画像241と第2画像242とを表示させる。この視機能検出装置100は、輝度の異なる第1画像241と第2画像242とを判断用画像231として表示することで、被験者Hが視認できている場合には適切に視線を誘導して、視機能を適切に検査することができる。
また、表示制御部216は、表示領域101T内に、複数の第1画像241と複数の第2画像242とを表示し、第1画像241及び第2画像242の大きさが互いに異なる複数種類の判断用画像231を、異なるタイミングで表示させる。視機能検出部220は、複数種類の判断用画像231毎の位置関係に基づき、被験者Hの視機能を検出する。この視機能検出装置100は、複数種類の判断用画像231毎に検査を行うことで、視機能を段階的に評価することができる。
表示制御部216は、表示画面101S上における表示領域101T以外の領域に背景用画像232を表示させ、判断用画像231の平均輝度を、背景用画像232の平均輝度に一致させる。この視機能検出装置100は、判断用画像231と背景用画像232との平均輝度を一致させることで、判断用画像231自体が視認できていないが輝度の違いで判断用画像231に視野を向けてしまう場合に、判断用画像231を視認できていると誤判断することを抑制する。従って、この視機能検出装置100は、視機能を適切に評価することができる。
表示制御部216は、互いにコントラストが異なる複数種類の判断用画像231を、異なるタイミングで表示させ、視機能検出部220は、複数種類の判断用画像231毎の位置関係に基づき、被験者Hの視機能を検出する。この視機能検出装置100は、コントラストが異なる判断用画像231毎に検査を行うため、視機能を段階的に評価することができる。
また、視機能検出部220は、表示領域101T内に注視点の位置があるかに基づき、被験者Hの視機能を検出する。この視機能検出装置100は、このように視機能の検出を行うため、視機能を精度良く評価することができる。
また、注視点検出部214は、判断用画像231が表示されている間に、注視点を複数回検出する。視機能検出部220は、表示領域101T内に、注視点の位置がある回数が予め定めた閾値以上である場合に、被験者Hが判断用画像231を視認できていると判断する。この視機能検出装置100は、このように視機能の検出を行うため、視機能を精度良く評価することができる。
図20は、有効注視点の検出の他の例を示す図である。本実施形態においては、検査基準を満たしているかの判断は、有効注視点の数が閾値以上であるかに基づいて行っていた。有効注視点は、表示領域101T内にある注視点を、有効注視点として検出していた。ただし、有効注視点の検出方法は、これに限られない。例えば、図20に示すように、位置関係検出部218は、有効領域101U内にある注視点も、有効注視点として検出してもよい。有効領域101Uは、表示領域101Tの全域と重畳する表示画面101S上の領域であり、表示領域101Tよりも面積が大きい領域である。図20の例では、注視点166Eが、表示領域101T内にある注視点166であり、注視点166Fが、表示領域101T外であって、有効領域101U内にある注視点である。また、注視点166Gが、有効領域101U外にある注視点である。この場合、位置関係検出部218は、注視点166Eと注視点166Fとを、有効注視点とし、注視点166Gを有効注視点としない。このようにすることで、若干視点がずれているだけで、判断用画像231が視認している場合においても、視機能の検出を適切に行うことができる。
なお、この場合の有効領域101Uは、表示領域101Tに対して所定量だけ面積が大きくなるように決定される。この所定量は、任意で設定可能である。また、有効領域101Uは、表示領域101Tの点Oからの距離に基づき設定してもよい。
また、視機能検出部220は、有効注視点に重み付けを行ってもよい。すなわち、視機能検出部220は、検査基準を満たしていると判断する場合に、注視点166Fを、注視点166Eよりも重みが小さくなるように設定してもよい。このように重み付けを行うことで、視機能の検出をより適切に行うことができる。例えば、視機能検出部220は、注視点166Fの総数に対して1より小さい係数k1を乗じた値を算出し、その値に、注視点166Eの総数を加えた値を、有効注視点の数としてもよい。また、逆に、視機能検出部220は、注視点166Eの総数に対して1より大きい係数k2を乗じた値を算出し、その値に、注視点166Fの総数を加えた値を、有効注視点の数としてもよい。さらに、これらの係数k1、k2の両方を用いてもよい。
また、視機能検出部220は、注視点166として検出されたタイミングが早い有効注視点の重みが大きくなるように、重み付けを行ってもよい。例えば、視機能検出部220は、注視点166として検出されたタイミングが所定時刻より前の有効注視点の総数に、1より大きい係数k2を乗じてもよいし、注視点166として検出されたタイミングが所定時刻より遅い有効注視点の総数に、1より小さい係数k1を乗じてもよいし、これらを組み合わせてもよい。また、タイミングが遅くなる有効注視点ほど、乗じる係数の値を小さくしてもよい。被験者Hは、判断用画像231が表示されたタイミングでは注視しても、その後で視線をずらす可能性がある。このような場合に、タイミングが早い有効注視点の重みが大きくすることで、視認できているが後で視線をずらした場合であっても、視認できているという判断をより好適に行うことができる。
また、視機能検出部220は、注視点166として検出されたタイミングが早い有効注視点の重みが小さくなるように、重み付けを行ってもよい。すなわち、判断用画像231を表示して間もない期間は、被験者Hの反応が間に合わない可能性も考えらえるので、このようにすれば、視認できているという判断をより好適に行うことができる。このような時間的な重み付けの仕方は、状況に応じて適宜設定することができる。
また、本実施形態に係る視機能検出装置100は、表示領域101Tの移動速度を変化させた試験を実施することで、移動する被見物に対する視線の追従性についても、視機能として検査することができる。図21は、視線の追従性を検査するフローチャートである。図22は、視線の追従性を検査する場合を説明する図である。視線の追従性の検査を行う場合、視機能検出装置100は、被験者Hが視認できる判断用画像231を、表示する判断用画像231として選択する。すなわち、例えば図17において第2視力値と判定された場合、判断用画像231としては、第2判断用画像(判断用画像231B)、又は、第1判断用画像(判断用画像231A)が用いられる。
図21に示すように、視機能検出装置100は、注視点検出部214により、上述した注視点検出処理を実行して(ステップS50)、被験者Hの注視点166の位置の検出を開始する。そして、視機能検出装置100は、検出時間をリセットし(ステップS52)、表示制御部216により、判断用画像231を表示させる(ステップS54)。そして、視機能検出装置100は、位置関係検出部218により、注視点検出部214が検出した注視点166の位置データと、表示画面101S上での判断用画像231(表示領域101T)の位置データとから、注視点166と判断用画像231との間の距離Dを、位置関係として算出する(ステップS56)。
位置関係検出部218は、図22に示すように、例えば、判断用画像231(表示領域101T)内の点Oと注視点166との間の距離を、距離Dとして検出する。位置関係検出部218は、注視点166が検出されたタイミングにおいて表示されている判断用画像231の点Oと、その注視点166との間の距離を、距離Dとして算出する。点Oは、表示領域101Tの中心点であるが、表示領域101T内の点であれば、任意の位置であってよい。ただし、点Oは、表示領域101Tが移動しても、表示領域101T内での相対位置は、変わらないことが好ましい。
図21に戻り、視機能検出装置100は、距離Dを算出したら、判断用画像231の表示領域101Tを移動させ(ステップS58)、検出時間が経過するかを判断し(ステップS60)、検出時間が経過していない場合(ステップS60;No)、ステップS56に戻り、移動先における距離Dを算出する。すなわち、ここで検出時間が経過するまでに行う処理は、有効注視点の代わりに距離Dを検出する以外の点において、図13での処理と同じである。
すなわち、図22に示すように、視機能検出装置100は、表示領域101Tを、フレーム毎に軌跡Cに沿って徐々に移動させる。表示領域101Tの移動速度は、フレームレートと、フレーム毎の表示領域101Tの移動距離とに依存する。従って、視機能検出装置100は、表示領域101Tの移動速度が所定速度となるように、表示領域101Tを移動させているといえる。ここでの所定速度は、例えば、100ピクセル/秒以上400ピクセル/秒以下程度であるが、それに限られず任意に設定可能である。
このように、視機能検出装置100は、検出時間に達するまで、判断用画像231を表示させたまま表示領域101Tを連続的に移動させつつ、注視点166の検出を行っている。そして、視機能検出装置100は、検出時間に達するまで、距離Dの検出を続ける。
視機能検出装置100は、検出時間が経過したら、視機能検出部220により、位置関係、すなわち距離Dに基づき、被験者Hの視機能の判断を行う。具体的には、視機能検出部220は、検出時間が経過した場合(ステップS60;Yes)、検出した距離Dの平均値を算出する。視機能検出部220は、例えば、検出した全ての距離Dを合計して、その合計値を検出した数で除することで、平均値を算出する。そして、視機能検出部220は、その平均値が予め定めた追従閾値より小さいかを判断して(ステップS64)、小さい場合(ステップS64;Yes)、検査基準を満たしている、すなわち、本検査を行った移動速度に対する追従性の基準を満たしていると判断する(ステップS66)。また、視機能検出部220は、平均値が閾値より小さくない場合(ステップS64;No)、すなわち閾値以上である場合、検査基準を満たしていない、すなわち、本検査を行った移動速度に対する追従性の基準を満たしていないと判断する(ステップS68)。このステップS66又はS68により、本処理は終了する。視機能検出部220は、この検査基準を満たすか否かという判断結果を、視機能としての視力を検出するための基準となる情報として導出し、例えば記憶部222に記憶させる。
なお、本説明では、平均値と閾値との比較で、判断を行ったが、それに限られない。例えば、視機能検出装置100は、検出した全ての距離Dの合計値と閾値とを比較して判断してもよい。すなわち、視機能検出装置100は、タイミング毎に距離Dを算出して、算出した距離Dの値に基づき、注視点166が判断用画像231に追従して動いているかを判断するものであればよい。この場合、算出した距離Dの値が大きいほど、判断用画像231に追従していないと判断され、算出した距離Dの値が小さいほど、判断用画像231に追従していると判断される。
視機能検出装置100は、このように、タイミング毎の距離Dに基づき、視線の追従性を検出することができる。この場合、視機能検出装置100は、表示領域101Tの移動速度を変化させた検査を実施することで、視力と同様に段階的な検査が可能である。すなわち、視機能検出装置100は、第1移動速度(例えば100ピクセル/秒など)での図21に示す検査と、第2移動速度(例えば200ピクセル/秒など)での図21に示す検査と、第3移動速度(例えば400ピクセル/秒など)での図21に示す検査とを、行ってよい。この場合、例えば、視機能検出装置100は、第1移動速度で、図21に示す検査を行った後、検査基準を満たしていると判断されれば、第2移動速度での同じ検査を行い、その検査基準を満たしていると判断されれば、第3移動速度での同じ検査を行ってよい。ここで、第2移動速度は、第1移動速度より高速であり、第3移動速度は、第2移動速度より高速である。このように検査を行うことで、速度毎の視線の追従性を、段階的に検出することができる。
また、このように段階的に検査する場合、移動速度を連続的に変化させてもよい。すなわち、視機能検出装置100は、図21のステップS60での検出時間が経過したら、ステップS52に戻り、次のフレームから移動速度を変化させて判断用画像231を表示させて、同様に検査を行ってもよい。このように連続的に検査を行うことで、検査時間を短縮することができる。
以上説明したように、表示制御部216は、表示領域101Tの位置を移動させる速度を変化させ、位置関係検出部218は、移動速度毎の位置関係を検出し、視機能検出部220は、移動速度毎の位置関係に基づき、移動する被視物に対する被験者Hの視線の追従性を検出する。視機能検出装置100は、このように移動速度を変化させつつ検査を行うことで、速度毎の視線の追従性を適切に検査することができる。
図23から図25は、判断用画像の他の例を示す図である。本実施形態の判断用画像231は、第1画像241と第2画像242とが、X軸方向に沿って交互に並ぶストライプ形状であったが、判断用画像231の表示はそれに限られない。例えば、図23の判断用画像231aに示すように、第1画像241aと第2画像242aとが、Y軸方向に沿って交互に並ぶストライプ形状であってもよい。また、図24の判断用画像231bに示すように、第1画像241bと第2画像242bとが、X軸方向及びY軸方向に沿って交互に並ぶ市松模様であってもよい。また、図25の判断用画像231cに示すように、第1画像241cと第2画像242cとが、互いに輝度や形状が異なる画像であってもよい。なお、図25の例では、第1画像241cと第2画像242cとが果物であったが、それに限られない。
以上、本発明の実施形態を説明したが、これら実施形態の内容により実施形態が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
C…軌跡、D…距離、20…コンピュータシステム,制御部、20A…演算処理装置、20B…記憶装置、20C…コンピュータプログラム、30…入出力インターフェース装置、40…駆動回路、50…出力装置、60…入力装置、100…視機能検出装置、101…表示装置、101S…表示画面、101T…表示領域、102…ステレオカメラ装置、102A…第1カメラ、102B…第2カメラ、103…照明装置、103A…第1光源、103B…第2光源、103C…光源、103V…仮想光源、109…角膜曲率半径、110,110H…角膜曲率中心、111…眼球,眼、112…瞳孔、112C…瞳孔中心、113…角膜反射像、113C,121,122,124…角膜反射中心、123,131,132,173…直線、126…距離、130…目標位置、166…注視点、177,178…視線、204…光源制御部、206…画像データ取得部、208…入力データ取得部、210…位置検出部、212…曲率中心算出部、214…注視点検出部、216…表示制御部、218…位置関係検出部、220…視機能検出部、222…記憶部、231…判断用画像、232…背景用画像、241…第1画像、242…第2画像。

Claims (10)

  1. 表示部の表示画面上の表示領域に判断用画像を表示させ、前記判断用画像の位置を連続的に移動させる表示制御部と、
    前記表示画面を観察する被験者の注視点の位置を検出する注視点検出部と、
    前記表示画面上の前記判断用画像の位置と、前記注視点の位置との位置関係を検出する位置関係検出部と、
    前記位置関係に基づき、前記被験者の視機能を検出する視機能検出部と、
    を有する、視機能検出装置。
  2. 前記表示制御部は、前記判断用画像の位置を移動させる速度を変化させ、
    前記位置関係検出部は、位置の移動速度毎の前記位置関係を検出し、
    前記視機能検出部は、位置の移動速度毎の前記位置関係に基づき、移動する被視物に対する前記被験者の視線の追従性を検出する、請求項1に記載の視機能検出装置。
  3. 前記表示制御部は、前記判断用画像として、前記表示領域内に、互いに輝度の異なる第1画像と第2画像とを表示させる、請求項1又は請求項2に記載の視機能検出装置。
  4. 前記表示制御部は、前記表示領域内に、複数の前記第1画像と複数の前記第2画像とを表示し、前記第1画像及び前記第2画像の大きさが異なる複数種類の前記判断用画像を、異なるタイミングで表示させ、
    前記視機能検出部は、複数種類の前記判断用画像毎の前記位置関係に基づき、前記被験者の視機能を検出する、請求項3に記載の視機能検出装置。
  5. 前記表示制御部は、前記表示画面上における前記判断用画像の表示領域以外の領域に背景用画像を表示させ、前記判断用画像の平均輝度を、前記背景用画像の平均輝度に一致させる、請求項1から請求項4のいずれか1項に記載の視機能検出装置。
  6. 前記表示制御部は、コントラストが異なる複数種類の前記判断用画像を、異なるタイミングで表示させ、
    前記視機能検出部は、複数種類の前記判断用画像毎の前記位置関係に基づき、前記被験者の視機能を検出する、請求項1から請求項5のいずれか1項に記載の視機能検出装置。
  7. 前記視機能検出部は、前記判断用画像の表示領域内に、前記注視点の位置があるかに基づき、前記被験者の視機能を検出する、請求項1から請求項6のいずれか1項に記載の視機能検出装置。
  8. 前記注視点検出部は、前記判断用画像が表示されている間に、前記注視点を複数回検出し、
    前記視機能検出部は、前記判断用画像の表示領域内に、前記注視点の位置がある回数が予め定めた閾値以上である場合に、前記被験者が前記判断用画像を視認できていると判断する、請求項7に記載の視機能検出装置。
  9. 表示部の表示画面上の表示領域に判断用画像を表示させ、前記判断用画像の位置を連続的に移動させる表示制御ステップと、
    前記表示画面を観察する被験者の注視点の位置を検出する注視点検出ステップと、
    前記表示画面上の前記判断用画像の位置と、前記注視点の位置との位置関係を検出する位置関係検出ステップと、
    前記位置関係に基づき、前記被験者の視機能を検出する視機能検出ステップと、
    を有する、視機能検出方法。
  10. 表示部の表示画面上の表示領域に判断用画像を表示させ、前記判断用画像の位置を連続的に移動させる表示制御ステップと、
    前記表示画面を観察する被験者の注視点の位置を検出する注視点検出ステップと、
    前記表示画面上の前記判断用画像の位置と、前記注視点の位置との位置関係を検出する位置関係検出ステップと、
    前記位置関係に基づき、前記被験者の視機能を検出する視機能検出ステップと、
    をコンピュータに実行させる、プログラム。
JP2018036603A 2018-03-01 2018-03-01 視機能検出装置、視機能検出方法及びプログラム Active JP7043890B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018036603A JP7043890B2 (ja) 2018-03-01 2018-03-01 視機能検出装置、視機能検出方法及びプログラム
PCT/JP2019/007120 WO2019167899A1 (ja) 2018-03-01 2019-02-25 視機能検出装置、視機能検出方法及びプログラム
EP19760204.8A EP3747351B1 (en) 2018-03-01 2019-02-25 Visual function detection device, visual function detection method, and program
US17/000,455 US11957411B2 (en) 2018-03-01 2020-08-24 Visual function detection apparatus, method of detecting visual function, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018036603A JP7043890B2 (ja) 2018-03-01 2018-03-01 視機能検出装置、視機能検出方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2019150253A true JP2019150253A (ja) 2019-09-12
JP7043890B2 JP7043890B2 (ja) 2022-03-30

Family

ID=67946942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018036603A Active JP7043890B2 (ja) 2018-03-01 2018-03-01 視機能検出装置、視機能検出方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7043890B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7418683B2 (ja) 2019-10-31 2024-01-22 株式会社Jvcケンウッド 評価装置、評価方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010526623A (ja) * 2007-05-16 2010-08-05 ユニバーシティ・コート・オブ・ザ・ユニバーシティ・オブ・エディンバラ 視野検査システム、視野検査方法、コンピュータプログラム、コンピュータ製品およびプロセッサ
JP2013510613A (ja) * 2009-11-13 2013-03-28 エシロル アンテルナショナル(コンパーニュ ジェネラル ドプテーク) 個人の両眼の屈折特性の少なくとも1つを自動的に測定するための方法及び装置
WO2016116933A1 (en) * 2015-01-20 2016-07-28 Green C.Tech Ltd Method and system for automatic eyesight diagnosis
WO2017164383A1 (ja) * 2016-03-24 2017-09-28 国立大学法人京都大学 視覚フィルタ同定方法及び装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010526623A (ja) * 2007-05-16 2010-08-05 ユニバーシティ・コート・オブ・ザ・ユニバーシティ・オブ・エディンバラ 視野検査システム、視野検査方法、コンピュータプログラム、コンピュータ製品およびプロセッサ
JP2013510613A (ja) * 2009-11-13 2013-03-28 エシロル アンテルナショナル(コンパーニュ ジェネラル ドプテーク) 個人の両眼の屈折特性の少なくとも1つを自動的に測定するための方法及び装置
WO2016116933A1 (en) * 2015-01-20 2016-07-28 Green C.Tech Ltd Method and system for automatic eyesight diagnosis
WO2017164383A1 (ja) * 2016-03-24 2017-09-28 国立大学法人京都大学 視覚フィルタ同定方法及び装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7418683B2 (ja) 2019-10-31 2024-01-22 株式会社Jvcケンウッド 評価装置、評価方法

Also Published As

Publication number Publication date
JP7043890B2 (ja) 2022-03-30

Similar Documents

Publication Publication Date Title
EP3367337B1 (en) Line of sight detection device and line of sight detection method
JP5371638B2 (ja) 眼科撮影装置及びその方法
US10896324B2 (en) Line-of-sight detection device and method for detecting line of sight
JP2018140007A (ja) 評価装置、評価方法、及び評価プログラム
WO2019167899A1 (ja) 視機能検出装置、視機能検出方法及びプログラム
WO2020137028A1 (ja) 表示装置、表示方法、およびプログラム
JP7043890B2 (ja) 視機能検出装置、視機能検出方法及びプログラム
US11883102B2 (en) Visual function detection apparatus, method of detecting visual function, and program
JP7043889B2 (ja) 視機能検出装置、視機能検出方法及びプログラム
JP6958507B2 (ja) 視線検出装置、視線検出方法及び視線検出プログラム
WO2021246012A1 (ja) 視線検出装置、視線検出方法、及び視線検出プログラム
JP2019146915A (ja) 評価装置、評価方法、及び評価プログラム
JP7057483B2 (ja) 評価装置、評価方法、及び評価プログラム
JP6909391B2 (ja) 視線検出装置及び視線検出方法
JP2019024776A (ja) 評価装置、評価方法、及び評価プログラム
US11653831B2 (en) Visual performance examination device, visual performance examination method, and computer program
JP7027958B2 (ja) 評価装置、評価方法、及び評価プログラム
WO2019181272A1 (ja) 評価装置、評価方法、及び評価プログラム
US20140132925A1 (en) Ophthalmologic apparatus and method thereof
JP2020103855A (ja) 評価装置、評価方法、及び評価プログラム
JP2018108166A (ja) 視機能検査装置、視機能検査方法、及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220228

R150 Certificate of patent or registration of utility model

Ref document number: 7043890

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150