JP2019208651A - 視力検査処理プログラムおよび視力検査システム - Google Patents

視力検査処理プログラムおよび視力検査システム Download PDF

Info

Publication number
JP2019208651A
JP2019208651A JP2018105276A JP2018105276A JP2019208651A JP 2019208651 A JP2019208651 A JP 2019208651A JP 2018105276 A JP2018105276 A JP 2018105276A JP 2018105276 A JP2018105276 A JP 2018105276A JP 2019208651 A JP2019208651 A JP 2019208651A
Authority
JP
Japan
Prior art keywords
subject
visual acuity
unit
display unit
index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018105276A
Other languages
English (en)
Inventor
水野 雄介
Yusuke Mizuno
雄介 水野
学 野田
Manabu Noda
学 野田
友洋 宮城
Tomohiro Miyagi
友洋 宮城
坂下祐輔
Yusuke Sakashita
祐輔 坂下
壮平 宮崎
Sohei Miyazaki
壮平 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Priority to JP2018105276A priority Critical patent/JP2019208651A/ja
Publication of JP2019208651A publication Critical patent/JP2019208651A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

【課題】被検者の視力検査を適切に行うことが可能な視力検査処理プログラムおよび視力検査システムを提供する。【解決手段】視力検査システムは、被検者の視力検査を行うために使用される。視力検査システムは、撮影部、表示部、および制御部を備える。撮影部は画像を撮影する。表示部は各種画像を表示する。制御部はコントローラを備える。制御部は、視力検査の指標を表示部に表示させる(S24)。制御部は、撮影部によって撮影された画像に基づいて、物体の位置、角度、および動作の少なくともいずれかを検出する(S30)。制御部は、物体の検出結果に基づいて、指標を見た被検者の回答を判定する(S31)。【選択図】図5

Description

本開示は、被検者の視力検査を行うための視力検査処理プログラムおよび視力検査システムに関する。
従来、被検者の応答に基づいて自動的に視力を判定する視力検査システムが知られている。例えば、特許文献1に記載の自動視力検査装置は、検査窓から被検者に指標を呈示する。被検者は、検査本体に設けられたレバーを操作することで、呈示された指標の方向を入力する。自動視力検査装置は、レバーによって入力された方向に応じて、被検者の視力を判定する。
特開2001−37721号公報
従来の視力検査システムでは、被検者自身が操作部(例えばレバー等)を操作することで、指標を見た結果を入力する必要がある。従って、例えば被検者が小児や高齢者等である場合には、被検者が操作部の操作方法を理解できなかったり、操作を間違えてしまったりする場合があった。
本開示は、被検者の視力検査を適切に行うことが可能な視力検査処理プログラムおよび視力検査システムを提供することである。
本開示における典型的な実施形態が提供する視力検査処理プログラムは、動物の顔を模した顔部を備え、被検者の反応を検出することで前記被検者の視力検査を行う視力検査システムにおいて実行される視力検査処理プログラムであって、前記視力検査システムは、画像を撮影する撮影部、各種画像を表示する表示部、およびコントローラを有する制御部を備え、前記視力検査処理プログラムが前記コントローラによって実行されることで、視力検査の指標を前記表示部に表示させる指標表示ステップと、前記撮影部によって撮影された画像に基づいて、物体の位置、角度、および動作の少なくともいずれかを検出する物体検出ステップと、前記物体検出ステップによる検出結果に基づいて、前記指標を見た前記被検者の回答を判定する回答判定ステップと、を前記視力検査システムに実行させる。
本開示における典型的な実施形態が提供する視力検査システムは、動物の顔を模した顔部を備え、被検者の反応を検出することで前記被検者の視力検査を行う視力検査システムであって、画像を撮影する撮影部と、各種画像を表示する表示部と、コントローラを有する制御部とを備え、前記制御部は、視力検査の指標を前記表示部に表示させると共に、前記撮影部によって撮影された画像に基づいて、物体の位置、角度、および動作の少なくともいずれかを検出し、前記物体の検出結果に基づいて、前記指標を見た前記被検者の回答を判定する。
本開示に係る視力検査処理プログラムおよび視力検査システムによると、被検者の視力検査が適切に行われる。
視力検査システム1の概略構成を示す図である。 視力検査システム1の電気的構成を示すブロック図である。 撮影部21によって撮影された被検者Sの撮影画像の一例を示す図である。 集中喚起処理の一例を示すフローチャートである。 視力検査処理の一例を示すフローチャートである。 視力検査処理中に実行される準備処理の一例を示すフローチャートである。
<概要>
本開示で例示する視力検査システムは、動物の顔を模した顔部を備え、被検者の反応(例えば、指標を見た被検者が指標の認識結果を回答する反応等)を検出することで、被検者の視力検査を行う。本開示で例示する視力検査システムは、撮影部、表示部、および制御部を備える。撮影部は、画像を撮影する。表示部は、各種画像を表示する。制御部は、コントローラを有する。制御部のコントローラが視力検査処理プログラムを実行することで、視力検査システムは各種ステップを実行する。詳細には、本開示で例示する視力検査システムは、指標表示ステップ、物体検出ステップ、および回答判定ステップを実行する。指標表示ステップでは、視力検査の指標が表示部に表示される。物体検出ステップでは、撮影部によって撮影された画像(静止画像および動画像の少なくともいずれか)に基づいて、物体の位置、角度、および動作の少なくともいずれかが検出される。回答判定ステップでは、検出ステップによる検出結果に基づいて、指標を見た被検者の回答が判定される。
本開示で例示する視力検査システムによると、被検者自身が操作部等を操作しなくても、撮影部によって撮影された画像に基づいて、指標を見た被検者の回答が自動的に判定される。また、視力検査システムは、顔部等によって被検者をシステム自体に集中させやすい。従って、種々の被検者(例えば、小児および高齢者等)に対する視力検査が、より適切に行われる。
なお、物体検出ステップにおいて検出される対象となる物体には、種々の物体を採用できる。例えば、被検者の手、被検者の顔、被検者が把持している物体(例えば、パネルまたは棒等)の少なくともいずれかが検出対象とされてもよい。被検者の手または顔が検出対象とされる場合、制御部は、手または顔の角度を検出してもよいし、手または顔の動作を検出してもよい。また、制御部は、視標呈示後の所定のタイミングにおける、手または顔の位置を検出してもよい。同様に、制御部は、被検者が把持している物体の角度、動作、および、所定のタイミングにおける位置を検出してもよい。物体は、静止画像および動画像のいずれから検出されてもよい。
視力検査システムは、動物型筐体を備えていてもよい。動物型筐体は、腕部、胴体部、頭部、および可動部を有していてもよい。腕部は、動物の腕(右腕部および左腕部の少なくとも一方)を模した部位である。胴体部は、腕部を支持する。頭部は胴体部の上部または前部に設けられており、顔部を有する。可動部は、少なくとも腕部を可動させる。この場合、被検者は、可動する動物型筐体に注目し易いので、より集中して視力検査を行い易い。よって、より円滑に視力検査が実行され易い。
なお、動物型筐体には、各種動物(例えば、人、サル、ゴリラ、犬、猫等の哺乳類、または鳥類、爬虫類、両生類等)の形状を模した筐体を用いることができる。
ただし、視力検査システムは、動物型筐体を備えていなくてもよい。この場合、視力検査システムは、例えば、撮影部、表示部、および制御部を有するパーソナルコンピュータまたはタブレット端末等を備えていてもよい。また、視力検査システムでは、撮影部、表示部、および制御部の少なくとも2つ以上が別の筐体に設けられていてもよい。例えば、カメラ、モニタ、および制御装置(例えばパーソナルコンピュータ等)の各々を接続することで視力検査システムが構成されていてもよい。
また、視力検査システムは、動物型筐体を備えていない場合、表示部に顔部を表示させることで顔部を構成してもよい。また、顔部を用いずに視力検査システムを構成することも可能である。この場合、視力検査処理プログラムは以下のように表現することも可能である。被検者の視力検査を行う視力検査システムにおいて実行される視力検査処理プログラムであって、前記視力検査システムは、画像を撮影する撮影部、各種画像を表示する表示部、およびコントローラを有する制御部を備え、前記視力検査処理プログラムが前記コントローラによって実行されることで、視力検査の指標を前記表示部に表示させる指標表示ステップと、前記撮影部によって撮影された画像に基づいて、物体の位置、角度、および動作の少なくともいずれかを検出する物体検出ステップと、前記物体検出ステップによる検出結果に基づいて、前記指標を見た前記被検者の回答を判定する回答判定ステップと、を前記視力検査システムに実行させる。
視力検査システムは、音声を出力する音声出力部を備えていてもよい。視力検査システムは、音声出力部に出力させる音声に合わせて可動部を駆動させる音声対応駆動ステップを実行してもよい。この場合、各種音声(例えば、検査手順を説明する音声等)に合わせて可動部を駆動させることで、被検者は、音声を出力している視力検査システムに集中する。よって、より円滑に視力検査が行われる。
視力検査システムは、集中判定ステップおよび集中度対応駆動ステップを実行してもよい。集中判定ステップでは、制御部は、撮影部によって撮影された画像に基づいて、検査に対して被検者が集中しているか否かを判定する。集中度対応駆動ステップでは、制御部は、被検者が集中してないと判定された際に、可動部を駆動させる。この場合、視力検査システムは、検査に集中できていない被検者を、より容易にシステムに注目させることができる。よって、より円滑に視力検査が実行される。
なお、被検者が集中しているか否かを判定するための具体的な方法は、適宜選択できる。例えば、制御部は、画像に写っている被検者の動作量を画像処理等によって検出し、動作量が閾値以上である場合に、被検者が集中していないと判定してもよい。また、制御部は、画像に写っている被検者の視線を画像処理等によって検出し、被検者の視線の変化量が閾値以上である場合、または、被検者の視線が表示部以外の方向を向いている場合等に、被検者が集中していないと判定してもよい。また、制御部は、画像に写っている被検者の顔の動作量が閾値以上である場合、または、顔の向きが表示部以外の方向を向いている場合等に、被検者が集中していないと判定してもよい。
また、制御部は、被検者が集中していないと判定した場合に、可動部の駆動と共に、または可動部を駆動させる代わりに、被検者を検査に集中させるための音声を音声出力部に出力させてもよい。
なお、他の態様で可動部を駆動させてもよいことは言うまでもない。例えば、制御部は、検査に関する説明を表示部に表示させる際に可動部を駆動させてもよい。この場合、被検者は、検査に関する説明を表示させている視力検査システムに、より容易に集中することができる。また、制御部は、指標を表示部に表示させる際に可動部を駆動させてもよい。この場合、被検者は、指標が表示されたことを、より容易に把握することができる。
視力検査システムは、表示部による指標の表示位置、および表示部の角度の少なくともいずれかを変更する表示変更部を備えていてもよい。視力検査システムは、位置検出ステップおよび表示変更ステップを実行してもよい。位置検出ステップでは、制御部は、撮影部によって撮影された画像に基づいて、被検者の眼および顔の少なくともいずれかの位置を検出する。表示変更ステップでは、制御部は、検出された位置に応じて表示変更部を駆動させることで、表示部による指標の表示位置、および表示部の角度の少なくともいずれかを変更する。この場合、被検者の眼および顔の少なくともいずれかの位置に応じて、指標の表示位置および呈示角度の少なくともいずれかが調整される。よって、より適切に視力検査が行われる。
なお、被検者の眼および顔の少なくともいずれかの位置を検出するための具体的な方法は、適宜選択できる。例えば、制御部は、被検者の画像に対して画像処理を行うことで、表示部に対する眼または顔の位置、または、表示部に対して眼または顔が位置する方向を検出してもよい。また、制御部は、被検者の顔の一部(例えば、顔の上端部等)の位置を検出することで、被検者の顔の位置を検出してもよい。また、制御部は、被検者の眼および顔以外の位置(例えば、被検者の肩の位置等)を検出し、検出結果に基づいて、眼および顔の少なくともいずれかの位置を割り出してもよい。
また、表示部による指標の表示位置を変更する方法も、適宜選択できる。例えば、制御部は、表示部自体の位置を固定したまま、表示部の表示領域内における指標の位置を変更することで、指標の表示位置を変更してもよい。また、制御部は、表示部自体の位置を移動させることで、指標の表示位置を変更してもよい。表示領域内における指標の表示位置と、表示部自体の位置が共に変更されてもよい。
また、表示部の角度を変更する場合の、表示変更部の具体的な態様も、適宜選択できる。例えば、動物型筐体の一部(例えば、胴体部)に表示部が固定されている場合がある。この場合、表示部が固定された動物型筐体の角度を変更する角度変更部(例えば、胴体部の角度を変更する角度変更部)が、表示変更部として使用されてもよい。
視力検査システムは、距離検出ステップおよび表示サイズ設定ステップを実行してもよい。距離検出ステップでは、制御部は、表示部と被検者の間の距離を検出する。表示サイズ設定ステップでは、制御部は、距離検出ステップにおいて検出された距離と、検査する視力とに応じて、表示部に表示させる指標の大きさを設定する。この場合、表示部の被検者の距離に応じて、適切な大きさの指標が表示部に表示される。よって、より適切に視力検査が行われる。
ただし、制御部は、表示部と被検者の距離に応じて指標の大きさを変更しなくてもよい。例えば、制御部は、表示部と被検者の間の距離を検出すると共に、検出される距離が適切な距離となるように、画像および音声等の少なくともいずれかを用いて、被検者に移動を促す通知を行ってもよい。この場合でも、適切に視力検査が実行される。
なお、表示部と被検者の距離を検出するための方法は、適宜選択できる。例えば、視力検査システムは、被検者との間の距離を検出する距離センサ(例えば、超音波センサ、光学式センサ等の少なくともいずれか)を備えていてもよい。制御部は、距離センサによる検出結果を取得してもよい。また、制御部は、撮影部によって撮影された被検者の画像に基づいて、被検者との間の距離を検出してもよい。
また、制御部は、距離検出ステップにおいて検出された距離に応じて、指標の表示と非表示を切り替えてもよい。詳細には、制御部は、距離検出ステップにおいて検出された距離が、視力検査を実行するために適した所定範囲内であれば、表示部に指標を表示させてもよい。一方で、制御部は、制御部は、距離検出ステップにおいて検出された距離が、視力検査を実行するために適した所定範囲外であれば、表示部への指標の表示を消去してもよい。この場合、表示部と被検者の間の距離が適切な距離である場合にのみ、視力検査が実行される。よって、より適切な検査結果が得られる。
また、制御部は、切れ目の方向が異なるランドルト環を、大きさを変えて表示してもよい。また、指標はランドルト環に限定されず、文字または絵等であってもよい。制御部は、文字または絵等の指標を、検査を行う視力等に応じてサイズを変更しつつ、表示部に表示させてもよい。
視力検査システムは、識別情報取得ステップおよび結果記憶ステップを実行してもよい。識別情報取得ステップでは、制御部は、被検者を識別する識別情報を取得する。結果記憶ステップでは、制御部は、視力検査の結果を識別情報と対応付けて記憶手段に記憶させる。この場合、検査結果が被検者毎に適切に管理される。
なお、制御部は、撮影部によって撮影された被検者の画像に対して画像処理を行い、被検者の顔および虹彩の少なくともいずれかを検出することで、被検者を識別する識別情報を取得してもよい。この場合、ユーザおよび被検者が何らかの操作を行わなくても、被検者が自動的に識別される。また、被検者が所持する識別子(例えば、QRコード(登録商標)またはバーコード等)が読み取られることで、識別情報が取得されてもよい。被検者の指紋が認証されることで、識別情報が取得されてもよい。また、ユーザが操作部を操作することで、識別情報が視力検査システムに入力されてもよい。
視力検査システムは、被検者情報取得ステップおよび検査視力設定ステップを実行してもよい。被検者情報取得ステップでは、制御部は、識別情報に対応する被検者の被検者情報を取得する。検査視力設定ステップでは、制御部は、取得された被検者情報に応じて、検査を行う視力(例えば、最初に検査を行う視力等)を設定する。この場合、視力検査システムは、被検者情報に応じて適切に視力検査を行うことができる。
なお、被検者情報は、例えば、被検者に対して過去に行われた視力検査の結果を示す情報を含んでいてもよいし、他の装置(例えば、他覚式視力測定器)によって測定された被検者の視力の情報を含んでいてもよい。また、被検者情報は、被検者が使用している眼鏡またはコンタクトレンズの度数の情報を含んでいてもよい。この場合、検査を行う視力が適切に設定される。
視力検査システムは、結果送信ステップを実行してもよい。結果送信ステップでは、制御部は、複数の被検者の情報を管理するサーバに、識別情報と対応付けて視力検査の結果をネットワークを介して送信する。この場合、サーバでは、多数の被検者の視力検査の結果が一括で管理される。よって、例えば、被検者が異なる拠点で視力検査を行う場合等であっても、被検者の情報が適切に管理される。
なお、他の方法でサーバが利用されてもよい。例えば、視力検査システムの制御部は、被検者の識別情報をサーバに送信してもよい。サーバは、記憶装置に記憶されている複数の被検者情報のうち、受信した識別情報に対応する被検者の被検者情報を、識別情報の送信元の視力検査システムに送信してもよい。視力検査システムの制御部は、受信した被検者情報に応じて、検査を行う視力を設定してもよい。この場合、被検者が異なる拠点で視力検査を行う場合等であっても、適切に視力検査が行われる。
<実施形態>
(システム構成)
以下、本開示における典型的な実施形態の1つについて、図面を参照して説明する。一例として、本実施形態の視力検査システム1では、撮影部21および表示部25等の複数の構成が、1つの筐体(本実施形態では動物型筐体10)に設けられている。しかし、視力検査システムでは、撮影部21および表示部25等の複数の構成の少なくとも2つ以上の構成が、別々の筐体(別々のデバイス)に設けられていてもよい。
図1を参照して、本実施形態の視力検査システム1の概略構成について説明する。視力検査システム1は、動物型筐体10を備える。本実施形態における動物型筐体10は、人体の少なくとも一部を模した人型の筐体である。しかし、動物型筐体を採用する場合には、人間以外の動物を模した動物型筐体が使用されてもよい。
本実施形態の動物型筐体10は、腰部11、胴体部12、腕部(右腕部13R、左腕部13L)、および頭部20を備える。腰部11は、人体の腰に相当する部位であり、上部に胴体部12を可動可能に支持する。胴体部12は、人体の胴体に相当する部位である。胴体部12は、人体の腕を模した腕部(右腕部13R、左腕部13L)、および頭部20を支持する。右腕部13Rは、人体の右腕に相当する部位であり、胴体部12の右側上部に可動可能に支持されている。左腕部13Lは、人体の左腕に相当する部位であり、胴体部12の左側上部に可動可能に支持されている。頭部20は、人体の頭に相当する部位であり、胴体部12の上部に可動可能に支持されている。頭部20の前面には、人体の顔を模した顔部20Fが設けられている。右腕部13R、左腕部13L、および頭部20は、後述する可動部42(図2参照)によって可動する。
頭部20には、撮影部(カメラ)21、3Dセンサ22(22R,22L)、音声出力部(スピーカ)23、および音声入力部(マイク)24が設けられている。撮影部21は、各種画像を撮影する。本実施形態の撮影部21は、小型のカメラ(例えばCMOSイメージセンサ等)であり、頭部20における前額部に設けられている。本実施形態の撮影部21は、頭部20の前方の画像(本実施形態では動画像)をカラー(RGB)で撮影する。
3Dセンサは、動物型筐体10と、頭部20の前方に位置する物体(例えば被検者)との間の距離を検出する。一例として、本実施形態の3Dセンサ22は、2つの赤外線カメラ22R,22Lを備える。赤外線カメラ22Rは、頭部20における右眼に相当する位置に設けられている。赤外線カメラ22Lは、頭部20における左眼に相当する位置に設けられている。2つの赤外線カメラ22R,22Lの各々によって撮影された画像間でマッチングが行われることで、画像に写り込んでいる物体との間の距離が検出される。なお、「動物型筐体10と物体の間の距離」とは、動物型筐体10における複数の部位(例えば、3Dセンサ22、および表示部25)の少なくともいずれかと、物体の間の距離を示す。例えば、3Dセンサ22と表示部25の位置関係が明確であれば、3Dセンサ22と物体の距離に基づいて、表示部25と物体の距離は容易に判明する。
なお、本実施形態では、撮影部21と3Dセンサ22が別々に設けられている。しかし、撮影部21と3Dセンサ22が共用されてもよい。また、被検者との間の距離を検出するための具体的な方法を変更することも可能である。例えば、3Dセンサ22の代わりに、距離を検出することが可能な各種センサ(例えば、超音波センサおよび光学式センサ等の少なくともいずれか)が用いられてもよい。
音声出力部(スピーカ)23は、各種音声を出力する。一例として、本実施形態の音声出力部23は、頭部20における口に相当する位置に設けられている。音声入力部(マイク)24は、各種音声を入力する。一例として、本実施形態の音声入力部24は、頭部20における右耳および左耳の各々に相当する位置に設けられている。なお、説明の便宜上、図1では左耳に相当する位置の音声入力部24のみが図示されている。また、本実施形態の顔部20Fでは、3Dセンサ22が眼を表し、音声出力部23が口を表し、音声入力部24が耳を表す。このように、顔部20Fでは、動物の顔に含まれる複数の器官のうちの少なくともいずれかを表す部位が形成されている。
また、視力検査システム1は、各種画像を表示する表示部25を備える。一例として、本実施形態では、カラー画像を表示することが可能なモニタ(液晶モニタ等)が表示部として用いられている。しかし、他のデバイス(例えば、画像を投影するプロジェクタ等)が表示部25として用いられてもよい。図1に示す例では、表示部25は、視力検査の指標(一例として、本実施形態ではランドルト環)Iが表示されている。
本実施形態では、表示部25は、動物型筐体10の一部に固定されている。詳細には、本実施形態の表示部25は、動物型筐体10における胴体部12の前部に固定されている。胴体部12は、後述する角度変更部44(図2参照)によって、腰部11を基点として前後方向(図1における矢印Aの方向)に可動する。また、胴体部12は、角度駆動部44によって、上下方向に延びる軸を中心として左右方向(図1における矢印Bの方向)に回転する。従って、胴体部12が可動して胴体部12の角度が変更されると、胴体部12に固定された表示部25の角度が変更される。
図2を参照して、本実施形態の視力検査システム1の電気的構成について説明する。視力検査システム1は、制御ユニット30を備える。制御ユニット30には、CPU(コントローラ)31、RAM32、ROM33、および不揮発性メモリ(Non−volatile memory:NVM)34を備える。CPU31は、視力検査システム1の各種制御を司る。RAM32は、各種情報を一時的に記憶する。ROM33には、各種プログラム、初期値等が記憶されている。不揮発性メモリ34は、電源の供給が遮断されても記憶内容を保持できる非一過性の記憶媒体である。例えば、ハードディスクドライブ、フラッシュROM、および着脱可能なUSBメモリ等を不揮発性メモリ34として使用してもよい。本実施形態では、後述する集中喚起処理(図4参照)および視力検査処理(図5参照)を実行するための視力検査処理プログラム等が、不揮発性メモリ34に記憶される。
制御ユニット30は、前述した撮影部21、3Dセンサ22、音声出力部23、音声入力部24、および表示部25に接続されている。また、制御ユニット30は、可動モータ41、角度変更モータ43、および外部通信I/F46に接続されている。可動モータ41は、可動部42を駆動させる。可動部42は、動物型筐体10の少なくとも右腕部13Rおよび左腕部13L(本実施形態では、右腕部13R、左腕部13L、および頭部20)を可動させる。角度変更モータ43は、角度変更部44を駆動させる。角度変更部44は、前述したように、表示部25を固定した胴体部12の角度を変更することで、表示部25の角度(例えば、表示部25に表示されている指標Iの、被検者に対する呈示角度)を変更する。外部通信I/Fは、ネットワーク5(例えばインターネット等)を介して、視力検査システム1を外部機器(例えば、複数の被検者の情報を管理するサーバ3等)と接続する。
なお、本実施形態では、視力検査システム1の動物型筐体10(図1参照)の内部に設けられたCPU31が、後述する集中喚起処理(図4参照)および視力検査処理(図5参照)を実行する。しかし、処理を実行するコントローラを変更することも可能である。例えば、視力検査システムに含まれるパーソナルコンピュータのコントローラが、処理を実行してもよい。また、複数のデバイスの各々のコントローラ(例えば、動物型筐体10に設けられたCPU31と、動物型筐体10に接続されたパーソナルコンピュータのCPU)が、協働して処理を実行してもよい。
(視力検査の回答方法の説明)
図3を参照して、本実施形態で採用されている視力検査の回答方法について説明する。図3は、撮影部21によって撮影された被検者Sの撮影画像50の一例を示す図である。図3に示すように、本実施形態で実施される視力検査では、被検者Sに回答用パネル60を把持してもらう。回答用パネル60の表面61および裏面(図示せず)の各々には、ランドルト環60Iが表示されている。表面61のランドルト環60Iの切れ目と、裏面のランドルト環の切れ目は、回答用パネル60における同一の方向(図3では、共に紙面右方向)に位置している。
本実施形態では、被検者Sは、指標Iが表示されるまでは、回答用パネル60の表面61および裏面を撮影部21に向けない状態で待機する。被検者Sは、表示部25に表示された指標(ランドルト環)Iの切れ目の方向を認識すると、認識した指標Iの切れ目の方向と、把持している回答用パネル60のランドルト環60Iの切れ目の方向とが一致するように、回答用パネル60の角度を調整し、撮影部21に向けて掲げる。また、被検者Sは、指標Iの切れ目の方向を認識できない場合には、回答用パネル60を撮影部21に向けない状態のまま待機する。なお、被検者Sが切れ目の方向を認識できない旨を、視力検査システム1が判断するための具体的な方法は、適宜変更できる。例えば、方向を認識できないことを示す言葉(例えば、「分かりません」等)を被検者Sに発言させてもよい。この場合、CPU31は、音声入力部24によって入力された音声に対して音声認識処理を行い、方向を認識できないことを示す言葉が音声認識処理によって検出された場合に、被検者Sが方向を認識できなかったと判断してもよい。また、操作部(例えばボタン等)を被検者Sに操作させることで、方向を認識できない旨を被検者Sに入力させてもよい。
視力検査システム1のCPU31は、撮影画像50に写っている回答用パネル60の、ランドルト環60Iの切れ目の方向を検出することで、指標Iを見た被検者の回答を判定する。詳細には、本実施形態のCPU31は、撮影画像50(静止画像および動画像の少なくともいずれか)に対して画像処理を行うことで、撮影画像50内のランドルト環60Iの切れ目の方向(角度)を検出する。CPU31は、検出した切れ目の方向を、被検者Sが認識した指標Iの切れ目の方向(つまり、指標Iを見た被検者Sの回答)とする。以上のように、本実施形態では、CPU31が回答を判定するために撮影画像50から検出する物体は、回答用パネル60となる。
例えば、CPU31は、表示部25に指標Iを表示させた後の所定のタイミング(例えば、所定時間経過後)の、ランドルト環60Iの切れ目の方向を、被検者Sが認識した切れ目の方向として検出してもよい。また、CPU31は、表示部25への指標Iの表示後、回答用パネル60のランドルト環60Iの切れ目の方向が検出された際に、検出された方向を、被検者Sが認識した切れ目の方向として検出してもよい。また、CPU31は、表示部25への指標Iの表示後、ランドルト環60Iの切れ目の方向が検出されないまま所定時間以上が経過した場合に、被検者Sに回答を促すメッセージ(例えば、「分かりますか」等)を、音声出力部23および表示部25等の少なくともいずれかを用いて出力する。CPU31は、メッセージの表示後、ランドルト環60Iの切れ目の方向が検出されないままさらに所定時間が経過した場合に、表示中の指標Iの切れ目の方向を被検者Sが認識できなかったと判断する。
ただし、本実施形態における視力検査の回答方法は一例に過ぎない。従って、回答方法を変更することも可能である。例えば、被検者Sは、認識した指標Iの切れ目の方向に、右手および左手の少なくとも一方を伸ばすことで、認識した方向を回答してもよい。この場合、CPU31は、撮影画像50に対して画像処理を行い、被検者Sが手を伸ばした方向(角度)または位置を検出することで、被検者Sの回答を判定してもよい。つまり、この場合には、CPU31が回答を判定するために画像から検出する物体は、被検者Sの手となる。また、被検者Sは、画像処理による検出が容易な物体(例えば棒等)を把持し、物体を把持した手を、認識した方向に伸ばしてもよい。この場合、被検者Sの回答の判定精度が向上する。また、被検者Sは、認識した方向に応じたジェスチャー(動作)を行うことで、方向を回答してもよい。この場合、CPU31は、検出したジェスチャーの種類に応じて、被検者Sの回答を判定してもよい。また、被検者Sは、認識した方向に頭を傾けることで、認識した方向を回答してもよい。この場合、CPU31は、被検者Sの頭が向く方向、または、被検者の頭の動きを検出することで、被検者Sの回答を判定してもよい。
(集中喚起処理)
図4を参照して、集中喚起処理について説明する。集中喚起処理では、視力検査(本実施形態では、視力検査の説明等を被検者Sに対して行う準備段階も含む)に対して被検者Sが集中していない場合に、検査等に対する被検者Sの集中を促すための処理が行われる。集中喚起処理は、後述する視力検査処理(図5参照)が実行されている間に、視力検査処理と並行して、CPU31によって実行される。CPU31は、不揮発性メモリ34に記憶された視力検査処理プログラムに従って集中喚起処理を実行する。
まず、CPU31は、撮影部21によって撮影される撮影画像50の取得を開始する(S1)。図3に示すように、撮影部21の撮影範囲には、視力検査を行う被検者Sが写っている。次いで、CPU31は、検査等に対して被検者Sが集中しているか否かを、撮影画像50に基づいて判定する(S2)。
一例として、本実施形態のCPU31は、動画の撮影画像50に対して画像処理を行い、被検者Sの動作量を検出する。CPU31は、検出した動作量が閾値以上である場合に、被検者Sが集中していないと判定する。動作量は、被検者の一部(例えば顔等)の動作量であってもよい。なお、動作量は、例えば、一定の時間内における被検者の一部の移動量の累積であってもよい。また、CPU31は、被検者の視線を画像処理等によって検出し、視線の変化量が閾値以上である場合に、被検者Sが集中していないと判定してもよい。また、CPU31は、被検者Sの顔の向き、および被検者Sの視線の少なくともいずれかを画像処理等によって検出し、顔の向きおよび視線の少なくともいずれかが表示部25の方向を向いていない場合に、被検者Sが集中していないと判定してもよい。また、撮影画像50以外の情報(例えば、赤外線センサ、光学式センサ等から出力される情報)に基づいて、被検者Sが集中しているか否かが判定されてもよい。
被検者Sが検査等に集中していると判定された場合には(S3:NO)、処理はそのままS5へ移行する。被検者Sが集中していないと判定された場合(S3:YES)、CPU31は、可動モータ41(図2参照)を制御して可動部42を駆動させる(S4)。可動部42の具体的な駆動方法は、適宜選択できる。例えば、CPU31は、右腕部13Rおよび左腕部13Lの少なくとも一方を上下に可動させるように、可動部42を駆動してもよい。また、CPU31は、被検者Sの集中を促すための音声(例えば、「こっちを見て」等)を、音声出力部23から発生させる(S4)。S4の処理が行われることで、検査等に対する被検者Sの集中が促される。検査が終了するまで(S5:NO)、S2〜S5の処理が繰り返される。検査が終了すると(S5:YES)、集中喚起処理は終了する。
(視力検査処理)
図5および図6を参照して、視力検査処理について説明する。視力検査処理では、被検者Sの視力検査が実行される。被検者Sの視力検査の開始指示が視力検査システム1に入力されると、CPU31は、不揮発性メモリ34に記憶された視力検査処理プログラムに従って、図5に示す視力検査処理を実行する。視力検査処理が開始されると、まず、準備処理が実行される(S10)。準備処理では、被検者Sの視力検査を開始するための各種準備が行われる。
図6に示すように、CPU31は、準備処理を開始すると、検査手順を説明する音声を音声出力部23から発生させると共に、検査手順を説明するための画像(例えばメッセージを含む画像等)を表示部25に表示させる(S11)。また、CPU31は、検査手順を説明する音声の出力および画像の表示に合わせて、可動部42を駆動させる(S12)。従って、被検者Sは、視力検査システム1に容易に集中することができる。
次いで、CPU31は、撮影部21によって撮影される撮影画像50の取得を開始する(S13)。前述したように、撮影部21の撮影範囲には、視力検査を行う被検者Sが写っている。
次いで、CPU31は、被検者Sを識別する識別情報を取得する(S14)。識別情報の具体的な取得方法は、適宜選択できる。一例として、本実施形態では、被検者の顔の情報が、被検者の識別情報に対応付けて、サーバ3のデータベースに被検者毎に記憶されている。CPU31は、撮影画像50に対して画像処理を行うことで、撮影画像50に写っている被検者Sの顔を検出する。CPU31は、検出した被検者Sの顔の情報を、サーバ3へ送信する。サーバ3は、受信した顔の情報をデータベースと照合し、受信した顔の情報に対応する識別情報を視力検査システム1に送信する。その結果、被検者Sの識別情報が、視力検査システム1によって取得される。
ただし、識別情報の取得方法を変更することも可能である。例えば、被検者の顔の情報と識別情報は、視力検査システム1の記憶装置(例えば、不揮発性メモリ34)に記憶されていてもよい。また、被検者Sの顔以外の情報(例えば、被検者Sの虹彩等)が撮影画像50から検出されることで、識別情報が取得されてもよい。また、被検者Sが所持する識別子が識別子リーダー等によって読み取られることで、識別情報が取得されてもよい。被検者Sの指紋が認証されることで、識別情報が取得されてもよい。また、ユーザ(例えば、検査の補助者または被検者S自身)が操作部(図示せず)を操作することで、識別情報が視力検査システム1に入力されてもよい。
次いで、CPU31は、識別情報に対応する被検者Sの被検者情報を取得する(S15)。一例として、本実施形態では、被検者の識別情報に対応付けて、被検者情報がサーバ3のデータベースに被検者毎に記憶されている。サーバ3は、特定された識別情報に対応する被検者情報を、視力検査システム1に送信する。本実施形態の被検者情報には、被検者Sの氏名等の情報に加えて、被検者Sに対して過去に行われた視力検査の結果、他の装置(例えば他覚式視力測定器)によって測定された被検者Sの視力、および、被検者Sが使用している眼鏡またはコンタクトレンズの度数の情報のうちの少なくともいずれかが含まれる。なお、被検者情報は、視力検査システム1の記憶装置(例えば、不揮発性メモリ34)に記憶されていてもよい。
次いで、CPU31は、取得した被検者情報に応じて、検査を行う視力(本実施形態では、最初に検査を行う視力)を設定する(S15)。従って、後述する視力検査が、被検者に応じて効率よく実行される。なお、被検者Sの識別情報が取得されない場合、および、被検者Sの被検者情報が存在しない場合等には、最初に検査を行う視力はデフォルトの値(例えば、視力0.1)に設定される。その後、処理は視力検査処理へ戻る。
図5に示すように、準備処理(S10)が終了すると、視力検査が実行される。まず、CPU31は、検査を行う視力(最初は、S16で設定された視力)を設定する(S21)。次いで、CPU31は、視力検査システム1(詳細には、本実施形態では表示部25)と被検者Sの間の距離を検出する(S22)。前述したように、本実施形態のCPU31は、3Dセンサ22(図1および図2参照)から入力された2つの画像のマッチングを行うことで、被検者Sとの間の距離を検出する。
次いで、CPU31は、S21で設定した視力と、S22で検出した距離に応じて、表示部25に表示させる指標Iの大きさを設定する(S23)。CPU25は、設定した大きさで、表示部25に指標Iを表示させる(S24)。従って、表示部25と被検者Sの間の距離に関わらず、適切に視力検査が行われる。
なお、本実施形態では、指標Iが表示部25に表示されて検査が行われている間にも、S22〜S24の処理が実行される。従って、検査の途中で被検者Sとの間の距離が変化した場合でも、指標Iの大きさが適切な大きさに変更される。ただし、指標Iの大きさは、検査中には変更されなくてもよい。つまり、S22〜S24の処理は、指標Iを開始させる際にのみ実行されてもよい。また、本実施形態のCPU31は、表示部25に新たに指標Iを表示させる際に可動部42を駆動させることで、右腕部13Rおよび左腕部13Lの少なくとも一方を可動させる。従って、被検者Sは、新たに表示された指標Iに容易に注目することができる。
次いで、CPU31は、撮影画像50に基づいて、被検者Sの眼および顔の少なくともいずれかの位置を検出する(S26)。一例として、本実施形態のCPU31は、撮影画像50に対して画像処理を行うことで、被検者Sの左眼および右眼のうち、表示部25に対する検査中の眼の位置を検出する。
次いで、CPU31は、検出された眼の位置に応じて、表示部25による指標Iの表示位置を変更する(S27)。一例として、本実施形態のCPU31は、表示部25の位置を固定したまま、表示部25の表示領域内における指標Iの位置を変更することで、指標Iの表示位置を変更する。しかし、CPU31は、表示部25自体の位置を移動させることで、指標Iの表示位置を変更してもよい。
次いで、CPU31は、検出された眼の位置に応じて、表示部25の角度を変更する(S28)。前述したように、本実施形態では、角度変更部44(図2参照)が駆動されることで、胴体部12(図1参照)に固定された表示部25の角度が変更される。CPU31は、検出された眼の位置に応じて角度変更モータ43(図2参照)の駆動を制御することで、検出された眼の視線が表示部25の表示面に対して極力垂直に近づくように、表示部25の角度を調整する。その結果、より適切に視力検査が行われる。
なお、本実施形態では、指標Iが表示部25に表示されて検査が行われている間にも、S26〜S28の処理が実行される。従って、検査の途中で被検者Sの眼の位置が変化した場合でも、被検者Sに対して適切に指標Iが呈示される。ただし、表示部25の角度は、検査中には変更されなくてもよい。
次いで、CPU31は、撮影画像50(静止画像および動画像の少なくともいずれか)に基づいて、物体の位置、角度、および動作の少なくともいずれかを検出する(S30)。前述したように、本実施形態では、回答パネル60(図3参照)のランドルト環60Iの角度が、撮影画像50に基づいて検出される。しかし、前述のように、検出対象を変更することも可能である。次いで、CPU31は、S30で行われた物体の検出結果に基づいて、指標Iを見た被検者Sの回答を判定する(S31)。本実施形態では、検出したランドルト環60Iの切れ目の方向が、被検者Sが回答した方向として判定される。
次いで、表示中の指標Iによる視力検査の結果が判明したか否かが判断される(S33)。例えば、S31で被検者の回答が判定されている場合、方向を認識できない旨が入力されている場合、および、指標Iが表示されてから方向が検出されないまま所定時間以上経過した場合には、表示中の指標Iによる検査結果が判明したと判断される。検査結果が判明していなければ(S33:NO)、検査の進行状況に応じた各種処理が行われて(S34)、処理はS22へ戻る。S34では、前述したように、被検者Sに回答を促すメッセージの出力処理等が、検査の進行状況に応じて実行される。
また、本実施形態のCPU31は、指標Iの表示中に撮影画像50を処理することで、検査中の被検者Sの眼の細さを検出する。検出した眼の細さが閾値以下であった場合には、CPU31は、眼を大きく開くことを促すための処理(例えば、「眼を大きく開いて下さい」というメッセージの出力処理、および、可動部42の駆動処理の少なくともいずれか)を実行する。従って、被検者Sが眼を細くしたまま視力検査が行われる可能性が低下する。よって、視力検査の正確性が向上する。
表示中の指標Iによる視力検査の結果が判明した場合には(S33:YES)、被検者Sの左眼および右眼の両方の視力検査が全て終了したか否かが判断される(S36)。全ての検査が未だ終了していなければ(S36:NO)、処理はS21へ戻り、次の指標Iによる視力検査が行われる。なお、左眼および右眼のうちの一方の視力検査が完了した場合には、CPU31は、検査対象の眼を、未だ検査が行われていない方の眼に切り替えるメッセージを出力する。
左眼および右眼の両方の視力検査が全て終了すると(S36:YES)、CPU31は、検査を行った被検者Sの識別情報に対応付けて、検査結果を不揮発性メモリ34に記憶させる(S37)。従って、検査結果が被検者毎に適切に管理される。さらに、CPU31は、視力検査の結果を、被検者Sの識別情報に対応付けて、ネットワーク5を介してサーバ3へ送信する(S38)。サーバ3では、受信した検査結果が識別情報に対応付けて記憶される。従って、サーバ3では、多数の被検者の視力検査の結果が一括で管理される。
上記実施形態で開示された技術は一例に過ぎない。従って、上記実施形態で例示された技術を変更することも可能である。例えば、視力検査システム1は、上記実施形態で開示された複数の技術の一部のみを実行することも可能である。例えば、CPU31は、指標Iの表示位置を変更する処理(S27)と、表示部25の角度を変更する処理(S28)のうち、一方の処理のみを実行してもよい。また、S27およびS28の処理が共に省略されてもよい。
また、上記実施形態では、撮影画像50に基づいて物体が検出され、検出結果に基づいて被検者の回答が判定される。しかし、CPU31が被検者の回答を取得する方法を変更することも可能である。例えば、被検者は、回答を示す言葉を発言してもよい。この場合、CPU31は、音声入力部24によって入力された音声に対して音声認識処理を行うことで、被検者の回答を判定してもよい。また、ユーザ(例えば、補助者または被検者)が操作部(例えば、タッチパネル、ボタン、キーボード、マウス等の少なくともいずれか)を操作することで、回答を入力してもよい。
なお、図5のS24で表示部25に指標Iを表示させる処理は、「指標表示ステップ」の一例である。図5のS30で撮影画像50から物体を検出する処理は、「物体検出ステップ」の一例である。図5のS31で回答を判定する処理は、「回答判定ステップ」の一例である。図6のS12で音声に合わせて可動部42を駆動させる処理は、「音声対応駆動ステップ」の一例である。図4のS2で被検者が集中しているか否かを判定する処理は、「集中判定ステップ」の一例である。図4のS4で可動部42を駆動させる処理は、「集中度対応駆動ステップ」の一例である。図5のS26で眼の位置を検出する処理は、「位置検出ステップ」の一例である。図5のS27,28で指標Iの表示位置および表示部25の角度を変更する処理は、「表示変更ステップ」の一例である。図5のS22で距離を検出する処理は、「距離検出ステップ」の一例である。図5のS23で指標Iの大きさを設定する処理は、「表示サイズ設定ステップ」の一例である。図6のSS14で識別情報を取得する処理は、「識別情報取得ステップ」の一例である。図5のS37で検査結果を識別情報と対応付けて記憶させる処理は、「結果記憶ステップ」の一例である。図6のS15で被検者情報を取得する処理は、「被検者情報取得ステップ」の一例である。図6のS16で検査視力を設定する処理は、「検査視力設定ステップ」の一例である。図5のS38で検査結果を識別情報に対応付けてサーバ3に送信する処理は、「結果送信ステップ」の一例である。
1 視力検査システム
3 サーバ
5 ネットワーク
10 動物型筐体
12 胴体部
13R 右腕部
13L 左腕部
20 頭部
20F 顔部
21 撮影部
22 3Dセンサ
23 音声出力部
25 表示部
30 制御ユニット
31 CPU
34 不揮発性メモリ
42 可動部
44 角度駆動部
50 撮影画像
60 回答用パネル

Claims (10)

  1. 動物の顔を模した顔部を備え、被検者の反応を検出することで前記被検者の視力検査を行う視力検査システムにおいて実行される視力検査処理プログラムであって、
    前記視力検査システムは、画像を撮影する撮影部、各種画像を表示する表示部、およびコントローラを有する制御部を備え、
    前記視力検査処理プログラムが前記コントローラによって実行されることで、
    視力検査の指標を前記表示部に表示させる指標表示ステップと、
    前記撮影部によって撮影された画像に基づいて、物体の位置、角度、および動作の少なくともいずれかを検出する物体検出ステップと、
    前記物体検出ステップによる検出結果に基づいて、前記指標を見た前記被検者の回答を判定する回答判定ステップと、
    を前記視力検査システムに実行させることを特徴とする視力検査処理プログラム。
  2. 請求項1に記載の視力検査処理プログラムであって、
    前記視力検査システムは、
    動物の腕を模した腕部と、前記腕部を支持する胴体部と、前記胴体部の上部または前部に設けられると共に前記顔部を有する頭部と、少なくとも前記腕部を可動させる可動部とを有する動物型筐体をさらに備えたことを特徴とする視力検査処理プログラム。
  3. 請求項2に記載の視力検査処理プログラムであって、
    前記視力検査システムは、音声を出力する音声出力部をさらに備え、
    前記音声出力部に出力させる音声に合わせて前記可動部を駆動させる音声対応駆動ステップ
    が前記視力検査システムによって実行されることを特徴とする視力検査処理プログラム。
  4. 請求項2または3に記載の視力検査処理プログラムであって、
    前記撮影部によって撮影された画像に基づいて、検査に対して被検者が集中しているか否かを判定する集中判定ステップと、
    前記集中判定ステップにおいて被検者が集中していないと判定された際に前記可動部を駆動させる集中度対応駆動ステップと、
    が前記視力検査システムによって実行されることを特徴とする視力検査処理プログラム。
  5. 請求項1から4のいずれかに記載の視力検査処理システムであって、
    前記視力検査システムは、前記表示部による前記指標の表示位置、および前記表示部の角度の少なくともいずれかを変更する表示変更部をさらに備え、
    前記撮影部によって撮影された画像に基づいて、被検者の眼および顔の少なくともいずれかの位置を検出する位置検出ステップと、
    前記位置検出ステップにおいて検出された位置に応じて表示変更部を駆動させることで、前記表示部による前記指標の表示位置、および前記表示部の角度の少なくともいずれかを変更する表示変更ステップと、
    が前記視力検査システムによって実行されることを特徴とする視力検査処理プログラム。
  6. 請求項1から5のいずれかに記載の視力検査処理システムであって、
    前記表示部と前記被検者の間の距離を検出する距離検出ステップと、
    前記距離検出ステップにおいて検出された距離と、検査する視力とに応じて、前記表示部に表示させる前記指標の大きさを設定する表示サイズ設定ステップと、
    が前記視力検査システムによって実行されることを特徴とする視力検査処理プログラム。
  7. 請求項1から6のいずれかに記載の視力検査処理システムであって、
    被検者を識別する識別情報を取得する識別情報取得ステップと、
    視力検査の結果を、識別情報と対応付けて記憶手段に記憶させる結果記憶ステップと、
    が前記視力検査システムによって実行されることを特徴とする視力検査処理プログラム。
  8. 請求項7に記載の視力検査処理プログラムであって、
    前記識別情報に対応する被検者の被検者情報を取得する被検者情報取得ステップと、
    取得された前記被検者情報に応じて、検査を行う視力を設定する検査視力設定ステップと、
    が前記視力検査システムによって実行されることを特徴とする視力検査処理プログラム。
  9. 請求項7または8に記載の視力検査処理プログラムであって、
    複数の被検者の情報を管理するサーバに、前記識別情報と対応付けて視力検査の結果をネットワークを介して送信する結果送信ステップ
    が前記視力検査システムによって実行されることを特徴とする視力検査処理プログラム。
  10. 動物の顔を模した顔部を備え、被検者の反応を検出することで前記被検者の視力検査を行う視力検査システムであって、
    画像を撮影する撮影部と、
    各種画像を表示する表示部と、
    コントローラを有する制御部とを備え、
    前記制御部は、
    視力検査の指標を前記表示部に表示させると共に、
    前記撮影部によって撮影された画像に基づいて、物体の位置、角度、および動作の少なくともいずれかを検出し、
    前記物体の検出結果に基づいて、前記指標を見た前記被検者の回答を判定することを特徴とする視力検査システム。


JP2018105276A 2018-05-31 2018-05-31 視力検査処理プログラムおよび視力検査システム Pending JP2019208651A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018105276A JP2019208651A (ja) 2018-05-31 2018-05-31 視力検査処理プログラムおよび視力検査システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018105276A JP2019208651A (ja) 2018-05-31 2018-05-31 視力検査処理プログラムおよび視力検査システム

Publications (1)

Publication Number Publication Date
JP2019208651A true JP2019208651A (ja) 2019-12-12

Family

ID=68844393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018105276A Pending JP2019208651A (ja) 2018-05-31 2018-05-31 視力検査処理プログラムおよび視力検査システム

Country Status (1)

Country Link
JP (1) JP2019208651A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021137236A (ja) * 2020-03-04 2021-09-16 株式会社クリュートメディカルシステムズ 視覚検査装置、視覚検査プログラムおよび視覚検査方法
CN115778310A (zh) * 2022-12-08 2023-03-14 山东大学齐鲁医院 一种自助型视力测定装置及方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021137236A (ja) * 2020-03-04 2021-09-16 株式会社クリュートメディカルシステムズ 視覚検査装置、視覚検査プログラムおよび視覚検査方法
JP7315501B2 (ja) 2020-03-04 2023-07-26 株式会社クリュートメディカルシステムズ 視覚検査装置、視覚検査プログラムおよび視覚検査方法
CN115778310A (zh) * 2022-12-08 2023-03-14 山东大学齐鲁医院 一种自助型视力测定装置及方法
CN115778310B (zh) * 2022-12-08 2023-05-26 山东大学齐鲁医院 一种自助型视力测定装置及方法

Similar Documents

Publication Publication Date Title
JP3728386B2 (ja) アイリス認識装置
US20210259538A1 (en) Ophthalmic apparatus
US9770168B2 (en) Device for imaging an eye
WO2011153371A2 (en) Portable digital direct ophthalmoscope
JP6518134B2 (ja) 眼前装着型表示装置
CN109285602B (zh) 用于自我检查用户眼睛的主模块、系统和方法
US9888847B2 (en) Ophthalmic examination system
CN104699250A (zh) 显示控制方法及装置、电子设备
WO2007004680A1 (ja) 視力回復訓練装置
EP3434172B1 (en) Eyesight examination method, eyesight examination device, and downloader server for storing program of eyesight examination method
JP2019208651A (ja) 視力検査処理プログラムおよび視力検査システム
JP2017143992A (ja) 眼科検査システム及び眼科検査装置
US10877269B2 (en) Head-mounted display apparatus, inspection supporting display system, display method, and recording medium recording display program
US10585476B2 (en) Apparatus operation device, apparatus operation method, and electronic apparatus system
JP2013182062A (ja) 表示装置および投影装置
KR102268759B1 (ko) 피부 상태 측정 및 케어용 디바이스, 및 이를 포함하는 피부 상태 측정 및 케어 시스템
JP2009211370A (ja) 虹彩認証装置
JP7029992B2 (ja) 眼科装置の操作端末、眼科検査の方法およびプログラム
WO2009107704A1 (ja) 虹彩認証装置
US11918286B2 (en) Ophthalmic instrument, management method, and management device
JPH09234186A (ja) 検眼装置
KR102471955B1 (ko) 휴대용 신경질환 진단장치 및 그 진단방법
JP2020162933A (ja) 検眼装置、検眼プログラム、及び検眼システム
WO2018056169A1 (ja) 対話装置、処理方法、プログラム
JP2020042356A (ja) 医療情報処理プログラム、および医療情報処理システム