JP2019535401A - 視覚機能の臨床パラメータを統合的に測定するためのシステム - Google Patents

視覚機能の臨床パラメータを統合的に測定するためのシステム Download PDF

Info

Publication number
JP2019535401A
JP2019535401A JP2019525815A JP2019525815A JP2019535401A JP 2019535401 A JP2019535401 A JP 2019535401A JP 2019525815 A JP2019525815 A JP 2019525815A JP 2019525815 A JP2019525815 A JP 2019525815A JP 2019535401 A JP2019535401 A JP 2019535401A
Authority
JP
Japan
Prior art keywords
user
display unit
visual
scene
interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019525815A
Other languages
English (en)
Other versions
JP7344795B2 (ja
Inventor
ラモス,エバ ガルシア
ラモス,エバ ガルシア
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
E Health Technical Solutions SL
Original Assignee
E Health Technical Solutions SL
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by E Health Technical Solutions SL filed Critical E Health Technical Solutions SL
Publication of JP2019535401A publication Critical patent/JP2019535401A/ja
Application granted granted Critical
Publication of JP7344795B2 publication Critical patent/JP7344795B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/18Arrangement of plural eye-testing or -examining apparatus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0033Operational features thereof characterised by user input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • A61B3/005Constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/024Subjective types, i.e. testing apparatus requiring the active assistance of the patient for determining the visual field, e.g. perimeter types
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/06Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing light sensitivity, e.g. adaptation; for testing colour vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/06Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing light sensitivity, e.g. adaptation; for testing colour vision
    • A61B3/066Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing light sensitivity, e.g. adaptation; for testing colour vision for testing colour vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/08Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing binocular or stereoscopic vision, e.g. strabismus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/09Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing accommodation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • User Interface Of Digital Computer (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

シーン内の3Dオブジェクトのバーチャルな位置およびバーチャルな容積といった可変特徴を有する3Dオブジェクトを有するシーンを表すためのディスプレイユニット(20)と、ユーザ頭部位置およびディスプレイユニット(20)からの距離を検出するための動きセンサ(60)と、ユーザ瞳孔位置および瞳孔径を検出するためのトラッキングセンサ(10)と、シーン上のユーザインタラクションのためのインターフェース(30)と、3Dオブジェクトの特徴バリエーションとともに、センサ(60,10)およびインターフェース(30)から入ってくるデータに基づいて、および両眼視機能、遠近調節、眼球運動および視覚認知に関連する視覚機能の複数の臨床パラメータの推定に基づいて、ユーザ応答を分析するための処理手段(42,44)とを含む、視覚機能の臨床パラメータを統合的に測定するためのシステム。

Description

本発明は、視覚機能の臨床パラメータを測定するためのシステムおよび方法の分野に属する。より詳細には、本発明はこのタイプのパラメータを測定するために、バーチャルリアリティをイマーシブに使用する技法に関する。
現在、視覚機能のこのタイプの臨床パラメータを測定することは臨床専門家に、患者がいくつかの検査および視力表によって検査される診察を行うことを要求する。測定プロセスの個人的なおよび手動の構成要素は、主観的な、まず再現可能ではない、単に質的なだけの結果を提供することが多い。
他方で測定は、検査される視覚機能に基づいて独立して行われる。これは、他のファクターの影響が考慮されないがゆえに、結果を時に有効でないものにする。たとえば、患者は普通、その視覚機能における特定の異常または障害を、他の視覚機能の統合的な使用によって補償することが知られている。
要するに現在、患者の適応能力は考慮されず、それゆえに、実際の異常を補正するように意図された行為は、実際問題として、患者の視力の全体的な悪化という結果を生じ得る。さらに、患者の測定および検査は、それらを行う専門家の主観性によって影響され、それゆえに、得られる実験結果の再現可能性および一貫性を著しく制限する。
本発明は、眼の、眼球運動の、および視覚機能のパラメータを、好ましくはリアルタイムで、統合的に測定し、視覚機能改善のための療法および訓練を生成するためのシステムに関する。
この目的のために、ユーザの瞳孔の位置を検出するトラッキングセンサ、サイズ、形状、色、速度、等に関する所定の特性を有する3Dオブジェクトによってユーザのためにある特定のシーンを再現する三次元ディスプレイユニット(3D)が使用され、それらは、診察の一部として行われるべき検査のタイプに基づいて選択されている。動きセンサは、ディスプレイユニットがシーンを適合させ、それにイマーシブな特徴を提供できるように、ユーザの動きを検出する。
システムはまた、ユーザがインタラクトできるインターフェースを含む。特にインターフェースは、ディスプレイシステムとインタラクトするためのユーザからのコマンドを受信する。これらのコマンドは、多くの異なる手法で(制御ボタン、音声コマンド、グローブ、等によって)記録され得る。
システムはまた、ディスプレイユニット、センサおよびインターフェースを協調的に管理する処理手段を実装する。これにより、ディスプレイユニットにおいて生成された視覚刺激へのユーザの応答が、センサによって検出され、臨床パラメータを測定するための処理手段へと送信される。
本開示における重要なポイントは、ユーザとのインタラクションのための環境を生成することを可能にするバーチャルリアリティに基づいたテクノロジーにある。特に、探求されるものは、バーチャルな環境へと没入するための能力である。これは、ユーザにとって現実の状況と同様の状況、ゆえに所望の場合に何度でもその再現を可能にする状況を作り出すために特に興味深い。その目的のためにディスプレイユニットは、ユーザによって装着される動きセンサへと結合されることを要求される。いくつかの実施形態において、これは、バーチャルリアリティ眼鏡であってもよいし、他の例では3D画面および偏光眼鏡であってもよい。いずれにせよ、動きセンサとディスプレイユニットとを結合することにより、3D画像が、好ましくは視覚機能の評価、療法および訓練を適切に実行できるように60°の最小視野で、表示されている前記バーチャルな環境に沿って動いているようにユーザに感じさせながら、すなわち、その中に没入しているように感じさせながら、人の動きまたは位置に適合させられて示されることが可能になる。上記を達成するために、セッションに関与する要素間の精確な協調が重要である。このようなわけで、ユーザはまず、ユーザがその中に没入するように意図される3Dバーチャルリアリティ環境に導入される。前記3D環境では、ユーザが目の焦点を合わせなくてはならない刺激としての役割を果たすように意図され、行われようとしている検査に関連する、「視力表」により、いくつかの3Dオブジェクトが表示されるであろう。
発明の可能な実施形態に係る簡略化されたブロック図である。 動いている3Dオブジェクトを有するシーンを見ている健康なユーザからの測定の例を示す図である。 動いている3Dオブジェクトを有するシーンを見ている健康なユーザからの測定の例を示す図である。 動いている3Dオブジェクトを有するシーンを見ている、機能不全を有するユーザからの測定の例を示す図である。 動いている3Dオブジェクトを有するシーンを見ている、機能不全を有するユーザからの測定の例を示す図である。 実施形態において実現される一般的なステップによる概要図である。
例示的で非限定的な実施形態が、先の図面を参照してさらに詳細に説明される。
図1は、いくつかの構成要素を含む、リアルタイムで視覚機能の臨床パラメータを統合的に測定するためのシステムを示す。ユーザの瞳孔の位置を定期的に検出するために使用されるトラッキングセンサ10が存在する。それにより、方向の変化だけでなく速度もまた測定されることができる。一般的には、トラッキングセンサ10は、診察において行われている特定の検査に基づいて複数のパラメータを測定することを可能にする。図2および図3は、発明のこの態様をさらに詳細に示す。たとえば、トラッキングセンサ10は、右眼および左眼の位置についての値、ユーザが(両眼で、および別個に)見ているオブジェクトの位置、アイセンサの距離、瞳孔サイズ、瞳孔間距離、眼球運動の速度、等についての値を得ることができる。一般的には、測定動作を行うために、トラッキングセンサ10は、ユーザの眼に焦点を合わせるように意図され、それらの動きおよび位置を取り込む、一対のカメラを備える。これは、眼の素早い動きを取り込むのに十分に高いサンプリング周波数を要求する。それはまた、ユーザが見ている生成されたバーチャルな環境内の位置を計算しなくてはならない。トラッキングセンサ10は、正確な検眼測定に不可欠である。数多くの機能不全が、いくつかの刺激に対する眼球の異常な動きによって検出される。明確さの理由のために、図2および図3は、センサ10、60によって得られた測定値が、可能な機能不全を有するまたは有しないユーザの視覚条件にそれぞれどのように関連づけられるかの例を示す。
3D没入能力を有するディスプレイユニット20は、サイズ、形状、色、シーンにおける場所、ユーザからの距離、静止しているか動いているか、等に関する所定の特性を有する3Dオブジェクトを含む深度特徴を有するシーンを、ユーザのために再現または投影する。3Dオブジェクトを含むこれらのシーンは、視力表としての役割を果たし、行われようとしている検査のタイプにしたがいシステムにおいて選択されることができ、それはユーザにおけるある特定の視覚刺激を生成することを可能にする。それゆえに、視覚機能の評価、療法または訓練のいずれかのために、異なる視覚課題および刺激を有する複数のシーンが、ユーザのために設計され得る。
システムはまた、ユーザインタラクションのためのインターフェース30を含む。特に、インターフェースは、ディスプレイユニット20およびシステムの他の要素を制御するためのユーザからのコマンドを受信する。インターフェース30はまた、ユーザに検査のためのインストラクションを送信することができる。それゆえに、システムは、ユーザアクション(動き、3D環境における位置、ボタンの押圧、等)への応答を測定することができる。
システムはまた、好ましくはサーバ42および端末44として実現される、処理手段40を含み、サーバ42および端末44は、ユーザからの視覚応答が、センサ10によって検出され、視覚機能の臨床パラメータを測定するためのサーバ42へと送信され得るように、ディスプレイユニット20、センサ10およびインターフェース30の制御の管理を協調的に共有する。さらに、ディスプレイユニット20は、表される3D画像の、ユーザの動きに応じた適合を可能にする。ディスプレイユニット20は、(偏光眼鏡、等といった)分散システムを含み得る。
検査は、好ましくは3Dインターフェースを通じて開始される。具体的なシーンを視覚化する一方で、所与の時間にセンサ10によって検出されたユーザ視覚刺激が、ディスプレイユニット20においてその時間に表された3Dオブジェクトに関連づけられる。ユーザの瞳孔の位置のこれらの変化が検出され、動きセンサ60によって検出されるユーザの頭部によって生まれる動きと組み合わせられる。動きセンサ60とディスプレイユニット20とを結合することは、3D画像を人の動きまたは位置に適合させながら示すこと、それらが視覚化している前記視覚環境中を実際に動いているかのようにユーザに感じさせること、すなわち、その中に没入しているかのように感じさせることを可能にする。
データが処理され、3Dオブジェクトの特性が、センサ10、60によって検出された生成された刺激に関連づけられる。これは、再現可能なおよび制御可能な状況下で視覚機能の臨床パラメータを測定することを可能にする。それゆえに、得られているデータの適切な処理により、ユーザの視覚動作、眼球運動、輻輳、等を知ることができる。また、視覚機能の臨床パラメータは、何らかの問題が存在するかどうかを判定するために、期待される範囲と比較され得る。
ディスプレイユニット20における3Dオブジェクトの視覚化とともに、述べてきたように、トラッキングセンサ10は、前記バーチャルリアリティ環境におけるユーザの視線をトラッキングする。トラッキングセンサ10は、
−眼の位置(左右)
−各々の眼が(別個に)見ている場所
−ユーザが3D環境との組み合わせで両眼を使用することにより見ている場所
を記録する。
また同時に、ユーザがその時その時にしなければならないことを説明することにより彼らを誘導するためのインストラクションが示され得る。これらのインストラクションは、インターフェース30によるテキストによるものであってもオーディオによるものであってもよい。前記インターフェース30はまた、ディスプレイユニット20によって表されているシーンからの3Dオブジェクトとインタラクトすることをユーザに可能にさせる。ユーザとのインタラクションはその瞬間に開始され、示されている刺激に対し与えられる応答、すなわち測定値が記録されなくてはならない。
ユーザのこれらの応答は、たとえば、とりわけ、
−デバイスの動き(空間における任意の方向)
−バーチャルリアリティ環境内のデバイスの位置
−デバイスのボタンの押圧
−音声コマンド
によるものであり得る。
上述された状況において、先のタスクのために、処理は好ましくはクライアント端末44において行われるが、これらのタスクは、外部サーバ42から提供されている(ダウンロードされている)。分散環境は、端末44の技術的な要求を減じること、異なるユーザにおいて行われる検査の集中制御、統計データへのアクセス、等を可能にする。たとえば、最も重い演算および計算は、端末44から処理ワークロードをオフロードして、サーバ42において行われることができる。同様に、検査のために確立され得る特徴、すなわち、
−使用されるべきバーチャルリアリティ環境
−3Dオブジェクトおよびそれらの特徴(サイズ、距離、色、動き・・・)
−どのようなインストラクションをユーザに与えるべきか
−トラッキングセンサ10によっていつ情報を取り込むべきか
−ユーザインターフェース30によっていつ情報を取り込むべきか
−実行タスクの結果としてどのデータを記録および出力すべきか
は、サーバ42から定義され得る。
記録されるべきデータに関しては、センサ10、60から、またインターフェース30とのユーザによるインタラクションによって、入ってくるデータが存在する。
データのすべてのローカル処理が終了すると、これらはグループ化され、その記憶およびその後の分析のためにサーバ42へと送られる。それゆえに、統計、新たな検査、リコメンデーション、療法、等が行われ得る。
たとえば、所与のパラメータのために得られた値が許容限界内であるかどうかが、サーバ42において記憶された学術研究にしたがって確認され得る。他方で、新たなシーンが、検査がより悪い結果を提供した機能のいくつかを改善するための療法または訓練としての役割を果たすリコメンデーションとして設計され得る。
図2Aおよび図2Bは、ユーザが2つの瞬間時間にシステムとインタラクトする例を示す。最初の瞬間t=tiに、システムは、線路に沿って走る電車に対応するディスプレイユニット30における3Dモデルを表す。
ユーザは、両方の時間瞬間に頭部の動き(Xic,yic),(Xfc,Yfc)およびディスプレイユニット20との距離Dic,Dfcを記録するための動きセンサ60を装着する。同様に、トラッキングセンサ10は、両方の時間瞬間のユーザの瞳孔運動を記録し、両方の瞳孔の位置、右:(xi1,yi1,zi1),(xf1,yf1,zf1);左:(xi2,yi2,zi2),(xf2,yf2,zf2)についてのより多くの情報を提供する。
他方で、ディスプレイユニット20は、各々の時間瞬間での、2つの異なるバーチャルな位置(xio,yio,zio),(xfo,yfo,zfo)における、および2つの異なる容積を有する、3DオブジェクトVio,Vfoを表す。3Dオブジェクトの色といった他の特性は、診察において行われるべき検査に応じて変わり得る。
上記値の処理が行われる場合、ユーザの眼球がシーンにおける3Dオブジェクトの動きと適切に協調しているかがチェックされる。視覚動作は、健康な個人に対応する。
図3Aおよび図3Bは、ユーザの視覚動作が刺激に対し適切に応答しない上記ケースを模式的に示す。図3Aにおいて見られ得るように、ユーザは、関心のオブジェクト(Vio)上に彼らの左眼の視覚軸(xi2,yi2,zi2)を正しくアラインメントさせておらず、彼らの両眼視の抑制(斜視)を明らかにしている。このケースでは、ずれの角度(図3B)は、関心のオブジェクト(Vfo)を動かしても一定に保たれ、共同性状態を示し、すなわちそれは、視線の異なる位置における同一のずれの角度を有する。この情報は、状態の程度ならびに被験者の両眼視能を回復させるための視覚療法のリコメンデーションのタイプの程度を決定するのに極めて重要である。
明らかに、選ばれたシーンは単なる一例である。他の例は、出たり消えたりし続ける、異なる形状、色およびサイズの魚がいる水槽、車がユーザに近づいてくる道路、モグラがランダムに出てくる穴、等であってもよい。これらのシーンにおいてパラメータは、客観的に、また、(互いとの間の既存の影響を過小評価せずに)すべて一緒に、測定され得る。
図4は、検査のためのシステムの動作中のアクションの可能なシーケンスを簡潔に示す。第1のステップ50において、ユーザの個人的な関連情報が記録される。好ましくは、導入されるデータは、性別、年齢、嗜癖、等であり、そのためにインターフェース30が使用され得る。ユーザは、端末44により、クライアントとしてサーバ42に要求を行い、選択されている検査のタイプに関連づけられたアプリケーションがインストールされる。
ユーザはディスプレイユニット20の前におり、インストラクションがユーザに対し、トラッキングセンサ10を正しく配置するように、または動きセンサ60にしたがってディスプレイユニットに対し適切な位置に座るように、インターフェース30またはディスプレイユニット20を通じて与えられる。続いて、ステップ51で、選択されている検査に関連し、その特性が経時的にまたはユーザインタラクションにより変化する1つまたはいくつかの3Dオブジェクトを有する、シーンが表される。
ユーザおよびディスプレイユニットは、ステップ52でインターフェース30を通じてインタラクトする。一般的にユーザは、グラフィックスおよびオーディオの両方を使用して、検査中にインストラクションを与えられ得る。たとえば、インターフェース30は、ディスプレイユニット20において表されたシーン30からの3Dオブジェクトとのユーザインタラクションをより容易にするための任意の要素を組み込むことができる。
センサ10、60はステップ53で、シーンが再現されている間に値を検出する。これらのデータは、端末44に最小遅延時間で送られなくてはならない。
端末44は、取り込まれたデータを受信し、ステップ54で視覚機能の臨床パラメータ値を得るためにそれらを前処理してサーバ42に送る。
検査または異なる検査を有する診察が終了すると、端末44は得られているデータを、その記憶およびさらなる処理のためにサーバ42に送る。特に、パラメータは、ステップ55でユーザプロフィールのための期待される範囲と比較される。
サーバ42が得られているデータを処理すると、それは、ステップ56でそれらを可能な機能不全に関連させる。
最後にサーバは、ステップ57で機能不全を改善するための可能なリコメンデーションを生成し、得られている結果と一緒にそれらをユーザに示すために、それらを端末44に送信する。
使用されている技術のおかげで、検査は、客観的かつ統合的に行われるだけでなく、カスタマイズされて行われ、それらは、異なる視覚機能不全、特に、関心のオブジェクトにわたる眼のアラインメントのための能力を抑制するもの(輻輳不全、開散過多、両眼転導不能)、または焦点を合わせる能力を抑制するもの(調節不全、調節過剰、調節不能)、または1つのオブジェクトから他のオブジェクトへと視線を移すこと(跳躍性眼球運動)もしくはオブジェクトの追跡(円滑性追跡眼球運動)もしくは我々の環境についての情報を特定および管理するために要求される視知覚能力の抑制の特定を可能にする。それらのすべては、(検査が行われた条件に基づくのみならず、各々のワーキングセッションの展開にも基づいて)カスタマイズされて、判定および訓練されることができる。他方で多くの種類の視覚化が同一のエクササイズのために提供されることができ、それは、日常の視覚要求へのより良好な適応、およびエクササイズへの関心および注意の維持を可能にする。
本発明は、機能不全を特定するのに有用であるのみならず、視覚刺激および課題によって健康なユーザの身体的および技術的な活動を訓練するためにも有用である、ということに注意すべきである。これは、スポーツする人および子供に直接的に応用されることができ、それは、特定の専門職(運転手、パイロット・・・)および愛好家(ミニチュア、エンターテインメントゲームを扱う能力・・・)の視覚要求の両方へと広げられることができる。
本開示の特徴の利点の1つは、必要なデバイスを収容するためにほんの小さなスペースしか要求されない点である、ということに注意すべきである。たとえば、ディスプレイユニット20として構成された画面を使用する実施形態のために、あらゆるものが、処理手段40の一部の要素としてのコンピュータと一緒に、テーブル上の、好ましくは50cm〜1mのところに座っているであろうユーザから少し離れたところに置かれることができる。残りの要素は、ユーザの頭および手に装着される(制御デバイス、グローブ・・・)。ディスプレイユニット20がVR眼鏡である実施形態の場合には、要素はさらに少ない。

Claims (13)

  1. 視覚機能の臨床パラメータを統合的に測定するためのシステムであって、
    シーンにおいて少なくとも3Dオブジェクトがユーザにおける視覚応答を促進するための可変特徴を有する前記シーンを表すように構成されたディスプレイユニット(20)であって、前記可変特徴は、前記シーン内の前記3Dオブジェクトの少なくともバーチャルな位置(X,Y,Z)およびバーチャルな容積(V)を含む、ディスプレイユニット(20)と、
    ユーザ頭部位置(X,Y)および前記ディスプレイユニット(20)からの距離(D)を検出するように構成された複数の動きセンサ(60)と、
    ユーザ瞳孔位置(x,y,z)および瞳孔径(d)を検出するように構成された複数のトラッキングセンサ(10)と、
    前記ユーザに前記シーン上でインタラクトすることを可能にさせるように構成されたインターフェース(30)と、
    処理手段(42,44)であって、
    前記センサ(60,10)および前記インターフェース(30)から入ってくるデータを、前記ディスプレイユニットにおいて表される前記3Dオブジェクトの特徴バリエーションに関連づけることと、
    ユーザ視覚機能の複数の臨床パラメータを推定することと
    に基づいて、前記ユーザ応答を分析するように構成された処理手段(42,44)と
    を備えることを特徴とする、システム。
  2. 前記特徴は、所定のプログラミングにしたがって時間に応じて可変である、請求項1に記載のシステム。
  3. 前記可変特徴はまた、前記3Dオブジェクトの色を含む、請求項1または2に記載のシステム。
  4. 前記特徴は、前記インターフェース(30)による前記ユーザインタラクションに応じて可変である、請求項1から3のいずれかに記載のシステム。
  5. 前記インターフェース(30)は、デジタルペン、グローブ、制御デバイス、等の少なくとも1つを備える、請求項4に記載のシステム。
  6. 前記ディスプレイユニット(20)は、3D画面を備える、請求項1から5のいずれかに記載のシステム。
  7. 前記ディスプレイユニット(20)は、バーチャルリアリティ眼鏡を備える、請求項1から6のいずれかに記載のシステム。
  8. 前記ディスプレイユニット(20)は、分散システムを備える、請求項1から7のいずれかに記載のシステム。
  9. 前記処理手段(42,44)はまた、前記視覚機能の前記推定された臨床パラメータを記憶された基準値範囲と比較し、前記比較に基づいて、可能な視覚機能不全を確立するように構成される、請求項1から8のいずれかに記載のシステム。
  10. 基準値範囲との前記比較は、少なくとも年齢情報を含むユーザプロフィールに基づいて実現される、請求項8または9に記載のシステム。
  11. 前記処理手段は、クライアント端末(44)およびサーバ(42)を備え、前記クライアント端末(44)は、センサ(10,60)によって測定されたデータを受信および処理し、それらを前記サーバ(42)に送るように構成される、請求項1から10のいずれかに記載のシステム。
  12. 前記サーバ(42)は、値を基準値を有するデータベースと比較するように構成される、請求項11に記載のシステム。
  13. 前記臨床パラメータの前記視覚機能は、両眼視機能、遠近調節、眼球運動または視覚認知の少なくとも1つに関する、請求項1から12のいずれかに記載のシステム。
JP2019525815A 2016-11-10 2017-10-27 視覚機能の臨床パラメータを統合的に測定するためのシステム Active JP7344795B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP16382521.9 2016-11-10
EP16382521.9A EP3320829A1 (en) 2016-11-10 2016-11-10 System for integrally measuring clinical parameters of visual function
PCT/ES2017/070721 WO2018087408A1 (es) 2016-11-10 2017-10-27 Sistema para medición integral de parámetros clínicos de la función visual

Publications (2)

Publication Number Publication Date
JP2019535401A true JP2019535401A (ja) 2019-12-12
JP7344795B2 JP7344795B2 (ja) 2023-09-14

Family

ID=57708479

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019525815A Active JP7344795B2 (ja) 2016-11-10 2017-10-27 視覚機能の臨床パラメータを統合的に測定するためのシステム

Country Status (11)

Country Link
US (1) US11559202B2 (ja)
EP (1) EP3320829A1 (ja)
JP (1) JP7344795B2 (ja)
KR (1) KR102489677B1 (ja)
CN (1) CN110167421B (ja)
AU (1) AU2017359293B2 (ja)
BR (1) BR112019009614A8 (ja)
CA (1) CA3043276C (ja)
IL (1) IL266461B2 (ja)
RU (1) RU2754195C2 (ja)
WO (1) WO2018087408A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3062142B1 (en) 2015-02-26 2018-10-03 Nokia Technologies OY Apparatus for a near-eye display
CN106569339B (zh) * 2016-11-08 2019-11-15 歌尔科技有限公司 Vr头戴设备以及vr头戴设备的控制方法
US10650552B2 (en) 2016-12-29 2020-05-12 Magic Leap, Inc. Systems and methods for augmented reality
EP4300160A3 (en) 2016-12-30 2024-05-29 Magic Leap, Inc. Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light
US10578870B2 (en) 2017-07-26 2020-03-03 Magic Leap, Inc. Exit pupil expander
JP7282090B2 (ja) 2017-12-10 2023-05-26 マジック リープ, インコーポレイテッド 光学導波管上の反射防止性コーティング
KR20200100720A (ko) 2017-12-20 2020-08-26 매직 립, 인코포레이티드 증강 현실 뷰잉 디바이스용 인서트
US10755676B2 (en) 2018-03-15 2020-08-25 Magic Leap, Inc. Image correction due to deformation of components of a viewing device
CN112236713B (zh) 2018-05-30 2023-01-24 奇跃公司 紧凑的可变聚焦配置
US11885871B2 (en) 2018-05-31 2024-01-30 Magic Leap, Inc. Radar head pose localization
EP3804306B1 (en) 2018-06-05 2023-12-27 Magic Leap, Inc. Homography transformation matrices based temperature calibration of a viewing system
JP7421505B2 (ja) 2018-06-08 2024-01-24 マジック リープ, インコーポレイテッド 自動化された表面選択設置およびコンテンツ配向設置を用いた拡張現実ビューア
WO2020010097A1 (en) 2018-07-02 2020-01-09 Magic Leap, Inc. Pixel intensity modulation using modifying gain values
US11856479B2 (en) 2018-07-03 2023-12-26 Magic Leap, Inc. Systems and methods for virtual and augmented reality along a route with markers
US11510027B2 (en) 2018-07-03 2022-11-22 Magic Leap, Inc. Systems and methods for virtual and augmented reality
WO2020023543A1 (en) 2018-07-24 2020-01-30 Magic Leap, Inc. Viewing device with dust seal integration
EP4270016A3 (en) 2018-07-24 2024-02-07 Magic Leap, Inc. Temperature dependent calibration of movement detection devices
US11112862B2 (en) 2018-08-02 2021-09-07 Magic Leap, Inc. Viewing system with interpupillary distance compensation based on head motion
US10795458B2 (en) 2018-08-03 2020-10-06 Magic Leap, Inc. Unfused pose-based drift correction of a fused pose of a totem in a user interaction system
JP7487176B2 (ja) 2018-08-22 2024-05-20 マジック リープ, インコーポレイテッド 患者視認システム
JP7472127B2 (ja) 2018-11-16 2024-04-22 マジック リープ, インコーポレイテッド 画像鮮明度を維持するための画像サイズによってトリガされる明確化
CN113454507B (zh) 2018-12-21 2024-05-07 奇跃公司 用于促进波导内的全内反射的气穴结构
KR102184972B1 (ko) * 2019-02-01 2020-12-01 주식회사 룩시드랩스 동공 중심간 거리를 측정하는 장치 및 방법
US11425189B2 (en) 2019-02-06 2022-08-23 Magic Leap, Inc. Target intent-based clock speed determination and adjustment to limit total heat generated by multiple processors
EP3939030A4 (en) 2019-03-12 2022-11-30 Magic Leap, Inc. REGISTRATION OF LOCAL CONTENT BETWEEN FIRST AND SECOND VIEWERS OF AUGMENTED REALITY
CN114127837A (zh) 2019-05-01 2022-03-01 奇跃公司 内容提供系统和方法
US20220240775A1 (en) 2019-05-29 2022-08-04 E-Health Technical Solutions, S.L. System for Measuring Clinical Parameters of Visual Function
US11514673B2 (en) 2019-07-26 2022-11-29 Magic Leap, Inc. Systems and methods for augmented reality
US12033081B2 (en) 2019-11-14 2024-07-09 Magic Leap, Inc. Systems and methods for virtual and augmented reality
EP4058979A4 (en) 2019-11-15 2023-01-11 Magic Leap, Inc. VIEWING SYSTEM FOR USE IN A SURGICAL ENVIRONMENT
CN112866679B (zh) * 2021-04-23 2021-08-10 广东视明科技发展有限公司 在运动状态下的多位点立体视检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006305325A (ja) * 2005-03-31 2006-11-09 Topcon Corp 眼科装置
WO2016149416A1 (en) * 2015-03-16 2016-09-22 Magic Leap, Inc. Methods and systems for diagnosing and treating health ailments

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL159700A0 (en) * 2001-07-06 2004-06-20 Palantyr Res Llc Imaging system and methodology employing reciprocal space optical design
US7809160B2 (en) * 2003-11-14 2010-10-05 Queen's University At Kingston Method and apparatus for calibration-free eye tracking using multiple glints or surface reflections
UY28083A1 (es) * 2003-11-14 2003-12-31 Nicolas Fernandez Tourn Suarez Unidad de rehabilitacion vestibular
US20060005846A1 (en) * 2004-07-07 2006-01-12 Krueger Wesley W Method for balance enhancement through vestibular, visual, proprioceptive, and cognitive stimulation
CN105212890B (zh) * 2006-01-26 2017-04-26 诺基亚公司 眼睛跟踪器设备
JP2008012223A (ja) * 2006-07-10 2008-01-24 Nippon Telegr & Teleph Corp <Ntt> 視線解析および追跡機能を有した遊技台用機能付加装置と遊戯台用機能付加方法
US9149222B1 (en) * 2008-08-29 2015-10-06 Engineering Acoustics, Inc Enhanced system and method for assessment of disequilibrium, balance and motion disorders
TW200913957A (en) * 2007-09-17 2009-04-01 Liao Li Shi System for detecting and compensating vision defect and method thereof
CN101727531A (zh) * 2008-10-16 2010-06-09 国际商业机器公司 用于在虚拟环境中进行交互的方法和系统
WO2012125172A1 (en) * 2011-03-15 2012-09-20 Kona Medical, Inc. Energetic modulation of nerves
US9345957B2 (en) * 2011-09-30 2016-05-24 Microsoft Technology Licensing, Llc Enhancing a sport using an augmented reality display
FR2987920B1 (fr) * 2012-03-08 2018-03-02 Essilor International Procede de determination d'une caracteristique geometrico-morphologique, de posture ou comportementale d'un porteur d'une paire de lunettes
EP2775898B1 (en) * 2012-10-22 2017-04-05 Realvision S.r.l. Network of devices for performing optical/optometric/ophthalmological tests, and method for controlling said network of devices
CN105208917B (zh) * 2012-11-26 2017-07-14 澳大利亚国立大学 聚类齐发方法和装置
US9788714B2 (en) * 2014-07-08 2017-10-17 Iarmourholdings, Inc. Systems and methods using virtual reality or augmented reality environments for the measurement and/or improvement of human vestibulo-ocular performance
CN105578954B (zh) * 2013-09-25 2019-03-29 迈恩德玛泽控股股份有限公司 生理参数测量和反馈系统
US9706910B1 (en) * 2014-05-29 2017-07-18 Vivid Vision, Inc. Interactive system for vision assessment and correction
CN104382552B (zh) * 2014-11-27 2016-04-27 毕宏生 一种综合视觉功能检测设备
CN104545787B (zh) * 2014-12-12 2017-02-01 许昌红 一种穿戴式瞳孔对光反射测量设备
EP3240468B1 (en) * 2015-03-01 2023-10-25 Novasight Ltd. A system and method for measuring ocular motility
CN105832502B (zh) * 2016-03-15 2018-01-02 广东卫明眼视光研究院 智能视觉功能训练方法及训练仪

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006305325A (ja) * 2005-03-31 2006-11-09 Topcon Corp 眼科装置
WO2016149416A1 (en) * 2015-03-16 2016-09-22 Magic Leap, Inc. Methods and systems for diagnosing and treating health ailments
JP2018509983A (ja) * 2015-03-16 2018-04-12 マジック リープ,インコーポレイティド 健康を損う疾病を診断して治療する方法及びシステム

Also Published As

Publication number Publication date
EP3320829A8 (en) 2018-07-18
JP7344795B2 (ja) 2023-09-14
IL266461B1 (en) 2023-05-01
IL266461B2 (en) 2023-09-01
WO2018087408A1 (es) 2018-05-17
RU2754195C2 (ru) 2021-08-30
KR102489677B1 (ko) 2023-01-16
BR112019009614A8 (pt) 2023-03-21
CA3043276A1 (en) 2018-05-17
RU2019116179A (ru) 2020-12-10
RU2019116179A3 (ja) 2021-02-09
CA3043276C (en) 2023-10-10
BR112019009614A2 (pt) 2019-08-13
CN110167421A (zh) 2019-08-23
EP3320829A1 (en) 2018-05-16
AU2017359293A1 (en) 2019-06-06
US20190254519A1 (en) 2019-08-22
US11559202B2 (en) 2023-01-24
CN110167421B (zh) 2022-03-04
KR20190104137A (ko) 2019-09-06
AU2017359293B2 (en) 2022-11-17
IL266461A (en) 2019-06-30

Similar Documents

Publication Publication Date Title
JP7344795B2 (ja) 視覚機能の臨床パラメータを統合的に測定するためのシステム
US11881294B2 (en) Systems and methods for a web platform hosting one or more assessments of human visual performance
Nyström et al. The influence of calibration method and eye physiology on eyetracking data quality
JP6084953B2 (ja) コンテンツ評価システム及びそれを用いたコンテンツ評価方法
JP2015503414A (ja) 精神医学的評価用装置および方法
CN109923529A (zh) 信息处理装置、信息处理方法和程序
KR20240051903A (ko) 가상 현실 컨텐츠에 대한 멀미 유발 요소 분석 방법 및 이를 위한 장치
JP6509712B2 (ja) 印象推定装置およびプログラム
WO2014009758A1 (en) Device to determine visuo-spatial ability
US20220230749A1 (en) Systems and methods for ophthalmic digital diagnostics via telemedicine
JP6445418B2 (ja) 印象推定装置、印象推定方法、およびプログラム
CA3162928A1 (en) System and method for virtual reality based human biological metrics collection and stimulus presentation
Arslan et al. The Identification of Individualized Eye Tracking Metrics in VR Using Data Driven Iterative-Adaptive Algorithm
US12042224B2 (en) Method and device for determining at least one astigmatic effect of at least one eye
WO2004112598A1 (en) Method of testing and corresponding vision aid
US20220240775A1 (en) System for Measuring Clinical Parameters of Visual Function
Spenthof Development and evaluation of a naturalistic dyadic eye-tracking paradigm
Cebeci Investigating physiological and affective responses in virtual reality scenes and enhancing user experience with a gaze-directed method
Chan A Thesis Submitted to
Desoche et al. Virtual reality set-up for studying vestibular function during head impulse test
WO2024134622A1 (en) Systems and methods for utilization of multiple biomedical signals in virtual reality
CN117098488A (zh) 用于视力和眼睛评估的系统和方法
Renaud et al. The use of virtual reality in clinical psychology research: Focusing on approach and avoidance behaviors
Renaud et al. The Use of Virtual Reality in Clinical Psychology Research

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190719

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190702

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211104

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221014

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221014

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20221014

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221128

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221219

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221220

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230224

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20230228

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230904

R150 Certificate of patent or registration of utility model

Ref document number: 7344795

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150