JP2021502881A5 - - Google Patents

Download PDF

Info

Publication number
JP2021502881A5
JP2021502881A5 JP2020545236A JP2020545236A JP2021502881A5 JP 2021502881 A5 JP2021502881 A5 JP 2021502881A5 JP 2020545236 A JP2020545236 A JP 2020545236A JP 2020545236 A JP2020545236 A JP 2020545236A JP 2021502881 A5 JP2021502881 A5 JP 2021502881A5
Authority
JP
Japan
Prior art keywords
user
display
target
virtual reality
inspection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020545236A
Other languages
English (en)
Other versions
JP2021502881A (ja
Filing date
Publication date
Application filed filed Critical
Priority claimed from PCT/US2018/061128 external-priority patent/WO2019099572A1/en
Publication of JP2021502881A publication Critical patent/JP2021502881A/ja
Publication of JP2021502881A5 publication Critical patent/JP2021502881A5/ja
Priority to JP2023173801A priority Critical patent/JP2024009889A/ja
Pending legal-status Critical Current

Links

Claims (88)

  1. ユーザの視野を評価するためのシステムであって、前記システムは、動作を実行するように構成されたコンピューティングハードウェアを備え、前記システムは、
    ヘッドマウント可能な仮想現実装置の仮想現実ディスプレイ上の仮想現実環境に、固視目標を表示し、前記仮想現実環境は、前記ヘッドマウント可能な仮想現実装置を装着しているユーザによって制御されるポインタ含み、
    ユーザの少なくとも片方の目が固視目標に固視しているかどうかを判定し、
    目が固視目標に固視していると判定された場合、仮想現実環境の第1の位置にある複数の検査目標の検査目標を表示し、前記第1の位置は、ユーザの視野の第1の位置に対応し、
    ユーザ入力を受信し、前記ユーザ入力が、ユーザが前記第1の位置で前記検査目標を検出したことを示すかどうかを判定し、
    受信したユーザ入力に基づいて、前記検査目標がユーザによって検出されたかどうかの指示を取得し、前記指示を格納し、
    特定の条件が満たされるまで、前記表示、判定、表示、受信、および取得を繰り返し実行し、
    前記表示、判定、表示、受信、および取得ステップの反復実行中に、前記検査目標のユーザによる検出の判定の結果に基づいて、視野の状態の評価を提供する、システム。
  2. 前記ユーザが前記第1の位置で前記検査目標を検出したことを示す前記ユーザ入力は、前記ポインタが前記第1の位置に向かって移動していることを前記ユーザ入力が示すかどうかを判定することを含む、請求項1に記載のシステム。
  3. 前記ユーザが前記第1の位置で前記検査目標を検出したことを示す前記ユーザ入力は、前記ユーザの頭が前記第1の位置に向かって移動していることを前記ユーザ入力が示すかどうかを判定することを含む、請求項1または2に記載のシステム。
  4. 前記ユーザが前記第1の位置で前記検査目標を検出したことを示す前記ユーザ入力は、前記ユーザ入力が瞳孔反応を含むかどうかを判定することを含む、請求項1ないし3のうちいずれか1項に記載のシステム。
  5. 前記ユーザが前記第1の位置で前記検査目標を検出したことを示す前記ユーザ入力は、前記ユーザ入力がボタン押下を含むかどうかを判定することを含む、請求項1ないし4のうちいずれか1項に記載のシステム。
  6. 前記コンピューティングハードウェアが実行するように構成されている動作は、目が前記固視目標に固視していると判定された場合に、目および/または瞳孔の位置を判定することをさらに含む、請求項1ないし5のうちいずれか1項に記載のシステム。
  7. 前記表示、判定、表示、受信、および取得ステップの反復的な実行は、複数の検査目標の全ての検査目標が表示されるまで続く、請求項1ないし6のうちいずれか1項に記載のシステム。
  8. 前記表示、判定、表示、受信、および取得ステップの反復的な実行は、所定の期間が経過するまで続く、請求項1ないし7のうちいずれか1項に記載のシステム。
  9. 前記表示、判定、表示、受信、および取得ステップの反復的な実行は、評価の統計的信頼性が所定のレベルに達するまで続く、請求項1ないし8のうちいずれか1項に記載のシステム。
  10. 目が固視目標に固視していると判定された場合に、固視目標を表示するのと同時に、検査目標を少なくとも部分的に表示する、請求項1ないし9のうちいずれか1項に記載のシステム。
  11. 目が固視目標に固視しているかどうかを判定することは、患者の中心窩が固視目標に固視されているかどうかを判定することを含む、請求項1ないし10のうちいずれか1項に記載のシステム。
  12. 前記システムは、患者の両眼固視の安定性と各目の患者の単眼固視の安定性を比較して、固視目標を一度に片目ずつ表示するか両目に同時に表示するかを判定する、請求項1ないし11のうちいずれか1項に記載のシステム。
  13. 前記ユーザ入力は、仮想現実環境における前記ポインタの動きの指示を含む、請求項1ないし12のうちいずれか1項に記載のシステム。
  14. 前記検査目標がユーザによって検出されたという指示を取得することは、前記ポインタが前記第1の位置から所定の距離内に配置されていると判定することを含む、請求項1ないし13のうちいずれか1項に記載のシステム。
  15. 前記検査目標がユーザによって検出されたという指示を取得することは、検査刺激の位置がユーザによって検出されたという指示を取得することを含む、請求項1ないし14のうちいずれか1項に記載のシステム。
  16. 前記検査目標がユーザによって検出されたという指示を取得することは、ユーザの片方または両方の目、頭、顔の筋肉、片方または両方の瞳孔、および/または体の動きを判定することを含む、請求項1ないし15のうちいずれか1項に記載のシステム。
  17. 前記表示、判定、表示、受信、および取得ステップの反復的な実行は、
    ユーザの視野の第1の位置とは異なるユーザの視野の第2の位置に対応する仮想現実環境の第2の位置に、複数の検査目標の後続の検査目標を表示することを含む、請求項1ないし16のうちいずれか1項に記載のシステム。
  18. 前記表示、判定、表示、受信、および取得ステップの反復的な実行は、
    仮想現実環境で、後続の固視目標を表示し、
    目が前記後続の固視目標に固視しているかどうかを判定し、
    目が前記後続の固視目標に固視していると判定された場合、ユーザの視野の第1の位置とは異なるユーザの視野の第2の位置に対応する仮想現実環境の第2の位置に、複数の検査目標の後続の検査目標を表示し、
    ユーザが前記第2の位置で前記後続の検査目標を検出したという指示を含むユーザ入力を受信し、
    受信したユーザ入力に基づいて、前記後続の検査目標がユーザによって検出されたかどうかの第2の指示を取得し、前記第2の指示を格納する、請求項1ないし17のうちいずれか1項に記載のシステム。
  19. 前記後続の検査目標は、前記第1の位置に表示された前記検査目標の少なくとも1つのプロパティとは異なる少なくとも1つのプロパティを有する、請求項18に記載のシステム。
  20. 目が固視目標に固視しているかどうかを判定することは、ポインタが少なくとも部分的に固視目標と重なるようにポインタが移動したかどうかを判定することを含む、請求項1ないし19のうちいずれか1項に記載のシステム。
  21. 前記固視目標は、少なくとも1つの可動オブジェクトの表現を含む、請求項1ないし20のうちいずれか1項に記載のシステム。
  22. 前記固視目標は、第1の位置の近くに表示される、請求項1ないし21のうちいずれか1項に記載のシステム。
  23. ユーザ入力を受信することは、ヘッドマウント可能な仮想現実装置を装着しているユーザの少なくとも一方の目を監視するセンサを使用して目追跡情報を取得することをさらに含む、請求項1ないし22のうちいずれか1項に記載のシステム。
  24. 前記ヘッドマウント可能な仮想現実装置は、眼鏡を含む、請求項1ないし23のうちいずれか1項に記載のシステム。
  25. 前記ユーザ入力は、マウス、ジョイスティック、キーボード、ハンドヘルドジェスチャおよびモーショントラッキング装置、ハンドヘルドではないジェスチャおよびモーション装置、マイクロフォン、少なくとも1つのカメラ、全方向性トレッドミル、頭追跡装置、体追跡装置、顔面筋センサ、およびゲームパッドからなる群から選択された少なくとも1つの入力装置からさらに受信される、請求項1ないし24のうちいずれか1項に記載のシステム。
  26. 前記システムは、コンピューティングハードウェアを含むモバイルコンピューティング装置を含む、請求項1ないし25のうちいずれか1項に記載のシステム。
  27. 前記ポインタは、ヘッドポインタを含む、請求項1ないし26のうちいずれか1項に記載のシステム。
  28. 前記ポインタは、ハンドポインタを含む、請求項1ないし27のうちいずれか1項に記載のシステム。
  29. 1つまたは複数の固視目標の物理的特性、およびそれらが表示されるかどうか、およびどのように表示されるかの規則は、検査を実施する人が変更できるスプレッドシートまたはデータファイル内に記述される、請求項1ないし28のうちいずれか1項に記載のシステム。
  30. 1つまたは複数の固視目標の物理的特性、およびそれらが表示されるかどうか、およびどのように表示されるかの規則は、別個のコンピューティング装置上で構成され、ネットワーク接続を介して検査を管理する装置で受信される、請求項1ないし29のうちいずれか1項に記載のシステム。
  31. 検査中に収集された結果およびデータは、別個のコンピューティング装置に送信される、請求項1ないし30のうちいずれか1項に記載のシステム。
  32. 検査刺激の1つまたは複数のプロパティは、現在の患者および/または他の患者からの以前の検査結果によって少なくとも部分的に判定される、請求項1ないし31のうちいずれか1項に記載のシステム。
  33. 検査刺激がユーザによって検出されたという指示を取得することは、前記ポインタが前記固視目標の位置を囲む少なくとも2つのセクタの1つ内に配置されていると判定することを含む、請求項1ないし32のうちいずれか1項に記載のシステム。
  34. 前記視野の状態の評価は、緑内障の識別、状態、および/または進行に関する情報を含む、請求項1ないし33のうちいずれか1項に記載のシステム。
  35. 前記視野の状態の評価は、多発性硬化症の識別、状態、および/または進行に関する情報を含む、請求項1ないし34のうちいずれか1項に記載のシステム。
  36. 前記視野の状態の評価は、黄斑変性の識別、状態、および/または進行に関する情報を含む、請求項1ないし35のうちいずれか1項に記載のシステム。
  37. 前記視野の状態の評価は、糖尿病性網膜症の識別、状態、および/または進行に関する情報を含む、請求項1ないし36のうちいずれか1項に記載のシステム。
  38. 前記視野の状態の評価は、神経学的機能の識別、状態、および/または進行に関する情報を含む、請求項1ないし37のうちいずれか1項に記載のシステム。
  39. 前記視野の状態の評価は、網膜色素変性症の識別、状態、および/または進行に関する情報を含む、請求項1ないし38のうちいずれか1項に記載のシステム。
  40. 前記視野の状態の評価は、色覚の識別、状態、および/または進行に関する情報を含む、請求項1ないし39のうちいずれか1項に記載のシステム。
  41. 前記視野の状態の評価は、抑制性暗点を含む、両眼視の識別、状態、および/または進行に関する情報を含む、請求項1ないし40のうちいずれか1項に記載のシステム。
  42. 前記視野の状態の評価は、血管疾患の識別、状態、および/または進行に関する情報を含む、請求項1ないし41のうちいずれか1項に記載のシステム。
  43. ユーザの視野を評価するためのシステムであって、前記システムは、動作を実行するように構成されたコンピューティングハードウェアを備え、前記システムは、
    コンピューティング装置に関連付けられたディスプレイ上にレンダリングされたユーザインターフェース上に固視目標を表示し、前記ユーザインターフェースは、前記ユーザインターフェースを見ているユーザによって制御されるポインタを含み、
    ユーザの少なくとも片方の目が固視目標に固視しているかどうかを判定し、
    目が固視目標に固視していると判定された場合、複数の検査目標の検査目標をユーザインターフェース上の第1の位置に表示し、前記第1の位置は、ユーザの視野の第1の位置に対応し、
    ユーザが前記第1の位置で検査目標を検出したという指示を含むユーザ入力を受信し、
    受信したユーザ入力に基づいて、前記検査目標がユーザによって検出されたかどうかの指示を取得し、前記指示を格納し、
    特定の条件が満たされるまで、前記表示、判定、表示、受信、および取得を繰り返し実行し、
    前記表示、判定、表示、受信、および取得ステップの反復実行中に、前記検査目標のユーザによる検出の判定の結果に基づいて、視野の状態の評価を提供する、システム。
  44. 前記コンピューティング装置は、スマートフォンを含む、請求項43に記載のシステム。
  45. 前記コンピューティングハードウェアは、前記コンピューティング装置に含まれる、請求項43または44に記載のシステム。
  46. 前記ディスプレイは、前記コンピューティング装置の一部である、請求項43ないし45のうちいずれか1項に記載のシステム。
  47. 前記コンピューティング装置は、スマートテレビを含む、請求項43ないし46のうちいずれか1項に記載のシステム。
  48. 前記コンピューティング装置は、パーソナルコンピュータを含む、請求項43ないし47のうちいずれか1項に記載のシステム。
  49. 前記ユーザインターフェースは、ヘッドマウント可能な仮想現実装置の仮想現実ディスプレイ上の仮想現実環境を含む、請求項43ないし48のうちいずれか1項に記載のシステム。
  50. 前記ユーザ入力は、マウス、ジョイスティック、キーボード、ジェスチャおよびモーション追跡装置、マイクロフォン、少なくとも1つのカメラ、全方向性トレッドミル、およびゲームパッドからなる群から選択された少なくとも1つの入力装置からさらに受信される、請求項43ないし49のうちいずれか1項に記載のシステム。
  51. ユーザの視野を評価するための方法であって、前記方法は、
    ヘッドマウント可能な仮想現実装置の仮想現実ディスプレイ上の仮想現実環境に、固視目標を表示するステップであって、前記仮想現実環境は、前記ヘッドマウント可能な仮想現実装置を装着したユーザによって制御されるポインタを含む、ステップと、
    ユーザの少なくとも片方の目が前記固視目標に固視しているかどうかを判定するステップと、
    目が前記固視目標に固視していると判定された場合、仮想現実環境の第1の位置にある複数の検査目標の検査目標を表示するステップであって、前記第1の位置は、ユーザの視野の第1の位置に対応する、ステップと、
    ユーザ入力を受信し、ユーザ入力が、ユーザが前記第1の位置で前記検査目標を検出したことを示すかどうかを判定するステップと、
    受信したユーザ入力に基づいて、前記検査目標がユーザによって検出されたかどうかの指示を取得し、前記指示を格納するステップと、
    特定の条件が満たされるまで、前記表示、判定、表示、受信、および取得を繰り返し実行するステップと、
    前記表示、判定、表示、受信、および取得ステップの反復実行中に、前記検査目標のユーザによる検出の判定の結果に基づいて、視野の状態の評価を提供するステップと、を含む方法。
  52. 前記方法は、前記ポインタが前記第1の位置に向かって移動していることを前記ユーザ入力が示すかどうかを判定するステップをさらに含む、請求項51に記載の方法。
  53. 前記方法は、前記ユーザ入力が、ユーザの頭が前記第1の位置に向かって移動していることを示すかどうかを判定するステップをさらに含む、請求項51または52に記載の方法。
  54. 前記方法は、前記ユーザ入力が、瞳孔反応を含むかどうかを判定するステップをさらに含む、請求項51ないし53のうちいずれか1項に記載の方法。
  55. 前記方法は、前記ユーザ入力が、ボタン押下を含むかどうかを判定するステップをさらに含む、請求項51ないし54のうちいずれか1項に記載の方法。
  56. 前記方法は、目が固視目標に固視していると判定された場合に、目および/または瞳孔の位置を判定するステップをさらに含む、請求項51ないし55のうちいずれか1項に記載の方法。
  57. 前記表示、判定、表示、受信、および取得ステップの反復的な実行は、複数の検査目標の全ての検査目標が表示されるまで続く、請求項51ないし56のうちいずれか1項に記載の方法。
  58. 前記表示、判定、表示、受信、および取得ステップの反復的な実行は、所定の期間が経過するまで続く、請求項51ないし57のうちいずれか1項に記載の方法。
  59. 前記表示、判定、表示、受信、および取得ステップの反復的な実行は、評価の統計的信頼度が所定のレベルに達するまで続く、請求項51ないし58のうちいずれか1項に記載方法。
  60. 目が固視目標に固視していると判定された場合に、固視目標を表示するのと同時に、検査目標を少なくとも部分的に表示する、請求項51ないし59のうちいずれか1項に記載の方法。
  61. 目が固視目標に固視しているかどうかを判定するステップは、患者の中心窩が固視目標に固視しているかどうかを判定するステップを含む、請求項51ないし60のうちいずれか1項に記載の方法。
  62. 前記方法は、患者の両眼固視の安定性と各目の患者の単眼固視の安定性を比較して、固視目標を一度に片目ずつ表示するか両目に同時に表示するかを判定するステップをさらに含む、請求項51ないし61のうちいずれか1項に記載の方法。
  63. 前記ユーザ入力は、仮想現実環境における前記ポインタの動きの指示を含む、請求項51ないし62のうちいずれか1項に記載の方法。
  64. 前記方法は、前記ポインタが前記第1の位置から所定の距離内に配置されていると判定するステップをさらに含む、請求項51ないし63のうちいずれか1項に記載の方法。
  65. 前記方法は、検査刺激の位置がユーザによって検出されたという指示を取得するステップをさらに含む、請求項51ないし64のうちいずれか1項に記載の方法。
  66. 前記方法は、ユーザの片方または両方の目、頭、顔の筋肉、片方または両方の瞳孔、および/または体の動きを判定するステップをさらに含む、請求項51ないし65のうちいずれか1項に記載の方法。
  67. 前記表示、判定、表示、受信、および取得ステップの反復的な実行は、
    ユーザの視野の第1の位置とは異なるユーザの視野の第2の位置に対応する仮想現実環境の第2の位置に、複数の検査目標の後続の検査目標を表示するステップを含む、請求項51ないし66のうちいずれか1項に記載の方法。
  68. 前記表示、判定、表示、受信、および取得ステップの反復的な実行は、
    仮想現実環境で、後続の固視目標を表示するステップと、
    目が前記後続の固視目標に固視しているかどうかを判定するステップと、
    目が前記後続の固視目標に固視していると判定された場合、ユーザの視野の第1の位置とは異なるユーザの視野の第2の位置に対応する仮想現実環境の第2の位置に、複数の検査目標の後続の検査目標を表示するステップと、
    ユーザが前記第2の位置で前記後続の検査目標を検出したという指示を含むユーザ入力を受信するステップと、
    受信したユーザ入力に基づいて、前記後続の検査目標がユーザによって検出されたかどうかの第2の指示を取得し、前記第2の指示を格納するステップと、を含む、請求項51ないし67のうちいずれか1項に記載の方法。
  69. 前記後続の検査目標は、前記第1の位置に表示された前記検査目標の少なくとも1つのプロパティとは異なる少なくとも1つのプロパティを有する、請求項51ないし68のうちいずれか1項に記載の方法。
  70. 前記方法は、前記ポインタが前記固視目標と少なくとも部分的に重なるように前記ポインタが移動したかどうかを判定するステップをさらに含む、請求項51ないし69のうちいずれか1項に記載の方法。
  71. 前記固視目標は、少なくとも1つの可動オブジェクトの表現を含む、請求項51ないし70のうちいずれか1項に記載の方法。
  72. 前記固視目標は、前記第1の位置の近くに表示される、請求項51ないし71のうちいずれか1項に記載の方法。
  73. 前記方法は、前記ヘッドマウント可能な仮想現実装置を装着しているユーザの少なくとも一方の目を監視するセンサを使用して、目追跡情報を取得するステップをさらに含む、請求項51ないし72のうちいずれか1項に記載の方法。
  74. 1つまたは複数の固視目標の物理的特性、およびそれらが表示されるかどうか、およびどのように表示されるかの規則は、検査を実施する人が変更できるスプレッドシートまたはデータファイル内に記述される、請求項51ないし73のうちいずれか1項に記載の方法。
  75. 1つまたは複数の固視目標の物理的特性、およびそれらが表示されるかどうか、およびどのように表示されるかの規則は、別個のコンピューティング装置上で構成され、ネットワーク接続を介して検査を管理する装置で受信される、請求項51ないし74のうちいずれか1項に記載の方法。
  76. 検査中に収集された結果およびデータは、別個のコンピューティング装置に送信される、請求項51ないし75のうちいずれか1項に記載の方法。
  77. 検査刺激の1つまたは複数のプロパティは、現在の患者および/または他の患者からの以前の検査結果によって少なくとも部分的に判定される、請求項51ないし76のうちいずれか1項に記載の方法。
  78. 検査刺激がユーザによって検出されたという指示を取得するステップは、前記ポインタが前記固視目標の位置を囲む少なくとも2つのセクタの1つ内に配置されていると判定するステップを含む、請求項51ないし77のうちいずれか1項に記載の方法。
  79. 前記視野の状態の評価は、緑内障の識別、状態、および/または進行に関する情報を含む、請求項51ないし78のうちいずれか1項に記載の方法。
  80. 前記視野の状態の評価は、多発性硬化症の識別、状態、および/または進行に関する情報を含む、請求項51ないし79のうちいずれか1項に記載の方法。
  81. 前記視野の状態の評価は、黄斑変性の識別、状態、および/または進行に関する情報を含む、請求項51ないし80のうちいずれか1項に記載の方法。
  82. 前記視野の状態の評価は、糖尿病性網膜症の識別、状態、および/または進行に関する情報を含む、請求項51ないし81のうちいずれか1項に記載の方法。
  83. 前記視野の状態の評価は、神経学的機能の識別、状態、および/または進行に関する情報を含む、請求項51ないし82のうちいずれか1項に記載の方法。
  84. 前記視野の状態の評価は、網膜色素変性症の識別、状態、および/または進行に関する情報を含む、請求項51ないし83のうちいずれか1項に記載の方法。
  85. 前記視野の状態の評価は、色覚の識別、状態、および/または進行に関する情報を含む、請求項51ないし84のうちいずれか1項に記載の方法。
  86. 前記視野の状態の評価は、抑制性暗点を含む、両眼視の識別、状態、および/または進行に関する情報を含む、請求項51ないし85のうちいずれか1項に記載の方法。
  87. 前記視野の状態の評価は、血管疾患の識別、状態、および/または進行に関する情報を含む、請求項51ないし86のうちいずれか1項に記載の方法。
  88. 少なくとも1つのデータプロセッサによって実行されたときに、次の動作を実行する命令を格納する非一時的なコンピュータ可読媒体であって、
    ヘッドマウント可能な仮想現実装置の仮想現実ディスプレイ上の仮想現実環境に固視目標を表示するステップであって、前記仮想現実環境は、ヘッドマウント可能な仮想現実装置を装着しているユーザによって制御されるポインタを含む、ステップと、
    ユーザの少なくとも片方の目が固視目標に固視しているかどうかを判定するステップと、
    目が固視目標に固視していると判定された場合、仮想現実環境の第1の位置にある複数の検査目標の検査目標を表示するステップであって、前記第1の位置は、ユーザの視野の第1の位置に対応する、ステップと、
    ユーザ入力を受信し、前記ユーザ入力が、ユーザが前記第1の位置で前記検査目標を検出したことを示すかどうかを判定するステップと、
    受信したユーザ入力に基づいて、前記検査目標がユーザによって検出されたかどうかの指示を取得し、前記指示を格納するステップと、
    特定の条件が満たされるまで、前記表示、判定、表示、受信、および取得を繰り返し実行するステップと、
    前記表示、判定、表示、受信、および取得ステップの反復実行中に、前記検査目標のユーザによる検出の判定の結果に基づいて、視野の状態の評価を提供するステップと、を実行する命令を格納する非一時的なコンピュータ可読媒体。
JP2020545236A 2017-11-14 2018-11-14 視野解析のためのシステムおよび方法 Pending JP2021502881A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023173801A JP2024009889A (ja) 2017-11-14 2023-10-05 視野解析のためのシステムおよび方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762586151P 2017-11-14 2017-11-14
US62/586,151 2017-11-14
PCT/US2018/061128 WO2019099572A1 (en) 2017-11-14 2018-11-14 Systems and methods for visual field analysis

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023173801A Division JP2024009889A (ja) 2017-11-14 2023-10-05 視野解析のためのシステムおよび方法

Publications (2)

Publication Number Publication Date
JP2021502881A JP2021502881A (ja) 2021-02-04
JP2021502881A5 true JP2021502881A5 (ja) 2021-12-23

Family

ID=64664426

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020545236A Pending JP2021502881A (ja) 2017-11-14 2018-11-14 視野解析のためのシステムおよび方法
JP2023173801A Pending JP2024009889A (ja) 2017-11-14 2023-10-05 視野解析のためのシステムおよび方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023173801A Pending JP2024009889A (ja) 2017-11-14 2023-10-05 視野解析のためのシステムおよび方法

Country Status (7)

Country Link
US (2) US20190150727A1 (ja)
EP (1) EP3709861A1 (ja)
JP (2) JP2021502881A (ja)
CN (1) CN111587086A (ja)
AU (1) AU2018367510A1 (ja)
CA (1) CA3082778A1 (ja)
WO (1) WO2019099572A1 (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11163359B2 (en) * 2016-11-10 2021-11-02 Neurotrack Technologies, Inc. Method and system for correlating an image capturing device to a human user for analyzing gaze information associated with cognitive performance
US11033453B1 (en) 2017-06-28 2021-06-15 Bertec Corporation Neurocognitive training system for improving visual motor responses
US11337606B1 (en) 2017-06-28 2022-05-24 Bertec Corporation System for testing and/or training the vision of a user
US11712162B1 (en) 2017-06-28 2023-08-01 Bertec Corporation System for testing and/or training the vision of a user
WO2019108916A1 (en) * 2017-11-30 2019-06-06 Ohio State Innovation Foundation Method and system for measuring or assessing human visual field
US11202564B2 (en) * 2018-04-11 2021-12-21 Alcon Inc. Information display for patient
WO2020050497A1 (ko) * 2018-09-04 2020-03-12 주식회사 엠투에스 가상현실 기반의 시야검사 방법 및 시스템
CN109938755B (zh) * 2019-01-29 2021-12-10 中国民航大学 基于数字集辨识的闪光融合频率临界值测量方法
GB201905934D0 (en) * 2019-04-29 2019-06-12 Univ Manchester Visual field assessment system and method
US11612316B2 (en) * 2019-06-20 2023-03-28 Awss Zidan Medical system and method operable to control sensor-based wearable devices for examining eyes
CN112114657B (zh) * 2019-06-21 2023-10-17 北京七鑫易维科技有限公司 一种注视点信息采集方法及系统
WO2021051162A1 (en) * 2019-09-16 2021-03-25 Eyonic Pty Limited Method and/or system for testing visual function
GB201917147D0 (en) * 2019-11-25 2020-01-08 Medopad Ltd Visual impairment apparatus
CA3162928A1 (en) 2019-11-29 2021-06-03 Electric Puppets Incorporated System and method for virtual reality based human biological metrics collection and stimulus presentation
WO2021155047A1 (en) * 2020-01-31 2021-08-05 Magic Leap, Inc. Augmented and virtual reality display systems for oculometric assessments
US20230225609A1 (en) * 2020-01-31 2023-07-20 Olleyes, Inc. A system and method for providing visual tests
CN111329499B (zh) * 2020-03-12 2023-02-10 大众问问(北京)信息科技有限公司 一种驾驶干扰度的测试方法、系统、装置及设备
JP2021194289A (ja) * 2020-06-16 2021-12-27 株式会社ファインデックス 視野検査装置
WO2021263133A1 (en) * 2020-06-25 2021-12-30 Thomas Jefferson University Systems and methods for blind spot tracking
EP4236755A1 (en) * 2020-10-28 2023-09-06 University of Miami Systems and methods for visual field testing in head-mounted displays
CN112423035A (zh) * 2020-11-05 2021-02-26 上海蜂雀网络科技有限公司 一种在vr头显中观看全景视频自动提取用户视觉关注点的方法
CN112603336B (zh) * 2020-12-30 2023-05-16 国科易讯(北京)科技有限公司 基于脑电波的注意力分析方法、系统
CN112773325B (zh) * 2020-12-31 2023-08-01 北京市环境保护科学研究院 一种巴西龟眼炎的早期预警方法及系统
WO2022226141A1 (en) * 2021-04-21 2022-10-27 Olleyes, Inc. System and method for providing visual field tests
IT202100016550A1 (it) * 2021-06-24 2022-12-24 Era Ophthalmica S R L Apparecchiatura per la valutazione dell'acuita' visiva eccentrica e/o della capacita' di lettura eccentrica e procedimento per la valutazione dell'acuita' visiva eccentrica e/o della capacita' di lettura eccentrica.
CN113379722B (zh) * 2021-06-29 2024-02-23 广州市诺以德医疗科技发展有限公司 一种鼻颞侧抑制位置和程度数据采集系统及其使用方法
WO2023044520A1 (en) * 2021-09-22 2023-03-30 The University Of Melbourne Methods and systems for screening for central visual field loss
EP4197425A1 (en) 2021-12-17 2023-06-21 Carl Zeiss Vision International GmbH Determining a visual performance of an eye of a person
WO2023196186A1 (en) * 2022-04-05 2023-10-12 Peripherex, Inc. Improved systems and methods for testing peripheral vision
WO2024101781A1 (ko) * 2022-11-08 2024-05-16 삼성전자 주식회사 탄젠트 스크린을 표시하는 헤드 마운티드 디스플레이 장치 및 헤드 마운티드 디스플레이 장치의 동작 방법

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6592222B2 (en) * 1996-07-31 2003-07-15 Massengill Family Trust Flicker and frequency doubling in virtual reality
US5880812A (en) * 1997-03-13 1999-03-09 Ramot-University Authority For Applied Research And Industrial Development, Ltd. Method and apparatus for evaluating and mapping visual field
CA2333678A1 (en) * 1999-03-31 2000-10-05 Virtual-Eye.Com, Inc. Kinetic visual field apparatus and method
DE10196499D2 (de) * 2001-05-22 2004-07-01 Physoptics Opto Electronic Gmb Verfahren und Vorrichtung zur Anpassung eines optischen Systems an die Blickrichtung des menschlichen Auges
JP5421146B2 (ja) * 2010-02-15 2014-02-19 学校法人 関西大学 視野検査システム
KR101245330B1 (ko) * 2011-12-20 2013-03-25 경희대학교 산학협력단 개인용 컴퓨터 기반 시야 자가진단 시스템 및 시선 고정방법
KR20140111298A (ko) * 2011-12-20 2014-09-18 아이체크 헬스 커넥션, 인크. 녹내장에서의 시야 손실을 모니터링하기 위한 비디오 게임
US9239460B2 (en) * 2013-05-10 2016-01-19 Microsoft Technology Licensing, Llc Calibration of eye location
EP3131453B1 (en) * 2014-04-17 2021-01-20 The Regents of the University of California Portable brain activity sensing platform for assessment of visual field deficits
US10564714B2 (en) * 2014-05-09 2020-02-18 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
US9706910B1 (en) * 2014-05-29 2017-07-18 Vivid Vision, Inc. Interactive system for vision assessment and correction
GB201417208D0 (en) * 2014-09-30 2014-11-12 Ibvision Ltd Method Software And Apparatus For Testing A Patiants Visual Field
WO2017031089A1 (en) * 2015-08-15 2017-02-23 Eyefluence, Inc. Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
GB2542759B (en) * 2015-08-20 2021-03-03 Ibisvision Ltd Method and apparatus for testing a patients visual field
CN109310314B (zh) * 2016-02-16 2022-06-10 麻省眼耳科医院 用于眼位偏斜测量的移动装置应用
US10568502B2 (en) * 2016-03-23 2020-02-25 The Chinese University Of Hong Kong Visual disability detection system using virtual reality
WO2017182596A1 (en) * 2016-04-22 2017-10-26 Carl Zeiss Meditec, Inc. System and method for visual field testing

Similar Documents

Publication Publication Date Title
JP2021502881A5 (ja)
US11881294B2 (en) Systems and methods for a web platform hosting one or more assessments of human visual performance
US20240099575A1 (en) Systems and methods for vision assessment
Chandra et al. Eye tracking based human computer interaction: Applications and their uses
Snegireva et al. Eye tracking technology in sports-related concussion: a systematic review and meta-analysis
EP2134245B1 (en) Unitary vision and coordination testing center
EP2134243B1 (en) Unitary vision testing center
CA2767656C (en) Eye and body movement tracking for testing and/or training
JP6033883B2 (ja) 個人用コンピュータに基づく視野自己測定システムおよび視野自己測定方法
US20180103838A1 (en) Method and system for automatic eyesight diagnosis
CN106256312B (zh) 认知功能障碍评价装置
WO2014131860A1 (en) Systems and methods for improved ease and accuracy of gaze tracking
CN107550451B (zh) 一种视野功能自然客观评估的方法与系统
Zhang et al. Cognitive workload in conventional direct control vs. pattern recognition control of an upper-limb prosthesis
CN115515475A (zh) 立体认知能力评价系统
US10779726B2 (en) Device and method for determining eye movements by tactile interface
Rajabi et al. The relationship between Craniovertebral (CV) Angle and neck pain among male and female students with an emphasis on different educational levels
RU2682932C1 (ru) Способ проведения периметрии у пациентов с отсутствием центрального зрения
CN116322472A (zh) 近视发展分析装置、近视发展分析系统、近视发展分析方法以及近视发展分析程序
Parit et al. Eye tracking based human computer interaction
EP4197425A1 (en) Determining a visual performance of an eye of a person
Kincaid The Feasibility of Using a Markerless Motion Capture Sensor (Leap Motion TM Controller) for Quantitative Motor Assessment Intended for a Clinical Setting
WO2017039553A1 (en) A personalized rehabilitation system
Grubiśić et al. Natural eye gaze computer interaction for medical oculography diagnosis: Current status and future prospects
CN116507306A (zh) 用于评价物体认知能力的评价装置、方法以及程序