JP2022525962A - 視覚タスクのための視覚機器の性能を評価するデバイス及び方法 - Google Patents

視覚タスクのための視覚機器の性能を評価するデバイス及び方法 Download PDF

Info

Publication number
JP2022525962A
JP2022525962A JP2021556800A JP2021556800A JP2022525962A JP 2022525962 A JP2022525962 A JP 2022525962A JP 2021556800 A JP2021556800 A JP 2021556800A JP 2021556800 A JP2021556800 A JP 2021556800A JP 2022525962 A JP2022525962 A JP 2022525962A
Authority
JP
Japan
Prior art keywords
target
visual
wearer
model
task
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021556800A
Other languages
English (en)
Inventor
セバスチャン・フリッカー
コノガン・バラントン
デルフィーヌ・トランヴエ-ベルナルダン
シリル・ギユー
Original Assignee
エシロール・アンテルナシオナル
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エシロール・アンテルナシオナル filed Critical エシロール・アンテルナシオナル
Publication of JP2022525962A publication Critical patent/JP2022525962A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/103Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Eye Examination Apparatus (AREA)
  • Eyeglasses (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

視覚タスクのためのターゲット視覚機器の性能を評価するデバイス(10)は、シーン内で視覚タスクを実行している最初の視覚機器の最初の着用者に関連する少なくとも1つのパラメータの測定時間の関数としての代表的なデータ(D(t))を取得し、シーンモデル、ターゲット着用者モデル(Ms、Mw)を取得する、ように適合された、少なくとも1つの入力(12)と、シーンモデル及びターゲット着用者モデル(Ms、Mw)を使用することによって、及び時間の関数としての代表的なデータ(D(t))をターゲット着用者モデル(Mw)に適用することによって、ターゲット視覚機器を用いてタスクを仮想的に実行し、仮想的な実行に基づいて、少なくとも1つの対象のパラメータ(I)を判定し、対象のパラメータ(I)の関数としてターゲット視覚機器の性能(P)を評価することによって、ターゲット視覚機器がターゲット着用者にどの程度適切であるかを判定するように、少なくとも1つの対象のパラメータ(I)を提供するように構成された、少なくとも1つのプロセッサ(14)と、を備える。

Description

本発明は、視覚機器の着用者が少なくとも1つの視覚タスクを実行するための視覚機器の性能を評価するデバイス及び方法に関する。
所与の視覚タスクを実行するために着用者が眼科用レンズ又は太陽レンズなどの視覚機器を着用する場合、視覚機器の性能は、いくつかの方法で評価することができる。例えば、着用者が視覚タスクを実行した後に質問票に記入するように求められてもよく、又は、視覚タスクに対する着用者のパフォーマンスが、速度、精度、再現性、安定性などの観点から評価されてもよく、又は、着用者が脳活動を記録するための脳波計を装備されてもよく、又は、着用者が視線方向を記録するためにアイトラッキングデバイスを装備されてもよく、又は、着用者が身体の姿勢を記録するためのモーショントラッキングデバイスを装備されてもよい。
文献、特許文献1は、運動パラメータに基づいて、着用者に適合された眼科用レンズ、すなわち、満足がいくと考えられる性能を有する眼科用レンズ、例えば、オプティカルフローの変更を最小限にする眼科用レンズを判定する方法を記載している。運動パラメータは、着用者の身体の任意の部分、例えば頭部又は眼の軌道、速度、方向、及び/又は動きであってもよい。運動パラメータは、センサを使用して測定される。
実際、人間の身体の動きのモデリングは非常に複雑であるため、多くの場合、身体のモーションキャプチャから取得されたデータをインポートすることが好まれる。そのようなインポートされたデータは、人間のリアルな動きを再現するために、例えば、ビデオゲーム及び映画の特殊効果において使用される。
改善された眼科用レンズの設計を判定するために、着用者の頭部又は眼の位置を取得することもまた、例えば特許文献2から知られている。
しかしながら、上記の従来技術のアプローチでは、着用者が所与の視覚タスクのための視覚機器を使用するやり方に関して、例えば、どの視線方向か、及び着用者が実際に使用しているオブジェクトの近接度に関して、着用者に関連する対象のパラメータについての正確且つ客観的な情報を取得することが可能にならない。
対象のそのようなパラメータの例には、視覚タスクの実行中の着用者の視力又は視力損失、着用者が経験する歪み、着用者の視線労力、姿勢労力、調節のレベル、オプティカルフロー、両眼離反運動状態などが含まれる。
現在、そのような情報は信頼性が低く、不正確であり、これは主に、着用者の質問票への主観的な回答を通じて取得されるために通常主観的なものであるためである。更に、そのような主観的な情報は、データの解釈を複雑にする。着用者間の比較もまた、主観性に偏っているため困難である。加えて、主観的なデータは通常、客観的なデータよりも反復性又は再現性が低い。
更に、脳活動を記録するために着用者に脳波計を装備することによって様々な視覚機器の性能を比較することもまた、困難にさらされ、所与の試験は視覚機器ごとに繰り返されなければならず、着用者が様々な視覚機器と同じやり方で視覚タスクを実行していない場合、その比較は難しくなり得る。評価されている所与の視覚機器のレンズが、評価されている続く視覚機器のレンズを通して着用者の視力に影響を与え得ることを考えると、様々な視覚機器が評価される順序もまた、比較の結果に影響を及ぼし得る。
したがって、現在、対象の所定のパラメータについての客観的情報を取得することによって、視覚機器の着用者が所与の視覚タスクを実行するための視覚機器の性能を客観的なやり方で評価するための満足のいく解決策は存在しない。
国際公開第2017/157760号パンフレット 国際公開第2015/124574号パンフレット 国際公開第2017/064065号パンフレット
Ciuffreda K.,Schor C.による"K.N.Kinematics of normal and strabismic eyes"、"Basic and Clinical Aspects of Binocular Vergence Movements",Butterworths,1983,pages 544-564 Vision Research,vol.117,December 2015,pages 59-66,Elsevierの、"Saliency-based gaze prediction based on head direction"と題するR.Nakashimaらによる記事
本発明の目的は、先行技術の上述の欠点を克服することである。
その目的のために、本発明は、少なくとも1つの視覚タスクのためのターゲット視覚機器の性能を評価するデバイスを備え、デバイスは、
少なくとも1つの入力であって、
シーン内で少なくとも1つの視覚タスクを実行している最初の視覚機器の最初の着用者に関連する少なくとも1つのパラメータの測定時間の関数としての代表的なデータを取得し、
少なくとも1つの視覚タスクが実行されるシーンのモデルを取得し、
ターゲット着用者モデルを取得する、ように適合された、少なくとも1つの入力と、
少なくとも1つのプロセッサであって、
シーンモデル及びターゲット着用者モデルを使用することによって、及びシーンモデルで視覚タスクを実行する際に、時間の関数としての代表的なデータを、ターゲット視覚機器を有するターゲット着用者モデルに適用することによって、ターゲット視覚機器を用いて少なくとも1つの視覚タスクを仮想的に実行し、
仮想的な実行に基づいて、少なくとも1つの対象のパラメータを判定し、
少なくとも1つの対象のパラメータの関数としてターゲット視覚機器の性能を評価することによって、ターゲット視覚機器がターゲット着用者にどの程度適切であるかを判定するように、少なくとも1つの対象のパラメータを提供する、ように構成された、少なくとも1つのプロセッサと、
を備える。
したがって、着用者の経験をより良く理解し、且つより良くモデル化するために、対象のパラメータに関する客観的情報が取得され、次いで、場合により主観的評価と相関され得る。
これにより、例えば、考慮された対象のパラメータへの影響に関していくつかの視覚機器を比較することによって、ターゲット着用者が考慮された視覚タスクを実行するための最も適切な視覚機器を判定することが可能になる。
本発明はまた、少なくとも1つの視覚タスクのためにターゲット視覚機器の性能を評価するための方法を提供し、方法は、
シーン内で少なくとも1つの視覚タスクを実行している最初の視覚機器の最初の着用者に関連する少なくとも1つのパラメータの測定時間の関数としての代表的なデータを取得することと、
少なくとも1つの視覚タスクが実行されるシーンのモデルを取得することと、
ターゲット着用者モデルを取得することと、
少なくとも1つのプロセッサにより、シーンモデル及びターゲット着用者モデルを使用することによって、及びシーンモデルで視覚タスクを実行する際に、時間の関数としての代表的なデータを、ターゲット視覚機器を有するターゲット着用者モデルに適用することによって、ターゲット視覚機器を用いて少なくとも1つの視覚タスクを仮想的に実行することと、
少なくとも1つのプロセッサによって、仮想的な実行に基づいて、少なくとも1つの対象のパラメータを判定することと、
少なくとも1つの対象のパラメータの関数としてターゲット視覚機器の性能を評価することによって、ターゲット視覚機器がターゲット着用者にどの程度適切であるかを判定するように、少なくとも1つの対象のパラメータを提供することと、
を含む。
特定のモードでは、その実施形態のいずれかにおいて、評価するためのその方法は、本開示に従って評価するデバイスによって実行される。
本発明は更に、少なくとも1つの視覚タスクのためのターゲット視覚機器の性能を評価するためのコンピュータプログラム製品を提供し、コンピュータプログラム製品は、プロセッサにアクセス可能な1つ以上の命令シーケンスを含み、1つ以上の命令シーケンスはプロセッサによって実行されると、プロセッサに、
シーン内で少なくとも1つの視覚タスクを実行している最初の視覚機器の最初の着用者に関連する少なくとも1つのパラメータの測定時間の関数としての代表的なデータを取得させ、
少なくとも1つの視覚タスクが実行されるシーンのモデルを取得させ、
ターゲット着用者モデルを取得させ、
シーンモデル及びターゲット着用者モデルを使用することによって、及びシーンモデルで視覚タスクを実行する際に、時間の関数としての代表的なデータを、ターゲット視覚機器を有するターゲット着用者モデルに適用することによって、ターゲット視覚機器を用いて少なくとも1つの視覚タスクを仮想的に実行させ、
仮想的な実行に基づいて、少なくとも1つの対象のパラメータを判定させ、
少なくとも1つの対象のパラメータの関数としてターゲット視覚機器の性能を評価することによって、ターゲット視覚機器がターゲット着用者にどの程度適切であるかを判定するように、少なくとも1つの対象のパラメータを提供させる。
コンピュータプログラム製品は、その実行モードのいずれかにおいて、本開示に従って方法を実行するように有利に構成されている。
本方法及びコンピュータプログラム製品の利点は、デバイスの利点と同様であるため、ここでは繰り返さない。
本明細書で提供される記載及びその利点をより詳細に理解するために、添付の図面及び詳細な説明に関連してここで以下の簡単な説明を参照し、ここで、同様の参照番号は、同様の部品を表す。
特定の実施形態における、本発明によるデバイスの概略図である。 特定の実施形態における、本発明によるデバイスによって対象のパラメータとして歪みを判定する例の概略図である。 本発明の特定の実施形態によるデバイスによって、第1の視覚機器の着用者により実行される階段上り視覚タスク中の注視点及び歪みを判定する第1の例の概略図である。 本発明の特定の実施形態によるデバイスによって、第2の視覚機器の着用者により実行される階段上り視覚タスク中の注視点及び歪みを判定する第2の例の概略図である。 特定の実施形態における、本発明による方法のステップを示すフロー図である。
以下の説明では、図面は、必ずしも縮尺通りではなく、特定の特徴は、明瞭さ及び簡潔さのために又は情報提供の目的のために、一般化された又は概略的な形式で示されてもよい。加えて、様々な実施形態の作成及び使用が以下で詳細に論じられるが、本明細書に記載されるように、多様な状況で具体化されてもよい多くの発明の概念が提供されることを理解されたい。本明細書で論じられる実施形態は、単に代表的なものに過ぎず、本発明の範囲を限定するものではない。当業者には、プロセスに関連して定義される全ての技術的特徴が個別に又は組み合わせてデバイスに置き換えることができ、逆にデバイスに関連する全ての技術的特徴が個別に又は組み合わせてプロセスに置き換えることができることも明らかであろう。
用語「含む(comprise)」(並びに「含む(comprises)」及び「含んでいる(comprising)」などのそのいずれかの文法的変形形態)、「有する(have)」(並びに「有する(has)」及び「有している(having)」などのそのいずれかの文法的変形形態)、「含有する(contain)」(並びに「含有する(contains)」及び「含有している(containing)」などのそのいずれかの文法的変形形態)、並びに「包含する(include)」(並びに「包含する(includes)」及び「包含している(including)」などのそのいずれかの文法的変形形態)は、オープンエンドの連結動詞である。これらは、述べられる特徴、整数、工程若しくは構成要素、又はこれらの群の存在を規定するために用いられるが、1つ以上の他の特徴、整数、工程若しくは構成要素、又はこれらの群の存在又は追加を排除するものではない。結果として、1つ以上の工程又は要素を「含む」、「有する」、「含有する」又は「包含する」方法又は方法内の工程は、それらの1つ以上の工程又は要素を有するが、それらの1つ以上の工程又は要素のみを有することに限定されない。
図1に示されるように、特定の実施形態では、少なくとも1つの視覚タスクを実行するためのその視覚機器のターゲット着用者に対するターゲット視覚機器の性能を評価するデバイス10は、時間の関数として、シーン内で視覚タスクを実行している最初の視覚機器の最初の着用者の少なくとも1つのパラメータの測定値の代表的なデータD(t)を取得するように適合された1つ以上の入力12を含む。
視覚タスクは、例えば、階段を歩いたり上ったりすることであり得る。
1つ以上の入力12はまた、視覚タスクが実行されるシーンのモデルMs、及びターゲット着用者のモデルMwを取得するように適合されている。
最初の視覚機器及びターゲット視覚機器のそれぞれは、眼科用レンズ若しくは一対の眼科用レンズ、場合によってはアクティブレンズ、又は太陽レンズ若しくは一対の太陽レンズ、又は眼科用太陽レンズ若しくは一対の眼科用太陽レンズであり得る。それは、眼鏡又はコンタクトレンズ又は眼内レンズの形態であり得る。例えば、それは、一対の累進レンズであり得る。
最初の着用者及びターゲット着用者は、所定のユーザグループを代表するか、又は平均的ユーザと見なされる、実際の人物又は仮想の存在のいずれかであり得る。「ターゲット着用者」という表現は、その性能が評価されるターゲット視覚機器を人又は仮想の存在が着用していることを意味する。
最初の着用者及び/又はターゲット着用者は、複数の最初の着用者のデータベースから選択することができ、これらの着用者は、年齢、性別、民族性、活動、屈折、サイズ、利き手などの特定の特性に従って、又は頭部/眼の調整などの行動パラメータに従って、クラスタに編成される。
同様に、ターゲット視覚機器の特性は、実際の既存の機器の中から選択され得、又は必要に応じて、仮想視覚機器として構築され得る。
デバイス10は、デバイス10のユーザが、例えば、キーボード及び/又はマウス及び/又はタッチスクリーンによって、例えば、最初の、及び/又はターゲット着用者が属するクラスタ、並びにターゲット着用者モデルMwに影響を及ぼし得る他の情報などのデータを入力することを可能にするユーザインターフェースを備え得る。
最初の着用者とターゲット着用者は、互いに同一であってもよい。
ターゲット着用者は、互いに対して動くことができる剛体部分/セグメントのセットとしてモデル化され得る。
ターゲット着用者のモデルMwは、例えば、頭部、頭部に対して移動可能な少なくとも1つの眼、並びにそれが位置決めされている前にある、眼と協働するターゲット視覚機器の少なくとも1つの眼科用レンズ及び/又は太陽レンズを含み得る。
眼の動きは、例えば、視線方向を表す2つの角度、すなわち、下降と方位角によって定義され得る。任意選択的に、眼のねじれは、虹彩テクスチャの回転によって、アイトラッキングデバイスを用いて測定してもよく、例えば、リストの法則に従って判定することができる。
リストの法則の詳細については、例えば、非特許文献1を参照することができる。
レンズは、それらのジオメトリ、すなわち、形状、及びそれらの材料又は屈折率、コーティング、透過率、背面上の反射、位置などによって定義され得る。
頭部に対するレンズの位置は、視覚タスクの持続時間、固定されていると想定され得る。
任意選択的に、ターゲット着用者モデルMwは、モデル化された体幹又は胴体を更に含み得、頭部は、体幹に対して移動可能である。
任意選択的に、ターゲット着用者モデルMwは、ターゲット着用者のサイズ、及び/又はターゲット着用者の歩き方、例えば近視又は遠視などのターゲット着用者の特定のタイプの視覚障害に関連するデータなど、ターゲット着用者に関連する他のパラメータを更に含み得る。
デバイス10はまた、少なくとも1つのプロセッサ14を備える。
本開示によれば、プロセッサ14は、シーンモデルMs及びターゲット着用者モデルMwを使用することによって、及びシーンモデルMsで視覚タスクを実行する際に、時間の関数として得られた代表的なデータD(t)をターゲット視覚機器を有するターゲット着用者モデルMwに適用することによって、ターゲット視覚機器を用いて少なくとも1つの視覚タスクを仮想的に実行するように構成されている。
前記ターゲット着用者(物理的又は仮想の)及びターゲット視覚機器(物理的又は仮想の)は、シーンモデルMs及びターゲット着用者モデルMwにおいて考慮されるいくつかの特性によって定義される。
非限定的な例として、得られた代表的なデータD(t)は、時間の関数として、所定の基準フレームに対する最初の着用者の頭部位置の少なくとも1つ、例えば、シーンの「メイン」基準フレーム、及び視覚タスク中の最初の着用者の1つの眼の、時間の関数としての少なくとも1つの視線方向に関係し得る。
視線方向又は頭部位置は、必ずしも測定されず、それは任意の適切なやり方で導入され得る。
例えば、頭部位置と注視点が既知である場合、視線方向は、眼の回転の中心と注視点の間のレイトレーシングによって推測することができる。
別の例として、視線方向及び注視点が既知である場合、頭部位置は次のように判定することができる。
1)最初の頭部位置を考慮する。
2)既知の視線方向を適用し、レンズを通してレイトレーシングを実行する。
3)2つの出現する光線間の交点を計算するか、又は交差しない場合は、2つの出現する光線間の最も近い点を計算する。
4)出現する光線の交点と注視点との間の距離を計算する。
5)例えば局所最適化法によって、出現する光線の交点と注視点との間の距離を最小化する頭部位置を見つける。
別の例として、注視点と体幹位置が既知の場合、頭部位置と視線方向は、垂直方向と水平方向の頭部と眼の協調比、k_vertical及びk_horizontalを想定する(例えば、k_vertical=k_horizontal=0.3)ことによって判定することができる。例えば、頭部の動きは、頭部のピッチ、ヨー、及びロールにそれぞれ対応する、3つの角度シータ、ファイ、及びローによって記述され得る。例えば、体幹の基準フレームから頭部の基準フレームへの変換行列は、k×シータに等しい角度のX軸を中心とした回転、体幹から頭部までの距離に等しい距離の、X軸に直交する、Y軸を中心とした並進、ローに等しい角度の、X軸及びY軸に直交する、Z軸を中心とした回転、(1-k)×シータに等しい角度のX軸を中心とした回転(ここでk=0.22)、並びにファイに等しい角度のY軸を中心とした回転、の組み合わせであり得る。次いで、頭部の回転角(シータ、ファイ)及び眼の回転角(アルファ、ベータ)が、出現する光線が注視点と交差するように判定され、その結果、ファイ=k_vertical×アルファ及びシータ=k_horizontal×ベータとなる。
代表的なデータD(t)はまた、注視とも呼ばれるいわゆる注視点、すなわち、視覚タスクの実行中のそれぞれの時点において、最初の着用者の少なくとも1つの眼によって見られている点の位置に関係し得る。
それらの注視点の位置は、デバイス10に提供される前に、直接測定されるか、又は上流で計算されるかのいずれかであり得る。注視点は、受け取った視線方向(以下に説明する)及び/又は頭部位置から導出することができ、視線方向は場合によってはモデルによって与えられる。
例えば、非特許文献2に記載されているように、注視点の位置は、頭部の動きと顕著性マップから推測することができる。
別の例として、足の位置が記録されている場合、注視点の位置は、1若しくは2ステップ、又は1.5sの予測を用いて、足の位置として推測することができる。
別の例として、視覚タスクに階段上りが含まれている場合、頭部の動きを使用して注視点を位置特定することもでき、頭部が上向きのとき、注視点は階段の頂部又は近くの対象点に設定される。頭部が下向きになると、1.5sの前進又は予測で、注視点を足の将来の位置に同時に設定することができる。
任意選択的に、代表的なデータD(t)はまた、時間の関数として、所定の基準フレームに対する最初の着用者の体幹位置に関係してもよい。他の代表的なデータD(t)が、取得されてもよい。
したがって、特定の実施形態では、視覚タスクを仮想的に実行する際に、プロセッサ14は、上記の少なくとも1つの眼の視線方向、上記の頭部位置、及び最初の着用者の体幹の上記の位置のうちの少なくとも1つを、時間の関数として、ターゲット着用者モデルMwに適用するように構成されている。
代表的なデータD(t)が、最初の着用者の直接測定値から、例えば、そのような測定値を取得するための、最初の着用者の視線方向及び/又は最初の着用者の動きの測定値から生じる実施形態では、最初の着用者は、例えば、視覚タスクの期間中、視線トラッキングデバイス及び/又はモーショントラッキングデバイスを装備され得る。
本開示によれば、プロセッサ14はまた、仮想的な実行に基づいて、少なくとも1つの対象のパラメータIを判定し、少なくとも1つの対象のパラメータIを提供して、ターゲット視覚機器がターゲット着用者にどの程度適しているかを判定するように構成されている。
例えば、レイトレーシングは、注視点及び/又は仮想環境の任意の点から実行され、レンズ、眼の回転中心、又は瞳孔中心を通過する。次いで、見かけのオブジェクト位置などの光学データが計算され得る。モデルのおかげで、これらのデータが使用され、視力低下及び/又は労力に変換される。
対象のパラメータIは、視力又は調節に関連し得る。非限定的な例として、対象のパラメータは、ターゲット着用者の左眼及び/又は右眼の単眼視力、ターゲット着用者の左眼及び/又は右眼の単眼視力損失、両眼視力、両眼視力損失、調節レベル、オプティカルフロー、歪み、両眼離反運動状態、姿勢労力、姿勢適応、疲労ひずみ、及び/又は動作コストであり得る。
ターゲット視覚機器がターゲット着用者に適切である程度は、少なくとも1つの対象のパラメータIの関数としてターゲット視覚機器の性能Pを評価することによって判定される。
非限定的な例として、性能は、直接的に視覚タスク全体にわたる対象のパラメータの平均値であってもよく、「良い」、「悪い」などの閾値は、対象のパラメータに対して定義されてもよく、又は性能は、異なる対象のパラメータ及び/又は異なる視覚タスクの平均スコアであってもよい。
前記対象のパラメータは、経時的に変化するゼロ以外のパラメータである。したがって、眼科用処方は対象のパラメータになり得ない。
最初の視覚機器は、代表的なデータの基になっている機器である。ターゲット視覚機器は、対象のパラメータを取得するために仮想的な実行ステップにおいて使用される機器である。
別の例として、2つの視覚機器を比較するために、両方の視覚機器の対象のパラメータ値を比較することができる。したがって、最良の視覚機器は、より高い視力若しくはより低い視力損失を与える視覚機器、又はより少ない歪みを生成する視覚機器、又はより少ないオプティカルフロー変形を生成する視覚機器などであり得る。
シーンモデルMsは、少なくとも1つのジオメトリックパラメータによって、及びシーン内のオブジェクトの位置によって定義される少なくとも1つのオブジェクトを含み得る。シーンは、3次元環境の3次元オブジェクトで作成され得る。
色、テクスチャ、コントラスト、光源などを含む、シーンの他の特徴が、モデルMsに含まれ得る。
オブジェクトの形状は、点、線、長方形、球、平行六面体、三角形メッシュ、及び/又は四角形メッシュなどのジオメトリック形状を含み得る。シーン内のオブジェクトの位置は、所定の基準フレームに対して定義され得る。
例えば、シーンのメイン基準フレームに対するオブジェクトの位置は、回転行列R及び並進行列Tを使用することによって記述され得る。例えば、回転行列Rは3×3行列であり、並進行列Tは3×1ベクトルである。
オブジェクトの基準フレーム内の所与の点の座標は、トリプレットPoによって与えられ、メイン基準フレーム内のその点の座標は、トリプレットPmによって与えられる。メイン基準フレームからオブジェクトの基準フレームへの変換は、Po=R×Pm+Tとなるように、(R、T)により与えられる。
したがって、各オブジェクトは、そのジオメトリ及び変換(R、T)によって定義され得る。
視覚タスクは、注視点のシーケンス、すなわち、シーン内で見られる点を含み得る。任意選択的に、各点が見られる時点を、視覚タスクに含み得る。
したがって、プロセッサ14は、視覚タスクの実行中のそれぞれの時点において、最初の着用者の少なくとも1つの眼の注視点の位置を判定するように構成され得る。
そうするために、プロセッサ14は、例えば、以下の動作を実行することができる。
1)右眼に対して眼の回転中心(CRE)の位置を計算する。
2)右レンズの位置を計算する。
3)右眼の視線方向において、右レンズを通して、右眼のCREから生じるレイトレーシングを実行して、出現する光線を取得する。
4)出現する光線とシーンの全てのオブジェクトとの間の交差(又は最も近い距離)を計算する。次いで、交点が出現する光線の方向に沿ってレンズに最も近いオブジェクトが、右眼に対して注視点を与える。
5)左眼に対してステップ1~4を繰り返す。
6)任意選択的に、左眼及び右眼に対して得られた注視点の平均を判定する。
変形例として、視覚タスクの実行中のそれぞれの時点において、最初の着用者の少なくとも1つの眼によって見られている点の位置の測定値の、時間の関数としての代表的なデータD(t)が、デバイス10の入力12によって取得され得る。時間の関数としてのそのような代表的なデータD(t)に基づいて、視覚タスクの実行中の任意の時点において、見られている点の位置を取得するために、補間が行われてもよい。
代表的なデータD(t)が最初の着用者の直接測定値から生じる実施形態では、そのような測定値は、視覚タスク中に着用者に頭部装着デバイスを提供することによって取得され得る。頭部装着デバイスは、頭部の所定の基準フレーム、及び最初の着用者の視線方向において、シーンの3次元スキャンを提供することができる。頭部装着デバイスは、フレーム、そのフレームに取り付けられた3次元カメラ、及びアイトラッカを備えてもよい。したがって、頭部基準フレーム内のオブジェクト点の位置、及び頭部基準フレーム内の視線方向を取得することができ、その情報から、頭部基準フレーム内の注視点の位置を、図2を参照して以下に詳述するようにレイトレーシングによって計算することができ、次いで、対象のパラメータIを判定することができる。
プロセッサ14は、例えばシミュレーションによって、見られている点から対象のパラメータIを判定するように構成され得る。
例えば、対象のパラメータIとして、左眼及び右眼の単眼視力損失は、特許文献3に記載されているような視力モデルを使用することによって判定することができ、又は、両眼視力損失は、左眼及び右眼の計算された単眼視力損失(acu_loss_left、acu_loss_right)、並びに例えばacu_loss_bino=(acu_loss_left+acu_loss_right(1/b)(ここで、b=7.3)などの両眼合計関数(acu_loss_bino)を使用することによって、判定することができる。
図2に示されるように、左眼科用レンズ20及び右眼科用レンズ22がそれぞれ左眼及び右眼の前に位置決めされる場合、注視点を判定することを必ずしも必要としない対象のパラメータIの別の例は、歪みである。
そのような実施形態では、プロセッサ14は、それぞれの左眼及び右眼の視線方向に対応する左光線と右光線との間の交差からの歪みを判定するように構成され得る。
すなわち、歪みは、以下のように、ステレオ歪み指数に従って判定され得る。
1)オブジェクト点Oを考慮する。
2)左眼の瞳孔中心、PupilCenter_leftから、Oまでレイトレーシングを実行する。PupilCenter_leftから出現する光線は、Ray_leftである。
3)右眼の瞳孔中心、PupilCenter_rightから、Oまでレイトレーシングを実行する。PupilCenter_rightから出る光線は、Ray_rightである。
4)Ray_leftとRay_rightとの交点として位置Qを計算し、又は交点が存在しない場合は、2本の線Ray_leftとRay_rightとの間の最も近い点として位置Qを計算する。
5)Qは、いわゆる「ステレオ指数」による、Oの知覚位置である。
対象のパラメータIが歪みである2つの例が以下で説明され、この場合、階段上り視覚タスク中にそれらの視覚機器によって生成される歪みの関数として、所与の視覚機器の性能Pを評価することが望ましい。
実施例1
第1の視覚機器が考慮される。図3に示されるように、第1の視覚機器を着用している着用者が階段上り視覚タスクを実行している試験が定義される。図3は、モデル化された着用者の頭部30、眼32、及び体幹34を示している。
視覚タスクの間、着用者の視線方向、頭部位置、及び体幹位置が記録される。
次いで、注視点36が、上述したように、時間の関数として計算され得る。
歪みモデルを使用して、時間の関数として階段の知覚位置38を計算することができ、これは図3に示されている。
実施例2
第1の視覚機器とは異なる第2の視覚機器が考慮される。図4に示されるように、第2の視覚機器を着用している着用者が同じ階段上り視覚タスクを実行している、実施例1と同じ試験が定義される。図4はまた、モデル化された着用者の頭部30、眼32、及び体幹34を示している。実施例1と同じ試験データが使用される。
ターゲット着用者による視覚タスクの仮想的な実行は、記録された頭部位置、記録された体幹位置、計算された注視点46、及び第2の視覚機器のパラメータを使用してモデル化することができる。
第2の視覚機器は、第1の視覚機器と同様に、レンズ、材料、コーティング、又は透過率のジオメトリ及び位置によってモデル化することができる。第2の視覚機器は、例えば、異なる設計(レンズの上の度数及び非点収差の分布)を有し得るか、又は処方が変更され得るか、又は位置決め及び/若しくはコーティング及び/若しくは透過率が異なり得る。
計算された注視点46を見るための第2の視覚機器を通る着用者の視線方向を計算することができる。
例えば、頭部位置及び注視点は、第1の視覚機器と同じであると想定され得る。第2の視覚機器による視線方向は、第2の視覚機器を介して、眼の回転中心から注視点までのレイトレーシングによって取得することができる。
次いで、時間の関数として階段の知覚位置48によって図4に示されている、第2の視覚機器を通る階段の歪みなどの、対象のパラメータIを計算することができる。
図3及び図4の階段の知覚位置38と知覚位置48とを比較することによって、第1の視覚機器よりも第2の視覚機器の方が歪みが小さいことがわかり得る。
ターゲット視覚機器が(実施例1及び2などの)最初の視覚機器と異なるか、又はターゲット着用者が最初の着用者と異なる特定の実施形態では、プロセッサ14は、ターゲット視覚機器を用いた視覚タスクの仮想的な実行の際に、少なくとも見られている点からターゲット視覚機器のターゲット着用者の頭部位置を判定するように更に構成されてもよく、プロセッサ14は、最初の視覚機器の最初の着用者の頭部位置の代わりに、ターゲット視覚機器のターゲット着用者の頭部の判定された位置を使用するように構成されている。
その実施形態では、プロセッサ14は、最初の視覚機器の最初の着用者の視力からターゲット着用者の頭部位置を判定するように構成され得る。
その実施形態では、所与の視覚タスクに対するターゲット視覚機器の性能Pは、ターゲット視覚機器を用いて対象のパラメータIの関数として評価され得る。対象のパラメータIは、例えば以下のように判定され得る。
1)前述のように、各時点における注視点を計算する。ターゲット視覚機器を使用する場合と最初の視覚機器を使用する場合との注視点は同様であると想定され得る。
2)前述のように、注視点が見られた視力を判定する。ターゲット視覚機器を使用する場合と最初の視覚機器を使用する場合との視力は同様であると想定され得る。
3)複数の可能な頭部の姿勢に対応する、例えば、判定された視力に対する視力の時間的偏差の関数として、判定された視力を用いて、ターゲット視覚機器を使用して、計算された各注視点を見るための頭部の姿勢を計算する。
4)ターゲット視覚機器を用いて、対象のパラメータIを判定する。
図5のフロー図は、少なくとも1つの視覚タスクのための視覚機器の性能を評価する本発明による方法のステップを示している。
例えば、本開示によるデバイスとの関係で上述したように、第1のステップ50には、時間の関数として、シーン内で少なくとも1つの視覚タスクを実行している最初の視覚機器の最初の着用者に関連する少なくとも1つのパラメータの時間の関数としての測定値の代表的なデータD(t)を取得することを含む。
例えば、本開示によるデバイスとの関係で上述したように、ステップ50の前に、又はステップ50と同時に、又はステップ50の後に実行され得る別のステップ52には、少なくとも1つの視覚タスクが実行されるシーンのモデルMs及びターゲット着用者のモデルMwを取得することを含む。
例えば、本開示によるデバイスとの関係で上述したように、続くステップ54には、シーンのモデルMs及び着用者のモデルMwを使用することによって、及び時間の関数としての代表的なデータD(t)を、シーンのモデルMsで視覚タスクを実行する際にターゲット視覚機器を有するターゲット着用者のモデルMwに適用することによって、ターゲット視覚機器を用いて視覚タスクを仮想的に実行することを含む。
例えば、本開示によるデバイスに関連して上述したように、次いで、ステップ56には、仮想的な実行に基づいて、少なくとも1つの対象のパラメータIを判定することを含む。
最後のステップ58には、ターゲット視覚機器がターゲット着用者にどの程度適切であるかを判定するように、少なくとも1つの対象のパラメータIを提供することを含む。例えば、本開示によるデバイスに関連して上述したように、そのような判定は、少なくとも1つの対象のパラメータIの関数としてターゲット視覚機器の性能を評価することによって行われる。
特定の実施形態では、本発明による方法は、コンピュータに実装される。すなわち、コンピュータプログラム製品は、プロセッサにアクセス可能であり、且つプロセッサによって実行されると、プロセッサに、上述の少なくとも1つの視覚タスクに対するターゲット視覚機器の性能を評価するための方法のステップを実行させる、1つ以上の命令シーケンスを含む。
シーンのモデルMs及びターゲット着用者のモデルMwはそれぞれ、例えば、クラウド内に遠隔的に、又はコンピュータ内に局所的に構築され得る。
命令シーケンスは、クラウド内の所定位置を含む、1つ又はいくつかのコンピュータ読取可能記憶媒体に記憶されてもよい。
代表的な方法及びデバイスが本明細書で詳細に説明されているが、当業者であれば、添付の特許請求の範囲によって説明及び定義されているものの範囲から逸脱することなく、様々な置換形態及び修正形態がなされてもよいことを認識するであろう。

Claims (15)

  1. 少なくとも1つの視覚タスクのためのターゲット視覚機器の性能を評価するデバイスであって、
    少なくとも1つの入力であって、
    シーン内で前記少なくとも1つの視覚タスクを実行している最初の視覚機器の最初の着用者に関連する少なくとも1つのパラメータの測定時間の関数としての代表的なデータを取得し、
    前記少なくとも1つの視覚タスクが実行される前記シーンモデルを取得し、
    ターゲット着用者モデルを取得する、ように適合された、少なくとも1つの入力と、
    少なくとも1つのプロセッサであって、
    前記シーンモデル及び前記ターゲット着用者モデルを使用することによって、及び前記シーンモデルで前記視覚タスクを実行する際に、時間の関数としての前記代表的なデータを、前記ターゲット視覚機器を有する前記ターゲット着用者モデルに適用することによって、前記ターゲット視覚機器を用いて前記少なくとも1つの視覚タスクを仮想的に実行し、
    前記仮想的な実行に基づいて、少なくとも1つの対象のパラメータを判定し、
    前記少なくとも1つの対象のパラメータの関数として前記ターゲット視覚機器の前記性能を評価することによって、前記ターゲット視覚機器がターゲット着用者にどの程度適切であるかを判定するように、前記少なくとも1つの対象のパラメータを提供するように構成された、少なくとも1つのプロセッサと、
    を備える、デバイス。
  2. 前記代表的なデータが、時間の関数としての、少なくとも1つの視線方向、及び前記最初の着用者の頭部位置のうちの少なくとも1つに関係している、請求項1に記載のデバイス。
  3. 前記代表的なデータが、時間の関数としての前記最初の着用者の体幹位置に関係している、請求項2に記載のデバイス。
  4. 前記少なくとも1つの視覚タスクを仮想的に実行する際に、前記プロセッサが、前記最初の着用者の前記少なくとも1つの視線方向、前記頭部位置、及び前記体幹位置のうちの少なくとも1つを、時間の関数として、前記ターゲット着用者に適用するように構成されている、請求項2又は3に記載のデバイス。
  5. 前記シーンの前記モデルが、少なくとも1つのジオメトリックパラメータ、及び前記シーン内のオブジェクトの位置によって定義される少なくとも1つの前記オブジェクトを含む、請求項1~4のいずれか一項に記載のデバイス。
  6. 前記ターゲット着用者の前記モデルが、頭部、前記頭部に対して移動可能な少なくとも1つの眼、及び前記少なくとも1つの眼と協働する前記ターゲット視覚機器の少なくとも1つの眼科用レンズを含む、請求項1~5のいずれか一項に記載のデバイス。
  7. 前記ターゲット着用者の前記モデルが、モデル化された体幹を更に含む、請求項6に記載のデバイス。
  8. 前記少なくとも1つのプロセッサが、前記少なくとも1つの視覚タスクの実行中のそれぞれの時点において、前記最初の着用者の少なくとも1つの眼によって見られている点の位置を判定するように更に構成されている、請求項1~7のいずれか一項に記載のデバイス。
  9. 前記代表的なデータが、前記少なくとも1つの視覚タスクの実行中のそれぞれの時点において、前記最初の着用者の少なくとも1つの眼によって見られている点の位置に関係している、請求項1~7のいずれか一項に記載のデバイス。
  10. 前記少なくとも1つのプロセッサが、見られている前記点から前記少なくとも1つの対象のパラメータを判定するように構成されている、請求項8又は9に記載のデバイス。
  11. 前記ターゲット視覚機器が前記最初の視覚機器と異なるか、又は前記ターゲット着用者が前記最初の着用者と異なり、前記少なくとも1つのプロセッサが、少なくとも見られている前記点から前記ターゲット視覚機器の前記ターゲット着用者の頭部位置を判定するように更に構成されており、前記仮想的な実行の際に、前記少なくとも1つのプロセッサが、前記最初の視覚機器の前記最初の着用者の前記頭部位置の代わりに、前記ターゲット視覚機器の前記ターゲット着用者の頭部の前記判定された位置を使用するように構成されている、請求項10に記載のデバイス。
  12. 前記少なくとも1つのプロセッサが、前記最初の視覚機器の前記最初の着用者の視力から前記ターゲット着用者の頭部の前記位置を判定するように構成されている、請求項11に記載のデバイス。
  13. 前記少なくとも1つの対象のパラメータが、前記ターゲット着用者の左眼及び/又は右眼の単眼視力、前記ターゲット着用者の左眼及び/又は右眼の単眼視力損失、両眼視力、両眼視力損失、調節レベル、オプティカルフロー、歪み、両眼離反運動状態、を含むグループに関係している、請求項1~12のいずれか一項に記載のデバイス。
  14. 少なくとも1つの視覚タスクのためのターゲット視覚機器の性能を評価する方法であって、
    シーン内で前記少なくとも1つの視覚タスクを実行している最初の視覚機器の最初の着用者に関連する少なくとも1つのパラメータの測定時間の関数としての代表的なデータを取得することと、
    前記少なくとも1つの視覚タスクが実行される前記シーンモデルを取得することと、
    ターゲット着用者モデルを取得することと、
    少なくとも1つのプロセッサにより、前記シーンモデル及び前記ターゲット着用者モデルを使用することによって、及び前記シーンモデルで前記視覚タスクを実行する際に、時間の関数としての前記代表的なデータを、前記ターゲット視覚機器を有する前記ターゲット着用者モデルに適用することによって、前記ターゲット視覚機器を用いて前記少なくとも1つの視覚タスクを仮想的に実行することと、
    少なくとも1つのプロセッサによって、前記仮想的な実行に基づいて、少なくとも1つの対象のパラメータを判定することと、
    前記少なくとも1つの対象のパラメータの関数として前記ターゲット視覚機器の前記性能を評価することによって、前記ターゲット視覚機器がターゲット着用者にどの程度適切であるかを判定するように、前記少なくとも1つの対象のパラメータを提供することと、
    を含む、方法。
  15. 少なくとも1つの視覚タスクのためのターゲット視覚機器の性能を評価するためのコンピュータプログラム製品であって、プロセッサにアクセス可能な1つ以上の命令シーケンスを含み、前記1つ以上の命令シーケンスは前記プロセッサによって実行されると、前記プロセッサに、
    シーン内で前記少なくとも1つの視覚タスクを実行している最初の視覚機器の最初の着用者の少なくとも1つのパラメータの測定時間の関数としての代表的なデータを取得させ、
    前記少なくとも1つの視覚タスクが実行される前記シーンモデルを取得させ、
    ターゲット着用者モデルを取得させ、
    前記シーンモデル及び前記ターゲット着用者モデルを使用することによって、及び前記シーンモデルで前記視覚タスクを実行する際に、時間の関数としての前記代表的なデータを、前記ターゲット視覚機器を有する前記ターゲット着用者モデルに適用することによって、前記ターゲット視覚機器を用いて前記少なくとも1つの視覚タスクを仮想的に実行させ、
    前記仮想的な実行に基づいて、少なくとも1つの対象のパラメータを判定させ、
    前記少なくとも1つの対象のパラメータの関数として前記ターゲット視覚機器の前記性能を評価することによって、前記ターゲット視覚機器がターゲット着用者にどの程度適切であるかを判定するように、前記少なくとも1つの対象のパラメータを提供させる、
    コンピュータプログラム製品。
JP2021556800A 2019-03-22 2020-03-19 視覚タスクのための視覚機器の性能を評価するデバイス及び方法 Pending JP2022525962A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP19305360 2019-03-22
EP19305360.0 2019-03-22
PCT/EP2020/057643 WO2020193370A1 (en) 2019-03-22 2020-03-19 A device and method for evaluating a performance of a visual equipment for a visual task

Publications (1)

Publication Number Publication Date
JP2022525962A true JP2022525962A (ja) 2022-05-20

Family

ID=66049139

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021556800A Pending JP2022525962A (ja) 2019-03-22 2020-03-19 視覚タスクのための視覚機器の性能を評価するデバイス及び方法

Country Status (8)

Country Link
US (1) US20220175240A1 (ja)
EP (1) EP3941331A1 (ja)
JP (1) JP2022525962A (ja)
KR (1) KR102641916B1 (ja)
CN (1) CN113613547A (ja)
AU (1) AU2020247193A1 (ja)
BR (1) BR112021018234A2 (ja)
WO (1) WO2020193370A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4043946A1 (en) 2021-02-12 2022-08-17 Essilor International A device and method for automatically evaluating visual equipment
EP4044081A1 (en) 2021-02-12 2022-08-17 Essilor International A device and method for evaluating a performance of a visual equipment
EP4198616A1 (en) * 2021-12-17 2023-06-21 Essilor International A method and device for determining an optimized visual equipment

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPQ591800A0 (en) * 2000-02-25 2000-03-23 Sola International Holdings Ltd System for prescribing and/or dispensing ophthalmic lenses
FR2898193B1 (fr) * 2006-03-01 2008-05-09 Essilor Int Procede de determination d'une lentille ophtalmique progressive.
FR2898194B1 (fr) * 2006-03-01 2008-05-02 Essilor Int Procede de determination d'une lentille ophtalmique progressive.
JP5141525B2 (ja) * 2008-03-06 2013-02-13 セイコーエプソン株式会社 シミュレーション装置
KR101773736B1 (ko) * 2008-09-24 2017-08-31 도카이 옵티컬 컴퍼니 리미티드 안경 렌즈의 설계 방법
JP6535899B2 (ja) * 2013-10-08 2019-07-03 東海光学株式会社 眼鏡レンズの評価方法及びレンズを通して物体を目視する際の被験者の見え方の特性の算出方法
FR3012952B1 (fr) * 2013-11-08 2015-11-06 Essilor Int Methode de determination d'au moins un parametre de conception optique d'une lentille ophtalmique progressive
CN106030382B (zh) 2014-02-18 2021-01-19 依视路国际公司 用于优化佩戴者的光学镜片设备的方法
EP3037869A1 (en) * 2014-12-23 2016-06-29 Essilor International (Compagnie Generale D'optique) A method for comparing a first ophthalmic lens with a second ophthalmic lens
BR112018007140B1 (pt) 2015-10-15 2023-02-23 Essilor International Método implementado por computador para determinar uma performance tridimensional de uma lente oftálmica, método implementado por computador de cálculo de uma lente oftálmica e meio legível por computador
CN108474970B (zh) * 2016-03-15 2020-04-10 依视路国际公司 用于确定适配于运动参数的眼科镜片的方法
CN109222970A (zh) * 2018-07-09 2019-01-18 司法鉴定科学研究院 视力客观评定的设备及视觉诱发电位的检测系统与方法

Also Published As

Publication number Publication date
BR112021018234A2 (pt) 2022-02-08
CN113613547A (zh) 2021-11-05
KR20210128467A (ko) 2021-10-26
AU2020247193A1 (en) 2021-09-02
KR102641916B1 (ko) 2024-02-29
EP3941331A1 (en) 2022-01-26
WO2020193370A1 (en) 2020-10-01
US20220175240A1 (en) 2022-06-09

Similar Documents

Publication Publication Date Title
JP7405800B2 (ja) 眼画像の収集、選択および組み合わせ
JP7443332B2 (ja) ユーザカテゴリ化による多深度平面ディスプレイシステムのための深度平面選択
JP7291708B2 (ja) ディスプレイとユーザの眼との間の位置合わせを決定するためのディスプレイシステムおよび方法
JP2021511723A (ja) 眼の回転中心決定、深度平面選択、およびディスプレイシステム内のレンダリングカメラ位置付け
JP2022525962A (ja) 視覚タスクのための視覚機器の性能を評価するデバイス及び方法
CN111771231A (zh) 用于虚拟化身的匹配网格
JP2012524293A5 (ja)
JP7434353B2 (ja) 視覚タスクのための視覚機器の性能を評価する装置及び方法
JP2024069461A (ja) 左および右ディスプレイとユーザの眼との間の垂直整合を決定するためのディスプレイシステムおよび方法
JP2022540675A (ja) 1つ以上の眼追跡カメラを用いた眼回転中心の決定
JP2023534213A (ja) 非球面角膜モデルを使用した眼追跡
JP6368907B2 (ja) レンズの光学性能評価方法、設計方法及びレンズの光学性能表示方法
JP7241702B2 (ja) 画像作成装置、眼鏡レンズ選択システム、画像作成方法およびプログラム
WO2022171377A1 (en) A device and method for automatically evaluating visual equipment
JP2024004042A (ja) シミュレーション装置、データ送信装置、モデル生成装置、事前データ生成装置、画像生成装置、シミュレーション方法、及びシミュレーションプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240426