JP2022525962A - 視覚タスクのための視覚機器の性能を評価するデバイス及び方法 - Google Patents
視覚タスクのための視覚機器の性能を評価するデバイス及び方法 Download PDFInfo
- Publication number
- JP2022525962A JP2022525962A JP2021556800A JP2021556800A JP2022525962A JP 2022525962 A JP2022525962 A JP 2022525962A JP 2021556800 A JP2021556800 A JP 2021556800A JP 2021556800 A JP2021556800 A JP 2021556800A JP 2022525962 A JP2022525962 A JP 2022525962A
- Authority
- JP
- Japan
- Prior art keywords
- target
- visual
- wearer
- model
- task
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 209
- 238000000034 method Methods 0.000 title claims description 21
- 238000005259 measurement Methods 0.000 claims abstract description 14
- 230000004304 visual acuity Effects 0.000 claims description 21
- 230000033001 locomotion Effects 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 7
- 230000003287 optical effect Effects 0.000 claims description 6
- 230000004438 eyesight Effects 0.000 claims description 3
- 230000004308 accommodation Effects 0.000 claims 1
- 210000003128 head Anatomy 0.000 description 38
- 230000009194 climbing Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 230000036544 posture Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 4
- 230000004393 visual impairment Effects 0.000 description 4
- 239000011248 coating agent Substances 0.000 description 3
- 238000000576 coating method Methods 0.000 description 3
- 230000000875 corresponding effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 238000002834 transmittance Methods 0.000 description 3
- 201000004569 Blindness Diseases 0.000 description 2
- 230000007177 brain activity Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 206010020675 Hypermetropia Diseases 0.000 description 1
- 206010047571 Visual impairment Diseases 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 201000009310 astigmatism Diseases 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000004418 eye rotation Effects 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 230000004305 hyperopia Effects 0.000 description 1
- 201000006318 hyperopia Diseases 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 208000018769 loss of vision Diseases 0.000 description 1
- 231100000864 loss of vision Toxicity 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 208000001491 myopia Diseases 0.000 description 1
- 230000004379 myopia Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000001144 postural effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
- 208000029257 vision disease Diseases 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0025—Operational features thereof characterised by electronic signal processing, e.g. eye models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0041—Operational features thereof characterised by display arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/103—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Veterinary Medicine (AREA)
- Ophthalmology & Optometry (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Biophysics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Human Computer Interaction (AREA)
- Remote Sensing (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Eye Examination Apparatus (AREA)
- Eyeglasses (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
少なくとも1つの入力であって、
シーン内で少なくとも1つの視覚タスクを実行している最初の視覚機器の最初の着用者に関連する少なくとも1つのパラメータの測定時間の関数としての代表的なデータを取得し、
少なくとも1つの視覚タスクが実行されるシーンのモデルを取得し、
ターゲット着用者モデルを取得する、ように適合された、少なくとも1つの入力と、
少なくとも1つのプロセッサであって、
シーンモデル及びターゲット着用者モデルを使用することによって、及びシーンモデルで視覚タスクを実行する際に、時間の関数としての代表的なデータを、ターゲット視覚機器を有するターゲット着用者モデルに適用することによって、ターゲット視覚機器を用いて少なくとも1つの視覚タスクを仮想的に実行し、
仮想的な実行に基づいて、少なくとも1つの対象のパラメータを判定し、
少なくとも1つの対象のパラメータの関数としてターゲット視覚機器の性能を評価することによって、ターゲット視覚機器がターゲット着用者にどの程度適切であるかを判定するように、少なくとも1つの対象のパラメータを提供する、ように構成された、少なくとも1つのプロセッサと、
を備える。
シーン内で少なくとも1つの視覚タスクを実行している最初の視覚機器の最初の着用者に関連する少なくとも1つのパラメータの測定時間の関数としての代表的なデータを取得することと、
少なくとも1つの視覚タスクが実行されるシーンのモデルを取得することと、
ターゲット着用者モデルを取得することと、
少なくとも1つのプロセッサにより、シーンモデル及びターゲット着用者モデルを使用することによって、及びシーンモデルで視覚タスクを実行する際に、時間の関数としての代表的なデータを、ターゲット視覚機器を有するターゲット着用者モデルに適用することによって、ターゲット視覚機器を用いて少なくとも1つの視覚タスクを仮想的に実行することと、
少なくとも1つのプロセッサによって、仮想的な実行に基づいて、少なくとも1つの対象のパラメータを判定することと、
少なくとも1つの対象のパラメータの関数としてターゲット視覚機器の性能を評価することによって、ターゲット視覚機器がターゲット着用者にどの程度適切であるかを判定するように、少なくとも1つの対象のパラメータを提供することと、
を含む。
シーン内で少なくとも1つの視覚タスクを実行している最初の視覚機器の最初の着用者に関連する少なくとも1つのパラメータの測定時間の関数としての代表的なデータを取得させ、
少なくとも1つの視覚タスクが実行されるシーンのモデルを取得させ、
ターゲット着用者モデルを取得させ、
シーンモデル及びターゲット着用者モデルを使用することによって、及びシーンモデルで視覚タスクを実行する際に、時間の関数としての代表的なデータを、ターゲット視覚機器を有するターゲット着用者モデルに適用することによって、ターゲット視覚機器を用いて少なくとも1つの視覚タスクを仮想的に実行させ、
仮想的な実行に基づいて、少なくとも1つの対象のパラメータを判定させ、
少なくとも1つの対象のパラメータの関数としてターゲット視覚機器の性能を評価することによって、ターゲット視覚機器がターゲット着用者にどの程度適切であるかを判定するように、少なくとも1つの対象のパラメータを提供させる。
1)最初の頭部位置を考慮する。
2)既知の視線方向を適用し、レンズを通してレイトレーシングを実行する。
3)2つの出現する光線間の交点を計算するか、又は交差しない場合は、2つの出現する光線間の最も近い点を計算する。
4)出現する光線の交点と注視点との間の距離を計算する。
5)例えば局所最適化法によって、出現する光線の交点と注視点との間の距離を最小化する頭部位置を見つける。
1)右眼に対して眼の回転中心(CRE)の位置を計算する。
2)右レンズの位置を計算する。
3)右眼の視線方向において、右レンズを通して、右眼のCREから生じるレイトレーシングを実行して、出現する光線を取得する。
4)出現する光線とシーンの全てのオブジェクトとの間の交差(又は最も近い距離)を計算する。次いで、交点が出現する光線の方向に沿ってレンズに最も近いオブジェクトが、右眼に対して注視点を与える。
5)左眼に対してステップ1~4を繰り返す。
6)任意選択的に、左眼及び右眼に対して得られた注視点の平均を判定する。
1)オブジェクト点Oを考慮する。
2)左眼の瞳孔中心、PupilCenter_leftから、Oまでレイトレーシングを実行する。PupilCenter_leftから出現する光線は、Ray_leftである。
3)右眼の瞳孔中心、PupilCenter_rightから、Oまでレイトレーシングを実行する。PupilCenter_rightから出る光線は、Ray_rightである。
4)Ray_leftとRay_rightとの交点として位置Qを計算し、又は交点が存在しない場合は、2本の線Ray_leftとRay_rightとの間の最も近い点として位置Qを計算する。
5)Qは、いわゆる「ステレオ指数」による、Oの知覚位置である。
第1の視覚機器が考慮される。図3に示されるように、第1の視覚機器を着用している着用者が階段上り視覚タスクを実行している試験が定義される。図3は、モデル化された着用者の頭部30、眼32、及び体幹34を示している。
第1の視覚機器とは異なる第2の視覚機器が考慮される。図4に示されるように、第2の視覚機器を着用している着用者が同じ階段上り視覚タスクを実行している、実施例1と同じ試験が定義される。図4はまた、モデル化された着用者の頭部30、眼32、及び体幹34を示している。実施例1と同じ試験データが使用される。
1)前述のように、各時点における注視点を計算する。ターゲット視覚機器を使用する場合と最初の視覚機器を使用する場合との注視点は同様であると想定され得る。
2)前述のように、注視点が見られた視力を判定する。ターゲット視覚機器を使用する場合と最初の視覚機器を使用する場合との視力は同様であると想定され得る。
3)複数の可能な頭部の姿勢に対応する、例えば、判定された視力に対する視力の時間的偏差の関数として、判定された視力を用いて、ターゲット視覚機器を使用して、計算された各注視点を見るための頭部の姿勢を計算する。
4)ターゲット視覚機器を用いて、対象のパラメータIを判定する。
Claims (15)
- 少なくとも1つの視覚タスクのためのターゲット視覚機器の性能を評価するデバイスであって、
少なくとも1つの入力であって、
シーン内で前記少なくとも1つの視覚タスクを実行している最初の視覚機器の最初の着用者に関連する少なくとも1つのパラメータの測定時間の関数としての代表的なデータを取得し、
前記少なくとも1つの視覚タスクが実行される前記シーンモデルを取得し、
ターゲット着用者モデルを取得する、ように適合された、少なくとも1つの入力と、
少なくとも1つのプロセッサであって、
前記シーンモデル及び前記ターゲット着用者モデルを使用することによって、及び前記シーンモデルで前記視覚タスクを実行する際に、時間の関数としての前記代表的なデータを、前記ターゲット視覚機器を有する前記ターゲット着用者モデルに適用することによって、前記ターゲット視覚機器を用いて前記少なくとも1つの視覚タスクを仮想的に実行し、
前記仮想的な実行に基づいて、少なくとも1つの対象のパラメータを判定し、
前記少なくとも1つの対象のパラメータの関数として前記ターゲット視覚機器の前記性能を評価することによって、前記ターゲット視覚機器がターゲット着用者にどの程度適切であるかを判定するように、前記少なくとも1つの対象のパラメータを提供するように構成された、少なくとも1つのプロセッサと、
を備える、デバイス。 - 前記代表的なデータが、時間の関数としての、少なくとも1つの視線方向、及び前記最初の着用者の頭部位置のうちの少なくとも1つに関係している、請求項1に記載のデバイス。
- 前記代表的なデータが、時間の関数としての前記最初の着用者の体幹位置に関係している、請求項2に記載のデバイス。
- 前記少なくとも1つの視覚タスクを仮想的に実行する際に、前記プロセッサが、前記最初の着用者の前記少なくとも1つの視線方向、前記頭部位置、及び前記体幹位置のうちの少なくとも1つを、時間の関数として、前記ターゲット着用者に適用するように構成されている、請求項2又は3に記載のデバイス。
- 前記シーンの前記モデルが、少なくとも1つのジオメトリックパラメータ、及び前記シーン内のオブジェクトの位置によって定義される少なくとも1つの前記オブジェクトを含む、請求項1~4のいずれか一項に記載のデバイス。
- 前記ターゲット着用者の前記モデルが、頭部、前記頭部に対して移動可能な少なくとも1つの眼、及び前記少なくとも1つの眼と協働する前記ターゲット視覚機器の少なくとも1つの眼科用レンズを含む、請求項1~5のいずれか一項に記載のデバイス。
- 前記ターゲット着用者の前記モデルが、モデル化された体幹を更に含む、請求項6に記載のデバイス。
- 前記少なくとも1つのプロセッサが、前記少なくとも1つの視覚タスクの実行中のそれぞれの時点において、前記最初の着用者の少なくとも1つの眼によって見られている点の位置を判定するように更に構成されている、請求項1~7のいずれか一項に記載のデバイス。
- 前記代表的なデータが、前記少なくとも1つの視覚タスクの実行中のそれぞれの時点において、前記最初の着用者の少なくとも1つの眼によって見られている点の位置に関係している、請求項1~7のいずれか一項に記載のデバイス。
- 前記少なくとも1つのプロセッサが、見られている前記点から前記少なくとも1つの対象のパラメータを判定するように構成されている、請求項8又は9に記載のデバイス。
- 前記ターゲット視覚機器が前記最初の視覚機器と異なるか、又は前記ターゲット着用者が前記最初の着用者と異なり、前記少なくとも1つのプロセッサが、少なくとも見られている前記点から前記ターゲット視覚機器の前記ターゲット着用者の頭部位置を判定するように更に構成されており、前記仮想的な実行の際に、前記少なくとも1つのプロセッサが、前記最初の視覚機器の前記最初の着用者の前記頭部位置の代わりに、前記ターゲット視覚機器の前記ターゲット着用者の頭部の前記判定された位置を使用するように構成されている、請求項10に記載のデバイス。
- 前記少なくとも1つのプロセッサが、前記最初の視覚機器の前記最初の着用者の視力から前記ターゲット着用者の頭部の前記位置を判定するように構成されている、請求項11に記載のデバイス。
- 前記少なくとも1つの対象のパラメータが、前記ターゲット着用者の左眼及び/又は右眼の単眼視力、前記ターゲット着用者の左眼及び/又は右眼の単眼視力損失、両眼視力、両眼視力損失、調節レベル、オプティカルフロー、歪み、両眼離反運動状態、を含むグループに関係している、請求項1~12のいずれか一項に記載のデバイス。
- 少なくとも1つの視覚タスクのためのターゲット視覚機器の性能を評価する方法であって、
シーン内で前記少なくとも1つの視覚タスクを実行している最初の視覚機器の最初の着用者に関連する少なくとも1つのパラメータの測定時間の関数としての代表的なデータを取得することと、
前記少なくとも1つの視覚タスクが実行される前記シーンモデルを取得することと、
ターゲット着用者モデルを取得することと、
少なくとも1つのプロセッサにより、前記シーンモデル及び前記ターゲット着用者モデルを使用することによって、及び前記シーンモデルで前記視覚タスクを実行する際に、時間の関数としての前記代表的なデータを、前記ターゲット視覚機器を有する前記ターゲット着用者モデルに適用することによって、前記ターゲット視覚機器を用いて前記少なくとも1つの視覚タスクを仮想的に実行することと、
少なくとも1つのプロセッサによって、前記仮想的な実行に基づいて、少なくとも1つの対象のパラメータを判定することと、
前記少なくとも1つの対象のパラメータの関数として前記ターゲット視覚機器の前記性能を評価することによって、前記ターゲット視覚機器がターゲット着用者にどの程度適切であるかを判定するように、前記少なくとも1つの対象のパラメータを提供することと、
を含む、方法。 - 少なくとも1つの視覚タスクのためのターゲット視覚機器の性能を評価するためのコンピュータプログラム製品であって、プロセッサにアクセス可能な1つ以上の命令シーケンスを含み、前記1つ以上の命令シーケンスは前記プロセッサによって実行されると、前記プロセッサに、
シーン内で前記少なくとも1つの視覚タスクを実行している最初の視覚機器の最初の着用者の少なくとも1つのパラメータの測定時間の関数としての代表的なデータを取得させ、
前記少なくとも1つの視覚タスクが実行される前記シーンモデルを取得させ、
ターゲット着用者モデルを取得させ、
前記シーンモデル及び前記ターゲット着用者モデルを使用することによって、及び前記シーンモデルで前記視覚タスクを実行する際に、時間の関数としての前記代表的なデータを、前記ターゲット視覚機器を有する前記ターゲット着用者モデルに適用することによって、前記ターゲット視覚機器を用いて前記少なくとも1つの視覚タスクを仮想的に実行させ、
前記仮想的な実行に基づいて、少なくとも1つの対象のパラメータを判定させ、
前記少なくとも1つの対象のパラメータの関数として前記ターゲット視覚機器の前記性能を評価することによって、前記ターゲット視覚機器がターゲット着用者にどの程度適切であるかを判定するように、前記少なくとも1つの対象のパラメータを提供させる、
コンピュータプログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP19305360 | 2019-03-22 | ||
EP19305360.0 | 2019-03-22 | ||
PCT/EP2020/057643 WO2020193370A1 (en) | 2019-03-22 | 2020-03-19 | A device and method for evaluating a performance of a visual equipment for a visual task |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022525962A true JP2022525962A (ja) | 2022-05-20 |
Family
ID=66049139
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021556800A Pending JP2022525962A (ja) | 2019-03-22 | 2020-03-19 | 視覚タスクのための視覚機器の性能を評価するデバイス及び方法 |
Country Status (8)
Country | Link |
---|---|
US (1) | US20220175240A1 (ja) |
EP (1) | EP3941331A1 (ja) |
JP (1) | JP2022525962A (ja) |
KR (1) | KR102641916B1 (ja) |
CN (1) | CN113613547A (ja) |
AU (1) | AU2020247193A1 (ja) |
BR (1) | BR112021018234A2 (ja) |
WO (1) | WO2020193370A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4043946A1 (en) | 2021-02-12 | 2022-08-17 | Essilor International | A device and method for automatically evaluating visual equipment |
EP4044081A1 (en) | 2021-02-12 | 2022-08-17 | Essilor International | A device and method for evaluating a performance of a visual equipment |
EP4198616A1 (en) * | 2021-12-17 | 2023-06-21 | Essilor International | A method and device for determining an optimized visual equipment |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AUPQ591800A0 (en) * | 2000-02-25 | 2000-03-23 | Sola International Holdings Ltd | System for prescribing and/or dispensing ophthalmic lenses |
FR2898193B1 (fr) * | 2006-03-01 | 2008-05-09 | Essilor Int | Procede de determination d'une lentille ophtalmique progressive. |
FR2898194B1 (fr) * | 2006-03-01 | 2008-05-02 | Essilor Int | Procede de determination d'une lentille ophtalmique progressive. |
JP5141525B2 (ja) * | 2008-03-06 | 2013-02-13 | セイコーエプソン株式会社 | シミュレーション装置 |
KR101773736B1 (ko) * | 2008-09-24 | 2017-08-31 | 도카이 옵티컬 컴퍼니 리미티드 | 안경 렌즈의 설계 방법 |
JP6535899B2 (ja) * | 2013-10-08 | 2019-07-03 | 東海光学株式会社 | 眼鏡レンズの評価方法及びレンズを通して物体を目視する際の被験者の見え方の特性の算出方法 |
FR3012952B1 (fr) * | 2013-11-08 | 2015-11-06 | Essilor Int | Methode de determination d'au moins un parametre de conception optique d'une lentille ophtalmique progressive |
CN106030382B (zh) | 2014-02-18 | 2021-01-19 | 依视路国际公司 | 用于优化佩戴者的光学镜片设备的方法 |
EP3037869A1 (en) * | 2014-12-23 | 2016-06-29 | Essilor International (Compagnie Generale D'optique) | A method for comparing a first ophthalmic lens with a second ophthalmic lens |
BR112018007140B1 (pt) | 2015-10-15 | 2023-02-23 | Essilor International | Método implementado por computador para determinar uma performance tridimensional de uma lente oftálmica, método implementado por computador de cálculo de uma lente oftálmica e meio legível por computador |
CN108474970B (zh) * | 2016-03-15 | 2020-04-10 | 依视路国际公司 | 用于确定适配于运动参数的眼科镜片的方法 |
CN109222970A (zh) * | 2018-07-09 | 2019-01-18 | 司法鉴定科学研究院 | 视力客观评定的设备及视觉诱发电位的检测系统与方法 |
-
2020
- 2020-03-19 EP EP20710984.4A patent/EP3941331A1/en active Pending
- 2020-03-19 AU AU2020247193A patent/AU2020247193A1/en active Pending
- 2020-03-19 US US17/441,489 patent/US20220175240A1/en active Pending
- 2020-03-19 JP JP2021556800A patent/JP2022525962A/ja active Pending
- 2020-03-19 BR BR112021018234A patent/BR112021018234A2/pt unknown
- 2020-03-19 WO PCT/EP2020/057643 patent/WO2020193370A1/en active Application Filing
- 2020-03-19 KR KR1020217030023A patent/KR102641916B1/ko active IP Right Grant
- 2020-03-19 CN CN202080023011.5A patent/CN113613547A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
BR112021018234A2 (pt) | 2022-02-08 |
CN113613547A (zh) | 2021-11-05 |
KR20210128467A (ko) | 2021-10-26 |
AU2020247193A1 (en) | 2021-09-02 |
KR102641916B1 (ko) | 2024-02-29 |
EP3941331A1 (en) | 2022-01-26 |
WO2020193370A1 (en) | 2020-10-01 |
US20220175240A1 (en) | 2022-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7405800B2 (ja) | 眼画像の収集、選択および組み合わせ | |
JP7443332B2 (ja) | ユーザカテゴリ化による多深度平面ディスプレイシステムのための深度平面選択 | |
JP7291708B2 (ja) | ディスプレイとユーザの眼との間の位置合わせを決定するためのディスプレイシステムおよび方法 | |
JP2021511723A (ja) | 眼の回転中心決定、深度平面選択、およびディスプレイシステム内のレンダリングカメラ位置付け | |
JP2022525962A (ja) | 視覚タスクのための視覚機器の性能を評価するデバイス及び方法 | |
CN111771231A (zh) | 用于虚拟化身的匹配网格 | |
JP2012524293A5 (ja) | ||
JP7434353B2 (ja) | 視覚タスクのための視覚機器の性能を評価する装置及び方法 | |
JP2024069461A (ja) | 左および右ディスプレイとユーザの眼との間の垂直整合を決定するためのディスプレイシステムおよび方法 | |
JP2022540675A (ja) | 1つ以上の眼追跡カメラを用いた眼回転中心の決定 | |
JP2023534213A (ja) | 非球面角膜モデルを使用した眼追跡 | |
JP6368907B2 (ja) | レンズの光学性能評価方法、設計方法及びレンズの光学性能表示方法 | |
JP7241702B2 (ja) | 画像作成装置、眼鏡レンズ選択システム、画像作成方法およびプログラム | |
WO2022171377A1 (en) | A device and method for automatically evaluating visual equipment | |
JP2024004042A (ja) | シミュレーション装置、データ送信装置、モデル生成装置、事前データ生成装置、画像生成装置、シミュレーション方法、及びシミュレーションプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230622 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230731 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240426 |