JP7295938B2 - 乱視度数検査に関する画像を表示する画面を有するコンピューティングデバイスを使用して前記乱視度数検査を実行する方法および対応するコンピューティングデバイス - Google Patents

乱視度数検査に関する画像を表示する画面を有するコンピューティングデバイスを使用して前記乱視度数検査を実行する方法および対応するコンピューティングデバイス Download PDF

Info

Publication number
JP7295938B2
JP7295938B2 JP2021502438A JP2021502438A JP7295938B2 JP 7295938 B2 JP7295938 B2 JP 7295938B2 JP 2021502438 A JP2021502438 A JP 2021502438A JP 2021502438 A JP2021502438 A JP 2021502438A JP 7295938 B2 JP7295938 B2 JP 7295938B2
Authority
JP
Japan
Prior art keywords
user
image
screen
camera unit
elongated image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021502438A
Other languages
English (en)
Other versions
JP2021530295A (ja
Inventor
フランコ ディアノ マリア プレフォー,イブ
Original Assignee
イージー ヘルス バー.ワー.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by イージー ヘルス バー.ワー. filed Critical イージー ヘルス バー.ワー.
Publication of JP2021530295A publication Critical patent/JP2021530295A/ja
Application granted granted Critical
Publication of JP7295938B2 publication Critical patent/JP7295938B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • A61B3/036Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters for testing astigmatism
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • A61B3/032Devices for presenting test symbols or characters, e.g. test chart projectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • A61B3/111Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring interpupillary distance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • A61B3/112Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring diameter of pupils
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • A61B5/748Selection of a region of interest, e.g. using a graphics tablet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • A61B5/749Voice-controlled interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • A61B2560/0223Operational features of calibration, e.g. protocols for calibrating sensors

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Dermatology (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Eye Examination Apparatus (AREA)

Description

本開示は、乱視度数検査を実施する方法に関する。より具体的には、本開示は、コンピューティングデバイスを使用してユーザ自身によって実施可能な乱視度数検査に関する。
現在、目の検査において、乱視が存在するかを判定し、その程度と軸を定量化するために、多くの検査が利用されている。まず、視力低下を検出するのに、スネレン視標またはその他視標が使用され得る。一般的スネレン視標には、11行のブロック体文字が印刷されている。通常、一番上の行に、1つの非常に大きな文字が配置される。これは、いくつかの文字の1つ、例えばA、T、またはEであり得る。それ以下の行では、1行ずつ文字数が増えていき、文字の大きさが小さくなっていく。検査を受けるユーザは、所定の距離離れて片目を覆い、上から順に各行の文字を読み上げる。読み取り可能な最小文字を含む行が、その特定の目の視力を示す。
角膜の前面において、強主径線および弱主径線の曲率を測定するのにケラトメーターが使用され得る。ケラトメーターは、角膜曲率計とも呼ばれ、角膜の前面の曲率を測定するための診断器具である。特に、乱視の程度と軸を評価するために利用される。ケラトメーターは、物体の大きさ、画像の大きさ、反射面と物体との間の距離、および反射面の半径の間の関係を利用する。これらの変数のうち3つがわかっているか固定されている場合、残り1つの変数は計算可能である。
乱視には主に、近視性乱視、遠視性乱視、混合乱視の3種類がある。近視性乱視は、目の主径線の一方または両方が近視であることを示す。遠視性乱視は、主径線の一方または両方が遠視であることを示す。混合乱視は、一方の主径線が近視で、他方の主径線が遠視であることを示す。
乱視は、例えば、眼鏡、コンタクトレンズ、または屈折矯正手術で矯正され得る。目の健康、屈折状態、生活を含む様々なことを考慮して、これら選択肢の1つが他より良好であり得るかが判定される。円錐角膜の患者の場合、特定のコンタクトレンズにより、眼鏡よりも視力が向上し得る。
検査は眼鏡技師または眼科医が実行する必要があることが、上述の検査の欠点の1つである。これらの検査は包括的で複雑であるため、ユーザ自身が実施することはできない。
本開示の目的は、必要な屈折を決定するための乱視度数検査を実施するための、ユーザ自身によって実行可能な方法を実現することである。
本開示の別の目的は、乱視度数検査を実施するためのシステムを実現することである。
従来技術の1つまたは複数の欠点に対するより良い対処のため、本開示の第1の態様では、乱視度数検査に関連する画像を表示する画面を有するコンピューティングデバイスを使用して前記乱視度数検査を実施する方法が提供される。
本方法は、
-前記デバイスにより、ユーザから受信したフィードバック入力を使用して、前記画面上に表示された細長画像の較正された回転を、前記較正された位置で前記ユーザが前記表示された細長画像を実質的に最も鮮明に知覚するように決定するステップと、
-前記デバイスにより前記細長画像の前記較正された回転に基づいて乱視角度を判定するステップと、
-前記デバイスにより、前記ユーザから受信したフィードバック入力を使用して、前記判定された乱視角度に対して実質的に+45°の少なくとも1つの第1の細長画像の太さを修正する、さらに/または前記判定された乱視角度に対して実質的に-45°の少なくとも1つの第2の細長画像の太さを修正することで、較正された位置において前記ユーザが前記少なくとも1つの第1の細長画像および/または前記少なくとも1つの第2の細長画像をぎりぎり認識できるようにして、前記乱視に無関係に前記ユーザの分解視力を較正するステップと、
-前記デバイスにより、前記ユーザから受信したフィードバック入力を使用して、画像内で、前記判定された乱視角度に対して実質的に+0°の少なくとも1つの第1の細長画像を、前記判定された乱視角度に対して実質的に+90°の少なくとも1つの第2の細長画像に対して、較正された位置において前記ユーザが前記少なくとも1つの第1の細長画像と前記少なくとも1つの第2の細長画像とを同じように認識するように、前記較正された分解視力を使用して太くするおよび/またはぼやかすステップと、
-前記デバイスにより、必要な屈折を、実質的に+0°の前記少なくとも1つの第1の細長画像と実質的に+90°の前記少なくとも1つの第2の細長画像との間の太さおよび/またはぼやけ具合の差に基づいて決定するステップと
を含む。
上述の検査は、以下により詳細に説明する。
第1のステップでは、ユーザからのフィードバックを使用して、画面上に表示される細長画像の較正された位置が、前記較正された位置において、前記ユーザが前記表示された細長画像を実質的に最も鮮明に知覚するように決定される。
このステップは、様々な方法で実施され得る。まず、ファン・ブロックチャートの原理が使用され得る。ファン・ブロックチャートは、複数の線が表示され、線の方向が異なるチャートであり、線を互いに回転方向にずらして、扇のような形としている。乱視を持つユーザは、どの線が最も鮮明な線であるかを示すことになる。つまり、ファン・ブロックチャートのどの線が最も鮮明に認識されるかである。乱視を持つユーザにとって、全ての線が同等に鮮明であるようには認識されない。乱視を持つユーザは、線の違いを認識するが、実際には、線が互いに対して回転していること以外に、線の間に顕著な違いはない。
ユーザが選択した線は、較正された回転を示し、より具体的には乱視角度を示す。
別の選択肢は、矢印などの単一の細長画像を表示し、ユーザが、任意の形式の入力ツールを使用して、細長画像を回転できるものである。例えば、スマートフォン、キーボード、マウス、ウェブカメラなどである。次に、ユーザは矢印を、最も鮮明であると認識されるまで回転させる。
なお、乱視を持つユーザにとって、光線は、ピントの合った画像点を生成しておらず、光学縦列内の位置に応じて、直線から楕円までの範囲の、一連の細長画像を生成する。接線画像と矢状線画像の間に配置された、最小錯乱円として知られる領域において、楕円の長軸と短軸が等しいため、画像は円形状に近くなる。そして、判定された乱視角度は、最小錯乱円に対応付けられる。
次のステップでは、前記ユーザから受信したフィードバック入力を使用して、前記判定された乱視角度に対して実質的に+45度の少なくとも1つの第1の細長画像の太さを修正する、さらに/または前記判定された乱視角度に対して実質的に-45度の少なくとも1つの第2の細長画像の太さを修正することで、較正された位置において前記ユーザが前記少なくとも1つの第1の細長画像および/または前記少なくとも1つの第2の細長画像をぎりぎり認識できるかできないようにして、前記乱視に無関係に前記ユーザの分解視力を較正する。
本発明者らは、乱視を矯正するために実際に必要な屈折を決定するための検査中に、ユーザの分解視力、すなわち視力が考慮されるべきであることを見出した。分解視力は、理想的には、乱視角度に無関係に決定される。その特定の概念を達成するために、1つもしくは複数の線が、ユーザに対して、乱視角度の45度で表示され、さらに/または1つもしくは複数の線が、ユーザに対して、乱視角度の-45度で表示される。これらの線は、水晶体の変形、すなわち乱視の態様の影響が最も少ないことが理解される。
次に、ユーザは、表示された線の太さに関してコンピューティングデバイスに入力を提供する。より具体的には、ユーザは、自身にとって線がぎりぎり見えるようになるまで、または線が見えなくなるまで、線を細くする必要がある。それによる実際の線の太さが、その特定のユーザの分解視力の尺度となる。上記のように、乱視を矯正するために必要な屈折を決定する際に、特定のユーザの分解視力が考慮に入れられ得る。
次のステップにおいて、前記ユーザから受信したフィードバック入力を使用して、前記判定された乱視角度に対して実質的に平行に配向された少なくとも1つの第1の細長画像を、前記判定された乱視角度に対して実質的に90度に配向された少なくとも1つの第2の細長画像に対して、較正された位置において前記ユーザが前記少なくとも1つの第1の細長画像と前記少なくとも1つの第2の細長画像とを同じように認識するように、前記較正された分解視力を使用して、太さおよび/またはぼやけ具合について修正する。
なお、少なくとも1つの第1の細長画像および少なくとも1つの第2の細長画像は、最初に、前のステップで決定された太さで表示され得る。つまり、使用において画面上の線をぎりぎり認識できた/見えた、またはできなくなった太さである。少なくとも1つの第1の細長画像は乱視角度に平行に配向されているので、ユーザが第1の細長画像を見ることができる可能性は高い。最初のステップで、ユーザは、その特定の方向で最良の視覚となることを示している。したがって、特定の画像が乱視角度に平行に表示されたことで、ユーザは少なくとも1つの第1の細長画像を認識可能となり得ることを意味する。一方で、少なくとも1つの第2の細長画像が認識できない、つまり、ユーザは第2の細長画像を視認不能である可能性が高い。なお、第1および第2の細長画像は同じ太さであり得るが、乱視のために、ユーザは第2の細長画像を認識できないが、第1の細長画像を認識することができる。
次に、ユーザは、入力、すなわちフィードバックを提供し、これに基づいて、第1の細長画像および/または第2の細長画像の太さおよび/またはぼやけ具合が修正/調整される。このプロセスは、ユーザが第1の細長画像と第2の細長画像とを同じように認識するまで継続する。
最後に、必要な屈折が、前記少なくとも1つの第1の細長画像と、前記少なくとも1つの第2の細長画像との間の太さおよび/またはぼやけ具合の差に基づいて決定される。
なお、最後のステップでは、ユーザから画面までの距離と、較正された等価球面度数が考慮に入れられ得る。
ユーザから画面までの距離は、例を挙げて詳細に説明されるように測定されてもよいし、経験から推測してもよい。例えば、ユーザは通常、ノートパソコンの画面から約60から80cm離れて座ることが分かっている。分解視力、すなわちユーザの視力を較正する際、この距離を考慮に入れてもよい。
上述の検査は、2回行われ得る。すなわち、最初はユーザの片方の目に対して、続いてユーザのもう一方の目に対して実施され得る。検査中、一度に片目ずつ検査されるように、両目のうち一方を目隠ししてもよい。
「細長画像」、「前記判定された乱視角度に対して実質的に+45°の少なくとも1つの第1の細長画像」、「前記判定された乱視角度に対して実質的に-45°の少なくとも1つの第2の細長画像」、「前記判定された乱視角度に対して実質的に+0°の少なくとも1つの第1の細長画像」、「前記判定された乱視角度に対して実質的に+90°の少なくとも1つの第2の細長画像」の「画像」は、最初は実質的に同一であり得る。すなわち、前記各画像は、太くするおよび/またはぼかす前には実質的に同じであり得る。あるいは、画像は互いに異なってもよい。または合計で少なくとも5つの画像のグループ内の、あるサブセットが同じであり、他の画像が異なっていてもよい。
例えば、「細長画像」は、最初は、上記のように実質的に垂直に配向された線もしくは矢印であるか、または上記のようにファン・ブロックチャートであり得る。一方で他の画像、すなわち前記判定された乱視角度に対して実質的に+45°の少なくとも1つの第1の細長画像、前記判定された乱視角度に対して実質的に-45°の少なくとも1つの第2の細長画像、前記判定された乱視角度に対して実質的に+0°の少なくとも1つの第1の細長画像、前記判定された乱視角度に対して実質的に+90°の少なくとも1つの第1の細長画像は(最初は)、判定された乱視角度に対して特定の角度に配向された、予め定義された太さの実質的に平行な線を含み得る。その後、線の太さを変更してもよい。例えば、上述のように、太くするか細くする、さらに/または線をぼやかしてもよい。
ただし、画像が表示される角度は、指定されたとおり、異なる。「細長画像」は、最初は実質的に垂直方向に表示され、較正された位置に到達するようにユーザによって較正され得る。この較正された位置/回転に基づいて、乱視角度が判定される。この「細長画像」は、「第1の細長画像」とも称され得る。次に、前記判定された乱視角度に対して実質的に+45°の少なくとも1つの第1の細長画像が、前記判定された乱視角度に対して実質的に+45°の角度で表示される。この「前記判定された乱視角度に対して実質的に+45°の少なくとも1つの第1の細長画像」は、「前記判定された乱視角度に対して実質的に+45°に配向された第2の細長画像」とも称され得る。前記判定された乱視角に対して実質的に-45°の少なくとも1つの第2の細長画像は、前記判定された乱視角に対して実質的に+45°の少なくとも1つの第1の細長画像および/または細長画像と同じ画像であり得、または異なる画像であり得るが、その後前記判定された乱視角度に対して実質的に-45°の角度で表示される。この「前記判定された乱視角度に対して実質的に-45°の少なくとも1つの第2の細長画像」は、「前記判定された乱視角度に対して実質的に-45°に配向された第3の細長画像」とも称され得る。そして、同様に上述の画像と類似または同じか異なり得る前記判定された乱視角度に対して実質的に+0°の少なくとも1つの第1の細長画像は、前記判定された乱視角度に対して実質的に+0°の角度で表示される。この「前記判定された乱視角度に対して実質的に+0°の少なくとも1つの第1の細長画像」は、「前記判定された乱視角度に対して実質的に+0°に配向された第4の細長画像」とも称され得る。そして上述の画像と類似または同じか異なり得る前記判定された乱視角度に対して実質的に+90°の少なくとも1つの第2の細長画像は、前記判定された乱視角度に対して実質的に+90°の角度で表示される。この「前記判定された乱視角度に対して実質的に+90°の少なくとも1つの第2の細長画像」は、「前記判定された乱視角度に対して実質的に+45°に配向された第5の細長画像」とも称され得る。
好ましくは、第2、第3、第4、および第5の細長画像は、それぞれ(最初は)、判定された乱視角度に関して指定の角度で配置された平行線で構成される。したがって、好ましくは、第2、第3、第4および第5の細長画像は(最初は)同じである。しかしながら、前記画像は、異なる細長画像でもあり得る。
そのため、画像自体の物理的形態が異なっていても同じでもよく、それぞれの画像(線)が表示される角度は指定のとおりに変化する。
一例では、前記フィードバック入力のいずれかは、
-ユーザ機器のタッチ画面、
-前記デバイスに含まれ、前記ユーザのジェスチャを検出するように構成されたカメラユニット、
-音声認識、
-脳波制御
を介して受信される。
なお、本開示によるコンピューティングデバイスは、デスクトップコンピュータ、スマートフォン、タブレット、ノートパソコンなどであり得る。ユーザは、スマートフォン、キーボードなどを介して入力を提供することができる。
好ましくは、この方法は、ブラウザが画像をユーザに表示する、ウェブサーバに実装される。そして、ユーザはスマートフォンを介して入力を提供するか、キーボードを介して入力を提供し得る。
別の例では、デバイスはカメラユニットを含み、前記方法は、
-前記デバイスの前記カメラユニットによって、前記画面に面している前記ユーザの人間の顔の少なくとも1つの画像を撮影するステップと、
-前記デバイスによって、前記少なくとも1つの撮影された画像において、前記人間の顔の両方の瞳孔を検出するステップと、
-前記デバイスによって、
-ユーザの瞳孔間の所定の距離、
-前記少なくとも1つの撮影された画像において前記検出された瞳孔間の距離、および
-前記少なくとも1つの撮影された画像に対応する前記カメラユニットの焦点距離であって、ユーザの瞳孔間の前記所定の距離および前記画面に面するユーザの所定の初期距離に基づいて前記焦点距離を計算することによって判定される焦点距離
に基づいて、前記ユーザから前記画面までの距離を判定するステップと
をさらに含み、
前記必要な屈折を決定する前記ステップは、前記ユーザから前記画面までの前記判定された距離にさらに基づく。
本発明者等の洞察の1つは、人々の瞳孔間距離、すなわちユーザの瞳孔間の所定の距離は、一般にほぼ一定であることであった。したがって、そのパラメータは、ユーザから画面までの距離を判定するために使用できる。
本発明者等はさらに、焦点距離がカメラユニットのタイプおよび/または撮影された画像ごとに異なるため、少なくとも1つの画像を撮影するために使用されるカメラユニットのタイプが視力検査試験に影響する可能性があることに気付いた。本発明者らの洞察は、ユーザから画面までの距離を判定するステップの前に、少なくとも1つの撮影された画像に対応するカメラの焦点距離を判定することにより、この変数を制御することであった。
上記に続いて、ユーザから画面までの実際の距離を正確に判定するために、少なくとも3つのパラメータを考慮する必要がある。
第1のパラメータは、上記の一般的に一定であるユーザの瞳孔間距離である。第2のパラメータは、撮影された少なくとも1つの画像での瞳孔間距離である。この距離は、例えば、ピクセルで表される。最後に、画像の撮影に使用されるカメラユニットの焦点距離は、撮影された画像の瞳孔間距離を、ユーザから画面までの物理的距離の実際の測定値に変換するために使用される。
本開示によれば、入力ツールはモバイルUEであり得る。モバイルUEは、スマートフォン、タブレット、スマートウォッチなどのいずれかであり得る。このようなモバイルUEは、画面上に表示されるアンケートへの回答を入力するための入力デバイスとして、ユーザによって使用され得る。視力検査試験中、ユーザはコンピューティングデバイスから特定の距離にいるため、ユーザは物理的にコンピューティングデバイスに到達できないことに留意すべきである。したがって、モバイルUEは拡張入力デバイスとして使用される。別のオプションとして、入力ツールはマイクでもよい。マイクロホンは、コンピューティングデバイスに含まれていてもよい。コンピューティングデバイスで実行されている音声認識アルゴリズムを使用して、特定のアンケートへの回答を提供できる。
別のやり方では、カメラの焦点距離は、そのカメラによって撮影された画像のメタデータを介して、またはAPIを使用してカメラから直接焦点距離を取得することによって取得され得る。
さらなる例では、デバイスはカメラユニットを含み、前記方法は、
-前記デバイスの前記カメラユニットによって、前記画面に面している前記ユーザの人間の顔の少なくとも1つの画像を撮影するステップと、
-前記デバイスによって、前記画面に対する前記ユーザの頭部の傾斜角を検出するステップと
をさらに含み、
前記方法の前記ステップの少なくとも1つは、前記頭部の前記検出された傾斜角を考慮に入れる。
本発明者らは、乱視検査の精度を向上するために、頭部の傾斜角を考慮に入れるべきであることを見出した。判定された乱視角度は、通常、2つの瞳孔が実質的に水平である頭部の位置に基づいて定義される。そして、乱視角度は、頭部の傾斜角度に基づいて修正される。
さらに別の例では、デバイスはカメラユニットを含み、前記方法は、
-前記デバイスの前記カメラユニットによって、前記画面に面している前記ユーザの人間の顔の少なくとも1つの画像を撮影するステップと、
-前記デバイスによって、前記撮影された少なくとも1つの画像を使用して、前記ユーザの周囲の光強度または分布を検出するステップと
をさらに含み、
前記方法の前記ステップの少なくとも1つは、前記検出された光強度または分布を考慮に入れる。
本発明者らは、光分布または光強度が乱視度数検査に影響を与える可能性があることを見出した。例えば、不十分な、不適切な、または不均一な照明下では、分解視力、すなわち視力が低下する可能性がある。そして、判定された視力が、判定された光強度または分布に基づいて補正され得る。
別の例では、デバイスはカメラユニットを含み、前記方法は、
-前記デバイスの前記カメラユニットによって、前記画面に面している前記ユーザの人間の顔の少なくとも1つの画像を撮影するステップと、
-前記デバイスによって、前記少なくとも1つの画像における前記ユーザの瞳孔の大きさを検出するステップと
をさらに含み、
前記方法の前記ステップの少なくとも1つは、前記検出された瞳孔の大きさを考慮に入れる。
瞳孔の大きさは、細長画像を認識する際のユーザの労力の尺度である。視覚に多大な労力を費やす際、ユーザは両目を凝らす傾向にある。そして、得られた視力は、検査を実施するユーザの表情、すなわち瞳孔の大きさに基づいて補正され得る。
本開示の第2の態様は、乱視度数検査に関連する画像を表示するように構成された画面を有するコンピューティングデバイスを備え、上述の方法を使用して前記乱視度数検査を実施するシステムである。
本コンピューティングデバイスは、
-ユーザから受信したフィードバック入力を使用して、前記画面上に表示された細長画像の較正された回転を、前記較正された位置で前記ユーザが前記表示された細長画像を実質的に最も鮮明に知覚するように決定するように構成された決定機器と、
-前記細長画像の前記較正された位置に基づいて乱視角度を判定するように構成されたプロセッサと、
-前記ユーザから受信したフィードバック入力を使用して、前記判定された乱視角度に対して実質的に+45°の少なくとも1つの第1の細長画像の太さを修正する、さらに/または前記判定された乱視角度に対して実質的に-45°の少なくとも1つの第2の細長画像の太さを修正することで、較正された位置において前記ユーザが前記少なくとも1つの第1の細長画像および/または前記少なくとも1つの第2の細長画像をぎりぎり認識できる、または、できないようにして、前記乱視に無関係に前記ユーザの分解視力を較正するように構成された較正機器と、
-前記ユーザから受信したフィードバック入力を使用して、画像内で、画像で前記判定された乱視角度に対して実質的に+0°の少なくとも1つの第1の細長画像を、前記判定された乱視角度に対して実質的に+90°の少なくとも1つの第2の細長画像に対して、較正された位置において前記ユーザが前記少なくとも1つの第1の細長画像と前記少なくとも1つの第2の細長画像とを同じように認識するように、前記較正された分解視力を使用して太くするおよび/またはぼやかすように構成された調整機器と、
-必要な屈折を、実質的に+0°の前記少なくとも1つの第1の細長画像と実質的に+90°の前記少なくとも1つの第2の細長画像との間の太さおよび/またはぼやけ具合の差に基づいて決定するように構成された屈折機器と
を備える。
本開示によれば、上述の方法の例に適用可能な異なる態様は、その利点を含めて、本開示に係るシステムに適用可能な態様に対応する。
一例では、前記フィードバックのいずれかは、
-ユーザ機器のタッチ画面、
-前記デバイスに含まれ、前記ユーザのジェスチャを検出するように構成されたカメラユニット、
-音声認識、
-脳波制御
を介して受信される。
さらなる例では、デバイスはカメラユニットを含み、前記カメラユニットは、前記画面に面する前記ユーザの人間の顔の少なくとも1つの画像を撮影するように構成され、
前記デバイスは、
-前記少なくとも1つの撮影された画像において、前記人間の顔の両方の瞳孔を検出するように構成された検出機器と、
-処理機器であって、
-ユーザの瞳孔間の所定の距離、
-前記少なくとも1つの撮影された画像において前記検出された瞳孔間の距離、および
-前記少なくとも1つの撮影された画像に対応する前記カメラユニットの焦点距離であって、ユーザの瞳孔間の前記所定の距離および画面に面するユーザの所定の初期距離に基づいて前記焦点距離を計算することによって判定される焦点距離
に基づいて、前記ユーザから前記画面までの距離を判定する処理機器と
をさらに備え、
前記屈折機器は、前記ユーザから前記画面までの前記判定された距離に基づいて前記必要な屈折を決定するように構成される。
さらに別の例では、デバイスはカメラユニットを含み、前記カメラユニットは、前記画面に面する前記ユーザの人間の顔の少なくとも1つの画像を撮影するように構成され、
前記デバイスは、
前記画面に対する前記ユーザの頭部の傾斜角を検出するように構成された検出機器
をさらに備え、
前記デバイスの前記機器のいずれかは、前記頭部の前記検出された傾斜角を考慮に入れるように構成される。
一例において、デバイスはカメラユニットを含み、前記カメラユニットは、前記画面に面する前記ユーザの人間の顔の少なくとも1つの画像を撮影するように構成され、
前記デバイスは、
前記撮影された少なくとも1つの画像を使用して、前記ユーザの周囲の光強度を検出するように構成された検出機器
をさらに備え、
前記デバイスの前記機器のいずれかは、前記検出された光強度を考慮に入れるように構成される。
さらなる例において、デバイスはカメラユニットを含み、前記カメラユニットは、前記画面に面する前記ユーザの人間の顔の少なくとも1つの画像を撮影するように構成され、
前記デバイスは、前記少なくとも1つの画像において前記ユーザの瞳孔の大きさを検出するように構成された検出機器を備え、
前記デバイスの前記機器のいずれかは、前記検出された瞳孔の大きさを考慮に入れるように構成される。
本開示に係る方法およびシステムに含まれる異なる態様の表現、すなわち文言は、文字通りに解釈されるべきではない。態様という文言は、態様の実際の機能の背後にある理論的根拠を正確に表現するために選択されているだけである。
本開示の上記および他の特徴および利点は、添付の図面を参照する以下の説明から最もよく理解されるであろう。図面において、同様の参照番号は、同一の部品または同一もしくは同等の機能もしくは動作を実施する部品を示す。
様々な既知の乱視の見え方を示す図である。 ユーザの乱視誤差の角度を評価する図である。 垂直に配向された、乱視角度を判定するための細長画像である。 斜めに配向された、乱視角度を判定するための細長画像である。 ユーザの視力較正を提案する図である。 所要の屈折率に必要な振幅を評価するために使用される例である。 本開示によるフローチャートの例である。 本開示によるシステムの例である。
図1は、様々な既知の乱視の見え方を開示する。乱視は、視界をぼやけさせる一般的な視覚的状態である。例えば、目の透明な前面カバーとも称される場合がある角膜が不規則な形状である場合や、目の内側の水晶体の曲率が原因で発生し得る症状である。図1は、人の視覚の4つの異なる状態を含む図面10を示す。すなわち、乱視による異常がない状態14、斜乱視誤差11、倒乱視誤差13、直乱視誤差12が示されている。
図2は、乱視誤差の角度を評価するために使用される図面を示す。図面26は、矢印22、角度範囲21に沿って配置された角度指示線25、垂直基準線23、および水平基準線24を含む。
ユーザは、自身が最も良好に見える角度まで、角度指示線25に対して矢印22を回転させるように促される。この図面は、ユーザがユーザ機器(不図示)を介して遠隔で使用するものである。ユーザは、矢印22の角度を、自身が最も良好に見える線に合わせて調整することができる。この目的のために、ユーザ機器は、例えば、スライダーが表示されたタッチ画面を備える。ユーザ機器は、矢印22の位置を調整するためにユーザによって行われたジェスチャを受信および入力するように構成されたセンサ付き入力ツールを備えることもできる。
矢印22が回転するのではなく、角度指示線25が角度範囲21と共に、矢印22に対して回転してもよい。
図3aおよび図3bは、それぞれ垂直および斜めに配向された、乱視角度を判定するための細長画像を開示する。
この目的のために、ユーザは、参照番号34および35で示されるように、軸36を中心に時計回りまたは反時計回りに細長画像37を回転させ得る。ユーザは、線37を最も鮮明に感じるまで、細長画像37を回転させるものである。これを図3bに示す。ここで、ユーザは、軸33を中心に線32を特定の位置に回転させている。この際の垂直軸31に対する線32のずれが、乱視角度とされる。
図4は、ユーザの視力較正の提案を開示する。ここでは、参照番号38および39で示されるように、2つの線組が示されている。全ての線は同じ太さであり、ユーザからの入力に応じて、ユーザが線を見ることができなくなるか、またはぎりぎり見ることができるようになるまで、細くされるものである。そのため、ユーザは最終的な画像として、少なくとも自身に視認可能な線の存在しない、完全に灰色または白色の背景が得られる。
図5は、所要の屈折率に必要な振幅を評価するために使用される例である。
図5は、少なくとも1つの第1の細長画像40および少なくとも1つの第2の細長画像41を示す。両画像40、41は、図4の線のように、互いに隣接して、すなわち平行に配置された複数の線を含む。参照番号40で示される線は、判定された乱視角度と同方向となっている。これは、線40の方向を、図3bの線32の方向と対比すれば明らかであろう。参照番号41で示される線は、参照番号40で示される線と比較して90度回転している。
最初は、両方の線40、41の太さは等しく設定されてもよい。すなわち、図4を参照して較正された太さに設定され得る。その後、参照番号40で示される線は、ユーザによって視認、すなわち知覚され得るが、参照番号41で示される線は、ユーザによって視認不能、すなわち知覚されないものになると想定される。
較正段階において、乱視角度でユーザは最も良好に見えることが確認された。参照番号40で示される各線は、同角度に配向されているので、参照番号41で示される線よりも、ユーザにとって鮮明に見える可能性が高い。
次に、線40および41の太さは、ユーザが線40、41の特性、すなわち線40、41の太さまたはぼやけが同程度となるまで、変更され得る。
したがって、実際には太さは同じではないものの、ユーザは、線40、41の太さ/ぼやけが同じであるかのように錯覚する。本開示において、ここでの相対的な太さの差が重要となる。
得られた線40、41間の相対的な太さの差が、最後のステップ、すなわち、必要な屈折を決定するステップで使用される。次に、線間の太さの差とユーザから画面までの距離とに基づいて、必要な屈折が計算される。
図6は、本開示によるフローチャートを開示する。フローチャートは、参照番号1、2、3、4を使用して参照される4つの特定のステップで構成される。
第1のステップ1において、デバイスは、ユーザから受信したフィードバック入力を使用して、前記画面上に表示された細長画像の較正された回転を、前記較正された位置で前記ユーザが前記表示された細長画像を実質的に最も鮮明に知覚するように決定する。較正された位置に基づいて、乱視角度を判定することができる。
乱視角度は、多くの場合、完全に垂直でも、完全に水平でもない。多くの場合、角度には特定のズレがあり、これはステップ1を利用して判定可能である。
ステップ2では、較正処理が実行される。より具体的には、本方法は、前記デバイスにより、前記ユーザから受信したフィードバック入力を使用して、前記判定された乱視角度に対して実質的に+45°の少なくとも1つの第1の細長画像の太さを修正する、さらに/または前記判定された乱視角度に対して実質的に-45°の少なくとも1つの第2の細長画像の太さを修正することで、較正された位置において前記ユーザが前記少なくとも1つの第1の細長画像および/または前記少なくとも1つの第2の細長画像をぎりぎり認識できるように、前記乱視に無関係に前記ユーザの分解視力を較正するステップを含む。
本発明者らは、乱視度数検査の間に、人の視力を考慮すべきであることを見出した。視力は、乱視角度に無関係に決定される。これは、+45度および/または-45度の概念によって実現される
ステップ3では、乱視補正の振幅が決定される。より具体的には、ステップ3は、前記デバイスにより、前記ユーザから受信したフィードバック入力を使用して、前記判定された乱視角度に対して実質的に+0°の少なくとも1つの第1の細長画像を、前記判定された乱視角度に対して実質的に+90°の少なくとも1つの第2の細長画像に対して、較正された位置において前記ユーザが前記少なくとも1つの第1の細長画像と前記少なくとも1つの第2の細長画像とを同じように認識するように、前記較正された分解視力を使用して太くするおよび/またはぼやかすことを含む。
最後に、ステップ3において、デバイスにより、実質的に+0°の前記少なくとも1つの第1の細長画像と実質的に+90°の前記少なくとも1つの第2の細長画像との間の太さおよび/またはぼやけ具合の差に基づいて、必要な屈折を決定する。
図7は、本開示によるシステムの例である。
システムは、上述の方法を使用して乱視度数検査を実行するように構成される。前記乱視度数検査に関連する画像を表示するように構成された画面を有するコンピューティングデバイスを含むシステム。
コンピューティングデバイスは、単一のデバイスであってもよく、ノートパソコン、デスクトップ、スマートフォンなどの複数の個別のデバイスに分割されてもよい。
コンピューティングデバイスは、
-ユーザから受信したフィードバック入力を使用して、前記画面上に表示された細長画像の較正された回転を、前記較正された位置で前記ユーザが前記表示された細長画像を実質的に最も鮮明に知覚するように決定する決定機器6と、
-前記細長画像の前記較正された位置に基づいて乱視角度を判定するように構成されたプロセッサ5と、
-前記ユーザから受信したフィードバック入力を使用して、前記判定された乱視角度に対して実質的に+45°の少なくとも1つの第1の細長画像の太さを修正する、さらに/または前記判定された乱視角度に対して実質的に-45°の少なくとも1つの第2の細長画像の太さを修正することで、較正された位置において前記ユーザが前記少なくとも1つの第1の細長画像および/または前記少なくとも1つの第2の細長画像をぎりぎり認識できるように、前記乱視に無関係に前記ユーザの分解視力を較正する較正機器7と、
-前記ユーザから受信したフィードバック入力を使用して、前記判定された乱視角度に対して実質的に+0°の少なくとも1つの第1の細長画像を、前記判定された乱視角度に対して実質的に+90°の少なくとも1つの第2の細長画像に対して、較正された位置において前記ユーザが前記少なくとも1つの第1の細長画像と前記少なくとも1つの第2の細長画像とを同じように認識するように、前記較正された分解視力を使用して太くするおよび/またはぼやかすように構成された調整機器8と、
-実質的に+0°の前記少なくとも1つの第1の細長画像と実質的に+90°の前記少なくとも1つの第2の細長画像との間の太さおよび/またはぼやけ具合の差に基づいて、必要な屈折を決定する屈折機器9と
を備える。
上記の説明に続いて、本開示の別の利点は、乱視度数検査が、眼鏡技師などによる補助なしに、ユーザによって実施され得ることであることに留意されたい。乱視度数検査は、例えば、自宅またはオフィスで実施することができる。
検査時に、ユーザの使用環境における照明も考慮することができる。なお、環境照明は、均一、白色、または十分ではないことも多いことに留意されたい。カメラユニットにより環境照明の品質が検出され、乱視度数検査中、例えば視力の決定中にその品質を考慮に入れてもよい。
開示された実施形態に対する他の変形形態は、図面、開示、および添付の特許請求の範囲の検討から、請求された発明を実施する際に当業者によって理解および達成され得る。請求項において、「備える」という語は他の要素またはステップを除外せず、不定冠詞「a(1つ)」または「an(1つ)」は複数を除外しない。単一のプロセッサまたは他のユニットは、特許請求の範囲に記載されたいくつかのアイテムの機能を果たしてもよい。特定の測定値が相互に異なる従属請求項に記載されているという単なる事実は、これらの測定値の組合せを有利に使用できないことを示すものではない。コンピュータプログラムは、他のハードウェアと共に、またはその一部として提供される光学式記憶媒体またはソリッドステート媒体などの適切な媒体に格納/配布できるが、インターネットやその他の有線または無線の通信システムを介してなど、他の形式で分配することもできる。特許請求の範囲の参照符号は、その範囲を限定するものとして解釈されるべきではない。

Claims (12)

  1. 乱視度数検査に関する画像を表示する画面を有するコンピューティングデバイスを使用して前記乱視度数検査を実行する方法であって、
    -前記デバイスにより、ユーザから受信したフィードバック入力を使用して、前記画面上に表示された細長画像(26、37)の較正された回転を、較正された位置で前記ユーザが前記表示された細長画像(26、37)を実質的に最も鮮明に知覚するように決定するステップ(1)と、
    -前記デバイスにより前記細長画像の前記較正された回転に基づいて乱視角度を判定するステップと、
    -前記デバイスにより、前記ユーザから受信したフィードバック入力を使用して、前記判定された乱視角度に対して実質的に+45°に表示された1つまたは複数の線(38)を含む少なくとも1つの第1の細長画像の太さを修正する、さらに/または前記判定された乱視角度に対して実質的に-45°に表示された1つまたは複数の線(39)を含む少なくとも1つの第2の細長画像の太さを修正することで、較正された位置において前記ユーザが前記少なくとも1つの第1の細長画像および/または前記少なくとも1つの第2の細長画像がぎりぎり認識できるようにして、前記乱視に無関係に前記ユーザの分解視力を較正するステップ(2)と、
    -前記デバイスにより、前記ユーザから受信したフィードバック入力を使用して、前記判定された乱視角度に対して実質的に+0°に配置された複数の平行線を含む少なくとも1つの第1の細長画像(40)を、前記判定された乱視角度に対して実質的に+90°に配置された複数の平行線を含む少なくとも1つの第2の細長画像(41)に対して、較正された位置において前記ユーザが前記少なくとも1つの第1の細長画像(40)と前記少なくとも1つの第2の細長画像(41)とを同じように認識するように、前記較正された分解視力を使用して太くするおよび/またはぼやかすステップ(3)と、
    -前記デバイスにより、必要な屈折を、実質的に+0°の前記少なくとも1つの第1の細長画像(40)と実質的に+90°の前記少なくとも1つの第2の細長画像(41)との間の太さおよび/またはぼやけ具合の差に基づいて決定するステップ(4)と
    を含む方法。
  2. 前記フィードバック入力のいずれかは、
    -ユーザ機器のタッチ画面、
    -前記デバイスに含まれ、前記ユーザのジェスチャを検出するように構成されたカメラユニット、
    -音声認識、
    -脳波認識
    を介して受信される、請求項1に記載の方法。
  3. 前記デバイスはカメラユニットを含み、前記方法は、
    -前記デバイスの前記カメラユニットによって、前記画面に面している前記ユーザの人間の顔の少なくとも1つの画像を撮影するステップと、
    -前記デバイスによって、前記少なくとも1つの撮影された画像において、前記人間の顔の両方の瞳孔を検出するステップと、
    -前記デバイスによって、
    -ユーザの瞳孔間の所定の距離、
    -前記少なくとも1つの撮影された画像において前記検出された瞳孔間の距離、および
    -前記少なくとも1つの撮影された画像に対応する前記カメラユニットの焦点距離であって、ユーザの瞳孔間の前記所定の距離および前記画面に面するユーザの所定の初期距離に基づいて前記焦点距離を計算することによって判定される焦点距離
    に基づいて、前記ユーザから前記画面までの距離を判定するステップと
    をさらに含み、
    前記必要な屈折を決定する前記ステップは、前記ユーザから前記画面までの前記決定さ
    れた距離にさらに基づく、請求項1または2に記載の方法。
  4. 前記デバイスはカメラユニットを含み、前記方法は、
    -前記デバイスの前記カメラユニットによって、前記画面に面している前記ユーザの人間の顔の少なくとも1つの画像を撮影するステップと、
    -前記デバイスによって、前記画面に対する前記ユーザの頭部の傾斜角を検出するステップと
    をさらに含み、
    前記方法の前記ステップの少なくとも1つは、前記頭部の前記検出された傾斜角を考慮に入れる、請求項1から3のいずれか一項に記載の方法。
  5. 前記デバイスはカメラユニットを含み、前記方法は、
    -前記デバイスの前記カメラユニットによって、前記画面に面している前記ユーザの人間の顔の少なくとも1つの画像を撮影するステップと、
    -前記デバイスによって、前記撮影された少なくとも1つの画像を使用して、前記ユーザの周囲の光強度を検出するステップと
    をさらに含み、
    前記方法の前記ステップの少なくとも1つは、前記検出された光強度を考慮に入れる、請求項1から4のいずれか一項に記載の方法。
  6. 前記デバイスはカメラユニットを含み、前記方法は、
    -前記デバイスの前記カメラユニットによって、前記画面に面している前記ユーザの人間の顔の少なくとも1つの画像を撮影するステップと、
    -前記デバイスによって、前記少なくとも1つの画像における前記ユーザの瞳孔の大きさを検出するステップと
    をさらに含み、
    前記方法の前記ステップの少なくとも1つは、前記検出された瞳孔の大きさを考慮に入れる、請求項1から5のいずれか一項に記載の方法。
  7. 乱視度数検査に関連する画像を表示するように構成された画面を有するコンピューティングデバイスを備え、請求項1から6のいずれか一項に記載の方法を使用して前記乱視度数検査を実施するシステムであって、前記コンピューティングデバイスは、
    -ユーザから受信したフィードバック入力を使用して、前記画面上に表示された細長画像(26、37)の較正された回転を、較正された位置で前記ユーザが前記表示された細長画像(26、37)を実質的に最も鮮明に知覚するように決定するように構成された決定機器(6)と、
    -前記細長画像の前記較正された位置に基づいて乱視角度を判定するように構成されたプロセッサ(5)と、
    -前記ユーザから受信したフィードバック入力を使用して、前記判定された乱視角度に対して実質的に+45°に表示された1つまたは複数の線(38)を含む少なくとも1つの第1の細長画像の太さを修正する、さらに/または前記判定された乱視角度に対して実質的に-45°に表示された1つまたは複数の線(39)を含む少なくとも1つの第2の細長画像の太さを修正することで、較正された位置において前記ユーザが前記少なくとも1つの第1の細長画像および/または前記少なくとも1つの第2の細長画像がぎりぎり認識できるようにして、前記乱視に無関係に前記ユーザの分解視力を較正するように構成された較正機器(7)と、
    -前記ユーザから受信したフィードバック入力を使用して、前記判定された乱視角度に対して実質的に+0°に配置された複数の平行線を含む少なくとも1つの第1の細長画像(40)を、前記判定された乱視角度に対して実質的に+90°に配置された複数の平行線を含む少なくとも1つの第2の細長画像(41)に対して、較正された位置において前記ユーザが前記少なくとも1つの第1の細長画像(40)と前記少なくとも1つの第2の細長画像(41)とを同じように認識するように、前記較正された分解視力を使用して太くするおよび/またはぼやかすように構成された調整機器(8)と、
    -必要な屈折を、実質的に+0°の前記少なくとも1つの第1の細長画像(40)と実質的に+90°の前記少なくとも1つの第2の細長画像(41)との間の太さおよび/またはぼやけ具合の差に基づいて決定するように構成された屈折機器(9)と
    を備える、システム。
  8. 前記フィードバック入力のいずれかは、
    -ユーザ機器のタッチ画面、
    -前記デバイスに含まれ、前記ユーザのジェスチャを検出するように構成されたカメラユニット、
    -音声認識、
    -脳波認識
    を介して受信される、請求項7に記載のシステム。
  9. 前記デバイスはカメラユニットを含み、
    前記カメラユニットは、前記画面に面する前記ユーザの人間の顔の少なくとも1つの画像を撮影するように構成され、
    前記デバイスは、
    -前記少なくとも1つの撮影された画像において、前記人間の顔の両方の瞳孔を検出するように構成された検出機器と、
    -処理機器であって、
    -ユーザの瞳孔間の所定の距離、
    -前記少なくとも1つの撮影された画像において前記検出された瞳孔間の距離、および
    -前記少なくとも1つの撮影された画像に対応する前記カメラユニットの焦点距離であって、ユーザの瞳孔間の前記所定の距離および前記画面に面するユーザの所定の初期距離に基づいて前記焦点距離を計算することによって判定される焦点距離
    に基づいて、前記ユーザから前記画面までの距離を判定する処理機器と
    をさらに備え、
    前記屈折機器(9)は、前記ユーザから前記画面までの前記判定された距離に基づいて前記必要な屈折を判定するように構成される、請求項7または8に記載のシステム。
  10. 前記デバイスはカメラユニットを含み、前記カメラユニットは、前記画面に面する前記ユーザの人間の顔の少なくとも1つの画像を撮影するように構成され、
    前記デバイスはさらに、
    前記画面に対する前記ユーザの頭部の傾斜角を検出するように構成された検出機器をさらに備え、
    前記デバイスの前記機器のいずれかは、前記頭部の前記検出された傾斜角を考慮に入れるように構成される、請求項7から9のいずれか一項に記載のシステム。
  11. 前記デバイスはカメラユニットを含み、前記カメラユニットは、前記画面に面する前記ユーザの人間の顔の少なくとも1つの画像を撮影するように構成され、
    前記デバイスは、
    前記撮影された少なくとも1つの画像を使用して、前記ユーザの周囲の光強度を検出するように構成された検出機器
    をさらに備え、
    前記デバイスの前記機器のいずれかは、前記検出された光強度を考慮に入れるように構成される、請求項7から10のいずれか一項に記載のシステム。
  12. 前記デバイスはカメラユニットを含み、前記カメラユニットは、前記画面に面する前記ユーザの人間の顔の少なくとも1つの画像を撮影するように構成され、
    前記デバイスは、前記少なくとも1つの画像において前記ユーザの瞳孔の大きさを検出するように構成された検出機器を備え、
    前記デバイスの前記機器のいずれかは、前記検出された瞳孔の大きさを考慮に入れるように構成される、請求項7から11のいずれか一項に記載のシステム。
JP2021502438A 2018-07-16 2019-07-16 乱視度数検査に関する画像を表示する画面を有するコンピューティングデバイスを使用して前記乱視度数検査を実行する方法および対応するコンピューティングデバイス Active JP7295938B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
NL2021310 2018-07-16
NL2021310A NL2021310B1 (en) 2018-07-16 2018-07-16 A method for performing an astigmatism power test using a computing device having a screen for displaying images relating to said astigmatism power test, as well as a corresponding computing device.
PCT/NL2019/050448 WO2020017959A1 (en) 2018-07-16 2019-07-16 A method for performing an astigmatism power test using a computing device having a screen for displaying images relating to said astigmatism power test, as well as a corresponding computing device

Publications (2)

Publication Number Publication Date
JP2021530295A JP2021530295A (ja) 2021-11-11
JP7295938B2 true JP7295938B2 (ja) 2023-06-21

Family

ID=64049646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021502438A Active JP7295938B2 (ja) 2018-07-16 2019-07-16 乱視度数検査に関する画像を表示する画面を有するコンピューティングデバイスを使用して前記乱視度数検査を実行する方法および対応するコンピューティングデバイス

Country Status (7)

Country Link
US (1) US20210275012A1 (ja)
EP (1) EP3823516B1 (ja)
JP (1) JP7295938B2 (ja)
CN (1) CN112689470B (ja)
ES (1) ES2960593T3 (ja)
NL (1) NL2021310B1 (ja)
WO (1) WO2020017959A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11484196B2 (en) * 2016-10-17 2022-11-01 EyeQue Inc. Method and apparatus for refraction and vision measurement
CN111281328B (zh) * 2020-02-27 2022-08-12 南京云视郎生物科技有限公司 一种弱视验光的方法、装置及电子设备
NL2029579B1 (en) * 2021-11-01 2023-06-01 Easee Health B V Guiding a user to a test position for performing a computer-based eye exam.
DE102022209490A1 (de) * 2022-09-12 2024-03-14 Rodenstock Gmbh Verfahren, Verwenden von angepassten Sehzeichen und Vorrichtung zum Bestimmen von Sehschärfecharakteristika eines Probanden
CN115590459B (zh) * 2022-10-25 2023-07-07 江苏鸿晨集团有限公司 一种高精度的散光板

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016068813A1 (en) 2014-10-28 2016-05-06 Prvá Optická, S.R.O. Picture for duochrome test of a person with astigmatism with known angle of cylinder
WO2016083094A1 (en) 2014-11-27 2016-06-02 Koninklijke Philips N.V. System and method for assessing eyesight acuity and hearing ability
JP2016520336A (ja) 2013-03-12 2016-07-14 リー, スティーブン ピー.LEE, Steven P. コンピュータ制御による屈折及び乱視の判定

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10108838A (ja) * 1996-10-08 1998-04-28 Canon Inc 眼科装置
WO2004034893A1 (ja) * 2002-10-21 2004-04-29 Vision Optic Co., Ltd. 検眼装置および検眼方法
FR2936142B1 (fr) * 2008-09-25 2011-12-09 Essilor Int Dispositif de mesure automatique des rayons corneens des deux yeux d'un individu
KR20110009106U (ko) * 2010-03-18 2011-09-26 장해성 시력교정 검사장치
AU2015264859B2 (en) * 2014-12-05 2020-07-23 Visibly, Inc. Vision testing for astigmatism
NZ773831A (en) * 2015-03-16 2022-07-01 Magic Leap Inc Methods and systems for diagnosing and treating health ailments
US9492074B1 (en) * 2015-04-30 2016-11-15 Opternative, Inc. Computerized refraction and astigmatism determination

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016520336A (ja) 2013-03-12 2016-07-14 リー, スティーブン ピー.LEE, Steven P. コンピュータ制御による屈折及び乱視の判定
WO2016068813A1 (en) 2014-10-28 2016-05-06 Prvá Optická, S.R.O. Picture for duochrome test of a person with astigmatism with known angle of cylinder
WO2016083094A1 (en) 2014-11-27 2016-06-02 Koninklijke Philips N.V. System and method for assessing eyesight acuity and hearing ability
JP2018500957A (ja) 2014-11-27 2018-01-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 視力と聴力を評価するためのシステムと方法

Also Published As

Publication number Publication date
EP3823516B1 (en) 2023-08-30
WO2020017959A1 (en) 2020-01-23
JP2021530295A (ja) 2021-11-11
CN112689470A (zh) 2021-04-20
US20210275012A1 (en) 2021-09-09
ES2960593T3 (es) 2024-03-05
CN112689470B (zh) 2024-02-23
EP3823516A1 (en) 2021-05-26
NL2021310B1 (en) 2020-01-24
EP3823516C0 (en) 2023-08-30

Similar Documents

Publication Publication Date Title
JP7295938B2 (ja) 乱視度数検査に関する画像を表示する画面を有するコンピューティングデバイスを使用して前記乱視度数検査を実行する方法および対応するコンピューティングデバイス
US11666211B2 (en) Computerized testing and determination of a visual field of a patient
US20230118575A1 (en) Computerized refraction and astigmatism determination
CN110573061B (zh) 眼科检查方法及仪器
US20220151488A1 (en) Computer-implemented method and system for interactively measuring ocular refractive errors, addition and power of reading glasses
CN111699432B (zh) 使用沉浸式系统确定眼睛的屈光力的方法及其电子设备
CN111344222A (zh) 执行眼睛检查测试的方法
CN109996483A (zh) 用于确定眼睛屈光的装置、方法和计算机程序
US20210401282A1 (en) Subjective refraction exam system
US20210145271A1 (en) System and method for determining prescription of corrective lenses using predictive calculations and corrected-eyesight simulation
US20230181029A1 (en) Method and device for determining at least one astigmatic effect of at least one eye
WO2023148372A1 (en) A computer-implemented systems and methods for interactively measuring either or both sides of the interval of clear vision of the eye
CN116056623B (zh) 用于确定至少一只眼睛的至少一个散光作用的方法和装置

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20210312

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230609

R150 Certificate of patent or registration of utility model

Ref document number: 7295938

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150