JP2022529893A - リーディンググラスの眼屈折誤差や加入度及び度数をインタラクティブに測定するためのコンピュータ実装式方法及びシステム - Google Patents

リーディンググラスの眼屈折誤差や加入度及び度数をインタラクティブに測定するためのコンピュータ実装式方法及びシステム Download PDF

Info

Publication number
JP2022529893A
JP2022529893A JP2021558751A JP2021558751A JP2022529893A JP 2022529893 A JP2022529893 A JP 2022529893A JP 2021558751 A JP2021558751 A JP 2021558751A JP 2021558751 A JP2021558751 A JP 2021558751A JP 2022529893 A JP2022529893 A JP 2022529893A
Authority
JP
Japan
Prior art keywords
user
optotype
electronic device
distance
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021558751A
Other languages
English (en)
Inventor
ギル,ノルベート ロペス
ブラッドリー,アーサー
トーマス ハスクルスキー,マテウス
Original Assignee
ビジョンアップ ソルーションズ エス.エル.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ビジョンアップ ソルーションズ エス.エル. filed Critical ビジョンアップ ソルーションズ エス.エル.
Publication of JP2022529893A publication Critical patent/JP2022529893A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/103Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
    • A61B3/1035Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes for measuring astigmatism
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/103Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0033Operational features thereof characterised by user input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Eye Examination Apparatus (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

視標の輻輳角を変更する光学的構成要素を必要とせずに、リーディンググラスの眼屈折誤差や加入度及び度数をインタラクティブに測定するためのシステムおよび方法。該システムは、ユーザーの眼から明瞭な視覚区間のいずれか又は両方の境界線までの距離を、1つの方位または2つの直角に交わる方位について測定できる。この測定値をユーザーの年齢と共に用いて、リーディンググラスの球面-円柱屈折、加入度及び度数を測定できる。該システムでは、該距離又はユーザーの操作によって変更できる、異なる視標の大きさや方向や色を使用できる。

Description

発明の詳細な説明
[発明の分野]
本発明は、検眼、視覚光学、生理光学、電子機器、コンピュータの分野に関し、特に、ヒトの眼の近点と遠点、及び近視・遠視・乱視及び老眼の原因となり得るそれの焦点誤差を測定するシステム及び方法に関する。
[発明の背景]
完璧な眼は、無限に離れたところにある対象物の像を網膜上に正しく結ぶ。完璧な眼の遠点(FP:Far Point)は無限遠に位置する。眼と対象物の間の距離が短くなると、眼は、遠近調節、つまり主に眼球内の水晶体の湾曲を変化させる過程によって焦点を対象物に合わせ続ける。遠近調節の最小距離に達し、水晶体がそれ以上湾曲できない状態においては、対象物が眼の近点(NP:Near Point)に位置する。検眼の場合、メートル(m)の逆数であるディオプタ(D)の単位で距離を表すことがよくある。眼のFPとNPとの距離をディオプタで表したものを調節幅(AA:Amplitude of Accommodation)と呼ぶ。完璧な眼のFPは、無限遠に位置するので0Dに相当する。例えば、完璧な眼のNPは0.1mの距離にあり、10Dに相当する。この場合、AAは10Dである。
本当の眼は年齢とともに老化し、ヒトの場合、45歳以上に達すると老眼になる、つまり眼の水晶体を変形する能力を失い始める。本当の眼の調節幅は、幼年期において約20Dであるが、年齢とともに低下し、近くの対象物の鮮明な像を網膜上に結ぶ能力を眼が失い始める後期成人期では0Dまで低下する。ヒトの眼による最大調節幅と年齢との関係については数多く報告されている[1][2]。
さらに、本当の眼において、屈折面(角膜と水晶体)での光の欠陥、且つ又は屈折誤差と呼ばれる屈折力と眼軸長の不整合が原因で発生する焦点誤差が生じる。このような誤差により、遠点が無限遠よりも近く(近視)になったり又は無限遠よりも遠く(遠視)になったりすると、像を網膜上に正しく結ぶことができず、視覚の質が低下して光学補正が必要になる。
メガネやコンタクトレンズ、眼内レンズ、又は屈折矯正手術によって補正できる屈折誤差は、球面誤差(近視又は遠視)と、円柱誤差(乱視)と老眼に分けることができる。乱視とは、眼の光学屈折力が角膜の経線(方位)によって異なるため、遠点が2つ(複数の経線)に分けられる状態、例えば、一方が水平方向に対応し、他方が像の垂直方向の構成要素に対応する状態である。これにより、縦方向の対象物(フェンスなど)の像の視覚的質が水平方向の対象物(ストライプ柄のドレスなど)の像の視覚的質と異なるため、悪心が生じたり、1つの物が二重に見えたり、視力が全般的に低下したりすることがある。乱視度数と乱視軸は遠近調整中に余り変化しないことが多く報告されている[3][4]。
リラックスした状態の眼でも、調節状態の眼でも乱視が存在し得るという事実は、FPとNPの両方を分割できることを意味する。FPとNPが、対象物の方向に応じて、それぞれ2種類の距離、つまり遠位遠点(dFP)と近位遠点(pFP)、及び遠位近点(dNP)と近位近点(pNP)にめいめい対応し得る。これらの4種類の距離は、明瞭な視覚区間の境界(BICV:Borders of the Interval of Clear Vision)に対応している。
波長の働きによる透光体の光分散が故に、FPとNPの位置は、眼の光学系によって網膜上に結ばれた対象物の分光組成(色)により異なる。例えば、2Dの近視者が黒い背景を背にした対象物を見る場合、白、青、赤の対象物に対するFPはそれぞれ0.5m、0.4m、0.53mの距離に位置し得る。左眼と右眼との距離は既知のものであり、被験者間で類似しているので、任意の波長(色)のFPとNPを計算できる[6]。
補正前に、屈折検査と呼ばれる手順で屈折誤差の種類と量を決定する必要がある。該検査は、上記の眼の焦点誤差を補正する球面レンズと円柱レンズの組合せを見つけ出す過程を含む。屈折法は、眼から外側に向かう光を測定できる専用の光学機器(他覚的屈折検査)を使用するか、又は専門医が参照表と一連の試験レンズ(主観的屈折検査)を使用して行う。
ヒトの眼では、球面・円柱補正後も完璧な焦点を達成できない。これは、報告により充分実証されているように、他覚的屈折と専門医による判断に基づく主観的屈折のいずれにも認められる誤差[8,9]や高次の単色収差[7]が存在するためである。なおまた、最適な屈折検査とは、何を行うのかによっても、見る対象物の種類によっても異なる[10]。例えば、屈折検査の目的が視力表の視標や文字を読むことである場合、文字の大きさによって異なる。軽度近視者は、修正なしで大きな文字を読むことができるが小さな文字を読むには修正を要する。同様に、軽度の老眼は中・大サイズの書体を読むことができるが、小さい活字を読むことができない。したがって、FPとNPの位置は、対象物の大きさ[11]と被験者の屈折率の両方に依存して異なる。
眼屈折誤差を測定するためのシステムや方法に関する多くの特許や特許出願が提案されている。その中には、眼の乱視を補正する円柱レンズを見つけ出す技術を含むものもある[12]。ただし、これらすべてが、眼のFPでの測定値を得ることに関連している。なおまた、これらの特許や特許出願は、光学系を使用して対象物の像における輻輳角を修正することに基づいており、該対象物からの実際の物理的な距離を変更することには基づいていない。さらに、眼の光学系により形成される像の大きさが距離に依存しないようにするために必要な、該距離に応じた対象物の大きさ(視標の画面上の大きさなど)を変更するという過程は含まれない。
本出願執筆者の知り得る限り、リーディンググラスの眼屈折誤差や度数及び加入度を、被験者の頭部と装置間の距離の測定に基づいてインタラクティブに測定するためのシステムや方法であり、対象物の大きさを連続的に変更するとともに、被験者が自分の好みに応じて、インタラクティブにBICVの1つを選択できることを特徴とするシステムや方法に関する特許や特許出願は以前に公開されていない。かかるシステムは、スクリーンやカメラ、センサ、プロセッサをはじめとする近代的な電子デバイスに実装できる。
[引用文献]
1.Duane A. Studies in Monocular and Binocular Accommodation, with Their Clinical Application(単眼・両眼遠近調節の研究、臨床的応用). Transactions of the American Ophthalmological Society.1922; 20:132-57.
2.Jackson E. Amplitude of Accommodation at Different Periods of Life(異なるライフ‐ステージにおける遠近調節幅). California state journal of medicine.1907; 5(7):163-6.
3.Borish IM. Clinical refraction(臨床屈折), 3rd ed. Chicago: Professional Press, 1970.
4.Bannon RE.A study of astigmatism at the near point with special reference to astigmatic accommodation(乱視者による遠近調節を中心とした近点乱視研究). Am J Optom Arch Am Acad Optom.1946; 23:53-75.
5.Sivak JG, Mandelman T. Chromatic dispersion of the ocular media(中間透光体の波長分散). Vision Res 1982; 22:997-1003.
6.Thibos LN, Ye M, Zhang X, Bradley A. The chromatic eye: a new reduced-eye model of ocular chromatic aberration in humans(色収差を伴う眼:ヒトの眼における色収差の新しい還元眼モデル). Appl Opt 1992; 31:3594-3600.
7.Charman WN. Wavefront aberration of the eye: a review(眼の波面収差:レビュー). Optom Vis Sci 1991; 68:574-583.
Bullimore, M. A., Boyd, T., Mather, H. E., & Gilmartin, B. (1988).Near retinoscopy and refractive error(近視検影法と屈折誤差). Clinical and Experimental Optometry, 71(4), 114-118.
Bullimore, M. A., Fusaro, R. E., & Adams, C. W. (1998).The repeatability of automated and clinician refraction(自動臨床屈折の再現性). Optometry and vision science: official publication of the American Academy of Optometry, 75(8), 617-622.
Lopez-Gil, N., Peixoto-de-Matos, S. C., Thibos, L. N., & Gonzalez-Meijome, J. M. (2012).Shedding light on night myopia(夜間近視の解明). Journal of Vision, 12 (5):4, 1-9.
Heath G. G. (1956).The influence of visual acuity on accommodative responses of the eye(眼の遠近調節反応における視力の影響). Am. J. Opt&t.& drchs Am. Acad.Oprom.33.513-524.
Limon, Ofer. System and method for measurement of refractive error of an eye based on subjective distance metering(主観的距離計測に基づいて眼屈折誤差を測定するためのシステムおよび方法). 特許文献:国際公開第2014/195951号
[発明の概要]
本発明とは、リーディンググラスの眼屈折誤差や加入度及び度数をインタラクティブに測定するためのコンピュータ実装式方法及びシステムに係る。本発明の方法は、BICVのいずれかに対応して被験者の頭部と電子デバイスとの間の距離をインタラクティブかつ主観的に測定することに基づく。
本出願で提案するシステムには、次のような電子デバイス構成要素を含み得る。
a.1台以上のカメラなどの受動部品又はエミッターや検出器などの能動部品若しくはこれらの任意の組合せを含み得る距離測定回路
b.触知性面を備える電子画面やキーパッドやマイクなど、又はこれらの如何なる組合せを含み得るユーザーインターフェイス
c.プロセッサ、メモリモジュール、システムモジュールとコンポーネントとリモートネットワーク間の有線又は無線接続など、あるいはこれらの任意の組合せを含み得る制御回路及び処理回路
本出願で提案する方法は次のステップを含み得る。
a.年齢(AGE)、性別、地理的位置、検査対象の眼などのユーザーに関する情報又はこれらの任意の組合せを取得するステップ
i.本発明の一部の実施形態によると、ユーザーに関する情報の取得には、ユーザーに該情報のユーザーインターフェイスへの入力を促すようにユーザインターフェイスモジュールを構成することを含む。
ii.本発明の一部の実施形態によると、ユーザーに関する情報の取得には、電子デバイスに含まれるカメラやその他のデータベースからのユーザー頭部の画像に基づいて、該情報を自動的に検出することを含む。
b.1つ以上の文字又は視力表視標、幾何学模様、若しくは静止画像や動画など、あるいはこれらいずれかの組合せといった視標を電子画面上に表示するステップ
i.本発明の一部の実施形態によると、視標を電子画面上に表示することには、ユーザーによるユーザーインターフェイスを使用した電子デバイスの操作に応じて、大きさや形状、回転、色、背景色、その他の特徴、又は上記いずれかの任意の組合せを変更することを含む。
ii.本発明の一部の実施形態によると、視標を電子画面上に表示することには、ユーザーの頭部と電子デバイスの間の距離を変更することで大きさや形状、回転、色、背景色、その他の特性、又は上記いずれかの任意の組合せを変更することを含む。
c.視標の主観的な視覚的な質を基準に従って最適化するべくユーザーの頭部と電子デバイスの間の距離を変更するステップ
i.本発明の一部の実施形態によると、ユーザーの頭部と電子デバイス間の距離の変更には、ユーザーが電子デバイスを手に持って、自分の顔に近づけたり、顔から離したりすることを含む。
ii.本発明の一部の実施形態によると、ユーザーの頭部と電子デバイス間の距離の変更には、1つ以上の反射面、電子デバイスを配置し、デバイスと反射面間の距離又は頭部と反射面間の距離を変更すること、又はその任意の組合せを含む。
iii.本発明の一部の実施形態によると、ユーザーの頭部と電子デバイス間の距離の変更には、第三者(他の者など)や別の装置など、又は上記いずれかの任意の組合せによる距離の変更を含む。
d.特定の視覚的質の基準を満たすBICVのいずれかを測定するステップ
i.本発明の一部の実施形態によると、BICVのいずれかの測定には、一定の角度αに向けた空間的特徴を有する視標をユーザーに提示するべく電子画面上に表示し、それに対応するユーザーと視標間の距離を測定することを含み得る。
ii.本発明の一部の実施形態によると、BICVのいずれかの測定には、ユーザーに対して異なる角度β(例:角度αに対して垂直な角度など)で空間的ディテールを表示し、それに対応するユーザーと視標間の距離を測定することをさらに含み得る。
iii.本発明の一部の実施形態によると、BICVのいずれかの測定には、電子デバイスに含まれる距離測定回路を測定を行うように構成することを含み得る。
iv.本発明の一部の実施形態によると、BICVのいずれかの測定には、定規やレンジファインダなど、あるいは上記いずれかの任意の組合せなどの外部装置を使用して測定を行うことを含み得る。
v.本発明の一部の実施形態によると、該視覚的質の基準には、視力基準(例:線や文字を見分けることができるかなど)、対比感度基準(例:灰色系色調の区別)、色識別基準(例:色の区別)、主観的な明瞭度その他、又は上記いずれかの任意の組合せを含み得る。
e.測定したBICVや、対象物に関する情報(視標の色など)や、ユーザーに関する情報(年齢、性別など)やその他情報、又は上記のいずれかの組合せからリーディンググラスの眼屈折誤差と度数と加入度を計算するステップ
f.測定したBICVや、対象物に関する情報(視標の色など)や、ユーザーに関する情報(年齢、性別など)やその他情報、又は上記のいずれかの組合せから得たリーディンググラスの眼屈折誤差と度数と加入度を格納するステップ
[図面の簡単な説明]
後述の詳細な説明に付随する以下の図面は、本発明の性質とその利点をさらに詳しく説明するためのものである。
第1図は、本発明の一実施形態による、リーディンググラスの眼屈折誤差や加入度及び度数をインタラクティブに測定するためのシステムの一例を示す概略図である。
第2図は、本発明の一実施形態による、リーディンググラスの眼屈折誤差や加入度及び度数をインタラクティブに測定するための電子デバイスであり、距離測定モジュールにカメラを含み、ユーザーインターフェイスに画面を含む電子デバイスの一例を示すブロック図である。
第3図は、本発明の一実施形態による、リーディンググラスの眼屈折誤差や加入度及び度数をインタラクティブに測定するための電子デバイスの例示的な画面の一例を示す図である。
第4図は、本発明の一実施形態による、頭部と電子デバイスの距離によって視標を変更するサブプロセスの一例を説明するフローチャートを示す図である。
第5図は、本発明の一実施形態による、リーディンググラスの眼屈折誤差や加入度及び度数をインタラクティブに測定する例示的なプロセスのフローチャートを示す図である。
[詳細な説明]
本発明は、リーディンググラスの眼屈折誤差や加入度及び度数をインタラクティブに測定するためのコンピュータ実装式システムと方法に関する。本発明の方法は、被験者の頭部と電子デバイスとの間の距離を、特に、いずれかのBICVに対応して、主観的かつインタラクティブに測定することに基づく。本発明は、いくつかの実施形態において、ユーザーが自分の眼又は他者の眼の屈折誤差を、光学補正を伴って又は伴わずに、正確に測定できるシステムと方法を提供する。
第1図は、本発明の一実施形態による、リーディンググラスの眼屈折誤差や加入度及び度数をインタラクティブに測定するためのコンピュータ実装式システムの一例を示す概略図である。システム100には、距離測定回路110、ユーザーインターフェイス120、制御回路130、処理回路140、格納部150、及び通信回路160を含むことができる。一部の実施形態では、1つ以上のデバイス構成要素を組み合わせたり、省略したりできる。システム100には、第1図に図示しない追加の構成要素、又は前述の構成要素の任意の組合せを含むことができる。
システム100には、ユーザーの頭部とデバイスの間の距離を測定するために使用する距離測定回路を備えた如何なる適切なタイプの電子デバイスを含むことができる。例えば、携帯電話やタブレット、「スマート」テレビ、パーソナルデジタルアシスタント(PDA)、ラップトップ又はデスクトップコンピュータ、単体で使用できるカメラやビデオレコーダー、及びその他の適切なデバイスなど、カメラ機能と光センサを備えたデバイスのいずれかをシステム100に含むことができる。システム100に含む電子デバイスとしては、持ち運び可能なデバイスが好ましいが、必ずしもそれに限らない。
距離測定回路110には、ユーザーの頭部又はその一部と電子デバイスの間の距離を測定するための如何なる回路、エミッター、及び検出器を含むことができる。一部の実施形態では、距離測定回路110に、ユーザーの頭部の画像を撮影するためのカメラ1台以上と、その画像を基にしてユーザーの頭部又はその一部とデバイスとの間の距離を計算するための回路からなる受動的システムを含むことができる。一部の実施形態では、距離測定回路110に、該距離を測定するための1つ以上のエミッターと検出器からなる能動的システムを含むことができる。
ユーザーインターフェイス120には、1つ以上のスクリーン、スピーカー、触知性面、キーパッド、マイク、その他ユーザーとのやり取りに適した機構、又はこれらの任意の組合せを含むことができる。例えば、一部の実施形態では、ユーザーインターフェイス120に、視標を表示したりユーザー入力を受信したりするための触知性電子画面を含むことができる。
制御回路130には、プロセッサや、マイクロコントローラ、及び接続部など、システム100に含まれる電子デバイスの機能、動作、及び性能を制御する如何なる種類の回路を含むことができる。さらに、制御回路130を、システム100の他の構成要素又はそれの如何なる組合せと電子的に連結できる。例えば、発明の一部の実施形態では、制御回路130がユーザーインターフェイス120に制御信号を送信して、ユーザーインターフェイス120をユーザーからの入力を受信したりユーザーに指示を与えたりするように構成できる。
処理回路140には、眼の球面誤差と円柱誤差やリーディンググラスの度数と加入度を計算するために、プロセッサや、マイクロコントローラ及び接続部、又はこれらの任意の組合せなど、距離測定回路110やユーザーインターフェイス120及びその他システム100の構成要素からのデータを処理するように設計されている如何なる種類の回路を含むことができる。さらに、処理回路140は、システム100の他の構成要素又はその如何なる組合せと電子的に連結できる。例えば、本発明の一部の実施形態では、処理回路140は、ユーザーインターフェイス120又は距離測定回路110を構成するための信号を制御回路130に送信できる。
格納部150は、HDD、SSD、RAM、ROM、EPROM、フラッシュEEPROM、CF(Compact Flash)カードのSD(Secure Digital)カードなどのフラッシュメモリカード、その他システム100に含まれる電子デバイスに適した種類のメモリをはじめとする如何なるタイプの内部メモリ又は外部メモリなど、1つ以上の格納媒体を含み得る。
通信回路160には、システム100に含まれる電子デバイスを通信ネットワークに接続し、Wi-Fi(802.11プロトコルなど)や、Bluetooth(登録商標)、セルラープロトコル(GSM、GPRS、CDMA、EDGE、LTEなど)、その他の通信プロトコル、又はこれらの任意の組合せなどの適切なプロトコルを使用してデータを送信するのに適した如何なる回路を含むことができる。
第2図は、本発明の一実施形態による、リーディンググラスの眼屈折誤差や加入度及び度数をインタラクティブに測定するための電子デバイス200の一例を示すブロック図である。
電子デバイス200は、第1図に示すシステム100に含まれる電子デバイスと非常によく似ているので、その説明については第1図の当該構成要素についての説明を参照されたい。例えば、電子デバイス200には、格納部250及び通信回路260も含むことができる。格納部250及び通信回路260は、システム100内の電子デバイスのそれぞれ相当する構成要素である格納部150、通信回路160その他、又はこれらの任意の組合せに実質的に類似している。
距離測定回路210は、距離測定回路110に類似したものであり得、ユーザーの頭部270と電子デバイス200の間の距離を測定するのに適した如何なる手法又は手法の組合せを使用する。
ユーザーインターフェイス220は、制御回路230及び処理回路240に接続できる。ユーザーインターフェース(120,220)が、視覚的な指示メッセージ(第3図304を参照)や音声メッセージ、その他ユーザーインターフェイス手法、又は上記の手法の任意の組合せによりユーザーに指示を与えるように構成できる。さらに、ユーザインターフェース(120,220)が、タッチスクリーンへの接触やスワイプ操作、又はキーパッドやキーボードでのタイプ入力、マイクでの音声入力、カメラによる身ぶり手ぶりの検出、ジャイロスコープなどによる身ぶり手ぶりの検出、あるいは上記いずれかの任意の組合せによるユーザーからの入力を受信するように構成できる。
制御回路230は制御回路130に類似しており、処理回路240は処理回路140に類似している。処理回路240は、計測回路210から得られるユーザーの頭部又はその一部270と電子デバイス200との距離の測定とユーザーインターフェイス220から得られるユーザー入力(両者とも制御回路230からの信号からなる)に基づいてリーディンググラスの眼屈折誤差と度数と加入度を計算するための適切な如何なる手法や手法の組合せを使用できる。
たとえば、制御回路230によって、ユーザーインターフェイス220がユーザーに対して、電子デバイス200をユーザーの頭部270にゆっくりと近づけて、かかる接近のおかげで触知性画面220の表示が見えるようになった位置(明瞭な視覚区間の境界近点に相当)で止めるよう指示するように構成できる。さらに、制御回路230は、触知性画面220を接触操作して該近接点を示すよう、ユーザー(又は他の操作者)に指示できる。その後、処理回路240は、当該のユーザー入力と、その時点において距離測定回路210から得られるユーザーの頭部270と電子デバイス200との間の距離の測定を用いてdNPとpNPを測定できる。もう1つの例として、ユーザーインターフェイス220は、電子デバイス200をユーザーの頭部270からゆっくりと離すように動かして、かかる間隔の拡大のおかげで触知性画面220の表示が見えるようになった位置(明瞭な視覚区間の遠位境界に相当)で止める指示をユーザーに与えることができる。さらに、制御回路230は、ユーザーに対して、触知性画面220の接触操作により該近接点を示すよう指示できる。その後、処理回路240は、当該のユーザー入力と、その時点において距離測定回路210から得られるユーザーの頭部270と電子デバイス200との間の距離の測定値とからdPFとpFPを測定できる。さらに、処理回路240は、BICV及びその他ユーザーの年齢や性別、検査対象の眼などの追加情報又はこれらの任意の組合せを計算するために適した如何なる技術又は技術の組合せを使用できる。
一部の実施形態において、処理回路240は、距離測定回路210に含まれるカメラから得られるユーザーの頭部270の画像に基づいてユーザーの年齢や性別、検査対象の眼を自動的に検出できる。一部の実施形態では、処理回路240が制御回路230に信号を送り、ユーザーの年齢、性別、検査対象の眼などの情報又は上記の任意の組合せを入力することをユーザーに促すようにユーザーインターフェイス220に含まれる触知性画面を構成することで、ユーザーの年齢や性別情報を得ることができる。
本発明の一部の実施形態では、制御回路230によって、ユーザーインターフェイス220に含まれる触知性画面を、ユーザーが電子デバイス200をBICVのいずれかに配置する際に援助するべく視標を表示するように構成できる。
第3図は、本発明の一実施形態による、リーディンググラスの眼屈折誤差や加入度及び度数をインタラクティブに測定するための電子デバイス300の例示的な画面の一例を示す図であり、ユーザーインターフェイスに含まれる触知性画面に視標が表示されている状態を示している。
電子デバイス300は、第1図に示すデバイス100と第2図に示すデバイス200と実質的に類似しているので、その説明については第1図又は第2図のいずれか又は両方の構成要素についての説明を参照されたい。例えば、電子デバイス300は、距離測定回路310にカメラを、そしてユーザーインターフェイス320に触知性画面を含むことができる。一部の実施形態では、ユーザーインターフェイス320に含まれる触知性画面を、ユーザーに対して視標330を表示するように構成できる。かかる視標には、視力表視標330a、文字列330b、幾何学模様330c,d、灰色識別検査330e、色覚検査330f、視空間認知検査330g、又は画像や動画330hといった種類の視標、若しくは上記いずれかの任意の組合せが含まれるが、必ずしもこれらに限定されない。
一部の実施形態では、ユーザーの頭部270と電子デバイス300間の測定距離に応じて視標330の特徴を変更するように構成できる。例えば、視標330を、ユーザーの頭部270と電子デバイス300の間の距離が変わるにつれて大きさや形状、回転、色、背景色などの特徴、あるいは上記いずれかの任意の組合せを変更するように構成できる。
一部の実施形態では、ユーザーインターフェイス320からのユーザー入力に応じて、視標330の特徴を変更するように構成できる。例えば、スワイプ操作やタップ操作、クリック、音声コマンドその他身振り手振り若しくは上記いずれかの任意の組合せにより、ユーザーがタッチスクリーン320を使用して電子デバイス300を操作した結果として、視標330の大きさや形状、回転、色、背景色、又はその他の特徴若しくは上記いずれかの任意の組合せを変更するようにも構成できる。さらに、一部の実施形態では、ユーザーが、キーパッドやキーボード、マウス、マイク、又はその他のインターフェース手法、あるいは上記いずれかの任意の組合せを使用してユーザーインターフェイス320を操作できるようになっている。
第4図は、本発明の一実施形態による、頭部と電子デバイスの距離によって視標400を変更するサブプロセスの一例を説明するフローチャートを示す図である。サブプロセス400は、いくつかのステップからなり得る。一部の実施形態では、サブプロセス400のステップの順序を変更したり、一部のステップを省略又は繰り返したりできる。さらに、サブプロセス400を、別のプロセス(親プロセス)にサブプロセスとして含むこともできる。
サブプロセス400は、距離測定回路(110、210、310)とユーザーインターフェイス(120、220、320)及びその他電子デバイス(100、200、300)に含まれる1つ以上の構成要素を備えた電子デバイス(100、200、300)により実行できる。
サブプロセス400は親プロセスから続行するプロセスであり、サブプロセス400の最初のステップは、視標330を画面320に表示するようにユーザーインターフェイス(120、220、320)を設定できるブロック410から開始され得る。例えば、本発明の一実施形態では、該視標が、視力表視標330a、又は文字列330b、又は1つ以上の平行線330c,330d、又は1つ以上の灰色斑点330e若しくは色付き斑点330f、又は格子状330gなどの幾何学模様などの幾何学模様、又は画像330h、あるいはその他の種類の視標、若しくは上記いずれかの任意の組合せであり得る。
ブロック420で、ユーザーは、自分の頭部270と電子デバイス(100、200、300)間の距離を変更できる。さらに、距離測定回路(110、210、310)は、ユーザーの頭部270と電子デバイス(100、200、300)間の距離測定値を含む信号を処理回路(140、240)に送信できる。先に述べたように、距離測定回路(110、210、310)では、ユーザーの頭部270と電子デバイス間の距離を測定するのに適した如何なる手法又は手法の組合せを使用できる。さらに、ユーザーの頭部とデバイス間の距離を、別の方法(定規やレンジファインダなど)を使用して測定し、ユーザーインターフェイス(120、220、320)に入力することもできる。
本発明のいくつかの実施形態によると、ユーザーの頭部270と電子デバイス間の距離の変更には、ユーザーが電子デバイスを手に持って顔にづけたり、顔から離したりすることを含み得る。
本発明の一部の実施形態において、ユーザーの頭部270と電子デバイス間の距離の変更には、電子デバイスの前に鏡などの反射面を(鏡に映るユーザーの頭部270が電子デバイスの視野内に収まるように)配置して、デバイスと鏡の間の距離、又はユーザーの頭部又はその一部270と鏡の間の距離、若しくはこれらの任意の組合せを変更することを含み得る。
本発明の一部の実施形態において、ユーザーの頭部270と電子デバイス間の距離の変更には、第三者(他の者など)や別の装置など、又は上記いずれかの任意の組合せによる距離の変更を含むことができる。
ブロック430で、ユーザーインターフェイスが視標330の特徴を変更するように構成できる。例えば、本発明の一実施形態では、距離測定回路(110、210、310)によって、ユーザーの頭部270と電子デバイス(100、200、300)間の距離測定値を含む信号を処理回路(140、240)に送信できる。処理回路は、任意の手法又は手法の組合せを使用して該信号を処理して、制御回路(130、230)に信号を送信できる。引き続き、制御回路(130、230)によって、ユーザーインターフェイス(120、220、320)を、視標330の大きさ、形状、回転、色、背景色などの特徴やその他の特徴、又は上記いずれかの任意の組合せを、ユーザー頭部270と電子デバイス間の距離に応じて変更するように構成できる。
ブロック440は、視標330が特定の視覚的な質の基準を満たしているかどうかを評価する指示をユーザーに与えるようにユーザーインターフェイス(120、220、320)を構成する判断ブロックであり得る。例えば、本発明の一実施形態では、視覚的な質の基準が、視力基準(例えば、視力表視標(330a)や文字列(330b)を読み取ることができか、又は2本以上の平行線(330c,d)を区別できるかなど、又は上記いずれかの任意の組合せ)であり得る。別の例として、本発明の一実施形態では、視覚的な質の基準が、対比感度基準(灰色斑点(330e)を区別できるか、各斑点をマッチできるかなど)、又は色識別基準(色(330f)を区別したり、色をマッチできるかなど)、又は視空間認知基準(例:格子状のたわみなど、幾何学模様(330g)の変形を見付ることができるか)、画像(330g)又は画像内の細目を認めたりできるかなどの基準、あるいは上記いずれかの任意の組合せであり得る。
さらに、判断ブロック450において、視標330が特定の視覚的な質の基準を満たしていることをユーザーがユーザーインターフェイス(120、220、320)への入力により示す場合、サブプロセス400はブロック440に進むことができる。
一方、判断ブロック450において、視標330が特定の視覚的な質の基準を満たしていないことをユーザーがユーザーインターフェイス(120、220、320)への入力により示す場合、プロセス400はブロック460(判断ブロックであり得る)に移動できる。判断ブロックであり得るブロック450では、ユーザーの頭部270と電子デバイス間の距離をさらに変更できる場合、サブプロセス400はブロック420に戻ることができる。一方、ブロック450で、該距離を変更できない場合(例えば、ユーザーが電子デバイスを腕の長さよりも遠くに移動できない場合)、サブプロセス400はブロック450に進むことができる。
ブロック440では、ユーザーの頭部270と電子デバイス(100、200、300)の間の距離を、ユーザー入力データ(但し必ずしもこれに限定されない)とともに格納部(150、250)に格納できる。さらに、サブプロセス400はブロック440で、それ自体が含まれる親プロセスに戻ることができる。
第5図は、本発明の一実施形態による、リーディンググラスの眼屈折誤差や加入度及び度数をインタラクティブに測定する例示的なプロセス500のフローチャートを示す図である。サブプロセス500は、いくつかのステップからなり得る。一部の実施形態では、プロセス500のステップの順序を変更したり、一部のステップを省略又は繰り返したりできる。
サブプロセス500は、距離測定回路(110、210、310)とユーザーインターフェイス(120、220、320)及びその他電子デバイス(100、200、300)に含まれる1つ以上の構成要素を備えた電子デバイス(100、200、300)により実行できる。
プロセス500はブロック510から開始できる。このブロック510では、電子デバイス(100、200、300)のユーザーインターフェイス(120、220、320)が、ユーザーの年齢や性別、被験者が既にポーティング済みの眼科用レンズやコンタクトレンズの球面-円柱度数や頂点間距離などのユーザー入力情報あるいはこれらの任意の組合せを受信するように構成できる。例えば、本発明の一実施形態では、ユーザーが触知性画面や音声認識回路など、あるいはこれらの任意の組合せを使用してユーザーインターフェイスに該情報を入力することをユーザーに促すようにユーザーインターフェイス(120、220、320)を構成することによって該情報を取得できる。別の例として、本発明の一実施形態では、該ユーザーインターフェイスに含まれているカメラから得られるユーザーの頭部270の画像に基づいて該情報を検出することで、自動的に該情報を取得できる。
ブロック520では、ユーザーインターフェイス(120、220、320)が、ユーザーに対して、いずれか(左又は右)の眼又は両方の眼を使って電子デバイス(100、200、300)を操作する指示を与えるように構成できる。
ブロック530では、プロセス500にサブプロセス400を含むことができる(図4を参照)。例えば、本発明の一実施形態では、ユーザーが、プロセス500のブロック520に含まれるサブプロセス400の判断ブロック430でユーザーインターフェイス(120、220、320)にユーザー入力を提供することにより、視標330の視覚的な質が、明瞭な視覚区間の遠位又は近位境界BICVのいずれかに位置する又はいずれかの近くに位置する電子デバイス(100、200、300)に対応する特定の基準を満たすことを示し得る。プロセス500のブロック530に含まれるサブプロセス400のブロック440(図4)において、電子デバイス(100、200、300)と被験者の頭部270との距離を格納部(150、250)に格納できる。
ブロック540で、ユーザーインターフェイス(120、220、320)が、新しい視標を表示し、ユーザーに対して電子デバイス(100、200、300)を操作しながら視標の方位として希望する角度を選択する指示を与えるように構成できる。一例として、本発明の一実施形態では、dFP(又はpNP)の近くに位置する電子デバイス(100、200、300)のユーザーインターフェイス(120、220、320)が、視標の方位αdFP(又はαpNP)として希望する角度を含むユーザー入力を受け取るように構成できる。本発明の一実施形態では、ユーザーインターフェイス(120、220、320)が、タッチスクリーンへの接触やスワイプ操作、又はキーパッドやキーボードでのタイプ入力、マイクでの音声入力、カメラによる身ぶり手ぶりの検出、ジャイロスコープなどによる身ぶり手ぶりの検出、あるいは上記いずれかの任意の組合せなどによるユーザーからの入力に応じて、触知性画面320の視標330を変更するように構成できる。さらに別の例として、本発明の一実施形態では、ユーザーインターフェイス(120、220、320)が、一式の平行線を含むが必ずしもこれらに限定されない視標330を触知性画面320に表示するとともに、該触知性画面320からのユーザー入力を受け取って、該視標320の方位の角度αdFP(又はαpNP)を変更するように構成できる。
ブロック550において、ブロック540でユーザーが選択した視標の方位として希望する角度αdFPを格納部(150、250)に格納できる。
ブロック560では、プロセス500にサブプロセス400を含むことができる(図4を参照)。ブロック410では、ユーザーインターフェイス(120、220、320)が、一式の平行線を含むが必ずしもこれらに限定されない新規視標330をαdFP(α又はpNP)の角度で触知性画面320に表示するように構成できる。プロセス500のブロック560に含まれるサブプロセス400の判断ブロック430では、ユーザーが、ユーザーインターフェイス(120、220、320)にユーザー入力を提供することにより、dFP(又はpNP)に位置する又はその近くに位置する電子デバイス(100、200、300)に対応する特定の基準を視標330の視覚的な質が満たしていることを示し得る。サブプロセス400のブロック440では、dFP(又はpNP)を格納部(150、250)に格納できる。
ブロック570では、プロセス500にサブプロセス400を含むことができる(図4を参照)。ブロック410では、ユーザーインターフェイス(120、220、320)が、一式の平行線を含むが必ずしもこれらに限定されない新規視標330をαpFP=αdFP+90°(又はαdNP=αpNP-90°)の角度で触知性画面320に表示するように構成できる。プロセス500のブロック570に含まれるサブプロセス400の判断ブロック430では、ユーザーが、ユーザーインターフェイス(120、220、320)にユーザー入力を提供することにより、pFP(又はdNP)に位置する又はその近くに位置する電子デバイス(100、200、300)に対応する特定の基準を視標330の視覚的な質が満たしていることを示し得る。サブプロセス400のブロック440では、pFP(又はdNP)を格納部(150、250)に格納できる。
ブロック580において、処理回路(140、240)は、任意の手法又は手法の組合せを使用して、dFP、pFP、αdFP、αpFP、dNP、pNP、αdNP又はαpNPなど、若しくはこれらの任意の組合せなどから、球面(SPH)、円柱(CYL)、軸(AXS)などの眼屈折誤差を計算できる。
本発明の一実施形態では、例えば、以下の式により、αdFPとαpFPからAXSを計算できる。
0° <αdFP < 90°の場合、AXS = 90° -αpFP;又は
それ以外の場合、AXS = 270°-αdFP; 式1
及びαdFP =αpFP - 90° 式2
さらに、例えば、以下の式により、αdFPとαpFPからAXSを計算できる。
αdNP < 90°の場合、AXS = 90° -αdNP;又は
それ以外の場合、AXS = 270°-αdNP; 式3
及びαdNP =αpNP - 90° 式4
式中、αdNPとαpNPとαdFPとαpFPは、1°~180°の角度で表す。
さらに、例えば、以下の式により、dFPとpFPからSPHとCYLを計算できる。
SPH = - 1/dFP + K 式5
CYL = - (1/pFP - 1/dFP) 式6
式中、パラメータKは視標と背景色によって異なる。背景が黒の場合、白、青、赤の視標についてはそれぞれK=0D、K>0D、及びK<0Dとなる。Kの特定値は、物理的な視対象の発光スペクトルによって異なる。
本発明の一実施形態では、例えば、以下の式によっても、dFPとpFPからSPHとCYLを計算できる。
SPH = AA - 1/dNP + K 式7
CYL = - (1/pNP - 1/dNP) 式8
式中、AA値は、次のように年齢AGEによって異なる。
AGE <= 52歳の場合、AA = 15.6 - 0.3 * AGE;又は
それ以外の場合、AA=0D 式9
dFP、pFP、dNP、pNPの値をメートル単位で表し、Kをディオプタで表すことができる。AGEは年単位で表すことができる。
さらに、ブロック580では、処理回路(140、240)が、dNPやpNPその他パラメータ又はこれらの任意の組合せから、リーディンググラスの度数(P)を計算するための如何なる手法や手法の組合せを使用できる。例えば、本発明の一実施形態では、リーディンググラスの度数Pを次のように計算できる。
E(1 / ((dNP + pNP)/2) + K) < 3Dの場合、P = 3 D - E (1 / ((dNP + pNP)/2) + K)
それ以外の場合、P = 0 D 式10
式中、Pをディオプタで表し、Eを0~1の定数値で表すことができる。
先にも述べたように、プロセス500のブロック520では、ユーザーインターフェイス(120、220、320)が、ユーザーに対して、いずれか(左又は右)の眼又は両方の眼を使って電子デバイス(100、200、300)を操作する指示を与えるように構成できる。一例として、本発明の一実施形態では、プロセス500のブロック530に含まれるサブプロセス400のブロック410(図4)において、ユーザーインターフェイス(120、220、320)が、文字列(330b)を含むがそれに限定されない視標330を表示するように構成できる。サブプロセス400のブロック440で、近点の距離NPを格納部(150、250)に保管して、リーディンググラスの度数Pを次のように計算できる。
E(1 / NP + K) < 3 Dの場合、P = 3 D - E(1 / NP + K)
それ以外の場合、P = 0 D 式11
式中、NPをメートル単位で表すことができる。
発明の1つの実施形態では、次の方程式を用いてリーディンググラスの加入度(ADD)を計算することができる。
P > (SPH + CYL/2) の場合、ADD = P - (SPH + CYL/2);又は
それ以外の場合、ADD=0D 式12
式1~式12は角膜屈折率に対応している。
さらに、プロセス500のブロック580において、電子デバイス(100、200、300)に含まれる処理回路(140、240)では、適切な如何なる手法又は手法の組合せを使用して、dFPやpFP、dNP、pNP、FP、NP、頂点間距離(VD)など、あるいはこれらの任意の組合せに基づく角膜面屈折率から、リーディンググラスの眼鏡面屈折率や度数を計算できる。VDは補正の種類によって異なる(通常、コンタクトレンズの場合は0.0m、メガネの場合は0.014m)。
ブロック590では、SPH、CYL、AXS、FP、NP、P、ADD、dFP、pFP、αdFP、αpFP、dNP、pNP、αdNP、αpNP、VDなどのパラメータや、ユーザー入力など、若しくは上記いずれかの任意の組合せを格納部(150、250)に保存できる。
本発明の一実施形態による、リーディンググラスの眼屈折誤差や加入度及び度数をインタラクティブに測定するためのシステムの一例を示す概略図である。 本発明の一実施形態による、リーディンググラスの眼屈折誤差や加入度及び度数をインタラクティブに測定するための電子デバイスであり、距離測定モジュールにカメラを含み、ユーザーインターフェイスに画面を含む電子デバイスの一例を示すブロック図である。 本発明の一実施形態による、リーディンググラスの眼屈折誤差や加入度及び度数をインタラクティブに測定するための電子デバイスの例示的な画面の一例を示す図である。 本発明の一実施形態による、頭部と電子デバイスの距離によって視標を変更するサブプロセスの一例を説明するフローチャートを示す図である。 本発明の一実施形態による、リーディンググラスの眼屈折誤差や加入度及び度数をインタラクティブに測定する例示的なプロセスのフローチャートを示す図である。

Claims (16)

  1. 電子デバイス(100、200、300)のユーザーのリーディンググラスの眼屈折誤差や加入度及び度数をインタラクティブに測定するためのコンピュータ実装式方法であり、
    ・電子デバイス(100、200、300)の電子画面320上に視標330を表示することと、
    ・ユーザーからの入力を受信し、該ユーザーの入力に基づいて視標330の空間的特徴を変更することと、
    ・電子デバイス(100、200、300)の電子画面320が、視標330の視覚的な質が特定の視覚的な質の基準を満たす明瞭な視覚区間の境界端(BICV)のいずれかに位置することを示すユーザーからの入力を受け取ることと、
    ・ユーザーの頭部270又はその一部と、少なくとも1つのBICVとの間の距離を測定することと、
    ・少なくとも1つの屈折パラメータ(例:球面SPH、円柱CYL、軸AXS、リーディンググラスの度数P又は加入度ADDなどを含むが必ずしもこれに限らない)を、該距離やユーザーの年齢(AGE)、該視標のスペクトル色の特徴、その他のパラメータ、あるいはこれらの任意の組合せ合わせから計算することと、を含むコンピュータ実装式方法。
  2. 電子デバイス(100、200、300)の電子画面320上に視標330を表示することには、該ユーザーと該電子デバイスの距離に応じ、該視標330のサイズや方位、位置、色などを含むが必ずしもこれに限らない特徴を互いに独立して変更することを含むことを特徴とする請求項1に記載のコンピュータ実装式方法。
  3. 電子デバイス(100、200、300)の電子画面320上に視標330に次のものを含むことを特徴とする請求項1又は2に記載のコンピュータ実装式方法。
    ・1つの文字、視力表視標又はその一群330a
    ・文字列330B
    ・幾何学模様(330c,d)
    ・色又はグレースケールのパターン(330e,f)
    ・格子状(330g)などの繰り返しパターン
    ・画像又は映像330h
    ・その他の空間刺激(点など)、又は上記何れかの任意の組み合わせ
  4. 該ユーザーの入力に応じて変更される視標330の特徴には、回転や平行移動、サイズ変更、形状変更、色の変更など、又はこれらの任意の組合せが含まれることを特徴とする請求項1から3のいずれか1項に記載のコンピュータ実装式方法。
  5. ユーザーのリーディンググラスの眼屈折誤差や度数及び加入度のインタラクティブな測定に次のことを含むことを特徴とする請求項1に記載のコンピュータ実装式方法。
    ・ユーザーにより電子画面320上の視標330の回転を、該視標の画像の視覚的質が特定の視覚的な質の基準を満たす角度であり、視標の方向としてユーザーが希望する好ましい角度にインタラクティブに変更することと
    ・電子画面320とユーザーの頭部270又はその一部との間の第1距離を測定することと、
    ・該好ましい視標方位角度に対して垂直に向かう1本以上の線を含むように視標330を変更することと、そこで電子画面とユーザーの頭部270との間の第2距離を測定することと
    ・少なくとも1つの屈折パラメータ(例:SPH、CYL、AXS、P又はADDなどを含むが必ずしもこれに限らない)を、第1と第2の距離や、好ましい視標方位角度、ユーザーのAGE、該視標のスペクトル色の特徴、その他のパラメータ、あるいはこれらの任意の組合せ合わせから計算すること
  6. 該好ましい視標方位角度は、電子デバイス(100、200、300)の画面320又は画面上の刺激をユーザーの視線の周りで物理的に回転させることにより見つけることを特徴とする請求項1又は5に記載のコンピュータ実装式方法。
  7. 該好ましい視標方位角度は、電子デバイス(100、200、300)の画面320に対して回転できるユーザーの頭部270又はその一部の画像に基づいて計算されることを特徴とする請求項1又は5に記載のコンピュータ実装式方法。
  8. 該第1の距離は、ユーザーの年齢と該第2の距離の間の数学的関係から計算できることを特徴とする請求項5に記載のコンピュータ実装式方法。
  9. ユーザーの頭部又はその一部270のユーザーの眼と該電子デバイス(100、200、300)の画面320との間に反射面を配置して、該視標から該ユーザーの眼に移動する光の光路長を変更できることを特徴とする請求項1から8のいずれか1項に記載のコンピュータ実装式方法。
  10. 該屈折パラメータ(SPH、CYL、AXS、P、ADDなどを含むが必ずしもこれに限定されない)の少なくとも1つを、角膜面から眼鏡面までの又は眼鏡面から角膜面までの頂点距離(VD)と該パラメータとの間の数学的関係から再計算できることを特徴とする請求項1から9のいずれか1項に記載のコンピュータ実装式方法。
  11. 該ユーザーの年齢(AGE)を次のいずれかの方式で取得できることを特徴とする請求項1に記載のコンピュータ実装式方法。
    ・ユーザーにより、又は電子デバイス(100、200、300)のデータベース(120、220、320)から遠隔的にAGEまたは生年月日をユーザーインターフェイスに入力する方式
    ・アルゴリズムを使用して、ユーザーの頭部270またはその一部の画像からAGEを検出する方式
    ・又はこれらの任意の組合せ
  12. ユーザーのリーディンググラスの眼屈折誤差や加入度及び度数をインタラクティブに測定するための電子デバイス(100、200、300)のに含まれるシステムであり、
    ・ユーザーの頭部270又はその一部と電子デバイス(100、200、300)の電子画面320との間の距離を検出するように構成された距離測定回路(110、210)と、
    ・ユーザーに指示を与え、ユーザー入力を受け取るように構成されたユーザーインターフェイス(110、210、310)と、
    ・視標を表示および変更するための電子画面320と、
    ・前記屈折パラメータ(SPH、CYL、AXS、P、またはADDを含むが必ずしもこれに限らない)の少なくとも1つを計算するように構成された処理回路(140、240)と、
    ・電子デバイス(100、200、300)のメモリに上記パラメータおよびその他の情報を保存するように構成された格納部(150、250)と、
    ・該パラメータおよびその他の情報をネットワークとの間で通信するように構成された通信回路(160、260)と、を含むシステム。
  13. 電子デバイス(100、200、300)の距離測定回路(110、210)とユーザーインターフェイス(110、210、310)をさらに次のことを行うように構成できることを特徴とする請求項12に記載のシステム。
    ・ユーザーとその電子デバイス間の視線などの軸を基準にしてデバイスの回転を測定すること
    ・ユーザーの頭部270又はその一部の、該軸を基準にした回転または傾きを測定すること
  14. ユーザーインターフェイス(110、210、310)がさらに次のものを含むことを特徴とする請求項12または13に記載のシステム。
    ・スピーカー
    ・マイク
    ・音声認識回路
    ・又はこれらの任意の組合せ
  15. 請求項12から14のいずれか1項に記載のシステムからなるデバイス(100、200、300)であり、次のものであり得るが必ずしもそれに限らないデバイス。
    ・携帯電話
    ・タブレット
    ・スマートテレビ
    ・PDA(個人向け情報端末)
    ・ラップトップコンピュータ
    ・デスクトップコンピュータ
    ・スタンドアロン型カメラ
    ・ゲーム機
    ・ビデオレコーダー
  16. コンピュータ読み取り可能な命令を保存したコンピュータプログラム製品であり、該命令をデバイス(100、200、300)のプロセッサにより実行し、請求項1から11のいずれか1項に記載の方法をプロセッサに行わせることを特徴とするコンピュータプログラム製品。
JP2021558751A 2019-04-25 2020-04-21 リーディンググラスの眼屈折誤差や加入度及び度数をインタラクティブに測定するためのコンピュータ実装式方法及びシステム Pending JP2022529893A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP19382316.8A EP3730038B1 (en) 2019-04-25 2019-04-25 A computer-implemented method and system for interactively measuring ocular refractive errors, addition and power of reading glasses
EP19382316.8 2019-04-25
PCT/EP2020/061054 WO2020216732A1 (en) 2019-04-25 2020-04-21 A computer-implemented method and system for interactively measuring ocular refractive errors, addition and power of reading glasses

Publications (1)

Publication Number Publication Date
JP2022529893A true JP2022529893A (ja) 2022-06-27

Family

ID=66323803

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021558751A Pending JP2022529893A (ja) 2019-04-25 2020-04-21 リーディンググラスの眼屈折誤差や加入度及び度数をインタラクティブに測定するためのコンピュータ実装式方法及びシステム

Country Status (10)

Country Link
US (1) US20220151488A1 (ja)
EP (2) EP4275587A3 (ja)
JP (1) JP2022529893A (ja)
CN (1) CN113993441A (ja)
AU (1) AU2020260698A1 (ja)
BR (1) BR112021018834A2 (ja)
CA (1) CA3131765A1 (ja)
MX (1) MX2021011734A (ja)
PL (1) PL3730038T3 (ja)
WO (1) WO2020216732A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4220282A1 (en) 2022-01-28 2023-08-02 Carl Zeiss Vision International GmbH Determining a lens shape for producing an optical lens for an eye of a person
ES2947436A1 (es) * 2022-02-06 2023-08-09 Visionapp Solutions S L Metodo implementado por ordenador para medir de manera interactiva uno o ambos bordes de intervalo de vision nitida del ojo de un usuario mediante un dispositivo electronico, sistema y dispositivo electronico que lo comprende
EP4364642A1 (en) 2022-11-04 2024-05-08 Carl Zeiss Vision International GmbH Computer-implemented methods and devices for determining refractive errors
EP4364643A1 (en) 2022-11-04 2024-05-08 Carl Zeiss Vision International GmbH Computer-implemented methods and devices for determining refractive errors

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2886136T3 (es) * 2013-06-06 2021-12-16 6 OVER 6 VISION Ltd Sistema para la medición del error de refracción de un ojo basado en la medición subjetiva de distancias
EP3288439B1 (de) * 2015-04-30 2021-06-23 Oculocare Medical AG Verfahren und datenverarbeitungsprogramm zur bestimmung des sehvermögens eines benutzers
US10321818B2 (en) * 2016-10-31 2019-06-18 Brainscope Company, Inc. System and method for ocular function tests

Also Published As

Publication number Publication date
BR112021018834A8 (pt) 2021-12-14
MX2021011734A (es) 2022-01-24
WO2020216732A1 (en) 2020-10-29
EP3730038A1 (en) 2020-10-28
PL3730038T3 (pl) 2024-04-15
CN113993441A (zh) 2022-01-28
US20220151488A1 (en) 2022-05-19
EP3730038B1 (en) 2023-11-08
EP3730038C0 (en) 2023-11-08
CA3131765A1 (en) 2020-10-29
AU2020260698A1 (en) 2021-10-21
EP4275587A3 (en) 2024-01-17
EP4275587A2 (en) 2023-11-15
BR112021018834A2 (pt) 2022-05-03

Similar Documents

Publication Publication Date Title
US9668651B2 (en) Ophthalmologic apparatus
JP2022529893A (ja) リーディンググラスの眼屈折誤差や加入度及び度数をインタラクティブに測定するためのコンピュータ実装式方法及びシステム
US11363946B2 (en) Eye examination method and apparatus therefor
CN112689470B (zh) 用于使用计算装置执行散光力测试的方法以及相应的计算装置
CN111699432B (zh) 使用沉浸式系统确定眼睛的屈光力的方法及其电子设备
US20230255473A1 (en) Integrated apparatus for visual function testing and method thereof
US11256110B2 (en) System and method of utilizing computer-aided optics
US10588506B2 (en) Device and method for the quantitative detection of disorders in the field of vision
CN115835809A (zh) 用于确定用户的视力水平的指示的方法
WO2023148372A1 (en) A computer-implemented systems and methods for interactively measuring either or both sides of the interval of clear vision of the eye
US11484196B2 (en) Method and apparatus for refraction and vision measurement
CN112587083B (zh) 视觉处理方法、装置及计算机存储介质
US20230181029A1 (en) Method and device for determining at least one astigmatic effect of at least one eye
Goyal et al. Estimation of spherical refractive errors using virtual reality headset
US20220125298A1 (en) Active calibration of head-mounted displays
US20230284899A1 (en) Head-Mounted System for Measuring Ptosis
WO2020226023A1 (ja) 検眼装置
WO2022019908A1 (en) Method and apparatus for refraction and vision measurement
WO2023209540A1 (en) Method and system for assessing axial length of the eye

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240227