JP2020528333A - 視力検査試験を実施する方法 - Google Patents
視力検査試験を実施する方法 Download PDFInfo
- Publication number
- JP2020528333A JP2020528333A JP2020524705A JP2020524705A JP2020528333A JP 2020528333 A JP2020528333 A JP 2020528333A JP 2020524705 A JP2020524705 A JP 2020524705A JP 2020524705 A JP2020524705 A JP 2020524705A JP 2020528333 A JP2020528333 A JP 2020528333A
- Authority
- JP
- Japan
- Prior art keywords
- user
- distance
- screen
- computing device
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/14—Arrangements specially adapted for eye photography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0025—Operational features thereof characterised by electronic signal processing, e.g. eye models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0041—Operational features thereof characterised by display arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/11—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
- A61B3/111—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring interpupillary distance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/60—Static or dynamic means for assisting the user to position a body part for biometric acquisition
- G06V40/67—Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/028—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
- A61B3/032—Devices for presenting test symbols or characters, e.g. test chart projectors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Eye Examination Apparatus (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Eyeglasses (AREA)
Abstract
ユーザの眼を検査するための視力検査試験を実施する方法であって、前記方法は、コンピューティングデバイスおよび入力ツールを使用し、前記コンピューティングデバイスは、画面を備えかつ画像を捕捉するように構成されたカメラユニットを備え、前記方法は、前記コンピューティングデバイスの前記カメラユニットによって、前記画面に面する前記ユーザの人間の顔の少なくとも1つの画像を捕捉するステップと、前記コンピューティングデバイスによって、前記少なくとも1つの捕捉画像において、前記人間の顔の両方の瞳孔を検出するステップと、前記コンピューティングデバイスによって、ユーザの瞳孔間の所定の距離に基づく前記画面までの前記ユーザの距離と、前記少なくとも1つの捕捉画像における前記検出された瞳孔間距離と、前記少なくとも1つの捕捉画像に対応する前記カメラユニットの焦点距離とを測定するステップと、前記入力ツールと組み合わせた前記コンピューティングデバイスによって、前記測定された距離を使用して前記視力検査試験を実施するステップとを含む。
Description
本開示は、視力検査試験を実施する方法に関する。より具体的には、本開示は、ユーザ機器と同様にコンピューティングデバイスを使用した視力検査試験に関する。
視力検査試験は、通常、専門家、例えば、眼鏡技師、眼科医などが行う一連の試験である。視力検査試験は、とりわけ、視力、瞳孔機能、外眼筋の運動性、拡張していない瞳孔を通しての眼底検査のために使用される。眼の屈折状態の評価は、眼科および検眼の臨床診療の重要な部分である場合もある。このような視力検査試験は、潜在的に治療可能な盲目疾患、全身性疾患の眼症状、または腫瘍の徴候または脳の他の異常を検出するためにも使用され得る。
従来、ユーザは眼を調べるために眼鏡技師または眼科医を訪問する必要がある。ユーザの眼を調べるには、いくつかのツールが必要になる場合がある。次に、眼鏡技師、または眼科医は、いくつかの視力検査試験を実施し、ユーザから受け取った入力に基づいて試験を調整する。最終的に、眼鏡技師、または眼科医は、実施された検査に基づいて、眼に関する結論を出すことができる。
過去数年で、オンラインの視力検査試験が開発された。そのため、ユーザは物理的に眼鏡技師や眼科医を訪問する必要がなくなるが、視力検査試験をオンラインで実施できる。管理なしのオンライン自覚的屈折検査法の開発により、屈折力測定がより利用しやすくなり、かなりのコスト削減になる。
視力検査試験を実施する既知の方法では、コンピューティングデバイスとユーザ機器が使用される。コンピューティングデバイスは、あらゆる種類の視力検査に関連する視覚化を表示するための画面を備える。ユーザ機器、例えば、携帯電話は、入力ツールとして使用される。ユーザは、ユーザ機器を使用して、画面に表示されるアンケートに入力する。
視力検査試験を正確に実施するには、ユーザが約3メートルの距離で画面の前に配置されることが必要になる場合がある。ユーザは、ユーザの靴のサイズを使用してこの距離まで誘導される。すなわち、ユーザは自分の靴のサイズをオンラインの視力検査試験に入力する必要がある。入力された靴のサイズに基づいて、ヒールトウステップの総量が計算される。例えば、靴のサイズが10の場合、上記の3メートルの距離に達するには、約10ヒールトウステップが必要である。次に、ユーザは、画面から約3メートルの距離にいることを確認するために、10ヒールトウステップを実施するように要求される。
最後に、コンピューティングデバイスを使用し、コンピューティングデバイス用の何らかのリモートコントロールとしてユーザ機器を使用して、視力検査試験を実施する。
上記の既知の視力検査試験の欠点の1つは、視力検査試験中にユーザが実際に所望の3メートルの距離にいると判断するのが難しいため、結果が正確ではない可能性があることである。ユーザがヒールトウステップの手順を正しく実施してこの距離に到達したことを単に信用するだけである。
本開示の目的は、視力検査試験の結果がより正確になるように、ユーザの画面までの距離をより確実に評価できる視力検査試験を達成することである。
従来技術の1つ以上の懸念に対処するために、本開示の第1の態様では、ユーザの眼を検査するための視力検査試験を実施する方法が提供される。本方法は、コンピューティングデバイスおよびモバイルユーザ機器、UEなどの入力ツールを使用し、前記コンピューティングデバイスは、画面を備え、画像を捕捉するように構成されたカメラユニットを備える。
本方法は、
−前記コンピューティングデバイスの前記カメラユニットによって、前記画面に面する前記ユーザの人間の顔の少なくとも1つの画像を捕捉するステップと、
−前記コンピューティングデバイスによって、前記少なくとも1つの捕捉画像において、前記人間の顔の両方の瞳孔を検出するステップと、
−前記コンピューティングデバイスによって、
−ユーザの瞳孔間の所定の距離と、
−前記少なくとも1つの捕捉画像内で前記検出された瞳孔間距離と、
−前記少なくとも1つの捕捉画像に対応する焦点距離と
に基づいて前記ユーザの前記画面までの距離を測定するステップと、
−前記UEと組み合わせて前記コンピューティングデバイスによって、前記測定された距離を使用して前記視力検査試験を実施するステップと
を含む。
−前記コンピューティングデバイスの前記カメラユニットによって、前記画面に面する前記ユーザの人間の顔の少なくとも1つの画像を捕捉するステップと、
−前記コンピューティングデバイスによって、前記少なくとも1つの捕捉画像において、前記人間の顔の両方の瞳孔を検出するステップと、
−前記コンピューティングデバイスによって、
−ユーザの瞳孔間の所定の距離と、
−前記少なくとも1つの捕捉画像内で前記検出された瞳孔間距離と、
−前記少なくとも1つの捕捉画像に対応する焦点距離と
に基づいて前記ユーザの前記画面までの距離を測定するステップと、
−前記UEと組み合わせて前記コンピューティングデバイスによって、前記測定された距離を使用して前記視力検査試験を実施するステップと
を含む。
発明者等の洞察の1つは、人々の瞳孔間距離、すなわちユーザの瞳孔間の所定の距離が一般にほぼ一定であることであった。したがって、そのパラメータは、ユーザの画面までの距離を測定するために使用できる。
発明者等はさらに、焦点距離がカメラユニットのタイプおよび/または捕捉画像ごとに異なるため、少なくとも1つの画像を捕捉するために使用されるカメラユニットのタイプが視力検査試験に影響する可能性があることに気付いた。本発明者らの洞察は、ユーザの画面までの距離を測定するステップの前に、少なくとも1つの捕捉画像に対応するカメラの焦点距離を測定することによりこの変数を制御することであった。
上記に続いて、ユーザの画面までの実際の距離を正確に測定するために、少なくとも3つのパラメータを考慮する必要がある。
第1のパラメータは、上記の一般的に一定のユーザの瞳孔間距離である。第2のパラメータは、捕捉された少なくとも1つの画像での瞳孔間距離である。この距離は、例えば、ピクセルで表される。最後に、画像の捕捉に使用されるカメラユニットの焦点距離は、捕捉画像の瞳孔間距離を、ユーザの画面までの物理的距離の実際の測定値に変換するために使用される。
本開示によれば、入力ツールは、例えば、コンピューティングデバイスから分離されたモバイルUEである。モバイルUEは、スマートフォン、タブレット、スマートウォッチなどのいずれかであってもよい。このようなモバイルUEは、画面上に表示されるアンケートへの回答を入力するための入力デバイスとして、ユーザによって使用され得る。視力検査試験中、ユーザはコンピューティングデバイスから特定の距離にあるため、ユーザは物理的にコンピューティングデバイスに到達できないことに留意すべきである。したがって、モバイルUEは拡張入力デバイスとして使用される。別のオプションとして、入力ツールはマイクでもよい。マイクロホンは、コンピューティングデバイスに含まれていてもよい。コンピューティングデバイスで実行されている音声認識アルゴリズムを使用して、特定のアンケートへの回答を提供できる。したがって、入力ツールは、試験中、検査中のユーザが携帯する必要がある。
本開示によれば、コンピューティングデバイスは、デスクトップコンピュータ、タブレット、ラップトップ、または同様のもののいずれでもよい。例えば、このようなコンピューティングデバイスは、開示されている視力検査試験をサポートするインターネットブラウザを実行させる。
上記において、カメラユニットの画面までの距離は無視できるか、または事前に知られていると想定される。提示された方法に従って、ユーザのカメラユニットまでの距離は計算されるが、画面とユーザとの間の距離は、実際には、重大なパラメータである。ユーザのカメラユニットまでの距離は、画面に統合されているウェブカメラの場合、ユーザの画面までの距離とほぼ同じである。他のシナリオでは、計算された距離は、カメラユニットと画面間の既知の距離を使用するために修正される場合がある。
本開示に係る例を以下に説明する。
本開示の第1の態様に係る一例では、前記方法は、
−前記コンピューティングデバイスによって、前記カメラユニットの前記焦点距離を測定するステップと、
−前記捕捉された少なくとも1つの画像のメタデータ内で前記焦点距離を取得するステップと、
−前記ユーザの瞳孔間の所定の距離と、前記画面に面するユーザの所定の初期距離とに基づいて、前記焦点距離を計算するステップと
を含む。
−前記コンピューティングデバイスによって、前記カメラユニットの前記焦点距離を測定するステップと、
−前記捕捉された少なくとも1つの画像のメタデータ内で前記焦点距離を取得するステップと、
−前記ユーザの瞳孔間の所定の距離と、前記画面に面するユーザの所定の初期距離とに基づいて、前記焦点距離を計算するステップと
を含む。
前記少なくとも1つの画像を捕捉するために使用されるカメラユニットの焦点距離を、いくつかの方法で測定することができる。第1のオプションとして、多くのタイプのカメラユニットでは、使用された焦点距離が捕捉画像のメタデータに記録されることに留意した。そのため、捕捉画像に属するメタデータには、ユーザの画面までの距離を測定するために必要な焦点距離が含まれる。
また、一部のカメラユニットでは、このような焦点距離は記録されないことにも留意した。この場合、捕捉画像のメタデータからこの変数を取得することはできない。このような場合、画像の捕捉中に使用されるカメラユニットの焦点距離については、ユーザの瞳孔間の所定の距離と、画面に面するユーザの所定の初期距離とに基づいて計算することができる。通常、コンピューティングデバイスを操作しているとき、ユーザは自分の画面から約40〜70cmの距離に座っていることが分かった。カメラユニットで捕捉された初期画像では、ユーザの画面までの距離は40〜70cmであると宣言されている。この情報は、カメラユニットの焦点距離を測定するために使用できる。
上記に続いて、この例の利点は、たとえこのような焦点距離が事前に分からなくても、カメラユニットに対応する焦点距離を測定できることである。
本開示の第1の態様に係る一例では、前記視力検査試験は、前記ユーザの前記画面までの所定の距離で実施する必要があり、前記方法は、
−前記画面を使用する前記コンピューティングデバイスによって、前記測定距離と前記ユーザの前記画面までの前記所定の距離とに基づく前記距離に関するフィードバックを前記ユーザに提供するステップをさらに含む。
−前記画面を使用する前記コンピューティングデバイスによって、前記測定距離と前記ユーザの前記画面までの前記所定の距離とに基づく前記距離に関するフィードバックを前記ユーザに提供するステップをさらに含む。
前記ユーザの前記画面までの所定の距離とは、前記視力検査試験を実施すべき、前記ユーザと前記画面との間の距離を意味する。言い換えれば、前記ユーザは、前記画面から所定の距離に立っていなければならない。次いで、前記所定の距離は、前記ユーザの前記画面までの前記測定された距離と比較される。その後、前記ユーザは、前記画面にさらに近づく必要があるかどうか、または前記画面から離れるべきかどうかについてのフィードバックを提供される。
この例の利点は、前記ユーザが自分自身を前記所定の距離に配置できることであり、その結果、前記視力検査試験を正確に実施できる。
本開示の第1の態様に係る一例では、任意のユーザの瞳孔間の前記所定の距離は、55mm〜70mm、好ましくは60mm〜65mm、さらにより好ましくは約63mmである。
この例の利点は、前記ユーザの前記画面までの前記距離に関して比較的正確な測定を行うことができることである。これは、眼の屈折特性を計算するために実施されている視力検査試験の場合、このような計算は誤差に比較的敏感であるため、利点になる場合がある。
本開示の第1の態様に係る一例では、前記画面に面するユーザの前記所定の初期距離は、30cm〜80cm、好ましくは40cm〜70cm、さらにより好ましくは約65cmである。
本開示の第1の態様に係る一例では、前記画面に面するユーザの前記所定の初期距離は、複数の参照画像に基づいて測定され、前記参照画像は、前記サーバによってアクセス可能なデータベースに格納された以前の視力検査試験からの画像である。
この例の利点は、前記所定の初期距離をより正確に測定できるため、前記視力検査試験をより正確に実施できることである。
ユーザの所定の初期距離とは、前記ユーザが、通常、コンピューティングデバイスを操作している距離を意味する。例えば、コンピューティングデバイスは机の上にあり、ユーザはその机に座っている。このような場合、ユーザと画面との間の距離は、通常、約50cmであることが分かっている。
この例の利点は、初期画像の捕捉中に使用されるカメラユニットの焦点距離を比較的迅速に測定できることである。前記焦点距離を測定するために、前記視力検査試験の前に前記カメラによって初期画像が作成され、前記ユーザは前記所定の初期距離にいる。次いで、前記焦点距離は、前記ユーザの前記画面までの前記所定の初期距離と、ユーザの瞳孔間の前記所定の距離と、前記初期画像内での前記検出された瞳孔間距離とに基づいて測定できる。
本開示の第1の態様に係る一例では、前記方法は、
−顔特徴アルゴリズムを使用して、捕捉された少なくとも1つの画像で、コンピューティングデバイスによって、前記画面に面している前記ユーザの顔特徴を検出するステップをさらに含み、前記視力検査試験を実施する前記ステップは、前記検出された顔特徴を使用する。
−顔特徴アルゴリズムを使用して、捕捉された少なくとも1つの画像で、コンピューティングデバイスによって、前記画面に面している前記ユーザの顔特徴を検出するステップをさらに含み、前記視力検査試験を実施する前記ステップは、前記検出された顔特徴を使用する。
顔特徴とは、例えば、眼を細めたり、左眼および/または右眼を閉じたり覆ったり、頭を傾けたり、微笑んだりすること、瞳孔の大きさなどである。
捕捉画像を複数の参照画像と比較することによって、顔特徴を検出することができ、参照画像は、1つ以上の前記顔特徴を含む。
この例の利点は、ユーザの視力を分析するときに顔特徴を考慮できることである。
本開示の第1の態様に係る一例では、前記方法は、
−前記コンピューティングデバイスによって、前記少なくとも1つの捕捉画像を中央サーバに対応する中央データベースに提供するステップと、
−前記中央サーバによって、前記中央データベース内の画像を、所定の顔特徴を有する人間の顔の画像と相関させるステップと、
−前記中央サーバによって、前記相関に基づいて前記顔特徴アルゴリズムを修正するステップと、
−前記中央サーバによって、前記更新された顔特徴アルゴリズムを前記コンピューティングデバイスに提供するステップとを含む。
−前記コンピューティングデバイスによって、前記少なくとも1つの捕捉画像を中央サーバに対応する中央データベースに提供するステップと、
−前記中央サーバによって、前記中央データベース内の画像を、所定の顔特徴を有する人間の顔の画像と相関させるステップと、
−前記中央サーバによって、前記相関に基づいて前記顔特徴アルゴリズムを修正するステップと、
−前記中央サーバによって、前記更新された顔特徴アルゴリズムを前記コンピューティングデバイスに提供するステップとを含む。
この例の利点は、前記顔特徴を比較的正確に評価できることである。前記少なくとも1つの捕捉画像を、所定の顔特徴を有する人間の顔の画像と相関させることによって、画像間の差を測定することが可能である。これらの違いに基づいて、視力検査試験が正しく実施されたかどうかを判断できる。例えば、ユーザが視力検査試験中に眼を細めている場合、これを考慮して視力検査試験の結果を分析することができる。
本開示の第1の態様に係る一例では、前記方法は、
−前記捕捉された少なくとも1つの画像内で前記画像内の環境の特徴を検出するステップをさらに含み、前記視力検査試験を実施する前記ステップは前記環境の特徴を使用する。
−前記捕捉された少なくとも1つの画像内で前記画像内の環境の特徴を検出するステップをさらに含み、前記視力検査試験を実施する前記ステップは前記環境の特徴を使用する。
前記環境の特徴は、例えば、前記画像が捕捉されるエリア内の光量である。
この例の利点は、ユーザの視力を分析するときに、環境の特徴を考慮できることである。
本開示の第2の態様では、ユーザの眼を検査するための視力検査試験を実施し、コンピューティングデバイス並びにモバイルユーザ機器UEを備えるシステムであって、前記コンピューティングデバイスは、
−前記コンピューティングデバイスに含まれる画面に面するユーザの人間の顔の少なくとも1つの画像を捕捉するように構成されたカメラユニットと、
−前記捕捉された少なくとも1つの画像において、前記人間の顔の両方の瞳孔を検出するように構成された検出ユニットと、
−任意のユーザの瞳孔間の所定の距離と、
−前記捕捉された少なくとも1つの画像内で検出された瞳孔間の距離と、
−前記カメラユニットの焦点距離と、
に基づいて、前記ユーザの前記画面までの距離を測定するように構成された処理装置とを備え、
前記コンピューティングデバイスおよび前記UEは、前記ユーザの前記画面までとの間の前記測定された距離を使用して、前記視力検査試験を実施するように構成された視力検査試験手段を備える。
−前記コンピューティングデバイスに含まれる画面に面するユーザの人間の顔の少なくとも1つの画像を捕捉するように構成されたカメラユニットと、
−前記捕捉された少なくとも1つの画像において、前記人間の顔の両方の瞳孔を検出するように構成された検出ユニットと、
−任意のユーザの瞳孔間の所定の距離と、
−前記捕捉された少なくとも1つの画像内で検出された瞳孔間の距離と、
−前記カメラユニットの焦点距離と、
に基づいて、前記ユーザの前記画面までの距離を測定するように構成された処理装置とを備え、
前記コンピューティングデバイスおよび前記UEは、前記ユーザの前記画面までとの間の前記測定された距離を使用して、前記視力検査試験を実施するように構成された視力検査試験手段を備える。
本開示によれば、上述の方法の例に適用可能な異なる態様は、その利点を含めて、本開示に係るシステムに適用可能な態様に対応する。
本開示の第2の態様の一例では、前記コンピューティングデバイスは、
−前記捕捉された少なくとも1つの画像のメタデータ内で前記焦点距離を取得するステップと、
−任意のユーザの瞳孔間の前記所定の距離と前記画面に面しているユーザの所定の初期距離とに基づいて前記焦点距離を計算するステップ、
のいずれかによって、前記カメラユニットの焦点距離を測定するように構成された焦点距離測定ユニットをさらに備える。
−前記捕捉された少なくとも1つの画像のメタデータ内で前記焦点距離を取得するステップと、
−任意のユーザの瞳孔間の前記所定の距離と前記画面に面しているユーザの所定の初期距離とに基づいて前記焦点距離を計算するステップ、
のいずれかによって、前記カメラユニットの焦点距離を測定するように構成された焦点距離測定ユニットをさらに備える。
この例の利点は、特定のカメラに対応する焦点距離が使用されることである。これにより、カメラのタイプを制御することができる。
本開示の第2の態様の一例では、前記視力検査試験は、前記ユーザの前記画面までの所定の距離で実施する必要があり、前記コンピューティングデバイスは、
−前記画面を使用して、前記測定された距離および前記ユーザの前記画面までの前記所定の距離に基づく前記距離に関するフィードバックを前記ユーザに提供するように構成された提供装置、
をさらに備える。
−前記画面を使用して、前記測定された距離および前記ユーザの前記画面までの前記所定の距離に基づく前記距離に関するフィードバックを前記ユーザに提供するように構成された提供装置、
をさらに備える。
前記提供機器は、例えば、テキストまたは音声を介して前記ユーザと通信する手段を備える。
この例の利点は、前記ユーザが自分自身を前記所定の距離に配置でき、その結果、前記視力検査試験を正確に実施することができることである。
本開示の第2の態様の一例では、任意のユーザの瞳孔間の前記所定の距離は、55mm〜70mm、好ましくは60mm〜65mm、さらにより好ましくは約63mmである。
この例の利点は、前記ユーザの前記画面までの距離について比較的正確な測定を行えることである。
本開示の第2の態様の一例では、前記画面に面するユーザの前記所定の初期距離は、30cm〜80cm、好ましくは40cm〜70cm、さらにより好ましくは約65cmである。
本開示の第2の態様の一例では、前記システムは、
−前記捕捉された少なくとも1つの画像において、顔特徴アルゴリズムを使用して、前記画面に面している前記ユーザの顔特徴を検出するように構成された検出機器をさらに備え、前記視力検査試験手段は、前記検出された顔特徴を使用する。
−前記捕捉された少なくとも1つの画像において、顔特徴アルゴリズムを使用して、前記画面に面している前記ユーザの顔特徴を検出するように構成された検出機器をさらに備え、前記視力検査試験手段は、前記検出された顔特徴を使用する。
この例の利点は、ユーザの視力を分析するときに顔特徴を考慮できることである。
本開示の第2の態様の一例では、前記システムは、中央データベースを有する中央サーバをさらに備え、前記コンピューティングデバイスは、
−前記少なくとも1つの捕捉画像を前記中央データベースに提供するように構成された送信装置、
を備え、前記中央サーバは、
前記中央データベース内の画像を、所定の顔特徴を有する人間の顔の画像と相関させるように構成された相関装置と、
前記相関関係に基づいて前記顔特徴アルゴリズムを修正するように構成された修正装置と、
前記更新された顔特徴アルゴリズムを前記コンピューティングデバイスに提供するように構成された提供装置とを備える。
−前記少なくとも1つの捕捉画像を前記中央データベースに提供するように構成された送信装置、
を備え、前記中央サーバは、
前記中央データベース内の画像を、所定の顔特徴を有する人間の顔の画像と相関させるように構成された相関装置と、
前記相関関係に基づいて前記顔特徴アルゴリズムを修正するように構成された修正装置と、
前記更新された顔特徴アルゴリズムを前記コンピューティングデバイスに提供するように構成された提供装置とを備える。
この例の利点は、前記顔特徴を比較的正確に評価できることである。前記少なくとも1つの捕捉画像を、所定の顔特徴を有する人間の顔の画像と相関させることによって、画像間の差を測定することが可能である。これらの違いに基づいて、視力検査試験が正しく実施されたかどうかを判断できる。
本開示に係る方法およびシステムに含まれる異なる態様の表現、すなわち文言は、文字通りに解釈されるべきではない。態様という文言は、態様の実際の機能の背後にある理論的根拠を正確に表現するために選択されているだけである。
本開示の上記および他の特徴および利点は、添付の図面を参照する以下の説明から最もよく理解されるであろう。図面において、同様の参照番号は、同一の部品または同一または同等の機能または動作を実施する部品を示す。
図1は、本開示による本発明の基本概念を開示している。より具体的には、図1は、概念的な方法で、視力検査試験を実施する方法の間に使用される測定セットアップ1を開示している。
ここで、測定セットアップ1は、コンピューティングデバイス11、モバイルユーザ機器7、および中央サーバ10を備える。
コンピューティングデバイス11は、画面2を備え、この画面2は、ユーザの眼を検査するための視力検査試験によって使用されるあらゆる種類の視覚化を表示するために使用される。例えば、視覚化は、複数の文字、記号、英数字などを含み得る。これらの視覚化は、その後、様々なサイズで提供される。ユーザは、画面上で観察できるものについて入力する必要がある。すなわち、ユーザは画面上で認識できる視覚化を入力する必要がある。視力検査試験の結果は、ユーザが提供する入力に依存する。
正確な結果を得るために、ユーザ6と画面2との間の距離dを測定し、視力検査試験中に考慮する必要がある。本開示は、その特定の距離dを取得する方法に関する。
距離dは、カメラユニット、例えばウェブカメラ12によって撮影された画像に基づいて計算される。ウェブカメラ12は、コンピューティングユニット11に含まれる。通常、ウェブカメラ12とユーザとの間の距離がほぼ同じになるように、ウェブカメラ12が画面2のすぐ上に配置される。
距離dは次のように測定される。まず、ユーザの瞳孔間距離dpはほぼ一定であり、距離を計算する際の第1のパラメータとして使用する必要があることが認識された。より具体的には、瞳孔間距離dpは約55〜70mm、さらにより具体的には60mm〜65mm、さらに具体的には63mmである。このパラメータは、ユーザ6と画面2との間の距離dの計算中に考慮される。
別の例では、ユーザは自身の瞳孔間距離dpを視力検査試験に入力することができる。次いで、距離dの計算は、ユーザの瞳孔間の所定の距離の代わりに、ユーザによって入力された距離dpに基づいて実施される。このような入力された距離は、標準的で事前定義されたユーザの瞳孔間の平均距離と比較して、はるかに正確である。
第2のパラメータは、少なくとも1つの捕捉画像内で検出された瞳孔間距離に関係している。そのため、第1のステップでは、ユーザの瞳孔を、捕捉画像内で、コンピューティングデバイスによって検出する必要がある。画像内の瞳孔間距離は、一度、瞳孔が検出されると測定される。瞳孔間の測定距離は、センチメートル、ピクセル、またはその他の距離の測定単位で表すことができる。非常に具体的には、捕捉画像内で瞳孔間の測定距離は、例えば、0.6mmであり得る。
第3のパラメータは、少なくとも1つの捕捉画像に対応するカメラユニット12の焦点距離に関連している。焦点距離は、ユーザの瞳孔間の実際の距離dpとユーザの瞳孔間の測定距離dpの比を正しく解釈するために必要になる場合がある。
焦点距離は、様々な方法で取得することができ、これについては以下でさらに詳しく説明する。
焦点距離は、捕捉された少なくとも1つの画像のメタデータ内で焦点距離を取得することで測定できる。すなわち、各画像は、その特定の画像の捕捉中のカメラユニットの設定に関連するメタデータと共に保存されてもよい。メタデータは、例えば、解像度設定、ISO設定、絞り設定だけでなく、カメラユニットの焦点距離を含む場合がある。
別の選択肢は、焦点距離をユーザの瞳孔間の所定の距離と、画面に面しているユーザの所定の初期距離とに基づいて計算することである。初期距離は、図1に示されており、diの使用を基準としている。距離diは、ユーザが画面2の前に座っている初期距離に関連していてもよい。通常、コンピューティングデバイス11は机の上にあり、ユーザ5は少なくとも最初はその特定の机に座る。ユーザの顔、すなわちユーザの瞳孔と画面2との間の距離は、一般に、各ユーザおよび各タイプの机に対してほぼ一定であることが分かっている。距離は、おおよそ、30cm〜80cm、最も可能性が高い40cm〜70cm、さらに可能性が高い65cmである。このような初期距離は、カメラユニット12の焦点距離を計算するときに考慮される。
次に、焦点距離は、画面に面するユーザの所定の初期距離、前記少なくとも1つの捕捉画像内で前記検出された瞳孔間の前記距離、および瞳孔間の前記所定の距離を使用して計算される。焦点距離は、次の式で測定できる。
1/f=1/o+1/iおよびM=i/o=II/OO
ここで、f=焦点距離
o=ユーザまでの初期距離
i=画像とユーザ間との距離
M=倍率
II=画像内のユーザの瞳孔間距離
OO=瞳孔間の所定の距離
1/f=1/o+1/iおよびM=i/o=II/OO
ここで、f=焦点距離
o=ユーザまでの初期距離
i=画像とユーザ間との距離
M=倍率
II=画像内のユーザの瞳孔間距離
OO=瞳孔間の所定の距離
発明者等は、視力検査試験が画面に面しているユーザの顔特徴を考慮に入れる場合、視力検査試験がさらに改善されることを発見した。顔の特徴は、ユーザが何かを懸命に読み取ろうとしているかどうか、すなわち眼を細めているか、視力検査試験中にユーザがどちらの眼を覆ったかなどを示すことができる。
そのため、コンピューティングデバイスは、画面に面しているユーザの顔特徴を検出するように構成されてもよく、その検出された顔特徴を使用して視力検査試験を実施してもよい。そうするために、コンピューティングデバイスは顔特徴アルゴリズムを使用してもよく、これについては以下でより詳細に説明する。
第1のステップでは、コンピューティングデバイスは、少なくとも1つの捕捉画像を中央サーバ10に対応する中央データベースに提供することができる。上記で特定された顔特徴アルゴリズムは、中央サーバ10で実施されてもよい。中央サーバ10は、受信した捕捉画像をそのデータベース内の複数の画像と相関させることができ、その複数の画像のそれぞれは、存在する特定の顔の特徴を有する。すなわち、それらの複数の画像のいくつかは、一方の眼が覆われている人間の顔を含んでもよい。これらの複数の画像の他は、ユーザが眼を細めているなどの人間の顔を含んでもよい。受信した捕捉画像をデータベース内の画像と相関させることによって、ユーザ6が眼を細めているか、頭を傾けているか、特定の眼を覆っているかなどを評価できる。
ユーザの画面までの距離を測定するアルゴリズム、および顔特徴および/または環境の特徴を判定するアルゴリズムは、通常、コンピューティングデバイスによって実行、すなわち実施されることに留意すべきである。関連する捕捉画像は、改善のために中央サーバに提供される。すなわち、中央サーバは、これらの捕捉画像を使用してアルゴリズムを改善できる。更新されたアルゴリズムは、その後、捕捉画像でコンピューティングデバイスによって使用される。図2は、本開示による方法21の一例を開示している。
この方法は、ユーザの眼を検査するための視力検査試験を実施することを対象とし、前記方法は、コンピューティングデバイスおよびモバイルユーザ機器UEを使用し、前記コンピューティングデバイスは画面を備え、画像を捕捉するように構成されたカメラユニットを備える。
本方法は、
−前記コンピューティングデバイスの前記カメラユニットによって、前記画面に面する前記ユーザの人間の顔の少なくとも1つの画像を捕捉するステップ22と、
−前記少なくとも1つの捕捉画像において、前記コンピューティングデバイスによって、前記人間の顔の両方の瞳孔を検出するステップ23と、
−ユーザの瞳孔間の所定の距離と、
−前記少なくとも1つの捕捉画像内で検出された前記瞳孔間の距離と、
−前記少なくとも1つの捕捉画像に対応する前記カメラユニットの焦点距離と、
に基づいて、前記コンピューティングデバイスによって、前記ユーザの前記画面までの距離を測定するステップ24と、
−前記UEと組み合わせて前記コンピューティングデバイスによって、前記測定された距離を使用して前記視力検査試験を実施するステップ25とを含む。
−前記コンピューティングデバイスの前記カメラユニットによって、前記画面に面する前記ユーザの人間の顔の少なくとも1つの画像を捕捉するステップ22と、
−前記少なくとも1つの捕捉画像において、前記コンピューティングデバイスによって、前記人間の顔の両方の瞳孔を検出するステップ23と、
−ユーザの瞳孔間の所定の距離と、
−前記少なくとも1つの捕捉画像内で検出された前記瞳孔間の距離と、
−前記少なくとも1つの捕捉画像に対応する前記カメラユニットの焦点距離と、
に基づいて、前記コンピューティングデバイスによって、前記ユーザの前記画面までの距離を測定するステップ24と、
−前記UEと組み合わせて前記コンピューティングデバイスによって、前記測定された距離を使用して前記視力検査試験を実施するステップ25とを含む。
上記の説明に続いて、本開示の利点の1つは、ユーザと画面との間の距離を測定できることであり、この距離は、視力検査試験中に考慮されることに留意すべきである。これにより、視力検査試験の精度が向上する。
上記の説明に続いて、本開示の別の利点は、セットアップまでの時間が、すなわち、ユーザを画面から所定の距離まで移動させる時間が短縮されるので、視力検査試験をより迅速に実施できることであることに留意すべきである。
開示された実施形態に対する他の変形形態は、図面、開示、および添付の特許請求の範囲の検討から、請求された発明を実施する際に当業者によって理解および達成され得る。請求項において、「備える」という語は他の要素またはステップを除外せず、不定冠詞「a」または「an」は複数を除外しない。単一のプロセッサまたは他のユニットは、特許請求の範囲に記載されたいくつかのアイテムの機能を果たしてもよい。特定の測定値が相互に異なる従属請求項に記載されているという単なる事実は、これらの測定値の組合せを有利に使用できないことを示すものではない。コンピュータプログラムは、他のハードウェアと共に、またはその一部として提供される光学式記憶媒体またはソリッドステート媒体などの適切な媒体に格納/配布できるが、インターネットやその他の有線または無線の通信システムを介してなど、他の形式で分配することもできる。請求項中の参照符号は、その範囲を限定するものとして解釈されるべきではない。
Claims (12)
- ユーザの眼を検査するための視力検査試験を実施する方法であって、前記方法は、コンピューティングデバイスと、モバイルユーザ機器UEなどの入力ツールを使用し、前記コンピューティングデバイスは画面を備え、かつ画像を捕捉するように構成されたカメラユニットを備え、前記方法は、
−前記コンピューティングデバイスの前記カメラユニットによって、前記画面に面する前記ユーザの人間の顔の少なくとも1つの画像を捕捉するステップと、
−前記コンピューティングデバイスによって、前記少なくとも1つの捕捉画像において、前記人間の顔の両方の瞳孔を検出するステップと、
−ユーザの瞳孔間の所定の距離と、
−前記少なくとも1つの捕捉画像で検出された前記瞳孔間距離と、
−前記少なくとも1つの捕捉画像に対応し、ユーザの瞳孔間の前記所定の距離と前記画面に面しているユーザの所定の初期距離とに基づいて焦点距離を計算することによって測定される前記カメラユニットの前記焦点距離と、に基づいて、前記コンピューティングデバイスによって、前記ユーザの前記画面までの距離を測定するステップと、
−前記入力ツールと組み合わせて前記コンピューティングデバイスによって、前記測定された距離を使用して前記視力検査試験を実施するステップと
を含む、方法。 - 前記視力検査試験は、前記ユーザの前記画面までの所定の距離で実施する必要があり、前記方法は、
−前記画面を使用する前記コンピューティングデバイスによって、前記測定距離および前記ユーザの前記画面までの前記所定の距離に基づいた前記距離に関するフィードバックを前記ユーザに提供するステップ
をさらに含む、請求項1に記載の方法。 - 任意のユーザの瞳孔間の前記所定の距離が55mm〜70mm、好ましくは60mm〜65mm、さらにより好ましくは約63mmである、請求項1または2に記載の方法。
- 前記画面に面するユーザの前記所定の初期距離は、30cm〜70cm、好ましくは40cm〜60cm、さらにより好ましくは約50cmである、請求項1〜3のいずれか一項に記載の方法。
- 前記方法は、
−顔特徴アルゴリズムを使用して、前記捕捉された少なくとも1つの画像で、前記コンピューティングデバイスによって、前記画面に面している前記ユーザの顔特徴を検出し、前記視力検査試験を実施する前記ステップで、前記検出された顔特徴が使用されるステップ
をさらに含む、請求項1〜4のいずれか一項に記載の方法。 - 前記方法は、
−前記コンピューティングデバイスによって、前記少なくとも1つの捕捉画像を中央サーバに対応する中央データベースに提供するステップと、
−前記中央サーバによって、前記中央データベース内の画像を、所定の顔特徴を有する人間の顔の画像と相関させるステップと、
−前記中央サーバによって、前記相関に基づいて前記顔特徴アルゴリズムを修正するステップと、
−前記中央サーバによって、前記更新された顔特徴アルゴリズムを前記コンピューティングデバイスに提供するステップと
を含む、請求項5に記載の方法。 - ユーザの眼を検査するための視力検査試験を実施するシステムであって、コンピューティングデバイスおよびモバイルユーザ機器UEなどの入力ツールを備え、前記コンピューティングデバイスは、
−前記コンピューティングデバイスに含まれる画面に面するユーザの人間の顔の少なくとも1つの画像を捕捉するように構成されたカメラユニットと、
−前記捕捉された少なくとも1つの画像において、前記人間の顔の両方の瞳孔を検出するように構成された検出ユニットと、
−任意のユーザの瞳孔間の所定の距離と、
−前記捕捉された少なくとも1つの画像内で前記検出された瞳孔間の距離と、
−前記カメラユニットの焦点距離と、
に基づいて、前記ユーザの前記画面までの距離を測定するように構成された処理装置とを備え、
前記コンピューティングデバイスは、
−任意のユーザの瞳孔間の前記所定の距離および前記画面に面するユーザの所定の初期距離に基づいて前記焦点距離を計算することによって、前記カメラユニットの前記焦点距離を測定するように構成された焦点距離測定ユニット
をさらに備え、
前記コンピューティングデバイスおよび前記入力ツールは、前記ユーザと前記画面との間の前記測定された距離を使用して前記視力検査試験を実施するように構成された視力検査試験手段を備える、システム。 - 前記視力検査試験は、前記ユーザの前記画面までの所定の距離で実施する必要があり、前記コンピューティングデバイスは、
−前記画面を使用して、前記測定された距離および前記ユーザの前記画面までの前記所定の距離に基づく前記距離に関するフィードバックを前記ユーザに提供するように構成された提供機器
をさらに備える、請求項7に記載のシステム。 - 任意のユーザの瞳孔間の前記所定の距離は、55mm〜70mm、好ましくは60mm〜65mm、さらにより好ましくは約63mmである、請求項7または8に記載のシステム。
- 前記画面に面するユーザの前記所定の初期距離は、30cm〜70cm、好ましくは40cm〜60cm、さらにより好ましくは約50cmである、請求項7〜9のいずれか一項に記載のシステム。
- 前記システムは、
−前記捕捉された少なくとも1つの画像において、顔特徴アルゴリズムを使用して、前記画面に面している前記ユーザの顔特徴を検出するように構成された検出装置をさらに備え、前記視力検査試験手段は、前記検出された顔特徴を使用する、請求項7〜10のいずれか一項に記載のシステム。 - 前記システムは、中央データベースを有する中央サーバをさらに備え、前記コンピューティングデバイスは、
−前記少なくとも1つの捕捉画像を前記中央データベースに提供するように構成された送信機器
を備え、前記中央サーバは、
前記中央データベース内の画像を、所定の顔特徴を有する人間の顔の画像と相関させるように構成された相関装置と、
前記相関に基づいて前記顔特徴アルゴリズムを修正するように構成された修正装置と、
前記更新された顔特徴アルゴリズムを前記コンピューティングデバイスに提供するように構成された提供機器と
を備える、請求項7〜11のいずれか一項に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
NL2019319A NL2019319B1 (en) | 2017-07-21 | 2017-07-21 | A method of performing an eye examination test. |
NL2019319 | 2017-07-21 | ||
PCT/NL2018/050501 WO2019017785A1 (en) | 2017-07-21 | 2018-07-20 | METHOD FOR REALIZING AN OPHTHALMOLOGICAL EXAMINATION |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020528333A true JP2020528333A (ja) | 2020-09-24 |
Family
ID=60957393
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020524705A Pending JP2020528333A (ja) | 2017-07-21 | 2018-07-20 | 視力検査試験を実施する方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11925416B2 (ja) |
EP (1) | EP3655314B1 (ja) |
JP (1) | JP2020528333A (ja) |
CN (1) | CN111344222A (ja) |
ES (1) | ES2959956T3 (ja) |
NL (1) | NL2019319B1 (ja) |
WO (1) | WO2019017785A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3542704A1 (en) * | 2018-03-22 | 2019-09-25 | Tilak Healthcare | Visual testing using mobile devices |
WO2021209159A1 (en) * | 2020-04-17 | 2021-10-21 | Tilak Healthcare Sas | Method for determining an indication of an acuity level of a user |
CN116171123A (zh) * | 2020-07-15 | 2023-05-26 | 依视路国际公司 | 用于评估人的视敏度的方法和系统 |
NL2029579B1 (en) | 2021-11-01 | 2023-06-01 | Easee Health B V | Guiding a user to a test position for performing a computer-based eye exam. |
PL443185A1 (pl) * | 2022-12-19 | 2024-06-24 | Solvemed Group Spółka Z Ograniczoną Odpowiedzialnością | Sposób i układ do bezwzględnego pomiaru średnicy fragmentu oka |
CN115998241B (zh) * | 2023-03-29 | 2023-06-27 | 之江实验室 | 视觉检测方法、装置、电子设备和系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012525948A (ja) * | 2009-05-09 | 2012-10-25 | ヴァイタル,アート アンド サイエンス インコーポレーテッド | 形状識別視力評価及び追跡システム |
US20170112378A1 (en) * | 2015-10-23 | 2017-04-27 | Gobiquity, Inc. | Photorefraction method and product |
JP2017113573A (ja) * | 2015-12-23 | 2017-06-29 | オクルス オプティクゲレーテ ゲゼルシャフト ミット ベシュレンクテル ハフツング | 視力検査装置及び視の検査方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102245085B (zh) * | 2008-10-14 | 2015-10-07 | 俄亥俄大学 | 利用眼跟踪的认知和语言评估 |
EP2261857A1 (en) * | 2009-06-12 | 2010-12-15 | Star Nav | Method for determining the position of an object in an image, for determining an attitude of a persons face and method for controlling an input device based on the detection of attitude or eye gaze |
CN102525400B (zh) * | 2012-01-12 | 2013-09-25 | 上海理工大学 | 带有双目摄像机的智能视力检测装置 |
CN102998096B (zh) * | 2012-12-17 | 2016-03-30 | 吉林大学 | 凸透镜焦距的测量方法 |
CN103033345B (zh) * | 2013-01-05 | 2015-04-08 | 山西省电力公司大同供电分公司 | 薄凸透镜焦距自动测量装置及其测量方法 |
JP6020923B2 (ja) * | 2013-05-21 | 2016-11-02 | パナソニックIpマネジメント株式会社 | 焦点可変レンズを有するビューア、および映像表示システム |
US20140372139A1 (en) * | 2013-06-14 | 2014-12-18 | Presbibio, Llc | System for monitoring and tracking patient outcomes after surgical implantation of an intracorneal lens |
CN103793719A (zh) * | 2014-01-26 | 2014-05-14 | 深圳大学 | 一种基于人眼定位的单目测距方法和系统 |
JP6415179B2 (ja) * | 2014-08-20 | 2018-10-31 | キヤノン株式会社 | 画像処理装置、画像処理方法、および撮像装置並びにその制御方法 |
CN104394252B (zh) * | 2014-12-08 | 2018-04-06 | 上海斐讯数据通信技术有限公司 | 一种检测眼睛度数的方法及其移动终端 |
CN204270321U (zh) * | 2014-12-24 | 2015-04-15 | 武汉虹识技术有限公司 | 一种虹膜采集装置 |
CN105549209B (zh) * | 2016-02-04 | 2018-09-04 | 京东方科技集团股份有限公司 | 3d显示装置及其光栅周期调节方法 |
US10799112B2 (en) * | 2017-05-02 | 2020-10-13 | Simple Contact, Inc. | Techniques for providing computer assisted eye examinations |
US20190295507A1 (en) * | 2018-03-21 | 2019-09-26 | International Business Machines Corporation | Adaptive Rendering of Virtual and Augmented Displays to Improve Display Quality for Users Having Different Visual Abilities |
-
2017
- 2017-07-21 NL NL2019319A patent/NL2019319B1/en active
-
2018
- 2018-07-20 CN CN201880059835.0A patent/CN111344222A/zh active Pending
- 2018-07-20 ES ES18766362T patent/ES2959956T3/es active Active
- 2018-07-20 WO PCT/NL2018/050501 patent/WO2019017785A1/en unknown
- 2018-07-20 US US16/632,218 patent/US11925416B2/en active Active
- 2018-07-20 JP JP2020524705A patent/JP2020528333A/ja active Pending
- 2018-07-20 EP EP18766362.0A patent/EP3655314B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012525948A (ja) * | 2009-05-09 | 2012-10-25 | ヴァイタル,アート アンド サイエンス インコーポレーテッド | 形状識別視力評価及び追跡システム |
US20170112378A1 (en) * | 2015-10-23 | 2017-04-27 | Gobiquity, Inc. | Photorefraction method and product |
JP2017113573A (ja) * | 2015-12-23 | 2017-06-29 | オクルス オプティクゲレーテ ゲゼルシャフト ミット ベシュレンクテル ハフツング | 視力検査装置及び視の検査方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3655314C0 (en) | 2023-08-30 |
US20200253471A1 (en) | 2020-08-13 |
EP3655314A1 (en) | 2020-05-27 |
EP3655314B1 (en) | 2023-08-30 |
ES2959956T3 (es) | 2024-02-29 |
CN111344222A (zh) | 2020-06-26 |
NL2019319B1 (en) | 2019-02-06 |
WO2019017785A1 (en) | 2019-01-24 |
US11925416B2 (en) | 2024-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3655314B1 (en) | A method of performing an eye examination test | |
AU2018385433B2 (en) | Digital visual acuity eye examination for remote physician assessment | |
US20230118575A1 (en) | Computerized refraction and astigmatism determination | |
US11494897B2 (en) | Application to determine reading/working distance | |
US20200073476A1 (en) | Systems and methods for determining defects in visual field of a user | |
KR20120049850A (ko) | 형상 구별 시력 평가 및 추적 시스템 | |
JP7295938B2 (ja) | 乱視度数検査に関する画像を表示する画面を有するコンピューティングデバイスを使用して前記乱視度数検査を実行する方法および対応するコンピューティングデバイス | |
US20170156585A1 (en) | Eye condition determination system | |
CN110772218A (zh) | 视力筛查设备及方法 | |
CN111699432B (zh) | 使用沉浸式系统确定眼睛的屈光力的方法及其电子设备 | |
KR101984993B1 (ko) | 사용자 맞춤형 시표 제어가 가능한 시야검사기 | |
US20210145271A1 (en) | System and method for determining prescription of corrective lenses using predictive calculations and corrected-eyesight simulation | |
EP4171350B1 (en) | Method and device for determining at least one astigmatic effect of at least one eye | |
WO2022225037A1 (ja) | 検査システム、検査装置、検査方法、および検査プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210519 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220324 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220419 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221115 |