JP2015532129A - 被験者の視力パラメータの決定を補助する方法 - Google Patents

被験者の視力パラメータの決定を補助する方法 Download PDF

Info

Publication number
JP2015532129A
JP2015532129A JP2015533568A JP2015533568A JP2015532129A JP 2015532129 A JP2015532129 A JP 2015532129A JP 2015533568 A JP2015533568 A JP 2015533568A JP 2015533568 A JP2015533568 A JP 2015533568A JP 2015532129 A JP2015532129 A JP 2015532129A
Authority
JP
Japan
Prior art keywords
subject
image
face
images
image capture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015533568A
Other languages
English (en)
Inventor
パスカル、トメ
ダビッド、アンカウア
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Interactif Visuel Systeme IVS SAS
Original Assignee
Interactif Visuel Systeme IVS SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Interactif Visuel Systeme IVS SAS filed Critical Interactif Visuel Systeme IVS SAS
Publication of JP2015532129A publication Critical patent/JP2015532129A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • G02C13/003Measuring during assembly or fitting of spectacles
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • G02C13/003Measuring during assembly or fitting of spectacles
    • G02C13/005Measuring geometric parameters required to locate ophtalmic lenses in spectacles frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/145Arrangements specially adapted for eye photography by video means

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Geometry (AREA)
  • Dentistry (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eyeglasses (AREA)
  • Studio Devices (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本発明は、被験者(100)の視力パラメータの決定を補助する方法であって、カメラ(10)を用いて、2つの異なる角度から被験者の顔の2つの画像(I1,I2)を撮影するステップ(120)であって、被験者(S)は、自然な遠方視姿勢であるステップと、画像が撮影される時に、カメラ(10)の地面に対する傾斜を決定するステップ(130)と、この傾斜から被験者(S)の顔の傾斜と向きとを推定するステップ(140)と、を備え、カメラは、画像(I1,I2)の撮影(120)の際に、被験者の中心窩領域の外に配置されることを特徴とする方法に関する。

Description

本発明は、オペレータ、一般的には眼鏡技師により行われる、被験者の顔の全体的な姿勢の分析と、測定値の取得とに関し、オペレータは、被験者が装用すべき補正レンズまたは眼用レンズの光学特性の個別化および最適化ならびにフレームへの取り付けの目的で、必要なデータの取得を進めて、被験者の目に関する補正レンズの挿入の概略構成を決定する。
被験者の目の瞳孔とフレームとの相対的な位置を比較して、フレーム内のレンズの位置を最適化することを目的とした数多くのシステムが、既に知られている。この目的を達成するために、フレームを着用した顔の固定画像または動画像が、カメラにより撮影され、フレームの位置の検出とともに目の位置の検出が行われる。
特に、本出願人による仏国特許第FR2860887号公報は、固定カメラの前で動く被験者の顔の一連の動画像に基づき、カメラ上で顔が最良に合焦された基準画像を決定して、目とフレームとの相対的な位置について最良の規定になるようにするシステムを開示している。
並行して、眼用レンズの製造業者は、今日、被験者の視線が動いた際の被験者の挙動を試験することにより、特に、いわゆる累進レンズの技術において、そのようなレンズの設計の最適化を試みている。例えば、本出願人名による仏国特許第FR2892529号公報は、
− カメラと、
− カメラによって撮影された画像を表示させる画面と、
− 被験者の顔に固定して着用可能であり、複数の視覚マーカを保持するアクセサリと、
− カメラに対して少なくとも2つの決定位置I1,I2をカバーすることが可能な視対象を形成する手段と、
− カメラにより撮影された画像で視覚マーカの位置を分析することが可能な画像分析手段と、を備えるシステムを開示している。この画像分析手段は、視対象形成手段と異なる領域を被験者が注視する際に、アクセサリの空間内、従って被験者の顔の位置およびキャップ角度値を推測して、一方の対象から他方の対象へと視力が変位する間に、特に、顔の動きの相対的重要度、ならびに目の動きの相対的重要度に関する情報を推測する。
典型的には、アクセサリは、図2に示されるアクセサリに適合させることができ、かつ、フレームの向きを目立たせるように特定して選択された幾何学的インジケータ形成手段を含む。幾何学的インジケータは、フレームの枝部および/またはフレームの表面のより上位の支持部に沿って置かれた、一連の視覚マーカを支持する直線的な支持部で構成することができる。
システムは、次いで、瞳孔の位置、瞳孔の間隔等のパラメータを正確に測定することが可能である。なぜなら、被験者と視覚マーカとの位置、ならびに被験者の視線の方向が(視対象によって)わかり、測定値のシステム自体に対して空間内で決定されるためである。
正確に測定するために、基準姿勢における被験者の顔や、システムを用いた測定を行うのに適した位置での注視も必要である。
本発明に関するシステムの基準姿勢は、遠方視の姿勢であって、被験者は、自然な姿勢に保持され、被験者の前方の水平面内における無限遠点を見る。変形例として、基準姿勢は、読書姿勢などの近方視姿勢に対応することもでき、この近方視姿勢は、被験者がその目から約40センチ離れた点を見て、かつ被験者の視線を水平面に比べて30°下げた位置である。
被験者の姿勢は、例えば、既知の視線方向に関する2つの角度を用いて(非限定の方法で)説明することができる。
第1の角度は、顔のキャップ角度値に相当し、これは、被験者が、真正面に置かれた物体を見た際に、顔が多少左または右に向く傾向を反映した方向角である。
第2の角度は、顔の垂直方向の傾斜に対応し、これは、被験者が、真正面に置かれた物体を見た際に、顔が多少上下する傾向を反映した方向角である。所与のフレームにおいて、この第2の角度は、垂直方向に対する補正レンズの平均平面の傾斜の測定値である、装用時前傾角の尺度とすることができる。
被験者の瞳孔間の距離(補正器の製造のためのパラメータの1つ)を決定するために、眼鏡技師は、一般的に瞳孔計を用いる。この場合、被験者の前に瞳孔計があるので、キャップ角度値は任意にゼロとみなされる。それでも、この装置は、個別に決定すべき装用時前傾角も、該当する場合に被験者の頭部を横方向に保持する方法(被験者が基準位置においてむしろ右または左を見る傾向)も考慮しない。
このやり方は、従って、被験者がとる姿勢が、被験者の自然な姿勢に対応することを保証しない。この自然な姿勢は、しかし、被験者の最も快適な姿勢で被験者が眼鏡のレンズにその視線を送る方法を決めるため、非常に重要である。悪い姿勢は、従って、レンズの中心合わせの測定不良をもたらす。眼鏡のレンズを通した視線の投射の計算にとって、姿勢の正しい画像を選択すること、それゆえ測定中に被験者の姿勢の質を評価することは、最重要である。
さらに、上述したこれらのシステムおよび手段の全ては、いくらかの視界の妨げなしに被験者が水平にまっすぐ前方の離れた箇所を見ることができず、視力装置は、被験者が遠方視している際に、被験者の視界内に配置される。実際に、遠近法の誤差を避けるために、画像取り込み装置は、被験者の視線の光軸Xにできるだけ近くなければならず、従って、被験者から非常に遠くに装置を置く(店内で大きな空間を占めること、および広いズームを有するカメラの使用)か、または目標点を被験者からカメラよりも遠くに模擬することのいずれかを必要とする。視対象は、従って、しばしば、ユーザにとって妨げとなる。例えば、鏡における被験者の反射は、被験者と視対象との間の距離を二倍にすることを可能にするが、被験者が近視であるか、または鏡が(被験者の大きさまたは被験者の反射の質にとって)十分に没入可能でない場合には、被験者の顔の正確な位置に合焦することは困難であることが分かっている。よって、被験者は、常に困難を伴ってしか、その自然な遠方視姿勢をとることができない。
加えて、これらのシステムは、測定システムの設置に利用可能なスペースが制限され、これにより、視対象は、一般的に、被験者に近いままとなり、その視線を視対象に合焦することを、さらに被験者に強いる。最終的に、これらのシステムは、大きく、遠方視に近似するための最小限のスペースを必要とする。
独国特許第DE102010015795号公報は、画面と、画面の両側に配置された2つのカメラと、処理システムとを含む、被験者のセンタリングを決定するための装置を説明している。カメラは、被験者には見えないことが好ましく、その一方で、視力パラメータを測定するために被験者に特定の姿勢をとらせるために選択される画像は、画面に表示される。頭部−目の定数、近方視および遠方視における目の回転中心を含むいくつかのパラメータを決定することができる。それでも、装置の説明による方法は、装置を着用する人に、短すぎる距離を課し、これは、この着用者の視線を制限し、着用者自身が自然な基準姿勢をとって、無限遠を見られない。さらに、この文献に記載のシステムは、非常に大きい。
欧州特許第EP1747750号公報は、被験者の視覚挙動を確立する方法を説明しており、この方法は、
− 被験者にアクセサリを提供するステップと、
− 被験者を画面に対面して着席させるステップであって、被験者は、画面の両側に延びる各カメラに対して中心にいなければならない、被験者の顔の立体視カードを得るステップと、
− 被験者に、画面上の画像を追い、かつ顔の動きを追うように要求するステップと、
− これらの画像に基づき、被験者の挙動を決定するステップと、を含む。
ここでも、方法は、その実施のために大きなスペースを必要とし、被験者に、比較的近距離に設定された標的を固定することを強いるものであり、これは、測定中に被験者が自然な姿勢をとることができない。
最後に、仏国特許第FR2971861号公報は、着用者の視力の少なくとも1つのパラメータを、周辺光の条件にかかわらず決定するための方法を説明しており、この方法では、チェッカー盤型の調整要素の位置を、被験者の頭部の画像上で識別し、この画像を用いて、その後の取り込み画像における輝度を調整する。このために、この文献は、カメラを用いていくつかの画像を取り込む方法を提案している。先の画像にて検出される調整要素によって、各取り込み間の制約は改善されている。この方法は、よって、画像取り込み装置により取り込まれる画像の品質を改善することを目的とする。この方法は、しかし、大きなシステムも必要とし、被験者の画像は、正面または側面で撮影され、測定間の被験者の視線を推測的に制約する。
本発明目的の一つは、被験者の凝視を強要せず、かつこれまで知られている器具よりも万能な視力補正器を作成するために必要な視力パラメータを正確に決定すること、およびこのコストを抑制することを可能にする、新規な測定方法と、関連するシステムとを提案する。
ここで、視力パラメータは、特に、装用時前傾角、瞳孔間距離/高さの測定、およびこの測定中の目の輻輳、眼鏡と目の距離、キャップ角度値、目と頭部に関する係数等、に含まれるパラメータを意味する。
このために、本発明は、被験者の視力のパラメータの決定を補助する方法であって、
− 携帯型の画像取り込み装置を用いて、2つの異なる角度で被験者の顔の2つの画像を取り込むステップであって、被験者が自然な遠方視の姿勢である、ステップと、
− 画像が取り込まれた時に、画像取り込み装置の地面に対する傾斜を決定するステップと、
− この傾斜から、被験者の顔の傾斜とキャップ角度値とを推定するステップと、を備え、
画像取り込み装置は、画像が取り込まれた時に、被験者の中心窩領域の外に配置される、方法を提案する。
これにより、画像取り込み装置は、被験者の視界において視覚的な妨げとならない。実際に、画像取り込み装置は、もはや被験者の視線の軸を切断しなくなり、よって、現在、スペースまたは測定装置に制約されることなく水平に遠くの対象に合焦すること、ならびに頭部の姿勢に関連する誤差を制限すること、および/または瞳孔間距離/高さの測定における目の輻輳、が可能になる。
方法の特定の任意だが非限定の特徴は、以下の通りである。
* 画像取り込み装置は、画像の取り込み中に、被験者の光軸に対して5°〜30°、好ましくは15°と25°の間の頂角を有する円錐を形成する被験者の視界の領域の外に置かれる。
* 画像の1つは、被験者に向かって下側から見て撮影される。
* 画像の1つは、横側から撮影される。
このような画像取り込み装置の配置は、被験者の視界を遮らないことにより、被験者の視線および位置を制約することを回避できる。
* 被験者の瞳孔の少なくとも1つまたは角膜反射の少なくとも1つは、取り込み画像のそれぞれで可視である。
* 処理は、画像で視覚マーカを識別するステップをさらに備え、視覚マーカは、被験者の顔に固定して着用されることが可能なアクセサリに形成されている。
* 画像取り込み装置は、ビデオカメラであり、画像取り込みステップは、
− 被験者の顔を撮影し、異なる視野角で被験者の複数の画像を得るサブステップと、
− 被験者の画像のうち、2つの異なる角度の、被験者の顔の少なくとも2つの画像を選択するサブステップと、を備える。
* 方法は、また、画像で視覚マーカを識別するステップを含み、視覚マーカは、被験者の顔の特異点である。
* 画像は、2つの画像取り込み装置によって同時に撮影され、画像取り込み装置の位置および互いのキャップ角度値は、既知である。
* 2つの画像の取り込み時に、被験者の顔が照明される。
* 画像を取り込むステップ中に、被験者(S)に面する壁、例えば垂直セグメントに向けて光線が投射される。
* 被験者の顔の傾斜およびキャップ角度値は、画像取り込み装置とは別のローカルコンピュータ上で画像取り込み装置によりローカルに決定されるか、またはインターネットサーバ上で遠隔的に決定される。
* 画像取り込み装置は、ビデオカメラを備えるデジタルタブレットである。
本発明に係る補助方法を実施する可能性は、よって、画像を撮影し、被験者の視力パラメータを決定するために、デジタルタブレットを採用することを可能にし、デジタルタブレットは、市販または専用のものとすることができる。
本発明の他の特徴、目的および効果は、非限定の例として与えられる添付の図面を参照し、以下に続く詳細な説明を読むことによって、より明らかとなる。
本発明に係る、被験者の視力パラメータの決定を補助するシステムの一実施形態を示す概略図である。 本発明に係るシステムと共に用いることができるアクセサリの一例を示す図である。 本発明に係るシステムに用いることができる画像取り込み装置の実施形態を示す図である。 本発明に係る画像取り込みの例を示す図である。 本発明に係る画像取り込みの例を示す図である。 本発明に係る、被験者の視力パラメータの決定を補助する方法の実施形態の種々のステップを示すフローチャートである。
本発明に係る、被験者Sの視力パラメータの決定を補助するためのシステム1は、特に、
− 被験者Sの顔の画像であって、視覚マーカを含んでいる被験者の顔を撮影する画像取り込み装置10と、
− 画像取り込み装置と一体に動く傾斜計と、
− 画像取り込み装置と傾斜計とに接続された処理手段と、
を備える。
一般的に、被験者の視力パラメータを決定するために、オペレータ(例えば眼鏡技師)は、異なる角度で被験者の少なくとも2つの画像I1,I2を撮影して、この画像取り込み装置によって、被験者が遠くを見ている間に、画像取り込みI1,I2のいずれにも被験者を妨げないようにする。
このために、画像取り込み装置は、被験者の光学軸Xから離間して、好ましくは被験者の中心窩領域の外に置かれ、被験者の視線を妨げず、かつ、被験者Sは自然な姿勢をとり、外的な制約なしに遠くを見ることを確保するようにする。被験者Sを妨げないようにして中心窩領域を遮らないことが、実際に重要である。しかし、妨げのリスクを減らすために、中心窩領域よりも大きな領域を制限しないことが好ましいことがある。よって、一実施形態によれば、画像取り込み装置10は、取り込み画像I1およびI2のそれぞれに関し、被験者Sの目のそれぞれの光軸Xに対して5°〜30°、好ましくは15°と25°の間の頂角を有する円錐(円錐の頂角は、被験者の顔にて光軸上に配置される)を形成する、被験者Sの視界の領域の外に置かれる。
画像取り込み装置10が被験者Sの光軸Xから遠いほど、その存在と、被験者Sの瞳孔の少なくとも1つ(または少なくとも角膜反射)を正しく見分ける能力の制限とによる被験者の妨げが少なくなることが認められる。
このとき、視対象は被験者Sに課されず、従って、被験者は、自然な遠方視姿勢をとることができる。しかし、オペレータがこのような標的を被験者Sに提案して、例えば、被験者Sにまっすぐ前方を見るように促すことは可能である。このような標的は、しかし、システム1の一部ではなく、その位置は、画像取り込み装置10に対して規定されない。
画像取り込み装置10の画像と傾斜とは、処理手段によって分析され、処理手段は、この分析から、被験者の視力パラメータを推定する。
画像取り込み装置10
画像取り込み装置10は、ビデオカメラ、写真装置等とすることができる。画像取り込み装置10によって撮影される画像は、特にデジタル画像として、処理手段によって直接処理することができる。
画像取り込み装置10は、好ましくは広角レンズを有して、被験者の顔の全体画像を短距離、つまり10センチから1メートルの間で撮影できる。画像取り込み装置10の解像度は、その焦点距離、その人までの距離等に依存し、一般的に、顔内の色マーカまたは特異点などの視覚マーカ45を十分に識別できなければならない。例えば、画像取り込み装置10の解像度は、目の画像が0.3mmごとに少なくとも1つの画素を有するのに十分なものでなければならない。
システム1は、また、画像取り込み装置10と一体に動き、水平面に対する画像取り込み装置10の傾斜を決定するための傾斜計20を備える。好ましくは、傾斜計20は、画像取り込み装置10と一体である。傾斜計20は、例えば、加速度信号処理回路に接続された加速度計とすることができる。加速度計は、また、傾斜計の信頼性を向上させるために、電子ジャイロスコープに接続することもできる。
任意に、特に被験者の角膜反射を測定するために、システム1は、被験者の顔用に照明手段12を備えることもでき、この照明手段12は、画像取り込み装置10と一体とすることができる。
さらに、画像取り込み装置10は、その使用を容易にするために、オペレータによって移動可能かつ携帯可能とすることができる。画像取り込み装置は、追加で、画像取り込み装置10により撮影された画像がオペレータに見えるように画面14を備えることができる。
図示された実施形態において、画像取り込み装置10は、例えば、デジタルタブレットであり、その後面16に、画像を撮影可能なビデオカメラ11と、加速度計20とを備える。タブレット10は、追加で、その前面に、カメラ11により撮影された画像をリアルタイムで見せる画面14を備えることができる。これは、例えば、iPad(登録商標)型またはGalaxy tab(登録商標)型の市販のタブレット、Iphone(登録商標)、被験者の視力パラメータの決定の用途に特定して作られ、かつ画像取り込み装置と傾斜計とを含むタブレット、またはスマートフォンとさえすることができる。
好適には、カメラ11は、タブレット10の幾何学的中心に対してオフセットさせることができ、例えば、タブレット10の端部の1つの近くに配置されて、被験者Sの画像の取り込みを容易にしつつ、被験者の中心窩領域の外にとどまり、好ましくは被験者Sの光軸Xに対して5°から30°、より好ましくは15°から25°の間の頂角を有する円錐を形成する視界の領域の外にとどまり、被験者の自然な遠方視姿勢を乱さないようにする。
任意に、タブレット10のフラッシュを、画像取り込み中に照明手段12として用いることができる。タブレット10には、しかし、フラッシュとは別の、特にタブレット10の後面に取り付けられた照明手段12を設けて、画像取り込み中に被験者Sの顔を照明させることができる。
さらに、画像取り込み装置10は、また、被験者Sに面する支持部材に対して、視対象を投射するための投射器18を備えることもできる。例えば、投射器18は、壁に光線を投射するように設計された低出力レーザとすることができる。
別の実施形態によれば、画像取り込み装置10は、画面12により形成することもでき、画面12には、少なくともカメラ11を備えたアーム16が、着脱可能に固定されているかまたは常時固定されている。アーム16は、画面14の端部の1つ、例えば上端部に、画面の端部に対して全体的に垂直な軸を中心として、関節接合することができる。画像取り込み中に被験者Sを妨げないために、アーム16は、90°を超える角度、例えばおよそ120°旋回することができる。アームは、カメラ11による撮影の間に、その延長軸を中心に(部分的にまたはその全長に渡って)旋回して、被験者Sの顔をより容易にフレーミングさせるようにすることもできる。例えば、アーム16は、それ自体の軸を中心として、およそ200°の角度を回転することができる。
例として、アーム16は、約30センチの長さとすること、およびアームに沿って並べられ約10センチ離間された2つのカメラ11を備えることができる。この実施形態は、2つの異なる視野角で被験者Sの顔の2つの写真I1,I2を、同時に撮影することを可能にする。
この実施形態において、カメラ11が設けられたアーム16は、市販のタブレット10に取り付けることができる。傾斜計20は、タブレット10(またはこれと一体)か、またはアーム16自体に固定することができる。さらに、アーム16の取り付けは、画面10上に対して直接、あるいはアダプタ17(特に画面が市販のデジタルタブレットである場合)によって行うことができる。
視覚マーカ
視覚マーカは、顔面の特異点か、または被験者Sの顔に着用されるアクセサリ40によって保持される視覚マーカとすることができる。
アクセサリ40は、特に、図2に示された、仏国特許第2860887号または仏国特許第2892529号公報にて説明されたアクセサリに適合させることができる。このアクセサリ40は、例えば透明のプラスチック製であり、本体に対して後部にほぼ直角に延びる水平の2つの側方の枝部43を有する、水平方向に長い本体42を備える。本体42は、自身の下端部に沿って、被験者Sにより着用された眼鏡(またはフレーム)の2つのレンズの上端部を取り付けるための2つの小さなクランプを保持し、枝部43は、図示しない方法で、クランプをフレームの枝部に保持する手段を保持することが可能である。このようにして、被験者が眼鏡(補正または光学的中立な、あるいは裸のフレーム)を安定位置に着用し、かつアクセサリ40が定位置に置かれると直ぐに、前記アクセサリは、被験者の顔に対して明確に規定された位置をとる。
本発明の一態様によれば、アクセサリは、金属またはプラスチックの2つの弾性ブレード44に対応することもでき、弾性ブレードは、本体の下端部から延び、その湾曲形状は、眼鏡(またはフレーム)のレンズの下端部に合わせるように適合されている。ブレード44の形状は、また、ブレードをレンズ(またはフレーム)に固定するために変形する際、それらの自由端が、本体に垂直な直線の軌道に従うように適合されている。このようにして、ブレード44は、測定中に、レンズ(またはフレーム)の同じ場所に常に固定されており、被験者がどのような種類のフレームを有していようとも、被験者の視線を妨げない。
図2に示されるように、アクセサリ40は、幾つかの数の視覚マーカまたは基準45、ここでは明確に識別される色、波長が明確に規定された、例えば明るい緑色の8つの正方形領域を備えており、2つの視覚マーカは、枝部43の一方でこれらの明確に規定された離間位置に位置し、他の2つは、枝部43の他方に対称的に配置され、最後に、他の4つは、本体に位置している。より正確には、これらの最後のマーカに関し、アクセサリ40の本体42は、その上部領域にマーカ45が設けられた上方突出部46と、その自由端がマーカ45である前方突出部47と、を備える。最後の2つのマーカ45は、枝部43の根元部の近くの左側と右側にある。
変形例として、視覚マーカ45は、格子状などの幾何学的形状とするか、または赤外線スペクトルを発するマーカとすることもできる。
視覚マーカが、顔の特異点である場合、これらの特異点は、特に、瞳孔および/または角膜反射、ならびに被験者のフレームの端部上の点とすることができる。
処理手段30
処理手段30は、画像取り込み装置10によって撮影された、画像I1,I2内の視覚マーカの位置、ならびに各画像取り込み時に傾斜計20によって決定された装置10の傾斜を分析して、被験者Sの視力パラメータを推定する。
そのため、処理手段30は、画像取り込み装置10(被験者Sの顔の画像I1,I2)および傾斜計20(地面に対する画像取り込み装置10の傾斜)からのデータを収集および処理するためのプロセッサを備える。その結果は、プロセッサの画面、または該当する場合には画像取り込み装置10の画面14に表示することができる。
プロセッサ30は、画像取り込み装置10に直接組み込むことができる。これは、特に、画像取り込み装置10がデジタルタブレットである場合である。全ての計算は、デジタルタブレット10内で行われる。
変形例として、プロセッサ30は、画像取り込み装置10とは別だがその近傍に位置するローカルコンピュータとすることができる。画像取り込み装置10は、このとき、データ(画像および角度)を、ネットワーク32(無線または有線)を通じてコンピュータに送信し、コンピュータは、計算を実行し、これが被験者Sの視力のパラメータを取得することを可能にする。好適には、システム1は、このとき、本出願の導入部にて引用した文献で説明されるもののような既存の測定システムの補足として組み込むことができ、これにより既存のインターフェイス(ソフトウエア、管理インターフェイス等)から、開発コストの削減や、眼鏡技師が既に既存のシステムを有している場合はシステムの購入コストの削減を可能にし、既に機器を理解している眼鏡技師を安心させる効果が得られる。
この実施形態の変形例において、画像取り込み装置10がデジタルタブレットである場合、プロセッサの画面は、遠隔オフィスにあるアクセスシステム、例えばVNC(Virtual Network Computing)プロトコルまたはRDP(Remote Desktop Protocol)によって、タブレット10の画面14に表示することができ、これにより、オペレータのタブレット10から直接、全ての操作をオペレータが管理することを可能にする。
さらに別の変形例によれば、プロセッサ30は、遠距離インターネットサーバとすることができ、このサーバは、加えて、それ専用とすることができる。画像I1,I2および測定装置の傾斜は、このとき、遠距離サーバ30に(無線または有線ネットワークによって)送信され、遠距離サーバは、特に画像取り込み装置が結果を表示する画面14を備える場合には画像取り込み装置10に直接、または遠距離サーバに接続されるローカルコンピュータに、結果を返送する。
視覚マーカが、被験者Sの顔の特異点により形成される場合、プロセッサ30は、被験者の顔の3次元再構成を実現し、この再構成から、被験者の視力パラメータを決定するために必要な測定結果を作成する手段を備える。
このため、従来技術に基づいて三次元再構成のための三角測量を実行する。アクセサリ40は、このとき、2点間の少なくとも1つの既知の距離を知ることを可能にする。
変形例として、3次元再構成は、他の任意の従来の写真測量または立体視方法により実行することができる。
顔の特異点を実施する実施形態の変形例において、システム1は、少なくとも2つの画像取り込み装置10を備え、空間内における互いの位置および方向は既知である。このとき、上述の写真測量および立体視の技術に基づき、2つの画像取り込み装置10によって同時に撮影された基準画像によって、顔の特異点の位置と、それらの距離とを決定することが可能である。
方法
ここで、本発明に係る被験者Sの視力パラメータの決定を補助する方法を説明する。方法100は、以下、画面と、ビデオカメラと、加速度計20とを備えるデジタルタブレット10からなるシステム1により説明する。しかし、これは非限定であり、方法100は、上述したものに基づく全ての画像取り込み装置10および傾斜計20によって実施可能である。
これらの測定を達成するために、被験者Sは、まず、被験者の自然な基準姿勢で遠くを見る110。このために、被験者は、自身の楽な姿勢をとり、水平面上で真っ直ぐ前方の無限遠点を見る。この姿勢は、課せられた視覚マーカを見たり、鏡を見たりする必要がない範囲で制約されずに自由である。
オペレータは、短距離にある被験者の顔の少なくとも2つの画像I1,I2を取り込み120、被験者の瞳孔の少なくとも1つが両方の画像に表されるようにして、顔をフレーミングする。このようにして、少なくとも対応する目に関して測定を実行することが可能である。カメラ11と、被験者Sの顔との間が小さな距離(10センチから1メートルの間)であると仮定すると、画像I1,I2は、良好な解像度を得られる。被験者Sの顔と、被験者の光軸とに関する画像I1およびI2の取り込み中の、画像取り込み装置10とビデオカメラ11との配置の一例を、図4aおよび図4bに示す。
画像取り込み装置10がビデオカメラである場合、2つの画像I1、I2を、2つの異なる視野角から直接撮影すること、または被験者の顔を撮影することのいずれかが可能である。撮影は、被験者Sの、複数の異なる画像を、異なる視野角から撮影するようにして行われる。異なる視野角から撮影され、この方法に適切な2つの画像I1、I2は、この複数の画像の中から選択される。例えば、ビデオカメラ10を、横位置と被験者の顔の下の位置との間で、被験者の視線(すなわち、被験者の中心窩領域からの進路)を妨げないことを確認して置き換えることにより、被験者の顔を撮影することが可能である。この画像の選択は、被験者Sの異なる視力パラメータを決定することを可能にする。
視覚マーカ45が、顔の特異点である場合、画像I1およびI2は、好ましくは、2つの別個の画像取り込み装置10から同時に撮影され、互いの位置および方向は既知である。
任意で、画像取り込みステップ120中に、または単純に各画像取り込み時に、照明手段12を点灯することができる。視覚マーカが、アクセサリに配置されるマーカ45である場合、照明手段12は、被験者Sの瞳孔を照明するために、タブレット10ではなくアクセサリ40自体に配置することができる。
必要な場合、オペレータは、タブレットの画面14を用いて、被験者Sの画像を正しくフレーミングすることを補助することができる。
例えば、オペレータは、被験者Sの視野に入り込まないように、被験者の自然な遠方視姿勢を乱さないように、下側から見た前からの画像I1と、横側からの画像I2とを、2つの瞳孔が可視となるように90°未満の角度(例えば、4分の3の視野)で撮影する。
変形例として、オペレータは、被験者の視界を乱さないようにして、顔の横側から異なる角度、例えば被験者Sの視野角から20°および40°で、2つの画像I1,I2を撮影することができる。これらの画像I1,I2は、2つの画像I1,I2の取り込みの間にタブレット10を置き換えることにより連続して取得され、またはタブレット10に2つのカメラ11を離間して備えるアーム16を備える間は同時に取得される。
これらの測定中に、画像I1,I2が、デジタルタブレット10によって登録され、一方、加速度計20は、各画像キャプチャ130時にタブレット10の傾斜を決定する。
画像I1,I2およびタブレット10の傾斜は、プロセッサ30に送信され、2つの画像I1,I2内の様々な視覚マーカのそれぞれの位置を決定し、かつ視覚マーカから、被験者の顔の自然傾斜と自然キャップ角度値とともに、被験者Sの輻輳などの視力パラメータを推定する140。
視覚マーカの決定は、プロセッサ30自体により自動で、またはオペレータにより手動で行うことができる。
デジタルタブレット10は、一般的に触知可能であり、オペレータは、特に、画面14に表示された画像I1,I2を視覚化したり、直接指し示したりすることができる。従って、写真測量および立体視の原理を適用することにより、虹彩、瞳孔の位置を決定することができる。この情報を、プロセッサ30が用いて、そこから被験者Sの輻輳を推定する。
任意で、照明手段12によって被験者の顔が照明されている場合、プロセッサ30は、従来の計算方法を用いて、被験者の角膜反射から、および虹彩の位置から、被験者Sの輻輳を決定することもできる。
これらの結果を、タブレットの画面14または近傍に配置されたコンピュータに表示することができる。
被験者の自然なキャップ角度値の測定を改良するために、視対象、好ましくは垂直セグメントを、タブレット10に固定された投射器18によって、壁などに投射し、画像取り込み時に、この視対象を見るよう被験者に求めることが可能である。このようにすると、被験者は、その頭部を、ゼロのキャップ角度値に対応する位置に置くようになる。
この視対象は、被験者の顔の傾斜の測定を乱さないように、垂直セグメントとすることができる。

Claims (13)

  1. 被験者(S)の視力パラメータの決定を補助する方法であって、
    画像取り込み装置(10)を用いて、2つの異なる角度で被験者の顔の2つの画像(I1,I2)を取り込むステップ(120)であって、前記被験者(S)が自然な遠方視姿勢であるステップと、
    画像取り込み時に、前記画像取り込み装置(10)の地面に対する傾斜を決定するステップ(130)と、
    前記傾斜から前記被験者(S)の顔の傾斜とキャップ角度値とを推定するステップ(140)と、を備え、
    前記画像取り込み装置が、前記画像(I1,I2)の取り込み(120)時に、前記被験者の中心窩領域の外に配置されることを特徴とする方法。
  2. 前記画像取り込み装置(10)は、画像取り込み(120)中に、前記被験者(S)の視界の領域の外に置かれ、前記領域は、前記被験者(S)の光軸(X)に対して5°〜30°、好ましくは15°と25°の間の頂角を有する円錐を形成する、請求項1に記載の方法。
  3. 前記画像(I2)の1つが、前記被験者の前方下側から撮影される、請求項1または2に記載の方法。
  4. 前記画像(I2)の1つが、横側から撮影される、請求項1から3のいずれかに記載の方法。
  5. 前記被験者(S)の、瞳孔の少なくとも1つまたは角膜反射の少なくとも1つは、前記取り込み画像(I1,I2)のそれぞれで可視である、請求項1から4のいずれかに記載の方法。
  6. 前記画像で視覚マーカ(45)を識別するステップをさらに含み、前記視覚マーカ(45)は、前記被験者(S)の顔に固定して着用されたアクセサリ(40)に形成されている、請求項1から5のいずれかに記載の方法。
  7. 前記画像取り込み装置(20)は、ビデオカメラであり、画像を取り込む前記ステップは、
    前記被験者の顔を撮影して、異なる視野角で複数の画像を取得するサブステップと、
    前記被験者の前記画像のうち、2つの異なる角度の、前記被験者(S)の顔の少なくとも2つの画像(I1,I2)を選択するサブステップと、を備える、請求項1から6のいずれかに記載の方法。
  8. 前記画像で視覚マーカ(45)を識別するステップをさらに備え、前記視覚マーカ(45)は、前記被験者(S)の顔の特異点である、請求項1から5のいずれかに記載の方法。
  9. 前記画像(I1)、(I2)は、2つの画像取り込み装置(10)によって同時に撮影され、前記画像取り込み装置の位置および相対的な方向は既知である、請求項8に記載の方法。
  10. 前記2つの画像(I1,I2)の取り込み時に、前記被験者(S)の顔が照明される、請求項1から9のいずれかに記載の方法。
  11. 前記画像(I1,I2)を取り込むステップ中に、前記被験者(S)に面する支持部材、例えば垂直セグメントに向けて光線が投射される、請求項1から10のいずれかに記載の方法。
  12. 前記被験者の顔(S)の前記傾斜および前記キャップ角度値は、前記画像取り込み装置とは別のローカルコンピュータ上で画像取り込み装置によりローカルに決定されるか、またはインターネットサーバ上で遠隔的に決定される、請求項1から11のいずれかに記載の方法。
  13. 前記画像取り込み装置(10)は、ビデオカメラ(11)を備えるデジタルタブレットである、請求項1から12のいずれかに記載の方法。
JP2015533568A 2012-09-26 2013-09-25 被験者の視力パラメータの決定を補助する方法 Pending JP2015532129A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1259044 2012-09-26
FR1259044A FR2996014B1 (fr) 2012-09-26 2012-09-26 Procede d'aide a la determination de parametres de vision d'un sujet
PCT/EP2013/069923 WO2014048961A1 (fr) 2012-09-26 2013-09-25 Procédé d'aide à la détermination de paramètres de vision d'un sujet

Publications (1)

Publication Number Publication Date
JP2015532129A true JP2015532129A (ja) 2015-11-09

Family

ID=47137956

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015533568A Pending JP2015532129A (ja) 2012-09-26 2013-09-25 被験者の視力パラメータの決定を補助する方法

Country Status (8)

Country Link
US (1) US9928421B2 (ja)
EP (1) EP2901209B1 (ja)
JP (1) JP2015532129A (ja)
KR (1) KR102093953B1 (ja)
ES (1) ES2754310T3 (ja)
FR (1) FR2996014B1 (ja)
HU (1) HUE046048T2 (ja)
WO (1) WO2014048961A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016167038A (ja) * 2015-03-10 2016-09-15 ホヤ レンズ タイランド リミテッドHOYA Lens Thailand Ltd 眼鏡装用パラメータ測定装置、眼鏡装用パラメータ測定プログラムおよび撮像制御方法
JP2018089079A (ja) * 2016-12-01 2018-06-14 株式会社ニデック 自覚式検眼装置
JP7349535B2 (ja) 2018-08-06 2023-09-22 株式会社トプコン 眼科装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI676050B (zh) * 2014-10-17 2019-11-01 美商壯生和壯生視覺關懷公司 用於遠端訓練及/或支援隱形眼鏡之使用者的虛擬鏡像系統和方法
WO2016164859A1 (en) 2015-04-10 2016-10-13 Bespoke, Inc. Systems and methods for creating eyewear with multi-focal lenses
WO2016194853A1 (ja) * 2015-06-01 2016-12-08 アルプス電気株式会社 眼鏡型電子機器
KR101696602B1 (ko) * 2015-08-11 2017-01-23 주식회사 슈프리마 제스처를 이용한 생체 인증
US11219367B2 (en) 2020-01-30 2022-01-11 Reichert, Inc. Positioning system for ophthalmic instrument
EP3913424A1 (de) 2020-05-22 2021-11-24 Carl Zeiss Vision International GmbH Computerimplementiertes verfahren zur bestimmung von zentrierparametern für mobile endgeräte, mobiles endgerät und computerprogramm

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000241118A (ja) * 1999-02-22 2000-09-08 Nidek Co Ltd 眼位置測定装置
JP2003329541A (ja) * 2002-03-04 2003-11-19 Mitsuki Tsuzuki System:Kk アイポイントの位置決定方法及びアイポイント測定システム
JP2006502443A (ja) * 2002-10-03 2006-01-19 オフソニックス・インコーポレーテッド 空間的に局所化された樹脂混合物の硬化を利用して波面修正するための補正要素を作製する装置及び方法
WO2009007731A1 (en) * 2007-07-11 2009-01-15 Centrometer Ltd. Improvements relating to the fitting of spectacles
JP2010524011A (ja) * 2007-03-30 2010-07-15 エシロル アンテルナショナル(コンパーニュ ジェネラル ドプテーク) 対象者の眼の注目点の矢状面における水平方向の位置を計測する方法
JP2011075977A (ja) * 2009-10-01 2011-04-14 Seiko Epson Corp 眼球下転量測定装置及び眼球下転量測定方法
WO2011161087A1 (fr) * 2010-06-21 2011-12-29 Interactif Visuel Systeme (I V S) Procede d'estimation d'une posture de reference

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2836215B1 (fr) * 2002-02-21 2004-11-05 Yodea Systeme et procede de modelisation et de restitution tridimensionnelle d'un objet
FR2860887B1 (fr) 2003-10-13 2006-02-03 Interactif Visuel Systeme Ivs Mesure de configuration du visage et de montures de lunettes placees sur ce visage a une efficacite amelioree
US7963652B2 (en) * 2003-11-14 2011-06-21 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
ES2264848B1 (es) * 2004-05-06 2008-01-01 Indo Internacional, S.A. Procedimiento y equipo para establecer el comportamiento visual de una persona, y procedimiento de personalizacion de una lente para montura.
FR2892529B1 (fr) 2005-10-21 2008-02-01 Interactif Visuel Systeme Ivs Systeme d'aide pour la correction de la vue
FR2944609B1 (fr) * 2009-04-17 2011-04-22 Essilor Int Procede de determination d'au moins un parametre geomerico-postural d'implantation d'une monture de lunettes de correction visuelle sur le visage d'un porteur dans sa posture anatomique
US20110216160A1 (en) * 2009-09-08 2011-09-08 Jean-Philippe Martin System and method for creating pseudo holographic displays on viewer position aware devices
FR2950984B1 (fr) * 2009-10-05 2012-02-03 Interactif Visuel Systeme Ivs Procede et equipement de mesures pour la personnalisation et le montage de lentilles ophtalmiques correctrices
US10080006B2 (en) * 2009-12-11 2018-09-18 Fotonation Limited Stereoscopic (3D) panorama creation on handheld device
DE102010015795A1 (de) * 2010-04-20 2011-10-20 Hans-Joachim Ollendorf Videozentriersystem mit Gesichtsfeldbewertung
DE102011009646B4 (de) * 2011-01-27 2018-02-08 Hans-Joachim Ollendorf Videozentriersystem und Verfahren zur Bestimmung von Zentrierdaten für Brillengläser
FR2971861B1 (fr) * 2011-02-21 2013-02-22 Essilor Int Procede de determination d'au moins un parametre geometrico-physionomique associe au montage d'une lentille ophtalmique dans une monture de lunettes portee par un porteur
CN102860836B (zh) * 2011-07-04 2015-01-07 株式会社东芝 图像处理装置、图像处理方法以及医用图像诊断装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000241118A (ja) * 1999-02-22 2000-09-08 Nidek Co Ltd 眼位置測定装置
JP2003329541A (ja) * 2002-03-04 2003-11-19 Mitsuki Tsuzuki System:Kk アイポイントの位置決定方法及びアイポイント測定システム
JP2006502443A (ja) * 2002-10-03 2006-01-19 オフソニックス・インコーポレーテッド 空間的に局所化された樹脂混合物の硬化を利用して波面修正するための補正要素を作製する装置及び方法
JP2010524011A (ja) * 2007-03-30 2010-07-15 エシロル アンテルナショナル(コンパーニュ ジェネラル ドプテーク) 対象者の眼の注目点の矢状面における水平方向の位置を計測する方法
WO2009007731A1 (en) * 2007-07-11 2009-01-15 Centrometer Ltd. Improvements relating to the fitting of spectacles
JP2010533308A (ja) * 2007-07-11 2010-10-21 セントロメーター リミテッド 眼鏡の調整に関する改良
JP2011075977A (ja) * 2009-10-01 2011-04-14 Seiko Epson Corp 眼球下転量測定装置及び眼球下転量測定方法
WO2011161087A1 (fr) * 2010-06-21 2011-12-29 Interactif Visuel Systeme (I V S) Procede d'estimation d'une posture de reference

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016167038A (ja) * 2015-03-10 2016-09-15 ホヤ レンズ タイランド リミテッドHOYA Lens Thailand Ltd 眼鏡装用パラメータ測定装置、眼鏡装用パラメータ測定プログラムおよび撮像制御方法
JP2018089079A (ja) * 2016-12-01 2018-06-14 株式会社ニデック 自覚式検眼装置
JP7349535B2 (ja) 2018-08-06 2023-09-22 株式会社トプコン 眼科装置

Also Published As

Publication number Publication date
ES2754310T3 (es) 2020-04-16
FR2996014B1 (fr) 2015-12-25
WO2014048961A1 (fr) 2014-04-03
KR20150102941A (ko) 2015-09-09
FR2996014A1 (fr) 2014-03-28
US9928421B2 (en) 2018-03-27
EP2901209B1 (fr) 2019-08-14
HUE046048T2 (hu) 2020-01-28
US20150339511A1 (en) 2015-11-26
KR102093953B1 (ko) 2020-03-26
EP2901209A1 (fr) 2015-08-05

Similar Documents

Publication Publication Date Title
KR102093953B1 (ko) 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법
KR100949743B1 (ko) 고글 형태를 갖는 착용형 시선 추적 장치 및 방법
US9323075B2 (en) System for the measurement of the interpupillary distance using a device equipped with a screen and a camera
KR101932568B1 (ko) 안경 착용자의 형태기하학적 매개변수의 측정 방법
JP5730995B2 (ja) 基本姿勢を推定するための方法
CN109429060B (zh) 瞳孔距离测量方法、可穿戴眼部设备及存储介质
US10758124B2 (en) Device and method for distance determination and/or centering using corneal reflections
WO2015027599A1 (zh) 内容投射系统及内容投射方法
WO2015035822A1 (en) Pickup of objects in three-dimensional display
US9110312B2 (en) Measurement method and equipment for the customization and mounting of corrective ophthalmic lenses
JP6515542B2 (ja) 眼鏡装用画像解析装置、眼鏡装用画像解析方法、及び眼鏡装用画像解析プログラム
WO2015051605A1 (zh) 图像采集定位方法及图像采集定位装置
KR102194178B1 (ko) 피검자에게 안경을 맞추기 위해 피검자의 광학적 파라미터들을 정밀하게 결정하는 방법, 및 고정형 비디오 센터링 시스템
JP4536329B2 (ja) アイポイントの位置決定方法及びアイポイント測定システム
JP2009512470A (ja) 視力矯正支援システム
KR101075972B1 (ko) 렌즈처방을 위한 매개변수 측정장치
KR102548807B1 (ko) 대상자의 참조 머리 자세를 결정하기 위한 방법 및 장치
CN111417893B (zh) 用于检验眼科镜片在镜架中的安装的方法和组件
CN112752537A (zh) 用于确定处于自然姿势的受试者的至少一个几何形态参数以确定视力矫正装备的方法
JP6379502B2 (ja) 眼鏡装用画像解析装置、眼鏡装用画像解析方法、及び眼鏡装用画像解析プログラム
CN111183389B (zh) 用于通过人工识别来确定光学设备的配适参数的方法和系统
KR20200141230A (ko) 스테레오 비전을 이용한 안경 제작용 인체 데이터 측정장치
KR20170073630A (ko) 근거리를 보는 상황의 피험자에게 안경 렌즈를 맞추기 위하여 피험자의 시각-관상학적 파라미터들을 정밀하게 측정하는 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171121

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180219

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180417

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180731