JP2016525916A - 視覚補償デバイスをカスタマイズするためのパラメータの少なくとも1つの値を判定する方法 - Google Patents

視覚補償デバイスをカスタマイズするためのパラメータの少なくとも1つの値を判定する方法 Download PDF

Info

Publication number
JP2016525916A
JP2016525916A JP2016517657A JP2016517657A JP2016525916A JP 2016525916 A JP2016525916 A JP 2016525916A JP 2016517657 A JP2016517657 A JP 2016517657A JP 2016517657 A JP2016517657 A JP 2016517657A JP 2016525916 A JP2016525916 A JP 2016525916A
Authority
JP
Japan
Prior art keywords
user
image
terminal
remote assistance
video sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016517657A
Other languages
English (en)
Other versions
JP6077720B2 (ja
Inventor
ハッダディ アフメド
ハッダディ アフメド
ベルテゼーヌ マリー−アンヌ
ベルテゼーヌ マリー−アンヌ
プラン イザベル
プラン イザベル
プティグノー セシール
プティグノー セシール
ルブロー ロイク
ルブロー ロイク
ガヤ セバスチャン
ガヤ セバスチャン
ディボ ファビアン
ディボ ファビアン
ルッソー バンジャマン
ルッソー バンジャマン
Original Assignee
エシロル アンテルナショナル(コンパーニュ ジェネラル ドプテーク)
エシロル アンテルナショナル(コンパーニュ ジェネラル ドプテーク)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エシロル アンテルナショナル(コンパーニュ ジェネラル ドプテーク), エシロル アンテルナショナル(コンパーニュ ジェネラル ドプテーク) filed Critical エシロル アンテルナショナル(コンパーニュ ジェネラル ドプテーク)
Publication of JP2016525916A publication Critical patent/JP2016525916A/ja
Application granted granted Critical
Publication of JP6077720B2 publication Critical patent/JP6077720B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • G02C13/003Measuring during assembly or fitting of spectacles
    • G02C13/005Measuring geometric parameters required to locate ophtalmic lenses in spectacles frames
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0033Operational features thereof characterised by user input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0091Fixation targets for viewing direction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • A61B3/111Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring interpupillary distance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/145Arrangements specially adapted for eye photography by video means
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • G02C13/003Measuring during assembly or fitting of spectacles

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)
  • Eyeglasses (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】本発明は、視力補償デバイスに対するカスタマイズパラメータの少なくとも1つの値を判定する方法に関する。【解決手段】本発明に従って、測定方法は、a)電子端末(2)を備えたユーザ(1)が、少なくとも1つの画像又は映像シーケンスを捕捉するステップと、b)前記少なくとも1つの画像をリモートサポートセンタ(22)に電気通信するステップと、c)前記少なくとも1つの画像を処理して、捕捉された画像又は映像シーケンスを補正又は検証する命令をそこから導出するステップと、d)リモートアシスタンスセンタ(22)からユーザ(1)の端末(2)に、前記補正又は検証命令を電気通信するステップと、e)端末を使用して、オーディオ又はビジュアルメッセージを表示又は発行するステップと、f)検証された画像又は映像シーケンスが取得されるまで、先行のステップを繰り返すステップと、g)前記少なくとも1つのカスタマイズパラメータの値を判定するステップとを含む。【選択図】図1

Description

本発明は概して、検眼の分野に関する。
それは特に、ユーザに対する視力矯正器具の少なくとも1つの個別化パラメータの値を判定する検眼方法に関する。本明細書では、「視力矯正器具」という表現は一般的に、メガネフレーム、及び少なくとも1つの単焦点又は多焦点レンズを備える視力矯正メガネを意味するものと理解される。1つ以上の個別化パラメータを判定することを意図する検眼測定は、矯正レンズの屈折面を設計及び製造すること、並びにそれらのレンズを、予測される使用条件(近見視力、遠見視力、及び/又は特定の活動の間の視力)に応じて、ユーザによって選択されるフレームに適合させることが要求される。
ユーザの存在下で、視力矯正器具が個別化されることを可能にするパラメータの測定値をとるために正確な測定値の取得に専用化された1つ以上の検眼器具を検眼医が使用する、従来の検眼方法が公知である。さらに具体的に、従来の検眼方法は、個人に合わせられることになる特定のフレーム内で矯正レンズの適合を可能にするために、個別化パラメータを判定することを意図する。個別化パラメータは特に、瞳孔間距離、個人の顔の形状などの個人の形態(morphology)、所与の姿勢における垂直線に対する頭の角度(ロール、ピッチ及びヤー)などの姿勢パラメータ、目の回転の光心に対するメガネフレーム内の矯正レンズの中心化若しくは位置決め、フレームの下縁に対する目の高さ、頂点(目とメガネレンズの内面との間の距離)、フレームの面の外形の角度、若しくは装用時前傾角、を特徴付けるパラメータなどの1つの視界姿勢から別への推移を特徴付ける動的行動パラメータ、並びに着用者の顔及び特定のメガネフレームに関連する幾何学的若しくは生理学的パラメータ、に関するパラメータを含む。レンズの装用時前傾角は、個人の自然な視界姿勢における、フレーム内で矯正レンズが保持される表面と垂直面との間の角度であるものとして定義される。
概して、製造後に個人の顔の調整を可能にするために、個人がメガネを着用していない間に個人の形態に関連する或る個別化パラメータが測定され、個人がメガネフレーム又は完成した矯正メガネを着用している間、他の個別化パラメータが判定される。
従来の検眼方法は概して、検眼医、ユーザ、1つ以上の検眼器具、及び矯正器具の間で、限られた時間続く相互作用を含み、それらの相互作用は、視力矯正器具の特性が、定義されることになるユーザの形態及び視力矯正要件に完全に適合されることを可能にする。
それらの検眼方法は複雑であり、且つ検眼医及び個別の検眼器具を訪問することを必要とする。加えて、数十分の限られた時間における或る測定値をとることが可能でない。特に、従来の検眼方法は概して、頭と、遠方視界姿勢から近方視界姿勢に通るために使用される注視との組み合わされた動きなど、ユーザの動きに関連する行動を考慮に入れない。それらの従来の方法は、例えば、遠方視界位置と近方視界位置との間の中間の視界位置を考慮に入れるために、ユーザが動いている間にとられる視力測定値を組み込まない。
長年にわたり、オンラインでメガネを購入することが可能になっている。供給業者は、様々な範囲のフレームをユーザに提供し、それらのフレームが、眼科の専門家によって事前に確立された視力矯正の規定に応じて定義されたレンズの選択と関連付けられている。デスクトップ、ラップトップ若しくはタブレットコンピュータ、及び画像処理ソフトウェアによって個別化パラメータを判定する簡易化された方法がまた提供される。この方法によって、ユーザが、検眼医を訪問する必要がなく、デスクトップ、ラップトップ、又はタブレットコンピュータを使用して個別化パラメータを評価することが可能になる。このタイプのメガネの個別化は概して、瞳孔間距離などのわずかな数のパラメータの概算の推定に限定される。よって、特許文献国際公開第2011/067478号パンフレット(JMC Delort)は、矯正メガネを作成することに関して測定値をとる方法及びデバイスを記載し、着用者とメガネを作成する専門家との間の直接的な物理的接触が存在しない。この方法は、クライアントが測定デバイスを装着している間にクライアントによってとられる測定値及び写真、並びにそれらの写真及び測定値を離れた位置に送信することに基づいている。
しかしながら、得られる視力矯正メガネの品質は概して、従来の検眼方法を使用して定義及び調整されたメガネよりもはるかに低い。特に、レンズのセンタリング誤り、及び瞳孔間距離誤差が観察される。それらの欠点は特に、個別化パラメータの測定誤りに起因する。一方で、ユーザは、カメラに対する位置をチェックする、自由に使用することができる手段を有さず(カメラと個人との間の距離は未知である)、よって、画像をスケーリングする必要がある。一方で、デスクトップ、ラップトップ、又はタブレットコンピュータのカメラは概して、画像を実質的に歪める。よって、統合カメラによって判定された視力補償メガネの個別化パラメータは、概して信頼することができない。それらの欠点は、ユーザの視力の不満足な矯正及び/又は視覚的不快感につながることがある。加えて、或るケースでは、ユーザは、正確な方法で(片眼瞳孔間距離、目の高さなどの正確な測定値など、の正確な測定値を取得するために)カメラを固定することが要求される。しかしながら、ユーザは、カメラと、スクリーンに表示される命令とを同時に観察することが不可能であることから、ユーザは支援なしに自身を正確に位置決めすることは困難である。特に、ユーザがスクリーンを見る場合、ユーザはカメラに対して姿勢を変更する。よって、測定値の品質は、位置誤差によって影響される。
最後に、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、又は携帯電話のカメラ及びスクリーンは概して、デバイスの不可欠な構成要素であり、よって、この姿勢においてスクリーンはユーザの視野の外にあるため、或るパラメータの測定値、例えば、ユーザの側面の視界からの装用時前傾角を複雑にする。
視力矯正器具の少なくとも1つの個別化パラメータを判定する方法の必要性が存在し、この方法は、例えば、ユーザの自宅においてリモートに実装され、及びこの方法は、少なくとも1つの個別化パラメータの信頼できる測定値を提供する。
視力矯正器具の少なくとも1つの個別化パラメータを判定する方法の必要性が存在し、この方法は、実装するために数十分又は数時間の時間を要し、並びに、ユーザの一部に関する追加費用なしで、10分若しくは数十分の限られた時間で測定することができない、或る個別化パラメータが考慮されることを可能にする。例えば、測定値の精度を改善するために、時間とともに拡張して複数回を連続して取得された瞳孔間距離測定値、高さ測定値などを平均化することが望ましい。
上述した従来技術の欠点を改善するために、本発明は、測定が画像捕捉端末から実行され、及び検査された後にリモートに検証される検眼方法を提供する。
より具体的には、本発明に従って、グラフィカルインタフェースと、画像センサを備えた画像捕捉装置と、オーディオビジュアル通信手段とを備える電子端末を使用して、ユーザに対する視力矯正器具の個別化パラメータの少なくとも1つの値を判定する方法が提供され、方法は、
a)画像捕捉装置によって、ユーザの少なくとも1つの画像又は映像シーケンスを捕捉するステップと、
b)ステップa)において捕捉された前記少なくとも1つの画像又は映像シーケンスを、前記電子端末からリモートに位置するリモートアシスタンスセンタに通信するステップであって、前記リモートアシスタンスセンタは、少なくとも1つの検査端末を備える、ステップと、
c)前記リモートアシスタンスセンタによって、ステップb)において送信された前記少なくとも1つの画像又は映像シーケンスの処理を検査して、前記画像捕捉装置の前にいる前記ユーザの位置、姿勢又は一連の動きに基づいて、それらから、捕捉された画像又は映像シーケンスの補正命令又は検証命令を推測するステップと、
d)リモートアシスタンスセンタからユーザの電子端末に、前記補正又は検証命令を通信するステップと、
e)前記電子端末が、前記画像若しくは映像シーケンスの捕捉の検証を前記ユーザに通知し、又は前記補正命令に従って、前記画像捕捉装置に対して前記ユーザ自身を位置決めさせ、若しくは移動させることを前記ユーザに要求する映像若しくは音声メッセージを表示若しくは発行するステップと、
f)検証された画像又は映像シーケンスが取得されるまで、先行のステップを繰り返すステップと、
g)前記捕捉及び検証された少なくとも1つの画像又は映像シーケンスに応じて、前記個別化パラメータの少なくとも1つの値を判定するステップと
を含む。
本発明の方法は、端末によってリモートに捕捉された画像が検証されること、及び視力矯正器具の少なくとも1つの個別化パラメータの値が判定されることを可能にする。
よって、方法は、検眼器具を発見することができる場所をユーザが訪問することを必要とするそのような特定の且つ高価な検眼器具の使用を回避する。それにも関わらず、方法によって、ユーザが測定値をリモートにとることを支援する、適格者によって検査される個別化パラメータ値を取得することが可能になる。
有利には、前記少なくとも1つの個別化パラメータは、
− 瞳孔間距離、又は左若しくは右の片眼瞳孔間距離パラメータと、
− ユーザの顔の形状パラメータと、
− ユーザの姿勢パラメータと、
− ユーザの動的動き関連行動パラメータと、
− メガネフレーム内の矯正レンズの中心化パラメータと、
− フレームと関連付けられた基準枠内の瞳孔の中心の位置、又は目のCREを特徴付けるパラメータと、
− 交点パラメータ、例えば、レンズ−目距離と、
− フレームの、器具の、顔内のレンズの、又は周囲の基準枠の位置又は傾きを特徴付けるパラメータ、例えば、顔の形状角度又は装用時前傾角と、
− 顔の基準枠内のフレームの調節パラメータと
のうちの1つを含む。
より正確には、1つ以上の顔の形状パラメータによって、正方形、丸形、長方形、卵型などの事前定義された形状の組から、顔の全体的な形状を判定し、及び/又はメガネフレームの調節パラメータが判定されることが可能になることがある。ユーザの姿勢パラメータによって、真っ直ぐの遠方視界姿勢、近見の読書姿勢、コンピュータ上で作業しているときになされる姿勢などの、事前定義された姿勢の組から姿勢を判定することが可能になる。ユーザの動き関連行動パラメータは、第1の姿勢から別の姿勢への動き、正面から背後への頭の頷く動き、垂直軸周囲の頭の旋回の動きなど、事前定義された動きの組の1つからのパラメータを表す。中心化パラメータは、メガネフレームに対するレンズの位置を特徴付けるパラメータ(特に、フレームに対するレンズの位置を特徴付けるパラメータを含む)が判定されることを可能にする。
以下は、本発明に従った方法の非限定的且つ有利な特徴であり、
− ステップd)において、リモートアシスタンスセンタは、それぞれ、前記少なくとも1つの画像又は映像シーケンスが、求められる個別化パラメータの値の判定に少なくとも貢献するために十分である場合は検証命令を送出し、又は逆の場合は補正命令を送出し、
− ステップd)において、リモートアシスタンスセンタは、画像捕捉装置の前の目の中心化位置、ユーザの姿勢、画像捕捉装置の画像センサに対するユーザの一連の動き、又は検証された画像を取得するために端末によって提示され、及び着用者によって実行されるプロトコルへの適合性を補正する補正命令を送出し、
− ステップa)〜e)の繰り返しの間、リモートアシスタンスセンタによって送出された補正命令によって、ユーザに送出されたメッセージが、一連の固視若しくは目の追跡、並びに/又はユーザのフランクフルト水平面(Frankfurt plane)及び/若しくサジタル平面(sagittal plane)が画像捕捉装置の光学軸の事前定義された角度に方向付けられる一連の姿勢を採用するか、又は検証された画像を取得するために端末によって提示されるプロトコルに従い、及びそれを実行するようにユーザを誘導し、
− ステップa)は、画像捕捉装置が、リモートに検証される一連の姿勢におけるユーザの映像シーケンスの映像記録をとることを含み、
− 画像捕捉装置の前にいるユーザの一連の姿勢によって、ユーザのフランクフルト水平面及びサジタル平面が、画像捕捉装置の光学軸に対して、事前定義された閾値よりも小さい角度をなし、及びステップg)において、瞳孔間距離又は片眼瞳孔間距離が算出され、
− ユーザが画像捕捉装置の前で行う一連の固定によって、固定された対象の方向で、注視の方向が(任意選択の)事前定義された閾値よりも小さい角度になり、
− ステップd)において、音声−映像リモートアシスタンスは、好ましくは、ユーザの目に近接して位置する、既知のサイズの要素の少なくとも1つの画像、例えば、フレームに止められたクリップを捕捉すること、又は瞳孔間距離がすでに既知であるユーザの瞳孔間距離を表す画像を捕捉すること、又は輻輳を矯正するために既知の読書距離を測定すること、又は少なくとも1つの事前定義された幾何学的寸法を有するフレームの画像を捕捉すること、を含む再スケーリング命令をユーザに通信することを含む。
好ましくは、ユーザ及びリモートアシスタンスセンタの一員は、直接リンク上でインタフェースする。この直接リンクによって、特に、容易に自動化が可能でない比較的複雑なケースでユーザを支援することが可能になる。この直接リンクによってさらに、クライアントが種々のステップを正確に続行し、及び検証することを再確認することを可能にするサービスを、クライアントに提供することが可能になる。
有利には、音声−映像リモートアシスタンスのステップd)は、以下のサブステップ:
− リモートアシスタンスセンタが、ユーザの端末のグラフィカルインタフェースに、映像ストリーム若しくは既知の画像を送信するステップ、
− この映像ストリーム又はこの既知の画像に応答して、ユーザの顔又は少なくとも1つの目の画像を捕捉するステップ、及び/又は
− リモートアシスタンスセンタによる前記映像ストリーム又は前記既知の画像の送信に対するユーザの顔又は少なくとも1つの目のこの応答が意味をなすかを検査するステップ
を含む。
有利には、
− ステップg)は、前記判定された値を基準値と比較することによって、メガネフレームの幾何学的調節パラメータの値を検証するステップを含み、
− ステップg)は、読書距離、又は注視方向、若しくは頭がどの程度下がっているかを測定するステップを含み、並びに
− ステップe)において端末によって発行されたメッセージは、水平軸の周囲及び/又は垂直軸の周囲でユーザの頭を回転させることのユーザに対する要求を含み、前記少なくとも1つの画像又は捕捉された映像シーケンスの処理は、画像内で、耳珠点などのユーザの耳の目立った点を検出することを含む。
1つの特定の実施形態では、ステップa)において、少なくとも1つの画像又は映像シーケンスの捕捉の間、ユーザはメガネフレームを備え、
− 端末によって発行されたメッセージは、サジタル平面が画像捕捉装置の軸と位置合わせされる少なくとも1つの第1の姿勢、及びサジタル平面が画像捕捉装置の軸に対し非ゼロの角度になる少なくとも1つの第2の姿勢にユーザがガイドされることを可能にし、並びに、
− 画像又は映像シーケンスは、それらの2つの姿勢において検証される。
有利には、方法は、複数の言語からユーザに対する言語を選択する追加ステップを含み、並びに検証及びユーザガイダンスメッセージの組は記録されており、各メッセージは、複数の言語のうちの言語の各々におけるそのオーディオビジュアルの実装に情報的に結び付けられ、メッセージは、リモートアシスタンスセンタによって送出された命令に応じて、及びユーザによって選択された言語で、端末によってユーザに送出される。
有利には、リモートアシスタンスセンタ(22)によって、ステップb)において送信された前記少なくとも1つの画像又は映像シーケンスを処理するステップc)、及び/又はリモートアシスタンスセンタ(22)からユーザの電子端末(2)に、前記補正若しくは検証命令を通信するステップd)は、自動化システムによって、若しくはデジタル署名を処理する光学技術者によって実行される。
添付図面に関して与えられ、及び非限定的な方法による以下の詳細な説明は、本発明及びそれがどのように実装され得るかをより良好に理解することを可能にする。
本発明の方法の例示的な実装形態を概略的に示す。 本発明の別の例示的な実装形態に従った、視界姿勢の近くにある対象を手に保持する個人の側面像及び端末の図である。 本発明の一実施形態に従った方法のステップのフローチャートを示す。
デバイス
図1は、個人1又はユーザに意図される視力矯正器具の個別化パラメータの少なくとも1つの値を判定又は測定するために使用されるデバイスの要素を概略的に示す。
デバイスは、一方に、オーディオビジュアル端末2を備え、他方に、検査端末12を備え、それらは相互にリモートに位置し、及びインターネット又は別のタイプのネットワークなどの電気通信手段によって情報処理システム18に接続される。
ユーザのオーディオビジュアル端末2は、表示スクリーン3、カメラ4、及び拡声器5又はヘッドホンの組などの音声周辺機器を備える。オーディオビジュアル端末2は、コンピュータキーボード6若しくはマウス7などのインタフェース手段を備えたデスクトップ若しくはラップトップコンピュータ、又はタッチスクリーン及び/若しくは音声制御を備えたタブレットコンピュータから構成されてもよい。
検査端末12は、表示スクリーン13、及びコンピュータキーボード16若しくはマイクロフォン15などのインタフェース手段を備える。検査端末12は、情報処理システム18のインタフェースを備えてもよい。
有利には、検査端末12は、リモートアシスタンスセンタ22に位置し、そこでは、適格者11は、検査端末の種々のインタフェースと対話することが可能である。「リモートアシスタンスセンタ」という表現は、少なくとも1つの検査端末12、及びこの検査端末12を使用することに適格な一人の人11を備えた技術的手段及び人的資源の集合を意味すると理解される。
リモートアシスタンスセンタ22は、1つ以上の検査端末を備えてもよい。一人の適格者11は、1つ以上の検査端末12を操作してもよい。複数の検査端末12は、同一の情報処理システム18に接続されてもよい。複数の検査端末12を操作することに適格な複数の人11は、1つのリモートアシスタンスセンタ22で作業してもよい。
図2は、電気通信手段20によって情報処理システム18に接続される、オーディオビジュアル端末2及び検査端末12の別の例示的な実施形態を示す。
方法
少なくとも1つの個別化パラメータを判定することを求められている個人1は、電子オーディオビジュアル端末2の前に着く。有利には、個人1は、習慣的環境に位置する。代わりに、オーディオビジュアル端末2は、一連の光学技術者の販売場所に位置してもよく、及び専用電気通信ネットワーク20を介して検査端末12に接続されてもよい。
代わりに、電子オーディオビジュアル端末2及び検査端末12は、写真撮影装置などの1つ且つ同一の筐体に統合される。この場合、検査端末12は、画像を取得し、及び個人1と音声通信する完全自動化処理手段を備える。個人1は、オーディオビジュアル端末2のカメラ4の前に自身を位置付ける。例示的な例として、個人の瞳孔間距離を測定することが望まれる。「瞳孔間距離」(IPD)という表現は、2つの目の瞳孔の中心の間の距離を意味すると理解され、並びに「片眼瞳孔間距離」(1/2IDP)という表現は、1つの目の瞳孔の中心と鼻又はサジタル平面との間の距離を意味すると理解される。
個人1は、カメラ4によって少なくとも1つの画像又は1つの映像シーケンスを取得することが意図されるソフトウェアプログラムを実行する。
ソフトウェアプログラムの開始は、端末によって発行されるオーディオビジュアルメッセージが、ユーザによって選択された言語で表現されるように、複数の言語からユーザに対する言語を選択する任意選択の第1のステップを含んでもよい。
測定データの取得を検査することに適格な人11は、検査端末12に近接して位置される。好ましくは、適格者11は、検眼の資格を有する人、又は検眼測定値を得る視野で捕捉された画像の品質を評価する資格を有する光学技術者である。さらに好ましくは、適格者11は、測定方法によって判定された個別化パラメータ値を正式に検証するために、証明の署名又は印を付け加える資格を有する。検査端末12によって使用される言語は、ユーザによって選択される言語と必ずしも同一ではなく、情報処理システム18は、複数の言語においてオーディオビジュアル端末2と検査端末12との間の通信を有効にするように構成される(検査端末及びユーザの電子端末のそれぞれに対し)。
検査端末によって、適格者11が、例えば、オーディオビジュアル端末2のカメラ4によって捕捉された画像24又は映像シーケンスを見ることが可能になる。情報処理システム18は、個別化パラメータの少なくとも1つの値が、適格者11によって検証される画像又は画像シーケンスから抽出されることを可能にするデジタル処理手段を備える。
適格者11は、オーディオビジュアル端末2からのオーディオ及び/又はビジュアルメッセージの発行をリモートにトリガするために、1つ以上の命令を検査端末12に入力することによって、ユーザ1と対話してもよい。
データベースは、情報処理システム18にロードされてもよく、又は「プラグイン」の形式で電子端末2にローカルにロードされてもよい。このデータベースは、一連の制御命令を備え、各制御命令は、その情報が端末2上で表されることを意図するメッセージと関連付けられる。特に有利には、各メッセージは、その情報が、ユーザに提供される複数の言語の各言語におけるそのオーディオビジュアルの実装に結び付けられ、メッセージは、リモートアシスタンスセンタによって送出された命令と通信して、及びユーザ1によって選択された言語で、端末2によってユーザ1に送出される。同様に、一連の制御命令の各命令は、その情報が、検査端末12に利用可能な複数の言語の各言語におけるその遷移及びその実装に結び付けられる。
例えば、適格者は、検査端末12のスクリーン13上に表示されたボタンを介して検証命令を入力し、それによって、ユーザの端末2のスクリーン3上で、視覚メッセージ、例えば、OKの表示をトリガする。別の例では、非検証命令は、音声警告信号メッセージの発行、並びに、例えば、ユーザによって選択されたショートテキストが伴うフラッシュ矢印の画像を表示する映像ストリームの形式をとるスクリーン3上での視覚メッセージ、例えば、フラッシュ矢印によって示される方向で頭を傾けることをユーザに要求するテキストメッセージの表示をトリガする。
よって、データベースは、適格者による命令入力と、ユーザの端末によって発行されるメッセージ若しくは一連のメッセージとの間の情報及び言語対応を保証する。よって、データベースは、発行又は表示されたメッセージを、ユーザの言語に自動的に変換する。
また、逆方向、すなわち、ユーザ1からリモートアシスタンスセンタ22への通信の提供がされる。この目的のために、データベースは、一連のユーザ制御命令を備え、各ユーザ制御命令は、その情報が、リモートアシスタンスセンタ22の検査端末12上で表されることを意図するメッセージと関連付けられる。好ましくは、各ユーザ制御命令は、その情報が、検査端末12に利用可能な複数の言語の各言語におけるその実装に結び付けられる。
例えば、ユーザは、命令又は質問を、この命令又は質問の変換、並びに適格者の検査端末12へのメッセージの送信をトリガする端末に入力してもよい。例えば、ユーザは、適格者に利用可能な言語に変換される、検査端末12上の「補助の要求」メッセージの表示をトリガする「?」ボタンを押下してもよい。
例示的な例として、個人の瞳孔間距離パラメータを測定することが望まれる。個人1は、画像取得プログラムを開始する。第1の捕捉された画像は、電気通信手段20を介してリモートアシスタンスセンタ22又はリモート処理センタに送信される。検査端末12のスクリーン13上で、捕捉された画像24、及びこの画像の品質を評価するための少なくとも1つのインジケータが表示される。品質インジケータは、情報処理システム18によって計算されてもよく、又は適格者11によって評価及び入力されてもよい。
適格者11は、捕捉された画像の品質を評価すること、及び瞳孔間距離測定のためにこの画像を検証すること、又はしないことに関与してもよい。方法は、情報処理システム18に事前に記録された1つ以上の品質基準に必ずしも依存しないが、適格者11の能力及びノウハウに応じて、適格者11により捕捉された画像の品質の主観的な評価にも依存することがある。
例として、画像又は個人の頭の不正確な傾きの構成誤りのために、第1の画像が瞳孔間距離測定に適切でないと想定されたい。
適格者11は、例えば、キーボード16又は検査端末12の別の周辺機器を介して、第1の捕捉された画像を検証しないことを示す命令を入力する。
自動的に、又はリモートに位置する適格者11からのコマンドで、情報処理システム18はこの非検証命令を処理する。より正確には、情報システムは、ユーザの言語における非検証命令に対応するデータベースの「メッセージ」フィールドを示す。情報処理システム18は、非検証命令に対応するオーディオビジュアルメッセージの端末2への送出をトリガし、送出されるメッセージは、例えば、拡声器5によって送出される音声メッセージ、及び/又は表示スクリーン3上に表示される視覚メッセージである。端末2は、視覚メッセージを表示し、及び/又は補正命令に従ってユーザ自身を位置決め、又は移動させることをユーザに要求する音声メッセージを発行する。有利には、適格者は、カメラの前で姿勢を修正することをユーザ1にガイドしてもよい。視覚メッセージは、テキストメッセージ、アイコン、又は事前に記録された映像メッセージを備えてもよい。ユーザの再位置決めに続き、カメラ4は、第2の画像又は第2の映像シーケンスを捕捉する。
第2の捕捉された画像は、電気通信手段20を介してリモートアシスタンスセンタ22に送信される。
第2の捕捉された画像、及びこの画像の品質を評価するためのインジケータが検査端末13上に表示される。品質インジケータが品質基準を満たす場合、適格者11は第2の画像を検証してもよい。適格者11による検証コマンドの入力が、情報処理システム18に記録される。情報処理システム18は、ユーザの言語における検証命令に対応するデータベースのフィールドを示し、及びユーザの端末2への検証メッセージの送信をトリガする。
端末2は、視覚メッセージを表示し、及び/又はユーザ1に画像若しくは映像シーケンスの捕捉を通知する音声メッセージを発行する。
第2の捕捉された画像が品質基準を満たさない場合、情報処理システム18は、第2の捕捉された画像を検証しないことを示すメッセージを再度送出し、及び画像捕捉方法がユーザによって繰り返され、又は放棄される。
情報処理システム18は、捕捉され、且つ検証された映像シーケンス又は画像をデジタルで処理し、それらから求められる個別化パラメータの値を抽出する。
ユーザの顔の形状が判定される1つの例では、画像内の顔の輪郭を位置付け、及び例えば、それらを事前定義された幾何学的形状と関連付けるために、画像が処理される。
カメラで撮られた画像に基づく、瞳孔間距離測定などの測定の場合、この測定は、画像のスケールが既知であり、又はスケールを判定することができることを想定する。画像の寸法は、カメラ4の画像センサの光学特性に依存するが、カメラと個人との間の距離にも依存する。
有利には、方法は、追加的なスケーリングステップを含む。このスケーリングは、画像の領域、好ましくは、個人の顔と同一の画像面に位置する既知のサイズの対象を有するユーザの顔の画像を捕捉することによって実行されてもよい。例えば、適格者は、端末2のインタフェースを介して、目盛り付きルーラ又は検査パターンサイズを額に配置することをユーザに要求してもよい。代わりに、ユーザが、少なくとも1つの事前定義された幾何学的寸法を有するメガネフレームを自由に有している場合、スケーリングステップは、この事前定義された幾何学的寸法を特徴付けるメガネフレームの画像を捕捉するステップを含んでもよい。情報処理システム18は、検査パターン又は既知のサイズの対象の画像を処理して、それらから、所与の機能的な距離に対するカメラの倍率を推測する。
有利には、画像又は捕捉された映像シーケンスに適用される画像処理は、画像内で、耳珠点などのユーザの耳の目立った点を検出することを備える。この画像処理の目的は、例えば、カメラの軸がユーザのフランクフルト水平面に位置する測定姿勢を判定することであり、フランクフルト水平面は、現状ではそれ自体が周知である目の眼窩下縁及び耳珠点によって定義される解剖学的面である。実際に、適格者11は、各目の眼窩下縁及び耳珠点が、合計して画像内の同一の高さに位置すると言える、カメラの瞳孔と位置合わせされる。1つのプロトコルは、例えば、第1の前面画像を捕捉することをユーザ1に要求し、次いで、フランクフルト水平面がカメラの軸に水平に位置合わせされるまで頭を上下に傾けることをユーザ1に要求する適格者11にある。任意選択で、適格者11が耳珠点をよりよく見ることを可能にし、よってユーザ1の姿勢を改善することを可能にするために、この位置合わせに、ユーザ1の左右への回転が続いてもよい。特に、耳珠点は概して、前面画像では見ることができないが、コンサルタントは耳のそれから位置を推定することができる。この測定姿勢によって、目とのカメラレベルでの起立した姿勢における従来の測定値にほぼ等しい、フレームの下縁に対する目の高さの測定値を取得することが可能になる。この測定姿勢によって特に、例えば、高さの測定値が、カメラの軸とフランクフルト水平面との間の過度な角度によって誤りが発生する姿勢を回避することが可能になる。これは、フレームなしで、例えば、フレームの仮想的な試着に対し、フレームの表現とユーザの顔の画像との間の仮想的な適合から、その高さが推測されるのを可能にする画像処理に適用されてもよい。そのようなフレームなし測定は確かに近似するが、それでもなお、除去されることになる重要な誤差の元を許容する。代わりに、測定は、より高い品質のために実際のフレームで実行されてもよい。
有利には、リモートアシスタンスセンタの適格者11は、実行されることになる検査及び測定に応じて、ユーザを種々の測定姿勢にガイドしてもよい。
同様に、サジタル平面がカメラの軸と平行となるユーザの姿勢を判定することも可能である。
特に有利には、1つの測定姿勢は、ユーザのサジタル平面及びフランクフルト水平面がカメラの軸と位置合わせされる姿勢に対応する。
非限定的な例として、一般的な姿勢の上述した高さを測定するための姿勢とは別に、片眼瞳孔間距離を測定するための姿勢、目−レンズ距離(ELD)を判定し、又は所与の視界姿勢におけるメガネの装用時前傾角を測定するための姿勢又は一連の動きへの言及がなされてもよい。
一般的な姿勢:
リモートアシスタンスセンタ又は自動化工場の適格者11又はコンサルタントは、ステップc)において、例えば、スクリーンに向かって、着用者が単にそれに触れるような方法で腕を伸ばすことを着用者に依頼することによって、又は例えば、ユーザ1の顔が画像内の最小空間を占有していることを検査することによって、着用者が、閾値よりも大きくスクリーンから離れていることを検証する。適格者11はまた、スケーリングの要素が存在する場合、それが正確に位置決めされていること、及び/又はユーザ1の頭が、事前設定された閾値よりも大きいピッチ角をなすように傾けていないことを検証する。最後に、コンサルタント11は、例えば、人差し指でカメラを指し示すことをユーザ1に依頼することによって、ユーザ1が実際にカメラ4を見ていることを検証する。スケーリング命令は、例えば、カメラに対する着用者の位置を検査すること、並びに/又はスケーリング要素(クリップ、フレーム若しくは既知のサイズの他の要素)が存在し、及び正確に位置決めされているかを検査することを備える。
片眼瞳孔間距離の測定に対する姿勢:
コンサルタント11は、例えば、ユーザ1の顔が実際にカメラ4に対向して位置決めされているかを検証することによって、姿勢、より正確には着用者の頭(頭の先端)の傾きの角度が、片眼瞳孔間距離を正確に測定するのに適切であるか否かを判定することが可能な映像シーケンスの送信をトリガする。この測定ステップは、この頭(頭の先端)の傾きの角度が推定されることを可能にする(例えば、device Seeing Machineを使用して)アルゴリズムを使用して自動化されてもよい。適格者11は、ユーザ1に送信された命令が、取得されることになるゼロの傾きの角度(ゼロの頭の先端)を可能にしていたとき、又は傾きの角度が事前定義された閾値よりも小さいときのいずれかで、測定姿勢を検証する。
目−レンズ距離(ELD)を判定するための姿勢:
この姿勢は、例えば、処理システムが、適格者11を有するリモートアシスタンスセンタ、又は完全自動化システムのいずれかである図2に示される。
個人1は、レンズを備えたメガネフレーム8を着用する。非限定的な例として、測定の間にユーザ1によって着用されたメガネフレーム8は、古いメガネフレーム、又は例えば、装用時前傾角を検査するために新たに受けられる視力矯正器具の一部であってもよい。
適格者11は、カメラ4を見ることをユーザ1に依頼し、及びEssilor Visioffice器具の前でなされる動きと同様に、頭を回転させることをユーザ1に依頼し、次いで、ステップc)では、適格者11は、このパラメータが測定されることを可能にするのに頭の回転が十分であることを保証する。
自動化システムの場合、画像取得及び処理プログラムは、個人によってオーディオビジュアルインタフェースを介して以下のコマンドの入力を開始する。カメラ8は、画像、又は好ましくは一連の画像の取得を開始する。この取得の間、個人は、約5度前後の大きさで左から右への頭の旋回の動きをなし、それによって、一連の画像の少なくとも1つの画像がユーザの側面像に対応する。画像処理システムは、ユーザの姿勢を分析するために、例えばリアルタイムで画像を処理する。処理システムは、ユーザの側面像31に対応する画像を選択する。特に有利には、自動処理システムは、個人がカメラの視野に十分に離れるように、及び個人が頭部の姿勢、すなわち、左から右、及び/若しくは前方から背後への頭の傾きを修正するように個人をガイドするために、音声メッセージを発行する。
よって、取得された画像31が、例えば、5度前後超内の側面像に事実上対応し、及び例えば、4分の3の像に事実上対応しないことを後者が検証するように、ユーザは処理システムによってガイドされる。
カメラ4は任意選択で、個人が、本又はタブレットコンピュータなどの対象9を手に保持するときに、個人の姿勢、例えば、近方視界姿勢が分析されることを可能にするために、頭及び1つの腕を備える個人の側面画像を捕捉するのに適切なズームを有する。
有利には、図2に示すように、システムは、取得された画像内の個人の顔の位置、及び右目OD若しくは左目OGの位置などの或る特定の点の位置を判定し、並びにメガネの輪郭の位置を検出することを可能にする、顔認識手段を備える。
画像処理システムはまた、中間視界又は近方視界の注視に対するターゲットとして使用される対象の画像39、及び対象9と関連付けられた基準枠(OX、OY、OZ)の位置を検出するように構成される。
画像内のそれらの特定の点の識別から、処理システムは、例えば、画像31内で、画像捕捉の視界状態、例えば、近見若しくは中間視界状態の下の傾いたフランクフルト解剖学的面PFI、又は遠方視界状態の下の水平フランクフルト解剖学的面PFHの位置及び方位を自動的に判定するように構成される。
それ自体が公知であるとして、処理システムは、画像31内の視差誤差を補償することが可能である。
よって、頭若しくは目ODの1つ、個人のOG、及び対象9の間の距離DD、DG、例えば、より正確に、目ODの回転の中心、個人のOG、及び対象9の間の距離DD、DGなどの頭部姿勢パラメータがまた測定される。
例えば、既知のサイズの対象の画像の取得を介して、目盛り付きルーラ又はクレジットカードなど、既知の方法を使用して、距離測定値が校正される。
また、以下の幾何学的パラメータ、すなわち、レンズ保持面PM、及び観察直線DOD、個人の目OD、OGの1つを対象9の特定の点OにつなぐDOGのうちの1つを判定することの提供がなされてもよい。
よって、画像内の、メガネのレンズ38の保持面PMと、識別された視界姿勢における垂直線Vとの間の装用時前傾角の少なくとも1つを測定することの提供もなされてもよい。或る個別化パラメータの測定の場合、ユーザ1は、視力矯正器具、又はデモンストレーションフレームを着用しない。他の個別化パラメータの測定の場合(例えば、特定のフレームに対するレンズの中心化)、又は製造後のメガネの適合を検査するために、画像又は映像シーケンスの捕捉の間にユーザがメガネを着用している必要がある。
端末2上のオーディオビジュアルメッセージは、メガネ8をかけ、若しくはメガネ8を外すこと、又は矯正レンズを欠いたデモンストレーションフレームをかけることをユーザに要求するメッセージを備えてもよい。或る視界姿勢、例えば、近方視界読書姿勢の測定の場合、オーディオビジュアルメッセージは、本などの対象9を拾い上げることをユーザに勧めてもよい。
リモートアシスタンス検査ステップは、メガネを外し、若しくはかける命令、又は矯正レンズなしのフレームをかける命令が実行されたことを検証するステップを含んでもよい。
専門家によって検眼器具で実行される従来の検眼測定値と比較して、リモートアシスタンス方法は、より長い時間を要する測定、及び追加コストなしで取得される一連の測定値の平均である測定がされることを可能にする。
よって、ユーザが測定に費やすことを望む時間の長さは、方法の開始においてユーザによって定義及び入力されてもよく、又はリモートのコンサルタントによって記録されてもよい。この時間の長さに応じて、方法が開始されると、実行されることになる個別化測定の選択が提供又は定義されてもよい。実行されることになる個別化測定の選択はまた、検出又は示されたライフスタイル(読書の代わり、且つ遠方視界で、コンピュータで作業している人など)に応じて定義されてもよい。方法の別の利点は、ユーザの状態、又は視界パラメータにおける変動を考慮するために、種々の測定を一時的に分離する、すなわち異なる時刻で種々の測定値を撮ることを可能にすることである。
有利には、適格者11は、方法の期間を通して、特に画像捕捉ステップの前に、連続して介入することが要求されない。適格者11による介入は、画像若しくは一連の画像の検証、又は非検証のステップの間に要求され、任意選択で、視界を有する姿勢を新たな取得に修正するようユーザをガイドするために要求される。
所与の検査端末12から、複数のユーザ、別個の端末11の前に位置する各ユーザを並列して所与の適格者11が検査することが可能である。この場合、適格者11は、ユーザの各々に連続して、且つ断続的に支援を提供する。
適格者11による介入はまた、情報処理システムによる画像処理の後、1つ以上の求められる個別化パラメータが判定された後、並びに情報処理システムによって判定された個別化パラメータの正式検証及び/又はデジタル署名のためのプロトコルの終わりに要求されてもよい。よって、リモートコンサルタントは、「ドアツードア」の光学技術者の役割を果たす。
有利には、データベースは、個別化パラメータ値がユーザ、及び記録されることになる定義された測定条件と関連付けられることを可能にする。
次いで、視力矯正レンズの一連の光学技術者又は製造者は、適格者によって検証されたそれらの個別化パラメータ測定の結果を収集して、ユーザの要件を満たす視力矯正器具の製造の開始時にそれらを利用することができる。個別化パラメータ値は、特に、個人の視力を矯正するために必要とされる湾曲、軸、及び円筒の値を備える、個人の眼科測定など、他の測定によって、この目的のために補償されてもよい。
リモートアシスタンス方法によって、検査された販売前の段階で、個別化パラメータの少なくとも1つの値を判定することが可能になる。このリモートアシスタンス方法は、光学技術者の時間を節約する。
方法はまた、ユーザのためにメガネの適合を検査するために、矯正メガネが製造された後に適用されてもよい。

Claims (15)

  1. グラフィカルインタフェース(3)と、画像センサを備えた画像捕捉装置(4)と、オーディオビジュアル通信手段(5)とを備える電子端末(2)を使用して、ユーザ(1)に対する視力矯正器具の個別化パラメータの少なくとも1つの値を判定する方法であって、
    a)前記画像捕捉装置(4)によって、前記ユーザの少なくとも1つの画像又は映像シーケンスを捕捉するステップと、
    b)ステップa)において捕捉された前記少なくとも1つの画像又は映像シーケンスを、前記電子端末(2)からリモートに位置するリモートアシスタンスセンタ(22)に通信するステップであって、前記リモートアシスタンスセンタ(22)は、少なくとも1つの検査端末(12)を備える、ステップと、
    c)前記リモートアシスタンスセンタ(22)によって、ステップb)において送信された前記少なくとも1つの画像又は映像シーケンスの処理を検査して、前記画像捕捉装置の前にいる前記ユーザの位置、姿勢、又は一連の動きに基づいて、それらから、捕捉された画像又は映像シーケンスの補正又は検証命令を推測するステップと、
    d)前記リモートアシスタンスセンタ(22)から前記ユーザの前記電子端末(2)に、前記補正又は検証命令を通信するステップと、
    e)前記電子端末(2)が、前記画像若しくは映像シーケンスの捕捉の検証を前記ユーザに通知し、又は前記補正命令に従って、前記画像捕捉装置に対して前記ユーザ自身を位置決めさせ、若しくは移動させることを前記ユーザに要求する映像若しくは音声メッセージを表示若しくは発行するステップと、
    f)検証された画像又は映像シーケンスが取得されるまで、先行のステップを繰り返すステップと、
    g)前記捕捉及び検証された少なくとも1つの画像又は映像シーケンスに応じて、前記個別化パラメータの少なくとも1つの値を判定するステップと
    を含む、方法。
  2. 前記少なくとも1つの個別化パラメータは、
    − 瞳孔間距離、又は左若しくは右の片眼瞳孔間距離パラメータと、
    − ユーザの顔の形状パラメータと、
    − ユーザの姿勢パラメータと、
    − 前記ユーザの動的行動パラメータと、
    − メガネフレーム内の矯正レンズの中心化パラメータと、
    − 前記フレームと関連付けられた基準枠内の瞳孔の中心の位置、又は目のCREを特徴付けるパラメータと、
    − 交点パラメータ、例えば、レンズ−目距離と、
    − 前記フレームの、前記器具の、顔内の前記レンズの、又は周囲の基準枠の位置又は傾きを特徴付けるパラメータ、例えば、顔の形状角度又は装用時前傾角と、
    − 顔の基準枠内の前記フレームの調節パラメータと
    のうちの1つを含む、請求項1に記載の方法。
  3. ステップd)において、前記リモートアシスタンスセンタ(22)は、それぞれ、前記少なくとも1つの画像又は映像シーケンスが、前記求められる個別化パラメータの前記値の判定に少なくとも貢献するために十分である場合は検証命令を送出し、又は逆の場合は補正命令を送出する、請求項1又は2に記載の方法。
  4. ステップd)において、前記リモートアシスタンスセンタ(22)は、前記画像捕捉装置の前の前記目の中心化位置、前記ユーザの姿勢、前記画像捕捉装置の前記画像センサに対する前記ユーザの一連の動き、又は検証された画像を取得するために前記端末によって提示され、及び着用者によって実行されるプロトコルへの適合性を補正する補正命令を送出する、請求項1〜3のいずれか一項に記載の方法。
  5. − ステップa)〜e)の繰り返しの間、前記リモートアシスタンスセンタ(22)によって送出された前記補正命令によって、前記ユーザに送出された前記メッセージが、一連の固視若しくは目の追跡、並びに/又は前記ユーザのフランクフルト水平面及び/若しくはサジタル平面が前記画像捕捉装置の光学軸の事前定義された角度に方向付けられる一連の姿勢を採用するか、又は検証された画像を取得するために前記端末によって提示されるプロトコルに従い、及びそれを実行するようにユーザを誘導し、
    − ステップa)は、前記画像捕捉装置(4)が、前記リモートに検証される一連の姿勢における前記ユーザの映像シーケンスの映像記録をとることを含む、請求項1〜4のいずれか一項に記載の方法。
  6. 前記画像捕捉装置(4)の前にいる前記ユーザの前記一連の姿勢によって、前記ユーザの前記フランクフルト水平面及び前記サジタル平面が、前記画像捕捉装置の前記光学軸に対して、事前定義された閾値よりも小さい角度をなし、及びステップg)において、瞳孔間距離又は片眼瞳孔間距離が算出される、請求項1〜5のいずれか一項に記載の方法。
  7. ステップd)において、音声−映像リモートアシスタンスは、好ましくは、前記ユーザの前記目に近接して位置する、既知のサイズの要素の少なくとも1つの画像を捕捉すること、又は瞳孔間距離がすでに既知であるユーザの瞳孔間距離を表す画像を捕捉すること、又は輻輳を矯正するために既知の読書距離を測定すること、又は少なくとも1つの事前定義された幾何学的寸法を有するフレームの画像を捕捉すること、を含む再スケーリング命令を前記ユーザに通信することを含む、請求項1〜6のいずれか一項に記載の方法。
  8. 音声−映像リモートアシスタンスのステップd)は、以下のサブステップ:
    − 前記リモートアシスタンスセンタが、前記ユーザの前記端末の前記グラフィカルインタフェースに、映像ストリーム又は既知の画像を送信するステップと、
    − 前記映像ストリーム又は前記既知の画像に応答して、前記ユーザの前記顔又は少なくとも1つの目の画像を捕捉するステップと
    を含む、請求項1〜7のいずれか一項に記載の方法。
  9. ステップg)は、前記判定された値を基準値と比較することによって、メガネフレームの幾何学的調節パラメータの値を検証するステップを含む、請求項1〜8のいずれか一項に記載の方法。
  10. ステップg)は、読書距離、又は注視方向/前記頭がどの程度下がっているかを測定するステップを含む、請求項1〜9のいずれか一項に記載の方法。
  11. ステップe)において前記端末によって発行された前記メッセージは、水平軸の周囲及び/又は垂直軸の周囲で、前記ユーザの頭を回転させることの前記ユーザに対する要求を含み、前記少なくとも1つの画像又は捕捉された映像シーケンスの前記処理は、前記画像内で、耳珠点などの前記ユーザの耳の目立った点を検出することを含む、請求項1〜10のいずれか一項に記載の方法。
  12. − ステップa)において、少なくとも1つの画像又は映像シーケンスの前記捕捉の間、前記ユーザはメガネフレームを備え、
    − 前記端末によって発行された前記メッセージは、前記サジタル平面が前記画像捕捉装置の前記軸と位置合わせされる少なくとも1つの第1の姿勢、及び前記サジタル平面が前記画像捕捉装置の前記軸に対し非ゼロの角度になる少なくとも1つの第2の姿勢に前記ユーザがガイドされることを可能にし、並びに、
    − 前記画像又は映像シーケンスは、前記2つの姿勢において検証される、
    請求項1〜11のいずれか一項に記載の方法。
  13. 複数の言語から前記ユーザに対する言語を選択する追加ステップを含み、検証及びユーザガイダンスメッセージの組が記録されており、各メッセージは、前記複数の言語のうちの前記言語の各々におけるそのオーディオビジュアルの実装に情報的に結び付けられ、前記メッセージは、前記リモートアシスタンスセンタによって送出された前記命令に応じて、及び前記ユーザによって選択された前記言語で、前記端末によって前記ユーザに送出される、請求項1〜12のいずれか一項に記載の方法。
  14. 前記リモートアシスタンスセンタ(22)によって、ステップb)において送信された前記少なくとも1つの画像又は映像シーケンスを処理するステップc)、及び/又は前記リモートアシスタンスセンタ(22)から前記ユーザの前記電子端末(2)に、前記補正若しくは検証命令を通信するステップd)は、自動化システムによって実行される、請求項1〜13のいずれか一項に記載の方法。
  15. 前記リモートアシスタンスセンタ(22)によって、ステップb)において送信された前記少なくとも1つの画像又は映像シーケンスを処理するステップc)、及び/又は前記リモートアシスタンスセンタ(22)から前記ユーザの前記電子端末(2)に、前記補正若しくは検証命令を通信するステップd)は、デジタル署名を処理する光学技術者(11)によって実行される、請求項1〜14のいずれか一項に記載の方法。
JP2016517657A 2013-06-07 2014-06-03 視覚補償デバイスをカスタマイズするためのパラメータの少なくとも1つの値を判定する方法 Active JP6077720B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1301309 2013-06-07
FR1301309A FR3006776B1 (fr) 2013-06-07 2013-06-07 Procede de determination d'au moins une valeur d'un parametre de personnalisation d'un equipement de compensation visuelle
PCT/FR2014/051309 WO2014195623A1 (fr) 2013-06-07 2014-06-03 Procede de determination d'au moins une valeur d'un parametre de personnalisation d'un equipement de compensation visuelle

Publications (2)

Publication Number Publication Date
JP2016525916A true JP2016525916A (ja) 2016-09-01
JP6077720B2 JP6077720B2 (ja) 2017-02-08

Family

ID=48795627

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016517657A Active JP6077720B2 (ja) 2013-06-07 2014-06-03 視覚補償デバイスをカスタマイズするためのパラメータの少なくとも1つの値を判定する方法

Country Status (10)

Country Link
US (1) US9703122B2 (ja)
EP (1) EP3004976B1 (ja)
JP (1) JP6077720B2 (ja)
KR (1) KR102190812B1 (ja)
CN (1) CN105308494B (ja)
AU (1) AU2014276655B2 (ja)
BR (1) BR112015030587B1 (ja)
CA (1) CA2914696C (ja)
FR (1) FR3006776B1 (ja)
WO (1) WO2014195623A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017143992A (ja) * 2016-02-16 2017-08-24 株式会社トプコン 眼科検査システム及び眼科検査装置
JP2018110687A (ja) * 2017-01-11 2018-07-19 株式会社トプコン 眼科検査システム

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10955690B2 (en) 2015-03-10 2021-03-23 Hoya Lens Thailand Ltd. Spectacle wearing parameter measurement system, measurement program, measurement method thereof, and manufacturing method of spectacle lens
US10330958B2 (en) 2015-04-10 2019-06-25 Bespoke, Inc. Systems and methods for creating eyewear with multi-focal lenses
US9885887B2 (en) * 2015-04-22 2018-02-06 Kurt Matthew Gardner Method of determining eyeglass frame measurements from an image by executing computer-executable instructions stored on a non-transitory computer-readable medium
WO2017070703A1 (en) * 2015-10-23 2017-04-27 Gobiquity, Inc. Photorefraction method and product
JP6563786B2 (ja) * 2015-11-10 2019-08-21 株式会社トプコン 眼科検査システム
JP6660750B2 (ja) 2016-02-01 2020-03-11 株式会社トプコン 眼科検査システム
EP3239870B1 (en) * 2016-04-28 2021-06-02 Essilor International A method for monitoring the behavior of a cohort group of members
EP3264165B1 (en) * 2016-06-30 2019-03-06 Essilor International Method for detecting a probable error in a set of data relative to a wearer and/or a frame chosen by the wearer
CA3058708A1 (en) * 2016-10-18 2018-04-26 Eyoto Group Limited Lens examination equipment and method
US11207040B2 (en) * 2016-12-22 2021-12-28 Trophy Dental imaging apparatus with improved patient positioning
EP3415078A1 (en) 2017-06-16 2018-12-19 Essilor International Method and system for determining a pupillary distance of an individual
US10222634B2 (en) 2017-07-07 2019-03-05 Optinno B.V. Optical measurement aid device
US10460191B1 (en) * 2018-08-20 2019-10-29 Capital One Services, Llc Dynamically optimizing photo capture for multiple subjects
EP3856008A1 (en) * 2018-09-26 2021-08-04 Essilor International Method for determining at least one geometrico-morphological parameter of a subject
MX2021003564A (es) * 2018-09-26 2021-05-27 Essilor Int Procedimiento para determinar al menos un parametro geometrico-morfologico de un sujeto en una postura natural para determinar un equipo de correccion de la vista.
JP2020044355A (ja) * 2019-11-27 2020-03-26 株式会社トプコン 眼科検査システム及び眼科検査管理サーバ
US11971246B2 (en) * 2021-07-15 2024-04-30 Google Llc Image-based fitting of a wearable computing device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005092173A1 (ja) * 2004-03-26 2005-10-06 Hoya Corporation 眼鏡レンズ供給システム、眼鏡装用パラメータ測定装置、眼鏡装用検査システム、眼鏡レンズ及び眼鏡
JP2005342187A (ja) * 2004-06-02 2005-12-15 Hoya Corp 眼鏡装用パラメータ測定装置
JP2005342186A (ja) * 2004-06-02 2005-12-15 Hoya Corp 眼鏡装用パラメータ測定装置
JP2007522496A (ja) * 2004-01-13 2007-08-09 オフソニックス・インコーポレーテッド カスタム眼鏡の製造方法
JP2007289683A (ja) * 2006-03-31 2007-11-08 Hoya Corp 眼鏡装用パラメータ測定装置、眼鏡装用パラメータ測定方法、眼鏡レンズの製造方法、及び眼鏡の製造方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6792401B1 (en) * 2000-10-31 2004-09-14 Diamond Visionics Company Internet-based modeling kiosk and method for fitting and selling prescription eyeglasses
EP1516156B1 (en) * 2002-05-30 2019-10-23 AMO Manufacturing USA, LLC Tracking torsional eye orientation and position
JP2005103039A (ja) * 2003-09-30 2005-04-21 Pentax Corp 瞳孔距離測定方法および測定器
US8231220B2 (en) * 2007-07-26 2012-07-31 Essilor International (Compagnie Generale D'optique) Method of measuring at least one geometrico-physionomic parameter for positioning a frame of vision-correcting eyeglasses on the face of a wearer
WO2009024981A2 (en) * 2007-08-21 2009-02-26 Visionix Ltd. Multifunctional ophthalmic measurement system
FR2953032B1 (fr) * 2009-11-24 2012-02-24 Jean Marie Christophe Delort Dispositif et procede permettant toutes les mesures necessaires au montage des verres et a l'ajustage des montures de lunettes optiques
AU2010249222A1 (en) * 2010-12-08 2012-06-28 Tracton, Daniel Mr Configuration of lenses
DE102011009646B4 (de) * 2011-01-27 2018-02-08 Hans-Joachim Ollendorf Videozentriersystem und Verfahren zur Bestimmung von Zentrierdaten für Brillengläser
FR2971861B1 (fr) * 2011-02-21 2013-02-22 Essilor Int Procede de determination d'au moins un parametre geometrico-physionomique associe au montage d'une lentille ophtalmique dans une monture de lunettes portee par un porteur

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007522496A (ja) * 2004-01-13 2007-08-09 オフソニックス・インコーポレーテッド カスタム眼鏡の製造方法
WO2005092173A1 (ja) * 2004-03-26 2005-10-06 Hoya Corporation 眼鏡レンズ供給システム、眼鏡装用パラメータ測定装置、眼鏡装用検査システム、眼鏡レンズ及び眼鏡
JP2010266892A (ja) * 2004-03-26 2010-11-25 Hoya Corp 眼鏡装用パラメータ測定装置、眼鏡レンズ及び眼鏡
JP2005342187A (ja) * 2004-06-02 2005-12-15 Hoya Corp 眼鏡装用パラメータ測定装置
JP2005342186A (ja) * 2004-06-02 2005-12-15 Hoya Corp 眼鏡装用パラメータ測定装置
JP2007289683A (ja) * 2006-03-31 2007-11-08 Hoya Corp 眼鏡装用パラメータ測定装置、眼鏡装用パラメータ測定方法、眼鏡レンズの製造方法、及び眼鏡の製造方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017143992A (ja) * 2016-02-16 2017-08-24 株式会社トプコン 眼科検査システム及び眼科検査装置
JP2018110687A (ja) * 2017-01-11 2018-07-19 株式会社トプコン 眼科検査システム

Also Published As

Publication number Publication date
US20160124249A1 (en) 2016-05-05
BR112015030587B1 (pt) 2022-03-08
CA2914696A1 (fr) 2014-12-11
KR102190812B1 (ko) 2020-12-14
EP3004976A1 (fr) 2016-04-13
US9703122B2 (en) 2017-07-11
CN105308494A (zh) 2016-02-03
FR3006776B1 (fr) 2016-10-21
AU2014276655B2 (en) 2018-06-28
CN105308494B (zh) 2018-06-12
EP3004976B1 (fr) 2021-01-27
KR20160015260A (ko) 2016-02-12
BR112015030587A2 (pt) 2017-07-25
FR3006776A1 (fr) 2014-12-12
AU2014276655A1 (en) 2016-01-07
CA2914696C (fr) 2023-05-09
WO2014195623A1 (fr) 2014-12-11
JP6077720B2 (ja) 2017-02-08

Similar Documents

Publication Publication Date Title
JP6077720B2 (ja) 視覚補償デバイスをカスタマイズするためのパラメータの少なくとも1つの値を判定する方法
US11278200B2 (en) Measurement method for the determination of a value of a visual correction need for near vision of an individual
CN115040069A (zh) 一种订购眼镜的系统
JP2018521363A (ja) 人体の実際距離の計測及び眼鏡フレームのオーダーメイド方法
KR102050647B1 (ko) 안경 장용 파라미터 측정 시스템, 측정용 프로그램, 및 그 측정 방법, 그리고 안경 렌즈의 제조 방법
US11448903B2 (en) Method for correcting centering parameters and/or an axial position and corresponding computer program and methods
JP7170258B2 (ja) ウェアラブルデバイス対応眼電位データ処理装置、それを備えた眼鏡型ウェアラブルデバイス、及びウェアラブルデバイス対応眼電位データ処理方法
JP2013226397A (ja) 近業目的距離測定装置、並びに近業目的距離測定装置を用いた眼鏡レンズの製造方法及び製造システム
JP5652973B1 (ja) 双眼ルーペの製作方法
AU2010249222A1 (en) Configuration of lenses
JP2015123262A (ja) 角膜表面反射画像を利用した視線計測方法及びその装置
KR20220002280A (ko) 자연스럽게 바라보는 자세로 있는 대상자의 머리에 대한 유향 3d 표현을 구현하는 방법
US12042224B2 (en) Method and device for determining at least one astigmatic effect of at least one eye
JP2016167038A (ja) 眼鏡装用パラメータ測定装置、眼鏡装用パラメータ測定プログラムおよび撮像制御方法
EP3415078A1 (en) Method and system for determining a pupillary distance of an individual
EP4086693A1 (en) Method, processing device and system for determining at least one centration parameter for aligning spectacle lenses in a spectacle frame to eyes of a wearer
KR20230059330A (ko) Vr을 이용한 머신러닝 기반 안경 주문 장치 및 방법
KR20200141230A (ko) 스테레오 비전을 이용한 안경 제작용 인체 데이터 측정장치

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170112

R150 Certificate of patent or registration of utility model

Ref document number: 6077720

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250