JP2022528575A - 眼鏡レンズの局所屈折度数及び/又は屈折度数分布を測定するための方法及びデバイス - Google Patents

眼鏡レンズの局所屈折度数及び/又は屈折度数分布を測定するための方法及びデバイス Download PDF

Info

Publication number
JP2022528575A
JP2022528575A JP2021563134A JP2021563134A JP2022528575A JP 2022528575 A JP2022528575 A JP 2022528575A JP 2021563134 A JP2021563134 A JP 2021563134A JP 2021563134 A JP2021563134 A JP 2021563134A JP 2022528575 A JP2022528575 A JP 2022528575A
Authority
JP
Japan
Prior art keywords
scene
image
spectacle
spectacle lens
capture device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021563134A
Other languages
English (en)
Other versions
JP7126031B2 (ja
Inventor
グラーゼナップ カルステン
Original Assignee
カール ツァイス ヴィジョン インターナショナル ゲーエムベーハー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by カール ツァイス ヴィジョン インターナショナル ゲーエムベーハー filed Critical カール ツァイス ヴィジョン インターナショナル ゲーエムベーハー
Publication of JP2022528575A publication Critical patent/JP2022528575A/ja
Application granted granted Critical
Publication of JP7126031B2 publication Critical patent/JP7126031B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/02Testing optical properties
    • G01M11/0228Testing optical properties by measuring refractive power
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • G02C13/003Measuring during assembly or fitting of spectacles
    • G02C13/005Measuring geometric parameters required to locate ophtalmic lenses in spectacles frames
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/06Lenses; Lens systems ; Methods of designing lenses bifocal; multifocal ; progressive
    • G02C7/061Spectacle lenses with progressively varying focal power
    • G02C7/063Shape of the progressive surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Ophthalmology & Optometry (AREA)
  • Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Eyeglasses (AREA)
  • Testing Of Optical Devices Or Fibers (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本発明は、フレーム前面(18)の左及び/又は右の眼鏡レンズ(20、22)の局所屈折度数又は屈折度数分布の測定に関する。本発明によれば、複数の構造点(26)と、フレーム前面(18)の左及び/又は右の眼鏡レンズ(20、22)とを有するシーン(10)の少なくとも1つの第1の画像が、構造点(26)に対する画像化ビーム経路を有する少なくとも1つの第1のキャプチャ位置(32)から、少なくとも1つの画像キャプチャデバイス(30)によってキャプチャされ、そのビーム経路は、フレーム前面(18)の第1及び/又は第2の眼鏡レンズ(20、22)を通って延在する。眼鏡(16)の第1及び/又は第2の眼鏡レンズ(20、22)なしの、又は第1の画像で画像化された構造点(26)を有する左及び/又は右眼鏡レンズを含むフレーム前面なしの、シーン(10)の少なくとも2つの更なる画像は、そのうちの1つが第1のキャプチャ位置と同一であり得る、少なくとも2つの異なるキャプチャ位置(32、34、36)から、少なくとも1つの画像キャプチャデバイス(30)によってキャプチャされ、座標系(25)内の構造点(26)の座標は、画像分析を用いて、シーン(10)の少なくとも2つの更なる画像から計算され、又はシーン(10)の少なくとも2つの更なる画像は、第1のキャプチャ位置(32)とは異なり、且つ第1の画像で画像化された構造点(26)の少なくとも1つの画像化ビーム経路を有する、少なくとも2つのキャプチャ位置(34、36)から、少なくとも1つの画像キャプチャデバイス(30)を用いて、左及び/又は右の眼鏡レンズ(20、22)によってキャプチャされ、次に、シーン(10)の少なくとも1つの第1の画像内の構造点(26)の座標及び構造点(26)の画像から、シーン(10)の、座標系(25)における左眼鏡レンズ(20)の少なくとも一部の屈折度数分布k(x,y)及び/又は座標系(25)における右眼鏡レンズ(22)の少なくとも一部の屈折度数分布k(x,y)を判定するために、その画像ビーム経路は、フレーム前面(18)の第1及び/又は第2の眼鏡レンズ(20、22)を通って延在しない。

Description

本発明は、好ましくは眼鏡フレーム内の、左及び/又は右の眼鏡レンズの局所屈折度数及び/又は屈折度数分布を測定するための方法に関する。更に、本発明は、プログラムコードを備えたコンピュータプログラムを有するコンピュータプログラム製品、及びこの方法を実行するための装置に関する。
眼鏡着用者に焦点が合った視界を容易にするために、眼鏡レンズは、眼鏡フレーム内の眼鏡着用者の眼に対して正しく配置され、且つ位置合わせされなければならない。原則として、全ての眼鏡レンズには正確な位置合わせと配置が必要である。眼鏡レンズの正確な位置合わせ及び配置は、特に、個別の光学眼鏡レンズの設計、トーリック眼鏡レンズの設計、大きな屈折度数を備えた眼鏡レンズ、及び累進加入度眼鏡レンズの場合、とりわけ重要である。累進加入度眼鏡レンズは、異なる使用状況で、例えば、異なる距離において、視線方向のみを変更することによって、プロセスにおける眼の比較的大きな順応成功を必要とすることなく、眼鏡着用者に焦点の合った視力を可能にする。DIN EN ISO 13666:2013-10、パラグラフ8.3.5に従い、累進加入度眼鏡レンズは、少なくとも1つの累進面を備えた眼鏡レンズであり、着用者が見下ろすと増大した(正の)屈折度数を提供する。個別の眼鏡レンズ及び/又は累進加入度眼鏡レンズは、1つ以上の基準点、例えば、遠方視点及び近方視点を有し、それらの相対位置は、使用状況に応じて、眼鏡着用者の眼の瞳孔の位置に適合させなければならない。DIN EN ISO 13666:2013-10、パラグラフ5.16に従い、遠方視点は、レンズ上の視点の想定位置であり、所与の条件下での遠方視力に使用される。DIN EN ISO 13666:2013-10、パラグラフ5.17に従い、近方視点は、レンズ上の視点の想定位置であり、所与の条件下での近方視力に使用される。更に、トーリック眼鏡レンズの設計では、眼鏡着用者用の、円柱度数の正確な配向が必要である。
国際公開第2016/207412A1号パンフレットは、冒頭に述べたタイプの方法及び装置を開示している。それは、眼鏡フレームが配置されている測定装置を使用して、眼鏡フレーム内の左及び/又は右の眼鏡レンズの局所屈折度数を測定することを説明している。この測定装置は、画像キャプチャデバイスと、テスト構造を表示するためのディスプレイとを含み、その相対位置は、画像キャプチャデバイスに対して既知である。画像キャプチャデバイスは、眼鏡フレーム内の左及び/又は右の眼鏡レンズを通過する画像化ビーム経路によって、ディスプレイ上に表示されるテスト構造をキャプチャするために使用される。加えて、眼鏡フレームの座標系を定義する眼鏡フレームの一部が、ディスプレイによってキャプチャされる。次いで、眼鏡フレームの座標系を基準とする座標系における左及び/又は右の眼鏡レンズの局所屈折度数が、眼鏡フレームのキャプチャされた部分及びテスト構造のキャプチャされた画像表現から、並びにテスト構造の座標及びテスト構造のキャプチャされた画像表現から、画像処理によって、コンピュータユニットにおいて判定される。
欧州特許出願公開第2 608 109A1号明細書は、着用位置での眼鏡レンズの屈折度数を確認するための方法を開示している。この場合、眼鏡フレームなしの眼鏡着用者の記録、及び眼鏡フレームありの眼鏡着用者の記録がキャプチャされ、虹彩のサイズが両方の記録において確認される。眼鏡レンズの屈折度数は、カメラのサイズ差及び焦点距離から推定される。この方法では、眼鏡着用者が眼鏡を着用する必要がある。更に、この方法は、眼鏡レンズ内の個々の点の屈折度数の局所判定、又は眼鏡レンズを通過する個々のビーム経路の判定を容易にしない。
米国特許出願公開第2015/0362998A1号明細書及び米国特許第10,019,140B1号明細書はそれぞれ、写真測量によって顔をキャプチャする画像キャプチャデバイスから、人の顔の距離を判定するための方法を記載している。
国際公開第2016/076530A1号パンフレットは、レンズの屈折度数が、眼鏡レンズなしの記録、及び眼鏡レンズを介した記録でのオブジェクトのサイズの差から推定される、一対の眼鏡の屈折度数を測定するための方法を開示している。
米国特許出願公開第2015/0029323A1号明細書は、メモリ及びメモリに結合されたプロセッサを備えた画像処理装置を記載し、そのプロセッサは、画像キャプチャデバイスによってキャプチャされた、且つ眼鏡の有無にかかわらず眼鏡着用者を示す眼鏡着用者の画像を評価することによって、一対の眼鏡の光学特性を判定するのに役立つ。米国特許出願公開第2015/0029323A1号明細書は、眼鏡レンズを有する一対の眼鏡を通してキャプチャされた眼鏡着用者の顔の顔輪郭の相対的な空間位置、及びこの眼鏡あり顔のキャプチャされた顔輪郭の相対的な空間位置に基づいて、一対の眼鏡の眼鏡レンズの屈折度数を判定すべきことを示している。
本発明の目的は、左及び/又は右の眼鏡レンズの焦点又は屈折度数を、それぞれの場合において距離及び/又は近方視力に対して、簡単な方法で、且つ多くの装置の出費なしに判定することである。特に、本発明の目的は、眼鏡レンズの異なる位置での局所屈折度数、すなわち屈折度数分布を、非常に正確に確認することである。
この目的は、請求項1及び請求項2に示された方法によって達成される。本発明の有利な展開は、従属請求項に示されている。
請求項1に記載の眼鏡フレーム内の左及び/又は右の眼鏡レンズの局所屈折度数及び/又は屈折度数分布を測定するための方法では、シーンの少なくとも1つの第1の画像表現は、第1のステップにおいて、少なくとも1つの画像キャプチャデバイスによって少なくとも1つの第1の記録位置からキャプチャされ、この少なくとも1つの第1の画像表現は、少なくとも1つの構造点を有し、且つ眼鏡フレーム内に左及び/又は右の眼鏡レンズを含み、これらの構造点のそれぞれに対する少なくとも1つの画像化ビーム経路は、眼鏡フレームの第1又は第2の眼鏡レンズを通過する。
この発明は、屈折度数を、眼鏡レンズの焦点度数又は屈折度数を意味すると理解している。DIN EN ISO 13666:2013-10のパラグラフ9.2で指定された定義により、この発明は、焦点度数を、眼鏡レンズの球面度数及び非点収差度数を含む一般的な用語を意味すると理解している。DIN EN ISO 13666:2013-10のパラグラフ9.3で指定された定義により、この発明は、眼鏡レンズの屈折度数を、眼鏡レンズの焦点度数及びプリズム度数を含む一般的な用語を意味すると理解している。DIN EN ISO 13666:2013-10のパラグラフ10.9で指定された定義により、この発明は、眼鏡レンズのプリズム効果を、プリズム偏差及びベース設定の総称を意味すると理解している。
この発明は、局所屈折度数を、眼鏡レンズの局所焦点度数又は局所屈折度数を意味すると理解している。
この発明は、屈折度数分布を、眼鏡レンズの空間的に分解された焦点度数又は空間的に分解された屈折度数を意味すると理解している。
本発明は、シーンを、少なくとも1つの画像キャプチャデバイスによって、例えばスマートフォン又はタブレットコンピュータに統合され得る、例えば少なくとも1つのデジタルカメラによってキャプチャされ得る環境の一部であると理解している。例として、シーンは、家の部屋の一部又は店の一部、或いは風景の一部であり得る。しかしながら、シーンにはまた、一対の眼鏡の眼鏡着用者の顔、又は左眼及び/若しくは右眼のみが含まれる場合がある。
この場合、シーンの少なくとも1つの構造点は、幾何学的点を意味すると理解され、少なくとも1つの画像キャプチャデバイスでシーンをキャプチャすることによって得られたシーンの少なくとも1つの画像表現又は記録における画像は、この点に隣接する点の画像の明るさ及び/又は色がこの点の画像の明るさ及び/又は色と異なるため、明瞭に認識することができる。例として、構造点は、シーン内の構造の角部又は縁部に配置され得る。
しかしながら、この場合のシーンの構造点という用語はまた、静止した時不変パターンの点、例えば、規則的又は不規則的な点パターン内の少なくとも1つの点、規則的又は不規則的なストライプパターン内の少なくとも1つの点、規則的又は不規則的なチェックパターン内の少なくとも1つの点、バーコード内の少なくとも1つの点、2次元コード内の少なくとも1つの点、及び/又は例えば新聞若しくは書籍若しくは電子ディスプレイデバイス(例えばモニタ)に書かれたテキスト内の少なくとも1つの点、を含む。特に、シーン内の少なくとも1つの静止した時不変の構造点は、構造化された表面上、例えば構造化されたテーブルクロス上、及び/又は構造化された壁紙上の少なくとも1つの点であり得る。
しかしながら、この場合、シーンの構造点はまた、シーン内の少なくとも1つの点を意味すると理解され、その相対位置は、例えば、眼鏡着用者の顔内の少なくとも1つの動作点、例えば、眉毛上、唇上、又は虹彩上に位置する点を、経時的に変化させ得る。シーン内の少なくとも1つの構造点の相対位置が経時的に変化する場合、その変位を可能な限り再構築し、次いで左及び/又は右の眼鏡レンズの局所屈折度数を判定する際に、これが考慮することが好ましい。そのような構造点の変位を再構成できない場合は、左及び/又は右の眼鏡レンズの局所屈折度数及び/又は屈折度数分布を判定する際に、この構造点が考慮しないのが有利である。
本発明は、好ましくは、少なくとも1つの画像キャプチャデバイスが、例えば、携帯電話、スマートフォン、又はタブレットコンピュータなどのモバイル端末に統合されたデジタルカメラであるものと理解している。デジタルカメラは、ステレオカメラとして、マルチカメラとして、対物レンズを備えた画像センサとして、若しくは少なくとも2つの対物レンズを備えた画像センサとして、及び/又はいわゆるプレノプティックカメラとして具体化され得る。上記で指定されたモバイル端末はまた、デジタルカメラの形態の複数の画像キャプチャデバイスを有し得ることに留意されるべきである。
特に、モバイル端末は、少なくとも1つのプログラム可能なプロセッサと、少なくとも1つの画像キャプチャデバイス、例えば、少なくとも1つのカメラと、少なくとも1つの加速度センサと、を備え、且つ携帯されるように設計されていることが好ましく、すなわち、人がそれを共に携帯することができるように、寸法及び重量に関して構成されている装置を意味すると理解されるべきである。更なる構成要素、例えば、少なくとも1つの画面、例えば、380nm~780nmの波長範囲の可視光、及び/若しくは780nm~1mmの波長範囲の赤外光用の少なくとも1つの光源、並びに/又は例えば、380nm~780nmの波長範囲の可視光、及び/若しくは>780nm~1mmの波長範囲の赤外光に対する感度を備えた少なくとも1つの光受信機などが、モバイル端末内に存在し得る。そのようなモバイル端末の典型的な例は、少なくとも1つの画面、例えば、センサ画面(タッチ画面)、少なくとも1つの画像キャプチャデバイス、例えば、少なくとも1つのカメラ、少なくとも1つの加速度センサ、少なくとも1つの光源、少なくとも1つの光受信機、及びモバイル無線又はWLAN(無線LAN)用の無線インターフェイスなどの更なる構成要素を備え得る、スマートフォン又はタブレットPCである。
この場合、構造点の画像化ビーム経路は、シーンからの構造点の光学的画像化を、構造点画像として少なくとも1つの画像キャプチャデバイスでのシーンの画像表現にもたらす光ビームのコースを意味すると理解される。結果として、対称軸を形成する光軸は、構造点の画像化ビーム経路の主光線と呼ばれる。
請求項1に記載の方法では、眼鏡フレームの第1及び/若しくは第2の眼鏡レンズなしの、又は第1及び/若しくは第2の眼鏡レンズを含む眼鏡フレームなしだが構造点が画像化された第1の画像表現を有する、シーンの少なくとも2つの更なる画像表現は、更なるステップにおいてキャプチャされ、これは時間の第1のステップの前若しくは後に行われてもよく、又は第1のステップと同時に少なくとも2つの異なる記録位置から少なくとも1つの画像キャプチャデバイスによって、実施されてもよく、記録位置の少なくとも1つは、少なくとも1つの第1の記録位置と同一であり得る。更なるステップにおける少なくとも1つの画像キャプチャデバイスは、第1のステップからの少なくとも1つの画像キャプチャデバイスと同一であっても異なっていてもよい。好ましくは、更なるステップにおける少なくとも1つの画像キャプチャデバイスは、第1のステップからの少なくとも1つの画像キャプチャデバイスと同一である。そこで、構造点の座標は、計算ステップにおいて、画像評価によって、好ましくは三角測量によって、シーンの少なくとも2つの更なる画像表現から座標系で判定される。続いて、局所屈折度数は、シーンの少なくとも1つの第1の画像表現内の構造点の座標及び構造点の画像から、左眼鏡レンズの少なくとも一部及び/又は右眼鏡レンズの一部の局所屈折度数を判定するステップにおいて判定される。
請求項2に記載の眼鏡フレーム内の左及び/又は右の眼鏡レンズの局所屈折度数及び/又は屈折度数分布を測定するための方法は、第1のステップにおいて、少なくとも1つの画像キャプチャデバイスによって少なくとも1つの第1の記録位置からキャプチャされるシーンの少なくとも1つの第1の画像表現を提供し、この少なくとも1つの第1の画像表現は、少なくとも1つの構造点を有し、且つ眼鏡フレーム内の左及び/又は右の眼鏡レンズを含み、これらの構造点のそれぞれに対する少なくとも1つの画像化ビーム経路は、眼鏡フレームの第1又は第2の眼鏡レンズを通過する。
上記で示したように、構造点の画像化ビーム経路は、この場合、シーンから構造点の光学的画像化を、構造点画像として少なくとも1つの画像キャプチャデバイスによってキャプチャされたシーンの画像表現にもたらす光ビームの経路を意味すると理解される。結果として、対称軸を形成する光軸は、構造点の画像化ビーム経路の主光線と呼ばれる。
第1のステップに一時的に先行又は後続できる、又は第1のステップと同時に実行できる更なるステップでは、シーンの少なくとも2つの更なる画像表現は、第1の記録位置とは異なる少なくとも2つの異なる更なる記録位置から、少なくとも1つの画像キャプチャデバイスによって眼鏡フレーム内の左及び/又は右の眼鏡レンズでキャプチャされ、そのそれぞれは、第1の画像表現でキャプチャされた構造点の少なくとも1つの画像化ビーム経路を有し、その少なくとも1つの画像化ビーム経路は、眼鏡フレームの第1及び第2の眼鏡レンズを通過しない。次いで、座標系での構造点の座標は、更なるステップにおいて、画像評価によって、好ましくは三角測量によって、左右の眼鏡レンズを通過していない構造点のそれぞれの少なくとも1つのビーム経路から計算される。続いて、左眼鏡レンズの少なくとも一部及び/又は右眼鏡レンズの少なくとも一部の局所屈折度数が、それぞれの場合において、シーンの少なくとも1つの第1の画像表現における構造点の座標及び構造点の画像から判定される。
左及び/又は右の眼鏡レンズの局所屈折度数及び/又は屈折度数分布を、好ましくは上記で指定された眼鏡フレーム内で測定するための方法の有利な展開では、シーン内の多様な構造点は、各場合に少なくとも1つの第1の記録位置からキャプチャされた、各場合にシーンの第1の画像表現であり、キャプチャに続くステップは、このそれぞれの多様な構造点に基づいて行われる。
この場合、多様な構造点は、少なくとも3つの構造点からなる点のセットであると理解される。左及び/又は右の眼鏡レンズの局所屈折度数の測定が、少なくとも10、好ましくは少なくとも100、特に好ましくは少なくとも1000、及び非常に特に好ましくは少なくとも10000の構造点に基づいて実施される場合、有利である。左及び/又は右の眼鏡レンズの局所屈折度数が、100≦Z≦1000が適用される構造点の数Zに基づいて測定される場合、好都合である。
左及び/又は右の眼鏡レンズの多様な異なる位置の局所屈折度数を測定することにより、左及び/又は右の眼鏡レンズの屈折度数分布を判定することが可能である。
各画像表現の画像評価には、好ましくは、画像処理技術、例えば、分類、セグメンテーション、及び三角測量を含む。セグメンテーション及び分類などのオブジェクト認識方法を用いて、各画像表現は、好ましくは、シーン及び/又は眼鏡フレームのクラスのオブジェクトに対して検査される。オブジェクト認識方法は、従来のタイプ、例えば、閾値化、縁部ベース若しくは領域ベースのセグメンテーション、又はオプティカルフローと、学習タイプとの両方であり得る。オブジェクト認識方法が学習タイプである場合、例えば学習アルゴリズムが適用される場合、予備ステップとして拡張トレーニングデータを用いてニューラルネットワークをトレーニングする必要がある。これらのオブジェクト認識方法のそれぞれの結果は、オブジェクトの絶対位置、相対位置、及び境界であり、この場合、シーン及び/又は眼鏡フレームのクラスである。追加情報は、それぞれの画像表現におけるそれぞれのオブジェクトの存在に関連する。一例として、このようにして、眼鏡フレーム及び/又は眼鏡レンズが画像表現内に存在しているかどうかを認識することが可能である。その結果として、これが第1の画像表現に関連するか、又は更なる画像表現に関連するかに関する割り当てを、それらのそれぞれの記録後に実施することもできる。これが第1の画像表現であるか又は第2の画像表現であるかに関する割り当ては、これが第1の画像表現であるか又は更なる画像表現であるかに関する知識なしに、更に実施することができる。
上記で示された方法では、構造点は、それぞれの場合にのみ静止であり得るか、又はそれぞれの場合に静止及び時不変の両方であり得る。或いは、少なくとも1つの構造点の変位は、それぞれの場合に既知であり得、及び/又はその変位は、屈折度数分布を判定する際に再構成可能であり、且つ考慮に入れられ得る。好ましくは、構造点は、それぞれの場合に静止であり、特に好ましくは、それぞれの場合に静止且つ時不変である。
左及び/若しくは右の眼鏡レンズ、又は上述の方法のうちの1つで判定された左及び/若しくは右の眼鏡レンズの少なくとも一部の屈折度数分布から、眼鏡レンズの特定の位置における局所屈折度数を推定することが可能である。
上述の方法では、左及び/又は右の眼鏡レンズの縁部又は縁部曲線は、シーンの少なくとも1つの第1の画像表現が、少なくとも1つの画像キャプチャデバイスによって少なくとも1つの第1の記録位置からキャプチャされる範囲内で、それぞれの第1のステップにおいて、任意選択的に眼鏡フレームにキャプチャすることができる。
好ましくは、縁部曲線は、顔から離れた眼鏡フレームの前面上に位置する眼鏡レンズの形状判定境界であり、ハーフリム又はフルリム眼鏡の場合、部分的又は全体的に前面にある眼鏡フレームの内側縁部と一致する。フルリム眼鏡の場合、顔から離れた眼鏡フレームの前面上の縁部曲線は、前面上に位置するレンズの外側縁部又は前面上に位置するフレームの内側縁部と同じである。ハーフリム眼鏡の場合、顔から離れた眼鏡フレームの前面上の縁部曲線は、フレームによって提供される構造が存在する場合、前面上に位置するレンズの外側縁部又は前面上に位置するフレームの内側縁部と同じである。ハーフリム眼鏡の場合、フレームによって提供される構造がない限り、縁部曲線は、顔から離れた眼鏡フレームの前面の前側上に位置するレンズの外側縁部と同じである。リムレス眼鏡の場合、フレームの類似した構造は存在せず、すなわち、ここでの縁部曲線という用語は、常に、顔から離れた眼鏡フレームの前面の前側上に位置するレンズの外側縁部を示す。
モバイル端末内に配置され、少なくとも2つのデジタルカメラ、ステレオカメラ、マルチカメラ、少なくとも2つの対物レンズを備えたカメラチップ、又はプレノプティックカメラを含む画像キャプチャデバイスが、請求項1に指定された方法で使用される場合、第1及び/又は第2の眼鏡レンズを含む眼鏡フレームありのシーンの単一の画像表現をキャプチャすることで十分であり得、この1つの第1の画像表現は、少なくとも1つの構造点を有し、第1及び/又は第2の眼鏡レンズを含む眼鏡フレームなしだが、シーンの第1の画像表現と同じ構造点を有するシーンの単一の更なる画像表現をキャプチャする。請求項1に記載の方法の精度を高めるために、シーンの少なくとも2つの画像表現は、好ましくは、第1及び/又は第2の眼鏡レンズを含む眼鏡フレームありでキャプチャされ、シーンの少なくとも2つの画像表現は、第1及び/又は第2の眼鏡レンズを含む眼鏡フレームなしでキャプチャされる。
モバイル端末に配置され、少なくとも2つのデジタルカメラ、ステレオカメラ、マルチカメラ、少なくとも2つの対物レンズを備えたカメラチップ、又はプレノプティックカメラを含む画像キャプチャデバイスが、請求項2に指定された方法で使用される場合、第1及び/又は第2の眼鏡レンズを含む眼鏡フレームありのシーンの単一の画像表現をキャプチャすることで十分であり得、この1つの第1の画像表現は、少なくとも1つの構造点を有し、これらの構造点のそれぞれに対する少なくとも1つの画像化ビーム経路が第1及び/又は第2の眼鏡レンズを通過するときに、第1及び/又は第2の眼鏡レンズを含む眼鏡フレームありのシーンの単一の更なる画像表現をキャプチャし、この少なくとも1つの更なる画像表現は、これらの構造点のそれぞれに対する少なくとも1つの画像化ビーム経路が眼鏡フレームの第1及び第2の眼鏡レンズを通過しないように、第1の記録位置とは異なる記録位置から記録される。請求項2に記載の方法のこの実施形態では、好ましくは、その精度を高めるために、眼鏡フレームの少なくとも2つの第1の画像表現、及び第1の2つの記録位置とは異なる記録位置からの眼鏡フレームありのシーンの少なくとも2つの更なる画像表現もまた作成される。
大きな負の屈折度数を有する、すなわち、-3dpt以下の負の屈折度数を有する主径線を有する眼鏡レンズを測定するために、左及び/又は右の眼鏡レンズの局所屈折度数及び/又は屈折度数分布を判定するためのシーンが、それぞれの場合に好ましくは眼鏡フレーム内に、左及び/又は右の眼鏡レンズを通してキャプチャされ、好ましくは5mm~200mmである測定されるそれぞれの眼鏡レンズからの距離を有する、少なくとも1つの構造点、好ましくは少なくとも1つの静止した時不変の構造点を含むことが有利である。
この場合、眼鏡レンズからの構造点の距離は、いずれの場合も、構造点に面する眼鏡レンズの側面上の画像化ビーム経路の主光線の交点からの、構造点の距離を意味すると理解される。シーンの更なる画像表現を更に異なる記録位置からキャプチャした結果として、原則として、光学的な画像化用の主光線を、前述の距離範囲内の各構造点に対して画像キャプチャデバイスに指定することが可能であることに留意されるべきである。
大きな正の屈折度数を有する、すなわち、+3dpt以上の正の屈折度数を有する主径線を有する眼鏡レンズを測定するために、左及び/又は右の眼鏡レンズの局所屈折度数及び/又は屈折度数分布を判定するためのシーンが、それぞれの場合に好ましくは眼鏡フレーム内に、左及び/又は右の眼鏡レンズを通してキャプチャされ、好ましくはより強い主径線の焦点の前に位置する、測定されるそれぞれの眼鏡レンズからの距離を有する、少なくとも1つの構造点、好ましくは少なくとも1つの静止した時不変の構造点を含むことが有利である。この距離は、好ましくは、5mm~100mmである。
低屈折度数の眼鏡レンズ、すなわち、-3dpt未満の負の屈折度数を有する主径線、又は+3dptを超える正の屈折度数を有する主径線を有する眼鏡レンズを測定するために、測定されるそれぞれの眼鏡レンズからの距離が、好ましくは、最大600mm、好ましくは5mm~500mmである眼鏡フレーム内に位置する、少なくとも1つの構造点、好ましくは少なくとも1つの静止した時不変構造点を有するシーンの場合に、良好な測定結果が得られる。
本発明の発見は、特に、眼鏡レンズの局所屈折度数及び/又は屈折度数分布が、眼鏡フレームの眼鏡レンズからのシーン内の少なくとも1つの構造点、好ましくは少なくとも1つの静止した時不変構造点の距離が、10mm~50mm、好ましくは30mm~40mmである場合に、本発明による方法で非常に正確に判定することができるということである。
本発明の有利な実施形態は、その局所屈折度数及び/又は屈折度数分布が確認されることが意図されており、この眼鏡レンズが、好ましくは眼鏡フレーム内に配置されている眼鏡レンズを含むそれぞれの場合において、シーンの多様な第1の画像表現、及びキャプチャされるシーンの多様な更なる画像表現を提供する。或いは、多様な更なる画像表現を記録する際に、眼鏡フレームをシーンから除外することもできる。シーンの多様な第1の画像表現、及びシーンの多様な更なる画像表現をキャプチャするために、シーンの周囲の、並びに/又は異なる記録方向及び/若しくは記録距離での多様な異なる記録位置をカバーする、いずれの場合おいても、これらが半球の少なくとも一部又は半球にまたがる場合、有利である。これは、少なくとも1つの構造点の座標が、シーンの多様な更なる画像表現から計算できるためである。
シーンの対応する多数のキャプチャされた第1の画像表現、及びシーンのキャプチャされた更なる画像表現は、好ましくは眼鏡フレーム内にある、左及び/又は右の眼鏡レンズの局所屈折度数及び/又は屈折度数分布を測定するための方法の精度を高める。
シーンの多様な画像表現をキャプチャすることにより、特に頭部について、少なくとも1つの画像キャプチャデバイスを変位させながら画像キャプチャデバイスを用いて、又は静止画像キャプチャデバイスの場合は、シーン、特に、眼鏡フレームの眼鏡着用者の左眼及び/又は右眼が変位した画像キャプチャデバイスを見つめる頭部を回転させる間に、眼鏡フレームの眼鏡着用者の左眼及び/又は右眼の異なる視線方向の視線ビーム経路が左眼鏡レンズ及び/又は右眼鏡レンズを介して計算され、且つ左眼鏡レンズ及び/又は右眼鏡レンズの局所屈折度数k(x,y)が、各視線方向に対して判定されるプロセスでキャプチャされたシーン、特に、頭の多様な画像表現から、眼鏡着用者が選択した視線方向に対して、眼鏡着用者が着用する眼鏡フレーム内の眼鏡レンズの局所屈折度数を判定することが可能である。
眼鏡フレーム内の左右の眼鏡レンズの局所屈折度数及び/又は屈折度数分布を測定することにより、特に、一対の眼鏡、すなわち、両方の眼鏡レンズを含む眼鏡フレームのいわゆる両眼度数についての記述を行うことができる。両眼度数は、特定の視線方向に対する左右の眼鏡レンズの焦点又は屈折度数の評価を意味すると理解されるべきである。両眼度数はまた、例えば、コマ収差、或いはプリズム収差などの、より高次の眼鏡レンズにおける画像収差を含み得る。
眼鏡フレーム内の左右の眼鏡レンズの局所屈折度数及び/又は屈折度数分布を測定することにより、例えば、特定の視線方向に対する両眼目標値から大幅に逸脱する、主経線及びそれらの方向における屈折度数の差を含む眼鏡レンズの非点収差度数を認識することが可能になる。この場合、両眼の目標値は、球面、軸を有する円柱、及び両眼のベースを有するプリズムを含む、主観的に確認された屈折を意味すると理解されるべきである。例えば、両眼目標値からの左右の眼鏡レンズの非点収差度数の偏差が同じである場合、両眼目標値からの偏差は、眼鏡着用者によって気づかれないか、又はわずかにしか気づかれない。しかしながら、両眼の目標値からの左右の眼鏡レンズの非点収差度数の偏差が異なる場合、両眼の目標値からのこの偏差は、眼鏡着用者によってはっきりと気づかれる。
左右の眼鏡レンズ間の不正確なプリズム効果は、眼鏡着用者によって非常に不快として知覚されることに留意されるべきである。この場合、不正確な鼻プリズム度数は、不正確な時間プリズム度数及び/又は不正確な垂直プリズム度数よりも、眼鏡着用者によって受け入れられる可能性が高い。
特に、上記の方法は、眼鏡フレーム内の左右の眼鏡レンズを同時に測定することにより、左眼鏡レンズと右眼鏡レンズとの間のプリズム度数偏差を着用状況での両眼目標値から判定できるという利点を提供する。
本発明の有利な実施形態は、異なる記録位置からの記録におけるシーン内の構造点の画像表現の変位を評価することによって、座標系において計算される構造点の座標を提供する。この場合、特徴を検出する方法、いわゆる「特徴検出方法」では、その全体が本明細書で参照され、その開示が本発明の明細書に組み込まれる、例えば、J.Hartmann,J.Kluessendorff,及びErik Maehleによる、記事「A comparison of feature descriptors for visual SLAM」,European Conference on Mobile Robots 2013に記載されているような、例えば、SIFT及びSURF特徴などの勾配ベースの特徴記述子、又はBRISK特徴のBRIEFなどのバイナリ特徴記述子、を使用することができる。
構造点の座標は、任意の固定座標系、特に、少なくとも1つの画像キャプチャデバイスによって記録位置に関連して定義される座標系に関連付けることができる。好ましくは、この座標系は、眼鏡フレームの部分によって定義され得る、眼鏡フレームの座標系を基準とする。この場合、互いに参照される2つの座標系は、一方の座標系における点又はベクトルの座標が他方の座標系内にあることが既知である座標系を意味すると理解される。特に、構造点の座標間の距離を判定することによって達成できることは、例えば眼鏡着用者の顔など、経時的に変化するシーンに基づいたとしても、眼鏡フレーム内の左及び/又は右の眼鏡レンズの局所屈折度数及び/又は屈折度数分布を判定することができるということである。
本発明の更に有利な実施形態では、シーン内の構造点間の近接関係を評価することによって、眼鏡フレームの座標系における右眼鏡レンズ及び/又は左眼鏡レンズの少なくとも1つの部分の局所屈折度数及び/又は屈折度数分布を判定する際に考慮されない、シーン内で変位した少なくとも1つの構造点の座標に対して、認識される座標系内の少なくとも1つの構造点の変位が提供される。このようにして達成できることは、シーン内の構造点の動作が、眼鏡フレーム内の左及び/又は右の眼鏡レンズの局所屈折度数及び/又は屈折度数分布の測定結果に影響を与えず、測定結果を改ざんしないということである。
特に、本発明は、シーンの多様な画像表現を記録すること、特に、少なくとも1つの画像キャプチャデバイスを使用して異なる記録位置及び/又は記録方向からシーンのフィルム又はビデオシーケンスを記録することが、シーンが少なくとも1つの構造点を有する特徴的な構造特徴を含む場合に、画像処理により、その全体が本明細書で参照され、その開示が本発明の明細書に組み込まれる、例えば、刊行物「A. Teichmannら,Unsupervised intrinsic calibration of depth sensors via SLAM,Robotics:Science and Systems 2013,Berlin Germany,June 24-28,2013」おいて説明されているような、SLAMアルゴリズム、すなわち、ローカライズ及びマッピングを同時に行うためのアルゴリズム(Simultaneous Localization and Mapping)を使用して、少なくとも1つの画像キャプチャデバイスのいわゆる固有パラメータ、及びシーンに対するその相対的な空間位置の計算を容易にする、という概念に基づく。ここで、シーンに、一意に定義された、好ましくは静止した、時不変の多様な構造点を有する特徴的な構造特徴が含まれている場合、有利である。例として、そのような特徴的な構造特徴は、例えば、2つの縁部ラインの交点、オブジェクトの特徴的な色、或いはオブジェクトの特徴的な幾何学的形態を有するオブジェクト上の輝度プロファイルであり得る。
本発明は、画像キャプチャデバイスの固有パラメータが、画像キャプチャデバイス内のカメラの焦点距離f、画像中心Z及びZの座標、シャーリングパラメータs、並びに画像平面からの座標軸のスケーリングが異なることによるスケーリングパラメータmx及びmyであると理解している。これらのパラメータは、カメラ較正演算子、
Figure 2022528575000002
で組み合わされる。
本発明の範囲内で、カメラの固有のパラメータはまた、画像の歪み、特に半径方向及び接線方向の歪みを判定するのに役立つ歪みパラメータであり得る。画像キャプチャデバイスの固有のパラメータは、オブジェクト点の3D座標が画像キャプチャデバイスの画像平面でどのように画像化されるか、又は画像平面内に点が与えられた場合に、関連するビーム経路が、画像キャプチャデバイスに対して静止している座標系においてどのように計算され得るか、を記述する。
空間内の座標系に対する画像キャプチャデバイスの相対位置は、回転演算子
Figure 2022528575000003
によって記述され、ここで、
Figure 2022528575000004
であり、これは、座標系の中心を中心としたカメラの回転を定義し、変換ベクトル
Figure 2022528575000005
は、座標系の原点に対するカメラの中心の変位を定義する。この座標系の座標cは、マッピングルール
Figure 2022528575000006
と、カメラの画像平面上の対応する2D座標上の第3の座標による結果ベクトルの除算を用いて、関連する2次元の不均一な座標の計算とによって、マッピングされる。
逆に、カメラの画像平面上の均一な座標での2次元ピクセル座標yに対して、マッピングルール
Figure 2022528575000007
を使用して、この座標上で画像化される関連する光線を判定することができる。
これは、その全体が本明細書で参照され、その開示が本発明の明細書に組み込まれる、R.Hartley及びA.Zissermanによる、書籍「Multiple View Geometry」,Cambridge University Press 2004の153~193頁に詳細に示されている。
シーンの多様な画像表現が使用されて、眼鏡フレームのなしのシーンの3Dモデルに関する情報、シーン内の眼鏡フレームの絶対位置及び相対位置に関する情報、並びに個々に記録された画像ごとに、すなわち、記録の時間ごとに、シーン内の少なくとも1つの画像キャプチャデバイスの位置に関する情報を判定する。これから、眼鏡レンズを通過するビーム経路が確認されて、次いでそこからの左及び/又は右の眼鏡レンズの局所屈折度数及び/又は屈折度数分布が計算される。
したがって、本発明の有利な展開は、少なくとも1つの構造点の座標を計算するために使用されるSLAMアルゴリズムを提供する。このようにして、画像キャプチャデバイスの座標及び位置の計算の精度を高め、シーン内の少なくとも1つの構造点の座標を判定するための計算の出費を最小化し、したがってこの目的のために必要となる計算時間を短くすることが可能である。
特に、異なる記録位置からキャプチャされ、したがって異なる視点からシーンを表示する、1つの同じシーンの画像表現から、SLAMアルゴリズムは、シーンの画像表現をキャプチャする際に後者が採用される各場合において、シーンの3次元ジオメトリと、少なくとも1つの画像キャプチャデバイスの位置との両方の計算を容易にする。SLAMアルゴリズムは、シーンに存在する特徴を検出する特徴認識ルーチンと、異なる記録位置から記録された画像内の対応する特徴が記録内の特徴ごとに認識されるマッチングルーチンと、を含む。画像記録内の各特徴の対応する位置から、シーンの3次元モデルが、少なくとも1つの画像キャプチャデバイスの固有のパラメータ、及び空間内の画像キャプチャデバイスの記録に属する位置に基づいて作成される。
本発明によるコンピュータプログラム製品は、コンピュータプログラムがコンピュータユニット内にロードされるとき、及び/又はコンピュータユニット上で実行されるときに、前述の方法ステップを実行するためのプログラムコードを備えたコンピュータプログラムを含む。
眼鏡フレーム内の左及び/又は右の眼鏡レンズの局所屈折度数及び/又は屈折度数分布を測定するための本発明による装置は、前述の方法ステップを実行するためのプログラムコードを備えたコンピュータプログラムがロードされている、少なくとも1つの画像キャプチャデバイス及びコンピュータユニットを含む。
特に、そのような装置は、スマートフォンとして、又はタブレットコンピュータとして、或いはデジタルカメラとして、具体化することができる。以下に、図面に概略的に示されている、本発明の有利な例示的な実施形態を説明する。
少なくとも1つの画像キャプチャデバイスの絶対位置及び/又は相対位置と、画像表現における構造点の位置との両方を判定するSLAMアルゴリズムの精度は、好ましくは、利用される少なくとも1つの画像キャプチャデバイスの較正によって判定される。そのような較正により、少なくとも1つの画像キャプチャデバイスの各ピクセル座標Cの相対位置から、それぞれの画像キャプチャデバイスに入射する3次元光線を割り当てることができる。数学的には、そのような較正は、上述の固有パラメータを含む固有のカメラ較正演算子
Figure 2022528575000008
として表すことができる。例として、このカメラ較正演算子
Figure 2022528575000009
は、少なくとも1つの画像キャプチャデバイスを用いて、特別な較正パターン、例えば、チェッカーボードパターン又は点パターンの記録から判定することができる。それに対する代替として、異なる記録位置に基づき得るシーンの多様な画像表現から直接、少なくとも1つのシーンの多様な画像表現を評価することによって、固有のカメラ較正演算子
Figure 2022528575000010
を判定することもまた可能である。
上述の較正により、SLAMアルゴリズムは、各構造点に、それぞれの画像キャプチャデバイスに入射する多様な3次元光線を割り当てることができ、その光線は左右の眼鏡レンズを通過しない。次いで、これらを使用して、空間内の構造点の座標を判定することができる。右及び/又は左の眼鏡レンズを通過し、右及び/又は左の眼鏡レンズを介した屈折後にそれぞれの既知の構造点に到達する多様な画像化ビーム経路は、空間内のこれらの座標と、少なくとも1つの記録ユニットによって左及び/又は右の眼鏡レンズを通して観察された構造点の記録とから判定することができる。したがって、スパンされたこの光線モデルは、好ましくは、左及び/又は右の眼鏡レンズの屈折度数又は局所屈折度数又は屈折度数分布を確認するために使用される。
規則的なパターンの場合、その周期性もまた、シーンを記録することによってキャプチャされる。本発明の更なる実施形態の場合、右及び/又は左眼鏡レンズの局所焦点度数は、本発明の更なる実施形態において、少なくともその右及び/又は左眼鏡レンズを通したパターンの局所方向依存拡大又は局所方向依存縮小の解釈から推定することができる。DIN EN ISO 13666:2013-10、パラグラフ9.2に従い、焦点度数は、眼鏡レンズの球面度数と非点収差度数を含む一般的な用語である。その結果として、局所焦点度数は、例えば、遠方視点及び/又は近方視点において目標化された方法で判定することができる。或いは、眼鏡レンズの屈折度数分布は、その眼鏡レンズ上の複数の場所の局所焦点度数を判定することによって推定され得る。
更なる態様では、上述の方法は、少なくとも1つの更なる方法と一緒に使用することができる。その少なくとも1つの更なる方法は、例えば、ユーザの眼の屈折異常を判定するための方法、好ましくは、欧州特許出願19 170 561.5号明細書による方法であり得、この方法は、
a)画面上にキャラクタを表すことであって、画面上に表されたキャラクタのパラメータが変化する、ことと、
b)画面に表されたキャラクタに応じて、ユーザの眼の動作メトリックをキャプチャすることと、
c)画面上に表されたキャラクタに対するユーザの認識閾値がユーザの眼の眼動作メトリックから明らかである時点を確立することと、
d)その時点で定義されたパラメータからユーザの眼の屈折異常の値を判定することと、
からなるステップを含む。
上述の方法の代替として、又はそれに加えて、少なくとも1つの更なる方法はまた、例えば、眼鏡レンズの少なくとも1つの光学パラメータを判定するための方法、好ましくは、出願ファイル参照番号EP19170551.6号明細書を有する欧州特許出願に従った方法であり得、この方法は、
a)眼鏡レンズを使用して画像を記録することと、
b)画像の画像処理によって眼鏡レンズの少なくとも1つの光学パラメータを確認することであって、画像が、眼鏡レンズのユーザの、眼を含む眼領域及び/又は眼に隣接する顔領域を含む、ことと、からなるステップを含む。
上記の方法の代替として、又はそれに加えて、少なくとも1つの追加の方法はまた、ユーザの眼の屈折異常を判定するための方法、好ましくは、出願ファイル参照番号EP19170558.1号明細書を有する欧州特許出願に従った方法であり得、この方法は、
a)画面上にキャラクタを表すことであって、画面上に表されたキャラクタのパラメータが変化する、ことと、
b)画面に表されたキャラクタに応じて、ユーザの反応をキャプチャすることと、
c)ユーザ用の画面上に表されたキャラクタの認識可能性がユーザの反応から明らかである時点を確立することと、
d)ある時点で定義されたパラメータからユーザの眼の屈折異常の値を判定することであって、画面に表されるキャラクタが周期的なパターンであり、画面上に表されるパターンのパラメータが少なくとも1つの空間周波数を含み、屈折異常の値がその時点で定義されたパターンの空間周波数から判定される、ことと、からなるステップを含む。
上述の方法の代替として、又はそれに加えて、眼鏡レンズの屈折度数分布を判定するための方法、好ましくは、特定の視線方向に対する前眼部分の画像化のサイズ及び/又は形状比較から局所屈折度数を可能にする、出願ファイル参照番号EP19170714.0号明細書を有する欧州特許出願に従った方法もまた、少なくとも1つの追加の方法として可能である。これは、後者の前に眼鏡レンズがある場合とない場合の前眼部分の少なくとも1つの記録を実行し、眼鏡レンズがある場合とない場合の記録をそれぞれ互いに比較することによって行われる。
上位のアプリケーションでは、上述の様々な方法、すなわち、本発明による方法及び少なくとも1つの更なる方法も、例えば、より高い精度、又は個々の方法で得られた結果の妥当性チェックを得るために、それぞれ得られた結果の比較から順番に組み合わせることができる。上述の様々な方法は、上位のアプリケーションで、連続的又は同時に実行することができる。様々な方法が連続して実行される場合、それらの順序は互いに独立することができ、及び/又は任意の所望の順序が含まれ得る。様々な方法が連続して実施される場合、屈折度数分布を最後に判定するために、本発明による方法のうちの少なくとも1つを実行することが優先され得る。上位のアプリケーションは、例えば、様々な方法を含むコンピュータプログラムであり得る。
眼鏡フレームを有し、異なる記録位置に配置された画像キャプチャデバイスを有する、シーンを示す。 第1の記録位置で画像キャプチャデバイスを用いてキャプチャされたシーンの第1の画像表現の一部を示す。 第1の記録位置とは異なる更なる記録位置において画像キャプチャデバイスを用いてキャプチャされたシーンの第2の画像表現の一部を示す。 シーンの座標系と、眼鏡レンズを伴う画像キャプチャデバイスの座標系とを示す。 2つの異なる視点からシーンを観察する際の眼鏡フレームの光線モデルを示す。 眼鏡フレームの光線モデルから計算された屈折度数分布を示す。 眼鏡フレーム内の左及び/又は右の眼鏡レンズを測定するための方法の構成のフローチャートを示す。 眼鏡フレーム内の左及び/又は右の眼鏡レンズを測定するための方法の更なる構成のフローチャートを示す。 眼鏡フレームを有し、異なる記録位置に配置された画像キャプチャデバイスを有する、更なるシーンを示す。 眼鏡フレームなしだが、画像キャプチャデバイスを有する、更なるシーンを示す。 眼鏡フレームを有し、異なる記録位置に配置された画像キャプチャデバイスを有する、更なるシーンを示す。 第1の記録位置において画像キャプチャデバイスを用いてキャプチャされたシーンの画像表現の一部を示す。 眼鏡フレームなしだが、画像キャプチャデバイスを有する、更なるシーンを示す。 画像キャプチャデバイスを用いてキャプチャされた眼鏡フレームなしのシーンの画像表現の一部を示す。
シーン10として、図1は、テーブルクロス14を備えたテーブル12を示しており、その上に、眼鏡フレーム18を有する一対の眼鏡16と、そこに受容された左右の眼鏡レンズ20、22と、加えて、ナイフ、ボトル、カップ、及び書籍、並びに葉巻の形態の更なるオブジェクト24が存在するように配置されている。図1に示されるシーン10は、時不変であり、シーン10の座標系25、及び一対の眼鏡16の眼鏡フレーム18の特徴点を構造点26として定義する、テーブルクロス14及びオブジェクト24のパターンの特徴点を含む。
一対の眼鏡16における左右の眼鏡レンズ20、22の局所屈折度数を測定するために、シーン10は、スマートフォンとして具体化された画像キャプチャデバイス30内のカメラ28を用いて、ユーザが片手でスマートフォンをビデオモードに切り替え、そのスマートフォンを軌道38に沿って移動させることにより、多様な異なる記録位置32、34、36…において記録される。したがって、ユーザは、画像キャプチャデバイス30のカメラ28を用いて、異なる視点からシーン10をキャプチャする。カメラ28を用いてキャプチャされたシーン10の記録を処理するために、画像キャプチャデバイス30は、コンピュータユニット40を含む。
図2は、第1の記録位置32から画像キャプチャデバイス30を用いてキャプチャされた、構造点26の画像表現26’を有する、シーン10の第1の画像表現の部分42である。図3は、第1の記録位置32とは異なる更なる記録位置36から画像キャプチャデバイス30を用いてキャプチャされた、構造点26の画像表現26’を有する、シーン10の第1の画像表現の更なる部分42を示している。
シーン10に対して画像キャプチャデバイス30を変位させる際に、図2及び図3から明らかなように、多様な構造点26はそれぞれ、一対の眼鏡16の眼鏡フレーム18内の第1及び/又は第2の眼鏡レンズ20、22を通過するか、又は通過しない画像化ビーム経路によってキャプチャされる。更に、画像キャプチャデバイス30をシーン10に対して変位させる際に、眼鏡フレーム18の座標系44を定義する眼鏡フレーム18の部分を含むシーン10の画像表現がキャプチャされる。
図4は、シーン10の座標系25、及び眼鏡レンズ20、22を伴う画像キャプチャデバイス39の座標系46を示している。シーン10の多くのキャプチャされた画像表現から、画像キャプチャデバイス30内のコンピュータユニット40は、SLAMアルゴリズムに基づいて、且つ画像キャプチャデバイス30を基準とし、次いで、シーン10の座標系25及び一対の眼鏡16の眼鏡フレーム18の座標系44を基準とする、座標系46内の光線モデルを用いて、シーン内のパターン27の構造点26の座標を計算する。
図5は、画像キャプチャデバイス30のカメラ28内に導かれ、シーン10が2つの異なる記録位置32、34からキャプチャされたときの構造点26の主光線53、53’を含む、画像化ビーム経路を有する一対の眼鏡16の光線モデルを示している。そのような光線モデルは、画像キャプチャデバイス30の位置に関する知識を必要とするだけでなく、シーン10の3次元モデル、及びシーン10における図1に示される一対の眼鏡16の位置の知識、更には、シーン10のどの構造点26が一対の眼鏡16の左眼鏡レンズ20又は右眼鏡レンズ22を通して画像キャプチャデバイス30によりキャプチャされるかについての情報も想定している。
図5に示される光線モデルを計算するために、図4を参照して、次の手順が実行される。
画像キャプチャデバイス30のカメラ28で画像化された、シーン10のパターン27の構造点26の均一な座標のピクセル座標
Figure 2022528575000011
から、カメラ光学ユニットに入射する画像化ビーム経路の主光線が、カメラ28の画像キャプチャデバイスの座標系46における3次元ベクトル
Figure 2022528575000012
の形態で判定され、ここで、カメラ較正演算子
Figure 2022528575000013
が既知である場合、
Figure 2022528575000014
である。カメラ28の既知の空間位置、及び座標系25におけるその相対的な空間位置から、変換演算子
Figure 2022528575000015
及び回転演算子
Figure 2022528575000016
を判定することが可能であり、ここで、
Figure 2022528575000017
である。これらから、
Figure 2022528575000018
が、線形変換
Figure 2022528575000019
によって、カメラ28の画像キャプチャデバイスの座標系46から、回転演算子
Figure 2022528575000020
に対応する回転によって座標系25’に、次いで変換演算子
Figure 2022528575000021
に対応する変換によってシーン10の座標系25に変換される。
特徴マッチングアルゴリズムを用いて、異なる記録位置32、34、36の複数の記録にわたって、その画像化ビーム経路が眼鏡レンズを通過しない静止した時不変構造点26を検出及び追跡することによって、画像キャプチャデバイスの固有パラメータ、並びに画像表現のキャプチャ時の画像キャプチャデバイスの相対位置及び絶対位置から、これらの構造点26のそれぞれに対して、画像キャプチャデバイス30の座標系46内のシーン10内の相対位置を推定することが可能である。
次いで、一対の眼鏡16の眼鏡レンズ20、22を通過する主光線53、53’が、画像キャプチャデバイス30の位置に従って、それぞれの画像化された構造点26から計算される。次に、これと点の3D座標により、同じシーン10内の同じ対の眼鏡16の異なる視線条件を反映し、且つ偏向されて、画像キャプチャデバイスの様々な相対位置及び絶対位置に対応する画像化光線を記述する、ビームモデルを生成する。
例えば、その全体が本明細書で参照され、その開示が本発明の明細書に組み込まれる、K.N.Kutukalos及びE.Stegerによる刊行物「A Theory of Refractive and specular 3D Shape by Light-Path Triangulation」,International Journals of Computer Vision,2008,volume76,issue1,13~29頁において説明されているように、いわゆる逆アプローチによって、次いで、このデータ記録から、一対の眼鏡16の眼鏡フレーム18内の左右の眼鏡レンズ20、22の絶対位置及び形状と、相対位置との両方、並びに材料の屈折率を判定することが可能であり、したがって眼鏡着用者に対するその屈折度数を判定することもまた可能である。
逆アプローチは、いわゆるフォワード計算の逆であり、ここでは、レイトレーシングとも呼ばれる光線計算を使用して、既知の光界面と界面間の既知の屈折率とからなる光学系を通る光線のコースを計算する。界面、その法線、及び屈折率が既知である場合、これにより、系を通過する各光線を一意に計算することが可能になる。逆アプローチの場合、所与の数の光線に適合する光学界面又は屈折率が求められる。誤差次元を判定するために、逆アプローチによって判定された表面に基づいてフォワード計算が実行され、次いで、それぞれの界面の上流及び/又は下流の光線上の点間で比較が行われる。次に、判定される表面を変化させることにより、最適化手法を用いて、誤差寸法を目標化した方法で最小化する。パラメータの変動によって誤差関数の最小値を確認し得る純粋な最適化手法の代わりに、ここではまた、最適化法と組み合わせて使用することもできる、いわゆる光経路三角測量法を使用することが可能である。そのような方法は、例えば、前述の刊行物「K.N.Kutukalos and E.Steger,A Theory of Refractive and specular 3D Shape by Light-Path Triangulation,University of Toronto」に記載されている。
眼鏡レンズの形状及び屈折率が既知の場合、その屈折度数は、特にビームのフォワード計算によって計算することができる。例として、眼鏡レンズの頂点度数は、その主光線、すなわちその光軸が、眼の側面に対して垂直に眼鏡レンズを離れるような方法で、眼鏡レンズを通して、直径約5mmの、したがって眼の瞳孔のサイズに対応する平行ビームを伝搬することによって判定することができる。そうして、頂点度数の値は、主光線が現れる眼鏡レンズ表面と、最小のビームウエスト又はビーム範囲の点との間の距離の逆数になる。
少なくとも1つのトーリック度数を含む眼鏡レンズの場合、ビームの方向に依存する範囲は、2つの最小値を有する。これらの2つの最小値と眼鏡レンズの表面との間の距離は、2つの主径線の度数を記述する。これらの2つの主径線間の差は、眼鏡レンズの円柱度数を記述する。眼鏡レンズを通る主光線の全体的な偏差は、それぞれの位置における眼鏡レンズのプリズム効果であると見なされるべきである。
いわゆる固有のカメラ較正演算子
Figure 2022528575000022
は、画像キャプチャデバイス30内のカメラ28のピクセル座標Cを、画像化ビーム経路のビームベクトルに変換するのに役立つ。カメラ較正演算子
Figure 2022528575000023
は、例えば、画像キャプチャデバイスを用いて、特定の較正パターン、例えばチェッカーボードパターン又は点パターンの記録から判定することができる。それに対する代替として、異なる記録位置32、34、36に基づくシーン10の記録又は画像表現から直接、シーン10の多様な記録又は画像表現を評価することによって、固有のカメラ較正演算子
Figure 2022528575000024
を判定することもまた可能である。
図6は、図5に示される一対の眼鏡16の光線モデルに基づいて計算される、左右の眼鏡レンズ20、22の屈折度数k(x,y)の分布に関連するグラフ52を示している。
図7は、一対の眼鏡16内の左及び/又は右の眼鏡レンズ20、22を測定するための上述の方法のフローチャート54である。
第1のステップS1では、多様な構造点26を有し、一対の眼鏡16内に左及び/又は右の眼鏡レンズ20、22を有し、及び一対の眼鏡16の眼鏡フレーム18の座標系44を定義する一対の眼鏡16の眼鏡フレーム18の一部を有する、シーン10の少なくとも1つの第1の画像表現が、一対の眼鏡16の第1及び/又は第2の眼鏡レンズ20、22を通過する構造点26の画像化ビーム経路で画像キャプチャデバイス30を用いてキャプチャされる。
ステップS1に続くステップS2では、シーン10の少なくとも2つの更なる画像表現が次いで、一対の眼鏡16の第1及び/又は第2の眼鏡レンズ20、22なしだが、第1の画像表現で画像化された構造点26を有して、画像キャプチャデバイス30によってキャプチャされる。
次いで、ステップS3において、静止した時不変構造点26の座標が、画像評価によるシーン10の少なくとも2つの更なる画像表現から、様々な記録位置において画像キャプチャデバイス30の座標系46を基準とする、シーン10の座標系25において計算される。
ステップS3に続くステップS4では、次に、屈折度数分布k(x,y)が、シーン10の座標系25を基準とする眼鏡フレーム18の座標系44内で左眼鏡レンズ20の少なくとも1つの部分に対して判定され、及び/又は屈折度数分布k(x,y)が、シーン10の少なくとも1つの画像表現における静止した時不変構造点26及び構造点26の画像の座標から、眼鏡フレーム18の座標系44を基準とするシーン10の座標系25内で右眼鏡レンズ22の少なくとも1つの部分に対して判定される。
図8は、一対の眼鏡16内の左及び/又は右の眼鏡レンズ20、22を測定するための上述の方法の代替であり、図9~図12を参照して以下に説明される方法のフローチャート54を示している。
ここでまた、多様な構造点26を有し、一対の眼鏡16内の左及び/又は右の眼鏡レンズ20、22を有する時不変シーン10の第1の画像表現のシーケンスが、図9から明らかなように、画像キャプチャデバイス30を用いて、図4に示されるように眼鏡フレーム18の座標系44を定義する眼鏡フレーム18の部分と共に、第1のステップS1において再びキャプチャされる。
図9から明らかなように、シーン10の画像表現は、この場合、構造点26の画像化ビーム経路でキャプチャされ、それらの少なくとも一部は、一対の眼鏡16の第1及び/又は第2の眼鏡レンズ20、22を通過し、及び/又はそれらの少なくとも一部は、一対の眼鏡16の第1及び/又は第2の眼鏡レンズ20、22を通って案内される。
ステップS1に続くステップS2では、図10から明らかなように、静止した時不変の構造点26を有するが一対の眼鏡16を有しないシーン10の更なる画像表現のシーケンスがキャプチャされる。ここで注意すべきことは、ステップS2は、ステップS1の前に置くことも、ステップS1と同時に実行することもできるということである。
ステップS3では、シーン10の座標系25は、眼鏡フレーム18の座標系44を基準にし、次いで、構造点26の座標は、画像評価によるシーン10の少なくとも1つの更なる画像表現から、様々な記録位置における画像キャプチャデバイス30の座標系46を基準にして、シーン10の座標系25において計算される。
続いて、ステップS4において、屈折度数分布k(x,y)が、シーン10の座標系25を基準とする、眼鏡フレーム18の座標系44内の左眼鏡レンズ20の少なくとも1つの部分に対して判定され、及び/又は屈折度数分布k(x,y)が、シーン10の少なくとも1つの第1の画像表現における構造点26の座標及び構造点26の画像から、眼鏡フレーム18の座標系44内の右眼鏡レンズ22の少なくとも1つの部分に対して判定される。
図11~図14から明らかなように、眼鏡フレーム18内の左及び/又は右の眼鏡レンズ20、22の測定はまた、一対の眼鏡ありの眼鏡着用者と一対の眼鏡なしの眼鏡着用者を含む、1つのシーン10の画像表現をキャプチャすることによって実施され得る。ここで、図11から明らかなように、画像キャプチャデバイス30を用いて、眼鏡フレーム18の座標系44を定義する眼鏡フレーム18の部分と共に、多様な構造点26を有し、眼鏡フレーム18内に左及び/又は右の眼鏡レンズ20、22を有する時不変シーン10の第1の画像表現のシーケンスがキャプチャされる。図12が示すように、シーン10の画像表現は、この場合、構造点26の画像化ビーム経路でキャプチャされ、その少なくとも一部は、一対の眼鏡16の第1及び/若しくは第2の眼鏡レンズ20、22を通過し、並びに/又はそれらの少なくとも一部は、一対の眼鏡16の第1及び/若しくは第2の眼鏡レンズ20、22を通過して案内される。
次いで、図13及び図14に示されるように、構造点26を有するが一対の眼鏡16を有しないシーン10の更なる画像表現のシーケンスがキャプチャされる。次に、もう一度、構造点26の座標は、様々な記録位置では画像キャプチャデバイス30の座標系46を基準とするシーン10の座標系25内のシーン10の少なくとも1つの更なる画像表現から、画像評価によって計算され、シーン10の座標系25は、眼鏡フレーム18の座標系44を基準とする。更に、屈折度数分布k(x,y)が、眼鏡フレーム18の座標系44内の左眼鏡レンズ20の少なくとも1つの部分に対して判定され、及び/又は屈折度数分布k(x,y)が、シーン10の少なくとも1つの第1の画像表現における構造点26の座標及び構造点26の画像から、眼鏡フレーム18の座標系44内の右眼鏡レンズ22の少なくとも1つの部分に対して判定される。
図11及び図13に示されるシーン10の構造点26は、眼鏡着用者の動作のために変位し得るため、この場合、画像キャプチャデバイス30のコンピュータユニットは、眼鏡フレーム18の座標系44を基準とするシーン10の座標系25において、近接関係、特にシーン内の構造点26間の距離を評価することによって構造点26の相対位置が計算されるプログラムルーチンを含む。
シーン10の座標系25内の構造点26の変位を認識するために、且つシーン10内の構造点26の動作が、左右の眼鏡レンズ20、22の局所屈折度数の測定結果を改ざんしないように、眼鏡フレーム18の座標系44における右眼鏡レンズ22及び左眼鏡レンズ20の少なくとも1つの部分の屈折度数分布を判定する際には、シーン10で変位した構造点26の座標を考慮しないように、評価されるシーン10内の構造点26間の近接関係のための準備をすることができる。
要約すると、特に、以下に注意すべきである。本発明は、眼鏡フレーム18内の、左及び/又は右の眼鏡レンズ20、22の局所屈折度数又は屈折度数分布を測定するための方法に関する。そのプロセスでは、少なくとも1つの構造点26を有し、眼鏡フレーム18内に左及び/又は右の眼鏡レンズ20、22を有するシーン10の少なくとも1つの第1の画像表現が、構造点26の少なくとも画像化ビーム経路を有する少なくとも1つの第1の記録位置32から画像キャプチャデバイス30によってキャプチャされ、その画像化ビーム経路は、眼鏡フレーム18内の第1及び/又は第2の眼鏡レンズ20、22を通過する。眼鏡フレーム18の第1及び/又は第2の眼鏡レンズ20、22なしの、又は左及び/又は右の眼鏡レンズを含むが構造点26が第1の画像表現で画像化されている眼鏡フレームなしの、シーン10の少なくとも2つの更なる画像表現は、少なくとも2つの異なる記録位置32、34、36から、画像キャプチャデバイス30によってキャプチャされ、そのうちの1つは、第1の記録位置と同一であり得、構造点26の座標は、画像評価によって、シーン10の少なくとも2つの更なる画像表現から座標系25で計算され、又は左及び/又は右の眼鏡レンズ20、22を有するシーン10の少なくとも2つの更なる画像表現は、第1の記録位置とは異なり、且つ第1の画像表現で画像化される構造点26用の少なくとも1つの画像化ビーム経路を有する、少なくとも2つの更なる記録位置から、画像キャプチャデバイス30によってキャプチャされ、次に、眼鏡フレーム18の座標系44を基準とするシーン10の座標系25内の左眼鏡レンズ20の少なくとも1つの部分の屈折度数分布k(x,y)を判定するために、及び/又はシーン10の少なくとも1つの第1の画像表現内の構造点26の座標及び構造点26の画像から、座標系25における右眼鏡レンズ22の少なくとも1つの部分の屈折度数分布k(x,y)を判定するために、その画像化ビーム経路は、眼鏡フレーム18の第1及び/又は第2の眼鏡レンズ20、22を通過しない。
10 シーン
12 テーブル
14 テーブルクロス
16 一対の眼鏡
18 眼鏡フレーム
20 左眼鏡レンズ
22 右眼鏡レンズ
24 オブジェクト
25 シーンの座標系
25’ 変換に続くシーンの座標系
26 構造点
26’ 構造点の画像表現
27 パターン
28 カメラ
30 画像キャプチャデバイス
32、34、36 記録位置
38 軌道
40 コンピュータユニット
42 部分
44 フレームの座標系
46 座標系画像キャプチャデバイス
48 左眼
50 右眼
52 グラフ
53、53’ 主光線
54 フローチャート
C ピクセル座標
Figure 2022528575000025
カメラ較正演算子
Figure 2022528575000026
回転演算子
Figure 2022528575000027
変換演算子
S1、S2、S3、S4 ステップ
k(x,y) 局所屈折度数又は屈折度数分布

Claims (17)

  1. 眼鏡フレーム(18)内の左及び/又は右の眼鏡レンズ(20、22)の局所屈折度数及び/又は屈折度数分布k(x,y)を測定するための方法であって、
    少なくとも1つの構造点(26)を有し、前記眼鏡フレーム(18)内の左及び/又は右の眼鏡レンズ(20、22)を有するシーン(10)の少なくとも1つの第1の画像表現を、これらの構造点(26)のそれぞれの少なくとも画像化ビーム経路を有する少なくとも1つの第1の記録位置(32)から、少なくとも1つの画像キャプチャデバイス(30)を用いてキャプチャするステップであって、前記画像化ビーム経路が、前記左又は前記右の眼鏡レンズ(20、22)を通過する、ステップを含み、
    前記眼鏡フレーム(18)の前記左及び/若しくは前記右の眼鏡レンズ(20、22)なしの、又は前記左及び/若しくは前記右の眼鏡レンズ(20、22)を含む前記眼鏡フレーム(18)なしだが前記第1の画像表現で画像化された前記構造点(26)を有する前記シーン(10)の少なくとも2つの更なる画像表現を、少なくとも2つの異なる記録位置(32、34、36)から、前記少なくとも1つの画像キャプチャデバイス(30)を用いてキャプチャするステップであって、前記記録位置の1つが、前記第1の記録位置(32)と同一であり得る、ステップを含む、
    方法において、
    画像評価を用いて、前記シーン(10)の前記少なくとも2つの更なる画像表現から、座標系(25)内の前記構造点(26)の前記座標を計算するステップと、
    前記左眼鏡レンズ(20)の少なくとも一部の及び/又は前記右眼鏡レンズ(22)の少なくとも一部の局所屈折度数k(x,y)を、前記シーン(10)の前記少なくとも1つの第1の画像表現における前記構造点(26)の前記座標及び前記構造点(26)の前記画像から判定するステップと、
    を特徴とする、方法。
  2. 眼鏡フレーム(18)内の左及び/又は右の眼鏡レンズ(20、22)の局所屈折度数又は屈折度数分布k(x,y)を測定するための方法であって、
    少なくとも1つの構造点(26)を有し、前記眼鏡フレーム(18)内の左及び/又は右の眼鏡レンズ(20、22)を有するシーン(10)の少なくとも1つの第1の画像表現を、これらの構造点(26)のそれぞれの少なくとも画像化ビーム経路を有する少なくとも1つの第1の記録位置(32)から、少なくとも1つの画像キャプチャデバイス(30)を用いてキャプチャするステップであって、前記画像化ビーム経路が、前記左又は前記右の眼鏡レンズ(20、22)を通過する、ステップを含み、
    前記左及び/又は前記右の眼鏡レンズ(20、22)を有する前記シーン(10)の少なくとも2つの更なる画像表現を、前記第1の記録位置(32)とは異なる少なくとも2つの異なる更なる記録位置(34、36)から、少なくとも1つの画像キャプチャデバイス(30)を用いてキャプチャするステップであって、そのそれぞれが、前記第1の画像表現でキャプチャされた前記構造点(26)の少なくとも1つの画像化ビーム経路を有し、前記画像化ビーム経路が、前記眼鏡フレーム(18)の前記左又は前記右の眼鏡レンズ(20、22)を通過しない、ステップを含む、
    方法において、
    画像評価を用いて、前記シーン(10)の前記少なくとも2つの更なる画像表現から、前記構造点(26)の前記座標を計算するステップと、
    前記左眼鏡レンズ(20)の少なくとも一部の及び/又は前記右眼鏡レンズ(22)の少なくとも一部の局所屈折度数k(x,y)を、前記シーン(10)の前記少なくとも1つの第1の画像表現における前記構造点(26)の前記座標及び前記構造点(26)の前記画像から判定するステップと、
    を特徴とする、方法。
  3. 前記シーン(10)の多様な第1の画像表現及び前記シーン(10)の多様な更なる画像表現をキャプチャすることであって、前記座標系(25)内の前記構造点(26)の前記座標が、前記シーン(10)の前記多様な更なる画像表現から計算される、ことを特徴とする、請求項1又は2に記載の方法。
  4. 前記シーン(10)が、前記眼鏡フレーム(18)の眼鏡着用者の左眼(48)及び/又は右眼(50)を含む、ことを特徴とする、請求項1~3のいずれか一項に記載の方法。
  5. 前記画像キャプチャデバイス(30)が、前記画像キャプチャデバイス(30)の変位を伴う前記シーン(10)の多数の画像表現をキャプチャするために使用され、前記眼鏡フレーム(18)の前記眼鏡着用者の前記左眼(48)及び/又は前記右眼(50)が前記変位した画像キャプチャデバイス(30)を見つめ、前記眼鏡フレーム(18)の前記左眼鏡レンズ(20)及び/又は前記右眼鏡レンズ(22)を通した、前記眼鏡フレーム(18)の前記眼鏡着用者の前記左眼(48)及び/又は前記右眼(50)の異なる視線方向の視線ビーム経路が、前記プロセスでキャプチャされた前記シーン(10)の前記多様な画像表現から計算され、前記左眼鏡レンズ(20)及び/又は前記右眼鏡レンズ(22)の局所屈折度数k(x,y)が、それを通して各視線方向に対して判定される、ことを特徴とする、請求項4に記載の方法。
  6. SLAMアルゴリズムが、前記少なくとも1つの画像キャプチャデバイス(30)の固有パラメータを計算するために使用される、ことを特徴とする、請求項1~5のいずれか一項に記載の方法。
  7. 固有パラメータが、焦点距離、画像中心、シャーリングパラメータ、スケーリングパラメータ、歪みパラメータからなるグループからのものである、ことを特徴とする、請求項6に記載の方法。
  8. SLAMアルゴリズムが、前記座標系(25)内の前記少なくとも1つの画像キャプチャデバイス(30)の前記構造点(26)及び/又は前記記録位置(32、34、36)の前記座標を計算するために使用される、ことを特徴とする、請求項1~7のいずれか一項に記載の方法。
  9. 前記シーン(10)内の前記構造点(26)の少なくとも一部の前記座標が不変である、ことを特徴とする、請求項1~8のいずれか一項に記載の方法。
  10. 前記構造点(26)の前記座標が、異なる記録位置(32、34、36)からの前記シーン(10)内の前記構造点(26)の前記画像表現間の変位を評価することによって、座標系(25)において計算される、ことを特徴とする、請求項1~9のいずれか一項に記載の方法。
  11. 座標系(25)における構造点(26)の変位が、前記シーン(10)内の前記構造点(26)間の近接関係を評価することによって認識され、前記シーン(10)内で変位した構造点(26)の座標が、前記右眼鏡レンズ(22)及び/又は前記左眼鏡レンズ(20)の少なくとも1つの部分の前記屈折度数分布k(x,y)を判定する際に考慮されない、ことを特徴とする、請求項1~10のいずれか一項に記載の方法。
  12. 眼鏡フレーム(18)内の左及び/又は右の眼鏡レンズ(20、22)の屈折度数分布k(x、y)を測定するための方法であって、前記左及び/又は右の眼鏡レンズ(20、22)の局所屈折度数が、前記左及び/又は右の眼鏡レンズ(20、22)上の複数の異なる位置において、請求項1~11のいずれか一項に記載されたように測定される、方法。
  13. コンピュータプログラムがコンピュータユニット(40)上にロードされるとき、及び/又はコンピュータユニット(40)上で実行されるときに、請求項1~12のいずれか一項に記載の全ての方法ステップを実行するためのプログラムコードを有するコンピュータプログラムを備える、コンピュータプログラム製品。
  14. 眼鏡フレーム(18)内の左及び/又は右の眼鏡レンズ(20、22)の局所屈折度数を測定するための装置であって、画像キャプチャデバイス(30)を備え、且つ請求項1~11のいずれか一項に記載の全ての方法ステップを実行するためのプログラムコードを有するコンピュータプログラムがロードされたコンピュータユニット(40)を備え、又は眼鏡フレーム(18)内の左及び/又は右の眼鏡レンズ(20、22)の屈折度数分布を測定するための装置であって、画像キャプチャデバイス(30)を備え、且つ請求項12に記載の全ての方法ステップを実行するためのプログラムコードを有するコンピュータプログラムがロードされたコンピュータユニット(40)を備える、装置。
  15. スマートフォンとして、又はタブレットコンピュータとして、又はカメラ(28)として具体化された、請求項14に記載の装置。
  16. 請求項13に記載のコンピュータプログラム製品が記憶されている、コンピュータ可読データ媒体。
  17. 請求項13に記載のコンピュータプログラムを送信する、データ媒体信号。
JP2021563134A 2019-04-23 2020-04-22 眼鏡レンズの局所屈折度数及び/又は屈折度数分布を測定するための方法及びデバイス Active JP7126031B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP19170715.7A EP3730919A1 (de) 2019-04-23 2019-04-23 Verfahren und vorrichtung zum vermessen der lokalen brechkraft oder der brechkraftverteilung eines brillenglases
EP19170715.7 2019-04-23
PCT/EP2020/061238 WO2020216799A1 (de) 2019-04-23 2020-04-22 Verfahren und vorrichtung zum vermessen der lokalen brechkraft und/oder der brechkraftverteilung eines brillenglases

Publications (2)

Publication Number Publication Date
JP2022528575A true JP2022528575A (ja) 2022-06-14
JP7126031B2 JP7126031B2 (ja) 2022-08-25

Family

ID=66251606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021563134A Active JP7126031B2 (ja) 2019-04-23 2020-04-22 眼鏡レンズの局所屈折度数及び/又は屈折度数分布を測定するための方法及びデバイス

Country Status (9)

Country Link
US (1) US11982878B2 (ja)
EP (3) EP3730919A1 (ja)
JP (1) JP7126031B2 (ja)
KR (1) KR102444768B1 (ja)
CN (1) CN113711003B (ja)
BR (1) BR112021021170A2 (ja)
ES (1) ES2933452T3 (ja)
IL (1) IL287469B2 (ja)
WO (1) WO2020216799A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3730998A1 (de) 2019-04-23 2020-10-28 Carl Zeiss Vision International GmbH Bestimmung mindestens eines optischen parameters eines brillenglases
EP3730918A1 (de) 2019-04-23 2020-10-28 Carl Zeiss Vision International GmbH Verfahren und vorrichtung zum vermessen der lokalen brechkraft und/oder der brechkraftverteilung eines brillenglases

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010019140A1 (en) * 1999-12-28 2001-09-06 Yong-Ku Baek Semiconductor memory device and method for the manufacture thereof
JP2013127621A (ja) * 2011-12-19 2013-06-27 Thomson Licensing 鑑賞者の着用メガネの補正レンズの屈折力を推定する方法及び装置
US20150362998A1 (en) * 2014-06-17 2015-12-17 Amazon Technologies, Inc. Motion control for managing content
WO2016076530A1 (ko) * 2014-11-13 2016-05-19 윤철주 모바일 디바이스를 이용한 안경렌즈의 도수 측정시스템, 방법 및 프로그램
WO2017134275A1 (en) * 2016-02-05 2017-08-10 Eidgenossische Technische Hochschule Zurich Methods and systems for determining an optical axis and/or physical properties of a lens and use of the same in virtual imaging and head-mounted displays
JP2018524584A (ja) * 2015-06-25 2018-08-30 カール ツァイス アーゲー 眼鏡の個別データ測定

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3880525A (en) * 1974-05-08 1975-04-29 American Optical Corp Method and apparatus for determining the refractive characteristics of a lens
JPS5690233A (en) * 1979-12-24 1981-07-22 Asahi Optical Co Ltd Automatic lens meter
JP4086429B2 (ja) * 1998-10-12 2008-05-14 Hoya株式会社 眼鏡レンズの評価方法及び評価装置
KR20060093596A (ko) * 2005-02-22 2006-08-25 엘지전자 주식회사 이동단말기의 디옵터 측정 방법
US8386203B2 (en) * 2007-08-31 2013-02-26 Hoya Corporation Method and device for evaluating graduated refraction power lens and method for manufacturing graduated refraction power lens
JP6307805B2 (ja) 2013-07-24 2018-04-11 富士通株式会社 画像処理装置、電子機器、眼鏡特性判定方法および眼鏡特性判定プログラム
US10019140B1 (en) * 2014-06-26 2018-07-10 Amazon Technologies, Inc. One-handed zoom
DE102014116665A1 (de) * 2014-09-22 2016-03-24 Carl Zeiss Ag Verfahren und Vorrichtung zur Bestimmung der Augenrefraktion
CN204514573U (zh) * 2015-01-15 2015-07-29 中山大学中山眼科中心 一种镜片周边有效屈光力的测量装置
EP3730037A1 (de) 2019-04-23 2020-10-28 Carl Zeiss Vision International GmbH Bestimmung eines refraktionsfehlers eines auges
EP3730036A1 (de) 2019-04-23 2020-10-28 Carl Zeiss Vision International GmbH Bestimmung eines refraktionsfehlers eines auges
EP3730918A1 (de) 2019-04-23 2020-10-28 Carl Zeiss Vision International GmbH Verfahren und vorrichtung zum vermessen der lokalen brechkraft und/oder der brechkraftverteilung eines brillenglases

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010019140A1 (en) * 1999-12-28 2001-09-06 Yong-Ku Baek Semiconductor memory device and method for the manufacture thereof
JP2013127621A (ja) * 2011-12-19 2013-06-27 Thomson Licensing 鑑賞者の着用メガネの補正レンズの屈折力を推定する方法及び装置
US20150362998A1 (en) * 2014-06-17 2015-12-17 Amazon Technologies, Inc. Motion control for managing content
WO2016076530A1 (ko) * 2014-11-13 2016-05-19 윤철주 모바일 디바이스를 이용한 안경렌즈의 도수 측정시스템, 방법 및 프로그램
JP2018524584A (ja) * 2015-06-25 2018-08-30 カール ツァイス アーゲー 眼鏡の個別データ測定
WO2017134275A1 (en) * 2016-02-05 2017-08-10 Eidgenossische Technische Hochschule Zurich Methods and systems for determining an optical axis and/or physical properties of a lens and use of the same in virtual imaging and head-mounted displays

Also Published As

Publication number Publication date
IL287469A (en) 2021-12-01
WO2020216799A1 (de) 2020-10-29
US11982878B2 (en) 2024-05-14
EP3959497A1 (de) 2022-03-02
EP3982102A1 (de) 2022-04-13
KR102444768B1 (ko) 2022-09-19
IL287469B2 (en) 2023-10-01
ES2933452T3 (es) 2023-02-09
EP3959497B1 (de) 2022-11-09
BR112021021170A2 (pt) 2021-12-14
IL287469B1 (en) 2023-06-01
US20220035183A1 (en) 2022-02-03
KR20210147075A (ko) 2021-12-06
CN113711003A (zh) 2021-11-26
CN113711003B (zh) 2024-03-08
EP3730919A1 (de) 2020-10-28
JP7126031B2 (ja) 2022-08-25

Similar Documents

Publication Publication Date Title
US11126016B2 (en) Method and device for determining parameters for spectacle fitting
KR102056333B1 (ko) 안경 렌즈 에지의 표시를 설정하기 위한 방법 및 장치 및 컴퓨터 프로그램
US11333906B2 (en) Determination of at least one optical parameter of a spectacle lens
CN113692527B (zh) 用于测量眼镜片的局部屈光力和/或屈光力分布的方法和装置
JP6332392B2 (ja) 眼鏡レンズの設計方法、眼鏡レンズの製造方法、眼鏡レンズ選択装置および眼鏡レンズ選択方法
EP3270098B2 (en) Measurement system for eyeglasses-wearing parameter, measurement program, measurement method therefor, and manufacturing method for eyeglasses lens
CN110705504B (zh) 视线定位方法、显示装置、电子设备以及存储介质
US11982878B2 (en) Method and device for measuring the local refractive power and/or refractive power distribution of a spectacle lens
CN111971524B (zh) 测量用于使用者的各个配戴情况的光学镜片的方法和设备
KR20200006621A (ko) 근거리 시력 지점을 결정하기 위한 방법, 장치 및 컴퓨터 프로그램
JP7252892B2 (ja) 眼鏡レンズの設計方法、および眼鏡レンズの製造方法
US11892366B2 (en) Method and system for determining at least one optical parameter of an optical lens
US20220398781A1 (en) System and method for digital measurements of subjects
WO2023104944A1 (en) A method for estimating the position of the optical center of an ophthalmic lens
CN117882031A (zh) 用于进行对象的数字测量的系统和方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211102

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211102

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220815

R150 Certificate of patent or registration of utility model

Ref document number: 7126031

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150