JPWO2020249643A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2020249643A5
JPWO2020249643A5 JP2021573280A JP2021573280A JPWO2020249643A5 JP WO2020249643 A5 JPWO2020249643 A5 JP WO2020249643A5 JP 2021573280 A JP2021573280 A JP 2021573280A JP 2021573280 A JP2021573280 A JP 2021573280A JP WO2020249643 A5 JPWO2020249643 A5 JP WO2020249643A5
Authority
JP
Japan
Prior art keywords
wearer
face
pattern
camera
depth map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021573280A
Other languages
Japanese (ja)
Other versions
JP2022536657A (en
Publication date
Priority claimed from FR1906179A external-priority patent/FR3097336B1/en
Application filed filed Critical
Publication of JP2022536657A publication Critical patent/JP2022536657A/en
Publication of JPWO2020249643A5 publication Critical patent/JPWO2020249643A5/ja
Pending legal-status Critical Current

Links

Description

次いで、パントスコピック傾斜および頂点は、正確な位置から直接決定することができる。
他の実施形態
1. 所定のフレームおよび所定の着用者についての眼科パラメータを決定するための方法であって、
a)前記所定の着用者が、前記所定のフレームを装着する工程;
b)前記着用者の顔面上に光放射のパターンを投影することができる第1の投影手段、光放射の前記パターンを記録することができる第1のカメラ、前記着用者の顔の深度マップを生成するために前記パターンの画像を処理することができる処理装置、前記第1のカメラによって記録された画像を表示することができるスクリーン、および、前記着用者の瞳孔を照射することができる光源、を備えるモバイル装置を提供する工程;
c)前記光源が前記着用者の瞳孔を照射している間に、前記着用者の顔の深度マップおよび前記着用者の顔の画像を同時に記録する工程;
d)前記着用者の瞳孔の位置を自動的に決定する工程;
e)前記着用者の瞳孔の位置を3D深度マップ内のそれぞれの座標に関連付ける工程;
f)前記着用者の瞳孔のそれぞれの座標から前記眼科パラメータを決定する工程
を含む、方法。
2. 工程d)で得られた前記瞳孔の位置が、前記着用者の顔の前記記録された画像と共にスクリーン上に表示され、前記位置を補正することができる工程をさらに含むことを特徴とする、実施形態1に記載の方法。
3. 前記フレームの位置が、前記着用者の顔の記録された画像から計算され、前記位置が3D深度マップにおけるそれぞれの座標に関連付けられる工程をさらに含むことを特徴とする、実施形態1に記載の方法。
4. 前記フレームの位置が、前記着用者の顔の前記記録された画像と共にスクリーン上に表示され、前記位置を補正することができる工程をさらに含むことを特徴とする、実施形態1に記載の方法。
5. 前記光学パラメータが、遠方視瞳孔間距離、近方視瞳孔間距離、頂点、パントスコピック傾斜、フレームラップ、近方視フィッティング高さおよび遠方視フィッティング高さを含む群から選択されることを特徴とする、実施形態1に記載の方法。
6. 前記着用者が、腕の長さおよび眼の高さで前記モバイル装置を保持していることを特徴とする、実施形態1に記載の方法。
7. 前記着用者が、読書距離で前記モバイル装置を保持していることを特徴とする、実施形態1に記載の方法。
8. 工程c)の前に、前記第1の投影手段によって前記着用者の顔を光放射のパターンで照射し前記パターンを含む第2の画像を記録することによって得られる深度マップから前記着用者の注視方向を決定することを含む工程をさらに含むことを特徴とする、実施形態1に記載の方法。
9. 工程c)の前に、前記第1の投影手段によって前記着用者の顔を光放射のパターンで照射し前記パターンを含む第2の画像を記録することによって得られる深度マップから前記着用者の頭部傾斜を決定することを含む工程をさらに含むことを含む工程をさらに含むことを特徴とする、実施形態1に記載の方法。
10. 前記スクリーンが、工程c)の間に焦点を表示することを特徴とする、実施形態1に記載の方法。
11. 前記焦点が、赤色の円であることを特徴とする、実施形態1~10のいずれかに記載の方法。
12. 前記焦点が、前記カメラに近いことを特徴とする、実施形態10に記載の方法。
13. 前記焦点が、前記カメラの右、左、上または下にシフトされることを特徴とする、実施形態10に記載の方法。
14. 前記スクリーンが、工程c)の間に横断線を表示することを特徴とする、実施形態1に記載の方法。
15. 前記光源が、工程c)の間に前記スクリーン上に白色の形態を表示することによって得られることを特徴とする、実施形態1に記載の方法。
16. 前記スクリーンが、前記カメラによって記録された画像を表示することを特徴とする、実施形態1に記載の方法。
17. 装置、好ましくはモバイル装置であって、
フレームを着用している個人の顔面上に光放射のパターンを投影することができる第1の投影手段、光放射の前記パターンを記録することができる第1のカメラ、前記個人の顔の深度マップを生成するために前記パターンの画像を処理することができる処理装置、前記第1のカメラによって記録された画像を表示することができるスクリーン、前記着用者の瞳孔を照射することができる光源
を備え、
前記モバイル装置はさらに、実施形態1に記載の方法を実施することができるソフトウェアを含むことを特徴とする、装置。
The pantoscopic tilt and apex can then be determined directly from the precise position.
Other embodiment
1. A method for determining ophthalmic parameters for a given frame and a given wearer comprising:
a) wearing said predetermined frame by said predetermined wearer;
b) a first projection means capable of projecting a pattern of light radiation onto said wearer's face, a first camera capable of recording said pattern of light radiation, a depth map of said wearer's face; a processing device capable of processing the image of the pattern to produce a screen capable of displaying the image recorded by the first camera and a light source capable of illuminating the pupil of the wearer; providing a mobile device comprising;
c) simultaneously recording a depth map of the wearer's face and an image of the wearer's face while the light source is illuminating the pupils of the wearer;
d) automatically determining the position of the wearer's pupil;
e) associating the positions of the wearer's pupils with respective coordinates in a 3D depth map;
f) determining said ophthalmic parameters from the coordinates of each of said wearer's pupils;
A method, including
2. An implementation characterized in that it further comprises a step in which the position of the pupil obtained in step d) is displayed on a screen together with the recorded image of the wearer's face so that the position can be corrected. A method according to aspect 1.
3. 2. The method of embodiment 1, further comprising calculating positions of the frames from recorded images of the wearer's face, and associating the positions with respective coordinates in a 3D depth map. .
4. 2. The method of embodiment 1, further comprising displaying the position of the frame on a screen along with the recorded image of the wearer's face so that the position can be corrected.
5. wherein said optical parameter is selected from the group comprising far vision interpupillary distance, near vision interpupillary distance, vertex, pantoscopic tilt, frame wrap, near vision fitting height and far vision fitting height. 2. The method of embodiment 1 .
6. 2. The method of embodiment 1, wherein the wearer holds the mobile device at arm's length and eye level.
7. 2. The method of embodiment 1, wherein the wearer holds the mobile device at a reading distance.
8. Before step c), the wearer's gaze from a depth map obtained by illuminating the wearer's face with a pattern of light radiation by the first projection means and recording a second image containing the pattern. 2. The method of embodiment 1, further comprising the step of determining orientation.
9. before step c), from a depth map obtained by illuminating the wearer's face with a pattern of light radiation by the first projection means and recording a second image containing the pattern; 2. The method of embodiment 1, further comprising the step of determining a slope.
10. 2. The method of embodiment 1, wherein the screen displays focus during step c).
11. 11. The method of any of embodiments 1-10, wherein the focal point is a red circle.
12. 11. The method of embodiment 10, wherein the focal point is near the camera.
13. 11. The method of embodiment 10, wherein the focus is shifted to the right, left, up or down of the camera.
14. 2. The method of embodiment 1, wherein the screen displays transverse lines during step c).
15. 2. A method according to embodiment 1, characterized in that said light source is obtained by displaying a white form on said screen during step c).
16. 2. The method of embodiment 1, wherein the screen displays images recorded by the camera.
17. A device, preferably a mobile device,
A first projection means capable of projecting a pattern of light radiation onto the face of an individual wearing the frame, a first camera capable of recording said pattern of light radiation, a depth map of said individual's face. a screen capable of displaying the image recorded by the first camera; a light source capable of illuminating the pupil of the wearer.
with
An apparatus, wherein the mobile apparatus further comprises software capable of implementing the method of embodiment 1.

Claims (17)

所定のフレームおよび所定の着用者についての眼科パラメータを決定するための方法であって、
a)前記所定の着用者が、前記所定のフレームを装着する工程;
b)前記着用者の顔面上に光放射のパターンを投影することができる第1の投影手段、光放射の前記パターンを記録することができる第1のカメラ、前記着用者の顔の深度マップを生成するために前記パターンの画像を処理することができる処理装置、前記第1のカメラによって記録された画像を表示することができるスクリーン、および、前記着用者の瞳孔を照射することができる光源、を備えるモバイル装置を提供する工程;
c)前記光源が前記着用者の瞳孔を照射している間に、前記着用者の顔の深度マップおよび前記着用者の顔の画像を同時に記録する工程;
d)前記着用者の瞳孔の位置を自動的に決定する工程;
e)前記着用者の瞳孔の位置を3D深度マップ内のそれぞれの座標に関連付ける工程;
f)前記着用者の瞳孔のそれぞれの座標から前記眼科パラメータを決定する工程
を含む、方法。
A method for determining ophthalmic parameters for a given frame and a given wearer comprising:
a) wearing said predetermined frame by said predetermined wearer;
b) a first projection means capable of projecting a pattern of light radiation onto said wearer's face, a first camera capable of recording said pattern of light radiation, a depth map of said wearer's face; a processing device capable of processing the image of the pattern to produce a screen capable of displaying the image recorded by the first camera and a light source capable of illuminating the pupil of the wearer; providing a mobile device comprising;
c) simultaneously recording a depth map of the wearer's face and an image of the wearer's face while the light source is illuminating the pupils of the wearer;
d) automatically determining the position of the wearer's pupil;
e) associating the positions of the wearer's pupils with respective coordinates in a 3D depth map;
f) determining said ophthalmic parameters from the coordinates of each of said wearer's pupils.
工程d)で得られた前記瞳孔の位置が、前記着用者の顔の前記記録された画像と共にスクリーン上に表示され、前記位置を補正することができる工程をさらに含むことを特徴とする、請求項1に記載の方法。 Claim characterized in that it further comprises a step in which the pupil position obtained in step d) is displayed on a screen together with the recorded image of the wearer's face so that the position can be corrected. Item 1. The method according to item 1. 前記フレームの位置が、前記着用者の顔の記録された画像から計算され、前記位置が3D深度マップにおけるそれぞれの座標に関連付けられる工程をさらに含むことを特徴とする、請求項1に記載の方法。 2. A method according to claim 1, further comprising the step of calculating positions of said frames from recorded images of said wearer's face, and associating said positions with respective coordinates in a 3D depth map. . 前記フレームの位置が、前記着用者の顔の前記記録された画像と共にスクリーン上に表示され、前記位置を補正することができる工程をさらに含むことを特徴とする、請求項1に記載の方法。 2. The method of claim 1, further comprising the step of displaying the position of the frame on a screen together with the recorded image of the wearer's face so that the position can be corrected. 前記光学パラメータが、遠方視瞳孔間距離、近方視瞳孔間距離、頂点、パントスコピック傾斜、フレームラップ、近方視フィッティング高さおよび遠方視フィッティング高さを含む群から選択されることを特徴とする、請求項1に記載の方法。 wherein said optical parameter is selected from the group comprising far vision interpupillary distance, near vision interpupillary distance, vertex, pantoscopic tilt, frame wrap, near vision fitting height and far vision fitting height. 2. The method of claim 1, wherein 前記着用者が、腕の長さおよび眼の高さで前記モバイル装置を保持していることを特徴とする、請求項1に記載の方法。 2. The method of claim 1, wherein the wearer holds the mobile device at arm's length and eye level. 前記着用者が、読書距離で前記モバイル装置を保持していることを特徴とする、請求項1に記載の方法。 2. The method of Claim 1, wherein the wearer holds the mobile device at a reading distance. 工程c)の前に、前記第1の投影手段によって前記着用者の顔を光放射のパターンで照射し前記パターンを含む第2の画像を記録することによって得られる深度マップから前記着用者の注視方向を決定することを含む工程をさらに含むことを特徴とする、請求項1に記載の方法。 Before step c), the wearer's gaze from a depth map obtained by illuminating the wearer's face with a pattern of light radiation by the first projection means and recording a second image containing the pattern. 2. The method of claim 1, further comprising the step of determining orientation. 工程c)の前に、前記第1の投影手段によって前記着用者の顔を光放射のパターンで照射し前記パターンを含む第2の画像を記録することによって得られる深度マップから前記着用者の頭部傾斜を決定することを含む工程をさらに含むことを含む工程をさらに含むことを特徴とする、請求項1に記載の方法。 before step c), from a depth map obtained by illuminating the wearer's face with a pattern of light radiation by the first projection means and recording a second image containing the pattern; 2. The method of claim 1, further comprising the step of further comprising determining a slope. 前記スクリーンが、工程c)の間に焦点を表示することを特徴とする、請求項1に記載の方法。 2. The method of claim 1, wherein the screen displays focus during step c). 前記焦点が、赤色の円であることを特徴とする、請求項1~10のいずれか一項に記載の方法。 A method according to any one of claims 1 to 10, characterized in that said focus is a red circle. 前記焦点が、前記カメラに近いことを特徴とする、請求項10に記載の方法。 11. The method of claim 10, wherein said focal point is near said camera. 前記焦点が、前記カメラの右、左、上または下にシフトされることを特徴とする、請求項10に記載の方法。 11. Method according to claim 10, characterized in that the focus is shifted to the right, left, up or down of the camera. 前記スクリーンが、工程c)の間に横断線を表示することを特徴とする、請求項1に記載の方法。 2. The method of claim 1, wherein the screen displays transverse lines during step c). 前記光源が、工程c)の間に前記スクリーン上に白色の形態を表示することによって得られることを特徴とする、請求項1に記載の方法。 2. A method according to claim 1, characterized in that said light source is obtained by displaying a white form on said screen during step c). 前記スクリーンが、前記カメラによって記録された画像を表示することを特徴とする、請求項1に記載の方法。 2. The method of claim 1, wherein said screen displays images recorded by said camera. バイル装置であって、
フレームを着用している個人の顔面上に光放射のパターンを投影することができる第1の投影手段、光放射の前記パターンを記録することができる第1のカメラ、前記個人の顔の深度マップを生成するために前記パターンの画像を処理することができる処理装置、前記第1のカメラによって記録された画像を表示することができるスクリーン、前記着用者の瞳孔を照射することができる光源
を備え、
前記モバイル装置はさらに、請求項1に記載の方法を実施することができるソフトウェアを含むことを特徴とする、モバイル装置。
a mobile device,
A first projection means capable of projecting a pattern of light radiation onto the face of an individual wearing the frame, a first camera capable of recording said pattern of light radiation, a depth map of said individual's face. a screen capable of displaying the image recorded by the first camera; a light source capable of illuminating the pupil of the wearer. ,
A mobile device, further comprising software capable of implementing the method of claim 1.
JP2021573280A 2019-06-11 2020-06-10 Method for determining ophthalmic parameters by 3D mapping Pending JP2022536657A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1906179 2019-06-11
FR1906179A FR3097336B1 (en) 2019-06-11 2019-06-11 Method for determining ophthalmic parameters by 3D mapping
PCT/EP2020/066140 WO2020249643A1 (en) 2019-06-11 2020-06-10 Process for determining ophthalmic parameters by 3d mapping

Publications (2)

Publication Number Publication Date
JP2022536657A JP2022536657A (en) 2022-08-18
JPWO2020249643A5 true JPWO2020249643A5 (en) 2023-03-08

Family

ID=68281593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021573280A Pending JP2022536657A (en) 2019-06-11 2020-06-10 Method for determining ophthalmic parameters by 3D mapping

Country Status (6)

Country Link
US (1) US20220296096A1 (en)
EP (1) EP3983846A1 (en)
JP (1) JP2022536657A (en)
CA (1) CA3141220A1 (en)
FR (1) FR3097336B1 (en)
WO (1) WO2020249643A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220390771A1 (en) * 2021-06-07 2022-12-08 Blink Technologies Inc. System and method for fitting eye wear

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005003699B4 (en) * 2005-01-26 2018-07-05 Rodenstock Gmbh Apparatus and method for determining optical parameters of a user; A computer program product
DE102011009646B4 (en) * 2011-01-27 2018-02-08 Hans-Joachim Ollendorf Video centering system and method for determining centering data for spectacle lenses
FR2992843B1 (en) * 2012-07-06 2016-05-06 Essilor Int DEVICE AND METHOD FOR MEASURING OBJECTIVE OCULAR REFRACTION AND AT LEAST ONE GEOMETRIC-MORPHOLOGICAL PARAMETER OF AN INDIVIDUAL
EP2772795A1 (en) * 2013-02-28 2014-09-03 Shamir Optical Industry Ltd Method, system and device for improving optical measurement of ophthalmic spectacles
DE102014015671A1 (en) * 2014-10-23 2016-04-28 Rodenstock Gmbh Apparatus and method for determining optical parameters
DE102015001874A1 (en) * 2015-02-13 2016-08-18 Rodenstock Gmbh Device and method for distance determination and / or centering using corneal reflections
EP3270099B2 (en) * 2015-03-10 2022-06-22 Hoya Lens Thailand Ltd. Measurement device for eyeglasses-wearing parameter, measurement program for eyeglasses-wearing parameter, and position designation method
DE102016106121A1 (en) * 2016-04-04 2017-10-05 Carl Zeiss Ag Method and device for determining parameters for spectacle fitting
EP3413122B1 (en) * 2017-06-08 2020-03-04 Carl Zeiss Vision International GmbH Method, device and computer program for determining a close-up viewpoint

Similar Documents

Publication Publication Date Title
US10048750B2 (en) Content projection system and content projection method
JP2019091051A (en) Display device, and display method using focus display and context display
CN112835213B (en) Device for determining centering parameters for adjusting eyeglasses
JP6953247B2 (en) Goggles type display device, line-of-sight detection method and line-of-sight detection system
RU2005112314A (en) STEREO PROJECTION SYSTEM
US9928421B2 (en) Method for helping determine the vision parameters of a subject
CN105872526A (en) Binocular AR (Augmented Reality) head-mounted display device and information display method thereof
US10520751B2 (en) Apparatus and method for determining optical parameters
JP5311601B1 (en) How to make a binocular loupe
JP6515542B2 (en) Glasses-wearing image analysis apparatus, glasses-wearing image analysis method, and glasses-wearing image analysis program
JP2012239566A (en) Measuring apparatus for glasses, and three-dimensional measuring apparatus
US20120257162A1 (en) Measurement method and equipment for the customization and mounting of corrective ophtalmic lenses
CN113194809A (en) Method for determining a refractive characteristic of an eye of a subject and associated portable electronic device
TW201814356A (en) Head-mounted display apparatus and lens position adjusting method thereof
JP2003329541A (en) Positioning method of eye point and eye point measuring system
ES2264474T3 (en) PROCEDURE FOR DEMONSTRATING THE INFLUENCE THAT HAS A CERTAIN MOUNT OF GLASSES AND OPTICAL CRYSTALS PLACED ON THIS MOUNT OF GLASSES.
JP2017191546A (en) Medical use head-mounted display, program of medical use head-mounted display, and control method of medical use head-mounted display
JP2016087291A (en) Pupil and visual line measurement device and illumination system
WO2014061294A1 (en) Method for measuring pupil position and method for manufacturing bifocal lens
JP6416907B2 (en) How to bevel a spectacle lens
CN113242710A (en) Method and apparatus for determining a refractive characteristic of an eye of a subject
JP2022536657A (en) Method for determining ophthalmic parameters by 3D mapping
JPWO2020249643A5 (en)
JPWO2019146367A1 (en) Video projection device, video projection method, video display light output control method
JP2019066846A (en) Methods and means for evaluating toric contact lens rotational stability