JPWO2020249643A5 - - Google Patents
Download PDFInfo
- Publication number
- JPWO2020249643A5 JPWO2020249643A5 JP2021573280A JP2021573280A JPWO2020249643A5 JP WO2020249643 A5 JPWO2020249643 A5 JP WO2020249643A5 JP 2021573280 A JP2021573280 A JP 2021573280A JP 2021573280 A JP2021573280 A JP 2021573280A JP WO2020249643 A5 JPWO2020249643 A5 JP WO2020249643A5
- Authority
- JP
- Japan
- Prior art keywords
- wearer
- face
- pattern
- camera
- depth map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Description
次いで、パントスコピック傾斜および頂点は、正確な位置から直接決定することができる。
他の実施形態
1. 所定のフレームおよび所定の着用者についての眼科パラメータを決定するための方法であって、
a)前記所定の着用者が、前記所定のフレームを装着する工程;
b)前記着用者の顔面上に光放射のパターンを投影することができる第1の投影手段、光放射の前記パターンを記録することができる第1のカメラ、前記着用者の顔の深度マップを生成するために前記パターンの画像を処理することができる処理装置、前記第1のカメラによって記録された画像を表示することができるスクリーン、および、前記着用者の瞳孔を照射することができる光源、を備えるモバイル装置を提供する工程;
c)前記光源が前記着用者の瞳孔を照射している間に、前記着用者の顔の深度マップおよび前記着用者の顔の画像を同時に記録する工程;
d)前記着用者の瞳孔の位置を自動的に決定する工程;
e)前記着用者の瞳孔の位置を3D深度マップ内のそれぞれの座標に関連付ける工程;
f)前記着用者の瞳孔のそれぞれの座標から前記眼科パラメータを決定する工程
を含む、方法。
2. 工程d)で得られた前記瞳孔の位置が、前記着用者の顔の前記記録された画像と共にスクリーン上に表示され、前記位置を補正することができる工程をさらに含むことを特徴とする、実施形態1に記載の方法。
3. 前記フレームの位置が、前記着用者の顔の記録された画像から計算され、前記位置が3D深度マップにおけるそれぞれの座標に関連付けられる工程をさらに含むことを特徴とする、実施形態1に記載の方法。
4. 前記フレームの位置が、前記着用者の顔の前記記録された画像と共にスクリーン上に表示され、前記位置を補正することができる工程をさらに含むことを特徴とする、実施形態1に記載の方法。
5. 前記光学パラメータが、遠方視瞳孔間距離、近方視瞳孔間距離、頂点、パントスコピック傾斜、フレームラップ、近方視フィッティング高さおよび遠方視フィッティング高さを含む群から選択されることを特徴とする、実施形態1に記載の方法。
6. 前記着用者が、腕の長さおよび眼の高さで前記モバイル装置を保持していることを特徴とする、実施形態1に記載の方法。
7. 前記着用者が、読書距離で前記モバイル装置を保持していることを特徴とする、実施形態1に記載の方法。
8. 工程c)の前に、前記第1の投影手段によって前記着用者の顔を光放射のパターンで照射し前記パターンを含む第2の画像を記録することによって得られる深度マップから前記着用者の注視方向を決定することを含む工程をさらに含むことを特徴とする、実施形態1に記載の方法。
9. 工程c)の前に、前記第1の投影手段によって前記着用者の顔を光放射のパターンで照射し前記パターンを含む第2の画像を記録することによって得られる深度マップから前記着用者の頭部傾斜を決定することを含む工程をさらに含むことを含む工程をさらに含むことを特徴とする、実施形態1に記載の方法。
10. 前記スクリーンが、工程c)の間に焦点を表示することを特徴とする、実施形態1に記載の方法。
11. 前記焦点が、赤色の円であることを特徴とする、実施形態1~10のいずれかに記載の方法。
12. 前記焦点が、前記カメラに近いことを特徴とする、実施形態10に記載の方法。
13. 前記焦点が、前記カメラの右、左、上または下にシフトされることを特徴とする、実施形態10に記載の方法。
14. 前記スクリーンが、工程c)の間に横断線を表示することを特徴とする、実施形態1に記載の方法。
15. 前記光源が、工程c)の間に前記スクリーン上に白色の形態を表示することによって得られることを特徴とする、実施形態1に記載の方法。
16. 前記スクリーンが、前記カメラによって記録された画像を表示することを特徴とする、実施形態1に記載の方法。
17. 装置、好ましくはモバイル装置であって、
フレームを着用している個人の顔面上に光放射のパターンを投影することができる第1の投影手段、光放射の前記パターンを記録することができる第1のカメラ、前記個人の顔の深度マップを生成するために前記パターンの画像を処理することができる処理装置、前記第1のカメラによって記録された画像を表示することができるスクリーン、前記着用者の瞳孔を照射することができる光源
を備え、
前記モバイル装置はさらに、実施形態1に記載の方法を実施することができるソフトウェアを含むことを特徴とする、装置。
The pantoscopic tilt and apex can then be determined directly from the precise position.
Other embodiment
1. A method for determining ophthalmic parameters for a given frame and a given wearer comprising:
a) wearing said predetermined frame by said predetermined wearer;
b) a first projection means capable of projecting a pattern of light radiation onto said wearer's face, a first camera capable of recording said pattern of light radiation, a depth map of said wearer's face; a processing device capable of processing the image of the pattern to produce a screen capable of displaying the image recorded by the first camera and a light source capable of illuminating the pupil of the wearer; providing a mobile device comprising;
c) simultaneously recording a depth map of the wearer's face and an image of the wearer's face while the light source is illuminating the pupils of the wearer;
d) automatically determining the position of the wearer's pupil;
e) associating the positions of the wearer's pupils with respective coordinates in a 3D depth map;
f) determining said ophthalmic parameters from the coordinates of each of said wearer's pupils;
A method, including
2. An implementation characterized in that it further comprises a step in which the position of the pupil obtained in step d) is displayed on a screen together with the recorded image of the wearer's face so that the position can be corrected. A method according to aspect 1.
3. 2. The method of embodiment 1, further comprising calculating positions of the frames from recorded images of the wearer's face, and associating the positions with respective coordinates in a 3D depth map. .
4. 2. The method of embodiment 1, further comprising displaying the position of the frame on a screen along with the recorded image of the wearer's face so that the position can be corrected.
5. wherein said optical parameter is selected from the group comprising far vision interpupillary distance, near vision interpupillary distance, vertex, pantoscopic tilt, frame wrap, near vision fitting height and far vision fitting height. 2. The method of embodiment 1 .
6. 2. The method of embodiment 1, wherein the wearer holds the mobile device at arm's length and eye level.
7. 2. The method of embodiment 1, wherein the wearer holds the mobile device at a reading distance.
8. Before step c), the wearer's gaze from a depth map obtained by illuminating the wearer's face with a pattern of light radiation by the first projection means and recording a second image containing the pattern. 2. The method of embodiment 1, further comprising the step of determining orientation.
9. before step c), from a depth map obtained by illuminating the wearer's face with a pattern of light radiation by the first projection means and recording a second image containing the pattern; 2. The method of embodiment 1, further comprising the step of determining a slope.
10. 2. The method of embodiment 1, wherein the screen displays focus during step c).
11. 11. The method of any of embodiments 1-10, wherein the focal point is a red circle.
12. 11. The method of embodiment 10, wherein the focal point is near the camera.
13. 11. The method of embodiment 10, wherein the focus is shifted to the right, left, up or down of the camera.
14. 2. The method of embodiment 1, wherein the screen displays transverse lines during step c).
15. 2. A method according to embodiment 1, characterized in that said light source is obtained by displaying a white form on said screen during step c).
16. 2. The method of embodiment 1, wherein the screen displays images recorded by the camera.
17. A device, preferably a mobile device,
A first projection means capable of projecting a pattern of light radiation onto the face of an individual wearing the frame, a first camera capable of recording said pattern of light radiation, a depth map of said individual's face. a screen capable of displaying the image recorded by the first camera; a light source capable of illuminating the pupil of the wearer.
with
An apparatus, wherein the mobile apparatus further comprises software capable of implementing the method of embodiment 1.
Claims (17)
a)前記所定の着用者が、前記所定のフレームを装着する工程;
b)前記着用者の顔面上に光放射のパターンを投影することができる第1の投影手段、光放射の前記パターンを記録することができる第1のカメラ、前記着用者の顔の深度マップを生成するために前記パターンの画像を処理することができる処理装置、前記第1のカメラによって記録された画像を表示することができるスクリーン、および、前記着用者の瞳孔を照射することができる光源、を備えるモバイル装置を提供する工程;
c)前記光源が前記着用者の瞳孔を照射している間に、前記着用者の顔の深度マップおよび前記着用者の顔の画像を同時に記録する工程;
d)前記着用者の瞳孔の位置を自動的に決定する工程;
e)前記着用者の瞳孔の位置を3D深度マップ内のそれぞれの座標に関連付ける工程;
f)前記着用者の瞳孔のそれぞれの座標から前記眼科パラメータを決定する工程
を含む、方法。 A method for determining ophthalmic parameters for a given frame and a given wearer comprising:
a) wearing said predetermined frame by said predetermined wearer;
b) a first projection means capable of projecting a pattern of light radiation onto said wearer's face, a first camera capable of recording said pattern of light radiation, a depth map of said wearer's face; a processing device capable of processing the image of the pattern to produce a screen capable of displaying the image recorded by the first camera and a light source capable of illuminating the pupil of the wearer; providing a mobile device comprising;
c) simultaneously recording a depth map of the wearer's face and an image of the wearer's face while the light source is illuminating the pupils of the wearer;
d) automatically determining the position of the wearer's pupil;
e) associating the positions of the wearer's pupils with respective coordinates in a 3D depth map;
f) determining said ophthalmic parameters from the coordinates of each of said wearer's pupils.
フレームを着用している個人の顔面上に光放射のパターンを投影することができる第1の投影手段、光放射の前記パターンを記録することができる第1のカメラ、前記個人の顔の深度マップを生成するために前記パターンの画像を処理することができる処理装置、前記第1のカメラによって記録された画像を表示することができるスクリーン、前記着用者の瞳孔を照射することができる光源
を備え、
前記モバイル装置はさらに、請求項1に記載の方法を実施することができるソフトウェアを含むことを特徴とする、モバイル装置。
a mobile device,
A first projection means capable of projecting a pattern of light radiation onto the face of an individual wearing the frame, a first camera capable of recording said pattern of light radiation, a depth map of said individual's face. a screen capable of displaying the image recorded by the first camera; a light source capable of illuminating the pupil of the wearer. ,
A mobile device, further comprising software capable of implementing the method of claim 1.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1906179A FR3097336B1 (en) | 2019-06-11 | 2019-06-11 | Method for determining ophthalmic parameters by 3D mapping |
FR1906179 | 2019-06-11 | ||
PCT/EP2020/066140 WO2020249643A1 (en) | 2019-06-11 | 2020-06-10 | Process for determining ophthalmic parameters by 3d mapping |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022536657A JP2022536657A (en) | 2022-08-18 |
JPWO2020249643A5 true JPWO2020249643A5 (en) | 2023-03-08 |
Family
ID=68281593
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021573280A Pending JP2022536657A (en) | 2019-06-11 | 2020-06-10 | Method for determining ophthalmic parameters by 3D mapping |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220296096A1 (en) |
EP (1) | EP3983846A1 (en) |
JP (1) | JP2022536657A (en) |
CA (1) | CA3141220A1 (en) |
FR (1) | FR3097336B1 (en) |
WO (1) | WO2020249643A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220390771A1 (en) * | 2021-06-07 | 2022-12-08 | Blink Technologies Inc. | System and method for fitting eye wear |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005003699B4 (en) * | 2005-01-26 | 2018-07-05 | Rodenstock Gmbh | Apparatus and method for determining optical parameters of a user; A computer program product |
DE102011009646B4 (en) * | 2011-01-27 | 2018-02-08 | Hans-Joachim Ollendorf | Video centering system and method for determining centering data for spectacle lenses |
PT106430B (en) * | 2012-07-03 | 2018-08-07 | Cesar Augusto Dos Santos Silva | INTERPUPILARY DISTANCE MEASUREMENT SYSTEM USING A SCREEN AND CAMERA DEVICE |
FR2992843B1 (en) * | 2012-07-06 | 2016-05-06 | Essilor Int | DEVICE AND METHOD FOR MEASURING OBJECTIVE OCULAR REFRACTION AND AT LEAST ONE GEOMETRIC-MORPHOLOGICAL PARAMETER OF AN INDIVIDUAL |
EP2772795A1 (en) * | 2013-02-28 | 2014-09-03 | Shamir Optical Industry Ltd | Method, system and device for improving optical measurement of ophthalmic spectacles |
DE102014015671A1 (en) * | 2014-10-23 | 2016-04-28 | Rodenstock Gmbh | Apparatus and method for determining optical parameters |
DE102015001874A1 (en) * | 2015-02-13 | 2016-08-18 | Rodenstock Gmbh | Device and method for distance determination and / or centering using corneal reflections |
WO2016143862A1 (en) * | 2015-03-10 | 2016-09-15 | ホヤ レンズ タイランド リミテッド | Measurement device for eyeglasses-wearing parameter, measurement program for eyeglasses-wearing parameter, and position designation method |
DE102016003512A1 (en) * | 2016-03-22 | 2017-09-28 | Rodenstock Gmbh | Method and device for determining 3D coordinates of at least one predetermined point of an object |
DE102016106121A1 (en) * | 2016-04-04 | 2017-10-05 | Carl Zeiss Ag | Method and device for determining parameters for spectacle fitting |
EP3413122B1 (en) * | 2017-06-08 | 2020-03-04 | Carl Zeiss Vision International GmbH | Method, device and computer program for determining a close-up viewpoint |
WO2020190648A1 (en) * | 2019-03-15 | 2020-09-24 | Biotrillion, Inc. | Method and system for measuring pupillary light reflex with a mobile phone |
-
2019
- 2019-06-11 FR FR1906179A patent/FR3097336B1/en active Active
-
2020
- 2020-06-10 US US17/618,085 patent/US20220296096A1/en active Pending
- 2020-06-10 EP EP20733549.8A patent/EP3983846A1/en active Pending
- 2020-06-10 JP JP2021573280A patent/JP2022536657A/en active Pending
- 2020-06-10 CA CA3141220A patent/CA3141220A1/en active Pending
- 2020-06-10 WO PCT/EP2020/066140 patent/WO2020249643A1/en active Search and Examination
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10048750B2 (en) | Content projection system and content projection method | |
JP2019091051A (en) | Display device, and display method using focus display and context display | |
CN112835213B (en) | Device for determining centering parameters for adjusting eyeglasses | |
JP6953247B2 (en) | Goggles type display device, line-of-sight detection method and line-of-sight detection system | |
RU2005112314A (en) | STEREO PROJECTION SYSTEM | |
US9928421B2 (en) | Method for helping determine the vision parameters of a subject | |
CN105872526A (en) | Binocular AR (Augmented Reality) head-mounted display device and information display method thereof | |
JP5311601B1 (en) | How to make a binocular loupe | |
JP6515542B2 (en) | Glasses-wearing image analysis apparatus, glasses-wearing image analysis method, and glasses-wearing image analysis program | |
ES2969723T3 (en) | Device and procedure for determining optical parameters | |
JP2012239566A (en) | Measuring apparatus for glasses, and three-dimensional measuring apparatus | |
TW201814356A (en) | Head-mounted display apparatus and lens position adjusting method thereof | |
CN113194809A (en) | Method for determining a refractive characteristic of an eye of a subject and associated portable electronic device | |
EP2486444A1 (en) | Measurement method and equipment for the customization and mounting of corrective opthalmic lenses | |
JP2003329541A (en) | Positioning method of eye point and eye point measuring system | |
ES2264474T3 (en) | PROCEDURE FOR DEMONSTRATING THE INFLUENCE THAT HAS A CERTAIN MOUNT OF GLASSES AND OPTICAL CRYSTALS PLACED ON THIS MOUNT OF GLASSES. | |
JP2017191546A (en) | Medical use head-mounted display, program of medical use head-mounted display, and control method of medical use head-mounted display | |
JP2016087291A (en) | Pupil and visual line measurement device and illumination system | |
WO2014061294A1 (en) | Method for measuring pupil position and method for manufacturing bifocal lens | |
JP6416907B2 (en) | How to bevel a spectacle lens | |
CN113242710A (en) | Method and apparatus for determining a refractive characteristic of an eye of a subject | |
JP2022536657A (en) | Method for determining ophthalmic parameters by 3D mapping | |
JPWO2020249643A5 (en) | ||
JP2019066846A (en) | Methods and means for evaluating toric contact lens rotational stability | |
JP7053833B2 (en) | Methods and devices for identifying the reference head position of the subject |