CN112674715A - 确定瞳孔距离的装置、系统和方法 - Google Patents
确定瞳孔距离的装置、系统和方法 Download PDFInfo
- Publication number
- CN112674715A CN112674715A CN202011134236.6A CN202011134236A CN112674715A CN 112674715 A CN112674715 A CN 112674715A CN 202011134236 A CN202011134236 A CN 202011134236A CN 112674715 A CN112674715 A CN 112674715A
- Authority
- CN
- China
- Prior art keywords
- distance
- location
- camera
- user
- pupil
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 210000001747 pupil Anatomy 0.000 title claims abstract description 109
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000001179 pupillary effect Effects 0.000 claims abstract description 66
- 230000015654 memory Effects 0.000 claims description 38
- 230000001133 acceleration Effects 0.000 claims description 34
- 238000003384 imaging method Methods 0.000 claims description 14
- 238000004891 communication Methods 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 6
- 238000003860 storage Methods 0.000 abstract description 20
- 238000010586 diagram Methods 0.000 description 11
- 230000001815 facial effect Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 7
- 239000011521 glass Substances 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 238000000342 Monte Carlo simulation Methods 0.000 description 5
- 230000001186 cumulative effect Effects 0.000 description 5
- 230000004308 accommodation Effects 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 3
- 208000003164 Diplopia Diseases 0.000 description 2
- 239000000872 buffer Substances 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000011514 reflex Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 241000226585 Antennaria plantaginifolia Species 0.000 description 1
- 206010019233 Headaches Diseases 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 208000029444 double vision Diseases 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 231100000869 headache Toxicity 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 208000001491 myopia Diseases 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/11—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
- A61B3/111—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring interpupillary distance
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/11—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
-
- G—PHYSICS
- G02—OPTICS
- G02C—SPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
- G02C13/00—Assembling; Repairing; Cleaning
- G02C13/003—Measuring during assembly or fitting of spectacles
- G02C13/005—Measuring geometric parameters required to locate ophtalmic lenses in spectacles frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Ophthalmology & Optometry (AREA)
- Molecular Biology (AREA)
- Public Health (AREA)
- Biophysics (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Physics & Mathematics (AREA)
- Geometry (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Eye Examination Apparatus (AREA)
- User Interface Of Digital Computer (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Radar Systems Or Details Thereof (AREA)
- Measurement Of Optical Distance (AREA)
- Paper (AREA)
Abstract
一些说明性实施方式包括确定瞳孔距离的装置、系统和/或方法。例如,产品可以包括一个或多个有形的计算机可读非临时性存储介质,其包括计算机可执行指令,该指令可操作用于当由至少一个计算机处理器执行时使得至少一个计算机处理器能够实施测量用户的瞳孔之间的瞳孔距离的操作。该操作可以包括接收包含光源的光的第一反射和第二反射的捕获图像,第一反射包括来自用户的第一瞳孔的光的反射,第二反射包括来自用户的第二瞳孔的光的反射;以及当捕捉图像时,基于捕获图像中第一反射和第二反射的位置以及图像捕捉设备与用户瞳孔之间的估计距离来确定瞳孔距离。
Description
分案申请声明
本申请是第201680040604.6号中国专利申请的分案申请。
技术领域
本文中所述的实施方式一般涉及确定瞳孔距离。
背景技术
例如除了眼镜的屈光处方之外,例如单焦点或多焦点眼镜,可以 测量用户的瞳孔之间的瞳孔距离(PD)。
眼镜的光学中心可以配置为与用户的视线重合,例如以提供清晰 和便利的视野。
可具有窄远视区的多焦点(MF)眼镜可能需要比单焦眼镜更高的 PD测量精度。
例如,如果PD中的对称不总是例如斜视情况下的构成,则PD可 以被表述为距框架中心(例如用户鼻子的中心)的两个数量不等的距 离。
瞳孔距离的偏差可能导致例如复视、头痛和/或其他不希望的影 响。
瞳孔距离中的可能误差的程度可以取决于晶状体的焦度,例如眼 镜的Rx。例如,对于低焦度的镜片,瞳孔距离中的较大误差可能不会 影响用户的视力。
瞳孔距离的容错可以不是对称的。在一个示例中,如果用户的测 量的PD小于用户的实际PD,例如负的误差,则用户可能能够弥补负 的误差,例如通过眼睛的轻微调节,这可导致眼睛辐辏,可减小用户 的实际PD。在另一示例中,用户的测量PD大于用户的实际PD,例如正误差,可导致一定程度的复视和/或其他不便。
附图说明
为了说明的简单和清楚,附图中示出的元件不一定按比例绘制。 例如,为了清晰呈现,一些元素的尺寸可能相对于其他元素被放大。而 且,附图标记可以在附图中重复以指示对应或类似的元件。附图列出 如下。
图1是根据一些说明性实施方式的系统的示意性框图。
图2是根据一些说明性实施方式的相机的镜头和传感器的示意 图。
图3是根据一些说明性实施方式的用于捕捉对象的图像的成像图 的示意图。
图4是根据一些说明性实施方式的用于捕捉倾斜对象的图像的成 像图的示意图。
图5是根据一些说明性实施方式的用于通过倾斜的相机捕捉对象 的成像图的示意图。
图6是根据一些说明性实施方式的用户右眼的水平截面的示意 图。
图7是根据一些说明性实施方式的看向相机的用户的双眼之间的 瞳孔距离的示意图。
图8A-8F是根据一些说明性实施方式的对应于多个蒙特卡罗模拟 的直方图的示意图。
图9是根据一些说明性实施方式的确定用户的瞳孔距离(PD)的 方法的示意性流程图。
图10是根据一些说明性实施方式的确定用户的PD的方法的示意 性流程图。
图11是根据一些说明性实施方式的产品的示意图。
具体实施方式
在以下详细描述中,阐述了许多具体细节以便提供对一些实施方 式的透彻理解。然而,本领域普通技术人员将会理解,可以在没有这 些具体细节的情况下实践一些实施方式。在其他情况下,公知的方法、 程序、组件、单元和/或电路未被详细描述以免混淆讨论。
以下详细描述的一些部分是根据对计算机存储器内的数据位或二 进制数字信号的操作的算法和符号表示来呈现的。这些算法描述和表 示可以是数据处理领域的技术人员用来将其工作的实质传达给本领域 其他技术人员的技术。
算法在这里并且通常被认为是导致期望结果的动作或操作的自洽 序列。这些包括物理量的物理操纵。通常,但不一定,这些量捕捉能 够被存储、传送、组合、比较和以其他方式操作的电或磁信号的形式。 主要由于通用的原因,已证明有时将这些信号称为位、值、元素、符 号、字符、术语、数字等是方便的。然而,应该理解的是,所有这些 和类似的术语都与适当的物理量相关联,并且仅仅是适用于这些量的 方便标签。
本文中利用例如“处理”、“运算”、“计算”、“确定”、“建立”、“分 析”、“检查”等的术语的讨论可以涉及计算机、计算平台、计算系统 或其它电子计算设备的操作和/或进程,其将计算机的寄存器和/或存储 器内表示为物理(例如电子)量的数据操纵和/或变换为计算机的寄存 器和/或存储器或可以存储指令以执行操作和/或进程的其他信息存储 介质内类似地表示为物理量的其他数据。
如本文中所使用的术语“多个”包括例如“多重”或“两个或更 多”。例如,“多个项目”包括两个或更多个项目。
对“一个实施方式”、“实施方式”、“说明性实施方式”、“各种实 施方式”等的引用表示如此描述的实施方式可以包括特定的特征、结 构或特性,但不是每个实施方式必然包括特定的特征、结构或特性。此 外,尽管其可以,但重复使用短语“在一个实施方式中”不一定指代 相同的实施方式。
如本文中所使用的,除非另外指明,否则使用序数形容词“第一”、 “第二”、“第三”等来描述共同对象仅仅指示相同对象的不同实例正 在被提及,并非旨在意味着这样描述的对象必须在时间上、空间上、 排序上、或者以任何其他方式处于给定的顺序。
例如,一些实施方式可以捕捉完全硬件实施方式、完全软件实施 方式或者包括硬件和软件元素的实施方式的形式。一些实施方式可以 用软件来实现,其包括但不限于固件、常驻软件、微代码等。
此外,一些实施方式可以捕捉可从计算机可用或计算机可读介质 访问的计算机程序产品的形式,该计算机可用或计算机可读介质提供 由计算机或任何指令执行系统使用或与其结合使用的程序代码。例如, 计算机可用或计算机可读介质可以是或可以包括能够包含、存储、通 信、传播或传输供指令执行系统、装置或设备使用或与其结合使用的 程序的任何装置。
在一些说明性实施方式中,介质可以是电子、磁性、光学、电磁、 红外或半导体系统(或装置或设备)或传播介质。计算机可读介质的 一些说明性示例可以包括半导体或固态存储器、磁带、可移动计算机 软盘、随机存取存储器(RAM)、只读存储器(ROM)、闪存、硬磁盘 和光盘。光盘的一些说明性示例包括光盘-只读存储器(CD-ROM), 光盘-读/写(CD-R/W)和DVD。
在一些说明性实施方式中,适合于存储和/或执行程序代码的数据 处理系统可以包括至少一个例如通过系统总线直接或间接耦合到存储 器元件的处理器。存储器元件可以包括例如在程序代码的实际执行期 间使用的本地存储器、大容量存储器和高速缓存存储器,其可以提供 至少一些程序代码的临时存储以便减少在执行期间必须从大容量存储重新得到代码的次数。
在一些说明性实施方式中,输入/输出或I/O设备(包括但不限于 键盘、显示器、指向设备等)可直接或通过介入I/O控制器耦合到系 统。在一些说明性实施方式中,网络适配器可以耦合到系统以使得数 据处理系统能够例如通过介入私有或公共网络而耦合到其他数据处理 系统或远程打印机或存储设备。在一些说明性实施方式中,调制解调 器、缆线调制解调器和以太网卡是网络适配器类型的说明性示例。可 以使用其他合适的组件。
一些实施方式可以包括一个或多个有线或无线链路,可以利用一 个或多个无线通信的组件,可以利用一个或多个无线通信的方法或协 议等。一些实施方式可以利用有线通信和/或无线通信。
一些实施方式可以结合各种设备和系统使用,例如移动电话、智 能电话、移动计算机、膝上型计算机、笔记本电脑、平板电脑、手持 式计算机、手持式设备、个人数字助理(PDA)设备、手持式PDA设 备、移动或便携式设备、非移动式或非便携式设备、蜂窝电话、无线 电话、具有一个或多个内部天线和/或外部天线的设备、无线手持设备 等。
现在参照图1,其图解示出了根据一些说明性实施方式的系统100 的框图。
如图1所示,在一些说明性实施方式中,系统100可以包括设备 102。
在一些说明性实施方式中,设备102可以使用合适的硬件组件和/ 或软件组件来实施,例如处理器、控制器、存储器单元、存储单元、 输入单元、输出单元、通信单元、操作系统、应用程序等。
在一些说明性实施方式中,设备102可以包括例如计算设备、移 动电话、智能手机、蜂窝电话、笔记本、移动计算机、膝上型计算机、 笔记本计算机、平板电脑、手持式计算机、手持式设备、PDA设备、 手持PDA设备、无线通信设备、包含无线通信设备的PDA设备等。
在一些说明性实施方式中,设备102可以包括例如处理器191、 输入单元192、输出单元193、存储器单元194和/或存储单元195中 的一个或多个。设备102可以可选地包括其他合适的硬件组件和/或软 件组件。在一些说明性实施方式中,设备102中的一个或多个的一些 或全部组件可被装在共同的外壳或封装中,并且可使用一个或多个有 线或无线链路互连或可操作地关联。在其他实施方式中,设备102中 的一个或多个的组件可以分布在多重或分开的设备中。
在一些说明性实施方式中,处理器191可以包括例如中央处理单 元(CPU)、数字信号处理器(DSP)、一个或多个处理器核心、单核 处理器、双核处理器、多核处理器、微处理器、主处理器、控制器、 多个处理器或控制器、芯片、微芯片、一个或多个电路、电路、逻辑单元、集成电路(IC)、专用IC(ASIC)或任何其他合适的多用途或 特定处理器或控制器。处理器191可以执行例如设备102的操作系统 (OS)和/或一个或多个合适的应用程序的指令。
在一些说明性实施方式中,输入单元192可以包括例如键盘、小 键盘、鼠标、触摸屏、触摸板、跟踪球、触控笔、麦克风或其他合适 的指向设备或输入设备。输出单元193可以包括例如监视器、屏幕、 触摸屏、平板显示器、发光二极管(LED)显示单元、液晶显示器(LCD) 显示单元、等离子体显示单元、一个或多个音频扬声器或耳机或其他 合适的输出设备。
在一些说明性实施方式中,存储器单元194包括例如随机存取存 储器(RAM)、只读存储器(ROM)、动态RAM(DRAM)、同步DRAM (SD-RAM)、闪存存储器、易失性存储器、非易失性存储器、高速缓 存存储器、缓冲器、短期存储器单元、长期存储器单元或其它合适的 存储器单元。存储单元195可以包括例如硬盘驱动器、软盘驱动器、 光盘(CD)驱动器、CD-ROM驱动器、DVD驱动器或其他合适的可 移动或不可移动的存储单元。存储器单元194和/或存储单元195例如 可以存储由设备102处理的数据。
在一些说明性实施方式中,设备102可以配置为经由无线和/或有 线网络103与一个或多个其他设备进行通信。
在一些说明性实施方式中,网络103可以包括有线网络、局域网 (LAN)、无线LAN(WLAN)网络、无线电网络、蜂窝网络、无线 保真(WiFi)网络、IR网络、蓝牙(BT)网络等。
在一些说明性实施方式中,设备102可以允许一个或多个用户与 设备102的一个或多个进程、应用程序和/或模块进行交互,例如如本 文所述。
在一些说明性实施方式中,设备102可以配置为执行和/或实行一 个或多个操作、模块、处理、过程等。
在一些说明性实施方式中,设备102可以配置为确定设备102的 用户的瞳孔距离(PD),例如如下所述。
在一些说明性实施方式中,瞳孔距离可以包括近瞳孔距离或远瞳 孔距离。
在一些说明性实施方式中,系统100可以包括配置为确定设备102 的用户的瞳孔距离(PD)的至少一个服务、模块、控制器和/或应用程 序160,例如如下所述。
在一些说明性实施方式中,应用程序160可以包括或可以实施为 软件、软件模块、应用程序、程序、子程序、指令、指令集、计算代 码、字、值、符号等。
在一些说明性实施方式中,应用程序160可以包括待由设备102 执行的本地应用程序。例如,存储器单元194和/或存储单元195可以 存储触发应用程序160的指令,和/或处理器191可以配置为执行触发 应用程序160的指令,例如如下所述。
在其他实施方式中,应用程序160可以包括待由任何合适的计算 系统(例如服务器170)执行的远程应用程序。
在一些说明性实施方式中,服务器170可以至少包括远程服务器、 基于web的服务器、云服务器和/或任何其他服务器。
在一些说明性实施方式中,服务器170可以包括其上已储存触发 应用程序160的指令的适当存储器和/或存储单元174以及执行指令的 适当处理器171,例如如下所述。
在一些说明性实施方式中,应用程序160可以包括远程应用程序 和本地应用程序的组合。
在一个示例中,应用程序160可以由设备102的用户从另一计算 系统(例如服务器170)下载和/或接收,使得应用程序160可以由设 备102的用户在本地执行。例如,在由设备102的处理器191执行之 前,可以例如临时地将指令接收并存储在设备102的存储器或任何合 适的短期存储器或缓冲器中。
在另一示例中,应用程序160可以包括由设备102在本地执行的 前端以及由服务器170执行的后端。例如,确定用户的瞳孔距离的一 个或多个第一操作可以例如由设备102在本地执行,并且/或者确定瞳 孔距离的一个或多个第二操作可以例如由服务器170远程地执行,例 如如下所述。
在其他实施方式中,应用程序160可以包括任何其他合适的计算 布置和/或方案。
在一些说明性实施方式中,系统100可以包括接口110,以在设 备102的用户与系统100的一个或多个元素之间进行接合,例如应用 程序160。
在一些说明性实施方式中,接口110可以使用任何合适的硬件组 件和/或软件组件来实施,例如处理器、控制器、存储器单元、存储单 元、输入单元、输出单元、通信单元、操作系统和/或应用程序。
在一些实施方式中,接口110可以实施为系统100的任何合适的 模块、系统、设备或组件的一部分。
在其他实施方式中,接口110可以实施为系统100的单独元素。
在一些说明性实施方式中,接口110可以实施为设备102的一部 分。例如,设备102的一部分可以关联和/或包括接口110。
在一个示例中,接口110可以实施为例如中间件,和/或作为设备 102的任何合适的应用程序的一部分。例如,接口110可以实施为应 用程序160的一部分和/或作为设备102的OS的一部分。
在一些说明性实施方式中,接口160可以实施为服务器170的一 部分。例如,服务器170的一部分可以关联和/或包括接口110。
在一个示例中,接口110可以包括或者可以是基于网络的应用程 序、网站、网页、插件、ActiveX控件、丰富内容组件(例如Flash或 Shockwave组件)等等。
在一些说明性实施方式中,接口110可以关联和/或包括例如网关 (GW)112和/或应用程序编程接口(API)114,例如以在系统100 的元素之间传送信息和/或通信和/或传送给一个或多个其他(例如内部 或外部)参与方、用户、应用程序和/或系统。
在一些实施方式中,接口110可以包括任何合适的图形用户接口 (GUI)116和/或任何其他合适的接口。
在一些说明性实施方式中,应用程序160可以配置为例如基于用 户的捕获图像来确定瞳孔距离,例如如下所述。
在一些说明性实施方式中,捕获图像可以由用户捕捉,并且可以 包括用户的眼睛,例如如下所述。
在一个示例中,从二维(2D)捕获图像提取精确PD测量可以包 括测量、评估和/或分析一个或多个参数以确定三维(3D)环境,例如 以确定PD。例如,3D环境可以反映位于离用户的脸部一定距离处的 相机以及用户在看着相机时每个瞳孔的位置,相机可位于从瞳孔的中 心偏移的位置,例如达到1毫米的偏移量。瞳孔的位置可以与用户的 视线一致,例如在视轴上。
在一些说明性实施方式中,设备102可以包括配置为捕捉图像的 图像捕捉设备,例如相机118或任何其他设备。
在一些说明性实施方式中,设备102可以包括配置为例如当捕捉 图像时照亮用户的光源122。
在一些说明性实施方式中,光源122可以包括闪光灯、LED灯或 任何其他光源。
在一些说明性实施方式中,应用程序160可以配置为例如从相机 118接收用户的捕获图像。
在一些说明性实施方式中,捕获图像可以包括光源的光的第一反 射和第二反射。
在一些说明性实施方式中,第一反射可以包括来自用户的第一瞳 孔的光的反射,例如来自第一瞳孔的第一普尔钦斑,第二反射可以包 括来自用户的第二瞳孔的光的反射,例如来自第二瞳孔的第一普尔钦 斑。
在一些说明性实施方式中,应用程序160可以配置为例如基于捕 获图像中的第一反射和第二反射以及例如当捕捉图像时在设备102与 用户瞳孔之间的估计距离来确定用户的瞳孔距离。
在一些说明性实施方式中,应用程序160可以配置为例如基于第 一反射与第二反射之间的像素数量以及像素的像素毫米(mm)比来确 定用户的瞳孔距离,例如如下所述。
在一些说明性实施方式中,应用程序160可以配置为例如基于眼 睛半径参数以及相机118与包括用户的瞳孔的平面之间的距离来确定 用户的瞳孔距离,例如如下所述。
在一些说明性实施方式中,例如如果倾斜设备102,应用程序160 可以配置为例如基于相对于设备102的取向的取向信息来确定用户的 瞳孔距离,例如如下所述。
在一些说明性实施方式中,应用程序160可以接收包括来自用户 的第一瞳孔和第二瞳孔的第一反射和第二反射的捕获图像。
在一个示例中,例如如果应用程序160由设备102本地实施,应 用程序160可以配置为在本地确定PD。根据该示例,相机118可以配 置为捕捉图像,应用程序160可以配置为例如从相机118接收捕获图 像,以确定设备102与用户瞳孔之间的估计距离,并确定用户的瞳孔 距离,例如如下所述。
在另一示例中,例如如果应用程序160由服务器170实施,或者 如果应用程序160的后端由服务器170实施,例如当应用程序160的 前端由设备102实施时,应用程序160可以配置为远程地确定PD。根 据该示例,相机118可以配置为捕捉图像;应用程序160的前端可以 配置为接收捕获图像,并确定设备102与用户瞳孔之间的估计距离; 并且服务器170和/或应用程序160的后端可以配置为例如基于从应用 程序160的前端接收的信息来确定用户的瞳孔距离。
在一个示例中,设备102和/或应用程序160的前端可以配置为例 如经由网络103向服务器170发送捕获图像和估计距离;和/或服务器 170和/或应用程序160的后端可以配置为接收捕获图像和/或估计距 离,并且例如基于从设备102接收的捕获图像和估计距离来确定用户 的瞳孔距离。
在一些说明性实施方式中,捕获图像可以包括用户脸部上的对象 (“参考对象”)。
在一个示例中,例如在相机118捕获图像,并且人正握着接近人 脸特征的已知尺寸的对象时,可以从看着相机118的闪光灯的人的单 个图像中提取PD。
在一些说明性实施方式中,应用程序160可以配置为例如基于用 户脸部上的对象的一个或多个尺寸来确定相机118与参考对象之间的 估计距离,例如如下所述。
在一些说明性实施方式中,应用程序160可以配置为例如基于表 明设备102的加速度的加速信息来确定相机118与参考对象之间的估 计距离,例如如下所述。
在一些说明性实施方式中,应用程序160可以配置为例如基于用 户脸部上的对象和相机118的一个或多个属性来确定相机118与参考 对象之间的估计距离,例如如下所述。
在一些说明性实施方式中,相机118的一个或多个属性可以包括 相机118的镜头的有效焦距(EFL)、相机118的传感器的水平视场 (FOV)、相机118的传感器的垂直视场、传感器的分辨率、传感器的 两个相邻像素之间的距离(“传感器节距”)和/或照相机118的任何其 他附加或可选属性。
参照图2,其图解示出了根据一些说明性实施方式的相机的镜头 210和传感器220。例如相机118可包括镜头210和传感器220。
在一些说明性实施方式中,如图2所示,镜头210可以具有EFL 222,其可以例如由设备102(图1)给定和/或校准,其位于与镜头 EFL距传感器220的距离相等的位置。
在一些说明性实施方式中,表示为αh的观察水平角可以基于传感 器220的水平尺寸以及镜头210的EFL 222来确定。
在一些说明性实施方式中,观察垂直角度可以例如基于传感器 220的垂直尺寸来确定。
在一些说明性实施方式中,如图2所示,表示为pitchh的传感器 水平节距224可以界定为每两个相邻像素的中心之间的距离。
在一些说明性实施方式中,传感器节距224可以例如基于传感器 的水平长度和传感器的水平像素的总数来确定。
在一些说明性实施方式中,传感器节距224可以例如基于EFL 222、观察水平角度αh和/或观察垂直角度来确定,例如如下(其中, sensor(传感器),total(总体),horizontal(水平),length(长度), pixels(像素)):
返回参照图1,在一些说明性实施方式中,应用程序160可以配 置为例如基于相机118的一个或多个属性,例如观察水平角度αh、 EFL222(图2)和/或传感器节距224(图2),来确定相机118与参考 对象之间的估计距离,例如如下所述。
在一些说明性实施方式中,应用程序160可以配置为例如基于相 机118的一个或多个属性以及参考对象的一个或多个尺寸来确定相机 118与参考对象之间的估计距离,例如如下所述。
在一些说明性实施方式中,参考对象可以包括具有一个或多个已 知尺寸的对象,例如其可以测量和/或给定。例如,参考对象可以包括 信用卡、纸币等等。
在一些说明性实施方式中,参考对象可以包括具有一个或多个已 知尺寸(例如可以测量和/或给定)的脸部对象或元件。例如,参考对 象可以包括虹膜、眼半径参数等等。
在一些说明性实施方式中,相机118可以配置为捕捉包括参考对 象的图像。
在一些说明性实施方式中,应用程序160可以配置为例如基于捕 获图像中的对象的成像尺寸、对象的真实尺寸以及相机属性来确定相 机118与参考对象之间的估计距离,例如如下所述。
参考图3,其图解示出了根据一些说明性实施方式的用于捕捉对 象302的图像的成像图300。
在一些说明性实施方式中,如图3所示,对象302的图像312可 以经由相机的镜头310来捕捉。例如,相机118(图1)可以包括镜头 310。
在一些说明性实施方式中,如图3所示,对象302可以具有表示 为h的高度,其可以是已知的和/或给定的。
在一些说明性实施方式中,如图3所示,对象302的图像312例 如当经由透镜310捕获时可以具有表示为h'的成像高度。
在一些说明性实施方式中,镜头310与对象302之间表示为u的 距离可以例如基于透镜310的EFL(其可以是已知和/或给定的)、高 度h和/或成像高度h'来确定,例如如下所述。
在一些说明性实施方式中,例如基于成像方案300中的三角形相 似性可给出以下等式,例如如下:
其中v近似为镜头310的EFL。
在一些说明性实施方式中,图像312的成像高度h'可以基于由图 像312占据的表示为h'_pixels_estimated的多个像素和表示为pitch的 透镜310的传感器节距,例如如下:
h'=pitch*h'_pixels_estimated (3)
在一些说明性实施方式中,距离u可以例如基于等式2和等式3 来确定,例如如下:
在一些说明性实施方式中,如图3所示,对象302可以是垂直的, 例如没有倾斜。
在一些说明性实施方式中,例如如下面参照图4所描述的,相机 要捕捉的对象可以倾斜。
参照图4,其图解示出了根据一些说明性实施方式的用于捕捉倾 斜对象402的图像的成像图400。
在一些说明性实施方式中,如图4所示,倾斜对象402的图像412 可以经由相机的镜头410来捕捉。例如,相机118(图1)可以包括镜 头410。
在一些说明性实施方式中,如图4所示,对象402可具有表示为 h的高度,其可以是已知的和/或给定的。
在一些说明性实施方式中,如图4所示,例如当通过镜头410捕 捉时,对象402的图像412可以具有表示为h'的成像高度。
在一些说明性实施方式中,如图4所示,图像412的成像高度h' 可以将对象402的投影以表示为θ的倾斜角反射到平面407上。
在一些说明性实施方式中,如图4所示,高度h的投影可导致对 象402的高度h的误差和/或减小(表示为Δh),这可降低图像412的 成像高度h'。
在一些说明性实施方式中,可以例如如下确定对象大小h中的误 差Δh:
Δh=h*(1-cos(θ)) (5)
在一个示例中,对于可由例如±10°(度)的倾斜角引起的假定 误差Δh,高度的相对误差可以大约为例如+1.5%(百分比)。
在一些说明性实施方式中,相对误差可影响估计的距离,例如通 过相同的百分比。
返回参照图1,在一些说明性实施方式中,应用程序160可以配 置为例如基于对象的3D笛卡尔坐标来确定相机118与对象之间的估 计距离,例如如下所述。
在一些说明性实施方式中,设备102可以包括配置为确定对象的 3D笛卡尔坐标的3D传感器124。
在一些说明性实施方式中,3D传感器124可以配置为将对象映射 到例如在3维笛卡尔坐标中表示为{xi,yi,zi}的3个点的一组点。
在一个示例中,该组点可以包括投影结构,该投影结构包括距离 相关结构、散焦距离结构、基于立体的三角测量结构等等。
在一些说明性实施方式中,表示为d的对象与相机118之间的距 离可以例如如下确定:
其中{x0,y0,z0}表示相机位置,例如与对象在相同的笛卡尔坐标系中, k表示由3D传感器124捕捉的对象上的离散点。
在一些说明性实施方式中,应用程序160可以配置为例如基于来 自3D传感器124的信息来估计从相机到对象的距离。
在一些说明性实施方式中,3D传感器124可以配置为以米、英寸 或任何其他尺寸单位提供描述图像中的每个像素或者图像中的每个像 素组的信息,作为距相机的距离的函数,或者作为绝对尺寸的函数。
在一个示例中,距离的函数可以使得应用程序160能够确定对象 与相机118之间的距离。
在另一示例中,绝对尺寸的函数可以使得能够例如基于等式4来 确定到对象的距离。在一个示例中,应用程序160例如通过估计对象 的成像高度在图像中获得多少像素可以例如基于来自3D传感器124 的信息来确定对象尺寸h。
在一些说明性实施方式中,应用程序160可以配置为例如甚至不 使用该对象,例如通过使用对应于设备102的加速度的加速信息来确 定相机118与用户的眼睛之间的距离,例如如下所述。
在一些说明性实施方式中,应用程序160可以配置为例如基于指 示设备102的加速度的加速信息来确定相机118与用户的眼睛之间的 估计距离,例如如下所述。
在一些说明性实施方式中,设备102可以包括加速计126以向应 用程序160提供设备102的加速信息。
在一些说明性实施方式中,加速计126可以配置为在给定的时间 提供例如用于(例如笛卡尔坐标系的)每个轴的加速度信息。
在一些说明性实施方式中,应用程序160可以配置为例如基于一 组两个条件的满足来确定相机118与用户的眼睛之间的距离,例如如 下所述。
在一些说明性实施方式中,应用程序160可以例如在执行初始化 过程之后确定相机118与用户的眼睛之间的距离,该初始化过程可以 包括在保持装置102靠近用户的眼睛时设置表示为x0的用户眼睛与相 机118之间的初始距离。
在一些说明性实施方式中,应用程序160可以使得设备102例如 在初始化过程之后通过指示用户移动装置102远离眼睛来指示用户开 始对相机118与用户的眼睛之间的距离进行测量。
在一些说明性实施方式中,应用程序160可例如根据设备102的 移动从加速计126接收设备102的加速信息,例如在笛卡尔坐标系的 一个或多个(例如全部)轴中。
在一些说明性实施方式中,应用程序160可以例如基于表示为ax (t)的在给定时间的X轴上的加速信息来确定表示为x(t')的在给 定时间的X轴上的x轴距离,例如如下:
在一些说明性实施方式中,应用程序160可以例如基于在给定时 间表示为vx(t')的设备102速度来确定x轴距离x(t'),例如如下:
在一些说明性实施方式中,应用程序160可以例如以确定距离x (t')的类似方式例如基于Y轴上的表示为ay(t)的装置102的加速 度来确定表示为y(t')的Y轴上的Y轴距离。
在一些说明性实施方式中,应用程序160可以例如以确定距离x (t')的类似方式例如基于Z轴上的表示为az(t)的装置102的加速 度来确定表示为z(t')的Z轴上的Z轴距离。
在一些说明性实施方式中,应用程序160可以例如基于X轴距离、 Y轴距离以及Z轴距离来确定相机118距眼睛的表示为r(t')的估计 距离,例如如下:
在一些说明性实施方式中,例如通过使用不止一个测量来估计距 离,可以增加估计距离r(t')的精确性,例如如下所述。
在一些说明性实施方式中,应用程序160可以配置为结合来自其 他距离测量传感器的信息来使用加速信息,例如以增加测量范围、可 靠性、精确性和/或灵敏度。
在一些说明性实施方式中,例如除了加速度信息之外,应用程序 160可以配置为例如通过整合由相机118捕捉的一个或多个图像来增 加加速计126的距离估计的精确性。
在一些说明性实施方式中,例如在初始化过程之后,应用程序160 可以配置为例如在设备102的移动期间控制、引起、触发和/或指示相 机118捕捉一个或多个图像。
在一些说明性实施方式中,应用程序160可以配置为使用来自捕 获图像的信息以例如基于加速信息来增加估计距离的精确性。
在一些说明性实施方式中,例如当捕获图像包括具有已知尺寸的 对象时,应用程序160可以使用来自捕获图像的信息,例如如上所述。
在一些说明性实施方式中,应用程序160可以配置为例如基于对 象的放大率的变化来确定捕获图像的一对图像之间的距离。
在一些说明性实施方式中,例如如果使用该对图像之间的距离来 评估加速信息,则加速计信息的误差可不在设备102的整个移动过程 中累积。
在一个示例中,初始化过程可以在表示为t'0的时刻执行,随后是 在表示为{t'1,t'2,t'3,t'4...t'N}的时刻的N个相机采集,以及在由加 速计信息传感器数据确定的表示为{r'1,r'2,r'3,r'4...r'N}的距离处, 以及捕获图像处对象的表示为{h'1,h'2,h'3,h'4...h'N}的相对尺寸。
在一些说明性实施方式中,例如当全部捕获符合于对象的相同尺 寸h时,可执行与加速计信息相关的距离测量的优化以减少加速器信 息的误差。
在一些说明性实施方式中,用于优化最小误差的等式可以例如如 下定义:
在一些说明性实施方式中,应用程序160可以配置为确定用户的 瞳孔的平面(“瞳孔平面”)与相机118之间的距离,例如以确定用户 的瞳孔距离。
在一些说明性实施方式中,例如在使用3D传感器124、加速计 126和/或包括对象的捕获图像确定从相机118到对象的距离后,应用 程序160可确定瞳孔平面与相机118之间的距离,例如如上所述。
在一些说明性实施方式中,计算瞳孔平面与相机118之间的距离 可以使得能够确定瞳孔平面处的放大率,这可以使得能够计算瞳孔之 间的绝对距离。
在一些说明性实施方式中,计算瞳孔平面与相机118之间的距离 可以使得能够确定眼睛看向相机的角度,例如以在看向相机118时适 应眼球辐辏。
在一些说明性实施方式中,假定相机118适应由平传感器和非最 佳镜头产生的畸变像差,穿过垂直于相机118的传感器或镜头顶点的 平面的放大率可以是均匀的,并且枕形和桶形失真可为最小。
在一些说明性实施方式中,表示为Mobject(camera_object_distance) 的放大率可以界定在垂直于相机118传感器的平面上的捕获图像处的 对象的捕获尺寸(表示为h'obj)的像素估计数量(表示为 hobj'_pixels_estimated)与在包括对象的平面处的对象的绝对尺寸(表 示为hobj)之间的转换。
在一些说明性实施方式中,确定放大率可以使得能够确定像素毫 米比,其可以使得能够例如通过计算像素的数量来由捕获图像计算 PD,例如如下所述。
在一个示例中,可以假定相机118可以倾斜,并且捕获图像中的 一个或多个特征可以位于距相机118的不同距离处。根据这个示例, 捕获图像中的每组像素可代表不同的放大率。
在一些说明性实施方式中,放大率可以基于相机118与对象之间 的距离,例如如下:
在一些说明性实施方式中,对象的绝对尺寸(例如高度hobj)可 以基于放大率和成像尺寸(例如成像高度h'obj)来确定,例如如下:
hobj=h'obj*Mobject(camera_object_distance)=
=h'obj_pixels_estimated*pitch*Mobject(camera_object_distance) (12)
在一些说明性实施方式中,对象可不位于瞳孔的平面上。例如, 对象可以位于用户的前额上。
在一些说明性实施方式中,应用程序160可以配置为在考虑捕获 相机118的倾斜时确定包括对象的对象平面与瞳孔平面之间的放大率 的变化。
在一些说明性实施方式中,应用程序160可以例如基于对象与瞳 孔之间沿着垂直于包括对象的平面(例如对象平面)的轴线的轴向偏 移来确定用户的瞳孔的平面与相机118之间的距离,例如如下所述。
在一些说明性实施方式中,应用程序160可以配置为确定对象与 瞳孔之间沿着垂直于包括对象的平面的轴线的轴向偏移,例如如下所 述。
在一些说明性实施方式中,计算轴向偏移可以使得能够确定对象 平面与瞳孔平面之间的放大率变化。
在一些说明性实施方式中,应用程序160可以配置为在考虑相机 118的倾斜时确定放大率的变化。
在一个示例中,例如当捕捉包括对象的图像时,相机118可不垂 直于地面。
在一些说明性实施方式中,应用160可以配置为例如基于相机180 的轴向偏移和倾斜来确定瞳孔平面与对象平面之间的距离,例如如下 所述。
在一些说明性实施方式中,设备102可以包括定向估计器128, 其配置为确定设备102的定向和/或设备102的一个或多个元件的定 向,例如相机118。
在一些说明性实施方式中,例如当捕获图像时,应用程序160可 以配置为例如从定向估计器128接收指示设备102的定向的定向信息。
在一些说明性实施方式中,应用程序160可以配置为例如基于定 向信息来确定用户的瞳孔距离。
在一些说明性实施方式中,定向信息可以指示相机118的定向。
在一些说明性实施方式中,定向信息可以指示相机118的倾斜角 度。
在一个示例中,例如当捕捉图像时,应用程序160可以配置为例 如基于相机118的定向和/或设备102的定向来确定照相机118的倾斜 角度。
在一些说明性实施方式中,应用程序160可以配置为例如基于定 向信息以及对象与瞳孔之间沿着垂直于包括对象的平面的轴线的轴向 偏移来确定用户的瞳孔距离,例如如下所述。
参照图5,其图解示出了根据一些说明性实施方式的用于通过倾 斜的相机518捕捉对象502的捕捉图。例如,相机518可以执行相机 118(图1)的功能。
在一些说明性实施方式中,如图5中所示,相机518可以以例如 关于水平线的表示为θ的倾斜角倾斜。
在一些说明性实施方式中,如图5中所示,相机518可以位于距 对象502的表示为camera_obj_distance的距离处。
在一些说明性实施方式中,如图5中所示,对象502可以位于距 用户的眼睛506的表示为horizontal_offset的水平偏移以及表示为 ver_offset的垂直偏移处。
在一些说明性实施方式中,如图5中所示,眼睛530可以包括在 例如垂直于相机118的传感器的瞳孔平面的表示为eyes_plane的平面 527中。
在一些说明性实施方式中,如图5中所示,对象502可以包括在 垂直于相机118的传感器的表示为object_plane的平面529中。
在一些说明性实施方式中,如图5中所示,在垂直于平面527和 平面529的轴线上可存在表示为axis_offset的轴向偏移。
在一些说明性实施方式中,如图5中所示,轴向偏移可界定平面 527与平面529之间的距离。
在一些说明性实施方式中,如图5中所示,当眼睛530和对象502 的中心被投影到平面529和/或平面527上时,在眼睛530和对象502 的中心之间可存在表示为projection_ver_offset的垂直投影偏移。
在一些说明性实施方式中,可以假设捕获图像的放大率在垂直于 相机传感器的平面上是均匀的,例如平面527和/或平面529。
在一些说明性实施方式中,轴向偏移可基于垂直投影偏移、水平 偏移和倾斜角来确定,例如如下:
在一些说明性实施方式中,垂直投影偏移可例如通过分析眼睛 530在投影平面(例如平面529)上从对象502的垂直位移来确定,例 如通过估计在捕获图像处的相机518和眼睛530的中心之间的像素数 量。
在一些说明性实施方式中,水平偏移可以给定、计算和/或可以预 定义,例如大约30毫米(mm)。
在一些说明性实施方式中,在瞳孔平面(例如平面527)处的表 示为Meyes的放大率可以基于从相机518到瞳孔平面的距离。
在一些说明性实施方式中,从相机518到瞳孔平面的距离可以基 于从对象到相机118的距离与轴向偏移之和,例如可以根据等式13确 定。
在一些说明性实施方式中,相机与瞳孔平面之间表示为u的距离 可以基于从对象到相机118的距离与轴向偏移之和来定义,例如如下:
u=camera_object_distance+axis_offset (14)
在一些说明性实施方式中,在距离u处表示为Meyers(u)的放大 率可以例如如下确定:
返回参照图1,在一些说明性实施方式中,应用程序160可以配 置为识别瞳孔上的位置,例如在捕捉图像时用户通过其看向相机118。
在一些说明性实施方式中,应用程序160可以配置为例如基于捕 获图像中来自眼睛的光的反射来识别瞳孔上的位置,用户通过其看向 相机118,例如如下所述。
在一些说明性实施方式中,应用程序160可以配置为例如基于第 一普尔钦斑来识别瞳孔上的位置,用户通过其看向相机118。
参照图6,其图解示出了根据一些说明性实施方式的用户的右眼 600的水平截面。
在一些说明性实施方式中,如图6中所示,右眼600的水平截面 可以描绘右眼600的视轴602与光轴604之间的差异。
在一些说明性实施方式中,例如由于眼睛600会转动来观看在小 凹610处成像的例如相机118的最清晰图像,因此其中视轴602穿过 瞳孔的位置606可用于测量PD。
在一些说明性实施方式中,例如当从上方观察时,小凹610可以 临时地(例如朝向耳朵)定位大约5度到光轴604。因此,眼睛转动 以观察对象的视线可不与连接角膜顶点与瞳孔中心之间的线的光轴 604重合。因此,位置606可不是瞳孔的中心。
在一些说明性实施方式中,应用程序160(图1)可以配置为例如 基于在捕获图像处的眼睛600上的光源122的反射来识别位置606。
在一个示例中,位置606可以例如通过寻找第一反射(例如第一 普尔钦斑)来识别,其是由最外部反射角膜表面成像的光源122的反 射。眼睛可以转动以观看光源122,并且反射角膜表面可以垂直于光 源122。因此,第一反射可以沿着视轴602。因此,位置606可以基于 捕获图像中的第一反射来确定。
在一些说明性实施方式中,应用程序160(图1)可以例如基于右 眼600的位置606和左眼中的第二反射的位置来确定PD,例如而非使 用瞳孔中心或瞳孔中的任意位置。
返回参照图1,在一些说明性实施方式中,应用程序160可以配 置为确定在捕获图像中的第一改选与第二改选(例如右眼600的位置 606(图6)与左眼的第二反射的位置)之间表示为 heyes'_pixels_estimated的像素数量。
在一些说明性实施方式中,应用程序160可以配置为计算用于例 如当眼睛看向相机118时辐辏眼睛的PD,表示为PDconvergence。
在一些说明性实施方式中,应用程序160可例如基于传感器节距、 瞳孔平面处的放大率和像素数量来计算辐辏眼睛的PD,例如如下:
在一些说明性实施方式中,应用程序160可以配置为计算例如当 眼睛看向无限远时(“无限远眼睛”)的PD。
在一些说明性实施方式中,应用程序160可以配置为计算用于辐 辏眼睛的瞳孔距离与用于无限远眼睛的瞳孔距离之间的校正,例如如 下所述。
参考图7,其图解示出了根据一些说明性实施方式的看向相机718 的用户的双眼720之间的PD。
在一些说明性实施方式中,如图7中所示,相机718可以位于距 眼睛720表示为camera_eye_distance的距离处。
在一些说明性实施方式中,如图7中所示,例如当眼睛720看向 无限远时,穿过瞳孔的视轴708的位置706可以朝向位置709(例如 朝向耳朵)以表示为τ的调节距离横向移动。
在一些说明性实施方式中,假定眼睛720的旋转中心相等,眼睛 的半径R可以等于例如大约13.5mm的预定义值。
在一些说明性实施方式中,例如当确定瞳孔距离时,位置709可 以考虑例如用于距离眼镜。
在一些说明性实施方式中,如图7中所示,例如如果相机718位 于不是无限远距离的e处(例如距离camera_eye_distance),例如当眼 睛720辐辏以看向相机718的闪光时,可以定义表示为的对 于辐辏眼睛的瞳孔距离。
在一些说明性实施方式中,例如,当眼睛720看向无限远时,表 示为PDinfinity的对于无限远眼睛的瞳孔距离可以例如基于对于辐辏眼 睛的瞳孔距离PDconvergence与对于双眼720的调节距离τ来确定,例如如 下:
在一些说明性实施方式中,瞳孔距离PDinfinity可以例如通过组合 等式17和等式18来确定,例如如下:
在一些说明性实施方式中,负反馈可减少累积误差。例如,在所 计算的水平偏移horizontal_offset比实际水平偏移长的情况下,例如在 眼睛与对象之间,距离camera_eye_distance可较长,例如导致眼睛平 面中较高的PD。然而,例如从较远距离(例如距离τ)转换的调节可 以减小角度这可导致对瞳孔距离的较小增加,这可减少累积误差。
现在参考图8A-8F,其图解示出了根据一些说明性实施方式的蒙 特卡罗模拟的直方图。
在一些说明性实施方式中,模拟考虑相机与对象之间的距离的变 化,例如在300mm与900mm之间,相机到对象距离估计中的误差, 例如在-5mm与15mm之间,以及瞳孔与对象之间的水平偏移误差, 例如在-15mm和5mm之间。
在一些说明性实施方式中,图8A示出了蒙特卡罗模拟的直方图, 例如当相机放置在多个距离处时,评估从相机误差到已知尺寸对象估 计所产生的累积误差。
在一些说明性实施方式中,图8B示出了蒙特卡罗模拟的直方图, 评估从相机误差的已知尺寸对象估计所产生的累积误差。
在一些说明性实施方式中,图8C示出了蒙特卡罗模拟的直方图, 评估瞳孔与对象之间的水平偏移的误差。
在一些说明性实施方式中,图8D示出了蒙特卡罗模拟的直方图, 描绘名义上PD的变化。
在一些说明性实施方式中,图8E示出了呈现为直方图的水平轴 累积误差结果。
在一些说明性实施方式中,图8E的水平轴界定累积误差,垂直 轴界定由该误差量导致的试验量,例如当模拟数量为N=1000时。
在一些说明性实施方式中,图8F描绘了示出所测量的PD中的总 误差在至少95%的情况下处于[-1,+1]mm范围内的直方图。
参照图9,其图解示出了根据一些说明性实施方式的确定用户的 PD的方法。例如,图9方法的一个或多个操作可以通过移动设备(设 备102(图1))、服务器(例如服务器170(图1))和/或应用程序(例 如应用程序160(图1))来执行。
如框902所示,该方法可以包括捕捉观看相机闪光灯的用户眼睛 的图像,并且接收与相机的定向、相机的传感器节距以及相机镜头的 EFL相关的信息。例如,应用程序160(图1)可以从相机118(图1) 接收包括第一反射和第二反射的捕获图像,并且可以接收相机118(图 1)的方位信息、传感器节距和相机118(图1)的EFL,例如如上所 述。
如框904所示,该方法可以包括估计从相机到用户脸部上的对象 的距离。例如,应用程序160(图1)可以例如使用来自3D传感器124 (图1)的信息、来自加速计128(图1)的加速信息和/或基于对象的 尺寸来估计相机118与参考对象之间的距离,例如如上所述。
如框906所示,该方法可以包括例如基于相机定向来计算包括对 象的对象平面与包括用户瞳孔的瞳孔平面之间的轴向偏移。例如,应 用程序160(图1)可以例如基于来自定向估计器128(图1)的定向 信息来确定对象平面与瞳孔平面之间的轴向偏移,例如如上所述。
如框908所示,该方法可以包括例如使用EFL和传感器节距基于 轴向距离和从相机到对象的测量距离来确定在瞳孔平面处的放大率。 例如,应用程序160(图1)可以例如基于轴向偏移量和从相机118(图 1)到对象的距离来确定瞳孔平面处的放大率,例如如上所述。
如框910所示,该方法可以包括识别用户眼睛上的闪光的第一反 射和第二反射,并测量第一反射与第二反射之间例如以像素为单位的 距离。例如,应用程序160(图1)可以估计第一反射与第二反射之间 例如以像素为单位的距离,例如如上所述。
如框912所示,该方法可以包括例如根据瞳孔平面处的放大率将 以像素为单位的距离转换成距离单位。例如,应用160(图1)可以估 计第一反射与第二反射之间的距离,例如如上所述。
如框914所示,该方法可包括调节用于眼睛辐辏的测量距离,例 如通过计算第一反射和第二反射将已成像的位置用于看向无限远的眼 睛,并基于调节将瞳孔间距设置为远距离眼镜。例如,应用程序160 (图1)可以例如基于距离τ来确定瞳孔距离PDinfinity,例如如上所述。
在一些说明性实施方式中,该方法可以可选地包括计算第一反射 和第二反射将已成像的位置用于眼睛旋转到近距离,例如45厘米的预 定义距离,并将近瞳孔距离设置为近视力。
在一些说明性实施方式中,确定用户PD的方法可以包括例如图9 的仅一些操作,例如而不包括图9方法的一个或多个其它操作。
在一些说明性实施方式中,例如如果相机与瞳孔之间的距离是已 知的或确定的,确定PD的方法可以例如甚至在不执行关于框906和/ 或908的上述操作中的一个或多个(例如全部)的情况下执行。
在一些说明性实施方式中,相机与瞳孔之间的距离可以例如基于 用户脸部的脸部未来的尺寸来确定。
在一个示例中,确定PD的方法可以包括校准和/或测量脸部特征 的尺寸,例如虹膜直径;使用相机闪光灯捕捉脸部图像;以及例如基 于脸部特征来确定从相机到瞳孔的距离。
在一些说明性实施方式中,校准和/或测量脸部特征可以例如通过 捕捉包括脸部对象和参考对象(例如信用卡)的图像,其可放置在用 户脸部上。
例如,用户可以用参考对象(例如信用卡)覆盖用户的一只眼睛, 例如以便能够校准另一只眼睛的虹膜的直径。
参照图10,其图解示出了根据一些说明性实施方式的确定用户PD 的方法。例如,图10方法的一个或多个操作可以由移动设备(设备 102(图1))、服务器(例如服务器170(图1))和/或应用程序(应用 程序160(图1))。
如框1002所示,该方法可以包括接收包括光源的光的第一反射和 第二反射的捕获图像,第一反射包括来自用户的第一瞳孔的光的反射。 例如,应用程序160(图1)可以接收包括第一反射和第二反射的捕获 图像,例如如上所述。
如框1004所示,当捕捉图像时,该方法可以包括基于捕获图像中 第一反射和第二反射的位置以及用于捕捉图像的相机与用户的瞳孔之 间的估计距离来确定瞳孔距离。例如,当捕捉图像时,应用程序160 (图1)可以基于捕获图像中第一反射和第二反射的位置以及设备102 (图1)与用户的瞳孔之间的估计距离来确定用户的瞳孔距离,例如 如上所述。
参照图11,其图解示出了根据一些说明性实施方式的制造产品 1000。产品1000可以包括一个或多个有形的计算机可读非暂时性存储 介质1102,其可以包括例如由逻辑1104实施的计算机可执行指令, 其可操作用于当由至少一个计算机处理器执行时使得至少一个计算机 处理器在设备102(图1)、服务器170(图1)和/或应用程序160(图 1)处实施一个或多个操作,和/或执行、触发和/或实施根据一个或多 个图1-10的一个或多个操作、通信和/或功能和/或本文中描述的一个 或多个操作。短语“非暂时性机器可读介质”旨在包括所有计算机可 读介质,唯一的例外是暂时传播信号。
在一些说明性实施方式中,产品1000和/或机器可读存储介质 1102可以包括能够存储数据的一种或多种类型的计算机可读存储介 质,包括易失性存储器、非易失性存储器、可移动或不可移动存储器、 可擦除或不可擦除存储器、可写或可重写存储器等。例如,机器可读 存储介质1102可以包括RAM、DRAM、双数据速率DRAM (DDR-DRAM)、SDRAM、静态RAM(SRAM)、ROM、可编程ROM (PROM)、可擦除可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)、光盘ROM(CD-ROM)、可记录光盘(CD-R)、可重写 光盘(CD-RW)、闪存(例如NOR或NAND闪存)、内容可寻址存储 器(CAM)、聚合物存储器、相变存储器、铁电存储器、硅氧化氮氧 化硅(SONOS)存储器、碟片、软盘、硬盘驱动器、光盘、磁盘、卡、 磁卡、光卡、磁带、盒式磁带等。计算机可读存储介质可以包括涉及 通过通信链路(例如调制解调器、无线电或网络连接)将由载波或其 他传播介质中包含的数据信号携带的计算机程序从远程计算机下载或 传输到请求计算机的任何合适的介质。
在一些说明性实施方式中,逻辑1104可以包括指令、数据和/或 代码,如果通过机器执行,其可以使机器执行如本文中所述的方法、 过程和/或操作。该机器可以包括例如任何合适的处理平台、计算平台、 计算设备、处理设备、计算系统、处理系统、计算机、处理器等,并 且可以使用硬件、软件、固件等的任何合适的组合来实施。
在一些说明性实施方式中,逻辑1104可以包括或者可以实施为软 件、软件模块、应用程序、程序、子程序、指令、指令集、计算代码、 字、值、符号等。指令可以包括任何合适类型的代码,比如源代码、 编译代码、解释代码、可执行代码、静态代码、动态代码等。指令可 以根据预定义的计算机语言、方式或语法来实现,用于指示处理器执 行某个功能。指令可以使用任何合适的高级别、低级别、面向对象、 可视化、编译和/或解释的编程语言来实施,比如C、C++、Java、BASIC、 Matlab、Pascal、Visual BASIC、汇编语言、机器代码等等。
示例
以下示例属于另外的实施方式。
示例1包括一种产品,该产品包括一个或多个有形的计算机可读 非临时性存储介质,该计算机可读非临时性存储介质包括可操作的计 算机可执行指令,以在其由至少一个计算机处理器执行时,使得至少 一个计算机处理器能够实施测量用户瞳孔之间的瞳孔距离的操作,该 操作包括接收包含光源的光的第一反射和第二反射的捕获图像,第一 反射包括来自用户的第一瞳孔的光的反射,第二反射包括来自用户的 第二瞳孔的光的反射;以及当捕捉图像时,基于捕获图像中第一反射 和第二反射的位置以及图像捕捉设备与用户瞳孔之间的估计距离来确 定瞳孔距离。
示例2包括示例1的主题,并且可选地,其中捕获图像包括用户 脸部上的对象,估计距离基于对象的一个或多个尺寸。
示例3包括示例2的主题,并且可选地,其中操作包括确定对象 与瞳孔之间沿垂直于包括对象的平面的轴线的轴向偏移,以及基于轴 向偏移来确定瞳孔距离。
示例4包括示例2或3的主题,并且可选地,其中估计距离基于 脸部特征的三维(3D)笛卡尔坐标。
示例5包括示例1-4中的任何一个的主题,并且可选地,其中估 计距离基于指示图像捕捉设备的加速度的加速信息。
示例6包括示例1-5中的任何一个的主题,并且可选地,其中操 作包括基于第一反射与第二反射之间的像素数量和像素的像素毫米 (mm)比来确定瞳孔距离。
示例7包括示例1-6中的任何一个的主题,并且可选地,其中操 作包括接收当捕捉图像时指示图像捕捉设备的定向的定向信息,以及 基于定向信息来确定瞳孔距离。
示例8包括示例7的主题,并且可选地,其中定向信息指示图像 捕捉设备的倾斜角度。
示例9包括示例1-8中的任何一个的主题,并且可选地,其中操 作包括基于图像捕捉设备的一个或多个属性来确定瞳孔距离。
示例10包括示例9的主题,并且可选地,其中一个或多个属性包 括从由以下各项组成的组中选择的至少一个属性:图像捕捉设备的镜 头的有效焦距(EFL)、图像捕捉设备的传感器的水平视场、传感器的 垂直视场、传感器的分辨率以及传感器的两个相邻像素之间的距离。
示例11包括示例1-10中的任何一个的主题,并且可选地,其中 操作包括基于眼睛半径参数和图像捕捉设备与包括瞳孔的平面之间的 距离来确定瞳孔距离。
示例12包括示例1-11中的任何一个的主题,并且可选地,其中 瞳孔距离包括近瞳孔距离或远瞳孔距离。
示例13包括配置为测量用户的瞳孔之间的瞳孔距离的移动设备, 该移动设备包括相机,以捕捉包括光源的光的第一反射和第二反射的 图像,该第一反射包括来自用户的第一瞳孔的光的反射,该第二反射 包括来自用户的第二瞳孔的光的反射;以及瞳孔距离计算器,以接收 捕获图像,并且当捕捉图像时,基于捕获图像中的第一改选和第二改 选的位置以及移动设备与瞳孔之间的估计距离来确定瞳孔距离。
示例14包括示例13的主题,并且可选地,其中捕获图像包括用 户脸部上的对象,估计距离基于对象的一个或多个尺寸。
示例15包括示例14的主题,并且可选地,其中移动设备配置为 确定对象与瞳孔之间沿垂直于包括对象的平面的轴线的轴向偏移,并 且基于轴向偏移来确定瞳孔距离。
示例16包括示例13-15中的任何一个的主题,并且可选地,其中 估计距离基于脸部特征的三维(3D)笛卡尔坐标。
示例17包括示例13-16中的任何一个的主题,并且可选地,其中 估计距离基于指示图像捕捉设备的加速度的加速信息。
示例18包括示例13-17中的任何一个的主题,并且可选地,其中 移动设备配置为基于第一反射与第二反射之间的像素数量和像素的像 素毫米(mm)比来确定瞳孔距离。
示例19包括示例13-18中的任何一个的主题,并且可选地,其中 移动设备配置为接收当捕捉图像时指示图像捕捉设备的定向的定向信 息,并且基于定向信息来确定瞳孔距离。
示例20包括示例19的主题,并且可选地,其中定向信息指示图 像捕捉设备的倾斜角度。
示例21包括示例13-20中的任何一个的主题,并且可选地,其中 移动设备配置为基于图像捕捉设备的一个或多个属性来确定瞳孔距 离。
示例22包括示例21的主题,并且可选地,其中一个或多个属性 包括从由以下各项组成的组中选择的至少一个属性:图像捕捉设备的 镜头的有效焦距(EFL)、图像捕捉设备的传感器的水平视场、传感器 的垂直视场、传感器的分辨率以及传感器的两个相邻像素之间的距离。
示例23包括示例13-22中的任何一个的主题,并且可选地,其中 操作包括基于眼睛半径参数和图像捕捉设备与包括瞳孔的平面之间的 距离来确定瞳孔距离。
示例24包括示例13-23中的任何一个的主题,并且可选地,其中 瞳孔距离包括近瞳孔距离或远瞳孔距离。
示例25包括一种测量用户的瞳孔之间的瞳孔距离的方法,该方法 包括接收包含光源的光的第一反射和第二反射的捕获图像,第一反射 包括来自用户的第一瞳孔的光的反射,第二反射包括来自用户的第二 瞳孔的光的反射;以及当捕捉图像时,基于捕获图像中第一反射和第 二反射的位置以及图像捕捉设备与用户瞳孔之间的估计距离来确定瞳孔距离。
示例26包括示例25的主题,并且可选地,其中捕获图像包括用 户脸部上的对象,估计距离基于对象的一个或多个尺寸。
示例27包括示例26的主题,并且可选地,包括确定对象与瞳孔 之间沿垂直于包括对象的平面的轴线的轴向偏移,以及基于轴向偏移 来确定瞳孔距离。
示例28包括示例26或27的主题,并且可选地,其中估计距离基 于脸部特征的三维(3D)笛卡尔坐标。
示例29包括示例25-28中的任何一个的主题,并且可选地,其中 估计距离基于指示图像捕捉设备的加速度的加速信息。
示例30包括示例25-29中的任何一个的主题,并且可选地,包括 基于第一反射与第二反射之间的像素数量和像素的像素毫米(mm)比 来确定瞳孔距离。
示例31包括示例25-30中的任何一个的主题,并且可选地,包括 接收当捕捉图像时指示图像捕捉设备的定向的定向信息,以及基于定 向信息来确定瞳孔距离。
示例32包括示例31的主题,并且可选地,其中定向信息指示图 像捕捉设备的倾斜角度。
示例33包括示例25-32中的任何一个的主题,并且可选地,包括 基于图像捕捉设备的一个或多个属性来确定瞳孔距离。
示例34包括示例33的主题,并且可选地,其中一个或多个属性 包括从由以下各项组成的组中选择的至少一个属性:图像捕捉设备的 镜头的有效焦距(EFL)、图像捕捉设备的传感器的水平视场、传感器 的垂直视场、传感器的分辨率以及传感器的两个相邻像素之间的距离。
示例35包括示例25-34中的任何一个的主题,并且可选地,包括 基于眼睛半径参数和图像捕捉设备与包括瞳孔的平面之间的距离来确 定瞳孔距离。
示例36包括示例25-35中的任何一个的主题,并且可选地,其中 瞳孔距离包括近瞳孔距离或远瞳孔距离。
示例37包括一种测量用户的瞳孔之间的瞳孔距离的装置,该装置 包括用于接收包含光源的光的第一反射和第二反射的捕获图像的装 置,第一反射包括来自用户的第一瞳孔的光的反射,第二反射包括来 自用户的第二瞳孔的光的反射;以及用于当捕捉图像时基于捕获图像 中第一反射和第二反射的位置以及图像捕捉设备与用户瞳孔之间的估 计距离来确定瞳孔距离的装置。
示例38包括示例37的主题,并且可选地,其中捕获图像包括用 户脸部上的对象,估计距离基于对象的一个或多个尺寸。
示例39包括示例38的主题,并且可选地,包括用于确定对象与 瞳孔之间沿垂直于包括对象的平面的轴线的轴向偏移并基于轴向偏移 确定瞳孔距离的装置。
示例40包括示例38或39的主题,并且可选地,其中估计距离基 于脸部特征的三维(3D)笛卡尔坐标。
示例41包括示例27-40中的任何一个的主题,并且可选地,其中 估计距离基于指示图像捕捉设备的加速度的加速信息。
示例42包括示例37-41中的任何一个的主题,并且可选地,包括 用于基于第一反射与第二反射之间的像素数量和像素的像素毫米 (mm)比来确定瞳孔距离的装置。
示例43包括示例37-42中的任何一个的主题,并且可选地,包括 用于接收当捕捉图像时指示图像捕捉设备的定向的定向信息并基于定 向信息来确定瞳孔距离的装置。
示例44包括示例43的主题,并且可选地,其中定向信息指示图 像捕捉设备的倾斜角度。
示例45包括示例37-44中的任何一个的主题,并且可选地,包括 用于基于图像捕捉设备的一个或多个属性来确定瞳孔距离的装置。
示例46包括示例45的主题,并且可选地,其中一个或多个属性 包括从由以下各项组成的组中选择的至少一个属性:图像捕捉设备的 镜头的有效焦距(EFL)、图像捕捉设备的传感器的水平视场、传感器 的垂直视场、传感器的分辨率以及传感器的两个相邻像素之间的距离。
示例47包括示例37-46中的任何一个的主题,并且可选地,包括 用于基于眼睛半径参数和图像捕捉设备与包括瞳孔的平面之间的距离 来确定瞳孔距离的装置。
示例48包括示例37-47中的任何一个的主题,并且可选地,其中 瞳孔距离包括近瞳孔距离或远瞳孔距离。
本文中参照一个或多个实施方式描述的功能、操作、组件和/或特 征可以与本文中参照一个或多个实施方式描述的一个或多个其他功 能、操作、组件和/或特征组合或可以与其结合使用,反之亦然。
虽然本文中已经说明和描述了某些特征,但是本领域技术人员可 以想到许多修改、替换、变化及等同物。因此,应该理解的是,所附 权利要求旨在涵盖属于本公开真实精神内的所有这些修改和变化。
Claims (6)
1.一种计算设备,包括:
一种非临时性计算机可读介质,包含可操作计算机可执行指令,
可由处理器执行时,使处理器能够执行测量用户位置之间距离的操作,说明包括:
确定计算设备的加速;
基于加速度计算计算设备的运动距离;
接收捕获的图像,包括人体内的第一个位置和第二个位置;和
根据捕获的图像中的第一个和第二个位置以及计算设备的移动
距离确定第一个位置和第二个位置之间的距离。
2.根据权利要求1所述的计算设备,其中计算装置还包括加速度计,其中确定计算装置的加速度包括接收来自加速度计的信号;
其中第一个位置和第二个位置之间的距离是人的瞳孔距离;
其中计算移动距离包括计算沿第一轴的第一个运动距离和第二轴的第二运动距离,其中第一轴和第二轴为正交;
其中指令还包括接收第二个捕获的人的身体图像,其中距离至少部分根据第二个捕获的图像确定;
其中距离至少部分基于捕获的图像和第二个捕获图像之间的放大率变化;
其中指令还包括接收来自3D传感器的信号,其中距离至少部分确定来自3D传感器的信号;
其中捕获的图像包括具有已知维度的对象,其中距离至少部分基于已知维度确定;
其中移动距离是平面之间的第一和第二位置的人和计算设备。
3.一种测量瞳孔距离的方法,该方法包括:
将电子设备定位在相对于个人第一个瞳孔和第二学生的第一位置,
以及包括加速度计和成像装置的电子设备;
使用加速度计测量电子设备的加速度数据时,将电子设备移动到相对于第一和第二瞳孔的第二个位置;
使用成像设备从第二位置捕获第一和第二学生的图像;
使用加速度数据计算第一个位置和第二个位置之间的距离;和
根据图像和第一个和第二位置之间的距离确定第一个瞳孔和第二个瞳孔之间的瞳孔距离。
4.根据权利要求3所述方法,其中第一个位置更接近第一和第二学生比第二个位置;
3第一个位置位于平面上,包括第一和第二学生;
进一步包括提供指令,将电子设备从第一个位置移动到第二个位置;
进一步包括捕捉第一和第二学生的第二个图像使用成像设备,其中
瞳孔距离至少部分基于第二图像确定;
其中使用加速度数据计算第一个和第二位置之间的距离包括集成随着时间的推移测量的加速度数据。
5.一种电子设备,包括:
处理器;
与处理器进行电子通信的加速度计;
与处理器进行电子通信的内存单元,包含非临时计算机可读电子指令,当处理器执行时,这些指令会导致处理器:
在人眼和电子设备之间设置初始位置;
指示用户或人员将电子设备移动到相对于眼睛的第二个位置;
测量电子设备相对于眼睛移动时电子设备的加速度;和
根据电子设备的加速度估计人的第一个位置与人的第二个位置之间的距离。
6.根据权利要求5所述的电子设备,其中指示用户将电子设备移离眼睛;
其中距离是一个瞳孔距离;
其中电子指令还包括获取第一和第二位置的图像,其中,人的第一个位置与人的第二个位置之间的距离根据图像进行估计;
其中电子指令还包括从3D传感器获取信号,其中,人的第一个位置和人的第二个位置之间的距离根据3D传感器的信号进行估计。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562159490P | 2015-05-11 | 2015-05-11 | |
US62/159,490 | 2015-05-11 | ||
CN201680040604.6A CN107847128B (zh) | 2015-05-11 | 2016-05-10 | 确定瞳孔距离的装置、系统和方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680040604.6A Division CN107847128B (zh) | 2015-05-11 | 2016-05-10 | 确定瞳孔距离的装置、系统和方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112674715A true CN112674715A (zh) | 2021-04-20 |
Family
ID=57249078
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680040604.6A Active CN107847128B (zh) | 2015-05-11 | 2016-05-10 | 确定瞳孔距离的装置、系统和方法 |
CN202011134236.6A Pending CN112674715A (zh) | 2015-05-11 | 2016-05-10 | 确定瞳孔距离的装置、系统和方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680040604.6A Active CN107847128B (zh) | 2015-05-11 | 2016-05-10 | 确定瞳孔距离的装置、系统和方法 |
Country Status (12)
Country | Link |
---|---|
US (2) | US10702149B2 (zh) |
EP (1) | EP3294112B1 (zh) |
JP (1) | JP6853188B2 (zh) |
KR (1) | KR102591132B1 (zh) |
CN (2) | CN107847128B (zh) |
AU (2) | AU2016261275B2 (zh) |
BR (1) | BR112017024157B1 (zh) |
CA (1) | CA2985315C (zh) |
IL (1) | IL255571B (zh) |
RU (1) | RU2722303C2 (zh) |
SG (1) | SG10201913884SA (zh) |
WO (1) | WO2016181308A1 (zh) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10670494B2 (en) * | 2015-05-10 | 2020-06-02 | 6 Over 6 Vision Ltd. | Apparatus, system and method of determining one or more optical parameters of a lens |
EP3294112B1 (en) | 2015-05-11 | 2024-08-28 | 6 Over 6 Vision Ltd. | Apparatus, system and method of determining a pupillary distance |
US9532709B2 (en) | 2015-06-05 | 2017-01-03 | Jand, Inc. | System and method for determining distances from an object |
US9770165B2 (en) | 2015-08-13 | 2017-09-26 | Jand, Inc. | Systems and methods for displaying objects on a screen at a desired visual angle |
US10799109B2 (en) | 2016-01-15 | 2020-10-13 | Jand, Inc. | Systems and methods for determining distance from an object |
US10036685B2 (en) | 2016-05-18 | 2018-07-31 | Jand, Inc. | Fixtureless lensmeter and methods of operating same |
US10557773B2 (en) | 2016-05-18 | 2020-02-11 | Jand, Inc. | Fixtureless lensmeter system |
US10413172B2 (en) | 2017-12-11 | 2019-09-17 | 1-800 Contacts, Inc. | Digital visual acuity eye examination for remote physician assessment |
CN109379586B (zh) * | 2019-01-16 | 2019-08-06 | 歌尔股份有限公司 | 摄像头模组的倾斜角度测试方法及装置 |
KR102184972B1 (ko) | 2019-02-01 | 2020-12-01 | 주식회사 룩시드랩스 | 동공 중심간 거리를 측정하는 장치 및 방법 |
US11064188B2 (en) * | 2019-07-29 | 2021-07-13 | Htc Corporation | Driving method for calculating interpupillary distance and related head-mounted device |
US11488239B2 (en) | 2019-08-26 | 2022-11-01 | Warby Parker Inc. | Virtual fitting systems and methods for spectacles |
EP4106984A4 (en) | 2020-02-21 | 2024-03-20 | Ditto Technologies, Inc. | EYEWEAR FRAME CONNECTION INCLUDING LIVE CONNECTION |
KR20230002738A (ko) | 2020-04-15 | 2023-01-05 | 와비 파커 인코포레이티드 | 참조 프레임을 사용하는 안경용 가상 시착 시스템 |
EP3913424A1 (de) | 2020-05-22 | 2021-11-24 | Carl Zeiss Vision International GmbH | Computerimplementiertes verfahren zur bestimmung von zentrierparametern für mobile endgeräte, mobiles endgerät und computerprogramm |
KR20230026421A (ko) * | 2020-06-17 | 2023-02-24 | 와비 파커 인코포레이티드 | 동공 거리 측정 시스템 및 방법과 그 용도 |
NL2031115B1 (en) * | 2022-03-01 | 2023-09-07 | Easee Health B V | Method and system for determining a pupillary distance for a person. |
CN115442525A (zh) * | 2022-08-31 | 2022-12-06 | 丁非 | 一种瞳距测量方法、系统、终端及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050068495A1 (en) * | 2003-09-30 | 2005-03-31 | Pentax Corporation | Method and device for measuring pupil distance |
CN103793719A (zh) * | 2014-01-26 | 2014-05-14 | 深圳大学 | 一种基于人眼定位的单目测距方法和系统 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5231674A (en) * | 1989-06-09 | 1993-07-27 | Lc Technologies, Inc. | Eye tracking method and apparatus |
JP3976925B2 (ja) * | 1999-02-22 | 2007-09-19 | 株式会社ニデック | 眼位置測定装置 |
US6535223B1 (en) * | 2000-05-31 | 2003-03-18 | Schmidt Laboratories, Inc. | Method and system for determining pupiltary distant and element height |
WO2005092173A1 (ja) * | 2004-03-26 | 2005-10-06 | Hoya Corporation | 眼鏡レンズ供給システム、眼鏡装用パラメータ測定装置、眼鏡装用検査システム、眼鏡レンズ及び眼鏡 |
GB0713461D0 (en) * | 2007-07-11 | 2007-08-22 | Ct Meter Ltd | Device and methods for obtaining measurements for spectacles fitting |
US8459792B2 (en) * | 2010-04-26 | 2013-06-11 | Hal E. Wilson | Method and systems for measuring interpupillary distance |
FR2980681A3 (fr) * | 2011-09-29 | 2013-04-05 | Fittingbox | Procede de determination des mesures oculaires et optiques d'interet pour la fabrication et le montage de verre de lunettes correcteurs, a l'aide d'une camera en contexte non controle |
EP2857939B1 (en) * | 2012-05-25 | 2018-08-29 | National University Corporation Shizuoka University | Pupil detection method, corneal reflex detection method, facial posture detection method, and pupil tracking method |
RU2550011C1 (ru) * | 2013-11-26 | 2015-05-10 | Общество с ограниченной ответственностью "Оптика-Центр" (ООО "Оптика-Центр") | Способ и устройство для монокулярного измерения межзрачкового расстояния |
EP3294112B1 (en) | 2015-05-11 | 2024-08-28 | 6 Over 6 Vision Ltd. | Apparatus, system and method of determining a pupillary distance |
-
2016
- 2016-05-10 EP EP16792276.4A patent/EP3294112B1/en active Active
- 2016-05-10 RU RU2017139578A patent/RU2722303C2/ru active
- 2016-05-10 SG SG10201913884SA patent/SG10201913884SA/en unknown
- 2016-05-10 BR BR112017024157-9A patent/BR112017024157B1/pt active IP Right Grant
- 2016-05-10 CA CA2985315A patent/CA2985315C/en active Active
- 2016-05-10 CN CN201680040604.6A patent/CN107847128B/zh active Active
- 2016-05-10 JP JP2017558632A patent/JP6853188B2/ja active Active
- 2016-05-10 CN CN202011134236.6A patent/CN112674715A/zh active Pending
- 2016-05-10 US US15/572,889 patent/US10702149B2/en active Active
- 2016-05-10 WO PCT/IB2016/052671 patent/WO2016181308A1/en active Application Filing
- 2016-05-10 AU AU2016261275A patent/AU2016261275B2/en active Active
- 2016-05-10 KR KR1020177035681A patent/KR102591132B1/ko active IP Right Grant
-
2017
- 2017-11-09 IL IL255571A patent/IL255571B/en unknown
-
2020
- 2020-07-06 US US16/921,840 patent/US11931105B2/en active Active
-
2021
- 2021-05-18 AU AU2021203178A patent/AU2021203178B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050068495A1 (en) * | 2003-09-30 | 2005-03-31 | Pentax Corporation | Method and device for measuring pupil distance |
CN103793719A (zh) * | 2014-01-26 | 2014-05-14 | 深圳大学 | 一种基于人眼定位的单目测距方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CA2985315A1 (en) | 2016-11-17 |
JP2018518233A (ja) | 2018-07-12 |
IL255571A (en) | 2018-01-31 |
BR112017024157A2 (pt) | 2018-07-17 |
AU2021203178B2 (en) | 2023-07-27 |
CA2985315C (en) | 2023-09-26 |
RU2722303C2 (ru) | 2020-05-28 |
KR102591132B1 (ko) | 2023-10-17 |
US20200397284A1 (en) | 2020-12-24 |
RU2017139578A (ru) | 2019-06-11 |
AU2016261275B2 (en) | 2021-02-18 |
EP3294112A4 (en) | 2019-01-30 |
AU2016261275A1 (en) | 2017-11-30 |
EP3294112A1 (en) | 2018-03-21 |
KR20180004271A (ko) | 2018-01-10 |
CN107847128A (zh) | 2018-03-27 |
AU2021203178A1 (en) | 2021-06-17 |
US10702149B2 (en) | 2020-07-07 |
US11931105B2 (en) | 2024-03-19 |
BR112017024157B1 (pt) | 2022-11-16 |
EP3294112B1 (en) | 2024-08-28 |
CN107847128B (zh) | 2020-11-10 |
WO2016181308A1 (en) | 2016-11-17 |
RU2017139578A3 (zh) | 2019-08-12 |
SG10201913884SA (en) | 2020-03-30 |
US20180140186A1 (en) | 2018-05-24 |
JP6853188B2 (ja) | 2021-03-31 |
IL255571B (en) | 2022-05-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107847128B (zh) | 确定瞳孔距离的装置、系统和方法 | |
CN107835935B (zh) | 确定镜片的一个或多个光学参数的装置、系统以及方法 | |
JP7541970B2 (ja) | レンズの1つ以上の光学パラメータを決定するための機器、システム、および方法 | |
CN113840566A (zh) | 确定被测眼睛的折射误差的一个或多个参数的装置、系统和方法 | |
CN113853518A (zh) | 确定镜片的一个或多个参数的装置、系统和方法 | |
CN115697183A (zh) | 用于测量瞳孔距离的系统和方法及其使用 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |