CN106999034B - 用于输出虚拟图像的可穿戴设备和方法 - Google Patents

用于输出虚拟图像的可穿戴设备和方法 Download PDF

Info

Publication number
CN106999034B
CN106999034B CN201580062656.9A CN201580062656A CN106999034B CN 106999034 B CN106999034 B CN 106999034B CN 201580062656 A CN201580062656 A CN 201580062656A CN 106999034 B CN106999034 B CN 106999034B
Authority
CN
China
Prior art keywords
information
light
distance
image
wearable device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201580062656.9A
Other languages
English (en)
Other versions
CN106999034A (zh
Inventor
姜盛云
裵在喆
安光德
罗麟鹤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN106999034A publication Critical patent/CN106999034A/zh
Application granted granted Critical
Publication of CN106999034B publication Critical patent/CN106999034B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • A61B3/005Constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/103Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • A61B3/112Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring diameter of pupils
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0081Simple or compound lenses having one or more elements with analytic function to create variable power
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues

Abstract

提供了一种可穿戴设备和通过该可穿戴设备输出虚拟图像的方法。该可穿戴设备包括:投影型显示单元,其包括可变透镜并且被配置为投射形成图像的光;第一传感器,其被配置为检测从用户的眼睛反射的光;以及处理器,其被配置为基于与检测到的光对应的视网膜图像信息,通过控制可变透镜的位置和可变透镜的屈光度中的一个来控制在投影型显示单元上显示虚拟图像。

Description

用于输出虚拟图像的可穿戴设备和方法
技术领域
本公开涉及包括投影型显示单元(称为投影型显示设备或投影仪)的电子设备。更具体地,本公开涉及一种用于通过使用投影型显示单元提供虚拟图像的方法和装置。
背景技术
根据输出图像信息的显示器的结构,可穿戴设备可以被划分为视频透视型和光学透视型。视频透视型对应于其中将通过相机获取的图像和由计算机提供的图像信息组合并将组合的图像提供给用户的类型。因此,用户仅借助于通过相机获取的图像识别周围环境,使得用户可以与实际的周围环境阻隔。光学透视型对应于其中由计算机提供的虚拟图像投射到由用户直接识别的周围环境的类型。因此,用户可与周围环境相协调。
发明内容
技术问题
当用户通过可穿戴设备观看对象时,用户可能感到头晕,并可能抱怨剧烈的疼痛,因为投影图像的深度不会根据实际对象的位置(短、中、长距离)而改变,即使关于实际图像的深度信息(或对象距离)和关于投影图像的深度信息不同。
因此,需要一种用于通过使用投影型显示单元提供虚拟图像的方法和装置。
上述信息仅为了帮助理解本公开而作为背景信息提出。关于本公开内容,对于是否有任何上述内容可能适用于现有技术,没有作出任何决定,并且没有进行声明。
问题的解决方案
本公开的方面至少将解决上述问题和/或缺点,并将提供至少下面描述的优点。因此,本公开的一个方面是提供一种用于提供虚拟图像以解决上述问题或其它问题的方法和装置。
根据本公开的一个方面,提供了一种通过可穿戴设备输出虚拟图像的方法。该方法包括:将光辐射到用户(或佩戴者)的眼睛,通过接收从视网膜反射的光获取视网膜图像信息,基于获取的视网膜图像信息计算晶状体的焦距,并且基于所计算的焦距确定用户的观看距离。
根据本公开的另一方面,提供了一种提供虚拟图像的方法。该方法包括:拍摄视网膜图像,基于关于拍摄的视网膜图像的信息计算晶状体的焦距,基于计算出的晶状体的焦距确定观看距离信息,以及基于所确定的观看距离信息通过调节可变透镜的位置或屈光度来显示虚拟图像。
根据本公开的另一方面,提供了一种通过包括投影型显示单元的可穿戴设备提供虚拟图像的方法。该方法包括:通过照明单元(或投影型显示单元)将照明光投射到用户的眼睛,检测从眼睛(或眼睛的视网膜)反射的光,获取与眼睛的观察点(或焦点)相关的观看距离信息,并且通过投影型显示单元在实际视图上显示虚拟图像,以将虚拟图像放置在与观察点(或观看距离信息)对应的距离处。
根据本公开的另一方面,提供了一种通过包括投影型显示单元的可穿戴设备提供虚拟图像的方法。该方法包括:通过照明单元将照明光投射到用户的眼睛,通过光接收单元检测从眼睛(或眼睛的视网膜)反射的光,基于关于检测到的光的视网膜图像信息来调节投影型显示单元内可变透镜的位置或屈光度,以及通过投影型显示单元的控制显示虚拟图像。
根据本公开的另一方面,提供了一种通过包括投影型显示单元的可穿戴设备提供虚拟图像的方法。该方法包括:通过投影型显示单元在可穿戴设备前方的实际视图上显示第一虚拟图像,调节投影型显示单元内可变透镜的位置或屈光度,并通过投影型显示单元在比第一虚拟图像的位置更远或更近的位置处显示第二虚拟图像。
根据本公开的另一方面,提供了一种通过可穿戴设备提供虚拟图像的方法。该方法包括:获取关于眼睛特征点的位置的信息和/或关于可穿戴设备的倾斜度的信息,基于关于特征点的位置的信息和/或关于可穿戴设备的倾斜度的信息来获取关于预设参考点和实际视图的观察点之间的距离的信息,以及在实际视图上显示虚拟图像以将虚拟图像放置在与关于距离的信息对应的虚拟对象距离处。
根据本公开的另一方面,提供了一种可穿戴设备。该可穿戴设备包括:投影型显示单元,其包括可变透镜并被配置为投射形成图像的光;第一传感器,其被配置为检测从用户(或佩戴者)的眼睛反射的光;以及处理器,其被配置为基于与检测到的光对应的视网膜图像信息,通过控制可变透镜的位置和可变透镜的屈光度中的一个来控制投影型显示单元显示虚拟图像。
根据本公开的另一方面,提供了一种可穿戴设备。可穿戴设备包括:投影型显示单元,其被配置为投射形成图像的光;以及处理器,其被配置为将照明光投射到用户的眼睛上,检测从眼睛(或眼睛的视网膜)反射的光,基于关于检测到的光的视网膜图像信息来获取与眼睛的观察点(或焦点)相关的观看距离信息,并且通过投影型显示单元在实际视图上显示虚拟图像(或第一或第二虚拟图像),以将虚拟图像放置在与观看距离信息对应的距离处。
根据本公开的另一方面,提供了一种可穿戴设备。可穿戴设备包括:投影型显示单元,其被配置为投射形成图像的光;以及处理器,其被配置为将照明光投射到用户的眼睛上,检测从眼睛(或眼睛的视网膜)反射的光,基于关于检测到的光的视网膜图像信息来获取与眼睛的观察点(或焦点)相关的观看距离信息,并且通过投影型显示单元在实际视图上显示虚拟图像(或第一或第二虚拟图像),以将虚拟图像放置在与观看距离信息对应的距离处。
根据本公开的另一方面,提供了一种可穿戴设备。可穿戴设备包括:投影型显示单元,其被配置为通过照明单元将照明光投射到用户的眼睛上;以及处理器,其被配置为通过光接收单元检测从眼睛(或眼睛的视网膜)反射的光,基于关于检测到的光的视网膜图像信息来调节投影型显示单元内可变透镜的位置或屈光度,并通过投影型显示单元的控制显示虚拟图像。
根据本公开的另一方面,提供了一种可穿戴设备。可穿戴设备包括投影型显示单元,其被配置为投射形成图像的光;以及处理器,其被配置为通过投影型显示单元在可穿戴设备前方的实际视图上显示第一虚拟图像,通过投影型显示单元投射照明光到用户的眼睛上,通过投影型显示单元检测从眼睛(或眼睛的视网膜)反射的光,基于关于检测到的光的视网膜图像信息来调节投影型显示单元内可变透镜的位置或屈光度,并且通过投影型显示单元在比第一虚拟图像的位置更远或更近的位置处显示第二虚拟图像。
根据本公开的另一方面,提供了一种可穿戴设备。可穿戴设备包括:投影型显示单元,其被配置为投射形成图像的光;以及处理器,其被配置为通过投影型显示单元在可穿戴设备前方的实际视图上显示第一虚拟图像,调节投影型显示单元内可变透镜的位置或屈光度,以及通过投影型显示单元在比第一虚拟图像的位置更远或更近的位置处显示第二虚拟图像。
根据本公开的另一方面,提供了一种可穿戴设备。可穿戴设备包括:投影型显示单元,其被配置为投射形成图像的光;以及处理器,其被配置为获取关于眼睛特征点的位置的信息和/或关于可穿戴设备的倾斜度的信息,基于关于特征点的位置的信息和/或关于可穿戴设备的倾斜度的信息来获取关于预设参考点和实际视图的观察点之间的距离的信息,并且在实际视图上显示虚拟图像以将虚拟图像放置在与关于距离的信息对应的虚拟对象距离处。
从下面结合附图公开了本公开的各种实施例的详细描述中,本公开的其它方面、优点和显著特征对于本领域技术人员将变得显而易见。
本发明的有益效果
根据本公开的各种实施例,通过当用户观看短距离对象时投射短距离图像,通过当用户观看中间距离对象时投射中间距离图像,并且当用户观看长距离对象时投射长距离图像,电子设备的用户可能不会感到头晕。
附图说明
从以下结合附图的描述中,本公开的某些实施例的上述和其它方面、特征和优点将更加明显,在附图中:
图1是图示根据本公开的实施例的可穿戴设备的透视图;
图2图示了根据本公开的实施例的第一投影型显示单元;
图3a和3b图示了根据本公开的各种实施例控制眼睛焦点;
图4a和4b图示了根据本公开的各种实施例由可变透镜调节虚拟对象距离;
图5a和5b图示了根据本公开的各种实施例的可变透镜;
图5c和5d图示了根据本公开的各种实施例的可变透镜;
图6图示了根据本公开的实施例的第一投影型显示单元;
图7a和7b图示了根据本公开的各种实施例的可变透镜;
图7c图示了根据本公开的实施例的可变透镜;
图8图示了根据本公开的实施例的第一投影型显示单元透镜;
图9图示了根据本公开的实施例的第一投影型显示单元透镜;
图10图示了根据本公开的实施例的第一投影型显示单元透镜;
图11图示了根据本公开的实施例的第一投影型显示单元透镜;
图12图示了根据本公开的实施例的透镜驱动器;
图13图示了根据本公开的实施例的第一投影型显示单元透镜;
图14图示了根据本公开的实施例的第一投影型显示单元透镜;
图15图示了根据本公开的实施例的第一投影型显示单元透镜;
图16图示了包括根据本公开的实施例的电子设备的网络环境;
图17是图示根据本公开的实施例的提供虚拟图像的方法的流程图;
图18是图示根据本公开的实施例的提供可穿戴设备的模块的虚拟图像的框图;
图19是图示根据本公开的实施例的提供虚拟图像的方法的流程图;以及
图20a、20b和20c图示了根据本公开的各种实施例的提供虚拟图像的方法;
图21图示了根据本公开的各种实施例的提供虚拟图像的方法;
图22是图示根据本公开的实施例的提供虚拟图像的方法的流程图;以及
图23是图示根据本公开的实施例的提供虚拟图像的方法的流程图;以及
图24是图示根据本公开的实施例的提供虚拟图像的方法的流程图;以及
图25是图示根据本公开的实施例的提供虚拟图像的方法的流程图;以及
图26图示了根据本公开的实施例的提供虚拟图像的方法。
图27图示了根据本公开的实施例的第一传感器(或照明单元/光接收单元);
图28图示了根据本公开的实施例的第一投影型显示单元;
图29图示了根据本公开的实施例的第一投影型显示单元;
图30图示了根据本公开的实施例的第一投影型显示单元;
图31是图示根据本公开的实施例的根据各种实施例提供虚拟图像的方法的流程图;
图32图示了根据本公开的实施例的提供虚拟图像的方法。
图33是图示根据本公开的实施例的提供虚拟图像的方法的流程图;
图34是图示根据本公开的实施例的提供虚拟图像的方法的流程图;以及
图35图示了根据本公开的实施例的使用照明光来确定观看距离的方法。
在整个附图中,应当注意,相同的附图标记用于描绘相同或相似的元件、特征和结构。
具体实施方式
提供了参考附图的以下描述以帮助全面了解由权利要求及其等同物限定的本公开的各种实施例。它包括各种具体细节以帮助这种理解,但这些细节将被视为仅仅是示例性的。因此,本领域普通技术人员将认识到,可以对本文所述的各种实施例进行各种改变和修改,而不脱离本公开的范围和主旨。此外,为了清楚和简明,可以省略对公知功能和结构的描述。
以下描述和权利要求中使用的术语和词语不限于书面意义,而是仅由发明人使用以使得能够清楚和一致地理解本公开内容。因此,本领域技术人员应当明白,本公开的各种实施例的以下描述仅用于说明的目的,而不是为了限制由所附权利要求及其等同物限定的本公开的目的。
要理解的是,除非上下文另有明确规定,否则单数形式“一”、“一个”和“该”包括复数指示物。因此,例如,“部件表面”的指代包括对这种表面中的一个或多个的指代。
通过术语“基本上”,意指所记载的特征、参数或值不需要精确地实现,而是包括例如公差、测量误差、测量精度限制和本领域中技术人员已知的其它因素的偏差或变化可以以不排除特征旨在提供的效果的量发生。
如本文所使用的,表述“具有”、“可以具有”、“包括”或“可以包括”是指存在相应的特征(例如,数字、功能、操作或构成元素,诸如部件),并且不排除一个或多个附加特征。
如本文所使用的,表述“A或B”、“A和/或B中的至少一个”或“A和/或B中的一个或多个”可以包括一起列举的项目的任何或所有可能的组合。例如,表述“A或B”、“A和B中的至少一个”或“A或B中的至少一个”可以包括(1)至少一个A,(2)至少一个B或(3)至少一个A和至少一个B二者。
在本公开的各种实施例中使用的表述“第一”、“第二”、“所述第一”或“所述第二”可以修饰各种部件,而不管顺序和/或重要性,但不限制对应的部件。上述表达仅用于将元件从其它元件区分的目的。例如,第一用户设备和第二用户设备指示不同的用户设备,尽管它们二者都是用户设备。例如,第一元件可以被称为第二元件,并且类似地,第二元件可以被称为第一元件,而不脱离本公开的范围。
当提及一个元件(例如,第一元件)“(可操作地或通信地)与另一个元件(例如,第二元件)耦合”,或连接到另一个元件(例如,第二元件)时,应当解释为一个元件直接连接到另一元件,或者一个元件经由又另一元件(例如,第三元件)间接连接到另一元件。相反,可以理解,当元件(例如,第一元件)被称为“直接连接”或“直接耦合”到另一元件(例如,第二元件)时,不存在例如介于它们之间的第三元件。
在本公开中使用的表述“配置为”可以根据情况与例如“适合”、“具有能力”、“设计为”、“适于”、“制造为”或“能够”交换。术语“配置为”可以不一定意味着在硬件中“专门设计为”。可替代地,在一些情况下,表述“设备被配置为”可以意味着该设备与其它设备或部件一起“能够”。例如,短语“适于(或配置为)执行A、B和C的处理器”可以意味着仅用于执行对应操作的专用处理器(例如,嵌入式处理器)或可以通过执行存储在存储设备中的一个或多个软件程序来执行对应操作的通用处理器(例如,中央处理单元(CPU)或应用处理器(AP))。
本文使用的术语仅仅是为了描述特定实施例的目的,并不旨在限制其它实施例的范围。如本文所使用的,单数形式也可以包括复数形式,除非上下文另有明确指出。除非另有定义,否则本文使用的所有术语(包括技术和科学术语)具有与本公开所属领域的技术人员通常理解的含义相同的含义。在通常使用的字典中定义的这些术语应被解释为具有与本领域相关领域中的语境含义相同的含义,并且不被解释为具有理想化或过度形式化的含义,除非在本公开中明确定义。在一些情况下,即使本公开中定义的术语也不应被解释为排除本公开的实施例。
在下文中,将参考附图描述根据各种实施例的电子设备。如本文所使用的,术语“用户”可以指示使用电子设备的人或使用电子设备的设备(例如,人工智能电子设备)。
图1是图示根据本公开的实施例的可穿戴设备的透视图。
参考图1,可穿戴设备101可以具有眼镜的整体外观,并且可以被称为可穿戴电子设备、电子设备、便携式终端、移动终端、可穿戴型设备、显示设备、智能眼镜等。
可穿戴设备101可以包括壳体10、第一和第二窗口90和95、第一和第三传感器191和193、电源按钮151、触摸传感器152以及第一和第二光导单元30和35。
壳体10可以包括可穿戴设备101其中的一些部件,并且可穿戴设备101的一些部件可以安装到壳体10以向外部暴露。
壳体10可以包括前框架11,面向用户的右眼和左眼的第一和第二窗口90和95被固定到该前框架11;以及从前框架11的两端延伸的第一和第二框架12和13。用户的右眼和左眼可以被称为第一眼和第二眼。第一和第二窗口90和95可以被称为第一和第二眼镜。
第一传感器191、相机模块110和照明传感器194可以设置在前框架11的后表面和前表面上,并且电源按钮151和触摸传感器152可以进一步设置在前框架11的上表面和侧表面上。
第一传感器191可以设置在前框架11的后表面上以面向用户的眼睛,并且可以将照明光(例如,红外光或激光)辐射到用户的眼睛,并且检测从用户的眼睛反射的照明光。第一传感器191可以将通过拍摄用户的眼睛生成的图像输出到可穿戴设备101的处理器。
照明传感器194检测可穿戴设备101的环境光的量。此外,照明传感器194可以根据处理器120的控制将与检测到的照明(或亮度)对应的照明信号发送到处理器120。
根据本公开的实施例,第一传感器191可以包括用于将照明光投射到用户的眼睛中的照明单元(或光源或发光单元),以及用于检测从眼睛(或眼睛的视网膜)反射的光的光接收单元。第一传感器191可以将指示反射光的信号/数据(例如,图像)输出到处理器120。例如,第一传感器191可以以图像的形式检测反射光并将图像输出到处理器120。
根据本公开的实施例,处理器120可以计算由照明传感器194检测到的光的量以确定瞳孔的尺寸,并且可以计算与眼睛的观察点相关的观看距离信息。观察点可以指用户正在查看的实际视图上的点或对象。
根据本公开的实施例,处理器120可以基于关于检测到的光(或检测到的光的图像)的视网膜图像信息来获取与眼睛的观察点(或焦点)相关的观看距离信息。处理器120可以在实际视图(或视图的光学图像)上显示虚拟图像,以将虚拟图像放置在与观看距离信息对应的距离处。
根据本公开的实施例,处理器120通过向光接收单元输出驱动信号来驱动光接收单元(相机)。在从朝向瞳孔投射的照明光之中从视网膜反射的光穿透光接收单元的透镜和光圈并到达光接收单元的图像传感器(例如,电荷耦合器件(CCD)或互补金属氧化物半导体CMOS)时,将关于入射到透镜的光的强度和图像的区域的信息记录在图像传感器中。此时,由图像传感器拍摄的图像的光可以通过图像传感器中包括的感光元件转换成电信号。所拍摄的图像由图像传感器使用被转换的电信号生成。此时,通过拍摄从视网膜反射的光获取的视网膜图像信息(例如,视网膜反射表面尺寸信息或关于图像信号处理器(ISP)传感器或图像传感器的像素信息)可以包括关于被拍摄图像的尺寸信息、区域信息、位置信息、图案信息和亮度(或亮度分布)中的至少一条。例如,每条信息可以包括对应的值、对应的范围或对应的级别(或指示其中之一的标识符/代码)。此外,光接收单元可以是红外相机和可见光相机中的一个。
根据本公开的实施例,观看距离信息可以包括使用第三传感器(例如,第三传感器193)的距离测量信息、基于关于晶状体的焦距信息计算出的对象距离信息、基于视网膜图像信息计算出的视网膜反射表面(即,照射光入射和反射的视网膜的一些区域)的尺寸信息(即,散焦尺寸)、关于晶状体的倍率信息、屈光度信息、曲率(或曲率半径)信息以及厚度信息中的至少一条。
例如,每条信息可以包括对应的值、对应的范围或对应的级别(或指示其中之一的标识符/代码)。
根据本公开的实施例,第一传感器191中的至少一些可以设置在图16的第一和/或第二投影型显示单元161和162的外部或内部,并且可以包括在图16的第一和/或第二投影型显示单元161和162中。
第三传感器193设置在向前的前框架11的前表面上(即,面向前),并且可以从可穿戴设备101向前辐射红外光或激光,并且检测从实际对象反射的红外光或激光。第三传感器193可以将指示第三传感器193和实际对象之间的距离的检测信号输出到可穿戴设备101的处理器。
相机模块110设置在前框架11的前表面上以面向前,并且可以将通过拍摄可穿戴设备101的前景(即,前面的周围场景或周围环境)生成的图像输出到处理器。
第一传感器191和相机模块110中的每一个可以包括透镜系统和图像传感器。第一传感器191和相机模块110中的每一个可以将通过透镜系统接收(或拍摄)的光转换为电图像信号,并将转换的信号输出到处理器。第一传感器191和相机模块110中的每一个可以拍摄动态图像或静止图像。可以提供相机模块110以通过用户的运动或手势接收用户输入。
透镜系统可以通过使从外部接收的光会聚而形成摄影主体的图像。透镜系统包括一个或多个透镜,并且每个透镜可以是凸透镜、非球面透镜等。透镜系统可以具有基于通过中心的光轴的对称性,并且光轴可以被定义为中心轴。图像传感器可以检测由通过透镜系统接收的外部光形成的光学图像作为电图像信号。图像传感器可以包括以M×N的矩阵结构排列的多个像素单元,并且像素单元可以包括光电二极管和多个晶体管。像素单元可以累积由接收的光生成的电荷,并且通过累积电荷的电压可以指示所接收的光的照明(或亮度)。当处理包括在静止图像或动态图像中的一个图像时,从图像传感器输出的图像信号可以包括从像素单元输出的一组电压(即,像素值),并且图像信号可以指示一帧(即,静止图像)。此外,该帧可以由M×N个像素组成。可以采用CCD图像传感器或CMOS图像传感器作为图像传感器。
图像传感器可以根据从处理器接收到的控制信号来操作图像传感器的所有像素或者在所有像素中仅感兴趣区域中的像素,并且可以将从像素输出的图像数据输出到处理器。
电源按钮151可以设置在前框架11的顶表面上,并且可穿戴设备101可以通过电源按钮151由用户输入打开/关闭。
触摸传感器152可以设置在前框架11的侧表面上,并且可以检测至少一个触摸/悬停输入并将输入信息发送到处理器。例如,用户可以通过用户的身体部分(例如,手指)或其它触摸装置(例如,电子笔)触摸传感器152,并且触摸传感器152可以接收用户的触摸输入。此外,触摸传感器152可以根据连续的触摸运动接收输入(即,滑动/拖动输入)。触摸输入信息可以包括触摸坐标和/或触摸状态。触摸状态可以是其中触摸传感器152被按压的状态、其中手指与触摸传感器152分离的状态、或其中当触摸传感器152被按压时进行滑动的拖动状态。处理器可以检测用户输入信息,诸如来自触摸输入信息的菜单项或项目或写入输入的选择或移动,并且执行对应于用户输入信息的功能(例如,呼叫连接、相机摄影、消息写入/查看和/或数据传输)。
触摸不限于触摸传感器152和触摸输入装置之间的接触,并且可以包括非接触(例如,当触摸传感器152和触摸输入装置彼此分离时)。非接触触摸输入可以被称为悬停输入。触摸传感器152可以通过电阻型、电容型、红外型、声波型、电磁共振(EMR)型或其组合来实现。
触摸传感器152可以具有指纹检测功能,并且当用户的手指接触触摸传感器152的表面时,可以生成与手指的指纹图案对应的指纹信息。此外,触摸传感器152可以具有开关结构并生成根据用户按压的按压检测数据。触摸传感器152可以将生成的指纹数据和/或按压检测数据输出到处理器。可替代地,触摸传感器152可以通过检测用户的指纹输入方向来生成指纹输入方向数据,并将生成的指纹输入方向数据输出到处理器。例如,指纹信息可以包括指纹图案信息和指纹输入方向信息。
处理器可以由从触摸传感器152接收到的指纹信息识别用户的指纹。处理器可以将至少一个指纹和至少一个可执行功能或用户映射,并将映射的信息存储在可穿戴设备101的存储器中。此外,存储器可以存储预先注册的用户指纹信息,并且处理器可以在存储器中搜索与从触摸传感器152接收的指纹信息匹配的指纹信息,并且确定被映射到找到的指纹信息的用户或功能。当功能被映射到找到的指纹信息时,处理器可以执行所映射的功能。
可执行功能可以是解锁功能、应用程序执行功能、用户帐户改变功能、多媒体控制功能等。
解锁功能可以对应于通过指纹输入解锁可穿戴设备101的功能。例如,当在一定时间内没有接收到用户输入时,处理器可以限制可穿戴设备101的功能的执行。解锁功能是解除对功能的执行的限制的功能。应用程序执行功能可以对应于执行游戏应用程序、SNS应用程序、文档写入应用程序、多媒体应用程序等的功能,或者通过电话呼叫应用程序、消息应用程序等自动连接到预设联系人的功能。用户帐户改变功能可以对应于选择多个用户账户中的一个的功能。多媒体控制功能可以对应于显示控制菜单(诸如音量控制菜单或播放菜单)的功能、控制音量的功能(诸如音量增加、音量减小或静音)、或控制多媒体的功能(诸如倒带、快进、暂停或播放)。
第一光导单元30可以被包括在第一投影型显示单元中并且设置在用户的右眼和第一窗口90之间,并且可以将形成图像的光投射到右眼中。
第二光导单元35可以被包括在第二投影型显示单元中并且设置在用户的左眼和第二窗口95之间,并且可以将形成图像的光投射到左眼中。
由于第一和第二投影型显示单元具有相同的配置,因此下面将代表性地描述第一投影型显示单元的配置。此外,投影型显示单元可以被称为投影仪。
根据本公开的实施例,可穿戴设备101可以包括第一和第二投影型显示单元中的仅一个,并且第一传感器191可以被包括在第一和第二投影型显示单元之一中或单独提供。
根据本公开的实施例,第一和第二投影型显示单元中的至少一个和/或第一传感器191可以固定到可穿戴设备101,或者可以以可安装和分离的可移除模块的形式提供。
根据本公开的实施例,可穿戴设备101可以固定到眼镜上,或者可以以可安装和分离的可移除模块的形式提供。
图2图示了根据本公开的实施例的第一投影型显示单元。
参考图2,第一投影型显示单元161a可以包括显示元件210和光导单元30a。光导单元30a可以包括光导元件220a和可变透镜240a。类似地,第二投影型显示单元可以包括显示元件和光导单元,并且光导单元可以包括光导元件和可变透镜。
显示元件210可以将形成图像的第一光201输出到光导元件220a。显示元件210可以具有四边形平板的形式。显示元件210可以根据从处理器输入的数据以像素为单位显示图像。显示元件210可以包括与预设分辨率对应的像素元件,并且通过驱动像素元件来显示图像。例如,显示元件210可以包括以M×N(例如,1190×720、854×480等)矩阵结构排列的像素元件。显示元件210可以是发光二极管(LED)、有机发光二极管(OLED)、液晶显示器(LCD)、硅上液晶(LCOS)等。
光导元件220a可以包括第一至第五表面221至225a。光导元件220a可以通过内反射(或内部全反射)朝向可变透镜240a引导从显示元件210接收的第一光201。
第一表面221可以与面向显示元件210的光导元件220a的后表面的一部分对应,并且可以允许从显示元件210接收的第一光201从中通过朝向第二表面222。
第二表面222与位于第一表面221和第三表面223之间的光导元件220a的第一侧表面对应,并且可以将已经穿透第一表面221的第一光201朝向第三表面223或第四表面224反射。
第三表面223对应于光导元件220a的面向第一窗口90的前表面,第四表面224对应于光导元件220a的面向用户的后表面的剩余部分,并且第三和第四表面223和224可以反射(或全反射)接收到的第一光201,以使第一光201到达第五表面225a。全反射意味着从光导元件220的内部由光导元件220a和外部空气层之间的边界表面(即,第三或第四表面223或224)接收的第一光201从边界表面被全反射。
第五表面225a对应于光导元件220a位于第三表面223a和第四表面224之间的第二侧表面,并且可以允许接收到的第一光201从中通过朝向可变透镜240a,并且朝向用户的眼睛反射从可变透镜240a接收的第一光201。第五表面225a可以允许形成可穿戴设备101的前视图(或视图的光学图像)的第二光202从中通过朝向用户的眼睛。
光导元件220a可以包括具有均匀厚度的第三和第四光学表面223和224之间的主体部分232a;第一和第二表面221和222之间的第一倾斜部分231,其厚度从其中的一端(或从主体部分232a的一端)到其中的另一端逐渐减小;以及第三和第四表面223和224之间的第二倾斜部分233a,其厚度从其中的一端(或从主体部分232a的另一端)到其中的另一端逐渐减小。第二倾斜部分233a可以具有与面向可变透镜240a和用户眼睛的斜面对应的第五表面225a。
可变透镜240a可以包括用于允许接收的第一光201从中通过的穿透表面241、用于折射接收到的第一光201的折射表面242、以及用于反射接收到的第一光201的反射表面243a。折射表面242的形状(或形式)或曲率可以根据处理器的控制而变化。通过根据折射表面242的形状(或形式)或曲率中的变化来调节入射到用户眼睛的第一光201(即,入射光)的角度,可变透镜240a可以控制在可穿戴设备(例如可穿戴设备101)前方的实际视图(或视图的光学图像)上显示的虚拟图像上的位置(或用户的眼睛和虚拟对象之间的虚拟对象距离)。
图3a和3b图示了根据本公开的各种实施例控制眼睛焦点。
参考图3a和3b,用户的眼睛310包括晶状体311和视网膜312。
晶状体311根据晶状体311期望聚焦的对象的距离(即,对象距离)来改变其表面(前表面和后表面中的每一个)的曲率。当晶状体311变薄时(即,当表面的曲率小时),眼睛聚焦在长距离对象上,并且当晶状体311变厚时(即,当表面的曲率大时),将其聚焦在短距离对象上。
参考图3a,晶状体311变薄(或表面的曲率减小),并且眼睛310聚焦在长距离对象320上。从长距离对象320出发的光325平行于眼睛310的光轴前进入射到晶状体311,并且晶状体311折射光325以使光325会聚在视网膜312上。例如,晶状体311用于在视网膜312上形成长距离对象320的图像。例如,当长距离对象320(或对象的图像)处于焦点(即,在聚焦状态中)时,长距离对象距晶状体311的距离可以被称为第一对象距离(OD1),并且视网膜312距晶状体311的距离可以被称为图像距离(ID)。对象距离和ID可以是沿着眼睛的光轴测量的距离。
参考图3b,晶状体311变厚(或表面的曲率增加),并且眼睛310聚焦在短距离对象330上。从短距离对象330出发的光335沿眼睛310的光轴313发散(或扩散)以入射到晶状体311,并且晶状体311折射光335以使光335会聚在视网膜312上。例如,晶状体311用于在视网膜上形成短距离对象330的图像。例如,当短距离对象(或短距离对象的图像)处于焦点时,短距离对象330距晶状体311的距离可以被称为第二对象距离(OD2),并且视网膜312距晶状体311的距离可以被称为ID。
由于晶状体根据对象的距离而变化并聚焦,所以ID是恒定的,并且对象距离根据对象的距离中的变化在聚焦状态中变化。
用户眼睛所示的对象可以是实际对象或虚拟对象(例如,显示元件上的图像)。
当眼睛聚焦短距离对象时,短距离对象的图像被清晰地形成(即,在聚焦状态中),并且长距离对象的图像被模糊地形成(即,不在焦点状态)。
相反,当眼睛聚焦在长距离对象上时,长距离对象的图像被清晰地形成(即,在聚焦状态中),并且短距离对象的图像被模糊地形成(即,不在焦点上)。
例如,当长距离实际对象和显示关于实际对象的信息的短距离虚拟对象彼此重叠时,增强现实的集中度可能恶化或用户可能感到头晕。
图4a和4b图示了根据本公开的各种实施例由可变透镜来调节虚拟对象距离。
参考图4a和4b,通过根据可变透镜240a的控制来调节入射到用户眼睛310的第一光411的入射角度,可变透镜240a可以控制在可穿戴设备(例如,可穿戴设备101)前方的实际视图(或视图的光学图像)上显示的虚拟图像(或用户眼睛310和用户识别的虚拟对象421之间的虚拟对象距离)的位置。
参考图4a,晶状体311变薄,并且眼睛聚焦在长距离实际对象320上。从长距离实际对象320出发的第二光325平行于眼睛310的光轴313前进,并穿透光导元件220a的第五表面225a以入射到晶状体311,并且晶状体311折射第二光325以使第二光325会聚在视网膜312上。例如,晶状体311用于在视网膜上形成实际对象320的图像。
可变透镜240a可以将第一光411投射到第五表面225a上。从第五表面225a反射的第一光411平行于眼睛310的光轴313前进入射到晶状体311,并且晶状体311折射第一光411以使第一光411会聚在视网膜312上。例如,晶状体透镜311用于在视网膜上形成虚拟对象421的图像。例如,当实际对象320(或实际对象320的图像)处于焦点时,实际对象320(或实际对象320的图像)和虚拟对象421(或虚拟对象421的图像)可具有相同的OD1和相同的ID。
参考图4b,晶状体311变厚,并且眼睛聚焦在短距离实际对象330上。从短距离实际对象330出发的第二光335在沿着眼睛310的光轴313发散(或扩散)时前进,并且穿透光导元件220a的第五表面225a以入射到晶状体311,并且晶状体311折射第二光335以使第二光335会聚在视网膜312上。例如,晶状体311用于在视网膜312上形成实际对象330的图像。可变透镜240a可将第一光412投射到第五表面225a上。从第五表面225a反射的第一光412在沿着眼睛310的光轴313发散(或扩散)时前进入射到晶状体311,并且晶状体311折射第一光412以使第一光412会聚在视网膜312上。例如,晶状体311用于在视网膜312上形成虚拟对象422的图像。例如,当实际对象330(或实际对象330的图像)处于焦点时,实际对象330(或实际对象330的图像)和虚拟对象422(或虚拟对象422的图像)可具有相同的OD2和相同的ID。
图5a和5b图示了根据本公开的各种实施例的可变透镜。
参考图5a,可变透镜240a可以包括第一和第二基板510和530、第一和第二电极540和550以及第一和第二液体521和522。
第一基板510可以是透明平板,并且可以允许从光导元件220a接收的第一光560从中通过。第一基板510的前表面可以对应于穿透表面241。
第二基板530可以是透明或不透明的平板,并且可以将已顺序地穿透第一基板510、第一液体521和第二液体522的第一光560朝向光导元件220a反射。第二基板530的前表面可以对应于反射表面243a。
第一电极540可以形成在第一基板510的后表面的边缘上。可以在第一电极540的表面上形成具有电绝缘特性的第一绝缘层545。
第二电极550可以形成在第二基板530的前表面的边缘上。可以在第二电极550的表面上形成具有电绝缘特性的第二绝缘层555。
第一液体521和第二液体522可以注入可变透镜540a的内部空间中,并且可以设置在第一基板510和第二基板530之间。第一液体521和第二液体522可以不混合,并且第二液体522的折射率可以大于第一液体521的折射率。例如,第一液体521可以是水,并且第二液体522可以是油。第一液体521和第二液体522之间的交界面可以对应于折射表面242。
处理器可以通过调节施加到第一电极540和第二电极550的电压来控制折射表面242的形状(形式)(或折射表面242的屈光度或曲率)。例如,屈光度可以被定义为关于平行光的焦距的倒数。例如,第一电极540连接到地面(或接地电极/线/电缆),并且根据处理器的控制信号的控制电压可以施加到第二电极550。例如,凹折射表面具有负(-)曲率(或曲率半径),并且凸折射表面具有正(+)曲率(或曲率半径)。曲率对应于曲率半径的倒数。在对应于非球面的折射表面的情况下,曲率可以指折射表面的峰值曲率(或其中折射表面和光轴相交的点)。
例如,当从第一基板510的侧面观察到折射表面242为凹状时,可变透镜240a可以执行与双凹透镜的功能相同的功能。与光轴平行前进的第一光560可以穿透第一基板510,并且以更远离光轴244的方向首先从折射表面242折射,并且第一光560可以从反射表面243a反射。反射的第一光560可以以更远离光轴244的方向在折射表面242上再次折射,并且再次折射的第一光可以穿透第一基板510。
参考图5b,例如当从第一基板510侧观察到折射表面242为凸状时,可变透镜240a可以执行与双凸透镜的功能相同的功能。平行于光轴244前进的第一光565可以穿透第一基板510并且以更靠近光轴244的方向首先从折射表面242折射,并且第一光565可以从反射表面243a反射。反射的第一光565可以以更靠近光轴244的方向在折射表面242上再次折射,并且再次折射的第一光565可以穿透第一基板510。
图5c和5d图示了根据本公开的各种实施例的可变透镜。
参考图5c,可变透镜240d可以包括第一和第二基板572和586、绝缘层574、多个电极EL1、EL2和EL3、第一和第二取向膜(或层)576和584、液晶层578,以及密封剂582。
第一和第二基板572和586中的每一个可以用塑料或玻璃形成。
绝缘层574可以设置在第一基板572的表面(或顶表面)上,并且可以用具有绝缘性(或电绝缘性)的有机材料或无机材料形成。
多个电极EL1、EL2和EL3可以设置在第一基板572的表面(或顶表面)上并且设置在绝缘层574内。电极可以用诸如氧化铟锡(ITO)的透明导电材料形成。
第一取向膜576可以设置在绝缘层574的表面(或顶表面)上,并且可以执行预倾在液晶层578内的液体分子580的功能。
液晶层578可以设置在第一取向膜576的表面(或顶表面)上,并且可以包括多个液晶分子580,其取向根据由多个电极EL1、EL2和EL3施加的电场的强度来控制。
第二取向膜584可以设置在液晶层578的表面(或顶表面)上,并且可以执行预倾在液晶层578内的液体分子580的功能。
第二基板586可以设置在第二取向膜584的表面(或顶表面)上。
密封剂582可以设置在第一和第二取向膜576和584之间以围绕液晶层578的侧表面,并且可以执行密封液晶层578的功能。
反射入射的第一光590的反射表面588(或反射层)可以设置在第一取向膜576和绝缘层574之间(或第一取向膜576、绝缘层574以及第一基板572中的一个的表面)。
尽管未示出,例如,可以在第二基板586和第二取向膜584中的一个的表面上设置以平板形式的无图案接地电极。
根据本公开的实施例,第一光590可以从外部入射到第一基板572,并且接地电极可以执行反射表面的功能,或者反射表面可以设置在第二基板586和第二取向膜584中的一个的表面上。
处理器可以通过调节施加到多个电极EL1、EL2和EL3的电压来控制液晶分子580的取向。
例如,处理器可以通过增大或减小施加到多个电极EL1、EL2和EL3的电压来控制液晶分子580的取向或倾斜角的分布(或简况)。施加到电极EL1、EL2和EL3的电压可以随着电极在液晶层578的宽度方向中远离液晶层578的中心来定位而增大或减小。根据电压的增大(或减小),随着液晶分子580远离中心而定位,基于第一基板572的表面(或顶表面)的液晶分子580的倾斜角可以增大(或减小)。例如,中心处的液晶分子580可以被布置成使得随着最低电压施加到第一电极EL1,其长轴平行于第一基板572的表面。在宽度方向上位于液晶层578的中心与边缘之间的液晶分子580可以被布置为使得随着中间电压施加到第二电极EL2,其长轴具有与第一基板572的表面不是直角的斜度。边缘处的液晶分子580可以被布置成使得随着最高电压施加到第三电极EL3,其长轴与第一基板572的表面具有直角。
在图5d中,横轴指示根据液晶层578的宽度方向的位置,纵轴指示折射率。P1表示与第一电极EL1对应的位置,P2表示与第二电极EL2对应的位置,并且P3表示与第三电极EL3对应的位置。
参考图5d,随着位置基于液晶层578的宽度方向从中心朝向边缘变化,基于第一基板572的表面(或顶表面)的液晶分子580的倾斜角可以逐渐增加,并且施加到多个电极EL1、EL2和EL3的电压增加。根据随着位置从中心朝向边缘变化而在液晶分子580的倾斜角中的逐渐增加,液晶层578的折射率可能逐渐降低。在如图5d中所示的折射率分布中,可变透镜240d可以执行与双凸透镜功能相同的功能。根据本公开的实施例,随着位置从中心朝向边缘变化,通过降低施加到多个电极EL1、EL2和EL3的电压,处理器可控制可变透镜240d以执行与双凹透镜功能相同的功能。
参考图5c,第一光590顺序地穿透第二基板586和第二取向膜584,并且首先以更靠近液晶层578的光轴594的方向折射,并且第一光590可以从反射表面588反射。反射的第一光590可以以更靠近液晶层578的光轴594的方向再次折射,并且再次折射的第一光590可以顺序地穿透第二取向膜584和第二基板586。
根据本公开的实施例,可变透镜240d可以代替图5a中所示的可变透镜240a。
图6图示了根据本公开的实施例的第一投影型显示单元。
参考图6,第一投影型显示单元161b具有与图2中所示的第一投影型显示单元161a的配置相似的配置,并且仅有的不同之处在于可变透镜的配置和位置变化,并且在图6中进一步包括反射镜。因此,将省略重复的描述。
第一投影型显示单元161b可以包括显示元件210和光导单元30b。光导单元30b可以包括光导元件220a、反射镜610和可变透镜240b。
第一表面221可以与朝向可变透镜240b的光导元件220a的后表面的一部分对应,并且可以允许在从显示元件210输出并且穿透可变透镜240b之后被接收的第一光601朝向第二表面222从中通过。
第五表面225a与位于第三和第四表面223和224之间的光导元件220a的第二侧表面对应,并且可以允许接收到的第一光601朝向反射镜610从中通过,并且朝向用户的眼睛反射从反射镜610接收的第一光601。第五表面225a可允许形成可穿戴设备101的前视图(或视图的光学图像)的第二光602朝向用户的眼睛从中通过。
反射镜610可以包括反射表面612,并且反射表面612可以将从光导元件220a接收的第一光601朝向第五表面225a反射。反射表面612可以是具有恒定曲率(或曲率半径)的非球面或球面。
可变透镜240b可以包括用于允许从显示元件210输出之后接收的第一光601从中通过的第一穿透表面241、用于折射已经穿透了穿透表面241的第一光601的折射表面242、以及用于允许已经穿透折射表面242的第一光601从中通过的第二穿透表面243b。折射表面242的形状(或形式)或曲率可以根据处理器的控制而变化。通过根据折射表面242的形状(或形式)或曲率中的变化来调节入射到用户的眼睛的第一光601的入射角,可变透镜240b可以控制在可穿戴设备(例如可穿戴设备101)前方的实际视图(或视图的光学图像)上显示的虚拟图像的位置(或用户的眼睛和虚拟对象之间的虚拟对象距离)。
图7a和7b图示了根据本公开的各种实施例的可变透镜。
参考图7a和7b,可变透镜240b具有与图5a中所示的可变透镜240a的配置相似的配置,并且仅有的不同之处在于在图7a中利用第二穿透表面代替反射表面。因此,将省略重复的描述。
参考图7a,可变透镜240b可以包括第一和第二基板510和530b、第一和第二电极540和550以及第一和第二液体521和522。
第一基板510可以是透明平板,并且可以允许从光导元件220接收的第一光701从中通过。第一基板510的前表面可以对应于第一穿透表面241。
第二基板530b可以是透明平板,并且可以允许已经穿透第一基板510、第一液体521和第二液体522的第一光701从中通过。第二基板530b的前表面和后表面中的每一个可以对应于第二穿透表面243b。
第一电极540可以形成在第一基板510的后表面上。第一绝缘层545可以形成在第一电极540的表面上。
第二电极550可以形成在第二基板530b的前表面上。第二绝缘层555可以形成在第二电极550的表面上。
第一液体521和第二液体522可以注入到可变透镜240b的内部空间中,并且可以被设置在第一基板510和第二基板530b之间。第一液体521和第二液体522可以不混合,并且第二液体522的折射率可以大于第一液体521的折射率。例如,第一液体521可以是水,而第二液体522可以是油。第一液体521和第二液体522之间的交界面可以对应于折射表面242。
处理器可以通过调节施加到第一电极540和第二电极550的电压来控制折射表面242的形状(或形式)。例如,第一电极540连接到地面(或接地电极/线/电缆),并且根据处理器的控制信号的控制电压可以施加到第二电极550。
例如,当折射表面242从第一基板510的侧面观察为凹状时,可变透镜240b可以执行与凹透镜(或平凹透镜)的功能相同的功能。与光轴244平行前进的第一光701可以穿透第一基板510并以更远离光轴244的方向折射,并且折射的第一光701可以穿透第二基板530b。
参考图7b,例如当从第一基板510的侧面观察到折射表面242为凸状时,可变透镜240b可以执行与双凸透镜的功能相同的功能。平行于光轴244前进的第一光702可以穿透第一基板510并且以更靠近光轴244的方向在折射表面242上折射,并且折射的第一光702可以穿透第二基板530b。
图7c图示了根据本公开的实施例的可变透镜。
参考图7c,可变透镜240e具有与图5b中所示的可变透镜240d的配置相似的配置,并且仅有的不同之处在于在图7b中移除了反射表面。因此,将省略重复的描述。
可变透镜240e可以包括第一和第二基板572和586、绝缘层574、多个电极EL1、EL2和EL3、第一和第二取向膜(或层)576和584、液晶层578以及密封剂582。
第一光595可以顺序地穿透第二基板586和第二取向膜584,并且以更靠近光轴594的方向在液晶层578上折射。折射的第一光595可以顺序地穿透第一取向膜576、绝缘层574以及第一基板572。
根据本公开的实施例,可变透镜240e可以代替图7a中所示的可变透镜240b。
图8图示了根据本公开的实施例的第一投影型显示单元。
参考图8,第一投影型显示单元161c具有与图6中所示的第一投影型显示单元161b的配置相似的配置,并且仅有的不同之处在于,反射镜被移除并且第五表面用作图8中的反射表面。因此,将省略重复的描述。
第一投影型显示单元161c可以包括显示元件210和光导单元30c。光导单元30c可以包括光导元件220b和可变透镜240b。
第五表面225b与位于第三和第四表面223和224之间的光导元件220b的第二侧表面对应,并且可以朝向用户的眼睛反射入射的第一光801。第五表面225b可允许形成可穿戴设备101的前视图(或视图的光学图像)的第二光602朝向用户的眼睛从中通过。
光导元件220b可以包括:具有均匀厚度的第三和第四光学表面223和224之间的主体部分232a;第一和第二表面221和222之间的第一倾斜部分231,其厚度从其中的一端(或从主体部分232a的一端)到其中的另一端逐渐减小;以及第三和第四表面223和224之间的第二倾斜部分233b,其厚度从其中的一端(或从主体部分232a的另一端)到其中的另一端逐渐减小。第二倾斜部分233b可以具有与面向可穿戴设备101前方的视图的倾斜表面对应的第五表面225b。
图9图示了根据本公开的实施例的第一投影型显示单元。
参考图9,第一投影型显示单元161d具有与图6中所示的第一投影型显示单元161b的配置相似的配置,并且仅有的不同之处在于,可变透镜的位置在图9中变化。因此,将省略重复的描述。
第一投影型显示单元161d可以包括显示元件210和光导单元30d。光导单元30d可以包括光导元件220c、反射镜610以及可变透镜240b。
第一表面221可以与面向显示元件210的光导元件220c的后表面的一部分对应,并且可以允许从显示元件210接收的第一光901朝向第二表面222从中通过。
第三表面223与面向第一窗口90的光导元件220c的前表面对应,第四表面224与面向用户的后表面的光导元件220c的剩余部分对应,并且第三和第四表面223和224可以反射(或全反射)所接收的第一光901以使第一光901到达第五表面225a。
光导元件220c可以包括:具有均匀厚度的第三和第四光学表面223和224之间的主体部分232b;第一和第二表面221和222之间的第一倾斜部分231,其厚度从其中的一端(或从主体部分232b的一端)到其中的另一端逐渐减小;以及第三和第四表面223和224之间的第二倾斜部分233a,其厚度从其中的一端(或从主体部分232b的另一端)到其中的另一端逐渐减小。
可变透镜240b可以插入到主体部分232b的中间。主体部分232b可以包括容纳可变透镜240b的凹槽或孔,或者包括彼此分离的两个部分。可变透镜240b可以包括用于允许在主体部分232b内部前进的第一光901从中通过的第一穿透表面241,用于折射已经穿透了穿透表面241的第一光的折射表面242,以及用于允许已经穿透折射表面242的第一光901从中通过的第二穿透表面243b。折射表面242的形状(或形式)或曲率可以根据处理器的控制而变化。通过根据折射表面242的形状(或形式)或曲率中的变化来调节入射到用户的眼睛的第一光901的入射角,可变透镜240b可以控制在可穿戴设备(例如,可穿戴设备101)前方的实际视图(或视图的光学图像)上显示的虚拟图像的位置(或用户的眼睛和虚拟对象之间的虚拟对象距离)。
图10图示了根据本公开的实施例的第一投影型显示单元。
参考图10,第一投影型显示单元161e具有与图8中所示的第一投影型显示单元161c的配置相似的配置,并且仅有不同的之处在于可变透镜的位置在图10中变化。因此,将省略重复的描述。
第一投影型显示单元161e可以包括显示元件210和光导单元30e。光导单元30e可以包括光导元件220d和可变透镜240b。
第一表面221可以与面向显示元件210的光导元件220d的后表面的一部分对应,并且可以允许从显示元件210接收的第一光1001朝向第二表面222从中通过。
第三表面223对应于光导元件220d的面向第一窗口90的前表面,第四表面224对应于光导元件220d的面向用户的后表面的剩余部分,并且第三和第四表面223和224可以反射(或全反射)接收到的第一光1001以使第一光1001到达第五表面225b。
光导元件220d可以包括:具有均匀厚度的第三和第四光学表面223和224之间的主体部分232b;第一和第二表面221和222之间的第一倾斜部分231,其厚度从其中的一端(或从主体部分232b的一端)到其中的另一端逐渐减小;以及第三表面223和第四表面224之间的第二倾斜部分233b,其厚度从其中的一端(或从主体部分232b的另一端)到其中的另一端逐渐减小。第二倾斜部分233b可以具有与面向可穿戴设备101前方的视图的倾斜表面对应的第五表面225b。
可变透镜240b可以插入到主体部分232b的中间。主体部分232b可以包括容纳可变透镜240b的凹槽或孔,或者包括彼此分离的两个部分。可变透镜240b可以包括用于允许在主体部分232b内部前进的第一光从中通过的第一穿透表面241、用于折射已经穿透了穿透表面241的第一光的折射表面242、以及用于允许已经穿透折射表面242的第一光从中通过的第二穿透表面243b。折射表面242的形状(或形式)或曲率可以根据处理器的控制而变化。通过根据折射表面242的形状(或形式)或曲率中的变化来调节入射到用户的眼睛的第一光1001的入射角,可变透镜240b可以控制在可穿戴设备(例如,可穿戴设备101)前方的实际视图(或视图的光学图像)上显示的虚拟图像的位置(或用户的眼睛和虚拟对象之间的虚拟对象距离)。
图11图示了根据本公开的实施例的第一投影型显示单元。
参考图11,第一投影型显示单元161f具有与图6中所示的第一投影型显示单元161b的配置相似的配置,并且仅有的不同之处在于可变透镜的配置变化,并且在图12中所示的透镜驱动器1200进一步被包括在图11中。因此,将省略重复的描述。参考图11,未图示透镜驱动器1200。
第一投影型显示单元161f可以包括显示元件210、光导单元30f以及透镜驱动器1200。光导单元30f可以包括光导元件220a、反射镜610以及可变透镜240c。
第一表面221可以与面向可变透镜240c的光导元件220a的后表面的一部分对应,并且可以允许在从显示元件210输出并且穿透可变透镜240c之后被接收的第一光1101朝向第二表面222从中通过。
第五表面225a与位于第三和第四表面223和224之间的光导元件220a的第二侧表面对应,并且可以由接收的第一光1101朝向反射镜610穿透,并且朝向用户的眼睛反射从反射镜610接收的第一光1101。第五表面225a可允许形成可穿戴设备101的前视图(或视图的光学图像)的第二光602朝向用户的眼睛从中通过。
反射镜610可以包括反射表面612,并且反射表面612可以朝向第五表面225a反射从光导元件220a接收的第一光1101。反射表面612可以是具有恒定曲率(或曲率半径)的非球面或球面。
可变透镜240c可以包括第一子透镜245和第二子透镜246,第一子透镜245用于首先折射从显示元件210输出之后接收的第一光1101,第二子透镜246用于再次折射首先折射的第一光1101的。第一和第二子透镜245和246之间的距离可以根据处理器的控制而变化。通过根据第一和第二子透镜245和246之间的距离中的变化来调节入射到用户的眼睛的第一光1101的入射角,可变透镜240c可以控制在可穿戴设备(例如,可穿戴设备101)前方的实际视图(或视图的光学图像)上显示的虚拟图像的位置(或用户的眼睛和虚拟对象之间的虚拟对象距离)。
图12图示了根据本公开的实施例的透镜驱动器。
参考图12,透镜驱动器1200可以包括第一和第二支撑部分1210和1220、引导件1230以及致动器1240。
第一子透镜245被固定到第一支撑部分1210的一端,并且第一支撑部分1210的另一端被固定到引导件1230。
第二子透镜246被固定到第二支撑部分1220的一端,并且第二支撑部分1220的另一端被固定到引导件1230以可移动。
致动器1240可以包括向前和向后可移动的臂1250,并且臂1250可以被固定到第二支撑部分1220。致动器1240可以在引导件1230的长度方向中移动臂1250,以与根据处理器的控制信号的距离或位置对应。
图13图示了根据本公开的实施例的投影型显示单元。
参考图13,第一投影型显示单元161g具有与图8中所示的第一投影型显示单元161c的配置相似的配置,并且仅有的不同之处在于,可变透镜的配置变化并且在图12中所示的透镜驱动器1200进一步被包括在图13中。因此,将省略重复的描述。参考图13,未图示透镜驱动器1200。
第一投影型显示单元161g可以包括显示设备210、光导单元30g以及透镜驱动器1200。光导单元30g可以包括光导元件220b和可变透镜240c。
第一表面221可以与面向可变透镜240c的光导元件220b的后表面的一部分对应,并且可以允许在从显示元件210输出并且穿透可变透镜240c之后被接收的第一光1301朝向第二表面222从中通过。
第五表面225b与位于第三和第四表面223和224之间的光导元件220b的第二侧表面对应,并且可以将入射的第一光1301朝向用户的眼睛反射。第五表面225可允许形成可穿戴设备101的前视图(或视图的光学图像)的第二光602朝向用户的眼睛从中通过。
光导元件220b可以包括:具有均匀厚度的第三和第四光学表面223和224之间的主体部分232a;第一和第二表面221和222之间的第一倾斜部分231,其厚度从其中的一端(或从主体部分232a的一端)到其中的另一端逐渐减小;以及第三和第四表面223和224之间的第二倾斜部分233b,其厚度从其中的一端(或从主体部分232a的另一端)到其中的另一端逐渐减小。第二倾斜部分233b可以具有与面向可穿戴设备101前方的视图的倾斜表面对应的第五表面225b。
可变透镜240c可以包括第一子透镜245和第二子透镜246,第一子透镜245用于首先折射从显示元件210输出之后接收的第一光1301,第二子透镜246用于再次折射首先折射的第一光1301。第一和第二子透镜245和246之间的距离可以根据处理器的控制而变化。通过根据第一和第二子透镜245和246之间的距离的变化来调节入射到用户的眼睛的第一光1301的入射角,可变透镜240c可以控制在可穿戴设备(例如,可穿戴设备101)前方的实际视图(或视图的光学图像)上显示的虚拟图像的位置(或用户的眼睛和虚拟对象之间的虚拟对象距离)。
图14图示了根据本公开的实施例的第一投影型显示单元。
参考图14,第一投影型显示单元161h具有与图9中所示的第一投影型显示单元161d的配置相似的配置,并且仅有的不同之处在于可变透镜的配置在图14中变化。因此,将省略重复的描述。
第一投影型显示单元161h可以包括显示元件210、光导单元30h以及图12中所示的透镜驱动器1200。光导单元30h可以包括光导元件220c、反射镜610和可变透镜240c。
第三表面223与面向第一窗口90的光导元件220c的前表面对应,第四表面224与面向用户的光导元件220c的后表面的剩余部分对应,并且第三和第四表面223和224可以反射(或全反射)所接收的第一光1401,以使第一光1401到达第五表面225a。
光导元件220c可以包括:具有均匀厚度的第三和第四光学表面223和224之间的主体部分232b;第一和第二表面221和222之间的第一倾斜部分231,其厚度从其中的一端(或从主体部分232b的一端)到其中的另一端逐渐减小;以及第三表面223和第四表面224之间的第二倾斜部分233a,其厚度从其中的一端(或从主体部分232b的另一端)到其中的另一端逐渐减小。
可变透镜240c可以插入到主体部分232b的中间。主体部分232b可以包括容纳可变透镜240c的凹槽或孔,或包括彼此分离的两个部分。
可变透镜240c可以包括第一子透镜245和第二子透镜246,第一子透镜245用于首先折射在主体部分232b内部前进的第一光1401,第二子透镜246用于再次折射首先折射的第一光1401。第一和第二子透镜245和246之间的距离可以根据处理器的控制而变化。通过根据第一和第二子透镜245和246之间的距离的变化来调节入射到用户的眼睛的第一光1401的入射角,可变透镜240c可以控制在可穿戴设备(例如,可穿戴设备101)前方的实际视图(或视图的光学图像)上显示的虚拟图像的位置(或用户的眼睛和虚拟对象之间的虚拟对象距离)。
图15图示了根据本公开的实施例的第一投影型显示单元。
参考图15,第一投影型显示单元161i具有与图10中所示的第一投影型显示单元161e的配置相似的配置,并且仅有的不同之处在于可变透镜的配置变化。因此,将省略重复的描述。
第一投影型显示单元161i可以包括显示元件210、光导单元30i以及图12中所示的透镜驱动器1200。光导单元30i可以包括光导元件220d和可变透镜240c。
第一表面221可以与面向显示元件210的光导元件220d的后表面的一部分对应,并且可以允许从显示元件210接收的第一光1501朝向第二表面222从中通过。
第三表面223与面向第一窗口90的光导元件220d的前表面对应,第四表面224与面向用户的光导元件220d的后表面的剩余部分对应,并且第三和第四表面223和224可以反射(或全反射)接收到的第一光1501,以使第一光1501到达第五表面225b。
光导元件220d可以包括:具有均匀厚度的第三和第四光学表面223和224之间的主体部分232b;第一和第二表面221和222之间的第一倾斜部分231,其厚度从其中的一端(或从主体部分232b的一端)到其中的另一端逐渐减小;以及第三和第四表面223和224之间的第二倾斜部分233b,其厚度从其中的一端(或主体部分232b的另一端)到其中的另一端逐渐减小。第二倾斜部分233b可以具有与面向可穿戴设备101前方的视图的倾斜表面对应的第五表面225b。
可变透镜240c可以插入到主体部分232b的中间。主体部分232b可以包括容纳可变透镜240c的凹槽或孔,或包括彼此分离的两个部分。
可变透镜240c可以包括第一子透镜245和第二子透镜246,第一子透镜245用于首先折射在主体部分232b内部前进的第一光1501第二子透镜246用于再次折射首先折射的第一光1501。第一和第二子透镜245和246之间的距离可以根据处理器的控制而变化。通过根据第一和第二子透镜245和246之间的距离的变化来调节入射到用户的眼睛的第一光1501的入射角,可变透镜240c可以控制在可穿戴设备(例如,可穿戴设备101)前方的实际视图(或视图的光学图像)上显示的虚拟图像的位置(或用户的眼睛和虚拟对象之间的虚拟对象距离)。
图16图示了包括根据本公开的实施例的可穿戴设备的网络环境。
参考图16,描述了根据各种实施例的网络环境100内的可穿戴设备101。可穿戴设备101可以包括相机模块110、处理器120、总线121、存储器130、输入/输出接口150、显示器160、通信接口170以及传感器模块190。根据本公开的一些实施例,可穿戴设备101可以省略至少一些上述部件或者进一步包括其它部件。
总线121可以包括例如用于连接部件110至130并且在部件之间发送通信(例如,控制消息和/或数据)的电路。
处理器120可以包括CPU、AP和通信处理器(CP)中的一个或多个。处理器120可以例如控制可穿戴设备101的一个或多个其它部件和/或处理与通信有关的操作或数据。处理器120可以被称为控制器,或者可以包括作为其一部分的控制器或构成控制器的一部分。
存储器130可以包括易失性存储器和/或非易失性存储器。存储器130可以存储例如与可穿戴设备101的一个或多个其它部件相关的命令或数据。根据本公开的实施例,存储器130可以存储软件和/或程序140。程序140可以包括内核141、中间件143、应用程序编程接口(API)145和/或应用程序(或“应用”)147。内核141、中间件143和API 145中的至少一些可以被称为操作系统(OS)。
内核141可以控制或管理用于执行由其它程序(例如,中间件143、API145或应用147)实现的操作或功能的系统资源(例如,总线121、处理器120或存储器130)。此外,内核141可以提供接口,中间件143、API 145或应用程序147可以通过该接口访问可穿戴设备101的各个部件来控制或管理系统资源。
中间件143可以用作例如中介,使得API 145或应用程序147与内核141通信以发送/接收数据。此外,关于从应用程序147接收的任务请求,中间件143可以使用例如分配用于使用可穿戴设备101的系统资源(例如,总线121、处理器120或存储器130)的优先级到至少一个应用的方法,执行任务请求的控制(例如,调度或负载平衡)。
API 145是应用147控制从内核141或中间件143提供的功能所通过的接口,并且可以包括例如用于文件控制、窗口控制、图像处理、文本控制等中的至少一个接口或功能(例如,命令)。
例如,输入/输出接口150可以用作可以将从用户或另一外部设备输入的命令或数据传送到可穿戴设备101的其它部件的接口。此外,输入/输出接口150可将从可穿戴设备101的其它部件接收的命令或数据输出到用户或另一外部设备。输入/输出接口150可以包括电源按钮151、触摸传感器152、麦克风以及扬声器。
显示器160可以包括第一和第二投影型显示单元161和162,并且每个投影型显示单元可以将形成虚拟对象的图像(即虚拟图像)的光投射到用户的眼睛上。显示器160可以被称为显示单元。
通信接口170可以设置例如可穿戴设备101和外部设备(例如,第一外部电子设备102、第二外部电子设备104或服务器106)之间的通信。例如,通信接口170可以通过无线或有线通信连接到网络162,以与外部设备(例如,第二外部电子设备104或服务器106)通信。通信接口170可以被称为通信单元或通信模块。例如,通信接口170可以执行与第一外部电子设备102的直接通信164。
无线通信可以使用例如作为蜂窝通信协议的例如LTE、LTE-A、CDMA、WCDMA、UMTS、WiBro和GSM中的至少一个。有线通信可以包括例如通用串行总线(USB)、高分辨率多媒体接口(HDMI)、推荐标准232(RS-232)和普通老式电话服务(POTS)中的至少一个。网络162可以包括诸如计算机网络(例如,LAN或WAN)、因特网和电话网络的通信网络中的至少一个。
第一外部电子设备102和第二外部电子设备104中的每一个可以是与可穿戴设备101相同类型或不同类型的设备。根据本公开的实施例,服务器106可以包括一组一个或多个服务器。根据本公开的各种实施例,由可穿戴设备101执行的所有或一些操作可以由另一电子设备或多个电子设备(例如,第一外部电子设备102或第二外部电子设备104或服务器106)执行。根据本公开的实施例,当可穿戴设备101自动地或通过请求应当执行某些功能或服务时,可穿戴设备101可以向另一设备(例如,电子设备102或第二外部电子设备104或服务器106)发出用于执行与该功能或服务相关的功能中的至少一些功能的请求,而不是自己执行该功能或服务。另一电子设备(例如,第一外部电子设备102或第二外部电子设备104或服务器106)可以执行所请求的功能或附加功能,并将其结果传送到可穿戴设备101。可穿戴设备101可以基于接收到的结果或在另外处理接收的结果之后提供所请求的功能或服务。为了实现这一点,例如,可以使用云计算、分布式计算或客户端-服务器计算技术。
根据本公开的实施例,服务器106可以通过实施在可穿戴设备101中实现的操作(或功能)中的至少一个来支持对可穿戴设备101的驱动。例如,服务器106可以包括可以支持可穿戴设备101的虚拟图像提供服务器模块108。虚拟图像提供服务器模块108可以执行(作为代理)由处理器120执行的操作中的至少一个。
传感器模块190可以包括第一至第三传感器191至193。
第一传感器191可以被设置在前框架11的后表面上以面向用户的眼睛,并且可以向用户的眼睛辐射红外光并且检测从用户的眼睛反射的红外光。第一传感器191可以将通过拍摄用户的眼睛生成的图像输出到处理器120。处理器120可以通过从第一传感器191接收的图像获取关于眼睛特征点(例如,瞳孔)的位置的信息。
第二传感器192可以检测可穿戴设备101的倾斜度并将指示倾斜度的检测信号输出到可穿戴设备101的处理器。第二传感器192可以包括陀螺仪传感器或倾斜度传感器。
第三传感器193被设置在前框架11的前表面上以面向前方,并且可以将红外光或激光辐射到可穿戴设备101的前方,并且检测从实际对象反射的红外光或激光。第三传感器193可以将指示第三传感器193和实际对象之间的距离的检测信号输出到可穿戴设备101的处理器120。
图17是图示根据本公开的实施例的提供虚拟图像的方法的流程图。
参考图17,提供虚拟图像的方法可以包括操作1710至1730。
在操作1710中,可穿戴设备(例如,可穿戴设备101)的处理器(例如,处理器120)可以通过投影型显示单元(例如,第一投影型显示单元161a)在可穿戴设备前方的实际视图(或视图的光学图像)上显示第一虚拟图像。
例如,处理器可以通过投影式显示单元在与实际视图内的第一对象的位置对应的位置处(例如,与实际视图内的第一对象的位置相同或接近的位置)显示第一虚拟图像。
在另一示例中,处理器可以通过投影型显示单元在实际视图内的预设位置处显示第一虚拟图像。
在操作1720中,处理器可以通过控制投影型显示单元,调节投影型显示单元内的可变透镜(例如,可变透镜240a、240b、240c、240d或240e)的位置或屈光度。
例如,当第一对象和/或可穿戴设备移动时,处理器可以根据第一对象的被改变位置来调节投影型显示单元内的可变透镜的位置或屈光度。
在另一示例中,当检测到用户查看与第一对象不同的实际视图内的第二对象时,处理器可以根据观察点的变化来调节投影型显示单元内的可变透镜的位置或屈光度。
在操作1730中,处理器可以通过投影型显示单元的控制在比第一虚拟图像的位置更远或更近的位置处显示第二虚拟图像。
例如,当第一对象和/或可穿戴设备移动时,处理器可以通过投影型显示单元在与第一对象的被改变位置对应的位置处(例如,与实际视图内第一对象的位置相同或接近的位置)显示第二虚拟图像。在这种情况下,第二虚拟图像可以具有与第一图像的内容相同的内容,仅在位置上不同。
在另一示例中,当检测到用户查看与第一对象不同的实际对象内的第二对象时,处理器可以通过投影型显示单元,在与第二对象的位置对应的位置处(例如,在与实际视图内的第二对象的位置相同或接近的位置)显示第二虚拟图像。在这种情况下,第二虚拟图像可以具有与第一虚拟图像的内容和位置不同的内容和位置,或者可以具有与第一虚拟图像的内容相同的内容,仅在位置上不同
图18图示了根据本公开的实施例的可穿戴设备的虚拟图像提供模块的框图。
参考图18,虚拟图像提供模块180可以处理从其它部件(例如,相机模块110、处理器120、存储器130、输入/输出接口150、通信接口170和传感器模块190中的至少一个)获得的信息中的至少一些,并且以各种方式利用它们。例如,虚拟图像提供模块180可以通过使用处理器120或与其独立来控制可穿戴设备101的至少一些功能,使得可穿戴设备101可以与其它电子设备(例如,第一外部电子设备102或第二外部电子设备104或服务器106)相互配合。虚拟图像提供模块180中的全部或一些可以集成到处理器120中。根据本公开的实施例,虚拟图像提供模块180中的至少一个部件可以被包括在服务器106中(例如,虚拟图像提供服务器模块108)并且从服务器106接收由虚拟图像提供模块180实现的至少一个操作的支持。
虚拟图像提供模块180可以包括位置信息获取模块1810、距离信息获取模块1820以及显示控制模块1830。虚拟图像提供模块180的全部或一些可以与处理器分离地提供(例如,处理器120)或可以被集成到处理器中。
根据各种实施例的位置信息获取模块1810可以获取关于眼睛特征点(例如,虹膜或瞳孔)的位置的信息。例如,位置信息获取模块1810可以通过经由第一传感器(例如,第一传感器191)输入的眼睛图像来获取关于特征点的位置的信息。
根据本公开的实施例,关于特征点的位置的信息可以包括坐标、值、位置范围等。
根据本公开的实施例,位置信息获取模块1810可以基于眼睛的预设不同位置范围中的一个来获取关于位置的信息。
根据本公开的实施例,位置信息获取模块1810可以获取在眼睛的预设不同位置范围中的包括特征点的位置范围或该位置范围内的特定位置作为关于位置的信息。
根据本公开的实施例,关于位置的信息可以包括眼睛的预设轴上的位置。
根据各种实施例的距离信息获取模块1820可以基于关于特征点位置的信息来获取关于预设参考点(例如,用户眼睛或可穿戴设备101)和实际视图的观察点(例如,实际对象)之间的距离的信息。
根据本公开的实施例,关于距离的信息可以包括距离值或距离范围。
根据本公开的实施例,距离信息获取模块1820可以基于预设的不同位置范围中的一个来获取关于距离的信息。
根据本公开的实施例,不同的距离范围可以包括第一距离范围、比第一距离范围更远和/或更宽的第二距离范围,以及比第二距离范围更远和/或更宽的第三距离范围。
根据本公开的实施例,关于距离的信息可以包括预设轴上的距离。
根据本公开的实施例,距离信息获取模块1820可以获取预设的不同距离范围中与关于特征点的位置的信息对应的距离范围或该距离范围内的特定位置作为关于距离的信息。
根据本公开的实施例,距离信息获取模块1820可以确定特征点的位置是否固定以预设的阈值时间,并且当特征点的位置固定以预设的阈值时间时,获取关于距离的信息。
根据本公开的实施例,距离信息获取模块1820可以通过第二传感器(例如,第二传感器192)获取关于可穿戴设备的倾斜度的信息,并且基于关于特征点的位置的信息和关于倾斜度的信息来获取关于距离的信息。
根据本公开的实施例,距离信息获取模块1820可以通过第二传感器获取关于可穿戴设备的倾斜度的信息,并且获取在预设的不同距离范围中与关于倾斜度的信息和关于特征点的位置的信息对应的距离范围或该距离范围内特定位置作为关于距离的信息。
根据本公开的实施例,距离信息获取模块1820可以通过第二传感器获取关于可穿戴设备的倾斜度的信息,确定与关于预设的不同距离范围中的倾斜度的信息对应的第一距离范围,并且获取在第一距离范围内的预设不同距离范围中与关于特征点的位置的信息对应的第二距离范围或第二距离范围内的特定位置作为关于距离的信息。
根据本公开的实施例,距离信息获取模块1820可以通过第三传感器(例如,第三传感器193)测量预设参考点与实际视图内的至少一个实际对象之间的距离,并基于关于特征点的位置和测量距离的信息获取关于距离的信息。
根据本公开的实施例,距离信息获取模块1820可以通过第三传感器测量预设参考点与实际视图内的至少一个实际对象之间的距离,确定在预设的不同距离范围中与关于特征点的位置的信息对应的距离范围,确定测量距离是否包括在确定的距离范围内,并且当所测量的距离包括在确定的距离范围中时,获取测量的距离作为关于距离的信息,以及当测量的距离不包括在确定的距离范围中时,获取确定的距离范围或确定的距离范围内的特定位置作为关于距离的信息。
根据本公开的实施例,距离信息获取模块1820可以通过第三传感器测量在预设参考点和实际视图内的实际对象之间的距离,确定在预设的不同距离范围中与关于特征点的位置的信息对应的距离范围,并且获取测量的距离中包括在确定的距离范围中的距离作为关于距离的信息。
根据本公开的实施例,距离信息获取模块1820可以通过第二传感器获取关于可穿戴设备的倾斜度的信息,测量预设参考点与实际视图内的至少一个实际对象之间的距离,并且基于关于特征点的位置的信息、关于倾斜度的信息和测量的距离来获取关于距离的信息。
根据本公开的实施例,距离信息获取模块1820可以通过第二传感器获取关于可穿戴设备倾斜度的信息,通过第三传感器测量预设参考点与实际视图内的至少一个实际对象之间的距离,确定在预定的不同距离范围中与关于特征点的位置的信息和关于可穿戴设备的倾斜度的信息对应的距离范围,确定测量的距离是否包括在确定的距离范围中,以及当测量的距离包括在确定的距离范围中时,获取测量距离作为关于距离的信息,并且当测量的距离不包括在确定的距离范围中时,获取确定的距离范围或确定的距离范围内的特定位置作为关于距离的信息。
根据本公开的实施例,距离信息获取模块1820可以通过第二传感器获取关于可穿戴设备的倾斜度的信息,通过第三传感器测量预设参考点与实际视图内的实际对象之间的距离,确定在预设的不同距离范围中与关于倾斜度的信息和关于特征点的位置的信息对应的距离范围,并且获取测量的距离中包括在确定的距离范围中的距离作为关于距离的信息。
根据各种实施例的显示控制模块1830可以通过第一和/或第二投影型显示单元(例如,第一和/或第二投影型显示单元161和162)在可穿戴设备前方的实际视图(或视图的光学图像)上显示第一虚拟图像。显示控制模块1830可以通过控制第一和/或第二投影型显示单元来调节第一和/或第二投影型显示单元内的对应可变透镜的位置或屈光度。显示控制模块1830可以通过第一和/或第二投影型显示单元的控制,在比第一虚拟图像更远或更近的位置处显示第二虚拟图像。例如,显示控制模块1830可以将虚拟图像的距离调节为与可穿戴设备前方的实际视图内的实际对象的距离对应,使得用户可以识别实际对象和虚拟图像存在于实际视图的相同或接近的位置处。
根据本公开的实施例,显示控制模块1830可以在实际视图(或视图的光学图像)上显示虚拟图像,以定位在与关于距离的信息对应的虚拟对象距离处。例如,显示控制模块1830可以通过第一和/或第二投影型显示单元将第一光投射到用户的眼睛上,其中入射角被控制为具有与关于距离的信息对应的虚拟对象距离,使得由第一光形成的虚拟对象图像(即,虚拟图像)和实际视图的光学图像可以彼此重叠。用户可以识别虚拟对象存在于实际视图上。
根据本公开的实施例,显示控制模块1830可以调节第一和/或第二投影型显示单元内的可变透镜的位置或屈光度,以使由第一和/或第二投影型显示单元显示的图像具有虚拟对象距离,并且控制第一和/或第二投影型显示单元以将形成虚拟图像的光投射在位于虚拟对象距离处。
图19是图示根据本公开的实施例的提供虚拟图像的方法的流程图。
图20a、20b和20c图示了根据本公开的各种实施例的提供虚拟图像的方法。
图21图示了根据本公开的各种实施例的提供虚拟图像的方法。
参考图19,提供虚拟图像的方法可以包括操作1910至1930。
在操作1910中,可穿戴设备(例如,可穿戴设备101)的处理器(例如,处理器120)可以通过第一传感器(例如,第一传感器191)获取眼睛图像,并且从该图像获取关于眼睛特征点(例如,虹膜或瞳孔)的位置的信息。
参考图20a,例如,处理器可以获取关于眼睛2010的图像中的瞳孔2020的位置的信息。处理器可以将第一和第二参考线2041和2042设置到眼睛2010,并且设置由眼睛的下轮廓2031和第一参考线2041限制的第一位置范围2051,由第一参考线2041和第二参考线2042限制的第二位置范围2052,以及由第二参考线2042和眼睛的上轮廓2032限制的第三位置范围2053。根据该示例,虽然描述了水平参考线2041和2042,但是处理器可以设置竖直参考线和由竖直参考线和/或眼睛的轮廓限制的多个位置范围。
处理器可以确定第一至第三位置范围2051至2053中的哪个位置范围包括瞳孔2020。
根据本公开的实施例,处理器可以确定第一至第三位置范围2051至2053中的哪个位置范围包括瞳孔2020的中心点。
根据本公开的实施例,处理器可以确定第一至第三位置范围2051至2053中的哪个位置范围包括瞳孔2020的最大部分。
根据本公开的实施例,处理器可以确定与瞳孔2020的中心点对应的眼睛的中心轴线2060上的位置,并且确定在中心轴线2060上包括该位置的位置范围。
处理器可以获取确定的位置范围或确定的位置范围内的预设位置(例如,中心位置、起始位置、位置范围的结束位置等)作为关于眼睛特征点的位置的信息。
在操作1920中,处理器可以基于关于特征点的位置的信息获取关于预设参考点(例如,用户眼睛或可穿戴设备101)和实际视图的观察点(例如,实际对象)之间的距离的信息。
参考图20a,当瞳孔2020的中心点被包括在第一位置范围2051中时,处理器可以确定用户查看在第一位置范围(例如,短距离范围)内的实际对象。
参考图20b,当瞳孔2020的中心点被包括在第二位置范围2052中时,处理器可以确定用户查看在第二位置范围(例如,中距离范围)内的实际对象。
参考图20c,当瞳孔2020的中心点被包括在第三位置范围2053中时,处理器可以确定用户查看在第三位置范围(例如,长距离范围)内的实际对象。
处理器可以获取确定的位置范围或确定的位置范围内的预设位置(例如,中心位置、起始位置、位置范围的结束位置等)作为关于预设参考点与实际视图的观察点之间的距离的信息。
根据本公开的实施例,处理器可以根据眼睛的光轴、观察轴、平行于地面的轴等来确定距离或距离范围。
在操作1930中,处理器可以在实际视图(或视图的光学图像)上显示虚拟图像,以将虚拟图像放置在与关于距离的信息对应的虚拟对象距离处。
参考图21(a),处理器可以通过具有位于第一位置范围内的瞳孔的眼睛2141的图像,确定用户查看在第一距离范围内(例如,从0到1m的短距离范围)的第一实际对象2111。处理器可以获取第一位置范围或第一位置范围内的预设位置(例如,中心位置、起始位置、位置范围的结束位置等)作为关于预设参考点(例如,用户的眼睛)与第一实际对象2111之间的距离的信息。处理器可以在包括第一实际对象2111的实际视图上显示具有与第一距离范围或第一距离范围内的预设位置对应的虚拟对象距离(例如,用户的眼睛和第一虚拟对象之间的距离)的第一虚拟对象2131(例如,描述第一实际对象的图像)。下面的描述基于作为示例的图2中所示的第一投影型显示单元161a进行。处理器可以通过改变可变透镜240a(或通过改变可变透镜240a的折射表面242的曲率),来控制用户的眼睛和用户识别的第一虚拟对象2131之间的虚拟对象距离以对应于第一距离范围或第一距离范围内的预设位置,以调节入射到用户的眼睛的第一光2121的入射角。
参考图21(b),处理器可以通过具有位于第二位置范围内的瞳孔的眼睛2142的图像,来确定用户查看在第二距离范围(例如,从1到5m的中距离范围)内的第二实际对象2112。处理器可以获取第二位置范围或第二位置范围内的预设位置(例如,中心位置、起始位置、位置范围的结束位置等)作为关于预设参考点(例如,用户的眼睛)和第二实际对象2112之间的距离的信息。处理器可以在包括第二实际对象2112的实际视图上显示具有与第二距离范围或第二距离范围内的预设位置对应的虚拟对象距离(例如,用户的眼睛和第二虚拟对象之间的距离)的第二虚拟对象2132(例如,描述第二实际对象的图像)。下面的描述基于作为示例的图2中所示的第一投影型显示单元161a进行。处理器可以通过改变可变透镜240a(或通过改变可变透镜240a的折射表面242的曲率),来控制用户的眼睛和用户识别的第二虚拟对象2132之间的虚拟对象距离以对应于第二距离范围或第二距离范围内的预设位置,以调节入射到用户眼睛的第一光2122的入射角。
参考图21(c),处理器可以通过具有位于第三位置范围内的瞳孔的眼睛2143的图像,来确定用户查看在第三距离范围内(例如,从5m到无穷远的长距离范围)的第三实际对象2113。处理器可以获取第三位置范围或第三位置范围内的预设位置(例如,中心位置、起始位置、位置范围的结束位置等)作为关于预设参考点(例如,用户的眼睛)和第三实际对象2113之间的距离的信息。处理器可以在包括第三实际对象2113的实际视图上显示具有与第三距离范围或第三距离范围内的预设位置对应的虚拟对象距离(例如,用户的眼睛和第三虚拟对象之间的距离)的第三虚拟对象2133(例如,描述第三实际对象的图像)。下面的描述基于作为示例的图2中所示的第一投影型显示单元161a进行。处理器可以通过改变可变透镜240a(或通过改变可变透镜240a的折射表面242的曲率),来控制用户的眼睛和用户识别的第三虚拟对象2133之间的虚拟对象距离以对应于第三距离范围或第三距离范围内的预设位置,以调节入射到用户眼睛的第一光2123的入射角。
图22是图示根据本公开的实施例的提供虚拟图像的方法的流程图。
参考图22,提供虚拟图像的方法可以包括操作2210至2240。
在操作2210中,可穿戴设备(例如,可穿戴设备101)的处理器(例如,处理器120)可以通过第一传感器(例如,第一传感器191)获取眼睛图像,并从该图像获取关于眼睛特征点(例如,虹膜或瞳孔)的位置的信息。
处理器可以通过第二传感器(例如,第二传感器192)获取关于可穿戴设备的倾斜度的信息。
返回参考图1,处理器可以通过第二传感器获取关于可穿戴设备101的相对于与地面正交的方向20的长度方向中的对称轴线21的角度θ的信息。例如,当可穿戴设备101面向地面时,角度θ可以为0度。当可穿戴设备平行于地面时,角度θ可以是90度。
处理器可以将从0度到第一阈值角度(例如,45度)的范围设置作为第一倾斜度范围,从第一阈值角度到第二阈值角度(例如,70度)的范围作为第二倾斜度范围,以及从第二阈值角到第三阈值角(例如,90度或更大)的范围作为第三倾斜度范围。
处理器可以确定可穿戴设备的倾斜度属于第一至第三倾斜度范围中的哪个倾斜度范围。
处理器可以基于关于可穿戴设备的倾斜度的信息,获取关于预设参考点(例如,用户眼睛或可穿戴设备101)和实际视图的观察点(例如,实际对象)之间的距离的信息。
例如,当可穿戴设备的倾斜度属于第一倾斜度范围时,处理器可以确定用户查看在第一距离范围内(例如,短距离范围)内的实际对象。
例如,当可穿戴设备的倾斜度属于第二倾斜度范围时,处理器可以确定用户查看在第二距离范围(例如,中距离范围)内的实际对象。
例如,当可穿戴设备的倾斜度属于第三倾斜度范围时,处理器可以确定用户查看在第三距离范围(例如,长距离范围)内的实际对象。
处理器可以获取确定的位置范围或确定的位置范围内的预设位置(例如,中心位置、起始位置、位置范围的结束位置等)作为关于预设参考点和实际视图的观察点之间的距离的信息。
处理器可以基于眼睛特征点的位置和/或关于可穿戴设备的倾斜度的信息,获取关于预设参考点(例如,用户眼睛或可穿戴设备101)和实际视图的观察点(例如,实际对象)之间的距离的信息。
例如,当关于眼睛特征点的位置的信息与第一距离范围(例如,从0到1m的短距离范围)对应并且关于可穿戴设备的倾斜度的信息与第二距离范围(例如,从1m到5m的中距离范围)对应时,处理器可以获取与第一距离范围和第二距离范围之间的中央对应的距离(例如,1m)作为关于距离的信息。
在操作2220中,处理器可以确定特征点的位置和/或可穿戴设备的倾斜度是否被固定以预设的阈值时间。处理器可以在位置/倾斜度固定时执行操作2230,并且当位置/倾斜度不固定时重复操作2210。
在操作2230中,处理器可以基于关于特征点的位置的信息和/或关于可穿戴设备的倾斜度的信息,获取关于预设参考点(例如,用户眼睛或可穿戴设备101)与实际视图的观察点(例如,实际对象)之间的距离的信息。
在操作2240中,处理器可以在实际视图(或视图的光学图像)上显示虚拟图像,以将虚拟图像放置在与关于距离的信息对应的虚拟对象距离处。
图23是图示根据本公开的实施例的提供虚拟图像的方法的流程图。
参考图23,提供虚拟图像的方法可以包括操作2310至2370。
在操作2310中,可穿戴设备(例如,可穿戴设备101)的处理器(例如,处理器120)可以通过第一传感器(例如,第一传感器191)获取眼睛图像,并且从该图像获取关于眼睛特征点(例如,虹膜或瞳孔)的位置的信息。
处理器可以通过第二传感器(例如,第二传感器192)获取关于可穿戴设备的倾斜度的信息。
在操作2320中,处理器可以通过第三传感器(例如,第三传感器193)测量预设参考点(例如,用户眼睛或可穿戴设备101)与实际视图的实际对象之间的距离。
在操作2330中,处理器可以基于关于特征点的位置和/或可穿戴设备的倾斜度的信息来确定预设参考点和观察点之间的距离范围。
在操作2340中,处理器可以确定测量的距离是否属于确定的距离范围。当测量的距离属于确定的距离范围时,处理器可以执行操作2350。当测量的距离不属于确定的距离范围时,处理器可以执行操作2360。
在操作2350中,处理器可以选择、确定或获取测量的距离作为关于预设参考点和实际视图的观察点之间的距离的信息。
在操作2360中,处理器可以选择、确定或获取确定的距离范围作为关于预设参考点和实际视图的观察点之间的距离的信息。
在操作2370中,处理器可以在实际视图(或视图的光学图像)上显示虚拟图像,以将虚拟图像放置在与所选距离(或距离范围)对应的虚拟对象距离处。
参考图21,当实际视图包括第一和第二实际对象2111和2112时,第三传感器可以测量预设参考点和第一实际对象2111之间的距离,第一实际对象2111比第二实际对象2112更近。当确定的距离范围对应于第二距离范围(例如,从1m到5m的中距离范围)而不是第一距离范围(例如,从0到1m的短距离范围)时,处理器可以确定或获取确定的距离范围作为关于预设参考点与实际视图的观察点之间的距离的信息。
图24是图示根据本公开的实施例的提供虚拟图像的方法的流程图。
参考图24,提供虚拟图像的方法可以包括操作2410至2450。
在操作2410中,可穿戴设备(例如,可穿戴设备101)的处理器(例如,处理器120)可以通过第一传感器(例如,第一传感器191)获取眼睛图像,并且从该图像获取关于眼睛特征点(例如,虹膜或瞳孔)的位置的信息。
处理器可以通过第二传感器(例如,第二传感器192)获取关于可穿戴设备的倾斜度的信息。
在操作2420中,处理器可以通过第三传感器(例如,第三传感器193)测量实际视图内的实际对象与预设参考点(例如,用户的眼睛或可穿戴设备101)之间的距离。
在操作2430中,处理器可以基于关于特征点的位置和/或可穿戴设备的倾斜度的信息来确定预设参考点和观察点之间的距离范围。
在操作2440中,处理器可以在测量的距离中选择、确定或获取在确定的距离范围内包括的测量距离作为关于实际视图的观察点与预设参考点之间的距离的信息。
在操作2450中,处理器可以在实际视图(或视图的光学图像)上显示虚拟图像,以将虚拟图像放置在与所选距离对应的虚拟对象距离处。
参考图21,当实际视图包括第一和第二实际对象2111和2112时,第三传感器可以测量预设参考点与第一实际对象2111和第二实际对象2112之间的所有距离。当确定的距离范围对应于第一距离范围(例如,从0到1m的短距离范围)时,处理器可以确定或获取第一实际对象2111的测量距离作为关于预设参考点与实际视图的观察点之间的距离的信息。
图25是图示根据本公开的实施例的提供虚拟图像的方法的流程图。
参考图25,提供虚拟图像的方法可以包括操作2510至2540。
在操作2510中,可穿戴设备(例如,可穿戴设备101)的处理器(例如,处理器120)可以通过第一传感器(例如,第一传感器191)获取眼睛图像,并从该图像获取关于眼睛特征点(例如,虹膜或瞳孔)的位置的信息。
处理器可以通过第二传感器(例如,第二传感器192)获取关于可穿戴设备的倾斜度的信息。
在操作2520中,处理器可以基于关于可穿戴设备的倾斜度的信息(或者关于特征点的位置的信息)来确定预设参考点和观察点之间的主要距离范围。
在操作2530中,处理器可以基于关于特征点的位置的信息(或关于可穿戴设备的倾斜度的信息)来确定预设参考点和主要距离范围内的观察点之间的次要距离范围。
在操作2540中,处理器可以在实际视图(或视图的光学图像)上显示虚拟图像,以将虚拟图像放置在与次要距离范围对应的虚拟对象距离处。
例如,可以基于关于可穿戴设备的倾斜度的信息(或关于特征点位置的信息)来确定短/中距离范围(例如,从0到5m的范围)和长距离范围(例如,从5m到无穷大的范围)中的一个。此外,可以基于关于特征点的位置的信息(或关于可穿戴设备的倾斜度的信息)来确定短距离范围(例如,从0到1m的范围)和中距离范围(例如,从1m到5m的范围)中的一个。
图23的操作2340至2360和图24的操作2440可以应用于图25中所示的本公开。
图22的操作2220可以应用于图25中所示的方法以及图23和图24中所示的方法中的每一种。
图26图示了根据本公开的实施例的提供虚拟图像的方法。
参考图26,可穿戴设备(例如,可穿戴设备101)的处理器(例如,处理器120)可以接收通过拍摄用户从相机模块(例如,相机模块110)看到的前视图2610而生成的视图图像。
处理器可以识别视图图像内的区域或对象。根据该示例,假设前视图2610包括区域/对象A1至A9。处理器识别输入图像中的对象/区域。处理器可以指存储在存储器(例如,存储器130)中以识别对象/区域的数据库。处理器可以在视图图像中检测与数据库中注册的对象/区域匹配的图像部分。此外,处理器可以根据要识别的主体的类型,在不引用数据库的情况下识别对象/区域。例如,处理器可以识别视图图像中的边缘特征点和拐角特征点,并且识别由边缘特征点和拐角特征点限制的平面对象/区域(例如,四边形、圆形、多边形等)。
存储器可以包括用于存储关于要识别的对象/区域的数据或信息的数据库,以及用于存储关于要在前视图2610中显示的虚拟图像的数据或信息的数据库。关于对象/区域的数据可以包括对象/区域图像或关于对象/区域图像的特征点的信息(或称为特征图像或特征图案)。特征点可以是边缘、拐角、图像图案、轮廓线等。此外,关于虚拟图像的数据可以包括图像、文本、动态图像、虚拟图像上的位置信息,关于对象/区域的映射信息等。映射信息可以包括指示虚拟图像所映射的对象/区域的标识符或主题名称,或者与虚拟图像重叠的对象/区域。
处理器可以通过第一传感器(例如,第一传感器191)获取眼睛2010的图像,并从该图像获取关于眼睛的特征点(例如,虹膜或瞳孔2020)的位置的信息。
例如,处理器可以基于瞳孔2020的位置来确定用户查看前视图上的对象/区域A8。
处理器可以通过第三传感器(例如,第三传感器193)获取关于参考点(例如,用户的眼睛或可穿戴设备101)和用户查看的对象/区域A8之间的距离的信息。例如,第三传感器可以安装在可穿戴设备中以根据处理器的控制旋转,或者可以被配置为根据处理器的控制来控制从第三传感器输出的光(例如,红外光或激光)的前进方向(或方向性)。
处理器可以通过使用相机模块和第一传感器来识别在用户查看的前视图2610中的对应对象/区域(例如,区域/对象A1至A9中的一个区域/对象),并控制第三传感器将光辐射到识别的对象/区域。此外,处理器可以控制第一和/或第二投影型显示单元(例如,第一和/或第二投影型显示单元161和162)以在前视图2610上显示与识别的对象/区域相关的虚拟图像。
图27图示了根据本公开的实施例的第一传感器(或照明单元/光接收单元)。
参考图27,第一传感器191a的至少一部分可以设置在可穿戴设备的第一和/或第二投影型显示单元(例如,第一和/或第二投影型显示单元161和162)内部,或者可以与第一和/或第二投影型显示单元分离地提供。
第一传感器191a可以包括用于输出照明光2712的照明单元2710(或光源)、用于检测反射光2714的图像的光接收单元2720(或图像传感器或光学检测器)、以及用于形成反射图像2714的图像的第一会聚透镜2741。例如,第一传感器191a可以进一步包括第一分束器2731,用于将照明光2712(以下可称为测试光)输出到与光导元件(或光导元件的一部分)对应的第三分束器2735,并且将从第三分束器2735入射的反射光2714输出到第一会聚透镜2741。例如,第一传感器191a可以进一步包括第三分束器2735,用于将从第一分束器2731接收的照明光2712投射到眼睛2700上,将形成实际视图的第二光2707投射到眼睛2700上,以及将反射光2714输出到第一分束器2731。例如,第一传感器191a可以进一步包括第二会聚透镜2742。
照明单元2710可以输出照明光2712。例如,照明单元2710可以输出红外光。例如,照明单元2710可以输出具有预设图案(或图像图案)(例如,圆形、四边形、三角形、多边形、多个点等)的照明光。例如,照明单元2710可以设置为向第一和/或第二投影型显示单元输出。
第二会聚透镜2742可以会聚并输出从照明单元2710输出的照明光2712。例如,第二会聚透镜2742可以将从照明单元2710输出的照明光2712校准为平行光。
根据本公开的实施例,第二会聚透镜2742可以包括在照明单元2710中或可以被省略。
第一分束器2731可以将照明光2712输出到第三分束器2735。第一分束器2731可以被配置为将已经穿透第二会聚透镜2742的照明光2712输出(或反射)到第三分束器2735,并且将从第三分束器2735接收的反射光2714输出到第一会聚透镜2741(或允许反射光2714从中通过第一会聚透镜2741)。例如,第一分束器2731可以包括附接到反射表面2732(或反射层)的两个三角棱镜。例如,第一分束器2731(或反射表面2732)可以被配置为允许入射光的一部分从中通过并且反射入射光的剩余部分,被配置为允许一个偏振分量从中通过并且反射其它偏振分量,被配置为允许一个波长分量从中通过并且反射其它波长分量,或者被配置为允许一个方向的光从中通过并且反射其它方向的光。
第三分束器2735可以将照明光2712投射到用户的眼睛上。例如,第三分束器2735可以包括附接到反射表面2736(或反射层)的两个三角棱镜。第三分束器2735(或反射表面2736)可以被配置为将从第一分束器2731接收的照明光2712投射到用户的眼睛2700上,将从可穿戴设备前方的对象2705接收的第二光2707投射到眼睛2700上(或允许第二光2707朝向眼睛2700从中通过),或将从眼睛2700(或眼睛2700的视网膜2702)反射的光2714输出(或反射)到第一分束器2731。例如,第三分束器2735可以具有与第一分束器2731的配置相似的物理配置。
照明单元2710可以将照明光(例如,红外光或激光)投射到用户的眼睛上,并且光接收单元2720可以检测从用户的瞳孔反射的照明光。此外,光接收单元2720可以是红外相机和可见光相机中的一个。
用户的眼睛2700包括晶状体2701和视网膜2702。晶状体2701根据晶状体2701期望聚焦的对象2705的距离(即,对象距离)改变其表面(前表面和后表面中的每一个)的曲率。当晶状体2701变薄时(即,当表面的曲率变小时),眼睛聚焦在长距离对象上,并且当晶状体2701变厚时(即,当表面的曲率变大时),聚焦在短距离对象上。用户识别在视网膜2702上形成的前方周围场景或周围环境(即视图)的光学图像。
例如,用户的眼睛2700(或晶状体2701)聚焦在对象2705上,并且晶状体2701可以将从对象2705接收的第二光2707根据眼睛2700的光轴2703会聚,并在视网膜2702上形成对象2705的光学图像。晶状体2701可以会聚照明光2712,并且照明光2712可以在入射到视网膜2702的一些区域(即,视网膜反射表面)之后被反射。例如,当照明光2712是红外光时,用户不能识别照明光2712的图像。从视网膜2702反射的光2714可以由晶状体2701会聚(或校准),并且已经穿透晶状体2701的光2714可以入射到第三分束器2735。
第三分束器2735可以将从眼睛2700反射的光2714输出(或反射)到第一分束器2731。
第一分束器2731可以将从第三分束器2735接收的反射光2714输出到第一会聚透镜2741(或者可以允许反射光2714朝向第一会聚透镜2741从中穿透)。
第一会聚透镜2741可以将从第一分束器2731接收的反射光2714扩散(或会聚)。第一会聚透镜2741可以在光接收单元2720上形成从第一分束器2731接收的反射光2714的光学图像。
光接收单元2720可以检测从第一会聚透镜2741接收的反射光2714。例如,光接收单元2720可以检测作为电(或数字)图像的由反射光2714形成的视网膜图像信息。
例如,关于视网膜图像(即,视网膜反射表面的图像)的视网膜图像信息(例如,尺寸信息、区域信息、位置信息、图案信息或亮度(或亮度分布)信息中的至少一条)可以根据关于晶状体2701的观看距离信息(例如,使用第三传感器(例如第三传感器193)的距离测量信息)、基于关于晶状体的焦距信息计算出的对象距离信息、关于基于视网膜图像信息计算出的视网膜反射表面的尺寸信息(即,散焦尺寸)、关于晶状体的倍率信息、屈光度信息、曲率(或曲率半径)信息以及厚度信息中的至少一条来改变。
例如,视网膜反射表面的尺寸信息(即,散焦尺寸)b1、视网膜图像(视网膜反射表面的图像)尺寸a1、晶状体2701的焦距fe、第一会聚透镜2741的焦距fo可以具有b1/a1=fe/fo的关系。
根据本公开的实施例,第一传感器191a可以被设置在可穿戴设备(例如,可穿戴设备101)的第一和/或第二投影型显示单元(例如,第一和/或第二投影型显示单元161和162)内部。由于第一和第二投影型显示单元具有相同的配置,因此下面将代表性地描述第一投影型显示单元的配置。
图28图示了根据本公开的实施例的第一投影型显示单元。
参考图28,由于图28中所示的第一传感器191b可以具有与图27中所示的第一传感器191a的配置相似的配置,所以省略重复的描述。
第一投影型显示单元161j可以包括用于输出形成虚拟图像的第一光2807的显示元件2850、被布置在第一光2807的前进路径上并且其位置或折射率根据控制信号来控制的可变透镜2860、用于输出照明光2813的第一传感器191b,并且第二和第三分束器2833和2835对应于光导元件。例如,对应于光导元件的第二和第三分束器2833和2835可以被配置为将从显示元件2850输出的第一光2807投射到眼睛2800上,将从第一传感器191b输出的照明光2813投射到眼睛2800上,并将反射光2814输出到第一传感器191b。
第一传感器191b可以包括用于输出照明光2813的照明单元2810(或光源)、用于检测反射光2814的图像的光接收单元2820(或图像传感器或光学检测器)、以及用于形成反射图像2814的图像的第一会聚透镜2841。例如,第一传感器191b可以进一步包括用于将照明光2813输出到光导元件(或第二分束器2833)的第一分束器2831、以及将从光导元件(或第二分束器2833)接收的反射光2814输出到第一会聚透镜2841。例如,第一传感器191b可以进一步包括第二会聚透镜2842。
照明单元2810可以输出照明光2813。例如,照明单元2810可以输出红外光。例如,照明单元2810可以输出具有预设图案(或图像图案)(例如,圆形、四边形、三角形、多边形、多个点等)的照明光。
第二会聚透镜2842可以会聚并输出从照明单元2810输出的照明光2813。例如,第二会聚透镜2842可将从照明单元2810输出的照明光2813校准为平行光。根据本公开的实施例,第二会聚透镜2842可以被包括在照明单元2810中,或者可以省略。
第一分束器2831可以将照明光2813输出到第二分束器2833。第一分束器2831(或第一分束器2831的反射表面2832)可以被配置为将已经穿透第二会聚透镜2842的照明光2813输出(或反射)到第二分束器2833,并且将从第二分束器2833接收的反射光2814输出到第一会聚透镜2841(或者允许反射光2814朝向第一会聚透镜2841从中穿透)。
显示元件2850可以输出形成虚拟图像2742的第一光2807。显示元件2850可以具有四边形平板的形式。显示元件2850可以根据从处理器(例如,处理器120)输入的数据以像素为单位显示图像。显示元件2850可以包括与预设分辨率对应的像素元件,并且通过驱动像素元件来显示图像。例如,显示元件2850可以包括以M×N(例如,1190×720、854×480等)矩阵结构排列的像素元件。显示元件2850可以是LED、OLED、LCD、LCOS等。
根据本公开的实施例,可变透镜2860可以包括用于允许从显示元件2850接收的第一光2852从中通过的第一穿透表面(例如,可变透镜240b的第一穿透表面241)、用于折射已穿过第一穿透表面的第一光2852的折射表面(例如,可变透镜240b的折射表面242)、以及用于允许已穿透折射表面的第一光2852从中通过的第二穿透表面(例如,可变透镜240b的第二穿透表面243b)。折射表面的形状(或形式)或曲率可以根据处理器的控制而变化。通过根据折射表面的形状(或形式)或曲率中的变化来调节入射到用户眼睛2800的第一光2852的入射角,可变透镜2860可以控制在可穿戴设备(例如,可穿戴设备101)前方的实际视图(或视图的光学图像)上显示的虚拟图像的位置(或用户眼睛2800和虚拟对象之间的虚拟对象距离)。
根据本公开的实施例,可变透镜2860可以包括第一子透镜(例如,可变透镜240c的第一子透镜245)和第二子透镜(例如,可变透镜240c的第二子透镜246),第一子透镜用于首先折射从显示元件2850接收的第一光2852,第二子透镜用于再次折射首先折射的第一光2852。第一和第二子透镜之间的距离可以根据处理器的控制而变化。通过根据第一和第二子透镜之间的距离的变化来调节入射到用户眼睛2800的第一光2852的入射角,可变透镜2860可以控制在可穿戴设备(例如可穿戴设备101)前方的实际视图(或视图的光学图像)上显示的虚拟图像的位置(或用户眼睛2800和虚拟对象之间的虚拟对象距离)。
第二分束器2833可以将第一光2812和照明光2813输出到第三分束器2835。第二分束器2833(或第二分束器2833的反射表面2834)可以被配置为将从可变透镜2860接收的第一光2812输出(或反射)到第三分束器2835,将从第一传感器191b(或第一分束器2831)接收的照明光2813输出到第三分束器2835(或者允许照明光2813朝向第三分束器2835从中通过),并且将从第三分束器2835接收的反射光2814输出到第一传感器191b(或第一分束器2831)(或者允许反射光2814朝向第一传感器191b(或第一分束器2831)从中通过)。
第三分束器2835可以将形成实际视图的第二光2807、照明光2813和第一光2812投射到眼睛2800上。第三分束器2835(或第三分束器2835的反射表面2836)可以被配置为将从第二分束器2833接收的第一光2812和照明光2813投射(或反射)到用户的眼睛2800上,将从可穿戴设备前方的对象2805接收的第二光2807投射到眼睛2800上(或允许第二光2807朝向眼睛2800从中通过),或者将从眼睛2800(或眼睛2800的视网膜2802)反射的光2814输出(或反射)到第二分束器2833。
用户的眼睛2800包括晶状体2801和视网膜2802。例如,用户的眼睛2800(或晶状体2801)聚焦在对象2805上,并且晶状体2801可以将从对象2805接收的第二光2807根据眼睛2800的光轴2803会聚并且在视网膜2802上形成对象2805的光学图像。晶状体2801可以会聚照明光2813,并且照明光2813可以在入射到视网膜2802的一些区域(即,视网膜反射表面)之后被反射。例如,当照明光2813是红外光时,用户不能识别照明光2812的图像。从视网膜2802反射的光2814可以由晶状体2801会聚(或校准),并且已经穿透晶状体2801的光2814可以入射到第三分束器2835。
第三分束器2835可以将从眼睛2800反射的光2814输出(或反射)到第二分束器2833。
第二分束器2835可以将从第二分束器2833接收的反射光2814输出到第一分束器2831(或者可以允许反射光2814朝向第一分束器2831从中穿透)。
第一分束器2831可以将从第二分束器2833接收的反射光2814输出到第一会聚透镜2841(或者可以允许反射光2814朝向第一会聚透镜2841从中穿透)。
第一会聚透镜2841可以扩散(或会聚)从第一分束器2831接收的反射光2814。第一会聚透镜2841可以在光接收单元2820上形成从第一分束器2831接收的反射光2814的视网膜图像(即,视网膜反射表面的光学图像(与视网膜图像的对象对应))。
光接收单元2820可以检测从第一会聚透镜2841接收的反射光2814。例如,光接收单元2820可以检测作为电(或数字)图像的由反射光2814形成的视网膜图像。
例如,视网膜图像信息(例如,关于ISP传感器或光接收单元2820的像素信息、图像尺寸信息、图像区域信息、位置信息、图案信息和关于视网膜图像的亮度(或亮度分布)的信息中的至少一条)可以根据关于晶状体2801的观看距离信息(例如,使用第三传感器(例如,第三传感器193)的距离测量信息))、基于关于晶状体的焦距信息计算出的对象距离信息、关于基于视网膜图像信息计算出的视网膜反射表面的尺寸信息(即,散焦尺寸)、关于晶状体的倍率信息、屈光度信息、曲率(或曲率半径)信息以及厚度信息中的至少一条来改变。
例如,视网膜反射表面b2的尺寸、视网膜图像尺寸a2、晶状体2801的焦距fe2以及第一会聚透镜2841的焦距fo可以具有b2/a2=fe2/Fo的关系。
第一传感器191b的至少一部分(例如,光接收单元2820)可以被设置在对应的投影型显示单元的内部,以光学连接到图2中所示的第一投影型显示单元161a的光导单元30a、图6中所示的第一投影型显示单元161b的光导单元30b、图8中所示的第一投影型显示单元161c的光导单元30c、图9中所示的第一投影型显示单元161d的光导单元30d、图10中所示的第一投影型显示单元161e的光导单元30e、图11中所示的第一投影型显示单元161f的光导单元30f、图13中所示的第一投影型显示单元161g的光导单元30g、图14中所示的第一投影型显示单元161h的光导单元30h以及图15中所示的第一投影型显示单元161i的光导单元30i中的一个。
例如,第一分束器2831(或第一分束器2831的反射表面2832)可以被设置成面向图2中所示的光导元件220a的第二表面222、图6中所示的光导元件220a的第二表面222、图8中所示的光导元件220b的第二表面222、图9中所示的光导元件220c的第二表面222、图10中所示的光导元件30e的第二表面222、图11中所示的光导元件220a的第二表面222、图13中所示的光导元件220b的第二表面222、图14中所示的光导元件220c的第二表面222,以及图15中所示的光导元件220d的第二表面222中的一个。
图29图示了根据本公开的实施例的第一投影型显示单元。
参考图29,由于第一投影型显示单元161k具有其中图2中所示的第一投影型显示单元161a的光导单元30a光学连接到图28中所示的第一传感器191b的配置,因此将省略重复的描述。
第一投影型显示单元161k可以包括显示元件210、光导单元30a和第一传感器191b。光导单元30a可以包括光导元件220a和可变透镜240a。类似地,第二投影型显示单元可以包括显示元件和光导单元,并且光导单元可以包括光导元件和可变透镜。
显示元件210可以将形成图像的第一光201输出到光导元件220a。
光导元件220a可以包括第一至第五表面221至225a。光导元件220a可以通过内反射(或内部全反射)朝向可变透镜240a引导从显示元件210接收的第一光201。
第一表面221可以与面向显示元件210的光导元件220a的后表面的一部分对应,并且可以允许从显示元件210接收的第一光201朝向第二表面222穿透。
第二表面222与位于第一和第三表面221和223之间的光导元件220a的第一侧表面对应,并且可以将穿透第一表面221的第一光201朝向第三或第四表面223或224反射。
第三表面223与面向第一窗口90的光导元件220a的前表面对应,第四表面224与面向用户的光导元件220a的后表面的剩余部分对应,并且第三和第四表面223和224可以反射(或全反射)接收到的第一光201,以使第一光201到达第五表面225a。全反射意味着从光导元件220a的内部入射到光导元件220a与外部空气层之间的边界表面(即,第三或第四表面223或224)的第一光201从边界表面全反射。
第五表面225a与位于第三和第四表面223和224之间的光导元件220a的第二侧表面对应,并且可以将接收到的第一光201朝向可变透镜240a穿透,并且将从可变透镜240接收的第一光201朝向用户的眼睛反射。第五表面225a可以允许形成电子设备(例如,可穿戴设备101)的前视图(或视图的光学图像)的第二光202朝向用户的眼睛从中通过。
光导元件220a可以包括:具有均匀厚度的第三和第四光学表面223和224之间的主体部分232a;第一和第二表面221和222之间的第一倾斜部分231,其厚度从其中的一端(或从主体部分232a的一端)到其中的另一端逐渐减小;以及第三和第四表面223和224之间的第二倾斜部分233a,其厚度从其中的一端(或主体部分232a的另一端)到其中的另一端逐渐减小。第二倾斜部分233a可以具有与面向可变透镜240a和用户眼睛的斜面对应的第五表面225a。
可变透镜240a可以包括用于由接收的第一光201穿透的穿透表面241,用于折射接收的第一光201的折射表面242以及用于反射接收的第一光201的反射表面243a。折射表面242的形状(或形式)或曲率可以根据处理器的控制而变化。通过根据折射表面242的形状(或形式)或曲率中的变化来调节入射到用户眼睛的第一光201(即,入射光)的角度,可变透镜240a可以控制在可穿戴设备(例如,可穿戴设备101)前方的实际视图(或视图的光学图像)上显示的虚拟图像的位置(或用户的眼睛和虚拟对象之间的虚拟对象距离)。
可变透镜240a的屈光度和在实际视图上显示的虚拟图像的位置中的变化可以具有1/u+1/v=1/f的关系,其中u表示可变透镜240a和显示元件210(例如,LED、OLED、LCD、LCOS等)之间的距离,v表示可变透镜240a和虚拟图像之间的距离,并且f表示可变透镜240a的焦距240。
照明单元2810可以输出照明光2912。
第二会聚透镜2842可以会聚并输出从照明单元2912输出的照明光2810。例如,第二会聚透镜2842可以将从照明单元2810输出的照明光2912校准为平行光。
第一分束器2831可以将照明光2912朝向光导元件220a的第二表面222输出。从第一分束器2831输出的照明光2912可以穿透第二表面222以入射到光导元件220a,并且可以穿透第五表面225a以朝向可变透镜240a输出。
从光导元件220a输出的照明光2912可以穿透可变透镜240a的穿透表面241和折射表面242入射到反射表面243a,从反射表面243a反射的照明光2912可以穿透穿透表面241和折射表面242以向第五表面225a输出。第五表面225a可以将从可变透镜240a接收的照明光2912朝向用户的眼睛反射。
从眼睛(或眼睛的视网膜)反射的光2914可以由第五表面225a和可变透镜240a反射,并且可以穿透第五表面225a和第二表面222以被输入到第一分束器2831。
第一分束器2831可以将从光导元件220a接收的反射光2914输出到第一会聚透镜2841(或者可以允许反射光2914穿透第一会聚透镜2841)。
第一会聚透镜2841可以扩散(或会聚)从第一分束器2831接收的反射光2814。
光接收单元2820可以检测从第一会聚透镜2841接收的反射光2914。例如,光接收单元2820可以检测作为电(或数字)图像的由反射光2914形成的视网膜图像。
图30图示了根据本公开的实施例的第一投影型显示单元。
参考图30,由于第一投影型显示单元161l具有其中图8中所示的第一投影型显示单元161c的光导单元30c光学连接到图28中所示的第一传感器191b的配置,因此将省略重复的描述。
第一投影型显示单元161l可以包括显示设备210和光导单元30c。光导单元30c可以包括光导元件220b和可变透镜240b。
第五表面225b与位于第三和第四表面223和224之间的光导元件220b的第二侧表面对应,并且可以将入射的第一光801朝向用户的眼睛反射。第五表面225b可允许形成可穿戴设备101的前视图(或视图的光学图像)的第二光602朝向用户的眼睛从中通过。
光导元件220b可以包括:具有均匀厚度的第三和第四光学表面223和224之间的主体部分232a;第一和第二表面221和222之间的第一倾斜部分231,其厚度从其中的一端(或从主体部分232a的一端)到其中的另一端逐渐减小;以及第三和第四表面223和224之间的第二倾斜部分233b,其厚度从其中的一端(或从主体部分232a的另一端)到其中的另一端逐渐减小。第二倾斜部分233b可以具有与面向可穿戴设备101前方的视图的倾斜表面对应的第五表面225b。
可变透镜240b可以包括用于由从显示元件210输出之后接收的第一光801穿透的第一穿透表面241,用于折射已经穿透第一穿透表面241的第一光801的折射表面242,以及用于由已经穿透折射表面242的第一光801穿透的第二穿透表面243b。折射表面242的形状(或形式)或曲率可以根据处理器的控制而变化。通过根据折射表面242的形状(或形式)或曲率中的变化来调节入射到用户的眼睛的第一光801的入射角,可变透镜240b可以控制在可穿戴设备(例如,可穿戴设备101)前方的实际视图(或视图的光学图像)上显示的虚拟图像的位置(或用户的眼睛和虚拟对象之间的虚拟对象距离)。
照明单元2810可以输出照明光3012。
第二会聚透镜2842可以会聚并输出从照明单元2810输出的照明光3012。例如,第二会聚透镜2842可以校准从照明单元2810输出的照明光3012。
第一分束器2831可以将照明光3012朝向光导元件220b的第二表面222输出。从第一分束器2831输出的照明光3012可以穿透第二表面222以入射到光导元件220b,并且可以由第五表面225a反射以朝向用户的眼睛输出。
从眼睛(或眼睛的视网膜)反射的光3014可以由第五表面225a反射,并且可以穿透第五表面225a和第二表面222以输入到第一分束器2831。
第一分束器2831可以将从光导元件220a接收的反射光3014输出到第一会聚透镜2841(或者可以允许反射光3014朝向第一会聚透镜2841从中穿透)。
第一会聚透镜2841可以将从第一分束器2831接收的反射光3014扩散(或会聚)。
光接收单元2820可以检测从第一会聚透镜2841接收的反射光3014。例如,光接收单元2820可以检测作为电(或数字)图像的由反射光3014形成的视网膜图像。
图31是图示根据本公开的实施例的提供虚拟图像的方法的流程图。
参考图31,提供虚拟图像的方法可以包括操作3110至3140。
在操作3110中,可穿戴设备(例如,可穿戴设备101)的处理器(例如,处理器120)可以被配置为通过传感器(例如,第一传感器191、191a或191b)(或通过投影型显示单元(例如,投影型显示单元161j、161k或161I))将照明光投射到用户的眼睛上。
在操作3120中,处理器可以被配置为通过传感器或投影型显示单元检测从眼睛(或眼睛的视网膜)反射的光。
在操作3130中,处理器可以被配置为基于关于检测到的光的视网膜图像的信息来获取与眼睛的观察点相关的观看距离信息。
根据本公开的实施例,处理器可以确定眼睛特征点的位置(例如,虹膜或瞳孔)是否被固定以预设的阈值时间,并且当特征点的位置被固定以预设的阈值时间时,执行操作3110、3120和3130中的至少一个。
根据本公开的实施例,当朝向瞳孔投射的照明光从视网膜反射时,视网膜图像信息可以包括关于从光接收单元检测的光的图像的尺寸信息、区域信息、位置信息、图案信息和亮度(或亮度分布)信息中的至少一条。例如,每条信息可以包括对应的值、对应的范围或对应的级别(或指示其中之一的标识符/代码)。
根据本公开的实施例,观看距离信息可以包括使用第三传感器(例如,第三传感器193)的距离测量信息、关于晶状体的焦距信息、倍率信息、屈光度信息、曲率(或曲率半径)信息以及厚度信息中的至少一条。例如,每条信息可以包括对应的值、对应的范围或对应的级别(或指示其中之一的标识符/代码)。
在操作3140中,处理器可以通过投影型显示单元在实际视图上显示虚拟图像(或虚拟对象),以将虚拟图像放置在与观看距离信息对应的位置上。
参考图21,处理器可以显示与关于包括实际对象2111、2112和2113的实际视图的观看距离信息对应的虚拟对象距离(例如,用户的眼睛和虚拟对象之间的距离)的虚拟图像2131、2132和2113。下面的描述基于作为示例的图2中所示的第一投影型显示单元161a进行。处理器可以通过改变可变透镜240a(或通过改变可变透镜的折射表面242的曲率)以调节入射到用户的眼睛的光2121、2122或2123的入射角,来控制用户的眼睛和用户识别的虚拟对象2131、2133或2133之间的虚拟对象距离以对应于观看距离信息。
图35图示了根据本公开的实施例的使用照明光来确定观看距离的方法。
参考图35,从对象3510出发的可见光3530可以由晶状体3501会聚,并且会聚的可见光3530可以在视网膜上形成对象3510的图像3512。
例如,与照明光3520相关的视网膜反射表面3502的尺寸信息(即散焦尺寸)b3、与眼睛3500的一部分(即,视网膜反射表面3502)的图像对应的视网膜图像的尺寸a3、晶状体线3501的焦距fe3、第一会聚透镜(例如,第一会聚透镜2741)以及第一会聚透镜2841的焦距fo可以具有b3/a3=fe3/fo的关系。
晶状体3501的焦距可以被定义为在平行光(照明光)穿透晶状体之后图像被聚焦的距离。此外,基于三角形比例规则,瞳孔尺寸L、与晶状体3501和对象3510之间的距离对应的对象距离So、晶状体3501的焦距fe3、与晶状体3501和视网膜之间的距离对应的ID Si以及关于视网膜反射表面3502的尺寸信息(散焦尺寸)b3可以具有b3=L(Si/fe3-1)的关系。参考这两个等式,视网膜图像尺寸a3和焦距fe3可以具有a3=Lfo/fe3(Si/fe3-1)的关系。
例如,参考Rossi,L.等人CIE 2012“照明质量和能量效率”的会议记录“不同照明源下的瞳孔尺寸”,根据基于瞳孔尺寸和照明之间的关系的照明,在成人的一般情况下,瞳孔尺寸L可以具有从2.5mm到7mm的值。处理器(例如,处理器120)可以基于关于使用照明传感器(例如,照明传感器194)检测的光的量或强度的信息来确定瞳孔尺寸L。例如,通过使用根据GullStrand型眼的简化示意图的ID(Si=17mm),处理器可以获取与视网膜图像尺寸a3对应的焦距fe3。此外,处理器可以基于1/So+1/Si=1/fe3的透镜公式获取对象距离So。处理器可以通过使用上述等式,基于焦距fe3计算对象距离So的值。
图32图示了根据各种实施例的提供虚拟图像的方法。
参考图32(a),示出了用户观看的不同距离的实际对象。例如,第一实际对象3211位于距用户的第一距离范围(例如,从0至1m的短距离范围)内,第二实际对象3212位于距用户的第二距离范围(例如,从1m至5m的中距离范围)内,并且第三实际对象3213位于距用户的第三距离范围(例如,从5m到无穷远的长距离范围)内。
参考图32(b),图示了根据用户观看的对象的距离的晶状体的变形例。例如,随着用户观看的对象的距离增加,晶状体的倍率、屈光度、曲率信息和厚度中的至少一个按照晶状体的第一变形例2802a、第二变形例2802b以及第三变形例2802c的顺序降低。
参考图32(c),图示了根据晶状体中的变化而入射到第一会聚透镜2841并从第一会聚透镜2841输出的光的入射角和出射角中的变化。
例如,随着用户观看对象的距离(或者晶状体的倍率、屈光度、曲率信息和厚度中的至少一个)增加,按照反射光的第一变形例2814a、第二变形例2814b以及第三变形例2814c的顺序,入射角逐渐减小,并且出射角逐渐增加。
参考图32(d),图示了根据入射到第一会聚透镜2841的反射光的入射角(或出射角)中的变化而由图像传感器2820检测的反射光的图像变化。
例如,随着用户观看对象的距离增加(或者晶状体的倍率、屈光度、曲率信息和厚度中的至少一个减小,或从第一会聚透镜2841输出的反射光的出射角增加),图像尺寸(或区域)可以按照第一图像3221、第二图像3222和第三图像3223的顺序减小(或中心亮度可能增加)。例如,随着用户观看对象的距离增加,由图像传感器2820检测到的反射光的图像的位置或图案可以改变。
根据本公开的实施例,处理器可以被配置为在预先存储在电子设备中的表中检测与由照明传感器测量的光强度信息对应的瞳孔尺寸信息。
如下表1中所示,预先存储在电子设备中的第一表(或数据库)可以以多个记录的形式存储多条信息。
[表1]
Figure GDA0001297942890000541
Figure GDA0001297942890000551
每个记录Ai(1≤i≤n,n是大于或等于1的整数)包括诸如光强度信息Ei和瞳孔尺寸信息Fi的场。光强度信息Ei可以包括由照明传感器检测到的光的强度、亮度和烛光(candela)中的至少一个。
根据本公开的实施例,处理器可以被配置为基于预先存储在电子设备中的表(或数据库)来确定与视网膜图像信息对应的观看距离信息。
根据本公开的实施例,处理器可以被配置为检测与预先存储在电子设备中的表(或数据库)中的视网膜图像信息对应的观看距离信息。
如下表2所示,预先存储在电子设备中的第二表(或数据库)可以以多个记录的形式存储多条信息。
[表2]
记录号 视网膜图像信息 观看距离信息
A1 B1 C1
A2 B2 C2
A3 B3 C3
每个记录Ai(1≤i≤n,n是大于或等于1的整数)包括诸如视网膜图像信息Bi和观看距离信息Ci的字段。视网膜图像信息Bi可以包括由图像传感器检测的反射光的图像的尺寸、区域、位置(或中心位置或坐标)、图案(例如,圆形、椭圆形、宽度/长度比和长轴/短轴比)和亮度(或亮度分布)中的至少一条。例如,每条视网膜图像信息Bi可以包括对应的值、对应的范围或对应的级别(或指示其中之一的标识符/代码)。观看距离信息Ci可以包括使用第三传感器(例如,第三传感器193)的距离测量信息、基于关于晶状体的焦距信息计算出的对象距离信息、关于基于视网膜图像信息计算出的视网膜反射表面(即,照射光入射和反射的视网膜的一些区域)的尺寸信息(即散焦尺寸)、关于晶状体的倍率信息、屈光度信息、曲率(曲率半径)信息以及厚度信息中的至少一条。例如,每条观看距离信息Ci可以包括对应的值、对应的范围或对应的级别(或指示其中之一的标识符/代码)。
根据本公开的实施例,处理器可以被配置为在预先存储在电子设备中的表(或数据库)中检测与视网膜图像信息对应的第一值。处理器可以被配置为从与第一值对应的表的第二值计算观看距离信息。
例如,当在第一表(或数据库)中检测到接近视网膜图像信息的值B1和B2时,处理器可以将值B1和B2之间的中间/平均值确定为观看距离信息。
图33是图示根据本公开的实施例的提供虚拟图像的方法的流程图。
参考图33,提供虚拟图像的方法可以包括操作3310至3340。
在操作3310中,可穿戴设备(例如,可穿戴设备101)的处理器(例如,处理器120)可以被配置为通过投影型显示单元(例如,投影型显示单元161j、161k或161I)显示具有关于实际视图的已知观看距离信息的虚拟图像(或虚拟对象)。
参考图21,处理器可以显示具有与关于包括实际对象2111、2112或2113的实际视图的观看距离信息对应的虚拟对象距离(例如,用户眼睛和虚拟对象之间的距离)的虚拟图像2131、2132或2133(例如,描述实际对象的图像)。
在操作3320中,处理器可以被配置为通过传感器(例如,第一传感器191、191a或191b)(或通过投影型显示单元)将照明光投射到用户的眼睛上。
在操作3330中,处理器可以被配置为通过传感器(例如,第一传感器191、191a或191b)检测从眼睛(或眼睛的视网膜)反射的光。
在操作3340中,处理器可以被配置为基于关于检测到的光的视网膜图像信息和已知的观看距离信息来改变预先存储在电子设备中的表(或数据库)。
例如,当与已知的观看距离信息C1对应的信息B1与相对于第一表(或数据库)中的检测光的视网膜图像信息(例如,值(B1-1))不同时,处理器可将B1改为B1-1。
图34是图示根据本公开的实施例的提供虚拟图像的方法的流程图。
参考图34,提供虚拟图像的方法可以包括操作3410至3430。
在操作3410中,可穿戴设备(例如,可穿戴设备101)的处理器(例如,处理器120)可以被配置为通过投影型显示单元(例如,第一投影型显示单元161j、161k或161I)在可穿戴设备前方的实际视图(或视图的光学图像)上显示第一虚拟图像。
例如,处理器可以通过投影型显示单元在与实际视图内的第一对象的位置对应的位置(例如,与实际视图内的第一对象的位置相同或接近的位置)上显示第一虚拟图像。
在另一示例中,处理器可以通过投影型显示单元在实际视图内的预设位置处显示第一虚拟图像。
在操作3420中,处理器可以被配置为通过传感器(例如,第一传感器191、191a或191b)(或通过投影型显示单元)将照明光投射到用户的眼睛上。
在操作3430中,处理器可以被配置为通过传感器或投影型显示单元检测从眼睛(或眼睛的视网膜)反射的光。
在操作3440中,处理器可以调节投影型显示单元内的可变透镜(例如,可变透镜2860、240a、240b、240c、240d或240e)的位置或屈光度。
例如,当第一对象和/或可穿戴设备移动时,处理器可以根据第一对象的改变位置来调节投影型显示单元内的可变透镜的位置或屈光度。
在另一示例中,当检测到用户查看不同于第一对象的实际视图内的第二对象时,处理器可以根据观察点的变化来调节投影型显示单元内可变透镜240a、240b、240c、240d或240e的位置或屈光度。
根据本公开的实施例,处理器可以基于相对于检测到的光的视网膜图像信息或观看距离信息来调节可变透镜的位置或屈光度。
根据本公开的实施例,视网膜图像信息可以包括关于光的图像的尺寸信息、区域信息、位置信息、图案信息和亮度(或亮度分布)信息中的至少一条。例如,每条信息可以包括对应的值、对应的范围或对应的级别(或指示其中之一的标识符/代码)。
根据本公开的实施例,观看距离信息可以包括使用第三传感器(例如,第三传感器193)的距离测量信息、基于关于晶状体的焦距信息计算出的对象距离信息、关于基于视网膜图像信息计算出的视网膜反射表面(即,照射光入射和反射的视网膜的一些区域)的尺寸信息(即,散焦尺寸)、倍率信息、屈光度信息、曲率(或曲率半径)信息,以及关于晶状体的厚度信息中的一条。例如,每条信息可以包括对应的值、对应的范围或对应的级别(或指示其中之一的标识符/代码)。
根据本公开的实施例,处理器可以被配置为基于预先存储在电子设备中的表(或数据库)来确定关于与视网膜图像信息对应的可变透镜的控制信息。
根据本公开的实施例,处理器可以被配置为在预先存储在电子设备中的表(或数据库)中,检测与视网膜图像信息对应的控制信息。
如下表3中所示,预先存储在电子设备中的第二表(或数据库)可以以多个记录的形式存储多条信息。
[表3]
记录号 视网膜图像信息 观看距离信息 控制信息
A1 B1 C1 D1
A2 B2 C2 D2
A3 B3 C3 D3
每个记录Ai(1≤i≤n,n是大于或等于1的整数)包括诸如视网膜图像信息Bi和观看距离信息Ci的字段。视网膜图像信息Bi可以包括由图像传感器检测的反射光的图像的尺寸、区域、位置(或中心位置或坐标)、图案(例如,圆形、椭圆形、宽度/长度比和/或长轴/短轴比)以及亮度(或亮度分布)中的至少一条。例如,每条视网膜图像信息Bi可以包括对应的值、对应的范围或对应的级别(或指示其中之一的标识符/代码)。观看距离信息Ci可以包括基于关于晶状体的焦距信息计算的对象距离信息、关于基于视网膜图像信息计算的视网膜反射表面(即,照明光入射和反射的视网膜的一些区域)的尺寸信息(即散焦尺寸)、关于晶状体的倍率信息、屈光度信息、曲率(曲率半径)信息以及厚度信息中的至少一条。例如,每条观看距离信息Ci可以包括对应的值、对应的范围或对应的级别(或指示其中之一的标识符/代码)。控制信息Di可以指示控制信息的类型/内容(例如,折射表面的形式、曲率变化和/或可变透镜的位置移动)、值、电平、代码,以及特定控制信息的标识符(例如,用于折射表面的形状(或形式)、折射表面的曲率变化和/或可变透镜的位置移动的电压、电流、电压/电流施加时间、电压/电流波形的值/值范围/代码,关于特定文件的标识信息等)。例如,控制信息Di可以包括对应的值、对应的范围或对应的级别(或指示其中之一的标识符/代码)。
在操作3450中,处理器可以通过投影型显示单元的控制,在比第一虚拟图像的位置更远或更近的位置处显示第二虚拟图像。
例如,当第一对象和/或可穿戴设备移动时,处理器可以通过投影型显示单元在与第一对象的改变位置对应的位置处(例如,与实际视图内第一对象的位置相同或接近的位置)显示第二虚拟图像。在这种情况下,第二虚拟图像可以与第一图像相同,仅在位置上不同。
在另一示例中,当检测到用户查看与第一对象不同的实际对象内的第二对象时,处理器可以通过投影型显示单元在与第二对象的位置对应的位置处显示第二虚拟图像(例如,与实际视图内的第二对象的位置相同或接近的位置)。在这种情况下,第二虚拟图像可以具有与第一虚拟图像的内容和位置不同的内容和位置,或者可以具有与第一虚拟图像的内容相同的内容,仅在位置上不同。
根据本公开的各种实施例,通过可穿戴设备输出虚拟图像的方法可以包括:将光辐射到用户(或佩戴者)的眼睛,随着辐射光通过晶状体,通过接收从视网膜反射的光来获取视网膜图像信息,基于获取的视网膜图像信息计算晶状体的焦距,并且基于计算的焦距确定用户的观看距离。
根据本公开的各种实施例,提供虚拟图像的方法可以包括拍摄视网膜图像,基于关于拍摄的视网膜图像的信息计算晶状体的焦距,基于计算的晶状体的焦距确定观看距离信息,并且通过基于确定的观看距离信息调节可变透镜的位置或屈光度来显示虚拟图像。
根据本公开的各种实施例,通过包括投影型显示单元的可穿戴设备提供虚拟图像的方法可以包括:通过照明单元(或投影型显示单元)将照明光投射到用户的眼睛,检测从眼睛(或眼睛的视网膜)反射的光,基于相对于检测到的光的视网膜图像信息来获取与眼睛的观察点(或焦点)相关的观看距离信息,并且通过投影型显示单元在实际视图上显示虚拟图像,以将虚拟图像放置在与观察点对应的距离(或观看距离信息)处。
根据本公开的各种实施例,通过包括投影型显示单元的可穿戴设备提供虚拟图像的方法可以包括:通过照明单元将照明光投射到用户的眼睛,通过光接收单元检测从眼睛(或眼睛的视网膜)反射的光,基于相对于检测到的光的视网膜图像信息来调节投影型显示单元内的可变透镜的位置或屈光度,并且通过投影型显示单元的控制显示虚拟图像。
根据本公开的各种实施例,通过包括投影型显示单元的可穿戴设备提供虚拟图像的方法可以包括:将照明光投射到用户的眼睛,检测从眼睛(或眼睛的视网膜)反射的光,基于相对于检测到的光的视网膜图像信息获取与眼睛的观察点(或焦点)相关的观看距离信息,并且通过投影型显示单元在实际视图上显示虚拟图像(或第一或第二虚拟图像),以将虚拟图像放置在与观看距离信息对应的距离处。
根据本公开的各种实施例,通过包括投影型显示单元的可穿戴设备提供虚拟图像的方法可以包括:通过投影型显示单元在可穿戴设备前方的实际视图上显示第一虚拟图像,将照明光投射到用户的眼睛,检测从眼睛(或眼睛的视网膜)反射的光,基于相对于检测到的光的视网膜图像信息来调节投影型显示单元内的可变透镜的位置或屈光度,并且通过投影型显示单元的控制,在比第一虚拟图像的位置更远或更近的位置处显示第二虚拟图像。
根据本公开的各种实施例,视网膜图像信息可以包括关于ISP传感器或图像传感器的像素信息、视网膜图像尺寸信息、区域信息、位置信息、图案信息和关于视网膜图像的亮度(或亮度分布)信息中的至少一条。例如,每条信息可以包括对应的值、对应的范围或对应的级别。
根据本公开的各种实施例,观看距离信息可以包括使用第三传感器(例如,第三传感器193)的距离测量信息、基于关于晶状体的焦距信息计算出的对象距离信息、关于基于视网膜图像信息计算出的视网膜反射表面(即,照射光入射和反射的视网膜的一些区域)的尺寸信息(即散焦尺寸)、关于晶状体的倍率信息、屈光度信息、曲率(或曲率半径)信息以及厚度信息中的至少一条。例如,每条信息可以包括对应的值、对应的范围或对应的级别。
根据本公开的各种实施例,获取观看距离信息可以包括基于预先存储在可穿戴设备中的表(或数据库)来确定与视网膜图像信息对应的观看距离信息。
根据本公开的各种实施例,获取观看距离信息可以包括基于预先存储在可穿戴设备中的表(或数据库)来确定与视网膜图像信息对应的观看距离信息。
根据本公开的各种实施例,获取观看距离信息可以包括在预先存储在可穿戴设备中的表(或数据库)中,检测与视网膜图像信息对应的第一值,以及从与第一值对应的表的第二值计算观看距离信息。
根据本公开的各种实施例,该方法可以进一步包括:通过投影型显示单元在可穿戴设备前方的实际视图上显示第三虚拟图像,将第二照明光投射到用户的眼睛,检测从眼睛(或眼睛的视网膜)反射的光,以及改变预先存储在可穿戴设备中的表(或数据库),其指示视网膜图像信息和观看距离信息之间基于关于检测到的光的信息的对应关系。
根据本公开的实施例,基于预先存储在可穿戴设备中的表(或数据库),可确定关于与视网膜图像信息对应的可变透镜的控制信息,或与视网膜图像信息以及眼睛的观察点(或焦点)相关的观看距离信息。
根据本公开的实施例,可以在预先存储在可穿戴设备中的表(或数据库)中检测到关于与视网膜图像信息对应的可变透镜的控制信息,或与视网膜图像信息以及眼睛的观察点(或焦点)相关的观看距离信息。
根据本公开的各种实施例,可穿戴设备可以包括输出照明光并检测反射光的第一传感器。
根据本公开的各种实施例,投影型显示单元可以包括:输出形成虚拟图像(或第一或第二虚拟图像)的第一光的显示元件、被设置在第一光的前进路径上并被配置为根据控制信号调节位置或屈光度的可变透镜、输出照明光并检测反射光的第一传感器、以及光导元件,该光导元件将从显示元件输出的第一光投射到眼睛上,将从第一传感器输出的照明光投射到眼睛上,并将反射光输出到第一传感器。
根据本公开的各种实施例,第一传感器可以包括输出照明光的照明单元(或光源),形成反射光的图像的透镜,以及检测反射光的图像的光接收单元(或图像传感器)。根据本公开的实施例,透镜可以被包括在光接收单元中。
根据本公开的各种实施例,第一传感器可以包括:输出照明光的照明单元(或光源)、将照明光输出到光导元件并将从光导元件接收的反射光输出到透镜的第一分束器、形成反射光的图像的透镜、以及检测反射光的图像的光接收单元(或图像传感器)。
根据本公开的各种实施例,第一传感器可以进一步包括第三分束器,其投射从第一分束器接收的照明光,将形成实际视图的第二光投射到眼睛上,并将反射光输出到第一分束器。
根据本公开的各种实施例,光导元件可以包括:第二分束器,其将从显示元件输出的第一光和从照明单元(或第一传感器)输出的照明光输出到第三分束器,并且将从第三分束器接收的反射光输出到光接收单元(或第一传感器),以及第三分束器,该第三分束器将从第二分束器接收的第一光和照明光投射到眼睛上,将形成实际视图的第二光投射到眼睛上,以及将反射光输出到第二分束器。
根据本公开的各种实施例,通过包括投影型显示单元的可穿戴设备提供虚拟图像的方法可以包括:通过投影型显示单元在可穿戴设备前方的实际视图上显示第一虚拟图像,调节投影型显示单元内可变透镜的位置或屈光度,以及通过投影型显示单元在比第一虚拟图像的位置更远或更近的位置处显示第二虚拟图像。
根据本公开的各种实施例,通过可穿戴设备提供虚拟图像的方法可以包括:获取关于眼睛特征点的位置的信息和/或关于可穿戴设备的倾斜度的信息,基于关于特征点的位置的信息和/或关于可穿戴设备的倾斜度的信息来获取关于预设参考点和实际视图的观察点之间的距离的信息,并且在实际视图上显示虚拟图像以将虚拟图像放置在与关于距离的信息对应的虚拟对象距离处。
根据本公开的各种实施例,关于特征点的位置的信息和关于距离的信息中的每一条可以包括对应的值或对应的范围。
根据本公开的各种实施例,可以基于眼睛的预设不同位置范围之一来获取关于位置的信息。
根据本公开的各种实施例,获取关于位置的信息可以包括:获取眼睛的预设不同位置范围中的包括特征点的位置范围或该位置范围内的特定位置作为关于特征的位置的信息。
根据本公开的各种实施例,关于位置的信息可以包括眼睛的预设轴上的位置。
根据本公开的各种实施例,可以基于眼睛的预设的不同距离范围之一来获取关于距离的信息。
根据本公开的各种实施例,可以基于预设的不同距离范围之一来获取关于距离的信息,并且不同的距离范围可以包括第一距离范围、比第一距离范围更远和/或更宽的第二距离范围以及比第二距离范围更远和/或更宽的第三距离范围中的至少两个。
根据本公开的各种实施例,关于距离的信息可以包括预设轴上的距离。
根据本公开的各种实施例,获取关于距离的信息可以包括获取与关于在预设的不同距离范围中的特征点的位置的信息对应的距离范围或该距离范围内的特定位置作为关于距离的信息。
根据本公开的各种实施例,该方法可以进一步包括确定特征点的位置是否被固定以预设的阈值时间,其中当特征点的位置被固定以预设的阈值时间时,可启动关于距离的信息的获取。
根据本公开的各种实施例,可以基于关于特征点的位置的信息和关于倾斜度的信息来获取关于距离的信息。
根据本公开的各种实施例,获取关于距离的信息可以包括:获取预设不同距离范围中与关于倾斜度的信息和关于特征点的位置的信息对应的距离范围或该距离范围内的特定位置作为关于距离的信息。
根据本公开的各种实施例,获取关于距离的信息可以包括:在预设的不同距离范围中确定与关于倾斜度的信息对应的第一距离范围,并且获取在第一距离范围内的预设不同距离范围中与关于特征点位置的信息对应的第二距离范围或第二距离范围内的特定位置作为关于距离的信息。
根据本公开的各种实施例,该方法可以进一步包括通过使用可穿戴设备的传感器来测量预设参考点与实际视图内的至少一个对象之间的距离,其中关于距离的信息可以基于关于特征点的位置和测量距离的信息来获取。
根据本公开的各种实施例,该方法可以进一步包括:通过使用可穿戴设备的传感器来测量预设参考点和实际视图内的实际对象之间的距离,其中获取关于距离的信息可以包括在预设的不同距离范围中确定与特征点的位置的信息对应的距离范围,确定测量距离是否属于确定的距离范围,当测量距离属于确定的距离范围时获取测量距离作为关于距离的信息,并且当测量距离不属于确定的距离范围时,获取确定的距离范围或确定的距离范围内的特定位置作为关于距离的信息。
根据本公开的各种实施例,该方法可以进一步包括:通过使用可穿戴设备的传感器来测量预设参考点和实际视图内的实际对象之间的距离,其中获取关于距离的信息可以包括在预设的不同距离范围中确定与关于特征点的位置的信息对应的距离范围,以及在测量的距离中获取属于确定的距离范围的距离作为关于距离的信息。
根据本公开的各种实施例,该方法可以进一步包括通过使用可穿戴设备的传感器来测量预设参考点和实际视图内的实际对象之间的距离,其中可以基于关于特征点的位置的信息和关于倾斜度的信息来获取关于距离的信息。
根据本公开的各种实施例,该方法可以进一步包括:通过使用可穿戴设备的传感器来测量预设参考点和实际视图内的实际对象之间的距离,其中获取关于距离的信息可以包括在预设的不同距离范围中确定与关于倾斜度的信息和关于特征点的位置的信息对应的距离范围,确定测量的距离是否属于确定的距离范围,当测量距离属于确定的距离范围时获取测量的距离作为关于距离的信息,并且当测量的距离不属于确定的距离范围时,获取确定的距离范围或确定的距离范围内的特定位置作为关于距离的信息。
根据本公开的各种实施例,该方法可以进一步包括:通过使用可穿戴设备的传感器来测量预设参考点和实际视图内的实际对象之间的距离,其中获取关于距离的信息可以包括在预设的不同距离范围中确定与关于倾斜度的信息和关于特征点的位置的信息对应的距离范围,并且将在测量的距离中属于确定的距离范围的距离作为关于距离的信息。
根据本公开的各种实施例,虚拟图像的显示可以包括:调节投影型显示单元内的可变透镜的位置或屈光度,以允许可穿戴设备内的投影型显示单元显示的图像具有虚拟对象距离,并且控制投影型显示单元投射形成虚拟图像的光位于虚拟对象距离处。
根据本公开的各种实施例,可穿戴设备可以包括:投影型显示单元,其包括可变透镜并投射形成图像的光;第一传感器,其检测从用户(或佩戴者)的眼睛反射的光;以及处理器,其通过基于与检测到的光对应的视网膜图像信息来控制可变透镜的位置和可变透镜的屈光度中的一个,来控制投影型显示单元显示虚拟图像。
根据本公开的各种实施例,可穿戴设备可以包括:投影型显示单元,其被配置为投射形成图像的光;以及处理器,其被配置为通过投影型显示单元在可穿戴设备前方的实际视图上显示第一虚拟图像,调节投影型显示单元内的可变透镜的位置或屈光度,并且通过投影型显示单元在比第一虚拟图像的位置更远或更近的位置显示第二虚拟图像。
根据本公开的各种实施例,可穿戴设备可以包括:传感器模块;投影型显示单元,其被配置为投射形成图像的光;以及处理器,其被配置为使用传感器模块获取关于眼睛特征点的位置的信息和/或关于可穿戴设备的倾斜度的信息,基于关于特征点的位置的信息和/或关于可穿戴设备的倾斜度的信息来获取关于预设参考点和实际视图的观察点之间的距离的信息,并且使用投影型显示单元在实际视图上显示虚拟图像,以将虚拟图像放置在与距离信息对应的虚拟对象距离处。
根据本公开的各种实施例,处理器可以被配置为在眼睛的预设不同位置范围中获取包括特征点的位置范围或该位置范围内的特定位置作为关于特征位置的信息。
根据本公开的各种实施例,处理器可以被配置为在预设的不同距离范围中获取与特征点的位置的信息对应的距离范围或该距离范围内的特定位置作为关于距离的信息
根据本公开的各种实施例,处理器可以被配置为确定特征点的位置是否被固定以预设的阈值时间,并且当特征点的位置被固定以预设的阈值时间时,启动用于获取关于距离的信息的操作。
根据本公开的各种实施例,处理器可以被配置为通过传感器模块的第一传感器获取关于特征点的位置的信息,并通过传感器模块的第二传感器获取关于可穿戴设备的倾斜度的信息。
根据本公开的各种实施例,处理器可以被配置为在预设的不同距离范围中获取与关于倾斜度的信息和关于特征点位置的信息对应的距离范围或该距离范围内的特定位置作为关于距离的信息。
根据本公开的各种实施例,处理器可以被配置为在预设的不同距离范围中确定与关于倾斜度的信息对应的第一距离范围,并且在第一距离范围内的预设不同距离范围中获取与关于特征点的位置的信息对应的第二距离范围或第二距离范围内的特定位置作为关于距离的信息。
根据本公开的各种实施例,处理器可以被配置为通过传感器模块的第三传感器来测量预设参考点与实际视图内的至少一个对象之间的距离。
根据本公开的各种实施例,处理器可以被配置为:在预设的不同距离范围中确定与关于特征点的位置的信息对应的距离范围,确定测量的距离是否属于确定的距离范围,当测量距离属于确定的距离范围时获取测量距离作为关于距离的信息,并且当测量的距离不属于确定的距离范围时,获取确定的距离范围或确定的距离范围内的特定位置作为关于距离的信息。
根据本公开的各种实施例,处理器可以被配置为在预设的不同距离范围中确定与关于特征的位置的信息对应的距离范围,并且获取属于测量距离范围中的确定距离范围的距离作为关于距离的信息。
根据本公开的各种实施例,处理器可以被配置为在预设的不同距离范围中确定与关于倾斜度的信息和关于特征点的位置的信息对应的距离范围,确定由传感器模块测量的距离是否属于确定的距离范围,当测量距离属于确定的距离范围时获取测量距离作为关于距离的信息,并当测量距离不属于确定的距离范围时,获取确定的距离范围或确定的距离范围内的特定位置作为关于距离的信息。
根据本公开的各种实施例,处理器可以被配置为在预设的不同距离范围中确定与关于倾斜度的信息和关于特征位置的信息对应的距离范围,并获取属于测量距离中确定的距离范围的距离作为关于距离的信息。
根据本公开的各种实施例,处理器可以被配置为调节投影型显示单元内的可变透镜的位置或屈光度,以允许由投影型显示单元显示的图像具有虚拟对象距离,并控制投影型显示单元投射形成虚拟图像的光位于虚拟对象距离处。
根据本公开的各种实施例,投影型显示单元可以包括输出形成图像的光的显示元件,将从显示元件输出的光投射到眼睛上的光导元件,以及被设置在光的前进路径上并根据控制信号调节位置或屈光度的可变透镜。
根据本公开的各种实施例,可变透镜的折射表面面向光导元件的端部,并且折射表面的形式可以根据控制信号而变化。
根据本公开的各种实施例,可变透镜可以被设置在显示元件和光导元件之间,可变透镜的形式可以根据控制信号而变化,并且已通过可变透镜的光可以耦合到光导元件中。
根据本公开的各种实施例,可变透镜可以被设置在光导元件内,可变透镜的形式可以根据控制信号而变化,并且在光导元件内部前进的光可以穿透可变透镜。
根据本公开的各种实施例,可变透镜可以被设置在显示元件和光导元件之间,可变透镜的位置可以根据控制信号而变化,并且已经通过可变透镜的光可以耦合到光导元件中。
根据本公开的各种实施例,可变透镜可以被设置在光导元件内,可变透镜的位置可以根据控制信号而变化,并且在光导元件内部前进的光可以穿透可变透镜。
根据本公开的各种实施例,可穿戴设备可以包括:投影型显示单元,其被配置为投射形成图像的光;以及处理器,其被配置为将照明光投射到用户的眼睛上,检测从眼睛(或眼睛的视网膜)反射的光,基于相对于检测到的光的视网膜图像信息来获取与眼睛的观察点(或焦点)相关的观看距离信息,并且通过投影型显示单元在实际视图上显示虚拟图像(或第一或第二虚拟图像),以将虚拟图像放置在与观看距离信息对应的距离处。
根据本公开的各种实施例,可穿戴设备可以包括:投影型显示单元,其被配置为投射形成图像的光;以及处理器,其被配置为通过照明单元(或第一传感器)投射照明光到用户的眼睛上,通过光接收单元检测从眼睛(或眼睛的视网膜)反射的光,基于相对于检测到的光的视网膜图像信息,获取与眼睛的观察点(或焦点)相关的观看距离信息,并且通过投影型显示单元在实际视图上显示虚拟图像(或第一或第二虚拟图像),以将虚拟图像放置在与观看距离信息对应的距离处。
根据本公开的各种实施例,可穿戴设备可以包括:投影型显示单元,其被配置为投射形成图像的光;以及处理器,其被配置为通过投影型显示单元在可穿戴设备前方的实际视图上显示第一虚拟图像,通过投影型显示单元将照明光投射到用户的眼睛上,通过投影型显示单元检测从眼睛(或眼睛的视网膜)反射的光,基于相对于检测到的光的视网膜图像信息调节在投影型显示单元内的可变透镜的位置或屈光度,并且通过投影型显示单元在比第一虚拟图像的位置更远或更近的位置处显示第二虚拟图像。
根据本公开的各种实施例,可穿戴设备可以包括:投影型显示单元,其被配置为投射形成图像的光;照明单元(或第一传感器),其被配置为生成照明光;以及处理器,其被配置为通过投影型显示单元在可穿戴设备前方的实际视图上显示第一虚拟图像,通过照明单元(或第一传感器)将照明光投射到用户的眼睛上,通过照明单元(或第一传感器)检测从眼睛(或眼睛的视网膜)反射的光,基于相对于检测到的光的视网膜图像信息调节投影型显示单元内的可变透镜的位置或屈光度,并且通过投影型显示单元将第二虚拟图像显示在比第一虚拟图像的位置更远或更近的位置处。
根据本公开的各种实施例,视网膜图像信息可以包括关于检测到的光的图像的尺寸信息、区域信息、位置信息、图案信息和亮度(或亮度分布)信息中的至少一条。例如,每条信息可以包括对应的值、对应的范围或对应的级别。
根据本公开的各种实施例,观看距离信息可以包括使用第三传感器(例如,第三传感器193)的距离测量信息、基于关于晶状体的焦距信息计算的对象距离信息、基于视网膜图像信息计算的视网膜反射表面(即,照射光入射和反射的视网膜的一些区域)的尺寸信息(即散焦尺寸)、关于晶状体的倍率信息、屈光度信息、曲率(或曲率半径)信息以及厚度信息中的至少一条。例如,每条信息可以包括对应的值、对应的范围或对应的级别。
根据本公开的各种实施例,处理器可以被配置为随着辐射光通过晶状体,通过接收从视网膜反射的光来获取视网膜图像信息,基于获取的视网膜图像信息计算晶状体的焦距,并且基于计算的焦距来确定用户的观看距离。
根据本公开的各种实施例,处理器可以被配置为通过投影型显示单元在前实际视图上显示第一虚拟图像,基于相对于检测到的光的视网膜图像信息来调节可变透镜的位置或屈光度,并且通过投影型显示单元在比第一图像的位置更远或更近的位置处显示第二图像。
根据本公开的各种实施例,处理器可以被配置为基于预先存储在可穿戴设备中的表(或数据库)来确定与视网膜图像信息对应的观看距离信息。
根据本公开的实施例,处理器可以被配置为检测与预先存储在可穿戴设备中的表(或数据库)中的视网膜图像信息对应的观看距离信息。
根据本公开的各种实施例,处理器可以被配置为检测与预先存储在可穿戴设备中的表(或数据库)中的视网膜图像信息对应的第一值,并从与第一值对应的表的第二值计算观看距离信息。
根据本公开的各种实施例,处理器可以被配置为通过投影型显示单元在可穿戴设备前方的实际视图上显示第三虚拟图像,通过投影型显示单元或照明单元(或第一传感器)将第二照明光投射到用户的眼睛上,通过投影型显示单元或光接收单元(或第一传感器)检测从眼睛(或眼睛的视网膜)反射的光,并且改变预先存储在可穿戴设备中的表(或数据库),其指示视网膜图像信息和观看距离信息之间的对应关系。
根据本公开的各种实施例,处理器可以被配置为基于预先存储在可穿戴设备中的表(或数据库),确定关于与视网膜图像信息对应的可变透镜的控制信息或与视网膜图像信息相关的观看距离信息以及眼睛的观察点(或焦点)。
根据本公开的各种实施例,处理器可以被配置为在预先存储在可穿戴设备中的表(或数据库)中,检测关于与视网膜图像信息对应的可变透镜的控制信息或与视网膜图像信息相关的观看距离信息以及眼睛的观察点(或焦点)。
根据本公开的各种实施例,可穿戴设备可以包括输出照明光并检测反射光的第一传感器。
根据本公开的各种实施例,投影型显示单元可以包括:显示元件,其输出形成虚拟图像(或第一或第二虚拟图像)的第一光;可变透镜,其被设置在第一光的前进路径上并且被配置为根据控制信号调节位置或屈光度;第一传感器,其被配置为输出照明光并检测反射光;以及光导元件,其被配置为将从显示元件输出的第一光投射到眼睛上,将从第一传感器输出的照明光投射到眼睛上,以及将反射光输出到第一传感器。
根据本公开的各种实施例,第一传感器可以包括被配置为输出照明光的照明单元(或光源),被配置为形成反射光的图像的透镜,以及被配置为检测反射光的图像的光接收单元(或图像传感器)。
根据本公开的各种实施例,第一传感器可以包括被配置为输出照明光的照明单元(或光源),被配置为将照明光输出到光导单元并将从光导元件接收的反射光输出到透镜的第一分束器,以及配置为形成反射光的图像的透镜,以及被配置为检测反射光的图像的光接收单元(或图像传感器)。
根据本公开的各种实施例,第一传感器可以进一步包括第三分束器,其被配置为将从第一分束器接收的照明光投射到眼睛上,将形成实际视图的第二光投射到眼睛上,并将反射光输出到第一分束器。
根据本公开的各种实施例,光导元件可以包括第二分束器,其被配置为将从显示元件输出的第一光和从照明单元(或第一传感器)输出的照明光输出到第三分束器,并且将从第三分束器接收的反射光输出到光接收单元(或第一传感器);以及第三分束器,其被配置为将从第二分束器接收的第一光和照明光投射到眼睛上,将形成实际视图的第二光投射到眼睛上,并将反射光输出到第二分束器。
根据本公开的各种实施例的电子设备的上述部件可以由一个或多个部件形成,并且可以基于电子设备的类型来改变对应部件的名称。根据本公开的电子设备可以包括一个或多个上述部件,或者可以进一步包括其它附加部件,或者可以省略一些上述部件。此外,根据本公开的各种实施例的电子设备的一些部件可以组合以形成单个实体,并且因此可以等效地执行对应元件在组合之前的功能。
在本公开的各种实施例中使用的“模块”可以指例如包括硬件、软件和固件中的一个或者硬件、软件和固件中的两个或更多个的组合的“单元”。“模块”可以与诸如单元、逻辑、逻辑块、部件、电路等的术语互换使用。“模块”可以是集成部件或其一部分的最小单元。“模块”可以是执行一个或多个功能或其一部分的最小单元。“模块”可以机械地或电子地实现。例如,根据本公开的各种实施例的“模块”可以包括专用集成电路(ASIC)芯片、现场可编程门阵列(FPGA)和用于执行以下已知或将要开发的操作的可编程逻辑器件中的至少一个。
根据本公开的各种实施例,根据本公开的各种实施例的设备的至少一部分(例如,其模块或功能)或方法(例如,操作)可以通过例如存储在以编程模块形式的计算机可读存储介质中的命令实施。当命令由一个或多个处理器(例如,处理器120)执行时,该一个或多个处理器可以执行与该命令对应的功能。计算机可读存储介质可以是例如存储器130。至少一些编程模块可以由例如处理器120来实现(例如,执行)。至少一些编程模块可以包括例如,模块、程序、例程、一组指令或用于执行一个或多个功能的进程。
本公开的某些方面也可以实施为非暂时计算机可读记录介质上的计算机可读代码。非暂时性计算机可读记录介质是可以存储随后可由计算机系统读取的数据的任何数据存储设备。非暂时计算机可读记录介质的示例包括只读存储器(ROM)、随机存取存储器(RAM)、压缩光盘(CD-ROM)、磁带、软盘和光数据存储设备。非暂时计算机可读记录介质也可以分布在网络耦合的计算机系统上,使得计算机可读代码以分布式方式被存储和执行。此外,用于实现本公开的功能程序、代码和代码段可以容易地由本公开所属领域的技术人员解释。
在这一点上,应当注意,如上所述的本公开的各种实施例通常涉及在一定程度上处理输入数据和生成输出数据。该输入数据处理和输出数据生成可以与硬件结合地以硬件或软件实现。例如,可以在移动设备或类似的或相关的电路中采用特定的电子部件来实现与上述本发明的各种实施例相关联的功能。可替代地,根据存储的指令操作的一个或多个处理器可以实现与如上所述的本公开的各种实施例相关联的功能。如果是这种情况,则在本公开的范围内,这种指令可以存储在一个或多个非暂时处理器可读介质上。处理器可读介质的示例包括ROM、RAM、CD-ROM、磁带、软盘和光数据存储设备。处理器可读介质也可以分布在网络耦合的计算机系统上,使得指令以分布式方式被存储和执行。此外,用于实现本公开的功能计算机程序、指令和指令段可以容易地由本公开所属领域的技术人员解释。
根据本公开的模块或编程模块可以包括所描述的组成元件中的至少一个,可以省略一些组成元件,或者可以包括附加的组成元件。根据本公开的各种实施例的由模块、编程模块或其它组成元件执行的操作可以并行、重复地或以启发式方式顺序地执行。此外,一些操作可以根据另一顺序执行或者可以被省略,或者可以添加其它操作。
根据本公开的各种实施例,提供了存储命令的存储介质。命令被配置为允许一个或多个处理器在该命令由一个或多个处理器执行时执行一个或多个操作。一个或多个操作可以包括:通过投影型显示单元在可穿戴设备前方的实际视图上显示第一虚拟图像,调节投影型显示单元内的可变透镜的位置或屈光度,并且通过投影型显示单元在比第一虚拟图像的位置更远或更近的位置处显示第二虚拟图像。
根据本公开的各种实施例,提供了存储命令的存储介质。命令被配置为允许一个或多个处理器在该命令由一个或多个处理器执行时执行一个或多个操作。一个或多个操作可以包括:获取关于眼睛特征点的位置的信息和/或关于可穿戴设备的倾斜度的信息,关于特征点的位置的信息和/或关于可穿戴设备的倾斜度的信息来获取关于预设参考点和实际视图的观察点之间的距离的信息,以及在实际视图上显示虚拟图像,以将虚拟图像放置在与距离信息对应的虚拟对象处。
根据本公开的各种实施例,提供了存储命令的存储介质。命令被配置为允许一个或多个处理器在由一个或多个处理器执行时执行一个或多个操作。一个或多个操作可以包括:将照明光投射到用户的眼睛上,检测从眼睛(或视网膜或眼睛)反射的光,基于相对于检测到的光的视网膜图像信息获取与眼睛的观察点(或焦点)相关的观看距离信息,以及通过投影型显示单元在实际视图上显示虚拟图像(或第一或第二虚拟图像),以将虚拟图像显示在与观看距离信息对应的距离处。
根据本公开的各种实施例,提供了存储命令的存储介质。命令被配置为允许一个或多个处理器在该命令由一个或多个处理器执行时执行一个或多个操作。一个或多个操作可以包括:通过投影型显示单元在可穿戴设备前方的实际视图上显示第一虚拟图像,将照明光投射到用户的眼睛,检测从眼睛(或眼睛的视网膜)反射的光,基于相对于检测到的光的视网膜图像信息来调节投影型显示单元内的可变透镜的位置或屈光度,以及通过投影型显示单元的控制,通过投影型显示单元在比第一虚拟图像的位置更远或更近的位置处显示第二虚拟图像。
根据本公开的各种实施例,提供了存储命令的存储介质。命令被配置为允许一个或多个处理器在该命令由一个或多个处理器执行时执行一个或多个操作。一个或多个操作可以包括:通过投影型显示单元在可穿戴设备前方的实际视图上显示第一虚拟图像,通过控制投影型显示单元来调节投影型显示单元内的可变透镜的位置或屈光度,并且通过投影型显示单元的控制,在比第一虚拟图像的位置更远或更近的位置处显示第二虚拟图像。
虽然已经参考本发明的各种实施例显示和描述了本公开,但是本领域技术人员将会理解,在不脱离由所附权利要求及其等同物定义的本公开的精神和范围的情况下,可以在形式和细节上进行各种改变。

Claims (15)

1.一种通过可穿戴设备输出虚拟图像的方法,所述方法包括:
将光辐射到用户的眼睛;
通过接收从视网膜反射的光获取视网膜图像信息;
通过使用可穿戴设备内包含的传感器获取关于可穿戴设备的倾斜度的倾斜度信息;
基于视网膜图像信息和倾斜度信息识别用户的观看距离;以及
基于用户的观看距离,通过使用可穿戴设备内包含的投影类型显示单元来显示虚拟图像。
2.根据权利要求1所述的方法,其中识别用户的观看距离包括基于特征点的位置和倾斜度信息来获取基于预设参考点和用户的观察点之间的距离的用户的观看距离。
3.根据权利要求1或2所述的方法,其中所述视网膜图像信息包括关于图像信号处理器(ISP)传感器的像素信息、关于视网膜图像的尺寸信息、区域信息、位置信息、图案信息以及亮度信息中的至少一条。
4.根据权利要求1至2中任一项所述的方法,其中所述观看距离基于传感器的距离测量信息、基于关于晶状体的焦距信息计算出的对象距离信息、基于所述视网膜图像信息计算出的视网膜反射表面尺寸信息、关于所述晶状体的倍率信息、屈光度信息、曲率信息以及厚度信息中的至少一条而识别。
5.根据权利要求1至2中任一项所述的方法,进一步包括基于所述视网膜图像信息来更新指示所述视网膜图像信息和所述观看距离之间的对应关系的数据库中的预存储数据。
6.根据权利要求1至2中任一项所述的方法,其中基于数据库确定与所述视网膜图像信息对应的所述观看距离。
7.根据权利要求1至2中任一项所述的方法,其中基于数据库确定与所述观看距离对应的可变透镜的控制信息。
8.根据权利要求1至2中任一项所述的方法,进一步包括:
通过照明传感器检测周围的照明;
基于所述周围的照明识别瞳孔尺寸;以及
基于所述视网膜图像信息和所述瞳孔尺寸来识别晶状体的焦距。
9.一种存储指令的计算机可读存储介质,所述指令在执行时使至少一个处理器执行根据权利要求1至8中任一项所述的方法。
10.一种可穿戴设备,包括根据权利要求9所述的计算机可读存储介质。
11.一种可穿戴设备,包括:
投影型显示单元,其包括可变透镜并且被配置为投射形成图像的光;
第一传感器,其被配置为检测从用户的眼睛反射的光;
第二传感器,其被配置为检测可穿戴设备的倾斜度;以及
处理器,其被配置为:
通过接收从视网膜反射的光获取视网膜图像信息,
通过使用第二传感器获取关于可穿戴设备的倾斜度的倾斜度信息,
基于所获取的视网膜图像信息和所获取的倾斜度信息来识别用户的观看距离,以及
基于所述观看距离,通过控制可变透镜的位置和可变透镜的屈光度中的至少一个来控制投影型显示单元以显示虚拟图像。
12.根据权利要求11所述的可穿戴设备,其中所述投影型显示单元包括:
显示元件,其被配置为输出形成所述虚拟图像的第一光;
所述可变透镜,其被设置在所述第一光的前进路径上并且被配置为根据控制信号调节位置或屈光度;
光源,其被配置为发射照明光;
光接收单元,其被配置为检测反射光;以及
光导元件,其被配置为:
将从所述显示元件输出的所述第一光投射到所述眼睛上,
将从所述光源输出的所述照明光投射到所述眼睛上,以及
将所述反射光输出到所述光接收单元。
13.根据权利要求12所述的可穿戴设备,
其中所述投影型显示单元进一步包括被配置为形成所述反射光的图像的透镜,以及
其中所述光接收单元被配置为检测所述反射光的图像。
14.根据权利要求13所述的可穿戴设备,其中所述投影型显示单元进一步包括第一分束器,所述第一分束器被配置为:
将所述照明光输出到所述光导元件,以及
将从所述光导元件接收的所述反射光输出到所述透镜。
15.根据权利要求12所述的可穿戴设备,其中所述光导元件包括:
第二分束器,其被配置为:
将从所述显示元件输出的所述第一光和从所述光源输出的所述照明光输出到第三分束器,以及
将从所述第三分束器输入的反射光输出到所述光接收单元;以及
所述第三分束器,其被配置为:
将从所述第二分束器接收的所述第一光和所述照明光投射到所述眼睛上,
将形成实际视图的第二光投射到所述眼睛上,以及
将所述反射光输出到所述第二分束器。
CN201580062656.9A 2014-11-18 2015-11-13 用于输出虚拟图像的可穿戴设备和方法 Active CN106999034B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR20140161127 2014-11-18
KR10-2014-0161127 2014-11-18
KR1020150099358A KR20160059406A (ko) 2014-11-18 2015-07-13 가상 이미지를 출력하기 위한 웨어러블 장치 및 방법
KR10-2015-0099358 2015-07-13
PCT/KR2015/012232 WO2016080708A1 (en) 2014-11-18 2015-11-13 Wearable device and method for outputting virtual image

Publications (2)

Publication Number Publication Date
CN106999034A CN106999034A (zh) 2017-08-01
CN106999034B true CN106999034B (zh) 2020-01-10

Family

ID=55961527

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580062656.9A Active CN106999034B (zh) 2014-11-18 2015-11-13 用于输出虚拟图像的可穿戴设备和方法

Country Status (5)

Country Link
US (2) US10175485B2 (zh)
EP (1) EP3222037A4 (zh)
KR (1) KR20160059406A (zh)
CN (1) CN106999034B (zh)
WO (1) WO2016080708A1 (zh)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10113877B1 (en) * 2015-09-11 2018-10-30 Philip Raymond Schaefer System and method for providing directional information
CA2925791C (en) * 2016-03-31 2017-09-12 Cae Inc Image generator for suppressing a gap between two adjacent reflective surfaces
KR102525126B1 (ko) * 2016-07-29 2023-04-25 삼성전자주식회사 홍채 카메라를 포함하는 전자 장치
CN106444028B (zh) * 2016-09-27 2019-11-19 成都虚拟世界科技有限公司 一种近眼显示系统以及虚拟现实设备
EP4300160A2 (en) 2016-12-30 2024-01-03 Magic Leap, Inc. Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light
CN106710497B (zh) * 2017-01-20 2020-05-12 京东方科技集团股份有限公司 显示系统及显示方法
IL252582A0 (en) * 2017-05-29 2017-08-31 Eyeway Vision Ltd A method and system for registration between the outside world and a virtual image
KR102481884B1 (ko) 2017-09-22 2022-12-28 삼성전자주식회사 가상 영상을 표시하는 방법 및 장치
KR102469720B1 (ko) * 2017-10-31 2022-11-23 삼성전자주식회사 전자 장치 및 이를 이용한 눈의 충혈도 판단 방법
KR20230152180A (ko) 2017-12-10 2023-11-02 매직 립, 인코포레이티드 광학 도파관들 상의 반사―방지 코팅들
CN107967885A (zh) * 2017-12-27 2018-04-27 北京枭龙防务科技有限公司 一种自动调整显示内容的透视型近眼显示装置及方法
CN111630847B (zh) * 2018-01-29 2023-04-18 索尼公司 影像投影装置、影像投影方法、影像显示光输出控制方法
US10867174B2 (en) * 2018-02-05 2020-12-15 Samsung Electronics Co., Ltd. System and method for tracking a focal point for a head mounted device
EP3754407B1 (en) 2018-02-12 2024-04-03 Matrixed Reality Technology Co., Ltd. Augmented reality device and optical system used therein
KR102546994B1 (ko) * 2018-02-26 2023-06-22 엘지전자 주식회사 웨어러블 글래스 장치
CN112136152A (zh) 2018-03-15 2020-12-25 奇跃公司 由观看设备的部件变形导致的图像校正
US10598936B1 (en) * 2018-04-23 2020-03-24 Facebook Technologies, Llc Multi-mode active pixel sensor
KR102462678B1 (ko) 2018-05-18 2022-11-04 삼성전자주식회사 주변 조도에 기반하여 디스플레이에 표시되는 콘텐트의 위치를 조절하는 전자 장치와 이의 동작 방법
US11856479B2 (en) 2018-07-03 2023-12-26 Magic Leap, Inc. Systems and methods for virtual and augmented reality along a route with markers
US10795458B2 (en) 2018-08-03 2020-10-06 Magic Leap, Inc. Unfused pose-based drift correction of a fused pose of a totem in a user interaction system
KR20200021670A (ko) * 2018-08-21 2020-03-02 삼성전자주식회사 웨어러블 장치 및 그 제어 방법
KR20200043768A (ko) 2018-10-18 2020-04-28 삼성전자주식회사 투시형 디스플레이 장치
CN109613693A (zh) * 2018-11-02 2019-04-12 上海酷聚科技有限公司 一种液体透镜
CN109254398A (zh) * 2018-11-02 2019-01-22 上海酷聚科技有限公司 一种变焦液体透镜
CN109613700A (zh) * 2018-11-02 2019-04-12 上海酷聚科技有限公司 一种ar眼镜以及光线控制方法
KR20200120466A (ko) * 2019-04-11 2020-10-21 삼성전자주식회사 헤드 마운트 디스플레이 장치 및 그 동작방법
WO2020209491A1 (en) 2019-04-11 2020-10-15 Samsung Electronics Co., Ltd. Head-mounted display device and operating method of the same
CN110840721B (zh) * 2019-11-25 2022-04-15 北京耐德佳显示技术有限公司 一种基于近眼显示的视力防控、训练方法及近眼显示设备
EP4202531A4 (en) * 2020-11-24 2024-03-20 Samsung Electronics Co Ltd WEARABLE ELECTRONIC DEVICE WITH AUGMENTED REALITY INCLUDING A CAMERA
CN117413060A (zh) * 2021-08-02 2024-01-16 海思智财控股有限公司 用于真实空间导航的扩增实境系统以及使用该系统的手术系统
CN114415368B (zh) * 2021-12-15 2023-05-12 青岛歌尔声学科技有限公司 Vr设备的调控方法、调控装置、vr设备、系统及存储介质
WO2024025221A1 (ko) * 2022-07-27 2024-02-01 삼성전자 주식회사 전자 장치 및 이의 동작 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101506868A (zh) * 2006-09-08 2009-08-12 索尼株式会社 显示设备和显示方法
CN102937745A (zh) * 2012-11-13 2013-02-20 京东方科技集团股份有限公司 开放式头戴显示装置及其显示方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4987487A (en) * 1988-08-12 1991-01-22 Nippon Telegraph And Telephone Corporation Method of stereoscopic images display which compensates electronically for viewer head movement
WO2006057227A1 (ja) * 2004-11-26 2006-06-01 Konica Minolta Photo Imaging, Inc. 映像表示装置
JP2006195084A (ja) * 2005-01-12 2006-07-27 Sharp Corp 表示装置
JP2006195665A (ja) 2005-01-12 2006-07-27 Sharp Corp 情報処理装置
EP2142953B1 (en) * 2007-04-22 2019-06-05 Lumus Ltd A collimating optical device and system
JP4973613B2 (ja) 2008-07-16 2012-07-11 トヨタ自動車株式会社 運転者状態検出装置
US20130278631A1 (en) 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
US9292973B2 (en) 2010-11-08 2016-03-22 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays
JP6007466B2 (ja) * 2010-12-27 2016-10-12 株式会社ニデック 角膜形状測定装置
CA2831135A1 (en) * 2011-03-31 2012-10-04 Coral Networks, Inc. System and method for the structuring and interpretation of organic computer programs
US9001030B2 (en) 2012-02-15 2015-04-07 Google Inc. Heads up display
US20130258486A1 (en) * 2012-03-27 2013-10-03 Dumitru Mihai Ionescu Head-mount display
CN107153270B (zh) 2012-04-23 2019-11-22 北京蚁视昂维科技有限公司 小孔投射式近眼显示器
US20130286053A1 (en) 2012-04-25 2013-10-31 Rod G. Fleck Direct view augmented reality eyeglass-type display
US20130300634A1 (en) * 2012-05-09 2013-11-14 Nokia Corporation Method and apparatus for determining representations of displayed information based on focus distance
US20140063206A1 (en) * 2012-08-28 2014-03-06 Himax Technologies Limited System and method of viewer centric depth adjustment
US10073201B2 (en) * 2012-10-26 2018-09-11 Qualcomm Incorporated See through near-eye display
KR101984915B1 (ko) 2012-12-03 2019-09-03 삼성전자주식회사 증강 현실 컨텐츠 운용 방법 및 이를 지원하는 단말기와 시스템
US9216133B2 (en) * 2013-01-16 2015-12-22 Elwha Llc Using a 3D display to train a weak eye
KR101294914B1 (ko) 2013-05-14 2013-08-08 황인창 검안기
CN103605208B (zh) 2013-08-30 2016-09-28 北京智谷睿拓技术服务有限公司 内容投射系统及方法
CN108209857B (zh) * 2013-09-03 2020-09-11 托比股份公司 便携式眼睛追踪设备
US9606354B2 (en) * 2014-07-17 2017-03-28 Google Inc. Heads-up display with integrated display and imaging system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101506868A (zh) * 2006-09-08 2009-08-12 索尼株式会社 显示设备和显示方法
CN102937745A (zh) * 2012-11-13 2013-02-20 京东方科技集团股份有限公司 开放式头戴显示装置及其显示方法

Also Published As

Publication number Publication date
US10802283B2 (en) 2020-10-13
US20190137764A1 (en) 2019-05-09
EP3222037A4 (en) 2017-11-29
KR20160059406A (ko) 2016-05-26
US20160139411A1 (en) 2016-05-19
CN106999034A (zh) 2017-08-01
EP3222037A1 (en) 2017-09-27
US10175485B2 (en) 2019-01-08
WO2016080708A1 (en) 2016-05-26

Similar Documents

Publication Publication Date Title
CN106999034B (zh) 用于输出虚拟图像的可穿戴设备和方法
US10627623B2 (en) Image providing apparatus, method and computer program
JP6336994B2 (ja) シースルーのニアアイディスプレイ
US10247813B2 (en) Positioning method and positioning system
US8754831B2 (en) Changing between display device viewing modes
US9728163B2 (en) Operation mode switching method and electronic device
US10852817B1 (en) Eye tracking combiner having multiple perspectives
US9535537B2 (en) Hover detection in an interactive display device
US10002293B2 (en) Image collection with increased accuracy
US10360450B2 (en) Image capturing and positioning method, image capturing and positioning device
KR102306539B1 (ko) 홍채를 촬영하기 위하여 이용되는 광을 조사하는 방법 및 디바이스
US11868524B2 (en) Augmented reality device and operating method thereof
CN104216118A (zh) 具有远程控制件的头部安装式显示器
WO2022017447A1 (zh) 图像显示控制方法、图像显示控制装置及头戴式显示设备
KR20150043653A (ko) 3차원 인터랙션 장치, 이를 포함하는 디스플레이 장치, 및 상기 3차원 인터랙션 장치의 구동 방법
CN107908285B (zh) 一种数据处理方法、装置及系统
CN116583885A (zh) 生物识别认证系统中的姿态优化
CN116529787A (zh) 多波长生物识别成像系统
CN114765661B (zh) 一种虹膜识别方法、装置及设备
US20230409109A1 (en) Vision correction display device, eye-tracking system and method to compensate for visual impairments
KR20220170336A (ko) 가변 초점 렌즈를 포함하는 증강 현실 디바이스 및 그 동작 방법
KR20210101027A (ko) 전자 장치 및 그 동작 방법
CN116529786A (zh) 多相机生物识别成像系统
KR20240030881A (ko) 가상 컨텐츠 출력 방법 및 이를 지원하는 전자장치
CN117546463A (zh) 包括变焦透镜的增强现实设备及其操作方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant