CN105319718B - 可穿戴眼镜和经由可穿戴眼镜显示图像的方法 - Google Patents

可穿戴眼镜和经由可穿戴眼镜显示图像的方法 Download PDF

Info

Publication number
CN105319718B
CN105319718B CN201510463690.9A CN201510463690A CN105319718B CN 105319718 B CN105319718 B CN 105319718B CN 201510463690 A CN201510463690 A CN 201510463690A CN 105319718 B CN105319718 B CN 105319718B
Authority
CN
China
Prior art keywords
wearable glasses
image
user
wearable
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510463690.9A
Other languages
English (en)
Other versions
CN105319718A (zh
Inventor
郑暻湖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020150020288A external-priority patent/KR102361025B1/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to CN202010966048.3A priority Critical patent/CN112213856B/zh
Publication of CN105319718A publication Critical patent/CN105319718A/zh
Application granted granted Critical
Publication of CN105319718B publication Critical patent/CN105319718B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C11/00Non-optical adjuncts; Attachment thereof
    • G02C11/10Electronic devices other than hearing aids
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Abstract

提供了一种包括显示器的可穿戴眼镜及其操作方法。该可穿戴眼镜包括:显示器,被配置为显示图像;传感器,被配置为在图像正被显示在显示器上的同时获取表示用户当前穿戴可穿戴眼镜的状态的穿戴状态信息;以及处理器,被配置为基于所获取的穿戴状态信息确定可穿戴眼镜相对于用户的倾斜,并且基于所确定的倾斜来调整在显示器上显示的图像。

Description

可穿戴眼镜和经由可穿戴眼镜显示图像的方法
相关申请的交叉引用
本申请要求2014年7月31日在韩国知识产权局递交的韩国专利申请10-2014-0098630号和2015年2月10日在韩国知识产权局递交的韩国专利申请10-2015-0020288号的优先权,这里通过引用将这些韩国专利申请的公开内容全部并入。
技术领域
符合一个或多个示范性实施例的装置和方法涉及图像显示装置和方法,更具体而言,涉及可穿戴眼镜和在可穿戴眼镜上显示图像的方法。
背景技术
可穿戴眼镜是像眼镜那样被戴在头上的一类可穿戴设备。具体地,可穿戴眼镜是一类头戴式显示器(head mounted display,HMD),其被戴在用户的头上并且在用户的眼睛前方(例如正前方)显示图像。
由于可穿戴眼镜被框架之类临时固定到用户的头上,所以可穿戴眼镜在用户的头上的位置或定位会由于用户的运动而变化。一般地,可穿戴眼镜包括在距用户的眼睛几厘米内显示图像的近眼显示系统(near-to-eye display system)。从而,即使是可穿戴眼镜的细微定位变化,也会引起输出图像的巨大失真。
发明内容
一个或多个示范性实施例的一些方面提供了一种系统和方法,其将用户的可穿戴眼镜的穿戴状态与参考穿戴状态相比较以确定可穿戴眼镜相对于用户的倾斜,通过考虑到可穿戴眼镜的倾斜来调整可穿戴眼镜的输出图像,并且将调整后的图像显示到可穿戴眼镜的显示器。
另外的方面一部分将在接下来的描述中记载,一部分将从描述中清楚显现,或者可通过实践示范性实施例来获知。
根据示范性实施例的一方面,提供了一种可穿戴眼镜,包括:显示器,被配置为显示图像;传感器,被配置为在图像正被显示在显示器上的同时获取表示用户当前穿戴可穿戴眼镜的状态的穿戴状态信息;以及处理器,被配置为基于所获取的穿戴状态信息确定可穿戴眼镜相对于用户的倾斜,并且基于所确定的倾斜来调整在显示器上显示的图像。
传感器可被配置为获取包括关于用户的身体部位的信息的穿戴状态信息;以及处理器可被配置为通过将所获取的穿戴状态信息与预定的参考穿戴状态信息相比较来确定可穿戴眼镜相对于用户的倾斜。
所述传感器可被配置为获取包括身体部位的图像的穿戴状态信息;以及所述处理器可被配置为从身体部位的图像中检测与身体部位相对应的区域,从检测到的区域中获取属性值,并且将所获取的属性值与参考穿戴状态信息中包括的参考值相比较以确定倾斜。
所获取的穿戴状态信息可包括穿戴着可穿戴眼镜的用户的眼睛的眼睛图像;以及所述处理器可被配置为从眼睛图像中获取眼睛的长轴的长度、眼睛的短轴的长度、眼睛的长轴的角度、眼睛的短轴的角度和用户的虹膜的位置值之中的至少一个值,将所获取的至少一个值与至少一个预定的参考值相比较,并且基于比较的结果来确定倾斜。
所述显示器可被配置为显示测试图像;所述传感器可被配置为获取包括反射测试图像的用户的眼睛的眼睛图像的穿戴状态信息;以及所述处理器可被配置为从眼睛图像中检测与用户的眼睛相对应的区域,在检测到的与眼睛相对应的区域内获得测试图像的反射图像,将所获得的反射图像的大小和形状中的至少一者与预定的参考穿戴状态信息相比较,并且基于比较的结果来确定倾斜。
所述传感器可被配置为获得表示可穿戴眼镜的运动状态的状态值并且当所获得的状态值等于或大于预定值时获取穿戴状态信息。
所述处理器可被配置为判定所确定的倾斜是否等于或大于预定值;当处理器判定所确定的倾斜小于预定值时,处理器可被配置为控制显示器显示基于所确定的倾斜获得的调整后图像;以及当处理器判定所确定的倾斜等于或大于预定值时,处理器可被配置为控制显示器显示告知用户调整可穿戴眼镜的图像。
根据另一示范性实施例的一方面,提供了一种经由可穿戴眼镜显示图像的方法,该方法包括:在可穿戴眼镜的显示器上显示图像;获取表示用户当前穿戴可穿戴眼镜的状态的穿戴状态信息;基于所获取的穿戴状态信息确定可穿戴眼镜相对于用户的倾斜;以及基于所确定的倾斜来调整在显示器上显示的图像。
所述获取穿戴状态信息可包括获取包括关于用户的身体部位的信息的穿戴状态信息;以及所述确定倾斜可包括通过将所获取的穿戴状态信息与预定的参考穿戴状态信息相比较来确定可穿戴眼镜相对于用户的倾斜。
所述获取穿戴状态信息可包括获取包括身体部位的图像的穿戴状态信息;以及所述确定倾斜可包括:从身体部位的图像中检测与身体部位相对应的区域,从检测到的区域中获取属性值,以及将所获取的属性值与参考穿戴状态信息中包括的参考值相比较以便确定倾斜。
所述穿戴状态信息可包括穿戴着可穿戴眼镜的用户的眼睛的眼睛图像;以及所述确定倾斜可包括:从眼睛图像中获取眼睛的长轴的长度、眼睛的短轴的长度、眼睛的长轴的角度、眼睛的短轴的角度和用户的虹膜的位置值之中的至少一个值,将所获取的至少一个值与至少一个预定的参考值相比较,以及基于比较的结果来确定倾斜。
所述显示图像可包括显示测试图像;所述获取穿戴状态信息可包括获取包括反射测试图像的用户的眼睛的眼睛图像的穿戴状态信息;以及所述确定倾斜可包括:从眼睛图像中检测与用户的眼睛相对应的区域,在检测到的与眼睛相对应的区域内获得测试图像的反射图像,将反射图像的大小和形状中的至少一者与预定的参考穿戴状态信息相比较,以及基于比较的结果来确定倾斜。
所述获取穿戴状态信息可包括:获得表示可穿戴眼镜的运动状态的状态值;以及当所获得的状态值等于或大于预定值时获取穿戴状态信息。
所述调整图像可包括:判定所确定的倾斜是否等于或大于预定值;如果所确定的倾斜根据该判定等于或大于预定值,则显示告知用户调整可穿戴眼镜的图像;并且如果所确定的倾斜根据该判定小于预定值,则基于所确定的倾斜来调整在显示器上显示的图像。
根据另一示范性实施例的一方面,提供了一种非暂态计算机可读存储介质,其上存储有至少一个程序,包括用于执行经由可穿戴眼镜显示图像的方法的命令,其中该方法包括:显示由可穿戴眼镜提供的图像;获取表示用户当前穿戴可穿戴眼镜的状态的穿戴状态信息;基于所获取的穿戴状态信息确定可穿戴眼镜相对于用户的倾斜;以及显示基于所确定的倾斜获得的调整后图像。
所述获取穿戴状态信息可包括获取包括关于用户的身体部位的信息的穿戴状态信息;以及所述确定倾斜可包括通过将所获取的穿戴状态信息与预定的参考穿戴状态信息相比较来确定可穿戴眼镜相对于用户的倾斜。
所述获取穿戴状态信息可包括获取包括用户的身体部位的图像的穿戴状态信息;以及所述确定倾斜可包括:从身体部位的图像中检测与身体部位相对应的区域,从检测到的区域中获取属性值,以及将所获取的属性值与参考穿戴状态信息中包括的参考值相比较以便确定倾斜。
所述显示图像可包括显示测试图像;所述获取穿戴状态信息可包括获取包括反射测试图像的用户的眼睛的眼睛图像的穿戴状态信息;以及所述确定倾斜可包括:从眼睛图像中检测与用户的眼睛相对应的区域,在检测到的与眼睛相对应的区域内获得测试图像的反射图像,将反射图像的大小和形状中的至少一者与预定的参考穿戴状态信息相比较,以及基于比较的结果来确定倾斜。
所述显示调整后图像可包括:判定所确定的倾斜是否等于或大于预定值;以及响应于所确定的倾斜根据该判定小于预定值,基于所确定的倾斜来调整在显示器上显示的图像。
根据另一示范性实施例的一方面,提供了一种用于经由可穿戴眼镜显示图像的设备,该设备包括:通信器,被配置为从可穿戴眼镜接收表示用户当前穿戴可穿戴眼镜的状态的穿戴状态信息,穿戴状态信息是由可穿戴眼镜获取的;以及控制器,被配置为基于接收到的穿戴状态信息确定可穿戴眼镜相对于用户的倾斜,并且基于所确定的倾斜控制调整在可穿戴眼镜的显示器上显示的图像,其中所述通信器被配置为将调整后图像发送到可穿戴眼镜,以便在可穿戴眼镜的显示器上显示。
接收到的穿戴状态信息可包括关于用户的身体部位的信息,并且控制器可被配置为通过将接收到的穿戴状态信息与预定的参考穿戴状态信息相比较来确定倾斜。
根据另一示范性实施例的一方面,提供了一种设备经由可穿戴眼镜显示图像的方法,该方法包括:从可穿戴眼镜接收表示用户当前穿戴可穿戴眼镜的状态的穿戴状态信息,穿戴状态信息是由可穿戴眼镜获取的;基于接收到的穿戴状态信息确定可穿戴眼镜相对于用户的倾斜;以及向可穿戴眼镜提供基于所确定的倾斜获得的调整后图像,以便在可穿戴眼镜上显示。
根据另一示范性实施例的一方面,提供了一种非暂态计算机可读记录介质,其上记录有可由计算机执行来执行上述方法的程序。
根据另一示范性实施例的一方面,提供了一种可穿戴眼镜,包括:显示器,被配置为向用户呈现图像;传感器,被配置为获取关于用户的姿态的信息;以及处理器,被配置为基于所获取的信息来确定调整值并且基于所确定的调整值来调整在显示器上显示的图像。
根据另一示范性实施例的一方面,提供了一种经由可穿戴眼镜显示图像的方法,该方法包括:获取关于用户的姿态的信息;基于所获取的信息确定调整值;以及基于所确定的调整值来调整要在可穿戴眼镜的显示器上显示的图像。
根据另一示范性实施例的一方面,提供了一种非暂态计算机可读记录介质,其上记录有可由计算机执行来执行上述方法的程序。
根据另一示范性实施例的一方面,提供了一种用于经由可穿戴眼镜显示图像的设备,该设备包括:通信器,被配置为从可穿戴眼镜接收关于用户的姿态的信息,关于用户的姿态的信息是由可穿戴眼镜获取的;以及控制器,被配置为基于接收到的关于姿态的信息来确定调整值并且基于所确定的调整值来调整经由可穿戴眼镜显示的图像,其中所述通信器被配置为向可穿戴眼镜提供与图像调整的结果相对应的调整后图像,以使得调整后图像被经由可穿戴眼镜显示。
根据另一示范性实施例的一方面,提供了一种经由可穿戴眼镜显示图像的方法,该方法包括:获得表示用户当前穿戴可穿戴眼镜的状态的穿戴状态信息;基于所获得的穿戴状态信息确定可穿戴眼镜相对于用户的倾斜;以及基于所确定的倾斜控制调整图像以便在可穿戴眼镜的显示器上显示。
所获得的穿戴状态信息可包括关于用户的身体部位的信息;以及所述确定倾斜可包括通过将所获得的穿戴状态信息与预定的参考穿戴状态信息相比较来确定可穿戴眼镜相对于用户的倾斜。
所获得的穿戴状态信息可包括身体部位的图像;以及所述确定倾斜可包括:从身体部位的图像中检测与身体部位相对应的区域,从检测到的区域中获取属性值,以及将所获取的属性值与参考穿戴状态信息中包括的参考值相比较以便确定倾斜。
所述穿戴状态信息可包括穿戴着可穿戴眼镜的用户的眼睛的眼睛图像;并且确定倾斜可包括:从眼睛图像中获取眼睛的长轴的长度、眼睛的短轴的长度、眼睛的长轴的角度、眼睛的短轴的角度和用户的虹膜的位置值之中的至少一个值,将所获取的至少一个值与至少一个预定的参考值相比较,以及基于比较的结果来确定倾斜。
所述控制调整图像可包括:判定所确定的倾斜是否等于或大于预定值;以及如果所确定的倾斜根据该判定小于预定值,则控制基于所确定的倾斜来调整图像。
根据另一示范性实施例的一方面,提供了一种非暂态计算机可读记录介质,其上记录有可由计算机执行来执行上述方法的程序。
附图说明
通过以下结合附图对示范性实施例的描述,这些和/或其他方面将变得清楚并且更容易领会,附图中:
图1是用于说明穿戴着可穿戴眼镜的用户的不方便的示意图;
图2A、图2B和图2C是用于说明根据一个或多个示范性实施例的、当可穿戴眼镜相对于用户倾斜时显示调整后图像的可穿戴眼镜的示意图;
图3A和图3B图示了根据示范性实施例的可穿戴眼镜的外观;
图4A和图4B图示了根据示范性实施例的可穿戴眼镜的外观;
图5A和图5B图示了根据示范性实施例的可穿戴眼镜的外观;
图6是根据示范性实施例的可穿戴眼镜显示图像的方法的流程图;
图7是用于说明根据示范性实施例的、基于参考穿戴状态确定的可穿戴眼镜相对于用户的倾斜的图;
图8是根据示范性实施例的可穿戴眼镜获取关于用户的身体部位的信息的方法的流程图;
图9图示了根据示范性实施例的、显示用于拍摄用户的眼睛的引导图像的屏幕;
图10A和图10B图示了根据一个或多个示范性实施例的、当可穿戴眼镜相对于用户没有倾斜时经由可穿戴眼镜获取的用户的眼睛图像的示例;
图11A、图11B和图11C图示了根据一个或多个示范性实施例的、当可穿戴眼镜相对于用户倾斜时经由可穿戴眼镜获取的用户的眼睛图像的示例;
图12是根据示范性实施例的可穿戴眼镜从用户的眼睛图像确定可穿戴眼镜的倾斜的方法的流程图;
图13是用于描述根据示范性实施例的、从捕捉的用户的眼睛图像确定的与眼睛相对应的第一区域的示意图;
图14是用于描述根据示范性实施例的、从捕捉的用户的眼睛图像确定的与虹膜相对应的第二区域的示意图;
图15是用于描述根据示范性实施例的、从捕捉的眼睛图像获取的属性值的示意图;
图16和图17是用于说明根据示范性实施例的、可穿戴眼镜从眼睛图像确定可穿戴眼镜的倾斜的方法的示意图;
图18和图19是根据一个或多个示范性实施例的可穿戴眼镜显示基于可穿戴眼镜的倾斜获得的调整后图像的方法的流程图;
图20、图21A和图21B是用于说明根据一个或多个示范性实施例的、基于可穿戴眼镜的倾斜对经由可穿戴眼镜的显示器显示的图像的调整的示意图;
图22A、图22B和图22C是用于说明根据一个或多个示范性实施例的、基于可穿戴眼镜的倾斜调整经由可穿戴眼镜的显示器显示的图像的方法的示意图;
图23和图24图示了根据一个或多个示范性实施例的、应用到经由可穿戴眼镜显示的图像的动画效果的示例;
图25是根据示范性实施例的可穿戴眼镜缩小并显示调整后图像的方法的流程图;
图26是用于说明根据示范性实施例的、基于可穿戴眼镜的倾斜缩小并显示的图像的示意图;
图27是根据示范性实施例的显示请求用户调整可穿戴眼镜的图像的方法的流程图;
图28图示了根据示范性实施例的、请求用户调整可穿戴眼镜的图像的示例;
图29图示了根据示范性实施例的、引导用户调整可穿戴眼镜的图像的示例;
图30是根据示范性实施例的可穿戴眼镜调整显示图像的方法的流程图;
图31是用于说明根据示范性实施例的、可穿戴眼镜调整显示图像的位置和大小的方法的示意图;
图32是用于说明根据示范性实施例的、可穿戴眼镜调整显示图像的亮度的方法的示意图;
图33是用于说明根据示范性实施例的、可穿戴眼镜设定参考值来调整显示图像的方法的示意图;
图34是用于说明根据示范性实施例的、可穿戴眼镜基于从用户的眼睛反射的测试图像来校正显示图像的方法的示意图;
图35是根据示范性实施例的可穿戴眼镜基于从用户的眼睛反射的测试图像来校正显示图像的方法的流程图;
图36A、图36B和图36C根图示了据一个或多个示范性实施例的测试图像的示例;
图37A、图37B和37C图示了根据一个或多个示范性实施例的、通过利用可穿戴眼镜拍摄反射测试图像的用户的眼睛而捕捉到的图像的示例;
图38图示了根据示范性实施例的、当可穿戴眼镜相对于用户没有倾斜时经由可穿戴眼镜获取的用户的眼睛图像的示例;
图39A、图39B和图39C图示了根据一个或多个示范性实施例的、当可穿戴眼镜相对于用户倾斜时经由可穿戴眼镜获取的用户的眼睛图像的示例;
图40是根据示范性实施例的、从用户的眼睛图像确定可穿戴眼镜的倾斜的方法的流程图;
图41是根据示范性实施例的、可穿戴眼镜显示基于可穿戴眼镜的倾斜获得的调整后图像的方法的流程图;
图42是用于描述根据本公开的实施例的、从捕捉到的用户的眼睛图像测量到的用户的眼睛的属性值的示意图;
图43A、图43B和图43C是用于说明根据一个或多个示范性实施例的、可穿戴眼镜基于用户的眼睛图像中包括的测试图像的反射图像来确定可穿戴眼镜的倾斜的方法的示意图;
图44A和图44B是用于说明根据一个或多个示范性实施例的、可穿戴眼镜基于眼睛图像操作的方法的示意图;
图45是用于说明根据示范性实施例的、可穿戴眼镜基于用户的姿态调整显示图像的方法的示意图;
图46是根据示范性实施例的可穿戴眼镜基于用户的姿态调整显示图像的方法的流程图;
图47是根据示范性实施例的可穿戴眼镜获取关于用户的姿态的信息的方法的流程图;
图48和图49图示了根据一个或多个示范性实施例的、其上显示用于诱导用户的姿态的引导图像的可穿戴眼镜的屏幕的示例;
图50是根据示范性实施例的可穿戴眼镜从用户的姿态图像确定调整值的方法的流程图;
图51是用于说明根据示范性实施例的、可穿戴眼镜检测用户的手部姿态的方法的示意图;
图52、图53和图54是用于说明根据示范性实施例的、可穿戴眼镜基于用户的姿态确定用于调整显示图像的调整值的方法的示意图;
图55和图56是用于说明根据一个或多个示范性实施例的、可穿戴眼镜基于用户的姿态调整显示图像的方法的示意图;
图57是根据示范性实施例的设备经由可穿戴眼镜显示图像的系统的示意图;
图58是根据示范性实施例的设备经由可穿戴眼镜显示图像的方法的流程图;
图59是根据示范性实施例的设备经由可穿戴眼镜显示图像的方法的流程图;
图60和图61是根据一个或多个示范性实施例的可穿戴眼镜的框图;以及
图62和图63是根据一个或多个示范性实施例的经由可穿戴眼镜显示图像的设备的框图。
具体实施方式
本文参考附图详细描述了示范性实施例,使得本公开可容易地被示范性实施例所属领域的普通技术人员执行。然而,示范性实施例可以按许多不同的形式来实现并且不应当被解释为限于本文记载的示范性实施例。在附图中,为了说明的简单省略了与描述无关的部分,并且相似的数字始终指代相似的元素。
贯穿整个说明书,术语“包括”和/或“包含”当在本说明书中使用时指明了所陈述的元素的存在,但不排除一个或多个其他元素的存在或添加。
术语“显示图像”表示经由可穿戴眼镜提供给用户的图像。显示图像可包括先前经由可穿戴眼镜显示的图像、当前经由可穿戴眼镜正在显示的图像和以后要经由可穿戴眼镜显示的图像。显示图像可以是由可穿戴眼镜生成的图像或者从外部设备接收的图像。
现在将参考附图更充分描述示范性实施例,附图中相似的标号始终指代相似的元素。以下,诸如“……中的至少一个”之类的表述当在元素的列表之前时修饰整个元素列表,而不修饰列表中的个体元素。
头戴式显示器(HMD)被安装在用户的头上并且在用户的眼睛前方(例如正前方)显示图像。例如,像图1的可穿戴眼镜10那样,HMD可具有眼镜的形状。以下将详细描述作为眼镜型HMD的可穿戴眼镜的各种示范性实施例。然而,要理解一个或多个其他示范性实施例不限于可穿戴眼镜。例如,一个或多个其他示范性实施例可适用于部分或全部固定到用户的头部并且在用户的视角内显示信息的各种类型的HMD。可穿戴眼镜10通过可穿戴眼镜10的框架等等临时固定到用户的头上。从而,当用户长时间穿戴着可穿戴眼镜10时,可穿戴眼镜10在用户的头上的定位会根据用户的运动或者外部环境变化而改变。
可穿戴眼镜10可包括在距用户的眼睛几厘米内显示图像的近眼显示系统。从而,即使可穿戴眼镜10的定位发生微小变化,输出图像也极大失真,使得失真的图像被提供给用户。换言之,当可穿戴眼镜10相对于用户倾斜或扭曲时,用户被经由倾斜或扭曲的显示器提供失真的图像。
失真的图像可表示与参考图像相比具有改变的大小、改变的显示位置和改变的形状中的至少一者的图像。例如,参考图像表示在用户正确地穿戴可穿戴眼镜10的参考穿戴状态中提供给用户的图像,并且可以是预先确定的。
因此,用户可能必须频繁地在每次用户由于失真的图像而感到不适时调整可穿戴眼镜的定位。
为了解决此问题,一个或多个示范性实施例的一些方面提供了一种基于可穿戴眼镜相对于用户的倾斜来调整显示图像并且经由可穿戴眼镜显示调整后的显示图像的系统和方法。
图2A、图2B和图2C是用于说明当根据用户穿戴可穿戴眼镜10的穿戴状态和参考穿戴状态之间的比较确定可穿戴眼镜10倾斜时,可穿戴眼镜10通过考虑到可穿戴眼镜10的倾斜来显示调整后图像的示范性实施例的图。参考穿戴状态表示用户正确地穿戴可穿戴眼镜10的状态并且可以是预先确定的。参考穿戴状态可对穿戴可穿戴眼镜10的不同用户不同地设定。
用户可通过识别经由可穿戴眼镜10提供的显示图像和周围环境两者而被提供以各种信息。
图2A图示了可穿戴眼镜10在用户正确地穿戴可穿戴眼镜10的参考穿戴状态中向用户提供显示图像的情况。例如,如图2A所示,可穿戴眼镜10可通过提供引导去往目的地的路径的图像12来支持导航功能。
当用户长时间地穿戴着可穿戴眼镜10时,用户将可穿戴眼镜10穿戴在他或她的头上的状态(例如,可穿戴眼镜10在用户的头上的定位)可根据用户的运动或外部环境变化而改变。如图2B所示,与图2A的参考穿戴状态相比,可穿戴眼镜10相对于用户可能是倾斜的。
当用户穿戴现有技术的可穿戴眼镜时,因为可穿戴眼镜倾斜,所以用户被提供以失真的图像。换言之,现有技术的可穿戴眼镜10即使在可穿戴眼镜10倾斜时也输出处于参考穿戴状态中的可穿戴眼镜10输出的图像。例如,如图2B所示,当可穿戴眼镜10支持引导去往目的地的路径的导航功能时,提供给用户的图像13与实际周围环境相比在视觉上可能是倾斜的。因此,根据现有技术,用户需要物理上调整可穿戴眼镜10的定位以便接收非失真图像。
由于此不便,需要可穿戴眼镜10能够根据与参考穿戴状态相比可穿戴眼镜10相对于用户的倾斜程度来调整显示图像。
如图2C所示,与图2A的参考穿戴状态相比,可穿戴眼镜1000相对于用户可能是倾斜的。参考图2C,根据示范性实施例的可穿戴眼镜1000可输出通过对可穿戴眼镜1000相对于用户的倾斜程度进行补偿而获得的调整后图像14。
可穿戴眼镜1000可确定与预定的参考穿戴状态相比可穿戴眼镜1000的倾斜程度。例如,参考穿戴状态可以是被预定为用户正确地穿戴可穿戴眼镜1000的状态的状态。可穿戴眼镜1000可输出根据与预定参考穿戴状态相比可穿戴眼镜1000的倾斜程度来调整的图像。
可穿戴眼镜1000可向用户提供相对于用户没有倾斜的图像14。可穿戴眼镜1000可通过旋转显示图像14、移动显示图像14被显示的位置、放大或缩小显示图像14和改变显示图像的形状中的至少一者,根据与参考穿戴状态相比可穿戴眼镜1000相对于用户的倾斜程度来调整显示图像14。例如,如图2C所示,当可穿戴眼镜1000支持引导去往目的地的路径的导航功能时,根据示范性实施例的可穿戴眼镜1000可输出通过对可穿戴眼镜1000的倾斜程度进行补偿而获得的调整后图像14。从而,根据示范性实施例提供给用户的调整后图像14可提供与实际周围环境相比不是倾斜的路径引导信息。也就是说,调整后图像14可在与实际周围环境匹配的位置提供路径引导信息。
图3A和图3B图示了根据示范性实施例的可穿戴眼镜1000的外观。
参考图3A和图3B,可穿戴眼镜1000可以是单眼显示器(monocular display),但要理解一个或多个其他示范性实施例不限于此。
参考图3A,可穿戴眼镜1000可被构造为利用用户的耳朵和鼻子固定到用户的头部的眼镜。然而,可穿戴眼镜1000的结构不限于图3A和图3B。例如,可穿戴眼镜1000可被附着到头盔结构,可被构造为风镜,可具有头环结构,可具有橡皮筋,可附着到另一结构或另一副眼镜,等等。
图3A的可穿戴眼镜1000可包括框架1010、处理器1200、相机1050(例如,第一相机)、音频输出单元1020(例如,音频输出器或音频输出设备)、显示器1030、用户输入单元1040(例如,用户输入器或用户输入设备)以及电力供应单元1600(例如,电力供应源或电力供应器)。要理解在可穿戴眼镜1000中可包括比图3A所示的那些更多或更少的组件。
可穿戴眼镜1000的一些组件可被内置在可穿戴眼镜1000中,或者其他组件可被安装在可穿戴眼镜1000的外部。例如,处理器1200和电力供应单元1600可被内置在可穿戴眼镜1000中。显示器1030可被安装在可穿戴眼镜1000的外部。内置在可穿戴眼镜1000中的组件和安装在可穿戴眼镜1000的外部的组件不限于以上描述的那些。
可穿戴眼镜1000中包括的组件不限于图3A所示的那些。例如,可穿戴眼镜1000还可包括能够获取关于可穿戴眼镜1000的信息或者可穿戴眼镜1000的周围环境信息的感测单元(例如,传感器),以及用于与外部设备通信的通信单元(例如,通信设备、收发器、发送器、通信器,等等)。例如,感测单元和通信单元可内置在可穿戴眼镜1000内。
框架1010可由诸如塑料和/或金属之类的材料形成(例如,包括这样的材料),并且可包括将可穿戴眼镜1000的组件彼此连接的线路。
图3A的框架1010与可穿戴眼镜1000集成,但框架1010的形状和结构不限于图3A的那些。
例如,可穿戴眼镜1000的框架1010可包括连接构件(例如,连接器),从而可被构造成使得框架1010的至少一部分是可弯曲的。例如,可穿戴眼镜1000可包括可弯曲框架1010,从而在用户不使用可穿戴眼镜1000时可被折叠并收纳,从而最小化可穿戴眼镜1000占用的空间。
可穿戴眼镜1000还可包括橡皮筋,使得无论用户的头部的大小如何,可穿戴眼镜1000都可被固定到用户的头部。
根据示范性实施例的框架1010可被构造成使得透镜1005可与框架1010脱离。可穿戴眼镜1000可不包括透镜1005。虽然透镜1005在图3A中与鼻梁架集成,但要理解一个或多个其他示范性实施例不限于此。例如,可穿戴眼镜1000的鼻梁架可与框架1010集成。
透镜1005可由使得用户能够经由透镜1005看到实际空间的透明材料形成。透镜1005可由能够透射构成在显示器1030上显示的图像的光的材料形成。用于形成透镜1010的材料的示例可包括——但不限于——玻璃和塑料,例如聚碳酸酯。
处理器1200可经由线路和/或无线地连接到可穿戴眼镜1000。虽然处理器1200在图3A中位于框架1010的左侧表面上,但要理解一个或多个其他示范性实施例不限于此。例如,处理器1200可位于框架1010的右侧表面上或者可穿戴眼镜1000的前表面上以与相机1050相邻。一般地,要理解可穿戴眼镜1000的组件的相对位置不限于图3A所示的示范性实施例,而是在各种示范性实施例中可以有所变动。
处理器1200可从相机1050或用户输入单元1040接收数据,分析接收到的数据,并且生成要经由显示器1030和音频输出单元1020中的至少一者提供给可穿戴眼镜1000的用户的信息。要提供给用户的信息可包括——但不限于——图像、文本、视频和音频中的至少一者。
相机1050可被包括在显示器1030中,或者可与显示器1030分离并布置在框架1010中。相机1050可以是用在智能电话中的相机,或者诸如网络摄像头之类的小型相机。例如,相机1050可被安装在预定为适合于获取与用户的手部的姿态相对应的图像的位置。例如,如图3A所示,当用户穿戴着可穿戴眼镜1000时,相机1050可被安装在邻近用户的眼睛的位置,从而获取与经由用户的眼睛识别出的图像相似的图像。
每个用户输入单元1040可包括——但不限于——可由用户的手指操作的触摸板、光学输入设备、可旋转拨盘、操纵杆和可通过用户的按压操纵来操作的按钮中的至少一者。虽然用户输入单元1040在图3A中被分别安装在框架1010的两个侧表面上,但要理解用户输入单元1040根据一个或多个其他示范性实施例可被定位在可穿戴眼镜1000上的其他位置。
用户输入单元1040接收用户输入。用户输入可包括生成事件的用户输入数据或用户输入信号,该事件使得可穿戴眼镜1000开始或结束某个操作。
例如,每个用户输入单元1040可包括能够开启/关闭可穿戴眼镜1000的通/断开关。或者,用户输入单元1040可接收用于调整经由可穿戴眼镜1000显示的图像的用户输入。
如图3A所示,显示器1030可位于透镜1005的左上端,但要理解一个或多个其他示范性实施例不限于此。例如,显示器1030可位于透镜1005的右端或者可位于透镜1005的下端。如图3A所示,显示器1030可被构造为半透明光波导(例如,棱镜)。图3A的显示器1030可反射从内置在可穿戴眼镜1000中的投影仪输出的光,并且将图像聚焦在穿戴可穿戴眼镜1000的用户的眼睛的视网膜的中央凹上。然而,可穿戴眼镜1000中包括的显示器1030不限于图3A,并且显示器1030可利用各种方法和各种结构在靠近用户的眼睛之处显示图像。
根据示范性实施例的可穿戴眼镜1000还可包括麦克风。麦克风可接收例如用户的语音和可穿戴眼镜1000的周围环境的声音。
音频输出单元1020可被构造为可安装在可穿戴眼镜1000的用户的耳朵上的耳机。音频输出单元1020可如图3A所示被固定到可穿戴眼镜1000上,但要理解一个或多个其他示范性实施例不限于此。例如,音频输出单元1020可与可穿戴眼镜1000可脱离,使得可穿戴眼镜1000的用户可选择性地将音频输出单元1020安装到他或她的耳朵上。例如,每个音频输出单元1020可被构造为骨传导扬声器。
在图3A中,电力供应单元1600位于可穿戴眼镜1000的框架1010的一端。然而,要理解一个或多个其他示范性实施例不限于此,并且电力供应单元1600可被布置在可穿戴眼镜1000的框架1010上的各种其他位置中的至少一者。电力供应单元1600向每个组件供应用于操作可穿戴眼镜1000的电力。电力供应单元1600可包括能够充电的电池,以及能够从外部源接收电力的电缆或电缆端口。
图3B图示了当用户穿戴着可穿戴眼镜1000时由用户观看到的可穿戴眼镜1000的外观。
参考图3B,可穿戴眼镜1000可包括邻近显示器1030并且面对用户的相机1060(例如,第二相机)。可穿戴眼镜1000可基于利用相机1060捕捉的用户的眼睛的图像来调整在显示器1030上显示的图像。然而,相机1060的位置不限于图3B所示的位置,而是在一个或多个其他示范性实施例中根据可穿戴眼镜1000的形状可以是各种其他位置中的任何一种。
可穿戴眼镜1000还可包括面对用户的眼睛跟踪相机1070。例如,眼睛跟踪相机1070可包括红外相机。眼睛跟踪相机1070可通过跟踪用户的虹膜来检测用户的眼睛。然而,眼睛跟踪相机1070的位置不限于图3B所示的位置,而是在一个或多个其他示范性实施例中根据可穿戴眼镜1000的形状可以是各种其他位置中的任何一种。
参考图4A和图4B,可穿戴眼镜1000可具有单眼显示形状并且可被构造为固定到用户的头部的左侧或右侧。这里将不重复与以上参考图3A和图3B给出的相同的对图4A和图4B的可穿戴眼镜1000的组件的描述。
参考图4A,可穿戴眼镜1000可利用用户的一只耳朵和用户的鼻子的一侧固定到用户的头部。可穿戴眼镜1000可被附着到头盔结构,但要理解一个或多个其他示范性实施例不限于此。
图4A的可穿戴眼镜1000可包括处理器1200、相机1050、音频输出单元1020、显示器1030、用户输入单元1040和电力供应单元1600。
如图4A所示,可穿戴眼镜1000可被构造成使得透镜1005执行显示器1030的功能。在此情况下,透镜1005可被构造为透明显示器或半透明显示器。当透镜1005被构造为半透明显示器时,透镜1005可由与用于形成至少一个光波导(例如,棱镜)、电致发光显示器、有机发光二极管(organic light emitting diode,OLED)显示器或液晶显示器(liquidcrystal display,LCD)的材料相同的材料形成,但要理解透镜1005的材料不限于此。
图4B图示了当用户穿戴着可穿戴眼镜1000时由用户观看到的可穿戴眼镜1000的外观。
参考图4B,可穿戴眼镜1000可包括面对用户的相机1060。可穿戴眼镜1000可基于由相机1060捕捉的用户的眼睛的图像来调整在显示器1030上显示的图像。然而,要理解相机1060的位置不限于图4B所示的位置,而是在一个或多个其他示范性实施例中根据可穿戴眼镜1000的形状可以是各种其他位置中的任何一种。
可穿戴眼镜1000还可包括面对用户的眼睛跟踪相机1070(例如,眼睛跟踪器)。眼睛跟踪相机1070可通过跟踪用户的一个或两个虹膜来检测用户的眼睛。然而,眼睛跟踪相机1070的位置不限于图4B所示的位置,而是根据可穿戴眼镜1000的形状可以是各种其他位置中的任何一种。
图5A和图5B图示了根据示范性实施例的可穿戴眼镜1000的外观。
参考图5A和图5B,可穿戴眼镜1000可以是双眼显示器。这里将不重复与以上参考图3A、图3B、图4A和图4B给出的那些相同或相似的对图5A和5B的可穿戴眼镜1000的组件的冗余描述。
图5A的可穿戴眼镜1000可包括框架1010、处理器1200、相机1050、音频输出单元1020、显示器1030、用户输入单元1040和电力供应单元1600。
如图5A所示,可穿戴眼镜1000可被构造成使得透镜1005执行显示器1030的功能。在此情况下,透镜1005可被构造为透明显示器或半透明显示器。当透镜1005被构造为半透明显示器时,透镜1005可由与用于形成至少一个光波导(例如,棱镜)、电致发光显示器、OLED显示器或LCD的材料相同的材料形成,但要理解透镜1005的材料不限于此。
图5B图示了当用户穿戴着可穿戴眼镜1000时由用户观看到的可穿戴眼镜1000的外观。
参考图5B,可穿戴眼镜1000可包括面对用户的脸部的相机1060。可穿戴眼镜1000可基于由相机1060捕捉的用户的一只或两只眼睛的图像来调整在显示器1030上显示的图像。然而,要理解相机1060的位置和数目不限于
图5B所示的位置和数目,而是根据可穿戴眼镜1000的形状可以是各种其他位置或数目中的任何一种。例如,根据另一示范性实施例,可以只提供一个相机1060来捕捉用户的一只或两只眼睛的图像。
可穿戴眼镜1000还可包括面对用户的脸部的眼睛跟踪相机1070。眼睛跟踪相机1070可通过跟踪用户的虹膜来检测用户的眼睛。然而,要理解眼睛跟踪相机1070的位置和数目不限于图5B所示的位置和数目,而是根据可穿戴眼镜1000的形状可以是各种其他位置或数目中的任何一种。另外,根据示范性实施例,可以省略眼睛跟踪相机1070,并且相机1060可以代替眼睛跟踪相机1070检测用户的眼睛。
如以上参考图3A、图3B、图4A、图4B、图5A和图5B所述,可穿戴眼镜1000的形状和组件可由本领域普通技术人员进行各种修改。要理解一个或多个其他示范性实施例不限于图3A、图3B、图4A、图4B、图5A和图5B,并且图3A、图3B、图4A、图4B、图5A和图5B的任何组件可被省略。也就是说,可穿戴眼镜1000中可包括比图3A、图3B、图4A、图4B、图5A和图5B所示的那些更多或更少的组件。
图6是根据示范性实施例的可穿戴眼镜1000显示图像的方法的流程图。
参考图6,在操作S100中,可穿戴眼镜1000可生成并显示图像。
可穿戴眼镜1000可处理并提供图像并经由显示器1030显示提供的图像。可穿戴眼镜1000提供的图像可以是包括用于向用户提供信息的文本、图表、图形或颜色的图像或运动图片。然而,要理解一个或多个其他示范性实施例不限于此。例如,根据另一示范性实施例,可穿戴眼镜1000提供的图像可以是包括用于用户与可穿戴眼镜1000之间的交互的用户界面(user interface,UI)或图形用户界面(graphical user interface,GUI)的图像。
例如,可穿戴眼镜1000也可显示用于获取表示用户当前穿戴可穿戴眼镜1000的状态的穿戴状态信息的测试图像。可穿戴眼镜1000可输出测试图像并且从其上反射测试图像的用户的眼睛的图像获取穿戴状态信息。在操作S200中,可穿戴眼镜1000可获取表示用户当前穿戴可穿戴眼镜1000的状态的穿戴状态信息。
可穿戴眼镜1000可基于关于穿戴可穿戴眼镜1000的用户的身体部位的信息来确定用户当前穿戴可穿戴眼镜1000的状态。可穿戴眼镜1000可获取包括关于用户的身体部位的信息的穿戴状态信息。由可穿戴眼镜1000获取的关于身体部位的信息可包括关于穿戴可穿戴眼镜1000的身体部位的信息。例如,关于身体部位的信息可包括用于确定可穿戴眼镜1000相对于穿戴可穿戴眼镜1000的头部中包括的至少一个身体部位的相对位置和角度的信息。例如,关于身体部位的信息可包括关于穿戴可穿戴眼镜1000的用户的头部中包括的眼睛、鼻子、耳朵和嘴中的至少一者的信息。
可穿戴眼镜1000可获取包括关于接触可穿戴眼镜1000的用户的身体部位的信息的穿戴状态信息。例如,当可穿戴眼镜1000包括鼻梁架和镜腿时,可穿戴眼镜1000可获取关于鼻梁架相对于用户的鼻子的位置和角度中的至少一者或者镜腿相对于用户的耳朵的位置和角度中的至少一者的信息。可穿戴眼镜1000可判定鼻梁架相对于用户的鼻子的位置和角度中的至少一者或者镜腿相对于用户的耳朵的位置和角度中的至少一者与参考穿戴状态相比是否变化了。基于该判定的结果,可穿戴眼镜1000可基于在参考穿戴状态中可穿戴眼镜1000的位置来获取关于用户当前穿戴可穿戴眼镜1000的状态的信息。
可穿戴眼镜1000也可获取包括关于不接触可穿戴眼镜1000的用户的身体部位的信息的穿戴状态信息。例如,可穿戴眼镜1000可获取用户的眼睛的图像并且将捕捉到的眼睛图像与在参考穿戴状态中捕捉的眼睛图像相比较。通过将捕捉的眼睛图像与在参考穿戴状态中捕捉的眼睛图像相比较,可穿戴眼镜1000可基于参考穿戴状态中可穿戴眼镜1000的位置来获取关于用户当前穿戴可穿戴眼镜1000的状态的信息。
可穿戴眼镜1000可获取包括关于可穿戴眼镜1000的至少一部分的位置和角度与用户正确地穿戴可穿戴眼镜1000的参考穿戴状态相比是否变化了的信息的穿戴状态信息。
可穿戴眼镜1000可利用可穿戴眼镜1000中包括的感测单元获取表示用户当前穿戴可穿戴眼镜1000的状态的穿戴状态信息,或者从外部设备获取穿戴状态信息。例如,可穿戴眼镜1000可利用可穿戴眼镜1000中包括的磁传感器、加速度传感器、陀螺仪传感器、接近传感器、光学传感器、深度传感器、红外传感器和超声传感器中的至少一者来获取穿戴状态信息。
当可穿戴眼镜1000被初始化或者可穿戴眼镜1000被开启时,可穿戴眼镜1000可获取表示用户当前穿戴可穿戴眼镜1000的状态的穿戴状态信息。
可替换地,当接收到用于获取表示用户当前穿戴可穿戴眼镜1000的状态的穿戴状态信息的用户输入时,可穿戴眼镜1000可获取穿戴状态信息。
可替换地,当可穿戴眼镜1000大幅移动时,可穿戴眼镜1000可确定可穿戴眼镜1000相对于用户的位置很有可能被改变。从而,当例如加速度值、速度值和角动量之类的表示可穿戴眼镜1000的运动的测量值中的至少一者等于或大于临界值时,可穿戴眼镜1000可获取表示用户当前穿戴可穿戴眼镜1000的状态的穿戴状态信息。
表示用户当前穿戴可穿戴眼镜1000的状态的穿戴状态信息可用于通过与用户正确地穿戴可穿戴眼镜1000的参考穿戴状态相比较来确定可穿戴眼镜1000相对于用户的倾斜程度。
可穿戴眼镜1000可获取包括关于穿戴可穿戴眼镜1000的用户的身体部位的信息的穿戴状态信息,以便确定可穿戴眼镜1000相对于用户的倾斜程度。例如,由可穿戴眼镜1000获取的关于身体部位的信息可包括关于用户的眼睛、鼻子、耳朵、嘴和手中的至少一者的信息。由可穿戴眼镜1000获取的关于身体部位的信息也可包括身体部位的图像。
作为另一示例,关于用户的身体部位的信息可包括关于用户的姿态的信息。术语“姿态”可表示在某个时间点用户的身体部位的形状、在某段时间期间用户的身体部位的形状的变动、身体部位的位置的变动或者身体部位的动作。例如,关于用户的姿态的信息可以是在某个时间点用户的身体部位的图像,或者关于经由用户输入单元1040输入的触摸输入的信息。
例如,当用户像用户戴眼镜那样利用鼻梁架穿戴可穿戴眼镜1000时,可穿戴眼镜1000可获取穿戴在用户的鼻子上的可穿戴眼镜1000的倾斜程度来作为关于用户的鼻子的信息。
作为另一示例,当用户像用户戴眼镜那样通过将可穿戴眼镜1000的框架固定到用户的耳朵上来穿戴可穿戴眼镜1000时,可穿戴眼镜1000可获取关于用户的耳朵之间的相对位置的信息作为关于用户的耳朵的信息。
作为另一示例,可穿戴眼镜1000可获取用户的至少一只眼睛的图像作为关于用户的眼睛的信息。可穿戴眼镜1000可通过利用可穿戴眼镜1000中包括的相机1060拍摄用户的眼睛来获取眼睛图像。例如,可穿戴眼镜1000可获取包括通过拍摄反射测试图像的用户的眼睛来捕捉的图像的穿戴状态信息。
在下文中将参考图8、图9、图10A和10B和图11A至11C来更详细描述获取用户的眼睛的图像作为关于用户的身体部位的信息的方法。
在操作S300中,可穿戴眼镜1000可利用在操作S200中获取的穿戴状态信息确定可穿戴眼镜1000相对于用户的倾斜。
可穿戴眼镜1000相对于用户的倾斜表示以用户正确穿戴可穿戴眼镜1000的预定参考穿戴状态为基准当前被用户穿戴的可穿戴眼镜1000倾斜的程度。换言之,可穿戴眼镜1000的倾斜可表示与在参考穿戴状态中可穿戴眼镜1000相对于用户的位置和角度相比当前可穿戴眼镜1000的位置和角度的变动。可穿戴眼镜1000可通过将在操作S200中获取的穿戴状态信息与预定参考穿戴状态信息相比较来确定可穿戴眼镜1000相对于用户的倾斜。
例如,预定参考穿戴状态信息表示用户将可穿戴眼镜1000穿戴在最适于接收图像的位置的状态,从而参考穿戴状态信息可被预存储为默认值或者可由用户设定。下文中将参考图33详细描述用户设定参考穿戴状态的方法。
例如,关于用户当前穿戴可穿戴眼镜1000的状态的信息可包括用户的身体部位的图像。可穿戴眼镜1000可从身体部位的图像中检测与身体部位相对应的区域并且从检测到的区域中获取身体部位的属性值。可穿戴眼镜1000可获取与从身体部位的图像检测到的与身体部位相对应的区域的位置、形状或大小相关联的属性值。可穿戴眼镜1000可通过将获取的属性值与参考穿戴状态信息中包括的参考值相比较来确定其倾斜。参考穿戴状态信息中包括的参考值可以是从在参考穿戴状态中获取的身体部位的图像中检测到的属性值。参考值可以是预存储的值或者由用户设定的值。
可穿戴眼镜1000可将多个参考穿戴状态和/或多个参考值与多个身体部位相映射并且存储映射的结果。可替换地,可穿戴眼镜1000可将多个参考穿戴状态和/或多个参考值与多个用户相映射并且存储映射的结果,从而可根据不同用户使用不同的标准以便对可穿戴眼镜1000的倾斜进行补偿。
下文中将参考图12至图17来详细描述从身体部位的图像确定可穿戴眼镜1000的倾斜的方法。
图7是用于根据示范性实施例说明基于参考穿戴状态确定的可穿戴眼镜1000相对于用户的倾斜的图。可穿戴眼镜1000相对于用户的倾斜可表示与预定参考穿戴状态相比被用户穿戴的可穿戴眼镜1000倾斜的程度。
图7图示了可穿戴眼镜1000相对于用户处于参考穿戴状态中的情况。参考穿戴状态表示可穿戴眼镜1000被定位得最适于用户从可穿戴眼镜1000接收图像的状态。参考穿戴状态可被预存储为默认值或者可由用户设定。
例如,可穿戴眼镜1000可获取可穿戴眼镜1000沿着在空间上定义的虚拟轴旋转的角度作为倾斜值。例如,可穿戴眼镜1000相对于用户的倾斜可包括基于在可穿戴眼镜1000的参考穿戴状态中在空间上定义的三个轴确定的前后倾斜、上下倾斜和左右倾斜中的至少一者(或者全部)。可穿戴眼镜1000相对于用户的倾斜可表示代表与参考穿戴状态相比可穿戴眼镜1000相对于用户的特定身体部位倾斜的程度的相对倾斜。
如图7所示,以用户当前穿戴可穿戴眼镜1000的状态是参考穿戴状态时为基准,可从可穿戴眼镜1000定义x轴、y轴和z轴。参考穿戴状态中可穿戴眼镜1000的x轴可与用户的身体的冠状平面和横向平面彼此相交的轴平行。参考穿戴状态中可穿戴眼镜1000的y轴可与用户的身体的矢状平面和横向平面彼此相交的轴平行。参考穿戴状态中可穿戴眼镜1000的z轴可与用户的身体的矢状平面和冠状平面彼此相交的轴平行。要理解参考穿戴状态不限于上述那种。例如,根据另一示范性实施例,参考穿戴状态可被用户的设定改变或者可有所变动。
在本说明书中,可穿戴眼镜1000的前后倾斜表示可穿戴眼镜1000从可穿戴眼镜1000在参考穿戴状态中相对于用户的位置(以下,称为参考位置)绕着x轴旋转的角度。例如,x轴可以是与在参考穿戴状态中将用户的双眼连接到彼此的直线平行的轴。
可穿戴眼镜1000的上下倾斜表示可穿戴眼镜1000从参考位置绕着y轴旋转的角度。例如,y轴可以是与用户在参考穿戴状态中直视前方的眼睛方向平行的轴。
可穿戴眼镜1000的左右倾斜表示可穿戴眼镜1000从参考位置绕着z轴旋转的角度。z轴可以是与x轴和y轴垂直的轴。
为了便于说明,在本说明书中例示了图7的可穿戴眼镜1000绕着x轴、y轴和z轴的旋转角度被确定为可穿戴眼镜1000的倾斜的情况。然而,要理解一个或多个其他示范性实施例不限于图7的情况,并且各种方法和各种标准可用于确定可穿戴眼镜1000相对于用户的倾斜程度。
下文中将参考图12至图17来详细描述利用用户的穿戴状态信息确定可穿戴眼镜1000相对于用户的倾斜的方法。
可穿戴眼镜1000可基于关于用户的姿态的信息确定可穿戴眼镜1000的倾斜。可穿戴眼镜1000可将关于若干个姿态的信息与倾斜相映射并且存储映射的结果,或者存储能够基于关于姿态的信息计算可穿戴眼镜1000的倾斜的关系。可穿戴眼镜1000可通过基于所获取的关于用户的姿态的信息搜索预存储的倾斜或者通过利用找到的关系计算倾斜,来确定倾斜。
返回参考图6,在操作S400中,可穿戴眼镜1000基于所确定的倾斜调整在显示器1030上显示的图像。可穿戴眼镜1000基于以参考穿戴状态为基准确定的倾斜来调整在显示器1030上显示的图像。
可穿戴眼镜1000通过基于可穿戴眼镜1000相对于用户的倾斜调整在显示器1030上显示的图像,即使在可穿戴眼镜1000倾斜时也可向用户提供不失真的图像。
例如,可穿戴眼镜1000可基于在操作S300中确定的可穿戴眼镜1000的倾斜来调整显示图像的旋转角度、大小和形状中的至少一者。
例如,当可穿戴眼镜1000的显示器1030被构造为半透明光波导(例如,棱镜)时,可穿戴眼镜1000可基于可穿戴眼镜1000的倾斜调整从显示器1030的投影仪输出的光所聚焦于的焦点的位置。
可穿戴眼镜1000可执行用于对可穿戴眼镜1000的倾斜进行补偿的图像调整(例如,水平平移、垂直平移、梯形失真和/或各种类型的图像处理,其中图像被校正以使得用户可不被提供失真的图像)。
例如,当可穿戴眼镜1000相对于用户垂直倾斜时,例如当上下倾斜被确定为不是0的值时,可穿戴眼镜1000可从显示图像对上下倾斜进行补偿。换言之,可穿戴眼镜1000可在与可穿戴眼镜1000倾斜的方向相反的方向上按所确定的上下倾斜旋转显示图像。
因此,穿戴可穿戴眼镜1000的用户可被提供以进行了倾斜补偿的图像,而无需校正可穿戴眼镜1000的位置,即使当用户当前穿戴可穿戴眼镜1000的状态偏离了参考穿戴状态时也是如此。
下文中将参考图19、图20、图21A和21B、图22A至22C和图23至图26详细描述显示基于可穿戴眼镜1000的倾斜调整的图像的方法。
图8是根据示范性实施例的可穿戴眼镜1000获取关于用户的身体部位的信息的方法的流程图。
当表示用户当前穿戴可穿戴眼镜1000的状态的穿戴状态信息被用于确定可穿戴眼镜1000与参考穿戴状态相比倾斜的程度时,可穿戴眼镜1000可按定期的时间间隔获取用户的穿戴状态信息。例如,可穿戴眼镜1000可按定期的时间间隔拍摄用户的眼睛以便获取用户的穿戴状态信息。
然而,反复获取用户的穿戴状态信息可引起存储器容量的过载和处理器的计算次数的过载。因此,根据示范性实施例,如图8所示,可穿戴眼镜1000可仅在发生某个事件时才获取用户的穿戴状态信息。
参考图8,在操作S210中,可穿戴眼镜1000可判定可穿戴眼镜1000是否被初始化。例如,当可穿戴眼镜1000的电源被开启或者从用户接收到用于初始化可穿戴眼镜1000的初始化输入时,可穿戴眼镜1000可被初始化。
当可穿戴眼镜1000被初始化时,在操作S250中,可穿戴眼镜1000可获取用户的穿戴状态信息。在可穿戴眼镜1000被初始化之后,可穿戴眼镜1000可通过执行操作S220,基于可穿戴眼镜1000的运动状态值来获取用户的穿戴状态信息。
在操作S220中,可穿戴眼镜1000可测量可穿戴眼镜1000的运动状态值。运动状态值表示代表可穿戴眼镜1000的运动的值。
例如,可穿戴眼镜1000可测量可穿戴眼镜1000的加速度值、速度值和角动量值中的至少一者作为运动状态值。在操作S230中,可穿戴眼镜1000可判定测量到的运动状态值是否等于或大于预定的值。当测量到的运动状态值等于或大于预定值时,可穿戴眼镜1000在操作S250中可获取穿戴状态信息。另一方面,当测量到的可穿戴眼镜1000的运动状态值小于预定值时,可穿戴眼镜1000可通过执行操作S240基于用户输入来拍摄或捕捉用户的眼睛的图像或状态。
在操作S240中,可穿戴眼镜1000判定是否从用户接收到用于调整显示图像的输入。当由于可穿戴眼镜1000的位置的变化而向用户提供失真的图像时,用户可向可穿戴眼镜1000输入用于基于可穿戴眼镜1000以参考穿戴状态为基准倾斜的程度来调整显示图像的命令。
可穿戴眼镜1000可执行判定是否接收到用于调整显示图像的用户输入的操作S240。当接收到用于调整显示图像的用户输入时,在操作S250中,可穿戴眼镜1000可获取穿戴状态信息。另一方面,当没有接收到用于调整显示图像的用户输入时,可穿戴眼镜1000可重复操作S210至S240。
在操作S250中,可穿戴眼镜1000可获取用户的穿戴状态信息。可穿戴眼镜1000可输出引导用户直视前方的引导图像,从而提高对可穿戴眼镜1000的倾斜的测量的准确性。例如,如图9所示,可穿戴眼镜1000可在显示器1030上显示图像901,告知用户将拍摄用户的眼睛以便调整或者图像校正过程即将开始。可穿戴眼镜1000可在输出引导图像之后拍摄用户的眼睛。然而,要理解一个或多个其他示范性实施例不限于此,并且可以在不输出引导图像的情况下拍摄用户的眼睛。
可穿戴眼镜1000可拍摄用户的身体部位以便获取关于用户当前穿戴可穿戴眼镜1000的状态的信息。例如,可穿戴眼镜1000可获取包括关于穿戴着可穿戴眼镜1000的用户的眼睛的图像的穿戴状态信息。图10A、图10B、图11A、图11B和图11C是根据一个或多个示范性实施例经由可穿戴眼镜1000捕捉的用户的眼睛的图像的示例。
如图10A所示,可穿戴眼镜1000可拍摄用户的一只眼睛。可替换地,如图10B所示,可穿戴眼镜1000可拍摄用户的两只眼睛。
图10A和图10B图示了根据一个或多个示范性实施例的、当可穿戴眼镜1000以参考穿戴状态为基准相对于用户没有倾斜时经由可穿戴眼镜1000捕捉的用户的眼睛的图像。
图11A、图11B和图11C图示了根据一个或多个示范性实施例的、当可穿戴眼镜1000以参考穿戴状态为基准相对于用户倾斜时经由可穿戴眼镜1000捕捉的用户的眼睛的图像。
图11A图示了当可穿戴眼镜1000相对于用户垂直倾斜从而存在上下倾斜时经由可穿戴眼镜1000捕捉的用户的眼睛图像的图像的示例。图11A图示了当可穿戴眼镜1000绕着参考穿戴状态中可穿戴眼镜1000的y轴(即,与参考穿戴状态中的用户直视前方的眼睛方向平行的轴)旋转了时用户的眼睛的图像。与图10B所示的双眼的位置相比,图11A所示的双眼的位置和角度改变了。
图11B图示了当可穿戴眼镜1000相对于用户左右倾斜从而存在左右倾斜时经由可穿戴眼镜1000捕捉的用户的眼睛图像的图像的示例。图11B图示了当可穿戴眼镜1000绕着参考穿戴状态中的可穿戴眼镜1000的z轴(即,与平行于将参考穿戴状态中的用户的两眼相互连接的直线的x轴和y轴垂直的轴)旋转了时用户的眼睛的图像。
当可穿戴眼镜1000相对于用户左右倾斜并且从而从可穿戴眼镜1000的一侧到用户的眼睛的距离增大时,眼睛的图像上显示的眼睛的大小减小。当可穿戴眼镜1000相对于用户左右倾斜并且从而从可穿戴眼镜1000的另一侧到用户的眼睛的距离减小时,眼睛的图像上显示的眼睛的大小增大。与图10B所示的双眼的位置相比,图11B所示的双眼的大小改变了。参考图11B,由于在捕捉的眼睛图像上示出的用户的右眼变得更小,所以用户的右眼变得离可穿戴眼镜1000的右侧更远。由于在捕捉的眼睛图像上示出的用户的左眼变得更大,所以用户的左眼变得离可穿戴眼镜1000的左侧更近。换言之,图11B图示了当可穿戴眼镜1000绕着参考穿戴状态中的可穿戴眼镜1000的z轴在可穿戴眼镜1000的右端变得离用户更远并且其左端变得离用户更近的方向上旋转了时捕捉的眼睛图像的示例。
可穿戴眼镜1000可获取用户的眼睛的图像作为关于用户的身体部位的信息,并且利用眼睛图像确定可穿戴眼镜1000相对于用户的倾斜。在此情况下,可穿戴眼镜1000可通过利用其中包括的相机直接拍摄用户的眼睛或者通过从外部设备接收由外部设备捕捉的用户的眼睛的图像来获取用户的眼睛的图像。
图11C图示了当可穿戴眼镜1000相对于用户具有前后倾斜时经由可穿戴眼镜1000捕捉的用户的眼睛的图像的示例。也就是说,图11C图示了当可穿戴眼镜1000绕着参考穿戴状态中的可穿戴眼镜1000的x轴旋转了时用户的眼睛的图像。与图10B所示的双眼的位置相比,图11A所示的双眼的位置和角度改变了。
图12是根据示范性实施例的可穿戴眼镜1000从用户的眼睛的图像确定可穿戴眼镜1000的倾斜的方法的流程图。
在操作S310中,可穿戴眼镜1000可从眼睛图像确定与用户的眼睛相对应的第一区域。
例如,可穿戴眼镜1000可基于眼睛图像的亮度和颜色中的至少一者的变化来确定与用户的眼睛相对应的第一区域。
图13图示了用户的眼睛的图像示例。可穿戴眼镜1000可确定由图13的虚线指示的区域1301作为与用户的眼睛相对应的第一区域。
在操作S320中,可穿戴眼镜1000可从眼睛图像确定与用户的虹膜相对应的第二区域。
例如,可穿戴眼镜1000可基于眼睛图像的亮度和颜色中的至少一者的变化来确定与用户的虹膜相对应的第二区域。可穿戴眼镜1000可在操作S310中确定的第一区域内确定第二区域,从而与在整个眼睛图像内确定第二区域的情况相比减少计算次数。
图14图示了用户的眼睛的图像示例。可穿戴眼镜1000可确定由图14的虚线指示的区域1401作为与用户的虹膜相对应的第二区域。
可穿戴眼镜1000还可确定与用户的瞳孔或者第二区域1401的中心1405相对应的区域1403(例如,第三区域)。如图14所示,可穿戴眼镜1000还可从眼睛图像确定与用户的瞳孔或者第二区域1401的中心1405相对应的区域1403。
在操作S330中,可穿戴眼镜1000可基于第一区域和第二区域中的至少一者获取用户的眼睛的属性值。用户的眼睛的属性值可包括以下各项中的至少一者:眼睛的长轴的长度值、眼睛的短轴的长度值、长轴旋转的角度值、短轴旋转的角度值以及表示用户的虹膜的位置的值,这些在眼睛图像内。
图15是用于描述根据示范性实施例的、从捕捉的眼睛图像获取的属性值的示意图。
如图15所示,可穿戴眼镜1000可确定连接经过与用户的眼睛相对应的第一区域1301的两个焦点的直线与第一区域1301相交的点的线段1501作为长轴,并且确定线段1501的长度作为长轴的长度。当第一区域1301近似为椭圆形时,第一区域1301的两个焦点可表示近似椭圆形的第一区域1301的两个焦点。
可穿戴眼镜1000可确定垂直二等分线段1501的线段1503作为短轴,并且确定线段1503的长度作为短轴的长度。
可穿戴眼镜1000可获取与用户的虹膜相对应的第二区域1401的中心1405的位置作为表示虹膜的位置的值。
可穿戴眼镜1000可通过将长轴的角度和/或短轴的角度与眼睛图像的水平轴和/或垂直轴相比较来获取长轴的角度和/或短轴的角度。眼睛图像的水平轴和垂直轴可以是从在参考穿戴状态中捕捉的用户的眼睛图像获取的与眼睛相对应的区域的长轴和短轴。
可穿戴眼镜1000可确定与用户的眼睛相对应的第一区域1301的长轴和眼睛图像的水平轴1509-3形成的角度1505作为长轴的角度。可穿戴眼镜1000可确定与用户的眼睛相对应的第一区域1301的短轴和眼睛图像的垂直轴1509-1形成的角度1507作为短轴的角度。
返回参考图12,在操作S340中,可穿戴眼镜1000可基于所获取的属性值来确定可穿戴眼镜相对于用户的倾斜。例如,可穿戴眼镜1000可通过将获取的属性值与参考穿戴状态信息中包括的参考值相比较来确定其倾斜。参考穿戴状态信息中包括的参考值可以是从在用户当前穿戴可穿戴眼镜1000的状态是参考穿戴状态时获取的身体部位的图像中检测到的属性值。参考值可以是预定的值或者由用户设定的值。
图16和图17是用于说明根据示范性实施例的、可穿戴眼镜1000从眼睛图像确定可穿戴眼镜1000的倾斜的方法的示意图。
参考图16,可穿戴眼镜1000可提取由连接用户的双眼的虹膜的中心1405-1和1405-2的直线和眼睛图像的水平轴1509-3形成的角度1601作为属性值。可穿戴眼镜1000可通过将所获取的属性值与参考值相比较来确定其上下倾斜。
例如,当连接用户的双眼的虹膜的中心1405-1和1405-2的直线与水平轴1509-3之间的角度的参考值为0时,连接中心1405-1和1405-2的直线与水平轴1509-3之间的角度1601可被确定为可穿戴眼镜1000的上下倾斜。可穿戴眼镜1000可基于所确定的可穿戴眼镜1000的上下倾斜来调整显示图像的旋转角度、大小和形状中的至少一者。
参考图17,可穿戴眼镜1000可提取用户的双眼的长轴1501-1和1501-2的长度作为属性值。可穿戴眼镜1000可通过将所获取的属性值与参考值相比较来确定其左右倾斜。例如,可穿戴眼镜1000可预先存储长轴的长度作为参考值。可穿戴眼镜1000可基于预存储的长轴的长度和新测量的长轴的长度来计算可穿戴眼镜1000与用户之间的距离的变化,并且可基于计算出的距离来调整从显示图像的大小和形状中选择的至少一者。
图18是根据示范性实施例的可穿戴眼镜1000显示基于可穿戴眼镜1000的倾斜调整的图像的方法的流程图。
参考图18,在操作S410中,可穿戴眼镜1000可通过基于可穿戴眼镜1000的倾斜旋转显示图像来调整显示图像。例如,可穿戴眼镜1000可根据可穿戴眼镜1000以参考穿戴状态为基准绕着与用户直视前方的眼睛方向平行的轴旋转的倾斜(例如,上下倾斜)来旋转显示图像。
可穿戴眼镜1000可确定与参考穿戴状态相比可穿戴眼镜1000的倾斜,并且在与可穿戴眼镜1000倾斜的方向相反的方向上按所确定的倾斜旋转显示图像。
在操作S450中,可穿戴眼镜1000显示基于可穿戴眼镜1000的倾斜来调整的图像。可穿戴眼镜1000基于根据参考穿戴状态确定的倾斜来调整在显示器1030上显示的图像。
图20、图21A和图21B是用于说明根据一个或多个示范性实施例的、基于可穿戴眼镜1000的倾斜经由显示器1030显示的图像的示意图。如图20、图21A和21B所示,可穿戴眼镜1000可利用棱镜方法在显示器1030上显示图像。然而,要理解一个或多个其他示范性实施例不限于此。例如,根据一个或多个其他示范性实施例,可穿戴眼镜1000可根据图4A和图4B的单眼显示方法、图5A和图5B的双眼显示方法或者与其类似的方法经由显示器1030显示图像。
图20图示了参考穿戴状态中的用户穿戴可穿戴眼镜1000的情况。如图20所示,可穿戴眼镜1000可经由显示器1030向用户提供图像2001。
图21A图示了当可穿戴眼镜1000与参考穿戴状态相比倾斜时基于可穿戴眼镜1000的倾斜来调整在显示器1030上显示图像的情况。
当可穿戴眼镜1000与参考穿戴状态相比绕着与用户直视前方的眼睛方向平行的轴倾斜时,可穿戴眼镜1000可确定可穿戴眼镜1000的旋转的角度θ,作为可穿戴眼镜1000的上下倾斜。如图21A所示,可穿戴眼镜1000可显示在与可穿戴眼镜1000倾斜的方向相反的方向上按所确定的上下倾斜旋转的图像2101。
图19是根据示范性实施例的可穿戴眼镜1000显示基于可穿戴眼镜1000的倾斜调整的图像的方法的流程图。
参考图19,在操作S420中,可穿戴眼镜1000基于可穿戴眼镜1000的倾斜来调整显示图像的大小、旋转角度和形状中的至少一者。例如,当从用户到可穿戴眼镜1000的距离以参考穿戴状态为基准有所变动时,可穿戴眼镜1000可调整显示图像的大小。可替换地,可穿戴眼镜1000可确定与参考穿戴状态相比可穿戴眼镜1000绕着预定轴倾斜的倾斜,并且在与可穿戴眼镜1000倾斜的方向相反的方向上旋转显示图像。可替换地,当可穿戴眼镜1000的位置和角度中的至少一者与参考穿戴状态相比有所变动时,可穿戴眼镜1000可调整显示图像的形状以使得用户可被提供非失真的图像。
在操作S450中,可穿戴眼镜1000可显示基于可穿戴眼镜1000的倾斜来调整的图像。
图21B图示了当可穿戴眼镜1000与参考穿戴状态相比变得离用户更远时基于可穿戴眼镜1000的位置的变动来调整经由显示器1030显示的图像的情况。
当可穿戴眼镜1000与参考穿戴状态相比变得离用户更远时,可穿戴眼镜1000被提供比在参考穿戴状态中提供的图像更小的图像。从而,可穿戴眼镜1000可显示基于可穿戴眼镜1000变得离用户更远的距离而放大的图像2103。
图21B图示了可穿戴眼镜1000使用将图像投影到用户的一只眼睛的棱镜的情况。然而,要理解一个或多个其他示范性实施例不限于图21B所示的可穿戴眼镜1000。在如图5A和5B所示被构造为双眼显示器的可穿戴眼镜1000的情况中,当可穿戴眼镜1000相对于用户左右倾斜并从而存在左右倾斜时,从可穿戴眼镜1000的一侧到用户的眼睛的距离不同于从可穿戴眼镜1000的另一侧到用户的眼睛的距离。
当可穿戴眼镜1000相对于用户左右倾斜时,可穿戴眼镜1000可确定可穿戴眼镜1000相对于用户左右倾斜的角度作为其左右倾斜。
例如,如图17所示,可穿戴眼镜1000可基于用户的双眼的长轴1501-1和1501-2的长度来确定可穿戴眼镜1000的左右倾斜。当可穿戴眼镜1000相对于用户左右倾斜时,从可穿戴眼镜1000的一侧到用户的眼睛的距离可有所变动。因此,如图17所示,当从可穿戴眼镜1000的一侧到用户的眼睛的距离增大时,眼睛的图像上示出的眼睛的大小变小。当从可穿戴眼镜1000的另一侧到用户的眼睛的距离减小时,眼睛的图像上示出的眼睛的大小变大。
可穿戴眼镜1000可确定可穿戴眼镜1000与参考穿戴状态相比的左右倾斜,并且可按所确定的左右倾斜来调整显示图像的大小。例如,可穿戴眼镜1000可基于左右倾斜来估计从可穿戴眼镜1000到用户的眼睛的距离的变动。可穿戴眼镜1000可基于估计的距离变动来调整显示图像的大小。
可穿戴眼镜1000可基于可穿戴眼镜1000的倾斜执行图像调整(例如,水平平移、垂直平移、梯形失真和/或各种类型的图像处理,其中显示图像被校正以使得用户可被提供不失真的图像)。
现在将参考图22A、图22B和图22C详细描述根据一个或多个示范性实施例的、可穿戴眼镜1000调整在显示器1030上显示的图像的方法。
可穿戴眼镜1000可确定与参考穿戴状态相比可穿戴眼镜1000相对于用户的位置的变动。例如,可穿戴眼镜1000可确定其与参考穿戴状态相比的倾斜。
可穿戴眼镜1000可基于所确定的位置变动来调整经由显示器1030显示的图像。可穿戴眼镜1000可通过利用转换公式重映射显示器1030上显示的图像来显示调整后图像。
如图22A所示,可穿戴眼镜1000可在显示器1030上显示图像2201。
当用户长时间穿戴着可穿戴眼镜1000时,可穿戴眼镜1000在用户的头上的位置会根据用户的运动或者外部环境变化而改变。可穿戴眼镜1000可获取表示用户当前穿戴可穿戴眼镜1000的状态的穿戴状态信息。可穿戴眼镜1000可基于所确定的参考穿戴状态从所获取的穿戴状态信息确定可穿戴眼镜1000的位置变化程度。可穿戴眼镜1000可基于所确定的位置变化程度根据用于调整经由显示器1030显示的图像的转换公式来计算或操作。
可穿戴眼镜1000计算或使用的转换公式可被表述为式1:
【式1】
dst(x,y)=src(fx(x,y),fy(x,y))
其中src指示尚未旋转的原始图像,dst指示已旋转的图像,并且(x,y)指示图像的坐标。在式1中,fx(x,y)指示用于预定像素的x轴值的转换公式,并且fy(x,y)指示用于预定像素的y轴值的转换公式。
如图22A所示,可穿戴眼镜1000通过向图像2201应用转换公式来重映射图像2201中包括的每个像素,从而生成并显示调整后图像2203。可穿戴眼镜1000可通过向图像应用转换公式来调整显示的图像的位置、旋转角度、大小和形状中的至少一者。
图22B图示了调整经由可穿戴眼镜1000提供的图像的位置的方法。如图22B所示,可穿戴眼镜1000可在显示器1030上显示图像2211。
当用户长时间穿戴着可穿戴眼镜1000时,可穿戴眼镜1000在用户的头上的位置可根据用户的运动或者外部环境变化而改变。当可穿戴眼镜1000在用户的头上的位置改变时,经由可穿戴眼镜1000提供的图像可偏离用户的视角。具体地,当可穿戴眼镜1000的显示器1030被构造为棱镜的形式并且可穿戴眼镜1000在用户的头上的位置改变时,显示器1030的投影仪输出的光聚焦的焦点的位置改变了,从而用户被提供失真的图像。
因此,可穿戴眼镜1000可确定与参考穿戴状态相比可穿戴眼镜1000相对于用户的位置的变化,并且基于所确定的位置变化来调整显示的图像2211。可穿戴眼镜1000可根据用于调整显示的图像2211的转换公式来计算或操作。
计算或使用的使得可穿戴眼镜1000将显示的图像在x轴方向上移动k并且在y轴方向上移动1的转换公式可被表述为式2。
【式2】
dst(x,y)=src(x+k,y+l)
其中src指示显示位置尚未改变的原始图像,dst指示显示位置改变了的结果图像,并且(x,y)指示图像的坐标。像素2215表示显示的图像2211内的预定像素。图22B图示了将显示的图像2211在x轴方向上移动k并且在y轴方向上移动1的情况。如图22B所示,显示的图像2211内的像素2215可被在x轴方向上移动k并且在y轴方向上移动1,从而可被重映射为显示器1030上的像素2217。
如图22B所示,可穿戴眼镜1000通过向图像2211应用式2来重映射图像2211中包括的每个像素,从而生成并显示调整后图像2213。图22C图示了按预定的角度旋转经由可穿戴眼镜1000提供的图像的方法。如图22C所示,可穿戴眼镜1000可在显示器1030上显示图像2221。
当用户长时间穿戴着可穿戴眼镜1000时,可穿戴眼镜1000在用户的头上的位置可根据用户的运动或者外部环境变化而改变。当可穿戴眼镜1000绕着用户的头上的预定轴旋转时,用户被提供失真的图像。
因此,可穿戴眼镜1000可确定与参考穿戴状态相比可穿戴眼镜1000相对于用户的倾斜,并且基于所确定的倾斜来调整显示的图像。可穿戴眼镜1000可计算用于调整经由显示器1030显示的图像2221的转换公式。例如,当可穿戴眼镜1000与参考穿戴状态相比绕着与用户直视前方的眼睛方向平行的轴倾斜时,可穿戴眼镜1000可确定可穿戴眼镜1000的旋转的角度θ,作为可穿戴眼镜1000的上下倾斜。如图22C所示,可穿戴眼镜1000可显示在与可穿戴眼镜1000倾斜的方向相反的方向上按所确定的上下倾斜旋转的图像2223。
计算或使用的使得可穿戴眼镜1000按上下倾斜在相反方向上旋转显示的图像的转换公式可被表述为以下的式3。
用于在与可穿戴眼镜1000倾斜的方向相反的方向上旋转显示图像的转换矩阵M可被表述如下。换言之,M指示用于将显示图像旋转-θ°的转换矩阵:
【式3】
Figure GDA0001957164220000311
α=scale·cos(-θ)
β=scale-sin(-θ)
在式3中,center指示要旋转的显示图像的中心点,并且scale指示确定通过向显示图像应用转换矩阵而获得的结果图像的大小的参数。
通过向显示图像应用转换矩阵而计算或使用的转换公式可被表述为式4:
【式4】
dst(x,y)=src(M11x+M12y+M13,M21x+M22y+M23)
其中src指示尚未旋转的原始图像,dst指示已旋转的结果图像,并且(x,y)指示图像的坐标。如图22C所示,可穿戴眼镜1000可通过将显示的图像2221从中心点2225旋转-θ°来生成图像2223,并且显示图像2223。
可穿戴眼镜1000可应用动画效果来利用基于可穿戴眼镜1000的倾斜调整的图像更新显示器1030上显示的图像以显示调整后图像。
例如,如图23所示,可穿戴眼镜1000可向显示图像2301应用动画效果,其中显示图像2301在箭头2305的方向上被旋转并显示。
在基于可穿戴眼镜1000的倾斜的图像调整完成之后,可如图24所示输出表示图像调整已完成的图像2401。
根据示范性实施例,当基于可穿戴眼镜1000的倾斜的图像调整偏离可穿戴眼镜1000可显示图像的区域时,调整后图像可被缩小并显示。
图25是根据示范性实施例的可穿戴眼镜1000缩小并显示调整后图像的方法的流程图。
图25的操作S200、S300和S400分别对应于图6的操作S200、S300和S400,从而这里省略对其的冗余描述。
如图25所示,在操作S430中,可穿戴眼镜1000基于所确定的倾斜调整在显示器1030上显示的图像。
在操作S440中,可穿戴眼镜1000判定调整后图像是否偏离可穿戴眼镜1000可显示图像的区域。
例如,在具有图4A、图4B、图5A和图5B所示的显示类型的可穿戴眼镜1000中,可穿戴眼镜1000可显示图像的区域可表示显示器1030上的可输出与构成图像的像素相对应的光束和颜色的区域。作为另一示例,在具有图3A和图3B所示的棱镜类型的可穿戴眼镜1000中,可穿戴眼镜1000可显示图像的区域可表示显示器1030上的如下区域:在该区域中,由可穿戴眼镜1000的投影仪输出的光可被反射,从而图像可聚焦在穿戴着可穿戴眼镜1000的用户的眼睛的视网膜的中心凹上。
例如,当基于可穿戴眼镜1000的倾斜旋转显示图像并且旋转的角度等于或大于预定值时,可穿戴眼镜1000可确定调整后图像偏离可穿戴眼镜1000可显示图像的区域。
可替换地,当基于可穿戴眼镜1000的倾斜改变显示图像的大小并且改变后的显示图像的大小等于或大于预定值时,可穿戴眼镜1000可确定调整后图像偏离可穿戴眼镜1000可显示图像的区域。
当调整后图像被显示在可穿戴眼镜1000可显示图像的区域内时,在操作S470中,可穿戴眼镜1000可显示调整后图像。另一方面,当调整后图像偏离可穿戴眼镜1000可显示图像的区域时,在操作S460中,可穿戴眼镜1000可缩小或取消放大调整后图像。
图26是用于说明根据示范性实施例的、基于可穿戴眼镜1000的倾斜缩小并显示的图像的示意图。
图26图示了当可穿戴眼镜1000与图20所示的参考穿戴状态相比倾斜时基于可穿戴眼镜1000相对于用户的上下倾斜来调整显示图像的情况。当调整后图像2601如图26的虚线所指示偏离可穿戴眼镜1000可显示图像的区域时,可穿戴眼镜1000可缩小(例如,取消放大)调整后图像2601并且显示缩小的图像2603。
当可穿戴眼镜1000相对于用户的位置与参考穿戴状态相比大幅改变时,即使当可穿戴眼镜1000基于其倾斜来调整显示图像时用户也可被提供失真的图像。在此情况下,根据示范性实施例,可穿戴眼镜1000可输出引导用户校正HMD 1000的位置的图像。
图27是根据示范性实施例的可穿戴眼镜1000显示请求用户调整可穿戴眼镜1000的图像的方法的流程图。
图27的操作S200和S300分别对应于图6的操作S200和S300,从而这里省略对其的冗余描述。
如图27所示,在操作S300中,可穿戴眼镜1000确定可穿戴眼镜1000相对于用户的倾斜。
在操作S350中,可穿戴眼镜1000判定在操作S300中确定的可穿戴眼镜1000的倾斜是否等于或大于预定的值。该预定值可以是预存储的值或者由用户设定的值。
当所确定的可穿戴眼镜1000的倾斜小于预定值时,在操作S430中,可穿戴眼镜1000可基于所确定的倾斜来调整在显示器1030上显示的图像。另一方面,当所确定的可穿戴眼镜1000的倾斜等于或大于预定值时,在操作S480中,可穿戴眼镜1000可显示指示用户调整可穿戴眼镜1000的图像。
图28图示了根据示范性实施例的、请求用户调整可穿戴眼镜1000的图像的示例。
如图28所示,当可穿戴眼镜1000的倾斜等于或大于预定值时,可穿戴眼镜1000可在显示器1030上显示请求用户调整可穿戴眼镜1000的图像2801。请求用户调整可穿戴眼镜1000的图像2801可包括提供关于可穿戴眼镜1000被用户正确穿戴的状态(即,参考穿戴状态)的信息的图像。
例如,如图28所示,请求用户调整可穿戴眼镜1000的图像2801可包括引导如下方向的图像2803:将在该方向上调整可穿戴眼镜1000以使得用户当前穿戴可穿戴眼镜1000的状态变成参考穿戴状态。
响应于请求用户调整可穿戴眼镜1000的图像2801,用户可从物理上改变可穿戴眼镜1000的位置。在向用户示出请求用户调整可穿戴眼镜1000的图像2801之后,可穿戴眼镜1000可继续开始操作S200以便重复基于关于用户的穿戴状态的信息来调整图像。
可穿戴眼镜1000可显示引导用户调整可穿戴眼镜1000的引导图像。根据另一示范性实施例,可穿戴眼镜1000可简单地显示提醒用户调整可穿戴眼镜1000的图像(例如,图标、闪烁的图标等等)。
图29图示了根据示范性实施例的、引导用户调整可穿戴眼镜1000的图像的示例。
如图29所示,当可穿戴眼镜1000的倾斜等于或大于预定值时,可穿戴眼镜1000可在显示器1030上显示请求用户调整可穿戴眼镜1000的图像2901。请求用户调整可穿戴眼镜1000的图像2901可包括引导用户调整可穿戴眼镜1000的引导图像2905。
引导图像2905可以是提供关于参考穿戴状态的信息的图像。例如,如图29所示,图像2905可引导如下的方向:将在该方向上调整可穿戴眼镜1000以使得用户当前穿戴可穿戴眼镜1000的状态变成参考穿戴状态。
例如,引导图像2905可以是表示可穿戴眼镜1000处于水平状态(即,可穿戴眼镜1000与地球重力的方向垂直)的情况的图像,或者当可穿戴眼镜1000被定位在参考位置时预期将会提供给用户的图像。参考位置表示当用户当前穿戴可穿戴眼镜1000的状态是参考穿戴状态时可穿戴眼镜1000在用户上的位置,从而可被预存储为默认值或者由用户设定。
例如,可穿戴眼镜1000可基于内置在可穿戴眼镜1000中的感测单元(例如,传感器)显示当可穿戴眼镜1000处于水平状态时预期会提供给用户的图像作为引导图像2905。
从而,如图29所示,用户可从物理上改变可穿戴眼镜1000的位置以使得显示图像2903对应于引导图像2905。
例如,当引导图像2905是表示可穿戴眼镜1000处于水平状态的情况的图像时,使显示图像2903和引导图像2905彼此对应表示可穿戴眼镜1000被定位在水平状态中。从而,用户可重复改变可穿戴眼镜1000的位置,直到显示图像2903和引导图像2905彼此对应为止,从而将可穿戴眼镜1000定位在水平状态中。
作为另一示例,当引导图像2905是表示可穿戴眼镜1000被定位在参考位置的情况的图像时,使显示图像2903和引导图像2905彼此对应表示可穿戴眼镜1000被定位得最适于用户接收图像。从而,用户可重复改变可穿戴眼镜1000的位置,直到显示图像2903和引导图像2905彼此对应为止,从而将可穿戴眼镜1000定位在参考位置。
可穿戴眼镜1000不限于用户改变可穿戴眼镜1000的位置以使得用户当前穿戴可穿戴眼镜1000的状态变成参考穿戴状态的情况。可穿戴眼镜1000可包括能够改变用户当前穿戴可穿戴眼镜1000的状态的驱动器。例如,当可穿戴眼镜1000采取眼镜的形式时,可穿戴眼镜1000可在镜腿或鼻梁架内包括驱动器,并从而校正可穿戴眼镜1000相对于用户的倾斜。
可穿戴眼镜1000可通过不仅考虑到可穿戴眼镜1000的倾斜而且考虑到可穿戴眼镜1000的位置的变动和外部环境的亮度中的至少一者来调整在显示器1030上显示的图像。可穿戴眼镜1000可基于可穿戴眼镜1000的位置的变动或者外部环境的亮度来调整在显示器1030上显示的图像的亮度。例如,可穿戴眼镜1000可利用用户的眼睛的图像来确定外部环境的亮度的变动。
图30是根据示范性实施例的可穿戴眼镜1000调整显示图像的方法的流程图。
参考图30,在操作S510中,可穿戴眼镜1000可利用用户的眼睛的图像来确定可穿戴眼镜1000的运动方向和运动距离中的至少一者。
例如,可穿戴眼镜1000可从用户的眼睛图像确定用户的眼睛的位置值。可穿戴眼镜1000可将所确定的位置值与参考穿戴状态信息中包括的参考值相比较,并且基于比较的结果确定可穿戴眼镜1000的运动方向和运动距离中的至少一者。
图31是用于说明根据示范性实施例的、可穿戴眼镜1000调整显示图像的位置和大小的方法的示意图。
图31图示了与用户的眼睛相对应的第一区域1301和与用户的虹膜相对应的第二区域1401,其中第一区域1301和第二区域1401是从用户的眼睛图像确定的。图31图示了可穿戴眼镜1000基于表示用户的虹膜的位置的值来确定可穿戴眼镜1000的运动方向和运动距离的情况。例如,可穿戴眼镜1000可确定与用户的虹膜相对应的第二区域1401的中心1405的位置作为表示虹膜的位置的值。
如图31所示,可穿戴眼镜1000可以把从用户的眼睛图像确定的虹膜的位置1405与预存储的虹膜的参考位置3101相比较并且可基于比较的结果确定可穿戴眼镜1000的运动方向和运动距离中的至少一者。可穿戴眼镜1000的运动可由将从用户的眼睛图像确定的虹膜的位置1405连接到预存储的虹膜的参考位置3101的箭头3103来表示。在此情况下,箭头3103指示的方向可以是可穿戴眼镜1000的运动方向,并且箭头3103的长度可以是可穿戴眼镜1000的运动距离。
返回参考图30,在操作S520中,可穿戴眼镜1000可利用用户的眼睛图像测量用户的瞳孔的大小的变动。
例如,可穿戴眼镜1000可从用户的眼睛图像确定与用户的瞳孔相对应的区域并且确定表示与用户的瞳孔相对应的区域的宽度的值。可穿戴眼镜1000可将从用户的眼睛图像确定的与用户的瞳孔相对应的区域的值与参考穿戴状态信息中包括的参考值相比较。可穿戴眼镜1000可基于比较的结果测量用户的瞳孔的大小的变动。
图32是用于说明根据示范性实施例的、可穿戴眼镜1000调整显示图像的亮度的方法的示意图。
图32图示了与用户的眼睛相对应的第一区域1301、与用户的虹膜相对应的第二区域1401和与用户的瞳孔相对应并且包括在第二区域1401中的第三区域1403,其中第一区域1301、第二区域1401和第三区域1403是从用户的眼睛图像确定的。
如图32所示,可穿戴眼镜1000可以把从用户的眼睛图像确定的与虹膜相对应的区域1403与预存储的与瞳孔相对应的区域3201相比较,并且可基于比较的结果测量用户的瞳孔的大小的变动。参考图32,如箭头3203所指示,用户的瞳孔的大小增大了。
返回参考图30,在操作S530中,可穿戴眼镜1000可基于在操作S510中确定的可穿戴眼镜1000的运动方向和运动距离中的至少一者来调整显示图像的位置和大小中的至少一者。
例如,可穿戴眼镜1000可调整在显示器1030上显示的图像,使得可穿戴眼镜1000在与可穿戴眼镜1000的运动方向相反的方向上按与可穿戴眼镜1000的运动距离相对应的距离运动。
当可穿戴眼镜1000相对于用户的位置被改变时,从用户的眼睛到可穿戴眼镜1000的距离可有所变动。因此,当与参考穿戴状态相比从用户的眼睛到可穿戴眼镜1000的距离变化时,可穿戴眼镜1000可显示通过对距离变化进行补偿而获得的显示图像。例如,当从用户的眼睛到显示图像的距离根据可穿戴眼镜1000的运动而增大时,可穿戴眼镜1000可显示大小按与增大的距离相对应的因子改变了的显示图像。
在操作S540中,可穿戴眼镜1000可基于在操作S520中测量到的用户的瞳孔的大小的变动来调整显示图像的亮度。
例如,当可穿戴眼镜1000周围的亮度增大时,在可穿戴眼镜1000上显示的图像的亮度也将被增大,以使得用户识别出在可穿戴眼镜1000上显示的图像。当可穿戴眼镜1000周围的亮度降低时,在可穿戴眼镜1000上显示的图像的亮度也将被降低,以防止使用户失明或者保护用户免遭不适。
关于可穿戴眼镜1000的外部环境的亮度的信息可利用可穿戴眼镜1000中包括的亮度传感器来直接获取。替换地(或额外地),关于可穿戴眼镜1000的外部环境的亮度的信息可基于穿戴可穿戴眼镜1000的用户的瞳孔的大小的变动来间接获取。
可穿戴眼镜1000可显示亮度已基于用户的瞳孔的大小的变动来调整的显示图像。例如,当用户的瞳孔的大小增大时,可穿戴眼镜1000可确定可穿戴眼镜1000周围的亮度减小,从而降低显示图像的亮度。当用户的瞳孔的大小减小时,可穿戴眼镜1000可确定可穿戴眼镜1000周围的亮度升高,从而升高显示图像的亮度。
作为另一示例,可穿戴眼镜1000可向用户提供具有如下亮度的显示图像:该亮度充分高,足够用户识别出在可穿戴眼镜1000上显示的图像,但也足够低,使得用户不会感到看不见或不适。
因此,当用户的瞳孔的大小增大时,可穿戴眼镜1000可确定显示图像的亮度太低,从而升高显示图像的亮度。当用户的瞳孔的大小减小时,可穿戴眼镜1000可确定显示图像的亮度太高,从而降低显示图像的亮度。
虽然图30图示了可穿戴眼镜1000通过考虑到可穿戴眼镜1000的运动和用户的瞳孔的大小两者来调整显示图像的情况,但要理解一个或多个其他示范性实施例不限于此。也就是说,可穿戴眼镜1000可被构造或配置为基于可穿戴眼镜1000的运动和用户的瞳孔的大小中的至少一者来调整显示图像的位置、大小和亮度中的至少一者。
根据示范性实施例,以上参考图6描述的可穿戴眼镜1000显示图像的方法还可包括在可穿戴眼镜1000被长时间穿戴之前设定参考穿戴状态的操作。用户可将被确定为最适于用户从可穿戴眼镜1000接收图像的状态设定为参考穿戴状态。
根据示范性实施例,可基于由被定位在参考位置的可穿戴眼镜1000获取的关于用户的身体部位的信息来设定参考值。可穿戴眼镜1000可将该参考值存储为参考穿戴状态信息。
例如,当关于用户的身体部位的信息包括用户的眼睛的图像时,从由被定位在参考位置的可穿戴眼镜1000捕捉的用户的眼睛图像测量到的用户的眼睛的属性值可被设定为参考值。
图33是用于说明根据示范性实施例的、可穿戴眼镜1000设定参考穿戴状态的方法的示意图。
如图33所示,当可穿戴眼镜1000的至少一部分被用户触摸时,可穿戴眼镜1000可确定用户在物理上移动可穿戴眼镜1000以使得可穿戴眼镜1000被定位在参考位置。
因此,可穿戴眼镜1000可确定在用户触摸结束的时刻或者与之相对应的时间可穿戴眼镜1000获取的用户的穿戴状态信息作为参考穿戴状态信息。可穿戴眼镜1000可利用新获取的穿戴状态信息来更新预存储的参考穿戴状态信息。例如,可穿戴眼镜1000可在用户触摸结束的时刻拍摄用户的身体部位,并且将捕捉的图像存储为穿戴状态信息。
当用户无意间触摸可穿戴眼镜1000时,可穿戴眼镜1000可防止参考穿戴状态信息被更新。例如,当用户触摸在可穿戴眼镜1000上发生时,可穿戴眼镜1000可输出用于询问用户是否基于可穿戴眼镜1000的当前位置设定参考穿戴状态信息的图形用户界面(GUI)3301。在此情况下,只有当可穿戴眼镜1000接收到基于可穿戴眼镜1000的当前位置设定参考穿戴状态信息的用户输入时,可穿戴眼镜1000才可更新参考穿戴状态信息。
根据示范性实施例,可穿戴眼镜1000在基于可穿戴眼镜1000的倾斜调整在显示器1030上显示的图像时还可考虑在用户的眼球上反射的图像。
经由可穿戴眼镜1000的显示器1030输出的光的一部分可被用户的眼球吸收,并且用户可从吸收的光识别出显示图像。经由可穿戴眼镜1000的显示器1030输出的光的另一部分可被用户的眼球反射。
如图34所示,根据示范性实施例,可穿戴眼镜1000基于用户的眼球反射的图像来调整显示图像。根据示范性实施例,可穿戴眼镜1000可包括用于拍摄用户的眼睛的相机1060。由相机1060捕捉到的用户的眼睛图像可包括在用户的眼球3401上反射的图像3403。
根据示范性实施例,可穿戴眼镜1000可显示测试图像,并且基于通过从用户的眼球反射构成测试图像的光的一部分而获取的反射图像来调整显示图像。
图35是根据示范性实施例的可穿戴眼镜1000基于从用户的眼睛反射的测试图像来校正显示图像的方法的流程图。
参考图35,在操作S1100中,可穿戴眼镜1000可显示测试图像。测试图像表示用于确定可穿戴眼镜1000的倾斜的图像。例如,测试图像可以是预先确定来用于确定倾斜的图像,或者是在显示器1030上显示的图像。
图36A、图36B和图36C图示了根据一个或多个示范性实施例的测试图像的示例。
如图36A所示,可穿戴眼镜1000可显示包括多个点的测试图像。
如图36B所示,可穿戴眼镜1000可显示由多个线段构成的测试图像。
如图36C所示,可穿戴眼镜1000可显示包括预定颜色的多边形的测试图像。
返回参考图35,在操作S1200中,可穿戴眼镜1000获取通过对反射测试图像的用户的眼睛进行拍摄而捕捉的图像。可穿戴眼镜1000可获取反射测试图像的用户的眼睛图像作为关于用户当前穿戴可穿戴眼镜1000的状态的信息。
例如,可穿戴眼镜1000可以在短到用户不能识别出测试图像的时间中输出测试图像,并且获取通过对反射测试图像的用户的眼睛进行拍摄而捕捉的反射图像,从而基于测试图像的反射图像来控制可穿戴眼镜1000的操作。
图37A、图37B和图37C图示了根据一个或多个示范性实施例的、通过利用可穿戴眼镜拍摄反射测试图像的用户的眼睛而捕捉到的图像的示例。
例如,当可穿戴眼镜1000输出图36A的测试图像时,可穿戴眼镜1000可拍摄反射图36A的测试图像的用户的眼睛,如图37A所示。
作为另一示例,当可穿戴眼镜1000输出图36B的测试图像时,可穿戴眼镜1000可拍摄反射图36B的测试图像的用户的眼睛,如图37B所示。
作为另一示例,当可穿戴眼镜1000输出图36C的测试图像时,可穿戴眼镜1000可拍摄反射图36C的测试图像的用户的眼睛,如图37C所示。
对图6的操作S200的描述可应用到图35的操作S1200。下面省略对图35的操作S1200的冗余描述。
在操作S1300中,可穿戴眼镜1000可利用反射测试图像的用户的眼睛图像来确定可穿戴眼镜1000相对于用户的倾斜。
可穿戴眼镜1000相对于用户的倾斜表示与参考穿戴状态相比被用户穿戴的可穿戴眼镜1000倾斜的程度。可穿戴眼镜1000可通过将在操作S1200中获取的用户的眼睛图像与参考穿戴状态信息相比较来确定可穿戴眼镜1000相对于用户的倾斜。可穿戴眼镜1000可存储包括在参考穿戴状态中获取的用户的眼睛的图像的参考穿戴状态信息。可穿戴眼镜1000可存储在参考穿戴状态中获取的用户的眼睛图像中包括的测试图像的反射图像作为参考穿戴状态信息。
可穿戴眼镜1000可从用户的眼睛图像中提取测试图像的反射图像。可穿戴眼镜1000可基于反射图像的大小和形状中的至少一者来确定可穿戴眼镜1000的倾斜。
例如,可穿戴眼镜1000可通过将从用户的眼睛图像提取的反射图像与参考图像相比较来确定可穿戴眼镜1000相对于用户的倾斜。
为了便于说明,图38、图39A、图39B、图39C、图42、图43A、图43B、图43C、图44A和图44B图示了显示图36B的矩形的测试图像的情况。然而,要理解一个或多个其他示范性实施例不限于此,而是可使用各种其他测试图像。
图38图示了根据示范性实施例的、当可穿戴眼镜1000相对于用户没有倾斜时由可穿戴眼镜1000捕捉的用户的眼睛图像3801。
如图38所示,可穿戴眼镜1000捕捉的眼睛图像3801可包括测试图像的反射图像3803。
例如,可穿戴眼镜1000可确定当捕捉图38的眼睛图像3801时可穿戴眼镜1000的位置作为参考位置。可穿戴眼镜1000可以把当可穿戴眼镜1000被定位在参考位置时获取的眼睛图像3801设定为参考图像并且可存储眼睛图像3801。可替换地,可穿戴眼镜1000可以把当可穿戴眼镜1000被定位在参考位置时获取的反射图像3803设定为参考图像并且可存储反射图像3803。
现在将例示图38的反射图像3803被设定为参考图像的情况。图39A、图39B和图39C图示了根据一个或多个示范性实施例的、当可穿戴眼镜1000相对于用户倾斜时经由可穿戴眼镜1000获取的用户的眼睛图像的示例。
图39A图示了可穿戴眼镜1000相对于用户上下倾斜并从而测量到上下倾斜的情况。图39A的反射图像3903的形状与图38的反射图像3803相同,但图39A的眼睛图像3901-1与图38的眼睛图像3801相比是倾斜的。从而,可以看出可穿戴眼镜1000相对于用户的位置变化了。
图39B图示了可穿戴眼镜1000相对于用户前后倾斜并从而测量到前后倾斜的情况。图39B的眼睛图像3901-2的位置和形状与图38的眼睛图像3801相同,但图39B的反射图像3905的形状与图38的反射图像3803不同。从而,可以看出可穿戴眼镜1000相对于用户的位置变化了。
图39C图示了可穿戴眼镜1000相对于用户左右倾斜并从而测量到左右倾斜的情况。图38的眼睛图像3801的位置和形状与图39C的眼睛图像3901-3相同,但图39C的反射图像3907的形状与图38的反射图像3803不同。从而,可以看出可穿戴眼镜1000相对于用户的位置变化了。
下文中将参考图40至图42和图43A至图43C来详细描述利用用户的眼睛图像确定可穿戴眼镜1000相对于用户的倾斜的方法。
返回参考图35,在操作S1400中,可穿戴眼镜1000基于所确定的倾斜调整在显示器1030上显示的图像。
可穿戴眼镜1000可基于在操作S1300中确定的可穿戴眼镜1000的倾斜来调整显示图像的旋转角度、大小和形状中所选择的至少一者。然而,要理解一个或多个其他示范性实施例不限于此,并且可穿戴眼镜1000可调整向用户示出的显示图像的各种参数。
例如,可穿戴眼镜1000还可调整显示图像的亮度、显示器1030上显示出显示图像的位置和显示图像的颜色中的至少一者。作为另一示例,当可穿戴眼镜1000的显示器1030被构造为半透明光波导(例如,棱镜)时,可穿戴眼镜1000可基于可穿戴眼镜1000的倾斜调整从显示器1030的投影仪输出的光所聚焦于的焦点的位置。
因此,即使当可穿戴眼镜1000相对于用户倾斜时,使用可穿戴眼镜1000的用户也可被提供以不失真的图像,而无需校正可穿戴眼镜1000的倾斜。
对图6的操作S400的描述可应用到图35的操作S1400。下面省略对图35的操作S1400的冗余描述。
可穿戴眼镜1000可显示测试图像,获取用户的眼睛的图像作为穿戴状态信息,从用户的眼睛图像中提取或获得测试图像的反射图像,并且分析反射图像,从而确定可穿戴眼镜1000相对于用户的倾斜。
在此情况下,可穿戴眼镜1000可通过利用其中包括的相机直接拍摄用户的眼睛或者通过从外部设备接收由外部设备捕捉的用户的眼睛的图像来获取用户的眼睛图像。
图40是根据示范性实施例从用户的眼睛图像确定可穿戴眼镜1000的倾斜的方法的流程图。
参考图40,在操作S1310中,可穿戴眼镜1000可从眼睛图像提取测试图像的反射图像。
例如,可穿戴眼镜1000可从眼睛图像中确定与用户的眼睛相对应的第一区域1301(参见图42)和与用户的虹膜相对应并且包括在第一区域1301中的第二区域1401(参见图42)。可穿戴眼镜1000可基于第二区域1301内的亮度和颜色中的至少一者来提取测试图像的反射图像4205(参见图42)。
在操作S1320中,可穿戴眼镜1000可基于反射图像的大小和形状中的至少一者来确定可穿戴眼镜1000的倾斜。
可穿戴眼镜1000可通过将提取的反射图像的大小和形状中的至少一者与参考图像的大小和形状中的至少一者相比较来确定可穿戴眼镜1000相对于用户的倾斜。
图41是根据示范性实施例的可穿戴眼镜1000显示基于可穿戴眼镜1000的倾斜调整了的图像的方法的流程图。
图12图示了通过分析用户的眼睛图像来获取眼睛的属性值并且基于眼睛的属性值来确定可穿戴眼镜1000的倾斜的方法。图12的方法可用于确定可穿戴眼镜1000的上下倾斜。另外,通过执行图41的方法,可穿戴眼镜1000可进一步考虑测试图像的反射图像,从而不仅确定可穿戴眼镜1000的上下倾斜,而且也非常准确地确定其左右倾斜和前后倾斜。
在操作S1305中,可穿戴眼镜1000可确定其上下倾斜。
图42是用于描述根据示范性实施例的、从捕捉到的用户的眼睛图像测量到的用户的眼睛的属性值的示意图。
如图42所示,可穿戴眼镜1000可确定连接经过与用户的眼睛相对应的第一区域1301的两个焦点的直线与第一区域1301相交的点的线段1501作为长轴,并且确定线段1501的长度作为长轴的长度。
可穿戴眼镜1000可确定垂直二等分线段1501的线段1503作为短轴,并且确定线段1503的长度作为短轴的长度。
可穿戴眼镜1000可从与用户的虹膜相对应的第二区域1401中提取测试图像的反射图像4205。
可穿戴眼镜1000可通过将长轴的角度和/或短轴的角度与眼睛图像的水平轴和/或垂直轴相比较来获取长轴的角度和/或短轴的角度。当反射图像是多边形时,可穿戴眼镜1000可确定反射图像4205的至少一边与可穿戴眼镜1000的水平轴1509-3或垂直轴1509-1之间的角度作为可穿戴眼镜1000的倾斜。
可穿戴眼镜1000可根据图12的方法确定其上下倾斜。从而,下面省略对上下倾斜的确定的冗余描述。
返回参考图41,在操作S1310中,可穿戴眼镜1000可从眼睛图像提取测试图像的反射图像。
在操作S1330中,可穿戴眼镜1000可基于在操作S1310中提取的反射图像的大小和形状中的至少一者来确定可穿戴眼镜1000的左右倾斜和前后倾斜。
图43A、图43B和图43C是用于说明根据一个或多个示范性实施例的、可穿戴眼镜1000基于用户的眼睛图像中包括的测试图像的反射图像来确定可穿戴眼镜1000的倾斜的方法的示意图。
参考图43A,可穿戴眼镜1000可确定反射图像4205的至少一边与眼睛的长轴1501之间的角度4301作为可穿戴眼镜1000的上下倾斜。
参考图43B,可穿戴眼镜1000可基于反射图像4205中包括的两边即上边4303和下边4305的长度之间的比率来确定可穿戴眼镜1000的前后倾斜。例如,当测试图像具有矩形形状并且反射图像4205具有梯形形状时,可穿戴眼镜1000相对于用户的前后倾斜可被确定为随着上边4303和下边4305的长度之间的比率的增大而增大。
参考图43C,可穿戴眼镜1000可基于反射图像4205中包括的两边即上边4307和下边4309的长度之间的比率来确定可穿戴眼镜1000的左右倾斜。例如,当测试图像具有矩形形状并且反射图像4205具有90°旋转的梯形的形状时,可穿戴眼镜1000相对于用户的左右倾斜可被确定为随着上边4307和下边4309的长度之间的比率的增大而增大。
返回参考图41,在操作S1340中,可穿戴眼镜1000可基于可穿戴眼镜1000的前后倾斜、左右倾斜和上下倾斜中的至少一者来调整显示图像的旋转角度、大小和形状中的至少一者。然而,要理解一个或多个其他示范性实施例不限于此,并且可穿戴眼镜1000可调整向用户示出的显示图像的各种参数。例如,可穿戴眼镜1000可进一步调整显示图像的亮度、显示器1030上显示出显示图像的位置和显示图像的颜色中的至少一者。作为另一示例,当可穿戴眼镜1000的显示器1030被构造为半透明光波导(例如,棱镜)时,可穿戴眼镜1000可基于可穿戴眼镜1000的倾斜调整从显示器1030的投影仪输出的光所聚焦于的焦点的位置。
可穿戴眼镜1000可基于可穿戴眼镜1000的前后倾斜、左右倾斜和上下倾斜中的至少一者执行图像调整(例如,水平平移、垂直平移、梯形失真和/或各种类型的图像处理,其中显示图像被校正以使得用户可被提供不失真的图像)。
可穿戴眼镜1000可分析测试图像的反射图像并且使用分析的反射图像来控制可穿戴眼镜1000的操作。
图44A和图44B是用于根据一个或多个示范性实施例说明可穿戴眼镜1000基于眼睛图像操作的方法的示意图。
如图44A所示,可穿戴眼镜1000可从眼睛图像中确定与用户的眼睛相对应的第一区域1301和与用户的虹膜相对应的第二区域1401。可穿戴眼镜1000可从眼睛图像中提取测试图像的反射图像4401。
如图44B所示,当反射图像4401偏离第二区域1401时,可穿戴眼镜1000可执行预定的操作。
例如,在用户正经由可穿戴眼镜1000观看运动图片时,用户可观看不是可穿戴眼镜1000的显示器1030的地方。当用户观看不是可穿戴眼镜1000的显示器1030的地方时,测试图像可在不是用户的虹膜的地方被反射。当测试图像的反射图像偏离与用户的虹膜相对应的区域时,可穿戴眼镜1000可停止重放运动图片。
测试图像可以是如图36A、图36B和图36C所示的先前预定为用于控制可穿戴眼镜1000的操作的图像,或者可以是包括在运动图片中并且在某个时间点获得的静止图像。
例如,当运动图片正被重放时,可穿戴眼镜1000可以在短到用户不能识别出测试图像的时间中输出测试图像,并且获取反射测试图像的用户的眼睛的图像,从而基于测试图像的反射图像来控制可穿戴眼镜1000的操作。
根据示范性实施例,可穿戴眼镜1000可基于用户的姿态来调整显示图像。术语“姿态”可表示以下各项中的至少一者:在某个时间点用户的身体部位的形状、在某段时间期间用户的身体部位的形状的变动、身体部位的位置的变动、以及身体部位的动作。
图45是用于说明根据示范性实施例的、可穿戴眼镜1000基于用户的姿态调整显示图像的方法的示意图。
如图45所示,根据示范性实施例,可穿戴眼镜1000可基于在兴趣空间4501内用户的姿态来调整显示图像。
例如,可穿戴眼镜1000可基于用户的手部7的姿态来调整显示图像。
为了检测用户的姿态,可穿戴眼镜1000可包括感测单元(例如,传感器),该感测单元包括能够获取图像的相机,或者各种传感器。可包括在可穿戴眼镜1000中的传感器的示例可包括深度传感器、红外传感器、超声传感器和与其类似的传感器。例如,可穿戴眼镜1000可基于用户的身体部位的图像或者从用户的身体部位接收的信号(例如,红外信号或超声信号)来检测用户的姿态。作为另一示例,可穿戴眼镜1000可通过从穿戴在用户的手腕上的可穿戴设备20接收与用户的姿态相关联的信号或者通过检测可穿戴设备20的运动来检测用户的姿态。
图46是根据示范性实施例的可穿戴眼镜1000基于用户的姿态调整显示图像的方法的流程图。
参考图46,在操作S2100中,可穿戴眼镜1000可获取关于用户的姿态的信息。
可穿戴眼镜1000可通过利用可穿戴眼镜1000中包括的感测单元来获取关于用户的姿态的信息或者从外部设备获取关于用户的姿态的信息。例如,可穿戴眼镜1000可利用可穿戴眼镜1000中包括的磁传感器、加速度传感器、陀螺仪传感器、接近传感器、光学传感器、深度传感器、红外传感器和超声传感器等等中的至少一者来获取关于用户的姿态的信息。可替换地,可穿戴眼镜1000可获取关于经由可穿戴眼镜1000中包括的用户输入单元1040接收的用户的触摸姿态的信息。
当可穿戴眼镜1000被初始化或者可穿戴眼镜1000的电源被开启时,可穿戴眼镜1000可获取用于对可穿戴眼镜1000的倾斜进行补偿的关于用户的姿态的信息。可替换地,当可穿戴眼镜1000接收到希望接收已对倾斜进行了补偿的图像的用户的输入时,可穿戴眼镜1000可获取关于用户的姿态的信息。
可替换地,当可穿戴眼镜1000大幅移动时,可穿戴眼镜1000可确定可穿戴眼镜1000相对于用户的位置很有可能被改变。从而,当测量可穿戴眼镜1000的运动状态值中的至少一者,例如加速度值、速度值和角动量,并且其等于或大于临界(例如,预定)值时,可穿戴眼镜1000可获取关于用户的姿态的信息。
例如,由可穿戴眼镜1000获取的关于用户的姿态的信息可以是作出姿态的身体部位的位置的变化的程度、其形状的变化的程度和用户的运动的持续时间中的至少一者。
关于用户的姿态的信息可以是用于确定用于调整显示图像的调整值的信息。例如,由可穿戴眼镜1000获取的关于姿态的信息可包括关于用户的头部、手部、眼睛和嘴中的至少一者的信息。由可穿戴眼镜1000获取的关于姿态的信息也可包括作出该姿态的身体部位的图像。可替换地,关于用户的姿态的信息可包括关于经由用户输入单元1040接收的用户的触摸输入的信息。
例如,可穿戴眼镜1000可基于用户的手部的图像来获取关于姿态的信息。可穿戴眼镜1000可获取手部的图像并且从获取的手部图像中检测手部的手掌、指关节和指尖中的至少一者的变化。
作为另一示例,可穿戴眼镜1000可基于从手部接收的预定信号来检测姿态。可穿戴眼镜1000可向手部发送预定信号并且基于响应于所发送的信号而从手部反射的信号来获取关于姿态的信息。例如,预定信号可以是红外信号或超声信号。可穿戴眼镜1000可从接收自目标物体的预定信号来检测手部的手掌、指关节和指尖中的至少一者的变化。
作为另一示例,关于用户的姿态的信息可包括关于经由用户输入单元1040接收的用户输入的信息。例如,用户输入可包括对触摸板进行触摸的输入、旋转滚轮的输入或者按压按钮的输入。可穿戴眼镜1000可获取关于经由可穿戴眼镜1000中包括的用户输入单元1040接收的用户的触摸输入的信息,作为关于用户的姿态的信息。例如,可穿戴眼镜1000可包括触摸板作为用户输入单元120。
稍后将参考图47至图49更详细描述获取关于用户的姿态的信息的方法。
在操作S2200中,可穿戴眼镜1000可基于所获取的信息确定调整值。
调整值用于调整显示图像。调整值可以是用于调整显示图像的旋转角度、大小和形状中的至少一者的值。可替换地,调整值可以是用于调整显示图像的亮度、显示器1030上显示出显示图像的位置或者显示图像的颜色的值。可替换地,当可穿戴眼镜1000的显示器1030被构造为半透明光波导(例如,棱镜)时,调整值可以是从可穿戴眼镜1000的显示器1030的投影仪输出的光所聚焦于的焦点的位置。
可穿戴眼镜1000可将关于若干个姿态的信息与调整值相映射并且存储映射的结果,或者存储能够基于关于姿态的信息计算调整值的关系。可穿戴眼镜1000可通过基于所获取的信息搜索预存储的调整值,或者通过利用找到的关系计算调整值,来确定调整值。
在操作S2300中,可穿戴眼镜1000可基于所确定的调整值来调整在显示器1030上显示的图像。
首先,可穿戴眼镜1000可基于所确定的调整值来调整在显示器1030上显示的图像的旋转角度、大小和形状中的至少一者。可替换地,可穿戴眼镜1000可基于所确定的调整值来调整在显示器1030上显示的图像的亮度、显示器1030上显示图像的位置和在显示器1030上显示的图像的颜色中的至少一者。
可替换地,当可穿戴眼镜1000的显示器1030被构造为半透明光波导(例如,棱镜)时,可穿戴眼镜1000可基于可穿戴眼镜1000的倾斜调整从显示器1030的投影仪输出的光所聚焦于的焦点的位置。
可穿戴眼镜1000可基于调整值执行图像调整(例如,水平平移、垂直平移、梯形失真和/或各种类型的图像处理,其中显示图像被校正以使得用户可被提供不失真的图像)。
例如,当可穿戴眼镜1000的显示器1030被构造为半透明光波导(例如,棱镜)时,可穿戴眼镜1000可基于可穿戴眼镜1000的倾斜调整从显示器1030的投影仪输出的光所聚焦于的焦点的位置。
接下来,可穿戴眼镜1000可显示调整后图像。对图6的操作S400的描述可应用到图46的操作S2300,从而将省略对图46的操作S2300的重复描述。
当用户的姿态被用于调整经由可穿戴眼镜1000显示的图像时,获取关于用户的姿态的信息的操作可按定期的时间间隔连续地执行。例如,为了获取关于用户的姿态的信息,可穿戴眼镜1000可按预定的时间间隔拍摄作出姿态的身体部位,并且分析捕捉的图像。
然而,连续获取关于用户的姿态的信息可引起存储器容量的过载和处理器执行的计算次数的过载。因此,根据示范性实施例,可穿戴眼镜1000可被构造为仅在预定事件发生时才获取关于用户的姿态的信息。
图47是根据示范性实施例的可穿戴眼镜1000获取关于用户的姿态的信息的方法的流程图。
关于用户的姿态的信息可以是用于确定用于调整显示图像的调整值的信息。例如,关于姿态的信息可包括作出姿态的身体部位的图像。
在操作S2110中,可穿戴眼镜1000可判定可穿戴眼镜1000是否被初始化。例如,当可穿戴眼镜1000的电源被开启或者从用户接收到用于初始化可穿戴眼镜1000的初始化输入时,可穿戴眼镜1000可被初始化。
当可穿戴眼镜1000被初始化时,在操作S2150中,可穿戴眼镜1000可获取关于用户的姿态的信息。当可穿戴眼镜1000未被初始化时(例如,当可穿戴眼镜1000在连续工作时),可穿戴眼镜1000可通过执行操作S2120基于可穿戴眼镜1000的运动状态值来获取关于用户的姿态的信息。
在操作S2120中,可穿戴眼镜1000可测量可穿戴眼镜1000的运动状态值。运动状态值表示代表可穿戴眼镜1000的运动的值。
例如,可穿戴眼镜1000可测量可穿戴眼镜1000的加速度值、速度值和角动量值中的至少一者作为运动状态值。在操作S2130中,可穿戴眼镜1000可判定测量到的运动状态值是否等于或大于预定的值。当测量到的运动状态值等于或大于预定值时,可穿戴眼镜1000在操作S2150中可获取关于用户的姿态的信息。当测量到的可穿戴眼镜1000的运动状态值小于预定值时,可穿戴眼镜1000可通过执行操作S2140来基于用户输入获取关于用户的姿态的信息。
然而,要理解一个或多个其他示范性实施例不限于图47的操作S2130。可穿戴眼镜1000不仅可判定运动状态值是否等于或大于预定值,而且可判定运动状态值是否小于或等于预定值或者运动状态值是否小于预定值。换言之,可穿戴眼镜1000可将运动状态值与预定值相比较并且基于比较的结果判定是否获取关于用户的姿态的信息。
在操作S2140中,可穿戴眼镜1000判定是否从用户接收到用于调整显示图像的输入。当由于可穿戴眼镜1000的位置的变化而提供失真的图像时,用户可向可穿戴眼镜1000输入用于基于用户的姿态调整显示图像的命令。
在操作S2140中,可穿戴眼镜1000判定是否接收到用于调整显示图像的用户输入。当接收到用于调整显示图像的用户输入时,在操作S2150中,可穿戴眼镜1000可获取关于用户的姿态的信息。当没有接收到用于调整显示图像的用户输入时,可穿戴眼镜1000可重复操作S2110至S2140。
在操作S2150中,可穿戴眼镜1000可获取关于用户的姿态的信息。例如,当关于用户的姿态的信息是姿态的图像时,可穿戴眼镜1000可输出用于诱导用户的姿态的引导图像。
可穿戴眼镜1000通过输出引导图像来引导用户作出用于调整显示图像的姿态,从而基于用户的姿态来确定用于调整显示图像的调整值。
图48和图49图示了根据一个或多个示范性实施例的、其上显示用于诱导用户的姿态的引导图像的可穿戴眼镜1000的屏幕的示例。
如图48和图49所示,经由可穿戴眼镜1000显示的引导图像4800可包括用于诱导用户的姿态的虚拟输入界面4801。
虚拟输入界面4801可以是按钮型的或者是表示物理开关(例如,拨动开关、旋转开关或翻转开关)的类型,并且对于虚拟输入界面4801的类型可实现各种修改。
用户可根据经由可穿戴眼镜1000的显示器1030提供的虚拟输入界面4801的类型来作出(例如,做出)姿态。
例如,当用户被提供图48的引导图像4800时,用户可作出利用用户的手旋转虚拟输入界面4801的姿态。当用户被提供图49的引导图像4800时,用户可作出利用用户的手按压虚拟输入界面4801中包括的至少一个箭头状按钮的姿态。
在操作S1150中,可穿戴眼镜1000拍摄用户的姿态。图52至图54图示了根据一个或多个示范性实施例的、经由可穿戴眼镜1000获取的用户的姿态的图像的示例。
可穿戴眼镜1000可基于关于用户的姿态的信息来确定用于调整显示图像的调整值。例如,可穿戴眼镜1000可获取用户的姿态的图像并且分析姿态的图像从而确定调整值。
现在将例示通过分析用户的手部的姿态的图像来确定调整值的情况。然而,要理解一个或多个其他示范性实施例不限于此,并且可穿戴眼镜1000可利用除了用户的手部以外的用户的身体部位的姿态来调整显示图像。
图50是根据示范性实施例的可穿戴眼镜1000从用户的姿态图像确定调整值的方法的流程图。
参考图50,在操作S2210中,可穿戴眼镜1000可从姿态图像确定与用户的手部相对应的区域。
图51是用于说明根据示范性实施例的、可穿戴眼镜1000检测用户的手部姿态的方法的示意图。
如图51所示,可穿戴眼镜1000可获取位于从可穿戴眼镜1000起的预定距离内存在的兴趣空间内的用户的手部的图像5100,并且从获取的图像5100检测手部的姿态。
例如,可穿戴眼镜1000可从图像5100估计与用户的手部相对应的区域5102。
在操作S2220中,可穿戴眼镜1000可检测手部的数目和手指的数目。
参考图51,可穿戴眼镜1000可分析与用户的手部相对应的区域5102,从而进一步检测与手部相对应的区域5102中包括的与指尖相对应的区域5104和与手背相对应的区域5106。然而,要理解一个或多个其他示范性实施例不限于手背,并且可穿戴眼镜1000可检测与手部的至少一部分(例如,手掌或手腕)相对应的区域。
可穿戴眼镜1000可基于检测到的区域来检测存在于兴趣空间内的手部的数目和存在于兴趣空间内的手指的数目。
在操作S2230中,可穿戴眼镜1000基于手部的数目和手指的数目来选择要调整的图像的参数。可穿戴眼镜1000可基于手部的数目和手指的数目来确定用户的手部的姿态的类型。
可穿戴眼镜1000可基于所确定的姿态的类型来确定要调整的图像的参数。要调整的图像的参数可包括要调整的图像的大小、形状和旋转角度中的至少一者。换言之,可穿戴眼镜1000可基于所确定的姿态的类型来确定显示图像的大小、位置、形状和旋转角度中的哪个参数要被调整。然而,在一个或多个其他示范性实施例中要调整的图像的参数不限于此。
例如,要调整的图像的参数可以是与显示器1030上显示要调整的图像的位置或者要调整的图像的颜色相关联的参数。可替换地,当可穿戴眼镜1000的显示器1030被构造为半透明光波导(例如,棱镜)时,要调整的图像的参数可以是从可穿戴眼镜1000的显示器1030的投影仪输出的光所聚焦于的焦点的位置。
在操作S2240中,可穿戴眼镜1000可检测手部的位置和形状的变动。
例如,可穿戴眼镜1000可检测与指尖相对应的区域5104相对于与手背相对应的区域5106的运动(例如,运动的距离或角度)。
例如,可穿戴眼镜1000可通过检测到与指尖相对应的区域5104和与手背相对应的区域5106变得更靠近彼此来检测用户弯曲手指的操作。可替换地,可穿戴眼镜1000可通过检测到与指尖相对应的区域5104和与手背相对应的区域5106变得更远离彼此来检测用户使手指变直的操作。
在操作S2250中,可穿戴眼镜1000可基于手部的位置和形状的变动来确定用于调整所选择的参数的调整值。
例如,可穿戴眼镜1000可基于手部的至少一部分在预定时间段期间运动的距离的变动或者手部的至少一部分在预期时间段期间运动的形状的变动来确定所选择的参数被调整多少。然而,要理解一个或多个其他示范性实施例不限于此。例如,可穿戴眼镜1000可根据基于姿态获取的各种信息,例如手部运动的速度、检测到手部的位置、手部运动的方向和作出姿态的动作被重复的次数,来确定调整值。
图52、图53和图54是用于说明根据示范性实施例的、可穿戴眼镜1000基于用户的姿态确定用于调整显示图像的调整值的方法的示意图。
参考图52,可穿戴眼镜1000可输出引导用户作出利用手部7旋转虚拟输入界面4801的姿态的引导图像。
当检测到与虚拟输入界面4801相对应的用户的手部7的姿态时,可穿戴眼镜1000可基于用户的手部7运动的角度、用户的手部7运动的距离或者用户的手部7运动的速度来调整显示图像。
例如,当用户作出利用手部7顺时针旋转虚拟输入界面4801的姿态时,可穿戴眼镜1000可按用户的手部7被旋转的角度来顺时针旋转显示图像。
如图53所示,可穿戴眼镜1000可输出引导用户作出利用手部7按压虚拟输入界面4801中包括的至少一个按钮的姿态的引导图像。
当检测到与虚拟输入界面4801相对应的用户的手部7的姿态时,可穿戴眼镜1000可基于用户的手部7的位置和用户的手部7运动的距离或次数来调整显示图像。
例如,当用户作出利用手部7按压虚拟输入界面4801中包括的箭头状按钮的姿态时,可穿戴眼镜1000可在与箭头状按钮相对应的方向上移动显示图像。在此情况下,可穿戴眼镜1000可将显示图像移动与用户的手部7运动的次数相对应的距离。
如图54所示,可穿戴眼镜1000可输出引导用户作出利用手部7移动虚拟输入界面4801的姿态的引导图像。
当检测到与虚拟输入界面4801相对应的用户的手部7的姿态时,可穿戴眼镜1000可基于用户的手部7运动的距离或者用户的手部7旋转的角度来调整显示图像。
例如,当用户作出利用手部7旋转虚拟输入界面4801的姿态时,可穿戴眼镜1000可按用户的手部7旋转的角度来旋转显示图像。
以上已参考图50至图54描述了根据一个或多个示范性实施例基于兴趣空间内用户的姿态来调整显示图像的方法。然而,要理解一个或多个其他示范性实施例不限于此。
例如,根据一个或多个其他示范性实施例,可穿戴眼镜1000可获取关于经由可穿戴眼镜1000中包括的用户输入单元1040接收的用户的触摸输入的信息,作为关于用户的姿态的信息。例如,可穿戴眼镜1000可包括触摸板作为用户输入单元120。可穿戴眼镜1000中包括的触摸板可以是电容覆盖型、电阻覆盖型、红外光束型、表面声波型、积分应变仪型、压电型、光学输入设备或板等等,但不限于此。
可穿戴眼镜1000中包括的触摸板可被配置为除了检测真实触摸以外还检测接近触摸。贯穿整个说明书,术语“真实触摸”表示指示物真实或直接触摸屏幕的情况,而术语“接近触摸”表示指示物不实际触摸屏幕,而是接近与屏幕相隔一定距离的位置的情况。
本文中使用的指示物表示用于真实触摸或接近触摸显示的屏幕图像的一部分的触摸工具。指示物的示例包括电子笔、手指、触控笔,等等。
为了检测真实触摸或接近触摸,各种传感器可设在触摸板内或触摸板附近。用于检测触摸板上的实际触摸或接近触摸的传感器的示例可包括触觉传感器。触觉传感器表示检测特定物体作出的在人类感觉到的程度以上的触摸的传感器。触觉传感器可检测各种类型的信息,例如被触摸表面的粗糙度、触摸物体的硬度、被触摸点的温度,等等。
用于检测触摸板上的触摸的传感器的另一示例是接近传感器。接近传感器是利用电磁力或红外线而不是利用任何机械接触来检测接近预定检测表面或者存在于附近的物体的存在的传感器。接近传感器的示例包括透射型光电传感器、直接反射型光电传感器、镜面反射型光电传感器、高频振荡型接近传感器、电容型接近传感器、磁性接近传感器、红外型接近传感器,等等。
用户的触摸姿态的示例可包括叩击、触摸并保持、双叩击、拖曳、平移、轻拂、拖放、挥扫,等等。
可穿戴眼镜1000可经由用户输入单元1040获取关于用户的姿态的信息。例如,可穿戴眼镜1000可经由用户输入单元1040感测用于调整显示图像的触摸输入。例如,用户可拖曳或叩击用户输入单元1040的触摸板上的预定位置。
“拖曳”表示如下动作:用户利用指尖或触摸工具触摸屏幕并且在触摸屏幕的同时将指尖或触摸工具移动到屏幕上的其他位置。“叩击”表示用户利用指尖或触摸工具(例如,电子笔)触摸屏幕并且非常迅速地将指尖或触摸工具从屏幕抬起而不移动的动作。
可穿戴眼镜1000可基于用户的触摸输入来调整显示图像。例如,可穿戴眼镜1000可获取用户的触摸输入作为关于用户的姿态的信息,基于用户的触摸输入确定调整值,并且基于所确定的调整值来调整显示图像。
图55和图56是用于说明根据一个或多个示范性实施例的、可穿戴眼镜1000基于用户的姿态调整显示图像的方法的示意图。
图55和图56图示了根据一个或多个示范性实施例的、可穿戴眼镜1000包括触摸板作为用户输入单元1040的情况。可穿戴眼镜1000中包括的触摸板可以是电容覆盖型、电阻覆盖型、红外光束型、表面声波型、积分应变仪型、压电型等等,但不限于此。
首先,如图55所示,可穿戴眼镜1000可检测用户拖曳用户输入单元1040的触摸板上的预定位置的姿态。可穿戴眼镜1000可基于用户的拖曳姿态的方向、其持续时间和手部7由于拖曳姿态而运动的距离中的至少一者来调整显示图像。
例如,如图55所示,可穿戴眼镜1000可基于用户的拖曳输入来改变显示图像5501的位置。
可穿戴眼镜1000可通过经由用户输入单元1040识别若干个触摸点来识别出多点触摸姿态。通过识别多点触摸姿态,可穿戴眼镜1000可根据感测到的触摸点的数目而被设定为不同地反应。
如图56所示,可穿戴眼镜1000可检测用户利用多根手指触摸用户输入单元1040的触摸板上的预定位置的姿态。可穿戴眼镜1000可基于用户的触摸点的数目、手指运动的方向、触摸姿态的持续时间和手指由于触摸姿态而运动的距离中的至少一者来调整显示图像。
例如,如图56所示,响应于利用至少两根手指拖曳用户输入单元1040的用户输入,可穿戴眼镜1000可基于触摸输入运动的方向来旋转显示图像5601。
然而,要理解一个或多个其他示范性实施例不限于图55和图56。可穿戴眼镜1000可根据用户的各种触摸输入来调整显示图像的旋转角度、大小、位置、亮度和形状中的至少一者。例如,当可穿戴眼镜1000的显示器1030被构造为半透明光波导(例如,棱镜)时,可穿戴眼镜1000可基于用户的触摸输入来调整从显示器1030的投影仪输出的光所聚焦于的焦点的位置。
可穿戴眼镜1000可与诸如移动电话、个人数字助理(personal digitalassistant,PDA)、膝上型电脑、平板设备、便携式多媒体播放器、显示设备、个人计算机(personal computer,PC)、服务器等等之类的设备联系操作。该设备可经由可穿戴眼镜1000显示图像。
图57是根据示范性实施例的设备2000经由可穿戴眼镜1000显示图像的系统的示意图。
参考图57,可穿戴眼镜1000可向设备2000提供用于调整显示图像的信息。
可穿戴眼镜1000向设备2000提供的信息可包括例如关于穿戴着可穿戴眼镜1000的用户的身体部位的信息、关于用户的姿态的信息和经由可穿戴眼镜1000输入的用户输入中的至少一者。
设备2000基于从可穿戴眼镜1000接收的信息来调整显示图像,并且将调整后图像提供给可穿戴眼镜1000。设备2000可经由可穿戴眼镜1000显示调整后图像。
可穿戴眼镜1000可拍摄用户的身体部位并且将身体部位的图像发送给设备2000。例如,可穿戴眼镜1000可拍摄用户的眼睛或手部。
设备2000可从可穿戴眼镜1000接收由可穿戴眼镜1000捕捉的图像,并且经由可穿戴眼镜1000确定显示图像。设备2000可确定要显示图像的位置,并且可经由可穿戴眼镜1000在所确定的位置上显示图像。
设备2000的示例可包括——但不限于——智能电话、平板个人计算机(PC)、PC、智能TV、移动电话、PDA、膝上型电脑、媒体播放器、微服务器、全球定位系统(globalpositioning system,GPS)设备、电子书终端、数字广播终端、导航设备、数字亭、MP3播放器、数码相机和其他移动或非移动计算设备。设备2000也可包括能够接收触摸输入的各种装置,例如电子黑板和触摸桌。设备2000可以是包括通信功能和数据处理功能的可穿戴设备。然而,要理解一个或多个其他示范性实施例不限于此,并且设备2000可以是能够经由网络从可穿戴眼镜1000接收数据或者向可穿戴眼镜1000发送数据的任何种类的装置。
设备2000和可穿戴眼镜1000可经由网络连接到彼此,并且网络可以是有线网络,例如局域网(local area network,LAN)、广域网(wide area network,WAN)或增值网络(value added network,VAN),或者任何种类的无线网络,例如移动无线电通信网络、卫星通信网络,等等。
图58是根据示范性实施例的设备2000经由可穿戴眼镜1000显示图像的方法的流程图。
参考图58,在操作S3100中,设备2000可从可穿戴眼镜1000接收表示用户当前穿戴可穿戴眼镜1000的状态的穿戴状态信息。穿戴状态信息可包括关于用户的身体部位的信息。关于用户的身体部位的信息可以是用于确定与参考穿戴状态相比可穿戴眼镜1000相对于用户的倾斜的信息。例如,由可穿戴眼镜1000获取的关于身体部位的信息可包括关于从用户的眼睛、鼻子、耳朵、嘴和手中选择的至少一者的信息。由可穿戴眼镜1000获取的关于身体部位的信息也可包括身体部位的图像。
在操作S3100中设备2000从可穿戴眼镜1000接收的穿戴状态信息可以是由可穿戴眼镜1000获取的信息。图58的操作S200对应于图6的操作S200,从而下面省略对其的冗余描述。
在操作S3200中,可穿戴眼镜1000可利用所接收的关于用户的身体部位的信息来确定可穿戴眼镜1000相对于用户的倾斜。
可穿戴眼镜1000相对于用户的倾斜表示基于最适于向用户示出图像的可穿戴眼镜1000的位置确定的可穿戴眼镜1000的倾斜程度。
例如,设备2000可通过将预定的参考穿戴状态信息与从可穿戴眼镜1000接收的穿戴状态信息相比较来确定可穿戴眼镜1000相对于用户的倾斜。参考穿戴状态信息是表示最适于向用户提供图像的可穿戴眼镜1000的位置的信息。参考穿戴状态信息可被预存储或者可由用户设定。
例如,穿戴状态信息可包括用户的身体部位的图像。设备2000可从身体部位的图像中检测与身体部位相对应的区域并且从检测到的区域中获取身体部位的属性值。设备2000可获取与从身体部位的图像检测到的与身体部位相对应的区域的位置、形状或大小相关联的属性值。设备2000可通过将获取的属性值与参考穿戴状态信息中包括的参考值相比较来确定倾斜。参考穿戴状态信息中包括的参考值可以是从在参考穿戴状态中获取的身体部位的图像中检测到的属性值。
在操作S3300中,设备2000可基于在操作S3200中确定的倾斜来调整在可穿戴眼镜1000的显示器1030上显示的图像。例如,设备2000可基于在操作S3200中确定的倾斜来调整显示图像的旋转角度、大小和形状中的至少一者。
然而,要理解一个或多个其他示范性实施例不限于此,并且设备2000可调整经由显示器1030向用户提供的图像的各种参数。例如,设备2000可调整在显示器1030上显示的图像的亮度、在显示器1030上显示图像的位置和在显示器1030上显示的图像的颜色中的至少一者。
作为另一示例,当可穿戴眼镜1000的显示器1030被构造为半透明光波导(例如,棱镜)时,设备2000可基于可穿戴眼镜1000的倾斜调整从显示器1030的投影仪输出的光所聚焦于的焦点的位置。
在操作S3400中,设备2000可将在操作S3300中获得的调整后图像提供给可穿戴眼镜1000。在操作S400中,由设备2000提供给可穿戴眼镜1000的调整后图像可经由可穿戴眼镜1000被显示。
当设备2000利用关于身体部位的信息来调整显示图像时,可以应用以上描述的任何方法。换言之,以上描述的可穿戴眼镜1000调整显示图像的任何方法根据一个或多个示范性实施例可被应用到设备2000调整在可穿戴眼镜1000上显示的图像的情况。从而,下面省略对设备2000调整在可穿戴眼镜1000上显示的图像的情况的冗余描述。
图59是根据示范性实施例的设备2000经由可穿戴眼镜1000显示图像的方法的流程图。
参考图59,在操作S4100中,设备2000可从可穿戴眼镜1000接收关于用户的姿态的信息。
关于用户的姿态的信息可以是用于确定用于调整显示图像的调整值的信息。例如,由可穿戴眼镜1000获取的关于姿态的信息可包括关于用户的头部、手部、眼睛和嘴中的至少一者的信息。由可穿戴眼镜1000获取的关于姿态的信息也可包括作出该姿态的身体部位的图像。
在操作S4100中设备2000从可穿戴眼镜1000接收的关于姿态的信息可以是由可穿戴眼镜1000获取的信息。图59的操作S2100对应于图46的操作S2100,从而下面省略对其的冗余描述。
在操作S4200中,设备2000可基于接收到的关于用户的姿态的信息来确定用于调整显示图像的调整值。
例如,调整值可以是用于调整显示图像的旋转角度、大小和形状中的至少一者的值。可替换地,调整值可以是用于调整显示图像的亮度、显示器1030上显示出显示图像的位置或者显示图像的颜色的值。可替换地,当可穿戴眼镜1000的显示器1030被构造为半透明光波导(例如,棱镜)时,调整值可以是从可穿戴眼镜1000的显示器1030的投影仪输出的光所聚焦于的焦点的位置。
设备2000可将关于若干个姿态的信息与调整值相映射并且存储映射的结果,或者存储能够基于关于姿态的信息计算调整值的关系。设备2000可通过基于所获取的信息搜索预存储的调整值,或者通过利用找到的关系计算调整值,来确定调整值。
在操作S4300中,设备2000可基于所确定的调整值来调整显示图像。例如,可穿戴眼镜1000可基于所确定的调整值来调整显示图像的旋转角度、大小和形状中的至少一者。
在操作S4400中,设备2000可将在操作S4300中获得的调整后图像提供给可穿戴眼镜1000。在操作S400中,由设备2000提供给可穿戴眼镜1000的调整后图像可经由可穿戴眼镜1000被显示。
当设备2000利用关于用户的姿态的信息来调整显示图像时,可应用以上参考图45至图56描述的方法。换言之,以上参考图45至图56描述的可穿戴眼镜1000调整显示图像的方法根据示范性实施例可被应用到设备2000调整在可穿戴眼镜1000上显示的图像的情况。从而,下面省略对设备2000调整在可穿戴眼镜1000上显示的图像的情况的冗余描述。
图60是根据示范性实施例的可穿戴眼镜1000的框图。
参考图60,可穿戴眼镜1000可包括感测单元1100(例如,传感器)、处理器1200和显示器1030。在可穿戴眼镜1000中可包括除了图60所示的那些以外的其他和/或额外的组件。可穿戴眼镜1000中包括的组件可被布置在用于将可穿戴眼镜1000穿戴在用户的头上的框架上。
显示器1030向用户示出图像。显示器1030显示经可穿戴眼镜1000处理的信息。显示器1030可显示基于可穿戴眼镜1000的倾斜或用户的姿态调整了的图像。
显示器1030可显示以下各项中的至少一者:用于设定用于调整显示图像的参考值的用户界面(UI)、用于诱导用于调整显示图像的用户的姿态的UI、以及用于向用户提供与显示图像的调整相关联的信息的UI。
感测单元1100可获取关于用户的身体部位的信息或者关于用户的姿态的信息。关于用户的身体部位的信息可包括身体部位的图像,并且关于用户的姿态的信息可包括作出姿态的用户的身体部位的图像。
例如,感测单元1100可获取用户的眼睛的图像或用户的手部的图像。
处理器1200可利用关于用户的身体部位的信息确定可穿戴眼镜1000相对于用户的倾斜,并且基于所确定的倾斜来调整显示图像。可替换地,处理器1200可利用关于用户的姿态的信息来确定调整值,并且基于调整值来调整显示图像。
如图61所示,可穿戴眼镜1000还可包括通信单元1300(例如,通信器)、存储器1400、用户输入单元1040(例如,用户输入器或用户输入设备)、输出单元1500(例如,输出器或输出设备)以及电力供应单元1600(例如,电力供应器或电力供应源)。根据示范性实施例,感测单元1100可包括至少一个相机,即,相机1050、1060和1070,以及传感器1150。上述组件可经由总线连接到彼此。
现在将详细描述上述组件。
相机1050、1060和1070拍摄或捕捉实际空间中的物体的图像。由相机1050、1060和1070捕捉的物体图像可以是运动图片图像或者连续的静止图像。可穿戴眼镜1000可以是包括通信操作和数据处理操作的眼镜型设备。可穿戴眼镜1000中的相机1050可面对用户并且拍摄实际空间的物体。
相机1060可拍摄用户的眼睛。例如,可穿戴眼镜1000中的相机1060可面对用户的脸部并且拍摄用户的眼睛。
眼睛跟踪相机1070可拍摄用户的眼睛。例如,可穿戴眼镜1000中的眼睛跟踪相机1070可通过跟踪用户的头部姿势、眼睑和虹膜中的至少一者来跟踪用户的眼睛。
传感器1150可感测可穿戴眼镜1000的状态或者可穿戴眼镜1000周围的状态并且将与感测到的状态相对应的信息发送到处理器1200。例如,传感器1150可获取表示用户当前穿戴可穿戴眼镜1000的状态的穿戴状态信息。例如,传感器1150可包括磁传感器、加速度传感器、陀螺仪传感器、接近传感器、光学传感器、深度传感器、红外传感器和超声传感器中的至少一者。
通信单元1300可向或从设备2000、外围设备或服务器发送或接收当可穿戴眼镜1000显示图像和调整显示图像时使用的信息。
存储器1400存储当可穿戴眼镜1000显示图像和基于可穿戴眼镜1000的倾斜调整图像时使用的信息。存储器1400可存储关于表示可穿戴眼镜1000被用户穿戴在最适于用户接收图像的位置的状态的参考穿戴状态的信息。例如,存储器1400可存储包括在参考穿戴状态中获取的用户的身体部位的图像和从在参考穿戴状态中获取的用户的身体部位的图像中检测到的属性值的参考穿戴状态信息。
用户输入单元1040接收用于控制可穿戴眼镜1000的用户单元。用户输入单元1040可接收对于可穿戴眼镜1000的触摸输入和对于可穿戴眼镜1000的键输入。用户输入单元1040也可接收由相机1050拍摄的用户的姿态输入。
电力供应单元1600向每个组件供应用于操作可穿戴眼镜1000的电力。电力供应单元1600可包括能够充电的电池,以及能够从外部源接收电力的电缆或电缆端口。
输出单元1500以光、声音和振动中的至少一者的形式输出从通信单元1300接收的、经处理器1200处理的或者存储在存储器1400中的信息。例如,输出单元1500可包括输出音频数据的扬声器1020。扬声器1020也可输出与可穿戴眼镜1000的功能有关的音频信号(例如,呼叫信号接收音、消息接收音、通知音)。
处理器1200可控制可穿戴眼镜1000的整体操作。例如,处理器1200可通过执行存储器1400中存储的程序来控制显示器1030、感测单元1100、通信单元1300、存储器1400、用户输入单元1040、输出单元1100和电力供应单元1600。
可穿戴眼镜1000可连接到设备2000并且可从设备2000接收关于显示图像的信息从而在可穿戴眼镜1000的显示器1030上显示图像。
图62和图63是根据一个或多个示范性实施例的设备2000的框图。
参考图62,设备2000可包括用户输入单元6100、输出单元6200、控制器6300和通信单元6500。在设备2000中可包括比图62所示的那些更多或更少的组件。
例如,参考图63,除了用户输入单元6100(例如,用户输入器或用户输入设备)、输出单元6200(例如,输出器或输出设备)、控制器6300和通信单元6500(例如,通信器)以外,设备2000还可包括感测单元6400(例如,传感器)、音频/视频(audio/video,A/V)输入单元6600(例如,A/V输入器或A/V输入设备)以及存储器6700。
用户输入单元6100表示用户经由其来输入用于控制设备2000的数据的单元。例如,用户输入单元6100可以是——但不限于——小键盘、圆顶开关、触摸板(例如,电容覆盖型、电阻覆盖型、红外光束型、积分应变仪型、表面声波型、压电型等等)、缓动轮或滚轮开关。
用户输入单元6100可接收用于控制可穿戴眼镜1000的用户单元。用户输入单元6100也可接收用于基于关于用户的身体部位的信息或者关于用户的姿态的信息来调整经由可穿戴眼镜1000显示的图像的用户单元。
输出单元6200可输出音频信号、视频信号或者振动信号,并且可包括显示器6210、音频输出单元6220(例如,扬声器、音频输出器、音频插孔、音频输出设备)和振动电机6230。
显示器6210显示经设备2000处理的信息。例如,显示器6210可显示用于接收用于控制可穿戴眼镜1000的用户输入的UI,以及用于接收与调整经由可穿戴眼镜1000显示的图像的操作相关联的设定值的UI。
当显示器6210与触摸板一起形成层结构以构成触摸屏时,显示器6210不仅可用作输出设备还可用作输入设备。显示器6210可包括液晶显示器(liquid crystal display,LCD)、薄膜晶体管-液晶显示器(thinfilm transistor-liquid crystal display,TFT-LCD)、有机发光二极管(organic light-emitting diode,OLED)、柔性显示器、3D显示器和电泳显示器中的至少一者。根据设备2000的一个或多个示范性实施例,设备2000可包括至少两个显示器6210。至少两个显示器6210可利用铰链布置为面对彼此。
音频输出单元6220可输出从通信单元6500接收的或者存储在存储器6700中的音频数据。音频输出单元6220也可输出与设备2000的功能有关的音频信号(例如,呼叫信号接收音、消息接收音、通知音)。音频输出单元6220可包括扬声器、蜂鸣器,等等。
振动电机6230可输出振动信号。例如,振动电机6230可输出与音频数据或视频数据(例如,呼叫信号接收音或消息接收音)的输出相对应的振动信号。振动电机6230也可在触摸屏被触摸时输出振动信号。
控制器6300可控制设备2000的所有操作。例如,控制器6300可通过执行存储器6500中存储的程序来控制用户输入单元6700、输出单元6200、感测单元6400、通信单元6500和A/V输入单元6600。
详细地说,控制器6300通过控制通信单元6500从可穿戴眼镜1000接收用于调整显示图像的信息并且基于接收到的信息来调整显示图像。
控制器6300接收用于控制可穿戴眼镜1000的操作的用户输入。该用户输入可例如是触摸输入、按钮输入或者语音输入,但不限于此。控制器6300可从可穿戴眼镜1000接收对于可穿戴眼镜1000的用户输入。
感测单元6400可感测设备2000的状态或者设备2000周围的状态并且将与感测到的状态相对应的信息发送给控制器6300。
感测单元6400可包括——但不限于——以下各项中的至少一者:磁传感器6410、加速度传感器6420、温度/湿度传感器6430、红外传感器6440、陀螺仪传感器6450、位置传感器(例如,GPS)6460、压力传感器6470、接近传感器6480和RGB传感器6490(即,照明传感器)。
通信单元6500可包括使得设备2000能够与可穿戴眼镜1000或服务器执行数据通信的至少一个组件。例如,通信单元6500可包括短程无线通信单元6510(例如,短程无线通信器)、移动通信单元6520(例如,移动通信器)和广播接收单元6530(例如,广播接收器)。
短程无线通信单元1510可包括——但不限于——蓝牙通信器、低能量蓝牙(Bluetooth Low Energy,BLE)通信器、近场通信(near field communication,NFC)通信器、无线局域网(wireless local area network,WLAN)(例如,Wi-Fi)通信器、ZigBee通信器、红外数据协会(infrared Data Association,IrDA)通信器、直接Wi-Fi(Wi-Fi direct,WFD)通信器、超宽带(ultra wideband,UWB)通信器,等等。
移动通信单元6520可在移动通信网络上与从基站、外部终端和服务器中选择的至少一者交换无线信号。无线信号的示例可包括语音呼叫信号、视频呼叫信号和在短消息服务(short message service,SMS)/多媒体消息传递服务(multimedia messagingservice,MMS)期间生成的各种类型的数据。
广播接收单元6530经由广播信道从外部源接收广播信号和/或广播相关信息。广播信道可以是卫星信道、地面波信道,等等。根据一个或多个其他示范性实施例,设备2000可不包括广播接收单元6530。
A/V输入单元6600输入音频信号或视频信号,并且可包括相机6610和麦克风6620。相机6610可在视频呼叫模式或摄影模式中经由图像传感器获取图像帧,例如静止图像或运动图片。经由图像传感器捕捉的图像可被控制器6300或单独的图像处理器处理。
由相机6610获得的图像帧可被存储在存储器6700中或者可经由通信器6500被发送到外部。根据终端的结构的一个或多个示范性实施例可包括至少两个相机6610。
麦克风6620接收外部音频信号并将外部音频信号转换成电音频数据。例如,麦克风6620可从外部设备或说话的人接收音频信号。麦克风6620可使用各种噪声去除算法以便去除在接收外部音频信号的同时生成的噪声。
存储器6700可存储被控制器6300用来执行处理和控制的程序,或者可存储向设备2000输入或从设备16500输出的数据。
存储器6700可包括以下各项中的至少一种类型的存储介质:闪存型、硬盘型、多媒体卡微型、卡型存储器(例如,安全数字(secure digital,SD)或极速数字(extremedigital,XD)存储器)、随机访问存储器(randomaccess memory,RAM)、静态随机访问存储器(static random access memory,SRAM)、只读存储器(read-only memory,ROM)、电可擦除可编程ROM(electrically erasable programmable ROM,EEPROM)、可编程ROM(programmable ROM,PROM)、磁存储器、磁盘和光盘。
存储器6700中存储的程序可根据其功能被分类成多个模块,例如UI模块6710、触摸屏模块6720和通知模块6730。
UI模块6710可提供为每个应用专门化并且与设备2000交互操作的UI、GUI等等。触摸屏模块6720可检测用户在触摸屏上的触摸手势并且向控制器6300发送关于触摸手势的信息。根据示范性实施例的触摸屏模块6720可识别并分析触摸代码。触摸屏模块6720可由包括控制器的单独硬件来配置。
为了检测触摸板上的实际触摸或接近触摸,触摸屏可以在内部或外部具有各种传感器。用于检测触摸屏上的真实触摸或接近触摸的传感器的示例是触觉传感器。触觉传感器表示检测特定物体作出的在人类感觉到的程度以上的触摸的传感器。触觉传感器可检测各种类型的信息,例如被触摸表面的粗糙度、触摸物体的硬度、被触摸点的温度,等等。
用于检测触摸屏上的真实触摸或接近触摸的传感器的另一示例是接近传感器。
接近传感器是利用电磁力或红外线而不是利用任何机械接触来检测接近预定检测表面或者存在于附近的物体的存在的传感器。接近传感器的示例包括透射型光电传感器、直接反射型光电传感器、镜面反射型光电传感器、高频振荡型接近传感器、电容型接近传感器、磁性接近传感器、红外型接近传感器,等等。用户的触摸姿态的示例可包括叩击、触摸并保持、双叩击、拖曳、平移、轻拂、拖放、挥扫,等等。
通知模块6730可生成用于通知在设备2000中生成了事件的信号。在设备2000中生成的事件的示例可包括呼叫信号接收、消息接收、键信号输入、日程通知,等等。通知模块6730可经由显示器6210以视频信号的形式、经由音频输出单元6220以音频信号的形式或者经由振动电机6230以振动信号的形式输出通知信号。
示范性实施例也可实现为包括诸如由计算机执行的程序模块之类的可由计算机执行的指令代码的存储介质。计算机可读记录介质可以是可被计算机访问的任何可使用的介质并且包括所有易失性/非易失性的和可移除/不可移除的介质。另外,计算机可读记录介质可包括所有计算机存储介质和通信介质。计算机存储介质包括由特定方法或技术实现来用于存储诸如计算机可读指令代码、数据结构、程序模块或其他数据之类的信息的所有易失性/非易失性的和可移除/不可移除的介质。通信介质可包括诸如载波之类的经调制的数据信号或其他传输机制的计算机可读指令代码、数据结构、程序模块或其他数据,并且包括任何信息传输介质。要理解上述元素中的一个或多个可实现在至少一个处理器、电路、微处理器等等中或者由至少一个处理器、电路、微处理器等等来实现。
虽然为了例示已公开了示范性实施例,但本领域普通技术人员将会明白,在不脱离本发明构思的精神和范围的情况下,多种多样的变化和修改是可能的。从而,上述示范性实施例在所有方面都应当被理解为不是限制性的,而是例示性的。例如,以集成形式描述的各个元素可被分割使用,并且分割的元素可在被组合的状态中被使用。
上述示范性实施例应当仅从描述意义上来考虑,而不是用于限制的。对每个示范性实施例内的特征或方面的描述通常应当被认为可用于其他实施例中的其他类似特征或方面。
虽然以上已具体示出和描述了示范性实施例,但本领域普通技术人员将会理解,在不脱离如所附权利要求限定的本发明的精神和范围的情况下,可对其进行形式和细节上的各种改变。

Claims (14)

1.一种可穿戴眼镜,包括:
显示器,被配置为显示图像;
传感器,被配置为在所述图像正被显示在所述显示器上的同时获取表示用户当前穿戴所述可穿戴眼镜的状态的穿戴状态信息,其中,所述穿戴状态信息包括反射所述图像的用户的眼睛的眼睛图像;以及
处理器,被配置为从眼睛图像中提取所述图像的反射图像,基于所述反射图像的大小和形状中的至少一者确定所述可穿戴眼镜相对于用户的倾斜,并且基于所确定的倾斜来调整在所述显示器上显示的所述图像。
2.如权利要求1所述的可穿戴眼镜,其中:
所述传感器被配置为获取包括关于用户的身体部位的信息的穿戴状态信息;以及
所述处理器被配置为通过将所获取的穿戴状态信息与预定的参考穿戴状态信息相比较来确定所述可穿戴眼镜相对于用户的倾斜。
3.如权利要求2所述的可穿戴眼镜,其中:
所述传感器被配置为获取包括身体部位的图像的穿戴状态信息;以及
所述处理器被配置为从所述身体部位的图像中检测与所述身体部位相对应的区域,从检测到的区域中获取属性值,并且将所获取的属性值与所述参考穿戴状态信息中包括的参考值相比较以确定所述倾斜。
4.如权利要求1所述的可穿戴眼镜,其中:
所获取的穿戴状态信息包括穿戴着所述可穿戴眼镜的用户的眼睛的眼睛图像;以及
所述处理器被配置为从所述眼睛图像中获取所述眼睛的长轴的长度、所述眼睛的短轴的长度、所述眼睛的长轴的角度、所述眼睛的短轴的角度和用户的虹膜的位置值之中的至少一个值,将所获取的至少一个值与至少一个预定的参考值相比较,并且基于比较的结果来确定所述倾斜。
5.如权利要求1所述的可穿戴眼镜,其中:
所述处理器被配置为从所述眼睛图像中检测与用户的眼睛相对应的区域,在检测到的与眼睛相对应的区域内获得所述图像的反射图像,将所获得的反射图像的大小和形状中的至少一者与预定的参考穿戴状态信息相比较,并且基于比较的结果来确定所述倾斜。
6.如权利要求1所述的可穿戴眼镜,其中,所述传感器被配置为获得表示所述可穿戴眼镜的运动状态的状态值并且当所获得的状态值等于或大于预定值时获取所述穿戴状态信息。
7.如权利要求1所述的可穿戴眼镜,其中:
所述处理器被配置为判定所确定的倾斜是否等于或大于预定值;
当所述处理器判定所确定的倾斜小于所述预定值时,所述处理器被配置为控制所述显示器显示基于所确定的倾斜获得的调整后图像;以及
当所述处理器判定所确定的倾斜等于或大于所述预定值时,所述处理器被配置为控制所述显示器显示告知用户调整所述可穿戴眼镜的图像。
8.一种经由可穿戴眼镜显示图像的方法,该方法包括:
在所述可穿戴眼镜的显示器上显示图像;
获取表示用户当前穿戴所述可穿戴眼镜的状态的穿戴状态信息,其中,所述穿戴状态信息包括反射所述图像的用户的眼睛的眼睛图像;
从眼睛图像中提取所述图像的反射图像,基于所述反射图像的大小和形状中的至少一者确定所述可穿戴眼镜相对于用户的倾斜;以及
基于所确定的倾斜来调整在所述显示器上显示的所述图像。
9.如权利要求8所述的方法,其中:
所述获取穿戴状态信息包括获取包括关于用户的身体部位的信息的穿戴状态信息;以及
所述确定倾斜包括通过将所获取的穿戴状态信息与预定的参考穿戴状态信息相比较来确定所述可穿戴眼镜相对于用户的倾斜。
10.如权利要求9所述的方法,其中:
所述获取穿戴状态信息包括获取包括身体部位的图像的穿戴状态信息;以及
所述确定倾斜包括:
从所述身体部位的图像中检测与所述身体部位相对应的区域,
从检测到的区域中获取属性值,以及
将所获取的属性值与所述参考穿戴状态信息中包括的参考值相比较以便确定所述倾斜。
11.如权利要求8所述的方法,其中:
所述穿戴状态信息包括穿戴着所述可穿戴眼镜的用户的眼睛的眼睛图像;以及
所述确定倾斜包括:
从所述眼睛图像中获取所述眼睛的长轴的长度、所述眼睛的短轴的长度、所述眼睛的长轴的角度、所述眼睛的短轴的角度和用户的虹膜的位置值之中的至少一个值,
将所获取的至少一个值与至少一个预定的参考值相比较,以及
基于比较的结果来确定所述倾斜。
12.如权利要求8所述的方法,其中:
所述确定倾斜包括:
从所述眼睛图像中检测与用户的眼睛相对应的区域,
在检测到的与眼睛相对应的区域内获得所述图像的反射图像,
将所述反射图像的大小和形状中的至少一者与预定的参考穿戴状态信息相比较,以及
基于比较的结果来确定所述倾斜。
13.如权利要求8所述的方法,其中,所述获取穿戴状态信息包括:
获得表示所述可穿戴眼镜的运动状态的状态值;以及
当所获得的状态值等于或大于预定值时获取所述穿戴状态信息。
14.如权利要求8所述的方法,其中,所述调整图像包括:
判定所确定的倾斜是否等于或大于预定值;
如果所确定的倾斜根据所述判定等于或大于所述预定值,则显示告知用户调整所述可穿戴眼镜的图像;以及
如果所确定的倾斜根据所述判定小于所述预定值,则基于所确定的倾斜来调整在所述显示器上显示的所述图像。
CN201510463690.9A 2014-07-31 2015-07-31 可穿戴眼镜和经由可穿戴眼镜显示图像的方法 Active CN105319718B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010966048.3A CN112213856B (zh) 2014-07-31 2015-07-31 可穿戴眼镜和经由可穿戴眼镜显示图像的方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2014-0098630 2014-07-31
KR20140098630 2014-07-31
KR10-2015-0020288 2015-02-10
KR1020150020288A KR102361025B1 (ko) 2014-07-31 2015-02-10 웨어러블 글래스 및 웨어러블 글래스를 통하여 영상을 디스플레이하는 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202010966048.3A Division CN112213856B (zh) 2014-07-31 2015-07-31 可穿戴眼镜和经由可穿戴眼镜显示图像的方法

Publications (2)

Publication Number Publication Date
CN105319718A CN105319718A (zh) 2016-02-10
CN105319718B true CN105319718B (zh) 2020-10-16

Family

ID=53773298

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202010966048.3A Active CN112213856B (zh) 2014-07-31 2015-07-31 可穿戴眼镜和经由可穿戴眼镜显示图像的方法
CN201510463690.9A Active CN105319718B (zh) 2014-07-31 2015-07-31 可穿戴眼镜和经由可穿戴眼镜显示图像的方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202010966048.3A Active CN112213856B (zh) 2014-07-31 2015-07-31 可穿戴眼镜和经由可穿戴眼镜显示图像的方法

Country Status (4)

Country Link
US (3) US9965030B2 (zh)
EP (2) EP2980628B1 (zh)
CN (2) CN112213856B (zh)
WO (1) WO2016018070A1 (zh)

Families Citing this family (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103353667B (zh) * 2013-06-28 2015-10-21 北京智谷睿拓技术服务有限公司 成像调整设备及方法
CN103353663B (zh) 2013-06-28 2016-08-10 北京智谷睿拓技术服务有限公司 成像调整装置及方法
CN103353677B (zh) 2013-06-28 2015-03-11 北京智谷睿拓技术服务有限公司 成像装置及方法
CN103424891B (zh) 2013-07-31 2014-12-17 北京智谷睿拓技术服务有限公司 成像装置及方法
CN103439801B (zh) 2013-08-22 2016-10-26 北京智谷睿拓技术服务有限公司 视力保护成像装置及方法
CN103605208B (zh) 2013-08-30 2016-09-28 北京智谷睿拓技术服务有限公司 内容投射系统及方法
CN103500331B (zh) 2013-08-30 2017-11-10 北京智谷睿拓技术服务有限公司 提醒方法及装置
US9965030B2 (en) 2014-07-31 2018-05-08 Samsung Electronics Co., Ltd. Wearable glasses and method of displaying image via the wearable glasses
CN107533244B (zh) 2015-04-02 2020-08-25 依视路国际公司 头戴式设备位置监测组件
JP6367166B2 (ja) * 2015-09-01 2018-08-01 株式会社東芝 電子機器及び方法
JP6662599B2 (ja) * 2015-10-05 2020-03-11 ミツミ電機株式会社 表示装置
US10895760B2 (en) * 2015-12-09 2021-01-19 Brian Reynolds Hands-free binocular device
CN105487232A (zh) * 2016-01-18 2016-04-13 京东方科技集团股份有限公司 一种智能穿戴设备
US10969301B2 (en) * 2016-02-12 2021-04-06 Shamir Optical Industry Ltd. Self-administrated testing of eyeglasses
US10783835B2 (en) * 2016-03-11 2020-09-22 Lenovo (Singapore) Pte. Ltd. Automatic control of display brightness
US9897811B2 (en) 2016-04-07 2018-02-20 Google Llc Curved eyepiece with color correction for head wearable display
CN105898275A (zh) * 2016-04-28 2016-08-24 乐视控股(北京)有限公司 虚拟现实图像校准方法及装置
CN105975064A (zh) * 2016-04-28 2016-09-28 乐视控股(北京)有限公司 虚拟现实头盔歪带的监测方法及装置
US10514756B2 (en) * 2016-05-06 2019-12-24 Visteon Global Technologies, Inc. Adjusting an electronic display based on gaze tracking
CN106095102A (zh) * 2016-06-16 2016-11-09 深圳市金立通信设备有限公司 一种虚拟现实显示界面处理的方法及终端
GB2557569B (en) * 2016-09-09 2022-07-06 Displaylink Uk Ltd Adjusting display data
JP7090601B2 (ja) 2016-10-05 2022-06-24 マジック リープ, インコーポレイテッド 複合現実較正のための眼球周囲試験
WO2018071694A1 (en) 2016-10-12 2018-04-19 Snap Inc. Circuits and methods for wearable device charging and wired control
US10504397B2 (en) 2017-01-31 2019-12-10 Microsoft Technology Licensing, Llc Curved narrowband illuminant display for head mounted display
US10354140B2 (en) 2017-01-31 2019-07-16 Microsoft Technology Licensing, Llc Video noise reduction for video augmented reality system
US11187909B2 (en) * 2017-01-31 2021-11-30 Microsoft Technology Licensing, Llc Text rendering by microshifting the display in a head mounted display
US10298840B2 (en) 2017-01-31 2019-05-21 Microsoft Technology Licensing, Llc Foveated camera for video augmented reality and head mounted display
KR102544062B1 (ko) * 2017-02-21 2023-06-16 삼성전자주식회사 가상 이미지 표시 방법, 저장 매체 및 이를 위한 전자 장치
JP2018142857A (ja) * 2017-02-28 2018-09-13 セイコーエプソン株式会社 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
US10194225B2 (en) * 2017-03-05 2019-01-29 Facebook Technologies, Llc Strap arm of head-mounted display with integrated audio port
KR101983279B1 (ko) * 2017-03-23 2019-05-30 사회복지법인 삼성생명공익재단 가상현실을 이용한 신경질환 진단 장치 및 방법
US20180284932A1 (en) * 2017-03-31 2018-10-04 Honda Motor Co., Ltd. Transparent display for resilient vehicle surfaces
KR102566239B1 (ko) * 2017-07-18 2023-08-11 에씰로 앙터나시오날 사람의 자세적 및 시각적 행위를 결정하기 위한 방법
GB201714349D0 (en) * 2017-09-06 2017-10-18 Xyz Reality Ltd A method and equipment for setting out a construction site
CN107941463B (zh) * 2017-10-26 2020-11-10 深圳多哚新技术有限责任公司 头戴设备水平缺陷检测方法及系统
IL310847A (en) * 2017-10-27 2024-04-01 Magic Leap Inc A virtual network for augmented reality systems
WO2019154509A1 (en) 2018-02-09 2019-08-15 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
US11393251B2 (en) 2018-02-09 2022-07-19 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
EP3750029A1 (en) 2018-02-09 2020-12-16 Pupil Labs GmbH Devices, systems and methods for predicting gaze-related parameters using a neural network
US20190324283A1 (en) * 2018-04-19 2019-10-24 Htc Corporation Display device and display method
KR102462678B1 (ko) * 2018-05-18 2022-11-04 삼성전자주식회사 주변 조도에 기반하여 디스플레이에 표시되는 콘텐트의 위치를 조절하는 전자 장치와 이의 동작 방법
US10921595B2 (en) * 2018-06-29 2021-02-16 International Business Machines Corporation Contextual adjustment to augmented reality glasses
CN108600644B (zh) * 2018-07-17 2021-01-29 广东小天才科技有限公司 一种拍照方法、装置及可穿戴设备
US10838203B2 (en) * 2018-07-17 2020-11-17 Apple Inc. Adjustable electronic device system with facial mapping
EP3827426A4 (en) 2018-07-24 2022-07-27 Magic Leap, Inc. AD SYSTEMS AND PROCEDURES FOR DETERMINING A REGISTRATION BETWEEN AN AD AND A USER'S EYES
US10942565B2 (en) * 2018-12-17 2021-03-09 Intel Corporation Virtual reality adaptive display control
EP3899642A1 (en) 2018-12-20 2021-10-27 Snap Inc. Flexible eyewear device with dual cameras for generating stereoscopic images
US11676422B2 (en) 2019-06-05 2023-06-13 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
CN110930518A (zh) * 2019-08-29 2020-03-27 广景视睿科技(深圳)有限公司 基于增强现实技术的投影方法及投影设备
JP7330827B2 (ja) * 2019-09-10 2023-08-22 株式会社日立製作所 データ処理装置、データ処理方法、およびデータ処理プログラム
CN112506335B (zh) * 2019-09-16 2022-07-12 Oppo广东移动通信有限公司 头戴式设备及其控制方法、装置、系统和存储介质
CN110769351A (zh) * 2019-10-29 2020-02-07 歌尔科技有限公司 音频设备的控制方法、音频设备及存储介质
US11614797B2 (en) 2019-11-05 2023-03-28 Micron Technology, Inc. Rendering enhancement based in part on eye tracking
US20210132689A1 (en) * 2019-11-05 2021-05-06 Micron Technology, Inc. User interface based in part on eye movement
US10965931B1 (en) 2019-12-06 2021-03-30 Snap Inc. Sensor misalignment compensation
CN110933390B (zh) * 2019-12-16 2022-01-07 Oppo广东移动通信有限公司 基于图像投影的显示方法及装置
CN114730103A (zh) * 2020-01-10 2022-07-08 依视路国际公司 眼睛配戴物设备的镜片的位置变化
US11157086B2 (en) * 2020-01-28 2021-10-26 Pison Technology, Inc. Determining a geographical location based on human gestures
US11199908B2 (en) * 2020-01-28 2021-12-14 Pison Technology, Inc. Wrist-worn device-based inputs for an operating system
CN111401092B (zh) * 2020-03-20 2022-02-08 合肥联宝信息技术有限公司 一种扫描器及基于挠性屏的信息显示方法
CN111505827B (zh) * 2020-05-22 2022-07-12 Oppo广东移动通信有限公司 光学显示组件和智能穿戴设备
CN112023391B (zh) * 2020-09-02 2024-01-16 杭州瞳阳科技有限公司 一种用于游戏vr的控制系统及其方法
US11422380B2 (en) * 2020-09-30 2022-08-23 Snap Inc. Eyewear including virtual scene with 3D frames
US20220105356A1 (en) * 2020-10-01 2022-04-07 Osram Opto Semiconductors Gmbh Portable device for treating a patient with light and method for operating the portable device
US11209656B1 (en) * 2020-10-05 2021-12-28 Facebook Technologies, Llc Methods of driving light sources in a near-eye display
WO2022109754A1 (en) * 2020-11-30 2022-06-02 Vasudeva Kailash C Face mask with smart features and functions
US11536945B2 (en) 2020-12-23 2022-12-27 Brian Reynolds Wearable, adjustable, hands-free binocular device
CN115458521A (zh) 2021-05-21 2022-12-09 联华电子股份有限公司 微发光二极管布局结构及其制作方法
CN113438466B (zh) * 2021-06-30 2022-10-14 东风汽车集团股份有限公司 车外视野拓宽方法、系统、设备及计算机可读存储介质
US11860367B2 (en) 2021-07-12 2024-01-02 Avegant Corp. Display system for a head mounted device
CN114356081A (zh) * 2021-12-20 2022-04-15 歌尔光学科技有限公司 图像校正方法、装置、电子设备及头戴显示设备
US11727892B1 (en) 2022-11-09 2023-08-15 Meta Platforms Technologies, Llc Eye-tracking based foveation control of displays

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5331149A (en) 1990-12-31 1994-07-19 Kopin Corporation Eye tracking system having an array of photodetectors aligned respectively with an array of pixels
US5481622A (en) 1994-03-01 1996-01-02 Rensselaer Polytechnic Institute Eye tracking apparatus and method employing grayscale threshold values
JP2002014300A (ja) 2000-06-28 2002-01-18 Seiko Epson Corp 頭部装着型表示装置
US20020044152A1 (en) * 2000-10-16 2002-04-18 Abbott Kenneth H. Dynamic integration of computer generated and real world images
JP3805231B2 (ja) 2001-10-26 2006-08-02 キヤノン株式会社 画像表示装置及びその方法並びに記憶媒体
WO2005064930A1 (ja) * 2003-12-26 2005-07-14 Nikon Corporation ニアアイディスプレイ装置、ヘッドホン、及びこれらを備えたシステム
US8159526B2 (en) * 2004-09-17 2012-04-17 Seiko Epson Corporation Stereoscopic image display system
US7522344B1 (en) * 2005-12-14 2009-04-21 University Of Central Florida Research Foundation, Inc. Projection-based head-mounted display with eye-tracking capabilities
IL174170A (en) 2006-03-08 2015-02-26 Abraham Aharoni Device and method for two-eyed tuning
US9323055B2 (en) * 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
US20100149073A1 (en) 2008-11-02 2010-06-17 David Chaum Near to Eye Display System and Appliance
CN103119512A (zh) * 2008-11-02 2013-05-22 大卫·乔姆 近眼式显示系统和装置
JP2011071898A (ja) * 2009-09-28 2011-04-07 Panasonic Corp 立体映像表示装置および立体映像表示方法
US8537174B2 (en) * 2009-10-06 2013-09-17 Palm, Inc. Techniques for adaptive brightness control of a display
TWI497247B (zh) * 2010-01-28 2015-08-21 Chi Mei Comm Systems Inc 實現亮度調節的資料處理設備及方法
KR20110098253A (ko) 2010-02-26 2011-09-01 삼성전자주식회사 디스플레이 시스템 및 그 제어방법
US20120206334A1 (en) * 2010-02-28 2012-08-16 Osterhout Group, Inc. Ar glasses with event and user action capture device control of external applications
AU2011220382A1 (en) * 2010-02-28 2012-10-18 Microsoft Corporation Local advertising content on an interactive head-mounted eyepiece
JP2011180843A (ja) * 2010-03-01 2011-09-15 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP2012034229A (ja) 2010-07-30 2012-02-16 Toshiba Corp 立体映像表示システム、表示装置及び立体映像用眼鏡
US20120113235A1 (en) * 2010-11-08 2012-05-10 Sony Corporation 3d glasses, systems, and methods for optimized viewing of 3d video content
JP5704313B2 (ja) 2010-11-16 2015-04-22 セイコーエプソン株式会社 映像表示装置及び映像表示方法
US20120200676A1 (en) 2011-02-08 2012-08-09 Microsoft Corporation Three-Dimensional Display with Motion Parallax
CA2828413A1 (en) * 2011-02-28 2012-09-07 Osterhout Group, Inc. Alignment control in an augmented reality headpiece
JP2012244453A (ja) 2011-05-20 2012-12-10 Panasonic Corp 画像表示装置、画像表示システム、及び3次元眼鏡
WO2012172719A1 (ja) * 2011-06-16 2012-12-20 パナソニック株式会社 ヘッドマウントディスプレイおよびその位置ずれ調整方法
US20130021374A1 (en) * 2011-07-20 2013-01-24 Google Inc. Manipulating And Displaying An Image On A Wearable Computing System
US8629815B2 (en) 2011-08-09 2014-01-14 Google Inc. Laser alignment of binocular head mounted display
US9342610B2 (en) * 2011-08-25 2016-05-17 Microsoft Technology Licensing, Llc Portals: registered objects as virtualized, personalized displays
KR20140059213A (ko) * 2011-08-30 2014-05-15 마이크로소프트 코포레이션 홍채 스캔 프로파일링을 이용하는 헤드 마운티드 디스플레이
GB2494907A (en) * 2011-09-23 2013-03-27 Sony Corp A Head-mountable display with gesture recognition
EP2761362A4 (en) * 2011-09-26 2014-08-06 Microsoft Corp VIDEO DISPLAY CHANGE BASED ON SENSOR INPUT FOR TRANSPARENT EYE DISPLAY
JP2013125247A (ja) 2011-12-16 2013-06-24 Sony Corp ヘッドマウントディスプレイ及び情報表示装置
US8810600B2 (en) 2012-01-23 2014-08-19 Microsoft Corporation Wearable display device calibration
US9147111B2 (en) * 2012-02-10 2015-09-29 Microsoft Technology Licensing, Llc Display with blocking image generation
JP5983056B2 (ja) * 2012-06-04 2016-08-31 セイコーエプソン株式会社 画像表示装置およびヘッドマウントディスプレイ
US20130342572A1 (en) * 2012-06-26 2013-12-26 Adam G. Poulos Control of displayed content in virtual environments
US20140024971A1 (en) * 2012-07-17 2014-01-23 Frank E. Bunn Assessment and cure of brain concussion and medical conditions by determining mobility
US9256987B2 (en) * 2013-06-24 2016-02-09 Microsoft Technology Licensing, Llc Tracking head movement when wearing mobile device
US10007336B2 (en) * 2013-09-10 2018-06-26 The Board Of Regents Of The University Of Texas System Apparatus, system, and method for mobile, low-cost headset for 3D point of gaze estimation
TWI516804B (zh) * 2014-01-02 2016-01-11 廣達電腦股份有限公司 頭戴式顯示裝置及其背光調整方法
US9965030B2 (en) * 2014-07-31 2018-05-08 Samsung Electronics Co., Ltd. Wearable glasses and method of displaying image via the wearable glasses
US10515284B2 (en) * 2014-09-30 2019-12-24 Qualcomm Incorporated Single-processor computer vision hardware control and application execution
WO2016138178A1 (en) * 2015-02-25 2016-09-01 Brian Mullins Visual gestures for a head mounted device
JP6582604B2 (ja) * 2015-06-23 2019-10-02 富士通株式会社 瞳孔検出プログラム、瞳孔検出方法、瞳孔検出装置および視線検出システム

Also Published As

Publication number Publication date
CN112213856B (zh) 2023-03-31
US10983593B2 (en) 2021-04-20
US20190235625A1 (en) 2019-08-01
CN112213856A (zh) 2021-01-12
US20180224934A1 (en) 2018-08-09
EP2980628B1 (en) 2023-07-19
WO2016018070A1 (en) 2016-02-04
EP4235259A2 (en) 2023-08-30
US10303250B2 (en) 2019-05-28
US9965030B2 (en) 2018-05-08
CN105319718A (zh) 2016-02-10
EP4235259A3 (en) 2023-09-20
EP2980628A1 (en) 2016-02-03
US20160034032A1 (en) 2016-02-04

Similar Documents

Publication Publication Date Title
CN105319718B (zh) 可穿戴眼镜和经由可穿戴眼镜显示图像的方法
KR102411100B1 (ko) 디바이스를 이용한 화면 처리 방법 및 장치
US11366516B2 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
TWI671552B (zh) 穿戴式眼鏡、顯示影像方法以及非暫時性電腦可讀取儲存媒體
US10114466B2 (en) Methods and systems for hands-free browsing in a wearable computing device
US10585288B2 (en) Computer display device mounted on eyeglasses
US9904360B2 (en) Head tracking based gesture control techniques for head mounted displays
US9035878B1 (en) Input system
JP2017049601A (ja) 入出力構造を有する着用可能な装置
KR20180029772A (ko) 플렉서블 디스플레이를 포함하는 전자 장치

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant