CN113960788B - 图像显示方法、装置、ar眼镜及存储介质 - Google Patents

图像显示方法、装置、ar眼镜及存储介质 Download PDF

Info

Publication number
CN113960788B
CN113960788B CN202010689320.8A CN202010689320A CN113960788B CN 113960788 B CN113960788 B CN 113960788B CN 202010689320 A CN202010689320 A CN 202010689320A CN 113960788 B CN113960788 B CN 113960788B
Authority
CN
China
Prior art keywords
image
glasses
user
camera
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010689320.8A
Other languages
English (en)
Other versions
CN113960788A (zh
Inventor
汤祖荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yulong Computer Telecommunication Scientific Shenzhen Co Ltd
Original Assignee
Yulong Computer Telecommunication Scientific Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yulong Computer Telecommunication Scientific Shenzhen Co Ltd filed Critical Yulong Computer Telecommunication Scientific Shenzhen Co Ltd
Priority to CN202010689320.8A priority Critical patent/CN113960788B/zh
Publication of CN113960788A publication Critical patent/CN113960788A/zh
Application granted granted Critical
Publication of CN113960788B publication Critical patent/CN113960788B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/30Systems for automatic generation of focusing signals using parallactic triangle with a base line
    • G02B7/32Systems for automatic generation of focusing signals using parallactic triangle with a base line using active means, e.g. light emitter
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Abstract

本申请属于终端技术领域,具体而言,涉及一种图像显示方法、装置、AR眼镜及存储介质。其中,一种图像显示方法,包括:获取佩戴AR眼镜的用户的眼球的反射图像;根据所述反射图像,确定所述用户注视的物体;控制所述AR眼镜的摄像头对焦到所述物体上,并通过显示单元显示对焦后的图像。因此用户使用AR眼镜时,可以直接基于用户注视的物体控制AR眼镜的摄像头的对焦倍数,并直接显示对焦后的图像,不需要用户手动调节摄像头的对焦倍数,可以减少图像显示步骤,减少图像显示时间,可以提高图像显示的效率,进而可以提高用户的使用体验。

Description

图像显示方法、装置、AR眼镜及存储介质
技术领域
本申请属于终端技术领域,具体而言,涉及一种图像显示方法、装置、AR眼镜及存储介质。
背景技术
随着科学技术的不断发展,AR眼镜也应运而生,并且由于用户对AR眼镜的开发越来越深入,使得AR眼镜快速地应用到用户的生活中。AR眼镜可以跟踪用户眼球视线轨迹获取到用户目前所处的环境,AR眼镜可以控制AR眼镜上的摄像头采集用户目前所处环境的实时图像,并显示该实时图像,以便用户可以看到该实时图像。
然而,AR眼镜上的摄像头一般都是广角摄像头,广角摄像头所拍摄到的景物会很多。当AR眼镜采用自动对焦时,AR眼镜不能对焦到用户需要的物体上,用户需要手动切换对焦倍数,并在对焦倍数合适时,显示实时图像,使得AR眼镜的图像显示步骤繁多,图像显示的效率较低。
因此,现有技术有待改进和发展。
发明内容
本申请实施例提供一种图像显示方法、装置、AR眼镜及存储介质,旨在解决现有AR眼镜的图像显示步骤繁多,图像显示的效率较低的问题。
第一方面,本申请实施例提供一种图像显示方法,所述方法包括:
获取佩戴AR眼镜的用户的眼球的反射图像;
根据所述反射图像,确定所述用户注视的物体;
控制所述AR眼镜的摄像头对焦到所述物体上,并通过显示单元显示对焦后的图像。
根据一些实施例,所述根据所述反射图像中确定所述用户注视的物体,包括:
确定用户的注视方向;
根据所述注视方向确定用户在当前场景中注视的物体。
根据一些实施例,所述根据所述反射图像中确定所述用户注视的物体,包括:
根据人工智能识别模型和所述反射图像,确定所述用户注视的所述物体。
根据一些实施例,所述控制所述AR眼镜的摄像头对焦到所述物体上,包括:
测量所述用户到所述物体之间的距离;
根据所述距离调节所述摄像头的焦距,以使所述摄像头的对焦到所述物体上。
根据一些实施例,所述测量所述用户到所述物体之间的距离,包括:
发射探测激光信号;
根据所述探测激光信号的传输时间,测量所述用户到所述物体之间的距离。
根据一些实施例,所述控制所述AR眼镜的摄像头对焦到所述物体上,并通过显示单元显示对焦后的图像之后,还包括:
在所述对焦后的图像的尺寸不符合预设尺寸时,对所述对焦后的图像缩放至所述预设尺寸;
显示缩放后的图像。
根据一些实施例,所述控制所述AR眼镜的摄像头对焦到所述物体上,并通过显示单元显示对焦后的图像之后,还包括:
获取所述对焦后图像在所述显示单元上的当前显示位置;
在所述当前显示位置不在预设显示位置时,计算所述当前显示位置和所述预设显示位置之间的偏移量;
根据所述偏移量将所述对焦后的图像移动至所述预设显示位置。
第二方面,本申请实施例提供一种图像显示装置,所述装置包括:
图像获取单元,用于获取佩戴AR眼镜的用户的眼球的反射图像;
物体确定单元,用于根据所述反射图像,确定所述用户注视的物体;
图像显示单元,用于控制所述AR眼镜的摄像头对焦到所述物体上,并通过显示单元显示对焦后的图像。
第三方面,本申请实施例提供一种AR眼镜,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述任一项所述的方法。
第四方面,本申请实施例提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述任一项所述的方法。
第五方面,本申请实施例提供一种计算机程序产品,其中,上述计算机程序产品包括存储计算机程序的非瞬时性计算机可读存储介质,上述计算机程序可操作来使计算机执行如本申请实施例第一方面中所描述的部分或全部步骤。该计算机程序产品可以为一个软件安装包。
本申请实施例提供一种图像显示方法,包括:获取佩戴AR眼镜的用户的眼球的反射图像;根据反射图像,确定用户注视的物体;控制AR眼镜的摄像头对焦到物体上,并通过显示单元显示对焦后的图像。因此用户使用AR眼镜时,可以直接基于用户注视的物体控制AR眼镜的摄像头的对焦倍数,并直接显示对焦后的图像,不需要用户手动调节摄像头的对焦倍数,可以减少图像显示步骤,减少图像显示时间,可以提高图像显示的效率,进而可以提高用户的使用体验。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出应用于本申请实施例的图像显示方法或者图像显示装置的应用场景示意图;
图2示出本申请实施例的一种图像显示方法的流程示意图;
图3示出本申请实施例的AR眼镜界面的举例示意图;
图4示出本申请实施例的AR眼镜界面的举例示意图;
图5示出本申请实施例的一种图像显示方法的流程示意图;
图6示出本申请实施例的一种图像显示方法的流程示意图;
图7示出本申请实施例的一种图像显示方法的流程示意图;
图8示出本申请实施例的一种图像显示方法的流程示意图;
图9示出本申请实施例的AR眼镜界面的举例示意图;
图10示出本申请实施例的图像显示装置的结构示意图;
图11示出本申请实施例的一种AR眼镜的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅为本申请实施例的一部分,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
随着AR眼镜的高速发展,人们对AR眼镜的开发越来越深入,AR眼镜的功能也越来越复杂。AR眼镜具有摄像头及自动对焦功能,还有部分AR眼镜上安装有多个摄像头,并具有多摄混合变焦的功能等。AR眼镜是增强现实(Augmented Reality)应用的一种新型眼镜,大多数AR眼镜都具有显示、拍照、视频通话、处理文字信息、电子邮件、游戏娱乐等多样化功能。AR眼镜可以在显示现实景象的基础上,同时显示虚拟场景,用户甚至可以与虚拟场景进行交互,是未来智能硬件产品的一种新形态。
根据一些实施例,图1示出应用于本申请实施例的图像显示方法或者图像显示装置的应用场景示意图。如图1所示,当AR眼镜上的摄像头是广角摄像头时,AR眼镜可以通过广角摄像头采集用户当前所处的现实场景的实时图像,并将采集到的实时图像和虚拟数据进行叠加,并通过微型摄影设备在用户眼球前进行显示,用户可以看到自己当前所处的现实场景。而广角摄像头采用的是自动对焦原则,自动对焦原则是以中心对焦框的图片数据作为对焦的判断依据进行自动对焦,但广角摄像头所采集到图像中包括的物体很多,因此广角摄像头自动对焦对不到用户需要的某个物体上。例如广角摄像头采集到图像中包括的物体包括A物体、B物体、C物体时,根据自动对焦原则,广角摄像头对焦到的物体为A物体,并将对焦后的图像进行显示。但是此时用户注视的物体是B物体,因此广角摄像头采用自动对焦原则无法满足用户的要求。此时用户可以手动调节广角摄像头,使得广角摄像头对焦到B物体,然后再将该图像进行显示。因此该图像显示的操作步骤复杂,使得图像显示的效率较低,用户的使用体验较差。
易于理解的是,AR眼镜还可以包括多个摄像头,此时AR眼镜可以采用多摄混合变焦原则,以便摄像头对焦到用户需要的物体上。多摄混合变焦原则是需要用户手动切换摄像头并调节变焦倍数,从而AR眼镜可以对某个物体的精确对焦。但在此过程中,用户需要手动切换摄像头并且需要手动调节变焦倍数,当用户手动调节变焦倍数时,用户需要花费大量的时间确定是否对焦到用户需要的物体上,因此图像显示时间会增长,使得图像显示的效率较低,用户的使用体验较差。
需要说明的是,本申请实施例的图像显示方法可应用于图像显示装置,该图像显示方法可被配置于AR眼镜中。其中该AR眼镜可以是具有摄像头的电子设备。
下面将结合附图2-附图9,对本申请实施例提供的图像显示方法进行详细介绍。附图2-附图9所示实施例的执行主体例如可以为AR眼镜。
请参见图2,为本申请实施例提供了一种图像显示方法的流程示意图。如图2所示,本申请实施例的所述方法可以包括以下步骤S101-步骤S103。
S101,获取佩戴AR眼镜的用户的眼球的反射图像。
根据一些实施例,AR眼镜可以设置有多个摄像头。例如AR眼睛可以设置有两个摄像头,其中第一摄像头例如可以用于采集用户当前所处的现实场景的实时图像,第二摄像头例如可以用于采集用户眼球的反射图像。当AR眼镜获取佩戴AR眼镜的用户的眼球的反射图像之前,用户可以将AR眼镜佩戴在用户的眼睛上。当AR眼镜配置有镜腿,用户将AR眼镜佩戴在用户眼睛上时,用户可以将镜腿钩架在用户耳朵上,以便可以固定AR眼镜。当AR眼镜未配置有镜腿,用户将AR眼镜佩戴在用户眼睛上时,用户可以使用双手将AR眼镜固定在用户的眼睛上。
可选的,眼睛的成像原理:外腺状体当自然界的光线进入眼睛,经过角膜、晶状体、玻璃体等屈光系统的折射后,聚集在视网膜上,形成光的刺激。视网膜上的感光细胞受到光的刺激后,经过一系列的物理化学变化,产生了电流(注:就是神经冲动),经由视网膜神经纤维传导至视神经。用户双眼的视神经在脑垂体附近会合,最后到达大脑皮层的视觉中枢,产生视觉,然后用户可以看见东西。
易于理解的是,当用户佩戴完成AR眼镜时,AR眼镜的第一摄像头可以采集用户当前所处现实环境的实时图像,通过光导投影在用户眼球前显示出来,此时用户可以看到该实时图像。当用户看到该实时图像时,AR眼镜可以通过控制摄像头采集到用户的眼球的反射图像。其中该摄像头可以设置于AR眼镜内侧朝向用户的眼镜处,该摄像头包括但不限于高清摄像头、超清摄像头等。
S102,根据反射图像,确定用户注视的物体。
根据一些实施例,AR眼镜获取到的佩戴AR眼镜的用户的眼球的反射图像中可以包括至少一个物体。例如当道路上发生交通事故时,佩戴AR眼镜的交警可以通过AR眼镜看到该交通事故,此时AR眼镜获取到的反射图像中包括的物体例如可以有电动车、小轿车以及三个行人。
易于理解的是,用户可以改变晶状体的焦距对物体进行对焦,并且用户的眼睛可以对焦一个物体,该用户看到该物体是清晰的,看到的其他的物体是模糊的。因此当AR眼镜获取到反射图像时,AR眼镜可以采用景深分析算法获取到用户注射的物体。例如AR眼镜获取到的发射图像中包括的物体例如可以有电动车、小轿车以及三个行人,AR眼镜采用景深分析算法获取到用户注射的物体例如可以是电动车。
S103,控制AR眼镜的摄像头对焦到物体上,并通过显示单元显示对焦后的图像。
根据一些实施例,AR眼镜的摄像头是指用于采集用户当前所处现实环境的实时图像的摄像头。AR眼镜的摄像头包括但不限于深度摄像头、高清摄像头、超清摄像头等。当AR眼镜根据反射图像,确定用户注视的物体时,AR眼镜可以将该物体的图像发送至AR眼镜的摄像头。该AR眼镜的摄像头可以在确定该物体图像在原始图像上的位置,此时AR眼镜界面的举例示意图可以如图3所示。该原始图像是AR眼镜在获取佩戴AR眼镜的用户的眼球的反射图像之前,AR眼镜控制AR眼镜的摄像头获取到的图像。
易于理解的是,当AR眼镜的摄像头确定物体图像在原始图像上的位置之后,AR眼镜可以控制AR眼镜的摄像头对焦到物体上,并通过显示单元显示对焦后的图像。当AR眼镜控制AR眼镜的摄像头对焦到物体上时,AR眼镜可以根据用户到物体之间的距离调节AR眼镜的摄像头的焦距。
可选的,例如,AR眼镜采用景深分析算法获取到用户注射的物体例如是电动车时,AR眼镜可以将电动车的图像发送至AR眼镜的摄像头。当AR眼镜的摄像头获取到该电动车的图像时,AR眼镜的摄像头可以获取电动车到佩戴AR眼镜的交警之间的距离,并根据该距离,控制AR眼镜的摄像头对焦到电动车,当摄像头获取到电动车的清晰图像时,AR眼镜可以通过光导投影的方式显示出来。此时AR眼镜界面的举例示意图可以如图4所示。
根据一些实施例,在AR眼镜通过显示单元显示对焦后的图像时,AR眼镜可以获取该对焦后的图像的清晰度。当AR眼镜确定该清晰度符合预设清晰度要求时,AR眼镜可以显示单元显示对焦后的图像。当AR眼镜确定该清晰度不符合预设清晰度要求时,AR眼镜可以再次控制AR眼镜的摄像头对焦到物体上,并通过显示单元显示对焦后的图像。
本申请实施例提供一种图像显示方法,包括:获取佩戴AR眼镜的用户的眼球的反射图像;根据反射图像,确定用户注视的物体;控制AR眼镜的摄像头对焦到物体上,并通过显示单元显示对焦后的图像。因此用户使用AR眼镜时,可以直接基于用户注视的物体控制AR眼镜的摄像头的对焦倍数,并通过显示单元显示对焦后的图像,不需要用户手动调节摄像头的对焦倍数,可以减少图像显示步骤,减少图像显示时间,进而可以提高图像显示的效率。另外,用户使用AR眼镜时,可以直接基于用户注视的物体控制AR眼镜的摄像头的对焦倍数,可以减少摄像头对焦不到用户注视的物体的情况,进而可以提高用户的使用体验。
请参见图5,为本申请实施例提供了一种图像显示方法的流程示意图。如图5所示,本申请实施例的所述方法可以包括以下步骤S201-步骤S206。
S201,获取佩戴AR眼镜的用户的眼球的反射图像。
具体过程如上所述,此处不再赘述。
S202,确定用户的注视方向。
根据一些实施例,用户的注视方向是指用户佩戴AR眼镜之后用户的注视方向。当AR眼镜获取到佩戴AR眼镜的用户的眼球的反射图像时,AR眼镜可以采用眼动追踪技术确定用户的注视方向。
易于理解的是,当AR眼镜获取到佩戴AR眼镜的用户的眼球的反射图像时,AR眼镜还可以采用神经网络模型确定用户的注视方向。在AR眼镜采用神经网络模型确定用户的注视方向之前,AR眼镜可以构建和训练神经网络模型。
S203,根据注视方向确定用户在当前场景中注视的物体。
根据一些实施例,当AR眼镜确定用户的注视方向之后,AR眼镜可以根据用户的注视方向确定用户在当前场景中注视的物体。例如当AR眼镜采用眼动追踪技术确定用户的注视方向时,AR眼镜可以根据用户的注视方向,确定当前场景中注视的物体。例如当前场景中包括的物体为雾凇景观和花园的石子路时,AR眼镜可以根据用户的注视方向,确定当前场景中注视的物体为雾凇景观。
根据一些实施例,AR眼镜还可以根据人工智能识别模型和反射图像,确定用户注视的物体。例如AR眼镜获取到的反射图像中包括的物体为一条十字路的红灯和一座30层的大厦时,AR眼镜采用人工智能识别模型确定用户注视的物体例如可以是十字路的红灯。
S204,控制AR眼镜的摄像头对焦到物体上,并通过显示单元显示对焦后的图像。
具体过程如上所述,此处不再赘述。
根据一些实施例,请参见图6,为本申请实施例提供了一种图像显示方法的流程示意图。如图6所示,本申请实施例的所述方法在控制AR眼镜的摄像头对焦到物体上时还可以包括以下步骤S301-步骤S302。S301,测量用户到物体之间的距离;S302,根据距离调节摄像头的焦距,以使摄像头的对焦到物体上。
易于理解的是,当AR眼镜控制AR眼镜的摄像头对焦到物体上时,AR眼镜可以先测量用户到物体之间的距离,并根据该距离调节摄像头的焦距,以使摄像头的对焦到物体上。例如AR眼镜获取佩戴AR眼镜的用户的眼球的反射图像之前,AR眼镜可以控制AR眼镜的摄像头对焦到A物体。当AR眼镜根据用户的注视方向确定用户在当前场景中注视的物体时,AR眼镜测量用户到物体之间的距离例如可以是5米。此时AR眼镜可以根据该距离5米调节摄像头的焦距,以使摄像头的对焦到B物体上。
根据一些实施例,请参见图7,为本申请实施例提供了一种图像显示方法的流程示意图。如图7所示,本申请实施例的所述方法在测量用户到物体之间的距离时还可以包括以下步骤S401-步骤S402。S401,发射探测激光信号;S402,根据探测激光信号的传输时间,测量用户到物体之间的距离。
易于理解的是,当AR眼镜测量用户到物体之间的距离时,AR眼镜可以发射探测激光信号至用户注视的物体。当AR眼镜接收到该探测激光信号的返回信号时,AR眼镜可以获取到探测激光信号的传输时间。AR眼镜可以根据该探测激光信号的传输时间,测量到用户到物体之间的距离。AR眼镜采用激光信号测量用户到物体之间的距离可以提高测量用户到物体之间的距离的准确性,进而可以提高AR眼镜控制AR眼镜的摄像头对焦到物体上的准确性,提高用户的使用体验。
可选的,例如AR眼镜获取佩戴AR眼镜的用户的眼球的反射图像之前,AR眼镜可以控制AR眼镜的摄像头对焦到A物体。当AR眼镜根据探测激光信号的传输时间,AR眼镜测量用户到物体之间的距离例如可以是5米。此时AR眼镜可以根据该距离5米调节摄像头的焦距,以使摄像头的对焦到B物体上。
根据一些实施例,请参见图8,为本申请实施例提供了一种图像显示方法的流程示意图。如图8所示,本申请实施例的所述方法在控制AR眼镜的摄像头对焦到物体上,并通过显示单元显示对焦后的图像之后还可以包括以下步骤S501-步骤S503。S501,获取对焦后图像在显示单元上的当前显示位置;S502,在当前显示位置不在预设显示位置时,计算当前显示位置和预设显示位置之间的偏移量;S503,根据偏移量将对焦后的图像移动至预设显示位置。
易于理解的是,当AR眼镜通过显示单元显示对焦后的图像之后,AR眼镜可以获取对焦后图像在显示单元上的当前显示位置。当AR眼镜获取到该当前显示位置时,AR眼镜可以检测该当前显示位置是否是预设显示位置。当AR眼镜检测到当前显示位置不在预设显示位置时,AR眼镜可以计算当前显示位置和预设显示位置之间的偏移量。当AR眼镜获取到该偏移量时,AR眼镜可以根据偏移量将对焦后的图像移动至预设显示位置。
可选的,AR眼镜可以获取对焦后图像在显示单元上的当前显示位置例如可以是Q位置,此时AR眼镜界面的举例示意图可以如图9所示。AR眼镜设置的预设显示位置例如可以是W位置。该W位置例如可以是显示单元的中心点。当显示单元为方形显示单元时,该W位置例如可以是显示单元的对角线交点。当AR眼镜获取到该当前显示位置Q位置时,AR眼镜可以检测该当前显示位置Q位置是否是预设显示位置W位置。当AR眼镜检测到当前显示位置Q位置不在预设显示位置W位置时,AR眼镜可以计算当前显示位置Q位置和预设显示位置W位置之间的偏移量。当AR眼镜获取到该偏移量时,AR眼镜可以根据偏移量将对焦后的图像移动至预设显示位置W位置。
S205,在对焦后的图像的尺寸不符合预设尺寸时,将对焦后的图像缩放至预设尺寸。
根据一些实施例,当AR眼镜通过显示单元显示对焦后的图像时,AR眼镜可以获取对焦后的图像的尺寸,并检测该对焦后的图像的尺寸是否符合预设尺寸。当AR眼镜确定该对焦后的图像的尺寸不符合预设尺寸时,AR眼镜可以将对焦后的图像缩放至预设尺寸。
易于理解的是,当AR眼镜通过显示单元显示对焦后的图像时,AR眼镜可以获取对焦后的图像的尺寸,该对焦后的图像的尺寸例如可以是E尺寸。AR眼镜设置的预设尺寸例如可以是R尺寸。AR眼镜可以检测该对焦后的图像的尺寸E尺寸是否符合预设尺寸R尺寸。当AR眼镜确定该对焦后的图像的尺寸E尺寸不符合预设尺寸R尺寸时,AR眼镜可以将对焦后的图像缩放至预设尺寸R尺寸。
S206,显示缩放后的图像。
根据一些实施例,当AR眼镜确定该对焦后的图像的尺寸不符合预设尺寸时,AR眼镜可以将对焦后的图像缩放至预设尺寸,并显示缩放后的图像。当AR眼镜确定该对焦后的图像的尺寸E尺寸不符合预设尺寸R尺寸时,AR眼镜可以将对焦后的图像缩放至预设尺寸R尺寸,并显示R尺寸的对焦后的图像。
本申请实施例提供一种图像显示方法,包括:获取佩戴AR眼镜的用户的眼球的反射图像,确定用户的注视方向,根据注视方向确定用户在当前场景中注视的物体,控制AR眼镜的摄像头对焦到物体上,并通过显示单元显示对焦后的图像。因此用户使用AR眼镜时,可以直接基于用户注视方向确定用户注视的物体,并根据用户注视的物体控制AR眼镜的摄像头的对焦倍数,不需要用户手动调节摄像头的对焦倍数,可以减少图像显示步骤,减少图像显示时间,进而可以提高图像显示的效率。另外,在对焦后的图像的尺寸不符合预设尺寸时,将对焦后的图像缩放至预设尺寸,并显示缩放后的图像,可以提高用户的使用体验。
上述主要从方法侧执行进程的角度对本申请实施例的方案进行了介绍。可以理解的是,终端及服务器为了实现上述功能,其包含执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本申请实施例可以根据上述方法示例对服务器进行功能单元的划分,例如,可以对应各个功能划分各个功能单元,也可以将两个或两个以上的功能集成在一个处理单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。需要说明的是,本申请实施例中对单元的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
请参见图10,其示出本申请实施例的图像显示装置的结构示意图。该图像显示装置1000可以通过软件、硬件或者两者的结合实现成为用户AR眼镜的全部或一部分。根据一些实施例,该图像显示装置1000包括图像获取单元1001、物体确定单元1002和图像显示单元1003,具体用于:
图像获取单元1001,用于获取佩戴AR眼镜的用户的眼球的反射图像;
物体确定单元1002,用于根据反射图像,确定用户注视的物体;
图像显示单元1003,用于控制AR眼镜的摄像头对焦到物体上,并通过显示单元显示对焦后的图像。
根据一些实施例,物体确定单元1002,用于根据反射图像中确定用户注视的物体时,具体用于:
确定用户的注视方向;
根据注视方向确定用户在当前场景中注视的物体。
根据一些实施例,物体确定单元1002,用于根据反射图像中确定用户注视的物体时,具体用于:
根据人工智能识别模型和反射图像,确定用户注视的物体。
根据一些实施例,图像显示单元1003,用于控制AR眼镜的摄像头对焦到物体上时,具体用于:
测量用户到物体之间的距离;
根据距离调节摄像头的焦距,以使摄像头的对焦到物体上。
根据一些实施例,图像显示单元1003,用于测量用户到物体之间的距离时,具体用于:
发射探测激光信号;
根据探测激光信号的传输时间,测量用户到物体之间的距离。
根据一些实施例,图像显示单元1003,用于控制AR眼镜的摄像头对焦到物体上,并通过显示单元显示对焦后的图像之后,还具体用于:
在对焦后的图像的尺寸不符合预设尺寸时,将对焦后的图像缩放至预设尺寸;
显示缩放后的图像。
根据一些实施例,该图像显示装置1000还包括图像移动单元1004,用于控制AR眼镜的摄像头对焦到物体上,并通过显示单元显示对焦后的图像之后,获取对焦后图像在显示单元上的当前显示位置;
在当前显示位置不在预设显示位置时,计算当前显示位置和预设显示位置之间的偏移量;
根据偏移量将对焦后的图像移动至预设显示位置。
本申请实施例提供一种图像显示装置,包括:图像获取单元获取佩戴AR眼镜的用户的眼球的反射图像;物体确定单元根据反射图像,确定用户注视的物体;图像显示单元控制AR眼镜的摄像头对焦到物体上,并通过显示单元显示对焦后的图像。因此用户使用图像显示装置时,可以直接基于用户注视的物体控制AR眼镜的摄像头的对焦倍数,不需要用户手动调节摄像头的对焦倍数,可以减少图像显示步骤,减少图像显示时间,进而可以提高图像显示的效率。另外,用户使用图像显示装置时,可以直接基于用户注视的物体控制AR眼镜的摄像头的对焦倍数,可以减少摄像头对焦不到用户注视的物体的情况,进而可以提高用户的使用体验。
请参见图11,为本申请实施例提供的一种AR眼镜的结构示意图。如图11所示,所述AR眼镜1100可以包括:至少一个处理器1101,至少一个网络接口1104,用户接口1103,存储器1105,至少一个通信总线1102。
其中,通信总线1102用于实现这些组件之间的连接通信。
其中,用户接口1103可以包括显示屏(Display)和GPS,可选用户接口1103还可以包括标准的有线接口、无线接口。
其中,网络接口1104可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。
其中,处理器1101可以包括一个或者多个处理核心。处理器1101利用各种借口和线路连接整个AR眼镜1100内的各个部分,通过运行或执行存储在存储器1105内的指令、程序、代码集或指令集,以及调用存储在存储器1105内的数据,执行AR眼镜1100的各种功能和处理数据。可选的,处理器1101可以采用数字信号处理(Digital Signal Processing,DSP)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、可编程逻辑阵列(Programmable Logic Array,PLA)中的至少一种硬件形式来实现。处理器1101可集成中央处理器(Central Processing Unit,CPU)、图像处理器(Graphics Processing Unit,GPU)和调制解调器等中的一种或几种的组合。其中,CPU主要处理操作系统、用户界面和应用程序等;GPU用于负责显示屏所需要显示的内容的渲染和绘制;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器1101中,单独通过一块芯片进行实现。
其中,存储器1105可以包括随机存储器(Random Access Memory,RAM),也可以包括只读存储器(Read-Only Memory)。可选的,该存储器1105包括非瞬时性计算机可读介质(non-transitory computer-readable storage medium)。存储器1105可用于存储指令、程序、代码、代码集或指令集。存储器1105可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作系统的指令、用于至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现上述各个方法实施例的指令等;存储数据区可存储上面各个方法实施例中涉及到的数据等。存储器1105可选的还可以是至少一个位于远离前述处理器1101的存储装置。如图11所示,作为一种计算机存储介质的存储器1105中可以包括操作系统、网络通信模块、用户接口模块以及用于图像显示的应用程序。
在图11所示的AR眼镜1100中,用户接口1103主要用于为用户提供输入的接口,获取用户输入的数据;而处理器1101可以用于调用存储器1105中存储的应用程序,并具体执行以下操作:
获取佩戴AR眼镜的用户的眼球的反射图像;
根据反射图像,确定用户注视的物体;
控制AR眼镜的摄像头对焦到物体上,并通过显示单元显示对焦后的图像。
根据一些实施例,处理器1101执行根据反射图像中确定用户注视的物体时,具体执行以下操作:
确定用户的注视方向;
根据注视方向确定用户在当前场景中注视的物体。
根据一些实施例,处理器1101执行根据反射图像中确定用户注视的物体时,具体执行以下操作:
根据人工智能识别模型和反射图像,确定用户注视的物体。
根据一些实施例,处理器1101执行控制AR眼镜的摄像头对焦到物体上时,具体执行以下操作:
测量用户到物体之间的距离;
根据距离调节摄像头的焦距,以使摄像头的对焦到物体上。
根据一些实施例,处理器1101执行测量用户到物体之间的距离时,具体执行以下操作:
发射探测激光信号;
根据探测激光信号的传输时间,测量用户到物体之间的距离。
根据一些实施例,处理器1101执行控制AR眼镜的摄像头对焦到物体上,并通过显示单元显示对焦后的图像之后,还具体执行以下操作:
在对焦后的图像的尺寸不符合预设尺寸时,将对焦后的图像缩放至预设尺寸;
显示缩放后的图像。
根据一些实施例,处理器1101用于控制AR眼镜的摄像头对焦到物体上,并通过显示单元显示对焦后的图像之后,还具体执行以下操作:
获取对焦后图像在显示单元上的当前显示位置;
在当前显示位置不在预设显示位置时,计算当前显示位置和预设显示位置之间的偏移量;
根据偏移量将对焦后的图像移动至预设显示位置。
本申请实施例提供一种AR眼镜,通过获取佩戴AR眼镜的用户的眼球的反射图像;根据反射图像,确定用户注视的物体;控制AR眼镜的摄像头对焦到物体上,并通过显示单元显示对焦后的图像。因此用户使用AR眼镜时,可以直接基于用户注视的物体控制AR眼镜的摄像头的对焦倍数,并通过显示单元显示对焦后的图像,不需要用户手动调节摄像头的对焦倍数,可以减少图像显示步骤,减少图像显示时间,可以提高图像显示的效率,进而可以提高用户的使用体验。
本申请还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述方法的步骤。其中,计算机可读存储介质可以包括但不限于任何类型的盘,包括软盘、光盘、DVD、CD-ROM、微型驱动器以及磁光盘、ROM、RAM、EPROM、EEPROM、DRAM、VRAM、闪速存储器设备、磁卡或光卡、纳米系统(包括分子存储器IC),或适合于存储指令和/或数据的任何类型的媒介或设备。
本申请实施例还提供一种计算机程序产品,该计算机程序产品包括存储计算机程序的非瞬时性计算机可读存储介质,该计算机程序可操作来使计算机执行如上述方法实施例中记载的任何一种的部分或全部步骤。
本领域的技术人员可以清楚地了解到本申请的技术方案可借助软件和/或硬件来实现。本说明书中的“单元”和“模块”是指能够独立完成或与其他部件配合完成特定功能的软件和/或硬件,其中硬件例如可以是现场可编程门阵列(Field-ProgrammaBLE GateArray,FPGA)、集成电路(Integrated Circuit,IC)等。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置,可通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些服务接口,装置或单元的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储器中。根据这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储器包括:U盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通进程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储器中,存储器可以包括:闪存盘、只读存储器(Read-Only Memory,ROM)、随机存取器(Random AccessMemory,RAM)、磁盘或光盘等。
以上所述者,仅为本公开的示例性实施例,不能以此限定本公开的范围。即但凡依本公开教导所作的等效变化与修饰,皆仍属本公开涵盖的范围内。本领域技术人员在考虑说明书及实践这里的公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未记载的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的范围和精神由权利要求限定。

Claims (7)

1.一种图像显示方法,其特征在于,所述方法包括:
获取佩戴AR眼镜的用户的眼球的反射图像;
根据所述反射图像,确定所述用户注视的物体;
控制所述AR眼镜的摄像头对焦到所述物体上,并通过显示单元显示对焦后的图像;
所述控制所述AR眼镜的摄像头对焦到所述物体上,包括:
测量所述用户到所述物体之间的距离;
根据所述距离调节所述摄像头的焦距,以使所述摄像头的对焦到所述物体上;
所述控制所述AR眼镜的摄像头对焦到所述物体上,并通过显示单元显示对焦后的图像之后,还包括:
在所述对焦后的图像的尺寸不符合预设尺寸时,对所述对焦后的图像缩放至所述预设尺寸;
显示缩放后的图像;
所述控制所述AR眼镜的摄像头对焦到所述物体上,并通过显示单元显示对焦后的图像之后,还包括:
获取所述对焦后图像在所述显示单元上的当前显示位置;
在所述当前显示位置不在预设显示位置时,计算所述当前显示位置和所述预设显示位置之间的偏移量;
根据所述偏移量将所述对焦后的图像移动至所述预设显示位置。
2.根据权利要求1所述的图像显示方法,其特征在于,所述根据所述反射图像中确定所述用户注视的物体,包括:
确定用户的注视方向;
根据所述注视方向确定用户在当前场景中注视的物体。
3.根据权利要求1所述的图像显示方法,其特征在于,所述根据所述反射图像中确定所述用户注视的物体,包括:
根据人工智能识别模型和所述反射图像,确定所述用户注视的所述物体。
4.根据权利要求1所述的图像显示方法,其特征在于,所述测量所述用户到所述物体之间的距离,包括:
发射探测激光信号;
根据所述探测激光信号的传输时间,测量所述用户到所述物体之间的距离。
5.一种图像显示装置,其特征在于,所述装置包括:
图像获取单元,用于获取佩戴AR眼镜的用户的眼球的反射图像;
物体确定单元,用于根据所述反射图像,确定所述用户注视的物体;
图像显示单元,用于控制所述AR眼镜的摄像头对焦到所述物体上,并通过显示单元显示对焦后的图像;
图像显示单元,用于控制AR眼镜的摄像头对焦到物体上时,具体用于:
测量用户到物体之间的距离;
根据距离调节摄像头的焦距,以使摄像头的对焦到物体上;
图像显示单元,用于控制AR眼镜的摄像头对焦到物体上,并通过显示单元显示对焦后的图像之后,还具体用于:
在对焦后的图像的尺寸不符合预设尺寸时,将对焦后的图像缩放至预设尺寸;
显示缩放后的图像;
图像显示装置还包括图像移动单元,用于控制AR眼镜的摄像头对焦到物体上,并通过显示单元显示对焦后的图像之后,获取对焦后图像在显示单元上的当前显示位置;
在当前显示位置不在预设显示位置时,计算当前显示位置和预设显示位置之间的偏移量;
根据偏移量将对焦后的图像移动至预设显示位置。
6.一种AR眼镜,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述权利要求1-4中任一项所述的图像显示方法。
7.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现上述权利要求1-4中任一项所述的图像显示方法。
CN202010689320.8A 2020-07-17 2020-07-17 图像显示方法、装置、ar眼镜及存储介质 Active CN113960788B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010689320.8A CN113960788B (zh) 2020-07-17 2020-07-17 图像显示方法、装置、ar眼镜及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010689320.8A CN113960788B (zh) 2020-07-17 2020-07-17 图像显示方法、装置、ar眼镜及存储介质

Publications (2)

Publication Number Publication Date
CN113960788A CN113960788A (zh) 2022-01-21
CN113960788B true CN113960788B (zh) 2023-11-14

Family

ID=79459319

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010689320.8A Active CN113960788B (zh) 2020-07-17 2020-07-17 图像显示方法、装置、ar眼镜及存储介质

Country Status (1)

Country Link
CN (1) CN113960788B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114363599A (zh) * 2022-02-24 2022-04-15 北京蜂巢世纪科技有限公司 基于电子变焦的追焦距方法、系统、终端及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101520690A (zh) * 2006-09-08 2009-09-02 索尼株式会社 图像获取和显示设备以及图像获取和显示方法
CN103499885A (zh) * 2013-09-30 2014-01-08 北京智谷睿拓技术服务有限公司 成像装置和方法
CN103795926A (zh) * 2014-02-11 2014-05-14 惠州Tcl移动通信有限公司 利用眼球跟踪技术控制拍照对焦的方法、系统及拍照设备
CN105353512A (zh) * 2015-12-10 2016-02-24 联想(北京)有限公司 一种图像显示方法和图像显示装置
CN106199958A (zh) * 2015-05-07 2016-12-07 尚立光电股份有限公司 自动调焦头戴式显示装置
CN108924533A (zh) * 2018-08-17 2018-11-30 Oppo(重庆)智能科技有限公司 增强现实显示方法和装置、存储介质、增强现实设备
CN109917908A (zh) * 2019-02-01 2019-06-21 谷东科技有限公司 一种ar眼镜的图像获取方法及系统
CN109963143A (zh) * 2019-02-01 2019-07-02 谷东科技有限公司 一种ar眼镜的图像获取方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9304319B2 (en) * 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101520690A (zh) * 2006-09-08 2009-09-02 索尼株式会社 图像获取和显示设备以及图像获取和显示方法
CN103499885A (zh) * 2013-09-30 2014-01-08 北京智谷睿拓技术服务有限公司 成像装置和方法
CN103795926A (zh) * 2014-02-11 2014-05-14 惠州Tcl移动通信有限公司 利用眼球跟踪技术控制拍照对焦的方法、系统及拍照设备
CN106199958A (zh) * 2015-05-07 2016-12-07 尚立光电股份有限公司 自动调焦头戴式显示装置
CN105353512A (zh) * 2015-12-10 2016-02-24 联想(北京)有限公司 一种图像显示方法和图像显示装置
CN108924533A (zh) * 2018-08-17 2018-11-30 Oppo(重庆)智能科技有限公司 增强现实显示方法和装置、存储介质、增强现实设备
CN109917908A (zh) * 2019-02-01 2019-06-21 谷东科技有限公司 一种ar眼镜的图像获取方法及系统
CN109963143A (zh) * 2019-02-01 2019-07-02 谷东科技有限公司 一种ar眼镜的图像获取方法及系统

Also Published As

Publication number Publication date
CN113960788A (zh) 2022-01-21

Similar Documents

Publication Publication Date Title
US11694353B2 (en) Single depth tracked accommodation-vergence solutions
CN109086726B (zh) 一种基于ar智能眼镜的局部图像识别方法及系统
CN106484116B (zh) 媒体文件的处理方法和装置
US10055889B2 (en) Automatic focus improvement for augmented reality displays
US11024083B2 (en) Server, user terminal device, and control method therefor
US20230141039A1 (en) Immersive displays
EP3289401B1 (en) Virtual eyeglass set for viewing actual scene that corrects for different location of lenses than eyes
CN106327584B (zh) 一种用于虚拟现实设备的图像处理方法及装置
CN111727077A (zh) 利用跟踪显示设备控制图像显示
CN108398787B (zh) 增强现实显示设备、方法和增强现实眼镜
CN104656257A (zh) 信息处理方法及电子设备
CN109283997A (zh) 显示方法、装置和系统
CN113960788B (zh) 图像显示方法、装置、ar眼镜及存储介质
CN110433062A (zh) 一种基于动态视频影像的视功能训练系统
CN107111366B (zh) 用于使感觉输出装置的感觉输出模式与使用者适配的方法
EP3340013A1 (en) A gazed object identification module, a system for implementing gaze translucency, and a related method
CN113855498A (zh) 三维视觉训练方法及系统
KR20200143504A (ko) 단일 깊이 추적 순응-수렴 솔루션
MX2009008484A (es) Anteojos vision estereoscopica y periferica 3d.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant