CN118096588A - 基于ar的虚拟现实缝补方法和装置、存储介质、ar眼镜 - Google Patents

基于ar的虚拟现实缝补方法和装置、存储介质、ar眼镜 Download PDF

Info

Publication number
CN118096588A
CN118096588A CN202410112426.XA CN202410112426A CN118096588A CN 118096588 A CN118096588 A CN 118096588A CN 202410112426 A CN202410112426 A CN 202410112426A CN 118096588 A CN118096588 A CN 118096588A
Authority
CN
China
Prior art keywords
information
user
observation target
virtual reality
based virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202410112426.XA
Other languages
English (en)
Inventor
张强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Geely Holding Group Co Ltd
Zhejiang Zeekr Intelligent Technology Co Ltd
Original Assignee
Zhejiang Geely Holding Group Co Ltd
Zhejiang Zeekr Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Geely Holding Group Co Ltd, Zhejiang Zeekr Intelligent Technology Co Ltd filed Critical Zhejiang Geely Holding Group Co Ltd
Priority to CN202410112426.XA priority Critical patent/CN118096588A/zh
Publication of CN118096588A publication Critical patent/CN118096588A/zh
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种基于AR的虚拟现实缝补方法和装置、存储介质、AR眼镜,其中,基于AR的虚拟现实缝补方法包括:获取用户的瞳孔变化量、焦距变化量和物品观影信息;根据瞳孔变化量和焦距变化量对用户的观察目标进行边缘模糊处理,以及根据瞳孔变化量、焦距变化量和物品观影信息对用户的观察目标进行仿生处理。由此,在根据瞳孔变化量、焦距变化量和物品观影信息对观察目标进行边缘模糊处理和仿生处理后,可以优化观察目标和周围环境的衔接感,进而提高用户的视觉体验。

Description

基于AR的虚拟现实缝补方法和装置、存储介质、AR眼镜
技术领域
本发明涉及AR眼镜设备技术领域,尤其涉及一种基于AR的虚拟现实缝补方法、一种计算机可读存储介质、一种基于AR的虚拟现实缝补装置和一种AR眼镜。
背景技术
目前的AR眼镜在虚拟影像和现实结合的功能方面具有突兀感,例如,在用户未佩戴AR眼镜的情况下,人眼的视线焦点在手掌上时,手掌周围环境都迷糊化了,手掌和周围模糊的环境衔接的很自然,而相关技术中,在用户佩戴AR眼镜后,如果在手掌上出现一个小恐龙,人眼的视线焦点在小恐龙上时,小恐龙周围的环境虽然是模糊化的,小恐龙和周围模糊的环境衔接得不够自然,有明显的界限,进而影响用户的视觉体验。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。为此,本发明的第一个目的在于提出一种基于AR的虚拟现实缝补方法,在根据瞳孔变化量、焦距变化量和物品观影信息对观察目标进行边缘模糊处理和仿生处理后,可以优化观察目标和周围环境的衔接感,进而提高用户的视觉体验。
本发明的第二个目的在于提出一种计算机可读存储介质。
本发明的第三个目的在于提出一种基于AR的虚拟现实缝补装置。
本发明的第四个目的在于提出一种AR眼镜。
为了达到上述目的,本发明第一方面实施例提出了一种基于AR的虚拟现实缝补方法,所述方法包括:获取用户的瞳孔变化量、焦距变化量和物品观影信息;根据所述瞳孔变化量和所述焦距变化量对所述用户的观察目标进行边缘模糊处理,以及根据所述瞳孔变化量、所述焦距变化量和所述物品观影信息对所述用户的观察目标进行仿生处理。
根据本发明实施例提出的基于AR的虚拟现实缝补方法,在根据瞳孔变化量、焦距变化量和物品观影信息对观察目标进行边缘模糊处理和仿生处理后,可以优化观察目标和周围环境的衔接感,进而提高用户的视觉体验。
另外,根据本发明上述实施例的基于AR的虚拟现实缝补方法,还可以包括如下的附加技术特征:
根据本发明的一个实施例,所述方法还包括:获取所述用户的眼睛实时变化信息;根据所述眼睛实时变化信息适配所述观察目标的显示信息。
根据本发明的一个实施例,所述眼睛实时变化信息包括眼睛瞳孔实时变化信息、视锥细胞和视杆细胞的敏感度;所述观察目标的显示信息包括所述观察目标的光面颗粒感信息、所述观察目标的移动速度。
根据本发明的一个实施例,所述方法还包括:获取所述用户的视线信息;根据所述用户的视线信息对所述观察目标进行定位。
根据本发明的一个实施例,所述方法还包括:根据所述用户的视线信息确定所述用户的非视线内区域;获取所述观察目标当前所处环境的光线信息和所述用户的眼睛聚焦信息;根据所述光线信息和所述眼睛聚焦信息对所述非视线内区域进行处理。
根据本发明的一个实施例,根据所述光线信息和所述眼睛聚焦信息对所述非视线内区域进行处理,包括:根据所述光线信息和所述眼睛聚焦信息对所述非视线内区域进行模糊处理,或者根据所述光线信息和所述眼睛聚焦信息对所述非视线内区域进行锐化处理。
根据本发明的一个实施例,所述方法还包括:获取所述观察目标在所述用户的左眼中的第一图像和右眼中的第二图像;比较所述第一图像和所述第二图像以确定相同部分图像;将所述第一图像的相同部分图像和所述第二图像的相同部分图像进行重叠处理。
为了达到上述目的,本发明第二方面实施例提出了一种计算机可读存储介质,其上存储有基于AR的虚拟现实缝补程序,该基于AR的虚拟现实缝补程序被处理器执行时实现前述本发明实施例的基于AR的虚拟现实缝补方法。
根据本发明实施例的计算机可读存储介质,通过处理器执行基于AR的虚拟现实缝补程序,可以优化观察目标和周围环境的衔接感,进而提高用户的视觉体验。
为了达到上述目的,本发明第三方面实施例提出了一种基于AR的虚拟现实缝补装置,所述装置包括:获取模块,用于获取用户的瞳孔变化量、焦距变化量和物品观影信息;控制模块,用于根据所述瞳孔变化量和所述焦距变化量对所述用户的观察目标进行边缘模糊处理,以及根据所述瞳孔变化量、所述焦距变化量和所述物品观影信息对所述用户的观察目标进行仿生处理。
根据本发明实施例提出的基于AR的虚拟现实缝补装置,在通过控制模块根据瞳孔变化量、焦距变化量和物品观影信息对观察目标进行边缘模糊处理和仿生处理后,可以优化观察目标和周围环境的衔接感,进而提高用户的视觉体验。
为了达到上述目的,本发明第四方面实施例提出了一种AR眼镜,包括前述本发明实施例的基于AR的虚拟现实缝补装置。
根据本发明实施例提出的AR眼镜,通过采用本发明上述实施例的基于AR的虚拟现实缝补装置,可以优化观察目标和周围环境的衔接感,进而提高用户的视觉体验。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
图1是根据本发明一个实施例中基于AR的虚拟现实缝补方法的流程示意图;
图2是根据本发明另一个实施例中基于AR的虚拟现实缝补方法的流程示意图;
图3是根据本发明另一个实施例中基于AR的虚拟现实缝补方法的流程示意图;
图4是根据本发明另一个实施例中基于AR的虚拟现实缝补方法的流程示意图;
图5是根据本发明另一个实施例中基于AR的虚拟现实缝补方法的流程示意图;
图6根据本发明实施例中基于AR的虚拟现实缝补装置的方框示意图;
图7是根据本发明实施例中AR眼镜的方框示意图。
具体实施方式
下面详细描述本发明的实施例,实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参考附图描述本发明实施例的基于AR的虚拟现实缝补方法、计算机可读存储介质、基于AR的虚拟现实缝补装置和AR眼镜。
图1是根据本发明一个实施例中基于AR的虚拟现实缝补方法的流程示意图。
具体而言,在本发明的一些实施例中,如图1所示,基于AR的虚拟现实缝补方法包括:
S101,获取用户的瞳孔变化量、焦距变化量和物品观影信息。
具体地,在该实施例中,可以通过安装摄像头的方式获取用户的瞳孔变化量、焦距变化量和物品观影信息,此外,本发明可以不对获取用户的瞳孔变化量、焦距变化量和物品观影信息的方式进行具体限定。例如,还可以通过眼动仪来获取用户的瞳孔变化量、焦距变化量和物品观影信息。
需要说明的是,瞳孔变化量指的是眼镜通过的大小变化程度,可以通过瞳孔测量仪或者眼动仪等设备来检测眼镜瞳孔的大小变化,进而获取瞳孔变化量。焦距变化量指的是眼镜晶状体的弹性调节程度,可以通过眼动仪等设备来检测眼镜晶状体的调节情况,进而获取焦距变化量。
物品观影信息指的是用户观看物品时物品所展示的信息,可以包括光影信息、光面颗粒感信息和反射信息等表面特征信息。可以安装摄像头以及进行光谱分析的方式获取物品观影信息。
S102,根据瞳孔变化量和焦距变化量对用户的观察目标进行边缘模糊处理,以及根据瞳孔变化量、焦距变化量和物品观影信息对用户的观察目标进行仿生处理。
具体地,在该实施例中,观察目标可以为AR眼镜中屏幕上显示的虚拟内容,可以根据用户的瞳孔变化量和焦距变化量,判断用户的视线聚焦在观察目标上,然后可以使用实时渲染技术和高斯模糊技术对该观察目标的边缘进行模糊处理,例如,在用户佩戴AR眼镜时,检测到用户的瞳孔变大或焦距变短时,可以判断用户的视线聚焦在AR眼镜中屏幕上的某个观察目标上,可以通过高斯模糊技术对该观察目标的边缘进行模糊处理,以模拟现实中用户观看物品的边缘模糊效果,进而使AR眼镜中的虚拟观察目标与现实环境更加融合。此外,本发明可以不对用户的观察目标进行边缘模糊处理所采用的技术手段进行具体限定。
用户观察现实环境中的物品的瞳孔变化量、焦距变化量和物品观影信息可以实时上传至云端进行存储,进而我们可以根据瞳孔变化量、焦距变化量和物品观影信息并采用图像处理技术和人工智能算法对用户的观察目标进行仿生处理,例如,在用户佩戴AR眼镜时,在用户通过AR眼镜看到现实中的宠物狗时,AR眼镜会将用户此时的瞳孔变化量、焦距变化量和物品观影信息上传至云端,进而可以根据瞳孔变化量、焦距变化量和物品观影信息对AR眼镜中屏幕上的虚拟宠物狗进行仿生处理,通过调整AR眼镜屏幕的参数,如亮度、对比度和色彩等,进而可以将现实中观看宠物狗上的光影变化,以及宠物狗身上因为光的照射所产生的反射和光面的颗粒感等数据应用到AR眼镜中屏幕上的虚拟宠物狗上面,从而可以提供更具沉浸感和真实感的视觉体验。此外,本发明可以不对用户的观察目标进行仿生处理所采用的技术手段进行具体限定。
进一步地,在本发明的一些实施例中,如图2所示,基于AR的虚拟现实缝补方法还包括:
S201,获取用户的眼睛实时变化信息。
具体地,在该实施例中,眼睛实时变化信息可以包括眼睛瞳孔实时变化信息、视锥细胞和视杆细胞的敏感度,可以通过眼动仪和视觉测试设备获取用户的眼睛实时变化信息,此外,本发明可以不对获取用户的眼睛实时变化信息的方式进行具体限定。
S202,根据眼睛实时变化信息适配观察目标的显示信息。
具体地,在该实施例中,观察目标的显示信息包括观察目标的光面颗粒感信息、观察目标的移动速度,进而可以根据眼睛瞳孔实时变化信息、视锥细胞和视杆细胞的敏感度适配观察目标的光面颗粒感信息、观察目标的移动速度,例如,可以通过AR眼镜内置的眼动追踪传感器,实时监测用户的眼睛瞳孔实时变化信息、视锥细胞和视杆细胞的敏感度等信息,以获取用户对观察目标的注意力和兴趣,进而可以调整观察目标的光面颗粒感信息,使其与用户的观察行为相匹配,减少因观察目标与用户的视觉感知不一致而引起的眩晕感。
以及通过视觉运动补偿技术来分析用户的视觉感知和眼球运动的关系,可以根据视锥细胞和视杆细胞的敏感度等信息,对观察目标的移动速度进行补偿,样可以减少用户在佩戴AR眼镜时因观察目标的移动速度过快或不一致而引起的眩晕感。
还可以通过渐进式显示技术,在AR眼镜的显示屏上,逐渐增加观察目标的光面颗粒感信息和移动速度,而不是突然出现或快速移动,进而可以更好地适应用户的视觉感知和眼球运动,减少眩晕的发生。
进一步地,在本发明的一些实施例中,如图3所示,基于AR的虚拟现实缝补方法还包括:
S301,获取用户的视线信息。
具体地,在该实施例中,用户的视线信息包括用户的视线方向和注视点,可以通过AR眼镜内置的眼动追踪传感器来实时监测用户的眼睛运动信息,进而通过眼睛运动信息确定用户的视线信息。此外,本发明可以不对获取用户的眼睛运动信息的方式进行具体限定。
S302,根据用户的视线信息对观察目标进行定位。
具体地,在该实施例中,根据用户的视线信息,可以将观察目标在AR场景中进行定位,这可以通过将用户的视线方向与AR场景中的虚拟对象进行比对,以确定用户当前注视的虚拟对象。
需要说明的是,根据用户的视线信息可以通过调整观察对象的位置、角度和大小等参数,使AR眼镜所确定的观察目标的坐标展示内容与用户自认为的观察目标的展示内容尽可能的进行匹配,进而可以避免用户移动过程中观察到的观察目标出现视觉错位,从而使用户观察到的目标更准确。
进一步地,在本发明的一些实施例中,如图4所示,基于AR的虚拟现实缝补方法还包括:
S401,根据用户的视线信息确定用户的非视线内区域。
具体地,在该实施例中,根据用户的视线信息可以确定用户当前注视的区域,进而可以确定用户的非视线内区域。
S402,获取观察目标当前所处环境的光线信息和用户的眼睛聚焦信息。
具体地,在该实施例中,可以通过安装光照传感器来获取观察目标当前所处环境的光线信息,可以通过眼动追踪设备来获取用户的眼镜聚焦信息,此外,本发明可以不对获取观察目标当前所处环境的光线信息和用户的眼睛聚焦信息的方式进行具体限定。
S403,根据光线信息和眼睛聚焦信息对非视线内区域进行处理。
具体地,在该实施例中,根据光线信息和眼睛聚焦信息对非视线内区域进行模糊处理,或者根据光线信息和眼睛聚焦信息对非视线内区域进行锐化处理,使非视线区域与视线区域的过度更加平滑,进而为用户更加真实的视觉体验。
进一步地,在本发明的一些实施例中,如图5所示,基于AR的虚拟现实缝补方法还包括:
S501,获取观察目标在用户的左眼中的第一图像和右眼中的第二图像。
具体地,在该实施例中,可以在AR眼镜的前部或侧部安装双目摄像头,进而可以通过双目摄像头采集到两个不同视角的图像信息,再通过计算机视觉算法将两个不同视角的图像信息进行处理,从而可以获取观察目标在用户的左眼中的第一图像和右眼中的第二图像,此外,本发明可以不对获取观察目标在用户的左眼中的第一图像和右眼中的第二图像的方法进行具体限定。
S502,比较第一图像和第二图像以确定相同部分图像。
具体地,在该实施例中,比较第一图像和第二图像以确定相同部分图像,例如,可以将AR眼镜的画面图像从左至右氛围A、B、C三个区域,其中第一图像包含A和B两个区域,第二图像包含B和C两个区域,此时则可以确定第一图像和第二图像的相同区域为B区域。
S503,将第一图像的相同部分图像和第二图像的相同部分图像进行重叠处理。
具体地,在该实施例中,可以将第一图像的相同部分图像和第二图像的相同部分图像进行重叠处理,例如,可以将AR眼镜的画面图像从左至右氛围A、B、C三个区域,其中第一图像包含A和B两个区域,第二图像包含B和C两个区域,此时将第一图像的B区域和第二图像的B区域进行重叠处理,进而可以使用户看到的观察目标更加立体和真实,从而提高了用户的视觉体验。
综上,根据本发明实施例提出的基于AR的虚拟现实缝补方法,在根据瞳孔变化量、焦距变化量和物品观影信息对观察目标进行边缘模糊处理和仿生处理后,可以优化观察目标和周围环境的衔接感,进而提高用户的视觉体验。
基于前述本发明实施例提出的基于AR的虚拟现实缝补方法,本发明实施例还提出了一种计算机可读存储介质,其上存储有基于AR的虚拟现实缝补程序,该基于AR的虚拟现实缝补程序被处理器执行时实现上述本发明实施例的基于AR的虚拟现实缝补方法。
根据本发明实施例的计算机可读存储介质,通过处理器执行基于AR的虚拟现实缝补程序,可以优化观察目标和周围环境的衔接感,进而提高用户的视觉体验。
图6是根据本发明实施例中基于AR的虚拟现实缝补装置的方框示意图。
具体地,如图6所示,基于AR的虚拟现实缝补装置100包括获取模块10和控制模块20。
其中,获取模块10用于获取用户的瞳孔变化量、焦距变化量和物品观影信息;控制模块20用于根据瞳孔变化量和焦距变化量对用户的观察目标进行边缘模糊处理,以及根据瞳孔变化量、焦距变化量和物品观影信息对用户的观察目标进行仿生处理。
在本发明的一些实施例中,获取模块10还用于获取用户的眼睛实时变化信息;根据眼睛实时变化信息适配观察目标的显示信息。
在本发明的一些实施例中,眼睛实时变化信息包括眼睛瞳孔实时变化信息、视锥细胞和视杆细胞的敏感度;观察目标的显示信息包括观察目标的光面颗粒感信息、观察目标的移动速度。
在本发明的一些实施例中,获取模块10还用于获取用户的视线信息;根据用户的视线信息对观察目标进行定位。
在本发明的一些实施例中,获取模块10还用于根据用户的视线信息确定用户的非视线内区域;获取观察目标当前所处环境的光线信息和用户的眼睛聚焦信息;根据光线信息和眼睛聚焦信息对非视线内区域进行处理。
在本发明的一些实施例中,根据光线信息和眼睛聚焦信息对非视线内区域进行处理,包括:根据光线信息和眼睛聚焦信息对非视线内区域进行模糊处理,或者根据光线信息和眼睛聚焦信息对非视线内区域进行锐化处理。
在本发明的一些实施例中,获取模块10还用于获取观察目标在用户的左眼中的第一图像和右眼中的第二图像;比较第一图像和第二图像以确定相同部分图像;将第一图像的相同部分图像和第二图像的相同部分图像进行重叠处理。
需要说明的是,本发明实施例提出的基于AR的虚拟现实缝补装置的其它具体实施方式,可以参见前述本发明实施例的基于AR的虚拟现实缝补方法的具体实施方式,为减少冗余,在此不再赘述。
综上,根据本发明实施例提出的基于AR的虚拟现实缝补装置,在通过控制模块根据瞳孔变化量、焦距变化量和物品观影信息对观察目标进行边缘模糊处理和仿生处理后,可以优化观察目标和周围环境的衔接感,进而提高用户的视觉体验。
图7是根据本发明实施例中AR眼镜的方框示意图。
如图7所示,AR眼镜1000包括上述本发明实施例的基于AR的虚拟现实缝补装置100。
根据本发明实施例提出的AR眼镜,通过采用本发明上述实施例的基于AR的虚拟现实缝补装置,可以优化观察目标和周围环境的衔接感,进而提高用户的视觉体验。
另外,本发明实施例的AR眼镜的其他构成及作用对本领域的技术人员来说是已知的,为减少冗余,此处不做赘述。
需要说明的是,在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”、“顺时针”、“逆时针”、“轴向”、“径向”、“周向”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,本发明实施例中所使用的“第一”、“第二”等术语,仅用于描述目的,而不可以理解为指示或者暗示相对重要性,或者隐含指明本实施例中所指示的技术特征数量。由此,本发明实施例中限定有“第一”、“第二”等术语的特征,可以明确或者隐含地表示该实施例中包括至少一个该特征。在本发明的描述中,词语“多个”的含义是至少两个或者两个及以上,例如两个、三个、四个等,除非实施例中另有明确具体的限定。
在本发明中,除非实施例中另有明确的相关规定或者限定,否则实施例中出现的术语“安装”、“相连”、“连接”和“固定”等应做广义理解,例如,连接可以是固定连接,也可以是可拆卸连接,或成一体,可以理解的,也可以是机械连接、电连接等;当然,还可以是直接相连,或者通过中间媒介进行间接连接,或者可以是两个元件内部的连通,或者两个元件的相互作用关系。对于本领域的普通技术人员而言,能够根据具体的实施情况理解上述术语在本发明中的具体含义。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (10)

1.一种基于AR的虚拟现实缝补方法,其特征在于,所述方法包括:
获取用户的瞳孔变化量、焦距变化量和物品观影信息;
根据所述瞳孔变化量和所述焦距变化量对所述用户的观察目标进行边缘模糊处理,以及根据所述瞳孔变化量、所述焦距变化量和所述物品观影信息对所述用户的观察目标进行仿生处理。
2.根据权利要求1所述的基于AR的虚拟现实缝补方法,其特征在于,所述方法还包括:
获取所述用户的眼睛实时变化信息;
根据所述眼睛实时变化信息适配所述观察目标的显示信息。
3.根据权利要求2所述的基于AR的虚拟现实缝补方法,其特征在于,所述眼睛实时变化信息包括眼睛瞳孔实时变化信息、视锥细胞和视杆细胞的敏感度;所述观察目标的显示信息包括所述观察目标的光面颗粒感信息、所述观察目标的移动速度。
4.根据权利要求1所述的基于AR的虚拟现实缝补方法,其特征在于,所述方法还包括:
获取所述用户的视线信息;
根据所述用户的视线信息对所述观察目标进行定位。
5.根据权利要求4所述的基于AR的虚拟现实缝补方法,其特征在于,所述方法还包括:
根据所述用户的视线信息确定所述用户的非视线内区域;
获取所述观察目标当前所处环境的光线信息和所述用户的眼睛聚焦信息;
根据所述光线信息和所述眼睛聚焦信息对所述非视线内区域进行处理。
6.根据权利要求5所述的基于AR的虚拟现实缝补方法,其特征在于,根据所述光线信息和所述眼睛聚焦信息对所述非视线内区域进行处理,包括:
根据所述光线信息和所述眼睛聚焦信息对所述非视线内区域进行模糊处理,或者根据所述光线信息和所述眼睛聚焦信息对所述非视线内区域进行锐化处理。
7.根据权利要求1所述的基于AR的虚拟现实缝补方法,其特征在于,所述方法还包括:
获取所述观察目标在所述用户的左眼中的第一图像和右眼中的第二图像;
比较所述第一图像和所述第二图像以确定相同部分图像;
将所述第一图像的相同部分图像和所述第二图像的相同部分图像进行重叠处理。
8.一种计算机可读存储介质,其特征在于,其上存储有基于AR的虚拟现实缝补程序,该基于AR的虚拟现实缝补程序被处理器执行时实现根据权利要求1-7中任一项所述的基于AR的虚拟现实缝补方法。
9.一种基于AR的虚拟现实缝补装置,其特征在于,所述装置包括:
获取模块,用于获取用户的瞳孔变化量、焦距变化量和物品观影信息;
控制模块,用于根据所述瞳孔变化量和所述焦距变化量对所述用户的观察目标进行边缘模糊处理,以及根据所述瞳孔变化量、所述焦距变化量和所述物品观影信息对所述用户的观察目标进行仿生处理。
10.一种AR眼镜,其特征在于,包括权利要求9所述的基于AR的虚拟现实缝补装置。
CN202410112426.XA 2024-01-25 2024-01-25 基于ar的虚拟现实缝补方法和装置、存储介质、ar眼镜 Pending CN118096588A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410112426.XA CN118096588A (zh) 2024-01-25 2024-01-25 基于ar的虚拟现实缝补方法和装置、存储介质、ar眼镜

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410112426.XA CN118096588A (zh) 2024-01-25 2024-01-25 基于ar的虚拟现实缝补方法和装置、存储介质、ar眼镜

Publications (1)

Publication Number Publication Date
CN118096588A true CN118096588A (zh) 2024-05-28

Family

ID=91152553

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410112426.XA Pending CN118096588A (zh) 2024-01-25 2024-01-25 基于ar的虚拟现实缝补方法和装置、存储介质、ar眼镜

Country Status (1)

Country Link
CN (1) CN118096588A (zh)

Similar Documents

Publication Publication Date Title
US11016301B1 (en) Accommodation based optical correction
US10984756B2 (en) Adaptive parameters in image regions based on eye tracking information
US11604509B1 (en) Event camera for eye tracking
US8913790B2 (en) System and method for analyzing three-dimensional (3D) media content
Mantiuk et al. Gaze-dependent depth-of-field effect rendering in virtual environments
US20170148215A1 (en) Eye Tracking for Mitigating Vergence and Accommodation Conflicts
Coutinho et al. Improving head movement tolerance of cross-ratio based eye trackers
JP2023500234A (ja) 眼追跡器を組み込む明視野ディスプレイと、眼追跡情報を使用して明視野ディスプレイのためのビューを生成するための方法
CN109901710B (zh) 媒体文件的处理方法和装置、存储介质及终端
EP2230988B1 (en) Method of simulating blur in digitally processed images
CN109885169B (zh) 基于三维眼球模型的眼球参数标定和视线方向跟踪方法
US20190331916A1 (en) Method and Device for Controlling Display of Image and Head-Mounted Display
US10778953B2 (en) Dynamic convergence adjustment in augmented reality headsets
US20220334636A1 (en) Display apparatuses and methods for calibration of gaze-tracking
CN113419350A (zh) 虚拟现实显示设备、画面呈现方法、装置及存储介质
KR20210072348A (ko) 사실적인 가상 현실을 위한 동적 포비티드 렌더링 방법
CN118096588A (zh) 基于ar的虚拟现实缝补方法和装置、存储介质、ar眼镜
KR20210108370A (ko) 디스플레이 장치를 위한 이미지 프로세싱 시스템 및 방법
JP3325323B2 (ja) 表示装置
CN111654688B (zh) 一种获取目标控制参数的方法与设备
CN115202475A (zh) 显示方法、装置、电子设备及计算机可读存储介质
US11270475B2 (en) Variable rendering system and method
CN115327782B (zh) 显示控制方法、装置、头戴显示设备以及可读存储介质
US20200393679A1 (en) Method and system for rendering an image with a pupil enhanced accommodation of the eye
CN115995117A (zh) 视线追踪方法、头戴显示设备及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination