CN116088676A - 人眼注视深度的获取方法、装置、电子设备以及存储介质 - Google Patents
人眼注视深度的获取方法、装置、电子设备以及存储介质 Download PDFInfo
- Publication number
- CN116088676A CN116088676A CN202211647038.9A CN202211647038A CN116088676A CN 116088676 A CN116088676 A CN 116088676A CN 202211647038 A CN202211647038 A CN 202211647038A CN 116088676 A CN116088676 A CN 116088676A
- Authority
- CN
- China
- Prior art keywords
- depth
- eye
- point cloud
- eyeball
- cloud information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请涉及一种人眼注视深度的获取方法、装置、电子设备以及存储介质,该方法包括:在人眼注视眼镜屏幕时,获取人眼的第一眼球3D点云信息;根据所述第一眼球3D点云信息,从已训练的若干种类型的人眼注视深度模型中确定目标人眼注视深度模型;在人眼注视所述眼镜屏幕之外时,根据获取的第二眼球3D点云信息以及所述目标人眼注视深度模型,获得对应的人眼注视深度。本申请实施例通过确定人眼对应的目标人眼注视深度模型,提高了获取人眼的注视深度的准确性。
Description
技术领域
本申请涉及智能眼镜技术领域,特别是涉及一种人眼注视深度的获取方法、装置、电子设备以及存储介质。
背景技术
增强现实(Augmented Reality,简称AR)技术是一种将虚拟信息与真实世界巧妙融合的技术,将计算机生成的文字、图像、三维模型、音乐、视频等虚拟信息模拟仿真后,应用到真实世界中,两种信息互为补充,从而实现对真实世界的“增强”。
在现有的AR技术中,缺乏准确获取用户注视深度信息的手段,导致AR设备只能将虚拟图像投影在固定的平面上,使得仿真的虚拟信息和现实中的环境信息融合度不高,使用户出现眩晕感。
发明内容
基于此,本申请的目的在于,提供一种人眼注视深度的获取方法、装置、电子设备以及存储介质,其可提高获取人眼的注视深度的准确性。
根据本申请实施例的第一方面,提供一种人眼注视深度的获取方法,包括如下步骤:
在人眼注视眼镜屏幕时,获取人眼的第一眼球3D点云信息;
根据所述第一眼球3D点云信息,从已训练的若干种类型的人眼注视深度模型中确定目标人眼注视深度模型;
在人眼注视所述眼镜屏幕之外时,根据获取的第二眼球3D点云信息以及所述目标人眼注视深度模型,获得对应的人眼注视深度。
根据本申请实施例的第二方面,提供一种人眼注视深度的获取装置,包括:
点云信息获取模块,用于在人眼注视眼镜屏幕时,获取人眼的第一眼球3D点云信息;
模型确定模块,用于根据所述第一眼球3D点云信息,从已训练的若干种类型的人眼注视深度模型中确定目标人眼注视深度模型;
注视深度获得模块,用于在人眼注视所述眼镜屏幕之外时,根据获取的第二眼球3D点云信息以及所述目标人眼注视深度模型,获得对应的人眼注视深度。
根据本申请实施例的第三方面,提供一种计算机设备,包括:处理器和存储器;其中,所述存储器存储有计算机程序,所述计算机程序适于由所述处理器加载并执行如上述任意一项所述的人眼注视深度的获取方法。
根据本申请实施例的第四方面,提供一种计算机可读存储介质,其上储存有计算机程序,该计算机程序被处理器执行时实现如上述任意一项所述的人眼注视深度的获取方法。
本申请实施例通过在人眼注视眼镜屏幕时,获取人眼的第一眼球3D点云信息;根据所述第一眼球3D点云信息,从已训练的若干种类型的人眼注视深度模型中确定目标人眼注视深度模型;在人眼注视所述眼镜屏幕之外时,根据获取的第二眼球3D点云信息以及所述目标人眼注视深度模型,获得对应的人眼注视深度。本申请实施例通过确定人眼对应的目标人眼注视深度模型,提高了获取人眼的注视深度的准确性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
为了更好地理解和实施,下面结合附图详细说明本发明。
附图说明
图1为本申请一个实施例提供的人眼注视深度的获取方法的流程示意图;
图2为本申请一个实施例提供的人眼注视深度的获取装置的结构框图;
图3为本申请一个实施例提供的电子设备的结构示意框图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施例方式作进一步地详细描述。
应当明确,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
在本申请实施例使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请实施例。在本申请实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。在本申请的描述中,需要理解的是,术语“第一”、“第二”、“第三”等仅用于区别类似的对象,而不必用于描述特定的顺序或先后次序,也不能理解为指示或暗示相对重要性。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本申请中的具体含义。
此外,在本申请的描述中,除非另有说明,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
本申请实施例中提供的人眼注视深度的获取方法可以由人眼注视深度的获取设备执行,该人眼注视深度的获取设备可以通过软件和/或硬件的方式实现,该人眼注视深度的获取设备可以是两个或多个物理实体构成,也可以是一个物理实体构成。所述人眼注视深度的获取设备可以为任何安装数据处理软件的电子设备,所述电子设备可以是电脑、手机、平板以及智能眼镜等智能设备。
为更好的理解本申请的技术方案,在此先简单介绍一些技术中的智能眼镜。智能眼镜包括主控装置和眼镜组件;主控装置包括主控芯片,主控芯片用于对眼镜组件传输的信号进行处理以及对眼镜组件进行控制。眼镜组件包括显示屏和后置摄像头,显示屏用于接收主控芯片传输的图像信息并进行显示,后置摄像头用于接收主控芯片传输的控制信号进行拍摄。具体地,后置摄像头设置在显示屏的外侧,可以对周围的环境进行拍摄,将拍摄的图像传输至主控芯片,从而实现用户在佩戴智能眼镜时能够与周围的环境进行交互。
在本申请实施例中,主控芯片可以可以执行本申请实施例中提供的人眼注视深度的获取方法。眼镜组件还包括3D扫描设备,3D扫描设备可以接收主控芯片传输的控制信号进行扫描。具体地,3D扫描设备设置在显示屏的内侧,可以采集用户的眼球3D信息,将用户的眼球3D信息传输至主控芯片。
实施例1
请参阅图1,其为本申请一个实施例提供的人眼注视深度的获取方法的流程示意图。本申请实施例提供的人眼注视深度的获取方法,包括如下步骤:
S10:在人眼注视眼镜屏幕时,获取人眼的第一眼球3D点云信息。
其中,眼镜屏幕为智能眼镜的显示屏幕,智能眼镜可以是AR眼镜以及MR眼镜。在智能眼镜内部,朝人眼方向设置有3D扫描设备,3D扫描设备用于获取人眼的眼球3D点云信息,3D扫描设备可以是3D结构光相机或者TOF相机,眼球3D点云信息可以是瞳孔大小或者瞳孔突起程度。
在本申请实施例中,用户佩戴智能眼镜,用户眼睛注视智能眼镜的显示屏幕时,智能眼镜内部的3D扫描设备对用户眼睛进行扫描,获得用户眼睛的第一眼球3D点云信息。
S20:根据第一眼球3D点云信息,从已训练的若干种类型的人眼注视深度模型中确定目标人眼注视深度模型。
其中,已训练的若干种类型的人眼注视深度模型是通过采集不同种类型人眼的不同注视深度以及对应的眼球3D点云信息训练得到。例如,对于四种类型人眼a,b,c,d,对应的已训练的人眼注视深度模型分别为A,B,C,D。
目标人眼注视深度模型为适合用户的人眼注视深度模型。
在本申请实施例中,可以是根据第一眼球3D点云信息以及已训练的各种类型的人眼注视深度模型的训练集中的眼球3D点云信息,确定目标人眼注视深度模型。也可以是根据第一眼球3D点云信息、人眼注视眼镜屏幕的注视深度以及已训练的各种类型的人眼注视深度模型,确定目标人眼注视深度模型。
S30:在人眼注视眼镜屏幕之外时,根据获取的第二眼球3D点云信息以及目标人眼注视深度模型,获得对应的人眼注视深度。
在本申请实施例中,用户眼睛注视智能眼镜的显示屏幕之外,可以是注视智能眼镜的显示屏幕的正前方(远离用户眼睛方向)不同距离的物体,也可以是注视智能眼镜的显示屏幕之外的左右两侧方向不同距离的物体,智能眼镜内部的3D扫描设备对用户眼睛进行扫描,获取用户眼睛的第二眼球3D点云信息。将用户眼睛的第二眼球3D点云信息输入至目标人眼注视深度模型,获得对应的人眼注视深度。
应用本申请实施例,通过在人眼注视眼镜屏幕时,获取人眼的第一眼球3D点云信息;根据第一眼球3D点云信息,从已训练的若干种类型的人眼注视深度模型中确定目标人眼注视深度模型;在人眼注视眼镜屏幕之外时,根据获取的第二眼球3D点云信息以及目标人眼注视深度模型,获得对应的人眼注视深度。本申请实施例通过确定人眼对应的目标人眼注视深度模型,提高了获取人眼的注视深度的准确性。
在一个可选的实施例中,步骤S10,包括S11~S12,具体如下:
S11:将眼镜屏幕划分为若干个单元格,遍历每个单元格,在当前单元格显示标志图标,获取人眼注视当前单元格的标志图标时的眼球3D点云信息,在下一个单元格显示标志图标,获取人眼注视下一个单元格的标志图标时的眼球3D点云信息,直至获取人眼注视每一个单元格的标志图标时的眼球3D点云信息。
S12:根据人眼注视每一个单元格的标志图标时的眼球3D点云信息,获得人眼的第一眼球3D点云信息。
在本申请实施例中,可以将眼镜屏幕划分为9个单元格,在采集到人眼注视第一个单元格的标志图标时的眼球3D点云信息后,切换下一个单元格放置标志图标,依次采集,直到采集完九个单元格对应的眼球3D点云信息。
考虑到某一个单元格对应的眼球3D点云信息由于某种原因,使得眼球的部分区域3D点云信息明显有误。例如,用红外方式实现的TOF相机,就有可能因为其他方向有红外光的干涉,导致TOF相机采集到的眼球3D点云信息噪声变大。因此,通过9个单元格对应的眼球3D点云信息补正出一个标准的眼球3D点云信息,作为人眼的第一眼球3D点云信息,从而提高获取人眼的第一眼球3D点云信息的准确性。
在一个可选的实施例中,步骤S20之前,包括S13~S14,具体如下:
S13:获取若干种类型的人眼的若干个样本注视深度以及对应的样本眼球3D点云信息;
S14:根据若干个样本注视深度以及对应的样本眼球3D点云信息,对若干种类型的人眼注视深度模型进行训练,获得已训练的若干种类型的人眼注视深度模型。
其中,不同人眼的视力情况以及瞳孔直径均不相同。可以根据视力情况将不同人眼划分为若干种类型的人眼,具体地,可以划分为正常视力、轻度近视(小于300度)、中度近视(300度~600度)、高度近视(大于600度)。也可以根据瞳孔直径将不同人眼划分为若干种类型的人眼,具体地,可以划分为瞳孔缩小(小于2.5mm)、瞳孔正常(2.5mm~4mm)、瞳孔散大(大于4mm)。
在本申请实施例中,对于属于同一种类型人眼的多个用户,采集每个用户注视多个预设距离的物体时对应的眼球3D点云信息,将多个预设距离作为样本注视深度,将对应的眼球3D点云信息作为样本眼球3D点云信息,将样本注视深度和样本眼球3D点云信息输入至人眼注视深度模型,对人眼注视深度模型进行训练,获得已训练的该种类型的人眼注视深度模型。其中,人眼注视深度模型可以是深度学习网络模型,也可以机器学习模型。对每一种类型人眼的多个用户,重复上述过程,获得已训练的若干种类型的人眼注视深度模型。
通过对不同类型人眼训练相应的人眼注视深度模型,方便后续对不同类型的人眼匹配适合的人眼注视深度模型。
在一个可选的实施例中,步骤S20,包括S21~S23,具体如下:
S21:获取已训练的若干种类型的人眼注视深度模型对应的训练集;训练集包括若干个样本注视深度对应的样本眼球3D点云信息;
S22:将第一眼球3D点云信息与训练集中的样本眼球3D点云信息进行比较,获得第一比较结果;
S23:根据第一比较结果,从已训练的若干种类型的人眼注视深度模型中确定目标人眼注视深度模型。
在本申请实施例中,已训练的每种类型的人眼注视深度模型对应的训练集中包括排布规律的样本眼球3D点云信息。以样本眼球3D点云信息为瞳孔大小为例,已训练的人眼注视深度模型A对应的训练集中瞳孔大小为3.0mm,3.1mm,3.2mm,...,4.0mm。已训练的人眼注视深度模型B对应的训练集中瞳孔大小为4.0mm,4.1mm,4.2mm,....,5.0mm。已训练的人眼注视深度模型C对应的训练集中瞳孔大小为4.1mm,4.3mm,4.5mm,...,5.0mm。若第一眼球3D点云信息对应的瞳孔大小为4.24mm,可以直接排除已训练的人眼注视深度模型A,第一眼球3D点云信息对应的瞳孔大小为4.24mm与已训练的人眼注视深度模型B对应的训练集瞳孔大小4.2mm以及已训练的人眼注视深度模型C对应的训练集瞳孔大小4.3mm比较接近,分别计算瞳孔大小的差值,将差值小的作为目标人眼注视深度模型,即将已训练的人眼注视深度模型B作为目标人眼注视深度模型。
通过将第一眼球3D点云信息与已训练的各种类型的人眼注视深度模型对应的训练集中的样本眼球3D点云信息进行比较,可以自动快捷地确定目标人眼注视深度模型。
在一个可选的实施例中,在人眼注视眼镜屏幕时,获取人眼的第一眼球3D点云信息的步骤,还获取人眼到眼镜屏幕的第一注视深度,步骤S20,包括S24~S26,具体如下:
S24:将第一眼球3D点云信息输入至已训练的若干种类型的人眼注视深度模型,获得若干个第二注视深度;
S25:将若干个第二注视深度与第一注视深度进行比较,获得第二比较结果;
S26:根据第二比较结果,从已训练的若干种类型的人眼注视深度模型中确定目标人眼注视深度模型。
其中,人眼到眼镜屏幕的第一注视深度,是指人眼到智能眼镜的显示屏幕的距离。
在本申请实施例中,将第一眼球3D点云信息输入至已训练的各种类型的人眼注视深度模型,可以获得已训练的各种类型的人眼注视深度模型输出的第二注视深度。将每个第二注视深度与第一注视深度作差,将差值最小的作为目标人眼注视深度模型。
通过将第一注视深度与已训练的各种类型的人眼注视深度模型输出的第二注视深度进行比较,可以自动快捷地确定目标人眼注视深度模型。
在一个可选的实施例中,步骤S30,包括S31,具体如下:
S31:在人眼注视眼镜屏幕之外时,将获取的第二眼球3D点云信息输入至目标人眼注视深度模型,获得对应的人眼注视深度。
在本申请实施例中,由于确定了适合人眼的目标人眼注视深度模型,人眼注视眼镜屏幕之外不同距离的物体时,智能眼镜内部的3D扫描设备可以实时采集第二眼球3D点云信息,将第二眼球3D点云信息输入至目标人眼注视深度模型,可以自动快捷地获得人眼注视深度。
下面对人眼注视深度的获取方法的一些应用场景进行说明。
场景一:在AR眼镜的工厂巡检过程中,故障处理方一般不在现场,故障处理方通过会议视频方式和巡检员沟通,通过获取到巡检员的注视深度,故障处理方可以自动的将故障处理设备镜头的焦点对焦到对应注视深度,以便故障处理方能够更加精确的确认故障问题。
场景二:在教育培训场景,可以通过注视深度是否经常不在课件显示屏上来确认学员上课是否分神,确认是否需要再次教育,提高教育有效性。
场景三:在视频录制场景中,当发现人眼的注视深度不在眼镜屏幕上且在某个位置停留较长时间时,可启动自动录制或提醒是否需要录制现场,是否需要录制对应注视深度的位置细节等信息。比如,上课时录制上课内容等。
场景四:在车载场景中,可用于检测用户注意力是否在前进方向上最可能出现危险的位置并适时提醒。
实施例2
下述为本申请装置实施例,可以用于执行本申请实施例1中方法的内容。对于本申请装置实施例中未披露的细节,请参照本申请实施例1中方法的内容。
请参见图2,其示出了本申请实施例提供的人眼注视深度的获取装置的结构示意图。本申请实施例提供的人眼注视深度的获取装置4,包括:
点云信息获取模块41,用于在人眼注视眼镜屏幕时,获取人眼的第一眼球3D点云信息;
模型确定模块42,用于根据第一眼球3D点云信息,从已训练的若干种类型的人眼注视深度模型中确定目标人眼注视深度模型;
注视深度获得模块43,用于在人眼注视眼镜屏幕之外时,根据获取的第二眼球3D点云信息以及目标人眼注视深度模型,获得对应的人眼注视深度。
可选的,点云信息获取模块,包括:
眼镜屏幕划分单元,用于将眼镜屏幕划分为若干个单元格,遍历每个单元格,在当前单元格显示标志图标,获取人眼注视当前单元格的标志图标时的眼球3D点云信息,在下一个单元格显示标志图标,获取人眼注视下一个单元格的标志图标时的眼球3D点云信息,直至获取人眼注视每一个单元格的标志图标时的眼球3D点云信息;
点云信息获得单元,用于根据人眼注视每一个单元格的标志图标时的眼球3D点云信息,获得人眼的第一眼球3D点云信息。
可选的,模型确定模块,包括:
训练集获取单元,用于获取已训练的若干种类型的人眼注视深度模型对应的训练集;训练集包括若干个样本注视深度对应的样本眼球3D点云信息;
第一比较结果获得单元,用于将第一眼球3D点云信息与训练集中的样本眼球3D点云信息进行比较,获得第一比较结果;
第一模型确定单元,用于根据第一比较结果,从已训练的若干种类型的人眼注视深度模型中确定目标人眼注视深度模型。
可选的,模型确定模块,包括:
第二注视深度获得单元,用于将第一眼球3D点云信息输入至已训练的若干种类型的人眼注视深度模型,获得若干个第二注视深度;
第二比较结果获得单元,用于将若干个第二注视深度与第一注视深度进行比较,获得第二比较结果;
第二模型确定单元,用于根据第二比较结果,从已训练的若干种类型的人眼注视深度模型中确定目标人眼注视深度模型。
可选的,注视深度获得模块,包括:
人眼注视深度获得单元,用于在人眼注视眼镜屏幕之外时,将获取的第二眼球3D点云信息输入至目标人眼注视深度模型,获得对应的人眼注视深度。
应用本申请实施例,通过在人眼注视眼镜屏幕时,获取人眼的第一眼球3D点云信息;根据第一眼球3D点云信息,从已训练的若干种类型的人眼注视深度模型中确定目标人眼注视深度模型;在人眼注视眼镜屏幕之外时,根据获取的第二眼球3D点云信息以及目标人眼注视深度模型,获得对应的人眼注视深度。本申请实施例通过确定人眼对应的目标人眼注视深度模型,提高了获取人眼的注视深度的准确性。
实施例3
下述为本申请设备实施例,可以用于执行本申请实施例1中方法的内容。对于本申请设备实施例中未披露的细节,请参照本申请实施例1中方法的内容。
请参阅图3,本申请还提供一种电子设备300,电子设备可以具体为计算机、手机、平板电脑、智能眼镜等,在本申请的示例性实施例中,电子设备300为智能眼镜,智能眼镜可以包括:至少一个处理器301、至少一个存储器302,至少一个显示器,至少一个网络接口303,用户接口304以及至少一个通信总线305。
其中,用户接口304主要用于为用户提供输入的接口,获取用户输入的数据。可选的,用户接口还可以包括标准的有线接口、无线接口。
其中,网络接口303可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。
其中,通信总线305用于实现这些组件之间的连接通信。
其中,处理器301可以包括一个或者多个处理核心。处理器利用各种接口和线路连接整个电子设备内的各个部分,通过运行或执行存储在存储器内的指令、程序、代码集或指令集,以及调用存储在存储器内的数据,执行电子设备的各种功能和处理数据。可选的,处理器可以采用数字信号处理(Digital Signal Processing,DSP)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、可编程逻辑阵列(Programmable Logic Array,PLA)中的至少一种硬件形式来实现。处理器可集成中央处理器(Central ProcessingUnit,CPU)、图像处理器(Graphics Processing Unit,GPU)和调制解调器等中的一种或几种的组合。其中,CPU主要处理操作系统、用户界面和应用程序等;GPU用于负责显示层所需要显示的内容的渲染和绘制;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器中,单独通过一块芯片进行实现。
其中,存储器302可以包括随机存储器(Random Access Memory,RAM),也可以包括只读存储器(Read-Only Memory)。可选的,该存储器包括非瞬时性计算机可读介质(non-transitory computer-readable storage medium)。存储器可用于存储指令、程序、代码、代码集或指令集。存储器可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作系统的指令、用于至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现上述各个方法实施例的指令等;存储数据区可存储上面各个方法实施例中涉及到的数据等。存储器可选的还可以是至少一个位于远离前述处理器的存储装置。作为一种计算机存储介质的存储器中可以包括操作系统、网络通信模块、用户接口模块、操作应用程序。
处理器可以用于调用存储器中存储的人眼注视深度的获取方法的应用程序,并具体执行上述所示实施例1的方法步骤,具体执行过程可以参见实施例1所示的具体说明,在此不进行赘述。
实施例4
本申请还提供一种计算机可读存储介质,其上储存有计算机程序,指令适于由处理器加载并执行上述所示实施例1的方法步骤,具体执行过程可以参见实施例所示的具体说明,在此不进行赘述。存储介质所在设备可以是个人计算机、笔记本电脑、智能手机、平板电脑等电子设备。
对于设备实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的设备实施例仅仅是示意性的,其中作为分离部件说明的组件可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本申请方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中选定的功能的装置。这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中选定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中选定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。存储器是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (10)
1.一种人眼注视深度的获取方法,其特征在于,包括如下步骤:
在人眼注视眼镜屏幕时,获取人眼的第一眼球3D点云信息;
根据所述第一眼球3D点云信息,从已训练的若干种类型的人眼注视深度模型中确定目标人眼注视深度模型;
在人眼注视所述眼镜屏幕之外时,根据获取的第二眼球3D点云信息以及所述目标人眼注视深度模型,获得对应的人眼注视深度。
2.根据权利要求1所述的人眼注视深度的获取方法,其特征在于:
所述根据所述第一眼球3D点云信息,从已训练的若干种类型的人眼注视深度模型中确定目标人眼注视深度模型的步骤,包括:
获取已训练的若干种类型的人眼注视深度模型对应的训练集;所述训练集包括若干个样本注视深度对应的样本眼球3D点云信息;
将所述第一眼球3D点云信息与所述训练集中的样本眼球3D点云信息进行比较,获得第一比较结果;
根据所述第一比较结果,从已训练的若干种类型的人眼注视深度模型中确定目标人眼注视深度模型。
3.根据权利要求1所述的人眼注视深度的获取方法,其特征在于:
在人眼注视眼镜屏幕时,获取人眼的第一眼球3D点云信息的步骤,还获取人眼到眼镜屏幕的第一注视深度;
所述根据所述第一眼球3D点云信息,从已训练的若干种类型的人眼注视深度模型中确定目标人眼注视深度模型的步骤,包括:
将所述第一眼球3D点云信息输入至所述已训练的若干种类型的人眼注视深度模型,获得若干个第二注视深度;
将所述若干个第二注视深度与所述第一注视深度进行比较,获得第二比较结果;
根据所述第二比较结果,从所述已训练的若干种类型的人眼注视深度模型中确定目标人眼注视深度模型。
4.根据权利要求1所述的人眼注视深度的获取方法,其特征在于:
所述在人眼注视眼镜屏幕时,获取人眼的第一眼球3D点云信息的步骤,包括:
将所述眼镜屏幕划分为若干个单元格,遍历每个所述单元格,在当前单元格显示标志图标,获取所述人眼注视所述当前单元格的标志图标时的眼球3D点云信息,在下一个单元格显示所述标志图标,获取所述人眼注视所述下一个单元格的标志图标时的眼球3D点云信息,直至获取所述人眼注视每一个单元格的标志图标时的眼球3D点云信息;
根据所述人眼注视每一个单元格的标志图标时的眼球3D点云信息,获得人眼的第一眼球3D点云信息。
5.根据权利要求1至4任意一项所述的人眼注视深度的获取方法,其特征在于:
所述在人眼注视所述眼镜屏幕之外时,根据获取的第二眼球3D点云信息以及所述目标人眼注视深度模型,获得对应的人眼注视深度的步骤,包括:
在人眼注视所述眼镜屏幕之外时,将所述获取的第二眼球3D点云信息输入至所述目标人眼注视深度模型,获得对应的人眼注视深度。
6.根据权利要求1至4任意一项所述的人眼注视深度的获取方法,其特征在于:
所述根据所述第一眼球3D点云信息,从已训练的若干种类型的人眼注视深度模型中确定目标人眼注视深度模型的步骤之前,包括:
获取若干种类型的人眼的若干个样本注视深度以及对应的样本眼球3D点云信息;
根据所述若干个样本注视深度以及对应的所述样本眼球3D点云信息,对若干种类型的人眼注视深度模型进行训练,获得已训练的若干种类型的人眼注视深度模型。
7.一种人眼注视深度的获取装置,其特征在于,包括:
点云信息获取模块,用于在人眼注视眼镜屏幕时,获取人眼的第一眼球3D点云信息;
模型确定模块,用于根据所述第一眼球3D点云信息,从已训练的若干种类型的人眼注视深度模型中确定目标人眼注视深度模型;
注视深度获得模块,用于在人眼注视所述眼镜屏幕之外时,根据获取的第二眼球3D点云信息以及所述目标人眼注视深度模型,获得对应的人眼注视深度。
8.根据权利要求7所述的人眼注视深度的获取装置,其特征在于,所述模型确定模块,包括:
训练集获取单元,用于获取已训练的若干种类型的人眼注视深度模型对应的训练集;所述训练集包括若干个样本注视深度对应的样本眼球3D点云信息;
第一比较结果获得单元,用于将所述第一眼球3D点云信息与所述训练集中的样本眼球3D点云信息进行比较,获得第一比较结果;
第一模型确定单元,用于根据所述第一比较结果,从已训练的若干种类型的人眼注视深度模型中确定目标人眼注视深度模型。
9.一种电子设备,包括:处理器、存储器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至6任意一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任意一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211647038.9A CN116088676A (zh) | 2022-12-21 | 2022-12-21 | 人眼注视深度的获取方法、装置、电子设备以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211647038.9A CN116088676A (zh) | 2022-12-21 | 2022-12-21 | 人眼注视深度的获取方法、装置、电子设备以及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116088676A true CN116088676A (zh) | 2023-05-09 |
Family
ID=86200232
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211647038.9A Pending CN116088676A (zh) | 2022-12-21 | 2022-12-21 | 人眼注视深度的获取方法、装置、电子设备以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116088676A (zh) |
-
2022
- 2022-12-21 CN CN202211647038.9A patent/CN116088676A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhao et al. | SeeingVR: A set of tools to make virtual reality more accessible to people with low vision | |
EP2994812B1 (en) | Calibration of eye location | |
JP5194530B2 (ja) | 画像表示装置及び画像表示方法 | |
US9696798B2 (en) | Eye gaze direction indicator | |
EP3337158A1 (en) | Method and device for determining points of interest in an immersive content | |
US20220132099A1 (en) | Determining inter-pupillary distance | |
CN109246463B (zh) | 用于显示弹幕的方法和装置 | |
CN106095089A (zh) | 一种获取感兴趣目标信息的方法 | |
KR20160123346A (ko) | 초점 이동에 반응하는 입체적 디스플레이 | |
JP2016529935A (ja) | シーン抽象化を用いた人工視覚を促進するためのスマート人工器官 | |
US11429186B2 (en) | Location-based entity selection using gaze tracking | |
CN106774821B (zh) | 基于虚拟现实技术的显示方法和系统 | |
CA2942652A1 (fr) | Systeme de simulation tridimensionnelle virtuelle propre a engendrer un environnement virtuel reunissant une pluralite d'utilisateurs et procede associe | |
US10921586B2 (en) | Image processing method and apparatus in virtual reality device | |
JP2020523672A (ja) | 媒介現実コンテンツのレンダリング | |
KR20210107784A (ko) | Ar/vr 환경에서 사용자 관심의 시각적 표시자들 | |
CN113325947A (zh) | 一种显示方法、装置、终端设备及存储介质 | |
GB2546589A (en) | Virtual training system | |
US11113379B2 (en) | Unlocking method and virtual reality device | |
CN112751582A (zh) | 用于交互的可穿戴装置、交互方法及设备、存储介质 | |
CN116088676A (zh) | 人眼注视深度的获取方法、装置、电子设备以及存储介质 | |
CN110244839B (zh) | 控制方法、电子设备和存储介质 | |
US10409464B2 (en) | Providing a context related view with a wearable apparatus | |
CN107958478B (zh) | 虚拟现实场景中物体的渲染方法和虚拟现实头戴设备 | |
CN113010009A (zh) | 对象共享方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |