CN115205899A - 用眼姿态的判别信息的生成方法和装置 - Google Patents
用眼姿态的判别信息的生成方法和装置 Download PDFInfo
- Publication number
- CN115205899A CN115205899A CN202210776287.1A CN202210776287A CN115205899A CN 115205899 A CN115205899 A CN 115205899A CN 202210776287 A CN202210776287 A CN 202210776287A CN 115205899 A CN115205899 A CN 115205899A
- Authority
- CN
- China
- Prior art keywords
- head
- information
- target
- target user
- posture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01D—MEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
- G01D21/00—Measuring or testing not otherwise provided for
- G01D21/02—Measuring two or more variables by means not covered by a single other subclass
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Position Input By Displaying (AREA)
Abstract
本公开实施例涉及一种用眼姿态的判别信息的生成方法和装置,上述方法包括:获取目标用户的头部姿态信息;如果上述头部姿态信息指示上述目标用户的头部处于静止状态,则获取目标物体信息和目标距离,其中,上述目标物体信息表征上述目标用户的注视物体的大小信息和/或类型信息,上述目标距离为上述目标用户的眼部与上述注视物体之间的距离;基于上述目标物体信息和上述目标距离,生成判别信息,其中,上述判别信息表征上述目标用户的用眼姿态是否正确。由本方案,丰富了判断用眼姿势是否正确的方式,可以提高用眼姿态判别的准确度。
Description
技术领域
本公开实施例涉及计算机技术领域,尤其涉及一种用眼姿态的判别信息的生成方法和装置。
背景技术
人们在阅读计算机、手机和书籍杂志时,容易出现姿态不正确,例如,眼睛距离书本、屏幕等物体越来越近,歪着头看书或打游戏等。由此导致眼睛疾病越来越年轻化。现有技术中,通常仅通过判断眼部与注视物体之间的距离,来确定用眼姿态是否正确。
然而,上述判断用眼姿态是否正确的方式较为单一,难以适用于不同的场景,导致用眼姿态判别的准确度较低。
发明内容
鉴于此,为解决上述部分或全部技术问题,本公开实施例提供一种用眼姿态的判别信息的生成方法和装置。
第一方面,本公开实施例提供一种用眼姿态的判别信息的生成方法,上述方法包括:
获取目标用户的头部姿态信息;
如果上述头部姿态信息指示上述目标用户的头部处于静止状态,则获取目标物体信息和目标距离,其中,上述目标物体信息表征上述目标用户的注视物体的大小信息和/或类型信息,上述目标距离为上述目标用户的眼部与上述注视物体之间的距离;
基于上述目标物体信息和上述目标距离,生成判别信息,其中,上述判别信息表征上述目标用户的用眼姿态是否正确。
可选地,在本公开任一实施例的方法中,上述头部姿态信息包括头部加速度;以及
上述获取目标用户的头部姿态信息,包括:
获取目标用户佩戴的头戴产品中的加速度传感器采集的、上述目标用户的头部加速度。
可选地,在本公开任一实施例的方法中,上述如果上述头部姿态信息指示上述目标用户的头部处于静止状态,则获取目标物体信息和目标距离,包括:
如果上述头部加速度为0的时长大于或等于预设时长阈值,则确定上述目标用户的头部处于静止状态,将当前静止状态的上述头部加速度确定为第一头部加速度,以及将前一静止状态的头部加速度确定为第二头部加速度;
基于在上述第一头部加速度的采集时刻和上述第二头部加速度的采集时刻之间采集的两个非0加速度是否符合预设歪头判别条件,确定上述目标用户的头部姿态是否表征歪头;
如果上述目标用户的头部姿态并非表征歪头,则获取目标物体信息和目标距离。
可选地,在本公开任一实施例的方法中,如果上述目标用户的头部姿态表征歪头,则生成表征上述目标用户的用眼姿态不正确的判别信息。
可选地,在本公开任一实施例的方法中,上述预设歪头判别条件包括:上述两个非0加速度的方向之间的夹角大于0度且小于180度。
可选地,在本公开任一实施例的方法中,上述目标物体信息包括上述注视物体的大小信息;以及
上述获取目标物体信息,包括以下之一:
获取经由上述头戴产品中的毫米波传感器采集的、上述注视物体的点云数据;基于上述点云数据,确定上述注视物体的大小信息;
获取经由上述头戴产品中的摄像头拍摄的、上述注视物体的图像;基于上述图像和上述目标距离,确定上述注视物体的大小信息;
获取经由上述头戴产品中的毫米波传感器采集的、上述注视物体的点云数据,以及经由上述头戴产品中的摄像头拍摄的、上述注视物体的图像;基于上述点云数据和上述图像,确定上述注视物体的大小信息。
可选地,在本公开任一实施例的方法中,上述目标物体信息包括上述注视物体的类型信息;以及
上述获取目标物体信息,包括以下之一:
获取经由上述头戴产品中的毫米波传感器采集的、上述注视物体的点云数据;基于上述点云数据,确定上述注视物体的大小信息;基于上述大小信息,确定上述注视物体的类型信息;
获取经由上述头戴产品中毫米波传感器采集的、上述注视物体的点云数据,以及经由上述头戴产品中的摄像头拍摄的、上述注视物体的图像;基于上述点云数据和上述图像,确定上述注视物体的类型信息。
可选地,在本公开任一实施例的方法中,上述方法还包括:
如果上述判别信息表征上述目标用户的用眼姿态不正确,则控制上述头戴产品输出表征用眼姿势不正确的提示信号。
第二方面,本公开实施例提供一种用眼姿态的判别信息的生成装置,上述装置包括:
第一获取单元,被配置成获取目标用户的头部姿态信息;
第二获取单元,被配置成如果上述头部姿态信息指示上述目标用户的头部处于静止状态,则获取目标物体信息和目标距离,其中,上述目标物体信息表征上述目标用户的注视物体的大小信息和/或类型信息,上述目标距离为上述目标用户的眼部与上述注视物体之间的距离;
生成单元,被配置成基于上述目标物体信息和上述目标距离,生成判别信息,其中,上述判别信息表征上述目标用户的用眼姿态是否正确。
可选地,在本公开任一实施例的装置中,上述头部姿态信息包括头部加速度;以及
上述第一获取单元,具体被配置成:
获取目标用户佩戴的头戴产品中的加速度传感器采集的、上述目标用户的头部加速度。
可选地,在本公开任一实施例的装置中,上述第二获取单元,具体被配置成:
如果上述头部加速度为0的时长大于或等于预设时长阈值,则确定上述目标用户的头部处于静止状态,将当前静止状态的上述头部加速度确定为第一头部加速度,以及将前一静止状态的头部加速度确定为第二头部加速度;
基于在上述第一头部加速度的采集时刻和上述第二头部加速度的采集时刻之间采集的两个非0加速度是否符合预设歪头判别条件,确定上述目标用户的头部姿态是否表征歪头;
如果上述目标用户的头部姿态并非表征歪头,则获取目标物体信息和目标距离。
可选地,在本公开任一实施例的装置中,如果上述目标用户的头部姿态表征歪头,则生成表征上述目标用户的用眼姿态不正确的判别信息。
可选地,在本公开任一实施例的装置中,上述预设歪头判别条件包括:上述两个非0加速度的方向之间的夹角大于0度且小于180度。
可选地,在本公开任一实施例的装置中,上述目标物体信息包括上述注视物体的大小信息;以及
上述第二获取单元,具体被配置成以下之一:
获取经由上述头戴产品中的毫米波传感器采集的、上述注视物体的点云数据;基于上述点云数据,确定上述注视物体的大小信息;
获取经由上述头戴产品中的摄像头拍摄的、上述注视物体的图像;基于上述图像和上述目标距离,确定上述注视物体的大小信息;
获取经由上述头戴产品中的毫米波传感器采集的、上述注视物体的点云数据,以及经由上述头戴产品中的摄像头拍摄的、上述注视物体的图像;基于上述点云数据和上述图像,确定上述注视物体的大小信息。
可选地,在本公开任一实施例的装置中,上述目标物体信息包括上述注视物体的类型信息;以及
上述第二获取单元,具体被配置成以下之一:
获取经由上述头戴产品中的毫米波传感器采集的、上述注视物体的点云数据;基于上述点云数据,确定上述注视物体的大小信息;基于上述大小信息,确定上述注视物体的类型信息;
获取经由上述头戴产品中毫米波传感器采集的、上述注视物体的点云数据,以及经由上述头戴产品中的摄像头拍摄的、上述注视物体的图像;基于上述点云数据和上述图像,确定上述注视物体的类型信息。
可选地,在本公开任一实施例的装置中,上述装置还包括:
控制单元,被配置成如果上述判别信息表征上述目标用户的用眼姿态不正确,则控制上述头戴产品输出表征用眼姿势不正确的提示信号。
第三方面,本公开实施例提供一种电子设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行上述存储器中存储的计算机程序,且上述计算机程序被执行时,实现本公开上述第一方面的用眼姿态的判别信息的生成方法中任一实施例的方法。
第四方面,本公开实施例提供一种计算机可读存储介质,该计算机程序被处理器执行时,实现如上述第一方面的用眼姿态的判别信息的生成方法中任一实施例的方法。
第五方面,本公开实施例提供一种计算机程序,该计算机程序包括计算机可读代码,当该计算机可读代码在设备上运行时,使得该设备中的处理器执行用于实现如上述第一方面的用眼姿态的判别信息的生成方法中任一实施例的方法中各步骤的指令。
本公开实施例提供的用眼姿态的判别信息的生成方法,通过获取目标用户的头部姿态信息,之后,如果上述头部姿态信息指示上述目标用户的头部处于静止状态,则获取目标物体信息和目标距离,其中,上述目标物体信息表征上述目标用户的注视物体的大小信息和/或类型信息,上述目标距离为上述目标用户的眼部与上述注视物体之间的距离,然后,基于上述目标物体信息和上述目标距离,生成判别信息,其中,上述判别信息表征上述目标用户的用眼姿态是否正确。由此方法,可以在目标用户的头部处于静止状态的情况下,基于注视物体的大小信息和/或类型信息,以及目标用户的眼部与注视物体之间的距离,生成表征目标用户的用眼姿态是否正确的判别信息,由此,丰富了判断用眼姿势是否正确的方式,可以提高用眼姿态判别的准确度。
附图说明
图1为本公开实施例提供的一种用眼姿态的判别信息的生成方法的流程示意图;
图2为本公开实施例提供的另一种用眼姿态的判别信息的生成方法的流程示意图;
图3为本公开实施例提供的又一种用眼姿态的判别信息的生成方法的流程示意图;
图4为本公开实施例提供的再一种用眼姿态的判别信息的生成方法的流程示意图;
图5为本公开实施例提供的一种用眼姿态的判别信息的生成装置的结构示意图;
图6为本公开实施例提供的一种电子设备的结构示意图。
具体实施方式
现在将参照附图来详细描述本公开的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值并不限制本公开的范围。
本领域技术人员可以理解,本公开实施例中的“第一”、“第二”等术语仅用于区别不同步骤、设备或模块等对象,既不代表任何特定技术含义,也不表示它们之间的逻辑顺序。
还应理解,在本公开实施例中,“多个”可以指两个或两个以上,“至少一个”可以指一个、两个或两个以上。
还应理解,对于本公开实施例中提及的任一部件、数据或结构,在没有明确限定或者在前后文给出相反启示的情况下,一般可以理解为一个或多个。
另外,本公开中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本公开中字符“/”,一般表示前后关联对象是一种“或”的关系。
还应理解,本公开对各个实施例的描述着重强调各个实施例之间的不同之处,其相同或相似之处可以相互参考,为了简洁,不再一一赘述。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,上述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。为便于对本公开实施例的理解,下面将参考附图并结合实施例来详细说明本公开。显然,所描述的实施例是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
图1为本公开实施例提供的一种用眼姿态的判别信息的生成方法的流程示意图,如图1所示,该方法具体包括:
101、获取目标用户的头部姿态信息。
在本公开实施例中,用眼姿态的判别信息的生成方法的执行主体(例如服务器、终端设备、用眼姿态的判别信息的生成装置、头戴设备等)可以获取目标用户的头部姿态信息。
其中,目标用户可以是任一用户。作为示例,该目标用户可以是待判断其用眼姿态是否正确的用户。
头部姿态信息,可以表征上述目标用户的头部姿态。例如,头部姿态信息,可以表征以下至少一项:头部处于静止状态、头部处于移动状态等等。在一些情况下,头部姿态信息,可以包括头部加速度。
实践中,可以通过头部姿态获取装置,来获得该目标用户的头部姿态信息。其中,头部姿态获取装置可以是佩戴在目标用户的头部的头戴产品(例如智能眼镜、智能头戴耳机等),也可以是目标用户使用的终端。在头部姿态获取装置为上述头戴产品的情况下,该头戴产品中安装的陀螺仪、加速度传感器等装置,可以获得上述头部姿态信息。在头部姿态获取装置为目标用户使用的终端的情况下,可以通过为目标用户拍摄头部图像或头部视频,从而获得该目标用户的头部姿态信息。
102、如果上述头部姿态信息指示上述目标用户的头部处于静止状态,则获取目标物体信息和目标距离。
在本公开实施例中,如果上述头部姿态信息指示上述目标用户的头部处于静止状态,那么,上述执行主体可以获取目标物体信息和目标距离。
其中,上述目标物体信息表征上述目标用户的注视物体的大小信息和/或类型信息。上述目标距离为上述目标用户的眼部与上述注视物体之间的距离。
这里,可以采用多种方式,来判断头部姿态信息是否指示目标用户的头部处于静止状态。
作为示例,如果采用为目标用户拍摄头部视频的方式获得头部姿态信息,那么,可以判断该头部视频中的预设数量连续视频帧中,目标用户的头部是否位于同一位置,来判断头部姿态信息是否指示目标用户的头部处于静止状态。
此外,上述目标物体信息,可以经由目标用户输入而获得,也可以经由设置于目标用户佩戴的头戴设备中的摄像头拍摄获得。目标距离,可以经由目标用户输入而获得,也可以经由设置于目标用户佩戴的头戴设备中的测距传感器获得。其中,上述测距传感器可以包括但不限于以下至少一项:毫米波雷达、激光测距仪等等。
103、基于上述目标物体信息和上述目标距离,生成判别信息。
在本公开实施例中,上述执行主体可以基于上述目标物体信息和上述目标距离,生成判别信息。
其中,上述判别信息表征上述目标用户的用眼姿态是否正确。
这里,可以采用机器学习或规则方法,来基于上述目标物体信息和上述目标距离,生成判别信息。
本公开实施例提供的用眼姿态的判别信息的生成方法,通过获取目标用户的头部姿态信息,之后,如果上述头部姿态信息指示上述目标用户的头部处于静止状态,则获取目标物体信息和目标距离,其中,上述目标物体信息表征上述目标用户的注视物体的大小信息和/或类型信息,上述目标距离为上述目标用户的眼部与上述注视物体之间的距离,然后,基于上述目标物体信息和上述目标距离,生成判别信息,其中,上述判别信息表征上述目标用户的用眼姿态是否正确。由此方法,可以在目标用户的头部处于静止状态的情况下,基于注视物体的大小信息和/或类型信息,以及目标用户的眼部与注视物体之间的距离,生成表征上述目标用户的用眼姿态是否正确的判别信息,由此,丰富了判断用眼姿势是否正确的方式,可以提高用眼姿态判别的准确度。
图2为本公开实施例提供的另一种用眼姿态的判别信息的生成方法的流程示意图,如图2所示,该方法具体包括:
201、获取目标用户佩戴的头戴产品中的加速度传感器采集的、上述目标用户的头部加速度。
在本公开实施例中,用眼姿态的判别信息的生成方法的执行主体(例如服务器、终端设备、用眼姿态的判别信息的生成装置等)可以获取目标用户佩戴的头戴产品中的加速度传感器采集的、上述目标用户的头部加速度。
其中,目标用户可以是任一用户。作为示例,该目标用户可以是待判断其用眼姿态是否正确的用户。
202、如果上述头部姿态信息指示上述目标用户的头部处于静止状态,则获取目标物体信息和目标距离。
在本公开实施例中,如果上述头部姿态信息指示上述目标用户的头部处于静止状态,那么,上述执行主体可以获取目标物体信息和目标距离。
其中,上述头部姿态信息包括头部加速度。
其中,上述目标物体信息表征上述目标用户的注视物体的大小信息和/或类型信息,上述目标距离为上述目标用户的眼部与上述注视物体之间的距离。
在本实施例的一些可选的实现方式中,如果上述头部加速度为0的时长大于或等于预设时长阈值,那么,上述执行主体可以确定上述目标用户的头部处于静止状态,将当前静止状态的上述头部加速度确定为第一头部加速度,以及将前一静止状态的头部加速度确定为第二头部加速度。之后,基于在上述第一头部加速度的采集时刻和上述第二头部加速度的采集时刻之间采集的两个非0加速度是否符合预设歪头判别条件,确定上述目标用户的头部姿态是否表征歪头。
如果上述目标用户的头部姿态并非表征歪头,则获取目标物体信息和目标距离。
这里,由于加速度传感器可以按照预设频率采集头部加速度,因而其可以获得多个静止状态的头部加速度组成的静止状态的头部加速度序列。
此外,在发现用户用眼姿势不正确,提示用户进行调整后,用户调整后的用眼姿势可能依然不正确,或者,用户调整正确后,可能再次出现用眼姿势不正确的情况,因而,可以获得多个静止状态的头部加速度组成的静止状态的头部加速度序列,进而确定出前一静止状态的头部加速度。
在上述可选的实现方式中的一些应用场景下,如果上述目标用户的头部姿态表征歪头,则生成表征上述目标用户的用眼姿态不正确的判别信息。
可选的,上述执行主体还可以采用如下方式,来确定上述目标用户的头部姿态是否表征歪头:
如果加速度传感器的预设坐标轴(例如Z轴)的方向与重力方向之间的夹角并非预设角度值,则可以确定目标用户的头部姿态表征歪头。作为示例,上述头戴产品中的加速度传感器,可以按照预设方向进行安装设置,例如,在头戴产品按照预设方向(例如水平)放置时,加速度传感器的Z轴的方向可以竖直向下,也即与重力方向相同,与重力方向的夹角为0度(也即上述预设角度值)。由此,如果用户歪头,则加速度传感器的Z轴(也即上述预设坐标轴)的方向将处于非竖直向下的状态,也即,Z轴与重力方向之间的夹角并非0度。
这里,加速度传感器的预设坐标轴的方向,是相对于加速度传感器的自身坐标系而言的。加速度传感器的转动,将导致加速度传感器的自身坐标系的坐标轴随之转动。
在上述可选的实现方式中的一些应用场景下,上述预设歪头判别条件可以包括:上述两个非0加速度的方向之间的夹角大于0度且小于180度。
这里,上述两个非0加速度的方向,是相对于世界坐标系而言的。加速度传感器的转动,并不会导致世界坐标系的坐标轴转动。
可选的,上述预设歪头判别条件还可以包括:上述两个非0加速度分别在竖直方向上的分量的大小不相等。
可以理解,上述可选的实现方式中,通过判断头部加速度的大小为0的时长是否大于或等于预设时长阈值,来确定目标用户的头部是否处于静止状态,从而提高了判断头部是否处于静止状态的准确性;基于两个大小非0加速度是否符合预设歪头判别条件,来确定目标用户的头部姿态是否表征歪头,提高了判断目标用户是否歪头的准确性。
可选的,还可以采用如下方式,来判断目标用户的头部是否处于静止状态:如果头部姿态信息包括的头部加速度的大小为0,那么,可以确定头部姿态信息指示上述目标用户的头部处于静止状态。
在本实施例中,步骤202中的获取目标物体信息和目标距离的方式,可以与图1对应实施例中的步骤102一致,这里不再赘述。
在本实施例的一些可选的实现方式中,上述目标物体信息包括上述注视物体的大小信息。在此基础上,上述执行主体可以采用以下任一方式,来获取目标物体信息:
方式一,获取经由上述头戴产品中的毫米波传感器采集的、上述注视物体的点云数据,之后,基于上述点云数据,确定上述注视物体的大小信息。
这里,可以对上述点云数据进行三维建模,从而确定出上述注视物体的大小信息。可选的,还可以将上述点云数据输入至预先训练的机器学习模型,从而获得上述注视物体的大小信息。其中,该机器学习模型可以用于确定点云数据对应的物体的大小信息。该大小信息可以通过物体在两垂直方向上的长度来表征。上述机器学习模型可以是基于预先确定的训练样本集,采用机器学习算法训练得到的卷积神经网络等模型。其中,上述训练样本集中的训练样本包括点云数据,以及注视物体(也即点云数据对应的物体)的大小信息。
可以理解,上述方式一中,经由毫米波传感器采集的点云数据,来确定注视物体的大小信息,这样,可以减少光线强度对于确定注视物体的大小的影响,并且,无需摄像头等装置进行图像采集,因而可以适用于隐私要求较高的场景。
方式二,获取经由上述头戴产品中的摄像头拍摄的、上述注视物体的图像,之后,基于上述图像和上述目标距离,确定上述注视物体的大小信息。
这里,可以通过几何运算,基于上述图像和上述目标距离,确定上述注视物体的大小信息。可选的,还可以将上述图像和上述目标距离输入至预先训练的机器学习模型,从而获得上述注视物体的大小信息。其中,该机器学习模型可以用于表征图像、目标距离,以及注视物体的大小信息之间的对应关系。该大小信息可以通过物体在两垂直方向上的长度等方式来表征。上述机器学习模型可以是基于预先确定的训练样本集,采用机器学习算法训练得到的卷积神经网络等模型。其中,训练样本集中的训练样本包括图像、目标距离,以及注视物体的大小信息。
可以理解,上述方式二中,经由目标距离来确定注视物体的大小信息,这样,可以提高确定注视物体的大小的准确度。
方式三,获取经由上述头戴产品中的毫米波传感器采集的、上述注视物体的点云数据,以及经由上述头戴产品中的摄像头拍摄的、上述注视物体的图像,之后,基于上述点云数据和上述图像,确定上述注视物体的大小信息。
这里,可以将上述点云数据和上述图像,输入至预先训练的机器学习模型,从而获得上述注视物体的大小信息。其中,该机器学习模型可以用于表征点云数据、图像,以及注视物体的大小信息之间的对应关系。该大小信息可以通过物体在两垂直方向上的长度等方式来表征。上述机器学习模型可以是基于预先确定的训练样本集,采用机器学习算法训练得到的卷积神经网络等模型。其中,训练样本集中的训练样本包括点云数据、图像,以及注视物体的大小信息。
可选的,还可以采用以上所描述的方式,分别基于上述点云数据,确定上述注视物体的大小信息,以及基于上述图像和上述目标距离,确定上述注视物体的大小信息,之后,将两次获得的大小信息的均值,作为最终确定的注视物体的大小信息。
可以理解,上述方式三中,融合摄像头和毫米波传感器二者数据,共同判断出注视物体的大小信息,从而提高了确定注视物体的大小的准确度。
在本实施例的一些可选的实现方式中,上述目标物体信息包括上述注视物体的类型信息。在此基础上,上述执行主体可以采用如下方式,来获取目标物体信息:
方式一,获取经由上述头戴产品中的毫米波传感器采集的、上述注视物体的点云数据,之后,基于上述点云数据,确定上述注视物体的大小信息,最后,基于上述大小信息,确定上述注视物体的类型信息。
其中,类型信息,可以包括但不限于以下至少一项:平板电脑、电视、书本、手机、笔记本电脑、台式电脑等等。
这里,基于点云数据确定上述注视物体的大小信息的方式,可以参照以上描述,在此不再赘述。
此外,可以基于预先确定的大小信息和类型信息之间的对应关系,通过上述大小信息,来确定上述注视物体的类型信息。
可选的,在大小信息通过物体在两垂直方向上的长度的方式表征的情况下,可以通过该两垂直方向上的长度的大小关系、比值等,来确定上述注视物体的类型信息。
可以理解,上述方式一中,经由毫米波传感器采集的点云数据,来确定注视物体的类型信息,这样,可以减少光线强度对于确定注视物体的类型的影响,并且,无需摄像头等装置进行图像采集,因而可以适用于隐私要求较高的场景。
方式二,获取经由上述头戴产品中毫米波传感器采集的、上述注视物体的点云数据,以及经由上述头戴产品中的摄像头拍摄的、上述注视物体的图像,之后,基于上述点云数据和上述图像,确定上述注视物体的类型信息。
这里,可以将上述点云数据和上述图像,输入至预先训练的机器学习模型,从而获得上述注视物体的类型信息。其中,该机器学习模型可以用于表征点云数据、图像,以及注视物体的类型信息之间的对应关系。该类型信息可以包括但不限于以下至少一项:平板电脑、电视、书本、手机、笔记本电脑、台式电脑等等。上述机器学习模型可以是基于预先确定的训练样本集,采用机器学习算法训练得到的卷积神经网络等模型。其中,训练样本集中的训练样本包括点云数据、图像,以及注视物体的类型信息。
可选的,还可以采用以上所描述的方式一,分别基于上述点云数据,确定上述注视物体的类型信息,以及基于上述图像确定上述注视物体的类型信息,之后,如果两次获得的类型信息表征相同类型,则将所得到的类型信息作为最终确定的注视物体的类型信息。
可以理解,上述方式二中,融合摄像头和毫米波传感器二者数据,共同判断出注视物体的类型信息,从而提高了确定注视物体的类型的准确度。
203、基于上述目标物体信息和上述目标距离,生成判别信息。
在本公开实施例中,上述执行主体可以基于上述目标物体信息和上述目标距离,生成判别信息。其中,上述判别信息表征上述目标用户的用眼姿态是否正确。
在本实施例中,步骤203与图1对应实施例中的步骤103基本一致,这里不再赘述。
在本实施例的一些可选的实现方式中,如果上述判别信息表征上述目标用户的用眼姿态不正确,那么,上述执行主体可以控制上述头戴产品输出表征用眼姿势不正确的提示信号。
其中,头戴产品可以采用语音和/或灯光提示的方式,来输出提示信号。
可以理解,上述可选的实现方式中,可以在判断用户用眼姿势不正确的情况下,通过头戴产品输出的提示信号,及时地提示用户纠正用眼姿态,从而降低了目标用户由于用眼姿态不正确而造成的近视、黄斑病变、青光眼等疾病的发生概率。
本公开实施例提供的用眼姿态的判别信息的生成方法,通过目标用户佩戴的头戴产品中的加速度传感器采集的头部加速度,来判断目标用户的用眼姿态是否正确,从而提高了判断用眼姿态是否正确的准确度。
图3为本公开实施例提供的又一种用眼姿态的判别信息的生成方法的流程示意图,本方法可以应用于头戴设备、智能硬件、智能手机、笔记本电脑、台式电脑、便携式计算机、服务器等一类电子设备上。
如图3所示,该方法具体包括:
301、获取目标用户佩戴的头戴产品中的加速度传感器采集的、上述目标用户的头部加速度。之后,执行步骤302。
在本实施例中,用眼姿态的判别信息的生成方法的执行主体(例如服务器、终端设备、用眼姿态的判别信息的生成装置等)可以获取目标用户佩戴的头戴产品中的加速度传感器采集的、上述目标用户的头部加速度。
其中,目标用户可以是任一用户。作为示例,该目标用户可以是待判断其用眼姿态是否正确的用户。
302、确定上述头部加速度为0的时长大于或等于预设时长阈值。之后,若是,则执行步骤303。
在本实施例中,上述执行主体可以确定上述头部加速度为0的时长大于或等于预设时长阈值。
303、确定上述目标用户的头部处于静止状态,将当前静止状态的上述头部加速度确定为第一头部加速度,以及将前一静止状态的头部加速度确定为第二头部加速度。之后,执行步骤304。
在本实施例中,上述执行主体可以确定上述目标用户的头部处于静止状态,将当前静止状态的上述头部加速度确定为第一头部加速度,以及将前一静止状态的头部加速度确定为第二头部加速度。
304、确定在上述第一头部加速度的采集时刻和上述第二头部加速度的采集时刻之间采集的两个非0加速度的方向是否符合预设歪头判别条件。
在本实施例中,上述执行主体可以确定在上述第一头部加速度的采集时刻和上述第二头部加速度的采集时刻之间采集的两个非0加速度的方向是否符合预设歪头判别条件。之后,若是,则执行步骤305;若否,则执行步骤306。
305、确定上述目标用户的头部姿态表征歪头。之后,执行步骤307。
在本实施例中,上述执行主体可以确定上述目标用户的头部姿态表征歪头。
306、确定上述目标用户的头部姿态并非表征歪头。之后,执行步骤308。
在本实施例中,上述执行主体可以确定上述目标用户的头部姿态并非表征歪头。
307、生成表征上述目标用户的用眼姿态不正确的判别信息。
在本实施例中,上述执行主体可以生成表征上述目标用户的用眼姿态不正确的判别信息。
308、获取目标物体信息和目标距离。
在本实施例中,上述执行主体可以获取目标物体信息和目标距离。
在本实施例中,步骤308中的获取目标物体信息和目标距离的方式,可以与图1对应实施例中的步骤102一致,这里不再赘述。
本公开实施例提供的用眼姿态的判别信息的生成方法,通过判断头部加速度为0的时长是否大于或等于预设时长阈值,来确定目标用户的头部是否处于静止状态,从而提高了判断头部是否处于静止状态的准确性;基于两个非0加速度是否符合预设歪头判别条件,来确定目标用户的头部姿态是否表征歪头,提高了判断目标用户是否歪头的准确性。
图4为本公开实施例提供的再一种用眼姿态的判别信息的生成方法的流程示意图。这里,将头戴产品作为上述执行主体。其中,该头戴产品可以是智能眼镜、智能头戴耳机等。
下面参考图4对本方法进行示例性说明,但需要注意的是,本公开实施例可以具有以下所描述的特征,但以下描述并不构成对本公开实施例保护范围的限定。
在图4中,该头戴产品的执行步骤包括:
步骤一,进行安静状态(也即上述静止状态)检测。采用设置于头戴产品中的加速度传感器采集多轴加速度(也即目标用户的头部加速度),通过人工智能(AI,ArtificialIntelligence)算法判断出目标用户的当前运动状态,当处于静止状态时,进入下一步检测。
步骤二,头部姿态识别。当判断头部处于静止状态时,通过加速度传感器判断出目标用户当前是否正处于歪头等不正确的用眼姿势。
步骤三,眼部与屏幕(也即上述注视物体)之间的距离(也即上述目标距离)检测。可通过二维或三维毫米波雷达波反射准确判断出正前方被注视物体(例如屏幕或书本)与眼部的距离。
步骤四,屏幕大小检测。
这里可以根据不同等级的产品选择以下不同的方式检测屏幕大小:
对于隐私要求较高的头戴产品,可以使用三维毫米波雷达,通过AI算法对雷达点云数据处理,获取屏幕大小和空间位置。该算法优点是不受光线明暗影响。
对于隐私要求较低的头戴产品,可以使用摄像头采集图像,结合毫米波雷达获取的距离数据,通过AI算法算出屏幕大小。该算法优点是结合雷达获取的景深距离可准确判断出屏幕大小。
对于可同时加装三维毫米波雷达和摄像头的头戴产品,可融合毫米波雷达和摄像头二者数据共同判断出屏幕大小。该算法优点是判断准确。
步骤五,屏幕类型判断。
这里,屏幕类型判断也可根据产品等级选择以下两类方案:
对于隐私较高的只加装三维毫米波雷达的头戴产品,通过检测屏幕大小来估计屏幕类型,该方法优点是不受光线明暗影响。
对于隐私较低的可加装摄像头的头戴产品,通过AI算法即可识别出屏幕类型,该方法判断准确性较高。
步骤六,根据头戴产品定位(也即隐私需求程度的高低),选择不同的加速度传感器、二维或三维毫米波雷达、摄像头组合,在获取头部姿态数据、确定屏幕大小和类型、目标距离后,即可采用机器学习或规则方法判断出用户阅读姿势是否正确,通过语音信号或灯光信号提示用户当前用眼方式正确与否。
本公开实施例提供的用眼姿态的判别信息的生成方法中,头戴产品上可以设置有多个传感器,通过融合多个传感器采集的数据共同判断出当前用户在用眼阅读时的姿态、距离等,从而判断出用户用眼方式是否正确。当用户用眼方式不正确时,头戴产品通过语音信号或灯光信号警示用户纠正用眼姿势,保护用户视力。
图5为本公开实施例提供的一种用眼姿态的判别信息的生成装置的结构示意图,具体包括:
第一获取单元501,被配置成获取目标用户的头部姿态信息;
第二获取单元502,被配置成如果上述头部姿态信息指示上述目标用户的头部处于静止状态,则获取目标物体信息和目标距离,其中,上述目标物体信息表征上述目标用户的注视物体的大小信息和/或类型信息,上述目标距离为上述目标用户的眼部与上述注视物体之间的距离;
生成单元503,被配置成基于上述目标物体信息和上述目标距离,生成判别信息,其中,上述判别信息表征上述目标用户的用眼姿态是否正确。
可选地,在本公开任一实施例的装置中,上述头部姿态信息包括头部加速度;以及
上述第一获取单元501,具体被配置成:
获取目标用户佩戴的头戴产品中的加速度传感器采集的、上述目标用户的头部加速度。
可选地,在本公开任一实施例的装置中,上述第二获取单元502,具体被配置成:
如果上述头部加速度为0的时长大于或等于预设时长阈值,则确定上述目标用户的头部处于静止状态,将当前静止状态的上述头部加速度确定为第一头部加速度,以及将前一静止状态的头部加速度确定为第二头部加速度;
基于在上述第一头部加速度的采集时刻和上述第二头部加速度的采集时刻之间采集的两个非0加速度是否符合预设歪头判别条件,确定上述目标用户的头部姿态是否表征歪头;
如果上述目标用户的头部姿态并非表征歪头,则获取目标物体信息和目标距离。
可选地,在本公开任一实施例的装置中,如果上述目标用户的头部姿态表征歪头,则生成表征上述目标用户的用眼姿态不正确的判别信息。
可选地,在本公开任一实施例的装置中,上述预设歪头判别条件包括:上述两个非0加速度的方向之间的夹角大于0度且小于180度。
可选地,在本公开任一实施例的装置中,上述目标物体信息包括上述注视物体的大小信息;以及
上述第二获取单元502,具体被配置成以下之一:
获取经由上述头戴产品中的毫米波传感器采集的、上述注视物体的点云数据;基于上述点云数据,确定上述注视物体的大小信息;
获取经由上述头戴产品中的摄像头拍摄的、上述注视物体的图像;基于上述图像和上述目标距离,确定上述注视物体的大小信息;
获取经由上述头戴产品中的毫米波传感器采集的、上述注视物体的点云数据,以及经由上述头戴产品中的摄像头拍摄的、上述注视物体的图像;基于上述点云数据和上述图像,确定上述注视物体的大小信息。
可选地,在本公开任一实施例的装置中,上述目标物体信息包括上述注视物体的类型信息;以及
上述第二获取单元502,具体被配置成以下之一:
获取经由上述头戴产品中的毫米波传感器采集的、上述注视物体的点云数据;基于上述点云数据,确定上述注视物体的大小信息;基于上述大小信息,确定上述注视物体的类型信息;
获取经由上述头戴产品中毫米波传感器采集的、上述注视物体的点云数据,以及经由上述头戴产品中的摄像头拍摄的、上述注视物体的图像;基于上述点云数据和上述图像,确定上述注视物体的类型信息。
可选地,在本公开任一实施例的装置中,上述装置还包括:
控制单元(图中未示出),被配置成如果上述判别信息表征上述目标用户的用眼姿态不正确,则控制上述头戴产品输出表征用眼姿势不正确的提示信号。
本实施例提供的用眼姿态的判别信息的生成装置可以是如图4中所示的用眼姿态的判别信息的生成装置,可执行如图1-4中用眼姿态的判别信息的生成方法的所有步骤,进而实现图1-4所示用眼姿态的判别信息的生成方法的技术效果,具体请参照图1-4相关描述,为简洁描述,在此不作赘述。
图6为本公开实施例提供的一种电子设备的结构示意图,图6所示的电子设备600包括:至少一个处理器601、存储器602、至少一个网络接口604和其他用户接口603。电子设备600中的各个组件通过总线系统605耦合在一起。可理解,总线系统605用于实现这些组件之间的连接通信。总线系统605除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图6中将各种总线都标为总线系统605。
其中,用户接口603可以包括显示器、键盘或者点击设备(例如,鼠标,轨迹球(trackball)、触感板或者触摸屏等。
可以理解,本公开实施例中的存储器602可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(Read-Only Memory,ROM)、可编程只读存储器(Programmable ROM,PROM)、可擦除可编程只读存储器(Erasable PROM,EPROM)、电可擦除可编程只读存储器(Electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(Random Access Memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(Static RAM,SRAM)、动态随机存取存储器(Dynamic RAM,DRAM)、同步动态随机存取存储器(Synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(Double Data RateSDRAM,DDRSDRAM)、增强型同步动态随机存取存储器(Enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(Synch link DRAM,SLDRAM)和直接内存总线随机存取存储器(DirectRambus RAM,DRRAM)。本文描述的存储器602旨在包括但不限于这些和任意其它适合类型的存储器。
在一些实施方式中,存储器602存储了如下的元素,可执行单元或者数据结构,或者他们的子集,或者他们的扩展集:操作系统6021和应用程序6022。
其中,操作系统6021,包含各种系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务。应用程序6022,包含各种应用程序,例如媒体播放器(Media Player)、浏览器(Browser)等,用于实现各种应用业务。实现本公开实施例方法的程序可以包含在应用程序6022中。
在本公开实施例中,通过调用存储器602存储的程序或指令,具体的,可以是应用程序6022中存储的程序或指令,处理器601用于执行各方法实施例所提供的方法步骤,例如包括:
获取目标用户的头部姿态信息;
如果上述头部姿态信息指示上述目标用户的头部处于静止状态,则获取目标物体信息和目标距离,其中,上述目标物体信息表征上述目标用户的注视物体的大小信息和/或类型信息,上述目标距离为上述目标用户的眼部与上述注视物体之间的距离;
基于上述目标物体信息和上述目标距离,生成判别信息,其中,上述判别信息表征上述目标用户的用眼姿态是否正确。
可选地,在本公开任一实施例的方法中,上述头部姿态信息包括头部加速度;以及
上述获取目标用户的头部姿态信息,包括:
获取目标用户佩戴的头戴产品中的加速度传感器采集的、上述目标用户的头部加速度。
可选地,在本公开任一实施例的方法中,上述如果上述头部姿态信息指示上述目标用户的头部处于静止状态,则获取目标物体信息和目标距离,包括:
如果上述头部加速度为0的时长大于或等于预设时长阈值,则确定上述目标用户的头部处于静止状态,将当前静止状态的上述头部加速度确定为第一头部加速度,以及将前一静止状态的头部加速度确定为第二头部加速度;
基于在上述第一头部加速度的采集时刻和上述第二头部加速度的采集时刻之间采集的两个非0加速度是否符合预设歪头判别条件,确定上述目标用户的头部姿态是否表征歪头;
如果上述目标用户的头部姿态并非表征歪头,则获取目标物体信息和目标距离。
可选地,在本公开任一实施例的方法中,如果上述目标用户的头部姿态表征歪头,则生成表征上述目标用户的用眼姿态不正确的判别信息。
可选地,在本公开任一实施例的方法中,上述预设歪头判别条件包括:上述两个非0加速度的方向之间的夹角大于0度且小于180度。
可选地,在本公开任一实施例的方法中,上述目标物体信息包括上述注视物体的大小信息;以及
上述获取目标物体信息,包括以下之一:
获取经由上述头戴产品中的毫米波传感器采集的、上述注视物体的点云数据;基于上述点云数据,确定上述注视物体的大小信息;
获取经由上述头戴产品中的摄像头拍摄的、上述注视物体的图像;基于上述图像和上述目标距离,确定上述注视物体的大小信息;
获取经由上述头戴产品中的毫米波传感器采集的、上述注视物体的点云数据,以及经由上述头戴产品中的摄像头拍摄的、上述注视物体的图像;基于上述点云数据和上述图像,确定上述注视物体的大小信息。
可选地,在本公开任一实施例的方法中,上述目标物体信息包括上述注视物体的类型信息;以及
上述获取目标物体信息,包括以下之一:
获取经由上述头戴产品中的毫米波传感器采集的、上述注视物体的点云数据;基于上述点云数据,确定上述注视物体的大小信息;基于上述大小信息,确定上述注视物体的类型信息;
获取经由上述头戴产品中毫米波传感器采集的、上述注视物体的点云数据,以及经由上述头戴产品中的摄像头拍摄的、上述注视物体的图像;基于上述点云数据和上述图像,确定上述注视物体的类型信息。
可选地,在本公开任一实施例的方法中,上述方法还包括:
如果上述判别信息表征上述目标用户的用眼姿态不正确,则控制上述头戴产品输出表征用眼姿势不正确的提示信号。
上述本公开实施例揭示的方法可以应用于处理器601中,或者由处理器601实现。处理器601可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器601中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器601可以是通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(FieldProgrammable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本公开实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本公开实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件单元组合执行完成。软件单元可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器602,处理器601读取存储器602中的信息,结合其硬件完成上述方法的步骤。
可以理解的是,本文描述的这些实施例可以用硬件、软件、固件、中间件、微码或其组合来实现。对于硬件实现,处理单元可以实现在一个或多个专用集成电路(ApplicationSpecific Integrated Circuits,ASIC)、数字信号处理器(Digital Signal Processing,DSP)、数字信号处理设备(DSPDevice,DSPD)、可编程逻辑设备(Programmable LogicDevice,PLD)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、通用处理器、控制器、微控制器、微处理器、用于执行本公开的上述功能的其它电子单元或其组合中。
对于软件实现,可通过执行本文上述功能的单元来实现本文上述的技术。软件代码可存储在存储器中并通过处理器执行。存储器可以在处理器中或在处理器外部实现。
本实施例提供的电子设备可以是如图6中所示的电子设备,可执行如图1-4中用眼姿态的判别信息的生成方法的所有步骤,进而实现图1-4所示用眼姿态的判别信息的生成方法的技术效果,具体请参照图1-4相关描述,为简洁描述,在此不作赘述。
本公开实施例还提供了一种存储介质(计算机可读存储介质)。这里的存储介质存储有一个或者多个程序。其中,存储介质可以包括易失性存储器,例如随机存取存储器;存储器也可以包括非易失性存储器,例如只读存储器、快闪存储器、硬盘或固态硬盘;存储器还可以包括上述种类的存储器的组合。
当存储介质中一个或者多个程序可被一个或者多个处理器执行,以实现上述在电子设备侧执行的用眼姿态的判别信息的生成方法。
上述处理器用于执行存储器中存储的用眼姿态的判别信息的生成程序,以实现以下在电子设备侧执行的用眼姿态的判别信息的生成方法的步骤:
获取目标用户的头部姿态信息;
如果上述头部姿态信息指示上述目标用户的头部处于静止状态,则获取目标物体信息和目标距离,其中,上述目标物体信息表征上述目标用户的注视物体的大小信息和/或类型信息,上述目标距离为上述目标用户的眼部与上述注视物体之间的距离;
基于上述目标物体信息和上述目标距离,生成判别信息,其中,上述判别信息表征上述目标用户的用眼姿态是否正确。
可选地,在本公开任一实施例的方法中,上述头部姿态信息包括头部加速度;以及
上述获取目标用户的头部姿态信息,包括:
获取目标用户佩戴的头戴产品中的加速度传感器采集的、上述目标用户的头部加速度。
可选地,在本公开任一实施例的方法中,上述如果上述头部姿态信息指示上述目标用户的头部处于静止状态,则获取目标物体信息和目标距离,包括:
如果上述头部加速度为0的时长大于或等于预设时长阈值,则确定上述目标用户的头部处于静止状态,将当前静止状态的上述头部加速度确定为第一头部加速度,以及将前一静止状态的头部加速度确定为第二头部加速度;
基于在上述第一头部加速度的采集时刻和上述第二头部加速度的采集时刻之间采集的两个非0加速度是否符合预设歪头判别条件,确定上述目标用户的头部姿态是否表征歪头;
如果上述目标用户的头部姿态并非表征歪头,则获取目标物体信息和目标距离。
可选地,在本公开任一实施例的方法中,如果上述目标用户的头部姿态表征歪头,则生成表征上述目标用户的用眼姿态不正确的判别信息。
可选地,在本公开任一实施例的方法中,上述预设歪头判别条件包括:上述两个非0加速度的方向之间的夹角大于0度且小于180度。
可选地,在本公开任一实施例的方法中,上述目标物体信息包括上述注视物体的大小信息;以及
上述获取目标物体信息,包括以下之一:
获取经由上述头戴产品中的毫米波传感器采集的、上述注视物体的点云数据;基于上述点云数据,确定上述注视物体的大小信息;
获取经由上述头戴产品中的摄像头拍摄的、上述注视物体的图像;基于上述图像和上述目标距离,确定上述注视物体的大小信息;
获取经由上述头戴产品中的毫米波传感器采集的、上述注视物体的点云数据,以及经由上述头戴产品中的摄像头拍摄的、上述注视物体的图像;基于上述点云数据和上述图像,确定上述注视物体的大小信息。
可选地,在本公开任一实施例的方法中,上述目标物体信息包括上述注视物体的类型信息;以及
上述获取目标物体信息,包括以下之一:
获取经由上述头戴产品中的毫米波传感器采集的、上述注视物体的点云数据;基于上述点云数据,确定上述注视物体的大小信息;基于上述大小信息,确定上述注视物体的类型信息;
获取经由上述头戴产品中毫米波传感器采集的、上述注视物体的点云数据,以及经由上述头戴产品中的摄像头拍摄的、上述注视物体的图像;基于上述点云数据和上述图像,确定上述注视物体的类型信息。
可选地,在本公开任一实施例的方法中,上述方法还包括:
如果上述判别信息表征上述目标用户的用眼姿态不正确,则控制上述头戴产品输出表征用眼姿势不正确的提示信号。
专业人员应该还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本公开的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上所述的具体实施方式,对本公开的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本公开的具体实施方式而已,并不用于限定本公开的保护范围,凡在本公开的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。
Claims (11)
1.一种用眼姿态的判别信息的生成方法,其特征在于,所述方法包括:
获取目标用户的头部姿态信息;
如果所述头部姿态信息指示所述目标用户的头部处于静止状态,则获取目标物体信息和目标距离,其中,所述目标物体信息表征所述目标用户的注视物体的大小信息和/或类型信息,所述目标距离为所述目标用户的眼部与所述注视物体之间的距离;
基于所述目标物体信息和所述目标距离,生成判别信息,其中,所述判别信息表征所述目标用户的用眼姿态是否正确。
2.根据权利要求1所述的方法,其特征在于,所述头部姿态信息包括头部加速度;以及
所述获取目标用户的头部姿态信息,包括:
获取目标用户佩戴的头戴产品中的加速度传感器采集的、所述目标用户的头部加速度。
3.根据权利要求2所述的方法,其特征在于,所述如果所述头部姿态信息指示所述目标用户的头部处于静止状态,则获取目标物体信息和目标距离,包括:
如果所述头部加速度为0的时长大于或等于预设时长阈值,则确定所述目标用户的头部处于静止状态,将当前静止状态的所述头部加速度确定为第一头部加速度,以及将前一静止状态的头部加速度确定为第二头部加速度;
基于在所述第一头部加速度的采集时刻和所述第二头部加速度的采集时刻之间采集的两个非0加速度是否符合预设歪头判别条件,确定所述目标用户的头部姿态是否表征歪头;
如果所述目标用户的头部姿态并非表征歪头,则获取目标物体信息和目标距离。
4.根据权利要求3所述的方法,其特征在于,所述方法还包括:
如果所述目标用户的头部姿态表征歪头,则生成表征所述目标用户的用眼姿态不正确的判别信息。
5.根据权利要求3所述的方法,其特征在于,所述预设歪头判别条件包括:所述两个非0加速度的方向之间的夹角大于0度且小于180度。
6.根据权利要求2所述的方法,其特征在于,所述目标物体信息包括所述注视物体的大小信息;以及
所述获取目标物体信息,包括以下之一:
获取经由所述头戴产品中的毫米波传感器采集的、所述注视物体的点云数据;基于所述点云数据,确定所述注视物体的大小信息;
获取经由所述头戴产品中的摄像头拍摄的、所述注视物体的图像;基于所述图像和所述目标距离,确定所述注视物体的大小信息;
获取经由所述头戴产品中的毫米波传感器采集的、所述注视物体的点云数据,以及经由所述头戴产品中的摄像头拍摄的、所述注视物体的图像;基于所述点云数据和所述图像,确定所述注视物体的大小信息。
7.根据权利要求2所述的方法,其特征在于,所述目标物体信息包括所述注视物体的类型信息;以及
所述获取目标物体信息,包括以下之一:
获取经由所述头戴产品中的毫米波传感器采集的、所述注视物体的点云数据;基于所述点云数据,确定所述注视物体的大小信息;基于所述大小信息,确定所述注视物体的类型信息;
获取经由所述头戴产品中毫米波传感器采集的、所述注视物体的点云数据,以及经由所述头戴产品中的摄像头拍摄的、所述注视物体的图像;基于所述点云数据和所述图像,确定所述注视物体的类型信息。
8.根据权利要求2-7之一所述的方法,其特征在于,所述方法还包括:
如果所述判别信息表征所述目标用户的用眼姿态不正确,则控制所述头戴产品输出表征用眼姿势不正确的提示信号。
9.一种用眼姿态的判别信息的生成装置,其特征在于,所述装置包括:
第一获取单元,被配置成获取目标用户的头部姿态信息;
第二获取单元,被配置成如果所述头部姿态信息指示所述目标用户的头部处于静止状态,则获取目标物体信息和目标距离,其中,所述目标物体信息表征所述目标用户的注视物体的大小信息和/或类型信息,所述目标距离为所述目标用户的眼部与所述注视物体之间的距离;
生成单元,被配置成基于所述目标物体信息和所述目标距离,生成判别信息,其中,所述判别信息表征所述目标用户的用眼姿态是否正确。
10.一种电子设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述存储器中存储的计算机程序,且所述计算机程序被执行时,实现上述权利要求1-8任一所述的方法。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现上述权利要求1-8任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210776287.1A CN115205899A (zh) | 2022-06-30 | 2022-06-30 | 用眼姿态的判别信息的生成方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210776287.1A CN115205899A (zh) | 2022-06-30 | 2022-06-30 | 用眼姿态的判别信息的生成方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115205899A true CN115205899A (zh) | 2022-10-18 |
Family
ID=83578237
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210776287.1A Pending CN115205899A (zh) | 2022-06-30 | 2022-06-30 | 用眼姿态的判别信息的生成方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115205899A (zh) |
-
2022
- 2022-06-30 CN CN202210776287.1A patent/CN115205899A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2813922B1 (en) | Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device | |
WO2017092679A1 (zh) | 一种眼球跟踪的方法及装置、设备 | |
US10741175B2 (en) | Systems and methods for natural language understanding using sensor input | |
US20130286161A1 (en) | Three-dimensional face recognition for mobile devices | |
US11573627B2 (en) | Method of controlling device and electronic device | |
US9547412B1 (en) | User interface configuration to avoid undesired movement effects | |
KR102159767B1 (ko) | 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치 | |
CN113821124B (zh) | 用于触摸检测的imu | |
US20210005024A1 (en) | Image display control apparatus and image display control program | |
CN110427849B (zh) | 人脸姿态确定方法、装置、存储介质和电子设备 | |
CN111708432A (zh) | 安全区域确定方法、装置、头戴显示设备及存储介质 | |
US20240051475A1 (en) | Display adjustment method and apparatus | |
US10768699B2 (en) | Presentation to user of indication of object at which another person is looking | |
CN111723636A (zh) | 利用视动反应的欺骗检测 | |
CN115205899A (zh) | 用眼姿态的判别信息的生成方法和装置 | |
US20220245834A1 (en) | Image processing method and apparatus | |
CN112307806A (zh) | 头部姿态检测装置和方法 | |
US11782548B1 (en) | Speed adapted touch detection | |
KR102312601B1 (ko) | 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치 | |
KR102473669B1 (ko) | 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치 | |
CN115086557B (zh) | 内容显示方法、装置、产品、计算机可读存储介质及设备 | |
US11281337B1 (en) | Mirror accessory for camera based touch detection | |
CN112578983B (zh) | 手指取向触摸检测 | |
US20240350891A1 (en) | Game program control method with sports equipment and human-machine interaction system | |
US20240126369A1 (en) | Information processing system and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |