CN110236551A - 用户颈椎倾斜角度的获取方法、装置、电子设备及介质 - Google Patents
用户颈椎倾斜角度的获取方法、装置、电子设备及介质 Download PDFInfo
- Publication number
- CN110236551A CN110236551A CN201910425372.1A CN201910425372A CN110236551A CN 110236551 A CN110236551 A CN 110236551A CN 201910425372 A CN201910425372 A CN 201910425372A CN 110236551 A CN110236551 A CN 110236551A
- Authority
- CN
- China
- Prior art keywords
- face
- plane
- angle
- target user
- cervical vertebra
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
- A61B5/1071—Measuring physical dimensions, e.g. size of the entire body or parts thereof measuring angles, e.g. using goniometers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1116—Determining posture transitions
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- Dentistry (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Veterinary Medicine (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Physiology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本公开实施例公开了一种用户颈椎倾斜角度的获取方法、装置、电子设备及介质。其中,该方法包括:获取参照物的第一平面与水平面的第一夹角;通过从所述参照物向目标用户的人脸投射光束,获取所述人脸所在平面与所述参照物的所述第一平面的第二夹角,其中,所述光束的光密度不高于确定所述人脸所在平面所需的光密度;根据所述第一夹角和第二夹角,计算所述目标用户的颈椎相对水平面的倾斜角度。
Description
技术领域
本公开涉及数据处理领域,具体涉及一种用户颈椎倾斜角度的获取方法、装置、电子设备及介质。
背景技术
随着信息技术的飞速发展,手机等智能移动终端能够为人们提供各种各样的信息和服务,因此很多人痴迷于看手机,成为了“低头族”中的一员。科学研究表明,人们低头时,在达到头部的前屈极限,即头部底端接触到胸骨的极限状态时,头部的前屈角度为45°,而当头部的前屈角度达到30°时,就会影响到颈椎的健康,而如果颈椎长期处于极度前屈的异常状态,就会不可避免地对颈椎造成伤害,因此就需要时时检测颈椎的倾斜角度,以在必要时提醒用户矫正姿态。
现有技术中,通常使用摄像头等图像采集设备采集人脸图像,再使用图像识别模块来获取人脸识别数据,最后借助人脸建模的方法来获得颈椎的倾斜角度,这种方法在偶发的人脸识别和角度检测时能够有效获得颈椎的倾斜角度,但由于其在计算过程中需要调用图像采集设备和图像识别模块,因此在颈椎倾斜角度的实时检测中,就需要持续地调用图像采集设备和图像识别模块,这不仅会导致较高的能耗开销、图像分析与识别计算量的大幅增加、图像采集设备被聊天等其他应用占用时无法调用等情况,还会存在泄漏用户隐私的风险。
发明内容
针对现有技术中的上述技术问题,本公开实施例提出了一种用户颈椎倾斜角度的获取方法、装置、电子设备及介质。
本公开实施例的第一方面提供了一种用户颈椎倾斜角度的获取方法,包括:
获取参照物的第一平面与水平面的第一夹角;
通过从所述参照物向目标用户的人脸投射光束,获取所述人脸所在平面与所述参照物的所述第一平面的第二夹角,其中,所述光束的光密度不高于确定所述人脸所在平面所需的光密度;
根据所述第一夹角和第二夹角,计算所述目标用户的颈椎相对水平面的倾斜角度。
在一些实施例中,所述获取参照物的第一平面与水平面的第一夹角,包括:
获取所述参照物的姿态数据;
根据所述姿态数据计算所述参照物的第一平面与水平面的第一夹角。
在一些实施例中,所述光束为不可见光。
在一些实施例中,所述通过从所述参照物向目标用户的人脸投射光束,获取所述人脸所在平面与所述参照物的所述第一平面的第二夹角,包括:
从所述参照物向目标用户的人脸投射光束;
接收所述光束经所述目标用户的人脸反射得到的反射光;
根据所述反射光建立所述目标用户的人脸的三维模型;
根据所述人脸的三维模型确定所述人脸上的至少3个目标特征点,每一个所述目标特征点均与所述反射光在所述人脸上的反射点对应;
根据所述目标特征点确定所述人脸所在平面;
获取所述人脸所在平面与所述参照物的所述第一平面的第二夹角。
在一些实施例中,还包括:
当确定的所述目标特征点不足3个时,调整所述光束的光密度和/或角度。
在一些实施例中,还包括:
响应于所述目标用户的颈椎相对水平面的倾斜角度超过预设角度阈值,发送预设提示信息。
本公开实施例的第二方面提供了一种用户颈椎倾斜角度的获取装置,包括:
第一获取模块,被配置为获取参照物的第一平面与水平面的第一夹角;
第二获取模块,被配置为通过从所述参照物向目标用户的人脸投射光束,获取所述人脸所在平面与所述参照物的所述第一平面的第二夹角,其中,所述光束的光密度不高于确定所述人脸所在平面所需的光密度;
计算模块,被配置为根据所述第一夹角和第二夹角,计算所述目标用户的颈椎相对水平面的倾斜角度。
在一些实施例中,所述第一获取模块包括:
第一获取子模块,被配置为获取所述参照物的姿态数据;
计算子模块,被配置为根据所述姿态数据计算所述参照物的第一平面与水平面的第一夹角。
在一些实施例中,所述光束为不可见光。
在一些实施例中,所述第二获取模块包括:
投射子模块,被配置为从所述参照物向目标用户的人脸投射光束;
接收子模块,被配置为接收所述光束经所述目标用户的人脸反射得到的反射光;
建立子模块,被配置为根据所述反射光建立所述目标用户的人脸的三维模型;
第一确定子模块,被配置为根据所述人脸的三维模型确定所述人脸上的至少3个目标特征点,每一个所述目标特征点均与所述反射光在所述人脸上的反射点对应;
第二确定子模块,被配置为根据所述目标特征点确定所述人脸所在平面;
第二获取子模块,被配置为获取所述人脸所在平面与所述参照物的所述第一平面的第二夹角。
在一些实施例中,所述投射子模块还可被配置为:
当确定的所述目标特征点不足3个时,调整所述光束的光密度和/或角度。
在一些实施例中,还包括:
发送模块,被配置为响应于所述目标用户的颈椎相对水平面的倾斜角度超过预设角度阈值,发送预设提示信息。
本公开实施例的第三方面提供了一种电子设备,包括存储器和处理器,其中,所述存储器用于存储一条或多条计算机指令,其中,所述一条或多条计算机指令被所述处理器执行以实现如前述各实施例所述的方法。
本公开实施例的第四方面提供了一种计算机程序产品,所述计算机程序产品包括存储在计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,可用来实现如前述各实施例所述的方法。
本公开实施例通过获取参照物平面与水平面的夹角,以及从参照物向目标用户的人脸投射不高于预设光密度阈值的光束,来获取人脸所在平面与参照物平面的夹角,最终获得用户颈椎的倾斜角度。本公开实施例不需要持续调用图像采集设备和图像识别模块,因此能够大幅降低能耗成本、减少图像分析与识别计算量、在图像采集设备被聊天等其他应用占用时仍然可以进行角度的计算,同时还能够避免用户隐私的泄漏。
附图说明
通过参考附图会更加清楚的理解本公开的特征和优点,附图是示意性的而不应理解为对本公开进行任何限制,在附图中:
图1是根据本公开的一些实施例所示的一种用户颈椎倾斜角度的获取方法的流程图;
图2是根据本公开的一些实施例所示的用户颈椎倾斜角度的获取方法的步骤S102的流程示意图;
图3是根据本公开的一些实施例所示的用户颈椎倾斜角度的获取方法的步骤S104的流程示意图;
图4是根据本公开的另一些实施例所示的用户颈椎倾斜角度的获取方法的步骤S104的流程示意图;
图5为根据本公开一实施例确定的光束投射位置示意图;
图6是根据本公开的另一些实施例所示的一种用户颈椎倾斜角度的获取方法的流程图;
图7是根据本公开的一些实施例所示的一种用户颈椎倾斜角度的获取装置的结构框图;
图8是根据本公开的一些实施例所示的用户颈椎倾斜角度的获取装置的第一获取模块710的结构框图;
图9是根据本公开的一些实施例所示的用户颈椎倾斜角度的获取装置的第二获取模块720的结构框图;
图10是根据本公开的另一些实施例所示的一种用户颈椎倾斜角度的获取装置的结构框图;
图11是根据本公开的一些实施例所示的电子设备的示意图;
图12是适于用来实现根据本公开实施例的用户颈椎倾斜角度的获取方法的通用型计算机节点的结构示意图。
具体实施方式
在下面的详细描述中,通过示例阐述了本公开的许多具体细节,以便提供对相关披露的透彻理解。然而,对于本领域的普通技术人员来讲,本公开显而易见的可以在没有这些细节的情况下实施。应当理解的是,本公开中使用“系统”、“装置”、“单元”和/或“模块”术语,是用于区分在顺序排列中不同级别的不同部件、元件、部分或组件的一种方法。然而,如果其他表达式可以实现相同的目的,这些术语可以被其他表达式替换。
应当理解的是,当设备、单元或模块被称为“在……上”、“连接到”或“耦合到”另一设备、单元或模块时,其可以直接在另一设备、单元或模块上,连接或耦合到或与其他设备、单元或模块通信,或者可以存在中间设备、单元或模块,除非上下文明确提示例外情形。例如,本公开所使用的术语“和/或”包括一个或多个相关所列条目的任何一个和所有组合。
本公开所用术语仅为了描述特定实施例,而非限制本公开范围。如本公开说明书和权利要求书中所示,除非上下文明确提示例外情形,“一”、“一个”、“一种”和/或“该”等词并非特指单数,也可包括复数。一般说来,术语“包括”与“包含”仅提示包括已明确标识的特征、整体、步骤、操作、元素和/或组件,而该类表述并不构成一个排它性的罗列,其他特征、整体、步骤、操作、元素和/或组件也可以包含在内。
参看下面的说明以及附图,本公开的这些或其他特征和特点、操作方法、结构的相关元素的功能、部分的结合以及制造的经济性可以被更好地理解,其中说明和附图形成了说明书的一部分。然而,可以清楚地理解,附图仅用作说明和描述的目的,并不意在限定本公开的保护范围。可以理解的是,附图并非按比例绘制。
本公开中使用了多种结构图用来说明根据本公开的实施例的各种变形。应当理解的是,前面或下面的结构并不是用来限定本公开。本公开的保护范围以权利要求为准。
图1是根据本公开的一些实施例所示的一种用户颈椎倾斜角度的获取方法的流程示意图,如图1所示,所述用户颈椎倾斜角度的获取方法包括以下步骤:
S102,获取参照物的第一平面与水平面的第一夹角。
上文提及,如果颈椎长期处于极度前屈的异常状态,就会不可避免地对颈椎造成伤害,因此就需要时时检测颈椎的倾斜角度,以在必要时提醒用户矫正姿态。现有技术中,通常使用摄像头等图像采集设备采集人脸图像,再使用图像识别模块来获取人脸识别数据,最后借助人脸建模的方法来获得颈椎的倾斜角度,这种方法能够有效获得颈椎的倾斜角度,但由于在计算过程中需要调用图像采集设备和图像识别模块,因此不适用于颈椎倾斜角度的实时检测中,因为持续地调用图像采集设备和图像识别模块不仅会导致较高的能耗开销、图像分析与识别计算量的大幅增加、图像采集设备被聊天等其他应用占用时无法调用等情况,还会存在泄漏用户隐私的风险。
在一些实施例中,提出一种用户颈椎倾斜角度的获取方法,该方法通过获取参照物平面与水平面的夹角,以及从参照物向目标用户的人脸投射不高于预设光密度阈值的光束,来获取人脸所在平面与参照物平面的夹角,最终获得用户颈椎的倾斜角度。本公开实施例不需要持续调用图像采集设备和图像识别模块,因此能够大幅降低能耗成本、减少图像分析与识别计算量、在图像采集设备被聊天等其他应用占用时仍然可以进行角度的计算,同时还能够避免用户隐私的泄漏。
在一些实施例中,所述参照物可以为手机、平板、电脑屏幕等智能终端。由于后续需要由参照物向目标用户的人脸投射光束,因此,所述参照物需具备光束投射功能及相应的光束投射组件。
在一些实施例中,所述光束可以为红外、不可见激光等不可见光,当然也可以为其他可以进行光反射和光测量的不可见光束。相应地,当所述光束为不可见光时,所述光束投射组件可以为不可见光投射器。
在一些实施例中,所述参照物的第一平面指的是所述参照物的主平面,其中,所述主平面指的是当所述参照物处于应力状态时,主应力所对应的平面。在一些实施例中,所述主平面可以为参照物具有最大面积的表面所在的平面,比如,对于手机而言,其主平面就是手机屏幕所在的平面,而不是面积相对较小的手机侧面或者端面所在的平面。
S104,通过从所述参照物向目标用户的人脸投射光束,获取所述人脸所在平面与所述参照物的所述第一平面的第二夹角,其中,所述光束的光密度不高于确定所述人脸所在平面所需的光密度。
上文提及,现有技术若想要对于颈椎倾斜角度进行实时检测,就需要持续地调用图像采集设备和图像识别模块,这不仅会导致较高的能耗开销、图像分析与识别计算量的大幅增加、图像采集设备被聊天等其他应用占用时无法调用等情况,还会存在泄漏用户隐私的风险。因此,在一些实施例中,舍弃调用图像采集设备和图像识别模块的方法,通过从参照物向目标用户的人脸投射光束,来获取人脸所在平面与参照物平面之间的夹角。
考虑到该步骤的目的是要获取人脸所在平面,继而得到人脸所在平面与参照物平面之间的夹角,并不需要人脸或者头部的详细信息,因此,在使用光束投射人脸时,所使用的光束的光密度无需太高,只需达到能够确定人脸所在平面所需的最小的光密度即可,这样既能够成功获取需要的信息,还能够节省能源的使用量,降低能耗成本。在一些实施例中,可以设置一光密度阈值,使得投射人脸的光束不高于所述光密度阈值,而所述光密度阈值可设置为能够确定人脸所在平面所需要的最小的光密度值。
S106,根据所述第一夹角和第二夹角,计算所述目标用户的颈椎相对水平面的倾斜角度。
在得到参照物平面与水平面之间的第一夹角,以及人脸所在平面与参照物平面之间的第二夹角后,就可以根据所述第一夹角和第二夹角,计算得到所述目标用户的颈椎相对水平面的倾斜角度。
在一些实施例中,所述步骤S106,即根据所述第一夹角和第二夹角,计算所述目标用户的颈椎相对水平面的倾斜角度,可被实施为:
将所述第一角度和第二角度相加,得到所述目标用户的颈椎相对水平面的倾斜角度。
在一些可选的实施例中,如图2所示,所述步骤S102,即获取参照物的第一平面与水平面的第一夹角的步骤,包括以下步骤:
S202,获取所述参照物的姿态数据;
S204,根据所述姿态数据计算所述参照物的第一平面与水平面的第一夹角。
为了获得准确的参照物平面与水平面之间的夹角,在一些实施例中,借助所述参照物的姿态数据来计算得到参照物平面与水平面之间的夹角。
在一些实施例中,所述参照物的姿态数据可通过姿态设备来获得,其中,所述姿态设备可以是陀螺仪、加速度传感器、电子罗盘、姿态传感器等姿态设备,也可以是以上姿态设备的组合。而所述姿态设备既可以设置于所述参照物的外部,也可以设置于所述参照物的内部,即所述姿态设备可以为外设设备也可以为内设设备。
其中,根据所述姿态数据计算所述参照物的第一平面与水平面的第一夹角的方法属于本领域技术人员所能够掌握的技术,本公开对其不作赘述。
在一些可选的实施例中,如图3所示,步骤S104,即通过从所述参照物向目标用户的人脸投射光束,获取所述人脸所在平面与所述参照物的所述第一平面的第二夹角的步骤,包括以下步骤:
S302,从所述参照物向目标用户的人脸投射光束;
S304,接收所述光束经所述目标用户的人脸反射得到的反射光;
S306,根据所述反射光建立所述目标用户的人脸的三维模型;
S308,根据所述人脸的三维模型确定所述人脸上的至少3个目标特征点,每一个所述目标特征点均与所述反射光在所述人脸上的反射点对应;
S310,根据所述目标特征点确定所述人脸所在平面;
S312,获取所述人脸所在平面与所述参照物的所述第一平面的第二夹角。
为了获得人脸所在的平面,继而得到人脸所在平面与参照物平面之间的夹角,在该实施例中,首先从所述参照物向目标用户的人脸投射光束;然后接收所述光束经所述目标用户的人脸反射得到的反射光;根据所述反射光建立所述目标用户的人脸的三维模型;根据所述人脸的三维模型确定所述人脸上的至少3个目标特征点,其中,每一个所述目标特征点均与所述反射光在所述人脸上的反射点对应;根据所述目标特征点确定所述人脸所在平面;最后根据所述人脸所在平面获取其与所述参照物的所述第一平面之间的第二夹角。
在一些可选的实施例中,在接收到所述光束经所述目标用户的人脸反射得到的反射光后,可根据所述光束的投射时间与反射光的接收时间之间的时间差来计算得到目标用户人脸上的光反射位置与参照物之间的距离信息,进而根据获得的距离信息以及不同反射点之间的距离关系建立所述目标用户的人脸的三维模型。其中,根据不同反射点的距离信息建立人脸模型属于本领域技术人员能够掌握的技术,本公开对其不作赘述。
在一些可选的实施例中,确定了人脸三维模型之后,可根据人脸三维模型的架构以及模型数据的特点确定所述人脸上的至少3个目标特征点。其中,所述人脸目标特征点可以包括额头、眼睛、眉毛、鼻子、鼻尖、嘴、嘴唇、下巴、脸颊等能够表征人脸信息的特征点。
在一些可选的实施例中,基于所述至少3个目标特征点,即可根据三点成一面的原理得到目标用户人脸所在的平面,并进一步计算得到目标用户人脸所在平面与参照物的所述第一平面之间的第二夹角。在另一些可选的实施例中,还可以通过目标特征点与模型数据库中参考模型数据之间的匹配,来得到人脸所在的平面。本领域技术人员可根据实际应用的需要选择合适的人脸平面确定方法,本公开对其不作具体限定。
在一些可选的实施例中,所述步骤S104还包括当确定的所述目标特征点不足3个时,调整所述光束的光密度和/或角度的步骤,即如图4所示,所述步骤S104,即通过从所述参照物向目标用户的人脸投射光束,获取所述人脸所在平面与所述参照物的所述第一平面的第二夹角的步骤,包括以下步骤:
S402,从所述参照物向目标用户的人脸投射光束;
S404,接收所述光束经所述目标用户的人脸反射得到的反射光;
S406,根据所述反射光建立所述目标用户的人脸的三维模型;
S408,根据所述人脸的三维模型确定所述人脸上的至少3个目标特征点,每一个所述目标特征点均与所述反射光在所述人脸上的反射点对应;
S410,根据所述目标特征点确定所述人脸所在平面;
S412,获取所述人脸所在平面与所述参照物的所述第一平面的第二夹角;
S414,当确定的所述目标特征点不足3个时,调整所述光束的光密度和 /或角度。
上文提及,在确定人脸所在平面时,需要至少3个目标特征点,因此当目标特征点不足3个时,就无法准确确定人脸所在平面,这种情况有可能是由于光束的光密度不足或者投射角度存在偏差导致的,此时可通过调整所述光束的光密度和/或角度来重新获取足够数量的目标特征点,比如增加光束的光密度,即光束投射密度、变换光束的投射角度等等。在一些可选的实施例中,可以先以预设位置、预设投射角度、预设投射方向或者预设光密度进行光束的投射,在接收到反射光后若发现所获得的目标特征点的数量不足以确定人脸所在的平面,可再根据人脸的结构特点对于所述光束的投射位置、投射角度、投射方向或者投射光密度进行调整,直至得到足够的目标特征点。
当然,为了提高光束投射以及人脸目标特征点位置信息获取的效率,在一些可选的实施例中,还可根据经验数据、统计数据以及人脸的结构特征数据来确定人脸目标特征点的粗略位置,然后再根据人脸目标特征点的粗略位置确定光束的投射位置、投射角度或者投射方向,如图5所示。与上一实施例类似,在该实施例中,若发现所获得的目标特征点仍不足以确定所述人脸所在的平面,则可再根据人脸的结构特点对于所述光束的投射位置、投射角度、投射方向或者投射光密度进行调整。
在一些可选的实施例中,所述方法还包括根据所述目标用户的颈椎相对水平面的倾斜角度发送预设提示信息的步骤,即如图6所示,所述方法包括以下步骤:
S602,获取参照物的第一平面与水平面的第一夹角;
S604,通过从所述参照物向目标用户的人脸投射光束,获取所述人脸所在平面与所述参照物的所述第一平面的第二夹角,其中,所述光束的光密度不高于确定所述人脸所在平面所需的光密度;
S606,根据所述第一夹角和第二夹角,计算所述目标用户的颈椎相对水平面的倾斜角度;
S608,响应于所述目标用户的颈椎相对水平面的倾斜角度超过预设角度阈值,发送预设提示信息。
为了及时提醒用户矫正姿态,以保护颈椎避免受到伤害,在该实施例中,还根据所述目标用户的颈椎相对水平面的倾斜角度来发送预设的提示信息,具体地,当检测发现所述目标用户的颈椎相对水平面的倾斜角度超过预设角度阈值时,就向用户发送预设提示信息。其中,所述预设角度阈值可根据实际应用的需要、用户个体的差异、经验数据的特点来进行设置,比如可设置为30度或者更低。其中,所述提示信息可以为提示用户注意调整姿态、抬头休息等信息,其可表现为音频形式、文字形式、图像形式、视频形式、声光形式、光警形式等等。比如,当检测发现所述目标用户的颈椎相对水平面的倾斜角度超过了30度,则可通过声音提示用户:“请抬头休息一会吧”,或者同时启动光警设备,发出警报光以提醒用户注意调整姿态。
以上是本公开提供的用户颈椎倾斜角度的获取方法的具体实施方式。
图7是根据本公开的一些实施例所示的用户颈椎倾斜角度的获取装置示意图。如图7所示,所述用户颈椎倾斜角度的获取装置700包括:
第一获取模块710,被配置为获取参照物的第一平面与水平面的第一夹角。
上文提及,如果颈椎长期处于极度前屈的异常状态,就会不可避免地对颈椎造成伤害,因此就需要时时检测颈椎的倾斜角度,以在必要时提醒用户矫正姿态。现有技术中,通常使用摄像头等图像采集设备采集人脸图像,再使用图像识别模块来获取人脸识别数据,最后借助人脸建模的方法来获得颈椎的倾斜角度,这种方法能够有效获得颈椎的倾斜角度,但由于在计算过程中需要调用图像采集设备和图像识别模块,因此不适用于颈椎倾斜角度的实时检测中,因为持续地调用图像采集设备和图像识别模块不仅会导致较高的能耗开销、图像分析与识别计算量的大幅增加、图像采集设备被聊天等其他应用占用时无法调用等情况,还会存在泄漏用户隐私的风险。
在一些实施例中,提出一种用户颈椎倾斜角度的获取装置,该装置通过获取参照物平面与水平面的夹角,以及从参照物向目标用户的人脸投射不高于预设光密度阈值的光束,来获取人脸所在平面与参照物平面的夹角,最终获得用户颈椎的倾斜角度。本公开实施例不需要持续调用图像采集设备和图像识别模块,因此能够大幅降低能耗成本、减少图像分析与识别计算量、在图像采集设备被聊天等其他应用占用时仍然可以进行角度的计算,同时还能够避免用户隐私的泄漏。
在一些实施例中,所述参照物可以为手机、平板、电脑屏幕等智能终端。由于后续需要由参照物向目标用户的人脸投射光束,因此,所述参照物需具备光束投射功能及相应的光束投射组件。
在一些实施例中,所述光束可以为红外、不可见激光等不可见光,当然也可以为其他可以进行光反射和光测量的不可见光束。相应地,当所述光束为不可见光时,所述光束投射组件可以为不可见光投射器。
在一些实施例中,所述参照物的第一平面指的是所述参照物的主平面,其中,所述主平面指的是当所述参照物处于应力状态时,主应力所对应的平面。在一些实施例中,所述主平面可以为参照物具有最大面积的表面所在的平面,比如,对于手机而言,其主平面就是手机屏幕所在的平面,而不是面积相对较小的手机侧面或者端面所在的平面。
第二获取模块720,被配置为通过从所述参照物向目标用户的人脸投射光束,获取所述人脸所在平面与所述参照物的所述第一平面的第二夹角,其中,所述光束的光密度不高于确定所述人脸所在平面所需的光密度。
上文提及,现有技术若想要对于颈椎倾斜角度进行实时检测,就需要持续地调用图像采集设备和图像识别模块,这不仅会导致较高的能耗开销、图像分析与识别计算量的大幅增加、图像采集设备被聊天等其他应用占用时无法调用等情况,还会存在泄漏用户隐私的风险。因此,在一些实施例中,舍弃调用图像采集设备和图像识别模块的方法,通过从参照物向目标用户的人脸投射光束,来获取人脸所在平面与参照物平面之间的夹角。
考虑到该步骤的目的是要获取人脸所在平面,继而得到人脸所在平面与参照物平面之间的夹角,并不需要人脸或者头部的详细信息,因此,在使用光束投射人脸时,所使用的光束的光密度无需太高,只需达到能够确定人脸所在平面所需的最小的光密度即可,这样既能够成功获取需要的信息,还能够节省能源的使用量,降低能耗成本。在一些实施例中,可以设置一光密度阈值,使得投射人脸的光束不高于所述光密度阈值,而所述光密度阈值可设置为能够确定人脸所在平面所需要的最小的光密度值。
计算模块730,被配置为根据所述第一夹角和第二夹角,计算所述目标用户的颈椎相对水平面的倾斜角度。
在得到参照物平面与水平面之间的第一夹角,以及人脸所在平面与参照物平面之间的第二夹角后,就可以根据所述第一夹角和第二夹角,计算得到所述目标用户的颈椎相对水平面的倾斜角度。
在一些实施例中,所述计算模块730可被配置为:
将所述第一角度和第二角度相加,得到所述目标用户的颈椎相对水平面的倾斜角度。
在一些可选的实施例中,如图8所示,所述第一获取模块710包括:
第一获取子模块810,被配置为获取所述参照物的姿态数据;
计算子模块820,被配置为根据所述姿态数据计算所述参照物的第一平面与水平面的第一夹角。
为了获得准确的参照物平面与水平面之间的夹角,在一些实施例中,第一获取模块710借助所述参照物的姿态数据来计算得到参照物平面与水平面之间的夹角。
在一些实施例中,所述参照物的姿态数据可通过姿态设备来获得,其中,所述姿态设备可以是陀螺仪、加速度传感器、电子罗盘、姿态传感器等姿态设备,也可以是以上姿态设备的组合。而所述姿态设备既可以设置于所述参照物的外部,也可以设置于所述参照物的内部,即所述姿态设备可以为外设设备也可以为内设设备。
其中,根据所述姿态数据计算所述参照物的第一平面与水平面的第一夹角的方法属于本领域技术人员所能够掌握的技术,本公开对其不作赘述。
在一些可选的实施例中,如图9所示,所述第二获取模块720包括:
投射子模块910,被配置为从所述参照物向目标用户的人脸投射光束;
接收子模块920,被配置为接收所述光束经所述目标用户的人脸反射得到的反射光;
建立子模块930,被配置为根据所述反射光建立所述目标用户的人脸的三维模型;
第一确定子模块940,被配置为根据所述人脸的三维模型确定所述人脸上的至少3个目标特征点,每一个所述目标特征点均与所述反射光在所述人脸上的反射点对应;
第二确定子模块950,被配置为根据所述目标特征点确定所述人脸所在平面;
第二获取子模块960,被配置为获取所述人脸所在平面与所述参照物的所述第一平面的第二夹角。
为了获得人脸所在的平面,继而得到人脸所在平面与参照物平面之间的夹角,在该实施例中,投射子模块910从所述参照物向目标用户的人脸投射光束;接收子模块920接收所述光束经所述目标用户的人脸反射得到的反射光;建立子模块930根据所述反射光建立所述目标用户的人脸的三维模型;第一确定子模块940根据所述人脸的三维模型确定所述人脸上的至少3个目标特征点,其中,每一个所述目标特征点均与所述反射光在所述人脸上的反射点对应;第二确定子模块950根据所述目标特征点确定所述人脸所在平面;第二获取子模块960根据所述人脸所在平面获取其与所述参照物的所述第一平面之间的第二夹角。
在一些可选的实施例中,在接收子模块920接收到所述光束经所述目标用户的人脸反射得到的反射光后,建立子模块930可根据所述光束的投射时间与反射光的接收时间之间的时间差来计算得到目标用户人脸上的光反射位置与参照物之间的距离信息,进而根据获得的距离信息以及不同反射点之间的距离关系建立所述目标用户的人脸的三维模型。其中,根据不同反射点的距离信息建立人脸模型属于本领域技术人员能够掌握的技术,本公开对其不作赘述。
在一些可选的实施例中,建立子模块930确定了人脸三维模型之后,第一确定子模块940可根据人脸三维模型的架构以及模型数据的特点确定所述人脸上的至少3个目标特征点。其中,所述人脸目标特征点可以包括额头、眼睛、眉毛、鼻子、鼻尖、嘴、嘴唇、下巴、脸颊等能够表征人脸信息的特征点。
在一些可选的实施例中,第二确定子模块950基于所述至少3个目标特征点,即可根据三点成一面的原理得到目标用户人脸所在的平面,并进一步计算得到目标用户人脸所在平面与参照物的所述第一平面之间的第二夹角。在另一些可选的实施例中,还可以通过目标特征点与模型数据库中参考模型数据之间的匹配,来得到人脸所在的平面。本领域技术人员可根据实际应用的需要选择合适的人脸平面确定方法,本公开对其不作具体限定。
在一些可选的实施例中,所述投射子模块910还可被配置为:
当确定的所述目标特征点不足3个时,调整所述光束的光密度和/或角度。
上文提及,在确定人脸所在平面时,需要至少3个目标特征点,因此当目标特征点不足3个时,就无法准确确定人脸所在平面,这种情况有可能是由于光束的光密度不足或者投射角度存在偏差导致的,此时可通过调整所述光束的光密度和/或角度来重新获取足够数量的目标特征点,比如增加光束的光密度,即光束投射密度、变换光束的投射角度等等。
在一些可选的实施例中,可以先以预设位置、预设投射角度、预设投射方向或者预设光密度进行光束的投射,在接收到反射光后若发现所获得的目标特征点的数量不足以确定人脸所在的平面,可再根据人脸的结构特点对于所述光束的投射位置、投射角度、投射方向或者投射光密度进行调整,直至得到足够的目标特征点。
当然,为了提高光束投射以及人脸目标特征点位置信息获取的效率,在一些可选的实施例中,还可根据经验数据、统计数据以及人脸的结构特征数据来确定人脸目标特征点的粗略位置,然后再根据人脸目标特征点的粗略位置确定光束的投射位置、投射角度或者投射方向,如图5所示。与上一实施例类似,在该实施例中,若发现所获得的目标特征点仍不足以确定所述人脸所在的平面,则可再根据人脸的结构特点对于所述光束的投射位置、投射角度、投射方向或者投射光密度进行调整。
在一些可选的实施例中,所述装置还包括根据所述目标用户的颈椎相对水平面的倾斜角度发送预设提示信息的部分,即如图10所示,所述装置1000 包括:
第一获取模块1010,被配置为获取参照物的第一平面与水平面的第一夹角;
第二获取模块1020,被配置为通过从所述参照物向目标用户的人脸投射光束,获取所述人脸所在平面与所述参照物的所述第一平面的第二夹角,其中,所述光束的光密度不高于确定所述人脸所在平面所需的光密度;
计算模块1030,被配置为根据所述第一夹角和第二夹角,计算所述目标用户的颈椎相对水平面的倾斜角度;
发送模块1040,被配置为响应于所述目标用户的颈椎相对水平面的倾斜角度超过预设角度阈值,发送预设提示信息。
为了及时提醒用户矫正姿态,以保护颈椎避免受到伤害,在该实施例中,还设置有发送模块1040,以根据所述目标用户的颈椎相对水平面的倾斜角度来发送预设的提示信息,具体地,当发送模块1040检测发现所述目标用户的颈椎相对水平面的倾斜角度超过预设角度阈值时,就向用户发送预设提示信息。其中,所述预设角度阈值可根据实际应用的需要、用户个体的差异、经验数据的特点来进行设置,比如可设置为30度或者更低。其中,所述提示信息可以为提示用户注意调整姿态、抬头休息等信息,其可表现为音频形式、文字形式、图像形式、视频形式、声光形式、光警形式等等。比如,当检测发现所述目标用户的颈椎相对水平面的倾斜角度超过了30度,则可通过声音提示用户:“请抬头休息一会吧”,或者同时启动光警设备,发出警报光以提醒用户注意调整姿态。
参考附图11,为本公开一个实施例提供的电子设备示意图。如图11所示,该电子设备1100包括:
存储器1130以及一个或多个处理器1110;
其中,所述存储器1130与所述一个或多个处理器1110通信连接,所述存储器1130中存储有可被所述一个或多个处理器执行的指令1132,所述指令1132被所述一个或多个处理器1110执行,以使所述一个或多个处理器1110 执行上述用户颈椎倾斜角度的获取步骤。
本公开的一个实施例提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机可执行指令,所述计算机可执行指令被执行后执行上述用户颈椎倾斜角度的获取步骤。
综上所述,本公开提出了一种用户颈椎倾斜角度的获取方法、装置、电子设备及其计算机可读存储介质。本公开实施例通过获取参照物平面与水平面的夹角,以及从参照物向目标用户的人脸投射不高于预设光密度阈值的光束,来获取人脸所在平面与参照物平面的夹角,最终获得用户颈椎的倾斜角度。本公开实施例不需要持续调用图像采集设备和图像识别模块,因此能够大幅降低能耗成本、减少图像分析与识别计算量、在图像采集设备被聊天等其他应用占用时仍然可以进行角度的计算,同时还能够避免用户隐私的泄漏。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的设备和模块的具体工作过程,可以参考前述装置实施例中的对应描述,在此不再赘述。
尽管此处所述的主题是在结合操作系统和应用程序在计算机系统上的执行而执行的一般上下文中提供的,但本领域技术人员可以认识到,还可结合其他类型的程序模块来执行其他实现。一般而言,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、组件、数据结构和其他类型的结构。本领域技术人员可以理解,此处所述的本主题可以使用其他计算机系统配置来实践,包括手持式设备、多处理器系统、基于微处理器或可编程消费电子产品、小型计算机、大型计算机等,也可使用在其中任务由通过通信网络连接的远程处理设备执行的分布式计算环境中。在分布式计算环境中,程序模块可位于本地和远程存储器存储设备的两者中。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及方法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本公开的范围。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本公开的技术方案本质上或者说对原有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开各个实施例所述方法的全部或部分步骤。比如,典型地,本公开的技术方案可通过至少一个如图12所示的通用型计算机节点 1210来实现和/或传播。在图12中,通用型计算机节点1210包括:计算机系统/服务器1212、外设1214和显示设备1216;其中,所述计算机系统/服务器1212包括处理单元1220、输入/输出接口1222、网络适配器1224和存储器1230,内部通常通过总线实现数据传输;进一步地,存储器1230通常由多种存储设备组成,比如,RAM(Random Access Memory,随机存储器) 1232、缓存1234和存储系统(一般由一个或多个大容量非易失性存储介质组成)1236等;实现本公开技术方案的部分或全部功能的程序1240保存在存储器1230中,通常以多个程序模块1242的形式存在。
而前述的计算机可读取存储介质包括以存储如计算机可读指令、数据结构、程序模块或其他数据等信息的任何方式或技术来实现的物理易失性和非易失性、可移动和不可因东介质。计算机可读取存储介质具体包括,但不限于,U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、可擦除可编程只读存储器 (EPROM)、电可擦可编程只读存储器(EEPROM)、闪存或其他固态存储器技术、CD-ROM、数字多功能盘(DVD)、HD-DVD、蓝光(Blue-Ray)或其他光存储设备、磁带、磁盘存储或其他磁性存储设备、或能用于存储所需信息且可以由计算机访问的任何其他介质。
应当理解的是,本公开的上述具体实施方式仅仅用于示例性说明或解释本公开的原理,而不构成对本公开的限制。因此,在不偏离本公开的精神和范围的情况下所做的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。此外,本公开所附权利要求旨在涵盖落入所附权利要求范围和边界、或者这种范围和边界的等同形式内的全部变化和修改例。
Claims (14)
1.一种用户颈椎倾斜角度的获取方法,其特征在于,包括:
获取参照物的第一平面与水平面的第一夹角;
通过从所述参照物向目标用户的人脸投射光束,获取所述人脸所在平面与所述参照物的所述第一平面的第二夹角,其中,所述光束的光密度不高于确定所述人脸所在平面所需的光密度;
根据所述第一夹角和第二夹角,计算所述目标用户的颈椎相对水平面的倾斜角度。
2.根据权利要求1所述的方法,其特征在于,所述获取参照物的第一平面与水平面的第一夹角,包括:
获取所述参照物的姿态数据;
根据所述姿态数据计算所述参照物的第一平面与水平面的第一夹角。
3.根据权利要求1或2所述的方法,其特征在于,所述光束为不可见光。
4.根据权利要求1-3任一所述的方法,其特征在于,所述通过从所述参照物向目标用户的人脸投射光束,获取所述人脸所在平面与所述参照物的所述第一平面的第二夹角,包括:
从所述参照物向目标用户的人脸投射光束;
接收所述光束经所述目标用户的人脸反射得到的反射光;
根据所述反射光建立所述目标用户的人脸的三维模型;
根据所述人脸的三维模型确定所述人脸上的至少3个目标特征点,每一个所述目标特征点均与所述反射光在所述人脸上的反射点对应;
根据所述目标特征点确定所述人脸所在平面;
获取所述人脸所在平面与所述参照物的所述第一平面的第二夹角。
5.根据权利要求4所述的方法,其特征在于,还包括:
当确定的所述目标特征点不足3个时,调整所述光束的光密度和/或角度。
6.根据权利要求1-5任一所述的方法,其特征在于,还包括:
响应于所述目标用户的颈椎相对水平面的倾斜角度超过预设角度阈值,发送预设提示信息。
7.一种用户颈椎倾斜角度的获取装置,其特征在于,包括:
第一获取模块,被配置为获取参照物的第一平面与水平面的第一夹角;
第二获取模块,被配置为通过从所述参照物向目标用户的人脸投射光束,获取所述人脸所在平面与所述参照物的所述第一平面的第二夹角,其中,所述光束的光密度不高于确定所述人脸所在平面所需的光密度;
计算模块,被配置为根据所述第一夹角和第二夹角,计算所述目标用户的颈椎相对水平面的倾斜角度。
8.根据权利要求7所述的装置,其特征在于,所述第一获取模块包括:
第一获取子模块,被配置为获取所述参照物的姿态数据;
计算子模块,被配置为根据所述姿态数据计算所述参照物的第一平面与水平面的第一夹角。
9.根据权利要求7或8所述的装置,其特征在于,所述光束为不可见光。
10.根据权利要求7-9任一所述的装置,其特征在于,所述第二获取模块包括:
投射子模块,被配置为从所述参照物向目标用户的人脸投射光束;
接收子模块,被配置为接收所述光束经所述目标用户的人脸反射得到的反射光;
建立子模块,被配置为根据所述反射光建立所述目标用户的人脸的三维模型;
第一确定子模块,被配置为根据所述人脸的三维模型确定所述人脸上的至少3个目标特征点,每一个所述目标特征点均与所述反射光在所述人脸上的反射点对应;
第二确定子模块,被配置为根据所述目标特征点确定所述人脸所在平面;
第二获取子模块,被配置为获取所述人脸所在平面与所述参照物的所述第一平面的第二夹角。
11.根据权利要求10所述的装置,其特征在于,所述投射子模块还可被配置为:
当确定的所述目标特征点不足3个时,调整所述光束的光密度和/或角度。
12.根据权利要求7-11任一所述的装置,其特征在于,还包括:
发送模块,被配置为响应于所述目标用户的颈椎相对水平面的倾斜角度超过预设角度阈值,发送预设提示信息。
13.一种电子设备,其特征在于,包括:
存储器以及一个或多个处理器;
其中,所述存储器与所述一个或多个处理器通信连接,所述存储器中存储有可被所述一个或多个处理器执行的指令,所述指令被所述一个或多个处理器执行时,所述电子设备用于实现如权利要求1-6任一项所述的方法。
14.一种计算机可读存储介质,其上存储有计算机可执行指令,当所述计算机可执行指令被计算装置执行时,可用来实现如权利要求1-6任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910425372.1A CN110236551A (zh) | 2019-05-21 | 2019-05-21 | 用户颈椎倾斜角度的获取方法、装置、电子设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910425372.1A CN110236551A (zh) | 2019-05-21 | 2019-05-21 | 用户颈椎倾斜角度的获取方法、装置、电子设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110236551A true CN110236551A (zh) | 2019-09-17 |
Family
ID=67884598
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910425372.1A Pending CN110236551A (zh) | 2019-05-21 | 2019-05-21 | 用户颈椎倾斜角度的获取方法、装置、电子设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110236551A (zh) |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN202801617U (zh) * | 2012-08-09 | 2013-03-20 | 联想(北京)有限公司 | 姿态检测装置及电子设备 |
CN103021140A (zh) * | 2011-09-20 | 2013-04-03 | 三星电子株式会社 | 用于帮助用户保持正确姿势的设备和方法 |
CN103513768A (zh) * | 2013-08-30 | 2014-01-15 | 展讯通信(上海)有限公司 | 一种基于移动终端姿态变化的控制方法及装置、移动终端 |
TW201422464A (zh) * | 2012-12-11 | 2014-06-16 | Automotive Res & Testing Ct | 車用顯示系統之自動校正方法及其系統 |
CN103927250A (zh) * | 2014-04-16 | 2014-07-16 | 北京尚德智产投资管理有限公司 | 一种终端设备用户姿态检测方法 |
CN104580693A (zh) * | 2014-12-05 | 2015-04-29 | 三星电子(中国)研发中心 | 一种用户低头姿势检测方法和装置 |
CN105997090A (zh) * | 2016-04-29 | 2016-10-12 | 乐视控股(北京)有限公司 | 头颈姿势监测方法、装置 |
CN106650661A (zh) * | 2016-12-21 | 2017-05-10 | 奇酷互联网络科技(深圳)有限公司 | 一种终端使用状态的检测方法和装置 |
CN107273823A (zh) * | 2017-05-26 | 2017-10-20 | 西安理工大学 | 一种基于传感器与图像处理融合的颈部姿态监测方法 |
CN107807806A (zh) * | 2017-10-27 | 2018-03-16 | 广东欧珀移动通信有限公司 | 显示参数调整方法、装置及电子装置 |
CN107967794A (zh) * | 2017-11-22 | 2018-04-27 | 李海波 | 一种通过电子设备监测使用者姿势的方法 |
CN108012026A (zh) * | 2017-11-27 | 2018-05-08 | 维沃移动通信有限公司 | 一种保护视力方法及移动终端 |
CN108596089A (zh) * | 2018-04-24 | 2018-09-28 | 北京达佳互联信息技术有限公司 | 人脸姿态检测方法、装置、计算机设备及存储介质 |
CN109088981A (zh) * | 2018-07-10 | 2018-12-25 | 奇酷互联网络科技(深圳)有限公司 | 低头提醒方法、装置、可读存储介质及移动终端 |
-
2019
- 2019-05-21 CN CN201910425372.1A patent/CN110236551A/zh active Pending
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103021140A (zh) * | 2011-09-20 | 2013-04-03 | 三星电子株式会社 | 用于帮助用户保持正确姿势的设备和方法 |
CN202801617U (zh) * | 2012-08-09 | 2013-03-20 | 联想(北京)有限公司 | 姿态检测装置及电子设备 |
TW201422464A (zh) * | 2012-12-11 | 2014-06-16 | Automotive Res & Testing Ct | 車用顯示系統之自動校正方法及其系統 |
CN103513768A (zh) * | 2013-08-30 | 2014-01-15 | 展讯通信(上海)有限公司 | 一种基于移动终端姿态变化的控制方法及装置、移动终端 |
CN103927250A (zh) * | 2014-04-16 | 2014-07-16 | 北京尚德智产投资管理有限公司 | 一种终端设备用户姿态检测方法 |
CN104580693A (zh) * | 2014-12-05 | 2015-04-29 | 三星电子(中国)研发中心 | 一种用户低头姿势检测方法和装置 |
CN105997090A (zh) * | 2016-04-29 | 2016-10-12 | 乐视控股(北京)有限公司 | 头颈姿势监测方法、装置 |
CN106650661A (zh) * | 2016-12-21 | 2017-05-10 | 奇酷互联网络科技(深圳)有限公司 | 一种终端使用状态的检测方法和装置 |
CN107273823A (zh) * | 2017-05-26 | 2017-10-20 | 西安理工大学 | 一种基于传感器与图像处理融合的颈部姿态监测方法 |
CN107807806A (zh) * | 2017-10-27 | 2018-03-16 | 广东欧珀移动通信有限公司 | 显示参数调整方法、装置及电子装置 |
CN107967794A (zh) * | 2017-11-22 | 2018-04-27 | 李海波 | 一种通过电子设备监测使用者姿势的方法 |
CN108012026A (zh) * | 2017-11-27 | 2018-05-08 | 维沃移动通信有限公司 | 一种保护视力方法及移动终端 |
CN108596089A (zh) * | 2018-04-24 | 2018-09-28 | 北京达佳互联信息技术有限公司 | 人脸姿态检测方法、装置、计算机设备及存储介质 |
CN109088981A (zh) * | 2018-07-10 | 2018-12-25 | 奇酷互联网络科技(深圳)有限公司 | 低头提醒方法、装置、可读存储介质及移动终端 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109740491B (zh) | 一种人眼视线识别方法、装置、系统及存储介质 | |
CN108470169A (zh) | 人脸识别系统及方法 | |
CN109690553A (zh) | 执行眼睛注视跟踪的系统和方法 | |
US8494224B2 (en) | Perspective improvement for image and video applications | |
CN107563304B (zh) | 终端设备解锁方法及装置、终端设备 | |
US6775397B1 (en) | Method and apparatus for user recognition using CCD cameras | |
US20230343071A1 (en) | Liveness detection | |
WO2015172514A1 (zh) | 图像采集装置和方法 | |
US20040218070A1 (en) | Method and apparatus for user recognition using CCD cameras | |
WO2020020022A1 (zh) | 视觉识别方法及其系统 | |
EP2991027B1 (en) | Image processing program, image processing method and information terminal | |
WO2019011091A1 (zh) | 拍照提醒方法、装置、终端和计算机存储介质 | |
KR20160119176A (ko) | 시야 방향을 결정하기 위한 3-d 이미지 분석기 | |
JP2008198193A (ja) | 顔認証システム、方法及びプログラム | |
US10987198B2 (en) | Image simulation method for orthodontics and image simulation device thereof | |
WO2021164678A1 (zh) | 虹膜自动捕捉方法、装置、计算机可读存储介质及计算机设备 | |
CN208351494U (zh) | 人脸识别系统 | |
CN107436681A (zh) | 自动调节文字的显示大小的移动终端及其方法 | |
JP2018036812A (ja) | It運用作業遠隔支援システム及び方法 | |
CN112019826A (zh) | 投影方法、系统、装置、电子设备及存储介质 | |
CN113553995A (zh) | 校准方法及相关设备 | |
CN108537103B (zh) | 基于瞳孔轴测量的活体人脸检测方法及其设备 | |
CN114511915B (zh) | 一种基于移动客户端的可信任证件照采集系统及方法 | |
WO2022054468A1 (ja) | 撮影装置、撮影方法及びコンピュータプログラム | |
CN107577340A (zh) | 视力保护的方法、终端及存储装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190917 |