CN111563435A - 用户的睡眠状态检测方法及装置 - Google Patents
用户的睡眠状态检测方法及装置 Download PDFInfo
- Publication number
- CN111563435A CN111563435A CN202010347859.5A CN202010347859A CN111563435A CN 111563435 A CN111563435 A CN 111563435A CN 202010347859 A CN202010347859 A CN 202010347859A CN 111563435 A CN111563435 A CN 111563435A
- Authority
- CN
- China
- Prior art keywords
- human eye
- sleep state
- image
- user
- iris
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 258
- 238000000034 method Methods 0.000 claims abstract description 43
- 210000001508 eye Anatomy 0.000 claims description 374
- 210000000744 eyelid Anatomy 0.000 claims description 49
- 238000012549 training Methods 0.000 claims description 38
- 238000004590 computer program Methods 0.000 claims description 17
- 239000013598 vector Substances 0.000 claims description 12
- 230000002618 waking effect Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 239000000284 extract Substances 0.000 description 7
- 238000000605 extraction Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Analysis (AREA)
Abstract
本申请属于计算机视觉的技术领域,提供了一种用户的睡眠状态检测方法及装置,该方法包括:获取摄像装置实时拍摄用户人脸得到的视频数据;分别提取视频数据的每一帧图像中用户的虹膜特征信息,并根据提取到的虹膜特征信息进行人眼检测得到人眼位置信息;根据各个所述图像对应的人眼位置信息从所述图像内确定人眼区域图像;分别提取各个所述人眼区域图像的人眼轮廓信息,得到若干人眼关键点的坐标数据;根据所有所述图像对应的若干人眼关键点的所述坐标数据,对所述用户的睡眠状态进行检测得到睡眠状态检测结果,以根据所述睡眠状态检测结果设置桌面机器人的运行状态。本申请实施例解决桌面机器人计算性能小造成无法准确检测用户的睡眠状态的问题。
Description
技术领域
本发明涉及计算机视觉的技术领域,尤其涉及一种用户的睡眠状态检测方法及装置。
背景技术
为实现更便捷的居家生活和智能互动,桌面机器人已经大量的在用户生活中得到使用。桌面机器人具备播放音乐、播放新闻以及跳舞等功能。桌面机器人与用户之间的互动过程中,往往需要用户通过智能终端登录相应的APP(应用程序)对桌面机器人发出对应的指令,才能使得桌面机器人执行各种操作。若在特殊应用场景下需暂停机器人的使用时,需要用户主动进行操作,造成不便。例如桌面机器人在给儿童用户阅读图书的时候,当用户进入睡眠状态后,为节省电量需控制桌面机器人进入待机或者关机状态。为使桌面机器人能够根据用户的状态自主控制运行状态,需要桌面机器人对用户的人脸进行判断,以确定用户的意识状态。
现有技术中,人脸关键点检测技术用于对人脸跟踪和人脸校正等领域。人脸包括人眼、鼻子、嘴巴三个区域。目前的人脸关键点检测技术在应用的时候都是先检测人脸框区域,然后检测脸部轮廓以及五官的关键点位置。这种方式需要采用比较大的深度学习模型才能确保检测精度,而桌面机器人的计算性能十分有限,无法执行计算量大的人脸检测模型。
发明内容
有鉴于此,本发明实施例提供了一种用户的睡眠状态检测方法及装置,以解决桌面机器人计算性能小造成无法准确检测用户的睡眠状态的问题。
本发明实施例的第一方面提供了一种用户的睡眠状态检测方法,包括:
获取摄像装置实时拍摄用户人脸得到的视频数据;
分别提取所述视频数据的每一帧图像中所述用户的虹膜特征信息,并根据提取到的虹膜特征信息进行人眼检测得到人眼位置信息;
根据各个所述图像对应的人眼位置信息从所述图像内确定人眼区域图像;
分别提取各个所述人眼区域图像的人眼轮廓信息,得到若干人眼关键点的坐标数据;所述若干人眼关键点用于表示所述人眼区域图像中上眼睑和下眼睑与虹膜中心之间的位置关系;
根据所有所述图像对应的若干人眼关键点的所述坐标数据,对所述用户的睡眠状态进行检测得到睡眠状态检测结果,以根据所述睡眠状态检测结果设置桌面机器人的运行状态。
在一个实施示例中,所述分别提取所述视频数据的每一帧图像中所述用户的虹膜特征信息,并根据提取到的虹膜特征信息进行人眼检测得到人眼位置信息,包括:
将所述图像输入虹膜检测模型包含的若干可分离卷积模块提取所述用户的多尺度虹膜特征,并通过所述虹膜检测模型包含的若干特征金字塔模块结合所述多尺度虹膜特征生成虹膜特征信息;
将所述虹膜特征信息导入所述虹膜检测模型包含的若干多尺度预测模块对所述图像进行人眼检测,得到人眼位置信息。
在一个实施示例中,所述根据各个所述图像对应的人眼位置信息从所述图像内确定人眼区域图像和所述分别提取各个所述人眼区域图像的人眼轮廓信息,得到若干人眼关键点的坐标数据,包括:
分别将各个所述图像对应的所述人眼位置信息导入至人眼轮廓检测模型包含的若干可分离卷积层,从所述图像内确定人眼区域图像并对所述人眼区域图像进行人眼轮廓信息提取,得到轮廓特征信息;
将所述轮廓特征信息输入至所述人眼轮廓检测模型包含的若干全连接层,得到所述若干人眼关键点的坐标数据。
在一个实施示例中,所述根据所有所述图像对应的若干人眼关键点的所述坐标数据,对所述用户的睡眠状态进行检测得到睡眠状态检测结果,以根据所述睡眠状态检测结果设置桌面机器人的运行状态,包括:
根据所述每一帧图像对应的若干人眼关键点坐标数据确定以所述虹膜中心为顶点时所述上眼睑与所述下眼睑的闭合角度;
若所述闭合角度小于预设阈值,则所述睡眠状态检测结果为睡眠状态;
若所述闭合角度等于或大于所述预设阈值,则所述睡眠状态检测结果为清醒状态。
在一个实施示例中,所述根据所有所述图像对应的若干人眼关键点的所述坐标数据,对所述用户的睡眠状态进行检测得到睡眠状态检测结果,以根据所述睡眠状态检测结果设置桌面机器人的运行状态,还包括:
根据所述每一帧图像对应的若干人眼关键点坐标数据对用户的睡眠状态进行检测得到睡眠状态检测结果;
若在所述视频数据中存在连续十帧图像中N帧图像对应的睡眠状态检测结果为所述睡眠状态,则控制所述桌面机器人进入待机或关机状态;其中,N为预设帧数阈值。
在一个实施示例中,所述人眼位置信息包括在所述图像中限定所述人眼区域图像范围的两个坐标向量。
在一个实施示例中,在所述获取摄像装置实时拍摄用户人脸得到的视频数据之前,还包括:
根据第一训练数据对所述虹膜检测模型进行人眼检测训练;所述第一训练数据包括标注有所述人眼位置信息的人脸图像样本数据集。
在一个实施示例中,在所述获取摄像装置实时拍摄用户人脸得到的视频数据之前,还包括:
根据第二训练数据对所述人眼轮廓检测模型进行人眼轮廓信息提取训练;所述第二训练数据包括根据预设标注规则标注有所述若干人眼关键点的人眼图像样本数据集。
本发明实施例的第二方面提供了一种用户的睡眠状态检测装置,包括:
视频数据获取模块,用于获取摄像装置实时拍摄用户人脸得到的视频数据;
人眼位置信息检测模块,用于分别提取所述视频数据的每一帧图像中所述用户的虹膜特征信息,并根据提取到的虹膜特征信息进行人眼检测得到人眼位置信息;
人眼区域图像确定模块,用于根据各个所述图像对应的人眼位置信息从所述图像内确定人眼区域图像;
人眼关键点检测模块,用于分别提取各个所述人眼区域图像的人眼轮廓信息,得到若干人眼关键点的坐标数据;所述若干人眼关键点用于表示所述人眼区域图像中上眼睑和下眼睑与虹膜中心之间的位置关系;
睡眠状态检测模块,用于根据所有所述图像对应的若干人眼关键点的所述坐标数据,对所述用户的睡眠状态进行检测得到睡眠状态检测结果,以根据所述睡眠状态检测结果设置桌面机器人的运行状态。
本发明实施例的第三方面提供了一种用户的睡眠状态检测装置,包括:存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现第一方面中用户的睡眠状态检测方法。
本发明实施例提供的一种用户的睡眠状态检测方法及装置,在进行人脸检测时直接对视频数据中每一帧图像进行人眼虹膜检测确定人眼位置信息,然后对人眼位置信息对应的人眼图像进行人眼轮廓检测得到表示人眼图像中上眼睑和下眼睑与虹膜中心之间的位置关系的若干人眼关键点的坐标数据。由于只对用户的人眼进行检测且仅检测人眼的若干关键点,大幅度压缩人眼检测的计算量,只占用桌面机器人小部分计算性能。对每一帧图像的若干人眼关键点的坐标数据进行用户睡眠状态检测,就可得到睡眠状态检测结果,实现根据用户的状态自主控制运行状态,提高用户体验感。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例一提供的用户的睡眠状态检测方法的流程示意图;
图2是本发明实施例一提供的虹膜检测模型的结构示意图;
图3是本发明实施例一提供的若干人眼关键点在人眼区域图像的位置示意图;
图4是本发明实施例二提供的用户的睡眠状态检测方法的流程示意图;
图5是本发明实施例三提供的用户的睡眠状态检测装置的结构示意图;
图6是本发明实施例四提供的用户的睡眠状态检测装置的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“包括”以及它们任何变形,意图在于覆盖不排他的包含。例如包含一系列步骤或单元的过程、方法或系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。此外,术语“第一”、“第二”和“第三”等是用于区别不同对象,而非用于描述特定顺序。
实施例一
如图1所示,是本发明实施例一提供的用户的睡眠状态检测方法的流程示意图。本实施例可适用于桌面机器人对用户的睡眠状态进行检测的应用场景,该方法可以由用户的睡眠状态检测装置执行,该装置可为桌面机器人内部的处理器或MCU(微控单元)等;在本申请实施例中以用户的睡眠状态检测装置作为执行主体进行说明,该方法具体包括如下步骤:
S110、获取摄像装置实时拍摄用户人脸得到的视频数据。
由于桌面机器人的用户的睡眠状态检测装置计算性能有限,现有的人脸检测模型为确保检测精度,通常采用运算较为复杂的深度学习模型,由于桌面机器人在同时兼顾计算量以及设备体积的情况下,往往采用计算能力较弱的处理器或MCU,在该情况下,桌面机器人无法运行计算量大的深度学习模型进行用户的人脸检测,导致无法准确检测用户的睡眠状态。为解决这一问题,本实施例直接通过桌面机器人对用户进行实时拍摄,并将实时拍摄得到的视频数据中每一帧图像进行人眼虹膜检测,以确定人眼位置信息,然后对人眼位置信息对应的人眼图像进行人眼轮廓检测,减小数据处理繁杂程度,大幅度压缩人脸检测的计算量,只占用桌面机器人小部分计算性能。
具体地,桌面机器人包括摄像装置。当桌面机器人处于工作状态时用户的睡眠状态检测装置可同步控制摄像装置开启,以对用户的人脸进行实时拍摄得到上述的视频数据。对用户的睡眠状态进行检测时获取摄像装置实时拍摄用户人脸得到的视频数据,对该视频数据中的每一帧图像进行睡眠状态检测。
S120、分别提取所述视频数据的每一帧图像中所述用户的虹膜特征信息,并根据提取到的虹膜特征信息进行人眼检测得到人眼位置信息。
在获取拍摄装置实时拍摄用户人脸得到的视频数据后,由于确定用户的睡眠状态时只需分析图像中用户的人眼状态,用户的睡眠状态检测装置提取视频数据中每一帧图像中用户的虹膜特征信息,以直接对视频数据中每一帧图像的人眼进行检测。分别提取视频数据的每一帧图像中用户的虹膜特征信息即对检测视频数据中每一帧图像是否包含用户的人眼信息进行检测;若某一帧图像不包含人眼信息则无法提取到用户的虹膜特征信息。根据检测到人眼的每一图像对应的虹膜特征信息进行人眼检测得到该图像的人眼位置信息,从而能够根据每一图像对应的人眼位置信息从该图像内确定人眼区域图像,完成人眼检测。
在一种可能的实现方式中,桌面机器人可以对视频数据中的每一帧图像进行轮廓分析,确定轮廓曲线,基于轮廓曲线定位虹膜区域图像,并对虹膜区域图像进行图像分析,得到上述的虹膜特征信息。
在另一种可能的实现方式中,将获取到的视频数据输入虹膜检测模型实现分别提取所述视频数据的每一帧图像中所述用户的虹膜特征信息,并根据提取到的虹膜特征信息进行人眼检测得到人眼位置信息。具体过程可以包含步骤11~步骤12,详述如下:
步骤11、将所述图像输入虹膜检测模型包含的若干可分离卷积模块提取所述用户的多尺度虹膜特征,并通过所述虹膜检测模型包含的若干特征金字塔模块结合所述多尺度虹膜特征生成虹膜特征信息;
具体地,虹膜检测模型为神经网络模型,包含若干可分离卷积模块、若干特征金字塔模块和若干多尺度预测模块。用户的睡眠状态检测装置将视频数据中每一帧图像输入虹膜检测模型后,虹膜检测模型中的若干可分离卷积模块对每一图像的虹膜特征进行多尺度提取;其中,每一可分离卷积模块包含的卷积核不同,通过若干包含不同卷积核的可分离卷积模块对图像进行卷积得到多尺度虹膜特征。经若干可分离卷积模块提取得到的每一图像对应的多尺度虹膜特征输入若干特征金字塔模块,通过虹膜检测模型包含的若干特征金字塔模块结合每一图像对应的多尺度虹膜特征生成每一图像对应的虹膜特征信息,从而确保在用户离摄像装置不同距离都能检测到用户的虹膜部分。
其中,每一可分离卷积模块包括可分离卷积层和点加卷积层;可分离卷积层可为3X3卷积,点加卷积层可为1X1卷积。每一可分离卷积模块将一个大的卷积层的卷积核划分为两个较小的卷积核,在进行卷积运算时通过可分离卷积层和点加卷积层进行两次卷积运算。由于可分离卷积层和点加卷积层的卷积核较小,计算复杂性下降,通过若干可分离卷积模块对每一图像的虹膜特征进行多尺度提取,减少卷积操作的计算量,提升卷积运算的速度。检测不同尺度的目标耗时长,内存需求过高。为克服这一问题,虹膜检测模型通过若干FPN特征金字塔模块生成多层特征映射来检测目标,结合若干可分离卷积模块提取的多尺度虹膜特征生成虹膜特征信息,确保检测准确度。
虹膜检测模型基于若干可分离卷积模块和若干FPN特征金字塔模块构建轻量级神经网络,通过虹膜检测模型分别提取所述视频数据的每一帧图像中所述用户的虹膜特征信息,并根据提取到的虹膜特征信息进行人眼检测得到人眼位置信息,大幅度压缩人眼检测的计算量。
步骤12、将所述虹膜特征信息导入所述虹膜检测模型包含的若干多尺度预测模块对所述图像进行人眼检测,得到人眼位置信息。
将图像输入若干可分离卷积模块和若干特征金字塔模块得到虹膜特征信息后,将虹膜特征信息导入虹膜检测模型包含的若干多尺度预测模块对图像进行人眼检测,得到人眼位置信息。具体地,可根据人眼部分占图像画幅的比例设置若干多尺度预测模块对所述图像进行人眼检测,以提高人眼检测准确度。
具体举例说明,可选的,虹膜检测模型中可包括三个可分离卷积模块和两个FPN特征金字塔模块;三个可分离卷积模块分别为具有不同的空间维度以及网络位置。如图2所示是虹膜检测模型的结构示意图,若虹膜检测模型中可包括三个可分离卷积模块(空间维度逐模块减半的可分离卷积模块1、可分离卷积模块2和可分离卷积模块3)和两个FPN特征金字塔模块(FPN特征金字塔模块1和FPN特征金字塔模块2)时,将所述图像输入虹膜检测模型包含的若干可分离卷积模块提取所述用户的多尺度虹膜特征,并通过所述虹膜检测模型包含的若干特征金字塔模块结合所述多尺度虹膜特征生成虹膜特征信息的具体过程可为:用户的睡眠状态检测装置将视频数据中每一帧图像输入虹膜检测模型后,从可分离卷积模块3开始,通过可分离卷积模块3、可分离卷积模块2和可分离卷积模块1自下由上分别提取输入的图像的虹膜特征,得到多种尺度的虹膜特征。
然后通过虹膜检测模型包含的FPN特征金字塔模块1和FPN特征金字塔模块2自上而下结合多尺度虹膜特征生成虹膜特征信息。FPN特征金字塔模块1融合可分离卷积模块2和可分离卷积模块1提取到的不同尺度的虹膜特征得到第一虹膜特征信息;通过虹膜检测模型包含的FPN特征金字塔模块2融合第一虹膜特征信息和可分离卷积模块3提取到的虹膜特征得到第二虹膜特征信息。
可选的,虹膜检测模型中还可包括两个预测模块;设置其中一个预测模块1用于检测图像中占画幅比例大的人眼部分,另一个预测模块2用于检测图像中占画幅比例小的人眼部分。将FPN特征金字塔模块1生成的第一虹膜特征信息输入预测模块1进行人眼预测,将FPN特征金字塔模块2生成的第二虹膜特征信息输入预测模块2进行人眼预测,根据FPN特征金字塔模块1和FPN特征金字塔模块2的检测结果得到人眼位置信息即虹膜的边框信息。
在一个实施示例中,人眼位置信息包括在所述图像中限定人眼区域图像的范围的两个坐标向量。可选的,该人眼位置信息可为由图像中人眼区域图像的左上角坐标和右下角坐标向量组成的4维向量。
S130、根据各个所述图像对应的人眼位置信息从所述图像内确定人眼区域图像。
分别提取所述视频数据的每一帧图像中所述用户的虹膜特征信息,并根据提取到的虹膜特征信息进行人眼检测得到人眼位置信息后,根据视频数据中每一帧图像对应的人眼位置信息从图像内确定人眼区域图像。其中,该人眼区域图像为具有完整的上、下眼睑信息和虹膜信息的人眼图像。
S140、分别提取各个所述人眼区域图像的人眼轮廓信息,得到若干人眼关键点的坐标数据;所述若干人眼关键点用于表示所述人眼图像中上眼睑和下眼睑与虹膜中心之间的位置关系。
从每一图像内确定人眼区域图像后,提取每一图像对应的人眼区域图像的人眼轮廓信息,得到若干用于表示所述人眼图像中上眼睑和下眼睑与虹膜中心之间的位置关系的人眼关键点的坐标数据。使得用户的睡眠状态检测装置能够根据若干人眼关键点的坐标数据得到用户的人眼闭合状态,以实现对用户的睡眠状态的检测。
在一种可能的实现方式中,桌面机器人可以根据各个图像对应的人眼位置信息确定人眼区域图像,并根据人眼区域图像中的颜色分布确定人眼轮廓,基于人眼轮廓对若干人眼关键点定位,得到上述若干人眼关键点的坐标数据。
在另一种可能的实现方式中,将各个图像对应的人眼位置信息输入人眼轮廓检测模型,通过人眼轮廓检测模型根据各个所述图像对应的人眼位置信息从所述图像内确定人眼区域图像,并分别提取各个人眼区域图像的人眼轮廓信息得到若干人眼关键点的坐标数据。具体过程可以包含步骤21~步骤22,详述如下:
步骤21、分别将各个所述图像对应的所述人眼位置信息导入至人眼轮廓检测模型包含的若干可分离卷积层,从所述图像内确定人眼区域图像并对所述人眼区域图像进行人眼轮廓信息提取,得到轮廓特征信息;
具体地,人眼轮廓检测模型包含若干可分离卷积层。将各个图像对应的人眼位置信息输入人眼轮廓检测模型后,人眼轮廓检测模型中的若干可分离卷积层根据每一图像对应的人眼位置信息从该图像内确定人眼区域图像并对确定的人眼区域图像进行人眼轮廓信息提取得到轮廓特征信息。可选的,人眼轮廓检测模型可包含4个可分离卷积层。
步骤22、将所述轮廓特征信息输入至所述人眼轮廓检测模型包含的若干全连接层,得到所述若干人眼关键点的坐标数据。
具体地,人眼轮廓检测模型还包含若干全连接层。对于视频数据中任一帧图像,当人眼轮廓检测模型的若干可分离卷积层提取得到该图像对应的轮廓特征信息后,将轮廓特征信息输入至人眼轮廓检测模型中的若干全连接层得到若干用于表示所述人眼图像中上眼睑和下眼睑与虹膜中心之间的位置关系的人眼关键点的坐标数据。可选的,人眼轮廓检测模型还可包括2个全连接层。
可选的,如图3所示为若干人眼关键点在人眼区域图像的位置示意图。该若干人眼关键点可为9个人眼关键点,且可分别选取位于人眼区域图像中:人眼的眼角位置、人眼的眼尾位置、将人眼的上眼睑平分为4份的3个等分位置、将人眼的下眼睑平分为4份的3个等分位置和虹膜中心位置,这9个位置作为9个人眼关键点。
S150、根据所有所述图像对应的若干人眼关键点的所述坐标数据,对所述用户的睡眠状态进行检测得到睡眠状态检测结果,以根据所述睡眠状态检测结果设置桌面机器人的运行状态。
当得到视频数据中每一图像对应的若干人眼关键点后,由于若干人眼关键点能够表示人眼区域图像中上眼睑和下眼睑与虹膜中心之间的位置关系,用户的睡眠状态检测装置根据每一帧图像对应的若干人眼关键点的坐标数据得到该图像中用户的眼睛闭合状态。用户的睡眠状态检测装置检测视频数据中所有图像对应的用户的眼睛闭合状态得到用户的睡眠状态检测结果。可选的,检测得到的睡眠状态检测结果可为睡眠状态或清醒状态。当睡眠状态检测结果为睡眠状态时设置桌面机器人进入待机或关机状态;当睡眠状态检测结果为睡眠状态时设置桌面机器人保存当前运行状态,实现根据所述睡眠状态检测结果设置桌面机器人的运行状态,提高用户体验。
在一个实施示例中,根据所有所述图像对应的若干人眼关键点的所述坐标数据,对所述用户的睡眠状态进行检测得到睡眠状态检测结果的具体过程可为:根据所述每一帧图像对应的若干人眼关键点坐标数据确定以所述虹膜中心为顶点时所述上眼睑与所述下眼睑的闭合角度;若所述闭合角度小于预设阈值,则所述睡眠状态检测结果为睡眠状态;若所述闭合角度等于或大于所述预设阈值,则所述睡眠状态检测结果为清醒状态。
具体地,由于用户进入睡眠状态时人眼的上眼睑与下眼睑闭合,可根据每一帧图像对应的若干人眼关键点坐标数据计算以所述虹膜中心为顶点时该图像的人眼区域图像中上眼睑与下眼睑的闭合角度,使得用户的睡眠状态检测装置能够根据计算得到的闭合角度判断用户的人眼闭合状态。对于任一帧图像,用户的睡眠状态检测装置将图像对应的闭合角度与预设阈值进行比较,实现对所述用户的睡眠状态进行检测。若闭合角度小于预设阈值,则该图像的睡眠状态检测结果为睡眠状态;若闭合角度等于或大于预设阈值,则该图像的睡眠状态检测结果为清醒状态。且预设阈值根据用户处于睡眠状态时人眼的闭合角度进行设定;可选的,预设阈值可设定为15度。
具体举例说明,如图3所示为若干人眼关键点在人眼区域图像的位置示意图。若得到的每一图像对应的若干人眼关键点可为9个人眼关键点,且分别位于人眼区域图像中:人眼的眼角位置、人眼的眼尾位置、将人眼的上眼睑平分为4份的3个等分位置、将人眼的下眼睑平分为4份的3个等分位置和虹膜中心位置。设定位于人眼的眼角位置的人眼关键点为点1;设定从左至右的位于将人眼的上眼睑平分为4份的3个等分位置的三个人眼关键点为点2、点3和点4;设定位于人眼的眼尾位置的人眼关键点为点5;设定从右至左的位于将人眼的上眼睑平分为4份的3个等分位置的三个人眼关键点为点6、点7和点8;设定位于虹膜中心位置的人眼关键点为点9。
则根据所述每一帧图像对应的若干人眼关键点坐标数据确定以所述虹膜中心为顶点时所述上眼睑与所述下眼睑的闭合角度的具体计算过程可为:计算由点9开始指向点2的向量与由点9开始指向点8的向量之间的夹角1以及由点9开始指向点4的向量与由点9开始指向点6的向量之间的夹角2;夹角1和夹角2均为闭合角度。当夹角1和夹角2均小于预设阈值(例如15度)时,用户的睡眠状态检测装置判断对应的图像的睡眠状态检测结果为睡眠状态;当夹角1和\或夹角2大于或等于预设阈值(例如15度)时,用户的睡眠状态检测装置判断对应的图像的睡眠状态检测结果为清醒状态。
在一个实施示例中,由于用户在眨眼时人眼的闭合状态与处于睡眠状态时人眼的闭合状态相同,视频数据中任一帧图像的睡眠状态检测结果不足以判定用户当前的睡眠状态,还需结合视频数据中多帧图像的睡眠状态检测结果进行判断。则根据所有所述图像对应的若干人眼关键点的所述坐标数据对所述用户的睡眠状态进行检测得到睡眠状态检测结果,以根据所述睡眠状态检测结果设置桌面机器人的运行状态,具体可为:根据所述每一帧图像对应的若干人眼关键点坐标数据对用户的睡眠状态进行检测得到睡眠状态检测结果;若在所述视频数据中存在连续十帧图像中N帧图像对应的睡眠状态检测结果为所述睡眠状态,则控制所述桌面机器人进入待机或关机状态;其中,N为预设帧数阈值。
具体地,根据每一帧图像对应的若干人眼关键点坐标数据对用户的睡眠状态进行检测得到每一帧图像对应的睡眠状态检测结果后,可通过判断视频数据中连续十帧的图像的睡眠状态检测结果,检测用户是否持续处于睡眠状态。若在所述视频数据中存在连续十帧图像中N帧图像对应的睡眠状态检测结果为所述睡眠状态,则可判定用户处于睡眠状态,控制所述桌面机器人进入待机或关机状态。可选的,预设帧数阈值N可为8。
本发明实施例提供的一种用户的睡眠状态检测方法,在进行人脸检测时直接对视频数据中每一帧图像进行人眼虹膜检测确定人眼位置信息,然后对人眼位置信息对应的人眼图像进行人眼轮廓检测得到表示人眼图像中上眼睑和下眼睑与虹膜中心之间的位置关系的若干人眼关键点的坐标数据。由于只对用户的人眼进行检测且仅检测人眼的若干关键点,大幅度压缩人眼检测的计算量,只占用桌面机器人小部分计算性能。对每一帧图像的若干人眼关键点的坐标数据进行用户睡眠状态检测,就可得到睡眠状态检测结果,实现根据用户的状态自主控制运行状态,提高用户体验感。
实施例二
如图4所示的是本发明实施例二提供的用户的睡眠状态检测方法的流程示意图。在实施例一的基础上,本实施例还提供了虹膜检测模型和人眼轮廓检测模型的训练过程,从而实现人眼的检测。该方法具体包括:
S210、根据第一训练数据对所述虹膜检测模型进行人眼检测训练;所述第一训练数据包括标注有所述人眼位置信息的人脸图像样本数据集。
为实现虹膜检测模型对图像进行人眼检测输出人眼位置信息,通过第一训练数据对虹膜检测模型进行人眼检测训练;第一训练数据包括标注有人眼位置信息的人脸图像样本数据集。由于人眼位置信息可为在所述图像中限定人眼区域图像的范围的两个坐标向量,可选的,当人眼位置信息为由图像中人眼区域图像的左上角坐标和右下角坐标向量组成的4维向量时,第一训练数据中标注有人眼位置信息的人脸图像样本数据集为标注有图像中人眼区域图像的左上角坐标和右下角坐标向量的人脸图像样本数据集。在根据第一训练数据对所述虹膜检测模型进行人眼检测训练的过程中采用损失函数softmax函数以及smoothL1函数,提高虹膜检测模型的准确度。
S220、根据第二训练数据对所述人眼轮廓检测模型进行人眼轮廓信息提取训练;所述第二训练数据包括根据预设标注规则标注有所述若干人眼关键点的人眼图像样本数据集。
为实现人眼轮廓检测模型根据虹膜检测模型输出的人眼位置信息对图像进行人眼轮廓信息提取输出若干人眼关键点,通过第二训练数据对人眼轮廓检测模型进行训练;第二训练数据包括根据预设标注规则标注有所述若干人眼关键点的人眼图像样本数据集。由于预设标注规则可为选取分别位于人眼区域图像中:人眼的眼角位置、人眼的眼尾位置、将人眼的上眼睑平分为4份的3个等分位置、将人眼的下眼睑平分为4份的3个等分位置和虹膜中心位置的9个人眼关键点,可选的,第二训练数据包括的根据预设标注规则标注有若干人眼关键点的人眼图像样本数据集可为根据预设标注规则标注有9个人眼关键点的人眼图像样本数据集。在根据第二练数据对所述人眼轮廓检测模型进行人眼轮廓信息提取训练的过程中采用损失函数wing loss函数,提高虹膜检测模型的准确度。可选的,wing loss函数的公式如下:wing(x)=2ln(1+0.2*x)。
实施例三
如图5所示的是本发明实施例三提供的用户的睡眠状态检测装置。在实施例一或二的基础上,本发明实施例还提供了一种用户的睡眠状态检测装置5,该装置包括:
视频数据获取模块501,用于获取摄像装置实时拍摄用户人脸得到的视频数据;
人眼位置信息检测模块502,用于分别提取所述视频数据的每一帧图像中所述用户的虹膜特征信息,并根据提取到的虹膜特征信息进行人眼检测得到人眼位置信息;
在一个实施示例中,人眼位置信息检测模块502分别提取所述视频数据的每一帧图像中所述用户的虹膜特征信息,并根据提取到的虹膜特征信息进行人眼检测得到人眼位置信息时,包括:
虹膜特征信息提取单元,用于将所述图像输入虹膜检测模型包含的若干可分离卷积模块提取所述用户的多尺度虹膜特征,并通过所述虹膜检测模型包含的若干特征金字塔模块结合所述多尺度虹膜特征生成虹膜特征信息;
人眼位置信息提取单元,用于将所述虹膜特征信息导入所述虹膜检测模型包含的若干多尺度预测模块对所述图像进行人眼检测,得到人眼位置信息。
人眼区域图像确定模块503,用于根据各个所述图像对应的人眼位置信息从所述图像内确定人眼区域图像;
人眼关键点检测模块504,用于分别提取各个所述人眼区域图像的人眼轮廓信息,得到若干人眼关键点的坐标数据;所述若干人眼关键点用于表示所述人眼区域图像中上眼睑和下眼睑与虹膜中心之间的位置关系;
在一个实施示例中,人眼关键点检测模块504分别提取各个所述人眼区域图像的人眼轮廓信息,得到若干人眼关键点的坐标数据;所述若干人眼关键点用于表示所述人眼区域图像中上眼睑和下眼睑与虹膜中心之间的位置关系时,包括:
轮廓特征信息提取单元,用于分别将各个所述图像对应的所述人眼位置信息导入至人眼轮廓检测模型包含的若干可分离卷积层,从所述图像内确定人眼区域图像并对所述人眼区域图像进行人眼轮廓信息提取,得到轮廓特征信息;
人眼关键点的坐标数据提取单元,用于将所述轮廓特征信息输入至所述人眼轮廓检测模型包含的若干全连接层,得到所述若干人眼关键点的坐标数据。
睡眠状态检测模块505,用于根据所有所述图像对应的若干人眼关键点的所述坐标数据,对所述用户的睡眠状态进行检测得到睡眠状态检测结果,以根据所述睡眠状态检测结果设置桌面机器人的运行状态。
在一个实施示例中,睡眠状态检测模块505根据所有所述图像对应的若干人眼关键点的所述坐标数据,对所述用户的睡眠状态进行检测得到睡眠状态检测结果,以根据所述睡眠状态检测结果设置桌面机器人的运行状态时包括:
闭合角度计算单元,用于根据所述每一帧图像对应的若干人眼关键点坐标数据确定以所述虹膜中心为顶点时所述上眼睑与所述下眼睑的闭合角度;
睡眠状态检测单元,用于若所述闭合角度小于预设阈值,则所述睡眠状态检测结果为睡眠状态;
清醒状态检测单元,用于若所述闭合角度等于或大于所述预设阈值,则所述睡眠状态检测结果为清醒状态。
在一个实施示例中,睡眠状态检测模块505根据所有所述图像对应的若干人眼关键点的所述坐标数据,对所述用户的睡眠状态进行检测得到睡眠状态检测结果,以根据所述睡眠状态检测结果设置桌面机器人的运行状态时还包括:
睡眠状态检测单元,用于根据所述每一帧图像对应的若干人眼关键点坐标数据对用户的睡眠状态进行检测得到睡眠状态检测结果;
控制单元,用于若在所述视频数据中存在连续十帧图像中N帧图像对应的睡眠状态检测结果为所述睡眠状态,则控制所述桌面机器人进入待机或关机状态;其中,N为预设帧数阈值。
在一个实施示例中,用户的睡眠状态检测装置还包括:
第一模型训练模块,用于根据第一训练数据对所述虹膜检测模型进行人眼检测训练;所述第一训练数据包括标注有所述人眼位置信息的人脸图像样本数据集。
第二模型训练模块,用于根据第二训练数据对所述人眼轮廓检测模型进行人眼轮廓信息提取训练;所述第二训练数据包括根据预设标注规则标注有所述若干人眼关键点的人眼图像样本数据集。
本发明实施例提供的一种用户的睡眠状态检测装置,在进行人脸检测时直接对视频数据中每一帧图像进行人眼虹膜检测确定人眼位置信息,然后对人眼位置信息对应的人眼图像进行人眼轮廓检测得到表示人眼图像中上眼睑和下眼睑与虹膜中心之间的位置关系的若干人眼关键点的坐标数据。由于只对用户的人眼进行检测且仅检测人眼的若干关键点,大幅度压缩人眼检测的计算量,只占用桌面机器人小部分计算性能。对每一帧图像的若干人眼关键点的坐标数据进行用户睡眠状态检测,就可得到睡眠状态检测结果,实现根据用户的状态自主控制运行状态,提高用户体验感。
实施例四
图6是本发明实施例三提供的用户的睡眠状态检测装置的结构示意图。该用户的睡眠状态检测装置包括:处理器61、存储器62以及存储在所述存储器62中并可在所述处理器61上运行的计算机程序63,例如用于用户的睡眠状态检测方法的程序。所述处理器61执行所述计算机程序63时实现上述用户的睡眠状态检测方法实施例中的步骤,例如图1所示的步骤S110至S150。
示例性的,所述计算机程序63可以被分割成一个或多个模块,所述一个或者多个模块被存储在所述存储器62中,并由所述处理器61执行,以完成本申请。所述一个或多个模块可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序63在所述用户的睡眠状态检测装置中的执行过程。例如,所述计算机程序63可以被分割成视频数据获取模块、人眼位置信息检测模块、人眼区域图像确定模块、人眼关键点检测模块和睡眠状态检测模块,各模块具体功能如下:
视频数据获取模块,用于获取摄像装置实时拍摄用户人脸得到的视频数据;
人眼位置信息检测模块,用于分别提取所述视频数据的每一帧图像中所述用户的虹膜特征信息,并根据提取到的虹膜特征信息进行人眼检测得到人眼位置信息;
人眼区域图像确定模块,用于根据各个所述图像对应的人眼位置信息从所述图像内确定人眼区域图像;
人眼关键点检测模块,用于分别提取各个所述人眼区域图像的人眼轮廓信息,得到若干人眼关键点的坐标数据;所述若干人眼关键点用于表示所述人眼区域图像中上眼睑和下眼睑与虹膜中心之间的位置关系;
睡眠状态检测模块,用于根据所有所述图像对应的若干人眼关键点的所述坐标数据,对所述用户的睡眠状态进行检测得到睡眠状态检测结果,以根据所述睡眠状态检测结果设置桌面机器人的运行状态。
所述用户的睡眠状态检测装置可包括,但不仅限于,处理器61、存储器62以及存储在所述存储器62中的计算机程序63。本领域技术人员可以理解,图6仅仅是用户的睡眠状态检测装置的示例,并不构成对用户的睡眠状态检测装置的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述用户的睡眠状态检测装置还可以包括输入输出设备、网络接入设备、总线等。
所述处理器61可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器62可以是所述用户的睡眠状态检测装置的内部存储单元,例如用户的睡眠状态检测装置的硬盘或内存。所述存储器62也可以是外部存储设备,例如用户的睡眠状态检测装置上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器62还可以既包括用户的睡眠状态检测装置的内部存储单元也包括外部存储设备。所述存储器62用于存储所述计算机程序以及用户的睡眠状态检测方法所需的其他程序和数据。所述存储器62还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种用户的睡眠状态检测方法,其特征在于,包括:
获取摄像装置实时拍摄用户人脸得到的视频数据;
分别提取所述视频数据的每一帧图像中所述用户的虹膜特征信息,并根据提取到的虹膜特征信息进行人眼检测得到人眼位置信息;
根据各个所述图像对应的人眼位置信息从所述图像内确定人眼区域图像;
分别提取各个所述人眼区域图像的人眼轮廓信息,得到若干人眼关键点的坐标数据;所述若干人眼关键点用于表示所述人眼区域图像中上眼睑和下眼睑与虹膜中心之间的位置关系;
根据所有所述图像对应的若干人眼关键点的所述坐标数据,对所述用户的睡眠状态进行检测得到睡眠状态检测结果,以根据所述睡眠状态检测结果设置桌面机器人的运行状态。
2.如权利要求1所述的用户的睡眠状态检测方法,其特征在于,所述分别提取所述视频数据的每一帧图像中所述用户的虹膜特征信息,并根据提取到的虹膜特征信息进行人眼检测得到人眼位置信息,包括:
将所述图像输入虹膜检测模型包含的若干可分离卷积模块提取所述用户的多尺度虹膜特征,并通过所述虹膜检测模型包含的若干特征金字塔模块结合所述多尺度虹膜特征生成虹膜特征信息;
将所述虹膜特征信息导入所述虹膜检测模型包含的若干多尺度预测模块对所述图像进行人眼检测,得到人眼位置信息。
3.如权利要求1所述的用户的睡眠状态检测方法,其特征在于,所述根据各个所述图像对应的人眼位置信息从所述图像内确定人眼区域图像和所述分别提取各个所述人眼区域图像的人眼轮廓信息,得到若干人眼关键点的坐标数据,包括:
分别将各个所述图像对应的所述人眼位置信息导入至人眼轮廓检测模型包含的若干可分离卷积层,从所述图像内确定人眼区域图像并对所述人眼区域图像进行人眼轮廓信息提取,得到轮廓特征信息;
将所述轮廓特征信息输入至所述人眼轮廓检测模型包含的若干全连接层,得到所述若干人眼关键点的坐标数据。
4.如权利要求1所述的用户的睡眠状态检测方法,其特征在于,所述根据所有所述图像对应的若干人眼关键点的所述坐标数据,对所述用户的睡眠状态进行检测得到睡眠状态检测结果,以根据所述睡眠状态检测结果设置桌面机器人的运行状态,包括:
根据所述每一帧图像对应的若干人眼关键点坐标数据确定以所述虹膜中心为顶点时所述上眼睑与所述下眼睑的闭合角度;
若所述闭合角度小于预设阈值,则所述睡眠状态检测结果为睡眠状态;
若所述闭合角度等于或大于所述预设阈值,则所述睡眠状态检测结果为清醒状态。
5.如权利要求4所述的用户的睡眠状态检测方法,其特征在于,所述根据所有所述图像对应的若干人眼关键点的所述坐标数据,对所述用户的睡眠状态进行检测得到睡眠状态检测结果,以根据所述睡眠状态检测结果设置桌面机器人的运行状态,还包括:
根据所述每一帧图像对应的若干人眼关键点坐标数据对用户的睡眠状态进行检测得到睡眠状态检测结果;
若在所述视频数据中存在连续十帧图像中N帧图像对应的睡眠状态检测结果为所述睡眠状态,则控制所述桌面机器人进入待机或关机状态;其中,N为预设帧数阈值。
6.如权利要求1至5任一项所述的用户的睡眠状态检测方法,其特征在于,所述人眼位置信息包括在所述图像中限定所述人眼区域图像范围的两个坐标向量。
7.如权利要求1至5任一项所述的用户的睡眠状态检测方法,其特征在于,在所述获取摄像装置实时拍摄用户人脸得到的视频数据之前,还包括:
根据第一训练数据对所述虹膜检测模型进行人眼检测训练;所述第一训练数据包括标注有所述人眼位置信息的人脸图像样本数据集。
8.如权利要求7所述的用户的睡眠状态检测方法,其特征在于,在所述获取摄像装置实时拍摄用户人脸得到的视频数据之前,还包括:
根据第二训练数据对所述人眼轮廓检测模型进行人眼轮廓信息提取训练;所述第二训练数据包括根据预设标注规则标注有所述若干人眼关键点的人眼图像样本数据集。
9.一种用户的睡眠状态检测装置,其特征在于,包括:
视频数据获取模块,用于获取摄像装置实时拍摄用户人脸得到的视频数据;
人眼位置信息检测模块,用于分别提取所述视频数据的每一帧图像中所述用户的虹膜特征信息,并根据提取到的虹膜特征信息进行人眼检测得到人眼位置信息;
人眼区域图像确定模块,用于根据各个所述图像对应的人眼位置信息从所述图像内确定人眼区域图像;
人眼关键点检测模块,用于分别提取各个所述人眼区域图像的人眼轮廓信息,得到若干人眼关键点的坐标数据;所述若干人眼关键点用于表示所述人眼区域图像中上眼睑和下眼睑与虹膜中心之间的位置关系;
睡眠状态检测模块,用于根据所有所述图像对应的若干人眼关键点的所述坐标数据,对所述用户的睡眠状态进行检测得到睡眠状态检测结果,以根据所述睡眠状态检测结果设置桌面机器人的运行状态。
10.一种用户的睡眠状态检测装置,其特征在于,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至8任一项所述用户的睡眠状态检测方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010347859.5A CN111563435A (zh) | 2020-04-28 | 2020-04-28 | 用户的睡眠状态检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010347859.5A CN111563435A (zh) | 2020-04-28 | 2020-04-28 | 用户的睡眠状态检测方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111563435A true CN111563435A (zh) | 2020-08-21 |
Family
ID=72070574
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010347859.5A Pending CN111563435A (zh) | 2020-04-28 | 2020-04-28 | 用户的睡眠状态检测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111563435A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112132084A (zh) * | 2020-09-29 | 2020-12-25 | 上海松鼠课堂人工智能科技有限公司 | 基于深度学习的眼部微表情分析方法和系统 |
CN112329546A (zh) * | 2020-10-15 | 2021-02-05 | 杭州电子科技大学 | 一种基于深度学习的眼睛高度测量方法 |
CN112580522A (zh) * | 2020-12-22 | 2021-03-30 | 北京每日优鲜电子商务有限公司 | 睡眠人员检测方法、装置、设备及存储介质 |
CN113221859A (zh) * | 2021-06-22 | 2021-08-06 | 浙江工业大学 | 一种基于微表情分析的睡眠障碍判别方法和系统 |
CN113420740A (zh) * | 2021-08-24 | 2021-09-21 | 深圳小小小科技有限公司 | 一种智能家居的控制方法、电子设备及计算机可读介质 |
CN113780239A (zh) * | 2021-09-27 | 2021-12-10 | 上海聚虹光电科技有限公司 | 虹膜识别方法、装置、电子设备和计算机可读介质 |
CN115381261A (zh) * | 2022-08-26 | 2022-11-25 | 慕思健康睡眠股份有限公司 | 一种温度控制方法及智能寝具产品、存储介质 |
CN115862115A (zh) * | 2022-12-23 | 2023-03-28 | 宁波星巡智能科技有限公司 | 基于视觉的婴幼儿呼吸检测区域定位方法、装置及设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101593425A (zh) * | 2009-05-06 | 2009-12-02 | 深圳市汉华安道科技有限责任公司 | 一种基于机器视觉的疲劳驾驶监控方法及系统 |
CN101599207A (zh) * | 2009-05-06 | 2009-12-09 | 深圳市汉华安道科技有限责任公司 | 一种疲劳驾驶检测装置及汽车 |
CN101860694A (zh) * | 2010-07-01 | 2010-10-13 | 无锡骏聿科技有限公司 | 一种基于人眼特征分析的电视机工作模式切换装置及方法 |
CN106327801A (zh) * | 2015-07-07 | 2017-01-11 | 北京易车互联信息技术有限公司 | 疲劳驾驶检测方法和装置 |
CN106650688A (zh) * | 2016-12-30 | 2017-05-10 | 公安海警学院 | 基于卷积神经网络的眼部特征检测方法,装置及识别系统 |
CN108230620A (zh) * | 2016-12-15 | 2018-06-29 | 广东技术师范学院 | 基于机器视觉的驾驶员疲劳检测方法 |
CN110837815A (zh) * | 2019-11-15 | 2020-02-25 | 济宁学院 | 一种基于卷积神经网络的驾驶员状态监测方法 |
-
2020
- 2020-04-28 CN CN202010347859.5A patent/CN111563435A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101593425A (zh) * | 2009-05-06 | 2009-12-02 | 深圳市汉华安道科技有限责任公司 | 一种基于机器视觉的疲劳驾驶监控方法及系统 |
CN101599207A (zh) * | 2009-05-06 | 2009-12-09 | 深圳市汉华安道科技有限责任公司 | 一种疲劳驾驶检测装置及汽车 |
CN101860694A (zh) * | 2010-07-01 | 2010-10-13 | 无锡骏聿科技有限公司 | 一种基于人眼特征分析的电视机工作模式切换装置及方法 |
CN106327801A (zh) * | 2015-07-07 | 2017-01-11 | 北京易车互联信息技术有限公司 | 疲劳驾驶检测方法和装置 |
CN108230620A (zh) * | 2016-12-15 | 2018-06-29 | 广东技术师范学院 | 基于机器视觉的驾驶员疲劳检测方法 |
CN106650688A (zh) * | 2016-12-30 | 2017-05-10 | 公安海警学院 | 基于卷积神经网络的眼部特征检测方法,装置及识别系统 |
CN110837815A (zh) * | 2019-11-15 | 2020-02-25 | 济宁学院 | 一种基于卷积神经网络的驾驶员状态监测方法 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112132084A (zh) * | 2020-09-29 | 2020-12-25 | 上海松鼠课堂人工智能科技有限公司 | 基于深度学习的眼部微表情分析方法和系统 |
CN112132084B (zh) * | 2020-09-29 | 2021-07-09 | 上海松鼠课堂人工智能科技有限公司 | 基于深度学习的眼部微表情分析方法和系统 |
CN112329546A (zh) * | 2020-10-15 | 2021-02-05 | 杭州电子科技大学 | 一种基于深度学习的眼睛高度测量方法 |
CN112580522A (zh) * | 2020-12-22 | 2021-03-30 | 北京每日优鲜电子商务有限公司 | 睡眠人员检测方法、装置、设备及存储介质 |
CN113221859A (zh) * | 2021-06-22 | 2021-08-06 | 浙江工业大学 | 一种基于微表情分析的睡眠障碍判别方法和系统 |
CN113221859B (zh) * | 2021-06-22 | 2024-03-29 | 浙江工业大学 | 一种基于微表情分析的睡眠障碍判别方法和系统 |
CN113420740B (zh) * | 2021-08-24 | 2021-12-03 | 深圳小小小科技有限公司 | 一种智能家居的控制方法、电子设备及计算机可读介质 |
CN113420740A (zh) * | 2021-08-24 | 2021-09-21 | 深圳小小小科技有限公司 | 一种智能家居的控制方法、电子设备及计算机可读介质 |
CN113780239A (zh) * | 2021-09-27 | 2021-12-10 | 上海聚虹光电科技有限公司 | 虹膜识别方法、装置、电子设备和计算机可读介质 |
CN113780239B (zh) * | 2021-09-27 | 2024-03-12 | 上海聚虹光电科技有限公司 | 虹膜识别方法、装置、电子设备和计算机可读介质 |
CN115381261A (zh) * | 2022-08-26 | 2022-11-25 | 慕思健康睡眠股份有限公司 | 一种温度控制方法及智能寝具产品、存储介质 |
CN115862115A (zh) * | 2022-12-23 | 2023-03-28 | 宁波星巡智能科技有限公司 | 基于视觉的婴幼儿呼吸检测区域定位方法、装置及设备 |
CN115862115B (zh) * | 2022-12-23 | 2023-08-04 | 宁波星巡智能科技有限公司 | 基于视觉的婴幼儿呼吸检测区域定位方法、装置及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111563435A (zh) | 用户的睡眠状态检测方法及装置 | |
CN107679448B (zh) | 眼球动作分析方法、装置及存储介质 | |
CN109598234B (zh) | 关键点检测方法和装置 | |
TWI742079B (zh) | 基於手勢的互動方法及裝置 | |
US10318797B2 (en) | Image processing apparatus and image processing method | |
CN108830892B (zh) | 人脸图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN109272016B (zh) | 目标检测方法、装置、终端设备和计算机可读存储介质 | |
CN108765278A (zh) | 一种图像处理方法、移动终端及计算机可读存储介质 | |
WO2020078119A1 (zh) | 模拟用户穿戴服装饰品的方法、装置和系统 | |
Yu et al. | An object-based visual attention model for robotic applications | |
CN110020578A (zh) | 图像处理方法、装置、存储介质及电子设备 | |
CN108734126B (zh) | 一种美颜方法、美颜装置及终端设备 | |
CN108197534A (zh) | 一种人头部姿态检测方法、电子设备及存储介质 | |
CN107944381B (zh) | 人脸跟踪方法、装置、终端及存储介质 | |
CN112183200B (zh) | 一种基于视频图像的眼动追踪方法和系统 | |
CN109816694A (zh) | 目标跟踪方法、装置及电子设备 | |
CN111046825A (zh) | 人体姿态识别方法、装置、系统及计算机可读存储介质 | |
CN110728242A (zh) | 基于人像识别的图像匹配方法、装置、存储介质及应用 | |
CN112487844A (zh) | 手势识别方法、电子设备、计算机可读存储介质和芯片 | |
CN111199169A (zh) | 图像处理方法和装置 | |
CN112906571B (zh) | 活体识别方法、装置及电子设备 | |
CN108921815A (zh) | 拍照交互方法、装置、存储介质及终端设备 | |
CN110163049B (zh) | 一种人脸属性预测方法、装置及存储介质 | |
Powar et al. | Reliable face detection in varying illumination and complex background | |
CN116266408A (zh) | 体型估计方法、装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200821 |