CN115690892B - 一种眯眼识别方法、装置、电子设备及存储介质 - Google Patents
一种眯眼识别方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN115690892B CN115690892B CN202310000469.4A CN202310000469A CN115690892B CN 115690892 B CN115690892 B CN 115690892B CN 202310000469 A CN202310000469 A CN 202310000469A CN 115690892 B CN115690892 B CN 115690892B
- Authority
- CN
- China
- Prior art keywords
- eye
- opening
- obtaining
- data
- closing angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 230000000116 mitigating effect Effects 0.000 title description 2
- 208000004350 Strabismus Diseases 0.000 claims abstract description 98
- 230000011218 segmentation Effects 0.000 claims description 21
- 238000004422 calculation algorithm Methods 0.000 claims description 20
- 238000012545 processing Methods 0.000 claims description 10
- 238000001914 filtration Methods 0.000 claims description 7
- 230000001815 facial effect Effects 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 21
- 238000001514 detection method Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000001154 acute effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 208000030533 eye disease Diseases 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000035080 detection of muscle activity involved in regulation of muscle adaptation Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 206010016256 fatigue Diseases 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 208000001491 myopia Diseases 0.000 description 1
- 230000004379 myopia Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
本申请提供一种眯眼识别方法、装置、电子设备及存储介质,该方法包括:获得包含脸部的待识别图像;根据待识别图像,获得脸部对应的关键点,关键点包括眼部关键点;根据眼部关键点,获得眼部掩码信息;根据眼部掩码信息,获得眼部开合角数据,以及掩码相对面积;根据眼部开合角数据和掩码相对面积,获得待识别图像的眯眼识别结果。根据脸部关键点获得眼部掩码信息,提取信息的粒度更细;本申请通过眼部开合角数据和掩码相对面积,对用户眼睛眯眼情况进行计算,获得待识别图像的眯眼识别结果,提高眯眼识别的准确性和稳定性。
Description
技术领域
本申请涉及图像识别技术领域,具体而言,涉及一种眯眼识别方法、装置、电子设备及存储介质。
背景技术
当人们近视、出现眼部疾病或者疲惫的状态下,通常会出现不自主的眯眼情况,通过眯眼检测可以及时检测到这种情况。目前的眯眼识别采用单一的人眼的外边缘轮廓进行匹配,计算上下边缘的距离,通过该距离判断是否眯眼,边缘匹配精度差,识别精度较低。
发明内容
本发明实施例的目的在于一种眯眼识别方法、装置、电子设备及存储介质,根据脸部关键点获得眼部掩码信息,提取信息的粒度更细;根据眼部开合角数据和掩码相对面积,获得待识别图像的眯眼识别结果,提高眯眼识别的准确性和稳定性。
第一方面,本申请实施例提供了一种眯眼识别方法,包括:获得包含脸部的待识别图像;根据待识别图像,获得脸部对应的关键点,关键点包括眼部关键点;根据眼部关键点,获得眼部掩码信息;根据眼部掩码信息,获得眼部开合角数据,以及掩码相对面积;根据眼部开合角数据和掩码相对面积,获得待识别图像的眯眼识别结果。
在上述的实现过程中,根据眼部掩码信息,获得眼部开合角数据,以及掩码相对面积,通过眼部开合角数据和掩码相对面积,对用户眼睛眯眼情况进行计算,提高眯眼识别的准确性。
可选地,在本申请实施例中,眼部开合角数据包括眼部左侧开合角和眼部右侧开合角;根据眼部掩码信息,获得眼部开合角数据,包括:根据眼部掩码信息,确定眼部左侧边缘点和眼部右侧边缘点;根据眼部掩码信息和眼部左侧边缘点,确定眼部左侧边缘点与眼部掩码信息的第一切线和第二切线;根据第一切线和第二切线获得眼部左侧开合角;根据眼部掩码信息和眼部右侧边缘点,确定眼部右侧边缘点与眼部掩码信息的第三切线和第四切线;根据第三切线和第四切线获得眼部右侧开合角。
在上述的实现过程中,根据眼部掩码信息、眼部左侧边缘点和眼部右侧边缘点,分别计算每只眼睛的左侧开合角和右侧开合角,用左侧开合角和右侧开合角作为描述用户眼睛状态的参数之一,提高不同形状的眼睛眯眼识别结果的准确性。
可选地,在本申请实施例中,根据眼部掩码信息,获得掩码相对面积,包括:连接眼部左侧边缘点和眼部左眼右侧缘点,获得眼部区域直线;根据眼部区域直线的中点,以及眼部区域直线的投影数据,获得眼部矩形区域;通过眼部掩码信息以及眼部矩形区域的比值,获得掩码相对面积。
在上述的实现过程中,通过眼部掩码信息、眼部左侧边缘点和眼部左眼右侧缘点,获得眼部矩形区域,再通过眼部掩码信息以及眼部矩形区域的比值,获得掩码相对面积,掩码相对面积作为描述用户眼睛状态的参数,改善对不同大小的眼睛使用统一阈值造成识别效果低的情况,提高眯眼识别结果的准确性。
可选地,在本申请实施例中,根据眼部开合角数据和掩码相对面积,获得待识别图像的眯眼识别结果,包括:通过综合睁眼度公式,根据眼部左侧开合角、眼部右侧开合角以及掩码相对面积,获得睁眼度数据;根据睁眼度数据,获得待识别图像的眯眼识别结果;其中,综合睁眼度公式包括:
在上述的实现过程中,睁眼度数据根据眼部左侧开合角、眼部右侧开合角以及掩码相对面积计算获得,利用多个维度的数据对睁眼度数据进行计算,改善使用单一的边缘检测算法,识别精度较低的情况。
可选地,在本申请实施例中,眼部开合角数据还包括左眼开合角数据和右眼开合角数据;掩码相对面积包括左眼掩码相对面积和右眼掩码相对面积;睁眼度数据包括左眼睁眼度数据和右眼睁眼度数据;根据睁眼度数据,获得待识别图像的眯眼识别结果,包括:根据左眼开合角数据和左眼掩码相对面积,获得左眼睁眼度数据;以及根据右眼开合角数据和右眼掩码相对面积,获得右眼睁眼度数据;若左眼睁眼度数据和/或右眼睁眼度数据,小于预设睁眼度阈值,则待识别图像的眯眼识别结果表征眯眼。
在上述的实现过程中,眼部开合角数据还包括左眼开合角数据和右眼开合角数据,可以分别计算左眼睁眼度数据以及右眼睁眼度数据,若其中任一睁眼度数据小于预设睁眼度阈值,则判断为眯眼,提高了识别的精确度。
可选地,在本申请实施例中,眼部关键点包括左眼关键点和右眼关键点;根据眼部关键点,获得眼部掩码信息,包括:根据左眼关键点的坐标数据,获得左眼中心点坐标数据;以及根据右眼关键点的坐标数据,获得右眼中心点坐标数据;根据左眼中心点坐标数据和右眼中心点坐标数据之间的水平距离,确定眼部水平距离;根据眼部水平距离和左眼中心点坐标数据,确定左眼区域图像数据;以及根据眼部水平距离和右眼中心点坐标数据,确定右眼区域图像数据;通过语义分割算法,分别将左眼区域图像数据和右眼区域图像数据进行分割处理,获得左眼区域图像数据对应的左眼掩码信息,以及右眼区域图像数据对应的右眼掩码信息。
在上述的实现过程中,根据关键点数据获得左眼区域图像数据以及右眼区域图像数据,并通过语义分割算法,分别对左眼区域图像数据以及右眼区域图像数据进行分割处理,信息提取粒度更细,提高鲁棒性,改善因单个关键点的抖动造成结果较大波动的情况,提高眯眼识别的精度。
可选地,在本申请实施例中,关键点还包括脸部关键点;在根据眼部关键点,获得眼部掩码信息之前,方法还包括:获得待处理图像;若待处理图像包含人脸,则将待处理图像确定为待识别图像,根据待识别图像对应的脸部关键点,获得脸部的角度数据;根据角度数据以及预设的脸部角度阈值,对待识别图像进行过滤。
在上述的实现过程中,获取到的待识别图像的脸部角度数据,将角度超多阈值的待识别图像进行过滤,避免因为脸部角度多大对眯眼识别产生干扰。
第二方面,本申请实施例还提供了一种眯眼识别装置,包括:图像获得模块,用于获得包含脸部的待识别图像;关键点获得模块,用于根据待识别图像,获得脸部对应的关键点,关键点包括眼部关键点;掩码信息获得模块,用于根据眼部关键点,获得眼部掩码信息;参数获得模块,用于根据眼部掩码信息,获得眼部开合角数据,以及掩码相对面积;识别模块,用于根据眼部开合角数据和掩码相对面积,获得待识别图像的眯眼识别结果。
第三方面,本申请实施例还提供了一种电子设备,包括:处理器和存储器,存储器存储有处理器可执行的机器可读指令,机器可读指令被处理器执行时执行如上面描述的方法。
第四方面,本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上面描述的方法。
采用本申请提供眯眼识别方法、装置、电子设备及存储介质,根据眼部掩码信息、眼部左侧边缘点和眼部右侧边缘点,分别计算每只眼睛的左侧开合角和右侧开合角,用左侧开合角和右侧开合角作为描述用户眼睛状态的参数之一,提高不同眼睛形状的眯眼识别结果的准确性。以及通过掩码相对面积作为描述用户眼睛状态的参数,改善对不同大小的眼睛使用统一阈值造成识别效果低的情况,提高眯眼识别结果的准确性。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请第一种实施例提供的一种眯眼识别方法的流程示意图;
图2为本申请实施例提供的左眼眼部开合角数据示意图;
图3为本申请实施例提供的右眼眼部开合角数据示意图;
图4为本申请实施例眼部矩形区域示意图;
图5为本申请实施例提供的左眼区域图像数据示意图;
图6为本申请实施例提供的右眼区域图像数据示意图;
图7为本申请实施例提供的左眼掩码信息示意图;
图8为本申请实施例提供的右眼掩码信息示意图;
图9为本申请第二种实施例提供的眯眼识别方法流程示意图;
图10为本申请实施例提供的眯眼识别装置的结构示意图;
图11为本申请实施例提供的电子设备的结构示意图。
具体实施方式
下面将结合附图对本申请技术方案的实施例进行详细的描述。以下实施例仅用于更加清楚地说明本申请的技术方案,因此只作为示例,而不能以此来限制本申请的保护范围。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请。
在本申请实施例的描述中,技术术语“第一”、“第二”等仅用于区别不同对象,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量、特定顺序或主次关系。在本申请实施例的描述中,“多个”的含义是两个及以上,除非另有明确具体的限定。
请参见图1示出的本申请第一种实施例提供的一种眯眼识别方法的流程示意图。本申请实施例提供的眯眼识别方法可以应用于电子设备,该电子设备可以包括终端以及服务器;其中终端具体可以为智能手机、平板电脑、计算机、个人数字助理(Personal DigitalAssitant,PDA)等;服务器具体可以为应用服务器,也可以为Web服务器。
步骤S110:获得包含脸部的待识别图像。
上述步骤S110的实施方式包括:待识别图像可以是通过摄像机采集到的包含脸部的图像,也可以是对摄像机采集到的图像进行初筛选以及人脸检测算法等处理,获得的包含脸部的图像。可以理解的是,摄像机可以是独立的设备,在摄像机采集到待识别图像后,可以通过以无线或有线的方式将待识别图像发送给电子设备,还可以将摄像机中的存储器安装到电子设备中,使得电子设备可以通过读取存储器上的数据获得待识别图像。再有,摄像机还可以是电子设备上的一个模块,即电子设备上包含具备摄像功能的模块,本申请实施例称为摄像机。
步骤S120:根据待识别图像,获得脸部对应的关键点,关键点包括眼部关键点。
上述步骤S120的实施方式包括:通过人脸关键点提取算法,对待识别图像进行人脸关键点提取,获得脸部对应的关键点,具体例如,利用OpenCV(计算机视觉库)进行实时人脸关键点检测,实现脸部对应的关键点的确定。关键点包括眼部关键点,其中,关键点以及眼部关键点的个数可以根据实际使用的关键点检测算法确定。
步骤S130:根据眼部关键点,获得眼部掩码信息。
上述步骤S130的实施方式包括:通过深度学习语义分割算法,获得眼部掩码信息。图像的语义分割(semantic segmentation)将图像中属于同一个语义的东西分割出来,也就是将语义标签分配给图像中的每个像素点,确定每个像素点的类别,其中,语义标签通常包括不同范围的物体类别和背景成分。本实施例通过语义分割算法获得眼部语义标签的像素,即眼部掩码信息。
步骤S140:根据眼部掩码信息,获得眼部开合角数据,以及掩码相对面积。
上述步骤S140的实施方式包括:眼部掩码信息表征待识别图形中眼部语义标签的像素区域。眼部开合角数据包括左眼开合角数据和右眼开合角数据,其中,左眼开合角数据包括左眼左侧开合角和左眼右侧开合角;右眼开合角数据包括右眼左侧开合角和右眼右侧开合角。掩码相对面积表征,眼部掩码信息所占的像素个数与预设的眼部矩形区域所占的像素个数之间的比值。其中,眼部矩形区域包括眼部掩码信息。
步骤S150:根据眼部开合角数据和掩码相对面积,获得待识别图像的眯眼识别结果。
上述步骤S150的实施方式包括:通过综合睁眼度公式,根据眼部左侧开合角、眼部右侧开合角以及掩码相对面积,获得睁眼度数据,睁眼度数据可以用于表征睁眼的程度,通过睁眼度数据与预设的阈值,则可以获得待识别图像的眯眼识别结果。
在上述的实现过程中,根据眼部掩码信息,获得眼部开合角数据,以及掩码相对面积,通过眼部开合角数据和掩码相对面积,对用户眼睛眯眼情况进行计算,提高眯眼识别的准确性。
请参见图2示出的本申请实施例提供的左眼眼部开合角数据示意图。
可选的,在本申请实施例中,眼部开合角数据包括眼部左侧开合角和眼部右侧开合角;根据眼部掩码信息,获得眼部开合角数据,包括:根据眼部掩码信息,确定眼部左侧边缘点和眼部右侧边缘点;根据眼部掩码信息和眼部左侧边缘点,确定眼部左侧边缘点与眼部掩码信息的第一切线和第二切线;根据第一切线和第二切线获得眼部左侧开合角;根据眼部掩码信息和眼部右侧边缘点,确定眼部右侧边缘点与眼部掩码信息的第三切线和第四切线;根据第三切线和第四切线获得眼部右侧开合角。
在具体的实现过程中,眼部开合角数据包括眼部左侧开合角和眼部右侧开合角,根据眼部掩码信息,确定眼部左侧边缘点和眼部右侧边缘点,眼部左侧边缘点为眼部语义标签的像素区域中左侧边缘点的像素点;眼部右侧边缘点为眼部语义标签的像素区域中右侧边缘点的像素点。可以理解的,左眼和右眼均包括眼部左侧开合角和眼部右侧开合角,可以分别获得左眼的开合角数据和右眼的开合角数据。
如图2所示,根据眼部掩码信息和眼部左侧边缘点,确定眼部左侧边缘点与眼部掩码信息的第一切线和第二切线。具体例如,过眼部左侧边缘点做眼部掩码信息的第一切线和第二切线,第一切线可以为上切线;第二切线可以为下切线。第一切线和第二切线形成的锐角角度,即为眼部左侧开合角。
请参见图3示出的本申请实施例提供的右眼眼部开合角数据示意图。
如图3所示,过眼部右侧边缘点做眼部掩码信息的第三切线和第四切线,第三切线可以为上切线;第四切线可以为下切线。第三切线和第四切线形成的锐角角度,即为眼部右侧开合角。
在上述的实现过程中,根据眼部掩码信息、眼部左侧边缘点和眼部右侧边缘点,分别计算每只眼睛的左侧开合角和右侧开合角,用左侧开合角和右侧开合角作为描述用户眼睛状态的参数之一,提高不同眼睛形状的眯眼识别结果的准确性。
请参见图4示出的本申请实施例眼部矩形区域示意图。
可选地,在本申请实施例中,根据眼部掩码信息,获得掩码相对面积,包括:连接眼部左侧边缘点和眼部左眼右侧缘点,获得眼部区域直线;根据眼部区域直线的中点,以及眼部区域直线的投影数据,获得眼部矩形区域;通过眼部掩码信息以及眼部矩形区域的比值,获得掩码相对面积。
在具体的实现过程中,如图4所示,连接眼部左侧边缘点和眼部左眼右侧缘点,获得眼部区域直线,以眼部区域直线在x轴的投影作为眼部矩形区域的长,以眼部区域直线在y轴的投影作为眼部矩形区域的宽,以眼部区域直线的中点作为眼部矩形区域的中心点,构建眼部矩形区域。
在眼部矩形区域中,眼部掩码信息所占面积占眼部矩形区域面积的百分比即为掩码相对面积。下面通过公式表示:
在上述的实现过程中,通过眼部掩码信息、眼部左侧边缘点和眼部左眼右侧缘点,获得眼部矩形区域,再通过眼部掩码信息以及眼部矩形区域的比值,获得掩码相对面积,掩码相对面积作为描述用户眼睛状态的参数,改善对不同大小的眼睛使用统一阈值造成识别效果低的情况,提高眯眼识别结果的准确性。
可选地,在本申请实施例中,根据眼部开合角数据和掩码相对面积,获得待识别图像的眯眼识别结果,包括:通过综合睁眼度公式,根据眼部左侧开合角、眼部右侧开合角以及掩码相对面积,获得睁眼度数据;根据睁眼度数据,获得待识别图像的眯眼识别结果;其中,综合睁眼度公式包括:
在具体的实现过程中,通过综合睁眼度公式,根据眼部左侧开合角、眼部右侧开合角以及掩码相对面积,获得睁眼度数据。其中,睁眼度数据表征睁眼的程度,开合角数据权重值和掩码相对面积权重值的总和为1。
开合角数据权重值和掩码相对面积权重值可以根据实际情况进行设定,还可以根据测试集的结果确定,具体例如,通过测试不同开合角数据权重值和掩码相对面积权重值计算出的睁眼度数据,获得测试结果最准确时,开合角数据权重值和掩码相对面积权重值。开合角数据权重值小于掩码相对面积权重值,例如开合角数据权重值可以为0.4,掩码相对面积权重值为0.6;还可以开合角数据权重值为0.45,掩码相对面积权重值为0.55。
在一个可选的实施例中,根据所述睁眼度数据,获得所述待识别图像的眯眼识别结果,包括:获得睁眼度数据与历史睁眼度数据的比值,其中,历史睁眼度数据通过历史数据获得;若比值小于预设比较阈值,则眯眼识别结果表征眯眼。
具体例如,可以获得用户的历史睁眼度数据,并将历史睁眼度数据进行存储。计算同一用户睁眼度数据与历史睁眼度数据的比值,若比值小于预设的阈值,则判断该用户此时为眯眼状态,可以发出眯眼告警,以提醒用户可能存在近视、眼疾或疲劳等情况。进一步的,也可以在检测到用户为眯眼状态达到预设时长,再进行眯眼告警。
在一个可选的实施例中,本申请实施例的眯眼识别方法可以应用于疲劳驾驶的检测中,若检测到驾驶员在驾驶的过程中处于眯眼状态或眯眼状态达到预设时长,则进行眯眼告警,告警方式包括声光告警,对驾驶员进行实时提醒,避免危险驾驶。
还可以根据告警产生告警信息,告警信息包括该驾驶员的驾驶状态、驾驶位置以及驾驶时间等,将告警信息以及驾驶员的驾驶视频信息发送至服务器,以在监控端对驾驶员的驾驶行为进行实时监控。进一步地,还可以在检测到驾驶员处于眯眼状态之后,启动自动驾驶功能,辅助驾驶车辆。
在上述的实现过程中,睁眼度数据根据眼部左侧开合角、眼部右侧开合角以及掩码相对面积计算获得,利用多个维度的数据对睁眼度数据进行计算,改善使用单一的边缘检测算法,识别精度较低的情况。
可选地,在本申请实施例中,眼部开合角数据还包括左眼开合角数据和右眼开合角数据;掩码相对面积包括左眼掩码相对面积和右眼掩码相对面积;睁眼度数据包括左眼睁眼度数据和右眼睁眼度数据;根据睁眼度数据,获得待识别图像的眯眼识别结果,包括:根据左眼开合角数据和左眼掩码相对面积,获得左眼睁眼度数据;以及根据右眼开合角数据和右眼掩码相对面积,获得右眼睁眼度数据;若左眼睁眼度数据和/或右眼睁眼度数据,小于预设睁眼度阈值,则待识别图像的眯眼识别结果表征眯眼。
在具体的实现过程中,左眼开合角数据可以包括左眼左侧开合角数据和左眼右侧开合角数据;右眼开合角数据可以包括右眼左侧开合角数据和右眼右侧开合角数据。通过综合睁眼度公式,根据左眼左侧开合角数据、左眼右侧开合角数据以及左眼掩码相对面积,计算左眼睁眼度数;以及根据右眼左侧开合角数据、右眼右侧开合角数据以及右眼掩码相对面积,计算右眼睁眼度数据。
若左眼睁眼度数据和/或右眼睁眼度数据,小于预设睁眼度阈值,则待识别图像的眯眼识别结果表征眯眼。
在上述的实现过程中,眼部开合角数据还包括左眼开合角数据和右眼开合角数据,可以分别计算左眼睁眼度数据以及右眼睁眼度数据,若其中任一睁眼度数据小于预设睁眼度阈值,则判断为眯眼,提高了识别的精确度。
请参见图5示出的本申请实施例提供的左眼区域图像数据示意图;以及请参见图6示出的本申请实施例提供的右眼区域图像数据示意图。
可选地,在本申请实施例中,眼部关键点包括左眼关键点和右眼关键点;根据眼部关键点,获得眼部掩码信息,包括:根据左眼关键点的坐标数据,获得左眼中心点坐标数据;以及根据右眼关键点的坐标数据,获得右眼中心点坐标数据;根据左眼中心点坐标数据和右眼中心点坐标数据之间的水平距离,确定眼部水平距离;根据眼部水平距离和左眼中心点坐标数据,确定左眼区域图像数据;以及根据眼部水平距离和右眼中心点坐标数据,确定右眼区域图像数据;通过语义分割算法,分别将左眼区域图像数据和右眼区域图像数据进行分割处理,获得左眼区域图像数据对应的左眼掩码信息,以及右眼区域图像数据对应的右眼掩码信息。
在具体的实现过程中,获取每一左眼关键点的坐标,以及每一右眼关键点的坐标。将每一左眼关键点的坐标求平均值,获得左眼中心点坐标;以及将每一右眼关键点的坐标求平均值,获得右眼中心点坐标。
根据左眼中心点坐标数据和右眼中心点坐标数据之间的水平距离,确定眼部水平距离;根据眼部水平距离和左眼中心点坐标数据,确定左眼区域图像数据。具体例如,取眼部水平距离的0.8倍作为左眼区域图像的长;取眼部水平距离的0.4倍作为左眼区域图像的宽;以左眼中心点坐标做中心点,剪裁长为0.8倍眼部水平距离,宽为0.4倍眼部水平距离的矩形区域图像,即为左眼区域图像数据;同样的,以右眼中心点坐标做中心点,剪裁长为0.8倍眼部水平距离,宽为0.4倍眼部水平距离的矩形区域图像,即为右眼区域图像数据。其中,矩形区域图像的长度和宽度为可调整的,例如长度为眼部水平距离的0.75倍,以及宽度为眼部水平距离的0.45倍。
请参见图7示出的本申请实施例提供的左眼掩码信息示意图;以及请参见图8示出的本申请实施例提供的右眼掩码信息示意图。
通过语义分割算法,分别将左眼区域图像数据和右眼区域图像数据进行分割处理,获得左眼区域图像数据对应的左眼掩码信息,以及右眼区域图像数据对应的右眼掩码信息。深度学习语义分割算法包括mobilenetv3主干网络、Patch classification方法、全卷积方法、encoder-decoder架构法以及条件随机场法。
在上述的实现过程中,根据关键点数据获得左眼区域图像数据以及右眼区域图像数据,并通过语义分割算法,分别对左眼区域图像数据以及右眼区域图像数据进行分割处理,信息提取粒度更细,提高鲁棒性,改善因单个关键点的抖动造成结果较大波动的情况,提高眯眼识别的精度。
可选地,在本申请实施例中,关键点还包括脸部关键点;在根据眼部关键点,获得眼部掩码信息之前,方法还包括:获得待处理图像;若待处理图像包含人脸,则将待处理图像确定为待识别图像,根据待识别图像对应的脸部关键点,获得脸部的角度数据;根据角度数据以及预设的脸部角度阈值,对待识别图像进行过滤。
在具体的实现过程中,获得待处理图像,待处理图像可以为通过摄像机采集到的图像。通过人脸检测算法,对图像进行人脸检测,若待处理图像包含人脸,则将待处理图像确定为待识别图像;若待处理图像中不包含人脸,无无需对该图像进行眯眼识别。
根据待识别图像对应的脸部关键点,通过人脸姿态估计算法,获得脸部的角度数据,角度数据包括上下俯仰角和左右旋转角。根据角度数据以及预设的脸部角度阈值,对待识别图像进行过滤,具体例如,若脸部的俯仰角向上的角度或向下的角度大于预设的俯仰角阈值,则将识别图像进行过滤,若脸部的旋转角向左的角度或向右的角度大于预设的旋转角阈值,则也将识别图像进行过滤。其中,俯仰角阈值可以为正负10度,旋转角阈值可以为正负15度。若面部的上下俯仰角和左右旋转角在预设的阈值之内,则对待识别图像进行后续的眯眼识别处理。
在上述的实现过程中,获取到的待识别图像的脸部角度数据,将角度大于对应阈值的待识别图像进行过滤,避免因为脸部角度多大对眯眼识别产生干扰,造成眯眼识别失败。
请参见图9示出的本申请第二种实施例提供的眯眼识别方法流程示意图。
在一个可选的实施例中,获取摄像机采集的单帧图像数据,采用人脸检测算法检测图像中是否存在人脸,若不包含人脸,则返回回去其他图像;若图像中存在人脸,则对图像中的人脸进行人脸关键点检测,获得人脸关键点,根据人脸关键点进行人脸角度计算,判断人脸角度是否过大,若人脸角度过大,则返回;若人脸角度符合预设阈值,则进行后续眯眼识别处理。
根据人脸关键点中的眼部关键点,从完整图像中剪裁眼部图像数据,通过对眼部图像数据进行眼部语义分割,获得眼部掩码信息。根据眼部掩码信息计算眼部开合角数据以及掩码相对面积;根据眼部开合角数据以及掩码相对面积计算,通过综合睁眼度公式,计算综合睁眼度,将计算得到的综合睁眼度保存至数据库。以及将综合睁眼度与预先由历史数据得到的历史睁眼度进行对比,获得比值,或比值超过阈值,则判断为眯眼,进行眯眼告警。
请参见图10示出的本申请实施例提供的眯眼识别装置的结构示意图;本申请实施例提供了一种眯眼识别装置200,包括:
图像获得模块210,用于获得包含脸部的待识别图像;
关键点获得模块220,用于根据待识别图像,获得脸部对应的关键点,关键点包括眼部关键点;
掩码信息获得模块230,用于根据眼部关键点,获得眼部掩码信息;
参数获得模块240,用于根据眼部掩码信息,获得眼部开合角数据,以及掩码相对面积;
识别模块250,用于根据眼部开合角数据和掩码相对面积,获得待识别图像的眯眼识别结果。
可选地,在本申请实施例中,眯眼识别装置,眼部开合角数据包括眼部左侧开合角和眼部右侧开合角;参数获得模块240,具体用于根据眼部掩码信息,确定眼部左侧边缘点和眼部右侧边缘点;根据眼部掩码信息和眼部左侧边缘点,确定眼部左侧边缘点与眼部掩码信息的第一切线和第二切线;根据第一切线和第二切线获得眼部左侧开合角;根据眼部掩码信息和眼部右侧边缘点,确定眼部右侧边缘点与眼部掩码信息的第三切线和第四切线;根据第三切线和第四切线获得眼部右侧开合角。
可选地,在本申请实施例中,眯眼识别装置,参数获得模块240,还用于连接眼部左侧边缘点和眼部左眼右侧缘点,获得眼部区域直线;根据眼部区域直线的中点,以及眼部区域直线的投影数据,获得眼部矩形区域;通过眼部掩码信息以及眼部矩形区域的比值,获得掩码相对面积。
可选地,在本申请实施例中,眯眼识别装置,识别模块250,具体用于通过综合睁眼度公式,根据眼部左侧开合角、眼部右侧开合角以及掩码相对面积,获得睁眼度数据;根据睁眼度数据,获得待识别图像的眯眼识别结果;其中,综合睁眼度公式包括:
可选地,在本申请实施例中,眯眼识别装置,眼部开合角数据还包括左眼开合角数据和右眼开合角数据;掩码相对面积包括左眼掩码相对面积和右眼掩码相对面积;睁眼度数据包括左眼睁眼度数据和右眼睁眼度数据;识别模块250,还用于根据左眼开合角数据和左眼掩码相对面积,获得左眼睁眼度数据;以及根据右眼开合角数据和右眼掩码相对面积,获得右眼睁眼度数据;若左眼睁眼度数据和/或右眼睁眼度数据,小于预设睁眼度阈值,则待识别图像的眯眼识别结果表征眯眼。
可选地,在本申请实施例中,眯眼识别装置,眼部关键点包括左眼关键点和右眼关键点;掩码信息获得模块230,具体用于根据左眼关键点的坐标数据,获得左眼中心点坐标数据;以及根据右眼关键点的坐标数据,获得右眼中心点坐标数据;根据左眼中心点坐标数据和右眼中心点坐标数据之间的水平距离,确定眼部水平距离;根据眼部水平距离和左眼中心点坐标数据,确定左眼区域图像数据;以及根据眼部水平距离和右眼中心点坐标数据,确定右眼区域图像数据;通过语义分割算法,分别将左眼区域图像数据和右眼区域图像数据进行分割处理,获得左眼区域图像数据对应的左眼掩码信息,以及右眼区域图像数据对应的右眼掩码信息。
可选地,在本申请实施例中,眯眼识别装置,关键点还包括脸部关键点;装置还包括:脸部角度识别模块,用于获得待处理图像;若待处理图像包含人脸,则将待处理图像确定为待识别图像,根据待识别图像对应的脸部关键点,获得脸部的角度数据;根据角度数据以及预设的脸部角度阈值,对待识别图像进行过滤。
应理解的是,该装置与上述的眯眼识别方法实施例对应,能够执行上述方法实施例涉及的各个步骤,该装置具体的功能可以参见上文中的描述,为避免重复,此处适当省略详细描述。该装置包括至少一个能以软件或固件(firmware)的形式存储于存储器中或固化在装置的操作系统(operating system,OS)中的软件功能模块。
请参见图11示出的本申请实施例提供的电子设备的结构示意图。本申请实施例提供的一种电子设备300,包括:处理器310和存储器320,存储器320存储有处理器310可执行的机器可读指令,机器可读指令被处理器310执行时执行如上的方法。
本申请实施例还提供了一种存储介质,该存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如上的方法。
其中,存储介质可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(Static Random Access Memory, 简称SRAM),电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory, 简称EEPROM),可擦除可编程只读存储器(Erasable Programmable Read Only Memory, 简称EPROM),可编程只读存储器(Programmable Red-Only Memory, 简称PROM),只读存储器(Read-OnlyMemory, 简称ROM),磁存储器,快闪存储器,磁盘或光盘。
本申请实施例所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其他的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请实施例的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请实施例各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
以上的描述,仅为本申请实施例的可选实施方式,但本申请实施例的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请实施例揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请实施例的保护范围之内。
Claims (9)
1.一种眯眼识别方法,其特征在于,包括:
获得包含脸部的待识别图像;
根据所述待识别图像,获得所述脸部对应的关键点,所述关键点包括眼部关键点;
根据所述眼部关键点,获得眼部掩码信息;
根据所述眼部掩码信息,获得眼部开合角数据,以及掩码相对面积;
根据所述眼部开合角数据和所述掩码相对面积,获得所述待识别图像的眯眼识别结果;
其中,根据所述眼部关键点,获得眼部掩码信息包括:根据所述眼部关键点获得眼部区域图像数据,通过语义分割算法,对所述眼部区域图像数据进行分割,获得眼部语义标签的像素,即眼部掩码信息;
所述眼部开合角数据包括眼部左侧开合角和眼部右侧开合角;根据所述眼部掩码信息,获得眼部开合角数据,包括:
根据所述眼部掩码信息,确定眼部左侧边缘点和眼部右侧边缘点;
根据所述眼部掩码信息和所述眼部左侧边缘点,确定所述眼部左侧边缘点与所述眼部掩码信息的第一切线和第二切线;根据所述第一切线和所述第二切线获得眼部左侧开合角;
根据所述眼部掩码信息和所述眼部右侧边缘点,确定所述眼部右侧边缘点与所述眼部掩码信息的第三切线和第四切线;根据所述第三切线和所述第四切线获得眼部右侧开合角;
所述掩码相对面积表征,所述眼部掩码信息所占的像素个数与预设的眼部矩形区域所占的像素个数之间的比值;其中,所述眼部矩形区域包括所述眼部掩码信息;
根据所述眼部开合角数据和所述掩码相对面积,获得所述待识别图像的眯眼识别结果,包括:根据所述眼部左侧开合角、所述眼部右侧开合角以及所述掩码相对面积,获得睁眼度数据,所述睁眼度数据用于表征睁眼的程度;通过睁眼度数据与预设的阈值,获得所述待识别图像的眯眼识别结果。
2.根据权利要求1所述的方法,其特征在于,根据所述眼部掩码信息,获得掩码相对面积,包括:
连接所述眼部左侧边缘点和眼部左眼右侧缘点,获得眼部区域直线;
根据所述眼部区域直线的中点,以及所述眼部区域直线的投影数据,获得眼部矩形区域;
通过所述眼部掩码信息以及所述眼部矩形区域的比值,获得所述掩码相对面积。
4.根据权利要求3所述的方法,其特征在于,所述眼部开合角数据还包括左眼开合角数据和右眼开合角数据;所述掩码相对面积包括左眼掩码相对面积和右眼掩码相对面积;所述睁眼度数据包括左眼睁眼度数据和右眼睁眼度数据;根据所述睁眼度数据,获得所述待识别图像的眯眼识别结果,包括:
根据所述左眼开合角数据和所述左眼掩码相对面积,获得左眼睁眼度数据;以及根据所述右眼开合角数据和右眼掩码相对面积,获得右眼睁眼度数据;
若所述左眼睁眼度数据和/或所述右眼睁眼度数据,小于预设睁眼度阈值,则所述待识别图像的眯眼识别结果表征眯眼。
5.根据权利要求3所述的方法,其特征在于,所述眼部关键点包括左眼关键点和右眼关键点;根据所述眼部关键点,获得眼部掩码信息,包括:
根据所述左眼关键点的坐标数据,获得左眼中心点坐标数据;以及根据所述右眼关键点的坐标数据,获得右眼中心点坐标数据;
根据所述左眼中心点坐标数据和所述右眼中心点坐标数据之间的水平距离,确定眼部水平距离;
根据所述眼部水平距离和所述左眼中心点坐标数据,确定左眼区域图像数据;以及根据所述眼部水平距离和所述右眼中心点坐标数据,确定右眼区域图像数据;
通过语义分割算法,分别将所述左眼区域图像数据和所述右眼区域图像数据进行分割处理,获得所述左眼区域图像数据对应的左眼掩码信息,以及所述右眼区域图像数据对应的右眼掩码信息。
6.根据权利要求1-5任一所述的方法,其特征在于,所述关键点还包括脸部关键点;在所述根据所述眼部关键点,获得眼部掩码信息之前,所述方法还包括:
获得待处理图像;
若所述待处理图像包含人脸,则将所述待处理图像确定为所述待识别图像,
根据所述待识别图像对应的脸部关键点,获得所述脸部的角度数据;
根据所述角度数据以及预设的脸部角度阈值,对所述待识别图像进行过滤。
7.一种眯眼识别装置,其特征在于,包括:
图像获得模块,用于获得包含脸部的待识别图像;
关键点获得模块,用于根据所述待识别图像,获得所述脸部对应的关键点,所述关键点包括眼部关键点;
掩码信息获得模块,用于根据所述眼部关键点,获得眼部掩码信息;
参数获得模块,用于根据所述眼部掩码信息,获得眼部开合角数据,以及掩码相对面积;
识别模块,用于根据所述眼部开合角数据和所述掩码相对面积,获得所述待识别图像的眯眼识别结果;
所述掩码信息获得模块,还用于根据所述眼部关键点获得眼部区域图像数据,通过语义分割算法,对所述眼部区域图像数据进行分割,获得眼部语义标签的像素,即眼部掩码信息;
所述眼部开合角数据包括眼部左侧开合角和眼部右侧开合角;所述参数获得模块,具体用于根据所述眼部掩码信息,确定眼部左侧边缘点和眼部右侧边缘点;根据所述眼部掩码信息和所述眼部左侧边缘点,确定所述眼部左侧边缘点与所述眼部掩码信息的第一切线和第二切线;根据所述第一切线和所述第二切线获得眼部左侧开合角;根据所述眼部掩码信息和所述眼部右侧边缘点,确定所述眼部右侧边缘点与所述眼部掩码信息的第三切线和第四切线;根据所述第三切线和所述第四切线获得眼部右侧开合角;
其中,所述掩码相对面积表征,所述眼部掩码信息所占的像素个数与预设的眼部矩形区域所占的像素个数之间的比值;所述眼部矩形区域包括所述眼部掩码信息;
所述识别模块,还用于根据所述眼部左侧开合角、所述眼部右侧开合角以及所述掩码相对面积,获得睁眼度数据,所述睁眼度数据用于表征睁眼的程度;通过睁眼度数据与预设的阈值,获得所述待识别图像的眯眼识别结果。
8.一种电子设备,其特征在于,包括:处理器和存储器,所述存储器存储有所述处理器可执行的机器可读指令,所述机器可读指令被所述处理器执行时执行如权利要求1至6任一所述的方法。
9.一种计算机可读存储介质,其特征在于,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如权利要求1至6任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310000469.4A CN115690892B (zh) | 2023-01-03 | 2023-01-03 | 一种眯眼识别方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310000469.4A CN115690892B (zh) | 2023-01-03 | 2023-01-03 | 一种眯眼识别方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115690892A CN115690892A (zh) | 2023-02-03 |
CN115690892B true CN115690892B (zh) | 2023-06-13 |
Family
ID=85057325
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310000469.4A Active CN115690892B (zh) | 2023-01-03 | 2023-01-03 | 一种眯眼识别方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115690892B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SE2250299A1 (en) * | 2022-03-04 | 2023-09-05 | Tobii Ab | Eye openness |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112418296A (zh) * | 2020-11-18 | 2021-02-26 | 中国科学院上海微系统与信息技术研究所 | 基于人眼视觉注意机制的仿生双眼目标识别与跟踪方法 |
CN114120439A (zh) * | 2021-10-12 | 2022-03-01 | 江苏大学 | 一种智能汽车自车视角下的行人意图多任务识别及轨迹预测方法 |
CN114693553A (zh) * | 2022-03-28 | 2022-07-01 | 唐山学院 | 一种移动智能终端图像处理方法及系统 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101796961B1 (ko) * | 2016-01-22 | 2017-11-13 | 재단법인차세대융합기술연구원 | 홍채 인식장치 및 이를 이용한 홍채 인식방법 |
CN109670430A (zh) * | 2018-12-11 | 2019-04-23 | 浙江大学 | 一种基于深度学习的多分类器融合的人脸活体识别方法 |
CN113128295A (zh) * | 2019-12-31 | 2021-07-16 | 湖北亿咖通科技有限公司 | 一种车辆驾驶员危险驾驶状态识别方法及装置 |
CN112052770A (zh) * | 2020-08-31 | 2020-12-08 | 北京地平线信息技术有限公司 | 用于疲劳检测的方法、装置、介质以及电子设备 |
CN112257499B (zh) * | 2020-09-15 | 2023-04-28 | 福建天泉教育科技有限公司 | 眼部状态检测方法及计算机可读存储介质 |
CN112183482A (zh) * | 2020-10-29 | 2021-01-05 | 苏州市职业大学 | 危险驾驶行为识别方法、装置、系统及可读存储介质 |
CN113139504B (zh) * | 2021-05-11 | 2023-02-17 | 支付宝(杭州)信息技术有限公司 | 身份识别方法、装置、设备及存储介质 |
CN113486743A (zh) * | 2021-06-22 | 2021-10-08 | 福建(泉州)哈工大工程技术研究院 | 一种疲劳驾驶识别方法及装置 |
CN113705460B (zh) * | 2021-08-30 | 2024-03-15 | 平安科技(深圳)有限公司 | 图像中人脸睁眼闭眼检测方法、装置、设备及存储介质 |
CN113887386B (zh) * | 2021-09-29 | 2023-04-28 | 电子科技大学 | 基于深度学习和机器学习的多特征融合的疲劳检测方法 |
CN114299587A (zh) * | 2021-12-30 | 2022-04-08 | 上海商汤临港智能科技有限公司 | 眼睛状态判定方法及装置、电子设备和存储介质 |
CN115471824A (zh) * | 2022-03-29 | 2022-12-13 | 北京罗克维尔斯科技有限公司 | 眼部状态检测方法、装置、电子设备和存储介质 |
CN115116088A (zh) * | 2022-05-27 | 2022-09-27 | 中国科学院半导体研究所 | 近视预测方法、装置、存储介质和程序产品 |
CN115019377A (zh) * | 2022-08-08 | 2022-09-06 | 京东方艺云(杭州)科技有限公司 | 一种眼部状态判断方法、眼部状态判断装置和电子设备 |
-
2023
- 2023-01-03 CN CN202310000469.4A patent/CN115690892B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112418296A (zh) * | 2020-11-18 | 2021-02-26 | 中国科学院上海微系统与信息技术研究所 | 基于人眼视觉注意机制的仿生双眼目标识别与跟踪方法 |
CN114120439A (zh) * | 2021-10-12 | 2022-03-01 | 江苏大学 | 一种智能汽车自车视角下的行人意图多任务识别及轨迹预测方法 |
CN114693553A (zh) * | 2022-03-28 | 2022-07-01 | 唐山学院 | 一种移动智能终端图像处理方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN115690892A (zh) | 2023-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1589485B1 (en) | Object tracking and eye state identification method | |
CN106557726B (zh) | 一种带静默式活体检测的人脸身份认证系统及其方法 | |
CN108229297B (zh) | 人脸识别方法和装置、电子设备、计算机存储介质 | |
EP1693782B1 (en) | Method for facial features detection | |
CN109002786B (zh) | 人脸检测方法、设备及计算机可读存储介质 | |
CN107578012B (zh) | 一种基于聚类算法选择敏感区域的驾驶辅助系统 | |
Wang et al. | Real-time camera anomaly detection for real-world video surveillance | |
CN109492642B (zh) | 车牌识别方法、装置、计算机设备及存储介质 | |
CN109255802B (zh) | 行人跟踪方法、装置、计算机设备及存储介质 | |
CN115690892B (zh) | 一种眯眼识别方法、装置、电子设备及存储介质 | |
CN113012383B (zh) | 火灾检测报警方法、相关系统、相关设备及存储介质 | |
CN113052107B (zh) | 一种检测安全帽佩戴情况的方法、计算机设备及存储介质 | |
CN112598922B (zh) | 车位检测方法、装置、设备及存储介质 | |
CN111027541A (zh) | 基于可见光和热成像的火焰检测方法、系统及存储介质 | |
KR20160037305A (ko) | 지문 인식을 이용한 사용자 인증 방법 | |
CN111814776B (zh) | 一种图像处理方法、设备、服务器及存储介质 | |
Zhang et al. | Eyelash removal method for human iris recognition | |
CN110569770A (zh) | 人体入侵行为识别方法、装置、存储介质及电子设备 | |
CN113919627A (zh) | 一种应用于水利枢纽工程的智能监控方法 | |
CN112347988A (zh) | 口罩识别模型的训练方法、装置、计算机设备和可读存储介质 | |
CN116778673A (zh) | 水域安全监控方法、系统、终端及存储介质 | |
CN116229502A (zh) | 基于图像的摔倒行为识别方法及设备 | |
CN114399537B (zh) | 一种目标人员的车辆跟踪方法及系统 | |
KR101788070B1 (ko) | 코 영역 검출 방법 | |
CN113312948A (zh) | 一种使用深度学习模型检测睡意的方法、设备及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |