CN113591682A - 疲劳状态检测方法、装置、可读存储介质以及电子设备 - Google Patents

疲劳状态检测方法、装置、可读存储介质以及电子设备 Download PDF

Info

Publication number
CN113591682A
CN113591682A CN202110860490.2A CN202110860490A CN113591682A CN 113591682 A CN113591682 A CN 113591682A CN 202110860490 A CN202110860490 A CN 202110860490A CN 113591682 A CN113591682 A CN 113591682A
Authority
CN
China
Prior art keywords
state
eye
current
detected target
fatigue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110860490.2A
Other languages
English (en)
Inventor
杨振宇
杨聪
牛建伟
余凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Horizon Shanghai Artificial Intelligence Technology Co Ltd
Original Assignee
Horizon Shanghai Artificial Intelligence Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Horizon Shanghai Artificial Intelligence Technology Co Ltd filed Critical Horizon Shanghai Artificial Intelligence Technology Co Ltd
Priority to CN202110860490.2A priority Critical patent/CN113591682A/zh
Publication of CN113591682A publication Critical patent/CN113591682A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

公开了一种疲劳状态检测方法,包括:从当前帧图像中识别被检测目标的当前眼部状态;从当前帧图像之前的至少一帧历史帧图像中识别被检测目标的至少一个历史眼部状态;基于所述当前眼部状态和至少一个历史眼部状态,确定所述被检测目标的眼部呆滞状态;基于所述当前眼部状态和所述眼部呆滞状态,确定所述被检测目标的疲劳状态。本公开提供的技术方案能够通过多种的组合结果对疲劳状态进行更加细致且精准的判断。

Description

疲劳状态检测方法、装置、可读存储介质以及电子设备
技术领域
本申请涉及机器视觉技术领域,具体涉及一种疲劳状态检测方法、装置、可读存储介质以及电子设备。
背景技术
随着生活节奏的加快,当前人们的休息时间减少或者休息质量的降低,导致有较多的人群会在疲劳状态下处理工作或生活事务,例如,流水线操作员工在疲劳状态下进行产品的加工处理,或者,司机在疲劳状态下驾驶车辆等。由于在疲劳状态下处理工作或生活事务会导致在处理过程中具有较高的潜在危险,因此,需要时刻关注对应人群的疲劳状态,以避免危险事故的发生。
在现有技术中,对于疲劳状态的检测通常会采用较为单一的关注点进行检测,因此,对于疲劳状态的判断通常仅会涉及到疲劳状态或非疲劳状态,难以对疲劳状态进行细致且精准的判断。
发明内容
为了解决上述技术问题,提出了本申请。本申请的实施例提供了一种疲劳状态检测方法、装置、可读存储介质以及电子设备能够通过多种的组合结果对疲劳状态进行更加细致且精准的判断。
根据本申请的一个方面,提供了一种疲劳状态检测方法,包括:
从当前帧图像中识别被检测目标的当前眼部状态;
从当前帧图像之前的至少一帧历史帧图像中识别被检测目标的至少一个历史眼部状态;
基于所述当前眼部状态和至少一个历史眼部状态,确定所述被检测目标的眼部呆滞状态;
基于所述当前眼部状态和所述眼部呆滞状态,确定所述被检测目标的疲劳状态。
根据本申请的第二方面,提供了一种疲劳状态检测装置,包括:
第一获取模块,用于从当前帧图像中识别被检测目标的当前眼部状态;
第二获取模块,用于从当前帧图像之前的至少一帧历史帧图像中识别被检测目标的至少一个历史眼部状态;
呆滞判断模块,用于基于所述当前眼部状态和至少一个历史眼部状态,确定所述被检测目标的眼部呆滞状态;
疲劳判断模块,用于基于所述当前眼部状态和所述眼部呆滞状态,确定所述被检测目标的疲劳状态。
根据本申请的第三方面,提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述任一所述的疲劳状态检测方法。
根据本申请的第四方面,提供了一种电子设备,所述电子设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现上述任一所述的疲劳状态检测方法。
在本公开提供的实施例中,从当前帧图像中获取当前的眼部状态,从当前帧图像和历史帧图像中获取眼部呆滞状态,眼部状态和眼部呆滞状态经组合后会有多种组合结果,多种组合结果能够分别与多种疲劳状态进行对应,从而,能够通过多种的组合结果对疲劳状态进行更加细致且精准的判断,从而,能够针对被检测目标的疲劳状态的阶段进行更加精确的提醒,避免被检测目标的疲劳状态持续加重,保证被检测目标的安全。
附图说明
通过结合附图对本申请实施例进行更详细的描述,本申请的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本申请实施例的进一步理解,并且构成说明书的一部分,与本申请实施例一起用于解释本申请,并不构成对本申请的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1是本申请一示例性实施例提供的疲劳状态检测方法的流程示意图。
图2a是本申请另一示例性实施例提供的疲劳状态检测方法的确定眼部状态的流程示意图。
图2b是本申请另一示例性实施例提供的疲劳状态检测方法的确定眼部区域的应用场景示意图。
图3是本申请另一示例性实施例提供的疲劳状态检测方法的确定眼部区域的流程示意图。
图4是本申请另一示例性实施例提供的疲劳状态检测方法的确定眼部区域的流程示意图。
图5a是本申请另一示例性实施例提供的疲劳状态检测方法的确定眼部睁闭状态及关键点的流程示意图。
图5b是本申请另一示例性实施例提供的疲劳状态检测方法的确定眼部睁闭状态及关键点的应用场景示意图。
图6是本申请另一示例性实施例提供的疲劳状态检测方法的确定疲劳状态的流程示意图。
图7a是本申请另一示例性实施例提供的疲劳状态检测方法的确定疲劳状态的流程示意图。
图7b本申请一示例性实施例提供的轻度疲劳状态示意。
图7c本申请一示例性实施例提供的重度疲劳状态示意。
图8a是本申请另一示例性实施例提供的疲劳状态检测方法的确定眼部呆滞状态的流程示意图。
图8b是本申请另一示例性实施例提供的疲劳状态检测方法的确定眼部呆滞状态的流程示意图。
图9是本申请一示例性实施例提供的疲劳状态检测装置的示意图。
图10是本申请一示例性实施例提供的疲劳状态检测装置的第一获取模块示意图。
图11是本申请一示例性实施例提供的疲劳状态检测装置的区域识别子模块示意图。
图12是本申请一示例性实施例提供的疲劳状态检测装置的区域确定单元示意图。
图13是本申请一示例性实施例提供的疲劳状态检测装置的参数获取子模块示意图。
图14是本申请一示例性实施例提供的疲劳状态检测装置的判断子模块示意图。
图15是本申请一示例性实施例提供的疲劳状态检测装置的第二判断单元示意图。
图16是本申请一示例性实施例提供的疲劳状态检测装置的第二获取模块示意图。
图17是本申请一示例性实施例提供的电子设备的结构图。
具体实施方式
下面,将参考附图详细地描述根据本申请的示例实施例。显然,所描述的实施例仅仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。
申请概述
在现有技术中,对于疲劳状态的检测通常会采用较为单一的关注点进行检测,因此,对于疲劳状态的判断通常仅会涉及到疲劳状态或非疲劳状态,难以对疲劳状态进行细致且精准的判断。但是,对于被检测目标来说,其疲劳状态通常应该是一个连续变化的状态,不会存在明显的疲劳状态或者非疲劳状态的突变,因此,应当对于被检测目标的疲劳状态进行更加细致的判断,以便进行更有针对性的提醒或措施。
示例性方法
图1是本申请一示例性实施例提供疲劳状态检测方法的流程示意图。本实施例可应用在电子设备上,如图1所示,包括如下步骤:
步骤100,从当前帧图像中识别被检测目标的当前眼部状态;
在一些实施例中,当前帧图像是指当前采集到的图像,被检测目标是指画面中需要判断疲劳状态的人物,当前的眼部状态是指当前眼部是完全睁开的、部分睁开的还是闭眼状态。
步骤200,从当前帧图像之前的至少一帧历史帧图像中识别被检测目标的至少一个历史眼部状态;
在一些实施例中,历史帧图像是指在当前帧图像之前的图像,多个历史帧图像可以为连续的历史帧图像,也可以是间隔选取的历史帧图像。历史眼部状态是指在历史帧图像中的眼部是完全睁开的、部分睁开的还是闭眼状态。
步骤300,基于所述当前眼部状态和至少一个历史眼部状态,确定所述被检测目标的眼部呆滞状态;
在一些实施例中,眼部呆滞状态是指眼部是否在历史帧图像和当前帧图像内发生了呆滞,例如,可以采用将当前眼部状态和至少一个历史眼部状态输入到预先确定的神经网络模型中,经过神经网络模型的计算,可以得到被检测目标的眼部呆滞状态。
步骤400,基于所述当前眼部状态和所述眼部呆滞状态,确定所述被检测目标的疲劳状态。
在一些实施例中,当眼部呆滞状态为未呆滞状态时,通常可以认为被检测目标当前处于未疲劳状态;当眼部呆滞状态为已呆滞状态时,可以认为被检测目标为已经进入疲劳状态,但是具体处于疲劳状态的哪一个阶段,可以通过当前眼部状态进行进一步判断。可见,通过眼部呆滞状态与当前眼部状态的组合,可以至少判断出被检测目标四个不同阶段的状态。
在本公开提供的实施例中,从当前帧图像中获取当前眼部状态,然后依据当前眼部状态和历史眼部状态确定眼部呆滞状态,当前眼部状态表征了在当前时刻的一个静态的眼部状态,而眼部呆滞状态则表征了在历史事件段中的动态过程中展示的眼部呆滞状态,将两者进行结合来判断疲劳状态,综合考虑了眼部的静态状态和动态状态,能够更加准确的对疲劳状态进行判断。另外,由于眼部状态和眼部呆滞状态组合后能形成多种组合结果,多种组合结果能够与多种疲劳状态进行对应,从而能够更加细致的判断疲劳状态。
在图1所示的实施例的基础上,如图2a所示,步骤100包括:
步骤110,从所述当前帧图像中识别所述被检测目标的当前眼部区域;
在一些实施例中,对当前眼部区域的识别过程中,首先利用人脸检测模型定位人脸,在人脸检测模型上的对应的关键点获得人脸关键点,这些关键点分布在嘴巴,鼻子,眼睛,眉毛以及人脸轮廓部位。利用眼部区域的关键点进行定位眼部区域的外接矩形,并且对该矩形进行一定程度的外扩来确保两个眼睛被包含到矩形中。最后对该矩形区域切割,得到只包含眼睛的眼部区域。在前述的人脸检测模型可以为ERT算法模型、SDM算法模型或者MTCNN算法模型。如下以图2b中的场景为例对当前眼部区域的提取过程进行描述,将当前帧图像1001输入到人脸检测模型1002中,在人脸检测模型上的对应的关键点获得人脸关键点,这些关键点分布在嘴巴,鼻子,眼睛,眉毛以及人脸轮廓部位,利用人脸关键点外接矩形1003确定人脸位置。利用眼部区域的关键点进行定位眼部区域的外接矩形1004,并且对该矩形进行一定程度的外扩来确保两个眼睛被包含到外扩矩形1005中,将外扩矩形1005包围的图像区域进行切割,得到当前眼部区域1006。
步骤120,依据所述当前眼部区域,确定所述眼部的睁闭状态以及眼部关键点;
在一些实施例中,眼部关键点是指单个眼睛的关键点,即将人脸检测模型中的眼部关键点与当前眼部区域进行匹配后的眼部关键点,眼部睁闭状态通常是以瞳孔的被遮挡程度来确定,瞳孔被完全遮挡时,认为眼部的睁闭状态是闭眼状态,当瞳瞳孔未被遮挡时,认为眼部睁闭状态是睁开状态。
步骤130,基于所述睁闭状态以及眼部关键点,确定所述被检测目标的当前眼部状态。
在一些实施例中,当眼部的睁闭状态为闭眼状态时,不需要依据眼部关键点进行进一步的判断,当眼部的睁闭状态为睁开状态时,依据眼部关键点的高度和宽度的比例来进一步判断当前眼部状态。例如,当眼部关键点的高度和宽度的比例高于第一预定比例时,例如高度和宽度的比例高于1/2时,认为当前眼部状态为完全睁开的状态;又例如,当眼部关键点的高度和宽度的比例低于第二预定比例时,例如高度和宽度的比例低于1/10时,认为当前眼部状态为闭眼状态;又例如,当眼部关键点的高度和宽度的比例在第一预定比例和第二预定比例之间时,例如高度和宽度的比例高于1/10时且低于1/2时,认为当前眼部状态为部分睁开状态,即眯眼状态。
由于被检测目标的疲劳状态通常是一个连续的变化状态,与之对应的,当前眼部状态通常也具有一个与疲劳状态对应的连续的变化状态,在本实施方式中,采用眼睛睁闭状态和眼部关键点配合进行眼部状态的判断,能够更加精细和准确的判断当前眼部状态,为后续对被检测目标疲劳状态的精细准确的判断提供了基础。
在前述图2a所述的实施例的基础上,如图3所示,步骤110包括:
步骤111,基于所述当前帧图像,确定所述被检测目标眼部的眼部区域;
在一些实施例中,在确定眼部区域过程中,对当前眼部区域的识别过程中,首先利用人脸检测模型定位人脸,在人脸检测模型上的对应的关键点获得人脸关键点,这些关键点分布在嘴巴,鼻子,眼睛,眉毛以及人脸轮廓部位。利用眼部关键点,确定眼部区域。例如,在当前帧图像中,依据眼部关键点,确定一个眼部关键点的外接矩形,并将前述的外接矩形所包围的图像区域进行分割,得到当前眼部区域。又例如,还可以对眼部关键点的外接矩形向外扩展若干个像素,例如5个或者8个,得到一个新的待分割矩形,并将待分割矩形包围的图像区域进行分割,得到当前眼部区域,从而,确保眼睛部位全部包括在当前眼部区域中。
步骤112,依据所述眼部区域中眼部可见状态,确定所述被检测目标的当前眼部区域。
在一些实施例中,对于被检测目标眼部的可见状态是通过神经网络模型进行实现的,例如,利用深度学习神经网络模型进行实现;在使用之前,使用具有大量眼部遮挡和未遮挡的图像对神经网络模型进行训练。向训练完成的神经网络模型输入当前帧图像时,神经网络模型能够输出与当前帧图像对应的标签,即当前帧图像中的眼部为被遮挡状态或者非遮挡状态。无论是后续的眼部呆滞状态判断过程还是当前眼部状态判断过程,都需要通过眼部区域进行判断,因此,当眼部被遮挡时,会导致眼部呆滞状态和当前眼部状态的判断错误,进一步导致被检测目标的疲劳状态判断错误,因此,在本步骤中,当眼部被遮挡时,可以放弃当前帧图像,当眼部未遮挡时,可以采用当前帧图像对应的眼部区域作为当前眼部区域。
在本实施方式中,在对当前眼部区域的确定过程中,通过眼部的遮挡状态进行筛选,从而,避免了眼部被遮挡的情况下对于眼部呆滞状态和当前眼部状态的判断错误,有利于眼部呆滞状态和当前眼部状态的正确判断,进一步的为后续被检测目标的疲劳状态的正确判断提供了基础。
在前述的图3中所示的实施例的基础上,如图4所示,步骤112包括:
步骤1121,当所述眼部可见状态为被遮挡状态时,放弃当前帧图像对应的眼部区域;
在一些实施例中,由于眼部可见状态为被遮挡状态时,表明在眼部区域中的眼部被遮挡,即不可见的,而在后续的眼部呆滞状态和当前眼部状态均需要依据眼部进行判断,因此,当眼部可见状态为被遮挡状态时,不存在后续的判断基础,因此,应当放弃当前帧图像对应的眼部区域。
步骤1122,当所述眼部可见状态为非遮挡状态时,将所述当前帧图像对应的眼部区域作为当前眼部区域。
在一些实施例中,依据步骤1121中的阐述,当眼部可见状态为非遮挡状态时,即眼部区域中的眼部是可见的,此时具有后续眼部呆滞状态和当前眼部状态的判断基础,因此,将当前帧图像对应的眼部区域作为当前眼部区域进行存储,以便于在后续进行眼部呆滞状态的判断和当前眼部状态的判断。
在本实施方式中,通过眼部状态的可见状态来判断当前帧图像的眼部区域是否可用,为当前眼部区域的确定过程提供了一种可操作的方式,便于在当前眼部区域确定过程中的操作。
在上述的图2a所示的实施例基础上,如图5a所示,步骤120包括:
步骤121,将所述当前眼部区域输入给预定的第一神经网络模型;
在一些实施例中,预定的第一神经网络模型是预先进行训练和保存的第一神经网络模型,在训练过程中,将大量的具有人脸的图像以及与图像对应的睁闭状态和眼部关键点作为训练集,对第一神经网络模型进行训练来调整第一神经网络中的各个神经元的权重值,并对调整完成的权重值进行保存。此时,采用确定的权重值的第一神经网络模型即为第一神经网络模型。对于第一神经网络模型,例如可以为深度学习神经网络模型。
步骤122,获取所述第一神经网络模型输出的睁闭状态以及眼部关键点。
在一些实施例中,对于预定的第一神经网络模型输入当前帧图像,经第一神经网络模型的权重值进行计算后,能够输出当前帧图像中的眼部的睁闭状态以及眼部关键点。
以图5b中的场景为例对眼部的睁闭状态判断过程进行描述,首先将当前帧图像对应的眼部区域1007输入到神经网络模型1008中,以进行眼部可见状态的判断,神经网络模型1008输出眼部可见状态的判断结果1009,将判断结果为非遮挡状态,即眼部可见状态的眼部区域作为当前眼部区域。将当前眼部区域输入到第一神经网络模型1010中,第一神经网络模型1010输出眼睛睁闭状态分类和眼部关键点结果1011。依据睁闭状态分类和眼部关键点结果1011,可以确定眼睛是睁眼、眯眼或闭眼的输出结果1012。在本实施例中,通过训练完毕的预定的第一神经网络模型对当前帧的眼部睁闭状态以及眼部关键点进行确定,向预定的第一神经网络中输入当前帧图像,预定的第一神经网络即可输出眼部的睁闭状态以及眼部关键点,对于操作人员来说,简化了操作过程,降低了操作难度。
在上述的图2a所示的实施例基础上,步骤400包括:
步骤410,确定所述眼部呆滞状态为已呆滞状态时,依据所述当前眼部状态确定被检测目标的疲劳状态。
在一些实施例中,当眼部呆滞状态为已呆滞状态时,表明被检测目标出现了疲劳状态,但是被检测目标的疲劳状态通常具有多个不同的阶段,例如具有轻度疲劳状态,重度疲劳状态或者已睡眠状态三个阶段。前述的判断过程仅确定了被检测目标已经进入了疲劳状态,并不能确定被检测目标当前是处于轻度疲劳状态,重度疲劳状态还是已睡眠状态。因此,在后续采用当前眼部状态对疲劳状态所述的阶段进行进一步判断。
在本实施方式中,依据眼部呆滞状态对被检测目标的是否处于疲劳状态进行性质的判断,即判断被检测目标的疲劳状态或者未疲劳状态,而当被检测目标处于疲劳状态时,为了进一步对被检测目标的疲劳状态所处的阶段进行判断,采用当前眼部状态进行进一步判断。
在上述的图2a所示的实施例基础上,如图6所示,步骤410包括:
步骤411,当所述睁闭状态为闭眼状态时,确定被检测目标的疲劳状态为已睡眠状态;
在一实施例中,已睡眠状态是指被检测目标已经睡着,在眼部呆滞状态为已呆滞状态时,表明被检测目标的眼部状态在一定的时间内未发生变动,结合睁闭状态的闭眼状态,可以判断被检测目标已经进入睡眠的状态。
步骤412,当所述睁闭状态为睁眼状态时,依据眼部关键点的高度和宽度的比例,确定被检测目标的疲劳状态。
在一些实施例中,在眼部呆滞状态为已呆滞状态时,表明被检测目标的眼部状态在一定的时间内未发生变动。由于被检测目标在疲劳状态下的眼部是在一段时间内随其疲劳状态的加重逐渐闭眼的,因此,其眼部关键点的高度和宽度的比例能够在一定程度上表征被检测目标的疲劳状态对应的程度。
在本实施方式中,具体描述了采用眼部呆滞状态和当前眼部状态配合进行疲劳状态的阶段进行判断,能够细致且精准的对被检测目标的疲劳状态的阶段进行判断,从而,能够针对被检测目标的疲劳状态的阶段进行更加精确的提醒,避免被检测目标的疲劳状态持续加重,保证被检测目标的安全。
在上述图6所示的实施例的基础上,如图7a所示,步骤412包括:
步骤4121,当所述比例大于第一预设比例时,确定当前的疲劳状态为第一疲劳状态;
在一些实施例中,第一疲劳状态时指轻度疲劳状态,第一预设比例可以依据经验进行预先设定,例如,将第一预设比例设定为1/2。由于被检测目标的眼部闭合过程是随着疲劳状态的加重逐渐闭合的,因此,眼部闭合的阶段通常表征着疲劳状态的阶段,因此,在本步骤中,通过眼部关键点的高度和宽度的比例大于第一预设比例,例如大于1/2时,表明当前的被检测目标疲劳状态为轻度疲劳状态。图7b示例性的展示了一种轻度疲劳状态下的图像,该图像中的人物处于呆滞状态,且所述比例大于第一预设比例时,此时图像中的人物的疲劳状态为轻度疲劳状态。
步骤4122,当所述比例小于第二预设比例时,确定当前的疲劳状态为已睡眠状态;
在一些实施例中,第二预设比例为小于第一预设比例的的预设比例,该比例也可以依据经验进行预先设定,例如,将第二预设比例设定为1/10。由于当眼部睁开的程度小于第二预设比例时,由于其眼部瞳孔仍然有部分可见,其睁闭状态通常会被判定为睁眼状态,但是,其疲劳状态通常是已经进入睡眠状态。因此,在本步骤中将眼部关键点的高度与宽度的比例低于第二预设比例时判定其状态为已睡眠状态。本步骤中,能够更加精准的判断其进入已睡眠状态的情况。
步骤4123,当所述比例小于等于第一预设比例且大于等于第二预设比例时,确定当前的疲劳状态为第二疲劳状态;其中,所述第二疲劳状态的强度大于所述第一疲劳状态的强度。
在一些实施例中,由于由于被检测目标的眼部闭合过程是随着疲劳状态的加重逐渐闭合的,因此,眼部闭合的阶段通常表征着疲劳状态的阶段,因此,在本步骤中,当眼部关键点的高度和宽度的关键点介于第一预设比例和第二预设比例时,其疲劳状态被认为是介于第一疲劳状态和已睡眠状态之间的第二疲劳状态,即重度疲劳状态。图7c示例性的展示了一种重度疲劳状态下的图像,该图像中的人物处于呆滞状态,且所述比例小于等于第一预设比例且大于等于第二预设比例时,此时图像中的人物的疲劳状态为重度疲劳状态。
在本实施方式,通过眼部关键点的高度和宽度的比例来确定其具体的疲劳状态,为疲劳状态提供一种具有强操作性且高准确性的判断过程。
在上述的图1所示的实施例基础上,如图8a所示,步骤300包括:
步骤310,将所述当前眼部区域和至少一个历史眼部区域输入给预定的第二神经网络模型;
在一些实施例中,预定的第二神经网络模型是预先进行训练和保存的第二神经网络模型,在训练过程中,将大量眼部区域组合以及对应的眼部呆滞状态作为训练集,对第二神经网络模型进行训练来调整第二神经网络中的各个神经元的权重值,并对调整完成的权重值进行保存。其中,眼部区域组合是指具有被检测目标眼部区域的多帧图像组合。此时,采用确定的权重值的第二神经网络模型即为第二神经网络模型。对于第二神经网络模型,例如可以为深度学习神经网络模型。
步骤320,获取所述第二神经网络模型输出的眼部呆滞状态。
在一些实施例中,对于预定的第二神经网络模型输入当前眼部区域以及历史眼部区域,经第二神经网络模型的权重值进行计算后,能够输出眼部的呆滞状态。
以图8b提供的场景为例,描述眼部呆滞状态的判断过程如下,将当前眼部区域和历史眼部区域的图像集合1013输入到第二神经网络1014中,第二申请网络1014能够输出眼部呆滞状态的判断结果1015。
在本实施例中,通过训练完毕的预定的第二神经网络模型对眼部呆滞状态进行确定,向预定的第二神经网络中输入当前眼部区域以及历史眼部区域,预定的第二神经网络即可输出眼部呆滞状态,对于操作人员来说,简化了操作过程,降低了操作难度。
示例性装置
图9是本申请一示例性实施例提供疲劳状态检测方法的流程示意图。本实施例可应用在电子设备上,如图9所示,包括如下步骤:
第一获取模块9100,用于从当前帧图像中识别被检测目标的当前眼部状态;
在一些实施例中,当前帧图像是指当前采集到的图像,被检测目标是指画面中需要判断疲劳状态的人物,当前的眼部状态是指当前眼部是完全睁开的、部分睁开的还是闭眼状态。
第二获取模块9200,用于从当前帧图像之前的至少一帧历史帧图像中识别被检测目标的至少一个历史眼部状态;
在一些实施例中,历史帧图像是指在当前帧图像之前的图像,多个历史帧图像可以为连续的历史帧图像,也可以是间隔选取的历史帧图像。历史眼部状态是指在历史帧图像中的眼部是完全睁开的、部分睁开的还是闭眼状态。
呆滞判断模块9300,用于基于所述当前眼部状态和至少一个历史眼部状态,确定所述被检测目标的眼部呆滞状态;
在一些实施例中,眼部呆滞状态是指眼部是否在历史帧图像和当前帧图像内发生了呆滞,例如,可以采用将当前眼部状态和至少一个历史眼部状态输入到预先确定的神经网络模型中,经过神经网络模型的计算,可以得到被检测目标的眼部呆滞状态。疲劳判断模块9400,基于所述当前眼部状态和所述眼部呆滞状态,确定所述被检测目标的疲劳状态。
在一些实施例中,当眼部呆滞状态为未呆滞状态时,通常可以认为被检测目标当前处于未疲劳状态;当眼部呆滞状态为已呆滞状态时,可以认为被检测目标为已经进入疲劳状态,但是具体处于疲劳状态的哪一个阶段,可以通过当前眼部状态进行进一步判断。可见,通过眼部呆滞状态与当前眼部状态的组合,可以至少判断出被检测目标四个不同阶段的状态。
在本公开提供的实施例中,从当前帧图像中获取当前眼部状态,然后依据当前眼部状态和历史眼部状态确定眼部呆滞状态,当前眼部状态表征了在当前时刻的一个静态的眼部状态,而眼部呆滞状态则表征了在历史事件段中的动态过程中展示的眼部呆滞状态,将两者进行结合来判断疲劳状态,综合考虑了眼部的静态状态和动态状态,能够更加准确的对疲劳状态进行判断。另外,由于眼部状态和眼部呆滞状态组合后能形成多种组合结果,多种组合结果能够与多种疲劳状态进行对应,从而能够更加细致的判断疲劳状态。
在图9所示的实施例的基础上,如图10所示,第一获取模块9100包括:
区域识别子模块9110,用于从所述当前帧图像中识别所述被检测目标的当前眼部区域;
在一些实施例中,对当前眼部区域的识别过程中,首先利用人脸检测模型定位人脸,在人脸检测模型上的对应的关键点获得人脸关键点,这些关键点分布在嘴巴,鼻子,眼睛,眉毛以及人脸轮廓部位。利用眼部区域的关键点进行定位眼部区域的外接矩形,并且对该矩形进行一定程度的外扩来确保两个眼睛被包含到矩形中。最后对该矩形区域切割,得到只包含眼睛的眼部区域。在前述的人脸检测模型可以为ERT算法模型、SDM算法模型或者MTCNN算法模型。如下以图2b中的场景为例对当前眼部区域的提取过程进行描述,将当前帧图像1001输入到人脸检测模型1002中,在人脸检测模型上的对应的关键点获得人脸关键点,这些关键点分布在嘴巴,鼻子,眼睛,眉毛以及人脸轮廓部位,利用人脸关键点外接矩形1003确定人脸位置。利用眼部区域的关键点进行定位眼部区域的外接矩形1004,并且对该矩形进行一定程度的外扩来确保两个眼睛被包含到外扩矩形1005中,将外扩矩形1005包围的图像区域进行切割,得到当前眼部区域1006。
区域识别子模块9120,用于依据所述当前眼部区域,确定所述眼部的睁闭状态以及眼部关键点;
在一些实施例中,眼部关键点是指单个眼睛的关键点,即将人脸检测模型中的眼部关键点与当前眼部区域进行匹配后的眼部关键点,眼部睁闭状态通常是以瞳孔的被遮挡程度来确定,瞳孔被完全遮挡时,认为眼部的睁闭状态是闭眼状态,当瞳瞳孔未被遮挡时,认为眼部睁闭状态是睁开状态。
区域识别子模块9130,用于基于所述睁闭状态以及眼部关键点,确定所述被检测目标的当前眼部状态。
在一些实施例中,当眼部的睁闭状态为闭眼状态时,不需要依据眼部关键点进行进一步的判断,当眼部的睁闭状态为睁开状态时,依据眼部关键点的高度和宽度的比例来进一步判断当前眼部状态。例如,当眼部关键点的高度和宽度的比例高于第一预定比例时,例如高度和宽度的比例高于1/2时,认为当前眼部状态为完全睁开的状态;又例如,当眼部关键点的高度和宽度的比例低于第二预定比例时,例如高度和宽度的比例低于1/10时,认为当前眼部状态为闭眼状态;又例如,当眼部关键点的高度和宽度的比例在第一预定比例和第二预定比例之间时,例如高度和宽度的比例高于1/10时且低于1/2时,认为当前眼部状态为部分睁开状态,即眯眼状态。
由于被检测目标的疲劳状态通常是一个连续的变化状态,与之对应的,当前眼部状态通常也具有一个与疲劳状态对应的连续的变化状态,在本实施方式中,采用眼睛睁闭状态和眼部关键点配合进行眼部状态的判断,能够更加精细和准确的判断当前眼部状态,为后续对被检测目标疲劳状态的精细准确的判断提供了基础。
在前述图10所述的实施例的基础上,如图11所示,区域识别子模块9110包括:
区域分割单元9111,用于基于所述当前帧图像,确定所述被检测目标眼部的眼部区域;
在一些实施例中,在确定眼部区域过程中,对当前眼部区域的识别过程中,首先利用人脸检测模型定位人脸,在人脸检测模型上的对应的关键点获得人脸关键点,这些关键点分布在嘴巴,鼻子,眼睛,眉毛以及人脸轮廓部位。利用眼部关键点,确定眼部区域。例如,在当前帧图像中,依据眼部关键点,确定一个眼部关键点的外接矩形,并将前述的外接矩形所包围的图像区域进行分割,得到当前眼部区域。又例如,还可以对眼部关键点的外接矩形向外扩展若干个像素,例如5个或者8个,得到一个新的待分割矩形,并将待分割矩形包围的图像区域进行分割,得到当前眼部区域,从而,确保眼睛部位全部包括在当前眼部区域中。区域确定单元9112,用于依据所述眼部区域中眼部可见状态,确定所述被检测目标的当前眼部区域。
在一些实施例中,对于被检测目标眼部的可见状态是通过神经网络模型进行实现的,例如,利用深度学习神经网络模型进行实现;在使用之前,使用具有大量眼部遮挡和未遮挡的图像对神经网络模型进行训练。向训练完成的神经网络模型输入当前帧图像时,神经网络模型能够输出与当前帧图像对应的标签,即当前帧图像中的眼部为被遮挡状态或者非遮挡状态。无论是后续的眼部呆滞状态判断过程还是当前眼部状态判断过程,都需要通过眼部区域进行判断,因此,当眼部被遮挡时,会导致眼部呆滞状态和当前眼部状态的判断错误,进一步导致被检测目标的疲劳状态判断错误,因此,在本步骤中,当眼部被遮挡时,可以放弃当前帧图像,当眼部未遮挡时,可以采用当前帧图像对应的眼部区域作为当前眼部区域。在本实施方式中,在对当前眼部区域的确定过程中,通过眼部的遮挡状态进行筛选,从而,避免了眼部被遮挡的情况下对于眼部呆滞状态和当前眼部状态的判断错误,有利于眼部呆滞状态和当前眼部状态的正确判断,进一步的为后续被检测目标的疲劳状态的正确判断提供了基础。
在前述的图11中所示的实施例的基础上,如图12所示,区域确定单元9112包括:
放弃子单元91121,用于当所述眼部可见状态为被遮挡状态时,放弃当前帧图像对应的眼部区域;
在一些实施例中,由于眼部可见状态为被遮挡状态时,表明在眼部区域中的眼部被遮挡,即不可见的,而在后续的眼部呆滞状态和当前眼部状态均需要依据眼部进行判断,因此,当眼部可见状态为被遮挡状态时,不存在后续的判断基础,因此,应当放弃当前帧图像对应的眼部区域。
确定子单元91122,用于当所述眼部可见状态为非遮挡状态时,将所述当前帧图像对应的眼部区域作为当前眼部区域。
在一些实施例中,依据模块91121中的阐述,当前眼部可见状态为非遮挡状态时,即眼部区域中的眼部是可见的,此时具有后续眼部呆滞状态和当前眼部状态的判断基础,因此,将当前帧图像中的眼部区域作为当前眼部区域进行存储,以便于在后续进行眼部呆滞状态的判断和当前眼部状态的判断。
在本实施方式中,通过眼部状态的可见状态来判断当前帧图像的眼部区域是否可用,为当前眼部区域的确定过程提供了一种可操作的方式,便于在当前眼部区域确定过程中的操作。
在上述的图10所示的实施例基础上,如图13所示,区域识别子模块9120包括:
输入单元9121,用于将所述当前眼部区域输入给预定的第一神经网络模型;
在一些实施例中,预定的第一神经网络模型是预先进行训练和保存的第一神经网络模型,在训练过程中,将大量的具有人脸的图像以及与图像对应的睁闭状态和眼部关键点作为训练集,对第一神经网络模型进行训练来调整第一神经网络中的各个神经元的权重值,并对调整完成的权重值进行保存。此时,采用确定的权重值的第一神经网络模型即为第一神经网络模型。对于第一神经网络模型,例如可以为深度学习神经网络模型。
获取单元9122,用于获取所述第一神经网络模型输出的睁闭状态以及眼部关键点。
在一些实施例中,对于预定的第一神经网络模型输入当前帧图像,经第一神经网络模型的权重值进行计算后,能够输出当前帧图像中的眼部的睁闭状态以及眼部关键点。
以图5b中的场景为例对眼部的睁闭状态判断过程进行描述,首先将当前帧图像对应的眼部区域1007输入到神经网络模型1008中,以进行眼部可见状态的判断,神经网络模型1008输出眼部可见状态的判断结果1009,将判断结果为非遮挡状态,即眼部可见状态的眼部区域作为当前眼部区域。将当前眼部区域输入到第一神经网络模型1010中,第一神经网络模型1010输出眼睛睁闭状态分类和眼部关键点结果1011。依据睁闭状态分类和眼部关键点结果1011,可以确定眼睛是睁眼、眯眼或闭眼的输出结果1012。
在本实施例中,通过训练完毕的预定的第一神经网络模型对当前帧的眼部睁闭状态以及眼部关键点进行确定,向预定的第一神经网络中输入当前帧图像,预定的第一神经网络即可输出眼部的睁闭状态以及眼部关键点,对于操作人员来说,简化了操作过程,降低了操作难度。
在上述的图9所示的实施例基础上,疲劳判断模块9400包括:
判断子模块9410,用于确定所述眼部呆滞状态为已呆滞状态时,依据所述当前眼部状态确定被检测目标的疲劳状态。
在一些实施例中,当眼部呆滞状态为已呆滞状态时,表明被检测目标出现了疲劳状态,但是被检测目标的疲劳状态通常具有多个不同的阶段,例如具有轻度疲劳状态,重度疲劳状态或者已睡眠状态三个阶段。前述的判断过程仅确定了被检测目标已经进入了疲劳状态,并不能确定被检测目标当前是处于轻度疲劳状态,重度疲劳状态还是已睡眠状态。因此,在后续采用当前眼部状态对疲劳状态所述的阶段进行进一步判断。在本实施方式中,依据眼部呆滞状态对被检测目标的是否处于疲劳状态进行性质的判断,即判断被检测目标的疲劳状态或者未疲劳状态,而当被检测目标处于疲劳状态时,为了进一步对被检测目标的疲劳状态所处的阶段进行判断,采用当前眼部状态进行进一步判断。
在上述的图9所示的实施例基础上,如图14所示,判断子模块9410包括:
第一判断单元9411,用于当所述睁闭状态为闭眼状态时,确定被检测目标的疲劳状态为已睡眠状态;
在一实施例中,已睡眠状态是指被检测目标已经睡着,在眼部呆滞状态为已呆滞状态时,表明被检测目标的眼部状态在一定的时间内未发生变动,结合睁闭状态的闭眼状态,可以判断被检测目标已经进入睡眠的状态。
第二判断单元9412,用于当所述睁闭状态为睁眼状态时,依据眼部关键点的高度和宽度的比例,确定被检测目标的疲劳状态。
在一些实施例中,在眼部呆滞状态为已呆滞状态时,表明被检测目标的眼部状态在一定的时间内未发生变动。由于被检测目标在疲劳状态下的眼部是在一段时间内随其疲劳状态的加重逐渐闭眼的,因此,其眼部关键点的高度和宽度的比例能够在一定程度上表征被检测目标的疲劳状态对应的程度。
在本实施方式中,具体描述了采用眼部呆滞状态和当前眼部状态配合进行疲劳状态的阶段进行判断,能够细致且精准的对被检测目标的疲劳状态的阶段进行判断,从而,能够针对被检测目标的疲劳状态的阶段进行更加精确的提醒,避免被检测目标的疲劳状态持续加重,保证被检测目标的安全。
在上述图14所示的实施例的基础上,如图7a所示,步骤9412包括:
第一子单元94121,用于当所述比例大于第一预设比例时,确定当前的疲劳状态为第一疲劳状态;
在一些实施例中,第一疲劳状态时指轻度疲劳状态,第一预设比例可以依据经验进行预先设定,例如,将第一预设比例设定为1/2。由于被检测目标的眼部闭合过程是随着疲劳状态的加重逐渐闭合的,因此,眼部闭合的阶段通常表征着疲劳状态的阶段,因此,在本步骤中,通过眼部关键点的高度和宽度的比例大于第一预设比例,例如大于1/2时,表明当前的被检测目标疲劳状态为轻度疲劳状态。图7b示例性的展示了一种轻度疲劳状态下的图像,该图像中的人物处于呆滞状态,且所述比例大于第一预设比例时,此时图像中的人物的疲劳状态为轻度疲劳状态。
第二子单元94122,用于当所述比例小于第二预设比例时,确定当前的疲劳状态为已睡眠状态;
在一些实施例中,第二预设比例为小于第一预设比例的的预设比例的预设比例,该比例也可以依据经验进行预先设定,例如,将第二预设比例设定为1/10。由于当眼部睁开的程度小于第二预设比例时,由于其眼部瞳孔仍然有部分可见,其睁闭状态通常会被判定为睁眼状态,但是,其疲劳状态通常是已经进入睡眠状态。因此,在本步骤中将眼部关键点的高度与宽度的比例低于第二预设比例时判定其状态为已睡眠状态。本步骤中,能够更加精准的判断其进入已睡眠状态的情况。
第三子单元94123,用于当所述比例小于等于第一预设比例且大于等于第二预设比例时,确定当前的疲劳状态为第二疲劳状态;其中,所述第二疲劳状态的强度大于所述第一疲劳状态的强度。
在一些实施例中,由于由于被检测目标的眼部闭合过程是随着疲劳状态的加重逐渐闭合的,因此,眼部闭合的阶段通常表征着疲劳状态的阶段,因此,在本步骤中,当眼部关键点的高度和宽度的关键点介于第一预设比例和第二预设比例时,其疲劳状态被认为是介于第一疲劳状态和已睡眠状态之间的第二疲劳状态,即重度疲劳状态。图7c示例性的展示了一种重度疲劳状态下的图像,该图像中的人物处于呆滞状态,且所述比例小于等于第一预设比例且大于等于第二预设比例时,此时图像中的人物的疲劳状态为重度疲劳状态。
在本实施方式,通过眼部关键点的高度和宽度的比例来确定其具体的疲劳状态,为疲劳状态提供一种具有强操作性且高准确性的判断过程。
在上述的图9所示的实施例基础上,如图16所示,呆滞判断模块9300包括:
输入子模块9310,用于将所述当前眼部区域和至少一个历史眼部区域输入给预定的第二神经网络模型;
在一些实施例中,预定的第二神经网络模型是预先进行训练和保存的第二神经网络模型,在训练过程中,将大量眼部区域组合以及对应的眼部呆滞状态作为训练集,对第二神经网络模型进行训练来调整第二神经网络中的各个神经元的权重值,并对调整完成的权重值进行保存。其中,眼部区域组合是指具有被检测目标眼部区域的多帧图像组合。此时,采用确定的权重值的第二神经网络模型即为第二神经网络模型。对于第二神经网络模型,例如可以为深度学习神经网络模型。
获取子模块9320,用于获取所述第二神经网络模型输出的眼部呆滞状态。
在一些实施例中,对于预定的第二神经网络模型输入当前眼部区域以及历史眼部区域,经第二神经网络模型的权重值进行计算后,能够输出眼部的呆滞状态。
以图8b提供的场景为例,描述眼部呆滞状态的判断过程如下,将当前眼部区域和历史眼部区域的图像集合1013输入到第二神经网络1014中,第二申请网络1014能够输出眼部呆滞状态的判断结果1015。
在本实施例中,通过训练完毕的预定的第二神经网络模型对眼部呆滞状态进行确定,向预定的第二神经网络中输入当前眼部区域以及历史眼部区域,预定的第二神经网络即可输出眼部呆滞状态,对于操作人员来说,简化了操作过程,降低了操作难度。
示例性电子设备
下面,参考图17来描述根据本申请实施例的电子设备。图17图示了根据本申请实施例的电子设备的框图。
如图17所示,电子设备1700包括一个或多个处理器1710和存储器1730。
处理器1710可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备1700中的其他组件以执行期望的功能。
存储器1730可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器1710可以运行所述程序指令,以实现上文所述的本申请的各个实施例的疲劳状态检测方法以及/或者其他期望的功能。在所述计算机可读存储介质中还可以存储诸如输入信号、信号分量、噪声分量等各种内容。
在一个示例中,电子设备1700还可以包括:输入装置1720和输出装置1740,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
例如,该输入装置1720可以是上述的摄像装置,用于捕捉图像信息的输入信号。在该电子设备是单机设备时,该输入装置1720可以是通信网络连接器,用于从摄像装置中获取的输入信号。
此外,该输入设备1720还可以包括例如键盘、鼠标等等。
该输出装置1740可以向外部输出各种信息,包括确定出的距离信息、方向信息等。该输出设备1740可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。
当然,为了简化,图17中仅示出了该电子设备1700中与本申请有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备1700还可以包括任何其他适当的组件。
示例性计算机程序产品和计算机可读存储介质
除了上述方法和设备以外,本申请的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的疲劳状态检测方法中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本申请实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本申请的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的疲劳状态检测方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本申请的基本原理,但是,需要指出的是,在本申请中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本申请的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本申请为必须采用上述具体的细节来实现。
本申请中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
还需要指出的是,在本申请的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本申请的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本申请。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本申请的范围。因此,本申请不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本申请的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。

Claims (10)

1.一种疲劳状态检测方法,包括:
从当前帧图像中识别被检测目标的当前眼部状态;
从当前帧图像之前的至少一帧历史帧图像中识别被检测目标的至少一个历史眼部状态;
基于所述当前眼部状态和至少一个历史眼部状态,确定所述被检测目标的眼部呆滞状态;
基于所述当前眼部状态和所述眼部呆滞状态,确定所述被检测目标的疲劳状态。
2.根据权利要求1所述的疲劳状态检测方法,其中,从当前帧图像中识别被检测目标的当前眼部状态包括:
从所述当前帧图像中识别所述被检测目标的当前眼部区域;
依据所述当前眼部区域,确定所述眼部的睁闭状态以及眼部关键点;
基于所述睁闭状态以及眼部关键点,确定所述被检测目标的当前眼部状态。
3.根据权利要求2所述的疲劳状态检测方法,其中,从所述当前帧图像中识别所述被检测目标的当前眼部区域包括:
基于所述当前帧图像,确定所述被检测目标的眼部区域;
依据所述眼部区域中眼部可见状态,确定所述被检测目标的当前眼部区域。
4.根据权利要求3所述的疲劳状态检测方法,其中,依据所述区域中眼部可见状态,确定所述被检测目标的当前眼部区域包括:
当所述眼部可见状态为被遮挡状态时,放弃当前帧图像对应的眼部区域;
当所述眼部可见状态为非遮挡状态时,将所述当前帧图像对应的眼部区域作为当前眼部区域。
5.根据权利要求2所述的疲劳状态检测方法,其中,依据所述当前眼部区域,确定所述眼部的睁闭状态以及眼部关键点包括:
将所述当前眼部区域输入给预定的第一神经网络模型;
获取所述第一神经网络模型输出的睁闭状态以及眼部关键点。
6.根据权利要求2所述的疲劳状态检测方法,其中,所述基于所述当前眼部状态和所述眼部呆滞状态,确定所述被检测目标的疲劳状态包括:
确定所述眼部呆滞状态为已呆滞状态时,依据所述当前眼部状态确定被检测目标的疲劳状态。
7.根据权利要求1所述的疲劳状态检测方法,其中,依据所述当前眼部区域和至少一个历史眼部区域,确定所述检测目标的眼部呆滞状态包括:
将所述当前眼部区域和至少一个历史眼部区域输入给预定的第二神经网络模型;
获取所述第二神经网络模型输出的眼部呆滞状态。
8.一种疲劳状态检测装置,包括:
第一获取模块,用于从当前帧图像中识别被检测目标的当前眼部状态;
第二获取模块,用于从当前帧图像之前的至少一帧历史帧图像中识别被检测目标的至少一个历史眼部状态;
呆滞判断模块,用于基于所述当前眼部状态和至少一个历史眼部状态,确定所述被检测目标的眼部呆滞状态;
疲劳判断模块,用于基于所述当前眼部状态和所述眼部呆滞状态,确定所述被检测目标的疲劳状态。
9.一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述权利要求1-7任一所述的疲劳状态检测方法。
10.一种电子设备,所述电子设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现上述权利要求1-7任一所述的疲劳状态检测方法。
CN202110860490.2A 2021-07-28 2021-07-28 疲劳状态检测方法、装置、可读存储介质以及电子设备 Pending CN113591682A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110860490.2A CN113591682A (zh) 2021-07-28 2021-07-28 疲劳状态检测方法、装置、可读存储介质以及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110860490.2A CN113591682A (zh) 2021-07-28 2021-07-28 疲劳状态检测方法、装置、可读存储介质以及电子设备

Publications (1)

Publication Number Publication Date
CN113591682A true CN113591682A (zh) 2021-11-02

Family

ID=78251421

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110860490.2A Pending CN113591682A (zh) 2021-07-28 2021-07-28 疲劳状态检测方法、装置、可读存储介质以及电子设备

Country Status (1)

Country Link
CN (1) CN113591682A (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109815937A (zh) * 2019-02-25 2019-05-28 湖北亿咖通科技有限公司 疲劳状态智能识别方法、装置及电子设备
CN110956068A (zh) * 2019-05-29 2020-04-03 初速度(苏州)科技有限公司 一种基于人眼状态识别的疲劳检测方法及装置
CN113128295A (zh) * 2019-12-31 2021-07-16 湖北亿咖通科技有限公司 一种车辆驾驶员危险驾驶状态识别方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109815937A (zh) * 2019-02-25 2019-05-28 湖北亿咖通科技有限公司 疲劳状态智能识别方法、装置及电子设备
CN110956068A (zh) * 2019-05-29 2020-04-03 初速度(苏州)科技有限公司 一种基于人眼状态识别的疲劳检测方法及装置
CN113128295A (zh) * 2019-12-31 2021-07-16 湖北亿咖通科技有限公司 一种车辆驾驶员危险驾驶状态识别方法及装置

Similar Documents

Publication Publication Date Title
US20210009150A1 (en) Method for recognizing dangerous action of personnel in vehicle, electronic device and storage medium
US20210012127A1 (en) Action recognition method and apparatus, driving action analysis method and apparatus, and storage medium
Fridman et al. Driver gaze region estimation without use of eye movement
Ji et al. Fatigue state detection based on multi-index fusion and state recognition network
EP2975997B1 (en) System and method for on-axis eye gaze tracking
EP1589485B1 (en) Object tracking and eye state identification method
Ahmed et al. Robust driver fatigue recognition using image processing
KR20190083155A (ko) 운전자 상태 검출 장치 및 그 방법
US11453401B2 (en) Closed eye determination device
Devi et al. Fuzzy based driver fatigue detection
CN115019380A (zh) 基于眼部图像的斜视智能识别方法、装置、终端及介质
Chinthalachervu et al. Driver drowsiness detection and monitoring system using machine learning
EP3471055B1 (en) Comparison device and comparison method
Mašanović et al. Driver monitoring using the in-vehicle camera
Ortega et al. User-adaptive Eyelid Aperture Estimation for Blink Detection in Driver Monitoring Systems.
CN113591682A (zh) 疲劳状态检测方法、装置、可读存储介质以及电子设备
CN111860437A (zh) 一种基于面部表情判断疲劳程度的方法及装置
CN115830579A (zh) 一种驾驶状态监测方法、系统及车辆
Patil et al. Real-time driver behaviour monitoring system invehicles using image processing
CN113616195A (zh) 基于状态信息区分眨眼类型的方法、装置、介质及设备
Xie et al. Revolutionizing Road Safety: YOLOv8-Powered Driver Fatigue Detection
Dehkordi et al. An effective system to detect face drowsiness status using local features in a hierarchical decision-making structure
Bhargava et al. Drowsiness detection while driving using eye tracking
US20240020992A1 (en) Method of Determining Drowsiness of a Driver in a Vehicle
CN113662566B (zh) 一种基于电信号的眨眼检测方法、装置、介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination