CN109670421B - 一种疲劳状态检测方法和装置 - Google Patents

一种疲劳状态检测方法和装置 Download PDF

Info

Publication number
CN109670421B
CN109670421B CN201811475365.4A CN201811475365A CN109670421B CN 109670421 B CN109670421 B CN 109670421B CN 201811475365 A CN201811475365 A CN 201811475365A CN 109670421 B CN109670421 B CN 109670421B
Authority
CN
China
Prior art keywords
state
infrared image
image sequence
value
state value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811475365.4A
Other languages
English (en)
Other versions
CN109670421A (zh
Inventor
郑光璞
吴涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Xiaoniao Kankan Technology Co Ltd
Original Assignee
Qingdao Xiaoniao Kankan Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Xiaoniao Kankan Technology Co Ltd filed Critical Qingdao Xiaoniao Kankan Technology Co Ltd
Priority to CN201811475365.4A priority Critical patent/CN109670421B/zh
Publication of CN109670421A publication Critical patent/CN109670421A/zh
Application granted granted Critical
Publication of CN109670421B publication Critical patent/CN109670421B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种疲劳状态检测方法和装置。疲劳状态检测方法包括:利用相机参数实时调整的TOF相机对用户摄像,获取用户的红外图像和深度图像;对红外图像进行人脸识别,获取人脸位置以及获取人脸位置中包含的面部特征点;根据人脸位置中包含的面部特征点确定头部姿态和目标区域的状态,利用头部姿态、目标区域的状态和外部环境信息实现疲劳状态检测;根据红外图像和深度图像像素点的对应关系,获取深度图像中所述人脸位置对应的深度信息,利用深度信息调整所述TOF相机的参数。本发明综合多种特征信息识别用户的疲劳状态,可以提高识别结果的准确性,以及通过调整TOF相机与用户之间的距离获得更好的成像效果,进而提高基疲劳状态检测结果。

Description

一种疲劳状态检测方法和装置
技术领域
本发明涉及机器学习技术领域,尤其涉及一种疲劳状态检测方法和装置。
背景技术
由于疲劳驾驶是造成交通事故的重要原因之一,市场上对于疲劳检设备的需求日益增大,利用疲劳检测设备监测闭眼、打哈欠、低头等动作来判断驾驶员疲劳状态,进而选择相应的报警级别,这对于避免交通事故,提高行车安全有着重要意义。
现有技术中,大多是基于RGB相机或者红外相机并配合机器学习算法,通过人眼、人脸或嘴巴的实时状态进行疲劳状态检测。其中,使用RGB相机容易受到光照影响,例如在白天光照不均匀的情况下,不均匀的光线对图像的识别干扰极大,导致疲劳状态检测结果不准确;而使用红外相机可以避免光照影响,但由于红外相机采集的图片没有深度信息,无法得到相机和驾驶员之间的距离,当驾驶员或相机位置发生变动,无法根据距离调节亮度,进而影响疲劳状态检测结果的准确性。
发明内容
本发明提供了一种疲劳状态检测方法和装置,以解决现有技术无法准确识别驾驶员疲劳状态的问题。
本发明一方面提供了一种疲劳状态检测方法,包括:利用相机参数实时调整的TOF相机对用户摄像,获取用户的红外图像和深度图像,同时间拍摄的红外图像和深度图像的像素点之间一一对应;对红外图像进行人脸识别,获取人脸位置以及获取人脸位置中包含的面部特征点;根据人脸位置中包含的面部特征点确定头部姿态和目标区域的状态,利用头部姿态、目标区域的状态和外部环境信息实现疲劳状态检测;根据红外图像和深度图像像素点的对应关系,获取深度图像中所述人脸位置对应的深度信息,利用深度信息调整所述TOF相机的参数。
本发明一方面提供了一种疲劳状态检测装置,包括:图像获取单元,用于利用相机参数实时调整的TOF相机对用户摄像,获取用户的红外图像和深度图像,同时间拍摄的红外图像和深度图像的像素点之间一一对应;特征点识别单元,用于对红外图像进行人脸识别,获取人脸位置以及获取人脸位置中包含的面部特征点;疲劳检测单元,用于根据人脸位置中包含的面部特征点确定头部姿态和目标区域的状态,利用头部姿态、目标区域的状态和外部环境信息实现疲劳状态检测;相机调整单元,用于根据红外图像和深度图像像素点的对应关系,获取深度图像中所述人脸位置对应的深度信息,利用深度信息调整TOF相机的参数。
本发明利用TOF相机同时获得红外图和深度图,一方面利用红外成像不受光照环境影响,避免光照对疲劳检测的影响,并在疲劳检测过程中,综合头部姿态、目标区域的状态和外部环境信息等多种特征信息识别用户的疲劳状态,提高疲劳状态识别的准确性;另一方面利用深度图测算TOF相机与用户之间的距离变化,在用户位置发生变化时,及时调节亮度,提高成像效果,进一步提高疲劳检测的准确性。
附图说明
图1为本发明实施例示出的疲劳状态检测方法的流程图;
图2为本发明实施例示出的闭眼动作检测流程图;
图3为本发明实施例示出的张嘴动作检测流程图;
图4为本发明实施例示出的歪头动作检测流程图;
图5为本发明实施例示出的疲劳状态检测装置的结构框图;
图6为本发明实施例示出的疲劳状态检测装置的硬件结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
以下,将参照附图来描述本发明的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本发明的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本发明的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本发明。这里使用的词语“一”、“一个(种)”和“该”等也应包括“多个”、“多种”的意思,除非上下文另外明确指出。此外,在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
附图中示出了一些方框图和/或流程图。应理解,方框图和/或流程图中的一些方框或其组合可以由计算机程序指令来实现。这些计算机程序指令可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,从而这些指令在由该处理器执行时可以创建用于实现这些方框图和/或流程图中所说明的功能/操作的装置。
因此,本发明的技术可以硬件和/或软件(包括固件、微代码等)的形式来实现。另外,本发明的技术可以采取存储有指令的机器可读介质上的计算机程序产品的形式,该计算机程序产品可供指令执行系统使用或者结合指令执行系统使用。在本发明的上下文中,机器可读介质可以是能够包含、存储、传送、传播或传输指令的任意介质。例如,机器可读介质可以包括但不限于电、磁、光、电磁、红外或半导体系统、装置、器件或传播介质。机器可读介质的具体示例包括:磁存储装置,如磁带或硬盘(HDD);光存储装置,如光盘(CD-ROM);存储器,如随机存取存储器(RAM)或闪存;和/或有线/无线通信链路。
目前,大多是通过人脸的单一特性进行疲劳检测,例如通过眼睛的闭合,或者头部状态或者嘴巴张合来判断用户是否疲劳,基于单一特性的判断不能准确反映用户的真实状态,本发明综合多种特性进行疲劳检测,快速准确的识别用户的疲劳状态。
本发明一方面提供一种疲劳状态检测方法。
图1为本发明实施例示出的疲劳状态检测方法的流程图,如图1所示,本实施例的方法包括:
S110,利用相机参数实时调整的TOF相机对用户摄像,获取用户的红外图像和深度图像,同时间拍摄的红外图像和深度图像的像素点之间一一对应。
TOF相机为采用飞行时间(Time of Flight,TOF)技术的相机,即传感器发出经调制的近红外光,遇物体后反射,传感器通过计算光线发射和反射时间差或相位差,来获得被拍摄物体的距离,以产生深度信息,此外再结合传统的相机拍摄,就能将物体的三维轮廓以不同颜色代表不同距离的地形图方式呈现出来。
S120,对红外图像进行人脸识别,获取人脸位置以及获取人脸位置中包含的面部特征点。
S130,根据人脸位置中包含的面部特征点确定头部姿态和目标区域的状态,利用头部姿态、目标区域的状态和外部环境信息实现疲劳状态检测。
本实施例中目标区域包括但不限于嘴巴所在区域、眼睛所在区域。
S140,根据红外图像和深度图像像素点的对应关系,获取深度图像中人脸位置对应的深度信息,利用深度信息调整所述TOF相机的参数。
其中,深度信息表示TOF相机与人脸之间的距离。
本实施例利用TOF相机同时获得红外图和深度图,一方面利用红外成像不受光照环境影响,避免光照对疲劳检测的影响,并在疲劳检测过程中,综合头部姿态、目标区域的状态和外部环境信息等多种特征信息识别用户的疲劳状态,提高疲劳状态识别的准确性;另一方面利用深度图测算TOF相机与用户之间的距离变化,在用户位置发生变化时,及时调节亮度,提高成像效果,进一步提高疲劳检测的准确性。
图2为本发明实施例示出的闭眼动作检测流程图,图3为本发明实施例示出的张嘴动作检测流程图,图4为本发明实施例示出的歪头动作检测流程图,下面结合如图2-4对上述步骤S110-S140进行详细说明。
首先,执行步骤S110,即利用相机参数实时调整的TOF相机对用户摄像,获取用户的红外图像和深度图像,同时间拍摄的红外图像和深度图像的像素点之间一一对应。
本实施例利用TOF相机可以得到红外图像和深度图像,由于红外图像和深度图像是由同一个传感器产生,因此同时间拍摄得到的红外图像帧和深度图像帧之间的像素点是一一对应的。本实施例可以利用同时间拍摄得到的红外图像和深度图像像素点之间的对应关系获得深度图像中人脸位置,进而获得人脸相对TOF相机的距离,获得用户位置是否发生变化。
在获得红外图像和深度图像之后,继续执行步骤S120,即对红外图像进行人脸识别,获取人脸位置以及获取人脸位置中包含的面部特征点。
本实施例通过下述方法确定面部特征点:首先利用OpenCV中的Haar级联分类器对红外图像进行识别,获取人脸框中尺寸最大的区域为人脸位置的区域;即在利用Haar级联分类器对红外图像进行全图查找得到人脸框时,如果人脸框中存在多个人脸区域,则选择最大的人脸区域为人脸位置所在区域。然后利用dlib机器学习库确定人脸位置区域中包含的面部特征点,面部特征点用于进行人脸状态检测,本实施例可以确定68个面部特征点,这68个面部特征点可以表达所有面度特征。
在确定面部特征点之后,继续执行步骤S130,即根据人脸位置中包含的面部特征点确定头部姿态和目标区域的状态,利用头部姿态、目标区域的状态和外部环境信息实现疲劳状态检测。
本实施例可以通过下述方法确定目标区域的状态:首先根据面部特征点定位红外图像中眼睛和嘴巴的位置,截取眼睛所在位置和嘴巴所在位置的红外图像作为感兴趣区域;本实施例利用point1,point2,…point68依次标记68个面度特征点,其中point36至point47特征点所在区域为眼睛区域,point48至point67特征点所在区域为嘴巴区域,截取红外图像中的这两部分区域,得到眼睛局部图像和嘴巴局部图像。接着利用SVM模型对感兴趣区域进行识别,获得表示眼睛状态的第一状态值和表示嘴巴状态的第二状态值,第一状态值和第二状态值为零表示开状态,为1表示合状态。其中,目标区域的状态包括眼睛状态和嘴巴状态,眼睛状态包括闭眼动作,嘴巴状态包括打哈欠动作。然后,在第一状态值为1时,获取设定时间段内拍摄到的红外图像序列,利用获取的红外图像序列中的帧图像依次更新基础图像序列,并在更新过程中,若基础图像序列中眼睛所在位置的红外图像对应的第一状态值为1的帧图像数量比值大于第一比例阈值,且在设定时间段内拍摄到的红外图像序列均被更新到基础图像序列中后,基础图像序列中眼睛所在位置的红外图像对应的第一状态值为1的帧图像数量比值和连续帧图像数量依次大于第二比例阈值、第三数量阈值时,确定发生闭眼动作;在第二状态值为0时,获取设定时间段内拍摄到的红外图像序列,利用获取的红外图像序列中的帧图像依次更新基础图像序列,并在更新过程中,若基础图像序列中嘴巴所在位置的红外图像对应的第一状态值为0的帧图像数量比值大于第一比例阈值,且在设定时间段内拍摄到的红外图像序列均被更新到基础图像序列中后,基础图像序列中嘴巴所在位置的红外图像对应的第二状态值为0的帧图像数量比值和连续帧图像数量依次大于第二比例阈值、第四数量阈值时,确定发生闭眼动作;其中,第二比例阈值大于第一比例阈值,第三数量阈值根据图像采集频率和闭眼时长确定,第四数量阈值根据图像采集频率和打哈欠时长确定。
图2为本发明实施例示出的闭眼动作检测流程图,如图2所示,利用SVM模型对相应于眼睛的感兴趣区域进行识别,获得表示眼睛状态的第一状态值State1。当第一状态值State1为1时,即识别红外图像中眼睛处于闭合状态时,获取设定时间段内拍摄到的红外图像序列,图2中该设定时间段为0.7s时段,假设0.7s时段可以拍摄的红外图像序列帧包括10帧,此时基础图像序列为前0.7s拍摄的10帧红外图像序列,当检测到当前红外图像中的眼睛处于闭合状态时,利用下一时刻拍摄的红外图像更新基础图像序列中的第一帧图像,在更新过程中,确定基础图像序列中眼睛所在位置的红外图像对应的第一状态值为1的帧图像数量比值是否大于第一比例阈值,如图2所示,确定基础图像序列中眼睛所在位置的红外图像对应的第一状态值为1的帧图像数量比值是否大于0.5,即在更新过程中,如果基础图像序列中眼睛所在位置的红外图像对应的第一状态值为1的帧图像数量小于5张,确定没有发生闭眼动作,继续检测下一帧红外图像的目标区域的状态,反之,如果基础图像序列中眼睛所在位置的红外图像对应的第一状态值为1的帧图像数量大于5张,在0.7s时段内拍摄的10帧红外图像序列帧均被更新到基础图像序列中时,此时基础图像序列为0.7s时段内拍摄的10帧红外图像序列,若此10帧红外图像序列中眼睛所在位置的红外图像对应的第一状态值为1的帧图像数量比值和连续帧图像数量依次大于0.9、第三数量阈值Hold on Frames时,确定发生闭眼动作,否则确定没有发生闭眼动作。
图3为本发明实施例示出的打哈欠动作检测流程图,如图3所示,利用SVM模型对相应于嘴巴的感兴趣区域进行识别,获得表示嘴巴状态的第二状态值State2。当第二状态值State2为0时,即识别红外图像中嘴巴处于张开状态时,获取设定时间段内拍摄到的红外图像序列,图3中该设定时间段为0.7s时段,假设0.7s时段可以拍摄的红外图像序列帧包括10帧,此时基础图像序列为前0.7s拍摄的10帧红外图像序列,当检测到当前红外图像中的嘴巴处于张开状态时,利用下一时刻拍摄的红外图像更新基础图像序列中的第一帧图像,在更新过程中,确定基础图像序列中嘴巴所在位置的红外图像对应的第一状态值为0的帧图像数量比值是否大于0.5,即在更新过程中,如果基础图像序列中嘴巴所在位置的红外图像对应的第二状态值为0的帧图像数量小于5张,确定没有发生打哈欠动作,继续检测下一帧红外图像的目标区域的状态,反之,如果基础图像序列中嘴巴所在位置的红外图像对应的第二状态值为0的帧图像数量大于5张,在0.7s时段内拍摄的10帧红外图像序列帧均被更新到基础图像序列中时,此时基础图像序列为0.7s时段内拍摄的10帧红外图像序列,若此10帧红外图像序列中嘴巴所在位置的红外图像对应的第二状态值为0的帧图像数量比值和连续帧图像数量依次大于0.9、第四数量阈值Hold onFrames’时,确定发生打哈欠动作,否则确定没有发生打哈欠动作。
本实施例可以通过下述方法确定目标区域的状态:首先根据面部特征点和TOF相机的校准参数,确定头部姿态的第三状态值,第三状态值为零表示正常状态,非零表示歪头状态,例如01表示侧头,02表示低头,03表示仰头;本实施例中的校准参数包括焦距参数、相机坐标位置参数等,可以利用现有的技术进行头部姿态确定,例如利用约束局部模型(Constrained local model,CLM)算法和透视n点定位(pespective-n-point,PnP)算法识别头部姿态。然后在第三状态值为非零时,获取设定时间段内拍摄到的红外图像序列,利用获取的红外图像序列中的帧图像依次更新基础图像序列,并在更新过程中,若基础图像序列中确定头部姿态的第三姿态值对应为非零值的帧图像数量比值大于第一比例阈值,且在设定时间段内拍摄到的红外图像序列均被更新到基础图像序列中后,基础图像序列中确定头部姿态的第三状态值对应为非零值的帧图像数量比值和连续帧图像数量依次大于第二比例阈值、第五数量阈值时,确定发生歪头动作;其中,第五数量阈值根据图像采集频率和歪头时长确定。
图4为本发明实施例示出的低头动作检测流程图,如图4所示,根据68个面部特征点和TOF相机的校准参数,确定头部姿态的第三状态值state3。当第三状态值state3为02时,即识别红外图像中头部姿态为低头状态时,获取设定时间段内拍摄到的红外图像序列,图4中该设定时间段为0.7s时段,假设0.7s时段可以拍摄的红外图像序列帧包括10帧,此时基础图像序列为前0.7s拍摄的10帧红外图像序列,当检测到当前红外图像中的头部姿态为低头状态时,利用下一时刻拍摄的红外图像更新基础图像序列中的第一帧图像,在更新过程中,确定基础图像序列中头部姿态的第三状态值为02的帧图像数量比值是否大于0.5,即在更新过程中,如果基础图像序列中头部姿态的第三状态值为02的帧图像数量小于5张,确定没有发生低头动作,继续检测下一帧红外图像中的头部姿态,反之,如果基础图像序列中头部姿态的第三状态值为02的帧图像数量大于5张,在0.7s时段内拍摄的10帧红外图像序列帧均被更新到基础图像序列中时,此时基础图像序列为0.7s时段内拍摄的10帧红外图像序列,若此10帧红外图像序列中头部姿态的第三状态值为02的帧图像数量比值和连续帧图像数量依次大于0.9、第五数量阈值Hold on Frames”时,确定发生低头动作,否则确定没有发生低头动作。对于头部姿态中的侧头和仰头的检测过程可以参见对低头动作的检测过程,本实施例在此不再赘述。
本实施例通过上述检测方法对打哈欠动作、闭眼动作和歪头动作进行检测,可以避免将用户的眨眼、说话或摇头调整颈椎等非疲劳状态特征误判断为疲劳状态特征,进而提高疲劳检测的准确性。
在检测到头部姿态和目标区域的状态时,例如在头部姿态包括歪头动作,以及目标区域的状态包括闭眼动作和/或打哈欠动作时,根据头部姿态中的歪头动作,以及目标区域姿态中的闭眼动作和/或打哈欠动作,并结合外部环境信息,确定用户处于疲劳状态;外部环境信息包括行车速度、天气、时段信息。
在实现疲劳状态检测之后,继续执行步骤S140,即根据红外图像和深度图像像素点的对应关系,获取深度图像中人脸位置对应的深度信息,利用深度信息调整TOF相机的参数。
本实施例中的深度信息为每帧深度图像中人脸位置对应的人脸区域内各像素点深度值之和的平均值,相机参数包括增益参数Gain和激光亮度参数Pulsecnt。
本实施例利用深度信息所指示的TOF相机与人脸之间的距离,在根据深度信息确定用户与TOF相机距离变近时,调小TOF相机的增益参数Gain和激光亮度参数Pulsecnt,使亮度变暗;在根据深度信息确定用户与TOF相机距离变远时,调大TOF相机的增益参数Gain和激光亮度参数Pulsecnt,使亮度变亮,以达到更好的成像效果,使疲劳检测更准确。
本发明另一方面提供一种疲劳状态检测装置。
图5为本发明实施例示出的疲劳状态检测装置的结构框图,如图5所示,本实施例的控制装置包括:
图像获取单元51,用于利用相机参数实时调整的TOF相机对用户摄像,获取用户的红外图像和深度图像,同时间拍摄的红外图像和深度图像的像素点之间一一对应;
特征点识别单元52,用于对红外图像进行人脸识别,获取人脸位置以及获取人脸位置中包含的面部特征点;
疲劳检测单元53,用于根据人脸位置中包含的面部特征点确定头部姿态和目标区域的状态,利用头部姿态、目标区域的状态和外部环境信息实现疲劳状态检测;
相机调整单元54,用于根据红外图像和深度图像像素点的对应关系,获取深度图像中人脸位置对应的深度信息,利用深度信息调整TOF相机的参数。
本实施例中的深度信息为深度图像中人脸位置对应的人脸区域内各像素点深度值之和的平均值。
在本实施例中,特征点识别单元52用于利用Haar级联分类器对红外图像进行识别,获取人脸框中尺寸最大的区域为人脸位置的区域;利用dlib机器学习库确定人脸位置区域中包含的面部特征点,面部特征点用于进行人脸状态检测。
本实施例的疲劳检测单元53包括第一检测模块和第二检测模块;
第一检测模块,用于根据面部特征点定位红外图像中眼睛和嘴巴的位置,截取眼睛所在位置和嘴巴所在位置的红外图像作为感兴趣区域;利用SVM模型对感兴趣区域进行识别,获得表示眼睛状态的第一状态值和表示嘴巴状态的第二状态值,第一状态值和第二状态值为零表示开状态,为1表示合状态;在第一状态值为1时,获取设定时间段内拍摄到的红外图像序列,利用获取的红外图像序列中的帧图像依次更新基础图像序列,并在更新过程中,若基础图像序列中眼睛所在位置的红外图像对应的第一状态值为1的帧图像数量比值大于第一比例阈值,且在设定时间段内拍摄到的红外图像序列均被更新到基础图像序列中后,基础图像序列中眼睛所在位置的红外图像对应的第一状态值为1的帧图像数量比值和连续帧图像数量依次大于第二比例阈值、第三数量阈值时,确定发生闭眼动作;在第二状态值为0时,获取设定时间段内拍摄到的红外图像序列,利用获取的红外图像序列中的帧图像依次更新基础图像序列,并在更新过程中,若基础图像序列中嘴巴所在位置的红外图像对应的第二状态值为0的帧图像数量比值大于第一比例阈值,且在设定时间段内拍摄到的红外图像序列均被更新到基础图像序列中后,基础图像序列中嘴巴所在位置的红外图像对应的第二状态值为0的帧图像数量比值和连续帧图像数量依次大于第二比例阈值、第四数量阈值时,确定发生闭眼动作;第二比例阈值大于第一比例阈值,第三数量阈值根据图像采集频率和闭眼时长确定,第四数量阈值根据图像采集频率和打哈欠时长确定。
第二检测模块,用于根据面部特征点和TOF相机的校准参数,确定头部姿态的第三状态值,第三状态值为零表示正常状态,非零表示歪头状态;在第三状态值为非零时,获取设定时间段内拍摄到的红外图像序列,利用获取的红外图像序列中的帧图像依次更新基础图像序列,并在更新过程中,若基础图像序列中确定头部姿态的第三状态值对应为非零值的帧图像数量比值大于第一比例阈值,且在设定时间段内拍摄到的红外图像序列均被更新到基础图像序列中后,基础图像序列中确定头部姿态的第三状态值对应为非零值的帧图像数量比值和连续帧图像数量依次大于第二比例阈值、第五数量阈值时,确定发生歪头动作;所述第二比例阈值大于第一比例阈值,所述第五数量阈值根据图像采集频率和歪头时长确定。
在本实施例中,相机调整单元54用于在根据深度信息确定用户与TOF相机距离变近时,调小TOF相机的增益参数和激光亮度参数,使亮度变暗;在根据深度信息确定用户与TOF相机距离变远时,调大TOF相机的增益参数和激光亮度参数,使亮度变亮。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
本发明提供的疲劳状态检测装置可以通过软件实现,也可以通过硬件或者软硬件结合的方式实现。以软件实现为例,参照图6所示,本发明提供的疲劳状态检测装置可包括处理器601、存储有机器可执行指令的机器可读存储介质602。处理器601与机器可读存储介质602可经由系统总线603通信。并且,通过读取并执行机器可读存储介质602中与控制逻辑对应的机器可执行指令,处理器601可执行上文描述的疲劳状态检测方法。
本发明中提到的机器可读存储介质602可以是任何电子、磁性、光学或其它物理存储装置,可以包含或存储信息,如可执行指令、数据,等等。例如,机器可读存储介质可以是:RAM(Radom Access Memory,随机存取存储器)、易失存储器、非易失性存储器、闪存、存储驱动器(如硬盘驱动器)、固态硬盘、任何类型的存储盘(如光盘、DVD等),或者类似的存储介质,或者它们的组合。
根据本发明公开的示例,本发明还提供了一种包括机器可执行指令的机器可读存储介质,例如图6中的机器可读存储介质602,机器可执行指令可由疲劳状态检测装置中的处理器601执行以实现上文描述的疲劳状态检测方法。
以上所述,仅为本发明的具体实施方式,在本发明的上述教导下,本领域技术人员可以在上述实施例的基础上进行其他的改进或变形。本领域技术人员应该明白,上述的具体描述只是更好的解释本发明的目的,本发明的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种疲劳状态检测方法,其特征在于,所述方法包括:
利用相机参数实时调整的TOF相机对用户摄像,获取用户的红外图像和深度图像,同时间拍摄的红外图像和深度图像的像素点之间一一对应;
对所述红外图像进行人脸识别,获取人脸位置以及获取人脸位置中包含的面部特征点;
根据人脸位置中包含的面部特征点确定头部姿态和目标区域的状态,利用头部姿态、目标区域的状态和外部环境信息实现疲劳状态检测;
根据红外图像和深度图像像素点的对应关系,获取所述深度图像中所述人脸位置对应的深度信息,利用所述深度信息调整所述TOF相机的参数,所述深度信息为深度图像中所述人脸位置对应的人脸区域内各像素点深度值之和的平均值,所述TOF相机的参数包括增益参数和激光亮度参数。
2.根据权利要求1所述的方法,其特征在于,所述对所述红外图像进行人脸识别,获取人脸位置以及获取人脸位置中包含的面部特征点,包括:
利用Haar级联分类器对所述红外图像进行识别,获取人脸框中尺寸最大的区域为人脸位置的区域;
利用dlib机器学习库确定所述人脸位置区域中包含的面部特征点,所述面部特征点用于进行人脸状态检测。
3.根据权利要求2所述的方法,其特征在于,所述根据人脸位置中包含的面部特征点确定头部姿态和目标区域的状态,包括:
根据所述面部特征点定位红外图像中眼睛和嘴巴的位置,截取眼睛所在位置和嘴巴所在位置的红外图像作为感兴趣区域;
利用SVM模型对所述感兴趣区域进行识别,获得表示眼睛状态的第一状态值和表示嘴巴状态的第二状态值,所述第一状态值和第二状态值为零表示开状态,为1表示合状态;
在所述第一状态值为1时,获取设定时间段内拍摄到的红外图像序列,利用获取的红外图像序列中的帧图像依次更新基础图像序列,并在更新过程中,若基础图像序列中眼睛所在位置的红外图像对应的第一状态值为1的帧图像数量比值大于第一比例阈值,且在设定时间段内拍摄到的红外图像序列均被更新到基础图像序列中后,基础图像序列中眼睛所在位置的红外图像对应的第一状态值为1的帧图像数量比值和连续帧图像数量依次大于第二比例阈值、第三数量阈值时,确定发生闭眼动作;
在所述第二状态值为0时,获取设定时间段内拍摄到的红外图像序列,利用获取的红外图像序列中的帧图像依次更新基础图像序列,并在更新过程中,若基础图像序列中嘴巴所在位置的红外图像对应的第二状态值为0的帧图像数量比值大于第一比例阈值,且在设定时间段内拍摄到的红外图像序列均被更新到基础图像序列中后,基础图像序列中嘴巴所在位置的红外图像对应的第二状态值为0的帧图像数量比值和连续帧图像数量依次大于第二比例阈值、第四数量阈值时,确定发生闭眼动作;
所述第二比例阈值大于第一比例阈值,所述第三数量阈值根据图像采集频率和闭眼时长确定,所述第四数量阈值根据图像采集频率和打哈欠时长确定。
4.根据权利要求2所述的方法,其特征在于,所述根据人脸位置中包含的面部特征点确定头部姿态和目标区域的状态,包括:
根据所述面部特征点和TOF相机的校准参数,确定头部姿态的第三状态值,所述第三状态值为零表示正常状态,非零表示歪头状态;
在所述第三状态值为非零时,获取设定时间段内拍摄到的红外图像序列,利用获取的红外图像序列中的帧图像依次更新基础图像序列,并在更新过程中,若基础图像序列中确定头部姿态的第三状态值对应为非零值的帧图像数量比值大于第一比例阈值,且在设定时间段内拍摄到的红外图像序列均被更新到基础图像序列中后,基础图像序列中确定头部姿态的第三状态值对应为非零值的帧图像数量比值和连续帧图像数量依次大于第二比例阈值、第五数量阈值时,确定发生歪头动作;
所述第二比例阈值大于第一比例阈值,所述第五数量阈值根据图像采集频率和歪头时长确定。
5.根据权利要求1所述的方法,其特征在于,所述根据所述深度信息调整所述TOF相机的参数,包括:
在根据所述深度信息确定用户与所述TOF相机距离变近时,调小TOF相机的增益参数和激光亮度参数,使亮度变暗;
在根据所述深度信息确定用户与所述TOF相机距离变远时,调大TOF相机的增益参数和激光亮度参数,使亮度变亮。
6.一种疲劳状态检测装置,其特征在于,所述装置包括:
图像获取单元,用于利用相机参数实时调整的TOF相机对用户摄像,获取用户的红外图像和深度图像,同时间拍摄的红外图像和深度图像的像素点之间一一对应;
特征点识别单元,用于对所述红外图像进行人脸识别,获取人脸位置以及获取人脸位置中包含的面部特征点;
疲劳检测单元,用于根据人脸位置中包含的面部特征点确定头部姿态和目标区域的状态,利用头部姿态、目标区域的状态和外部环境信息实现疲劳状态检测;
相机调整单元,用于根据红外图像和深度图像像素点的对应关系,获取所述深度图像中所述人脸位置对应的深度信息,利用所述深度信息调整所述TOF相机的参数,所述深度信息为深度图像中所述人脸位置对应的人脸区域内各像素点深度值之和的平均值,所述TOF相机的参数包括增益参数和激光亮度参数。
7.根据权利要求6所述的装置,其特征在于,
所述特征点识别单元,用于利用Haar级联分类器对所述红外图像进行识别,获取人脸框中尺寸最大的区域为人脸位置的区域;利用dlib机器学习库确定所述人脸位置区域中包含的面部特征点,所述面部特征点用于进行人脸状态检测。
8.根据权利要求7所述的装置,其特征在于,所述疲劳检测单元包括第一检测模块;
所述第一检测模块,用于根据所述面部特征点定位红外图像中眼睛和嘴巴的位置,截取眼睛所在位置和嘴巴所在位置的红外图像作为感兴趣区域;利用SVM模型对所述感兴趣区域进行识别,获得表示眼睛状态的第一状态值和表示嘴巴状态的第二状态值,所述第一状态值和第二状态值为零表示开状态,为1表示合状态;在所述第一状态值为1时,获取设定时间段内拍摄到的红外图像序列,利用获取的红外图像序列中的帧图像依次更新基础图像序列,并在更新过程中,若基础图像序列中眼睛所在位置的红外图像对应的第一状态值为1的帧图像数量比值大于第一比例阈值,且在设定时间段内拍摄到的红外图像序列均被更新到基础图像序列中后,基础图像序列中眼睛所在位置的红外图像对应的第一状态值为1的帧图像数量比值和连续帧图像数量依次大于第二比例阈值、第三数量阈值时,确定发生闭眼动作;在所述第二状态值为0时,获取设定时间段内拍摄到的红外图像序列,利用获取的红外图像序列中的帧图像依次更新基础图像序列,并在更新过程中,若基础图像序列中嘴巴所在位置的红外图像对应的第二状态值为0的帧图像数量比值大于第一比例阈值,且在设定时间段内拍摄到的红外图像序列均被更新到基础图像序列中后,基础图像序列中嘴巴所在位置的红外图像对应的第二状态值为0的帧图像数量比值和连续帧图像数量依次大于第二比例阈值、第四数量阈值时,确定发生闭眼动作;所述第二比例阈值大于第一比例阈值,所述第三数量阈值根据图像采集频率和闭眼时长确定,所述第四数量阈值根据图像采集频率和打哈欠时长确定。
9.根据权利要求7所述的装置,其特征在于,所述疲劳检测单元包括第二检测模块;
所述第二检测模块,用于根据所述面部特征点和TOF相机的校准参数,确定头部姿态的第三状态值,所述第三状态值为零表示正常状态,非零表示歪头状态;在所述第三状态值为非零时,获取设定时间段内拍摄到的红外图像序列,利用获取的红外图像序列中的帧图像依次更新基础图像序列,并在更新过程中,若基础图像序列中确定头部姿态的第三状态值对应为非零值的帧图像数量比值大于第一比例阈值,且在设定时间段内拍摄到的红外图像序列均被更新到基础图像序列中后,基础图像序列中确定头部姿态的第三状态值对应为非零值的帧图像数量比值和连续帧图像数量依次大于第二比例阈值、第五数量阈值时,确定发生歪头动作;所述第二比例阈值大于第一比例阈值,所述第五数量阈值根据图像采集频率和歪头时长确定。
10.根据权利要求6所述的装置,其特征在于,
所述相机调整单元,用于在根据所述深度信息确定用户与所述TOF相机距离变近时,调小TOF相机的增益参数和激光亮度参数,使亮度变暗;在根据所述深度信息确定用户与所述TOF相机距离变远时,调大TOF相机的增益参数和激光亮度参数,使亮度变亮。
CN201811475365.4A 2018-12-04 2018-12-04 一种疲劳状态检测方法和装置 Active CN109670421B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811475365.4A CN109670421B (zh) 2018-12-04 2018-12-04 一种疲劳状态检测方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811475365.4A CN109670421B (zh) 2018-12-04 2018-12-04 一种疲劳状态检测方法和装置

Publications (2)

Publication Number Publication Date
CN109670421A CN109670421A (zh) 2019-04-23
CN109670421B true CN109670421B (zh) 2021-04-16

Family

ID=66144698

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811475365.4A Active CN109670421B (zh) 2018-12-04 2018-12-04 一种疲劳状态检测方法和装置

Country Status (1)

Country Link
CN (1) CN109670421B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110368004B (zh) * 2019-06-03 2022-03-11 张馨予 数据监测方法、装置、设备和存储介质
CN111347977B (zh) * 2019-06-05 2022-06-10 威盛电子股份有限公司 车辆盲点影像显示方法、装置及系统
CN111079520B (zh) * 2019-11-01 2024-05-21 京东科技控股股份有限公司 图像识别方法、设备及存储介质
CN111209877B (zh) * 2020-01-10 2022-09-20 大连理工大学 一种复杂场景下基于深度图的红外小目标检测方法
CN113642369A (zh) * 2020-05-11 2021-11-12 炬才微电子(深圳)有限公司 人体头部检测方法、系统和人机交互方法、系统
CN112528792B (zh) * 2020-12-03 2024-05-31 深圳地平线机器人科技有限公司 疲劳状态检测方法、装置、介质及电子设备
CN115140063A (zh) * 2021-03-31 2022-10-04 比亚迪股份有限公司 一种疲劳驾驶的应对方法、终端及汽车
CN113887451A (zh) * 2021-10-09 2022-01-04 支付宝(杭州)信息技术有限公司 图片处理方法及装置
CN116615765A (zh) * 2021-12-13 2023-08-18 华为技术有限公司 驾驶员状态检测方法、装置及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104504856A (zh) * 2014-12-30 2015-04-08 天津大学 基于Kinect及人脸识别的疲劳驾驶检测方法
CN104688251A (zh) * 2015-03-02 2015-06-10 西安邦威电子科技有限公司 一种多姿态下的疲劳及非正常姿态驾驶检测方法
CN105764735A (zh) * 2013-10-29 2016-07-13 金在哲 通过对于动作、面部、眼睛、嘴型的认知的2步骤预防瞌睡驾驶装置
WO2017173480A1 (en) * 2016-04-07 2017-10-12 Seeing Machines Limited Method and system of distinguishing between a glance event and an eye closure event
CN108259744A (zh) * 2018-01-24 2018-07-06 北京图森未来科技有限公司 图像采集控制方法及其装置、图像采集系统和tof相机
CN108545080A (zh) * 2018-03-20 2018-09-18 北京理工大学 驾驶员疲劳检测方法及系统
CN108875642A (zh) * 2018-06-21 2018-11-23 长安大学 一种多指标融合的驾驶员疲劳检测的方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101895485B1 (ko) * 2015-08-26 2018-09-05 엘지전자 주식회사 운전 보조 장치 및 그 제어 방법
US10318831B2 (en) * 2016-07-21 2019-06-11 Gestigon Gmbh Method and system for monitoring the status of the driver of a vehicle

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105764735A (zh) * 2013-10-29 2016-07-13 金在哲 通过对于动作、面部、眼睛、嘴型的认知的2步骤预防瞌睡驾驶装置
CN104504856A (zh) * 2014-12-30 2015-04-08 天津大学 基于Kinect及人脸识别的疲劳驾驶检测方法
CN104688251A (zh) * 2015-03-02 2015-06-10 西安邦威电子科技有限公司 一种多姿态下的疲劳及非正常姿态驾驶检测方法
WO2017173480A1 (en) * 2016-04-07 2017-10-12 Seeing Machines Limited Method and system of distinguishing between a glance event and an eye closure event
CN108259744A (zh) * 2018-01-24 2018-07-06 北京图森未来科技有限公司 图像采集控制方法及其装置、图像采集系统和tof相机
CN108545080A (zh) * 2018-03-20 2018-09-18 北京理工大学 驾驶员疲劳检测方法及系统
CN108875642A (zh) * 2018-06-21 2018-11-23 长安大学 一种多指标融合的驾驶员疲劳检测的方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于Kinect的疲劳驾驶检测系统的设计与实现;陈萍;《中国优秀硕士学位论文全文数据库 工程科技II辑》;20160229;全文 *

Also Published As

Publication number Publication date
CN109670421A (zh) 2019-04-23

Similar Documents

Publication Publication Date Title
CN109670421B (zh) 一种疲劳状态检测方法和装置
US10782688B2 (en) Method, control apparatus, and system for tracking and shooting target
CN108370438B (zh) 范围选通的深度相机组件
US10304164B2 (en) Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data
US20200334843A1 (en) Information processing apparatus, control method for same, non-transitory computer-readable storage medium, and vehicle driving support system
US20180081434A1 (en) Eye and Head Tracking
JP6961797B2 (ja) プレビュー写真をぼかすための方法および装置ならびにストレージ媒体
TW201915831A (zh) 對象識別方法
US10999519B2 (en) Target tracking method and device, movable platform, and storage medium
US20100253495A1 (en) In-vehicle image processing device, image processing method and memory medium
CN112639846A (zh) 一种训练深度学习模型的方法和装置
JP2004005462A (ja) 映像信号から対象物を追跡する方法及びその装置
CN102831382A (zh) 人脸跟踪设备和方法
JP2012529691A (ja) 3次元画像生成
KR102595787B1 (ko) 전자 장치 및 그 제어 방법
CN110046560A (zh) 一种危险驾驶行为检测方法和相机
JP5001930B2 (ja) 動作認識装置及び方法
US10866635B2 (en) Systems and methods for capturing training data for a gaze estimation model
CN105469427B (zh) 一种用于视频中目标跟踪方法
WO2022198508A1 (zh) 镜头异常提示方法、装置、可移动平台及可读存储介质
CN116524877A (zh) 车载屏幕亮度调节方法、装置、电子设备和存储介质
CN109598237A (zh) 一种疲劳状态检测方法和装置
KR20200112678A (ko) 관찰자를 추적할 수 있는 공중 3차원 디스플레이 장치 및 방법
WO2012153868A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
US20230091536A1 (en) Camera Placement Guidance

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant