CN116912808A - 架桥机控制方法、电子设备和计算机可读介质 - Google Patents
架桥机控制方法、电子设备和计算机可读介质 Download PDFInfo
- Publication number
- CN116912808A CN116912808A CN202311184346.7A CN202311184346A CN116912808A CN 116912808 A CN116912808 A CN 116912808A CN 202311184346 A CN202311184346 A CN 202311184346A CN 116912808 A CN116912808 A CN 116912808A
- Authority
- CN
- China
- Prior art keywords
- recognition result
- eye
- fatigue
- state recognition
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 83
- 230000004399 eye closure Effects 0.000 claims abstract description 30
- 239000013598 vector Substances 0.000 claims description 77
- 230000004927 fusion Effects 0.000 claims description 39
- 230000004044 response Effects 0.000 claims description 26
- 238000000605 extraction Methods 0.000 claims description 19
- 238000001514 detection method Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 10
- 238000011176 pooling Methods 0.000 claims description 8
- 210000003128 head Anatomy 0.000 claims description 6
- 230000008569 process Effects 0.000 abstract description 50
- 239000002699 waste material Substances 0.000 abstract description 17
- 206010016256 fatigue Diseases 0.000 description 171
- 230000006870 function Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000011218 segmentation Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 239000004973 liquid crystal related substance Substances 0.000 description 5
- 238000001914 filtration Methods 0.000 description 4
- 238000003062 neural network model Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000644 propagated effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
Abstract
本公开的实施例公开了架桥机控制方法、电子设备和计算机可读介质。该方法的一具体实施方式包括:获取人脸图像视频;将各帧人脸图像的数量确定为人脸图像数量;对于人脸图像,执行以下步骤:对人脸图像进行去噪处理;生成人眼状态识别结果;生成嘴部状态识别结果;将各个人眼状态识别结果确定为人眼状态识别结果集合;将各个嘴部状态识别结果确定为嘴部状态识别结果集合;确定闭眼信息;确定闭眼识别疲劳结果;生成闭眼时长识别疲劳结果;生成嘴部状态识别疲劳结果;生成疲劳预警等级信息;控制架桥机执行起吊停止操作。该实施方式可以减少架桥机起吊资源的浪费和提高架桥机操作过程中的安全性。
Description
技术领域
本公开的实施例涉及计算机技术领域,具体涉及架桥机控制方法、电子设备和计算机可读介质。
背景技术
架桥机是属于起重设备的一种,主要是将预制好的梁片放置在桥墩上的机械设备。由于该设备施工工况较为特殊,对安全的要求较为严苛。其中,架桥机驾驶员的工作状态(例如疲劳状态)也是影响其安全的一个重要方面。目前,在对架桥机进行控制操作时,通常采用的方式为:对驾驶员进行人脸图像采集并进行去噪处理(例如均值滤波去噪处理),并基于人脸图像的眼部特征识别驾驶员是否处于疲劳状态,以及做出相关的预警处理。
然而,发明人发现,当采用上述方式对架桥机进行控制操作时,经常会存在如下技术问题:
第一,仅通过眼部特征识别驾驶员是否处于疲劳状态,驾驶员疲劳驾驶识别的疲劳维度较少,导致识别到的驾驶员疲劳状态的准确度较低,即对驾驶员疲劳状态不能正确识别,导致驾驶员在对梁片起吊的过程中,出错较多,需多次操作,造成架桥机起吊资源的浪费,同时造成架桥机操作过程中的安全性较低。
第二,在基于人脸图像进行驾驶员疲劳识别的过程中,未考虑采集的人脸图像中人脸歪斜的情况,导致识别到的驾驶员疲劳状态的准确度较低,即对驾驶员疲劳状态不能正确识别,导致驾驶员在对梁片起吊的过程中,出错较多,需多次操作,造成架桥机起吊资源的浪费,同时造成架桥机操作过程中的安全性较低。
第三,在对人脸图像进行去噪的过程中,对采集的人脸图像整体进行均值滤波去噪处理,导致人脸图像的清晰度较差(即人脸图像的边缘特征较少)。从而导致识别到的驾驶员疲劳状态的准确度较低,即对驾驶员疲劳状态不能正确识别,导致驾驶员在对梁片起吊的过程中,出错较多,需多次操作,造成架桥机起吊资源的浪费,同时造成架桥机操作过程中的安全性较低。
该背景技术部分中所公开的以上信息仅用于增强对本发明构思的背景的理解,并因此,其可包含并不形成本国的本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本公开的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
本公开的一些实施例提出了架桥机控制方法、电子设备和计算机可读介质,来解决以上背景技术部分提到的技术问题中的一项或多项。
第一方面,本公开的一些实施例提供了一种架桥机控制方法,该方法包括:获取预设时间段内架桥机驾驶员的人脸图像视频;将上述人脸图像视频包括的各帧人脸图像的数量确定为人脸图像数量;对于上述人脸图像视频中的每帧人脸图像,执行以下步骤:对上述人脸图像进行去噪处理,得到去噪处理后的人脸图像作为去噪人脸图像;根据上述去噪人脸图像和预先训练的人眼状态识别模型,生成人眼状态识别结果,其中,上述人眼状态识别结果表征人眼张开或闭合;根据上述去噪人脸图像和预先训练的嘴部状态识别模型,生成嘴部状态识别结果,其中,上述嘴部状态识别结果表征嘴巴张开或闭合;将所生成的各个人眼状态识别结果确定为人眼状态识别结果集合,其中,上述人眼状态识别结果集合中的人眼状态识别结果对应上述人脸图像视频中的人脸图像;将所生成的各个嘴部状态识别结果确定为嘴部状态识别结果集合,其中,上述嘴部状态识别结果集合中的嘴部状态识别结果对应上述人眼状态识别结果集合中的人眼状态识别结果;根据上述人眼状态识别结果集合和上述人脸图像数量,确定闭眼信息;根据上述闭眼信息,确定上述架桥机驾驶员对应的闭眼识别疲劳结果;根据上述人眼状态识别结果集合,生成上述架桥机驾驶员对应的闭眼时长识别疲劳结果;根据上述嘴部状态识别结果集合,生成上述架桥机驾驶员对应的嘴部状态识别疲劳结果;根据上述闭眼识别疲劳结果、上述闭眼时长识别疲劳结果和上述嘴部状态识别疲劳结果,生成上述架桥机驾驶员对应的疲劳预警等级信息;响应于确定上述疲劳预警等级信息表征架桥机驾驶员严重疲劳,控制架桥机执行起吊停止操作。
第二方面,本公开的一些实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现上述第一方面任一实现方式所描述的方法。
第三方面,本公开的一些实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现上述第一方面任一实现方式所描述的方法。
本公开的上述各个实施例具有如下有益效果:通过本公开的一些实施例的架桥机控制方法,可以减少架桥机起吊资源的浪费以及提高架桥机操作过程中的安全性。具体来说,导致驾驶员在对梁片起吊的过程中,出错较多,需多次操作,造成架桥机起吊资源的浪费,同时造成架桥机操作过程中的安全性较低的原因在于:仅通过眼部特征识别驾驶员是否处于疲劳状态,驾驶员疲劳驾驶识别的疲劳维度较少,导致识别到的驾驶员疲劳状态的准确度较低,即对驾驶员疲劳状态不能正确识别,导致驾驶员在对梁片起吊的过程中,出错较多,需多次操作,造成架桥机起吊资源的浪费,同时造成架桥机操作过程中的安全性较低。基于此,本公开的一些实施例的架桥机控制方法,首先,获取预设时间段内架桥机驾驶员的人脸图像视频。由此,可以获取人脸图像视频,从而可以用于确定架桥机驾驶员是否处于疲劳驾驶状态。
然后,将上述人脸图像视频包括的各帧人脸图像的数量确定为人脸图像数量。由此,可以得到人脸图像视频包括的人脸图像数量。之后,对于上述人脸图像视频中的每帧人脸图像,执行以下步骤:对上述人脸图像进行去噪处理,得到去噪处理后的人脸图像作为去噪人脸图像。由此,可以得到表征人脸图像清晰度较高的去噪人脸图像,从而可以用于提高识别目标对象的准确率。随后,根据上述去噪人脸图像和预先训练的人眼状态识别模型,生成人眼状态识别结果。其中,上述人眼状态识别结果表征人眼张开或闭合。由此,可以得到人眼状态识别结果,从而可以从驾驶员眼部特征角度确定驾驶员是否处于疲劳驾驶状态。随之,根据上述去噪人脸图像和预先训练的嘴部状态识别模型,生成嘴部状态识别结果。其中,上述嘴部状态识别结果表征嘴巴张开或闭合。由此,可以得到嘴部状态识别结果,从而可以从嘴部特征角度确定驾驶员是否处于疲劳驾驶状态。随着,将所生成的各个人眼状态识别结果确定为人眼状态识别结果集合。其中,上述人眼状态识别结果集合中的人眼状态识别结果对应上述人脸图像视频中的人脸图像。由此,可以得到表征预设时间段内驾驶员总的眼部状态识别结果的人眼状态识别结果集合。其次,将所生成的各个嘴部状态识别结果确定为嘴部状态识别结果集合。其中,上述嘴部状态识别结果集合中的嘴部状态识别结果对应上述人眼状态识别结果集合中的人眼状态识别结果。由此,可以得到表征预设时间段内驾驶员总的嘴部状态识别结果的嘴部状态识别结果集合。然后,根据上述人眼状态识别结果集合和上述人脸图像数量,确定闭眼信息。由此,可以得到表征架桥机驾驶员是否疲劳驾驶的闭眼信息。之后,根据上述闭眼信息,确定上述架桥机驾驶员对应的闭眼识别疲劳结果。由此,可以得到闭眼识别疲劳结果,从而可以从预设时间段内总的闭眼频率的角度确定架桥机驾驶员是否处于疲劳驾驶的状态。随后,根据上述人眼状态识别结果集合,生成上述架桥机驾驶员对应的闭眼时长识别疲劳结果。由此,可以得到闭眼时长识别疲劳结果,从而可以从驾驶员闭眼时长的角度确定架桥机驾驶员是否处于疲劳驾驶的状态。随着,根据上述嘴部状态识别结果集合,生成上述架桥机驾驶员对应的嘴部状态识别疲劳结果。由此,可以得到嘴部状态识别疲劳结果,从而可以从驾驶员的嘴部特征角度确定驾驶员是否处于疲劳驾驶的状态。随之,根据上述闭眼识别疲劳结果、上述闭眼时长识别疲劳结果和上述嘴部状态识别疲劳结果,生成上述架桥机驾驶员对应的疲劳预警等级信息。由此,可以根据眼部状态识别结果、嘴部状态识别结果和预设时间段内总的闭眼情况,确定架桥机驾驶员是否处于疲劳驾驶的状态。最后,响应于确定上述疲劳预警等级信息表征架桥机驾驶员严重疲劳,控制架桥机执行起吊停止操作。由此,可以根据架桥机驾驶员的工作状态,对架桥机执行对应的操作,以提高架桥机操作过程中的安全性。也因为通过确定闭眼信息,可以从预设时间段内总的闭眼频率角度确定驾驶员是否处于疲劳驾驶通过确定闭眼时长识别疲劳结果,可以从眼部特征的闭眼时长的角度确定驾驶员是否处于疲劳驾驶状态,通过确定嘴部状态识别结果,可以从嘴部特征的角度确定驾驶员是否处于疲劳驾驶。还因为从以上三方面多个维度综合确定驾驶员是否处于疲劳驾驶的状态,可以提高识别到的驾驶员疲劳状态的准确度,减少驾驶员在对梁片起吊的过程中错误操作,从而减少架桥机起吊资源的浪费,同时提高架桥机操作过程中的安全性。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,元件和元素不一定按照比例绘制。
图1是根据本公开的架桥机控制方法的一些实施例的流程图;
图2是适于用来实现本公开的一些实施例的电子设备的结构示意图。
实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
下面将参考附图并结合实施例来详细说明本公开。
图1示出了根据本公开的架桥机控制方法的一些实施例的流程100。该架桥机控制方法,包括以下步骤:
步骤101,获取预设时间段内架桥机驾驶员的人脸图像视频。
在一些实施例中,架桥机控制方法的执行主体(例如计算设备)可以通过有线连接方式或者无线连接方式从人脸图像采集设备获取预设时间段内架桥机驾驶员的人脸图像视频。其中,上述人脸图像采集设备可以为能够对架桥机驾驶内驾驶员的人脸进行图像采集的设备。例如,上述人脸图像采集设备可以为针孔摄像头。上述预设时间段可以为预先设定的一段时间。这里,上述预设时间段可以为从当前时刻到当前时刻前20s的一段时间。上述人脸图像视频可以为上述人脸图像采集设备采集的架桥机驾驶员的人脸图像视频。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
步骤102,将人脸图像视频包括的各帧人脸图像的数量确定为人脸图像数量。
在一些实施例中,上述执行主体可以将上述人脸图像视频包括的各帧人脸图像的数量确定为人脸图像数量。实践中,上述执行主体可以将上述人脸图像视频包括的各帧人脸图像的数量确定为人脸图像数量。
步骤103,对于人脸图像视频中的每帧人脸图像,执行以下步骤:
步骤1031,对人脸图像进行去噪处理,得到去噪处理后的人脸图像作为去噪人脸图像。
在一些实施例中,上述执行主体可以对上述人脸图像进行去噪处理,得到去噪处理后的人脸图像作为去噪人脸图像。
在一些实施例的一些可选的实现方式中,上述执行主体可以通过以下步骤对上述人脸图像进行去噪处理,得到去噪处理后的人脸图像作为去噪人脸图像:
第一步,确定上述人脸图像的中心点坐标和中心点像素值。实践中,首先,上述执行主体可以将位于人脸图像中心的像素点对应的坐标确定为中心点坐标。然后,可以将位于人脸图像中心的像素点对应的像素值确定为中心点像素值。
第二步,对于上述人脸图像中的每个人脸像素点对应的像素坐标和像素值,执行以下第一确定步骤:
第一子步骤,根据上述中心点坐标和上述像素坐标,确定像素空间距离差。实践中,上述执行主体可以将上述中心点坐标和上述像素坐标的欧式距离确定为像素空间距离差。
第二子步骤,根据上述中心点像素值和上述像素值,确定像素差。实践中,上述执行主体可以将上述中心点像素值和上述像素值的差值绝对值确定为像素差。
第三步,将所确定的各个像素空间距离差的平方和确定为像素总空间距离差。
第四步,将所确定的各个像素差的平方和确定为总像素差。
第五步,对于上述人脸图像中的每个人脸像素点对应的像素坐标和像素值,执行以下第二确定步骤:
第一子步骤,根据上述像素空间距离差和上述像素总空间距离差,确定空间权重。实践中,上述空间权重可以通过以下公式表示:
。
其中,可以表示像素空间距离差的平方。/>可以表示像素总空间距离差的平方。/>可以表示当前像素坐标。/>可以表示中心点坐标。/>可以表示空间权重。/>可以表示空间距离因素。
第二子步骤,根据上述像素差和总像素差,确定像素相似度权重。作为示例,上述像素相似度权重可以通过以下公式表示:
。
其中,可以表示像素相似度权重。/>可以表示总像素差的平方。可以表示像素差的平方。/>可以表示像素因素。也可以理解为/>和/>用于区分和/>。同时用于区分/>和/>。
第三子步骤,将上述空间权重与上述像素相似度权重的乘积确定为距离权值像素权重。
第四子步骤,将上述距离权值像素权重与上述像素值的乘积确定为权重像素值。
第六步,将所确定各个距离权值像素权重的和确定为总距离权值像素权重。
第七步,对于所确定的各个权重像素值中的每个权重像素值,将上述权重像素值与上述总距离权值像素权重的比值确定为更新像素值。
第八步,将所确定的各个更新像素值所组成的图像确定为去噪人脸图像。
上述第一步至第八步及其相关内容作为本公开的实施例的一个发明点,解决了背景技术提及的技术问题三“在对人脸图像进行去噪的过程中,对采集的人脸图像整体进行均值滤波去噪处理,导致人脸图像的清晰度较差(即人脸图像的边缘特征较少)。从而导致识别到的驾驶员疲劳状态的准确度较低,即对驾驶员疲劳状态不能正确识别,导致驾驶员在对梁片起吊的过程中,出错较多,需多次操作,造成架桥机起吊资源的浪费,同时造成架桥机操作过程中的安全性较低”。更进一步导致架桥机起吊资源的浪费以及架桥机操作过程中的安全性较低的因素往往如下:在对人脸图像进行去噪的过程中,对采集的人脸图像整体进行均值滤波去噪处理,导致人脸图像的清晰度较差(即人脸图像的边缘特征较少)。从而导致识别到的驾驶员疲劳状态的准确度较低,即对驾驶员疲劳状态不能正确识别,导致驾驶员在对梁片起吊的过程中,出错较多,需多次操作,造成架桥机起吊资源的浪费,同时造成架桥机操作过程中的安全性较低。如果解决了上述因素,就能达到减少架桥机起吊资源的浪费,提高架桥机操作过程中的安全性的效果。为了达到这一效果,首先,确定上述人脸图像的中心点坐标和中心点像素值。由此,可以得到中心点坐标和中心点像素值,从而用于确定去噪处理的参照对象。然后,对于上述人脸图像中的每个人脸像素点对应的像素坐标和像素值,执行以下第一确定步骤:根据上述中心点坐标和上述像素坐标,确定像素空间距离差。由此,可以得到表征单个像素点与图像中心点距离的像素空间距离差。之后,根据上述中心点像素值和上述像素值,确定像素差。由此,可以得到表征单个像素点的像素值与图像中心点的像素值差别度的像素差,随后,将所确定的各个像素空间距离差的平方和确定为像素总空间距离差。由此,可以得到图像中所有像素点与图像中心点距离的像素总空间距离差。从而可以从像素空间距离的角度对人脸图像进行去噪处理。接着,将所确定的各个像素差的平方和确定为总像素差。由此,可以得到图像中所有像素点与图像中心点距离的像素值总差别度的总像素差,从而可以从像素相似度的角度对人脸图像进行去噪处理。其次,对于上述人脸图像中的每个人脸像素点对应的像素坐标和像素值,执行以下第二确定步骤:根据上述像素空间距离差和上述像素总空间距离差,确定空间权重。由此,可以得到表征空间距离去噪贡献度的空间权重。然后,根据上述像素差和总像素差,确定像素相似度权重。由此,可以得到表征像素相似度去噪贡献度的像素相似度权重。然后,将上述空间权重与上述像素相似度权重的乘积确定为距离权值像素权重。由此,可以得到表征空间距离去噪贡献度和像素相似度去噪贡献度的距离权值像素权重。之后,将上述距离权值像素权重与上述像素值的乘积确定为权重像素值。由此,可以得到进行空间距离和像素相似度权重更新后的权重像素值。随后,将所确定各个距离权值像素权重的和确定为总距离权值像素权重。由此,可以得到表征空间距离和像素相似度总贡献度的总距离权值像素权重。随之,对于所确定的各个权重像素值中的每个权重像素值,将上述权重像素值与上述总距离权值像素权重的比值确定为更新像素值。由此,可以得到人脸图像中单个像素点进行平滑去噪处理后的更新像素值。最后,将所确定的各个更新像素值所组成的图像确定为去噪人脸图像。由此,可以得到表征从像素空间距离和像素相似度角度进行去噪处理的去噪人脸图像。也因为通过确定空间权重,可以从空间距离的角度对人脸图像中的像素进行平滑去噪处理。还因为通过确定像素相似度权重,可以从像素相似度的角度对人脸图像中的像素进行平滑去噪处理。从而可以在去噪的同时,可以保留人脸图像的边缘特征,即可以提高人脸图像的清晰度。从而可以提高识别到的驾驶员疲劳状态的准确度,减少驾驶员在对梁片起吊的过程中错误操作,进而减少架桥机起吊资源的浪费,同时提高架桥机操作过程中的安全性。
可选地,在上述对上述人脸图像进行去噪处理,得到去噪处理后的人脸图像作为去噪人脸图像之后,上述执行主体还可以执行以下步骤:
第一步,将上述去噪人脸图像输入至预先训练的人脸关键点检测模型中,得到人脸关键点坐标信息。其中,上述人脸关键点坐标信息包括左眼中心坐标信息和右眼中心坐标信息。上述人脸关键点检测模型可以为以人脸图像为输入,以人脸关键点坐标信息为输出的神经网络模型。例如,上述人脸关键点检测模型可以为Yolov5模型。
第二步,根据上述左眼中心坐标信息和上述右眼中心坐标信息,确定人脸倾斜角度。实践中,上述执行主体可以将上述左眼中心坐标信息和上述右眼中心坐标信息对应的直线距离与水平线之间的夹角确定为人脸倾斜角度。这里,上述左眼中心坐标信息和上述右眼中心坐标信息对应的直线距离可以理解为左眼中心坐标信息对应的坐标点与右眼中心坐标信息对应的坐标点确定的直线距离。
第三步,根据人脸倾斜角度,对上述去噪人脸图像进行旋转处理,得到旋转后去噪人脸图像作为旋转人脸图像。实践中,上述执行主体可以以去噪人脸图像的中心点为旋转中心,按照人脸倾斜角度对去噪人脸图像进行旋转。其中,旋转的方式可以包括:顺时针旋转和逆时针旋转。这里,旋转的方式可以为逆时针旋转。
第四步,根据上述人脸倾斜角度、上述左眼中心坐标信息和上述右眼中心坐标信息,确定上述旋转人脸图像对应的左眼坐标信息和右眼坐标信息。作为示例,上述旋转人脸图像对应的左眼坐标信息和右眼坐标信息可以通过以下公式表示:
。
。
其中,上述表示旋转人脸图像对应的左/右眼坐标信息的纵坐标。上述/>表示旋转人脸图像对应的左/右眼坐标信息的横坐标。上述/>表示去噪人脸图像的中心点的横坐标。/>表示去噪人脸图像的中心点的纵坐标。上述/>表示人脸倾斜角度。上述/>表示左/右眼中心坐标信息包括的纵坐标。上述/>表示左/右眼中心坐标信息包括的横坐标。
第五步,根据预设脸框宽度信息、预设脸框高度信息、上述左眼坐标信息和右眼坐标信息,确定旋转人脸图像区域。其中,上述预设脸框宽度信息可以为预先设定表征旋转人脸图像中人脸的宽度的信息。上述预设脸框高度信息可以包括上部预设脸框高度和下部预设脸框高度。上部预设脸框高度可以表征旋转人脸图像中眼部到额头的区域。上述下部预设脸框高度可以表征旋转人脸图像中眼部以下的人脸区域。实践中,根据预设脸框宽度信息、预设脸框高度信息、上述左眼坐标信息和右眼坐标信息,确定旋转人脸图像区域,上述执行主体可以通过以下步骤确定旋转人脸图像区域:
第一子步骤,将左眼坐标信息对应的左眼坐标和右眼坐标信息对应的右眼坐标的中间点确定眼部中心点。
第二子步骤,以眼部中心点所在点的纵轴为纵向切分中心,以预设脸框宽度信息为半径对旋转人脸图像进行纵向切分。以眼部中心点所在的横轴为横向切分中心,以上部预设脸框高度为上部切分半径,以部预设脸框高度为下部切分半径,对旋转人脸图像进行横向切分。
第三子步骤,将进行横向切分和纵向切分后所确定的人脸区域确为旋转人脸图像区域。
第六步,将上述旋转人脸图像区域确定为去噪人脸图像,以对去噪人脸图像进行更新。
上述第一步至第六步及其相关内容作为本公开的实施例的一个发明点,解决了背景技术提及的技术问题二“在基于人脸图像进行驾驶员疲劳识别的过程中,未考虑采集的人脸图像中人脸歪斜的情况,导致识别到的驾驶员疲劳状态的准确度较低,即对驾驶员疲劳状态不能正确识别,导致驾驶员在对梁片起吊的过程中,出错较多,需多次操作,造成架桥机起吊资源的浪费,同时造成架桥机操作过程中的安全性较低”。进一步导致识别到的驾驶员疲劳状态的准确度较低,驾驶员在对梁片起吊的过程中误操作较多,架桥机起吊资源浪费以及架桥机操作过程中的安全性较低的因素往往如下:在基于人脸图像进行驾驶员疲劳识别的过程中,未考虑采集的人脸图像中人脸歪斜的情况,导致识别到的驾驶员疲劳状态的准确度较低,即对驾驶员疲劳状态不能正确识别,导致驾驶员在对梁片起吊的过程中,出错较多,需多次操作,造成架桥机起吊资源的浪费,同时造成架桥机操作过程中的安全性较低。如果解决了上述因素,就能达到减少架桥机起吊资源的浪费以及提高架桥机操作过程中的安全性的效果。为了达到这一效果,首先,将上述去噪人脸图像输入至预先训练的人脸关键点检测模型中,得到人脸关键点坐标信息。其中,上述人脸关键点坐标信息包括左眼中心坐标信息和右眼中心坐标信息。由此,可以得到人脸关键点坐标信息,从而可以用于确定人脸图像中的人脸是否歪斜。然后,根据上述左眼中心坐标信息和上述右眼中心坐标信息,确定人脸倾斜角度。由此,可以得到人脸倾斜角度,从而可以用于对人脸图像进行人脸旋转。之后,根据人脸倾斜角度,对上述去噪人脸图像进行旋转处理,得到旋转后去噪人脸图像作为旋转人脸图像。由此,可以得到表征人脸水平放置的旋转人脸图像。从而可以用于提高识别结果的准确率。其次,根据上述人脸倾斜角度、上述左眼中心坐标信息和上述右眼中心坐标信息,确定上述旋转人脸图像对应的左眼坐标信息和右眼坐标信息。由此,可以得旋转后人脸图像对应的左眼坐标信息和右眼坐标信息,从而可以用于确定目标人脸区域。然后,根据预设脸框宽度信息、预设脸框高度信息、上述左眼坐标信息和右眼坐标信息,确定旋转人脸图像区域。由此,可以得到表征目标人脸区域的旋转人脸图像区域。最后,将上述旋转人脸图像区域确定为去噪人脸图像,以对去噪人脸图像进行更新。由此,可以得到表征目标人脸区域且水平放置的人脸图像。也因为通过确定人脸图像的眼部坐标信息,可以确定人脸图像是否歪斜。并通过确定眼部歪斜的角度以及对人脸图像进行调整,可以得到表征水平放置的目标人脸区域,从而可以提高识别到的驾驶员疲劳状态的准确度,减少驾驶员在对梁片起吊的过程中错误操作,从而减少架桥机起吊资源的浪费,同时提高架桥机操作过程中的安全性。
步骤1032,根据去噪人脸图像和预先训练的人眼状态识别模型,生成人眼状态识别结果。
在一些实施例中,根据上述去噪人脸图像和预先训练的人眼状态识别模型,上述执行主体可以生成人眼状态识别结果。其中,上述人眼状态识别结果表征人眼张开或闭合。例如,人眼状态识别结果可以为眼睛睁开或眼睛闭合。上述人眼状态识别模型可以包括:特征提取层、特征融合层和检测头层。上述特征提取层可以为对输入图像进行特征提取的网络层。上述特征融合层可以为将输入的特征向量的低层细节特征和高层语义特征进行特征融合的网络层。上述检测头层可以为能够对目标对象进行类别预测的网络层。这里,上述目标对象可以为人眼。类别预测可以理解为人眼状态识别结果。上述人眼状态识别模型可以为以去噪人脸图像为输入,以人眼状态识别结果为输出的神经网络模型。
在一些实施例的一些可选的实现方式中,根据上述去噪人脸图像和预先训练的人眼状态识别模型,上述执行主体可以通过以下步骤生成人眼状态识别结果:
第一步,将上述去噪人脸图像输入至上述特征提取层,得到人眼特征提取向量。这里,特征提取层可以为能够对去噪人脸图像进行特征提取,得到人眼特征提取向量的网络层。
第二步,将上述人眼特征提取向量输入至上述特征融合层,得到融合特征向量。这里,特征融合层可以为能够将人眼特征提取向量的低层细节特征和高层语义特征进行特征融合的网络层。其中,底层细节特征经过的卷积处理次数较少、语义性更低、噪声更多和分辨率更高。高层语义特征经过的卷积处理次数较多,语义性更高、噪声更少和分辨率更低,从而对细节的感知能力较差。将两者进行特征融合,可以提高人脸图像中人眼状态识别结果的准确率。
第三步,将上述融合特征向量输入至上述检测头层,得到人眼状态识别结果。这里,检测头层可以为对表征人眼部特征的融合特征向量进行人眼状态识别的网络层。
在一些实施例的一些可选的实现方式中,上述执行主体可以通过以下步骤将上述人眼特征提取向量输入至上述特征融合层,得到融合特征向量:
第一步,对上述人眼特征提取向量进行卷积处理,得到第一卷积特征向量。
第二步,对上述第一卷积特征向量进行卷积处理,得到第二卷积特征向量。其中,上述第一卷积特征向量的数据维度大于上述第二卷积特征向量的数据维度。
第三步,对上述第二卷积特征向量进行卷积处理,得到第三卷积特征向量。其中,上述第二卷积特征向量的数据维度大于上述第三卷积特征向量的数据维度。
第四步,对上述第三卷积特征向量进行池化处理,得到第一池化特征向量。
第五步,根据上述第一池化特征向量和上述第二卷积特征向量,生成第一融合特征向量。其中,上述第一融合特征向量的数据维度大于上述第三卷积特征向量的数据维度。实践中,上述执行主体可以将上述第一池化特征向量和上述第二卷积特征向量进行组合,以生成第一融合特征向量。这里,组合的方式可以为拼接。
第六步,对上述第一融合特征向量进行池化处理,得到第二池化特征向量。
第七步,根据上述第二池化特征向量和上述第一卷积特征向量,生成第二融合特征向量。其中,上述第二融合特征向量的数据维度大于上述第一融合特征向量的数据维度。实践中,上述执行主体可以将上述第二池化特征向量和上述第一卷积特征向量进行组合,以生成第二融合特征向量。
第八步,根据上述第三卷积特征向量、上述第一融合特征向量和上述第二融合特征向量,确定融合特征向量。实践中,上述执行主体可以将上述第三卷积特征向量、上述第一融合特征向量和上述第二融合特征向量确定为融合特征向量。
步骤1033,根据去噪人脸图像和预先训练的嘴部状态识别模型,生成嘴部状态识别结果。
在一些实施例中,根据上述去噪人脸图像和预先训练的嘴部状态识别模型,上述执行主体可以生成嘴部状态识别结果。其中,上述嘴部状态识别结果表征嘴部张开或闭合。其中,上述嘴部状态识别模型可以为以去噪人脸图像为输入,以嘴部状态识别结果为输出的神经网络模型。上述嘴部状态识别模型可以包括:特征提取层、特征融合层和检测头层。上述特征提取层可以为对输入图像进行特征提取的网络层。上述特征融合层可以为将输入的特征向量的低层细节特征和高层语义特征进行特征融合的网络层。上述检测头层可以为能够对目标对象进行类别预测的网络层。这里,上述目标对象可以为嘴部。类别预测可以理解为嘴部状态识别结果。实践中,上述执行主体可以将去噪人脸图像输入至上述嘴部状态识别模型,得到嘴部状态识别结果。
步骤104,将所生成的各个人眼状态识别结果确定为人眼状态识别结果集合。
在一些实施例中,上述执行主体可以将所生成的各个人眼状态识别结果确定为人眼状态识别结果集合。其中,上述人眼状态识别结果集合中的人眼状态识别结果与上述人脸图像视频中的人脸图像一一对应。实践中,上述执行主体可以将所生成的各个人眼状态识别结果确定为人眼状态识别结果集合。
步骤105,将所生成的各个嘴部状态识别结果确定为嘴部状态识别结果集合。
在一些实施例中,上述执行主体可以将所生成的各个嘴部状态识别结果确定为嘴部状态识别结果集合。其中,上述嘴部状态识别结果集合中的嘴部状态识别结果与上述人眼状态识别结果集合中的人眼状态识别结果一一对应。实践中,上述执行主体可以将所生成的各个嘴部状态识别结果确定为嘴部状态识别结果集合。
步骤106,根据人眼状态识别结果集合和人脸图像数量,确定闭眼信息。
在一些实施例中,根据上述人眼状态识别结果集合和上述人脸图像数量,上述执行主体可以确定闭眼信息。其中,上述闭眼信息可以理解为单位时间内人眼闭合帧数与总帧数的比值。
在一些实施例的一些可选的实现方式中,根据上述人眼状态识别结果集合和上述人脸图像数量,上述执行主体可以通过以下步骤确定闭眼信息:
第一步,将上述人眼状态识别结果集合中表征人眼闭合的各个人眼状态识别结果确定为人眼闭合识别结果集合。
第二步,将上述人脸图像视频中与上述人眼闭合识别结果集合对应的各帧人脸图像确定为闭合人脸图像集合。
第三步,将上述闭合人脸图像集合包括的各个闭合人脸图像的数量确定为闭合人脸图像数量。
第四步,将上述闭合人脸图像数量与上述人脸图像数量的比值确定为闭眼信息。
步骤107,根据闭眼信息,确定架桥机驾驶员对应的闭眼识别疲劳结果。
在一些实施例中,根据上述闭眼信息,上述执行主体可以确定上述架桥机驾驶员对应的闭眼识别疲劳结果。
在一些实施例的一些可选的实现方式中,根据上述闭眼信息,上述执行主体可以通过以下步骤确定上述架桥机驾驶员对应的闭眼识别疲劳结果:
第一步,响应于确定上述闭眼信息大于等于预设闭眼阈值,将表征驾驶员疲劳的疲劳信息确定为上述架桥机驾驶员对应的闭眼识别疲劳结果。其中,上述预设闭眼阈值可以为预先设定的闭眼阈值。这里,上述预设闭眼阈值可以为0.2。上述疲劳信息可以为驾驶员疲劳驾驶。
第二步,响应于确定上述闭眼信息小于上述预设闭眼阈值,将表征驾驶员状态正常的状态正常信息确定为上述架桥机驾驶员对应的闭眼识别疲劳结果。上述状态正常信息可以为驾驶员精神饱满。
步骤108,根据人眼状态识别结果集合,生成架桥机驾驶员对应的闭眼时长识别疲劳结果。
在一些实施例中,根据上述人眼状态识别结果集合,上述执行主体可以生成上述架桥机驾驶员对应的闭眼时长识别疲劳结果。
在一些实施例的一些可选的实现方式中,根据上述人眼状态识别结果集合,上述执行主体可以通过以下步骤生成上述架桥机驾驶员对应的闭眼时长识别疲劳结果:
第一步,根据上述人眼状态识别结果集合,确定人眼状态识别结果序列。实践中,上述执行主体可以按照人眼状态识别结果对应的识别时间对上述人眼状态识别结果集合包括的各个上述人眼状态识别结果进行排序,以确定上述人眼状态识别结果序列。这里,人眼状态识别结果集合中的人眼状态识别结果与人脸图像视频中的人脸图像一一对应。可以理解为按照人脸图像视频包括的各个人脸图像的采集时间对人脸图像进行排序,也即对人眼状态识别结果进行排序。
第二步,根据上述人眼状态识别结果序列,确定人眼闭合识别结果组集合。实践中,首先,上述执行主体可以将上述人眼状态识别结果序列中满足预设人眼闭合识别结果组条件的各个人眼状态识别结果确定为人眼闭合识别结果组。其中,上述预设人眼闭合识别结果组条件可以为上述人眼状态识别结果序列中的各个人眼状态识别结果按照从左到右相邻且表征人眼闭合。然后,可以将所确定的各个人眼闭合识别结果组确定为人眼状态识别结果集合。
第三步,响应于确定上述人眼闭合识别结果组集合中至少有一个人眼闭合识别结果组包括的各个人眼闭合识别结果的数量大于等于预设人眼闭合识别数量阈值,将表征驾驶员疲劳的疲劳信息确定为上述架桥机驾驶员对应的闭眼时长识别疲劳结果。其中,上述预设人眼闭合识别数量阈值可以为预先设定的人眼闭合识别数量阈值。例如,上述预设人眼闭合识别数量阈值可以为25。这里,上述疲劳信息可以为驾驶员疲劳驾驶。
第四步,响应于确定上述人眼闭合识别结果组集合中各个人眼闭合识别结果组包括的各个人眼闭合识别结果的数量均小于上述预设人眼闭合识别数量阈值,将表征驾驶员状态正常的状态正常信息确定为上述架桥机驾驶员对应的闭眼时长识别疲劳结果。这里,上述状态正常信息可以为驾驶员精神饱满。
步骤109,根据嘴部状态识别结果集合,生成架桥机驾驶员对应的嘴部状态识别疲劳结果。
在一些实施例中,根据上述嘴部状态识别结果集合,上述执行主体可以生成上述架桥机驾驶员对应的嘴部状态识别疲劳结果。
在一些实施例的一些可选的实现方式中,根据上述嘴部状态识别结果集合,上述执行主体可以通过以下步骤生成上述架桥机驾驶员对应的嘴部状态识别疲劳结果:
第一步,根据上述嘴部状态识别结果集合,确定嘴部状态识别结果序列。实践中,上述执行主体可以按照嘴部状态识别结果对应的识别时间对上述嘴部状态识别结果集合包括的各个上述嘴部状态识别结果进行排序,以确定上述嘴部状态识别结果序列。这里,嘴部状态识别结果集合中的嘴部状态识别结果与人脸图像视频中的人脸图像一一对应。可以理解为按照人脸图像视频包括的各个人脸图像的采集时间对人脸图像进行排序,也即对嘴部状态识别结果进行排序。
第二步,根据嘴部状态识别结果序列,确定嘴部闭合识别结果组集合。实践中,首先,上述执行主体可以将上述嘴部状态识别结果序列中满足预设嘴部闭合识别结果组条件的各个嘴部状态识别结果确定为嘴部闭合识别结果组。其中,上述预设嘴部闭合识别结果组条件可以为上述嘴部状态识别结果序列中的各个嘴部状态识别结果按照从左到右相邻且表征嘴部张开。然后,可以将所确定的各个嘴部闭合识别结果组确定为嘴部闭合识别结果组集合。
第三步,响应于确定上述嘴部闭合识别结果组集合中至少有一个嘴部闭合识别结果组包括的嘴部闭合识别结果的数量大于等于预设嘴部闭合识别数量阈值,将表征驾驶员疲劳的疲劳信息确定为上述架桥机驾驶员对应的嘴部状态识别疲劳结果。其中,上述预设嘴部闭合识别数量阈值可以为预先设定的嘴部闭合识别数量阈值。这里,上述预设嘴部闭合识别数量阈值可以为100。上述疲劳信息可以为驾驶员疲劳驾驶。
第四步,响应于确定上述嘴部闭合识别结果组集合中各个嘴部闭合识别结果组包括的嘴部闭合识别结果的数量均小于上述预设嘴部闭合识别数量阈值,将表征驾驶员状态正常的状态正常信息确定为上述架桥机驾驶员对应的嘴部状态识别疲劳结果。这里,上述状态正常信息可以为驾驶员精神饱满。
步骤110,根据闭眼识别疲劳结果、闭眼时长识别疲劳结果和嘴部状态识别疲劳结果,生成架桥机驾驶员对应的疲劳预警等级信息。
在一些实施例中,根据上述闭眼识别疲劳结果、上述闭眼时长识别疲劳结果和上述嘴部状态识别疲劳结果,生成上述架桥机驾驶员对应的疲劳预警等级信息。实践中,根据闭眼识别疲劳结果、闭眼时长识别疲劳结果和嘴部状态识别疲劳结果,上述执行主体可以通过以下步骤生成架桥机驾驶员对应的疲劳预警等级信息:
第一步骤,响应于确定上述闭眼识别疲劳结果、上述闭眼时长识别疲劳结果和上述嘴部状态识别疲劳结果均表征驾驶员疲劳,将表征驾驶员严重疲劳的一级疲劳预警等级信息确定为架桥机驾驶员对应的疲劳预警等级信息。这里,上述一级疲劳预警等级信息可以为“驾驶员严重疲劳,非常危险”。
第二步骤,响应于确定上述闭眼识别疲劳结果、上述闭眼时长识别疲劳结果和上述嘴部状态识别疲劳结果中有两项表征驾驶员疲劳,将表征驾驶员一般疲劳的二级疲劳预警等级信息确定为架桥机驾驶员对应的疲劳预警等级信息。这里,上述二级疲劳预警等级信息可以为“驾驶员可能疲劳驾驶,请注意安全”。
第三步骤,响应于确定上述闭眼识别疲劳结果、上述闭眼时长识别疲劳结果和上述嘴部状态识别疲劳结果中至多有一项表征驾驶员疲劳,将表征驾驶员状态正常的三级疲劳预警等级信息确定为架桥机驾驶员对应的疲劳预警等级信息。这里,上述三级疲劳预警等级信息可以为“驾驶员工作精神饱满,能量充足”。
步骤111,响应于确定疲劳预警等级信息表征架桥机驾驶员严重疲劳,控制架桥机执行起吊停止操作。
在一些实施例中,响应于确定上述疲劳预警等级信息表征架桥机驾驶员严重疲劳,上述执行主体可以控制架桥机执行起吊停止操作。实践中,响应于确定上述疲劳预警等级信息表征架桥机驾驶员严重疲劳,上述执行主体可以控制架桥机执行起吊停止操作。
可选地,上述执行主体还可以执行以下步骤:
第一步,响应于确定上述疲劳预警等级信息表征上述架桥机驾驶员一般疲劳,控制相关联的声音播放设备播放驾驶员疲劳提示信息。其中,上述相关联的声音播放设备可以为能够进行声音播放的设备。这里,相关联的声音播放设备可以为声音播放器。上述驾驶员疲劳提示信息可以为提醒驾驶员注意疲劳驾驶的信息。例如,上述驾驶员疲劳提示信息可以为“驾驶员能量不足,请注意安全”。
第二步,响应于确定上述疲劳预警等级信息表征上述架桥机驾驶员状态正常,控制相关联的声音播放设备播放驾驶员状态正常提示信息。上述驾驶员状态正常提示信息可以为提示驾驶员工作状态正常的信息。例如,上述驾驶员状态正常提示信息可以为“驾驶员能量充足,同时注意安全哦”。
本公开的上述各个实施例具有如下有益效果:通过本公开的一些实施例的架桥机控制方法,可以减少架桥机起吊资源的浪费以及提高架桥机操作过程中的安全性。具体来说,导致驾驶员在对梁片起吊的过程中,出错较多,需多次操作,造成架桥机起吊资源的浪费,同时造成架桥机操作过程中的安全性较低的原因在于:仅通过眼部特征识别驾驶员是否处于疲劳状态,驾驶员疲劳驾驶识别的疲劳维度较少,导致识别到的驾驶员疲劳状态的准确度较低,即对驾驶员疲劳状态不能正确识别,导致驾驶员在对梁片起吊的过程中,出错较多,需多次操作,造成架桥机起吊资源的浪费,同时造成架桥机操作过程中的安全性较低。基于此,本公开的一些实施例的架桥机控制方法,首先,获取预设时间段内架桥机驾驶员的人脸图像视频。由此,可以获取人脸图像视频,从而可以用于确定架桥机驾驶员是否处于疲劳驾驶状态。
然后,将上述人脸图像视频包括的各帧人脸图像的数量确定为人脸图像数量。由此,可以得到人脸图像视频包括的人脸图像数量。之后,对于上述人脸图像视频中的每帧人脸图像,执行以下步骤:对上述人脸图像进行去噪处理,得到去噪处理后的人脸图像作为去噪人脸图像。由此,可以得到表征人脸图像清晰度较高的去噪人脸图像,从而可以用于提高识别目标对象的准确率。随后,根据上述去噪人脸图像和预先训练的人眼状态识别模型,生成人眼状态识别结果。其中,上述人眼状态识别结果表征人眼张开或闭合。由此,可以得到人眼状态识别结果,从而可以从驾驶员眼部特征角度确定驾驶员是否处于疲劳驾驶状态。随之,根据上述去噪人脸图像和预先训练的嘴部状态识别模型,生成嘴部状态识别结果。其中,上述嘴部状态识别结果表征嘴巴张开或闭合。由此,可以得到嘴部状态识别结果,从而可以从嘴部特征角度确定驾驶员是否处于疲劳驾驶状态。随着,将所生成的各个人眼状态识别结果确定为人眼状态识别结果集合。其中,上述人眼状态识别结果集合中的人眼状态识别结果对应上述人脸图像视频中的人脸图像。由此,可以得到表征预设时间段内驾驶员总的眼部状态识别结果的人眼状态识别结果集合。其次,将所生成的各个嘴部状态识别结果确定为嘴部状态识别结果集合。其中,上述嘴部状态识别结果集合中的嘴部状态识别结果对应上述人眼状态识别结果集合中的人眼状态识别结果。由此,可以得到表征预设时间段内驾驶员总的嘴部状态识别结果的嘴部状态识别结果集合。然后,根据上述人眼状态识别结果集合和上述人脸图像数量,确定闭眼信息。由此,可以得到表征架桥机驾驶员是否疲劳驾驶的闭眼信息。之后,根据上述闭眼信息,确定上述架桥机驾驶员对应的闭眼识别疲劳结果。由此,可以得到闭眼识别疲劳结果,从而可以从预设时间段内总的闭眼频率的角度确定架桥机驾驶员是否处于疲劳驾驶的状态。随后,根据上述人眼状态识别结果集合,生成上述架桥机驾驶员对应的闭眼时长识别疲劳结果。由此,可以得到闭眼时长识别疲劳结果,从而可以从驾驶员闭眼时长的角度确定架桥机驾驶员是否处于疲劳驾驶的状态。随着,根据上述嘴部状态识别结果集合,生成上述架桥机驾驶员对应的嘴部状态识别疲劳结果。由此,可以得到嘴部状态识别疲劳结果,从而可以从驾驶员的嘴部特征角度确定驾驶员是否处于疲劳驾驶的状态。随之,根据上述闭眼识别疲劳结果、上述闭眼时长识别疲劳结果和上述嘴部状态识别疲劳结果,生成上述架桥机驾驶员对应的疲劳预警等级信息。由此,可以根据眼部状态识别结果、嘴部状态识别结果和预设时间段内总的闭眼情况,确定架桥机驾驶员是否处于疲劳驾驶的状态。最后,响应于确定上述疲劳预警等级信息表征架桥机驾驶员严重疲劳,控制架桥机执行起吊停止操作。由此,可以根据架桥机驾驶员的工作状态,对架桥机执行对应的操作,以提高架桥机操作过程中的安全性。也因为通过确定闭眼信息,可以从预设时间段内总的闭眼频率角度确定驾驶员是否处于疲劳驾驶通过确定闭眼时长识别疲劳结果,可以从眼部特征的闭眼时长的角度确定驾驶员是否处于疲劳驾驶状态,通过确定嘴部状态识别结果,可以从嘴部特征的角度确定驾驶员是否处于疲劳驾驶。还因为从以上三方面多个维度综合确定驾驶员是否处于疲劳驾驶的状态,可以提高识别到的驾驶员疲劳状态的准确度,减少驾驶员在对梁片起吊的过程中错误操作,从而减少架桥机起吊资源的浪费,同时提高架桥机操作过程中的安全性。
下面参考图2,其示出了适于用来实现本公开的一些实施例的电子设备200(例如计算设备)的结构示意图。本公开的一些实施例中的电子设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图2示出的电子设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图2所示,电子设备200可以包括处理装置201(例如中央处理器、图形处理器等),其可以根据存储在只读存储器(ROM)202中的程序或者从存储装置208加载到随机访问存储器(RAM)203中的程序而执行各种适当的动作和处理。在RAM 203中,还存储有电子设备200操作所需的各种程序和数据。处理装置201、ROM 202以及RAM 203通过总线204彼此相连。输入/输出(I/O)接口205也连接至总线204。
通常,以下装置可以连接至I/O接口205:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置206;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置207;包括例如磁带、硬盘等的存储装置208;以及通信装置209。通信装置209可以允许电子设备200与其他设备进行无线或有线通信以交换数据。虽然图2示出了具有各种装置的电子设备200,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图2中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的一些实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的一些实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的一些实施例中,该计算机程序可以通过通信装置209从网络上被下载和安装,或者从存储装置208被安装,或者从ROM 202被安装。在该计算机程序被处理装置201执行时,执行本公开的一些实施例的方法中限定的上述功能。
需要说明的是,本公开的一些实施例中记载的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的一些实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的一些实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(Hyper Text TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取预设时间段内架桥机驾驶员的人脸图像视频;将上述人脸图像视频包括的各帧人脸图像的数量确定为人脸图像数量;对于上述人脸图像视频中的每帧人脸图像,执行以下步骤:对上述人脸图像进行去噪处理,得到去噪处理后的人脸图像作为去噪人脸图像;根据上述去噪人脸图像和预先训练的人眼状态识别模型,生成人眼状态识别结果,其中,上述人眼状态识别结果表征人眼张开或闭合;根据上述去噪人脸图像和预先训练的嘴部状态识别模型,生成嘴部状态识别结果,其中,上述嘴部状态识别结果表征嘴部张开或闭合;将所生成的各个人眼状态识别结果确定为人眼状态识别结果集合,其中,上述人眼状态识别结果集合中的人眼状态识别结果对应上述人脸图像视频中的人脸图像;将所生成的各个嘴部状态识别结果确定为嘴部状态识别结果集合,其中,上述嘴部状态识别结果集合中的嘴部状态识别结果对应上述人眼状态识别结果集合中的人眼状态识别结果;根据上述人眼状态识别结果集合和上述人脸图像数量,确定闭眼信息;根据上述闭眼信息,确定上述架桥机驾驶员对应的闭眼识别疲劳结果;根据上述人眼状态识别结果集合,生成上述架桥机驾驶员对应的闭眼时长识别疲劳结果;根据上述嘴部状态识别结果集合,生成上述架桥机驾驶员对应的嘴部状态识别疲劳结果;根据上述闭眼识别疲劳结果、上述闭眼时长识别疲劳结果和上述嘴部状态识别疲劳结果,生成上述架桥机驾驶员对应的疲劳预警等级信息;响应于确定上述疲劳预警等级信息表征架桥机驾驶员严重疲劳,控制架桥机执行起吊停止操作。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的一些实施例的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (10)
1.一种架桥机控制方法,其特征在于,包括:
获取预设时间段内架桥机驾驶员的人脸图像视频;
将所述人脸图像视频包括的各帧人脸图像的数量确定为人脸图像数量;
对于所述人脸图像视频中的每帧人脸图像,执行以下步骤:
对所述人脸图像进行去噪处理,得到去噪处理后的人脸图像作为去噪人脸图像;
根据所述去噪人脸图像和预先训练的人眼状态识别模型,生成人眼状态识别结果,其中,所述人眼状态识别结果表征人眼张开或闭合;
根据所述去噪人脸图像和预先训练的嘴部状态识别模型,生成嘴部状态识别结果,其中,所述嘴部状态识别结果表征嘴巴张开或闭合;
将所生成的各个人眼状态识别结果确定为人眼状态识别结果集合,其中,所述人眼状态识别结果集合中的人眼状态识别结果对应所述人脸图像视频中的人脸图像;
将所生成的各个嘴部状态识别结果确定为嘴部状态识别结果集合,其中,所述嘴部状态识别结果集合中的嘴部状态识别结果对应所述人眼状态识别结果集合中的人眼状态识别结果;
根据所述人眼状态识别结果集合和所述人脸图像数量,确定闭眼信息;
根据所述闭眼信息,确定所述架桥机驾驶员对应的闭眼识别疲劳结果;
根据所述人眼状态识别结果集合,生成所述架桥机驾驶员对应的闭眼时长识别疲劳结果;
根据所述嘴部状态识别结果集合,生成所述架桥机驾驶员对应的嘴部状态识别疲劳结果;
根据所述闭眼识别疲劳结果、所述闭眼时长识别疲劳结果和所述嘴部状态识别疲劳结果,生成所述架桥机驾驶员对应的疲劳预警等级信息;
响应于确定所述疲劳预警等级信息表征架桥机驾驶员严重疲劳,控制架桥机执行起吊停止操作。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
响应于确定所述疲劳预警等级信息表征所述架桥机驾驶员一般疲劳,控制相关联的声音播放设备播放驾驶员疲劳提示信息;
响应于确定所述疲劳预警等级信息表征所述架桥机驾驶员状态正常,控制相关联的声音播放设备播放驾驶员状态正常提示信息。
3.根据权利要求1所述的方法,其特征在于,所述人眼状态识别模型包括:特征提取层、特征融合层和检测头层;以及
所述根据所述去噪人脸图像和预先训练的人眼状态识别模型,生成人眼状态识别结果,包括:
将所述去噪人脸图像输入至所述特征提取层,得到人眼特征提取向量;
将所述人眼特征提取向量输入至所述特征融合层,得到融合特征向量;
将所述融合特征向量输入至所述检测头层,得到人眼状态识别结果。
4.根据权利要求3所述的方法,其特征在于,所述将所述人眼特征提取向量输入至所述特征融合层,得到融合特征向量,包括:
对所述人眼特征提取向量进行卷积处理,得到第一卷积特征向量;
对所述第一卷积特征向量进行卷积处理,得到第二卷积特征向量,其中,所述第一卷积特征向量的数据维度大于所述第二卷积特征向量的数据维度;
对所述第二卷积特征向量进行卷积处理,得到第三卷积特征向量,其中,所述第二卷积特征向量的数据维度大于所述第三卷积特征向量的数据维度;
对所述第三卷积特征向量进行池化处理,得到第一池化特征向量;
根据所述第一池化特征向量和所述第二卷积特征向量,生成第一融合特征向量,其中,所述第一融合特征向量的数据维度大于所述第三卷积特征向量的数据维度;
对所述第一融合特征向量进行池化处理,得到第二池化特征向量;
根据所述第二池化特征向量和所述第一卷积特征向量,生成第二融合特征向量,其中,所述第二融合特征向量的数据维度大于所述第一融合特征向量的数据维度;
根据所述第三卷积特征向量、所述第一融合特征向量和所述第二融合特征向量,确定融合特征向量。
5.根据权利要求1所述的方法,其特征在于,所述根据所述人眼状态识别结果集合和所述人脸图像数量,确定闭眼信息,包括:
将所述人眼状态识别结果集合中表征人眼闭合的各个人眼状态识别结果确定为人眼闭合识别结果集合;
将所述人脸图像视频中与所述人眼闭合识别结果集合对应的各帧人脸图像确定为闭合人脸图像集合;
将所述闭合人脸图像集合包括的各个闭合人脸图像的数量确定为闭合人脸图像数量;
将所述闭合人脸图像数量与所述人脸图像数量的比值确定为闭眼信息。
6.根据权利要求1所述的方法,其特征在于,所述根据所述闭眼信息,确定所述架桥机驾驶员对应的闭眼识别疲劳结果,包括:
响应于确定所述闭眼信息大于等于预设闭眼阈值,将表征驾驶员疲劳的疲劳信息确定为所述架桥机驾驶员对应的闭眼识别疲劳结果;
响应于确定所述闭眼信息小于所述预设闭眼阈值,将表征驾驶员状态正常的状态正常信息确定为所述架桥机驾驶员对应的闭眼识别疲劳结果。
7.根据权利要求1所述的方法,其特征在于,所述根据所述人眼状态识别结果集合,生成所述架桥机驾驶员对应的闭眼时长识别疲劳结果,包括:
根据所述人眼状态识别结果集合,确定人眼状态识别结果序列;
根据所述人眼状态识别结果序列,确定人眼闭合识别结果组集合;
响应于确定所述人眼闭合识别结果组集合中至少有一个人眼闭合识别结果组包括的各个人眼闭合识别结果的数量大于等于预设人眼闭合识别数量阈值,将表征驾驶员疲劳的疲劳信息确定为所述架桥机驾驶员对应的闭眼时长识别疲劳结果;
响应于确定所述人眼闭合识别结果组集合中各个人眼闭合识别结果组包括的各个人眼闭合识别结果的数量均小于所述预设人眼闭合识别数量阈值,将表征驾驶员状态正常的状态正常信息确定为所述架桥机驾驶员对应的闭眼时长识别疲劳结果。
8.根据权利要求1所述的方法,其特征在于,所述根据所述嘴部状态识别结果集合,生成所述架桥机驾驶员对应的嘴部状态识别疲劳结果,包括:
根据所述嘴部状态识别结果集合,确定嘴部状态识别结果序列;
根据嘴部状态识别结果序列,确定嘴部闭合识别结果组集合;
响应于确定所述嘴部闭合识别结果组集合中至少有一个嘴部闭合识别结果组包括的嘴部闭合识别结果的数量大于等于预设嘴部闭合识别数量阈值,将表征驾驶员疲劳的疲劳信息确定为所述架桥机驾驶员对应的嘴部状态识别疲劳结果;
响应于确定所述嘴部闭合识别结果组集合中各个嘴部闭合识别结果组包括的嘴部闭合识别结果的数量均小于所述预设嘴部闭合识别数量阈值,将表征驾驶员状态正常的状态正常信息确定为所述架桥机驾驶员对应的嘴部状态识别疲劳结果。
9.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-8中任一所述的方法。
10.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-8中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311184346.7A CN116912808B (zh) | 2023-09-14 | 2023-09-14 | 架桥机控制方法、电子设备和计算机可读介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311184346.7A CN116912808B (zh) | 2023-09-14 | 2023-09-14 | 架桥机控制方法、电子设备和计算机可读介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116912808A true CN116912808A (zh) | 2023-10-20 |
CN116912808B CN116912808B (zh) | 2023-12-01 |
Family
ID=88353540
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311184346.7A Active CN116912808B (zh) | 2023-09-14 | 2023-09-14 | 架桥机控制方法、电子设备和计算机可读介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116912808B (zh) |
Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107038422A (zh) * | 2017-04-20 | 2017-08-11 | 杭州电子科技大学 | 基于空间几何约束深度学习的疲劳状态识别方法 |
CN107145842A (zh) * | 2017-04-19 | 2017-09-08 | 西安电子科技大学 | 结合lbp特征图与卷积神经网络的人脸识别方法 |
CN108256459A (zh) * | 2018-01-10 | 2018-07-06 | 北京博睿视科技有限责任公司 | 基于多摄像机融合的安检门人脸识别和人脸自动建库算法 |
US20180285683A1 (en) * | 2017-03-30 | 2018-10-04 | Beihang University | Methods and apparatus for image salient object detection |
CN108764034A (zh) * | 2018-04-18 | 2018-11-06 | 浙江零跑科技有限公司 | 一种基于驾驶室近红外相机的分神驾驶行为预警方法 |
CN109002757A (zh) * | 2018-06-04 | 2018-12-14 | 上海商汤智能科技有限公司 | 驾驶管理方法和系统、车载智能系统、电子设备、介质 |
CN109409222A (zh) * | 2018-09-20 | 2019-03-01 | 中国地质大学(武汉) | 一种基于移动端的多视角人脸表情识别方法 |
CN109740477A (zh) * | 2018-12-26 | 2019-05-10 | 联创汽车电子有限公司 | 驾驶员疲劳检测系统及其疲劳检测方法 |
CN109766848A (zh) * | 2019-01-15 | 2019-05-17 | 四川大学 | 一种基于监控视频的行人视力状况调查分析方法 |
CN110728241A (zh) * | 2019-10-14 | 2020-01-24 | 湖南大学 | 一种基于深度学习多特征融合的驾驶员疲劳检测方法 |
CN112528843A (zh) * | 2020-12-07 | 2021-03-19 | 湖南警察学院 | 一种融合面部特征的机动车驾驶人疲劳检测方法 |
CN113033503A (zh) * | 2021-05-14 | 2021-06-25 | 哈尔滨理工大学 | 一种多特征融合的危险驾驶行为检测方法及系统 |
CN113158850A (zh) * | 2021-04-07 | 2021-07-23 | 大连海事大学 | 基于深度学习的船舶驾驶员疲劳检测方法和系统 |
CN113239794A (zh) * | 2021-05-11 | 2021-08-10 | 西北工业大学 | 一种面向在线学习的学习状态自动识别方法 |
CN113378771A (zh) * | 2021-06-28 | 2021-09-10 | 济南大学 | 驾驶员状态确定方法、装置、驾驶员监控系统、车辆 |
CN113989788A (zh) * | 2021-11-05 | 2022-01-28 | 齐鲁工业大学 | 一种基于深度学习和多指标融合的疲劳检测方法 |
CN114332833A (zh) * | 2021-12-31 | 2022-04-12 | 上海智楹机器人科技有限公司 | 一种基于人脸关键点二值可微分疲劳检测方法 |
CN115588188A (zh) * | 2021-06-23 | 2023-01-10 | 海信集团控股股份有限公司 | 一种机车、车载终端和驾驶员行为识别方法 |
CN116188349A (zh) * | 2021-11-26 | 2023-05-30 | 北京三星通信技术研究有限公司 | 图像处理方法、装置、电子设备及存储介质 |
-
2023
- 2023-09-14 CN CN202311184346.7A patent/CN116912808B/zh active Active
Patent Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180285683A1 (en) * | 2017-03-30 | 2018-10-04 | Beihang University | Methods and apparatus for image salient object detection |
CN107145842A (zh) * | 2017-04-19 | 2017-09-08 | 西安电子科技大学 | 结合lbp特征图与卷积神经网络的人脸识别方法 |
CN107038422A (zh) * | 2017-04-20 | 2017-08-11 | 杭州电子科技大学 | 基于空间几何约束深度学习的疲劳状态识别方法 |
CN108256459A (zh) * | 2018-01-10 | 2018-07-06 | 北京博睿视科技有限责任公司 | 基于多摄像机融合的安检门人脸识别和人脸自动建库算法 |
CN108764034A (zh) * | 2018-04-18 | 2018-11-06 | 浙江零跑科技有限公司 | 一种基于驾驶室近红外相机的分神驾驶行为预警方法 |
CN109002757A (zh) * | 2018-06-04 | 2018-12-14 | 上海商汤智能科技有限公司 | 驾驶管理方法和系统、车载智能系统、电子设备、介质 |
CN109409222A (zh) * | 2018-09-20 | 2019-03-01 | 中国地质大学(武汉) | 一种基于移动端的多视角人脸表情识别方法 |
CN109740477A (zh) * | 2018-12-26 | 2019-05-10 | 联创汽车电子有限公司 | 驾驶员疲劳检测系统及其疲劳检测方法 |
CN109766848A (zh) * | 2019-01-15 | 2019-05-17 | 四川大学 | 一种基于监控视频的行人视力状况调查分析方法 |
CN110728241A (zh) * | 2019-10-14 | 2020-01-24 | 湖南大学 | 一种基于深度学习多特征融合的驾驶员疲劳检测方法 |
CN112528843A (zh) * | 2020-12-07 | 2021-03-19 | 湖南警察学院 | 一种融合面部特征的机动车驾驶人疲劳检测方法 |
CN113158850A (zh) * | 2021-04-07 | 2021-07-23 | 大连海事大学 | 基于深度学习的船舶驾驶员疲劳检测方法和系统 |
CN113239794A (zh) * | 2021-05-11 | 2021-08-10 | 西北工业大学 | 一种面向在线学习的学习状态自动识别方法 |
CN113033503A (zh) * | 2021-05-14 | 2021-06-25 | 哈尔滨理工大学 | 一种多特征融合的危险驾驶行为检测方法及系统 |
CN115588188A (zh) * | 2021-06-23 | 2023-01-10 | 海信集团控股股份有限公司 | 一种机车、车载终端和驾驶员行为识别方法 |
CN113378771A (zh) * | 2021-06-28 | 2021-09-10 | 济南大学 | 驾驶员状态确定方法、装置、驾驶员监控系统、车辆 |
CN113989788A (zh) * | 2021-11-05 | 2022-01-28 | 齐鲁工业大学 | 一种基于深度学习和多指标融合的疲劳检测方法 |
CN116188349A (zh) * | 2021-11-26 | 2023-05-30 | 北京三星通信技术研究有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN114332833A (zh) * | 2021-12-31 | 2022-04-12 | 上海智楹机器人科技有限公司 | 一种基于人脸关键点二值可微分疲劳检测方法 |
Non-Patent Citations (3)
Title |
---|
SHOUCHENG WANG 等: "Synergetic application of an E-tongue, E-nose and E-eye combined with CNN models and an attention mechanism to detect the origin of black pepper", 《SENSORS AND ACTUATORS: A. PHYSICAL》, vol. 357, pages 1 - 15 * |
申天啸 等: "基于人类视觉皮层双通 道模型的驾驶员眼动行为识别", 《智能系统学报》, vol. 17, no. 01, pages 41 - 49 * |
陈藩 等: "基于卷积神经网络的学生课 堂疲劳检测算法", 《传感器与微系统》, vol. 41, no. 06, pages 153 * |
Also Published As
Publication number | Publication date |
---|---|
CN116912808B (zh) | 2023-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11436739B2 (en) | Method, apparatus, and storage medium for processing video image | |
US20230394671A1 (en) | Image segmentation method and apparatus, and device, and storage medium | |
WO2020098708A1 (zh) | 车道线的检测及驾驶控制方法、装置和电子设备 | |
WO2020228405A1 (zh) | 图像处理方法、装置及电子设备 | |
CN112733820B (zh) | 障碍物信息生成方法、装置、电子设备和计算机可读介质 | |
EP3951741A2 (en) | Method for acquiring traffic state, relevant apparatus, roadside device and cloud control platform | |
CN112232311B (zh) | 人脸跟踪方法、装置及电子设备 | |
CN114898177B (zh) | 缺陷图像生成方法、模型训练方法、设备、介质及产品 | |
US20230245429A1 (en) | Method and apparatus for training lane line detection model, electronic device and storage medium | |
CN110472673B (zh) | 参数调整方法、眼底图像处理方法、装置、介质及设备 | |
CN113673446A (zh) | 图像识别方法、装置、电子设备和计算机可读介质 | |
CN116912808B (zh) | 架桥机控制方法、电子设备和计算机可读介质 | |
WO2023065895A1 (zh) | 文本识别方法、装置、可读介质及电子设备 | |
CN114419322B (zh) | 一种图像实例分割方法、装置、电子设备及存储介质 | |
CN110781809A (zh) | 基于注册特征更新的识别方法、装置及电子设备 | |
CN111680754B (zh) | 图像分类方法、装置、电子设备及计算机可读存储介质 | |
CN114863124A (zh) | 模型训练方法、息肉检测方法、相应装置、介质及设备 | |
CN113642510A (zh) | 目标检测方法、装置、设备和计算机可读介质 | |
CN114120423A (zh) | 人脸图像检测方法、装置、电子设备和计算机可读介质 | |
CN116704593A (zh) | 预测模型训练方法、装置、电子设备和计算机可读介质 | |
CN116434287A (zh) | 一种人脸图像检测方法、装置、电子设备及存储介质 | |
CN112070022A (zh) | 人脸图像识别方法、装置、电子设备和计算机可读介质 | |
CN111626990A (zh) | 目标检测框处理方法、装置及电子设备 | |
WO2023207360A1 (zh) | 图像分割方法、装置、电子设备及存储介质 | |
CN117095006B (zh) | 图像美学评估方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |