CN117079255B - 一种基于人脸识别和语音交互的疲劳驾驶检测方法 - Google Patents
一种基于人脸识别和语音交互的疲劳驾驶检测方法 Download PDFInfo
- Publication number
- CN117079255B CN117079255B CN202311339043.8A CN202311339043A CN117079255B CN 117079255 B CN117079255 B CN 117079255B CN 202311339043 A CN202311339043 A CN 202311339043A CN 117079255 B CN117079255 B CN 117079255B
- Authority
- CN
- China
- Prior art keywords
- data
- video
- audio
- fatigue driving
- data set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 59
- 230000003993 interaction Effects 0.000 title claims abstract description 32
- 230000009467 reduction Effects 0.000 claims abstract description 52
- 230000004927 fusion Effects 0.000 claims abstract description 43
- 238000012549 training Methods 0.000 claims abstract description 17
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 206010016256 fatigue Diseases 0.000 claims description 86
- 238000000034 method Methods 0.000 claims description 16
- 230000014759 maintenance of location Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000000873 masking effect Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 3
- 238000005070 sampling Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 238000004321 preservation Methods 0.000 description 4
- 206010039203 Road traffic accident Diseases 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241001282135 Poromitra oscitans Species 0.000 description 1
- 206010048232 Yawning Diseases 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 230000000193 eyeblink Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Processing (AREA)
Abstract
本发明涉及数据处理领域,更具体地,本发明涉及一种基于人脸识别和语音交互的疲劳驾驶检测方法,包括:获取驾驶人的历史视频数据并进行预处理获得视频采集数据集;根据自编码网络,对所述视频采集数据集进行数据降维,得到有效性数据集;获取同一时刻所述有效性数据集中所有数据的均值以完成数据融合,得到历史音视频融合数据集;基于所述历史音视频融合数据集训练预设的疲劳驾驶网络模型;通过对驾驶员音视频数据进行降维,使得降维后的数据包含更多的疲劳驾驶特征,在音视频数据融合时,选择高质量样本数据进行融合,提高了对驾驶人员疲劳检测的准确率和鲁棒性。
Description
技术领域
本发明一般地涉及数据处理领域。更具体地,本发明涉及一种基于人脸识别和语音交互的疲劳驾驶检测方法。
背景技术
许多交通事故都与驾驶员的疲劳有关,通过疲劳驾驶检测,可以显著降低由于驾驶员疲劳导致的交通事故,从而提高道路安全。
现有基于人脸识别和语音交互的疲劳驾驶检测方法,是通过对人脸识别进行疲劳特征提取和语音数据分别进行疲劳特征提取,得到分别对应的疲劳检测结果,当疲劳检测结果中存在疲劳状态时,人脸疲劳特征和语音数据提取中,冗余信息较多,不利于对人的疲劳状态进行检测,可能会存在误检,人脸疲劳特征提取不完备,在对人的疲劳状态进行检测,则可能存在漏检,因此需要一种基于人脸识别和语音交互的疲劳驾驶检测方法。
发明内容
为了通过自编码网络降维,提供对驾驶人进行疲劳检测时具有更全面的信息,提高疲劳驾驶检测精度的依据,提醒驾驶人员在驾驶中,处于疲劳状态时提供语音建议,本申请提供一种基于人脸识别和语音交互的疲劳驾驶检测方法。
在第一方面中,一种基于人脸识别和语音交互的疲劳驾驶检测方法,包括:获取驾驶人的历史视频数据并进行预处理获得视频采集数据集,所述视频采集数据集包括:同步采集的音频数据集和人脸关键点数据集;根据自编码网络,对所述视频采集数据集进行数据降维,得到有效性数据集;获取同一时刻所述有效性数据集中所有数据的均值,完成数据融合,得到历史音视频融合数据集;基于所述历史音视频融合数据集训练预设的疲劳驾驶网络模型,得到疲劳驾驶预测模型;实时采集目标驾驶人的音视频融合数据并输入至所述疲劳驾驶预测模型,生成疲劳驾驶检测结果。
上述实施例的一种基于人脸识别和语音交互的疲劳驾驶检测方法,通过将人脸关键点数据和音频数据通过自编码网络进行降维,以使同一时刻两个数据中的有效型数据求均值进行数据融合,从而更高效的提取人脸关键点数据和音频数据,以使历史音视频融合数据集是具有疲劳状态特征的数据,减少误检、漏检的情况。
在一个实施例中,获取驾驶人的历史视频数据并进行预处理包括:提取所述历史视频数据中的单帧图像;使用预设的人脸识别模型,对所述单帧图像进行人脸识别获得所述历史视频数据中每一帧图像的人脸区域掩膜;将所述人脸区域掩膜与对应的单帧图像进行掩膜处理,得到各单帧图像中仅含人脸的区域;将所有单帧图像中仅含人脸的区域作为人脸关键点数据集。
上述实施例的一种基于人脸识别和语音交互的疲劳驾驶检测方法,视频帧图像人脸关键点坐标和对应采样长度的音频数据融合为一种数据,使得在对驾驶人进行疲劳检测时具有更全面的信息,提高疲劳驾驶检测精度,同时对人脸关键点坐标进行标准化处理,防止视频中不同位置的人脸对后续分析产生干扰。
在一个实施例中,所述根据自编码网络,对所述视频采集数据集进行数据降维,得到有效性数据集包括:将视频数据帧对应的人脸关键点数据,使用自编码网络进行数据降维,各关键点对应的保留系数满足关系式:
;
其中,i表示第i个视频帧图像数据,j表示第i帧里第j个视频对应的人脸关键点,表示当前第i个视频帧图像数据降维后的数据对应第一主成分方向与标准人脸关键点数
据降维后的数据对应第一主成分方向之间的皮尔逊相关系数,表示关键点对应的保留系
数,表示当前第i个视频帧图像数据中第j个关键点坐标数据在降维后的数据。
上述实施例的一种基于人脸识别和语音交互的疲劳驾驶检测方法,通过使用皮尔逊相关系数,确保标准人脸关键点数据降维后的数据对应第一主成分方向之间不会呈负相关,由于皮尔逊相关系数值越大,则表示两者之间越近似,则表示当前帧的视频采集质量较高。
在一个实施例中,对所述视频采集数据集进行数据降维时,损失函数计算公式为:
;
其中,表示损失函数的值,表示为正常均方差损失函数值,j表示对C关键点个
数的遍历,m表示为超参数,表示当前第i个视频帧图像数据中第j个关键点坐标数据在降
维后的数据。
上述实施例的一种基于人脸识别和语音交互的疲劳驾驶检测方法,通过对音视频进行降维,在降维过程中保留具有数据变化的特征,以用于音视频数据融合,提高疲劳检测的准确率。
在一个实施例中,所述历史音视频融合数据集满足关系式:
;
其中,表示融合数据值,表示为当前第i帧视频数据通过视频自编码网络降维
后的数据,其中为当前第i帧视频数据对应音频数据段通过音频自编码网络降维后的数
据,表示当前第i个视频帧图像数据降维后的数据对应第一主成分方向与标准人脸关键
点数据降维后的数据对应第一主成分方向之间的皮尔逊相关系数。
在一个实施例中,所述历史音视频融合数据集训练预设的疲劳驾驶网络模型,得到疲劳驾驶预测模型包括:将历史音视频融合数据集中属于疲劳状态的时间点标记为1,对融合数据中属于正常状态的时间点标记为0,进而对融合数据进行one-hot编码,损失函数采用交叉熵损失函数进行分类网络训练。
在一个实施例中,生成疲劳驾驶检测结果之后,还包括:响应于疲劳驾驶状态检测结果为疲劳,则通过预设的语音交互模型对驾驶人员进行语音提醒,降低疲劳驾驶安全风险。
上述实施例的一种基于人脸识别和语音交互的疲劳驾驶检测方法,根据训练完成的疲劳驾驶网络模型的识别结果,判断当前驾驶员是否需要进行语音提醒,如果当前驾驶员的疲劳驾驶状态检测结果为疲劳,则通过语音交互模型对驾驶人员进行语音提醒,降低疲劳驾驶安全风险。
本申请具有以下效果:
1、本申请通过对驾驶员音视频数据分析,进行降维数据保留,使得降维后的数据包含更多的疲劳驾驶特征,并且在音视频数据融合时,选择高质量样本数据进行融合,提高最终对驾驶人员疲劳检测的准确率和鲁棒性。
2、本申请通过将视频数据中每帧图像中的人脸关键点坐标和其对应的采样长度的音频数据融合为一种数据,使得在对驾驶人进行疲劳检测时具有更全面的信息,提高疲劳驾驶检测精度,其中对人脸关键点坐标进行标准化处理,防止视频中不同位置的人脸对后续分析产生干扰。
附图说明
通过参考附图阅读下文的详细描述,本发明示例性实施方式的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本发明的若干实施方式,并且相同或对应的标号表示相同或对应的部分,其中:
图1是本申请的实施例一种基于人脸识别和语音交互的疲劳驾驶检测方法中步骤S1-S5的方法流程图。
图2是本申请实施例一种基于人脸识别和语音交互的疲劳驾驶检测方法中步骤S10-S13的方法流程图。
图3是本申请实施例一种基于人脸识别和语音交互的疲劳驾驶检测方法中步骤S20-S21的方法流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合附图来详细描述本发明的具体实施方式。
参照图1,一种基于人脸识别和语音交互的疲劳驾驶检测方法包括步骤S1-S5,具体如下:
S1:获取驾驶人的历史视频数据并进行预处理获得视频采集数据集,包括步骤S10-S13:
S10:提取历史视频数据中的单帧图像;
S11:使用预设的人脸识别模型,对单帧图像进行人脸识别获得历史视频数据中每一帧图像的人脸区域掩膜;
S12:将人脸区域掩膜与对应的单帧图像进行掩膜处理,得到各单帧图像中仅含人脸的区域;
S13:将所有单帧图像中仅含人脸的区域作为人脸关键点数据集。
示例性的,如图2所示,该图展示了一种基于人脸识别和语音交互的疲劳驾驶检测方法中步骤S10-S13的方法流程图;视频采集数据可以为RGB(红、绿、蓝)数据或者为灰度数据,其中视频采集帧率本方案选择为30帧每秒的采集数,采样帧率可根据具体实施场景进行调整,30帧每秒为每秒采集30张图像。
音频采集数据的采样率本方案选择为n = 22kHz,采样率可根据具体实施场景进行调整,22kHz表示每秒有22*1000个采样点。
使用VGGFace2预训练模型,进行人脸识别检测,可根据具体实施场景选取其他人脸识别预训练模型进行人脸识别检测,对每一帧中仅含人脸的区域进行人脸关键点检测,得到每一帧中用于驾驶员进行疲劳检测的人脸关键点数据;使用Dlib预训练网络模型进行人脸关键点识别检测,不同人脸识别关键点预训练模型对应的关键点数量有不一样,其中Dlib预训练网络模型能够检测出c = 68个人脸关键点,覆盖面部的主要区域。
S2:根据自编码网络,对视频采集数据集进行数据降维,得到有效性数据集包括步骤S20-S21:
S20:将视频数据帧对应的人脸关键点数据,使用自编码网络进行数据降维,各关键点对应的保留系数的公式为:
;
其中,i表示第i个视频帧图像数据,j表示第i帧里第j个视频对应的人脸关键点,表示当前第i个视频帧图像数据降维后的数据对应第一主成分方向与标准人脸关键点数
据降维后的数据对应第一主成分方向之间的皮尔逊相关系数,表示关键点对应的保留系
数,表示当前第i个视频帧图像数据中第j个关键点坐标数据在降维后的数据,标准人脸
关键点数据降维后的数据对应第一主成分方向之间的皮尔逊相关系数,皮尔逊相关系数值
越大,则表示两者之间越近似,则表示当前帧的视频采集质量较高。
S21:对视频采集数据集进行数据降维时,损失函数计算公式为:
;
其中,表示损失函数的值,表示为正常均方差损失函数值,j表示对C关键点个
数的遍历,m表示为超参数,表示当前第i个视频帧图像数据中第j个关键点坐标数据在降
维后的数据。
示例性的,如图3所示,该图展示了一种基于人脸识别和语音交互的疲劳驾驶检测方法中步骤S20-S21的方法流程图;视频帧图像对应的人脸关键点所降维后的数据,与标准人脸关键点坐标数据所降维后的数据之间仍具有较大差异时,两者对应的第一主成方向却差异不大,表示成像质量稳定,且此时如果两者降维后的数据具有较大差异,则右表示存在了一定的面部局部变化,进而在进行降维时,该帧的人脸关键点降维后要保留的信息更多。
若直接对音视频数据进行降维,使得降维后的音视频数据保持同一数据长度,则会导致降维数据中可能保留较多冗余信息数据,而在进行疲劳检测时,往往是依据驾驶人的眼睛眨眼,打哈欠,以及声音强度和语速等信息进行有效的疲劳检测,提取有效性数据后,在音视频数据降维中,尽可能多的保留具有数据变化的特征,以用于音视频数据融合,提高疲劳检测的准确率;
降维后数据特征中,保留相对全局整体的数据变化特征,本实施例选择对视频数据求取各个人脸关键点坐标对应的众数作为标准,其中选用众数是因为大部分时间下人在开车时,保持目视前方且座位姿态变化不大。
S3:获取同一时刻有效性数据集中所有数据的均值,完成数据融合,得到历史音视频融合数据集包括:
历史音视频融合数据集满足关系式:
;
其中,表示融合数据值,表示为当前第i帧视频数据通过视频自编码网络降维
后的数据,其中为当前第i帧视频数据对应音频数据段通过音频自编码网络降维后的数
据,表示当前第i个视频帧图像数据降维后的数据对应第一主成分方向与标准人脸关键
点数据降维后的数据对应第一主成分方向之间的皮尔逊相关系数;
通过人脸关键点数据和音频数据的时序数据降维后,进行间隔分段,使视频采集数据集和音频数据长短一致,将每一段音视频数据中的视频帧图像作为音视频融合的图像;
的值为近似数1时,当前人脸关键点数采集稳定,则成像质量好,对音视频数据
进行平均加权融合;
的值为近似数0时,当人脸关键点数采集不稳定,则采集质量不佳,此时音频数
据进行驾驶员疲劳检测效果更佳。
示例性的,音频数据具有0值点,所以根据音频采样值即可直接获取音频数据的变化量,已得到有效的音频数据,根据不同帧的图像与标准人脸关键点坐标点之间的差异,可以得到人脸关键点的变换特征,以用于通过自编码降维时,对人脸关键点降维数据进行有效调整,使得降维后数据具有更多能用于疲劳检测的特征。
其中,自编码网络是一种无监督的神经网络模型,其损失函数为均方差损失数值,为了在自编码网络具有高保留系数的人脸关键点降维数据进行更多信息的保留,则在计算具有高保留系数的人脸关键点降维数据时,应当具有更低值的损失函数值,对与计算具有低保留系数的人脸关键点降维数据时,应当具有更高值的损失函数值,从而使得当前帧所有人脸关键点降维数据的降维数据中蕴含更多的高保留系数的人脸关键点降维数据后的信息。
S4:基于历史音视频融合数据集训练预设的疲劳驾驶网络模型,得到疲劳驾驶预测模型包括:将历史音视频融合数据集中属于疲劳状态的时间点标记为1,对融合数据中属于正常状态的时间点标记为0,进而对融合数据进行one-hot编码,损失函数采用交叉熵损失函数进行分类网络训练。
示例性的,本实施例采用的疲劳驾驶网络模型为encoder-decoder网络模型,对融合数据中属于疲劳状态的时间点标记为1,对融合数据中属于正常状态的时间点标记为0,进而对融合数据进行one-hot编码,损失函数采用交叉熵损失函数进行分类网络训练。
其中采集数据通过具有相关经验的人员进行音视频数据采集,采集过程要求能够采集的驾驶员人脸信息和音频信息,并将采集的音视频数据按照1:4进行验证集和训练集划分,其中1:4的划分,可根据具体实施场景进行调整。
S5:实时采集目标驾驶人的音视频融合数据集并输入至疲劳驾驶预测模型,生成疲劳驾驶检测结果包括:响应于疲劳驾驶状态检测结果为疲劳,则通过预设的语音交互模型对驾驶人员进行语音提醒,降低疲劳驾驶安全风险。
示例性的,语音交互模型可自设定交互语句比如:您需要歇息一下了,调节音量、
语速。语音交互模型可根据具体实施场景进行启动交互,选择交互方式,比如汽车运行时长
等,或者当小于等于阈值s时,进行照明提醒,比如前方较黑,是否开灯,等自设语句。
在本说明书的描述中,“多个”、“若干个”的含义是至少两个,例如两个,三个或更多个等,除非另有明确具体的限定。
虽然本说明书已经示出和描述了本发明的多个实施例,但对于本领域技术人员显而易见的是,这样的实施例只是以示例的方式提供的。本领域技术人员会在不偏离本发明思想和精神的情况下想到许多更改、改变和替代的方式。应当理解的是在实践本发明的过程中,可以采用对本文所描述的本发明实施例的各种替代方案。
Claims (3)
1.一种基于人脸识别和语音交互的疲劳驾驶检测方法,其特征在于,包括:
S1,获取驾驶人的历史视频数据并进行预处理获得视频采集数据集,所述视频采集数据集包括:同步采集的音频数据集和人脸关键点数据集,包括:
所述获取驾驶人的历史视频数据并进行预处理包括:
提取所述历史视频数据中的单帧图像;
使用预设的人脸识别模型,对所述单帧图像进行人脸识别获得所述历史视频数据中每一帧图像的人脸区域掩膜;
将所述人脸区域掩膜与对应的单帧图像进行掩膜处理,得到各单帧图像中仅含人脸的区域;
将所有单帧图像中仅含人脸的区域作为人脸关键点数据集;
S2,根据自编码网络,对所述视频采集数据集进行数据降维,得到有效性数据集,包括:
将视频数据帧对应的人脸关键点数据,使用自编码网络进行数据降维,各关键点对应的保留系数满足关系式:
;
其中,i表示第i个视频帧图像数据,j表示第i帧里第j个视频对应的人脸关键点,表示当前第i个视频帧图像数据降维后的数据对应第一主成分方向与标准人脸关键点数据降维后的数据对应第一主成分方向之间的皮尔逊相关系数,/>表示关键点对应的保留系数,/>表示当前第i个视频帧图像数据中第j个关键点坐标数据在降维后的数据;
对所述视频采集数据集进行数据降维时,损失函数计算公式为:
;
其中,表示损失函数的值,/>表示为正常均方差损失函数值,j表示对C关键点个数的遍历,m表示为超参数,/>表示当前第i个视频帧图像数据中第j个关键点坐标数据在降维后的数据;
S3,获取同一时刻所述有效性数据集中所有数据的均值以完成数据融合,得到历史音视频融合数据集,包括:
所述历史音视频融合数据集满足关系式:
;
其中,表示融合数据值,/>表示为当前第i帧视频数据通过视频自编码网络降维后的数据,其中/>为当前第i帧视频数据对应音频数据段通过音频自编码网络降维后的数据,/>表示当前第i个视频帧图像数据降维后的数据对应第一主成分方向与标准人脸关键点数据降维后的数据对应第一主成分方向之间的皮尔逊相关系数;
S4,基于所述历史音视频融合数据集训练预设的疲劳驾驶网络模型,得到疲劳驾驶预测模型;
S5,实时采集目标驾驶人的音视频融合数据并输入至所述疲劳驾驶预测模型,生成疲劳驾驶检测结果。
2.根据权利要求1所述一种基于人脸识别和语音交互的疲劳驾驶检测方法,其特征在于,所述历史音视频融合数据集训练预设的疲劳驾驶网络模型,得到疲劳驾驶预测模型包括:
将历史音视频融合数据集中属于疲劳状态的时间点标记为1,对融合数据中属于正常状态的时间点标记为0,进而对融合数据进行one-hot编码,损失函数采用交叉熵损失函数进行分类网络训练。
3.根据权利要求1所述一种基于人脸识别和语音交互的疲劳驾驶检测方法,其特征在于,生成疲劳驾驶检测结果,还包括:
响应于疲劳驾驶状态检测结果为疲劳,则通过预设的语音交互模型对驾驶人员进行语音提醒,降低疲劳驾驶安全风险。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311339043.8A CN117079255B (zh) | 2023-10-17 | 2023-10-17 | 一种基于人脸识别和语音交互的疲劳驾驶检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311339043.8A CN117079255B (zh) | 2023-10-17 | 2023-10-17 | 一种基于人脸识别和语音交互的疲劳驾驶检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117079255A CN117079255A (zh) | 2023-11-17 |
CN117079255B true CN117079255B (zh) | 2024-01-05 |
Family
ID=88718034
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311339043.8A Active CN117079255B (zh) | 2023-10-17 | 2023-10-17 | 一种基于人脸识别和语音交互的疲劳驾驶检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117079255B (zh) |
Citations (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102867394A (zh) * | 2012-10-11 | 2013-01-09 | 南京艾酷派物联网有限公司 | 驾驶员疲劳检测预警装置 |
CN106485191A (zh) * | 2015-09-02 | 2017-03-08 | 腾讯科技(深圳)有限公司 | 一种驾驶员疲劳状态检测方法及系统 |
CN108491858A (zh) * | 2018-02-11 | 2018-09-04 | 南京邮电大学 | 基于卷积神经网络的疲劳驾驶检测方法及系统 |
CN109815937A (zh) * | 2019-02-25 | 2019-05-28 | 湖北亿咖通科技有限公司 | 疲劳状态智能识别方法、装置及电子设备 |
CN109886241A (zh) * | 2019-03-05 | 2019-06-14 | 天津工业大学 | 基于长短期记忆网络的驾驶员疲劳检测 |
CN110859609A (zh) * | 2019-11-26 | 2020-03-06 | 郑州迈拓信息技术有限公司 | 基于语音分析的多特征融合疲劳驾驶检测方法 |
CN111476114A (zh) * | 2020-03-20 | 2020-07-31 | 深圳追一科技有限公司 | 疲劳检测方法、装置、终端设备及存储介质 |
CN111488855A (zh) * | 2020-04-24 | 2020-08-04 | 上海眼控科技股份有限公司 | 疲劳驾驶检测方法、装置、计算机设备和存储介质 |
CN112101103A (zh) * | 2020-08-07 | 2020-12-18 | 东南大学 | 一种基于深度集成网络的视频驾驶员疲劳检测方法 |
CN112131981A (zh) * | 2020-09-10 | 2020-12-25 | 山东大学 | 一种基于骨架数据行为识别的司机疲劳检测方法 |
JP2021034035A (ja) * | 2019-08-28 | 2021-03-01 | 潘文橋 | 人面識別に基づいた智能化車載疲労検出システム、方法および装置 |
CN112617835A (zh) * | 2020-12-17 | 2021-04-09 | 南京邮电大学 | 一种基于迁移学习的多特征融合疲劳检测方法 |
CN113642522A (zh) * | 2021-09-01 | 2021-11-12 | 中国科学院自动化研究所 | 基于音视频的疲劳状态检测方法和装置 |
CN115331204A (zh) * | 2021-05-11 | 2022-11-11 | 上海擎感智能科技有限公司 | 疲劳驾驶识别方法、系统、电子设备及存储介质 |
CN115393830A (zh) * | 2022-08-26 | 2022-11-25 | 南通大学 | 一种基于深度学习与面部特征的疲劳驾驶检测方法 |
WO2023036015A1 (zh) * | 2021-09-07 | 2023-03-16 | 广西电网有限责任公司贺州供电局 | 一种基于多维身体状态感知的疲劳检测方法及系统 |
CN115861981A (zh) * | 2022-11-25 | 2023-03-28 | 山东大学 | 基于视频姿态不变性的驾驶员疲劳行为检测方法及系统 |
CN115871679A (zh) * | 2022-12-30 | 2023-03-31 | 北京纵目安驰智能科技有限公司 | 驾驶员疲劳检测方法、装置、电子设备及介质 |
CN116189155A (zh) * | 2022-12-14 | 2023-05-30 | 山东大学 | 基于深度特征和图注意力机制的疲劳驾驶检测方法及系统 |
CN116386277A (zh) * | 2022-11-28 | 2023-07-04 | 中国电信股份有限公司 | 疲劳驾驶检测方法、装置、电子设备及介质 |
CN116386116A (zh) * | 2023-04-07 | 2023-07-04 | 南京云昱信息科技有限公司 | 一种基于定位与视频的高速公路疲劳驾驶检测与预警方法 |
CN116824554A (zh) * | 2023-05-23 | 2023-09-29 | 重庆科技学院 | 基于主观评价的多源信息融合驾驶安全评估方法 |
CN116844080A (zh) * | 2023-06-05 | 2023-10-03 | 中国民航科学技术研究院 | 疲劳程度多模态融合检测方法、电子设备及存储介质 |
CN116842475A (zh) * | 2023-06-30 | 2023-10-03 | 东航技术应用研发中心有限公司 | 基于多模态信息融合的疲劳驾驶检测方法 |
-
2023
- 2023-10-17 CN CN202311339043.8A patent/CN117079255B/zh active Active
Patent Citations (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102867394A (zh) * | 2012-10-11 | 2013-01-09 | 南京艾酷派物联网有限公司 | 驾驶员疲劳检测预警装置 |
CN106485191A (zh) * | 2015-09-02 | 2017-03-08 | 腾讯科技(深圳)有限公司 | 一种驾驶员疲劳状态检测方法及系统 |
CN108491858A (zh) * | 2018-02-11 | 2018-09-04 | 南京邮电大学 | 基于卷积神经网络的疲劳驾驶检测方法及系统 |
CN109815937A (zh) * | 2019-02-25 | 2019-05-28 | 湖北亿咖通科技有限公司 | 疲劳状态智能识别方法、装置及电子设备 |
CN109886241A (zh) * | 2019-03-05 | 2019-06-14 | 天津工业大学 | 基于长短期记忆网络的驾驶员疲劳检测 |
JP2021034035A (ja) * | 2019-08-28 | 2021-03-01 | 潘文橋 | 人面識別に基づいた智能化車載疲労検出システム、方法および装置 |
CN110859609A (zh) * | 2019-11-26 | 2020-03-06 | 郑州迈拓信息技术有限公司 | 基于语音分析的多特征融合疲劳驾驶检测方法 |
CN111476114A (zh) * | 2020-03-20 | 2020-07-31 | 深圳追一科技有限公司 | 疲劳检测方法、装置、终端设备及存储介质 |
CN111488855A (zh) * | 2020-04-24 | 2020-08-04 | 上海眼控科技股份有限公司 | 疲劳驾驶检测方法、装置、计算机设备和存储介质 |
CN112101103A (zh) * | 2020-08-07 | 2020-12-18 | 东南大学 | 一种基于深度集成网络的视频驾驶员疲劳检测方法 |
CN112131981A (zh) * | 2020-09-10 | 2020-12-25 | 山东大学 | 一种基于骨架数据行为识别的司机疲劳检测方法 |
CN112617835A (zh) * | 2020-12-17 | 2021-04-09 | 南京邮电大学 | 一种基于迁移学习的多特征融合疲劳检测方法 |
CN115331204A (zh) * | 2021-05-11 | 2022-11-11 | 上海擎感智能科技有限公司 | 疲劳驾驶识别方法、系统、电子设备及存储介质 |
CN113642522A (zh) * | 2021-09-01 | 2021-11-12 | 中国科学院自动化研究所 | 基于音视频的疲劳状态检测方法和装置 |
WO2023036015A1 (zh) * | 2021-09-07 | 2023-03-16 | 广西电网有限责任公司贺州供电局 | 一种基于多维身体状态感知的疲劳检测方法及系统 |
CN115393830A (zh) * | 2022-08-26 | 2022-11-25 | 南通大学 | 一种基于深度学习与面部特征的疲劳驾驶检测方法 |
CN115861981A (zh) * | 2022-11-25 | 2023-03-28 | 山东大学 | 基于视频姿态不变性的驾驶员疲劳行为检测方法及系统 |
CN116386277A (zh) * | 2022-11-28 | 2023-07-04 | 中国电信股份有限公司 | 疲劳驾驶检测方法、装置、电子设备及介质 |
CN116189155A (zh) * | 2022-12-14 | 2023-05-30 | 山东大学 | 基于深度特征和图注意力机制的疲劳驾驶检测方法及系统 |
CN115871679A (zh) * | 2022-12-30 | 2023-03-31 | 北京纵目安驰智能科技有限公司 | 驾驶员疲劳检测方法、装置、电子设备及介质 |
CN116386116A (zh) * | 2023-04-07 | 2023-07-04 | 南京云昱信息科技有限公司 | 一种基于定位与视频的高速公路疲劳驾驶检测与预警方法 |
CN116824554A (zh) * | 2023-05-23 | 2023-09-29 | 重庆科技学院 | 基于主观评价的多源信息融合驾驶安全评估方法 |
CN116844080A (zh) * | 2023-06-05 | 2023-10-03 | 中国民航科学技术研究院 | 疲劳程度多模态融合检测方法、电子设备及存储介质 |
CN116842475A (zh) * | 2023-06-30 | 2023-10-03 | 东航技术应用研发中心有限公司 | 基于多模态信息融合的疲劳驾驶检测方法 |
Non-Patent Citations (7)
Title |
---|
Dongmei Zhou等.Drivers' Comprehensive Emotion Recognition Based on HAM.《sensors》.2023,全文. * |
Driver Emotion and Fatigue State Detection Based on Time Series Fusion;Yucheng Shang等;《electronics》;全文 * |
一种应用语音多特征检测驾驶疲劳的方法;李响;谭南林;李国正;郭然;;仪器仪表学报(第10期);全文 * |
基于Android系统的司机驾驶安全监测系统的实现;汪旭;陈仁文;黄斌;;电子测量技术(第08期);全文 * |
基于SVM的疲劳驾驶人脸图像特征检测算法;刘梦佳;赵建国;;半导体光电(第02期);全文 * |
基于Zernike矩的人眼定位与状态识别;李响;谭南林;李国正;张驰;;电子测量与仪器学报(第03期);全文 * |
基于深度学习的疲劳驾驶检测方法研究与实现;张曼曼;《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN117079255A (zh) | 2023-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108446678B (zh) | 一种基于骨骼特征的危险驾驶行为识别方法 | |
CN111898523A (zh) | 一种基于迁移学习的遥感图像特种车辆目标检测方法 | |
CN109948476B (zh) | 一种基于计算机视觉的人脸皮肤检测系统及其实现方法 | |
CN111553214B (zh) | 一种驾驶员吸烟行为检测方法及系统 | |
CN110598560A (zh) | 基于神经网络增强的夜间监控识别方法和系统 | |
CN111666845B (zh) | 基于关键帧采样的小样本深度学习多模态手语识别方法 | |
CN112906481A (zh) | 一种基于无人机实现森林火情检测的方法 | |
CN110633671A (zh) | 基于深度图像的公交车客流实时统计方法 | |
CN111507426A (zh) | 基于视觉融合特征的无参考图像质量分级评价方法及装置 | |
Monwar et al. | Pain recognition using artificial neural network | |
CN114170580A (zh) | 一种面向高速公路的异常事件检测方法 | |
CN112528939A (zh) | 一种人脸图像的质量评价方法及装置 | |
CN115375991A (zh) | 一种强/弱光照和雾环境自适应目标检测方法 | |
CN114220158A (zh) | 基于深度学习的疲劳驾驶检测方法 | |
CN101320477A (zh) | 一种人体跟踪方法及其设备 | |
CN117079255B (zh) | 一种基于人脸识别和语音交互的疲劳驾驶检测方法 | |
CN111582278B (zh) | 人像分割方法、装置及电子设备 | |
CN112488165A (zh) | 一种基于深度学习模型的红外行人识别方法及系统 | |
CN108960181B (zh) | 基于多尺度分块lbp和隐马尔科夫模型的黑烟车检测方法 | |
CN108985197B (zh) | 基于多算法融合的出租车驾驶员吸烟行为的自动检测方法 | |
CN113177552B (zh) | 一种基于深度学习的车牌识别方法 | |
CN112818877A (zh) | 一种识别头盔佩戴的方法及装置 | |
CN113743388B (zh) | 一种面部au关键点检测的方法、装置和电子设备 | |
CN115798019B (zh) | 基于计算机视觉的实训驾驶平台智能预警方法 | |
CN109886213B (zh) | 疲劳状态判断方法、电子设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |