CN114863636A - 一种轨道车辆司机情绪识别算法 - Google Patents
一种轨道车辆司机情绪识别算法 Download PDFInfo
- Publication number
- CN114863636A CN114863636A CN202210305046.9A CN202210305046A CN114863636A CN 114863636 A CN114863636 A CN 114863636A CN 202210305046 A CN202210305046 A CN 202210305046A CN 114863636 A CN114863636 A CN 114863636A
- Authority
- CN
- China
- Prior art keywords
- driver
- image
- rail vehicle
- information
- rail
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 19
- 230000008451 emotion Effects 0.000 claims abstract description 27
- 230000009471 action Effects 0.000 claims abstract description 26
- 230000001815 facial effect Effects 0.000 claims abstract description 17
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 16
- 238000012549 training Methods 0.000 claims abstract description 9
- 230000036651 mood Effects 0.000 claims abstract description 4
- 238000012545 processing Methods 0.000 claims description 21
- 238000000034 method Methods 0.000 claims description 19
- 230000014509 gene expression Effects 0.000 claims description 18
- 230000005236 sound signal Effects 0.000 claims description 17
- 239000013598 vector Substances 0.000 claims description 17
- 239000013589 supplement Substances 0.000 claims description 15
- 230000002996 emotional effect Effects 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 7
- 238000005070 sampling Methods 0.000 claims description 6
- 238000001228 spectrum Methods 0.000 claims description 6
- 230000001502 supplementing effect Effects 0.000 claims description 6
- 230000001360 synchronised effect Effects 0.000 claims description 6
- 230000003993 interaction Effects 0.000 claims description 5
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 claims description 3
- 238000012952 Resampling Methods 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 claims description 3
- 239000008280 blood Substances 0.000 claims description 3
- 210000004369 blood Anatomy 0.000 claims description 3
- 230000036772 blood pressure Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000004891 communication Methods 0.000 claims description 3
- 238000009432 framing Methods 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 claims description 3
- 206010039203 Road traffic accident Diseases 0.000 abstract description 11
- 238000012544 monitoring process Methods 0.000 abstract description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 206010041349 Somnolence Diseases 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009429 distress Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/0202—Child monitoring systems using a transmitter-receiver system carried by the parent and the child
- G08B21/0205—Specific application combined with child monitoring using a transmitter-receiver system
- G08B21/0208—Combination with audio or video communication, e.g. combination with "baby phone" function
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/06—Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Child & Adolescent Psychology (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Emergency Management (AREA)
- Mathematical Physics (AREA)
- Business, Economics & Management (AREA)
- Databases & Information Systems (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electric Propulsion And Braking For Vehicles (AREA)
Abstract
本发明公开了一种轨道车辆司机情绪识别算法,包括如下步骤:S1、建立轨道车辆司机信息数据库;S2、轨道车辆司机上岗后获取目标对象在提供服务期间的数据信息;S3、将采集到的数据信息分别与所述信息数据库作对比;S4、对采集到的数据信息提取出梅尔频域特征,并将所述梅尔频域特征输入完成训练的卷积神经网络;S5、基于完成训练的卷积神经网络通过三维建模系统制作出情绪波动曲线;S6、截取情绪波动曲线未来时段波动点,对比t1和t2的重合度。本发明通过实时监控当轨道车辆司机的面部信息图像、肢体动作信息图像和语音数据,获取轨道车辆司机在工作时段的情绪,并针对不同情绪做出不同的预警,最大幅度的降低轨道车辆交通事故发生概率。
Description
技术领域
本发明涉及轨道车辆司机情绪识别技术领域,具体涉及一种轨道车辆司机情绪识别算法。
背景技术
交通事故的发生有多种原因,一般来说是人的因素、车辆因素、道路和环境因素等,其中人的因素居首位。人的因素中又以轨道车辆司机的因素最为重要,轨道车辆司机的不良情绪是造成交通事故的重要原因。
当受到刺激时一般人都是通过面部、动作、眼神等表现出来。在驾驶车辆行驶过程中,当轨道车辆司机心情愉快、满意时能感到心情舒畅、心理舒适,对事物的观察和判断具有积极的促进作用,常常表现出感受力强,勤于观察,反应迅速,判断准确,动作敏捷,有利于车辆行驶安全;反之,如果产生忧愁、恐惧、苦恼、愤怒等情绪波动时,则感受力下降、精力分散、懒于观察思考,一但遇到紧急情况和突发事件时,则发生反应迟钝,判断失误等不良行为;
现有技术中只能通过检测轨道车辆当前的速度是否超速,并在超速时加以提醒,但不能解决由于当轨道车辆司机情绪不稳定而增加交通事故发生概率的问题。
发明内容
本发明的目的在于提供一种轨道车辆司机情绪识别算法,通过实时监控当轨道车辆司机的面部信息图像、肢体动作信息图像和语音数据,获取轨道车辆司机在工作时段的情绪,并针对不同情绪做出不同的预警或者报警,最大幅度的降低轨道车辆交通事故发生概率,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:
一种轨道车辆司机情绪识别算法,包括如下步骤:
S1、建立轨道车辆司机信息数据库,所述该信息数据库包括:面部信息数据库、肢体信息数据库以及语音数据库;
S2、轨道车辆司机上岗后获取目标对象在提供服务期间的多张面部信息图像、肢体动作信息图像和语音数据;
S3、将采集到的面部信息图像、肢体动作信息图像和语音数据分别与所述信息数据库作对比,得出司机实时的情绪数据;
S4、对采集到的面部信息图像、肢体动作信息图像和语音数据提取出梅尔频域特征,并将所述梅尔频域特征输入完成训练的卷积神经网络;
S5、基于完成训练的卷积神经网络通过三维建模系统制作出轨道车辆司机在未来一段时间内的情绪波动曲线;
S6、截取情绪波动曲线未来时段波动点,计算该波动点与实际时间的相距时长t1,同时,调取该轨道车辆司机工作时间t2,对比t1和t2的重合度,包括如下情况:
1)t1>t2,则说明该轨道车辆司机在工作时间内不会出现情绪波动;
2)t1=t2,则说明该轨道车辆司机在工作时间内可能出现情绪波动,需持续监控该轨道车辆司机的面部信息图像、肢体动作信息图像和语音数据,并将预警信息发送至轨道交通控制中心,同时建立预警日志;
3)t1<t2,则说明该轨道车辆司机在工作时间内或者已经出现情绪波动,立即发出报警信息,并将信息发送至轨道交通控制中心,通过轨道交通控制中心的管理员与该轨道车辆司机进行实时语音沟通;
优选的,步骤S2中所述的获取目标对象在提供服务期间的语音数据,包括:
检测当前是否开启语音获取权限;
若已开启所述语音获取权限,则在检测到所述车辆的行进速度达到预设的速度阈值时,获取所述司机的语音数据。
优选的,步骤S4所述的对采集到的面部信息图像、肢体动作信息图像和语音数据提取出梅尔频域特征,包括:
1)照预设的采样率对所述语音数据进行重采样,得到采样数据;
2)对所述采样数据按照预设的帧长进行分帧处理,得到单帧的短时信号;
3)对每个所述短时信号进行傅里叶变换得到频域数据,并计算所述频域数据的功率谱;
4)计算所述功率谱在预设的梅尔滤波器中的能量值,并对所述能量值取对数,得到所述梅尔频域特征;
5)将所述梅尔频域特征通过预先训练得到的卷积神经网络,提取出所述面部信息图像、肢体动作信息图像和语音数据的短时域的特征。
优选的,步骤S2中所述的获取目标对象在提供服务期间的多张面部信息图像、肢体动作信息图像和语音数据具体采用信息获取模块,所述信息获取模块包括:
麦克风、音频采集控制器、模数转换器和红外摄像头,所述麦克风用于采集声音信号,并将所述声音信号转换为模拟音频信号,所述音频采集控制器,用于产生多个第一同步时钟信号,所述模数转换器与麦克风连接,所述模数转换器用于将所述模拟音频信号转换为数字音频信号,每个模数转换器均接收所述第一同步时钟信号,所述模数转换器还在所述第一同步时钟信号的作用下将所述模拟音频信号转换为所述数字音频信号的时序同步。
优选的,还包括:
镜头、感光元件、信号处理元件和灯动态补光单元,外部光线通过镜头聚焦在感光元件上,感光元件与信号处理元件电连接,所述信号处理模块输出端输出模拟信号或数字信号,所述灯动态补光单元包括感光芯片,用于检测拍摄画面影像信息并判断画面亮暗程度;ISP图像处理模块,用于接收感光芯片反馈的信号以及进行图像信息处理并输出补光控制信号;PWM控制模块,用于接收ISP图像模块输出的控制信号并输出占空比不同的补光驱动信号;红外补光灯装置,用于接收占空比不同的补光驱动信号并发出亮暗不一的补光。
优选的,获取所述面部信息图像还包括:
1)通过光流法获取各用户视频的视频图像序列中包含微表情的图像帧;
2)根据经验帧数值,在轨道车辆司机信息数据库包含微表情的图像帧中获取与所述经验帧数值相等张数的连续多帧图像,以组成轨道车辆司机对应的微表情序列;
3)调用预先构建的权重计算层计算各用户视频对应的微表情序列中每一帧图像的权重特征向量,以得到轨道车辆司机图像信息每一帧图像的结合权重值的图像特征向量;
4)将轨道车辆司机图像信息中每一帧图像的结合权重值的图像特征向量进行求和,得到所述各用户视频对应的综合图像特征向量;
5)将轨道车辆司机图像信息对应的综合图像特征向量输入至预先训练的卷积神经网络,得到各用户视频对应的微表情识别结果,以组成微表情识别结果集。
优选的,步骤S2中在轨道车辆司机上岗时,还包括对轨道车辆司机进行体检,所述体检包括轨道车辆司机血液酒精含量值、司机血压值。
优选的,所述麦克风还用于轨道交通控制中心与轨道车辆司机交互,具体为:
轨道交通控制中心发出语音问答后,通过麦克风获取司机回答的音频数据;通过语音处理的双门极限点算法,判断出轨道车辆司机回答的开始和结束时间,截取该开始和结束时间内的音频数据作为司机回答的音频基准数据;
使用梅尔倒谱的方式对基准数据进行特征提取,与题库中的答案特征进行相似度判断,若相似度大于阈值,则认为其回答正确,进入语音分析模块,否则回答错误,发出报警。
一种电子设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行轨道车辆司机情绪识别算法的步骤,
综上所述,由于采用了上述技术,本发明的有益效果是:
本发明中,通过实时监控当轨道车辆司机的面部信息图像、肢体动作信息图像和语音数据,获取轨道车辆司机在工作时段的情绪,并针对不同情绪做出不同的预警或者报警,最大幅度的降低轨道车辆交通事故发生概率;
在上述有益效果的基础上,本发明通过采用基于完成训练的卷积神经网络通过三维建模系统制作出轨道车辆司机在未来一段时间内的情绪波动曲线,能计算并截取出情绪波动曲线未来时段波动点,根据情绪波动点的时刻计算与实际时间的相距时长,判定轨道车辆司机在该情绪波动时刻是否在工作,并作出相应的预警,相较于现有技术,进一步达到了预警的效果,并进一步降低轨道车辆交通事故发生概率;
在上述有益效果的基础上,本发明采用轨道交通控制中心与轨道车辆司机交互的方式还能对轨道车辆司机在工作中可能存在的瞌睡,疲劳驾驶进行判定,能准确判断轨道车辆司机在工作中虽然无情绪波动,但是依旧存在瞌睡和疲劳驾驶的情况,再次降低轨道车辆交通事故发生概率。
附图说明
图1为本发明轨道车辆司机情绪识别算法的流程图。
具体实施方式
为使本发明实施方式的目的、技术方案和优点更加清楚,下面将结合本发明实施方式中的附图,对本发明实施方式中的技术方案进行清楚、完整地描述,显然,所描述的实施方式是本发明一部分实施方式,而不是全部的实施方式。基于本发明中的实施方式,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。因此,以下对在附图中提供的本发明的实施方式的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施方式。基于本发明中的实施方式,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。
本发明提供了如图1所示的,一种轨道车辆司机情绪识别算法,一种轨道车辆司机情绪识别算法,包括如下步骤:
S1、建立轨道车辆司机信息数据库,该信息数据库包括:
面部信息数据库、肢体信息数据库以及语音数据库;
S2、轨道车辆司机上岗后获取目标对象在提供服务期间的多张面部信息图像、肢体动作信息图像和语音数据;
进一步的,步骤S2中的获取目标对象在提供服务期间的语音数据,包括:
检测当前是否开启语音获取权限;
若已开启语音获取权限,则在检测到车辆的行进速度达到预设的速度阈值时,获取司机的语音数据;
具体的,步骤S2中的获取目标对象在提供服务期间的多张面部信息图像、肢体动作信息图像和语音数据具体采用信息获取模块,信息获取模块包括:
麦克风、音频采集控制器、模数转换器和红外摄像头,麦克风用于采集声音信号,并将声音信号转换为模拟音频信号,音频采集控制器,用于产生多个第一同步时钟信号,模数转换器与麦克风连接,模数转换器用于将模拟音频信号转换为数字音频信号,每个模数转换器均接收第一同步时钟信号,模数转换器还在第一同步时钟信号的作用下将模拟音频信号转换为数字音频信号的时序同步;
具体的,还包括:
镜头、感光元件、信号处理元件和灯动态补光单元,外部光线通过镜头聚焦在感光元件上,感光元件与信号处理元件电连接,信号处理模块输出端输出模拟信号或数字信号,灯动态补光单元包括感光芯片,用于检测拍摄画面影像信息并判断画面亮暗程度;ISP图像处理模块,用于接收感光芯片反馈的信号以及进行图像信息处理并输出补光控制信号;PWM控制模块,用于接收ISP图像模块输出的控制信号并输出占空比不同的补光驱动信号;红外补光灯装置,用于接收占空比不同的补光驱动信号并发出亮暗不一的补光;
进一步的,获取面部信息图像还包括:
1)通过光流法获取各用户视频的视频图像序列中包含微表情的图像帧;
2)根据经验帧数值,在轨道车辆司机信息数据库包含微表情的图像帧中获取与经验帧数值相等张数的连续多帧图像,以组成轨道车辆司机对应的微表情序列;
3)调用预先构建的权重计算层计算各用户视频对应的微表情序列中每一帧图像的权重特征向量,以得到轨道车辆司机图像信息每一帧图像的结合权重值的图像特征向量;
4)将轨道车辆司机图像信息中每一帧图像的结合权重值的图像特征向量进行求和,得到各用户视频对应的综合图像特征向量;
5)将轨道车辆司机图像信息对应的综合图像特征向量输入至预先训练的卷积神经网络,得到各用户视频对应的微表情识别结果,以组成微表情识别结果集;
S3、将采集到的面部信息图像、肢体动作信息图像和语音数据分别与信息数据库作对比,得出司机实时的情绪数据;
S4、对采集到的面部信息图像、肢体动作信息图像和语音数据提取出梅尔频域特征,并将梅尔频域特征输入完成训练的卷积神经网络;
进一步的,步骤S4的对采集到的面部信息图像、肢体动作信息图像和语音数据提取出梅尔频域特征,包括:
1)照预设的采样率对语音数据进行重采样,得到采样数据;
2)对采样数据按照预设的帧长进行分帧处理,得到单帧的短时信号;
3)对每个短时信号进行傅里叶变换得到频域数据,并计算频域数据的功率谱;
4)计算功率谱在预设的梅尔滤波器中的能量值,并对能量值取对数,得到梅尔频域特征;
5)将梅尔频域特征通过预先训练得到的卷积神经网络,提取出面部信息图像、肢体动作信息图像和语音数据的短时域的特征;
S5、基于完成训练的卷积神经网络通过三维建模系统制作出轨道车辆司机在未来一段时间内的情绪波动曲线;
通过采用基于完成训练的卷积神经网络通过三维建模系统制作出轨道车辆司机在未来一段时间内的情绪波动曲线,能计算并截取出情绪波动曲线未来时段波动点,根据情绪波动点的时刻计算与实际时间的相距时长,判定轨道车辆司机在该情绪波动时刻是否在工作,并作出相应的预警,相较于现有技术,进一步达到了预警的效果,并进一步降低轨道车辆交通事故发生概率;
S6、截取情绪波动曲线未来时段波动点,计算该波动点与实际时间的相距时长t1,同时,调取该轨道车辆司机工作时间t2,对比t1和t2的重合度,包括如下情况:
1)t1>t2,则说明该轨道车辆司机在工作时间内不会出现情绪波动;
2)t1=t2,则说明该轨道车辆司机在工作时间内可能出现情绪波动,需持续监控该轨道车辆司机的面部信息图像、肢体动作信息图像和语音数据,并将预警信息发送至轨道交通控制中心,同时建立预警日志;
3)t1<t2,则说明该轨道车辆司机在工作时间内或者已经出现情绪波动,立即发出报警信息,并将信息发送至轨道交通控制中心,通过轨道交通控制中心的管理员与该轨道车辆司机进行实时语音沟通;
示例性的,步骤S2中在轨道车辆司机上岗时,还包括对轨道车辆司机进行体检,体检包括轨道车辆司机血液酒精含量值、司机血压值;
示例性的,麦克风还用于轨道交通控制中心与轨道车辆司机交互,具体为:
轨道交通控制中心发出语音问答后,通过麦克风获取司机回答的音频数据;通过语音处理的双门极限点算法,判断出轨道车辆司机回答的开始和结束时间,截取该开始和结束时间内的音频数据作为司机回答的音频基准数据;
使用梅尔倒谱的方式对基准数据进行特征提取,与题库中的答案特征进行相似度判断,若相似度大于阈值,则认为其回答正确,进入语音分析模块,否则回答错误,发出报警;
采用轨道交通控制中心与轨道车辆司机交互的方式还能对轨道车辆司机在工作中可能存在的瞌睡,疲劳驾驶进行判定,能准确判断轨道车辆司机在工作中虽然无情绪波动,但是依旧存在瞌睡和疲劳驾驶的情况,再次降低轨道车辆交通事故发生概率。
具体的,一种电子设备,包括:处理器、存储器和总线,存储器存储有处理器可执行的机器可读指令,当电子设备运行时,处理器与存储器之间通过总线通信,机器可读指令被处理器执行时执行轨道车辆司机情绪识别算法的步骤。
原理:通过实时监控当轨道车辆司机的面部信息图像、肢体动作信息图像和语音数据,获取轨道车辆司机在工作时段的情绪,并针对不同情绪做出不同的预警或者报警,最大幅度的降低轨道车辆交通事故发生概率。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。
Claims (9)
1.一种轨道车辆司机情绪识别算法,其特征在于,包括如下步骤:
S1、建立轨道车辆司机信息数据库,所述该信息数据库包括:面部信息数据库、肢体信息数据库以及语音数据库;
S2、轨道车辆司机上岗后获取目标对象在提供服务期间的多张面部信息图像、肢体动作信息图像和语音数据;
S3、将采集到的面部信息图像、肢体动作信息图像和语音数据分别与所述信息数据库作对比,得出司机实时的情绪数据;
S4、对采集到的面部信息图像、肢体动作信息图像和语音数据提取出梅尔频域特征,并将所述梅尔频域特征输入完成训练的卷积神经网络;
S5、基于完成训练的卷积神经网络通过三维建模系统制作出轨道车辆司机在未来一段时间内的情绪波动曲线;
S6、截取情绪波动曲线未来时段波动点,计算该波动点与实际时间的相距时长t1,同时,调取该轨道车辆司机工作时间t2,对比t1和t2的重合度,包括如下情况:
1)t1>t2,则说明该轨道车辆司机在工作时间内不会出现情绪波动;
2)t1=t2,则说明该轨道车辆司机在工作时间内可能出现情绪波动,需持续监控该轨道车辆司机的面部信息图像、肢体动作信息图像和语音数据,并将预警信息发送至轨道交通控制中心,同时建立预警日志;
3)t1<t2,则说明该轨道车辆司机在工作时间内或者已经出现情绪波动,立即发出报警信息,并将信息发送至轨道交通控制中心,通过轨道交通控制中心的管理员与该轨道车辆司机进行实时语音沟通;
2.根据权利要求1所述的一种轨道车辆司机情绪识别算法,其特征在于:步骤S2中所述的获取目标对象在提供服务期间的语音数据,包括:
检测当前是否开启语音获取权限;
若已开启所述语音获取权限,则在检测到所述车辆的行进速度达到预设的速度阈值时,获取所述司机的语音数据。
3.根据权利要求1所述的一种轨道车辆司机情绪识别算法,其特征在于:步骤S4所述的对采集到的面部信息图像、肢体动作信息图像和语音数据提取出梅尔频域特征,包括:
1)照预设的采样率对所述语音数据进行重采样,得到采样数据;
2)对所述采样数据按照预设的帧长进行分帧处理,得到单帧的短时信号;
3)对每个所述短时信号进行傅里叶变换得到频域数据,并计算所述频域数据的功率谱;
4)计算所述功率谱在预设的梅尔滤波器中的能量值,并对所述能量值取对数,得到所述梅尔频域特征;
5)将所述梅尔频域特征通过预先训练得到的卷积神经网络,提取出所述面部信息图像、肢体动作信息图像和语音数据的短时域的特征。
4.根据权利要求1所述的一种轨道车辆司机情绪识别算法,其特征在于:步骤S2中所述的获取目标对象在提供服务期间的多张面部信息图像、肢体动作信息图像和语音数据具体采用信息获取模块,所述信息获取模块包括:
麦克风、音频采集控制器、模数转换器和红外摄像头,所述麦克风用于采集声音信号,并将所述声音信号转换为模拟音频信号,所述音频采集控制器,用于产生多个第一同步时钟信号,所述模数转换器与麦克风连接,所述模数转换器用于将所述模拟音频信号转换为数字音频信号,每个模数转换器均接收所述第一同步时钟信号,所述模数转换器还在所述第一同步时钟信号的作用下将所述模拟音频信号转换为所述数字音频信号的时序同步。
5.根据权利要求4所述的一种轨道车辆司机情绪识别算法,其特征在于:还包括:
镜头、感光元件、信号处理元件和灯动态补光单元,外部光线通过镜头聚焦在感光元件上,感光元件与信号处理元件电连接,所述信号处理模块输出端输出模拟信号或数字信号,所述灯动态补光单元包括感光芯片,用于检测拍摄画面影像信息并判断画面亮暗程度;ISP图像处理模块,用于接收感光芯片反馈的信号以及进行图像信息处理并输出补光控制信号;PWM控制模块,用于接收ISP图像模块输出的控制信号并输出占空比不同的补光驱动信号;红外补光灯装置,用于接收占空比不同的补光驱动信号并发出亮暗不一的补光。
6.根据权利要求5所述的一种轨道车辆司机情绪识别算法,其特征在于:获取所述面部信息图像还包括:
1)通过光流法获取各用户视频的视频图像序列中包含微表情的图像帧;
2)根据经验帧数值,在轨道车辆司机信息数据库包含微表情的图像帧中获取与所述经验帧数值相等张数的连续多帧图像,以组成轨道车辆司机对应的微表情序列;
3)调用预先构建的权重计算层计算各用户视频对应的微表情序列中每一帧图像的权重特征向量,以得到轨道车辆司机图像信息每一帧图像的结合权重值的图像特征向量;
4)将轨道车辆司机图像信息中每一帧图像的结合权重值的图像特征向量进行求和,得到所述各用户视频对应的综合图像特征向量;
5)将轨道车辆司机图像信息对应的综合图像特征向量输入至预先训练的卷积神经网络,得到各用户视频对应的微表情识别结果,以组成微表情识别结果集。
7.根据权利要求1所述的一种轨道车辆司机情绪识别算法,其特征在于:步骤S2中在轨道车辆司机上岗时,还包括对轨道车辆司机进行体检,所述体检包括轨道车辆司机血液酒精含量值、司机血压值。
8.根据权利要求4所述的一种轨道车辆司机情绪识别算法,其特征在于:所述麦克风还用于轨道交通控制中心与轨道车辆司机交互,具体为:
轨道交通控制中心发出语音问答后,通过麦克风获取司机回答的音频数据;通过语音处理的双门极限点算法,判断出轨道车辆司机回答的开始和结束时间,截取该开始和结束时间内的音频数据作为司机回答的音频基准数据;
使用梅尔倒谱的方式对基准数据进行特征提取,与题库中的答案特征进行相似度判断,若相似度大于阈值,则认为其回答正确,进入语音分析模块,否则回答错误,发出报警。
9.一种电子设备,其特征在于,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行如权利要求1至8任一所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210305046.9A CN114863636A (zh) | 2022-03-25 | 2022-03-25 | 一种轨道车辆司机情绪识别算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210305046.9A CN114863636A (zh) | 2022-03-25 | 2022-03-25 | 一种轨道车辆司机情绪识别算法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114863636A true CN114863636A (zh) | 2022-08-05 |
Family
ID=82628751
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210305046.9A Withdrawn CN114863636A (zh) | 2022-03-25 | 2022-03-25 | 一种轨道车辆司机情绪识别算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114863636A (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108171176A (zh) * | 2017-12-29 | 2018-06-15 | 中车工业研究院有限公司 | 一种基于深度学习的地铁司机情绪辨识方法及装置 |
CN109243490A (zh) * | 2018-10-11 | 2019-01-18 | 平安科技(深圳)有限公司 | 司机情绪识别方法及终端设备 |
CN109426765A (zh) * | 2017-08-23 | 2019-03-05 | 厦门雅迅网络股份有限公司 | 驾驶危险情绪提醒方法、终端设备及存储介质 |
CN109472290A (zh) * | 2018-10-11 | 2019-03-15 | 南京邮电大学 | 基于有限状态机的情绪波动模型分析方法 |
WO2020248376A1 (zh) * | 2019-06-14 | 2020-12-17 | 平安科技(深圳)有限公司 | 情绪检测方法、装置、电子设备及存储介质 |
CN112102850A (zh) * | 2019-06-18 | 2020-12-18 | 杭州海康威视数字技术股份有限公司 | 情绪识别的处理方法、装置、介质及电子设备 |
CN112215097A (zh) * | 2020-09-25 | 2021-01-12 | 三一专用汽车有限责任公司 | 车辆驾驶状态的监控方法、车辆和计算机可读存储介质 |
CN112307975A (zh) * | 2020-10-30 | 2021-02-02 | 江西理工大学 | 融合语音与微表情的多模态情感识别方法及系统 |
CN113312958A (zh) * | 2021-03-22 | 2021-08-27 | 广州宸祺出行科技有限公司 | 一种基于司机状态的派单优先度调整方法及装置 |
CN113591525A (zh) * | 2020-10-27 | 2021-11-02 | 蓝海(福建)信息科技有限公司 | 一种深度融合面部表情和语音的驾驶员路怒症识别方法 |
CN113723292A (zh) * | 2021-08-31 | 2021-11-30 | 平安科技(深圳)有限公司 | 司乘异常行为识别方法、装置、电子设备和介质 |
CN113761146A (zh) * | 2021-01-05 | 2021-12-07 | 北京沃东天骏信息技术有限公司 | 识别顾客情绪波动的方法和装置 |
-
2022
- 2022-03-25 CN CN202210305046.9A patent/CN114863636A/zh not_active Withdrawn
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109426765A (zh) * | 2017-08-23 | 2019-03-05 | 厦门雅迅网络股份有限公司 | 驾驶危险情绪提醒方法、终端设备及存储介质 |
CN108171176A (zh) * | 2017-12-29 | 2018-06-15 | 中车工业研究院有限公司 | 一种基于深度学习的地铁司机情绪辨识方法及装置 |
CN109243490A (zh) * | 2018-10-11 | 2019-01-18 | 平安科技(深圳)有限公司 | 司机情绪识别方法及终端设备 |
CN109472290A (zh) * | 2018-10-11 | 2019-03-15 | 南京邮电大学 | 基于有限状态机的情绪波动模型分析方法 |
WO2020248376A1 (zh) * | 2019-06-14 | 2020-12-17 | 平安科技(深圳)有限公司 | 情绪检测方法、装置、电子设备及存储介质 |
CN112102850A (zh) * | 2019-06-18 | 2020-12-18 | 杭州海康威视数字技术股份有限公司 | 情绪识别的处理方法、装置、介质及电子设备 |
CN112215097A (zh) * | 2020-09-25 | 2021-01-12 | 三一专用汽车有限责任公司 | 车辆驾驶状态的监控方法、车辆和计算机可读存储介质 |
CN113591525A (zh) * | 2020-10-27 | 2021-11-02 | 蓝海(福建)信息科技有限公司 | 一种深度融合面部表情和语音的驾驶员路怒症识别方法 |
CN112307975A (zh) * | 2020-10-30 | 2021-02-02 | 江西理工大学 | 融合语音与微表情的多模态情感识别方法及系统 |
CN113761146A (zh) * | 2021-01-05 | 2021-12-07 | 北京沃东天骏信息技术有限公司 | 识别顾客情绪波动的方法和装置 |
CN113312958A (zh) * | 2021-03-22 | 2021-08-27 | 广州宸祺出行科技有限公司 | 一种基于司机状态的派单优先度调整方法及装置 |
CN113723292A (zh) * | 2021-08-31 | 2021-11-30 | 平安科技(深圳)有限公司 | 司乘异常行为识别方法、装置、电子设备和介质 |
Non-Patent Citations (1)
Title |
---|
颜洪;刘佳慧;覃京燕;: "人工智能语境下的情感交互设计", 包装工程, no. 06, pages 26 - 32 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10931772B2 (en) | Method and apparatus for pushing information | |
EP3675121B1 (en) | Computer-implemented interaction with a user | |
CN110001652B (zh) | 驾驶员状态的监测方法、装置及终端设备 | |
JP6617053B2 (ja) | 感情分類によって文脈意味の理解精度を高める発話意味分析プログラム、装置及び方法 | |
US20220240871A1 (en) | An intelligent computer aided decision support system | |
CN113723292A (zh) | 司乘异常行为识别方法、装置、电子设备和介质 | |
JP2021182131A (ja) | 情報を出力するための方法、装置及びシステム、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム | |
CN110580799A (zh) | 一种出租车网约车驾乘人员言行自动预判报警系统 | |
KR20210116309A (ko) | 운전자 모니터링 시스템에서 미디어 유도 정서로부터 운전 정서를 분리하는 기술 | |
CN114495217A (zh) | 基于自然语言和表情分析的场景分析方法、装置及系统 | |
CN112784695A (zh) | 一种基于图像及语音识别的司机异常状态检测方法 | |
KR102285482B1 (ko) | 생체 정보의 기계 학습 분석에 기반하여 컨텐츠를 제공하기 위한 방법 및 장치 | |
CN114863636A (zh) | 一种轨道车辆司机情绪识别算法 | |
Lin et al. | Use empirical mode decomposition and ensemble deep learning to improve the performance of emotional voice recognition | |
CN115620407A (zh) | 一种信息交流方法、装置及车辆 | |
CN115393927A (zh) | 基于多级长短期记忆网络的多模态情感应急决策系统 | |
CN114938958A (zh) | 一种基于智能手环和热红外摄像机的驾驶人情绪识别方法及系统 | |
CN108408521A (zh) | 一种基于电梯乘客日常行为的大数据分析系统及方法 | |
Rashwan et al. | Car driver fatigue monitoring using hidden markov models and bayesian networks | |
CN113312958A (zh) | 一种基于司机状态的派单优先度调整方法及装置 | |
CN113592262B (zh) | 一种用于网约车的安全监控方法及系统 | |
Li et al. | Fish swarm optimized deep hopfield neural network-assisted HCI system for augmentative communication using a visual feedback system | |
KR102535244B1 (ko) | 음성인식 및 안면 일부 랜드마크를 이용한 신원확인 시스템 및 그 방법 | |
CN116844302A (zh) | 设备报警方法、装置、电子设备和存储介质 | |
CN113781278A (zh) | 基于特征识别的事件提示方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20220805 |