CN110135355A - 一种利用色彩与音效主动调控驾驶员情绪的方法 - Google Patents

一种利用色彩与音效主动调控驾驶员情绪的方法 Download PDF

Info

Publication number
CN110135355A
CN110135355A CN201910412128.1A CN201910412128A CN110135355A CN 110135355 A CN110135355 A CN 110135355A CN 201910412128 A CN201910412128 A CN 201910412128A CN 110135355 A CN110135355 A CN 110135355A
Authority
CN
China
Prior art keywords
sample image
mood
color
face sample
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910412128.1A
Other languages
English (en)
Other versions
CN110135355B (zh
Inventor
张晋东
王栋辉
吴兴刚
张坤鹏
徐嘉斌
刘通
王雪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN201910412128.1A priority Critical patent/CN110135355B/zh
Publication of CN110135355A publication Critical patent/CN110135355A/zh
Application granted granted Critical
Publication of CN110135355B publication Critical patent/CN110135355B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种利用色彩与音效主动调控驾驶员情绪的方法,利用本发明方法可以预先识别出驾驶员可能存在的情绪,及时变换车厢内的灯光和音效进而调节驾驶员情绪,可以降低安全风险,一定程度地避免因愤怒、慌张等消极情绪带来的交通事故行为,可以有效保障人们的生命和财产安全。

Description

一种利用色彩与音效主动调控驾驶员情绪的方法
技术领域
本发明涉及表情识别与驾驶员安全领域,具体涉及一种利用色彩(氛围灯)与音效主动调控驾驶员情绪的方法。
背景技术
近年来,交通事故的发生频率不断上升。每年因交通事故造成的人员伤亡数量庞大,且随着汽车的不断普及,这个数字还呈现上升的趋势。交通事故的频发不仅和路况环境有关,也和车辆因素以及人为因素有很大关联。以下式子可以用来描述事故的发生:A=f(PV R E)。式中的A、P、V、R、E分别代表交通事故多少、人为因素、车辆因素、道路因素以及环境因素。其中人的因素——即驾驶员的自身原因,包括常见的路怒症、疲劳驾驶、行车焦虑、慌张等等,都是导致交通事故发生的重要原因。
驾驶员在行车过程中,会出现各种各样的情绪,包括愤怒、厌恶、兴奋、胆怯等等。这其中的情绪按照正负状态划分,既存在过正面情绪,也存在过负面情绪,这些都有可能对驾驶员的行车过程造成不良影响。而在驾驶的过程中,驾驶员的实时消极情绪往往得不到有效的缓解,因此诱发出了大量的交通事故。对于驾驶员而言,应该保持的情绪是稳定的中性情绪,在这种情绪状态下驾驶员的处理危机能力会保持较高的水平。随着近年来的智能驾驶辅助领域以及人工智能领域的发展,驾驶员的情绪状态越来越成为科研关注的指标,如何调节舒缓驾驶员的心理也将可能成为未来技术的重点研究方向。
发明内容
针对现有技术的不足,本发明旨在提供一种利用色彩与音效主动调控驾驶员情绪的方法。
为了实现上述目的,本发明采用如下技术方案:
一种利用色彩与音效主动调控驾驶员情绪的方法,包括如下步骤:
S1、找出人脸样本图像上的特征点:
S2、通过步骤S1找出人脸样本图像的特征点之后,对驾驶员常见的表情进行AU单元标记,降维之后进行降维训练得到xml文件,用于进行表情识别;
S3、建立效应量测量模型;
色彩的类型对情绪的影响记为F1,表示如下:
F1=(W1-E1)/Qspooled
其中W1表示色彩冷暖度,E1表示单独色彩影响下的情绪负面影响度,Qspooled表示实验组的混合标准差;
其中的k1,k2,…,kw表示情绪样本的编号,w表示情绪样本的数量;d表示情绪样本的标准差;
同理,音乐的类型对情绪的影响记为F2:
F2=(W2-E2)/Qspooled
其中W2表示音乐类型,E2表示单独音乐影响下的负面情绪影响度,Qspooled表示实验组的混合标准差;
令效应量测量模型C为:
S4、利用步骤S2中得到的xml文件对不同驾驶环境中不同色彩和音效下的驾驶员表情进行识别,并计算在不同的表情下,不同色彩和音效下对应的效应量C值;
S5、利用步骤S2得到的xml文件对驾驶员的表情进行识别,并根据步骤S4得到的在不同的表情下不同色彩和音效下对应的效应量C值,调控车内的色彩和音效,从而实现调控驾驶员的情绪。
进一步地,步骤S1的具体过程为:
S1.1、对人脸样本图像进行预处理,然后提取每张人脸样本图像的特征值与特征向量:
假设每张人脸样本图像上有K个特征点,每个特征点的坐标为(xk,yk),此时人脸样本图像n上的K个特征点的坐标用向量表示为:
计算所有人脸样本图像的平均形状为:
N为人脸样本图像的数量;
用每个人脸样本图像n的矩阵Yn减去得到矩阵
按下式求出每个人脸样本图像n对应的矩阵An
An表示人脸样本图像n的权重系数矩阵,Xn表示样本图像n的特征矩阵;
S1.2、步骤S1.1中求得的人脸样本图像的权重系数矩阵表示人脸样本图像中每个部位在人脸形状中的重要程度,根据权重系数矩阵进行人脸形状的初始化;
S1.3、在人脸形状中训练匹配点:
正例人脸样本图像设定为1,并与此相反的负例人脸样本图像设定为-1,采用线性的支持向量机进行训练;
利用线性的支持向量机对人脸样本图像中的脸部形状进行判断,找出特征区域,在寻找特征区域的时候会得到与之对应的响应函数Q(aj,bj),得到拟合出的响应函数公式:
q(aj,bj)=λj(aj-a0)2j(bj-b0)2j
其中(aj,bj)表示特征点j的坐标;ηj,σj,λj表示对应响应函数的参数,未知,需要在后面进行求解;响应函数公式q(aj,bj)要在点(a0,b0)求出最大值;得到目标函数为:
即让响应函数的值Q(aj,bj)与q(aj,bj)之间的误差最小;
S1.4、对步骤S1.3中得到的目标函数进行最小化:
将人脸样本图像转化为一维向量QL=[Q11,Q12,Q13...];
令δj=[λjjj]T,ψj=[(aj-a0)(bj-b0)],则目标函数为:
求解出函数关于ψj的二次最小化如下:
min q(aj,bj)=Bj THjBj-2Fj TBjja0jb0j
其中
记特征点的个数为M,则有:
限制目标函数为:
其中,x是人脸样本图像转化为一维向量后的表示,τ是惩罚因子,dj是利用主成分分析得到的特征向量的系数,χj是对应特征向量的特征值;由于λja0 2jb0 2j去掉不会影响二次函数的形状,因此只保留影响形状的因子为:
此时令:
其中进一步表示为
P1,P1,…,PM表示利用主成分分析得到的特征向量,向量的值乘以x就是特征向量系数可以表示dmq
最终得到:
在拟合的过程中求解f(x)的最小值,得到人脸样本图像的特征点。
进一步地,步骤S1.3中,所述线性的支持向量机如下:
D(i)=βTU(i)+α;
其中U表示样本子集,βT=[β1,β,β3.....]代表元素的权重,α表示偏移量;i为图像像素的个数。
进一步地,步骤S4中,根据C值划分在不同的表情下不同的色彩和音效对驾驶员心理影响效果的大小,划分标准为:
C≥0.75表示大效应量,影响较大;0.55≤C<0.75表示中效应量,影响中等;0.25≤C<0.55表示较小效应量,影响较小;C<0.25表示小效应量,影响微弱;
步骤S5中具体根据所述划分标准,针对不同驾驶员的表情选择大效应量的色彩和音效,并据此对车内的色彩和音效进行调控。
进一步地,步骤S5中,具体利用车内的氛围灯和音响设备对车内的色彩和音效进行调控。
本发明的有益效果在于:利用本发明方法建立的系统,可以预先识别出驾驶员可能存在的情绪,并及时变换车厢内的灯光和音效进而调节驾驶员情绪,可以降低安全风险,一定程度地避免因愤怒、慌张等消极情绪带来的交通事故行为,可以有效保障人们的生命和财产安全。
具体实施方式
以下将对本发明作进一步的描述,需要说明的是,本实施例以本技术方案为前提,给出了详细的实施方式和具体的操作过程,但本发明的保护范围并不限于本实施例。
本实施例提供一种利用色彩与音效主动调控驾驶员情绪的方法,包括如下步骤:
S1、找出人脸样本图像上的特征点:
S1.1、对人脸样本图像进行预处理(包括图像归一化、降噪等处理),然后提取每张人脸样本图像的特征值与特征向量:
假设每张人脸样本图像上有K个特征点,每个特征点的坐标为(xk,yk),此时人脸样本图像n上的K个特征点的坐标用向量表示为:
计算所有人脸样本图像的平均形状为:
N为人脸样本图像的数量;
用每个人脸样本图像n的矩阵Yn减去得到矩阵
需要说明的是,矩阵的均值为0。
按下式求出每个人脸样本图像n对应的矩阵An
An表示人脸样本图像n的权重系数矩阵,Xn表示样本图像n的特征矩阵;
S1.2、步骤S1.1中求得的人脸样本图像的权重系数矩阵表示人脸样本图像中每个部位在人脸形状中的重要程度,根据权重系数矩阵进行人脸形状的初始化;
S1.3、在人脸形状中训练匹配点:
正例人脸样本图像设定为1,并与此相反的负例人脸样本图像设定为-1,采用线性的支持向量机进行训练;所述线性的支持向量机如下:
D(i)=βTU(i)+α;
其中U表示样本子集,βT=[β1,β,β3.....]代表元素的权重,α表示偏移量;i为图像像素的个数;
利用线性的支持向量机可以对人脸样本图像中的脸部形状进行判断,找出合适的特征区域,在寻找合适的特征区域的时候会得到与之对应的响应函数Q(aj,bj),得到拟合出的响应函数公式:
q(aj,bj)=λj(aj-a0)2j(bj-b0)2j
其中(aj,bj)表示特征点j的坐标;ηj,σj,λj表示对应响应函数的参数,未知,需要在后面进行求解;响应函数公式q(aj,bj)要在点(a0,b0)求出最大值;得到目标函数为:
即让响应函数的值Q(aj,bj)与q(aj,bj)之间的误差最小;
S1.4、对步骤S1.3中得到的目标函数进行最小化:
将人脸样本图像转化为一维向量QL=[Q11,Q12,Q13...];
为了简化后续的式子,令δj=[λjjj]T,ψj=[(aj-a0)(bj-b0)],则目标函数为:
求解出函数关于ψj的二次最小化如下:
min q(aj,bj)=Bj THjBj-2Fj TBjja0jb0j
其中
记特征点的个数为M,则有:
限制目标函数为:
其中,x是人脸样本图像转化为一维向量后的表示,τ是惩罚因子,dj是利用主成分分析得到的特征向量的系数,χj是对应特征向量的特征值;由于λja0 2jb0 2j去掉不会影响二次函数的形状,因此只保留影响形状的因子为:
此时令:
其中进一步表示为
P1,P1,…,PM表示利用主成分分析得到的特征向量,向量的值乘以x就是特征向量系数可以表示dmq
最终得到:
在拟合的过程中求解f(x)的最小值,得到人脸样本图像的特征点。
S2、通过步骤S1找出人脸样本图像的特征点(68个)之后,对驾驶员常见的表情进行AU单元标记,降维之后进行降维训练得到xml文件,用于进行表情识别;
S3、建立效应量测量模型;
由于情绪样本数量的限制,单独计算因素引起的差别可以使某些指标不受样本数量的影响,两个效应量单独计算求均值,定义C值的大小为效应值。实际运用中色彩与音乐类型都是影响因素,但是两个因素相互独立互相之间并无联系,但是又在情绪影响中同时起作用在实际运用中色彩与音乐类型都是影响因素。
色彩的类型对情绪的影响记为F1,表示如下:
F1=(W1-E1)/Qspooled
其中W1表示色彩冷暖度,E1表示单独色彩影响下的情绪负面影响度,Qspooled表示实验组的混合标准差。由于是单方面的单向影响,因此有:
其中的k1,k2,…,kw表示情绪样本的编号,w表示情绪样本的数量;d表示情绪样本的标准差;
同理,音乐的类型对情绪的影响记为F2:
F2=(W2-E2)/Qspooled
其中W2表示音乐类型,E2表示单独音乐影响下的负面情绪影响度,Qspooled表示实验组的混合标准差。
为了使得效应量的值的范围限制在0到1之间,令效应量测量模型C为:
S4、利用步骤S2中得到的xml文件对不同驾驶环境中不同色彩和音效下的驾驶员表情进行识别,并计算在不同的表情下,不同色彩和音效下对应的效应量C值;C值大小对应表示的是不同色彩和音效对驾驶员的影响效果如表1所示:
表1驾驶员心理效应量对应表
S5、利用步骤S2得到的xml文件对驾驶员的表情进行识别,并根据步骤S4得到的在不同的表情下不同色彩和音效下对应的效应量C值,利用车内的氛围灯和音响设备调控车内的色彩和音效,从而实现调控驾驶员的情绪。
对于本领域的技术人员来说,可以根据以上的技术方案和构思,给出各种相应的改变和变形,而所有的这些改变和变形,都应该包括在本发明权利要求的保护范围之内。

Claims (5)

1.一种利用色彩与音效主动调控驾驶员情绪的方法,其特征在于,包括如下步骤:
S1、找出人脸样本图像上的特征点:
S2、通过步骤S1找出人脸样本图像的特征点之后,对驾驶员常见的表情进行AU单元标记,降维之后进行降维训练得到xml文件,用于进行表情识别;
S3、建立效应量测量模型;
色彩的类型对情绪的影响记为F1,表示如下:
F1=(W1-E1)/Qspooled
其中W1表示色彩冷暖度,E1表示单独色彩影响下的情绪负面影响度,Qspooled表示实验组的混合标准差;
其中的k1,k2,…,kw表示情绪样本的编号,w表示情绪样本的数量;d表示情绪样本的标准差;
同理,音乐的类型对情绪的影响记为F2:
F2=(W2-E2)/Qspooled
其中W2表示音乐类型,E2表示单独音乐影响下的负面情绪影响度,Qspooled表示实验组的混合标准差;
令效应量测量模型C为:
S4、利用步骤S2中得到的xml文件对不同驾驶环境中不同色彩和音效下的驾驶员表情进行识别,并计算在不同的表情下,不同色彩和音效下对应的效应量C值;
S5、利用步骤S2得到的xml文件对驾驶员的表情进行识别,并根据步骤S4得到的在不同的表情下不同色彩和音效下对应的效应量C值,调控车内的色彩和音效,从而实现调控驾驶员的情绪。
2.根据权利要求1所述的利用色彩与音效主动调控驾驶员情绪的方法,其特征在于,步骤S1的具体过程为:
S1.1、对人脸样本图像进行预处理,然后提取每张人脸样本图像的特征值与特征向量:
假设每张人脸样本图像上有K个特征点,每个特征点的坐标为(xk,yk),此时人脸样本图像n上的K个特征点的坐标用向量表示为:
计算所有人脸样本图像的平均形状为:
N为人脸样本图像的数量;
用每个人脸样本图像n的矩阵Yn减去得到矩阵
按下式求出每个人脸样本图像n对应的矩阵An
An表示人脸样本图像n的权重系数矩阵,Xn表示样本图像n的特征矩阵;
S1.2、步骤S1.1中求得的人脸样本图像的权重系数矩阵表示人脸样本图像中每个部位在人脸形状中的重要程度,根据权重系数矩阵进行人脸形状的初始化;
S1.3、在人脸形状中训练匹配点:
正例人脸样本图像设定为1,并与此相反的负例人脸样本图像设定为-1,采用线性的支持向量机进行训练;
利用线性的支持向量机对人脸样本图像中的脸部形状进行判断,找出特征区域,在寻找特征区域的时候会得到与之对应的响应函数Q(aj,bj),得到拟合出的响应函数公式:
q(aj,bj)=λj(aj-a0)2j(bj-b0)2j
其中(aj,bj)表示特征点j的坐标;ηj,σj,λj表示对应响应函数的参数,未知,需要在后面进行求解;响应函数公式q(aj,bj)要在点(a0,b0)求出最大值;得到目标函数为:
即让响应函数的值Q(aj,bj)与q(aj,bj)之间的误差最小;
S1.4、对步骤S1.3中得到的目标函数进行最小化:
将人脸样本图像转化为一维向量QL=[Q11,Q12,Q13...];
令δj=[λjjj]T,ψj=[(aj-a0)(bj-b0)],则目标函数为:
求解出函数关于ψj的二次最小化如下:
min q(aj,bj)=Bj THjBj-2Fj TBjja0jb0j
其中
记特征点的个数为M,则有:
限制目标函数为:
其中,x是人脸样本图像转化为一维向量后的表示,τ是惩罚因子,dj是利用主成分分析得到的特征向量的系数,χj是对应特征向量的特征值;由于λja0 2jb0 2j去掉不会影响二次函数的形状,因此只保留影响形状的因子为:
此时令:
其中进一步表示为
P1,P1,…,PM表示利用主成分分析得到的特征向量,向量的值乘以x就是特征向量系数可以表示dmq
最终得到:
在拟合的过程中求解f(x)的最小值,得到人脸样本图像的特征点。
3.根据权利要求1所述的利用色彩与音效主动调控驾驶员情绪的方法,其特征在于,步骤S1.3中,所述线性的支持向量机如下:
D(i)=βTU(i)+α;
其中U表示样本子集,βT=[β1,β,β3.....]代表元素的权重,α表示偏移量;i为图像像素的个数。
4.根据权利要求1所述的利用色彩与音效主动调控驾驶员情绪的方法,其特征在于,步骤S4中,根据C值划分在不同的表情下不同的色彩和音效对驾驶员心理影响效果的大小,划分标准为:
C≥0.75表示大效应量,影响较大;0.55≤C<0.75表示中效应量,影响中等;0.25≤C<0.55表示较小效应量,影响较小;C<0.25表示小效应量,影响微弱;
步骤S5中具体根据所述划分标准,针对不同驾驶员的表情选择大效应量的色彩和音效,并据此对车内的色彩和音效进行调控。
5.根据权利要求1或4所述的利用色彩与音效主动调控驾驶员情绪的方法,其特征在于,步骤S5中,具体利用车内的氛围灯和音响设备对车内的色彩和音效进行调控。
CN201910412128.1A 2019-05-17 2019-05-17 一种利用色彩与音效主动调控驾驶员情绪的方法 Active CN110135355B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910412128.1A CN110135355B (zh) 2019-05-17 2019-05-17 一种利用色彩与音效主动调控驾驶员情绪的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910412128.1A CN110135355B (zh) 2019-05-17 2019-05-17 一种利用色彩与音效主动调控驾驶员情绪的方法

Publications (2)

Publication Number Publication Date
CN110135355A true CN110135355A (zh) 2019-08-16
CN110135355B CN110135355B (zh) 2023-04-07

Family

ID=67574994

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910412128.1A Active CN110135355B (zh) 2019-05-17 2019-05-17 一种利用色彩与音效主动调控驾驶员情绪的方法

Country Status (1)

Country Link
CN (1) CN110135355B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110853606A (zh) * 2019-11-26 2020-02-28 Oppo广东移动通信有限公司 一种音效配置方法、装置及计算机可读存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110154197A1 (en) * 2009-12-18 2011-06-23 Louis Hawthorne System and method for algorithmic movie generation based on audio/video synchronization
CN102750964A (zh) * 2012-07-30 2012-10-24 西北工业大学 基于表情的背景音乐控制方法及装置
US20130178962A1 (en) * 2012-01-06 2013-07-11 Peter C. DiMaria User interface to media files
US20150104757A1 (en) * 2013-10-15 2015-04-16 Mbfarr, Llc Driving assessment and training method and apparatus
US20180075039A1 (en) * 2009-06-23 2018-03-15 Gracenote, Inc. Methods and apparatus for determining a mood profile associated with media data
CN108471991A (zh) * 2015-08-28 2018-08-31 艾腾媞乌有限责任公司 认知技能训练系统和程序
CN207790472U (zh) * 2017-11-09 2018-08-31 北京兴科迪电子技术研究院 一种健康驾驶系统
CN108688677A (zh) * 2017-03-29 2018-10-23 马自达汽车株式会社 车辆驾驶支援系统以及车辆驾驶支援方法
CN108875464A (zh) * 2017-05-16 2018-11-23 南京农业大学 一种基于三维人脸情绪识别的灯光音乐控制系统及控制方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180075039A1 (en) * 2009-06-23 2018-03-15 Gracenote, Inc. Methods and apparatus for determining a mood profile associated with media data
US20110154197A1 (en) * 2009-12-18 2011-06-23 Louis Hawthorne System and method for algorithmic movie generation based on audio/video synchronization
US20130178962A1 (en) * 2012-01-06 2013-07-11 Peter C. DiMaria User interface to media files
CN102750964A (zh) * 2012-07-30 2012-10-24 西北工业大学 基于表情的背景音乐控制方法及装置
US20150104757A1 (en) * 2013-10-15 2015-04-16 Mbfarr, Llc Driving assessment and training method and apparatus
CN108471991A (zh) * 2015-08-28 2018-08-31 艾腾媞乌有限责任公司 认知技能训练系统和程序
CN108688677A (zh) * 2017-03-29 2018-10-23 马自达汽车株式会社 车辆驾驶支援系统以及车辆驾驶支援方法
CN108875464A (zh) * 2017-05-16 2018-11-23 南京农业大学 一种基于三维人脸情绪识别的灯光音乐控制系统及控制方法
CN207790472U (zh) * 2017-11-09 2018-08-31 北京兴科迪电子技术研究院 一种健康驾驶系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
A. ALTIERI等: "An Adaptive System to Manage Playlists and Lighting Scenarios Based on the User’s Emotions", 《2019 IEEE INTERNATIONAL CONFERENCE ON CONSUMER ELECTRONICS (ICCE)》 *
李冬冬等: "情绪音乐库的初步编制与评定", 《中国心理卫生杂志》 *
王琳虹: "高速公路路侧景观色彩对驾驶员心率指标的影响", 《吉林大学学报(工学版)》 *
马锦飞: "车载音乐对驾驶员情绪状态和事故倾向性的影响", 《中国健康心理学杂志》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110853606A (zh) * 2019-11-26 2020-02-28 Oppo广东移动通信有限公司 一种音效配置方法、装置及计算机可读存储介质

Also Published As

Publication number Publication date
CN110135355B (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
CN106971194B (zh) 一种基于改进hmm和svm双层算法的驾驶意图识别方法
CN106782602B (zh) 基于深度神经网络的语音情感识别方法
Ahmad et al. Drowsy driver identification using eye blink detection
CN113911129B (zh) 一种基于驾驶行为生成机制的交通车意图识别方法
CN110516658A (zh) 一种基于面部图像和车辆运行信息的驾驶员情绪的识别算法设计
CN104408440A (zh) 一种基于两步降维和并行特征融合的人脸表情识别方法
CN109635784A (zh) 基于改进的卷积神经网络的交通标志识别方法
CN108256307B (zh) 一种智能商务旅居房车的混合增强智能认知方法
CN106709528A (zh) 基于多目标函数深度学习的车辆重识别方法及装置
CN113011239B (zh) 一种基于最优窄频带特征融合的运动想象分类方法
CN115187610B (zh) 基于图神经网络的神经元形态分析方法、设备及存储介质
CN103020658B (zh) 二维图像中的物体识别方法
CN110490275A (zh) 一种基于迁移学习的驾驶行为预测方法
CN110135355A (zh) 一种利用色彩与音效主动调控驾驶员情绪的方法
CN111582082B (zh) 基于可解释聚类模型的二分类运动想象脑电信号识别方法
CN108875617A (zh) 辅助驾驶方法和装置、车辆
Zhu et al. Personalized control strategy of electronic brake booster with driving behaviors identification
CN114049677B (zh) 基于驾驶员情绪指数的车辆adas控制方法及系统
CN115186594A (zh) 一种人-车-路耦合影响下的节能速度优化方法
He et al. Boosting transfer learning improves performance of driving drowsiness classification using EEG
CN109409231A (zh) 基于自适应隐马尔可夫的多特征融合手语识别方法
CN109934171B (zh) 基于分层网络模型的驾驶员消极驾驶状态在线感知方法
CN109376583A (zh) 一种智能车辆辅助驾驶的驾驶员疲劳检测方法
DE102019210929B4 (de) Computerimplementiertes Verfahren zum maschinellen Lernen von Husten- und/oder Niesgeräuschen von ein Beförderungsmittel nutzenden Fahrgästen, um bei erkannten Husten- und/oder Niesgeräuschen Maßnahmen zur Reinigung des Beförderungsmittels einzuleiten, und Steuergerät, Verfahren, Vorrichtung, Beförderungsmittel und Computerprogramm zum Einleiten der Maßnahmen
CN112381376A (zh) 一种驾驶能力过程性评价的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant