CN111797755A - 一种汽车乘员情绪识别方法及电子设备 - Google Patents
一种汽车乘员情绪识别方法及电子设备 Download PDFInfo
- Publication number
- CN111797755A CN111797755A CN202010622404.XA CN202010622404A CN111797755A CN 111797755 A CN111797755 A CN 111797755A CN 202010622404 A CN202010622404 A CN 202010622404A CN 111797755 A CN111797755 A CN 111797755A
- Authority
- CN
- China
- Prior art keywords
- emotion
- driving state
- occupant
- scene
- passenger
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000008909 emotion recognition Effects 0.000 title claims description 27
- 230000008451 emotion Effects 0.000 claims abstract description 195
- 230000002996 emotional effect Effects 0.000 claims abstract description 20
- 238000012549 training Methods 0.000 claims description 32
- 238000010801 machine learning Methods 0.000 claims description 11
- 230000004044 response Effects 0.000 claims description 8
- 239000000126 substance Substances 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 abstract description 8
- 238000004364 calculation method Methods 0.000 abstract description 4
- 239000013598 vector Substances 0.000 description 15
- 230000014509 gene expression Effects 0.000 description 9
- 230000007935 neutral effect Effects 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 4
- 230000036651 mood Effects 0.000 description 4
- 230000001052 transient effect Effects 0.000 description 3
- 230000001960 triggered effect Effects 0.000 description 3
- 101150052583 CALM1 gene Proteins 0.000 description 2
- 101150095793 PICALM gene Proteins 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 101150014174 calm gene Proteins 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/593—Recognising seat occupancy
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Probability & Statistics with Applications (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Optimization (AREA)
- Algebra (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Pure & Applied Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开一种汽车乘员情绪识别方法及电子设备,方法包括:获取当前驾驶场景中的行车状态参数;将所述行车状态参数输入场景情绪模型,得到与所述行车状态参数对应的情绪特征值,作为乘员情绪;执行与所述乘员情绪对应的情绪操作。本发明根据当前行车状态推测出用户当前的情绪状态,相比通过视觉或对话推测情绪,本发明的方式更加准确。本发明基于当前行车状态对用户当前情绪状态的推测,一方面推测的结果也会更加地精准,另一方面行车状态的因素容易获取并且可以量化,整体方案实施所需的硬件算力及成本相比视觉和对话推测的方案要低。
Description
技术领域
本发明涉及汽车相关技术领域,特别是一种汽车乘员情绪识别方法及电子设备
背景技术
驾驶场景下的汽车乘员情绪识别,主要通过识别乘员情绪,然后执行与乘员情绪相应的措施,例如播放适合乘员情绪的歌曲等。
现有的乘员情绪识别主要采用视觉识别或者语音对话文本分析。
1.视觉识别方式
这种方式主要基于视觉处理的方法,检测出人脸,识别出人脸关键点信息,解析出人脸属性值(情绪)。这种方式基于面部表情的情绪推断,能够较为直接地反映出当前表情对应的情绪状态。但车载场景的表情(除中性表情外)往往是暂态的,较难反映出一个人情绪的基本面,因此,在部分情况下表情并不能反映出人的真实心理状态。
2.基于语音对话文本分析的情绪推测
这种方式主要在对话场景中,识别对话文本背后蕴含的用户情绪。然而,这种方式并不适合车载场景。在车载场景下,语音交互目前大多还都是指令式的,较难作为车载场景下的情绪判断来源。
发明内容
基于此,有必要针对现有技术的汽车乘员情绪识别存在识别不准确的技术问题,提供一种汽车乘员情绪识别方法及电子设备。
本发明提供一种汽车乘员情绪识别方法,包括:
获取当前驾驶场景中的行车状态参数;
将所述行车状态参数输入场景情绪模型,得到与所述行车状态参数对应的情绪特征值,作为乘员情绪;
执行与所述乘员情绪对应的情绪操作。
进一步地,所述行车状态参数包括:当前路况类型、当前天气状况、出行目的地类型、和/或出行时间段。
更进一步地:
所述路况类型包括路况畅通、路况缓行、和/或路况拥堵;
所述天气状况包括:光照、温度、风速、和/或天气类型;
所述出行目的地类型包括:休闲娱乐目的地、工作目的地、办事目的地、和/或医疗目的地;
所述出行时间段包括:在工作日的一个或多个出行时间段、和/或在节假日的一个或多个出行时间段。
进一步地,所述场景情绪模型采用如下方式训练得到:
获取多个参与者在多个驾驶场景下的情绪特征值;
以每个驾驶场景的行车状态参数作为训练输入,将与每个驾驶场景对应的情绪特征值作为训练响应,采用机器学习算法进行训练,得到关于行车状态参数与情绪特征值对应关系的场景情绪模型。
进一步地,所述将所述行车状态参数输入场景情绪模型,得到与所述行车状态参数对应的情绪特征值,作为乘员情绪,具体包括:
获取汽车乘员的乘员信息,将所述行车状态参数以及所述乘员信息输入场景乘员情绪模型,得到与所述行车状态参数和所述乘员信息对应的情绪特征值,作为所述乘员的乘员情绪。
更进一步地,所述乘员信息包括乘员年龄、乘员喜好、乘员通勤时间、和/或乘员职业。
本发明提供一种汽车乘员情绪识别电子设备,包括:
至少一个处理器;以及,
与至少一个所述处理器通信连接的存储器;其中,
所述存储器存储有可被至少一个所述处理器执行的指令,所述指令被至少一个所述处理器执行,以使至少一个所述处理器能够:
获取当前驾驶场景中的行车状态参数;
将所述行车状态参数输入场景情绪模型,得到与所述行车状态参数对应的情绪特征值,作为乘员情绪;
执行与所述乘员情绪对应的情绪操作。
进一步地,所述行车状态参数包括:当前路况类型、当前天气状况、出行目的地类型、和/或出行时间段。
更进一步地:
所述路况类型包括路况畅通、路况缓行、和/或路况拥堵;
所述天气状况包括:光照、温度、风速、和/或天气类型;
所述出行目的地类型包括:休闲娱乐目的地、工作目的地、办事目的地、和/或医疗目的地;
所述出行时间段包括:在工作日的一个或多个出行时间段、和/或在节假日的一个或多个出行时间段。
进一步地,所述场景情绪模型采用如下方式训练得到:
获取多个参与者在多个驾驶场景下的情绪特征值;
以每个驾驶场景的行车状态参数作为训练输入,将与每个驾驶场景对应的情绪特征值作为训练响应,采用机器学习算法进行训练,得到关于行车状态参数与情绪特征值对应关系的场景情绪模型。
进一步地,所述将所述行车状态参数输入场景情绪模型,得到与所述行车状态参数对应的情绪特征值,作为乘员情绪,具体包括:
获取汽车乘员的乘员信息,将所述行车状态参数以及所述乘员信息输入场景乘员情绪模型,得到与所述行车状态参数和所述乘员信息对应的情绪特征值,作为所述乘员的乘员情绪。
更进一步地,所述乘员信息包括乘员年龄、乘员喜好、乘员通勤时间、和/或乘员职业。
本发明根据当前行车状态推测出用户当前的情绪状态,相比通过视觉或对话推测情绪,本发明的方式更加准确。本发明基于当前行车状态对用户当前情绪状态的推测,一方面推测的结果也会更加地精准,另一方面行车状态的因素容易获取并且可以量化,整体方案实施所需的硬件算力及成本相比视觉和对话推测的方案要低。
附图说明
图1为本发明一实施例一种汽车乘员情绪识别方法的工作流程图;
图2为本发明第二实施例一种汽车乘员情绪识别方法的工作流程图;
图3为本发明第三实施例一种汽车乘员情绪识别方法的工作流程图;
图4为本发明一种汽车乘员情绪识别电子设备的硬件结构示意图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步详细的说明。
实施例一
如图1所示为本发明一实施例一种汽车乘员情绪识别方法的工作流程图,包括:
步骤S101,获取当前驾驶场景中的行车状态参数;
步骤S102,将所述行车状态参数输入场景情绪模型,得到与所述行车状态参数对应的情绪特征值,作为乘员情绪;
步骤S103,执行与所述乘员情绪对应的情绪操作。
具体来说,本实施例可以应用于汽车电子控制单元(Electronic Control Unit,ECU)。当需要获取汽车乘员情绪时,触发步骤S101。汽车乘员可以为驾驶员、或者乘客。在步骤S101中,获取各种行车状态参数。行车状态参数可以根据具体的参数类型,从车载传感器或者车联网获取。
然后步骤S102将行车状态参数输入场景情绪模型,得到对应的情绪特征值。场景情绪模型可以采用机器学习算法,例如朴素贝叶斯定理等方式,通过预先训练得到。场景情绪模型可以在服务器上进行训练,然后由车辆同步至车载终端执行步骤S102,也可以将行车状态参数上传到服务器,由服务器将行车状态参数输入场景情绪模型,并向车载终端返回对应的情绪特征值。
步骤S103执行与乘员情绪对应的情绪操作,情绪操作包括但不限于:音乐推荐、氛围灯调节等操作。
本发明的情绪识别区别于现有技术基于面部图像的表情识别或者基于语音对话文本的情绪识别。
现有基于面部图像的表情识别,在一定程度上不能真实反映用户的情绪状态;一方面因为车载场景下用户的表情绝大多数时间都是比较平静或无表情的,不太容易通过平静的表情推测人的情绪活动;另一方面,表情对应的情绪往往是暂态或瞬态的,在一定程度上较难反映一段时间内用户情绪的基本面。
现有基于语音对话文本的情绪识别,则因为行车过程中说话场景不够丰富、与语音助理之间的对话多数是指令性质的,所以存在样本量不够丰富等应用上的缺陷;
而本发明基于当前行车状态对用户当前情绪状态的推测,是基于可能的能够对用户情绪基本面产生影响的因素,如天气、出行时段、出行目的地类型、当前路况,进行的分析。首先这些影响因素与情绪之间的关系,是基于一定的用户评价样本量利用朴素贝叶斯模型进行分析得到的,因此对相应的人群具备一定的普适性;另外,训练模型用的样本数据库能够不断地进行增加和更新,相当于对模型分析得到的分类器结果进行优化,推测的结果也会更加地精准;此外,这些因素容易获取并且可以量化,整体方案实施所需的硬件算力及成本相比视觉和对话推测的方案要低。
本发明根据当前行车状态推测出用户当前的情绪状态,相比通过视觉或对话推测情绪,本发明的方式更加准确。本发明基于当前行车状态对用户当前情绪状态的推测,一方面推测的结果也会更加地精准,另一方面行车状态的因素容易获取并且可以量化,整体方案实施所需的硬件算力及成本相比视觉和对话推测的方案要低。
实施例二
如图2所示为本发明第二实施例一种汽车乘员情绪识别方法的工作流程图,包括:
步骤S201,获取当前驾驶场景中的行车状态参数,所述行车状态参数包括:当前路况类型、当前天气状况、出行目的地类型、和/或出行时间段,其中:
所述路况类型包括路况畅通、路况缓行、和/或路况拥堵;
所述天气状况包括:光照、温度、风速、和/或天气类型;
所述出行目的地类型包括:休闲娱乐目的地、工作目的地、办事目的地、和/或医疗目的地;
所述出行时间段包括:在工作日的一个或多个出行时间段、和/或在节假日的一个或多个出行时间段;
步骤S202,将所述行车状态参数输入场景情绪模型,得到与所述行车状态参数对应的情绪特征值,作为乘员情绪,所述场景情绪模型采用如下方式训练得到:
获取多个参与者在多个驾驶场景下的情绪特征值;
以每个驾驶场景的行车状态参数作为训练输入,将与每个驾驶场景对应的情绪特征值作为训练响应,采用机器学习算法进行训练,得到关于行车状态参数与情绪特征值对应关系的场景情绪模型;
步骤S203,执行与所述乘员情绪对应的情绪操作。
具体来说,本实施例针对驾驶场景,筛选出对驾驶人情绪有较大影响的四类相对独立因素:出行时的路况、天气、出行时间段、目的地类型。
路况通常分为四种情况畅通、缓行、拥堵、严重拥堵。路况畅通的情况下,人的情绪大概率是积极的;缓行情况下,人的情绪大概率是中性偏负面的;拥堵和严重拥堵的场景下,人的情绪大概率是负面的。
天气(光照、温度、风等)对人的情绪会产生影响;好的天气(如晴天、少云的天气)可能会带给人正面的情绪,恶劣的天气(如雷雨、暴雨、暴雪、扬沙、霾)可能会带给人负面的情绪。
出行时间段在一定程度能反映出人们的疲劳程度,在工作日过晚(23:00之后)或过早(06:00之前)的出行,人们的情绪大概率是中性偏负面的;而周末上午的外出或傍晚回家,情绪大概率是中性偏积极的。
目的地类型直接反应人们的出行意图;如果目的地为景点、郊外、商场、餐厅、娱乐场所,人们的情绪大概率是积极的;目的地为工作地点、银行、加油站,情绪大概率是偏中性的;如果目的地为医院、诊所,情绪大概率是负面的。
路况、天气、出行时间、目的地类型等对人的情绪可能都存在或多或少的影响,但需要指出的是,上述因素和情绪之间的对应关系都容易受到其他因素的干扰,并且较难具备普适性。因此本专利探索将上述因素综合后对人情绪的影响。
比如周末的上午(出行时间),天气晴朗少云(天气),开车前往郊外的森林公园(目的地类型),交通很好一路畅通(路况),这种情况下人们的情绪大概率是积极的。
因此,在步骤S201获取到各种行车状态参数后,步骤S202将所有的行车状态参数输入场景情绪模型,从而得到综合多个行车状态参数所得到的情绪特征值。
场景情绪模型通过机器学习算法进行训练得到。具体来说,对四类因素来源于车联网下的各种情况进行组合,创建出行场景特征向量集,每个出行场景特征向量中的每一维度对应一个行车状态参数。每个维度中的值为对应的行车状态参数的值。
然后选取一定数量的有丰富驾驶经验的参与者对特征向量集中各场景下驾车情绪进行评价,评价包括但不限于负面、中性、积极。将评价转换为对应的情绪特征值。最后针对上述取得的评价样本,以每个驾驶场景的行车状态参数作为训练输入,将与每个驾驶场景对应的情绪特征值作为训练响应,利用朴素贝叶斯定理等机器学习算法进行各场景对应情绪的训练,完成模型的建立。
当用户情绪判断触发后,采集用户当前对应的行车状态,与模型中的场景特征向量进行匹配,输出对应的情绪特征值。
本实施例通过选择合适的行车状态,对多个行车状态综合进行评价,使得最终得到的情绪特征值能够综合反映多个行车状态,提高情绪识别的准确性。
实施例三
如图3所示为本发明第三实施例一种汽车乘员情绪识别方法的工作流程图,包括:
步骤S301,获取当前驾驶场景中的行车状态参数;
步骤S302,获取汽车乘员的乘员信息,将所述行车状态参数以及所述乘员信息输入场景乘员情绪模型,得到与所述行车状态参数和所述乘员信息对应的情绪特征值,作为所述乘员的乘员情绪,所述乘员信息包括乘员年龄、乘员喜好、乘员通勤时间、和/或乘员职业;
步骤S303,执行与所述乘员情绪对应的情绪操作。
具体来说,行车状态参数反映的是行车环境对乘员的情绪影响,然而,不同的乘员对于同一行车环境可能有不同的情绪。
例如,以出行目的地类型为例,对于一个医护人员,医疗目的地反而是他的工作目的地,因此,对于其他人来说,医疗目的地给人带来负面的情绪,但对于医护人员,医疗目的地给他带来的是中性情绪。
同样,对于出行时间,不同职业的人有不同的上下班时间,因此,出行时间段应该也是与不同职业或者不同的通勤时间对应,才能确定其是否是在不适合的通勤时间出行,才能更好地判断其情绪。
再例如天气,不同的人有不同的喜好,下雨的天气对于部分人来说是恶劣天气,对于另外喜好下雨的人来说,则是喜欢的天气。有人喜好冷的天气,有人喜好热的天气。因此,增加乘员喜好能更准确地确定乘员的情绪。
因此,通过将乘员信息与行车状态参数共同输入场景乘员情绪模型,得到所述行车状态参数和所述乘员信息对应的情绪特征值,能够更加准确地反映乘员的情绪。
场景乘员情绪模型为场景情绪模型的扩展,可以通过机器学习算法进行训练得到。具体来说,对四类因素来源于车联网下的各种情况进行组合,创建出行场景特征向量集,每个出行场景特征向量中的每一维度对应一个行车状态参数。每个维度中的值为对应的行车状态参数的值。
然后选取一定数量的有丰富驾驶经验的参与者对特征向量集中各场景下驾车情绪进行评价。评价包括但不限于负面、中性、积极。将评价转换为对应的情绪特征值。参与者覆盖多种乘员信息,将乘员信息转换为乘员信息向量。将参与者的乘员信息向量与其所参加评价的特征向量集中的出行场景特征向量进行连合,得到出行场景乘员特征向量。
最后针对上述取得的评价样本,以每个出行场景乘员特征向量作为训练输入,将与每个出行场景乘员特征向量对应的情绪特征值作为训练响应,利用朴素贝叶斯定理等机器学习算法进行各场景及乘员信息对应情绪的训练,完成模型的建立。
当用户情绪判断触发后,采集用户当前对应的行车状态及用户的乘员信息,与模型中的场景乘员特征向量进行匹配,输出对应的情绪特征值。
本实施例将乘员信息与行车状态参数共同输入场景乘员情绪模型,得到所述行车状态参数和所述乘员信息对应的情绪特征值,能够更加准确地反映乘员的情绪。
实施例四
如图4所示为本发明一种汽车乘员情绪识别电子设备的硬件结构示意图,包括:
至少一个处理器401;以及,
与至少一个所述处理器401通信连接的存储器402;其中,
所述存储器402存储有可被至少一个所述处理器401执行的指令,所述指令被至少一个所述处理器401执行,以使至少一个所述处理器401能够:
获取当前驾驶场景中的行车状态参数;
将所述行车状态参数输入场景情绪模型,得到与所述行车状态参数对应的情绪特征值,作为乘员情绪;
执行与所述乘员情绪对应的情绪操作。
电子设备优选为汽车电子控制单元(Electronic Control Unit,ECU)。图4中以一个处理器401为例。
电子设备还可以包括:输入装置403和显示装置404。
处理器401、存储器402、输入装置403及显示装置404可以通过总线或者其他方式连接,图中以通过总线连接为例。
存储器402作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本申请实施例中的汽车乘员情绪识别对应的程序指令/模块,例如,图1所示的方法流程。处理器401通过运行存储在存储器402中的非易失性软件程序、指令以及模块,从而执行各种功能应用以及数据处理,即实现上述实施例中的汽车乘员情绪识别。
存储器402可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据汽车乘员情绪识别的使用所创建的数据等。此外,存储器402可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器402可选包括相对于处理器401远程设置的存储器,这些远程存储器可以通过网络连接至执行汽车乘员情绪识别的装置。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置403可接收输入的用户点击,以及产生与汽车乘员情绪识别的用户设置以及功能控制有关的信号输入。显示装置404可包括显示屏等显示设备。
在所述一个或者多个模块存储在所述存储器402中,当被所述一个或者多个处理器401运行时,执行上述任意方法实施例中的汽车乘员情绪识别。
本发明根据当前行车状态推测出用户当前的情绪状态,相比通过视觉或对话推测情绪,本发明的方式更加准确。本发明基于当前行车状态对用户当前情绪状态的推测,一方面推测的结果也会更加地精准,另一方面行车状态的因素容易获取并且可以量化,整体方案实施所需的硬件算力及成本相比视觉和对话推测的方案要低。
实施例五
本发明第五实施例一种汽车乘员情绪识别电子设备,包括:
至少一个处理器;
与至少一个所述处理器通信连接的存储器;其中,
所述存储器存储有可被至少一个所述处理器执行的指令,所述指令被至少一个所述处理器执行,以使至少一个所述处理器能够:
获取当前驾驶场景中的行车状态参数,所述行车状态参数包括:当前路况类型、当前天气状况、出行目的地类型、和/或出行时间段,其中:
所述路况类型包括路况畅通、路况缓行、和/或路况拥堵;
所述天气状况包括:光照、温度、风速、和/或天气类型;
所述出行目的地类型包括:休闲娱乐目的地、工作目的地、办事目的地、和/或医疗目的地;
所述出行时间段包括:在工作日的一个或多个出行时间段、和/或在节假日的一个或多个出行时间段;
将所述行车状态参数输入场景情绪模型,得到与所述行车状态参数对应的情绪特征值,作为乘员情绪,所述场景情绪模型采用如下方式训练得到:
获取多个参与者在多个驾驶场景下的情绪特征值;
以每个驾驶场景的行车状态参数作为训练输入,将与每个驾驶场景对应的情绪特征值作为训练响应,采用机器学习算法进行训练,得到关于行车状态参数与情绪特征值对应关系的场景情绪模型;
执行与所述乘员情绪对应的情绪操作。
本实施例通过选择合适的行车状态,对多个行车状态综合进行评价,使得最终得到的情绪特征值能够综合反映多个行车状态,提高情绪识别的准确性。
实施例六
本发明第六实施例一种汽车乘员情绪识别电子设备,包括:
至少一个处理器;
与至少一个所述处理器通信连接的存储器;其中,
所述存储器存储有可被至少一个所述处理器执行的指令,所述指令被至少一个所述处理器执行,以使至少一个所述处理器能够:
获取当前驾驶场景中的行车状态参数;
获取汽车乘员的乘员信息,将所述行车状态参数以及所述乘员信息输入场景乘员情绪模型,得到与所述行车状态参数和所述乘员信息对应的情绪特征值,作为所述乘员的乘员情绪,所述乘员信息包括乘员年龄、乘员喜好、乘员通勤时间、和/或乘员职业;
执行与所述乘员情绪对应的情绪操作。
本实施例将乘员信息与行车状态参数共同输入场景乘员情绪模型,得到所述行车状态参数和所述乘员信息对应的情绪特征值,能够更加准确地反映乘员的情绪。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (12)
1.一种汽车乘员情绪识别方法,其特征在于,包括:
获取当前驾驶场景中的行车状态参数;
将所述行车状态参数输入场景情绪模型,得到与所述行车状态参数对应的情绪特征值,作为乘员情绪;
执行与所述乘员情绪对应的情绪操作。
2.根据权利要求1所述的汽车乘员情绪识别方法,其特征在于,所述行车状态参数包括:当前路况类型、当前天气状况、出行目的地类型、和/或出行时间段。
3.根据权利要求2所述的汽车乘员情绪识别方法,其特征在于:
所述路况类型包括路况畅通、路况缓行、和/或路况拥堵;
所述天气状况包括:光照、温度、风速、和/或天气类型;
所述出行目的地类型包括:休闲娱乐目的地、工作目的地、办事目的地、和/或医疗目的地;
所述出行时间段包括:在工作日的一个或多个出行时间段、和/或在节假日的一个或多个出行时间段。
4.根据权利要求1所述的汽车乘员情绪识别方法,其特征在于,所述场景情绪模型采用如下方式训练得到:
获取多个参与者在多个驾驶场景下的情绪特征值;
以每个驾驶场景的行车状态参数作为训练输入,将与每个驾驶场景对应的情绪特征值作为训练响应,采用机器学习算法进行训练,得到关于行车状态参数与情绪特征值对应关系的场景情绪模型。
5.根据权利要求1所述的汽车乘员情绪识别方法,其特征在于,所述将所述行车状态参数输入场景情绪模型,得到与所述行车状态参数对应的情绪特征值,作为乘员情绪,具体包括:
获取汽车乘员的乘员信息,将所述行车状态参数以及所述乘员信息输入场景乘员情绪模型,得到与所述行车状态参数和所述乘员信息对应的情绪特征值,作为所述乘员的乘员情绪。
6.根据权利要求5所述的汽车乘员情绪识别方法,其特征在于,所述乘员信息包括乘员年龄、乘员喜好、乘员通勤时间、和/或乘员职业。
7.一种汽车乘员情绪识别电子设备,其特征在于,包括:
至少一个处理器;以及,
与至少一个所述处理器通信连接的存储器;其中,
所述存储器存储有可被至少一个所述处理器执行的指令,所述指令被至少一个所述处理器执行,以使至少一个所述处理器能够:
获取当前驾驶场景中的行车状态参数;
将所述行车状态参数输入场景情绪模型,得到与所述行车状态参数对应的情绪特征值,作为乘员情绪;
执行与所述乘员情绪对应的情绪操作。
8.根据权利要求7所述的汽车乘员情绪识别电子设备,其特征在于,所述行车状态参数包括:当前路况类型、当前天气状况、出行目的地类型、和/或出行时间段。
9.根据权利要求8所述的汽车乘员情绪识别电子设备,其特征在于:
所述路况类型包括路况畅通、路况缓行、和/或路况拥堵;
所述天气状况包括:光照、温度、风速、和/或天气类型;
所述出行目的地类型包括:休闲娱乐目的地、工作目的地、办事目的地、和/或医疗目的地;
所述出行时间段包括:在工作日的一个或多个出行时间段、和/或在节假日的一个或多个出行时间段。
10.根据权利要求7所述的汽车乘员情绪识别电子设备,其特征在于,所述场景情绪模型采用如下方式训练得到:
获取多个参与者在多个驾驶场景下的情绪特征值;
以每个驾驶场景的行车状态参数作为训练输入,将与每个驾驶场景对应的情绪特征值作为训练响应,采用机器学习算法进行训练,得到关于行车状态参数与情绪特征值对应关系的场景情绪模型。
11.根据权利要求7所述的汽车乘员情绪识别电子设备,其特征在于,所述将所述行车状态参数输入场景情绪模型,得到与所述行车状态参数对应的情绪特征值,作为乘员情绪,具体包括:
获取汽车乘员的乘员信息,将所述行车状态参数以及所述乘员信息输入场景乘员情绪模型,得到与所述行车状态参数和所述乘员信息对应的情绪特征值,作为所述乘员的乘员情绪。
12.根据权利要求11所述的汽车乘员情绪识别电子设备,其特征在于,所述乘员信息包括乘员年龄、乘员喜好、乘员通勤时间、和/或乘员职业。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010622404.XA CN111797755A (zh) | 2020-06-30 | 2020-06-30 | 一种汽车乘员情绪识别方法及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010622404.XA CN111797755A (zh) | 2020-06-30 | 2020-06-30 | 一种汽车乘员情绪识别方法及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111797755A true CN111797755A (zh) | 2020-10-20 |
Family
ID=72811010
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010622404.XA Pending CN111797755A (zh) | 2020-06-30 | 2020-06-30 | 一种汽车乘员情绪识别方法及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111797755A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113191283A (zh) * | 2021-05-08 | 2021-07-30 | 河北工业大学 | 一种基于在途出行者情绪变化的行驶路径决策方法 |
CN113246989A (zh) * | 2021-06-15 | 2021-08-13 | 奇瑞新能源汽车股份有限公司 | 基于情绪管理的车辆控制方法、装置及车辆 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107107748A (zh) * | 2014-12-30 | 2017-08-29 | Tk控股公司 | 乘员监视系统和方法 |
CN107531236A (zh) * | 2015-03-11 | 2018-01-02 | 埃尔瓦有限公司 | 基于乘员的车辆控制 |
CN109017797A (zh) * | 2018-08-17 | 2018-12-18 | 大陆汽车投资(上海)有限公司 | 驾驶员情绪识别方法和实施该方法的车载控制单元 |
CN109190459A (zh) * | 2018-07-20 | 2019-01-11 | 上海博泰悦臻电子设备制造有限公司 | 一种车主情绪识别及调节方法、存储介质及车载系统 |
CN110422174A (zh) * | 2018-04-26 | 2019-11-08 | 李尔公司 | 生物特征传感器融合以对车辆乘客状态进行分类 |
CN110450783A (zh) * | 2018-05-07 | 2019-11-15 | Zf腓德烈斯哈芬股份公司 | 用于运行自主车辆的控制单元和方法 |
-
2020
- 2020-06-30 CN CN202010622404.XA patent/CN111797755A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107107748A (zh) * | 2014-12-30 | 2017-08-29 | Tk控股公司 | 乘员监视系统和方法 |
CN107531236A (zh) * | 2015-03-11 | 2018-01-02 | 埃尔瓦有限公司 | 基于乘员的车辆控制 |
CN110422174A (zh) * | 2018-04-26 | 2019-11-08 | 李尔公司 | 生物特征传感器融合以对车辆乘客状态进行分类 |
CN110450783A (zh) * | 2018-05-07 | 2019-11-15 | Zf腓德烈斯哈芬股份公司 | 用于运行自主车辆的控制单元和方法 |
CN109190459A (zh) * | 2018-07-20 | 2019-01-11 | 上海博泰悦臻电子设备制造有限公司 | 一种车主情绪识别及调节方法、存储介质及车载系统 |
CN109017797A (zh) * | 2018-08-17 | 2018-12-18 | 大陆汽车投资(上海)有限公司 | 驾驶员情绪识别方法和实施该方法的车载控制单元 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113191283A (zh) * | 2021-05-08 | 2021-07-30 | 河北工业大学 | 一种基于在途出行者情绪变化的行驶路径决策方法 |
CN113246989A (zh) * | 2021-06-15 | 2021-08-13 | 奇瑞新能源汽车股份有限公司 | 基于情绪管理的车辆控制方法、装置及车辆 |
CN113246989B (zh) * | 2021-06-15 | 2022-04-12 | 奇瑞新能源汽车股份有限公司 | 基于情绪管理的车辆控制方法、装置及车辆 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11034362B2 (en) | Portable personalization | |
US7683767B2 (en) | Control device for controlling in-vehicle unit | |
CN110660397A (zh) | 对话系统、车辆和用于控制车辆的方法 | |
US20190120649A1 (en) | Dialogue system, vehicle including the dialogue system, and accident information processing method | |
CN110648661A (zh) | 对话系统、车辆和用于控制车辆的方法 | |
US20160214482A1 (en) | Personalized display system for integrating and varying car content, car content management method of personalized display system, and computer readable medium for performing car content management method | |
CN113723528B (zh) | 车载语视融合多模态交互方法及系统、设备、存储介质 | |
CN109920410B (zh) | 用于基于车辆的环境确定推荐的可靠性的装置和方法 | |
CN111523932A (zh) | 一种网约车服务的评分方法、装置、系统及存储介质 | |
CN111797755A (zh) | 一种汽车乘员情绪识别方法及电子设备 | |
US11004450B2 (en) | Dialogue system and dialogue processing method | |
CN115205729A (zh) | 基于多模态特征融合的行为识别方法、系统 | |
CN114684152A (zh) | 驾驶体验数据处理的方法、装置、车辆及介质 | |
CN110503947A (zh) | 对话系统、包括其的车辆和对话处理方法 | |
CN113320537A (zh) | 一种车辆控制方法和系统 | |
CN112070377B (zh) | 出行服务处理方法、装置、电子设备及存储介质 | |
CN113492756A (zh) | 一种车外信息展示方法、装置、设备及存储介质 | |
CN116483305A (zh) | 智能网联汽车数字虚拟人应用系统及其使用方法、车辆 | |
US11354516B2 (en) | Information processor and information processing program | |
CN110562260A (zh) | 对话系统和对话处理方法 | |
CN110689150A (zh) | 基于机器学习的订单预测方法、预测装置及计算机设备 | |
CN115214696A (zh) | 一种车机虚拟形象交互方法、系统、车辆及存储介质 | |
DE102021212744A1 (de) | Dialogsystem, fahrzeug mit demselben und verfahren zum steuern eines dialogsystems | |
CN113791841A (zh) | 一种执行指令确定方法、装置、设备及存储介质 | |
CN114690896A (zh) | 信息处理装置、信息处理方法及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 430056 No. 10 Dongfeng Avenue, Wuhan economic and Technological Development Zone, Wuhan, Hubei Applicant after: DONGFENG MOTER Co.,Ltd. Address before: 510800, Fengshen Road, Huadu District, Guangdong, Guangzhou 12 Applicant before: DONGFENG MOTER Co.,Ltd. |