CN113397548A - 驾驶员监测系统中将驾驶情绪与媒体诱发情绪分离的技术 - Google Patents
驾驶员监测系统中将驾驶情绪与媒体诱发情绪分离的技术 Download PDFInfo
- Publication number
- CN113397548A CN113397548A CN202110275100.5A CN202110275100A CN113397548A CN 113397548 A CN113397548 A CN 113397548A CN 202110275100 A CN202110275100 A CN 202110275100A CN 113397548 A CN113397548 A CN 113397548A
- Authority
- CN
- China
- Prior art keywords
- emotional state
- emotional
- user
- component
- emotion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 124
- 238000000034 method Methods 0.000 title claims description 59
- 238000012544 monitoring process Methods 0.000 title description 51
- 230000002996 emotional effect Effects 0.000 claims abstract description 342
- 230000006870 function Effects 0.000 claims description 55
- 230000037007 arousal Effects 0.000 claims description 29
- 238000004458 analytical method Methods 0.000 abstract description 84
- 230000008909 emotion recognition Effects 0.000 description 79
- 210000003128 head Anatomy 0.000 description 29
- 238000004891 communication Methods 0.000 description 26
- 230000036651 mood Effects 0.000 description 26
- 238000005259 measurement Methods 0.000 description 20
- 238000012545 processing Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 230000009471 action Effects 0.000 description 11
- 230000001149 cognitive effect Effects 0.000 description 10
- 230000004044 response Effects 0.000 description 10
- 230000008901 benefit Effects 0.000 description 9
- 230000006399 behavior Effects 0.000 description 8
- 230000003304 psychophysiological effect Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 7
- 238000004590 computer program Methods 0.000 description 6
- 239000003814 drug Substances 0.000 description 6
- 230000002349 favourable effect Effects 0.000 description 6
- 229910001385 heavy metal Inorganic materials 0.000 description 6
- 210000001747 pupil Anatomy 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 239000011435 rock Substances 0.000 description 4
- 231100000430 skin reaction Toxicity 0.000 description 4
- 230000036626 alertness Effects 0.000 description 3
- 230000017531 blood circulation Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000029058 respiratory gaseous exchange Effects 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 3
- 206010041349 Somnolence Diseases 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 2
- 239000008280 blood Substances 0.000 description 2
- 210000004369 blood Anatomy 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 229940079593 drug Drugs 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 229910052760 oxygen Inorganic materials 0.000 description 2
- 239000001301 oxygen Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 206010048909 Boredom Diseases 0.000 description 1
- 206010039740 Screaming Diseases 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000002826 coolant Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000000763 evoking effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000007383 nerve stimulation Effects 0.000 description 1
- 210000000653 nervous system Anatomy 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000035790 physiological processes and functions Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000001179 pupillary effect Effects 0.000 description 1
- 230000004270 retinal projection Effects 0.000 description 1
- 230000009291 secondary effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/162—Testing reaction times
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/18—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/70—Multimodal biometrics, e.g. combining information from different biometric modalities
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/81—Detection of presence or absence of voice signals for discriminating voice from music
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0872—Driver physiology
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/54—Audio sensitive means, e.g. ultrasound
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/22—Psychological state; Stress level or workload
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2400/00—Special features of vehicle units
- B60Y2400/30—Sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/179—Human faces, e.g. facial parts, sketches or expressions metadata assisted face recognition
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Hospice & Palliative Care (AREA)
- Child & Adolescent Psychology (AREA)
- Signal Processing (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Educational Technology (AREA)
- Psychology (AREA)
- Social Psychology (AREA)
- Developmental Disabilities (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Artificial Intelligence (AREA)
- Physiology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Traffic Control Systems (AREA)
Abstract
一个或多个实施方案包括一种用于计算和分析用户的情绪状态的情绪分析系统。所述情绪分析系统经由至少一个传感器获取与用户相关联的传感器数据。所述情绪分析系统基于所述传感器数据确定与用户相关联的情绪状态。所述情绪分析系统确定所述情绪状态中的与所述用户正在访问的媒体内容相对应的第一分量。所述情绪分析系统向所述情绪状态施加第一函数以从所述情绪状态中去除所述第一分量。
Description
技术领域
本公开的实施方案总体上涉及心理生理感测系统,并且更具体地涉及用于在驾驶员监测系统中将驾驶情绪与媒体诱发的情绪分离的技术。
背景技术
基于计算机的人类情绪状态识别正越来越多地应用于各种应用中。在一个特定示例中,驾驶员监测系统(DMS)可检测驾驶员的情绪状态,以便评估驾驶员如何对与车辆相关联的各种驾驶状况(诸如天气状况、交通状况和/或道路状况)做出反应。恶劣的天气、繁忙的交通和维护不善的道路可能导致驾驶员陷入痛苦、愤怒和/或激动的情绪状态。相比之下,良好的天气、轻闲的交通和维护良好的道路可能使驾驶员处于平静、放松和/或愉快的情绪状态。响应于对驾驶员的情绪状态的评估,DMS可采取某些动作,诸如以文本、或音频或其他形式(诸如指示器、灯光、触觉输出等)向驾驶员呈现建议和/或警报。
上述技术的一个潜在缺点是,驾驶员的情绪状态可能是由除当前驾驶状况之外的多种因素引起的。例如,驾驶员的情绪状态可能受到驾驶员正在收听的媒体内容的影响,诸如音乐、新闻、谈话广播、有声读物等。进一步,驾驶员的情绪状态可能受到驾驶员与乘客之间的面对面交谈或驾驶员与一个或多个其他人之间的电话交谈的影响。即使在良好的驾驶状况下,激进的音乐或不悦的交谈也可能导致驾驶员处于痛苦、愤怒和/或激动的情绪状态。相比之下,即使在有压力的驾驶状况下,冥想的音乐或愉悦的交谈也可能导致驾驶员处于平静、放松和/或愉悦的情绪状态。即使在驾驶员应保持警惕和积极主动的驾驶状况下,这种冥想的音乐或愉悦的交谈也可能导致驾驶员处于平静和放松的状态。因此,在情绪状态受到除当前驾驶状况以外的因素影响的情况下,基于计算机对驾驶员的情绪状态的识别来对驾驶状况进行评估可能是不正确的。因此,依赖于这种对驾驶状况的不正确评估的DMS可能会向驾驶员提供不正确的信息。
如前述内容所示,用于确定用户对驾驶状况的反应的改进的技术将是有用的。
发明内容
本公开的各种实施方案阐述了一种用于计算和分析用户的情绪状态的计算机实现的方法。该方法包括经由至少一个传感器获取与用户相关联的传感器数据。该方法进一步包括基于传感器数据确定与用户相关联的情绪状态。该方法进一步包括确定情绪状态的与用户正在访问的媒体内容相对应的第一分量。该方法进一步包括向情绪状态施加第一函数以从情绪状态中去除第一分量。
其他实施方案包括但不限于一种实现所公开技术的一个或多个方面的系统以及包括用于执行所公开技术的一个或多个方面的指令的一种或多种计算机可读介质。
所公开技术相对于现有技术的至少一个技术优势在于,可处理与驾驶员的情绪状态相关联的数据以通过去除因媒体内容和/或其他因素引起的对驾驶员的情绪状态的贡献来更准确地将因驾驶状况引起的对驾驶员的情绪状态的贡献从驾驶员的整体情绪状态中分离出来。因此,DMS可响应于驾驶状况对驾驶员的情绪状态的贡献而对驾驶员生成更适当的响应动作。所公开技术的另一个技术优势在于一种中央服务器系统,其聚合了来自多个驾驶员的情绪状态数据,可使用对驾驶状况对驾驶员的情绪状态的贡献的更准确评估来生成对特定区域内驾驶状况的整体有利或不利的更准确评估。这些技术优势表示相对于现有技术方法的一个或多个技术改进。
附图说明
为了能够详细理解以上阐述一个或多个实施方案的引述的特征的方式,可以通过参考某些特定实施方案对上述简要总结的一个或多个实施方案进行更具体的描述,其中一些实施方案在附图中示出。然而,应当注意的是,附图仅示出了典型的实施方案,且因此不应被认为以任何方式限制其范围,因为本公开的范围也包括其它实施方案。
图1示出了被配置为实施本公开的一个或多个方面的系统;
图2是根据各种实施方案的图1的情绪分析系统的更详细的图示;
图3A-图3C是根据各种实施方案的示出图1的系统的各种配置的概念图;
图4A-图4B示出了根据各种实施方案的与图1的系统相关联的传感器的示例布置;
图5A-图5B示出了根据各种实施方案的用于沿各种维度映射情绪状态的示例模型;以及
图6是根据各种实施方案的用于计算和分析用户的情绪状态的方法步骤的流程图。
具体实施方式
在以下描述中,阐述了许多具体细节,以提供对某些具体实施方案的更全面的理解。然而,对于本领域技术人员来说明显是,可以在没有这些具体细节中的一个或多个或者在具有附加具体细节的情况下实践其它实施方案。
如本文进一步描述的,现有的情绪分析系统被配置为确定用户的整体情绪状态。例如,与驾驶员监测系统(DMS)相关联的情绪分析系统可被配置为确定车辆驾驶员的整体情绪状态。驾驶员的整体情绪状态可以是多种因素的综合,包括但不限于驾驶状况、驾驶员正在访问的媒体内容、驾驶员与乘客之间的面对面交谈、驾驶员与远程定位的人之间的电话交谈等。与DMS相关联的某些应用受益于对驾驶员因驾驶状况(诸如天气状况、交通状况和/或道路状况)引起的情绪状态的准确评估。就这一点而言,本公开的情绪分析系统确定驾驶员因驾驶状况之外的因素引起的情绪状态的一个或多个分量并且从驾驶员的整体情绪状态中去除那些分量。因此,剩余的情绪状态数据表示驾驶员因去除的分量之外的因素引起的情绪状态。就这一点而言,剩余的情绪状态数据更准确地表示驾驶员因驾驶状况引起的情绪状态。
在一个示例中,情绪分析系统确定驾驶员的整体情绪状态。然后,情绪分析系统确定驾驶员因收听或以其他方式消费媒体内容引起的情绪状态的分量。情绪分析系统从驾驶员的整体情绪状态中去除驾驶员因收听媒体内容引起的情绪状态的分量。附加地或替代地,情绪分析系统确定驾驶员因一个或多个附加因素引起的情绪状态的分量,诸如驾驶员与乘客之间的面对面交谈、驾驶员与其他人之间的电话交谈等。情绪分析系统继而去除驾驶员因这些其他因素中的每一个引起的情绪状态的分量。剩余的情绪状态数据更准确地表示驾驶员因驾驶状况引起的情绪状态。
系统概述
图1示出了被配置为实施本公开的一个或多个方面的系统100。如图所示,系统100包括但不限于远程服务器系统102、遥测和空中系统104、驾驶员监测系统106和情绪分析系统108。远程服务器系统102以及遥测和空中系统104经由通信网络110相互通信。通信网络110可以是使远程或本地计算机系统和计算设备之间能够进行通信的任何合适的环境,包括但不限于蓝牙通信信道、无线和有线LAN(局域网)、WAN(广域网)、蜂窝网络、卫星网络、高空气球网络(和其他大气卫星网络)、对等类型的网络、车辆对外界(V2X)网络等。远程服务器系统102以及遥测和空中系统104分别经由通信链路112和114通过通信网络110进行通信。进一步,遥测和空中系统104分别经由通信链路120和118与驾驶员监测系统106和情绪分析系统108进行通信。驾驶员监测系统106经由通信链路116与情绪分析系统108进行通信。通信链路116、118和120可以采用以任何组合的任何一种或多种技术上可行的通信介质和协议。
远程服务器系统102包括但不限于计算设备,该计算设备可以是独立服务器、服务器的集群或“场”、一个或多个网络家电、或者适于实施本公开的一个或多个方面的任何其他设备。说明性地,远程服务器系统102经由通信链路112通过通信网络110进行通信。
在操作中,远程服务器系统102从一个或多个情绪分析系统108接收情绪状态数据。在一些实施方案中,远程服务器系统102结合情绪分析系统108来执行本文描述的技术中的一种或多种。进一步,远程服务器系统102聚合并分析来自给定地理区域中的多个用户的情绪状态数据。基于聚合的情绪状态数据,远程服务器系统102可评估给定地理区域中的驾驶状况是有利还是不利。中央服务器系统可使其他驾驶员远离被评估为具有较不利驾驶状况的区域行驶并且朝着被评估为具有较有利驾驶状况的区域行驶。以这种方式,基于计算机的人类情绪状态识别可改善单个驾驶员以及作为总体来说一组驾驶员的体验。
遥测和空中系统104包括但不限于计算设备,该计算设备可以是独立服务器、服务器的集群或“场”、一个或多个网络家电、或者适于实施本公开的一个或多个方面的任何其他设备。说明性地,遥测和空中系统104经由通信链路114通过通信网络110进行通信。进一步,遥测和空中系统104分别经由通信链路120和118与驾驶员监测系统106和情绪分析系统108进行通信。
在操作中,遥测和空中系统104从驾驶员监测系统106和/或情绪分析系统108接收测量数据。测量数据可包括与系统100的各种部件相关的信息,包括但不限于传感器数据、仪表、相机图像、视频等。测量数据可进一步包括经处理的数据,其中驾驶员监测系统106和/或情绪分析系统108分析某些测量数据,诸如传感器数据、仪表、相机图像、视频等,并由此生成经处理的数据。此类经处理的数据可包括但不限于情绪状态数据。然后,遥测和空中系统104经由通信网络110将来自驾驶员监测系统106和/或情绪分析系统108的测量数据传输到远程服务器系统102。
驾驶员监测系统106包括但不限于计算设备,该计算设备可以是独立服务器、服务器的集群或“场”、一个或多个网络家电、或者适于实施本公开的一个或多个方面的任何其它设备。说明性地,驾驶员监测系统106分别经由通信链路120和116与遥测和空中系统104和情绪分析系统108进行通信。
在操作中,驾驶员监测系统106监测车辆的驾驶员以确定某些特性,诸如驾驶员的警觉性状态。驾驶员监测系统106经由各种设备接收测量数据,所述设备包括但不限于相机、传声器、红外传感器、超声传感器、雷达传感器、热成像传感器、心率和呼吸监测器、车辆仪表传感器等。通过分析测量数据,驾驶员监测系统106确定驾驶员的整体生理状态,该生理状态可包括驾驶员的警觉性水平。如果驾驶员监测系统106确定驾驶员不是足够警觉的,则驾驶员监测系统106可启动某些响应动作,包括但不限于闪烁内部灯、发出警报、应用制动器来安全地减慢或停止车辆等。进一步,驾驶员监测系统106将经由各种设备所接收的测量数据传输到情绪分析系统108,以便进行附加分析,如本文进一步描述的那样。
情绪分析系统108包括但不限于计算设备,该计算设备可以是独立服务器、服务器的集群或“场”、一个或多个网络家电、或者适于实施本公开的一个或多个方面的任何其他设备。说明性地,情绪分析系统108分别经由通信链路118和116与遥测和空中系统104和驾驶员监测系统106进行通信。
在操作中,情绪分析系统108从驾驶员监测系统106接收测量数据。测量数据经由与驾驶员监测系统106相关联的各种设备接收。情绪分析系统108分析测量数据,以便生成与驾驶员或其他用户的情绪状态相关的经处理的数据,如本文进一步描述的那样。情绪分析系统108将测量数据和经处理的数据中的一者或两者存储在数据存储区中。在一些实施方案中,情绪分析系统108可将经处理的数据传输到驾驶员监测系统106。然后,驾驶员监测系统106可基于经处理的数据执行一个或多个响应动作。在一些实施方案中,情绪分析系统108可将测量数据和经处理的数据中的一者或两者传输到遥测和空中系统104。然后,遥测和空中系统104可经由通信网络110将测量数据和/或经处理的数据传输到远程服务器系统102。
应当理解的是,本文所示的系统是说明性的,并且变化和修改是可能的。在一个示例中,远程服务器系统102、遥测和空中系统104、驾驶员监测系统106和情绪分析系统108被示为经由某些联网和通信链路进行通信。然而,在本公开的范围内,远程服务器系统102、遥测和空中系统104、驾驶员监测系统106和情绪分析系统108可以经由任何技术上可行的联网和通信链路以任何技术上可行的组合相互通信。
在另一示例中,远程服务器系统102、遥测和空中系统104、驾驶员监测系统106和情绪分析系统108被示为包括在图1的系统100中的单独系统。然而,由远程服务器系统102、遥测和空中系统104、驾驶员监测系统106和情绪分析系统108执行的技术可以由在一个或多个计算设备中包括的一个或多个任何技术上可行的处理器上执行的一个或多个应用程序或模块以任何技术上可行的组合执行。此类计算设备可以包括但不限于部署在车辆中的头部单元和辅助单元。在又一示例中,远程服务器系统102、遥测和空中系统104、驾驶员监测系统106和情绪分析系统108在基于车辆的计算系统的情景中示出和描述,该基于车辆的计算系统接收并处理驾驶员和/或一名或多名乘客的情绪状态数据。然而,本文描述的技术可被部署在任何技术上可行的系统中,所述系统接收并监测用户的情绪状态,包括但不限于智能电话、膝上型计算机、平板计算机、桌面计算机等。在又一示例中,系统100可以包括以任何技术上可行的组合的任何技术上可行数量的远程服务器系统102、遥测和空中系统104、驾驶员监测系统106和情绪分析系统108。
情绪状态分析系统的操作
图2是根据各种实施方案的图1的情绪分析系统108的更详细的图示。如图所示,情绪分析系统108包括但不限于处理器202、存储装置204、输入/输出(I/O)设备接口206、网络接口208、互连件210和系统存储器212。
处理器202检索并执行存储在系统存储器212中的编程指令。类似地,处理器202存储和检索驻留在系统存储器212中的应用数据。互连件210有助于处理器202、I/O设备接口206、存储装置204、网络接口208和系统存储器212之间的传输,诸如编程指令和应用数据的传输。I/O设备接口206被配置为从用户I/O设备222接收输入数据。用户I/O设备222的示例可包括一个或多个按钮、键盘、鼠标或其他定点设备等。I/O设备接口206还可包括被配置为生成电音频输出信号的音频输出单元,并且用户I/O设备222可进一步包括被配置为响应电音频输出信号生成声音输出的扬声器。用户I/O设备222的另一示例是显示设备,其通常代表用于生成图像以供显示的任何技术上可行的装置。例如,显示设备可以是液晶显示(LCD)显示器、有机发光二极管(OLED)显示器或数字光处理(DLP)显示器。显示设备可以是包括用于接收数字或模拟电视信号的广播或有线调谐器的TV。显示设备可以包括在VR/AR头戴式耳机或平视显示器(HUD)组合件中。进一步,显示设备可以将图像投影到一个或多个表面上,诸如墙壁、投影屏幕或车辆的挡风玻璃。附加地或替代地,显示设备可将图像直接投影到用户的眼睛上(例如,经由视网膜投影)。
包括处理器202来表示单个中央处理单元(CPU)、多个CPU、具有多个处理核心的单个CPU、数字信号处理器(DSP)、现场可编程门阵列(FPGA)、图形处理单元(GPU)、张量处理单元等。并且通常包括系统存储器212来表示随机存取存储器。存储装置204可以是磁盘驱动器存储设备。尽管被示出为单个单元,但是存储装置204可以是固定和/或可移动存储设备的组合,诸如固定盘驱动器、软盘驱动器、磁带驱动器、可移动存储卡或光存储装置、网络附接存储装置(NAS)或存储区域网络(SAN)。处理器202经由网络接口208与其它计算设备和系统通信,其中网络接口208被配置为经由通信网络传输和接收数据。
系统存储器212包括但不限于驾驶员情绪识别模块232、媒体情绪识别模块234、交谈情绪识别模块236、情绪标准化器模块238和数据存储区242。当由处理器202执行时,驾驶员情绪识别模块232、媒体情绪识别模块234和情绪标准化器模块238执行与图1的情绪分析系统108相关联的一个或多个操作,如本文进一步描述的那样。当执行与情绪分析系统108相关联的操作时,驾驶员情绪识别模块232、媒体情绪识别模块234、情绪标准化器模块238可将数据存储在数据存储区242中并从数据存储区中检索数据。
在操作中,驾驶员情绪识别模块232基于各种传感器数据来确定并分类驾驶员的情绪状态,所述传感器数据接收面部特征和其他视觉提示、声音声调和其他音频提示、生理信号、方向盘的抖动或其他运动、频繁制动等。驾驶员情绪识别模块232可基于情绪状态的二维模型或三维模型来对情绪状态进行分类,如本文进一步描述的那样。情绪状态通常利用诸如快乐、悲伤、愤怒和愉悦的描述性术语来定性地描述。此类描述性术语可能很难用算法分析。因此,驾驶员情绪识别模块232确定沿各种维度的数值以表示驾驶员的情绪状态。在二维模型中,驾驶员情绪识别模块232确定情绪状态的两个数字表示的值。例如,驾驶员情绪识别模块232可确定用于情绪唤醒的第一数值和用于情绪效价的第二数值。在二维模型中,驾驶员的情绪状态可用以下公式1表达:
情绪驾驶员=f(驾驶员效价,驾驶员唤醒) 公式1
在三维模型中,驾驶员情绪识别模块232确定情绪状态的三个数字表示的值。例如,驾驶员情绪识别模块232可确定用于情绪唤醒的第一数值、用于情绪效价的第二数值以及用于情绪主导的第三数值。情绪主导在本文中也被称为情绪立场。在三维模型中,驾驶员的情绪状态可用以下公式2表达:
情绪驾驶员=f(驾驶员效价,驾驶员唤醒,驾驶员主导) 公式2
无论采用二维模型还是三维模型,驾驶员情绪识别模块232都确定驾驶员因所有相关因素引起的情绪状态。在以下讨论中,为清楚起见,假定了三维模型。然而,本文所公开的每种技术都可以采用以任何技术上可行的组合的二维模型、三维模型或更高维模型。
在操作中,媒体情绪识别模块234确定并分类由于某些因素引起的驾驶员和/或其他用户正在访问的媒体的情绪内容。驾驶员和/或其他用户正在访问的媒体的情绪内容可能影响驾驶员和/或其他用户的情绪状态的至少一部分。媒体情绪识别模块234可经由任何技术上可行的技术来确定并分类媒体的情绪内容,所述技术包括但不限于算法技术和机器学习技术。媒体情绪识别模块234可基于情绪状态的二维模型、三维模型或更高维模型来对情绪内容进行分类,如本文进一步描述的那样。
更具体地,媒体情绪识别模块234确定车辆中当前正在播放的媒体内容的情绪内容。媒体内容可为任何形式,包括但不限于音乐、新闻节目、谈话广播等。例如,如果驾驶员正在收听有趣的谈话广播节目,则媒体情绪识别模块234可确定驾驶员因媒体内容而处于高兴、快乐和/或兴奋的情绪状态。如果驾驶员正在收听大声且激进的音乐,则媒体情绪识别模块234可确定驾驶员因媒体内容而处于激进和/或有压力的情绪状态。媒体情绪识别模块234可经由任何一种或多种技术上可行的技术来对媒体内容进行分类。在一个示例中,媒体情绪识别模块234可在声学上分析音乐内容以确定由媒体内容表示或诱发的典型情绪状态。在另一示例中,媒体情绪识别模块234可从音乐歌词数据库检索歌曲的歌词。附加地或替代地,媒体情绪识别模块234可对音乐歌词、新闻节目或谈话广播节目执行语音到文本的转换。媒体情绪识别模块234可分析所得的文本并确定与文本相关联的情绪状态。附加地或替代地,媒体情绪识别模块234可分析唱出的或说出的字词的声音声调以基于声音声调是激进、还是令人宽慰等来关联情绪状态。
在又一示例中,媒体情绪识别模块234可基于先前定义的呈描述、标签、标记、元数据等形式的分类来对媒体内容进行分类。媒体情绪识别模块234将此类描述、标签、标记、或元数据映射或以其他方式关联到特定的情绪状态。媒体情绪识别模块234可将媒体内容分类为某些类型的媒体内容,并且通过使用启发式方法来为媒体内容生成适当的标签。例如,媒体情绪识别模块234可将被归类为喜剧的媒体内容分类为诱发高兴的情绪状态。类似地,媒体情绪识别模块234可将归类为重金属的媒体内容分类为诱发激进的情绪状态。媒体情绪识别模块234将这些类别或标签转换为二维模型(包括情绪唤醒和情绪效价)、三维模型(包括情绪唤醒、情绪效价和情绪主导)或更高维模型。在三维模型中,由媒体内容表示的因媒体内容产生的情绪状态可用以下公式3表达:
情绪媒体=f(媒体效价,媒体唤醒,媒体主导) 公式3
在操作中,情绪标准化器模块238通过从整体情绪状态中去除因收听媒体内容引起的情绪状态的分量来连续地生成驾驶员因驾驶状况引起的情绪状态数据。情绪标准化器模块238从驾驶员情绪识别模块232接收驾驶员的整体情绪状态。情绪标准化器模块238从媒体情绪识别模块234接收驾驶员因收听媒体内容引起的情绪状态。作为响应,情绪标准化器模块238从驾驶员的整体情绪状态中去除表示驾驶员因收听媒体内容引起的情绪状态的分量。情绪标准化器模块238经由任何技术上可行的技术来去除分量,所述技术包括但不限于加法/减法技术、合取技术、分离技术、贝叶斯模型技术等。剩余的情绪状态数据表示驾驶员因除收听媒体内容以外的因素引起的情绪状态。因此,剩余的情绪状态数据更准确地表示驾驶员因驾驶状况引起的情绪状态。驾驶员因驾驶状况引起的情绪状态可用以下公式4表达:
情绪因驾驶引起=f(情绪驾驶员,情绪媒体) 公式4
驾驶员因驾驶状况引起的情绪状态可使用三维模型用以下公式5完整表达:
情绪因驾驶引起=f{(驾驶员效价,媒体效价),(驾驶员唤醒,媒体唤醒),(驾驶员主导,媒体主导)} 公式5
如果情绪驾驶员和情绪媒体具有减法关系,则驾驶员因驾驶状况引起的情绪状态可等效地用以下公式6和7表达
情绪因驾驶引起=情绪驾驶员–情绪媒体 公式6
情绪因驾驶引起=f((驾驶员效价–媒体效价),(驾驶员唤醒–媒体唤醒),(驾驶员主导–媒体主导)) 公式7
在一些实施方案中,交谈情绪识别模块236可与情绪标准化器模块238结合来从驾驶员的整体情绪状态中去除情绪状态的一个或多个附加分量,以便进一步细化所得到的情绪状态。在一个示例中,交谈情绪识别模块236可分析驾驶员与乘客之间的面对面交谈或驾驶员与另一人之间的电话交谈。交谈情绪识别模块236可对驾驶员说出的字词执行语音到文本的转换。交谈情绪识别模块236可分析所得的文本并确定与文本相关联的情绪状态。附加地或替代地,交谈情绪识别模块236可分析说出的字词的声音声调以基于声音声调是激进、还是令人宽慰等来关联情绪状态。类似地,交谈情绪识别模块236可分析乘客或参与交谈的其他人的文本和声音声调。在此类情况下,交谈情绪识别模块236可将比从乘客或其他人的语音导出的情绪状态更高的权重施加于从驾驶员的语音导出的情绪状态。然后,情绪标准化器模块238可从驾驶员的情绪状态中去除该附加分量。然后,驾驶员因驾驶状况引起的情绪状态可用以下公式8表达:
情绪因驾驶引起=f(情绪驾驶员,情绪媒体,情绪因交谈引起) 公式8
如果情绪驾驶员、情绪媒体和情绪因交谈引起具有减法关系,则驾驶员因驾驶状况引起的情绪状态可等效地用以下公式9表达:
情绪因驾驶引起=情绪驾驶员–情绪媒体–情绪因交谈引起 公式9
应当理解的是,本文所示的系统是说明性的,并且变化和修改是可能的。具体地,情绪分析系统108可不包括交谈情绪识别模块236。在此类情况下,情绪分析系统108可不执行结合交谈情绪识别模块236所描述的功能。附加地或替代地,结合交谈情绪识别模块236所描述的功能中的一个或多个可由一个或多个其他模块执行,诸如驾驶员情绪识别模块232、媒体情绪识别模块234、情绪标准化器模块238等。
在一些实施方案中,在逐个情绪的基础上而不是基于二维模型或三维模型来分析情绪状态。在此类实施方案中,媒体情绪识别模块234和/或交谈情绪识别模块236可一次一个地分析幸福、愤怒和/或任何其他相关情绪。然后,情绪标准化器模块238可在逐个情绪的基础上去除因媒体内容、驾驶员交谈和/或其他分量引起的分量。然后,所得的因驾驶状况引起的幸福和愤怒的情绪状态可用以下公式10和11表达:
幸福因驾驶引起=f(幸福驾驶员,幸福媒体) 公式10
愤怒因驾驶引起=f(愤怒驾驶员,愤怒媒体) 公式11
如果公式10和11的元素具有减法关系,则因驾驶状况引起的幸福和愤怒的情绪状态可用以下公式12和13等效地表达:
幸福因驾驶引起=幸福驾驶员–幸福媒体 公式12
愤怒因驾驶引起=愤怒驾驶员–愤怒媒体 公式13
在一些实施方案中,媒体情绪识别模块234和/或交谈情绪识别模块236可生成针对特定驾驶员定制的情绪状态数据。作为一个示例,激进的重金属音乐通常会导致驾驶员的情绪状态变得更加痛苦和激进。然而,对重金属音乐有强烈亲和力的驾驶员在收听此类音乐时可能会经历更平静和/或更愉悦的情绪状态。类似地,平静、冥想的音乐通常会导致驾驶员的情绪状态变得更加平静和/或愉悦。然而,非常不喜欢冥想音乐的驾驶员在收听此类音乐时可能会经历更激动和/或更有压力的情绪状态。
在一些实施方案中,媒体情绪识别模块234和/或交谈情绪识别模块236可跟踪因媒体内容、交谈和/或其他分量随时间推移引起的情绪状态变化。例如,驾驶员可能正在收听硬摇滚音乐,然后变为轻音乐。因此,媒体情绪识别模块234可确定驾驶员的情绪状态由于从硬摇滚音乐到轻音乐的改变而不是驾驶状况的改变而变得更加平静并且压力更小。类似地,驾驶员可能正在收听轻音乐,然后变为硬摇滚音乐。因此,媒体情绪识别模块234可确定驾驶员的情绪状态由于从轻音乐到硬摇滚音乐的改变而不是驾驶状况的改变而变得更加激动和更有压力。
现在更详细地描述各种类型的传感器数据和相关联的处理。传感器数据被分类为情绪感测、生理感测、行为感测、声学感测和基于瞳孔测量的认知工作负荷感测。
情绪感测包括检测和分类情绪和情绪状态。情绪感测包括检测谨慎的和已知的情绪,诸如幸福、满足、愤怒和沮丧。情绪感测包括计算与情绪状态相关的参数化度量,诸如情绪唤醒水平和情绪效价水平。情绪感测基于从各种类型的传感器所接收的数据。
可从心理生理传感器接收传感器数据,所述心理生理传感器测量与用户相关联的各种生物和生理信号,包括但不限于出汗、心率、呼吸率、血流量、血氧水平、皮肤电反应、温度、由用户发出的声音、用户的行为等。此类传感器数据表示与情绪检测相关的各种类型的信号。此外,图像数据可从被配置为捕获静止图像和运动图像的相机和其他成像传感器接收,所述图像包括但不限于彩色图像、黑白图像、热图像、红外图像等。此类相机和成像传感器捕获用户的面部表情或可指示情绪的用户的身体位置和/或扭曲的其他图像。在一些实施方案中,可以从相机或成像传感器阵列接收图像,以便同时捕获用户的身体和头部的多个视角。进一步,在一些实施方案中,可以从深度相机或成像传感器接收图像,以便感测身体姿势和身体定位。
生理感测包括捕获与情绪状态相关的各种生理信号的检测系统。从此类传感器所接收的信号与某些情绪状态相关,并且因此与情绪分类相关。例如,皮肤电反应可以指示情绪状态的强度。生理传感器可包括但不限于用于测量由情绪压力引起的皮肤的电阻变化的皮肤电反应传感器、用于检测血氧水平的成像器、用于检测血流量的热传感器、用于检测血流量的光学传感器、用于检测大脑表面电位的EEG系统、EOG传感器(通过监测人眼前后之间的电位来测量眼睛运动的眼电图传感器)、EMG传感器(测量响应于神经对肌肉的刺激的电活动的肌电图传感器)、ECG传感器(测量心脏的电活动的心电图传感器)、高频无线电传感器(诸如用于测量心率和呼吸率的GHz波段无线电)、用于检测情绪的神经相关因素的神经系统等。
声学感测包括分析用户说出的字词以及用户如何说出给定的短语,这些指示情感情绪。声学感测进一步包括由用户发出的非语音人类声音,包括但不限于口哨、哼唱、大笑或尖叫,这些可指示用户的情绪状态。在一个示例中,自然语言处理方法、情感分析和/或语音分析可经由语言的语义意义来测量情绪。在另一示例中,声音声调分析可根据实际语音信号检测情绪。这两种方法都可单独使用或组合使用。典型的声学传感器数据包括但不限于传声器、传声器阵列和/或其他音频感测技术。
行为感测包括检测车辆内和车辆周围的用户的活动。本文进一步描述的传感器中的一些可以用于检测在车辆内和车辆周围的运动。应用和服务使用数据还可指示用户的行为并通过分类系统推断情绪。在一个示例中,移动使用数据可以指示与特定情绪状态相关的、由用户的应用使用的模式。如果应用被归类为游戏应用或社交应用,执行这样的应用可能与快乐、幸福和/或相关的社交情绪有关。行为传感器可进一步包括但不限于相机、成像传感器、听觉传感器、深度相机、压力传感器等。这些传感器记录用户在车辆中和车辆周围的身体位置、运动和其他行为。这样的身体位置、运动和/或行为数据可与诸如无聊、疲劳和唤醒的情绪相关。行为传感器可进一步包括但不限于触摸传感器、声学传感器、按钮按下的记录或确定用户在车辆中的行为方式的其他用户界面交互等。此类传感器数据可以指示在任何给定时间用户正在访问哪些系统以及用户将他或她的手放在哪里。
基于瞳孔测量的认知工作负荷感测测量用户的瞳孔直径的微小波动。此类微小的波动已经在科学上与用户不时地正在经历的认知工作负荷相链接。可以采用其它相关技术来测量认知工作负荷。能够测量认知工作负荷的传感器包括但不限于对用户的瞳孔成像以便测量瞳孔直径和/或眼睛运动的变化的相机和成像传感器。此类相机和成像传感器包括但不限于红外相机、热传感器、高分辨率彩色或黑白相机、捕获用户的身体和头部的多个视角的相机阵列等。生理传感器包括但不限于以相对低的分辨率测量认知工作负荷的皮肤电反应传感器、心率传感器、皮肤温度传感器等。在一些实施方案中,EEG和其它神经界面可以检测多个认知工作负荷水平。与根据EEG和其他神经数据测量认知工作负荷相关的方法包括谱熵、加权平均频率、带宽、频谱边缘频率等。在一些实施方案中,语音分析可以用于认知工作负荷感测。特别地,频谱重心频率和幅值,利用对滤波器长度和滤波器数量的一些参数拟合,可以成功地对各种认知工作负荷水平进行分类。
在一些实施方案中,驾驶员情绪识别模块232、媒体情绪识别模块234和/或情绪标准化器模块238可将传感器数据和经处理的数据划分为几个级别,其中每个级别与不同的抽象程度相关联。第一数据级别可以包括原始传感器数据,包括但不限于来自相机、传声器、红外传感器和车辆仪表传感器的数据。第二数据级别可包括但不限于与用户相关联的生物数据,包括但不限于心率、温度、出汗、头部位置、面部位置、瞳孔直径数据和眼睛注视方向。
第三数据级别可包括表示用户的各种更高状态的经处理的数据,包括但不限于情绪状态。情绪状态数据指示用户的感受。情绪状态数据可以被分为情绪唤醒数据和情绪效价数据。情绪唤醒数据表示用户经历的情绪状态的程度。情绪效价数据指示情绪状态是与积极情绪(诸如幸福和满足)相关联,还是与消极情绪(诸如愤怒和沮丧)相关联。
在一个特定示例中,用户正在高速公路上开车回家,天气很好,环境非常安静优美。用户正在车辆的媒体播放器上收听重金属音乐。驾驶员情绪识别模块232检测到用户处于激动、激进状态。媒体情绪识别模块234检测到因驾驶员收听重金属音乐引起的激动、激进状态。情绪标准化器模块238从驾驶员的整体情绪状态中去除因重金属音乐内容引起的情绪状态的激动、激进分量。情绪标准化器模块238确定所得的情绪状态更加平静且无压力。因此,情绪标准化器模块238不执行任何响应动作。
在另一特定示例中,用户在暴雨和雨夹雪中行驶在繁忙的市区。用户正在收听录音带上的冥想指导书。驾驶员情绪识别模块232检测到用户的情绪状态极其放松并且几乎昏昏欲睡。媒体情绪识别模块234分析用户正在收听的媒体内容,并确定用户的平静大部分是由于平静的媒体内容引起的。情绪标准化器模块238从驾驶员的整体情绪状态中去除因冥想相关媒体内容引起的情绪状态的平静分量。情绪标准化器模块238确定所得的因驾驶状况引起的情绪状态指示有压力的驾驶状况。因此,情绪标准化器模块238可执行一个或多个响应动作。
在又一特定示例中,在情绪标准化器模块238确定用户因驾驶状况引起的情绪状态之后,情绪标准化器模块238将该情绪状态数据传输到遥测和空中系统104。遥测和空中系统104继而将该情绪状态数据传输到远程服务器系统102。远程服务器系统102从特定地理区域中的各种情绪分析系统108接收情绪状态数据。远程服务器系统102生成地理区域的热图,该热图显示该区域中每个驾驶员的幸福、压力和/或其他情绪状态。远程服务器系统102可随时间和/或在一组驾驶员上聚合该地理区域中的每个驾驶员的情绪状态。然后,远程服务器系统102将热图数据传输到一个或多个情绪分析系统108。然后,已接收到热图数据的特定车辆的驾驶员可选择穿过该区域的路线,在该区域中,驾驶状况导致更多的驾驶员具有高兴的情绪状态和/或更少的驾驶员具有有压力的情绪状态。
图3A-图3C是根据各种实施方案的示出图1的系统的各种配置的概念图。
如图3A所示,头部单元310包括核心头部单元模块332、驾驶员监测模块334、遥测和空中模块336以及情绪分析模块338。头部单元310包括具有与核心头部单元模块332、驾驶员监测模块334、遥测和空中模块336以及情绪分析模块338相关联的足够的处理和存储器资源的计算设备。核心头部单元模块332执行与车辆的操作相关联的各种功能,包括但不限于娱乐和媒体功能、导航和车辆监测。车辆监测包括与轮胎压力、油位、冷却液温度、车辆维护等相关的监测和显示功能。
驾驶员监测模块334执行与图1的驾驶员监测系统106相关联的各种功能。这些功能包括但不限于监测车辆驾驶员以确定驾驶员的警觉性状态,和/或将经由各种设备所接收的测量数据传输到情绪分析模块338以便进行附加分析。
遥测和空中模块336执行与图1的遥测和空中系统104相关联的各种功能。这些功能包括但不限于:从驾驶员监测系统106和/或情绪分析系统108接收测量数据;将测量数据传输到远程服务器系统102;从远程服务器102接收数据;将从远程服务器102所接收的数据转发到驾驶员监测系统106和/或情绪分析系统108等。
情绪分析模块338执行与图1的情绪分析系统108相关联的各种功能。这些功能包括但不限于:接收经由各种设备从驾驶员监测模块334所接收的测量数据;分析测量数据以便生成与驾驶员或其他用户的情绪状态相关的经处理的数据;和/或存储测量数据和经处理的数据中的一者或两者。在一些实施方案中,情绪分析模块338可将测量数据和经处理的数据中的一者或两者传输到遥测和空中模块336。然后,遥测和空中模块336可经由通信网络110将测量数据和/或经处理的数据传输到远程服务器系统102。
在一些实施方案中,头部单元可能没有足够的处理器和存储器资源来执行核心头部单元模块332、驾驶员监测模块334、遥测和空中模块336以及情绪分析模块338的全部。因此,这些模块中的一个或多个可在与一个或多个辅助单元相关联的计算设备上执行。此类辅助单元可包括内部计算设备以及到一个或多个通信信道的本地和/或远程连接。一个示例性辅助单元可以是插入到车辆的端口(诸如车载诊断装置2(OBD2)端口)中的“加密狗”,其中加密狗是可连接到另一设备(诸如头部单元)并与之通信的小型设备。另一示例性辅助单元可以是嵌入在车辆的仪表板中、在车辆的驾驶员座椅或乘客座椅下方、或者在车辆中的其他位置的单元。又一示例性辅助单元可以是智能电话或执行通过一个或多个有线或无线通信信道与另一设备(诸如头部单元)进行通信的应用的其他移动设备。任何此类辅助单元可包括计算设备,当执行指令时,该计算设备可执行本文描述的任何一个或多个技术。进一步,任何此类辅助单元可包括有线和/或无线网络接口,以与一个或多个本地和/或远程设备通信。
如图3B所示,头部单元312包括核心头部单元模块332、驾驶员监测模块334以及遥测和空中模块336。头部单元312包括具有与核心头部单元模块332、驾驶员监测模块334以及遥测和空中模块336相关联的足够的处理和存储器资源的计算设备。头部单元312与包括情绪分析模块338的辅助单元322进行通信。辅助单元322包括具有与情绪分析模块338相关联的足够的处理和存储器资源的计算设备。
在一些实施方案中,传统头部单元可仅包括与核心头部单元模块332相关联的功能。在此类实施方案中,剩余的功能可在与一个或多个辅助单元相关联的计算设备上执行。
如图3C所示,头部单元314包括核心头部单元模块332。头部单元312包括具有与核心头部单元模块332相关联的足够的处理和存储器资源的计算设备。头部单元312与辅助单元322进行通信,该辅助单元包括驾驶员监测模块334、和遥测和空中模块336以及情绪分析模块338。辅助单元322包括具有与驾驶员监测模块334、以及遥测和空中模块336、情绪分析模块338相关联的足够的处理和存储器资源的计算设备。
尽管在图3A-图3C中示出了具体的配置,但在本公开的范围内,与核心头部单元模块332、驾驶员监测模块334、遥测和空中模块336以及情绪分析模块338相关联的功能可以在以任何技术上可行的组合和配置的任何一个或多个计算设备上执行。
图4A-图4B示出了根据各种实施方案的与图1的系统相关联的传感器的示例布置。如图4A所示,方向盘410装配有心理生理传感器430和相机432。心理生理传感器430可以被配置为经由与用户的手接触来测量任何技术上可行的心理生理数据,包括但不限于心率、温度和出汗数据。相机432可以捕获静止或移动图像。捕获的图像可以包括任何技术上可行的图像数据,包括但不限于彩色图像、黑白图像、热图像和红外图像。心理生理传感器430和相机432可将心理生理数据和图像传输到驾驶员监测系统106和情绪分析系统108中的一者或两者。同样如图4B所示,头部单元420装配有相机434。相机434可以捕获静止或移动图像。捕获的图像可以包括任何技术上可行的图像数据,包括但不限于彩色图像、黑白图像、热图像和红外图像。相机434可将图像传输到驾驶员监测系统106和情绪分析系统108中的一者或两者。应当理解的是,本文所示的系统是说明性的,并且变化和修改是可能的。具体地,可将各种传感器(包括心理生理传感器430以及相机432和434)放置在任何技术上可行的位置,诸如放置在车辆仪表板的表面上、集成到车辆的仪表组中、隐藏在车辆的显示单元内、放置在车辆的后视镜下方等。
图5A-图5B示出了根据各种实施方案的用于沿各种维度映射情绪状态的示例模型。如图5A所示,二维模型500沿两个维度(情绪效价维度510和情绪唤醒维度512)映射情绪状态。
情绪效价维度510测量的是用户感觉到的愉悦或不悦的程度。例如,愤怒和悲伤代表不悦的情绪。因此,愤怒和悲伤被置于二维模型500的消极效价区域内。另一方面,快乐和/或愉悦代表积极情绪。因此,快乐和愉悦被置于二维模型500的积极效价区域中。
情绪唤醒维度512测量的是用户感觉到的活力或困倦的程度,而不是情绪的强度。在这种情况下,悲伤和愉悦代表低唤醒感,且因此被置于二维模型500的低唤醒区域中。愤怒和快乐代表高唤醒感,且因此被置于二维模型500的高唤醒区域中。
如图5B所示,三维模型550沿三个维度(情绪效价维度560、情绪唤醒维度562和情绪主导维度564)映射情绪状态,所述情绪主导维度在本文也称为情绪立场维度。情绪效价维度560测量的是用户感觉到的愉悦或不悦的程度,并且类似于图5A的情绪效价维度510。情绪唤醒维度562测量的是用户感觉到的活力或困倦的程度,并且类似于图5A的情绪唤醒维度512。
情绪主导维度564表示用户相对于主导、控制或立场的情绪状态。封闭的立场代表主导或控制的情绪状态。开放的立场代表顺从或受控的情绪状态。
在这种情况下,厌恶和愤怒代表封闭的立场或主导感觉,且因此被置于三维模型550的封闭的立场区域中。接受和恐惧代表开放的立场或顺从的感觉,且因此被置于三维模型550的开放的立场区域中。
当测量驾驶员的整体情绪状态时,驾驶员情绪识别模块232可采用图5A的二维模型500或图5B的三维模型550。类似地,当测量驾驶员因媒体内容或其他因素引起的情绪状态的特定分量时,媒体情绪识别模块234可采用图5A的二维模型500或图5B的三维模型550。
图6是根据各种实施方案的用于计算和分析用户的情绪状态的方法步骤的流程图。尽管结合图1-图5的系统描述了方法步骤,但本领域技术人员将理解,被配置为以任何顺序执行方法步骤的任何系统在本公开的范围内。
如图所示,方法600在步骤602处开始,其中在情绪分析系统108上执行的驾驶员情绪识别模块232获取与用户的情绪状态相关联的传感器数据。传感器数据可为原始传感器数据,其包括但不限于来自相机、传声器、红外传感器、车辆仪表传感器等的数据。附加地或替代地,传感器数据可包括但不限于与用户相关联的生物学数据,包括但不限于心率、温度、出汗、头部位置、面部位置、瞳孔直径数据、眼睛注视方向等。
在步骤604处,驾驶员情绪识别模块232基于传感器数据确定用户的整体情绪状态。驾驶员情绪识别模块232可基于二维模型来确定用户的整体情绪状态。在此类情况下,驾驶员情绪识别模块232可确定用于情绪唤醒的第一数值和用于情绪效价的第二数值。替代地,驾驶员情绪识别模块232可基于三维模型来确定用户的整体情绪状态。在此类情况下,驾驶员情绪识别模块232可确定用于情绪唤醒的第一数值、用于情绪效价的第二数值和用于情绪主导的第三数值。替代地,驾驶员情绪识别模块232可基于更高维模型来确定用户的整体情绪状态。替代地,驾驶员情绪识别模块232可在逐个情绪的基础上确定用户的整体情绪状态。在此类情况下,驾驶员情绪识别模块232可确定一组指定情绪中的每一个的整体情绪状态。
在步骤606处,在情绪分析系统108上执行的媒体情绪识别模块234确定用户因收听媒体内容引起的情绪状态。一般来讲,媒体情绪识别模块234采用驾驶员情绪识别模块232所采用的相同的二维模型、三维模型、更高维模型或逐个情绪的分析。
在步骤608处,在情绪分析系统108上执行的情绪标准化器模块238从用户的整体情绪状态中去除用户因收听媒体内容引起的情绪状态。因此,剩余的情绪状态数据表示驾驶员因除收听媒体内容以外的因素引起的情绪状态。就这一点而言,剩余的情绪状态数据更准确地表示驾驶员因驾驶状况引起的情绪状态。
在步骤610处,在情绪分析系统108上执行的交谈情绪识别模块236确定用户因其他因素引起的情绪状态。此类其他因素可包括但不限于驾驶员与乘客之间的面对面交谈、驾驶员与其他人之间的电话交谈等。一般来讲,交谈情绪识别模块236采用由驾驶员情绪识别模块232和/或媒体情绪识别模块234所采用的相同的二维模型、三维模型、更高维模型或逐个情绪的分析。
在步骤612处,情绪标准化器模块238去除用户因这些其他因素引起的情绪状态。因此,剩余的情绪状态数据表示驾驶员因除收听媒体内容、驾驶员交谈等之外的因素引起的情绪状态。就这一点而言,剩余的情绪状态数据甚至更准确地表示驾驶员因驾驶状况引起的情绪状态。
在步骤614处,情绪标准化器模块238在去除与收听媒体内容、驾驶员交谈等相关的分量之后,基于用户的情绪状态执行一个或多个响应动作。因此,在这种去除之后,用户的剩余情绪状态完全或主要因驾驶状况引起,尽管在情绪状态中可能继续存在一些附加的残留因素。这些响应动作可包括但不限于以文本形式向驾驶员呈现建议和/或警报、以音频形式向驾驶员呈现建议和/或警报等。
在步骤616处,情绪标准化器模块238经由遥测和空中系统104将传感器数据和/或情绪状态数据传输到远程服务器102。作为响应,远程服务器系统102聚合并分析从情绪识别系统108中所接收的与给定地理区域中的多个用户相关联的情绪状态数据。基于聚合的情绪状态数据,远程服务器系统102可评估给定地理区域中的驾驶状况是有利还是不利。中央服务器系统可使其他驾驶员远离被评估为具有较不利驾驶状况的区域行驶并且朝着被评估为具有较有利驾驶状况的区域行驶。以这种方式,基于计算机的人类情绪状态识别可改善单个驾驶员以及作为总体来说一组驾驶员的体验。然后,方法600终止。
总之,情绪分析系统评估用户因各种输入状况引起的情绪状态。更具体地,情绪分析系统分析传感器数据以确定驾驶员的整体情绪状态。情绪分析系统确定由于驾驶员收听特定媒体内容而产生的驾驶员的情绪状态。情绪分析系统施加函数以从整体情绪状态中去除因收听特定媒体内容而产生的情绪状态分量。任选地,情绪分析系统确定驾驶员由于附加因素而产生的情绪状态,诸如驾驶员与乘客之间的面对面交谈或驾驶员与其他人之间的电话交谈等。情绪分析系统施加一个或多个附加函数以从整体情绪状态中去除由于这些附加次要效果而产生的情绪状态分量。所得的情绪状态更准确地反映了驾驶员因当前驾驶状况引起的情绪状态。情绪分析系统基于用户因驾驶状况引起的情绪状态执行一个或多个响应动作。响应动作可包括以文本、或音频、或其他形式诸如指示器、灯光、触觉输出等向驾驶员呈现建议和/或警报。此外,情绪分析系统可将传感器数据和/或情绪状态数据传输到远程服务器系统。远程服务器系统聚合并分析从多个情绪分析系统所接收的传感器数据和/或情绪状态数据,以评估多个驾驶员因驾驶状况引起的整体情绪状态。
所公开技术相对于现有技术的至少一个技术优势在于,可处理与驾驶员的情绪状态相关联的数据以通过去除因媒体内容和/或其他因素引起的对驾驶员的情绪状态的贡献来更准确地将因驾驶状况引起的对驾驶员的情绪状态的贡献从驾驶员的整体情绪状态中分离出来。因此,DMS可响应于驾驶状况对驾驶员的情绪状态的贡献而对驾驶员生成更适当的响应动作。所公开技术的另一个技术优势在于一种中央服务器系统,其聚合了来自多个驾驶员的情绪状态数据,可使用对驾驶状况对驾驶员的情绪状态的贡献的更准确评估来生成对特定区域内驾驶状况的整体有利或不利的更准确评估。这些技术优势表示相对于现有技术方法的一个或多个技术改进。
1.在一些实施方案中,一种用于计算和分析用户的情绪状态的计算机实现的方法包括:经由至少一个传感器获取与用户相关联的传感器数据;基于所述传感器数据确定与用户相关联的情绪状态;确定所述情绪状态中的与所述用户正在访问的媒体内容相对应的第一分量;以及向所述情绪状态施加第一函数以从所述情绪状态中去除所述第一分量。
2.根据条款1所述的计算机实现的方法,其还包括:基于与所述用户相关联的因素确定所述情绪状态的第二分量;以及向所述情绪状态施加第二函数以从所述情绪状态中去除所述第二分量。
3.根据条款1或条款2所述的计算机实现的方法,其中所述因素与所述用户和另一人之间的面对面交谈相关联。
4.根据条款1-3中任一项所述的计算机实现的方法,其中所述因素与所述用户和另一人之间的电话交谈相关联。
5.根据条款1-4中任一项所述的计算机实现的方法,其中所述媒体内容包括音乐内容,并且其中确定所述情绪状态的所述第一分量包括:分析所述音乐内容以确定所述第一分量。
6.根据条款1-5中任一项所述的计算机实现的方法,其中所述媒体内容包括音乐内容,并且其中确定所述情绪状态的所述第一分量包括:从数据库中检索所述第一分量。
7.根据条款1-6中任一项所述的计算机实现的方法,其中所述媒体内容包括声音内容,并且其中确定所述情绪状态的所述第一分量包括:分析所述声音内容以基于所述声音内容中的声音声调或文本段中的至少一者来确定所述第一分量。
8.根据条款1-7中任一项所述的计算机实现的方法,其中所述情绪状态包括情绪效价值和情绪唤醒值,并且其中向所述情绪状态施加所述第一函数包括:向所述情绪效价值施加所述第一函数以去除所述情绪效价值中的与所述用户正在访问的所述媒体内容相对应的第一分量;以及向所述情绪唤醒值施加所述第一函数以去除所述情绪唤醒值中的与所述用户正在访问的所述媒体内容相对应的第一分量。
9.根据条款1-8中任一项所述的计算机实现的方法,其中所述情绪状态还包括情绪主导值,并且其中向所述情绪状态施加所述第一函数包括:向所述情绪主导值施加所述第一函数以去除所述情绪主导值中的与所述用户正在访问的所述媒体内容相对应的第一分量。
10.根据条款1-9中任一项所述的计算机实现的方法,其中所述情绪状态包括第一情绪和第二情绪,并且其中向所述情绪状态施加所述第一函数包括:向所述第一情绪施加所述第一函数以去除所述第一情绪中的与所述用户正在访问的所述媒体内容相对应的第一分量;以及向所述第二情绪施加所述第一函数以去除所述第二情绪中的与所述用户正在访问的所述媒体内容相对应的第二分量。
11.在一些实施方案中,一种或多种计算机可读存储介质包括指令,所述指令在由一个或多个处理器执行时,使所述一个或多个处理器通过执行以下步骤来计算和分析用户的情绪状态:经由至少一个传感器获取与用户相关联的传感器数据;基于所述传感器数据确定与用户相关联的情绪状态;确定所述情绪状态中的与所述用户正在访问的媒体内容相对应的第一分量;以及向所述情绪状态施加第一函数以从所述情绪状态中去除所述第一分量。
12.根据条款11所述的一种或多种计算机可读存储介质,其中所述指令还使所述一个或多个处理器执行以下步骤:基于与所述用户相关联的因素确定所述情绪状态的第二分量;以及向所述情绪状态施加第二函数以从所述情绪状态中去除所述第二分量。
13.根据条款11或条款12所述的一种或多种计算机可读存储介质,其中所述因素与所述用户和另一人之间的面对面交谈相关联。
14.根据条款11-13中任一项所述的一种或多种计算机可读存储介质,其中所述因素与所述用户和另一人之间的电话交谈相关联。
15.根据条款11-14中任一项所述的一种或多种计算机可读存储介质,其中所述媒体内容包括音乐内容,并且其中确定所述情绪状态的所述第一分量包括:分析所述音乐内容以确定所述第一分量。
16.根据条款11-15中任一项所述的一种或多种计算机可读存储介质,其中所述媒体内容包括音乐内容,并且其中确定所述情绪状态的所述第一分量包括:从数据库中检索所述第一分量。
17.根据条款11-16中任一项所述的一种或多种计算机可读存储介质,其中所述媒体内容包括声音内容,并且其中确定所述情绪状态的所述第一分量包括:分析所述声音内容以基于所述声音内容中的声音声调或文本段中的至少一者来确定所述第一分量。
18.根据条款11-17中任一项所述的一种或多种计算机可读存储介质,其中所述情绪状态包括情绪效价值和情绪唤醒值,并且其中向所述情绪状态施加所述第一函数包括:向所述情绪效价值施加所述第一函数以去除所述情绪效价值中的与所述用户正在访问的所述媒体内容相对应的第一分量;以及向所述情绪唤醒值施加所述第一函数以去除所述情绪唤醒值中的与所述用户正在访问的所述媒体内容相对应的第一分量。
19.根据条款11-18中任一项所述的一种或多种计算机可读存储介质,其中所述情绪状态还包括情绪主导值,并且其中向所述情绪状态施加所述第一函数包括:向所述情绪主导值施加所述第一函数以去除所述情绪主导值中的与所述用户正在访问的所述媒体内容相对应的第一分量。
20.在一些实施方案中,一种第一端点设备包括:存储器,所述存储器包含指令;以及处理器,所述处理器耦合到所述存储器,并且在执行所述指令时:经由至少一个传感器获取与用户相关联的传感器数据;基于所述传感器数据确定与用户相关联的情绪状态;确定所述情绪状态中的与所述用户正在访问的媒体内容相对应的第一分量;以及向所述情绪状态施加第一函数以从所述情绪状态中去除所述第一分量。
任何权利要求中引用的任何权利要求元素和/或本申请中描述的任何元素的以任何方式的任何和所有组合落入本公开和保护的预期范围内。
已呈现各种实施方案的描述以用于说明目的,但并非意在详列或限于公开的实施方案。在不脱离所描述的实施方案的范围和精神的情况下,许多修改和变化对于本领域普通技术人员来说是明显的。
本实施方案的各方面可体现为系统、方法或计算机程序产品。因此,本公开的各方面可以采取完全硬件实施方案、完全软件实施方案(包括固件、常驻软件、微代码等)或结合软件和硬件方面的实施方案的形式,它们在本文中可以统称为“模块”或“系统”。另外,本公开的各方面可以采取实现在一种或多种计算机可读介质中的计算机程序产品的形式,该计算机可读介质在其上实现计算机可读程序代码。
可利用一种或多种计算机可读介质的任何组合。计算机可读介质可为计算机可读信号介质或计算机可读存储介质。计算机可读存储介质可为例如但不限于电子、磁性、光学、电磁、红外或半导体系统、装置或设备或前述介质的任何合适的组合。计算机可读存储介质的更具体示例(非详尽列表)将包括以下项:具有一根或多根导线的电气连接、便携式计算机软盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便携式光盘只读存储器(CD-ROM)、光学存储设备、磁性存储设备或前述介质的任何合适的组合。在本文档的上下文中,计算机可读存储介质可以是能够包含或存储由指令执行系统、装置或设备使用或与其结合使用的程序的任何有形介质。
上文参照根据本公开的实施方案的方法、装置(系统)和计算机程序产品的流程图图解和/或框图来描述本公开的各方面。应当理解,流程图图解和/或框图中的每个框以及流程图图解和/或框图的框组合能够通过计算机程序指令来实现。这些计算机程序指令可以被提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器以产生机器,使得经由计算机或其它可编程数据处理装置的处理器执行的指令能够实施流程图和/或框图的一个或多个框中指定的功能/动作。此类处理器可以是但不限于通用处理器、专用处理器、应用特定的处理器或现场可编程门阵列。
附图中的流程图和框图示出根据本公开的各种实施方案的系统、方法和计算机程序产品的可能实现方式的体系结构、功能性和操作。在这个方面,流程图或框图中的每个框可表示代码的模块、区段或部分,所述代码包括用于实现指定逻辑功能的一个或多个可执行指令。还应当注意,在一些替代实现方式中,框中提到的功能可不按附图中提到的顺序出现。例如,实际上取决于所涉及的功能,可以基本上同时执行连续示出的两个框,或者有时可以以相反的顺序执行所述框。还应当注意,框图和/或流程图图解中的每个框以及框图和/或流程图图解中的框的组合能够由执行指定的功能或动作的基于专用硬件的系统或者专用硬件和计算机指令的组合来实现。
虽然前述内容针对本公开的实施方案,但是可在不脱离本公开的基本范围的情况下设计出本公开的其他和更多实施方案,且所述范围由所附权利要求确定。
Claims (20)
1.一种用于计算和分析用户的情绪状态的计算机实现的方法,所述方法包括:
经由至少一个传感器获取与用户相关联的传感器数据;
基于所述传感器数据确定与所述用户相关联的情绪状态;
确定所述情绪状态中的与所述用户正在访问的媒体内容相对应的第一分量;以及
向所述情绪状态施加第一函数以从所述情绪状态中去除所述第一分量。
2.根据权利要求1所述的计算机实现的方法,其还包括:
基于与所述用户相关联的因素确定所述情绪状态的第二分量;以及
向所述情绪状态施加第二函数以从所述情绪状态中去除所述第二分量。
3.根据权利要求2所述的计算机实现的方法,其中所述因素与所述用户和另一人之间的面对面交谈相关联。
4.根据权利要求2所述的计算机实现的方法,其中所述因素与所述用户和另一人之间的电话交谈相关联。
5.根据权利要求1所述的计算机实现的方法,其中所述媒体内容包括音乐内容,并且其中确定所述情绪状态的所述第一分量包括:
分析所述音乐内容以确定所述第一分量。
6.根据权利要求1所述的计算机实现的方法,其中所述媒体内容包括音乐内容,并且其中确定所述情绪状态的所述第一分量包括:
从数据库中检索所述第一分量。
7.根据权利要求1所述的计算机实现的方法,其中所述媒体内容包括声音内容,并且其中确定所述情绪状态的所述第一分量包括:
分析所述声音内容以基于所述声音内容中的声音声调或文本段中的至少一者来确定所述第一分量。
8.根据权利要求1所述的计算机实现的方法,其中所述情绪状态包括情绪效价值和情绪唤醒值,并且其中向所述情绪状态施加所述第一函数包括:
向所述情绪效价值施加所述第一函数以去除所述情绪效价值中的与所述用户正在访问的所述媒体内容相对应的第一分量;以及
向所述情绪唤醒值施加所述第一函数以去除所述情绪唤醒值中的与所述用户正在访问的所述媒体内容相对应的第一分量。
9.根据权利要求1所述的计算机实现的方法,其中所述情绪状态还包括情绪主导值,并且其中向所述情绪状态施加所述第一函数包括:
向所述情绪主导值施加所述第一函数以去除所述情绪主导值中的与所述用户正在访问的所述媒体内容相对应的第一分量。
10.根据权利要求1所述的计算机实现的方法,其中所述情绪状态包括第一情绪和第二情绪,并且其中向所述情绪状态施加所述第一函数包括:
向所述第一情绪施加所述第一函数以去除所述第一情绪中的与所述用户正在访问的所述媒体内容相对应的第一分量;以及
向所述第二情绪施加所述第一函数以去除所述第二情绪中的与所述用户正在访问的所述媒体内容相对应的第二分量。
11.一种或多种计算机可读存储介质,其包括指令,所述指令在由一个或多个处理器执行时,使所述一个或多个处理器通过执行以下步骤来计算和分析用户的情绪状态:
经由至少一个传感器获取与用户相关联的传感器数据;
基于所述传感器数据确定与所述用户相关联的情绪状态;
确定所述情绪状态中的与所述用户正在访问的媒体内容相对应的第一分量;以及
向所述情绪状态施加第一函数以从所述情绪状态中去除所述第一分量。
12.根据权利要求11所述的一种或多种计算机可读存储介质,其中所述指令还使所述一个或多个处理器执行以下步骤:
基于与所述用户相关联的因素确定所述情绪状态的第二分量;以及
向所述情绪状态施加第二函数以从所述情绪状态中去除所述第二分量。
13.根据权利要求12所述的一种或多种计算机可读存储介质,其中所述因素与所述用户和另一人之间的面对面交谈相关联。
14.根据权利要求12所述的一种或多种计算机可读存储介质,其中所述因素与所述用户和另一人之间的电话交谈相关联。
15.根据权利要求11所述的一种或多种计算机可读存储介质,其中所述媒体内容包括音乐内容,并且其中确定所述情绪状态的所述第一分量包括:
分析所述音乐内容以确定所述第一分量。
16.根据权利要求11所述的一种或多种计算机可读存储介质,其中所述媒体内容包括音乐内容,并且其中确定所述情绪状态的所述第一分量包括:
从数据库中检索所述第一分量。
17.根据权利要求11所述的一种或多种计算机可读存储介质,其中所述媒体内容包括声音内容,并且其中确定所述情绪状态的所述第一分量包括:
分析所述声音内容以基于所述声音内容中的声音声调或文本段中的至少一者来确定所述第一分量。
18.根据权利要求11所述的一种或多种计算机可读存储介质,其中所述情绪状态包括情绪效价值和情绪唤醒值,并且其中向所述情绪状态施加所述第一函数包括:
向所述情绪效价值施加所述第一函数以去除所述情绪效价值中的与所述用户正在访问的所述媒体内容相对应的第一分量;以及
向所述情绪唤醒值施加所述第一函数以去除所述情绪唤醒值中的与所述用户正在访问的所述媒体内容相对应的第一分量。
19.根据权利要求11所述的一种或多种计算机可读介质,其中所述情绪状态还包括情绪主导值,并且其中向所述情绪状态施加所述第一函数包括:
向所述情绪主导值施加所述第一函数以去除所述情绪主导值中的与所述用户正在访问的所述媒体内容相对应的第一分量。
20.第一端点设备,其包括:
存储器,所述存储器包括指令;以及
处理器,所述处理器耦合到所述存储器,并且在执行所述指令时:
经由至少一个传感器获取与用户相关联的传感器数据;
基于所述传感器数据确定与所述用户相关联的情绪状态;
确定所述情绪状态中的与所述用户正在访问的媒体内容相对应的第一分量;以及
向所述情绪状态施加第一函数以从所述情绪状态中去除所述第一分量。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/820,533 | 2020-03-16 | ||
US16/820,533 US11532319B2 (en) | 2020-03-16 | 2020-03-16 | Techniques for separating driving emotion from media induced emotion using an additive/subtractive, conjunctive, disjunctive, or Bayesian technique in a driver monitoring system |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113397548A true CN113397548A (zh) | 2021-09-17 |
Family
ID=74870672
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110275100.5A Pending CN113397548A (zh) | 2020-03-16 | 2021-03-15 | 驾驶员监测系统中将驾驶情绪与媒体诱发情绪分离的技术 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11532319B2 (zh) |
EP (1) | EP3882097A1 (zh) |
JP (1) | JP2021146214A (zh) |
KR (1) | KR20210116309A (zh) |
CN (1) | CN113397548A (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111724880A (zh) * | 2020-06-09 | 2020-09-29 | 百度在线网络技术(北京)有限公司 | 用户情绪调节方法、装置、设备和可读存储介质 |
KR20220014943A (ko) * | 2020-07-29 | 2022-02-08 | 현대자동차주식회사 | 주행 환경 연동 운전자 감정 판단 방법 및 시스템 |
US11539762B2 (en) | 2020-10-06 | 2022-12-27 | Harman International Industries, Incorporated | Conferencing based on driver state and context |
JP2022129152A (ja) * | 2021-02-24 | 2022-09-05 | 株式会社Subaru | 車両の乗員監視装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150181291A1 (en) * | 2013-12-20 | 2015-06-25 | United Video Properties, Inc. | Methods and systems for providing ancillary content in media assets |
US9734685B2 (en) | 2014-03-07 | 2017-08-15 | State Farm Mutual Automobile Insurance Company | Vehicle operator emotion management system and method |
JP6436030B2 (ja) * | 2015-09-17 | 2018-12-12 | トヨタ自動車株式会社 | ライフログ記録システム |
US10192171B2 (en) | 2016-12-16 | 2019-01-29 | Autonomous Fusion, Inc. | Method and system using machine learning to determine an automotive driver's emotional state |
US10403304B1 (en) * | 2018-03-13 | 2019-09-03 | Qbrio Studio, Inc. | Neural networks for identifying the potential of digitized audio to induce frisson in listeners |
-
2020
- 2020-03-16 US US16/820,533 patent/US11532319B2/en active Active
-
2021
- 2021-03-10 EP EP21161693.3A patent/EP3882097A1/en active Pending
- 2021-03-11 KR KR1020210032330A patent/KR20210116309A/ko unknown
- 2021-03-15 CN CN202110275100.5A patent/CN113397548A/zh active Pending
- 2021-03-15 JP JP2021041041A patent/JP2021146214A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
US11532319B2 (en) | 2022-12-20 |
JP2021146214A (ja) | 2021-09-27 |
EP3882097A1 (en) | 2021-09-22 |
KR20210116309A (ko) | 2021-09-27 |
US20210287697A1 (en) | 2021-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3882097A1 (en) | Techniques for separating driving emotion from media induced emotion in a driver monitoring system | |
US10433052B2 (en) | System and method for identifying speech prosody | |
Craye et al. | A multi-modal driver fatigue and distraction assessment system | |
KR20170087834A (ko) | 마음 상태를 결정하고 피험자에게 감각기관을 통한 대응책을 제공하기 위한 컴퓨터 시스템 | |
US11837249B2 (en) | Visually presenting auditory information | |
JP5714411B2 (ja) | 行動分析方法および行動分析装置 | |
CN108366732A (zh) | 困倦起始检测 | |
JP4704952B2 (ja) | 心的状態判定装置、およびプログラム | |
CN110367934B (zh) | 一种基于非语音身体声音的健康监测方法及监测系统 | |
KR20140080727A (ko) | 운전자 감성제어 장치 및 그 방법 | |
JPWO2008088070A1 (ja) | 覚醒状態判定モデル生成装置、覚醒状態判定装置及び警告装置 | |
WO2002085215A1 (fr) | Appareil d'evaluation de facteurs humains selon la theorie du chaos | |
CN113491519A (zh) | 基于情感-认知负荷的数字助理 | |
Kashevnik et al. | Multimodal corpus design for audio-visual speech recognition in vehicle cabin | |
CN113815628A (zh) | 基于用户精神状态修改媒体内容播放 | |
CN116578731B (zh) | 多媒体信息处理方法、系统、计算机设备和存储介质 | |
CN110881987A (zh) | 一种基于可穿戴设备的老年人情绪监测系统 | |
WO2019198299A1 (ja) | 情報処理装置及び情報処理方法 | |
EP3733068B1 (en) | Assessing cognitive reaction to over-the-air updates | |
US20220075450A1 (en) | Systems and methods for emotional-imaging composer | |
JP7238994B2 (ja) | 快適性運転データ収集システム、運転制御装置、方法、および、プログラム | |
US10915768B2 (en) | Vehicle and method of controlling the same | |
US20240055014A1 (en) | Visualizing Auditory Content for Accessibility | |
Singh et al. | Profiling and its facets | |
Zuo | Automatic detection of driver's abnormal state based on physiological signals |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |