CN111341349B - 情绪推断装置、情绪推断方法、及存储介质 - Google Patents
情绪推断装置、情绪推断方法、及存储介质 Download PDFInfo
- Publication number
- CN111341349B CN111341349B CN201911156270.0A CN201911156270A CN111341349B CN 111341349 B CN111341349 B CN 111341349B CN 201911156270 A CN201911156270 A CN 201911156270A CN 111341349 B CN111341349 B CN 111341349B
- Authority
- CN
- China
- Prior art keywords
- emotion
- unit
- index value
- user
- fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 199
- 238000003860 storage Methods 0.000 title claims description 36
- 238000000034 method Methods 0.000 title claims description 23
- 230000004927 fusion Effects 0.000 claims abstract description 65
- 238000000605 extraction Methods 0.000 claims description 24
- 230000007935 neutral effect Effects 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 9
- 230000002996 emotional effect Effects 0.000 claims description 4
- 230000036651 mood Effects 0.000 claims description 4
- 238000004378 air conditioning Methods 0.000 claims 3
- 238000004891 communication Methods 0.000 description 57
- 230000008909 emotion recognition Effects 0.000 description 55
- 239000003795 chemical substances by application Substances 0.000 description 29
- 238000004458 analytical method Methods 0.000 description 27
- 238000010586 diagram Methods 0.000 description 26
- 230000015572 biosynthetic process Effects 0.000 description 19
- 238000003786 synthesis reaction Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 16
- 210000002569 neuron Anatomy 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 238000001228 spectrum Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 230000015654 memory Effects 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 230000008878 coupling Effects 0.000 description 5
- 238000010168 coupling process Methods 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000007477 logistic regression Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 210000004027 cell Anatomy 0.000 description 2
- 238000002485 combustion reaction Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 206010012374 Depressed mood Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000001544 dysphoric effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
- G10L13/047—Architecture of speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/089—Driver voice
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/227—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Psychiatry (AREA)
- Hospice & Palliative Care (AREA)
- General Health & Medical Sciences (AREA)
- Child & Adolescent Psychology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明提供一种情绪推断装置,其具备:第一获取部,其获取用户发出的语音数据;第二获取部,其获取对通过所述第一获取部获取的语音数据进行了文本化的文本数据;第一推断部,其将基于通过所述第一获取部获取到的语音数据的指标值和基于通过所述第二获取部获取到的文本数据的指标值利用第一融合进行合并,基于所述合并后的指标值,来推断所述用户的情绪;及第二推断部,其将表示所述第一推断部的推断结果的指标值与基于通过所述第二获取部获取到的文本数据的指标值利用第二融合进行合并,基于所述合并后的指标值,来推断所述用户的情绪。根据本发明,能够提高用户的情绪的推断精度。
Description
技术领域
本发明涉及情绪推断装置、情绪推断方法、及存储介质。
背景技术
使用机动车等移动体的乘员发出的语音数据或表示发声内容的文本数据来推断乘员的情绪的技术正在推进研究。另一方面,已知有在使用多个辨别器从图像中辨别人物的服装或辨别人物的轮廓时,使用早期融合(early fusion)或晚期融合(late fusion),将各辨别器的输出结果合并的技术(例如,参照专利文献1)。
在先技术文献
专利文献
专利文献1:日本特开2009-140283号公报
发明内容
发明概要
发明要解决的课题
然而,在现有技术中,由于用户的周围的噪音或其他的用户的声音而语音的识别精度有时会下降。其结果是,用户的情绪的推断精度有时会下降。
本发明的形态在于提供能够提高用户的情绪的推断精度的情绪推断装置、情绪推断方法、及存储介质。
用于解决课题的方案
本发明的情绪推断装置、情绪推断方法及存储介质采用了以下的结构。
(1)本发明的一形态涉及一种情绪推断装置,其具备:第一获取部,其获取用户发出的语音数据;第二获取部,其获取对通过所述第一获取部获取到的语音数据进行了文本化的文本数据;第一推断部,其将基于通过所述第一获取部获取到的语音数据的指标值和基于通过所述第二获取部获取到的文本数据的指标值利用第一融合进行合并,基于所述合并后的指标值,来推断所述用户的情绪;及第二推断部,其将表示所述第一推断部的推断结果的指标值与基于通过所述第二获取部获取到的文本数据的指标值利用第二融合进行合并,基于所述合并后的指标值,来推断所述用户的情绪。
(2)的形态以上述(1)的形态的情绪推断装置为基础,所述情绪推断装置还具备:输出部,其输出信息;及输出控制部,其使所述输出部输出基于通过所述第二推断部推断出的所述用户的情绪的信息。
(3)的形态以上述(1)或(2)的形态的情绪推断装置为基础,所述第二推断部基于所述第二融合的结果,来推断所述用户的情绪是正面的第一情绪、还是负面的第二情绪、或者是并非所述第一情绪及所述第二情绪的任一个的中性的第三情绪。
(4)的形态以上述(3)的形态的情绪推断装置为基础,在表示所述第一推断部的推断结果的指标值与基于通过所述第二获取部获取到的文本数据的指标值之和为第一阈值以上的情况下,所述第二推断部推断所述用户的情绪为所述第一情绪,在表示所述第一推断部的推断结果的指标值与基于通过所述第二获取部获取到的文本数据的指标值之和为比所述第一阈值小的第二阈值以下的情况下,所述第二推断部推断所述用户的情绪为所述第二情绪,在表示所述第一推断部的推断结果的指标值与基于通过所述第二获取部获取到的文本数据的指标值之和小于所述第一阈值且超过所述第二阈值的情况下,所述第二推断部推断所述用户的情绪为所述第三情绪。
(5)的形态以上述(1)~(4)中任一形态的情绪推断装置为基础,所述情绪推断装置还具备提取部,该提取部从通过所述第一获取部获取到的语音数据中提取一个以上的特征量,所述第二获取部导出对所述文本数据所表示的文本的整体性的情绪进行了数值化的第一指标值和表示所述文本所包含的情绪性的内容的量的第二指标值,所述第一推断部将通过所述第二获取部导出的所述第一指标值及所述第二指标值与通过所述提取部提取出的一个以上的所述特征量利用所述第一融合进行合并。
(6)的形态以上述(5)的形态的情绪推断装置为基础,所述第一推断部将通过所述第二获取部导出的所述第一指标值及所述第二指标值作为要素追加到分别以通过所述提取部提取出的一个以上的所述特征量为要素的多维数据中,来作为所述第一融合。
(7)的形态以上述(1)~(6)中的任一形态的情绪推断装置为基础,所述第一获取部还获取表示所述用户驾驶的车辆的驾驶操作历史的驾驶操作历史数据和拍摄了所述用户的图像数据,所述第一推断部将基于通过所述第一获取部获取到的语音数据的指标值、基于通过所述第二获取部获取到的文本数据的指标值、基于通过所述第一获取部获取到的驾驶操作历史数据的指标值、基于通过所述第一获取部获取到的图像数据的指标值利用所述第一融合进行合并,基于所述合并后的指标值,来推断所述用户的情绪。
(8)本发明的另一形态涉及一种情绪推断方法,该情绪推断方法使计算机进行如下处理:获取用户发出的语音数据;获取对所述获取到的语音数据进行了文本化的文本数据;将基于所述语音数据的指标值与基于所述文本数据的指标值利用第一融合进行合并,基于所述合并后的指标值,来推断所述用户的情绪;将表示基于通过所述第一融合合并后的指标值的所述用户的情绪的推断结果的指标值与基于所述文本数据的指标值利用第二融合进行合并,基于所述合并后的指标值,来推断所述用户的情绪。
(9)本发明的另一形态涉及一种计算机可读的存储介质,该介质存储有程序,该程序用于使计算机执行如下处理:获取用户发出的语音数据;获取对所述获取到的语音数据进行了文本化的文本数据;将基于所述语音数据的指标值与基于所述文本数据的指标值利用第一融合进行合并,基于所述合并后的指标值,来推断所述用户的情绪;及将表示基于通过所述第一融合合并后的指标值的所述用户的情绪的推断结果的指标值与基于所述文本数据的指标值利用第二融合进行合并,基于所述合并后的指标值,来推断所述用户的情绪。
发明效果
根据(1)~(9)的形态,能够提高用户的情绪的推断精度。
附图说明
图1是表示第一实施方式的代理系统的结构的一例的图。
图2是表示第一实施方式的代理系统的一系列的处理的流程的时序图。
图3是表示第一实施方式的代理装置的结构的一例的图。
图4是表示从驾驶位观察的车辆的车室内的一例的图。
图5是表示从上方观察的车辆的车室内的一例的图。
图6是表示第一实施方式的代理装置的一系列的处理的流程的流程图。
图7是表示显示部显示的图像的一例的图。
图8是表示显示部显示的图像的一例的图。
图9是表示第一实施方式的服务器装置的结构的一例的图。
图10是用于说明第一实施方式的早期融合的图。
图11是用于说明第一实施方式的晚期融合的图。
图12是表示第一实施方式的服务器装置的一系列的处理的流程的流程图。
图13是表示第一实施方式的代理装置的另一例的图。
图14是表示第二实施方式的代理装置的结构的一例的图。
图15是用于说明第二实施方式的早期融合的图。
图16是表示第三实施方式的代理系统的结构的一例的图。
图17是表示终端装置的结构的一例的图。
图18是表示终端侧控制部的功能结构的一例的图。
附图标记说明
1…代理系统,100…代理装置,102…代理侧通信部,104…麦克风,106…扬声器,108…显示部,110…输入部,112…驾驶操作检测部,114…驾驶员监视相机,116…车辆传感器,120…代理侧存储部,130…代理侧控制部,132…第一获取部,134…语音合成部,136…输出控制部,138…通信控制部,200…服务器装置,202…服务器侧通信部,210…服务器侧存储部,230…服务器侧控制部,232…第一获取部,234…发声期间提取部,236…语音识别部,238…特征量提取部,240…第一推断部,242…第二推断部,244…通信控制部,246…学习部,300…终端装置,302…终端侧通信接口,304…终端侧扬声器,306…终端侧麦克风,308…终端侧显示部,310…终端侧输入部,320…终端侧控制部,330…终端侧存储部。
具体实施方式
以下,参照附图来说明本发明的情绪推断装置、情绪推断方法、及存储介质的实施方式。
<第一实施方式>
[系统结构]
图1是表示第一实施方式的代理系统1的结构的一例的图。第一实施方式的代理系统1例如具备多个代理装置100、服务器装置200。如图示的例子那样,各代理装置100搭载于车辆M。车辆M例如是二轮或三轮、四轮等的车辆。这些车辆的驱动源可以是柴油发动机或汽油发动机等内燃机、电动机、或它们的组合。电动机使用与内燃机连结的发电机产生的发电电力、或者二次电池或燃料电池的放电电力进行动作。
代理装置100与服务器装置200经由网络NW连接成能够通信。网络NW包括LAN(Local Area Network:局域网)或WAN(Wide Area Network:广域网)等。网络NW可以包括例如Wi-Fi或Bluetooth(注册商标,以下省略)等利用了无线通信的网络。
代理装置100是具有与车辆M的乘员进行语音对话或对乘员彼此的对话进行支援的功能(以下,称为代理功能)的装置。代理功能通过某种具有人工智能的功能的软件代理(智能代理)来实现。
服务器装置200与搭载于各车辆M的代理装置100通信,从代理装置100收集各种数据。服务器装置200通过对收集到的数据进行解析来推断各车辆M的乘员的情绪,并将其推断结果向代理装置100发送。服务器装置200是“情绪推断装置”的一例。
需要说明的是,搭载有代理装置100的移动体并不局限于车辆M,例如,可以是客机或飞艇、直升机等飞行器、或客轮等船舶这样的其他移动体。
[代理系统的时序]
图2是表示第一实施方式的代理系统1的一系列的处理的流程的时序图。首先,代理装置100在乘员发出的语音由麦克风104收集的情况下,从麦克风104获取该收集了的语音的数据(以下,称为语音数据)(步骤S100)。
接下来,代理装置100将获取到的语音数据向服务器装置200发送(步骤S102)。
服务器装置200当从代理装置100接收到语音数据时,基于接收到的语音数据,推断搭载有代理装置100的车辆M的乘员的情绪(步骤S104)。
接下来,服务器装置200将推断了乘员的情绪的推断结果向代理装置100发送(步骤S106)。
接下来,代理装置100当从服务器装置200接收到推断结果时,基于该推断结果,来决定对话的支援形态(步骤S108)。例如,代理装置100根据乘员的情绪的推断结果,来变更对话语音的声压等级或抑扬等,或变更车室内的音乐的选曲,或变更车室内显示的影像或图像。
[代理装置的结构]
图3是表示第一实施方式的代理装置100的结构的一例的图。第一实施方式的代理装置100例如具备代理侧通信部102、麦克风104、扬声器106、显示部108、输入部110、代理侧存储部120、代理侧控制部130。
这些装置或设备可以通过CAN(Controller Area Network:控制器局域网络)通信线等多重通信线或串行通信线、无线通信网等相互连接。需要说明的是,图3所示的代理装置100的结构只不过为一例,可以省略结构的一部分,也可以还追加其他的结构。
代理侧通信部102包括NIC(Network Interface Card:网卡)等通信接口。代理侧通信部102经由网络NW而与服务器装置200等通信。
麦克风104是对车室内的语音进行收集的语音输入装置。麦克风104将收集的语音数据向代理侧控制部130输出。例如,麦克风104设置在乘员就座于车室内的座椅时的前方附近。例如,麦克风104可以设置在脚垫灯、方向盘、仪表板或座椅的附近。而且,麦克风104可以在车室内设置多个。
扬声器106例如设置在车室内的座椅附近或显示部108附近。扬声器106基于通过代理侧控制部130输出的信息来输出语音。
显示部108包括LCD(Liquid Crystal Display:液晶显示器)或有机EL(Electroluminescence:场致发光)显示器等显示装置。显示部108基于由代理侧控制部130输出的信息来显示图像。
输入部110例如是按钮、键盘或鼠标等用户接口。输入部110受理乘员的操作,将与受理的操作相应的信号向代理侧控制部130输出。输入部110也可以是与显示部108一体构成的触摸面板。
图4是表示从驾驶位观察的车辆M的车室内的一例的图。而且,图5是表示从上方观察的车辆M的车室内的一例的图。在图示的例子的车室内设置有麦克风104、扬声器106、显示部108A~108C。麦克风104例如设置于方向盘,主要对驾驶者发出的语音进行收集。扬声器106例如设置在显示部108B的附近,即,仪表板IP的中央附近。
显示部108A例如是在驾驶者观察车外时的视线的前方显示虚像的HUD(Head-UpDisplay:抬头显示器)装置。HUD装置例如是通过将光向车辆M的称为前风档玻璃或组合器的具有透光性的透明构件投射而使乘员观察虚像的装置。乘员主要是驾驶者,但也可以是驾驶者以外的乘员。
显示部108B设置于驾驶位(距方向盘最近的座位)的正面附近的仪表板IP,并设置在乘员从方向盘的间隙或越过方向盘能够视觉辨识到的位置。显示部108B例如是LCD或有机EL显示装置等。在显示部108B例如显示车辆M的速度、发动机转速、燃料剩余量、散热器水温、行驶距离、其他的信息的图像。
显示部108C设置在仪表板IP的中央附近。显示部108C例如与显示部108B同样是LCD或有机EL显示装置等。显示部108C显示电视节目或电影等的内容。
返回图3的说明,代理侧存储部120通过HDD、闪存器、EEPROM(ElectricallyErasable Programmable Read Only Memory:带电可擦可编程只读存储器)、ROM(ReadOnly Memory:只读存储器)或RAM(Random Access Memory:随机存储器)等实现。在代理侧存储部120储存有例如由处理器参照的程序等。
代理侧控制部130例如具备第一获取部132、语音合成部134、输出控制部136、通信控制部138。
这些构成要素例如通过CPU(Central Processing Unit:中央处理器)或GPU(Graphics Processing Unit:图形处理器)等处理器执行程序(软件)来实现。而且,这些构成要素中的一部分或全部可以通过LSI(Large ScaleIntegration:大规模集成电路)或ASIC(Application Specific Integrated Circuit:专用集成电路)、FPGA(Field-Programmable Gate Array:现场可编程门阵列)等硬件(包括电路部;circuitry:电路)实现,也可以通过软件与硬件的协作实现。程序可以预先储存于代理侧存储部120,也可以储存于DVD或CD-ROM等能够拆装的存储介质并通过将存储介质装配于驱动装置而安装于代理侧存储部120。
第一获取部132从麦克风104获取语音数据。
语音合成部134基于代理侧通信部102从服务器装置200接收到的数据,生成人工性的合成语音(以下,称为代理语音)。
当通过语音合成部134生成代理语音或从外部装置获取该代理语音时,输出控制部136使扬声器106输出该代理语音。而且,输出控制部136可以将成为代理语音的源头的句子(文本数据)做成图像而在显示部108显示。
通信控制部138经由代理侧通信部102,将通过第一获取部132获取的语音数据向服务器装置200发送。
[代理装置的处理流程]
以下,使用流程图说明第一实施方式的代理装置100的一系列的处理的流程。图6是表示第一实施方式的代理装置100的一系列的处理的流程的流程图。本流程图的处理可以按照规定的周期反复进行。
首先,第一获取部132判定通过代理侧通信部102是否接收到包含乘员的情绪的推断结果和该情绪推断所利用的表示乘员的语音的发声内容的文本数据在内的情绪推断数据(步骤S200),在判定为通过代理侧通信部102接收到情绪推断数据的情况下,第一获取部132从代理侧通信部102获取情绪推断数据。
语音合成部134当通过第一获取部132获取情绪推断数据时,基于该情绪推断数据所包含的文本数据和情绪推断结果,生成代理语音(步骤S202)。
例如,语音合成部134进行波形连接型语音合成(Concatenative synthesis)和共振峰合成(Formant synthesis),生成读取文本数据所包含的发音记号的代理语音。而且,语音合成部134在文本数据不包含发音记号而包含表示句子的文字列的情况下,可以将该文字列转换成发音记号,生成读取转换后的发音记号的代理语音。在生成代理语音时,语音合成部134根据情绪推断结果,变更代理语音的音程或抑扬、声压等级、读取速度等。例如,在推断乘员的情绪为“愤怒”等负面情绪的情况下,语音合成部134为了使乘员的心情平静,可以减小代理语音的声压等级或延缓读取速度。
接下来,输出控制部136使扬声器106输出由语音合成部134生成的代理语音(步骤S204)。此时,输出控制部136可以使显示部108显示与情绪推断结果相应的图像或影像,也可以选择与情绪推断结果相应的乐曲作为向车室内播放的音乐。
图7及图8是表示显示部108显示的图像的一例的图。例如,输出控制部136可以使乘员发声的发声内容(在图示的例子中为“到目的地还剩多少公里啊”这样的文字列)重叠显示于与乘员的情绪的推断结果相应的背景图像。在推断乘员的情绪为“愤怒”等负面情绪的情况下,输出控制部136如图7所例示那样在表示天气为暴风雨天气的背景图像上重叠显示乘员的发声内容。另一方面,在推断乘员的情绪为“喜悦”等正面情绪的情况下,输出控制部136如图8所例示那样在表示天气为晴好的背景图像上重叠显示乘员的发声内容。而且,输出控制部136可以根据乘员的情绪的推断结果来变更表示乘员的发声内容的文字列的颜色或大小、字体等。
另一方面,第一获取部132在S200的处理中判定为通过代理侧通信部102未接收到情绪推断数据的情况下,判定是否通过麦克风104收集到乘员发出的语音,即,判定乘员是否发声(步骤S206)。
在判定为乘员发声的情况下,通信控制部138经由代理侧通信部102,将通过麦克风104收集的语音数据向服务器装置200发送(步骤S208)。由此本流程图的处理结束。
[服务器装置的结构]
图9是表示第一实施方式的服务器装置200的结构的一例的图。第一实施方式的服务器装置200例如具备服务器侧通信部202、服务器侧存储部210、服务器侧控制部230。
服务器侧通信部202包括NIC等通信接口。服务器侧通信部202经由网络NW与搭载于各车辆M的代理装置100等通信。服务器侧通信部202是“输出部”的一例。
服务器侧存储部210通过HDD、闪存器、EEPROM、ROM或RAM等实现。在服务器侧存储部210中,例如除了储存有由处理器参照的程序之外,还储存有情绪辨别模型信息212等。
情绪辨别模型信息212是定义了用于辨别用户情绪的情绪辨别模型MDL的信息(程序或数据结构)。情绪辨别模型MDL是一种当被输入至少包含用户的声音的特征量在内的数据时,进行学习以辨别用户发声时的情绪的模型。
情绪辨别模型MDL例如可以利用DNN(Deep Neural Network(s):深度神经网络)实现。而且,情绪辨别模型MDL并不局限于DNN,可以通过逻辑回归或SVM(Support VectorMachine:支持向量机)、k-NN(k-Nearest Neighbor algorithm:k-最近邻算法)、决策树、朴素贝叶斯分类器、随机森林这样其他的模型来实现。
在情绪辨别模型MDL由DNN实现的情况下,在情绪辨别模型信息212中例如包括:构成情绪辨别模型MDL所包含的各DNN的输入层、一个以上的隐藏层(中间层)、输出层所分别包含的神经元(也称为单元或节点)相互如何耦合这样的耦合信息;向在耦合的神经元间输入输出的数据赋予的耦合系数为多少个这样的加权信息等。耦合信息例如包括:各层所包含的神经元数、指定各神经元的耦合目的地的神经元的种类的信息、实现各神经元的激活函数、在隐藏层的神经元间设置的门等信息。实现神经元的激活函数例如可以是根据输入符号而切换动作的函数(ReLU(Rectified Linear Unit:修正线性单元)函数或ELU(Exponential Linear Units:指数线性单元)函数等),也可以是S型函数、阶跃函数、双曲正切函数,还可以是恒等函数。门例如根据由激活函数返回的值(例如1或0)而使在神经元间传递的数据选择性地通过或加权。耦合系数例如包括:在神经网络的隐藏层中,在从某层的神经元向更深层的神经元输出数据时,对输出数据赋予的加权。而且,耦合系数可以包含各层的固有的偏置分量等。
服务器侧控制部230例如具备第一获取部232、发声期间提取部234、语音识别部236、特征量提取部238、第一推断部240、第二推断部242、通信控制部244、学习部246。语音识别部236是“第二获取部”的一例,通信控制部244是“使输出部输出基于用户的情绪的信息的输出控制部”的一例。
这些构成要素例如通过CPU或GPU等处理器执行程序(软件)来实现。而且,这些构成要素中的一部分或全部可以通过LSI或ASIC、FPGA等硬件(包括电路部;circuitry)实现,也可以通过软件与硬件的协作实现。程序可以预先储存于服务器侧存储部210,也可以储存于DVD或CD-ROM等能够拆装的存储介质并通过将存储介质装配于驱动装置(盘式驱动器)而安装于服务器侧存储部210。
第一获取部232经由服务器侧通信部202从代理装置100获取语音数据。
发声期间提取部234从通过第一获取部132获取到的语音数据中,提取乘员发声的期间(以下,称为发声期间)。例如,发声期间提取部234可以利用零交叉法,基于语音数据所包含的语音信号的振幅来提取发声期间。而且,发声期间提取部234可以基于混合高斯分布模型(GMM;Gaussian mixture model:高斯混合模型),从语音数据中提取发声期间,也可以通过对发声期间特有的语音信号进行模板化的数据库和模板匹配处理,从语音数据中提取发声期间。
语音识别部236按照通过发声期间提取部234提取出的各发声期间来识别语音,通过对识别的语音进行文本化而生成表示发声的内容的文本数据。
例如,语音识别部236将发声期间的语音信号向包含BiLSTM(Bi-directionalLong short-term memory:双向长短期记忆)或提示机构等在内的循环神经网络输入,由此将语音信号分离成低频率、高频率等多个频率带,得到将该各频率带的语音信号进行了傅里叶变换的频谱(梅尔频谱)。循环神经网络例如可以通过利用教师数据来预先学习,该教师数据为对由学习用的语音生成的频谱,将该学习用的语音信号作为教师标签而建立了对应的数据。
并且,语音识别部236通过向包含多个隐藏层的卷积神经网络输入频谱而从频谱得到文字列。卷积神经网络例如通过利用教师数据来预先学习,该教师数据为对学习用的频谱,将与为了生成该学习用的频谱所使用的语音信号对应的文字列作为教师标签而建立了对应的数据。语音识别部236将从卷积神经网络得到的文字列的数据作为文本数据。
当由语音数据生成文本数据时,语音识别部236将该生成的文本数据向为了分析乘员的情绪而预先学习的DNN输入,由此导出将乘员的情绪进行了数值化的指数(以下,称为情感分析指数INS)。情感分析指数INS是“基于文本数据的指标值”的一例。
情感分析指数INS例如包含:表示作为分析对象的文本的整体性的情绪的得分S、表示文本的整体性的情绪的深度(大小或振幅)的重要性M。例如,文本整体的“愉快”或“高兴”那样的正面的言行越多,则得分S越获取接近+1.0的值,“悲伤”或“烦躁”那样的负面的言行越多,则得分S越获取接近-1.0的值,中性的言行越多,则得分S越获取接近0.0的数值。重要性M通过从-1.0至+1.0的数值范围来表示文本之中叙述情绪性的意见的文字列(串)的数量。在得分S接近0.0的情况下,该文本为中性的言行或者正面的言行与负面的言行为相同程度,表示相互抵消极性的情况。文本之中叙述情绪性的意见的文字列是“内容”的一例。
通常已知在真正中性的文本中,重要性M小,在正面的言行与负面的言行混杂的文本中,重要性M大。因此,即使得分S为接近0.0的值,根据重要性M的值,也能够区分分析对象的文本是真正中性的文本还是正面的言行与负面的言行混杂的文本。得分S是“第一指标值”的一例,重要性M是“第二指标值”的一例。
特征量提取部238从通过发声期间提取部234提取出的各发声期间的语音中,提取乘员的声音的特征量(以下,称为语音特征量F)。语音特征量F是“基于语音数据的指标值”的一例。
语音特征量F例如是ZCR(Zero-Crossing Rate:过零率)、RMS(Root Mean Square:均方根)、声音的音调的基本频率F0、HNR(Harmonics-to-Noise Ratio:谐波噪声比)、梅尔频率倒谱系数MFCC。而且,语音特征量F可以包括上述的各种指标值的最小值、最大值、标准偏差、平均值、峰度、偏度、相对位置、范围、线性回归系数、均方差等统计值。语音特征量F可以由以上述各种特征量分别为要素的多维向量表示。表示语音特征量F的多维向量是“多维数据”的一例。
第一推断部240将通过特征量提取部238提取出的语音特征量F与通过语音识别部236导出的情感分析指数INS融合为一个,并将其融合结果向情绪辨别模型MDL输入,由此暂时地推断乘员的情绪。以下,将作为情绪辨别模型MDL的输入数据的语音特征量F及情感分析指数INS融合为一个的情况称为“早期融合”进行说明。早期融合是“第一融合”的一例。
图10是用于说明第一实施方式的早期融合的图。例如,第一推断部240作为早期融合,在ZCR、RMS、F0这样的表示语音特征量F的多维向量中追加情感分析指数INS的得分S和重要性M作为新的要素。由此,向情绪辨别模型MDL输入的输入数据的维数被扩张。
并且,第一推断部240将分别包含作为要素的语音特征量F所包含的各特征量、得分S、重要性M的多维向量(维数增加的多维向量)向通过逻辑回归或DNN等而实现的情绪辨别模型MDL输入。
情绪辨别模型MDL例如当被输入向量时,输出辨别用户的情绪是正面的情绪(第一情绪的一例)、还是负面的情绪(第二情绪的一例)、或者是中性的情绪(第三情绪的一例)的值(以下,称为一次情绪辨别值E)。例如,如果用户的情绪为正面的情绪,则一次情绪辨别值E成为接近+1.0的值,如果用户的情绪为负面的情绪,则一次情绪辨别值E成为接近-1.0的值,如果用户的情绪为中性的情绪,则一次情绪辨别值E成为接近0.0的值。
例如,第一推断部240将与通过情绪辨别模型MDL输出的一次情绪辨别值E对应的情绪暂时推断为发出了作为语音特征量F的提取源的语音的乘员的情绪。
第二推断部242将第一推断部240的推断结果即一次情绪辨别值E与通过语音识别部236导出的情感分析指数INS融合为一个,基于其融合结果,来推断乘员的情绪。以下,将一次情绪辨别值E与情感分析指数INS融合的情况称为“晚期融合”进行说明。晚期融合是“第二融合”的一例。
图11是用于说明第一实施方式的晚期融合的图。例如,第二推断部242求出一次情绪辨别值E与情感分析指数INS的合计值,根据该合计值,将辨别乘员的情绪是正面的情绪、还是负面的情绪、或者是中性的情绪的值(以下,称为二次情绪辨别值C)导出作为乘员的情绪的推断结果。具体而言,第二推断部242基于数学式(1),导出二次情绪辨别值C。
【数学式1】
例如,第二推断部242按照数学式(1),将一次情绪辨别值E与情感分析指数INS所包含的得分S相加时(合并时),在其合计值(E+S)为+1.0以上的情况下,将二次情绪辨别值C设为表示正面的情绪的+1.0,在合计值(E+S)为-1.0以下的情况下,将二次情绪辨别值C设为表示负面的情绪的-1.0,在合计值(E+S)小于+1.0且超过-1.0的情况下,将二次情绪辨别值C设为表示中性的情绪的0.0。+1.0是“第一阈值”的一例,-1.0是“第二阈值”的一例。
通信控制部244将包含第二推断部242的推断结果即二次情绪辨别值C和通过语音识别部236生成的文本数据在内的情绪推断数据经由服务器侧通信部202向代理装置100发送。情绪推断数据是“基于用户的情绪的信息”的一例。
学习部246基于预先准备的教师数据,来学习情绪辨别模型MDL。教师数据是对于从某学习用的语音数据提取出的语音特征量F和从由相同学习用的语音数据生成的文本数据得到的情感分析指数INS,将成为正确答案的一次情绪辨别值E作为教师标签建立了对应的数据。例如,对于使愤怒的用户发声时的语音数据的语音特征量F及情感分析指数INS,与-1.0的值的一次情绪辨别值E建立对应。
例如,学习部246将教师数据的语音特征量F及情感分析指数INS进行早期融合,并将其融合结果向情绪辨别模型MDL输入。并且,学习部246学习情绪辨别模型MDL,以使情绪辨别模型MDL的输出结果即一次情绪辨别值E接近对于向情绪辨别模型MDL输入的语音特征量F及情感分析指数INS作为教师标签建立了对应的正确答案的一次情绪辨别值E。
例如,在情绪辨别模型MDL为神经网络的情况下,学习部246利用SGD(StochasticGradient Descent:随机梯度下降)、Momentum SGD、AdaGrad、RMSprop、AdaDelta、Adam(Adaptive moment estimation:自适应力矩估计)等的概率斜度法来学习情绪辨别模型MDL的参数,以使通过情绪辨别模型MDL输出的一次情绪辨别值E与教师标签的一次情绪辨别值E的差值变小。
[服务器装置的处理流程]
以下,使用流程图说明第一实施方式的服务器装置200的处理。图12是表示第一实施方式的服务器装置200的一系列的处理的流程的流程图。本流程图的处理可以按照规定的周期反复进行。
首先,第一获取部232经由服务器侧通信部202从代理装置100获取语音数据(步骤S300)。
接下来,发声期间提取部234从通过第一获取部232获取到的语音数据中提取乘员发声的发声期间(步骤S302)。
接下来,语音识别部236按照通过发声期间提取部234提取出的各发声期间来识别语音,通过对识别出的语音进行文本化而生成表示发声的内容的文本数据(步骤S304)。
接下来,语音识别部236将生成的文本数据向为了分析乘员的情绪而预先学习的DNN输入,由此导出情感分析指数INS(步骤S306)。
接下来,特征量提取部238从通过发声期间提取部234提取出的各发声期间的语音中提取语音特征量F(步骤S308)。
接下来,第一推断部240将通过特征量提取部238提取出的语音特征量F与通过语音识别部236导出的情感分析指数INS利用早期融合而合并为一个(步骤S310)。
接下来,第一推断部240将早期融合的结果向情绪辨别模型MDL输入,由此暂时性推断乘员的情绪(步骤S312)。
接下来,第二推断部242将第一推断部240的推断结果即一次情绪辨别值E与通过语音识别部236导出的情感分析指数INS利用晚期融合而合并为一个(步骤S314)。
接下来,第二推断部242基于晚期融合的结果来导出二次情绪辨别值C,推断乘员的情绪(步骤S316)。
接下来,通信控制部244将包含第二推断部242的推断结果即二次情绪辨别值C和通过语音识别部236生成的文本数据在内的情绪推断数据经由服务器侧通信部202向代理装置100发送(步骤S318)。此时,文本数据可以包含与表示发声内容的文字列的各文字一一对应的发音记号(也称为语音字母或音标文字)。由此,代理装置100根据二次情绪辨别值C的值是+1.0、还是-1.0、或者是0.0,来变更对话的支援形态。由此,本流程图的处理结束。
根据以上说明的第一实施方式,服务器装置200具备:获取搭载有代理装置100的车辆M的乘员发出的语音数据的第一获取部232;生成将通过第一获取部232获取到的语音数据进行了文本化的文本数据的语音识别部236;将基于语音数据的语音特征量F与基于文本数据的情感分析指数INS通过早期融合而合并为一个,基于该早期融合的合并结果,来推断乘员的情绪的第一推断部240;将第一推断部240的推断结果即一次情绪辨别值E与情感分析指数INS通过晚期融合而合并为一个,基于该晚期融合的合并结果,来推断乘员的情绪的第二推断部242,由此,例如能够做到:在基于语音数据的情绪推断和基于文本数据的情绪推断的结果如“正面”和“正面”、或“负面”和“负面”那样为相互相同的推断结果的情况下,维持上述的推断结果,在如“正面”和“负面”、或“负面”和“正面”那样双方的情绪推断的结果为互不相同的推断结果的情况下,由于产生推断错误的盖然性高,因此变更为中性的推断结果。其结果是,能够抑制将心情低落的乘员的情绪误推断为“正面的情绪”,或者将心情高扬的乘员的情绪误推断为“负面的情绪”的情况,能够提高乘员(用户的一例)的情绪的推断精度。
<第一实施方式的变形例>
以下,说明第一实施方式的变形例。在上述的第一实施方式中,说明了搭载于各车辆M的代理装置100与服务器装置200为互不相同的装置的情况,但是并不局限于此。例如,服务器装置200可以是通过代理装置100的代理侧控制部130假想性地实现的假想机器。在该情况下,代理装置100是“情绪推断装置”的另一例。
图13是表示第一实施方式的代理装置100的另一例的图。如图13所示,代理装置100的代理侧控制部130可以除了具备上述的第一获取部132、语音合成部134、输出控制部136及通信控制部138之外,还可以具备发声期间提取部234、语音识别部236、特征量提取部238、第一推断部240、第二推断部242、学习部246。在该情况下,代理装置100的扬声器106或显示部108是“输出部”的另一例,代理装置100的输出控制部136是“使输出部输出基于用户的情绪的信息的输出控制部”的另一例。
另外,在代理装置100的代理侧存储部120可以储存情绪辨别模型信息212。
通过这样的结构,通过代理装置100单体,能够根据乘员发出的语音来推断该乘员的情绪,因此能够减少情绪的推断错误,提高乘员的情绪的推断精度。
另外,在上述的第一实施方式中,说明了代理装置100基于通过服务器装置200推断的乘员的情绪来变更代理语音的声压等级或抑扬等,或变更向车室内播放的音乐的选曲,或变更车室内显示的影像或图像的情况,但是并不局限于此。例如,代理装置100可以基于乘员的情绪的推断结果,来变更速度、加速度、转弯角这样的车辆M的行为。
另外,在上述的第一实施方式中,说明了服务器装置200具备语音识别部236,该语音识别部236按照通过发声期间提取部234提取出的各发声期间来识别语音,通过对识别的语音进行文本化来生成表示发声的内容的文本数据的情况,但是并不局限于此。例如,服务器装置200的通信控制部244可以将通过发声期间提取部234提取出的发声期间的语音数据经由服务器侧通信部202向某特定的外部装置发送,委托该外部装置由语音数据生成文本数据。外部装置具有与语音识别部236同样的结构,当从其他的装置接收到语音数据时,由该接收到的语音数据来生成文本数据。并且,外部装置将生成的文本数据向委托源的装置发送。当通过服务器侧通信部202从外部装置接收到文本数据时,服务器装置200的语音识别部236从通过服务器侧通信部202接收到的文本数据中导出情感分析指数INS。在该情况下,服务器侧通信部202或语音识别部236是“第二获取部”的另一例。
<第二实施方式>
以下,说明第二实施方式。在上述的第一实施方式中,作为早期融合,说明了向ZCR、RMS、F0这样的表示语音特征量F的多维向量追加情感分析指数INS的得分S和重要性M作为新的要素的情况。
相对于此,在第二实施方式中,作为早期融合,对于表示语音特征量F的多维向量,追加情感分析指数INS的得分S和重要性M作为新的要素,并追加表示乘员的驾驶操作的倾向的特征量、乘员的外观的特征量、表示车辆M的状态的特征量等作为新的要素,这一点与上述的第一实施方式不同。以下,以与
第一实施方式的不同点为中心进行说明,关于与第一实施方式相同的点省略说明。需要说明的是,在第二实施方式的说明中,对于与第一实施方式相同的部分,标注同一符号进行说明。
图14是表示第二实施方式的代理装置100的结构的一例的图。第二实施方式的代理装置100除了上述的结构之外,还具备驾驶操作检测部112、驾驶员监视相机114、车辆传感器116。
驾驶操作检测部112检测表示方向盘、加速踏板、制动踏板等驾驶操作件由乘员操作了何种程度这样的情况的操作量,或者检测有无对驾驶操作件的操作。即,驾驶操作检测部112检测乘员对驾驶操作件的驾驶操作。例如,驾驶操作检测部112将检测到的操作量或检测到的表示操作的有无的信息(以下,称为用户驾驶操作数据)向代理侧控制部130输出。
驾驶员监视相机114例如设置在搭载有代理装置100的车辆M的车室内,拍摄就座在车室内的座椅上的各乘员的脸部等。驾驶员监视相机114例如是利用了CCD(ChargeCoupled Device:电荷耦合器件)或CMOS(Complementary Metal Oxide Semiconductor:互补金属氧化物半导体)等固体拍摄元件的数码相机。驾驶员监视相机114例如以规定的定时反复拍摄各乘员。驾驶员监视相机114生成拍摄了乘员的图像的数据(以下,称为图像数据),将生成的图像数据向代理侧控制部130输出。
车辆传感器116包括:检测车辆M的朝向的方位传感器、检测车辆M的速度的车速传感器、检测车辆M的加速度的加速度传感器、检测车辆M的绕铅垂轴的角速度的偏航率传感器、检测转向扭矩的扭矩传感器等。车辆传感器116将检测到的包含方位、速度、加速度等的数据(以下,称为车辆状态数据)向代理侧控制部130输出。
第二实施方式的通信控制部138经由代理侧通信部102,将语音数据、用户驾驶操作数据、图像数据、车辆状态数据向服务器装置200发送。
第二实施方式的服务器装置200的特征量提取部238当通过服务器侧通信部202接收到图像数据时,从该图像数据中提取眼、口、鼻这样的脸部的部位的特征点作为乘员的脸部的特征量。
第二实施方式的服务器装置200的第一推断部240将下述的(I)~(III)通过早期融合而合并为一个,将该早期融合的合并结果向情绪辨别模型MDL输入,由此暂时性地推断乘员的情绪。
(I):通过特征量提取部238提取出的语音特征量F。
(II):通过语音识别部236导出的情感分析指数INS。
(III):用户驾驶操作数据所表示的对驾驶操作件的操作量、从图像数据中提取出的乘员的脸部的特征量、及车辆状态数据所表示的车辆M的状态量中的一部分或全部。
图15是用于说明第二实施方式的早期融合的图。例如,第一推断部240作为早期融合,对于ZCR、RMS、F0这样的表示语音特征量F的多维向量,追加情感分析指数INS的得分S及重要性M、方向盘的操作量(例如转向扭矩或转向角)、加速踏板或制动踏板的操作量(例如踏入量)、乘员的脸部的特征量、车辆M的速度、加速度、角速度等状态量作为新的要素。
并且,第一推断部240将扩张了维数的多维向量向通过逻辑回归或DNN等实现的情绪辨别模型MDL输入。由此,能够导出更接近于当前的乘员的情绪的一次情绪辨别值E。
第二实施方式的学习部246使用下述这样的教师数据,来学习情绪辨别模型MDL,即,对于从学习用的语音数据中提取出的语音特征量F、根据相同学习用的语音数据生成的文本数据的情感分析指数INS、驾驶操作件的操作量、乘员的脸部的特征量、车辆M的状态量的组合,将成为正确答案的一次情绪辨别值E作为教师标签而建立了对应的教师数据。
根据以上说明的第二实施方式,将(I)语音特征量F、(II)情感分析指数INS、(III)对驾驶操作件的操作量、乘员的脸部的特征量、及车辆M的状态量中的一部分或全部通过早期融合而合并为一个,基于该早期融合的合并结果来导出一次情绪辨别值E,因此与第一实施方式相比,能够进一步减少情绪的推断错误。其结果是,能够进一步提高乘员的情绪的推断精度。
<第三实施方式>
以下,说明第三实施方式。在上述的第一实施方式及第二实施方式中,说明了代理装置100搭载于车辆M的情况。相对于此,在第三实施方式中,智能手机或便携电话等终端装置具备代理装置100的功能,这一点与上述的第一或第二实施方式不同。以下,以与第一或第二实施方式的不同点为中心进行说明,关于与第一或第二实施方式相同的点省略说明。需要说明的是,在第三实施方式的说明中,对于与第一或第二实施方式相同的部分,标注同一符号进行说明。
图16是表示第三实施方式的代理系统1的结构的一例的图。第三实施方式的代理系统1例如具备多个终端装置300、服务器装置200。
终端装置300是用户能够利用的装置,例如是智能手机等便携电话、平板电脑终端、各种个人计算机等具备输入装置、显示装置、通信装置、存储装置及运算装置的终端装置。通信装置包括NIC等网卡、无线通信模块等。在终端装置300中,网络浏览器或应用程序等UA(User Agent:用户代理)起动,接受用户的各种输入操作。
[终端装置的结构]
图17是表示终端装置300的结构的一例的图。如图所示,终端装置300例如具备终端侧通信接口302、终端侧扬声器304、终端侧麦克风306、终端侧显示部308、终端侧输入部310、终端侧控制部320、终端侧存储部330。
终端侧通信接口302包括与网络NW连接用的硬件。例如,终端侧通信接口302可以包含天线及收发装置、或NIC等。例如,终端侧通信接口302经由网络NW而与服务器装置200通信,从服务器装置200接收情绪推断数据。
终端侧扬声器304基于通过终端侧控制部320输出的信息而输出语音。
终端侧麦克风306是对周围的语音进行收集的语音输入装置。终端侧麦克风306将收集到的语音数据向终端侧控制部320输出。
终端侧显示部308例如包括LCD或有机EL显示器等显示装置。终端侧显示部308基于通过终端侧控制部320输出的信息来显示图像。
终端侧输入部310例如包括按钮、键盘或鼠标等用户接口。终端侧输入部310受理乘员的操作,将与受理的操作相应的信号向终端侧控制部320输出。终端侧输入部310也可以是与终端侧显示部308一体构成的触摸面板。
终端侧控制部320例如通过CPU等处理器执行终端侧存储部330储存的程序或应用来实现。而且,终端侧控制部320可以通过LSI、ASIC或FPGA等硬件实现。程序或应用可以预先储存于终端侧存储部330,也可以储存于DVD或CD-ROM等能够拆装的存储介质并通过将存储介质装配于驱动装置而安装于终端侧存储部330。
终端侧存储部330例如通过HDD、闪存器、EEPROM、ROM或RAM等实现。在终端侧存储部330例如储存有实现终端侧控制部320的处理器参照的程序或应用。应用例如包含对用户发出的语音进行解析或分析并用于推断该用户的情绪的应用(以下,称为语音识别应用332)。
以下,说明实现终端侧控制部320的处理器执行语音识别应用332时的终端侧控制部320的功能。图18是表示终端侧控制部320的功能结构的一例的图。例如,终端侧控制部320具备第一获取部322、语音合成部324、输出控制部326、通信控制部328。
第一获取部322从终端侧麦克风306获取语音数据。
语音合成部324基于终端侧通信接口302从服务器装置200接收到的情绪推断数据,来生成代理语音。例如,语音合成部324基于情绪推断数据所包含的用户的情绪的推断结果和文本数据,来生成代理语音。
输出控制部326当通过语音合成部324生成代理语音时,使终端侧扬声器304输出该代理语音。此时,输出控制部326可以使终端侧显示部308显示与情绪推断结果相应的图像。
通信控制部328经由终端侧通信接口302将通过第一获取部322获取到的语音数据向服务器装置200发送。由此,在服务器装置200中,基于从终端装置300接收的语音数据,进行利用该终端装置300的用户的情绪推断。
根据以上说明的第三实施方式,智能手机等终端装置300具备代理装置100的功能,因此不仅是搭载于移动体的乘员,而且能够提高利用终端装置300的用户的情绪的推断精度。
以上,使用实施方式说明了用于实施本发明的方式,但是本发明丝毫不受这样的实施方式限定,在不脱离本发明的主旨的范围内能够施加各种变形及置换。
Claims (9)
1.一种情绪推断装置,其中,所述情绪推断装置具备:
第一获取部,其获取用户发出的语音数据;
第二获取部,其获取对通过所述第一获取部获取到的语音数据进行了文本化的文本数据;
第一推断部,其将基于通过所述第一获取部获取到的语音数据的指标值和基于通过所述第二获取部获取到的文本数据的指标值利用第一融合进行合并,基于合并后的指标值,来推断所述用户的情绪;及
第二推断部,其将表示所述第一推断部的推断结果的指标值与基于通过所述第二获取部获取到的文本数据的指标值利用第二融合进行合并,基于合并后的指标值,来推断所述用户的情绪。
2.根据权利要求1所述的情绪推断装置,其中,
所述情绪推断装置还具备:
输出部,其输出信息;及
输出控制部,其使所述输出部输出基于通过所述第二推断部推断出的所述用户的情绪的信息。
3.根据权利要求1或2所述的情绪推断装置,其中,
所述第二推断部基于所述第二融合的结果,来推断所述用户的情绪是正面的第一情绪、还是负面的第二情绪、或者是并非所述第一情绪及所述第二情绪的任一个的中性的第三情绪。
4.根据权利要求3所述的情绪推断装置,其中,
在表示所述第一推断部的推断结果的指标值与基于通过所述第二获取部获取到的文本数据的指标值之和为第一阈值以上的情况下,所述第二推断部推断所述用户的情绪为所述第一情绪,
在表示所述第一推断部的推断结果的指标值与基于通过所述第二获取部获取到的文本数据的指标值之和为比所述第一阈值小的第二阈值以下的情况下,所述第二推断部推断所述用户的情绪为所述第二情绪,
在表示所述第一推断部的推断结果的指标值与基于通过所述第二获取部获取到的文本数据的指标值之和小于所述第一阈值且超过所述第二阈值的情况下,所述第二推断部推断所述用户的情绪为所述第三情绪。
5.根据权利要求1~4中任一项所述的情绪推断装置,其中,
所述情绪推断装置还具备提取部,该提取部从通过所述第一获取部获取到的语音数据中提取一个以上的特征量,
所述第二获取部导出对所述文本数据所表示的文本的整体性的情绪进行了数值化的第一指标值和表示所述文本所包含的情绪性的内容的量的第二指标值,
所述第一推断部将通过所述第二获取部导出的所述第一指标值及所述第二指标值与通过所述提取部提取出的一个以上的所述特征量利用所述第一融合进行合并。
6.根据权利要求5所述的情绪推断装置,其中,
所述第一推断部将通过所述第二获取部导出的所述第一指标值及所述第二指标值作为要素,追加到分别以通过所述提取部提取出的一个以上的所述特征量为要素的多维数据中,来作为所述第一融合。
7.根据权利要求1~6中任一项所述的情绪推断装置,其中,
所述第一获取部还获取表示所述用户乘坐的车辆的驾驶操作的驾驶操作数据和拍摄了所述用户的图像数据,
所述第一推断部将基于通过所述第一获取部获取到的语音数据的指标值、基于通过所述第二获取部获取到的文本数据的指标值、基于通过所述第一获取部获取到的驾驶操作数据的指标值、基于通过所述第一获取部获取到的图像数据的指标值利用所述第一融合进行合并,基于合并后的指标值,来推断所述用户的情绪。
8.一种情绪推断方法,该情绪推断方法使计算机进行如下处理:
获取用户发出的语音数据;
获取对获取到的语音数据进行了文本化的文本数据;
将基于所述语音数据的指标值与基于所述文本数据的指标值利用第一融合进行合并,基于合并后的指标值,来推断所述用户的情绪;
将表示基于通过所述第一融合合并后的指标值的所述用户的情绪的推断结果的指标值与基于所述文本数据的指标值利用第二融合进行合并,基于合并后的指标值,来推断所述用户的情绪。
9.一种计算机可读的存储介质,该存储介质存储有程序,
该程序用于使计算机执行如下处理:
获取用户发出的语音数据;
获取对获取到的语音数据进行了文本化的文本数据;
将基于所述语音数据的指标值与基于所述文本数据的指标值利用第一融合进行合并,基于合并后的指标值,来推断所述用户的情绪;及
将表示基于通过所述第一融合合并后的指标值的所述用户的情绪的推断结果的指标值与基于所述文本数据的指标值利用第二融合进行合并,基于合并后的指标值,来推断所述用户的情绪。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018-226236 | 2018-12-03 | ||
JP2018226236A JP2020091302A (ja) | 2018-12-03 | 2018-12-03 | 感情推定装置、感情推定方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111341349A CN111341349A (zh) | 2020-06-26 |
CN111341349B true CN111341349B (zh) | 2023-07-25 |
Family
ID=70848968
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911156270.0A Active CN111341349B (zh) | 2018-12-03 | 2019-11-22 | 情绪推断装置、情绪推断方法、及存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11107464B2 (zh) |
JP (1) | JP2020091302A (zh) |
CN (1) | CN111341349B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7384558B2 (ja) * | 2019-01-31 | 2023-11-21 | 株式会社日立システムズ | 有害行為検出システムおよび方法 |
US11072344B2 (en) * | 2019-03-18 | 2021-07-27 | The Regents Of The University Of Michigan | Exploiting acoustic and lexical properties of phonemes to recognize valence from speech |
KR102365433B1 (ko) * | 2020-10-23 | 2022-02-21 | 서울대학교산학협력단 | 교차 어텐션 모델 기반 감정 인식 방법 및 장치 |
JP2022095024A (ja) * | 2020-12-16 | 2022-06-28 | キヤノン株式会社 | 学習データ生成装置、学習データ生成方法及びコンピュータプログラム |
WO2022180861A1 (ja) * | 2021-02-26 | 2022-09-01 | 株式会社I’mbesideyou | ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム |
CN113159201B (zh) * | 2021-04-28 | 2023-04-25 | 上海德衡数据科技有限公司 | 基于云边缘计算智能融合信息的方法、装置及云端服务器 |
CN113317791B (zh) * | 2021-05-28 | 2023-03-14 | 温州康宁医院股份有限公司 | 一种基于被测者的音频确定抑郁症严重程度的方法及装置 |
CN113436649B (zh) * | 2021-06-25 | 2023-03-21 | 武汉大晟极科技有限公司 | 一种语音情感标定辅助方法及系统 |
CN115096325A (zh) * | 2022-05-26 | 2022-09-23 | 北京百度网讯科技有限公司 | 路线导航方法、装置、电子设备及存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001215993A (ja) * | 2000-01-31 | 2001-08-10 | Sony Corp | 対話処理装置および対話処理方法、並びに記録媒体 |
JP2010286627A (ja) * | 2009-06-11 | 2010-12-24 | Nissan Motor Co Ltd | 感情推定装置及び感情推定方法 |
CN103811009A (zh) * | 2014-03-13 | 2014-05-21 | 华东理工大学 | 一种基于语音分析的智能电话客服系统 |
CN104102627A (zh) * | 2014-07-11 | 2014-10-15 | 合肥工业大学 | 一种多模态的非接触情感分析记录系统 |
CN105334743A (zh) * | 2015-11-18 | 2016-02-17 | 深圳创维-Rgb电子有限公司 | 一种基于情感识别的智能家居控制方法及其系统 |
CN105760852A (zh) * | 2016-03-14 | 2016-07-13 | 江苏大学 | 一种融合脸部表情和语音的驾驶员情感实时识别方法 |
CN106658129A (zh) * | 2016-12-27 | 2017-05-10 | 上海智臻智能网络科技股份有限公司 | 基于情绪的终端控制方法、装置及终端 |
CN106683688A (zh) * | 2015-11-05 | 2017-05-17 | 中国移动通信集团公司 | 一种情绪检测方法及装置 |
CN106782615A (zh) * | 2016-12-20 | 2017-05-31 | 科大讯飞股份有限公司 | 语音数据情感检测方法和装置及系统 |
CN107452385A (zh) * | 2017-08-16 | 2017-12-08 | 北京世纪好未来教育科技有限公司 | 一种基于语音的数据评价方法及装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006071936A (ja) * | 2004-09-01 | 2006-03-16 | Matsushita Electric Works Ltd | 対話エージェント |
JP5041229B2 (ja) | 2007-12-07 | 2012-10-03 | ソニー株式会社 | 学習装置および方法、認識装置および方法、並びにプログラム |
JP6477199B2 (ja) * | 2015-04-23 | 2019-03-06 | 沖電気工業株式会社 | 振動状態推定装置、振動状態推定方法、およびプログラム |
KR102437689B1 (ko) * | 2015-09-16 | 2022-08-30 | 삼성전자주식회사 | 음성 인식 서버 및 그 제어 방법 |
CN108369804A (zh) * | 2015-12-07 | 2018-08-03 | 雅马哈株式会社 | 语音交互设备和语音交互方法 |
JP2017120609A (ja) * | 2015-12-24 | 2017-07-06 | カシオ計算機株式会社 | 感情推定装置、感情推定方法及びプログラム |
JP6703420B2 (ja) * | 2016-03-09 | 2020-06-03 | 本田技研工業株式会社 | 会話解析装置、会話解析方法およびプログラム |
JP6465077B2 (ja) * | 2016-05-31 | 2019-02-06 | トヨタ自動車株式会社 | 音声対話装置および音声対話方法 |
-
2018
- 2018-12-03 JP JP2018226236A patent/JP2020091302A/ja active Pending
-
2019
- 2019-11-22 CN CN201911156270.0A patent/CN111341349B/zh active Active
- 2019-11-25 US US16/693,447 patent/US11107464B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001215993A (ja) * | 2000-01-31 | 2001-08-10 | Sony Corp | 対話処理装置および対話処理方法、並びに記録媒体 |
JP2010286627A (ja) * | 2009-06-11 | 2010-12-24 | Nissan Motor Co Ltd | 感情推定装置及び感情推定方法 |
CN103811009A (zh) * | 2014-03-13 | 2014-05-21 | 华东理工大学 | 一种基于语音分析的智能电话客服系统 |
CN104102627A (zh) * | 2014-07-11 | 2014-10-15 | 合肥工业大学 | 一种多模态的非接触情感分析记录系统 |
CN106683688A (zh) * | 2015-11-05 | 2017-05-17 | 中国移动通信集团公司 | 一种情绪检测方法及装置 |
CN105334743A (zh) * | 2015-11-18 | 2016-02-17 | 深圳创维-Rgb电子有限公司 | 一种基于情感识别的智能家居控制方法及其系统 |
CN105760852A (zh) * | 2016-03-14 | 2016-07-13 | 江苏大学 | 一种融合脸部表情和语音的驾驶员情感实时识别方法 |
CN106782615A (zh) * | 2016-12-20 | 2017-05-31 | 科大讯飞股份有限公司 | 语音数据情感检测方法和装置及系统 |
CN106658129A (zh) * | 2016-12-27 | 2017-05-10 | 上海智臻智能网络科技股份有限公司 | 基于情绪的终端控制方法、装置及终端 |
CN107452385A (zh) * | 2017-08-16 | 2017-12-08 | 北京世纪好未来教育科技有限公司 | 一种基于语音的数据评价方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
US11107464B2 (en) | 2021-08-31 |
JP2020091302A (ja) | 2020-06-11 |
CN111341349A (zh) | 2020-06-26 |
US20200175970A1 (en) | 2020-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111341349B (zh) | 情绪推断装置、情绪推断方法、及存储介质 | |
CN109791767B (zh) | 用于语音识别的系统和方法 | |
JP6743300B2 (ja) | ニューラルネットワークを用いてハイブリッド音声認識結果をランク付けするためのシステム及び方法 | |
US11270694B2 (en) | Artificial intelligence apparatus and method for recognizing speech by correcting misrecognized word | |
US11282522B2 (en) | Artificial intelligence apparatus and method for recognizing speech of user | |
US11211047B2 (en) | Artificial intelligence device for learning deidentified speech signal and method therefor | |
CN109941231B (zh) | 车载终端设备、车载交互系统和交互方法 | |
JP6977004B2 (ja) | 車載装置、発声を処理する方法およびプログラム | |
US11443747B2 (en) | Artificial intelligence apparatus and method for recognizing speech of user in consideration of word usage frequency | |
CN108242236A (zh) | 对话处理装置及其车辆和对话处理方法 | |
US20200058290A1 (en) | Artificial intelligence apparatus for correcting synthesized speech and method thereof | |
US20200051566A1 (en) | Artificial intelligence device for providing notification to user using audio data and method for the same | |
US11211059B2 (en) | Artificial intelligence apparatus and method for recognizing speech with multiple languages | |
US11508358B2 (en) | Artificial intelligence apparatus and method for recognizing speech in consideration of utterance style | |
KR20220070466A (ko) | 지능적 음성 인식 방법 및 장치 | |
CN115205917A (zh) | 一种人机交互的方法及电子设备 | |
US20200286452A1 (en) | Agent device, agent device control method, and storage medium | |
US11922538B2 (en) | Apparatus for generating emojis, vehicle, and method for generating emojis | |
WO2023159536A1 (zh) | 人机交互方法、装置以及终端设备 | |
CN115227246A (zh) | 面向智能驾驶的驾驶人声音情感识别方法 | |
US20230290342A1 (en) | Dialogue system and control method thereof | |
JP2020160285A (ja) | エージェント装置、情報提供方法、及びプログラム | |
CN114927142A (zh) | 基于语音和上下文的驾驶员情绪识别方法和系统 | |
JP2020166073A (ja) | 音声インタフェイスシステム、制御方法及びプログラム | |
US20220208213A1 (en) | Information processing device, information processing method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |