CN109961804B - 智能设备满意度评估方法、装置及存储介质 - Google Patents
智能设备满意度评估方法、装置及存储介质 Download PDFInfo
- Publication number
- CN109961804B CN109961804B CN201910110769.1A CN201910110769A CN109961804B CN 109961804 B CN109961804 B CN 109961804B CN 201910110769 A CN201910110769 A CN 201910110769A CN 109961804 B CN109961804 B CN 109961804B
- Authority
- CN
- China
- Prior art keywords
- awakening
- user
- tone
- voice
- satisfaction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 82
- 238000000034 method Methods 0.000 claims abstract description 50
- 230000036651 mood Effects 0.000 claims description 38
- 238000012545 processing Methods 0.000 claims description 25
- 238000012549 training Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 5
- 238000012854 evaluation process Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 238000013461 design Methods 0.000 description 8
- 230000002618 waking effect Effects 0.000 description 8
- 230000008451 emotion Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000003993 interaction Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 235000019800 disodium phosphate Nutrition 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Child & Adolescent Psychology (AREA)
- Signal Processing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请提供一种智能设备满意度评估方法、装置及存储介质,其中,该方法包括:通过获取智能设备采集到的用户唤醒语音,将该用户唤醒语音输入到语气识别模型中,得到用户唤醒语气,再基于预设时间段内的所有用户唤醒语气,对该智能设备的满意度进行评估,得到满意度评估结果。该技术方案,在智能设备的满意度评估过程中无需用户提取用户语音和智能设备提供的播放资源,也无需用户的主观判断,解决了现有技术中智能设备的满意度评估结果不准确、成本高的问题。
Description
技术领域
本申请涉及信息处理技术领域,尤其涉及一种智能设备满意度评估方法、装置及存储介质。
背景技术
随着物联网技术的发展,智能音箱作为传统音箱升级的产物,使得用户无需手动搜索,通过语音便可以实现上网的一个工具,比如点播歌曲、上网购物,或是了解天气预报。为了提高产品竞争力,生产出更符合人们需求的智能音箱,需要对智能音箱进行满意度评估。
现有技术中,智能音箱满意度评估方法主要通过如下方式实现:测试人员获取智能音箱中的用户语音和音箱播放资源,通过对多条用户语音进行分析,判断该音箱提供的播放资源是否能够满足用户的需求,进而得到智能音箱的满意度评估结果。
然而,上述方法中需要测试人员手动提取用户语音和音箱提供的播放资源以及进行满意度评估,不仅耗费人力,而且评估结果受人的主观性影响较大,评估结果不准确。
发明内容
本申请提供一种智能设备满意度评估方法、装置及存储介质,以解决现有技术中智能设备的满意度评估结果不准确、成本高的问题。
本申请提供的一种智能设备满意度评估方法,包括:
获取智能设备采集到的用户唤醒语音;
将所述用户唤醒语音输入到语气识别模型中,得到用户唤醒语气;
基于预设时间段内的所有用户唤醒语气,对所述智能设备的满意度进行评估,得到满意度评估结果。
在本实施例中,智能设备的满意度评估过程无需用户提取用户语音和智能设备提供的播放资源,也无需用户主观判断,解决了现有技术中智能设备的满意度评估结果不准确、成本高的问题。
在第一方面的一种可能实现方式中,在所述将所述用户唤醒语音输入到语气识别模型中,得到用户唤醒语气之前,所述方法还包括:
确定所述智能设备采集到所述用户唤醒语音的第一时刻;
判断所述第一时刻是否位于在前资源的播放时间段内,所述在前资源为所述智能设备基于在前唤醒语音后的资源获取请求播放的资源,所述在前唤醒语音的采集时刻在时间上早于所述第一时刻;
所述将所述用户唤醒语音输入到语气识别模型中,得到用户唤醒语气,包括:
若所述第一时刻位于在前资源的播放时间段内,则将所述用户唤醒语音输入到语气识别模型中,得到用户唤醒语气。
在第一方面的上述可能实现方式中,所述方法还包括:
保存所述用户唤醒语气和所述用户唤醒语音。
在第一方面的另一种可能实现方式中,在所述将所述用户唤醒语音输入到语气识别模型中,得到用户唤醒语气之前,所述方法还包括:
采集至少一种唤醒语气对应的至少一个目标唤醒语音;
提取所述至少一个目标唤醒语音中每个目标唤醒语音的唤醒音频特征,所述唤醒音频特征包括:音频升降调、音频响度、音频语速;
基于所有目标唤醒语音的唤醒音频特征和目标唤醒语气,训练得到所述语气识别模型。
在第一方面的再一种可能实现方式中,所述方法还包括:
获取人工对所述用户唤醒语音进行分析确定的理论唤醒语气;
判断所述理论唤醒语气与所述用户唤醒语气是否一致;
若所述理论唤醒语气与所述用户唤醒语气不一致,则基于所述用户唤醒语音和所述理论唤醒语气对所述语气识别模型进行优化。
在第一方面的又一种可能实现方式中,所述基于预设时间段内的所有用户唤醒语气,对所述智能设备的满意度进行评估,得到满意度评估结果,包括:
对所述预设时间段内的所有用户唤醒语气进行分类统计,得到分类统计结果;
根据所述分类统计结果,确定所述智能设备的满意度评估结果;
呈现所述分类统计结果和所述满意度评估结果。
在第一方面的上述任意一种可能实现方式中,所述用户唤醒语气包括:生气语气、开心语气、普通语气、无奈语气。
本申请第二方面提供一种智能设备满意度评估装置,包括:获取模块、处理模块和评估模块;
所述获取模块,用于获取智能设备采集到的用户唤醒语音;
所述处理模块,用于将所述用户唤醒语音输入到语气识别模型中,得到用户唤醒语气;
所述评估模块,用于基于预设时间段内的所有用户唤醒语气,对所述智能设备的满意度进行评估,得到满意度评估结果。
在第二方面的一种可能实现方式中,所述装置还包括:确定模块;
所述确定模块,用于在所述处理模块将所述用户唤醒语音输入到语气识别模型中,得到用户唤醒语气之前,确定所述智能设备采集到所述用户唤醒语音的第一时刻;
所述处理模块,还用于判断所述第一时刻是否位于在前资源的播放时间段内,以及在所述第一时刻位于在前资源的播放时间段内时,将所述用户唤醒语音输入到语气识别模型中,得到用户唤醒语气,所述在前资源为所述智能设备基于在前唤醒语音后的资源获取请求播放的资源,所述在前唤醒语音的采集时刻在时间上早于所述第一时刻。
在第二方面的上述可能实现方式中,所述装置还包括:保存模块;
所述保存模块,用于保存所述用户唤醒语气和所述用户唤醒语音。
在第二方面的另一种可能实现方式中,所述处理模块,还用于在将所述用户唤醒语音输入到语气识别模型中,得到用户唤醒语气之前,采集至少一种唤醒语气对应的至少一个目标唤醒语音,以及提取所述至少一个目标唤醒语音中每个目标唤醒语音的唤醒音频特征,所述唤醒音频特征包括:音频升降调、音频响度、音频语速;
所述装置还包括:训练模块;
所述训练模块,用于基于所有目标唤醒语音的唤醒音频特征和目标唤醒语气,训练得到所述语气识别模型。
在第二方面的再一种可能实现方式中,所述获取模块,还用于获取人工对所述用户唤醒语音进行分析确定的理论唤醒语气;
所述处理模块,还用于判断所述理论唤醒语气与所述用户唤醒语气是否一致,以及在所述理论唤醒语气与所述用户唤醒语气不一致时,基于所述用户唤醒语音和所述理论唤醒语气对所述语气识别模型进行优化。
在第二方面的又一种可能实现方式中,所述评估模块包括:分类单元、确定单元和呈现单元;
所述分类单元,用于对所述预设时间段内的所有用户唤醒语气进行分类统计,得到分类统计结果;
所述确定单元,用于根据所述分类统计结果,确定所述智能设备的满意度评估结果;
所述呈现单元,用于呈现所述分类统计结果和所述满意度评估结果。
在第二方面的上述任意一种可能实现方式中,所述用户唤醒语气包括:生气语气、开心语气、普通语气、无奈语气。
本申请第三方面提供一种智能设备满意度评估装置,包括处理器、存储器及存储在所述存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述第一方面以及第一方面各种可能实现方式中任一项所述的方法。
本申请第四方面提供一种存储介质,所述存储介质中存储有指令,当其在计算机上运行时,使得计算机执行如上述第一方面以及第一方面各种可能实现方式中任一项所述的方法。
本申请实施例提供一种智能设备满意度评估方法、装置及存储介质,服务器通过获取智能设备采集到的用户唤醒语音,将该用户唤醒语音输入到语气识别模型中,得到用户唤醒语气,再基于预设时间段内的所有用户唤醒语气,对该智能设备的满意度进行评估,得到满意度评估结果,其在评估过程中无需用户提取用户语音和智能设备提供的播放资源,也无需用户主观判断,解决了现有技术中智能设备的满意度评估结果不准确、成本高的问题。
附图说明
图1为本申请实施例提供的智能设备满意度评估方法的应用场景示意图;
图2为本申请实施例提供的智能设备满意度评估方法实施例一的流程示意图;
图3为本申请实施例提供的智能设备满意度评估方法实施例二的流程示意图;
图4为本申请实施例提供的智能设备满意度评估方法实施例三的流程示意图;
图5为本申请实施例提供的智能设备满意度评估方法实施例四的流程示意图;
图6为本申请实施例提供的智能设备满意度评估方法实施例五的流程示意图;
图7为预设时间段内存储的各个用户唤醒语气的统计结果饼状图;
图8为本申请实施例提供的智能设备满意度评估装置实施例一的结构示意图;
图9为本申请实施例提供的智能设备满意度评估装置实施例二的结构示意图;
图10为本申请实施例提供的智能设备满意度评估装置实施例三的结构示意图;
图11为本申请实施例提供的智能设备满意度评估装置实施例四的结构示意图;
图12为本申请实施例提供的智能设备满意度评估装置实施例五的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供的智能设备满意度评估方法适用于智能设备满意度评估的应用场景中,图1为本申请实施例提供的智能设备满意度评估方法的应用场景示意图。如图1所述,该应用场景包括可以无线通信的智能设备11和服务器12,该智能设备11可以与用户进行语音交互,确定用户的资源获取请求,该智能设备11还可以将该资源获取请求发送给服务器12,该服务器12可以根据接收到的该资源获取请求在无线网络中搜索资源,确定出与该资源获取请求相匹配的资源,并反馈给智能设备11,进而通过智能设备11输出给用户。
在实际应用中,智能设备11输出的资源可能与用户的意愿资源不符,这时用户可能会打断智能设备11的输出,如果该智能设备11的输出资源与用户的意愿资源不符的频率非常高,这时会降低用户的使用体验,影响用户对该智能设备的满意度,相应的,降低了该智能设备的产品竞争力。
示例性的,在本申请实施例中,该服务器可以是无线网络中的云服务器、或者网页(WEB)服务器,也可以其他能够接收外部请求并能够提高资源服务的其他服务器,对于服务器的具体种类,此处不对其进行限定。
示例性的,在本实施例中,该智能设备可以是是手机、个人数字助理(personaldigital assistant,PDA)、便携式设备(portable device,PAD)、电脑终端(如笔记本电脑)、智能音箱等,也可以是具有语音交互功能的其他设备,本实施例并不对智能设备的具体形式进行限定。
示例性的,本实施例可以以该智能设备为智能音箱进行举例说明。该智能音箱是基于智能语音交互的语音播放设备。
在日常生活中,由于大家在聊天时,开心的接对方的话和生气的打断对方的话的交互方式在语气上是明显不同的,这是因为语音中携带有说话人的情绪。
现阶段,对于目前的智能音箱,用户在使用时,都需要说出唤醒词进行唤醒,再进行语音交互。因而,可以通过对唤醒时的语气进行分析,判断用户在唤醒智能音箱时的情绪,例如,普通语气、开心语气,或者生气语气等,根据用户在唤醒智能音箱时的语气,可以推断用户对唤醒前智能音箱播放的资源的满意程度。
根据背景技术中的介绍可知,现有技术中的智能音箱满意度评估方法需要测试人员手动提取用户语音和音箱提供的播放资源以及进行满意度评估,不仅耗费人力,而且评估结果受人的主观性影响较大,存在评估结果不准确、成本高的问题。
针对上述问题,本申请实施例提供一种智能设备满意度评估方法、装置及存储介质,服务器通过获取智能设备采集到的用户唤醒语音,将该用户唤醒语音输入到语气识别模型中,得到用户唤醒语气,再基于预设时间段内的所有用户唤醒语气,对该智能设备的满意度进行评估,得到满意度评估结果,其在评估过程中无需用户提取用户语音和智能设备提供的播放资源,也无需用户主观判断,解决了现有技术中智能设备的满意度评估结果不准确、成本高的问题。
下面,通过具体实施例对本申请的技术方案进行详细说明。需要说明的是,下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。
图2为本申请实施例提供的智能设备满意度评估方法实施例一的流程示意图。该智能设备满意度评估方法适用于图1所示的应用场景中的服务器。示例性的,如图2所示,该智能设备满意度评估方法可以包括如下步骤:
步骤21:获取智能设备采集到的用户唤醒语音。
在本实施例中,在智能设备与用户交互的过程中,智能设备可以采集用户发出的用户唤醒语音,并根据该用户唤醒语音切换响应状态,即切换至可以响应用户的资源获取请求的状态。
值得说明的是,智能设备在未接收到用户的用户唤醒语音之前,不会采集用户的语音数据,即不会对用户发出的资源获取请求作出响应,只有在接收到用户唤醒语音之后,进而才获取用户发出的资源获取请求,并将该资源获取请求发送给服务器,以使服务器在无线网络中搜索与资源获取请求对应的资源并返回给智能设备,进而通过智能设备推送给用户。
通常情况下,智能设备无需将用于唤醒该智能设备的用户唤醒语音发送给服务器,只需要将后续采集到的资源获取请求发送给服务器。但是,本实施例中,服务器可以对用户发出的用户唤醒语音进行语气判断,根据确定的用户唤醒语气来评估用户对该智能设备的满意度。
因而,在本实施例中,智能设备在采集到用户发出的用户唤醒语音之后,可以将其发送给服务器,服务器获取智能设备采集到的该用户唤醒语音,并对其进行唤醒语气识别。
步骤22:将该用户唤醒语音输入到语气识别模型中,得到用户唤醒语气。
在本申请的实施例中,服务器获取到智能设备的用户唤醒语音之后,可以将该用户唤醒语音输入到服务器上运行着的语气识别模型中,由该语气识别模型执行语气识别,以得到该用户唤醒语音对应的用户唤醒语气。
值得说明的是,服务器上运行的语气识别模型可以是服务器通过对目标唤醒语音进行训练得到的。关于语气识别模型的训练过程可以参见下述图4所示实施例中的记载,此处不再赘述。
步骤23:基于预设时间段内的所有用户唤醒语气,对该智能设备的满意度进行评估,得到满意度评估结果。
可选的,在本实施例中,服务器可以对每次获取到用户唤醒语音进行唤醒语气识别,并统计预设时间段内得到的所有用户唤醒语气,根据所有用户唤醒语气根据语气类型进行划分,确定出每个类型的用户唤醒语气的在所有用户唤醒语气中的比例,进而确定出满意度评估结果。
示例性的,在本实施例中,该用户唤醒语气可以包括:普通语气、开心语气、兴奋语气、生气语气、无奈语气等多种可以反映用户情绪的语气。对于用户唤醒语气的类型还可以为其他类型,具体的可以根据实际情况确定,本实施例中并不对其进行限定。
作为一种示例,若用户唤醒语气为开心语气或兴奋语气,则可以认为该用户对该智能设备的满意度比较高;若用户唤醒语气为生气语气或无奈语气,则可以认为该用户对该智能设备的满意度比较低,或者说用户对其不满意;若用户唤醒语气为普通语气,则可以认为该用户对该智能设备的满意度为一般。在本实施例中,不同的用户唤醒语气可以表征用户不同的情绪。
示例性的,假设用户对智能设备的总满意度为100%,则普通语气对应的满意度可以在60%左右,开心语气对应的满意度可以在80%左右,兴奋语气对应的满意度可以在90%以上,而无奈语气对应的满意度可以为50%左右,生气语气对应的满意度可以在40%以下。
值得说明的是,本实施例中的满意度数值仅是一种示例性的说明,在某些情况下可以为其他的数值,其可以根据用户的实际设置进行确定,本实施例中并不对其限定。
通常情况下,兴奋语气对应的满意度大于普通语气对应的满意度,而普通语气对应的满意度大于无奈语气和生气语气对应的满意度。
综上所述,在本实施例中,当用户和智能设备(例如,智能音箱)进行交互时,智能设备会针对用户的资源获取请求对应的语音,获取对应的资源并推送给用户,在资源播放期间,用户仍然可以继续对智能设备进行唤醒。本实施例通过对用户唤醒语音对应的用户唤醒语气进行分析,可以评估用户对该智能设备播放资源的满意情况。
本实施例提供的智能设备满意度评估方法,服务器通过获取智能设备采集到的用户唤醒语音,将该用户唤醒语音输入到语气识别模型中,得到用户唤醒语气,再基于预设时间段内的所有用户唤醒语气,对该智能设备的满意度进行评估,得到满意度评估结果。该技术方案,在对智能设备的满意度评估过程中,无需用户提取用户语音和智能设备提供的播放资源,也无需用户主观判断,降低了人力消耗,提高了满意度评估准确度。
示例性的,在上述实施例的基础上,图3为本申请实施例提供的智能设备满意度评估方法实施例二的流程示意图。如图3所示,在本实施例中,在上述步骤22之前,该方法还可以包括如下步骤:
步骤31:确定该智能设备采集到用户唤醒语音的第一时刻。
在本实施例中,智能设备在待机状态或者正在播放资源期间均可以接收到用户唤醒语音,为了确定智能设备获取到用户唤醒语音时所处的状态,服务器可以根据智能设备上报该用户唤醒语音的时刻,首先确定出该智能设备采集到用户唤醒语音时的第一时刻。
步骤32:判断该第一时刻是否位于在前资源的播放时间段内。
其中,该在前资源为智能设备基于在前唤醒语音后的资源获取请求播放的资源,该在前唤醒语音的采集时刻在时间上早于该第一时刻。
在本实施例中,服务器在确定出用户唤醒语音对应的第一时刻后,可以判断该用户唤醒语音的采集时刻与在前资源的播放时间的对应关系,即用户发出该用户唤醒语音时,在前资源是否已播放完毕。
其中,该在前资源是智能设备采集到在前唤醒语音后,根据采集到的资源获取请求播放的资源,且该资源是服务器基于该资源获取请求在无线网络中搜索到的与该资源获取请求相匹配的资源。
示例性的,若在前资源未播放完毕时,智能设备采集到用户发出该用户唤醒语音时,则认为该第一时刻位于在前资源的播放时间段内。
值得说明的是,本实施例中,在前唤醒语音的采集时刻在时间上早于第一时刻,但在前唤醒语音的采集时刻与第一时刻之间未接收到其他的用户唤醒语音。
相应的,上述步骤22具体可以通过如下步骤实现:
步骤33:若该第一时刻位于在前资源的播放时间段内,则将用户唤醒语音输入到语气识别模型中,得到用户唤醒语气。
示例性的,当智能设备采集到用户唤醒语音是,即用户唤醒智能设备时,如果在前资源已经完全播放完毕,可以认为此时用户的唤醒情绪和智能设备播放的资源无关,这时无论用户的情绪是生气、开心还是普通,都不应该记入统计中,所以,本实施例中,首先需要确定出智能设备获取用户唤醒语音时与在前资源的播放时间段的对应关系。
在本实施例中,若第一时刻位于在前资源的播放时间段内,即用户突然打断智能设备正在播放的资源,这时服务器需要确定出该用户唤醒语音对应的用户唤醒语气。
示例性的,服务器通过将获取到的用户唤醒语音输入到语气识别模型中,利用该语气识别模型对该用户唤醒语音进行语气识别,确定出该用户唤醒语音对应的用户唤醒语气。
进一步的,如图3所示,在本实施例中,该智能设备满意度评估方法还可以包括如下步骤:
步骤34:保存该用户唤醒语气和用户唤醒语音。
示例性的,该步骤可以在上述步骤33之后执行,即服务器在得到用户唤醒语气之后,可以将该用户唤醒语气和用户唤醒语音一并存储起来,以便服务器可以根据预设时间内存储的所有用户唤醒语气,得到该智能设备的满意度评估结果。
例如,服务器可以将得到的用户唤醒语气以及对对应的用户唤醒语音存储到该智能设备的日志中,以便测试人员可以根据存储的该用户唤醒语气和用户唤醒语音判定通过语气识别模型得到的用户识别语气是否正确。
本申请实施例提供的智能设备满意度评估方法,服务器可以确定智能设备采集到用户唤醒语音的第一时刻,判断该第一时刻是否位于在前资源的播放时间段内,若是,则将该用户唤醒语音输入到语气识别模型中,得到用户唤醒语气,最后保存该用户唤醒语气和用户唤醒语音。该技术方案对位于在前资源播放时间段内获取到的用户唤醒语音进行语气识别,可以提高语气识别的准确度,通过保存得到的用户识别语气和用户识别语音,为后续判断语气识别模型的准确度奠定了基础。
示例性的,在本实施例的一种可能设计中,图4为本申请实施例提供的智能设备满意度评估方法实施例三的流程示意图。如图4所示,在上述步骤22之前,该方法还可以包括如下步骤:
步骤41:采集至少一种唤醒语气对应的至少一个目标唤醒语音。
通常情况下,不同的智能设备具有不同的唤醒词,但是特定的智能设备其一般都采用固定的唤醒词,因此,在本实施例中,若想对某一智能设备进行满意度评估,服务器可以在对获取到的用户唤醒语音进行识别之前,通过该智能设备或者某个电子设备采集用户通过至少一种唤醒语气发出的至少一个目标唤醒语音,每个目标唤醒语音对应一个唤醒语气。
步骤42:提取至少一个目标唤醒语音中每个目标唤醒语音的唤醒音频特征。
其中,该唤醒音频特征包括:音频升降调、音频响度、音频语速。
在本实施例中,服务器可以对上述至少一个目标唤醒语音中的每个目标唤醒语音进行分析,可以容易的提取出每个目标唤醒语音的唤醒音频特征,比如,唤醒音频的升降调,唤醒音频的响度大小,唤醒音频的语速等。
由于这些唤醒音频特征也可以在一定条件下表征用户的情绪,所以,通过对至少一个目标唤醒语音的这些唤醒音频特征进行分析,可以很容易的训练出唤醒音的语气识别模型。
步骤43:基于所有目标唤醒语音的唤醒音频特征和目标唤醒语气,训练得到该语气识别模型。
示例性的,语气识别模型可以采用卷积神经网络(convolutional neuralnetworks,CNNs)结构,具体的可以是深度卷积神经网络。可选的,在训练语气识别模型时,可以分别将采集到的至少一个目标唤醒语音对应的唤醒音频特征作为语气识别模型的输入,将每个目标唤醒语音对应的唤醒语气作为语气识别模型的输出,并基于大数据的深度学习能力得到上述语气识别模型。
本申请实施例提供的智能设备满意度评估方法,通过采集至少一种唤醒语气对应的至少一个目标唤醒语音,提取所述的至少一个目标唤醒语音中每个目标唤醒语音的唤醒音频特征,进而基于所有目标唤醒语音的唤醒音频特征和目标唤醒语气,训练得到语气识别模型。该技术方案中,基于至少一个目标唤醒语音和对应的目标唤醒语气可以训练得到语气识别模型,为用户唤醒语音对应的用户唤醒语气识别奠定了基础。
示例性的,在本实施例的另一种可能设计中,图5为本申请实施例提供的智能设备满意度评估方法实施例四的流程示意图。如图5所示,本实施例的方法还可以包括如下步骤:
步骤51:获取人工对该用户唤醒语音进行分析确定的理论唤醒语气。
可选的,在本实施例中,利用运行在服务器上的语气识别模型对用户唤醒语音进行识别的同时,还可以人工对用户唤醒语音进行分析识别,将人工分析得到的唤醒语气称为理论唤醒语气,以利用该理论唤醒语气对语气识别模型得到的用户唤醒语气进行可靠度度量。
步骤52:判断该理论唤醒语气与用户唤醒语气是否一致。
步骤53:若该理论唤醒语气与用户唤醒语气不一致,则基于该用户唤醒语音和理论唤醒语气对所述语气识别模型进行优化。
示例性的,在本实施例中,可以将人工进行语气识别得到的理论唤醒语气输入或发送给服务器,以使服务器可以对理论唤醒语气与用户唤醒语气进行一致性判断,进而确定服务器上运行的语气识别模型的识别度是否准确。
作为一种示例,若该理论唤醒语气与用户唤醒语气一致,则表明服务器上运行的语气识别模型准确度符合要求,无需对语气识别模型进行处理。
作为另一种示例,若该理论唤醒语气与用户唤醒语气不一致,则表明服务器中运行的语气识别模型的识别准确度低,这时可以将基于该用户唤醒语音和理论唤醒语气对语气识别模型进行优化处理。
例如,服务器将上述用户唤醒语音对应的唤醒音频特征输入到上述语气识别模型中,将理论唤醒语气作为该语气识别模型的理论输出结果,更新上述语气识别模型的参数,进而优化上述语气识别模型,提高语气识别模型的识别准确度。
本申请实施例提供的智能设备满意度评估方法,通过获取人工对该用户唤醒语音进行分析确定的理论唤醒语气,判断该理论唤醒语气与用户唤醒语气是否一致,在该理论唤醒语气与用户唤醒语气不一致时,基于该用户唤醒语音和理论唤醒语气对该语气识别模型进行优化。该技术方案中,在理论唤醒语气与语气识别模型得到的用户唤醒语气不一致时,对语气识别模型进行优化,提高了语气识别模型的语气识别准确度,进而提高了智能设备的满意度评估结果准确度。
示例性的,在本实施例的再一种可能设计中,图6为本申请实施例提供的智能设备满意度评估方法实施例五的流程示意图。如图6所示,在本实施例中,上述步骤23可以通过如下步骤实现:
步骤61:对该预设时间段内的所有用户唤醒语气进行分类统计,得到分类统计结果。
在本实施例中,服务器可以保存每次获取到的用户唤醒语音和该用户唤醒语音对应的用户唤醒语气,若想获知用户对该智能设备的满意度结果时,对预设时间段内的所有用户唤醒语气进行分类统计,确定每种用户唤醒语气在所有用户唤醒语气中的比例,得到分类统计结果。
步骤62:根据该分类统计结果,确定该智能设备的满意度评估结果。
示例性的,在本实施例中,服务器可以统计上述分类统计结果中开心语气、兴奋语气、普通语气在所有用户唤醒语气中的总占比,若该总占比大于第一预设阈值,例如,80%,可以确定用户对该智能设备基本满意,若该总占比大于第二预设阈值,例如,90%,可以确定用户对该智能设备非常满意。
值得说明的是,本申请实施例并不对第一预设阈值、第二预设阈值的具体取值进行限定,也不对涉及的预设阈值的个数进行限定,具体取值和个数可以根据实际情况确定,只要是通过占比确定满意度的方案均属于本申请实施例的保护范畴。
步骤63:呈现该分类统计结果和满意度评估结果。
在本实施例中,当确定出该智能设备在预设时间段内的所有用户唤醒语气对应的分类统计结果和该智能设备的满意度评估结果时,可以将该分类统计结果和满意度评估结果呈现出来,例如,通过图像化的方式进行呈现,可以让智能设备的厂商定期了解用户对该类智能设备的满意度情况。
例如,图7为预设时间段内存储的各个用户唤醒语气的统计结果饼状图。示例性的,参照图7所示,假设开心唤醒语气在所有用户唤醒语气中占用的比例为40%,兴奋唤醒语气在所有用户唤醒语气中占用的比例为10%,普通唤醒语气在所有用户唤醒语气中占用的比例为30%。即,在本实施例中,该开心唤醒语气、兴奋唤醒语气以及普通唤醒语气的总占用为80%,所以,可以确定用户对该智能设备基本满意。
本申请实施例提供的智能设备满意度评估方法,通过对预设时间段内的所有用户唤醒语气进行分类统计,得到分类统计结果,根据该分类统计结果,确定智能设备的满意度评估结果,以及呈现该分类统计结果和满意度评估结果,该方式形象直观,用户体验好。
综上所述,在本实施例中,服务器可以首先对智能设备的固定唤醒词进行线下特征抽取,训练出语气识别模型,在智能设备的使用过程中,若获取到用户唤醒语音,则先判断智能设备的在前资源是否播放完成,如果智能设备未播放完成即被唤醒,就调用语气识别模型进行识别,根据统计的用户唤醒语气进行满意度评估。该技术方案能够大幅提高智能设备的满意度评估的效率,并且可以大幅提升评估的规模,并且由于该方法只需要在语气识别模型训练时,消耗一部分人力,后续的满意度评估可以自动完成,无需消耗人力,减低了人力消耗,扩大了智能设备评估的用户覆盖率,使得评估结果更准确。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
图8为本申请实施例提供的智能设备满意度评估装置实施例一的结构示意图。在本实施例中,该智能设备满意度评估装置可以集成在服务器中,也可以为一服务器。可选的,如图8所示,该智能设备满意度评估装置可以包括:获取模块81、处理模块82和评估模块83。
其中,该获取模块81,用于获取智能设备采集到的用户唤醒语音;
该处理模块82,用于将所述用户唤醒语音输入到语气识别模型中,得到用户唤醒语气;
该评估模块83,用于基于预设时间段内的所有用户唤醒语气,对所述智能设备的满意度进行评估,得到满意度评估结果。
示例性的,在本申请实施例的一种可能设计中,图9为本申请实施例提供的智能设备满意度评估装置实施例二的结构示意图。如图9所示,在本实施例中,该装置还包括:确定模块91。
该确定模块91,用于在所述处理模块82将所述用户唤醒语音输入到语气识别模型中,得到用户唤醒语气之前,确定所述智能设备采集到所述用户唤醒语音的第一时刻;
该处理模块82,还用于判断所述第一时刻是否位于在前资源的播放时间段内,以及在所述第一时刻位于在前资源的播放时间段内时,将所述用户唤醒语音输入到语气识别模型中,得到用户唤醒语气,所述在前资源为所述智能设备基于在前唤醒语音后的资源获取请求播放的资源,所述在前唤醒语音的采集时刻在时间上早于所述第一时刻。
可选的,如图9所示,该装置还包括:保存模块92。
该保存模块92,用于保存所述用户唤醒语气和所述用户唤醒语音。
示例性的,在本实施例的另一种可能设计中,图10为本申请实施例提供的智能设备满意度评估装置实施例三的结构示意图。如图10所示,在本实施例中,上述处理模块82,还用于在将所述用户唤醒语音输入到语气识别模型中,得到用户唤醒语气之前,采集至少一种唤醒语气对应的至少一个目标唤醒语音,以及提取所述至少一个目标唤醒语音中每个目标唤醒语音的唤醒音频特征,所述唤醒音频特征包括:音频升降调、音频响度、音频语速;
此外,如图10所示,该装置还包括:训练模块101。
该训练模块101,用于基于所有目标唤醒语音的唤醒音频特征和目标唤醒语气,训练得到所述语气识别模型。
示例性的,在本实施例的再一种可能设计中,上述获取模块81,还用于获取人工对所述用户唤醒语音进行分析确定的理论唤醒语气;
所述处理模块82,还用于判断所述理论唤醒语气与所述用户唤醒语气是否一致,以及在所述理论唤醒语气与所述用户唤醒语气不一致时,基于所述用户唤醒语音和所述理论唤醒语气对所述语气识别模型进行优化。
示例性的,在本申请实施例的又一种可能设计中,图11为本申请实施例提供的智能设备满意度评估装置实施例四的结构示意图。如图11所示,在本实施例中,上述评估模块83包括:分类单元111、确定单元112和呈现单元113。
其中,该分类单元111,用于对所述预设时间段内的所有用户唤醒语气进行分类统计,得到分类统计结果;
该确定单元112,用于根据所述分类统计结果,确定所述智能设备的满意度评估结果;
该呈现单元113,用于呈现所述分类统计结果和所述满意度评估结果。
可选的,在本申请实施例的任意可能设计中,所述用户唤醒语气包括:生气语气、开心语气、普通语气、无奈语气。
本申请实施例提供的装置,可用于执行图2至图6所示实施例中的方法,其实现原理和技术效果类似,在此不再赘述。
需要说明的是,应理解以上装置的各个模块的划分仅仅是一种逻辑功能的划分,实际实现时可以全部或部分集成到一个物理实体上,也可以物理上分开。且这些模块可以全部以软件通过处理元件调用的形式实现;也可以全部以硬件的形式实现;还可以部分模块通过处理元件调用软件的形式实现,部分模块通过硬件的形式实现。例如,确定模块可以为单独设立的处理元件,也可以集成在上述装置的某一个芯片中实现,此外,也可以以程序代码的形式存储于上述装置的存储器中,由上述装置的某一个处理元件调用并执行以上确定模块的功能。其它模块的实现与之类似。此外这些模块全部或部分可以集成在一起,也可以独立实现。这里所述的处理元件可以是一种集成电路,具有信号的处理能力。在实现过程中,上述方法的各步骤或以上各个模块可以通过处理器元件中的硬件的集成逻辑电路或者软件形式的指令完成。
例如,以上这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(application specific integrated circuit,ASIC),或,一个或多个微处理器(digital signal processor,DSP),或,一个或者多个现场可编程门阵列(field programmable gate array,FPGA)等。再如,当以上某个模块通过处理元件调度程序代码的形式实现时,该处理元件可以是通用处理器,例如中央处理器(centralprocessing unit,CPU)或其它可以调用程序代码的处理器。再如,这些模块可以集成在一起,以片上系统(system-on-a-chip,SOC)的形式实现。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘solid state disk(SSD))等。
图12为本申请实施例提供的智能设备满意度评估装置实施例五的结构示意图。如图12所示,该装置可以包括:处理器121、存储器122、通信接口123和系统总线124,所述存储器122和所述通信接口123通过所述系统总线124与所述处理器121连接并完成相互间的通信,所述存储器122用于存储计算机执行指令,所述通信接口123用于和其他设备进行通信,所述处理器121执行所述计算机程序时实现如上述图2和图6所示实施例中智能设备的方案。
该图12中提到的系统总线可以是外设部件互连标准(peripheral componentinterconnect,PCI)总线或扩展工业标准结构(extended industry standardarchitecture,EISA)总线等。所述系统总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。通信接口用于实现数据库访问装置与其他设备(例如客户端、读写库和只读库)之间的通信。存储器可能包含随机存取存储器(random access memory,RAM),也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
上述的处理器可以是通用处理器,包括中央处理器CPU、网络处理器(networkprocessor,NP)等;还可以是数字信号处理器DSP、专用集成电路ASIC、现场可编程门阵列FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
可选的,本申请实施例还提供一种存储介质,所述存储介质中存储有指令,当其在计算机上运行时,使得计算机执行如上述图2至图6所示实施例的方法。
本申请中,“至少一个”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B的情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系;在公式中,字符“/”,表示前后关联对象是一种“相除”的关系。“以下至少一项(个)”或其类似表达,是指的这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b,或c中的至少一项(个),可以表示:a,b,c,a-b,a-c,b-c,或a-b-c,其中,a,b,c可以是单个,也可以是多个。
可以理解的是,在本申请的实施例中涉及的各种数字编号仅为描述方便进行的区分,并不用来限制本申请的实施例的范围。
可以理解的是,在本申请的实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请的实施例的实施过程构成任何限定。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。
Claims (9)
1.一种智能设备满意度评估方法,其特征在于,包括:
获取智能设备采集到的用户唤醒语音;所述用户唤醒语音包括所述智能设备的唤醒词;
将所述用户唤醒语音输入到语气识别模型中,得到用户唤醒语气;
基于预设时间段内的所有用户唤醒语气,对所述智能设备的满意度进行评估,得到满意度评估结果;
所述语气识别模型用于根据用户唤醒语音的唤醒音频特征确定用户唤醒语气;所述唤醒音频特征包括:音频升降调、音频响度、音频语速;
在所述将所述用户唤醒语音输入到语气识别模型中,得到用户唤醒语气之前,所述方法还包括:
确定所述智能设备采集到所述用户唤醒语音的第一时刻;
判断所述第一时刻是否位于在前资源的播放时间段内,所述在前资源为所述智能设备基于在前唤醒语音后的资源获取请求播放的资源,所述在前唤醒语音的采集时刻在时间上早于所述第一时刻;
所述将所述用户唤醒语音输入到语气识别模型中,得到用户唤醒语气,包括:
若所述第一时刻位于在前资源的播放时间段内,则将所述用户唤醒语音输入到语气识别模型中,得到用户唤醒语气。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
保存所述用户唤醒语气和所述用户唤醒语音。
3.根据权利要求1所述的方法,其特征在于,在所述将所述用户唤醒语音输入到语气识别模型中,得到用户唤醒语气之前,所述方法还包括:
采集至少一种唤醒语气对应的至少一个目标唤醒语音;
提取所述至少一个目标唤醒语音中每个目标唤醒语音的唤醒音频特征;
基于所有目标唤醒语音的唤醒音频特征和目标唤醒语气,训练得到所述语气识别模型。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述方法还包括:
获取人工对所述用户唤醒语音进行分析确定的理论唤醒语气;
判断所述理论唤醒语气与所述用户唤醒语气是否一致;
若所述理论唤醒语气与所述用户唤醒语气不一致,则基于所述用户唤醒语音和所述理论唤醒语气对所述语气识别模型进行优化。
5.根据权利要求1-3任一项所述的方法,其特征在于,所述基于预设时间段内的所有用户唤醒语气,对所述智能设备的满意度进行评估,得到满意度评估结果,包括:
对所述预设时间段内的所有用户唤醒语气进行分类统计,得到分类统计结果;
根据所述分类统计结果,确定所述智能设备的满意度评估结果;
呈现所述分类统计结果和所述满意度评估结果。
6.根据权利要求1所述的方法,其特征在于,所述用户唤醒语气包括:生气语气、开心语气、普通语气、无奈语气。
7.一种智能设备满意度评估装置,其特征在于,包括:获取模块、处理模块和评估模块;
所述获取模块,用于获取智能设备采集到的用户唤醒语音;所述用户唤醒语音包括所述智能设备的唤醒词;
所述处理模块,用于将所述用户唤醒语音输入到语气识别模型中,得到用户唤醒语气;所述语气识别模型用于根据用户唤醒语音的唤醒音频特征确定用户唤醒语气;所述唤醒音频特征包括:音频升降调、音频响度、音频语速;
所述评估模块,用于基于预设时间段内的所有用户唤醒语气,对所述智能设备的满意度进行评估,得到满意度评估结果;
所述处理模块,用于在所述将所述用户唤醒语音输入到语气识别模型中,得到用户唤醒语气之前,确定所述智能设备采集到所述用户唤醒语音的第一时刻;判断所述第一时刻是否位于在前资源的播放时间段内,所述在前资源为所述智能设备基于在前唤醒语音后的资源获取请求播放的资源,所述在前唤醒语音的采集时刻在时间上早于所述第一时刻;若所述第一时刻位于在前资源的播放时间段内,则将所述用户唤醒语音输入到语气识别模型中,得到用户唤醒语气。
8.一种智能设备满意度评估装置,包括处理器、存储器及存储在所述存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如上述权利要求1-6任一项所述的方法。
9.一种存储介质,其特征在于,所述存储介质中存储有指令,当其在计算机上运行时,使得计算机执行如上述权利要求1-6任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910110769.1A CN109961804B (zh) | 2019-02-12 | 2019-02-12 | 智能设备满意度评估方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910110769.1A CN109961804B (zh) | 2019-02-12 | 2019-02-12 | 智能设备满意度评估方法、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109961804A CN109961804A (zh) | 2019-07-02 |
CN109961804B true CN109961804B (zh) | 2021-11-02 |
Family
ID=67023612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910110769.1A Active CN109961804B (zh) | 2019-02-12 | 2019-02-12 | 智能设备满意度评估方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109961804B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111240478B (zh) * | 2020-01-07 | 2023-10-13 | 百度在线网络技术(北京)有限公司 | 设备响应的评测方法、装置、设备及存储介质 |
CN111666396B (zh) * | 2020-06-05 | 2023-10-31 | 北京百度网讯科技有限公司 | 用户意图理解满意度评估方法、装置、设备和存储介质 |
CN112668617A (zh) * | 2020-12-21 | 2021-04-16 | 广东电网有限责任公司电力科学研究院 | 一种电网员工工作满意度评估方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102124515A (zh) * | 2008-06-17 | 2011-07-13 | 声感有限公司 | 基于语音分析的说话者表征 |
CN108010513A (zh) * | 2016-10-28 | 2018-05-08 | 北京回龙观医院 | 语音处理方法及设备 |
CN108388926A (zh) * | 2018-03-15 | 2018-08-10 | 百度在线网络技术(北京)有限公司 | 语音交互满意度的确定方法及设备 |
JP2018195164A (ja) * | 2017-05-19 | 2018-12-06 | コニカミノルタ株式会社 | 解析装置、解析プログラム及び解析方法 |
CN108962255A (zh) * | 2018-06-29 | 2018-12-07 | 北京百度网讯科技有限公司 | 语音会话的情绪识别方法、装置、服务器和存储介质 |
CN109036405A (zh) * | 2018-07-27 | 2018-12-18 | 百度在线网络技术(北京)有限公司 | 语音交互方法、装置、设备及存储介质 |
CN109308178A (zh) * | 2018-08-31 | 2019-02-05 | 维沃移动通信有限公司 | 一种语音画图方法及其终端设备 |
-
2019
- 2019-02-12 CN CN201910110769.1A patent/CN109961804B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102124515A (zh) * | 2008-06-17 | 2011-07-13 | 声感有限公司 | 基于语音分析的说话者表征 |
CN108010513A (zh) * | 2016-10-28 | 2018-05-08 | 北京回龙观医院 | 语音处理方法及设备 |
JP2018195164A (ja) * | 2017-05-19 | 2018-12-06 | コニカミノルタ株式会社 | 解析装置、解析プログラム及び解析方法 |
CN108388926A (zh) * | 2018-03-15 | 2018-08-10 | 百度在线网络技术(北京)有限公司 | 语音交互满意度的确定方法及设备 |
CN108962255A (zh) * | 2018-06-29 | 2018-12-07 | 北京百度网讯科技有限公司 | 语音会话的情绪识别方法、装置、服务器和存储介质 |
CN109036405A (zh) * | 2018-07-27 | 2018-12-18 | 百度在线网络技术(北京)有限公司 | 语音交互方法、装置、设备及存储介质 |
CN109308178A (zh) * | 2018-08-31 | 2019-02-05 | 维沃移动通信有限公司 | 一种语音画图方法及其终端设备 |
Non-Patent Citations (2)
Title |
---|
根据顾客购后行为评价顾客满意度的研究;罗晓光等;《中国流通经济》;20041231(第8期);第48-51页 * |
面向老年人的智能音箱语音交互设计研究;贾国忠;《中国优秀硕士学位论文全文数据库信息科技辑》;20190115(第1期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN109961804A (zh) | 2019-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110534099B (zh) | 语音唤醒处理方法、装置、存储介质及电子设备 | |
CN107360327B (zh) | 语音识别方法、装置和存储介质 | |
CN109961804B (zh) | 智能设备满意度评估方法、装置及存储介质 | |
CN108874895B (zh) | 交互信息推送方法、装置、计算机设备及存储介质 | |
CN108595406B (zh) | 一种用户状态的提醒方法、装置、电子设备及存储介质 | |
TW201710993A (zh) | 一種軟體推廣作弊的檢測方法、裝置及系統 | |
CN113314119B (zh) | 语音识别智能家居控制方法及装置 | |
WO2020107864A1 (zh) | 信息处理方法、装置、服务设备及计算机可读存储介质 | |
US11380309B2 (en) | Meeting support system, meeting support device, and meeting support program | |
CN113160819A (zh) | 用于输出动画的方法、装置、设备、介质和产品 | |
CN115394318A (zh) | 一种音频检测方法和装置 | |
CN110956958A (zh) | 搜索方法、装置、终端设备及存储介质 | |
CN110728983A (zh) | 一种信息显示方法、装置、设备及可读存储介质 | |
CN113191891A (zh) | 数据处理方法、装置及系统 | |
CN110706691B (zh) | 语音验证方法及装置、电子设备和计算机可读存储介质 | |
CN114898755B (zh) | 语音处理方法及相关装置、电子设备、存储介质 | |
CN116436715A (zh) | 视频会议控制方法、装置、设备及计算机可读存储介质 | |
CN113593546B (zh) | 终端设备唤醒方法和装置、存储介质及电子装置 | |
CN113505272B (zh) | 基于行为习惯的控制方法和装置、电子设备和存储介质 | |
CN110858234A (zh) | 一种根据人物情感进行信息推送的方法及装置 | |
CN109451015B (zh) | 群智感知数据的处理方法、装置、电子设备及存储介质 | |
CN111582708A (zh) | 医疗信息的检测方法、系统、电子设备及计算机可读存储介质 | |
CN111325575A (zh) | 问题信息推荐方法、装置、计算机设备及存储介质 | |
CN114678040B (zh) | 语音一致性检测方法、装置、设备及存储介质 | |
CN113707154B (zh) | 模型训练方法、装置、电子设备和可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20210518 Address after: 100085 Baidu Building, 10 Shangdi Tenth Street, Haidian District, Beijing Applicant after: BEIJING BAIDU NETCOM SCIENCE AND TECHNOLOGY Co.,Ltd. Applicant after: Shanghai Xiaodu Technology Co.,Ltd. Address before: 100085 Baidu Building, 10 Shangdi Tenth Street, Haidian District, Beijing Applicant before: BEIJING BAIDU NETCOM SCIENCE AND TECHNOLOGY Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |