CN112002317A - 语音输出方法、装置、存储介质和电子设备 - Google Patents
语音输出方法、装置、存储介质和电子设备 Download PDFInfo
- Publication number
- CN112002317A CN112002317A CN202010761619.XA CN202010761619A CN112002317A CN 112002317 A CN112002317 A CN 112002317A CN 202010761619 A CN202010761619 A CN 202010761619A CN 112002317 A CN112002317 A CN 112002317A
- Authority
- CN
- China
- Prior art keywords
- voice
- target
- acceptance
- operation instruction
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 76
- 230000008569 process Effects 0.000 claims abstract description 32
- 230000003993 interaction Effects 0.000 claims description 109
- 230000002452 interceptive effect Effects 0.000 claims description 17
- 230000007613 environmental effect Effects 0.000 claims description 14
- 238000012549 training Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 5
- 238000012544 monitoring process Methods 0.000 claims description 5
- 230000007474 system interaction Effects 0.000 abstract description 6
- 230000006399 behavior Effects 0.000 description 25
- 238000004891 communication Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000238558 Eucarida Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 235000021152 breakfast Nutrition 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开是关于一种语音输出方法、装置、存储介质、电子设备,该方法包括:确定目标用户发出操作指令时的环境信息;根据预先训练好的接受度预测模型、操作指令和环境信息确定该语音助手系统的语音库中的每个语音相对于该操作指令和该环境信息的接受度,以根据该接受度从该语音库中确定目标语音,该接受度用于表征该目标用户在该环境信息下发出该操作指令时上述每个语音被该目标用户接受的概率;在执行该操作指令的同时,输出该目标语音。能够获取用户发出该操作指令时的环境信息,并在执行操作指令的同时,输出与该操作指令和环境信息相关的语音,提高语音助手系统交互过程的智能化程度。
Description
技术领域
本公开涉及人工智能领域,尤其涉及一种语音输出方法、装置、存储介质、电子设备。
背景技术
在苹果公司的智能语音助手Siri开创智能语音助手的先河后,各个科技公司的语音助手系统也如雨后春笋般蓬勃发展。移动终端或智能家电中的语音助手系统能够接收用户的语音指令,并根据系统中预先设定的交互逻辑与用户进行语音交流,或者辅助用户对智能家电进行控制。
相关技术中,用户通常需要说出厂商设定的固定的唤醒词开启语音助手系统,并在语音助手系统被唤醒后,发出语音操作指令,该语音助手在接收到语音操作指令后,控制移动终端或智能家电执行该语音操作指令对应的操作。
发明内容
为克服相关技术中存在的问题,本公开提供一种语音输出方法、装置、存储介质、电子设备。
根据本公开实施例的第一方面,提供一种语音输出方法,所述方法包括:应用于电子设备,所述电子设备中设置有语音助手系统,所述方法包括:
在第一时间点后的第n个预设时间段内,确定目标用户发出操作指令时的环境信息;其中,n大于1,所述第一时间点为所述语音助手系统首次被开启的时间点;
通过预先训练后的接受度预测模型,根据所述操作指令和所述环境信息确定所述语音助手系统的语音库中的每个语音相对于所述操作指令和所述环境信息的接受度;
根据所述接受度从所述语音库中确定目标语音;
其中,所述接受度用于表征所述目标用户在所述环境信息下发出所述操作指令时所述每个语音被所述目标用户接受的概率;所述接受度预测模型通过所述目标用户在所述第n个预设时间段之前对所述每个语音的接受行为确定;
在执行所述操作指令的同时,输出所述确定的目标语音。
可选的,所述方法还包括:
在输出所述目标语音后,在预设的目标时长内监测所述目标用户对于所述目标语音的回复内容;
根据所述回复内容,为目标交互信息添加接受度标签;
其中,所述目标交互信息,包括:所述操作指令、所述环境信息和所述目标语音,所述接受度标签用于表征所述目标用户对所述目标语音的接受行为。
可选的,所述接受度标签包括:接受标签和拒绝标签,所述根据所述回复,为目标交互信息添加接受度标签,包括:
若所述回复内容中包含肯定回复,为所述目标交互信息添加所述接受标签;或者,
若所述回复内容中包含否定回复,或者,在所述目标时长内未检测到所述目标用户对于所述目标语音的回复内容,为所述目标交互信息添加所述拒绝标签。
可选的,在所述在第一时间点后的第n个预设时间段内,确定目标用户发出操作指令时的环境信息之前,所述方法还包括:
通过多组历史交互信息和每组所述历史交互信息对应的历史接受度标签对预设的概率预测模型进行训练,训练后获得所述接受度预测模型;其中,
所述历史交互信息包括:在所述第n个预设时间段之前的n-1个预设时间段内所述目标用户发出的第一操作指令、所述目标用户发出的所述第一操作指令时的第一环境信息、以及在执行所述第一操作指令的同时输出的第一语音,所述历史接受度标签用于表征所述目标用户对所述目标语音的接受行为。
可选的,所述根据预先训练好的接受度预测模型、所述操作指令和所述环境信息确定所述语音助手系统中的语音库中的每个语音相对于所述操作指令和所述环境信息的接受度,以根据所述接受度从所述语音库中确定目标语音,包括:
将所述操作指令和所述环境信息输入所述接受度预测模型;
获得输出的所述接受度预测模型输出的语音表;
所述语音表包括:所述每个语音,以及所述每个语音相对于所述操作指令和所述环境信息的接受度;
将所述语音表中具备最高接受度的语音,作为所述目标语音。
可选的,所述方法还包括:
在所述第一时间点后的第1个预设时间段内,执行针对于多组第一交互信息的语音输出过程后,通过预设的Bandit算法和所述用户针对于每组所述第一交互信息的接受行为,将所述多组第一交互信息更新为多组第二交互信息;其中,
所述第一交互信息包括:所述目标用户发出的第二用户指令、所述目标用户发出的所述第二操作指令时的第二环境信息以及预先设置的对应于所述第二用户指令和所述第二环境信息的第二语音;
将所述多组第二交互信息作为所述多组第二交互信息,循环执行所述在执行针对于多组第一交互信息的语音输出过程后,通过预设的Bandit算法和所述用户针对于每组所述第一交互信息的接受行为将所述多组第一交互信息更新为多组第二交互信息的步骤,直至所述第1个预设时间段结束;其中,
所述语音输出过程包括:
针对于每组所述第一交互信息,响应于所述目标用户在所述第二环境信息下发出所述第二操作指令,在执行所述第二操作指令的同时输出所述第二语音。
根据本公开实施例的第二方面,提供一种语音输出装置,应用于电子设备,所述电子设备中设置有语音助手系统,所述装置包括:
信息确定模块,被配置为在第一时间点后的第n个预设时间段内,确定目标用户发出操作指令时的环境信息;其中,n大于1,所述第一时间点为所述语音助手系统首次被开启的时间点;
接受度确定模块,被配置为通过预先训练后的接受度预测模型,根据所述操作指令和所述环境信息确定所述语音助手系统的语音库中的每个语音相对于所述操作指令和所述环境信息的接受度;
语音确定模块,被配置为根据所述接受度从所述语音库中确定目标语音;
其中,所述接受度用于表征所述目标用户在所述环境信息下发出所述操作指令时所述每个语音被所述目标用户接受的概率;所述接受度预测模型通过所述目标用户在所述第n个预设时间段之前对所述每个语音的接受行为确定;
语音输出模块,被配置为在执行所述操作指令的同时,输出所述确定的目标语音。
可选的,所述装置还包括:
回复监测模块,被配置为在输出所述目标语音后,在预设的目标时长内监测所述目标用户对于所述目标语音的回复内容;
标签添加模块,被配置为根据所述回复内容,为目标交互信息添加接受度标签;其中;
其中,所述目标交互信息,包括:所述操作指令、所述环境信息和所述目标语音,所述接受度标签用于表征所述目标用户对所述目标语音的接受行为。
可选的,所述接受度标签包括:接受标签和拒绝标签,所述标签添加模块,被配置为:
若所述回复内容中包含肯定回复,为所述目标交互信息添加所述接受标签;或者,
若所述回复内容中包含否定回复,或者,在所述目标时长内未检测到所述目标用户对于所述目标语音的回复内容,为所述目标交互信息添加所述拒绝标签。
可选的,所述装置还包括:
模型训练模块,被配置为通过多组历史交互信息和每组所述历史交互信息对应的历史接受度标签对预设的概率预测模型进行训练,训练后获得所述接受度预测模型;其中,
所述历史交互信息包括:在所述第n个预设时间段之前的n-1个预设时间段内所述目标用户发出的第一操作指令、所述目标用户发出的所述第一操作指令时的第一环境信息、以及在执行所述第一操作指令的同时输出的第一语音,所述历史接受度标签用于表征所述目标用户对所述目标语音的接受行为。
可选的,所述语音确定模块,被配置为:
将所述操作指令和所述环境信息输入所述接受度预测模型;
获取输出的所述接受度预测模型输出的语音表;
所述语音表包括:所述每个语音,以及所述每个语音相对于所述操作指令和所述环境信息的接受度;
将所述语音表中具备最高接受度的语音,作为所述目标语音。
可选的,所述装置还包括:
数据更新模块,被配置为在所述第一时间点后的第1个预设时间段内,在执行针对于多组第一交互信息的语音输出过程后,通过预设的Bandit算法和所述用户针对于每组所述第一交互信息的接受行为将所述多组第一交互信息更新为多组第二交互信息;其中,
所述第一交互信息包括:所述目标用户发出的第二用户指令、所述目标用户发出的所述第二操作指令时的第二环境信息以及预先设置的对应于所述第二用户指令和所述第二环境信息的第二语音;
循环执行模块,被配置为将所述多组第二交互信息作为所述多组第二交互信息,循环执行所述在执行针对于多组第一交互信息的语音输出过程后,通过预设的Bandit算法和所述用户对每组所述第一交互信息的接受行为将所述多组第一交互信息更新为多组第二交互信息的步骤,直至所述第1个预设时间段结束;其中,
所述语音输出过程包括:
针对于每组所述第一交互信息,响应于所述目标用户在所述第二环境信息下发出所述第二操作指令,在执行所述第二操作指令的同时输出所述第二语音。
根据本公开实施例的第三方面,提供一种计算机可读存储介质,其上存储有计算机程序指令,该程序指令被处理器执行时实现本公开第一方面所提供的语音输出方法的步骤。
根据本公开实施例的第四方面,提供一种电子设备,所述电子设备中设置有语音助手系统;所述电子设备,包括:本公开第二方面所提供的语音输出装置。
本公开的实施例所提供的技术方案,能够在第一时间点后的第n个预设时间段内,确定目标用户发出操作指令时的环境信息;其中,n大于1,该第一时间点为该语音助手系统首次被开启的时间点;通过预先训练后的接受度预测模型,根据该操作指令和该环境信息确定该语音助手系统的语音库中的每个语音相对于该操作指令和该环境信息的接受度;根据该接受度从该语音库中确定目标语音;其中,该接受度用于表征该目标用户在该环境信息下发出该操作指令时该每个语音被该目标用户接受的概率;该接受度预测模型通过该目标用户在该第n个预设时间段之前对该每个语音的接受行为确定;在执行该操作指令的同时,输出该确定的目标语音。能够获取用户发出该操作指令时的环境信息,并在执行操作指令的同时,输出与该操作指令和环境信息相关的语音,提高语音助手系统交互过程的智能化程度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的一种语音输出方法的流程图;
图2是根据图1示出的另一种语音输出方法的流程图;
图3是根据图2示出的又一种语音输出方法的流程图;
图4是根据图3示出的又一种语音输出方法的流程图;
图5是根据一示例性实施例示出的一种语音输出装置的框图;
图6是根据图5示出的另一种语音输出装置的框图;
图7是根据图6示出的又一种语音输出装置的框图;
图8是根据图7示出的又一种语音输出装置的框图;
图9是根据一示例性实施例示出的一种电子设备的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
在介绍本公开提供的语音互动方法之前,首先对本公开中各个实施例所涉及的目标应用场景进行介绍,该目标应用场景包括一电子设备,该电子设备中设置有音频输出和输出设备,该电子设备可以为,例如,个人电脑、笔记本电脑、智能手机、平板电脑、智能电视、智能手表、PDA(英文:PersonalDigital Assistant,中文:个人数字助理)等电子设备。该电子设备内部设置有基于全知功能的语音助手系统,该语音助手系统包括多模态感知层和多模态认知层。
示例地,上述多模态感知层为采集知识的模块,用于从用户画像、用户生活数据、客观事件和生活常识这四个维度进行知识的采集。用户相关的知识主要包括用户画像和用户生活数据(主观维度),其中,该用户画像包括:用户的身份信息和用户的兴趣标签等。用户生活数据是基于用户过往使用该电子设备的日志确定的,该用户生活数据可以包括:用户使用电子设备功能的历史,例如,闹钟设置、日历、快递查询、课程表和出行安排等。上述的客观事件和生活常识为客观维度,其中,客观事件可以包括:重大消息、天气预报、节假日等。生活常识可以包括:长假期前2个月通常会发生抢票、不同季节有不同的养生调离、节气的变化以及不同地理位置发生的大事件新闻等。该多模态认知层用于对上述的不同维度的知识进行分析,将上述知识转化为用户的潜在需求,进而转化为语音话题,并将这些语音话题会作为后续向用户输出的语音的候选。
图1是根据一示例性实施例示出的一种语音输出方法的流程图,如图1所示,应用于上述应用场景所述的电子设备,该方法包括以下步骤:
在步骤101中,在第一时间点后的第n个预设时间段内,确定目标用户发出操作指令时的环境信息。
其中,n大于1,上述第一时间点为该语音助手系统首次被开启的时间点,该环境信息包括:时间信息、天气信息、温度信息和地理位置信息中的至少一者。
示例地,该第一时间点具体可以为用户购买了上述电子设备后首次开机并激活的时间点。在该第一时间点后,该语音助手系统的多模态感知层持续地对操作指令和环境信息进行监测和收集,以为该用户的用户画像和用户生活数据的一部分。在步骤101中实际上采集的是包含操作指令和环境信息的一组信息,例如,在用户发出询问时间的操作指令时,采集当前的时间信息和天气信息,该时间信息为当前时间为早上7点,该天气信息为当天为中雨。
示例地,需要说明的是,该步骤101至下列步骤103是从该电子设备的语音助手系统首次被启动的第一时间点之后的第2个预设时间段开始执行的。具体来说,下列步骤102中涉及的预先训练好的接受度预测模型,是通过用户对每个语音的历史接受行为确定的,而在第一时间点之后的第1个预设时间段内采集到的本电子设备用户对语音的历史接收行为的数据样本的数量较少,不足以训练出该接受度预测模型。因此,在上述第1个预设时间段内的确定目标语音的方法与该步骤101至下列步骤103不同或相同。具体地,在本公开一实施例中,在确定用户使用过具备基于全知功能的语音助手系统的其他电子设备的情况下,该可以通过从其他电子设备上采集的用户对每个语音的历史接受行为对该接受度预测模型进行训练,在此情况下在上述第1个预设时间段内的确定目标语音的方法与该步骤101至下列步骤103相同。在本公开的另一实施例中,在用户从未使用过具备基于全知功能的语音助手系统的其他电子设备的情况下,需要执行冷启动操作,该冷启动操作将在下列的步骤106中进行详细描述。
在步骤102中,通过预先训练后的接受度预测模型,根据该操作指令和该环境信息确定该语音助手系统的语音库中的每个语音相对于该操作指令和该环境信息的接受度;
其中,该接受度用于表征该目标用户在该环境信息下发出该操作指令时上述每个语音被该目标用户接受的概率,该接受度预测模型是根据该目标用户在上述第n个预设时间段之前对上述每个语音的接受行为确定的。
示例地,该步骤102可以包括:将该操作指令和该环境信息作为该接受度预测模型的输入,以获取该接受度预测模型输出的语音表,该语音表包括:上述每个语音,以及上述每个语音相对于该操作指令和该环境信息的接受度在步骤103中,根据该接受度从该语音库中确定目标语音。
示例地,该步骤103包括:将该语音表中具备最高接受度的语音,作为该目标语音。
示例地,若在上述步骤101后采集到的一组信息包括:操作指令、时间信息和天气信息,其中,操作指令为询问时间,时间信息为当前时间早上7点,天气信息为当天为中雨。在执行该操作指令之前,可以将这一组信息作为该接受度预测模型的输入,以得到该接受度预测模型输出的一组概率(以上述的语音表的形式进行表征)。这一组概率实际为用户对该语音库中的每个语音的接受行为的预测概率(或称接受度)。该预测概率越高,该预测概率对应的语音越符合用户的预期或更能够让用户满意。例如,在将上述的一组信息输出的语音表可以为下列表1所示。
表1
语音 | 接受度 |
记得吃早饭哦 | 70% |
下雨了,记得带伞哦 | 90% |
给你讲个笑话好不好 | 50% |
不要熬夜伤身体哦 | 5% |
…… | …… |
示例地,可以看出语音“下雨了,记得带伞哦”对应的接受度最高,则可以将该语音确定为该目标语音。
在步骤104中,在执行该操作指令的同时,输出上述确定的目标语音。
示例地,在步骤104中,在执行操作指令的同时,输出上述的目标语音,也可以在执行该操作指令之后的预设时间段内输出上述的目标语音,并且该目标语音可以包含语音库中的一个或多个语音。例如,在语音播报当前时间为7点后,在三秒内输出上述目标语音“下雨了,记得带伞哦”。或者,在用户设置第二天的闹钟时间为8点后,根据地理位置信息和当前的时间信息,在将闹钟时间设置为八点的同时,输出目标语音“明天您的车牌号码在本地区限号”以及“不要睡得太晚哦”。
综上所述,本公开的实施例所提供的技术方案,能够在第一时间点后的第n个预设时间段内,确定目标用户发出操作指令时的环境信息;其中,n大于1,该第一时间点为该语音助手系统首次被开启的时间点;通过预先训练后的接受度预测模型,根据该操作指令和该环境信息确定该语音助手系统的语音库中的每个语音相对于该操作指令和该环境信息的接受度;根据该接受度从该语音库中确定目标语音;其中,该接受度用于表征该目标用户在该环境信息下发出该操作指令时该每个语音被该目标用户接受的概率;该接受度预测模型通过该目标用户在该第n个预设时间段之前对该每个语音的接受行为确定;在执行该操作指令的同时,输出该确定的目标语音。能够获取用户发出该操作指令时的环境信息,并在执行操作指令的同时,输出与该操作指令和环境信息相关的语音,提高语音助手系统交互过程的智能化程度。
图2是根据图1示出的另一种语音输出方法的流程图,如图2所示,在步骤104之后,该方法还可以包括:
在步骤105中,在输出该目标语音后,在预设的目标时长内监测该目标用户针对于该目标语音的回复内容。
在步骤106,根据该回复内容,为目标交互信息添加接受度标签。
其中,该目标交互信息,包括:该操作指令、该环境信息和该目标语音,该接受度标签用于表征该目标用户对该目标语音的接受行为。
示例地,在语音助手系统每次输出语音后,需要采集用户对输出的语音的反馈。用户对输出的语音的回复包括肯定回复和否定回复,因此,该接受度标签包括:接受标签和拒绝标签,该步骤106可以包括:若该回复内容中包含肯定回复,为该目标交互信息添加该接受标签;或者,若该回复内容中包含否定回复,或者,在该目标时长内未检测到该目标用户对于该目标语音的回复内容,为该目标交互信息添加该拒绝标签。可以理解的是,必须要在用户对输出的语音出现明确的接受回复后,才认为该用户接受了该目标语音,进而为其对应的交互信息添加接收标签;若用户反馈为明确的拒绝反馈或者用户对输出的语音不做回复,则认为该用户拒绝了该目标语音,进而为其对应的交互信息添加拒绝标签。需要说明的是,此处的“输出语音”可以为通过上述的步骤101至104输出的目标语音、下列的步骤107,或者其他任意方式输出的语音。
图3是根据图2示出的又一种语音输出方法的流程图,如图3所示,在该步骤101之前,该方法还可以包括:
在步骤107中,通过多组历史交互信息和每组该历史交互信息对应的历史接受度标签对预设的概率预测模型进行训练,训练后获得该接受度预测模型。
其中,该历史交互信息包括:在上述第n个预设时间段之前的n-1个预设时间段内该目标用户发出的第一操作指令、该目标用户发出的上述第一操作指令时的第一环境信息、以及在执行上述第一操作指令的同时输出的第一语音,该历史接受度标签用于表征该目标用户对该目标语音的接受行为。
示例地,针对于第5个预设时间段,用于确定目标语音的接受度预测模型为在第1到第4个预设时间段内采集到的多组历史交互信息训练出的接受度预测模型。而在第6个预设时间段,用于确定目标语音的接受度预测模型为经过第1到第4个预设时间段内采集到的多组历史交互信息训练,并通过第5个预设时间段内采集到的历史交互信息更新而得到的接受度预测模型。可见,在用户使用该电子设备的过程中,可以根据事实的交互信息对该接受度预测模型进行更新,以提高输出的目标语音与用户意愿的锲合度。
图4是根据图3示出的又一种语音输出方法的流程图,如图4所示,在步骤101之前,该方法还可以包括:
在步骤108中,在上述第一时间点后的第1个预设时间段内,执行针对于多组第一交互信息的语音输出过程后,通过预设的Bandit算法和该用户针对于每组上述第一交互信息的接受行为将上述多组第一交互信息更新为多组第二交互信息。
其中,上述第一交互信息包括:该目标用户发出的第二用户指令、该目标用户发出的上述第二操作指令时的第二环境信息以及预先设置的对应于上述第二用户指令和上述第二环境信息的第二语音。该Bandit算法为Thompson sampling算法。
示例地,该语音输出过程包括:针对于每组上述第一交互信息,响应于该目标用户在上述第二环境信息下发出上述第二操作指令,在执行上述第二操作指令的同时输出上述第二语音。
在步骤109中,将上述多组第二交互信息作为上述多组第一交互信息,循环执行该在执行针对于多组第一交互信息的语音输出过程后,通过预设的Bandit算法和该用户针对于每组上述第一交互信息的接受行为将上述多组第一交互信息更新为多组第二交互信息的步骤,直至上述第1个预设时间段结束。
示例地,在该步骤108和步骤109中,实际为在该第1个预设时间段内执行用于冷启动的EE(exploit-explore,采用-探索)过程。该EE过程可以视为一个试验的过程。在该EE过程之前,需要在开发阶段根据每个用户指令和环境信息的特征为每组用户指令和环境信息设定对应的语音(该步骤108包含整个EE过程的第一步,该步骤108中首先输出预先设定的语音)。在该EE过程中,根据Thompson sampling算法对每个预先设定的语音进行重复地试验,该试验的过程实际为用分类来表示每个用户兴趣(即语音),可以通过几次试验,来刻画出用户心目中对每个语音的感兴趣概率(或者说,根据用户的接受行为和每个预先设置的语音对应的预测概率进行比对)。如果用户对某个语音感兴趣,就表示预设的语音得到了收益,进而保留预先设置的语音,如果推给了用户不感兴趣的语音,Thompson sampling算法就输出遗憾标记(regret),则对预先设置的语音进行更新。如此经历“选择-观察-更新-选择”的循环(即步骤109中的循环),在该第1个预设时间段内输出的语音越来越逼近用户真正感兴趣的语音。
综上所述,本公开的实施例所提供的技术方案,能够在第一时间点后的第n个预设时间段内,确定目标用户发出操作指令时的环境信息;其中,n大于1,该第一时间点为该语音助手系统首次被开启的时间点;通过预先训练后的接受度预测模型,根据该操作指令和该环境信息确定该语音助手系统的语音库中的每个语音相对于该操作指令和该环境信息的接受度;根据该接受度从该语音库中确定目标语音;其中,该接受度用于表征该目标用户在该环境信息下发出该操作指令时该每个语音被该目标用户接受的概率;该接受度预测模型通过该目标用户在该第n个预设时间段之前对该每个语音的接受行为确定;在执行该操作指令的同时,输出该确定的目标语音。能够获取用户发出该操作指令时的环境信息,并在执行操作指令的同时,输出与该操作指令和环境信息相关的语音,提高语音助手系统交互过程的智能化程度。
图5是根据一示例性实施例示出的一种语音输出装置的框图,如图5所示,应用于上述应用场景所述的电子设备,该装置500包括:
信息确定模块510,被配置为在第一时间点后的第n个预设时间段内,确定目标用户发出操作指令时的环境信息;其中,n大于1,该第一时间点为该语音助手系统首次被开启的时间点;
接受度确定模块520,被配置为通过预先训练后的接受度预测模型,根据该操作指令和该环境信息确定该语音助手系统的语音库中的每个语音相对于该操作指令和该环境信息的接受度;
语音确定模块530,被配置为根据该接受度从该语音库中确定目标语音;
其中,该接受度用于表征该目标用户在该环境信息下发出该操作指令时该每个语音被该目标用户接受的概率;该接受度预测模型通过该目标用户在该第n个预设时间段之前对该每个语音的接受行为确定;
语音输出模块540,被配置为在执行该操作指令的同时,输出该确定的目标语音。
图6是根据图5示出的另一种语音输出装置的框图,如图6所示,该装置500还可以包括:
回复监测模块550,被配置为在输出该目标语音后,在预设的目标时长内监测该目标用户对于该目标语音的回复内容;
标签添加模块560,被配置为根据该回复内容,为目标交互信息添加接受度标签;其中;
其中,该目标交互信息,包括:该操作指令、该环境信息和该目标语音,该接受度标签用于表征该目标用户对该目标语音的接受行为。
可选的,该接受度标签包括:接受标签和拒绝标签,该标签添加模块560,被配置为:
若该回复内容中包含肯定回复,为该目标交互信息添加该接受标签;或者,
若该回复内容中包含否定回复,或者,在该目标时长内未检测到该目标用户对于该目标语音的回复内容,为该目标交互信息添加该拒绝标签。
图7是根据图6示出的又一种语音输出装置的框图,如图7所示,该装置500还可以包括:
模型训练模块570,被配置为通过多组历史交互信息和每组该历史交互信息对应的历史接受度标签对预设的概率预测模型进行训练,训练后获得该接受度预测模型;其中,
该历史交互信息包括:在该第n个预设时间段之前的n-1个预设时间段内该目标用户发出的第一操作指令、该目标用户发出的该第一操作指令时的第一环境信息、以及在执行该第一操作指令的同时输出的第一语音,该历史接受度标签用于表征该目标用户对该目标语音的接受行为。
可选的,该语音确定模块530,被配置为:
将该操作指令和该环境信息输入该接受度预测模型;
获取输出的该接受度预测模型输出的语音表;
该语音表包括:该每个语音,以及上述每个语音相对于该操作指令和该环境信息的接受度;
将该语音表中具备最高接受度的语音,作为该目标语音。
图8是根据图7示出的又一种语音输出装置的框图,如图8所示,该装置500还可以包括:
数据更新模块580,被配置为在该第一时间点后的第1个预设时间段内,在执行针对于多组第一交互信息的语音输出过程后,通过预设的Bandit算法和该用户针对于每组该第一交互信息的接受行为将上述多组第一交互信息更新为多组第二交互信息;其中,
该第一交互信息包括:该目标用户发出的第二用户指令、该目标用户发出的该第二操作指令时的第二环境信息以及预先设置的对应于该第二用户指令和该第二环境信息的第二语音;
循环执行模块590,被配置为将上述多组第二交互信息作为上述多组第二交互信息,循环执行该在执行针对于多组第一交互信息的语音输出过程后,通过预设的Bandit算法和该用户对每组该第一交互信息的接受行为将上述多组第一交互信息更新为多组第二交互信息的步骤,直至该第1个预设时间段结束;其中,
该语音输出过程包括:
针对于每组该第一交互信息,响应于该目标用户在该第二环境信息下发出该第二操作指令,在执行该第二操作指令的同时输出该第二语音。
综上所述,本公开的实施例所提供的技术方案,能够在第一时间点后的第n个预设时间段内,确定目标用户发出操作指令时的环境信息;其中,n大于1,该第一时间点为该语音助手系统首次被开启的时间点;通过预先训练后的接受度预测模型,根据该操作指令和该环境信息确定该语音助手系统的语音库中的每个语音相对于该操作指令和该环境信息的接受度;根据该接受度从该语音库中确定目标语音;其中,该接受度用于表征该目标用户在该环境信息下发出该操作指令时上述每个语音被该目标用户接受的概率;该接受度预测模型通过该目标用户在该第n个预设时间段之前对上述每个语音的接受行为确定;在执行该操作指令的同时,输出该确定的目标语音。能够获取用户发出该操作指令时的环境信息,并在执行操作指令的同时,输出与该操作指令和环境信息相关的语音,提高语音助手系统交互过程的智能化程度。
图9是根据一示例性实施例示出的一种电子设备的框图。例如,该电子设备900可以是设置有智能语音助手系统的移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图9,电子设备900可以包括以下一个或多个组件:处理组件902,存储器904,电力组件906,多媒体组件908,音频组件910,输入/输出(I/O)的接口912,传感器组件914,以及通信组件916。
处理组件902通常控制电子设备900的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件902可以包括一个或多个处理器920来执行指令,以完成上述的语音输出方法的全部或部分步骤。此外,处理组件902可以包括一个或多个模块,便于处理组件902和其他组件之间的交互。例如,处理组件902可以包括多媒体模块,以方便多媒体组件908和处理组件902之间的交互。
存储器904被配置为存储各种类型的数据以支持在电子设备900的操作。这些数据的示例包括用于在电子设备900上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器904可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电力组件906为电子设备900的各种组件提供电力。电力组件906可以包括电源管理系统,一个或多个电源,及其他与为电子设备900生成、管理和分配电力相关联的组件。
多媒体组件908包括在所述电子设备900和目标用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自目标用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件908包括一个前置摄像头和/或后置摄像头。当电子设备900处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件910被配置为输出和/或输入音频信号。例如,音频组件910包括一个麦克风(MIC),当电子设备900处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器904或经由通信组件916发送。在一些实施例中,音频组件910还包括一个扬声器,用于输出音频信号。
I/O接口912为处理组件902和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件914包括一个或多个传感器,用于为电子设备900提供各个方面的状态评估。例如,传感器组件914可以检测到电子设备900的打开/关闭状态,组件的相对定位,例如所述组件为电子设备900的显示器和小键盘,传感器组件914还可以检测电子设备900或电子设备900一个组件的位置改变,目标用户与电子设备900接触的存在或不存在,电子设备900方位或加速/减速和电子设备900的温度变化。传感器组件914可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件914还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件914还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件916被配置为便于电子设备900和其他设备之间有线或无线方式的通信。电子设备900可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件916经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件916还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,电子设备900可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述的语音输出方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器904,上述指令可由电子设备900的处理器920执行以完成上述的语音输出方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在另一示例性实施例中,还提供一种计算机程序产品,该计算机程序产品包含能够由可编程的装置执行的计算机程序,该计算机程序具有当由该可编程的装置执行时用于执行上述的语音输出方法的代码部分。
本公开的实施例所提供的电子设备,能够获取用户发出该操作指令时的环境信息,并在执行操作指令的同时,输出与该操作指令和环境信息相关的语音,提高语音助手系统交互过程的智能化程度。
本领域技术人员在考虑说明书及实践本公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (14)
1.一种语音输出方法,其特征在于,应用于电子设备,所述电子设备中设置有语音助手系统,所述方法包括:
在第一时间点后的第n个预设时间段内,确定目标用户发出操作指令时的环境信息;其中,n大于1,所述第一时间点为所述语音助手系统首次被开启的时间点;
通过预先训练后的接受度预测模型,根据所述操作指令和所述环境信息确定所述语音助手系统的语音库中的每个语音相对于所述操作指令和所述环境信息的接受度;
根据所述接受度从所述语音库中确定目标语音;
其中,所述接受度用于表征所述目标用户在所述环境信息下发出所述操作指令时所述每个语音被所述目标用户接受的概率;所述接受度预测模型通过所述目标用户在所述第n个预设时间段之前对所述每个语音的接受行为确定;
在执行所述操作指令的同时,输出所述确定的目标语音。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在输出所述目标语音后,在预设的目标时长内监测所述目标用户对于所述目标语音的回复内容;
根据所述回复内容,为目标交互信息添加接受度标签;
其中,所述目标交互信息,包括:所述操作指令、所述环境信息和所述目标语音,所述接受度标签用于表征所述目标用户对所述目标语音的接受行为。
3.根据权利要求2所述的方法,其特征在于,所述接受度标签包括:接受标签和拒绝标签,所述根据所述回复,为目标交互信息添加接受度标签,包括:
若所述回复内容中包含肯定回复,为所述目标交互信息添加所述接受标签;或者,
若所述回复内容中包含否定回复,或者,在所述目标时长内未检测到所述目标用户对于所述目标语音的回复内容,为所述目标交互信息添加所述拒绝标签。
4.根据权利要求1所述的方法,其特征在于,在所述在第一时间点后的第n个预设时间段内,确定目标用户发出操作指令时的环境信息之前,所述方法还包括:
通过多组历史交互信息和每组所述历史交互信息对应的历史接受度标签对预设的概率预测模型进行训练,训练后获得所述接受度预测模型;其中,
所述历史交互信息包括:在所述第n个预设时间段之前的n-1个预设时间段内所述目标用户发出的第一操作指令、所述目标用户发出的所述第一操作指令时的第一环境信息、以及在执行所述第一操作指令的同时输出的第一语音,所述历史接受度标签用于表征所述目标用户对所述目标语音的接受行为。
5.根据权利要求1所述的方法,其特征在于,所述根据预先训练好的接受度预测模型、所述操作指令和所述环境信息确定所述语音助手系统中的语音库中的每个语音相对于所述操作指令和所述环境信息的接受度,以根据所述接受度从所述语音库中确定目标语音,包括:
将所述操作指令和所述环境信息输入所述接受度预测模型;
获得输出的所述接受度预测模型输出的语音表;
所述语音表包括:所述每个语音,以及所述每个语音相对于所述操作指令和所述环境信息的接受度;
将所述语音表中具备最高接受度的语音,作为所述目标语音。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在所述第一时间点后的第1个预设时间段内,执行针对于多组第一交互信息的语音输出过程后,通过预设的Bandit算法和所述用户针对于每组所述第一交互信息的接受行为,将所述多组第一交互信息更新为多组第二交互信息;其中,
所述第一交互信息包括:所述目标用户发出的第二用户指令、所述目标用户发出的所述第二操作指令时的第二环境信息以及预先设置的对应于所述第二用户指令和所述第二环境信息的第二语音;
将所述多组第二交互信息作为所述多组第二交互信息,循环执行所述在执行针对于多组第一交互信息的语音输出过程后,通过预设的Bandit算法和所述用户针对于每组所述第一交互信息的接受行为将所述多组第一交互信息更新为多组第二交互信息的步骤,直至所述第1个预设时间段结束;其中,
所述语音输出过程包括:
针对于每组所述第一交互信息,响应于所述目标用户在所述第二环境信息下发出所述第二操作指令,在执行所述第二操作指令的同时输出所述第二语音。
7.一种语音输出装置,其特征在于,应用于电子设备,所述电子设备中设置有语音助手系统,所述装置包括:
信息确定模块,被配置为在第一时间点后的第n个预设时间段内,确定目标用户发出操作指令时的环境信息;其中,n大于1,所述第一时间点为所述语音助手系统首次被开启的时间点;
接受度确定模块,被配置为通过预先训练后的接受度预测模型,根据所述操作指令和所述环境信息确定所述语音助手系统的语音库中的每个语音相对于所述操作指令和所述环境信息的接受度;
语音确定模块,被配置为根据所述接受度从所述语音库中确定目标语音;
其中,所述接受度用于表征所述目标用户在所述环境信息下发出所述操作指令时所述每个语音被所述目标用户接受的概率;所述接受度预测模型通过所述目标用户在所述第n个预设时间段之前对所述每个语音的接受行为确定;
语音输出模块,被配置为在执行所述操作指令的同时,输出所述确定的目标语音。
8.根据权利要求7所述的装置,其特征在于,所述装置还包括:
回复监测模块,被配置为在输出所述目标语音后,在预设的目标时长内监测所述目标用户对于所述目标语音的回复内容;
标签添加模块,被配置为根据所述回复内容,为目标交互信息添加接受度标签;其中;
其中,所述目标交互信息,包括:所述操作指令、所述环境信息和所述目标语音,所述接受度标签用于表征所述目标用户对所述目标语音的接受行为。
9.根据权利要求8所述的装置,其特征在于,所述接受度标签包括:接受标签和拒绝标签,所述标签添加模块,被配置为:
若所述回复内容中包含肯定回复,为所述目标交互信息添加所述接受标签;或者,
若所述回复内容中包含否定回复,或者,在所述目标时长内未检测到所述目标用户对于所述目标语音的回复内容,为所述目标交互信息添加所述拒绝标签。
10.根据权利要求7所述的装置,其特征在于,所述装置还包括:
模型训练模块,被配置为通过多组历史交互信息和每组所述历史交互信息对应的历史接受度标签对预设的概率预测模型进行训练,训练后获得所述接受度预测模型;其中,
所述历史交互信息包括:在所述第n个预设时间段之前的n-1个预设时间段内所述目标用户发出的第一操作指令、所述目标用户发出的所述第一操作指令时的第一环境信息、以及在执行所述第一操作指令的同时输出的第一语音,所述历史接受度标签用于表征所述目标用户对所述目标语音的接受行为。
11.根据权利要求7所述的装置,其特征在于,所述语音确定模块,被配置为:
将所述操作指令和所述环境信息输入所述接受度预测模型;
获取输出的所述接受度预测模型输出的语音表;
所述语音表包括:所述每个语音,以及所述每个语音相对于所述操作指令和所述环境信息的接受度;
将所述语音表中具备最高接受度的语音,作为所述目标语音。
12.根据权利要求7所述的装置,其特征在于,所述装置还包括:
数据更新模块,被配置为在所述第一时间点后的第1个预设时间段内,在执行针对于多组第一交互信息的语音输出过程后,通过预设的Bandit算法和所述用户针对于每组所述第一交互信息的接受行为将所述多组第一交互信息更新为多组第二交互信息;其中,
所述第一交互信息包括:所述目标用户发出的第二用户指令、所述目标用户发出的所述第二操作指令时的第二环境信息以及预先设置的对应于所述第二用户指令和所述第二环境信息的第二语音;
循环执行模块,被配置为将所述多组第二交互信息作为所述多组第二交互信息,循环执行所述在执行针对于多组第一交互信息的语音输出过程后,通过预设的Bandit算法和所述用户对每组所述第一交互信息的接受行为将所述多组第一交互信息更新为多组第二交互信息的步骤,直至所述第1个预设时间段结束;其中,
所述语音输出过程包括:
针对于每组所述第一交互信息,响应于所述目标用户在所述第二环境信息下发出所述第二操作指令,在执行所述第二操作指令的同时输出所述第二语音。
13.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,该程序指令被处理器执行时实现权利要求1-6中任一项所述方法的步骤。
14.一种电子设备,其特征在于,所述电子设备中设置有语音助手系统;
所述电子设备,包括:权利要求7-12中任一项所述的语音输出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010761619.XA CN112002317B (zh) | 2020-07-31 | 2020-07-31 | 语音输出方法、装置、存储介质和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010761619.XA CN112002317B (zh) | 2020-07-31 | 2020-07-31 | 语音输出方法、装置、存储介质和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112002317A true CN112002317A (zh) | 2020-11-27 |
CN112002317B CN112002317B (zh) | 2023-11-14 |
Family
ID=73464264
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010761619.XA Active CN112002317B (zh) | 2020-07-31 | 2020-07-31 | 语音输出方法、装置、存储介质和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112002317B (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1366295A (zh) * | 2000-07-05 | 2002-08-28 | 松下电器产业株式会社 | 基于事先知识的说话者检验及说话者识别系统和方法 |
CN1419686A (zh) * | 2000-10-30 | 2003-05-21 | 皇家菲利浦电子有限公司 | 模拟人际交互并利用相关数据装载外部数据库的用户接口/娱乐设备 |
US20170133012A1 (en) * | 2015-11-05 | 2017-05-11 | Acer Incorporated | Voice control method and voice control system |
US9697828B1 (en) * | 2014-06-20 | 2017-07-04 | Amazon Technologies, Inc. | Keyword detection modeling using contextual and environmental information |
CN107851437A (zh) * | 2015-08-10 | 2018-03-27 | 歌乐株式会社 | 语音操作系统、服务器装置、车载设备和语音操作方法 |
CN108010527A (zh) * | 2017-12-19 | 2018-05-08 | 深圳市欧瑞博科技有限公司 | 语音识别方法、装置、计算机设备和存储介质 |
US20180174580A1 (en) * | 2016-12-19 | 2018-06-21 | Samsung Electronics Co., Ltd. | Speech recognition method and apparatus |
CN108510986A (zh) * | 2018-03-07 | 2018-09-07 | 北京墨丘科技有限公司 | 语音交互方法、装置、电子设备及计算机可读存储介质 |
CN108737872A (zh) * | 2018-06-08 | 2018-11-02 | 百度在线网络技术(北京)有限公司 | 用于输出信息的方法和装置 |
CN110047485A (zh) * | 2019-05-16 | 2019-07-23 | 北京地平线机器人技术研发有限公司 | 识别唤醒词的方法和装置、介质以及设备 |
CN110265012A (zh) * | 2019-06-19 | 2019-09-20 | 泉州师范学院 | 基于开源硬件可交互智能语音家居控制装置及控制方法 |
CN111445904A (zh) * | 2018-12-27 | 2020-07-24 | 北京奇虎科技有限公司 | 基于云端的语音控制方法、装置及电子设备 |
-
2020
- 2020-07-31 CN CN202010761619.XA patent/CN112002317B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1366295A (zh) * | 2000-07-05 | 2002-08-28 | 松下电器产业株式会社 | 基于事先知识的说话者检验及说话者识别系统和方法 |
CN1419686A (zh) * | 2000-10-30 | 2003-05-21 | 皇家菲利浦电子有限公司 | 模拟人际交互并利用相关数据装载外部数据库的用户接口/娱乐设备 |
US9697828B1 (en) * | 2014-06-20 | 2017-07-04 | Amazon Technologies, Inc. | Keyword detection modeling using contextual and environmental information |
CN107851437A (zh) * | 2015-08-10 | 2018-03-27 | 歌乐株式会社 | 语音操作系统、服务器装置、车载设备和语音操作方法 |
US20170133012A1 (en) * | 2015-11-05 | 2017-05-11 | Acer Incorporated | Voice control method and voice control system |
US20180174580A1 (en) * | 2016-12-19 | 2018-06-21 | Samsung Electronics Co., Ltd. | Speech recognition method and apparatus |
CN110088833A (zh) * | 2016-12-19 | 2019-08-02 | 三星电子株式会社 | 语音识别方法和装置 |
CN108010527A (zh) * | 2017-12-19 | 2018-05-08 | 深圳市欧瑞博科技有限公司 | 语音识别方法、装置、计算机设备和存储介质 |
CN108510986A (zh) * | 2018-03-07 | 2018-09-07 | 北京墨丘科技有限公司 | 语音交互方法、装置、电子设备及计算机可读存储介质 |
CN108737872A (zh) * | 2018-06-08 | 2018-11-02 | 百度在线网络技术(北京)有限公司 | 用于输出信息的方法和装置 |
CN111445904A (zh) * | 2018-12-27 | 2020-07-24 | 北京奇虎科技有限公司 | 基于云端的语音控制方法、装置及电子设备 |
CN110047485A (zh) * | 2019-05-16 | 2019-07-23 | 北京地平线机器人技术研发有限公司 | 识别唤醒词的方法和装置、介质以及设备 |
CN110265012A (zh) * | 2019-06-19 | 2019-09-20 | 泉州师范学院 | 基于开源硬件可交互智能语音家居控制装置及控制方法 |
Non-Patent Citations (1)
Title |
---|
江铭虎, 朱小燕, 袁保宗: "语音识别与理解的研究进展", 电路与系统学报, no. 02 * |
Also Published As
Publication number | Publication date |
---|---|
CN112002317B (zh) | 2023-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10061762B2 (en) | Method and device for identifying information, and computer-readable storage medium | |
CN112185389B (zh) | 语音生成方法、装置、存储介质和电子设备 | |
CN108227950B (zh) | 一种输入方法和装置 | |
CN109961791B (zh) | 一种语音信息处理方法、装置及电子设备 | |
CN106128478B (zh) | 语音播报方法及装置 | |
CN109447125B (zh) | 分类模型的处理方法、装置、电子设备及存储介质 | |
CN111968635B (zh) | 语音识别的方法、装置及存储介质 | |
CN104378441A (zh) | 日程创建方法和装置 | |
CN109246184B (zh) | 一种时间信息获取方法、装置和可读存储介质 | |
CN111553464A (zh) | 基于超网络的图像处理方法、装置及智能设备 | |
CN111753917A (zh) | 数据处理方法、装置及存储介质 | |
CN109214175B (zh) | 基于样本特征训练分类器的方法、装置及存储介质 | |
CN111243224A (zh) | 一种实现报警的方法及装置 | |
CN111951787A (zh) | 语音输出方法、装置、存储介质和电子设备 | |
CN112183953A (zh) | 客服资源的分配方法、装置、电子设备和存储介质 | |
CN111177521A (zh) | 一种查询词分类模型的确定方法和装置 | |
CN112784151A (zh) | 一种确定推荐信息的方法及相关装置 | |
CN112002317B (zh) | 语音输出方法、装置、存储介质和电子设备 | |
CN115659040A (zh) | 应用于用户标签识别的模型训练方法、推荐方法和设备 | |
CN112929751B (zh) | 用于确定动作执行的系统、方法及终端 | |
CN111667827B (zh) | 应用程序的语音控制方法、装置及存储介质 | |
CN116261752A (zh) | 基于音频对话的面向用户的动作 | |
CN113807540A (zh) | 一种数据处理方法及装置 | |
CN108345590B (zh) | 一种翻译方法、装置、电子设备以及存储介质 | |
CN113254611A (zh) | 提问推荐方法及装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |