CN110136723A - 基于语音信息的数据处理方法及装置 - Google Patents
基于语音信息的数据处理方法及装置 Download PDFInfo
- Publication number
- CN110136723A CN110136723A CN201910300810.1A CN201910300810A CN110136723A CN 110136723 A CN110136723 A CN 110136723A CN 201910300810 A CN201910300810 A CN 201910300810A CN 110136723 A CN110136723 A CN 110136723A
- Authority
- CN
- China
- Prior art keywords
- type
- voice messaging
- emotion label
- sample data
- machine
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 17
- 230000008451 emotion Effects 0.000 claims abstract description 126
- 238000010801 machine learning Methods 0.000 claims abstract description 61
- 238000000034 method Methods 0.000 claims abstract description 43
- 238000012549 training Methods 0.000 claims description 94
- 239000013598 vector Substances 0.000 claims description 43
- 238000012545 processing Methods 0.000 claims description 40
- 238000012360 testing method Methods 0.000 claims description 38
- 238000012795 verification Methods 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 7
- 230000036651 mood Effects 0.000 claims description 4
- 230000004044 response Effects 0.000 abstract description 9
- 230000006870 function Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012880 independent component analysis Methods 0.000 description 2
- 230000005291 magnetic effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 210000000352 storage cell Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明揭示了一种基于语音信息的数据处理方法及装置,属于智能决策中的机器学习技术领域,其中所述方法包括:获取用户终端的语音信息;对所述语音信息进行处理得到对应所述语音信息的文本语句,并将所述语音信息输入至预设的第一机器学习模型中进行处理得到情绪类型标签,所述第一机器学习模型用于根据所述语音信息确定语音中的情绪类型,作为情绪类型标签。本发明提出的方法使得客服机器人基于用户的语音信息准确地确定用户的购买意向,并对有购买意向的用户自动地进行语音回复,从而实现能够根据用户的不同反应进行不同的响应,提高了客服机器人的语音回复与用户需求的匹配度。
Description
技术领域
本发明涉及智能决策中的机器学习技术领域,特别是涉及基于语音信息的数据处理方法、装置、计算机设备和存储介质。
背景技术
企业在向用户介绍产品时,主要通过语音介绍的方式来针对每个用户进行相应的产品介绍或进行相关的提问,并基于用户的反馈确定用户对产品的购买意向,以确定是否需要继续对该用户进行跟进介绍。
现有技术中,一般通过人工客服人员针对大量的用户进行语音介绍,因此会耗费大量的资源,进而造成成本的增加。虽然想要设计一种使得客服机器人能自动化进行产品的语音介绍流程,但是该方式需要根据人的应答作不同的响应内容的调整,不能以一成不变的方式去与用户沟通,因此现有技术缺少一种基于语音信息的数据处理方法,能够解决这个问题。
发明内容
基于此,本公开实施例旨在提出一种基于语音信息的数据处理方法、装置、计算机设备和存储介质,使得客服机器人通过语音的方式介绍产品的过程中,能够根据用户的不同反应进行不同的响应,提高了客服机器人的语音回复与用户需求的匹配度。
第一方面,提供了一种基于语音信息的数据处理方法,所述方法包括:
获取用户终端的语音信息;
对所述语音信息进行处理得到对应所述语音信息的文本语句,并将所述语音信息输入至预设的第一机器学习模型中进行处理得到情绪类型标签,所述第一机器学习模型用于根据所述语音信息确定语音中的情绪类型,作为情绪类型标签;
判断所述文本语句与预存的用户具有购买产品意向的词汇库的词汇是否匹配成功以及判断所述情绪类型标签与预设的情绪类型标签是否一致;
若所述文本语句与预存的用户具有购买产品意向的词汇库的词汇匹配成功且所述情绪类型标签与预设的情绪类型标签一致,则基于预存的语音问题序列中的语音问题对所述用户终端进行语音提。
第二方面,提供了基于语音信息的数据处理装置,所述装置包括:
获取单元,用于获取用户终端的语音信息;
第一执行单元,用于对所述语音信息进行处理得到对应所述语音信息的文本语句,并将所述语音信息输入至预设的第一机器学习模型中进行处理得到情绪类型标签,所述第一机器学习模型用于根据所述语音信息确定语音中的情绪类型,作为情绪类型标签;
判断单元,用于判断所述文本语句与预存的用户具有购买产品意向的词汇库的词汇是否匹配成功以及判断所述情绪类型标签与预设的情绪类型标签是否一致;
第二执行单元,用于若所述文本语句与预存的用户具有购买产品意向的词汇库的词汇匹配成功且所述情绪类型标签与预设的情绪类型标签一致,则基于预存的语音问题序列中的语音问题对所述用户终端进行语音提问。
第三方面,提供了一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被所述处理器执行时,使得所述处理器执行上述基于语音信息的数据处理方法的步骤。
第四方面,提供了一种存储有计算机可读指令的存储介质,所述计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行上述基于语音信息的数据处理方法的步骤。
本公开的实施例提供的技术方案可以包括以下有益效果:
客服机器人通过对用户终端回复的语音信息进行处理得到对应用户终端回复的语音信息的文本语句,并将该语音信息输入至预设的第一机器学习模型中进行处理得到情绪类型标签,判断文本语句与预存的用户具有购买产品意向的词汇库的词汇是否匹配成功以及判断情绪类型标签与预设的情绪类型标签是否一致;若用户终端的语音信息进行语音识别处理得到对应该语音信息的文本语句与预存的用户具有购买产品意向的词汇库的词汇是否匹配成功,且通过第一机器学习模型对用户终端的语音信息进行处理得到的情绪类型标签与预设的情绪类型标签一致,则基于预存的语音问题序列中的语音问题对用户终端进行语音提问。该方法可以基于用户的语音信息准确地确定用户的购买意向,并对有购买意向的用户自动地进行语音回复,从而实现能够根据用户的不同反应进行不同的响应,提高了客服机器人的语音回复与用户需求的匹配度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本公开。
附图说明
图1是本发明一示例性实施例示出的一种基于语音信息的数据处理方法的实现流程图。
图2是本发明另一示例性实施例示出的一种基于语音信息的数据处理方法的实现流程图。
图3是本发明一示例性实施例示出的一种基于语音信息的数据处理装置的框图。
图4示意性示出一种用于实现上述基于语音信息的数据处理方法的计算机设备示例框图。
图5示意性示出一种用于实现上述基于语音信息的数据处理方法的计算机可读存储介质。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
参考图1,图1为本发明一实施例中提供的基于语音信息的数据处理方法的实现流程图,本实施例中的基于语音信息的数据处理方法的执行主体为计算机设备,该计算机设备具体可以用于进行产品介绍的客服机器人,以下以客服机器人为例来进行说明。如图1所示的基于语音信息的数据处理方法可包括以下步骤:
步骤S110,获取用户终端的语音信息。
在步骤S110中,当客服机器人在向用户介绍产品时,会基于预存的语音问题序列中的语音问题对用户终端进行语音提问,其中,预存的语音问题序列中的语音问题可以为包含对某个产品进行介绍的所有流程问题对应的语音。
客服机器人在与用户终端建立语音连接后,会基于预存的语音问题序列中的第一个语音问题对用户进行语音提问,由于用户对于所介绍的产品可能存在想要购买、不想购买或者处于观望中比较中性的多种态度,因此会通过终端发送对应不同态度的语音信息至客服机器人。客服机器人获取用户终端的语音信息,便于对用户终端反馈的语音信息进行分析。
步骤S120,对所述语音信息进行处理得到对应所述语音信息的文本语句,并将所述语音信息输入至预设的第一机器学习模型中进行处理得到情绪类型标签,所述第一机器学习模型用于根据所述语音信息确定语音中的情绪类型,作为情绪类型标签。
在步骤S120中,客服机器人对用户终端的语音信息进行语音识别处理,将其转换成文本以得到对应该语音信息的文本语句。客服机器人还将用户终端的语音信息输入至预设的第一机器学习模型中进行处理得到情绪类型标签。需要说明的是,该第一机器学习模型用于根据语音信息确定语音中的情绪类型,作为情绪类型标签,客服机器人基于该情绪类型标签可以确定用户终端反馈的语音中的情绪类型。
步骤S130,判断所述文本语句与预存的用户具有购买产品意向的词汇库的词汇是否匹配成功以及判断所述情绪类型标签与预设的情绪类型标签是否一致。
在步骤S130中,客服机器人判断将用户终端的语音信息进行语音识别处理得到对应该语音信息的文本语句与预存的用户具有购买产品意向的词汇库的词汇是否匹配成功,以及判断通过第一机器学习模型对用户终端的语音信息进行处理得到的情绪类型标签与预设的情绪类型标签是否一致。
其中,预存的用户具有购买产品意向的词汇库包含的词汇可以包括“想买”、“需要购买”、“产品不错”以及“同意购买”等可以反映用户具有购买产品的意向的词汇。在当文本语句与预存的反映用户对产品购买意向的词汇库的词汇匹配成功时,即可确定用户具有购买意向,客服机器人则可以继续对用户进行语音提问,以继续介绍产品。对于用户终端的语音信息进行语音识别得到的文本语句,客服机器人在将该文本语句与具有购买产品意向的词汇库的词汇进行匹配时,可以对文本语句先进行分词处理,并根据分词得到的词汇与具有购买产品意向的词汇库的词汇进行匹配。需要说明的是,在对文本语句进行分词处理时,对于需要针对文本语句中反映态度的词汇进行准确的分词,例如,对于具有“我想买”的文本语句,分词结果为“我”和“想买”,对于具有“我不想买”的文本语句,分词结果为“我”和“不想买”。若具有购买产品意向的词汇库的词汇存在与关键词一致的词汇时,则匹配成功,否则匹配失败。
此外,为了更加准确的确定用户是否具有购买意向,客服机器人还将获取的用户终端的语音信息输入至第一机器学习模型中进行处理得到该语音中的情绪类型标签。其中,该情绪类型标签具体可以包括满意标签、平静标签、烦躁标签以及生气标签。预设的情绪类型标签包括满意标签、平静标签。客服机器人判断该情绪类型标签与预设的情绪类型标签是否一致,当该情绪类型标签与预设的情绪类型标签一致时,客服机器人可以继续对用户进行语音提问,以继续介绍产品。
步骤S140,若所述文本语句与预存的用户具有购买产品意向的词汇库的词汇匹配成功且所述情绪类型标签与预设的情绪类型标签一致,则基于预存的语音问题序列中的语音问题对所述用户终端进行语音提问。
在步骤S140中,若用户终端的语音信息进行语音识别处理得到对应该语音信息的文本语句与预存的用户具有购买产品意向的词汇库的词汇是否匹配成功,且通过第一机器学习模型对用户终端的语音信息进行处理得到的情绪类型标签与预设的情绪类型标签一致,则客服机器人才可以确定用户具有购买意向。客服机器人会基于预存的语音问题序列中的语音问题继续对用户终端进行语音提问,其中,该语音问题可以为语音问题序列中的第一个语音问题之后的第二个语音问题,便于对用户继续进行提问。
以上可以看出,本发明提出的基于语音信息的数据处理方法,客服机器人通过对用户终端回复的语音信息进行处理得到对应用户终端回复的语音信息的文本语句,并将该语音信息输入至预设的第一机器学习模型中进行处理得到情绪类型标签,判断文本语句与预存的用户具有购买产品意向的词汇库的词汇是否匹配成功以及判断情绪类型标签与预设的情绪类型标签是否一致;若用户终端的语音信息进行语音识别处理得到对应该语音信息的文本语句与预存的用户具有购买产品意向的词汇库的词汇是否匹配成功,且通过第一机器学习模型对用户终端的语音信息进行处理得到的情绪类型标签与预设的情绪类型标签一致,则基于预存的语音问题序列中的语音问题对用户终端进行语音提问。该方法可以基于用户的语音信息准确地确定用户的购买意向,并对有购买意向的用户自动地进行语音回复,从而实现能够根据用户的不同反应进行不同的响应,提高了客服机器人的语音回复与用户需求的匹配度。
参考图2,在图2示出的一个实施例中,所述步骤S130之后,还可以包括如下步骤:
S150,若所述文本语句与预存的用户具有购买产品意向的词汇库的词汇未匹配成功和/或所述情绪类型标签与预设的情绪类型标签不一致,则停止对所述用户终端进行语音提问。
在步骤S150中,若用户终端的语音信息进行语音识别处理得到对应该语音信息的文本语句与预存的用户具有购买产品意向的词汇库的词汇未匹配成功,且通过第一机器学习模型对用户终端的语音信息进行处理得到的情绪类型标签与预设的情绪类型标签不一致;或用户终端的语音信息进行语音识别处理得到对应该语音信息的文本语句与预存的用户具有购买产品意向的词汇库的词汇匹配成功,且通过第一机器学习模型对用户终端的语音信息进行处理得到的情绪类型标签与预设的情绪类型标签不一致;或用户终端的语音信息进行语音识别处理得到对应该语音信息的文本语句与预存的用户具有购买产品意向的词汇库的词汇未匹配成功,且通过第一机器学习模型对用户终端的语音信息进行处理得到的情绪类型标签与预设的情绪类型标签一致;则说明该用户不具有购买产品的意向,客服机器人停止对用户终端进行语音提问。
在一个实施例中,所述第一机器学习模型采用以下方法预先训练:
获取用于对第一机器训练模型进行训练的第一样本数据,并将所述第一样本数据分成第一训练集和第一测试集;其中,所述第一样本数据中的每条样本数据均包括语音信息以及已知的情绪类型标签;
将所述第一训练集中的每条样本数据包含的语音信息作为所述第一机器训练模型的输入,将所述第一训练集中的每条样本数据包含的已知的情绪类型标签作为所述第一机器训练模型的输出,对所述第一机器训练模型进行训练;
将所述第一测试集中的每条样本数据包含的语音信息输入至训练好的所述第一机器训练模型,得到预测的情绪类型标签;
基于所述第一测试集中的每条样本数据包含的已知的情绪类型标签对训练好的所述第一机器训练模型进行校验;
若校验通过,则将训练好的所述第一机器训练模型识别为所述第一机器学习模型。
客服机器人在对第一机器学习模型进行训练时,获取历史上所有用户对客服机器人所介绍的产品进行回复的语音信息以及该客服机器人所介绍的产品进行回复的语音信息对应的已知的情绪类型标签作为第一样本数据,并将第一样本数据分成第一训练集和第一测试集;其中,第一样本数据中的每条样本数据均包含语音信息以及已知的情绪类型标签。
优选地,客服机器人将第一训练集中的每条样本数据包含的语音信息作为第一机器训练模型的输入,将第一训练集中的每条样本数据包含的已知的情绪类型标签作为第一机器训练模型的输出,来对第一机器训练模型进行训练。
对第一机器训练模型进行训练的方法具体可以包括:客服机器人对语音信息进行特征提取生成对应的音频特征向量,其中该音频特征向量作为语音信息的特征,用户进行分析得到对应的情绪类型标签。其中,对应的音频特征向量可以包括发音帧数特征、共振峰特征、谐波噪声比特征以及梅尔倒谱系数特征中的一种或者多种
其中,发音帧数特征指的是语音信息中发音帧的数量大小,该发音帧的数量大小也可通过比例值来衡量。例如将语音信息中发音帧和不发音帧的数量分别记为n1和n2,则发音帧数和不发音帧数的比例为发音帧数和总帧数的比例为:
共振峰特征可采用基于线性预测的多项式求根的算法来提取,可包括第一共振峰、第二共振峰和第三共振峰,以及该三个共振峰的一阶差分。谐波噪声比(HNR)特征可采用基于独立分量分析(ICA)的算法来提取。梅尔倒谱(MFCC)系数特征可包括1-12阶梅尔倒谱系数以及1-12阶梅尔倒谱系数一阶差分,可采用通用的梅尔倒谱系数计算流程获取。
对语音信息进行特征提取得到的音频特征向量,客服机器人对第一训练集中的每个样本的语音信息对应的音频特征向量通过聚类算法,聚成N个类,其中,N为大于1的正整数,通过上述方法聚成的每个类的音频特征向量具有相似的特点。客服机器人将根据聚成的每个类的音频特征向量对应的语音信息所已知的情绪类型标签为该类贴上相应的情绪类型标签。
客服机器人通过聚类算法,聚成N个类的方法具体包括:在所有的音频特征向量中任取N个音频特征向量,作为聚类中心;对于所有的音频特征向量,确定每个音频特征向量与每个聚类中心的距离,将该音频特征向量归到与之距离最小的某个类中,根据聚成的每一类中所有音频特征向量的平均向量,将其作为该类重新选取的聚类中心。重复上述步骤,继续确定该音频特征向量与每个聚类中心的距离,将该音频特征向量归到与之距离最小的某个类中,根据聚成的每一类中所有音频特征向量的平均向量,并将其再次作为该类重新选取的聚类中心。重复上述步骤,直到相邻两次聚类的结果完全一样为止,这样聚成的每个类的音频特征向量具有相似的特点。
客服机器人从N个类中的每个类中各选取出多个音频特征向量,并将选取每个类的多个音频特征向量以及为该类所贴上的情绪类型标签输入至第一机器训练模型,对第一机器训练模型进行训练,使得其学习根据语音信息进行处理得到情绪类型标签。
在第一机器训练模型训练完成后,计算机设备将第一测试集中的每条样本数据包含的语音信息输入至训练好的第一机器训练模型,得到预测的情绪类型标签。计算机设备基于第一测试集中的每条样本数据包含的已知的情绪类型标签对训练好的第一机器训练模型进行校验,若校验通过,则将训练好的第一机器训练模型识别为第一机器学习模型,否则,则继续对第一机器训练模型进行训练。
在一个实施例中,客服机器人基于第一测试集中的每条样本数据包含的已知的情绪类型标签对训练好的第一机器训练模型进行校验的方法,具体包括:判断第一测试集中的已知的情绪类型标签与预测的情绪类型标签是否一致来对训练好的第一训练模型进行校验。
其中,若校验通过,则将训练好的所述第一机器训练模型识别为所述第一机器学习模型的步骤,包括:若客服机器人判断得到第一测试集中的已知的情绪类型标签与预测的情绪类型标签一致的样本数据条数占第一测试集中样本数据条数的比例超过预定比例阈值,则说明校验通过,因此客服机器人将训练好的第一机器训练模型识别为第一机器学习模型。否则,客服机器人需要继续对第一机器训练模型进行训练。
在一个实施例中,所述对所述语音信息进行处理得到对应所述语音信息的文本语句的步骤,包括:
对所述语音信息进行特征提取得到语音特征向量。
将所述语音特征向量输入至预设的第二机器学习模型进行处理输出得到字符,其中,所述第二机器学习模型用于根据所述语音特征向量确定所述语音特征向量对应的所述字符。
将所述字符输入至预设的第三机器学习模型进行处理输出得到所述文本语句,其中,所述第三机器学习模型用于根据所述字符确定由所述字符组成的文本,作为所述文本语句。
对于获取的语音信息,客服机器人对语音信息进行语音识别处理得到对应该语音信息的文本语句,其中对语音信息进行语音识别处理时,需要先对语音信息进行特征提取得到该语音信息对应的语音特征向量。
对于进行特征提取得到的语音特征向量,客服机器人将语音特征向量输入至预设的第二机器学习模型进行处理输出得到对应的字符,其中该字符具体为单个的字,即第二学习机器模型输入的是对语音特征向量进行处理后得到的多个不同的字,其中第二机器学习模型为经过训练得到,其存储于客服机器人中。
对第二学习机器模型进行训练的方法为获取用于对第二机器训练模型进行训练的第二样本数据,并将样本数据分成第二训练集和第二测试集;其中,第二样本数据中的每条样本数据均包括语音特征向量及语音特征向量对应的字符;将第二训练集中的每条样本数据中包含的语音特征向量及语音特征向量对应的字符作为第二机器训练模型的输入,将语音特征向量对应的字符作为第二机器训练模型的输出,对第二机器训练模型进行训练。
对于训练后的第二机器训练模型,客服机器人还需要对其进行检验。进行校验的方法具体可以为将第二测试集中的每条样本数据包含的语音特征向量输入至训练后的第二机器训练模型,得到预测的字符;通过将预测的字符与语音特征向量对应的字符进行比对校验;若第二测试集中的语音特征向量对应的字符与预测的字符一致的样本数据条数占第一测试集中样本数据条数的比例超过预定比例阈值,则说明校验通过,此时则可以将第二机器训练模型识别为第二机器学习模型。
对于预设的第二机器学习模型进行处理输出得到字符,客服机器人将字符输入至预设的第三机器学习模型进行处理输出得到文本语句。其中该文本语句为由字符所生成的文本,其中,上述第三机器学习模型为经过训练得到,其存储于客服机器人中。
对第三机器学习模型进行训练的方法为获取用于对第三机器训练模型进行训练的样本数据,并将样本数据分成第三训练集和第三测试集;其中,样本数据中的每条样本数据均包括文本语句的所有字符及所有字符所对应的文本语句;将第三训练集中的每条样本数据中包含的文本语句的所有字符作为第三机器训练模型的输入,将所有字符所对应的文本语句作为第三机器训练模型的输出,对第三机器训练模型进行训练。
对于训练后的第三机器训练模型,客服机器人需要对还需要其进行检验。进行校验的方法具体可以为将测试集中的每条样本数据包含的文本语句的所有字符输入至训练后的第三机器训练模型,得到预测的文本语句;通过将预测的文本语句与所有字符所对应的文本语句进行比对校验;若第三测试集中的所有字符所对应的文本语句与预测的文本语句一致的样本数据条数占第三测试集中样本数据条数的比例超过预定比例阈值,则说明校验通过,此时则可以将第三机器训练模型识别为第三机器学习模型。
参考图3,图3是本发明一个实施例提供的一种基于语音信息的数据处理装置,所述基于语音信息的数据处理装置可以集成于上述的计算机设备中,具体可以包括获取单元110、第一执行单元120、判断单元130以及第二执行单元140。
获取单元110,用于获取用户终端的语音信息;
第一执行单元120,用于对所述语音信息进行处理得到对应所述语音信息的文本语句,并将所述语音信息输入至预设的第一机器学习模型中进行处理得到情绪类型标签,所述第一机器学习模型用于根据所述语音信息确定语音中的情绪类型,作为情绪类型标签;
判断单元130,用于判断所述文本语句与预存的用户具有购买产品意向的词汇库的词汇是否匹配成功以及判断所述情绪类型标签与预设的情绪类型标签是否一致。
第二执行单元140,用于若所述文本语句与预存的用户具有购买产品意向的词汇库的词汇匹配成功且所述情绪类型标签与预设的情绪类型标签一致,则基于预存的语音问题序列中的语音问题对所述用户终端进行语音提问。
可选地,所述装置,还包括:
第三执行单元,用于若所述文本语句与预存的用户具有购买产品意向的词汇库的词汇未匹配成功和/或所述情绪类型标签与预设的情绪类型标签不一致,则停止对所述用户终端进行语音提问。
可选地,所述第一机器学习模型采用以下方法预先训练:
获取用于对第一机器训练模型进行训练的第一样本数据,并将所述第一样本数据分成第一训练集和第一测试集;其中,所述第一样本数据中的每条样本数据均包括语音信息以及已知的情绪类型标签;
将所述第一训练集中的每条样本数据包含的语音信息作为所述第一机器训练模型的输入,将所述第一训练集中的每条样本数据包含的已知的情绪类型标签作为所述第一机器训练模型的输出,对所述第一机器训练模型进行训练;
将所述第一测试集中的每条样本数据包含的语音信息输入至训练好的所述第一机器训练模型,得到预测的情绪类型标签;
基于所述第一测试集中的每条样本数据包含的已知的情绪类型标签对训练好的所述第一机器训练模型进行校验;
若校验通过,则将训练好的所述第一机器训练模型识别为所述第一机器学习模型。
可选地,所述基于所述第一测试集中的每条样本数据包含的已知的情绪类型标签对训练好的所述第一机器训练模型进行校验的步骤,包括:
判断所述第一测试集中的每条样本数据包含的所述已知的情绪类型标签与所述预测的情绪类型标签是否一致对所述训练好的所述第一机器训练模型进行校验;
所述若校验通过,则将训练好的所述第一机器训练模型识别为所述第一机器学习模型的步骤,包括:
若所述第一测试集中的所述已知的情绪类型标签与所述预测的情绪类型标签一致的样本数据条数占所述第一测试集中样本数据条数的比例超过预定比例阈值,则将训练好的所述第一机器训练模型识别为所述第一机器学习模型。
可选地,所述第一执行单元,包括:
提取子单元,用于对所述语音信息进行特征提取得到语音特征向量;
第一处理子单元,用于将所述语音特征向量输入至预设的第二机器学习模型进行处理输出得到字符,其中,所述第二机器学习模型用于根据所述语音特征向量确定所述语音特征向量对应的所述字符;
第二处理子单元,用于将所述字符输入至预设的第三机器学习模型进行处理输出得到所述文本语句,其中,所述第三机器学习模型用于根据所述字符确定由所述字符生成的文本,作为所述文本语句。
上述装置中各个模块的功能和作用的实现过程具体详见上述基于语音信息的数据处理方法中对应步骤的实现过程,在此不再赘述。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种能够实现上述方法的计算机设备。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
参考图4,图4是根据本发明的这种实施方式的计算机设备400。图4显示的计算机设备400仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图4所示,计算机设备400以通用计算设备的形式表现。计算机设备400的组件可以包括但不限于:上述至少一个处理单元410、上述至少一个存储单元420、连接不同系统组件(包括存储单元420和处理单元410)的总线430。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元410执行,使得所述处理单元410执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元410可以执行如图1中所示的步骤S110:获取用户终端的语音信息;步骤S120:对所述语音信息进行处理得到对应所述语音信息的文本语句,并将所述语音信息输入至预设的第一机器学习模型中进行处理得到情绪类型标签,所述第一机器学习模型用于根据所述语音信息确定语音中的情绪类型,作为情绪类型标签;步骤S130:判断所述文本语句与预存的用户具有购买产品意向的词汇库的词汇是否匹配成功以及判断所述情绪类型标签与预设的情绪类型标签是否一致;步骤S140:若所述文本语句与预存的用户具有购买产品意向的词汇库的词汇匹配成功且所述情绪类型标签与预设的情绪类型标签一致,则基于预存的语音问题序列中的语音问题对所述用户终端进行语音提问。
存储单元420可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)4201和/或高速缓存存储单元4202,还可以进一步包括只读存储单元(ROM)4203。
存储单元420还可以包括具有一组(至少一个)程序模块4205的程序/实用工具4204,这样的程序模块4205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线430可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
计算机设备400也可以与一个或多个外部设备600(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该计算机设备400交互的设备通信,和/或与使得该计算机设备400能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口440进行。并且,计算机设备400还可以通过网络适配器460与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器460通过总线430与计算机设备400的其它模块通信。应当明白,尽管图中未示出,可以结合计算机设备400使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。
参考图5所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品500,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在计算机设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,上述附图仅是根据本发明示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
Claims (10)
1.一种基于语音信息的数据处理方法,其特征在于,所述方法包括:
获取用户终端的语音信息;
对所述语音信息进行处理得到对应所述语音信息的文本语句,并将所述语音信息输入至预设的第一机器学习模型中进行处理得到情绪类型标签,所述第一机器学习模型用于根据所述语音信息确定语音中的情绪类型,作为情绪类型标签;
判断所述文本语句与预存的用户具有购买产品意向的词汇库的词汇是否匹配成功以及判断所述情绪类型标签与预设的情绪类型标签是否一致;
若所述文本语句与预存的用户具有购买产品意向的词汇库的词汇匹配成功且所述情绪类型标签与预设的情绪类型标签一致,则基于预存的语音问题序列中的语音问题对所述用户终端进行语音提问。
2.根据权利要求1所述的方法,其特征在于,所述判断所述文本语句与预存的用户具有购买产品意向的词汇库的词汇是否匹配成功以及判断所述情绪类型标签与预设的情绪类型标签是否一致的步骤之后,还包括:
若所述文本语句与预存的用户具有购买产品意向的词汇库的词汇未匹配成功和/或所述情绪类型标签与预设的情绪类型标签不一致,则停止对所述用户终端进行语音提问。
3.根据权利要求1所述的方法,其特征在于,所述第一机器学习模型采用以下方法预先训练:
获取用于对第一机器训练模型进行训练的第一样本数据,并将所述第一样本数据分成第一训练集和第一测试集;其中,所述第一样本数据中的每条样本数据均包括语音信息以及已知的情绪类型标签;
将所述第一训练集中的每条样本数据包含的语音信息作为所述第一机器训练模型的输入,将所述第一训练集中的每条样本数据包含的已知的情绪类型标签作为所述第一机器训练模型的输出,对所述第一机器训练模型进行训练;
将所述第一测试集中的每条样本数据包含的语音信息输入至训练好的所述第一机器训练模型,得到预测的情绪类型标签;
基于所述第一测试集中的每条样本数据包含的已知的情绪类型标签对训练好的所述第一机器训练模型进行校验;
若校验通过,则将训练好的所述第一机器训练模型识别为所述第一机器学习模型。
4.根据权利要求3所述的方法,其特征在于,所述基于所述第一测试集中的每条样本数据包含的已知的情绪类型标签对训练好的所述第一机器训练模型进行校验的步骤,包括:
判断所述第一测试集中的每条样本数据包含的所述已知的情绪类型标签与所述预测的情绪类型标签是否一致对所述训练好的所述第一机器训练模型进行校验;
所述若校验通过,则将训练好的所述第一机器训练模型识别为所述第一机器学习模型的步骤,包括:
若所述第一测试集中的所述已知的情绪类型标签与所述预测的情绪类型标签一致的样本数据条数占所述第一测试集中样本数据条数的比例超过预定比例阈值,则将训练好的所述第一机器训练模型识别为所述第一机器学习模型。
5.根据权利要求1所述的方法,其特征在于,所述对所述语音信息进行处理得到对应所述语音信息的文本语句的步骤,包括:
对所述语音信息进行特征提取得到语音特征向量;
将所述语音特征向量输入至预设的第二机器学习模型进行处理输出得到字符,其中,所述第二机器学习模型用于根据所述语音特征向量确定所述语音特征向量对应的所述字符;
将所述字符输入至预设的第三机器学习模型进行处理输出得到所述文本语句,其中,所述第三机器学习模型用于根据所述字符确定由所述字符生成的文本,作为所述文本语句。
6.一种基于语音信息的数据处理装置,其特征在于,所述装置包括:
获取单元,用于获取用户终端的语音信息;
第一执行单元,用于对所述语音信息进行处理得到对应所述语音信息的文本语句,并将所述语音信息输入至预设的第一机器学习模型中进行处理得到情绪类型标签,所述第一机器学习模型用于根据所述语音信息确定语音中的情绪类型,作为情绪类型标签;
判断单元,用于判断所述文本语句与预存的用户具有购买产品意向的词汇库的词汇是否匹配成功以及判断所述情绪类型标签与预设的情绪类型标签是否一致;
第二执行单元,用于若所述文本语句与预存的用户具有购买产品意向的词汇库的词汇匹配成功且所述情绪类型标签与预设的情绪类型标签一致,则基于预存的语音问题序列中的语音问题对所述用户终端进行语音提问。
7.根据权利要求6所述的装置,其特征在于,所述装置,还包括:
第三执行单元,用于若所述文本语句与预存的用户具有购买产品意向的词汇库的词汇未匹配成功和/或所述情绪类型标签与预设的情绪类型标签不一致,则停止对所述用户终端进行语音提问。
8.根据权利要求6所述的装置,其特征在于,所述第一机器学习模型采用以下方法预先训练:
获取用于对第一机器训练模型进行训练的第一样本数据,并将所述第一样本数据分成第一训练集和第一测试集;其中,所述第一样本数据中的每条样本数据均包括语音信息以及已知的情绪类型标签;
将所述第一训练集中的每条样本数据包含的语音信息作为所述第一机器训练模型的输入,将所述第一训练集中的每条样本数据包含的已知的情绪类型标签作为所述第一机器训练模型的输出,对所述第一机器训练模型进行训练;
将所述第一测试集中的每条样本数据包含的语音信息输入至训练好的所述第一机器训练模型,得到预测的情绪类型标签;
基于所述第一测试集中的每条样本数据包含的已知的情绪类型标签对训练好的所述第一机器训练模型进行校验;
若校验通过,则将训练好的所述第一机器训练模型识别为所述第一机器学习模型。
9.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被所述处理器执行时,使得所述处理器执行如权利要求1至5中任一项所述的方法。
10.一种存储有计算机可读指令的存储介质,所述计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行如权利要求1至5中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910300810.1A CN110136723A (zh) | 2019-04-15 | 2019-04-15 | 基于语音信息的数据处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910300810.1A CN110136723A (zh) | 2019-04-15 | 2019-04-15 | 基于语音信息的数据处理方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110136723A true CN110136723A (zh) | 2019-08-16 |
Family
ID=67569974
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910300810.1A Pending CN110136723A (zh) | 2019-04-15 | 2019-04-15 | 基于语音信息的数据处理方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110136723A (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110648691A (zh) * | 2019-09-30 | 2020-01-03 | 北京淇瑀信息科技有限公司 | 基于语音的能量值的情绪识别方法、装置和系统 |
CN111160989A (zh) * | 2019-12-31 | 2020-05-15 | 中国银行股份有限公司 | 一种信息处理方法及装置 |
CN111161703A (zh) * | 2019-12-30 | 2020-05-15 | 深圳前海达闼云端智能科技有限公司 | 带语气的语音合成方法、装置、计算设备及存储介质 |
CN111177308A (zh) * | 2019-12-05 | 2020-05-19 | 上海云洽信息技术有限公司 | 一种文本内容的识别情绪方法 |
CN111429946A (zh) * | 2020-03-03 | 2020-07-17 | 深圳壹账通智能科技有限公司 | 语音情绪识别方法、装置、介质及电子设备 |
CN111651497A (zh) * | 2020-04-30 | 2020-09-11 | 北京大米科技有限公司 | 用户标签挖掘方法、装置、存储介质及电子设备 |
CN111883109A (zh) * | 2020-07-01 | 2020-11-03 | 北京猎户星空科技有限公司 | 语音信息处理及验证模型训练方法、装置、设备及介质 |
CN112560436A (zh) * | 2020-12-22 | 2021-03-26 | 作业帮教育科技(北京)有限公司 | 一种基于客服沟通数据的情绪识别方法、装置及电子设备 |
CN112948662A (zh) * | 2019-12-10 | 2021-06-11 | 北京搜狗科技发展有限公司 | 一种推荐方法、装置和用于推荐的装置 |
CN112992175A (zh) * | 2021-02-04 | 2021-06-18 | 深圳壹秘科技有限公司 | 一种语音区分方法及其语音记录装置 |
CN113297365A (zh) * | 2021-06-22 | 2021-08-24 | 中国平安财产保险股份有限公司 | 一种用户意向判定方法、装置、设备及存储介质 |
CN113676600A (zh) * | 2021-08-20 | 2021-11-19 | 上海华客信息科技有限公司 | 用户情绪识别及回复方法、系统、设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107516511A (zh) * | 2016-06-13 | 2017-12-26 | 微软技术许可有限责任公司 | 意图识别和情绪的文本到语音学习系统 |
CN108122552A (zh) * | 2017-12-15 | 2018-06-05 | 上海智臻智能网络科技股份有限公司 | 语音情绪识别方法和装置 |
CN109033257A (zh) * | 2018-07-06 | 2018-12-18 | 中国平安人寿保险股份有限公司 | 话术推荐方法、装置、计算机设备和存储介质 |
-
2019
- 2019-04-15 CN CN201910300810.1A patent/CN110136723A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107516511A (zh) * | 2016-06-13 | 2017-12-26 | 微软技术许可有限责任公司 | 意图识别和情绪的文本到语音学习系统 |
CN108122552A (zh) * | 2017-12-15 | 2018-06-05 | 上海智臻智能网络科技股份有限公司 | 语音情绪识别方法和装置 |
CN109033257A (zh) * | 2018-07-06 | 2018-12-18 | 中国平安人寿保险股份有限公司 | 话术推荐方法、装置、计算机设备和存储介质 |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110648691A (zh) * | 2019-09-30 | 2020-01-03 | 北京淇瑀信息科技有限公司 | 基于语音的能量值的情绪识别方法、装置和系统 |
CN110648691B (zh) * | 2019-09-30 | 2023-06-27 | 北京淇瑀信息科技有限公司 | 基于语音的能量值的情绪识别方法、装置和系统 |
CN111177308A (zh) * | 2019-12-05 | 2020-05-19 | 上海云洽信息技术有限公司 | 一种文本内容的识别情绪方法 |
CN111177308B (zh) * | 2019-12-05 | 2023-07-18 | 上海云洽信息技术有限公司 | 一种文本内容的识别情绪方法 |
CN112948662A (zh) * | 2019-12-10 | 2021-06-11 | 北京搜狗科技发展有限公司 | 一种推荐方法、装置和用于推荐的装置 |
CN111161703A (zh) * | 2019-12-30 | 2020-05-15 | 深圳前海达闼云端智能科技有限公司 | 带语气的语音合成方法、装置、计算设备及存储介质 |
CN111161703B (zh) * | 2019-12-30 | 2023-06-30 | 达闼机器人股份有限公司 | 带语气的语音合成方法、装置、计算设备及存储介质 |
CN111160989A (zh) * | 2019-12-31 | 2020-05-15 | 中国银行股份有限公司 | 一种信息处理方法及装置 |
CN111160989B (zh) * | 2019-12-31 | 2023-08-08 | 中国银行股份有限公司 | 一种信息处理方法及装置 |
WO2021174757A1 (zh) * | 2020-03-03 | 2021-09-10 | 深圳壹账通智能科技有限公司 | 语音情绪识别方法、装置、电子设备及计算机可读存储介质 |
CN111429946A (zh) * | 2020-03-03 | 2020-07-17 | 深圳壹账通智能科技有限公司 | 语音情绪识别方法、装置、介质及电子设备 |
CN111651497A (zh) * | 2020-04-30 | 2020-09-11 | 北京大米科技有限公司 | 用户标签挖掘方法、装置、存储介质及电子设备 |
CN111651497B (zh) * | 2020-04-30 | 2023-11-14 | 北京大米科技有限公司 | 用户标签挖掘方法、装置、存储介质及电子设备 |
CN111883109A (zh) * | 2020-07-01 | 2020-11-03 | 北京猎户星空科技有限公司 | 语音信息处理及验证模型训练方法、装置、设备及介质 |
CN111883109B (zh) * | 2020-07-01 | 2023-09-26 | 北京猎户星空科技有限公司 | 语音信息处理及验证模型训练方法、装置、设备及介质 |
CN112560436A (zh) * | 2020-12-22 | 2021-03-26 | 作业帮教育科技(北京)有限公司 | 一种基于客服沟通数据的情绪识别方法、装置及电子设备 |
CN112992175A (zh) * | 2021-02-04 | 2021-06-18 | 深圳壹秘科技有限公司 | 一种语音区分方法及其语音记录装置 |
CN112992175B (zh) * | 2021-02-04 | 2023-08-11 | 深圳壹秘科技有限公司 | 一种语音区分方法及其语音记录装置 |
CN113297365A (zh) * | 2021-06-22 | 2021-08-24 | 中国平安财产保险股份有限公司 | 一种用户意向判定方法、装置、设备及存储介质 |
CN113297365B (zh) * | 2021-06-22 | 2023-09-26 | 中国平安财产保险股份有限公司 | 一种用户意向判定方法、装置、设备及存储介质 |
CN113676600A (zh) * | 2021-08-20 | 2021-11-19 | 上海华客信息科技有限公司 | 用户情绪识别及回复方法、系统、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110136723A (zh) | 基于语音信息的数据处理方法及装置 | |
CN109003624B (zh) | 情绪识别方法、装置、计算机设备及存储介质 | |
CN109036384B (zh) | 语音识别方法和装置 | |
RU2672176C2 (ru) | Способ обработки естественного выражения, способ, устройство и система обработки и ответа | |
US10431203B2 (en) | Machine training for native language and fluency identification | |
CN109885713A (zh) | 基于语音情绪识别的表情图像推荐方法以及装置 | |
US9298811B2 (en) | Automated confirmation and disambiguation modules in voice applications | |
KR102030803B1 (ko) | 챗봇의 대화처리장치 및 그 방법 | |
CN110431626A (zh) | 使用成对比较进行重复语音查询中的超发音检测以改进语音识别 | |
CN107967916A (zh) | 确定语音关系 | |
WO2013172531A1 (ko) | 어학 학습 시스템 및 학습 방법 | |
CN109313892A (zh) | 稳健的语言识别方法和系统 | |
CN108431883A (zh) | 语言学习系统以及语言学习程序 | |
CN107437417A (zh) | 基于循环神经网络语音识别中语音数据增强方法及装置 | |
CN104765996A (zh) | 声纹密码认证方法及系统 | |
Kopparapu | Non-linguistic analysis of call center conversations | |
KR20210059995A (ko) | 학습 기반의 외국어 말하기 평가 방법 및 그 시스템 | |
CN114330371A (zh) | 基于提示学习的会话意图识别方法、装置和电子设备 | |
CN110503956A (zh) | 语音识别方法、装置、介质及电子设备 | |
US11682318B2 (en) | Methods and systems for assisting pronunciation correction | |
CN109697975B (zh) | 一种语音评价方法及装置 | |
CN110647613A (zh) | 一种课件构建方法、装置、服务器和存储介质 | |
EP3573050B1 (en) | Computing platform and method for modifying voice data | |
KR20210051523A (ko) | 도메인 자동 분류 대화 시스템 | |
CN112951207B (zh) | 口语评测方法、装置及相关产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
CB02 | Change of applicant information |
Address after: 201, room 518000, building A, No. 1, front Bay Road, Qianhai Shenzhen Guangdong Shenzhen Hong Kong cooperation zone (Qianhai business secretary) Applicant after: ONECONNECT FINANCIAL TECHNOLOGY Co.,Ltd. (SHANGHAI) Address before: 518000 Guangdong city of Shenzhen province Qianhai Shenzhen Hong Kong cooperation zone before Bay Road No. 1 building 201 room A Applicant before: ONECONNECT FINANCIAL TECHNOLOGY Co.,Ltd. (SHANGHAI) |
|
CB02 | Change of applicant information | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190816 |
|
WD01 | Invention patent application deemed withdrawn after publication |