CN113571062A - 基于语音数据的客户标签识别方法、装置及计算设备 - Google Patents
基于语音数据的客户标签识别方法、装置及计算设备 Download PDFInfo
- Publication number
- CN113571062A CN113571062A CN202010352193.2A CN202010352193A CN113571062A CN 113571062 A CN113571062 A CN 113571062A CN 202010352193 A CN202010352193 A CN 202010352193A CN 113571062 A CN113571062 A CN 113571062A
- Authority
- CN
- China
- Prior art keywords
- voice
- tag
- client
- voice data
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 238000004458 analytical method Methods 0.000 claims abstract description 19
- 238000012549 training Methods 0.000 claims description 65
- 239000013598 vector Substances 0.000 claims description 16
- 238000004891 communication Methods 0.000 claims description 15
- 238000013527 convolutional neural network Methods 0.000 claims description 8
- 238000003745 diagnosis Methods 0.000 claims description 8
- 230000007246 mechanism Effects 0.000 claims description 8
- 238000011156 evaluation Methods 0.000 claims description 7
- 238000013518 transcription Methods 0.000 claims description 7
- 230000035897 transcription Effects 0.000 claims description 7
- 239000012634 fragment Substances 0.000 claims 1
- 238000000605 extraction Methods 0.000 abstract description 11
- 238000001556 precipitation Methods 0.000 abstract description 9
- 238000013519 translation Methods 0.000 abstract description 8
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 238000005516 engineering process Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000005065 mining Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 238000007418 data mining Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 241001417490 Sillaginidae Species 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000013049 sediment Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
- G10L15/144—Training of HMMs
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0631—Creating reference templates; Clustering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明实施例涉及人工智能技术领域,公开了一种基于语音数据的客户标签识别方法、装置及计算设备,该方法包括:实时获取客户的语音数据并根据所述语音数据识别对应的业务类型;根据所述业务类型将所述语音数据加载至训练后的语音标签识别模型;调用训练后的所述语音标签识别模型对所述语音数据进行客户标签解析,获取对应的客户标签,包括:将所述语音数据切分成长度固定的小片段,所述小片段之前有固定长度的重合部分,并将所述小片段转写成文本数据;对所述文本数据进行客户标签解析,获取对应的客户标签。通过上述方式,本发明实施例能够实现语音的实时转译解析、标签自动提取沉淀,突破了传统标签数据更新周期的瓶颈,创建了实时标签。
Description
技术领域
本发明实施例涉及人工智能技术领域,具体涉及一种基于语音数据的客户标签识别方法、装置及计算设备。
背景技术
当前企业级客户标签识别技术使用的数据源主要是沉淀于企业各个业务系统中的反映客户身份、客户价值、客户购买记录和客户社会关系网络等结构化数据,而普遍忽视了在经营客户过程中沉淀下来的规模庞大、内容丰富的交互数据。
因为数据源、算法和平台的限制,企业级客户标签库依赖于在关系型数据库中对结构化数据进行挖掘,一般使用经典的逻辑回归、随机森立、决策树等算法,并在企业级数据挖掘平台进行部署落地。
当前客户标签识别技术缺少主观意愿和体验的刻画。当前客户标签系统主要获取的是用户客观产生的行为结果来描述用户行为特征,推测客户偏好。但对于客户主观需求、兴趣偏好、服务体验、情绪等方面的标签鲜有覆盖。当前客户标签识别技术较多依赖于营销/客服人员经验和素质。目前仍有大量客服和营销标签依赖于营销/客服人员手工在系统上进行客户标记,会产生额外的人力成本,且数据质量参差不齐。传统数据挖掘技术在处理语音和文本等非结构化数据进行客户标签构建时,在数据处理效率和准确性方面,还不能百分百支撑企业一线营销/服务需求。
发明内容
鉴于上述问题,本发明实施例提供了一种基于语音数据的客户标签识别方法、装置及计算设备,克服了上述问题或者至少部分地解决了上述问题。
根据本发明实施例的一个方面,提供了一种基于语音数据的客户标签识别方法,所述方法包括:实时获取客户的语音数据并根据所述语音数据识别对应的业务类型;根据所述业务类型将所述语音数据加载至训练后的语音标签识别模型;调用训练后的所述语音标签识别模型对所述语音数据进行客户标签解析,获取对应的客户标签,包括:将所述语音数据切分成长度固定的小片段,所述小片段之前有固定长度的重合部分,并将所述小片段转写成文本数据;对所述文本数据进行客户标签解析,获取对应的客户标签。
在一种可选的方式中,所述根据所述业务类型将所述语音数据加载至训练后的语音标签识别模型之前,包括:获取历史语音数据,并根据所述历史语音数据获取人工识别的客户标签以及对应的业务类型,形成训练样本;根据所述训练样本对所述语音标签识别模型进行训练,获取训练后的所述语音标签识别模型。
在一种可选的方式中,所述根据所述训练样本对所述语音标签识别模型进行训练,获取训练后的所述语音标签识别模型,包括:将所述历史语音数据转写为历史文本数据;根据所述业务类型对所述历史文本数据进行特征信息提取;根据所述特征信息应用Bert模型对所述历史文本数据进行标签识别训练;引入自注意力机制进行充分学习,获取所述Bert模型的参数,得到训练后的所述语音标签识别模型。
在一种可选的方式中,所述根据所述训练样本对所述语音标签识别模型进行训练,获取训练后的所述语音标签识别模型,包括:将所述训练样本划分为初始参数样本、调整参数样本以及评估泛化样本;应用所述初始参数样本对所述语音标签识别模型进行训练,获取所述语音标签识别模型的初始参数;应用所述调整参数样本对所述语音标签识别模型进行参数调整;应用所述评估泛化样本对参数调整后的所述语音标签识别模型进行泛化能力评估,获取训练后的所述语音标签识别模型。
在一种可选的方式中,所述将所述小片段转写成文本数据,包括:对所述小片段进行特征提取,转化为固定维度的向量;应用训练好的隐式马尔可夫模型根据所述向量将所述小片段识别为音素;通过训练好的积卷神经网络将所述音素识别为所述文本数据;将双声道语音数据中两个声道分别进行转换以区分角色。
在一种可选的方式中,所述对所述文本数据进行客户标签解析,获取对应的客户标签,包括:对所述文本数据进行特征信息提取;根据所述特征信息对所述文本数据进行质量诊断和预处理;调用Bert模型对预处理后的所述文本数据进行客户标签解析,获取对应的客户标签。
在一种可选的方式中,所述对所述文本数据进行客户标签解析,获取对应的客户标签之后,包括:将所述客户标签与所述客户的实时业务关联;将所述客户标签存入客户标签库。
根据本发明实施例的另一个方面,提供了一种基于语音数据的客户标签识别装置,所述装置包括:语音获取单元,用于实时获取客户的语音数据并根据所述语音数据识别对应的业务类型;模型加载单元,用于根据所述业务类型将所述语音数据加载至训练后的语音标签识别模型;标签识别单元,用于调用训练后的所述语音标签识别模型对所述语音数据进行客户标签解析,获取对应的客户标签,所述标签识别单元包括:语音转写单元和标签解析单元,所述语音转写单元用于将所述语音数据切分成长度固定的小片段,所述小片段之前有固定长度的重合部分,并将所述小片段转写成文本数据;所述标签解析单元用于对所述文本数据进行客户标签解析,获取对应的客户标签。
根据本发明实施例的另一方面,提供了一种计算设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行上述基于语音数据的客户标签识别方法的步骤。
根据本发明实施例的又一方面,提供了一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使所述处理器执行上述基于语音数据的客户标签识别方法的步骤。
本发明实施例通过实时获取客户的语音数据并根据所述语音数据识别对应的业务类型;根据所述业务类型将所述语音数据加载至训练后的语音标签识别模型;调用训练后的所述语音标签识别模型对所述语音数据进行客户标签解析,获取对应的客户标签,包括:将所述语音数据切分成长度固定的小片段,所述小片段之前有固定长度的重合部分,并将所述小片段转写成文本数据;对所述文本数据进行客户标签解析,获取对应的客户标签,能够实现语音的实时转译解析、标签自动提取沉淀,突破了传统标签数据更新周期的瓶颈,创建了实时标签。
上述说明仅是本发明实施例技术方案的概述,为了能够更清楚了解本发明实施例的技术手段,而可依照说明书的内容予以实施,并且为了让本发明实施例的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了本发明实施例提供的基于语音数据的客户标签识别方法的流程示意图;
图2示出了本发明实施例提供的基于语音数据的客户标签识别方法的客户标签识别模型的训练流程示意图;
图3示出了本发明实施例提供的基于语音数据的客户标签识别方法的应用客户标签识别模型进行客户标签识别的流程示意图;
图4示出了本发明实施例提供的又一基于语音数据的客户标签识别方法的流程示意图;
图5示出了本发明实施例提供的基于语音数据的客户标签识别装置的结构示意图;
图6示出了本发明实施例提供的计算设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本发明,并且能够将本发明的范围完整的传达给本领域的技术人员。
图1示出了本发明实施例提供的基于语音数据的客户标签识别方法的流程示意图。该基于语音数据的客户标签识别方法主要应用于服务器。如图1所示,该基于语音数据的客户标签识别方法包括:
步骤S11:实时获取客户的语音数据并根据所述语音数据识别对应的业务类型。
具体地,实时获取客户呼入或呼出的语音数据,在客户呼入或呼出时地客户语音进行录音,获取对应的录音文件,该录音文件即为要获取的语音数据。根据语音数据识别对应的业务类型,业务类型可以为流量业务类型、宽带业务类型等。
步骤S12:根据所述业务类型将所述语音数据加载至训练后的语音标签识别模型。
在本发明实施例中,在步骤S12之前,对语音标签识别模型进行训练,获取训练后的语音标签识别模型。如图2所示,具体包括:
步骤S121:获取历史语音数据,并根据所述历史语音数据获取人工识别的客户标签以及对应的业务类型,形成训练样本。
从呼叫中心(Call-Center)获取一定数量的历史语音数据,人工对听取历史语音数据并识别出对应的客户标签,并对历史语音数据进行业务类型识别。历史语音数据和获取的对应的客户标签组成训练样本。
步骤S122:根据所述训练样本对所述语音标签识别模型进行训练,获取训练后的所述语音标签识别模型。
在本发明实施例中,首先将所述历史语音数据转写为历史文本数据。通过深度学习的自动语音识别(Automatic Speech Recognition,ASR)技术将历史语音数据转写为历史文本数据并进行存储,具体地,将录音文件切分成长度固定的小片段,小片段之前有固定长度的重合部分,之后对该小片段进行特征提取,转化为固定维度的向量,应用训练好的隐式马尔可夫模型根据向量将语音数据中一系列的小片段识别为音素,应用训练好的积卷神经网络将一连串的音素识别为文本数据,最后识别主叫和被叫角色以降低噪声。语音数据中包括主叫和被叫两个声道,本发明实施例也可以将双声道语音数据中两个声道分别转写成文本数据,方便区分主叫和被叫角色,以及降低噪声。
本发明实施例还将文本数据按照不同的业务主题进行细分,不同的细分领域后续分别应用不同参数的语音标签识别模型进行训练,以提升语音标签识别模型的准确性。还对文本数据进行预处理,主要有分词、清洗、标准化。分词是指将文本划分为一系列的单词或词语;清洗包括去除标点符号、去除没有什么特定含义的停用词、去除常用词、对包含英文文本进行拼写检查;标准化包括对文本中的英文单词进行大小写转化、词干提取与词形还原。
然后根据所述业务类型对所述历史文本数据进行特征信息提取。不同的业务类型提取的特征信息可能不相同。在本发明实施例中,还对特征信息进行语料集分析与加工,即对特征信息(语料)进行质量诊断和预处理,如,检测出模糊的特征信息并进行清除等。本发明实施例还定义业务类型下的客户标签定义集,包括但不限于用户主观需求标签、用户体验标签以及用户态度标签。如表1为宽带营销服务业务主题下的用户标签定义集,其中包括用户主观需求标签“是否需要办理”,用户体验标签“不办理原因”,用户态度标签“好感/反感”等类型。
表1宽带营销服务业务主题下的用户标签定义集
同时还进行正则初判,即预测与标签对应的可能的属性项,如,对应标签“异网宽带到期时间”,其属性项可能有4种情况:1-3个月内到期;2-1年内到期;3-1年以上到期;0-其它。基于以上用户标签定义集进行人工标注,即依靠人工方式准备足够规模的训练样本,不同标签训练所需最低文本数据样本规模不一样,所需样本规模根据语料分析结果而定。
最后根据所述特征信息应用Bert模型对所述历史文本数据进行标签识别训练;引入自注意力机制进行充分学习,获取所述Bert模型的参数,得到训练后的所述语音标签识别模型。来自翻译器(Transformer)的双向编码器表示(Bidirectional EncoderRepresentations from Transformers,Bert)模型的参数设置与客户标签识别的业务映射如表2所示。
表2 Bert相关参数设置与客户标签识别的业务映射
在本发明实施例中,将所述训练样本划分为初始参数样本、调整参数样本以及评估泛化样本;应用所述初始参数样本对所述语音标签识别模型进行训练,获取所述语音标签识别模型的初始参数;应用所述调整参数样本对所述语音标签识别模型进行参数调整;应用所述评估泛化样本对参数调整后的所述语音标签识别模型进行泛化能力评估,获取训练后的所述语音标签识别模型。例如,将60%的训练样本为训练集用于得到初始参数,20%的训练样本应用于调整超参数以取得参数最好的阈值,20%的训练样本应用于评估泛化能力。
本发明实施例通过应用Bert模型根据历史文本数据进行客户标签识别训练,并引入Self-Attention(自注意力)机制,让Bert模型对重要信息重点关注并充分学习,能够更为深刻理解文本上下文并作出预测,使得意图识别、相似度匹配、文本分类任务在文本数据的客户标签识别中更为高效。Bert模型具有模型效果好、普适性强的特点,结合深度神经网络(DNN)、softmax回归等挖掘技术来提高语音文本数据进行标签转化的准确率。
步骤S13:调用训练后的所述语音标签识别模型对所述语音数据进行客户标签解析,获取对应的客户标签。
在本发明实施例中,在步骤S13中,应用训练后的客户标签识别模型进行客户标签识别的流程如图3所示,包括:
步骤S131:将所述语音数据切分成长度固定的小片段,所述小片段之前有固定长度的重合部分,并将所述小片段转写成文本数据。
在本发明实施例中,对所述小片段进行特征提取,转化为固定维度的向量;应用训练好的隐式马尔可夫模型根据所述向量将所述小片段识别为音素;通过训练好的积卷神经网络将所述音素识别为所述文本数据;将双声道语音数据中两个声道分别进行转换以区分角色。更具体地与前述的将历史语音数据转写为历史文本数据相同,在此不再赘述。
步骤S132:对所述文本数据进行客户标签解析,获取对应的客户标签。
对所述文本数据进行特征信息提取;根据所述特征信息对所述文本数据进行质量诊断和预处理;调用Bert模型对预处理后的所述文本数据进行客户标签解析,获取对应的客户标签。其中,Bert模型应用的是训练后的Bert模型。如此,本发明实施例将企业沉淀的客户交互语音文件利用语音识别技术转化为可进一步解析的文本文件,实现语音类非结构化文件数据转化为半结构化数据存储;并在获取大量文本数据的基础上,利用文本挖掘技术,包括Bert、深度神经网络(DNN)、softmax回归、wordbag等实现对大量语音文本的客户标签提取,通过建设一个自动化客户标签识别装置,连接到业务系统中,输入语音文件数据,经过一系列计算环节,最终自动化生成客户标签。
本发明实施例利用人工智能先进算法,基于语音文本数据处理,挖掘客户需求、意愿、态度、偏好、体验等方面的标签,应用于精准营销和客户服务方面。
在本发明实施例中,获取到客户标签之后,将所述客户标签与所述客户的实时业务关联,为实时业务提供支撑。同时还将获取到的客户标签存入客户标签库,如此,可以方便下次检测到客户呼入或呼出时根据客户标签库进行客户标签识别,也可以在需要时为其它服务渠道提供对应的客户标签。
本发明实施例完整的客户标签识别方法如图4所示,包括:
步骤S401:检测到客户呼入/呼出。
检测到客户进行呼入或呼出时,对客户呼入/呼出的内容进行录音。
步骤S402:获取语音数据。
获取客户呼入/呼出时的录音文件,该录音文件即为要获取的语音数据。
步骤S403:业务类型识别。
对获取的语音数据进行业务类型识别,以便后续选择对应的客户标称识别模型。
步骤S404:将语音数据转写成文本数据。
将获取的语音数据转写成文本数据,具体的转写方法与前面的介绍相同,在此不再赘述。
步骤S405:进行客户标签识别。
根据文本数据进行客户标签识别,具体识别方法与前面的介绍相同,在此不再赘述。另外,步骤S404和步骤S405封装在客户标签识别模型中。应用时,可以根据业务类型将训练生成的模型参数快速加载到对应的客户标签识别模型中,生成版本的客户标签识别模型,将语音数据输入该客户标签识别模型进行实时调用,进行客户标签解析,获取对应的客户标签。封装的实时的客户标签识别装置,做到了用户需求、兴趣偏好、情绪等标签的实时提取和沉淀,在标签数据及时性、精确性上有较大改善,进而帮助提高营销转化率。
步骤S406:实时业务支撑。
将识别的客户标签与实时业务关联,为实时业务提供支撑。
步骤S407:存入客户标签库。
将识别的客户标签存入客户标签库,方便后续直接使用该客户标签。
步骤S408:下次呼入/呼出。
下次呼入/呼出时,直接从客户标签库中查找对应的客户标签直接使用即可,不需要重复进行客户标签识别。
步骤S409:其它服务渠道。
其它服务渠道需要应用该客户标签时,也可以直接从客户标签库中查找并直接使用。
本发明实施例结合语音识别技术、自然语言处理技术,锤炼语音文本挖掘模型,进而识别用户主观需求、偏好、情绪等特征标签的方法,使得可以从语音数据中,合理提取与客户语音互动过程中蕴藏的丰富信息,为传统标签体系引入新型数据来源,帮助完善了传统的标签体系,实现了文本实时转译解析、标签自动提取沉淀,突破了传统日、月标签数据更新周期的瓶颈,创建了实时标签。
本发明实施例通过实时获取客户的语音数据并根据所述语音数据识别对应的业务类型;根据所述业务类型将所述语音数据加载至训练后的语音标签识别模型;调用训练后的所述语音标签识别模型对所述语音数据进行客户标签解析,获取对应的客户标签,包括:将所述语音数据切分成长度固定的小片段,所述小片段之前有固定长度的重合部分,并将所述小片段转写成文本数据;对所述文本数据进行客户标签解析,获取对应的客户标签,能够实现语音的实时转译解析、标签自动提取沉淀,突破了传统标签数据更新周期的瓶颈,创建了实时标签。
图5示出了本发明实施例的基于语音数据的客户标签识别装置的结构示意图。如图5所示,该基于语音数据的客户标签识别装置包括:语音获取单元51、模型加载单元52、标签识别单元53以及模型训练单元54,标签识别单元53包括语音转写单元531和标签解析单元532。其中:
语音获取单元51用于实时获取客户的语音数据并根据所述语音数据识别对应的业务类型;模型加载单元52用于根据所述业务类型将所述语音数据加载至训练后的语音标签识别模型;标签识别单元53用于调用训练后的所述语音标签识别模型对所述语音数据进行客户标签解析,获取对应的客户标签,所述标签识别单元53包括:语音转写单元531和标签解析单元531,所述语音转写单元531用于将所述语音数据切分成长度固定的小片段,所述小片段之前有固定长度的重合部分,并将所述小片段转写成文本数据;所述标签解析单元532用于对所述文本数据进行客户标签解析,获取对应的客户标签。
在一种可选的方式中,模型训练单元54用于:获取历史语音数据,并根据所述历史语音数据获取人工识别的客户标签以及对应的业务类型,形成训练样本;根据所述训练样本对所述语音标签识别模型进行训练,获取训练后的所述语音标签识别模型。
在一种可选的方式中,模型训练单元54用于:将所述历史语音数据转写为历史文本数据;根据所述业务类型对所述历史文本数据进行特征信息提取;根据所述特征信息应用Bert模型对所述历史文本数据进行标签识别训练;引入自注意力机制进行充分学习,获取所述Bert模型的参数,得到训练后的所述语音标签识别模型。
在一种可选的方式中,模型训练单元54还用于:将所述训练样本划分为初始参数样本、调整参数样本以及评估泛化样本;应用所述初始参数样本对所述语音标签识别模型进行训练,获取所述语音标签识别模型的初始参数;应用所述调整参数样本对所述语音标签识别模型进行参数调整;应用所述评估泛化样本对参数调整后的所述语音标签识别模型进行泛化能力评估,获取训练后的所述语音标签识别模型。
在一种可选的方式中,语音转写单元531用于:对所述小片段进行特征提取,转化为固定维度的向量;应用训练好的隐式马尔可夫模型根据所述向量将所述小片段识别为音素;通过训练好的积卷神经网络将所述音素识别为所述文本数据;将双声道语音数据中两个声道分别进行转换以区分角色。
在一种可选的方式中,标签解析单元532用于:对所述文本数据进行特征信息提取;根据所述特征信息对所述文本数据进行质量诊断和预处理;调用Bert模型对预处理后的所述文本数据进行客户标签解析,获取对应的客户标签。
在一种可选的方式中,标签识别单元53还用于:将所述客户标签与所述客户的实时业务关联;将所述客户标签存入客户标签库。
本发明实施例通过实时获取客户的语音数据并根据所述语音数据识别对应的业务类型;根据所述业务类型将所述语音数据加载至训练后的语音标签识别模型;调用训练后的所述语音标签识别模型对所述语音数据进行客户标签解析,获取对应的客户标签,包括:将所述语音数据切分成长度固定的小片段,所述小片段之前有固定长度的重合部分,并将所述小片段转写成文本数据;对所述文本数据进行客户标签解析,获取对应的客户标签,能够实现语音的实时转译解析、标签自动提取沉淀,突破了传统标签数据更新周期的瓶颈,创建了实时标签。
本发明实施例提供了一种非易失性计算机存储介质,所述计算机存储介质存储有至少一可执行指令,该计算机可执行指令可执行上述任意方法实施例中的基于语音数据的客户标签识别方法。
可执行指令具体可以用于使得处理器执行以下操作:
实时获取客户的语音数据并根据所述语音数据识别对应的业务类型;
根据所述业务类型将所述语音数据加载至训练后的语音标签识别模型;
调用训练后的所述语音标签识别模型对所述语音数据进行客户标签解析,获取对应的客户标签,包括:
将所述语音数据切分成长度固定的小片段,所述小片段之前有固定长度的重合部分,并将所述小片段转写成文本数据;
对所述文本数据进行客户标签解析,获取对应的客户标签。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
获取历史语音数据,并根据所述历史语音数据获取人工识别的客户标签以及对应的业务类型,形成训练样本;
根据所述训练样本对所述语音标签识别模型进行训练,获取训练后的所述语音标签识别模型。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
将所述历史语音数据转写为历史文本数据;
根据所述业务类型对所述历史文本数据进行特征信息提取;
根据所述特征信息应用Bert模型对所述历史文本数据进行标签识别训练;
引入自注意力机制进行充分学习,获取所述Bert模型的参数,得到训练后的所述语音标签识别模型。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
将所述训练样本划分为初始参数样本、调整参数样本以及评估泛化样本;
应用所述初始参数样本对所述语音标签识别模型进行训练,获取所述语音标签识别模型的初始参数;
应用所述调整参数样本对所述语音标签识别模型进行参数调整;
应用所述评估泛化样本对参数调整后的所述语音标签识别模型进行泛化能力评估,获取训练后的所述语音标签识别模型。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
对所述小片段进行特征提取,转化为固定维度的向量;
应用训练好的隐式马尔可夫模型根据所述向量将所述小片段识别为音素;
通过训练好的积卷神经网络将所述音素识别为所述文本数据;
将双声道语音数据中两个声道分别进行转换以区分角色。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
对所述文本数据进行特征信息提取;
根据所述特征信息对所述文本数据进行质量诊断和预处理;
调用Bert模型对预处理后的所述文本数据进行客户标签解析,获取对应的客户标签。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
将所述客户标签与所述客户的实时业务关联;
将所述客户标签存入客户标签库。
本发明实施例通过实时获取客户的语音数据并根据所述语音数据识别对应的业务类型;根据所述业务类型将所述语音数据加载至训练后的语音标签识别模型;调用训练后的所述语音标签识别模型对所述语音数据进行客户标签解析,获取对应的客户标签,包括:将所述语音数据切分成长度固定的小片段,所述小片段之前有固定长度的重合部分,并将所述小片段转写成文本数据;对所述文本数据进行客户标签解析,获取对应的客户标签,能够实现语音的实时转译解析、标签自动提取沉淀,突破了传统标签数据更新周期的瓶颈,创建了实时标签。
本发明实施例提供了一种计算机程序产品,所述计算机程序产品包括存储在计算机存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使所述计算机执行上述任意方法实施例中的基于语音数据的客户标签识别方法。
可执行指令具体可以用于使得处理器执行以下操作:
实时获取客户的语音数据并根据所述语音数据识别对应的业务类型;
根据所述业务类型将所述语音数据加载至训练后的语音标签识别模型;
调用训练后的所述语音标签识别模型对所述语音数据进行客户标签解析,获取对应的客户标签,包括:
将所述语音数据切分成长度固定的小片段,所述小片段之前有固定长度的重合部分,并将所述小片段转写成文本数据;
对所述文本数据进行客户标签解析,获取对应的客户标签。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
获取历史语音数据,并根据所述历史语音数据获取人工识别的客户标签以及对应的业务类型,形成训练样本;
根据所述训练样本对所述语音标签识别模型进行训练,获取训练后的所述语音标签识别模型。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
将所述历史语音数据转写为历史文本数据;
根据所述业务类型对所述历史文本数据进行特征信息提取;
根据所述特征信息应用Bert模型对所述历史文本数据进行标签识别训练;
引入自注意力机制进行充分学习,获取所述Bert模型的参数,得到训练后的所述语音标签识别模型。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
将所述训练样本划分为初始参数样本、调整参数样本以及评估泛化样本;
应用所述初始参数样本对所述语音标签识别模型进行训练,获取所述语音标签识别模型的初始参数;
应用所述调整参数样本对所述语音标签识别模型进行参数调整;
应用所述评估泛化样本对参数调整后的所述语音标签识别模型进行泛化能力评估,获取训练后的所述语音标签识别模型。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
对所述小片段进行特征提取,转化为固定维度的向量;
应用训练好的隐式马尔可夫模型根据所述向量将所述小片段识别为音素;
通过训练好的积卷神经网络将所述音素识别为所述文本数据;
将双声道语音数据中两个声道分别进行转换以区分角色。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
对所述文本数据进行特征信息提取;
根据所述特征信息对所述文本数据进行质量诊断和预处理;
调用Bert模型对预处理后的所述文本数据进行客户标签解析,获取对应的客户标签。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
将所述客户标签与所述客户的实时业务关联;
将所述客户标签存入客户标签库。
本发明实施例通过实时获取客户的语音数据并根据所述语音数据识别对应的业务类型;根据所述业务类型将所述语音数据加载至训练后的语音标签识别模型;调用训练后的所述语音标签识别模型对所述语音数据进行客户标签解析,获取对应的客户标签,包括:将所述语音数据切分成长度固定的小片段,所述小片段之前有固定长度的重合部分,并将所述小片段转写成文本数据;对所述文本数据进行客户标签解析,获取对应的客户标签,能够实现语音的实时转译解析、标签自动提取沉淀,突破了传统标签数据更新周期的瓶颈,创建了实时标签。
图6示出了本发明实施例提供的计算设备的结构示意图,本发明具体实施例并不对设备的具体实现做限定。
如图6所示,该计算设备可以包括:处理器(processor)602、通信接口(Communications Interface)604、存储器(memory)606、以及通信总线608。
其中:处理器602、通信接口604、以及存储器606通过通信总线608完成相互间的通信。通信接口604,用于与其它设备比如客户端或其它服务器等的网元通信。处理器602,用于执行程序610,具体可以执行上述基于语音数据的客户标签识别方法实施例中的相关步骤。
具体地,程序610可以包括程序代码,该程序代码包括计算机操作指令。
处理器602可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或各个集成电路。设备包括的一个或各个处理器,可以是同一类型的处理器,如一个或各个CPU;也可以是不同类型的处理器,如一个或各个CPU以及一个或各个ASIC。
存储器606,用于存放程序610。存储器606可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序610具体可以用于使得处理器602执行以下操作:
实时获取客户的语音数据并根据所述语音数据识别对应的业务类型;
根据所述业务类型将所述语音数据加载至训练后的语音标签识别模型;
调用训练后的所述语音标签识别模型对所述语音数据进行客户标签解析,获取对应的客户标签,包括:
将所述语音数据切分成长度固定的小片段,所述小片段之前有固定长度的重合部分,并将所述小片段转写成文本数据;
对所述文本数据进行客户标签解析,获取对应的客户标签。
在一种可选的方式中,所述程序610使所述处理器执行以下操作:
获取历史语音数据,并根据所述历史语音数据获取人工识别的客户标签以及对应的业务类型,形成训练样本;
根据所述训练样本对所述语音标签识别模型进行训练,获取训练后的所述语音标签识别模型。
在一种可选的方式中,所述程序610使所述处理器执行以下操作:
将所述历史语音数据转写为历史文本数据;
根据所述业务类型对所述历史文本数据进行特征信息提取;
根据所述特征信息应用Bert模型对所述历史文本数据进行标签识别训练;
引入自注意力机制进行充分学习,获取所述Bert模型的参数,得到训练后的所述语音标签识别模型。
在一种可选的方式中,所述程序610使所述处理器执行以下操作:
将所述训练样本划分为初始参数样本、调整参数样本以及评估泛化样本;
应用所述初始参数样本对所述语音标签识别模型进行训练,获取所述语音标签识别模型的初始参数;
应用所述调整参数样本对所述语音标签识别模型进行参数调整;
应用所述评估泛化样本对参数调整后的所述语音标签识别模型进行泛化能力评估,获取训练后的所述语音标签识别模型。
在一种可选的方式中,所述程序610使所述处理器执行以下操作:
对所述小片段进行特征提取,转化为固定维度的向量;
应用训练好的隐式马尔可夫模型根据所述向量将所述小片段识别为音素;
通过训练好的积卷神经网络将所述音素识别为所述文本数据;
将双声道语音数据中两个声道分别进行转换以区分角色。
在一种可选的方式中,所述程序610使所述处理器执行以下操作:
对所述文本数据进行特征信息提取;
根据所述特征信息对所述文本数据进行质量诊断和预处理;
调用Bert模型对预处理后的所述文本数据进行客户标签解析,获取对应的客户标签。
在一种可选的方式中,所述程序610使所述处理器执行以下操作:
将所述客户标签与所述客户的实时业务关联;
将所述客户标签存入客户标签库。
本发明实施例通过实时获取客户的语音数据并根据所述语音数据识别对应的业务类型;根据所述业务类型将所述语音数据加载至训练后的语音标签识别模型;调用训练后的所述语音标签识别模型对所述语音数据进行客户标签解析,获取对应的客户标签,包括:将所述语音数据切分成长度固定的小片段,所述小片段之前有固定长度的重合部分,并将所述小片段转写成文本数据;对所述文本数据进行客户标签解析,获取对应的客户标签,能够实现语音的实时转译解析、标签自动提取沉淀,突破了传统标签数据更新周期的瓶颈,创建了实时标签。
在此提供的算法或显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明实施例也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本发明并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明实施例的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。上述实施例中的步骤,除有特殊说明外,不应理解为对执行顺序的限定。
Claims (10)
1.一种基于语音数据的客户标签识别方法,其特征在于,所述方法包括:
实时获取客户的语音数据并根据所述语音数据识别对应的业务类型;
根据所述业务类型将所述语音数据加载至训练后的语音标签识别模型;
调用训练后的所述语音标签识别模型对所述语音数据进行客户标签解析,获取对应的客户标签,包括:
将所述语音数据切分成长度固定的小片段,所述小片段之前有固定长度的重合部分,并将所述小片段转写成文本数据;
对所述文本数据进行客户标签解析,获取对应的客户标签。
2.根据权利要求1所述的方法,其特征在于,所述根据所述业务类型将所述语音数据加载至训练后的语音标签识别模型之前,包括:
获取历史语音数据,并根据所述历史语音数据获取人工识别的客户标签以及对应的业务类型,形成训练样本;
根据所述训练样本对所述语音标签识别模型进行训练,获取训练后的所述语音标签识别模型。
3.根据权利要求2所述的方法,其特征在于,所述根据所述训练样本对所述语音标签识别模型进行训练,获取训练后的所述语音标签识别模型,包括:
将所述历史语音数据转写为历史文本数据;
根据所述业务类型对所述历史文本数据进行特征信息提取;
根据所述特征信息应用Bert模型对所述历史文本数据进行标签识别训练;
引入自注意力机制进行充分学习,获取所述Bert模型的参数,得到训练后的所述语音标签识别模型。
4.根据权利要求2所述的方法,其特征在于,所述根据所述训练样本对所述语音标签识别模型进行训练,获取训练后的所述语音标签识别模型,包括:
将所述训练样本划分为初始参数样本、调整参数样本以及评估泛化样本;
应用所述初始参数样本对所述语音标签识别模型进行训练,获取所述语音标签识别模型的初始参数;
应用所述调整参数样本对所述语音标签识别模型进行参数调整;
应用所述评估泛化样本对参数调整后的所述语音标签识别模型进行泛化能力评估,获取训练后的所述语音标签识别模型。
5.根据权利要求1所述的方法,其特征在于,所述将所述小片段转写成文本数据,包括:
对所述小片段进行特征提取,转化为固定维度的向量;
应用训练好的隐式马尔可夫模型根据所述向量将所述小片段识别为音素;
通过训练好的积卷神经网络将所述音素识别为所述文本数据;
将双声道语音数据中两个声道分别进行转换以区分角色。
6.根据权利要求1所述的方法,其特征在于,所述对所述文本数据进行客户标签解析,获取对应的客户标签,包括:
对所述文本数据进行特征信息提取;
根据所述特征信息对所述文本数据进行质量诊断和预处理;
调用Bert模型对预处理后的所述文本数据进行客户标签解析,获取对应的客户标签。
7.根据权利要求1所述的方法,其特征在于,所述对所述文本数据进行客户标签解析,获取对应的客户标签之后,包括:
将所述客户标签与所述客户的实时业务关联;
将所述客户标签存入客户标签库。
8.一种基于语音数据的客户标签识别装置,其特征在于,所述装置包括:
语音获取单元,用于实时获取客户的语音数据并根据所述语音数据识别对应的业务类型;
模型加载单元,用于根据所述业务类型将所述语音数据加载至训练后的语音标签识别模型;
标签识别单元,用于调用训练后的所述语音标签识别模型对所述语音数据进行客户标签解析,获取对应的客户标签,所述标签识别单元包括:语音转写单元和标签解析单元,
所述语音转写单元用于将所述语音数据切分成长度固定的小片段,所述小片段之前有固定长度的重合部分,并将所述小片段转写成文本数据;
所述标签解析单元用于对所述文本数据进行客户标签解析,获取对应的客户标签。
9.一种计算设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行根据权利要求1-7任一项所述基于语音数据的客户标签识别方法的步骤。
10.一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行根据权利要求1-7任一项所述基于语音数据的客户标签识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010352193.2A CN113571062B (zh) | 2020-04-28 | 2020-04-28 | 基于语音数据的客户标签识别方法、装置及计算设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010352193.2A CN113571062B (zh) | 2020-04-28 | 2020-04-28 | 基于语音数据的客户标签识别方法、装置及计算设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113571062A true CN113571062A (zh) | 2021-10-29 |
CN113571062B CN113571062B (zh) | 2024-05-24 |
Family
ID=78158218
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010352193.2A Active CN113571062B (zh) | 2020-04-28 | 2020-04-28 | 基于语音数据的客户标签识别方法、装置及计算设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113571062B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108877791A (zh) * | 2018-05-23 | 2018-11-23 | 百度在线网络技术(北京)有限公司 | 基于视图的语音交互方法、装置、服务器、终端和介质 |
CN109829810A (zh) * | 2018-12-13 | 2019-05-31 | 平安科技(深圳)有限公司 | 业务推荐方法、装置、计算机设备及存储介质 |
CN110599999A (zh) * | 2019-09-17 | 2019-12-20 | 寇晓宇 | 数据交互方法、装置和机器人 |
CN110728977A (zh) * | 2018-06-29 | 2020-01-24 | 南京芝兰人工智能技术研究院有限公司 | 一种基于人工智能的语音对话方法和系统 |
CN110807332A (zh) * | 2019-10-30 | 2020-02-18 | 腾讯科技(深圳)有限公司 | 语义理解模型的训练方法、语义处理方法、装置及存储介质 |
CN110838288A (zh) * | 2019-11-26 | 2020-02-25 | 杭州博拉哲科技有限公司 | 一种语音交互方法及其系统和对话设备 |
CN110968671A (zh) * | 2019-12-03 | 2020-04-07 | 北京声智科技有限公司 | 一种基于Bert的意图确定方法及装置 |
US20210374516A1 (en) * | 2020-05-27 | 2021-12-02 | International Business Machines Corporation | Natural language explanation for classifier predictions |
US11204964B1 (en) * | 2020-10-02 | 2021-12-21 | PolyAl Limited | Systems and methods for conversing with a user |
-
2020
- 2020-04-28 CN CN202010352193.2A patent/CN113571062B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108877791A (zh) * | 2018-05-23 | 2018-11-23 | 百度在线网络技术(北京)有限公司 | 基于视图的语音交互方法、装置、服务器、终端和介质 |
CN110728977A (zh) * | 2018-06-29 | 2020-01-24 | 南京芝兰人工智能技术研究院有限公司 | 一种基于人工智能的语音对话方法和系统 |
CN109829810A (zh) * | 2018-12-13 | 2019-05-31 | 平安科技(深圳)有限公司 | 业务推荐方法、装置、计算机设备及存储介质 |
CN110599999A (zh) * | 2019-09-17 | 2019-12-20 | 寇晓宇 | 数据交互方法、装置和机器人 |
CN110807332A (zh) * | 2019-10-30 | 2020-02-18 | 腾讯科技(深圳)有限公司 | 语义理解模型的训练方法、语义处理方法、装置及存储介质 |
CN110838288A (zh) * | 2019-11-26 | 2020-02-25 | 杭州博拉哲科技有限公司 | 一种语音交互方法及其系统和对话设备 |
CN110968671A (zh) * | 2019-12-03 | 2020-04-07 | 北京声智科技有限公司 | 一种基于Bert的意图确定方法及装置 |
US20210374516A1 (en) * | 2020-05-27 | 2021-12-02 | International Business Machines Corporation | Natural language explanation for classifier predictions |
US11204964B1 (en) * | 2020-10-02 | 2021-12-21 | PolyAl Limited | Systems and methods for conversing with a user |
Also Published As
Publication number | Publication date |
---|---|
CN113571062B (zh) | 2024-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11763193B2 (en) | Systems and method for performing contextual classification using supervised and unsupervised training | |
CN109522556B (zh) | 一种意图识别方法及装置 | |
US10997226B2 (en) | Crafting a response based on sentiment identification | |
US9477752B1 (en) | Ontology administration and application to enhance communication data analytics | |
CN109685056B (zh) | 获取文档信息的方法及装置 | |
CN112804400A (zh) | 客服呼叫语音质检方法、装置、电子设备及存储介质 | |
US20200195779A1 (en) | System and method for performing agent behavioral analytics | |
CN113094578B (zh) | 基于深度学习的内容推荐方法、装置、设备及存储介质 | |
KR20200007969A (ko) | 정보 처리 방법, 단말기, 및 컴퓨터 저장 매체 | |
CN110046356B (zh) | 标签嵌入的微博文本情绪多标签分类方法 | |
CN111177350A (zh) | 智能语音机器人的话术形成方法、装置和系统 | |
CN112966082A (zh) | 音频质检方法、装置、设备以及存储介质 | |
CN111651497A (zh) | 用户标签挖掘方法、装置、存储介质及电子设备 | |
CN108536673B (zh) | 新闻事件抽取方法及装置 | |
CN110765776A (zh) | 回访标注样本数据的生成方法及装置 | |
CN111460100A (zh) | 一种刑事法律文书罪名的推荐方法和系统 | |
CN111062211A (zh) | 信息提取方法、装置、电子设备及存储介质 | |
CN111159405B (zh) | 基于背景知识的讽刺检测方法 | |
CN111326142A (zh) | 基于语音转文本的文本信息提取方法、系统和电子设备 | |
CN115063155B (zh) | 一种数据标注方法、装置、计算机设备及存储介质 | |
CN113505606B (zh) | 一种培训信息获取方法、装置、电子设备及存储介质 | |
CN113571062B (zh) | 基于语音数据的客户标签识别方法、装置及计算设备 | |
CN114841143A (zh) | 语音房质量评估方法及其装置、设备、介质、产品 | |
CN113761146A (zh) | 识别顾客情绪波动的方法和装置 | |
CN115080732A (zh) | 投诉工单处理方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |