CN110853649A - 基于智能语音技术的标签提取方法、系统、设备及介质 - Google Patents
基于智能语音技术的标签提取方法、系统、设备及介质 Download PDFInfo
- Publication number
- CN110853649A CN110853649A CN201911069494.8A CN201911069494A CN110853649A CN 110853649 A CN110853649 A CN 110853649A CN 201911069494 A CN201911069494 A CN 201911069494A CN 110853649 A CN110853649 A CN 110853649A
- Authority
- CN
- China
- Prior art keywords
- sentence
- sentence vector
- standardized
- vector
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005516 engineering process Methods 0.000 title claims abstract description 46
- 238000000605 extraction Methods 0.000 title claims abstract description 36
- 239000013598 vector Substances 0.000 claims abstract description 192
- 238000012549 training Methods 0.000 claims abstract description 65
- 238000000034 method Methods 0.000 claims abstract description 38
- 238000007405 data analysis Methods 0.000 claims abstract description 20
- 238000013528 artificial neural network Methods 0.000 claims abstract description 15
- 230000011218 segmentation Effects 0.000 claims abstract description 10
- 238000004422 calculation algorithm Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000003860 storage Methods 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 2
- 238000013135 deep learning Methods 0.000 abstract description 5
- 230000003203 everyday effect Effects 0.000 abstract description 5
- 230000007812 deficiency Effects 0.000 abstract description 4
- 238000012545 processing Methods 0.000 description 17
- 238000013518 transcription Methods 0.000 description 15
- 230000035897 transcription Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 11
- 238000004590 computer program Methods 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 210000001503 joint Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明提供一种基于智能语音技术的标签提取方法、系统、设备及介质,该方法包括:基于语料库的句子样本,进行标准化句向量模型训练;获取电话录音平台的录音数据文件并将其转写为文本数据;对文本数据进行句子切分,并计算每个句子的句向量;基于标准化句向量模型对每个句子的句向量进行标准化训练,输出对应的标准化句子;提取标准化句子的关键词,并根据提取的关键词生成话务数据分析报表,话务数据分析报表包括用户意图标签及用户意图结果。本发明利用神经网络技术和深度学习技术,对呼叫中心每天产生的海量语音数据和文本数据进行有效分析,及时发现用户核心诉求意图、工作过程中的问题和不足,有效把握服务质量,针对性提升用户满意度。
Description
技术领域
本发明涉及意图标签筛选技术领域,特别涉及一种基于智能语音技术的标签提取方法、系统、设备及介质。
背景技术
随着移动通信技术的发展,目前各行各业呼叫业务中大量应用智能语音机器人,存有大量的用户交互的语音数据,通过对交互场景进行分析及策略制定可以得到大量标签,可根据行业及业务类型对群用户、个人用户构建对应的标签库。企业呼叫中心作为运营平台与用户之间的桥梁起着至关重要的作用。近年来,智能语音技术产业规模在全球用户需求拉动、国家战略指导和企业竞争等多重因素驱动下实现了快速和持续的增长,在移动互联网、运营商、智能家居、汽车电子、金融支付、在线教育及医疗等领域应用不断深入。在海量数据和深度学习的推动下,语音识别、语音合成、声纹识别等智能语音技术,日趋成熟,开始进入实用化的阶段。
发明内容
为解决上述技术问题,本发明提供了一种基于智能语音技术的标签提取方法、系统、设备及介质。
本发明一方面提供了一种基于智能语音技术的标签提取方法,所述方法包括:
基于语料库的句子样本,进行标准化句向量模型训练;
获取电话录音平台的录音数据文件,并将所述录音数据文件转写为文本数据;
对所述文本数据进行句子切分,并计算每个句子的句向量;
基于标准化句向量模型对所述每个句子的句向量进行标准化训练,输出对应的标准化句子;
提取所述标准化句子的关键词,并根据提取的关键词生成话务数据分析报表,所述话务数据分析报表包括用户意图标签及用户意图结果。
在一个实施例中,所述基于语料库的句子样本,进行标准化句向量模型训练,包括:
计算语料库中的各句子样本的句向量样本,得到句向量样本集合;
计算所述句向量样本集合中的各句向量样本的相似性;
利用神经网络算法对符合相似性阈值的多个句向量样本进行标准化训练,建立标准化句向量模型。
在一个实施例中,所述基于标准化句向量模型对所述每个句子的句向量进行标准化训练,输出对应的标准化句子,包括:
计算所述每个句子的句向量与所述句向量样本集合中的各句向量样本的相似性;
分别选择与所述每个句子的句向量相似性阈值的句向量样本所对应的标准化句向量模型,对所述每个句子的句向量进行标准化训练;
将训练生成的每个句子的标准句向量进行转化,输出对应的标准化句子。
在一个实施例中,在基于标准化句向量模型对所述每个句子的句向量进行标准化训练,输出对应的标准化句子后,所述方法还包括:
将所述每个句子的句向量与对应的标准句向量上传到标准化句向量模型库,以对所述标准化句向量模型进行训练。
本发明另一方面提供了一种基于智能语音技术的标签提取系统,所述系统包括:
标准化句向量模型训练单元,用于基于语料库的句子样本,进行标准化句向量模型训练;
语文转化单元,用于获取电话录音平台的录音数据文件,并将所述录音数据文件转写为文本数据;
句向量计算单元,用于对所述文本数据进行句子切分,并计算每个句子的句向量;
标准化句子获取单元,用于基于标准化句向量模型对所述每个句子的句向量进行标准化训练,输出对应的标准化句子;
关键词提取单元,用于提取所述标准化句子的关键词,并根据提取的关键词生成话务数据分析报表,所述话务数据分析报表包括用户意图标签及用户意图结果。
在一个实施例中,所述标准化句向量模型训练单元具体用于:
计算语料库中的各句子样本的句向量样本,得到句向量样本集合;
计算所述句向量样本集合中的各句向量样本的相似性;
利用神经网络算法对符合相似性阈值的多个句向量样本进行标准化训练,建立标准化句向量模型。
在一个实施例中,所述标准化句子获取单元具体用于:
计算所述每个句子的句向量与所述句向量样本集合中的各句向量样本的相似性;
分别选择与所述每个句子的句向量相似性阈值的句向量样本所对应的标准化句向量模型,对所述每个句子的句向量进行标准化训练;
将训练生成的每个句子的标准句向量进行转化,输出对应的标准化句子。
在一个实施例中,所述系统还包括:同步单元,用于将所述每个句子的句向量与对应的标准句向量上传到标准化句向量模型库,以对所述标准化句向量模型进行训练。
一方面,本发明实施例还提供了一种电子设备,所述电子设备用于运行程序,其中,所述程序运行时执行所述的基于智能语音技术的标签提取方法。
一方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有程序,所述程序被电子设备执行时实现所述的基于智能语音技术的标签提取方法。
本发明利用神经网络技术和深度学习技术,对呼叫中心每天产生的海量语音数据和文本数据进行有效分析,及时发现用户核心诉求意图、工作过程中的问题和不足,有效把握服务质量,针对性提升用户满意度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种基于智能语音技术的标签提取方法的大致流程示意图;
图2为本发明实施例提供的标准化句量模型训练的流程示意图;
图3为利用本发明实施例提供标准化句量模型对每个句子的句向量进行训练的大致流程;
图4为本发明实施例提供一种基于智能语音技术的标签提取系统的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
企业呼叫中心作为企业与用户之间的重要桥梁,通过采用目前国际主流的DNN(深度神经网络)和HMM(隐马尔可夫模型)的方法训练的中文语音识别技术,能够适用不同年龄、不同地域、不同人群、不同信道、不同终端和不同噪声环境的应用环境,同时利用企业呼叫中心积累的海量语音语料和文本语料来进行模型的定制化训练,建立高可用及高识别率的语音转写及分析平台,极大改善了现有技术中语音识别和转写不清楚、不准确的缺陷,降低语音识别错误率。
有鉴于此,本发明的主要目的在于提供一种基于智能语音技术的标签提取方法,通过利用企业呼叫中心积累的海量语音语料和文本语料分别构建语音识别模型和标准化句向量模型,以对呼叫中心的录音数据进行语音转写生成文本内容,通过对生成的文本内容进行标准化转换,从而利用设置的关键词规则进行关键词提取,利用自然语言理解技术进行对话关键意图理解,以得到话务文本数据,以得到话务数据分析报表,从而及时发现服务过程中的问题和用户意图标签,以把握运营服务全局,针对性的改善、培训、提升用户满意度和忠诚度。
企业呼叫中心可通过采用目前国际主流的DNN(深度神经网络)+HMM(隐马尔可夫模型)的方法训练的中文语音识别技术,能够适用不同年龄、不同地域、不同人群、不同信道、不同终端和不同噪声环境的应用环境,同时利用企业呼叫中心积累的海量语音语料和文本语料来进行模型的定制化训练,达到高可用及高识别率的语音转写平台。其中,该语音转写平台的核心技术为智能语音识别技术,该智能语音识别技术采用最新一代的识别算法、解码器核心以及先进的声学模型和语言模型训练方法,主要包括三个重要的组成部分:语音识别模型训练、前端语音处理、后端识别处理;
1.语音识别模型训练
语音识别模型通常由声学模型和语言模型两部分组成,分别对应于从语音信号中抽取的特征到音节概率的计算和音节到字概率的计算。
目前,声学模型的建模方法普遍采用DNN(深度神经网络)+HMM(隐马尔可夫模型)的方法,对比前一代使用GMM(混合高斯模型)+HMM的方法,语音识别错误率降低了30%,是近20年来语音识别技术方面最快的进步。而在语言模型方面,目前通常采用统计语言模型的建模方法,而该统计语言模型采用N-Gram模型,该N-Gram模型又被称为一阶马尔科夫链,它的基本思想是将文本里面的内容按照字节进行大小为N的滑动窗口操作,形成了长度是N的字节片段序列,每一个字节片段称为gram,对所有的gram的出现频度进行统计,并且按照事先设定好的阈值进行过滤,形成关键gram列表,也就是这个文本的向量特征空间,列表中的每一种gram就是一个特征向量维度。
该算法具有容错性强和语种无关性的优点,对中、英、繁都通用,并且不需要进行语言学上的处理,是大词汇连续语音识别中常用的一种语言模型,简单有效,被广泛使用。
为了适应不同年龄、不同地域、不同人群、不同信道、不同终端和不同噪声环境的应用环境,需要大量语音语料和文本语料来进行训练,才能有效提高识别率。随着互联网的快速发展,以及手机等移动终端的普及应用,目前可以从多个渠道获取大量文本或语音方面的语料,这为语音识别模型中的语言模型和声学模型的训练提供了丰富的资源,使得构建通用大规模语言模型和声学模型成为可能。
2.前端语音处理
前端语音处理指利用信号处理的方法对说话人语音进行检测、降噪等预处理,以便得到最适合识别引擎处理的语音。前端语音处理主要具有以下功能:
(1)端点检测。端点检测是对输入的音频流进行分析,将语音信号中的语音和非语音信号时段区分开来,准确地确定出语音信号的起始点。经过端点检测后,后续处理就可以只对语音信号进行,这对提高模型的精确度和识别正确率有重要作用。
(2)噪音消除。在实际应用中,背景噪声对于语音识别应用是一个现实的挑战,即便说话人处于安静的办公室环境,在电话语音通话过程中也难以避免会有一定的噪声。一个好的语音识别引擎需要具备高效的噪音消除能力,以适应用户在千差万别的环境中应用的要求。
(3)特征提取。声学特征的提取是一个信息大幅度压缩的过程,也对后面的模式分类器能否更好地进行模式划分起到重要的影响,因此,声学特征的提取与选择是语音识别的一个重要环节。目前常用的特征包括MFCC(Mel Frequency Cepstrum Coefficient,梅尔频率倒谱系数)和PLP(Perceptual Linear Prediction,感知线性预测倒谱系数)等。
3.后端识别处理
后端识别处理就是指利用训练好的“声学模型”和“语言模型”对提取到的特征向量进行识别(也称为“解码”),得到文字信息的过程。声学模型的主要目的是对应于语音特征到音节(或者音素)概率的计算,语言模型的主要目的是对应于音节到文字的概率的计算。而其中最主要的解码器部分就是指对原始的语音特征进行声学模型打分和语言模型打分,并在此基础上得到最优的词模式序列的路径,此路径上对应的文本就是最终的识别结果。
早期的基于语法树结构的解码器设计较为复杂,并且在当前技术条件下,其速度提升已经碰到瓶颈,而目前大多主流的语音识别解码器已经采用基于有限状态机(WFST)的解码网络,该解码网络可以把语言模型、词典和声学共享音字集统一集成为一个大的解码网络,大大提高了解码的速度,也能够将解码过程和知识源分离。
本发明基于企业呼叫中心积累的海量语音语料和文本语料并采用DNN(深度神经网络)+HMM(隐马尔可夫模型)定制化训练智能语音识别模型,在本发明提供的一较佳实施例中,涉及了一种话务数据分析的方法,其大体流程如图1所示,该方法包括以下步骤:
步骤S11、基于语料库的句子样本,进行标准化句向量模型训练。
步骤S12、获取电话录音平台的录音数据文件,并将所述录音数据文件转写为文本数据。
优选地,对所述录音数据文件进行话者分离,生成话务的录音数据和用户的录音数据。具体地,可以从电话录音平台下载录音数据文件,利用语音转写平台将该录音数据文件转写为文本内容。
步骤S13、对所述文本数据进行句子切分,并计算每个句子的句向量。
优选地,在对所述文本数据进行句子切分之前,对所述文本数据先进行无效词语或无效语句的过滤。
步骤S14、基于标准化句向量模型对所述每个句子的句向量进行标准化训练,输出对应的标准化句子。
步骤S15、提取所述标准化句子的关键词,并根据提取的关键词生成话务数据分析报表,所述话务数据分析报表包括用户意图标签及用户意图结果。
本实施例中,话务数据分析报表根据工作需求可包括如下内容:用户意图分析报表,根据预设的关键词提取规则,对用户的录音转化的文本内容进行关键词提取,以得到用户的意图标签;运营管理分析报表,根据输出的报表结果(即标准化句子),对运营服务的不符合标准的用语习惯进行标准化管理,并对话务的接通率、出催率、秒挂率等策划对应运营提升方案。
根据上述生成的报表,可更方便呼叫中心的业务管理,对服务人员的服务用语制定标准化的规则,对用户的意图进行更加明确地分类,以便于市场人员或其他人员有针对性的为用户提供定制化的服务。
在一个实施例中,利用步骤S11训练标准化句量模型时,可以按照图2所示步骤进行训练:
步骤S21、计算语料库中的各句子样本进行句向量样本,得到句向量样本集合。
步骤S22、对所述句向量样本集合中的每个句向量样本进行相似性计算。
步骤S23、利用神经网络算法对符合相似性阈值的多个句向量进行标准化训练,建立标准化句向量模型。
上述神经网络算法可采用常用的卷积神经网络模型(CNN),通过对复杂多样的句子进行标准化的训练,可对输入进行标准化输出。
在本实施例中,企业呼叫中心根据与用户的大量通话录音积累了海量的语音语料,通过其智能语音识别模型,可将该语音语料进行文本转写,生成文本语料库,并且,由于行业的特殊性,该文本语料库与通用的语料库相比,会更加标准化与定制化,利用句向量训练工具得到该文本语料库中的各句子样本的句向量,并通过对各句向量进行相似性计算,对符合设定的相似性阈值的若干句向量进行标准化输出,使表达同一个意思的不同句子,最终输出为一精简的标准化句子。
在步骤S12中,可以选择从从话录音平台下载录音数据文件,利用语音转写平台将该录音数据文件转写为文本内容。
由于本方法所应用的系统可分开部署相应的部分,在企业当地的电话录音平台对接,就近获取录音数据,在调听录音时,需要将二进制语音流进行和企业分部网络间的传输。在企业分部同样要与本地的录音平台对接,实现录音的获取和转写。此外,根据语音分析的用户主要集中情况及数据汇总的需要,整个呼叫中心的质检文本内容处理、语音内容分析集中处理,内容检索服务及数据库需要集中部署。
针对所述录音数据文件,在进行转写及分析之前,还需采用所述前段语音处理技术对该录音数据文件进行端点检测、噪音消除和特征提取的处理,以输出清晰的语音文件。除此之外,为保证分别对用户和运营服务进行后续不同标准的分析,可在本步骤中对录音数据文件进行话者分离,将分离后的用户语音和机器人语音分别进行转写。
本步骤中所提到的语音转写平台的接口层采用主备方式,语音转写(ASR)引擎服务器采用负载均衡方式部署。接口层分为2层,首层是录音获取和转写调度层,支持从企业的录音平台数据库中定时轮询,获取最新生成的录音,并完成转码,本层理论上也可以跨区域调度,如在的转写引擎完成转写,只是考虑到企业与分部网络传输的带宽时延问题,并不这样配置;第二层接口是录音分发层,将首层发来的一批录音逐个分配给不同的引擎服务器转写,使全部引擎服务器得到充分利用,以及时将每天生成的大量录音进行实时转写。
所述录音数据文件进行转写的过程中,还会生成随路数据,包括电话号码、时长、来电时间和存储路径等。
在一个实施例中,利用步骤S13对步骤S12得到的文本数据进行句子切分之前,还可以进行无效词语或无效句子的过滤,使文本数据更加精简有效。而句向量的计算是基于词向量均值计算的基础上实现的,首先将待计算的句子进行分词,利用词向量训练工具分别计算每个词语的词向量,对构成该句子的若干词向量进行均值计算,即可得到该句子的句向量。
具体地,可采用微软的Doc2vec模型进行词向量训练,该Doc2vec模型又叫Paragraph Vector,是Tomas Mikolov基于word2vec模型提出的,其具有一些优点,比如不用固定句子长度,接受不同长度的句子做训练样本,Doc2vec是一个无监督学习算法,该算法用于预测一个向量来表示不同的文档,该模型的结构潜在的克服了词袋模型的缺点。
Doc2vec是基于Word2vec基础上构建的,相比于Word2vec,Doc2vec不仅能训练处词向量还能训练处句子向量并预测新的句子向量。Doc2vec模型结构相对于Word2vec,不同点在于在输入层上多增加了一个Paragraph vector句子向量,该向量在同一句下的不同的训练中是权值共享的,这样训练出来的Paragraph vector就会逐渐在每句子中的几次训练中不断稳定下来,形成该句子的主旨。这样就训练出来了我们需要的句子向量。在预测新的句子向量时,是需要重新训练的,此时该模型的词向量和投影层到输出层的soft weights参数固定,只剩下Paragraph vector用梯度下降法求得,所以预测新句子时虽然也要放入模型中不断迭代求出,相比于训练时,速度会快得多。
在一个实施例中,利用步骤S14对每个句子的句向量进行训练时,可以参照图3所示流程进行:
步骤S31、计算所述每个句子的句向量与所述句向量样本集合中的各句向量样本的相似性。
步骤S32、分别选择与所述每个句子的句向量相似性阈值的句向量样本所对应的标准化句向量模型,对所述每个句子的句向量进行标准化训练。
步骤S33、将训练生成的每个句子的标准句向量进行转化,输出对应的标准化句子。
本发明利用神经网络技术和深度学习技术,对呼叫中心每天产生的海量语音数据和文本数据进行有效分析,及时发现用户核心诉求意图、工作过程中的问题和不足,有效把握服务质量,针对性提升用户满意度。
基于与图1所示的基于智能语音技术的标签提取方法相同的发明构思,本申请实施例还提供了一种基于智能语音技术的标签提取系统,如下面实施例所述。由于该基于智能语音技术的标签提取系统解决问题的原理与基于智能语音技术的标签提取方法相似,因此该基于智能语音技术的标签提取系统的实施可以参见基于智能语音技术的标签提取方法的实施,重复之处不再赘述。
图4为本发明实施例提供一种基于智能语音技术的标签提取系统的结构示意图。如图4所示,基于基于智能语音技术的标签提取系统主要包括:标准化句向量模型训练单元41、语文转化单元42、句向量计算单元43、标准化句子获取单元44及关键词提取单元45。
其中,标准化句向量模型训练单元41用于基于语料库的句子样本,进行标准化句向量模型训练;语文转化单元42用于获取电话录音平台的录音数据文件,并将所述录音数据文件转写为文本数据;句向量计算单元43用于对所述文本数据进行句子切分,并计算每个句子的句向量;标准化句子获取单元44用于基于标准化句向量模型对所述每个句子的句向量进行标准化训练,输出对应的标准化句子;关键词提取单元45用于提取所述标准化句子的关键词,并根据提取的关键词生成话务数据分析报表,所述话务数据分析报表包括用户意图标签及用户意图结果。
在一个实施例中,利用标准化句向量模型训练单元41进行模型训练时,具体执行如下操作:计算语料库中的各句子样本的句向量样本,得到句向量样本集合;计算所述句向量样本集合中的各句向量样本的相似性;利用神经网络算法对符合相似性阈值的多个句向量样本进行标准化训练,建立标准化句向量模型。
在一个实施例中,利用标准化句子获取单元44获取标准化句子时,具体执行如下操作:计算所述每个句子的句向量与所述句向量样本集合中的各句向量样本的相似性;分别选择与所述每个句子的句向量相似性阈值的句向量样本所对应的标准化句向量模型,对所述每个句子的句向量进行标准化训练;将训练生成的每个句子的标准句向量进行转化,输出对应的标准化句子。
在一个实施例中,上述的基于智能语音技术的标签提取系统还包括一同步单元46。同步单元46用于将所述每个句子的句向量与对应的标准句向量上传到标准化句向量模型库,以对所述标准化句向量模型进行训练。
本发明实施例还提供了一种计算机可读存储介质,其上存储有程序,所述程序被电子设备执行时实现所述的基于智能语音技术的标签提取方法。
相应地,本发明实施例还提供了一种计算机程序产品,当在数据处理设备上执行时,适于执行初始化有如下方法步骤的程序:
基于语料库的句子样本,进行标准化句向量模型训练;
获取电话录音平台的录音数据文件,并将所述录音数据文件转写为文本数据;
对所述文本数据进行句子切分,并计算每个句子的句向量;
基于标准化句向量模型对所述每个句子的句向量进行标准化训练,输出对应的标准化句子;
提取所述标准化句子的关键词,并根据提取的关键词生成话务数据分析报表,所述话务数据分析报表包括用户意图标签及用户意图结果。
进一步地,本发明实施例还提供了一种电子设备,所述电子设备包括处理器、存储器及存储在存储器上并可在处理器上运行的程序,处理执行程序时实现如下步骤:。
基于语料库的句子样本,进行标准化句向量模型训练;
获取电话录音平台的录音数据文件,并将所述录音数据文件转写为文本数据;
对所述文本数据进行句子切分,并计算每个句子的句向量;
基于标准化句向量模型对所述每个句子的句向量进行标准化训练,输出对应的标准化句子;
提取所述标准化句子的关键词,并根据提取的关键词生成话务数据分析报表,所述话务数据分析报表包括用户意图标签及用户意图结果。
本发明利用神经网络技术和深度学习技术,对呼叫中心每天产生的海量语音数据和文本数据进行有效分析,及时发现用户核心诉求意图、工作过程中的问题和不足,有效把握服务质量,针对性提升用户满意度。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
本发明中应用了具体实施例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种基于智能语音技术的标签提取方法,其特征在于,所述方法包括:
基于语料库的句子样本,进行标准化句向量模型训练;
获取电话录音平台的录音数据文件,并将所述录音数据文件转写为文本数据;
对所述文本数据进行句子切分,并计算每个句子的句向量;
基于标准化句向量模型对所述每个句子的句向量进行标准化训练,输出对应的标准化句子;
提取所述标准化句子的关键词,并根据提取的关键词生成话务数据分析报表,所述话务数据分析报表包括用户意图标签及用户意图结果。
2.根据权利要求1所述的方法,其特征在于,所述基于语料库的句子样本,进行标准化句向量模型训练,包括:
计算语料库中的各句子样本的句向量样本,得到句向量样本集合;
计算所述句向量样本集合中的各句向量样本的相似性;
利用神经网络算法对符合相似性阈值的多个句向量样本进行标准化训练,建立标准化句向量模型。
3.根据权利要求2所述的方法,其特征在于,所述基于标准化句向量模型对所述每个句子的句向量进行标准化训练,输出对应的标准化句子,包括:
计算所述每个句子的句向量与所述句向量样本集合中的各句向量样本的相似性;
分别选择与所述每个句子的句向量相似性阈值的句向量样本所对应的标准化句向量模型,对所述每个句子的句向量进行标准化训练;
将训练生成的每个句子的标准句向量进行转化,输出对应的标准化句子。
4.根据权利要求1所述的方法,其特征在于,在基于标准化句向量模型对所述每个句子的句向量进行标准化训练,输出对应的标准化句子后,所述方法还包括:
将所述每个句子的句向量与对应的标准句向量上传到标准化句向量模型库,以对所述标准化句向量模型进行训练。
5.一种基于智能语音技术的标签提取系统,其特征在于,所述系统包括:
标准化句向量模型训练单元,用于基于语料库的句子样本,进行标准化句向量模型训练;
语文转化单元,用于获取电话录音平台的录音数据文件,并将所述录音数据文件转写为文本数据;
句向量计算单元,用于对所述文本数据进行句子切分,并计算每个句子的句向量;
标准化句子获取单元,用于基于标准化句向量模型对所述每个句子的句向量进行标准化训练,输出对应的标准化句子;
关键词提取单元,用于提取所述标准化句子的关键词,并根据提取的关键词生成话务数据分析报表,所述话务数据分析报表包括用户意图标签及用户意图结果。
6.根据权利要求5所述的系统,其特征在于,所述标准化句向量模型训练单元具体用于:
计算语料库中的各句子样本的句向量样本,得到句向量样本集合;
计算所述句向量样本集合中的各句向量样本的相似性;
利用神经网络算法对符合相似性阈值的多个句向量样本进行标准化训练,建立标准化句向量模型。
7.根据权利要求6所述的系统,其特征在于,所述标准化句子获取单元具体用于:
计算所述每个句子的句向量与所述句向量样本集合中的各句向量样本的相似性;
分别选择与所述每个句子的句向量相似性阈值的句向量样本所对应的标准化句向量模型,对所述每个句子的句向量进行标准化训练;
将训练生成的每个句子的标准句向量进行转化,输出对应的标准化句子。
8.根据权利要求5所述的系统,其特征在于,所述系统还包括:同步单元,用于将所述每个句子的句向量与对应的标准句向量上传到标准化句向量模型库,以对所述标准化句向量模型进行训练。
9.一种电子设备,其特征在于,所述电子设备用于运行程序,其中,所述程序运行时执行权利要求1-4任一项所述的基于智能语音技术的标签提取方法。
10.一种计算机可读存储介质,其特征在于,其上存储有程序,所述程序被电子设备执行时实现权利要求1-4任一项所述的基于智能语音技术的标签提取方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911069494.8A CN110853649A (zh) | 2019-11-05 | 2019-11-05 | 基于智能语音技术的标签提取方法、系统、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911069494.8A CN110853649A (zh) | 2019-11-05 | 2019-11-05 | 基于智能语音技术的标签提取方法、系统、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110853649A true CN110853649A (zh) | 2020-02-28 |
Family
ID=69599497
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911069494.8A Pending CN110853649A (zh) | 2019-11-05 | 2019-11-05 | 基于智能语音技术的标签提取方法、系统、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110853649A (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111414748A (zh) * | 2020-03-17 | 2020-07-14 | 集奥聚合(北京)人工智能科技有限公司 | 话务数据处理方法及装置 |
CN111510566A (zh) * | 2020-03-16 | 2020-08-07 | 深圳追一科技有限公司 | 通话标签的确定方法、装置、计算机设备和存储介质 |
CN111554304A (zh) * | 2020-04-25 | 2020-08-18 | 中信银行股份有限公司 | 用户标签获取方法、装置及设备 |
CN111565254A (zh) * | 2020-07-14 | 2020-08-21 | 深圳追一科技有限公司 | 通话数据质检方法、装置、计算机设备和存储介质 |
CN111651497A (zh) * | 2020-04-30 | 2020-09-11 | 北京大米科技有限公司 | 用户标签挖掘方法、装置、存储介质及电子设备 |
CN111737989A (zh) * | 2020-06-24 | 2020-10-02 | 深圳前海微众银行股份有限公司 | 一种意图识别方法、装置、设备及存储介质 |
CN111834019A (zh) * | 2020-06-03 | 2020-10-27 | 四川大学华西医院 | 基于语音识别技术的标准化病人培训方法和装置 |
CN111866292A (zh) * | 2020-07-20 | 2020-10-30 | 普强信息技术(北京)有限公司 | 一种基于语音数据的客户标签的应用方法 |
CN111898362A (zh) * | 2020-05-15 | 2020-11-06 | 联想(北京)有限公司 | 一种数据处理方法及装置 |
CN112019692A (zh) * | 2020-08-20 | 2020-12-01 | 浙江企蜂信息技术有限公司 | 一种话务录音存储方法、系统及计算机可读介质 |
CN112113317A (zh) * | 2020-10-14 | 2020-12-22 | 清华大学 | 一种室内热环境控制系统及方法 |
CN112133308A (zh) * | 2020-09-17 | 2020-12-25 | 中国建设银行股份有限公司 | 一种用于语音识别文本多标签分类的方法和装置 |
CN113411454A (zh) * | 2021-06-17 | 2021-09-17 | 商客通尚景科技(上海)股份有限公司 | 一种实时通话语音分析的智能质检方法 |
CN113408274A (zh) * | 2021-07-13 | 2021-09-17 | 北京百度网讯科技有限公司 | 训练语言模型的方法和标签设置方法 |
WO2021218086A1 (zh) * | 2020-04-28 | 2021-11-04 | 平安科技(深圳)有限公司 | 呼叫控制方法、装置、计算机设备以及存储介质 |
CN117252539A (zh) * | 2023-09-20 | 2023-12-19 | 广东筑小宝人工智能科技有限公司 | 基于神经网络的工程标准规范获取方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140358539A1 (en) * | 2013-05-29 | 2014-12-04 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for building a language model |
CN108182175A (zh) * | 2017-12-29 | 2018-06-19 | 中国银联股份有限公司 | 一种文本质量指标获取方法及装置 |
CN109800306A (zh) * | 2019-01-10 | 2019-05-24 | 深圳Tcl新技术有限公司 | 意图分析方法、装置、显示终端及计算机可读存储介质 |
CN109933779A (zh) * | 2017-12-18 | 2019-06-25 | 苏宁云商集团股份有限公司 | 用户意图识别方法及系统 |
CN110197730A (zh) * | 2019-04-28 | 2019-09-03 | 平安科技(深圳)有限公司 | 一种智能分诊的方法、装置、电子设备和存储介质 |
CN110347835A (zh) * | 2019-07-11 | 2019-10-18 | 招商局金融科技有限公司 | 文本聚类方法、电子装置及存储介质 |
CN111489754A (zh) * | 2019-01-28 | 2020-08-04 | 国家电网有限公司客户服务中心 | 一种基于智能语音技术的话务数据分析方法 |
-
2019
- 2019-11-05 CN CN201911069494.8A patent/CN110853649A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140358539A1 (en) * | 2013-05-29 | 2014-12-04 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for building a language model |
CN109933779A (zh) * | 2017-12-18 | 2019-06-25 | 苏宁云商集团股份有限公司 | 用户意图识别方法及系统 |
CN108182175A (zh) * | 2017-12-29 | 2018-06-19 | 中国银联股份有限公司 | 一种文本质量指标获取方法及装置 |
CN109800306A (zh) * | 2019-01-10 | 2019-05-24 | 深圳Tcl新技术有限公司 | 意图分析方法、装置、显示终端及计算机可读存储介质 |
CN111489754A (zh) * | 2019-01-28 | 2020-08-04 | 国家电网有限公司客户服务中心 | 一种基于智能语音技术的话务数据分析方法 |
CN110197730A (zh) * | 2019-04-28 | 2019-09-03 | 平安科技(深圳)有限公司 | 一种智能分诊的方法、装置、电子设备和存储介质 |
CN110347835A (zh) * | 2019-07-11 | 2019-10-18 | 招商局金融科技有限公司 | 文本聚类方法、电子装置及存储介质 |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111510566A (zh) * | 2020-03-16 | 2020-08-07 | 深圳追一科技有限公司 | 通话标签的确定方法、装置、计算机设备和存储介质 |
CN111414748A (zh) * | 2020-03-17 | 2020-07-14 | 集奥聚合(北京)人工智能科技有限公司 | 话务数据处理方法及装置 |
CN111554304A (zh) * | 2020-04-25 | 2020-08-18 | 中信银行股份有限公司 | 用户标签获取方法、装置及设备 |
WO2021218086A1 (zh) * | 2020-04-28 | 2021-11-04 | 平安科技(深圳)有限公司 | 呼叫控制方法、装置、计算机设备以及存储介质 |
CN111651497A (zh) * | 2020-04-30 | 2020-09-11 | 北京大米科技有限公司 | 用户标签挖掘方法、装置、存储介质及电子设备 |
CN111651497B (zh) * | 2020-04-30 | 2023-11-14 | 北京大米科技有限公司 | 用户标签挖掘方法、装置、存储介质及电子设备 |
CN111898362B (zh) * | 2020-05-15 | 2024-05-28 | 联想(北京)有限公司 | 一种数据处理方法及装置 |
CN111898362A (zh) * | 2020-05-15 | 2020-11-06 | 联想(北京)有限公司 | 一种数据处理方法及装置 |
CN111834019B (zh) * | 2020-06-03 | 2023-11-10 | 四川大学华西医院 | 基于语音识别技术的标准化病人培训方法和装置 |
CN111834019A (zh) * | 2020-06-03 | 2020-10-27 | 四川大学华西医院 | 基于语音识别技术的标准化病人培训方法和装置 |
CN111737989A (zh) * | 2020-06-24 | 2020-10-02 | 深圳前海微众银行股份有限公司 | 一种意图识别方法、装置、设备及存储介质 |
CN111565254A (zh) * | 2020-07-14 | 2020-08-21 | 深圳追一科技有限公司 | 通话数据质检方法、装置、计算机设备和存储介质 |
CN111866292A (zh) * | 2020-07-20 | 2020-10-30 | 普强信息技术(北京)有限公司 | 一种基于语音数据的客户标签的应用方法 |
CN112019692A (zh) * | 2020-08-20 | 2020-12-01 | 浙江企蜂信息技术有限公司 | 一种话务录音存储方法、系统及计算机可读介质 |
CN112133308A (zh) * | 2020-09-17 | 2020-12-25 | 中国建设银行股份有限公司 | 一种用于语音识别文本多标签分类的方法和装置 |
CN112113317A (zh) * | 2020-10-14 | 2020-12-22 | 清华大学 | 一种室内热环境控制系统及方法 |
CN112113317B (zh) * | 2020-10-14 | 2024-05-24 | 清华大学 | 一种室内热环境控制系统及方法 |
CN113411454B (zh) * | 2021-06-17 | 2022-09-27 | 商客通尚景科技(上海)股份有限公司 | 一种实时通话语音分析的智能质检方法 |
CN113411454A (zh) * | 2021-06-17 | 2021-09-17 | 商客通尚景科技(上海)股份有限公司 | 一种实时通话语音分析的智能质检方法 |
CN113408274B (zh) * | 2021-07-13 | 2022-06-24 | 北京百度网讯科技有限公司 | 训练语言模型的方法和标签设置方法 |
CN113408274A (zh) * | 2021-07-13 | 2021-09-17 | 北京百度网讯科技有限公司 | 训练语言模型的方法和标签设置方法 |
CN117252539A (zh) * | 2023-09-20 | 2023-12-19 | 广东筑小宝人工智能科技有限公司 | 基于神经网络的工程标准规范获取方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110853649A (zh) | 基于智能语音技术的标签提取方法、系统、设备及介质 | |
CN111429889B (zh) | 基于截断注意力的实时语音识别的方法、装置、设备以及计算机可读存储介质 | |
CN110364171B (zh) | 一种语音识别方法、语音识别系统及存储介质 | |
CN111933129A (zh) | 音频处理方法、语言模型的训练方法、装置及计算机设备 | |
WO2017076222A1 (zh) | 语音识别方法及装置 | |
CN101326572B (zh) | 具有巨大词汇量的语音识别系统 | |
CN111489765A (zh) | 一种基于智能语音技术的话务服务质检方法 | |
CN111477216A (zh) | 一种用于对话机器人的音意理解模型的训练方法及系统 | |
CN112233680B (zh) | 说话人角色识别方法、装置、电子设备及存储介质 | |
CN110853628A (zh) | 一种模型训练方法、装置、电子设备及存储介质 | |
CN111508501B (zh) | 一种电话机器人中带口音的语音识别方法及系统 | |
CN112151015A (zh) | 关键词检测方法、装置、电子设备以及存储介质 | |
CN111081219A (zh) | 一种端到端的语音意图识别方法 | |
CN114818649A (zh) | 基于智能语音交互技术的业务咨询处理方法及装置 | |
CN114120985A (zh) | 智能语音终端的安抚交互方法、系统、设备及存储介质 | |
CN114495904B (zh) | 语音识别方法以及装置 | |
CN116431806A (zh) | 自然语言理解方法及冰箱 | |
Hassan et al. | Improvement in automatic speech recognition of south asian accent using transfer learning of deepspeech2 | |
CN111414748A (zh) | 话务数据处理方法及装置 | |
CN117238321A (zh) | 语音综合评估方法、装置、设备及存储介质 | |
CN113793599A (zh) | 语音识别模型的训练方法和语音识别方法及装置 | |
Röpke et al. | Training a Speech-to-Text Model for Dutch on the Corpus Gesproken Nederlands. | |
CN112506405B (zh) | 一种基于互联网监管领域的人工智能语音大屏指挥方法 | |
CN111489754B (zh) | 一种基于智能语音技术的话务数据分析方法 | |
CN115050351A (zh) | 生成时间戳的方法、装置及计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200228 |
|
RJ01 | Rejection of invention patent application after publication |