CN111414748A - 话务数据处理方法及装置 - Google Patents
话务数据处理方法及装置 Download PDFInfo
- Publication number
- CN111414748A CN111414748A CN202010187238.5A CN202010187238A CN111414748A CN 111414748 A CN111414748 A CN 111414748A CN 202010187238 A CN202010187238 A CN 202010187238A CN 111414748 A CN111414748 A CN 111414748A
- Authority
- CN
- China
- Prior art keywords
- sentence
- sentence vector
- standardized
- vector
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/87—Detection of discrete points within a voice signal
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
Abstract
本申请实施例提供一种话务数据处理方法及装置,方法包括:基于预设语料库中的句子样本数据,进行标准化句向量模型训练;将接收到的录音数据文件转化为文本内容;将所述文本内容进行句子切分,并计算每个句子的句向量;基于所述标准化句向量模型对所述每个句子的句向量进行标准化训练,得到对应的标准化句子;将所述标准化句子进行关键词提取,并根据提取到的关键词生成话务数据分析报表;本申请能够对呼叫中心每天产生的海量语音数据和文本数据进行有效分析,及时发现用户核心诉求意图、工作过程中的问题和不足、有效把握服务质量、针对性的改善、培训、提升用户满意度。
Description
技术领域
本申请涉及数据处理领域,具体涉及一种话务数据处理方法及装置。
背景技术
随着移动通信技术的发展,目前各行各业呼叫业务中大量应用智能语音机器人,存有大量的用户交互的语音数据,通过对交互场景进行分析及策略制定可以得到大量标签,可根据行业及业务类型对群用户、个人用户构建对应的标签库。企业呼叫中心作为运营平台与用户之间的桥梁起着至关重要的作用。近年来,智能语音技术产业规模在全球用户需求拉动、国家战略指导和企业竞争等多重因素驱动下实现了快速和持续的增长,在移动互联网、运营商、智能家居、汽车电子、金融支付、在线教育及医疗等领域应用不断深入。在海量数据和深度学习的推动下,语音识别、语音合成、声纹识别等智能语音技术,日趋成熟,开始进入实用化的阶段。
企业呼叫中心作为企业与用户之间的重要桥梁,通过采用目前国际主流的DNN(深度神经网络)和HMM(隐马尔可夫模型)的方法训练的中文语音识别技术,能够适用不同年龄、不同地域、不同人群、不同信道、不同终端和不同噪声环境的应用环境,同时利用企业呼叫中心积累的海量语音语料和文本语料来进行模型的定制化训练,建立高可用及高识别率的语音转写及分析平台,极大改善了现有技术中语音识别和转写不清楚、不准确的缺陷,降低语音识别错误率。
因此,如何进一步对语音识别的结果进行理解和处理,是当前亟需解决的问题。
发明内容
针对现有技术中的问题,本申请提供一种话务数据处理方法及装置,能够对呼叫中心每天产生的海量语音数据和文本数据进行有效分析,及时发现用户核心诉求意图、工作过程中的问题和不足、有效把握服务质量、针对性的改善、培训、提升用户满意度。
为了解决上述问题中的至少一个,本申请提供以下技术方案:
第一方面,本申请提供一种话务数据处理方法,包括:
基于预设语料库中的句子样本数据,进行标准化句向量模型训练;
将接收到的录音数据文件转化为文本内容;
将所述文本内容进行句子切分,并计算每个句子的句向量;
基于所述标准化句向量模型对所述每个句子的句向量进行标准化训练,得到对应的标准化句子;
将所述标准化句子进行关键词提取,并根据提取到的关键词生成话务数据分析报表。
进一步地,所述基于预设语料库中的句子样本数据,进行标准化句向量模型训练,包括:
将预设语料库中的各句子样本数据进行句向量计算,得到句向量样本集合;
将所述句向量样本集合中的每个句向量样本进行相似性计算;
利用神经网络算法对符合相似性阈值的多个句向量进行标准化训练,建立标准化句向量模型。
进一步地,所述基于所述标准化句向量模型对所述每个句子的句向量进行标准化训练,得到对应的标准化句子,包括:
将所述每个句子的句向量与所述句向量样本集合中的各句向量样本进行相似性计算;
分别选择符合与该每个句子的句向量相似性阈值的句向量样本所对应的标准化句向量模型,对该每个句子的句向量进行标准化训练;
将训练生成的每个句子的标准句向量进行转化,输出对应的标准化句子。
进一步地,在所述将所述文本内容进行句子切分之前,还包括:
对所述文本内容进行无效词语或无效语句的过滤。
第二方面,本申请提供一种话务数据处理装置,包括:
模型训练模块,用于基于预设语料库中的句子样本数据,进行标准化句向量模型训练;
文本转化模块,用于将接收到的录音数据文件转化为文本内容;
句向量确定模块,用于将所述文本内容进行句子切分,并计算每个句子的句向量;
标准化句子确定模块,用于基于所述标准化句向量模型对所述每个句子的句向量进行标准化训练,得到对应的标准化句子;
关键词提取模块,用于将所述标准化句子进行关键词提取,并根据提取到的关键词生成话务数据分析报表。
进一步地,所述句向量确定模块包括:
样本集合确定单元,用于将预设语料库中的各句子样本数据进行句向量计算,得到句向量样本集合;
相似性计算单元,用于将所述句向量样本集合中的每个句向量样本进行相似性计算;
模型建立单元,用于利用神经网络算法对符合相似性阈值的多个句向量进行标准化训练,建立标准化句向量模型。
进一步地,所述标准化句子确定模块包括:
相似性计算单元,用于将所述每个句子的句向量与所述句向量样本集合中的各句向量样本进行相似性计算;
标准化训练单元,用于分别选择符合与该每个句子的句向量相似性阈值的句向量样本所对应的标准化句向量模型,对该每个句子的句向量进行标准化训练;
句向量转化单元,用于将训练生成的每个句子的标准句向量进行转化,输出对应的标准化句子。
进一步地,还包括:
文本过滤单元,用于对所述文本内容进行无效词语或无效语句的过滤。
第三方面,本申请提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现所述的话务数据处理方法的步骤。
第四方面,本申请提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现所述的话务数据处理方法的步骤。
由上述技术方案可知,本申请提供一种话务数据处理方法及装置,通过基于预设语料库中的句子样本数据,进行标准化句向量模型训练;将接收到的录音数据文件转化为文本内容;将所述文本内容进行句子切分,并计算每个句子的句向量;基于所述标准化句向量模型对所述每个句子的句向量进行标准化训练,得到对应的标准化句子;将所述标准化句子进行关键词提取,并根据提取到的关键词生成话务数据分析报表,本申请能够利用企业呼叫中心积累的海量语音语料和文本语料分别构建语音识别模型和标准化句向量模型,以对呼叫中心的录音数据进行语音转写生成文本内容,通过对生成的文本内容进行标准化转换,从而利用文本分析及设置的关键词规则进行热点诉求识别,以得到话务关键文本数据,并在机器人的知识库中建立话术流程走向规则,确保语音交互按照设定的规则进行,从而及时发现服务过程中的用户诉求,以把握服务全局,建立热点诉求分布图等。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例中的话务数据处理方法的流程示意图之一;
图2为本申请实施例中的话务数据处理方法的流程示意图之二;
图3为本申请实施例中的话务数据处理方法的流程示意图之三;
图4为本申请实施例中的话务数据处理装置的结构图之一;
图5为本申请实施例中的话务数据处理装置的结构图之二;
图6为本申请实施例中的话务数据处理装置的结构图之三;
图7为本申请实施例中的电子设备的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
考虑到如何进一步对语音识别的结果进行理解和处理,是当前亟需解决的问题,本申请提供一种话务数据处理方法及装置,通过基于预设语料库中的句子样本数据,进行标准化句向量模型训练;将接收到的录音数据文件转化为文本内容;将所述文本内容进行句子切分,并计算每个句子的句向量;基于所述标准化句向量模型对所述每个句子的句向量进行标准化训练,得到对应的标准化句子;将所述标准化句子进行关键词提取,并根据提取到的关键词生成话务数据分析报表,本申请能够利用企业呼叫中心积累的海量语音语料和文本语料分别构建语音识别模型和标准化句向量模型,以对呼叫中心的录音数据进行语音转写生成文本内容,通过对生成的文本内容进行标准化转换,从而利用文本分析及设置。
企业呼叫中心可通过采用目前国际主流的DNN(深度神经网络)+HMM(隐马尔可夫模型)的方法训练的中文语音识别技术,能够适用不同年龄、不同地域、不同人群、不同信道、不同终端和不同噪声环境的应用环境,同时利用企业呼叫中心积累的海量语音语料和文本语料来进行模型的定制化训练,达到高可用及高识别率的语音转写平台;
其中,该语音转写平台的核心技术为智能语音识别技术,该智能语音识别技术采用最新一代的识别算法、解码器核心以及先进的声学模型和语言模型训练方法,主要包括三个重要的组成部分:语音识别模型训练、前端语音处理、后端识别处理;
1.语音识别模型训练
语音识别模型通常由声学模型和语言模型两部分组成,分别对应于从语音信号中抽取的特征到音节概率的计算和音节到字概率的计算。
目前声学模型的建模方法普遍采用DNN(深度神经网络)+HMM(隐马尔可夫模型)的方法,对比前一代使用GMM(混合高斯模型)+HMM的方法,语音识别错误率降低了30%,是近20年来语音识别技术方面最快的进步。而在语言模型方面,目前通常采用统计语言模型的建模方法,而该统计语言模型采用N-Gram模型,该N-Gram模型又被称为一阶马尔科夫链,它的基本思想是将文本里面的内容按照字节进行大小为N的滑动窗口操作,形成了长度是N的字节片段序列,每一个字节片段称为gram,对所有的gram的出现频度进行统计,并且按照事先设定好的阈值进行过滤,形成关键gram列表,也就是这个文本的向量特征空间,列表中的每一种gram就是一个特征向量维度;
该算法具有容错性强和语种无关性的优点,对中、英、繁都通用,并且不需要进行语言学上的处理,是大词汇连续语音识别中常用的一种语言模型,简单有效,被广泛使用。
为了适应不同年龄、不同地域、不同人群、不同信道、不同终端和不同噪声环境的应用环境,需要大量语音语料和文本语料来进行训练,才能有效提高识别率。随着互联网的快速发展,以及手机等移动终端的普及应用,目前可以从多个渠道获取大量文本或语音方面的语料,这为语音识别模型中的语言模型和声学模型的训练提供了丰富的资源,使得构建通用大规模语言模型和声学模型成为可能。
2.前端语音处理
前端语音处理指利用信号处理的方法对说话人语音进行检测、降噪等预处理,以便得到最适合识别引擎处理的语音。主要功能包括:
(1)端点检测
端点检测是对输入的音频流进行分析,将语音信号中的语音和非语音信号时段区分开来,准确地确定出语音信号的起始点。经过端点检测后,后续处理就可以只对语音信号进行,这对提高模型的精确度和识别正确率有重要作用。
(2)噪音消除
在实际应用中,背景噪声对于语音识别应用是一个现实的挑战,即便说话人处于安静的办公室环境,在电话语音通话过程中也难以避免会有一定的噪声。一个好的语音识别引擎需要具备高效的噪音消除能力,以适应用户在千差万别的环境中应用的要求。
(3)特征提取
声学特征的提取是一个信息大幅度压缩的过程,也对后面的模式分类器能否更好地进行模式划分起到重要的影响,因此,声学特征的提取与选择是语音识别的一个重要环节。目前常用的特征包括MFCC(Mel Frequency Cepstrum Coefficient,梅尔频率倒谱系数)和PLP(Perceptual Linear Prediction,感知线性预测倒谱系数)等。
3.后端识别处理
后端识别处理就是指利用训练好的“声学模型”和“语言模型”对提取到的特征向量进行识别(也称为“解码”),得到文字信息的过程。声学模型的主要目的是对应于语音特征到音节(或者音素)概率的计算,语言模型的主要目的是对应于音节到文字的概率的计算。而其中最主要的解码器部分就是指对原始的语音特征进行声学模型打分和语言模型打分,并在此基础上得到最优的词模式序列的路径,此路径上对应的文本就是最终识别结果。
为了能够对呼叫中心每天产生的海量语音数据和文本数据进行有效分析,及时发现用户核心诉求意图、工作过程中的问题和不足、有效把握服务质量、针对性的改善、培训、提升用户满意度,本申请提供一种话务数据处理方法的实施例,参见图1,所述话务数据处理方法具体包含有如下内容:
步骤S101:基于预设语料库中的句子样本数据,进行标准化句向量模型训练;
具体的,本步骤包括:
将语料库中的各句子样本进行句向量计算,得到句向量样本集合;
将所述句向量样本集合中的每个句向量样本进行相似性计算;
利用神经网络算法对符合相似性阈值的复数个句向量进行标准化训练,建立标准化句向量模型。
上述神经网络算法可采用常用的卷积神经网络模型(CNN),通过对复杂多样的句子进行标准化的训练,可对输入进行标准化输出;
本实施例中,企业呼叫中心根据与用户的大量通话录音积累了海量的语音语料,通过其智能语音识别模型,可将该语音语料进行文本转写,生成文本语料库,并且,由于行业的特殊性,该文本语料库与通用的语料库相比,会更加标准化与定制化,利用句向量训练工具得到该文本语料库中的各句子样本的句向量,并通过对各句向量进行相似性计算,对符合设定的相似性阈值的若干句向量进行标准化输出,使表达同一个意思的不同句子,最终输出为一精简的标准化句子。
步骤S102:将接收到的录音数据文件转化为文本内容;
由于本方法所应用的系统可分开部署相应的部分,在企业当地的电话录音平台对接,就近获取录音数据,在调听录音时,需要将二进制语音流进行和企业分部网络间的传输;
在企业分部同样要与本地的录音平台对接,实现录音的获取和转写。此外,根据语音分析的用户主要集中情况及数据汇总的需要,整个呼叫中心的质检文本内容处理、语音内容分析集中处理,内容检索服务及数据库需要集中部署;
针对所述录音数据文件,在进行转写及分析之前,还需采用所述前段语音处理技术对该录音数据文件进行端点检测、噪音消除和特征提取的处理,以输出清晰的语音文件;
除此之外,为保证分别对用户和运营服务进行后续不同标准的分析,可在本步骤中对录音数据文件进行话者分离,将分离后的用户语音和机器人语音分别进行转写;
本步骤中所提到的语音转写平台的接口层采用主备方式,语音转写(ASR)引擎服务器采用负载均衡方式部署。接口层分为2层,首层是录音获取和转写调度层,支持从企业的录音平台数据库中定时轮询,获取最新生成的录音,并完成转码,本层理论上也可以跨区域调度,如在的转写引擎完成转写,只是考虑到企业与分部网络传输的带宽时延问题,并不这样配置;第二层接口是录音分发层,将首层发来的一批录音逐个分配给不同的引擎服务器转写,使全部引擎服务器得到充分利用,以及时将每天生成的大量录音进行实时转写;
所述录音数据文件进行转写的过程中,还会生成随路数据,包括电话号码、时长、来电时间和存储路径等。
步骤S103:将所述文本内容进行句子切分,并计算每个句子的句向量;
本实施例中,在对所述文本内容进行句子切分之前,还可进行无效词语或无效句子的过滤,使文本内容更加精简有效;
而句向量的计算是基于词向量均值计算的基础上实现的,首先将待计算的句子进行分词,利用词向量训练工具分别计算每个词语的词向量,对构成该句子的若干词向量进行均值计算,即可得到该句子的句向量。
具体的,可采用微软的Doc2vec模型进行词向量训练,该Doc2vec模型又叫Paragraph Vector是Tomas Mikolov基于word2vec模型提出的,其具有一些优点,比如不用固定句子长度,接受不同长度的句子做训练样本,Doc2vec是一个无监督学习算法,该算法用于预测一个向量来表示不同的文档,该模型的结构潜在的克服了词袋模型的缺点;
Doc2vec是基于Word2vec基础上构建的,相比于Word2vec,Doc2vec不仅能训练处词向量还能训练处句子向量并预测新的句子向量。Doc2vec模型结构相对于Word2vec,不同点在于在输入层上多增加了一个Paragraph vector句子向量,该向量在同一句下的不同的训练中是权值共享的,这样训练出来的Paragraph vector就会逐渐在每句子中的几次训练中不断稳定下来,形成该句子的主旨。这样就训练出来了我们需要的句子向量。在预测新的句子向量时,是需要重新训练的,此时该模型的词向量和投影层到输出层的soft weights参数固定,只剩下Paragraph vector用梯度下降法求得,所以预测新句子时虽然也要放入模型中不断迭代求出,相比于训练时,速度会快得多。
步骤S104:基于所述标准化句向量模型对所述每个句子的句向量进行标准化训练,得到对应的标准化句子;
具体的,本步骤包括:
将所述每个句子的句向量与所述句向量样本集合中的各句向量样本进行相似性计算;
分别选择符合与该每个句子的句向量相似性阈值的句向量样本所对应的标准化句向量模型,对该每个句子的句向量进行标准化训练;
将训练生成的每个句子的标准句向量进行转化,输出对应的标准化句子。
步骤S105:将所述标准化句子进行关键词提取,并根据提取到的关键词生成话务数据分析报表。
其中,所述话务数据分析报表包括:
用户意图标签、用户意图结果,根据预设的关键词提取规则,对用户的录音转化的文本内容进行关键词提取,以得到用户标签;
运营管理分析,根据输出的报表结果,对话务的接通率、出催率、秒挂率等策划对应运营提升方案。
用户意图分析报表,根据预设的关键词提取规则,对用户的录音转化的文本内容进行关键词提取,以得到用户的意图标签;
运营管理分析报表,根据输出的标准化句子,对运营服务的不符合标准的用语习惯进行标准化管理。
根据上述生成的报表,可更方便呼叫中心的业务管理,对服务人员的服务用语制定标准化的规则,对用户的意图进行更加明确地分类,以便于市场人员或其他人员有针对性的为用户提供定制化的服务。
从上述描述可知,本申请实施例提供的话务数据处理方法,能够通过基于预设语料库中的句子样本数据,进行标准化句向量模型训练;将接收到的录音数据文件转化为文本内容;将所述文本内容进行句子切分,并计算每个句子的句向量;基于所述标准化句向量模型对所述每个句子的句向量进行标准化训练,得到对应的标准化句子;将所述标准化句子进行关键词提取,并根据提取到的关键词生成话务数据分析报表,本申请能够利用企业呼叫中心积累的海量语音语料和文本语料分别构建语音识别模型和标准化句向量模型,以对呼叫中心的录音数据进行语音转写生成文本内容,通过对生成的文本内容进行标准化转换,从而利用文本分析及设置。
为了能够准确训练得到标准化句向量模型,在本申请的话务数据处理方法的一实施例中,参见图2,还可以具体包含如下内容:
步骤S201:将预设语料库中的各句子样本数据进行句向量计算,得到句向量样本集合;
步骤S202:将所述句向量样本集合中的每个句向量样本进行相似性计算;
步骤S203:利用神经网络算法对符合相似性阈值的多个句向量进行标准化训练,建立标准化句向量模型。
具体的,本步骤包括:
将语料库中的各句子样本进行句向量计算,得到句向量样本集合;
将所述句向量样本集合中的每个句向量样本进行相似性计算;
利用神经网络算法对符合相似性阈值的复数个句向量进行标准化训练,建立标准化句向量模型。
上述神经网络算法可采用常用的卷积神经网络模型(CNN),通过对复杂多样的句子进行标准化的训练,可对输入进行标准化输出;
本实施例中,企业呼叫中心根据与用户的大量通话录音积累了海量的语音语料,通过其智能语音识别模型,可将该语音语料进行文本转写,生成文本语料库,并且,由于行业的特殊性,该文本语料库与通用的语料库相比,会更加标准化与定制化,利用句向量训练工具得到该文本语料库中的各句子样本的句向量,并通过对各句向量进行相似性计算,对符合设定的相似性阈值的若干句向量进行标准化输出,使表达同一个意思的不同句子,最终输出为一精简的标准化句子。
为了能够准确得到标准化句子,在本申请的话务数据处理方法的一实施例中,参见图3,还可以具体包含如下内容:
步骤S301:将所述每个句子的句向量与所述句向量样本集合中的各句向量样本进行相似性计算;
步骤S302:分别选择符合与该每个句子的句向量相似性阈值的句向量样本所对应的标准化句向量模型,对该每个句子的句向量进行标准化训练;
步骤S303:将训练生成的每个句子的标准句向量进行转化,输出对应的标准化句子。
具体的,本步骤包括:
将所述每个句子的句向量与所述句向量样本集合中的各句向量样本进行相似性计算;
分别选择符合与该每个句子的句向量相似性阈值的句向量样本所对应的标准化句向量模型,对该每个句子的句向量进行标准化训练;
将训练生成的每个句子的标准句向量进行转化,输出对应的标准化句子。
为了能够对文本内容进行过滤,在本申请的话务数据处理方法的一实施例中,还可以具体包含如下内容:
对所述文本内容进行无效词语或无效语句的过滤。
为了能够对呼叫中心每天产生的海量语音数据和文本数据进行有效分析,及时发现用户核心诉求意图、工作过程中的问题和不足、有效把握服务质量、针对性的改善、培训、提升用户满意度,本申请提供一种用于实现所述话务数据处理方法的全部或部分内容的话务数据处理装置的实施例,参见图4,所述话务数据处理装置具体包含有如下内容:
模型训练模块10,用于基于预设语料库中的句子样本数据,进行标准化句向量模型训练;
文本转化模块20,用于将接收到的录音数据文件转化为文本内容;
句向量确定模块30,用于将所述文本内容进行句子切分,并计算每个句子的句向量;
标准化句子确定模块40,用于基于所述标准化句向量模型对所述每个句子的句向量进行标准化训练,得到对应的标准化句子;
关键词提取模块50,用于将所述标准化句子进行关键词提取,并根据提取到的关键词生成话务数据分析报表。
从上述描述可知,本申请实施例提供的话务数据处理装置,能够通过基于预设语料库中的句子样本数据,进行标准化句向量模型训练;将接收到的录音数据文件转化为文本内容;将所述文本内容进行句子切分,并计算每个句子的句向量;基于所述标准化句向量模型对所述每个句子的句向量进行标准化训练,得到对应的标准化句子;将所述标准化句子进行关键词提取,并根据提取到的关键词生成话务数据分析报表,本申请能够利用企业呼叫中心积累的海量语音语料和文本语料分别构建语音识别模型和标准化句向量模型,以对呼叫中心的录音数据进行语音转写生成文本内容,通过对生成的文本内容进行标准化转换,从而利用文本分析及设置。
在本申请的话务数据处理装置的一实施例中,参见图5,所述句向量确定模块30包括:
样本集合确定单元31,用于将预设语料库中的各句子样本数据进行句向量计算,得到句向量样本集合;
相似性计算单元32,用于将所述句向量样本集合中的每个句向量样本进行相似性计算;
模型建立单元33,用于利用神经网络算法对符合相似性阈值的多个句向量进行标准化训练,建立标准化句向量模型。
在本申请的话务数据处理装置的一实施例中,参见图6,所述标准化句子确定模块40包括:
相似性计算单元41,用于将所述每个句子的句向量与所述句向量样本集合中的各句向量样本进行相似性计算;
标准化训练单元42,用于分别选择符合与该每个句子的句向量相似性阈值的句向量样本所对应的标准化句向量模型,对该每个句子的句向量进行标准化训练;
句向量转化单元43,用于将训练生成的每个句子的标准句向量进行转化,输出对应的标准化句子。
在本申请的话务数据处理装置的一实施例中,还包括:
文本过滤单元,用于对所述文本内容进行无效词语或无效语句的过滤。
为了更进一步说明本方案,本申请还提供一种应用上述话务数据处理装置实现话务数据处理方法的具体应用实例,具体包含有如下内容:
S1:基于语料库的句子样本,进行标准化句向量模型训练;
具体的,本步骤包括:
将语料库中的各句子样本进行句向量计算,得到句向量样本集合;
将所述句向量样本集合中的每个句向量样本进行相似性计算;
利用神经网络算法对符合相似性阈值的复数个句向量进行标准化训练,建立标准化句向量模型。
上述神经网络算法可采用常用的卷积神经网络模型(CNN),通过对复杂多样的句子进行标准化的训练,可对输入进行标准化输出;
本实施例中,企业呼叫中心根据与用户的大量通话录音积累了海量的语音语料,通过其智能语音识别模型,可将该语音语料进行文本转写,生成文本语料库,并且,由于行业的特殊性,该文本语料库与通用的语料库相比,会更加标准化与定制化,利用句向量训练工具得到该文本语料库中的各句子样本的句向量,并通过对各句向量进行相似性计算,对符合设定的相似性阈值的若干句向量进行标准化输出,使表达同一个意思的不同句子,最终输出为一精简的标准化句子。
S2:从电话录音平台下载录音数据文件,利用语音转写平台将该录音数据文件转写为文本内容;
由于本方法所应用的系统可分开部署相应的部分,在企业当地的电话录音平台对接,就近获取录音数据,在调听录音时,需要将二进制语音流进行和企业分部网络间的传输;
在企业分部同样要与本地的录音平台对接,实现录音的获取和转写。此外,根据语音分析的用户主要集中情况及数据汇总的需要,整个呼叫中心的质检文本内容处理、语音内容分析集中处理,内容检索服务及数据库需要集中部署;
针对所述录音数据文件,在进行转写及分析之前,还需采用所述前段语音处理技术对该录音数据文件进行端点检测、噪音消除和特征提取的处理,以输出清晰的语音文件;
除此之外,为保证分别对用户和运营服务进行后续不同标准的分析,可在本步骤中对录音数据文件进行话者分离,将分离后的用户语音和机器人语音分别进行转写;
本步骤中所提到的语音转写平台的接口层采用主备方式,语音转写(ASR)引擎服务器采用负载均衡方式部署。接口层分为2层,首层是录音获取和转写调度层,支持从企业的录音平台数据库中定时轮询,获取最新生成的录音,并完成转码,本层理论上也可以跨区域调度,如在的转写引擎完成转写,只是考虑到企业与分部网络传输的带宽时延问题,并不这样配置;第二层接口是录音分发层,将首层发来的一批录音逐个分配给不同的引擎服务器转写,使全部引擎服务器得到充分利用,以及时将每天生成的大量录音进行实时转写;
所述录音数据文件进行转写的过程中,还会生成随路数据,包括电话号码、时长、来电时间和存储路径等。
S3:将所述文本内容进行句子切分,并计算每个句子的句向量;
本实施例中,在对所述文本内容进行句子切分之前,还可进行无效词语或无效句子的过滤,使文本内容更加精简有效;
而句向量的计算是基于词向量均值计算的基础上实现的,首先将待计算的句子进行分词,利用词向量训练工具分别计算每个词语的词向量,对构成该句子的若干词向量进行均值计算,即可得到该句子的句向量。
具体的,可采用微软的Doc2vec模型进行词向量训练,该Doc2vec模型又叫Paragraph Vector是Tomas Mikolov基于word2vec模型提出的,其具有一些优点,比如不用固定句子长度,接受不同长度的句子做训练样本,Doc2vec是一个无监督学习算法,该算法用于预测一个向量来表示不同的文档,该模型的结构潜在的克服了词袋模型的缺点;
Doc2vec是基于Word2vec基础上构建的,相比于Word2vec,Doc2vec不仅能训练处词向量还能训练处句子向量并预测新的句子向量。Doc2vec模型结构相对于Word2vec,不同点在于在输入层上多增加了一个Paragraph vector句子向量,该向量在同一句下的不同的训练中是权值共享的,这样训练出来的Paragraph vector就会逐渐在每句子中的几次训练中不断稳定下来,形成该句子的主旨。这样就训练出来了我们需要的句子向量。在预测新的句子向量时,是需要重新训练的,此时该模型的词向量和投影层到输出层的soft weights参数固定,只剩下Paragraph vector用梯度下降法求得,所以预测新句子时虽然也要放入模型中不断迭代求出,相比于训练时,速度会快得多。
S4:基于标准化句向量模型对所述每个句子的句向量进行标准化训练,输出对应的标准化句子;
具体的,本步骤包括:
将所述每个句子的句向量与所述句向量样本集合中的各句向量样本进行相似性计算;
分别选择符合与该每个句子的句向量相似性阈值的句向量样本所对应的标准化句向量模型,对该每个句子的句向量进行标准化训练;
将训练生成的每个句子的标准句向量进行转化,输出对应的标准化句子。
S5:将所述标准化句子进行关键词提取,并根据提取的关键词生成话务数据分析报表;
本实施例中,话务数据分析报表根据工作需求可包括如下内容:
用户意图分析报表,根据预设的关键词提取规则,对用户的录音转化的文本内容进行关键词提取,以得到用户的意图标签;
运营管理分析报表,根据输出的标准化句子,对运营服务的不符合标准的用语习惯进行标准化管理。
根据上述生成的报表,可更方便呼叫中心的业务管理,对服务人员的服务用语制定标准化的规则,对用户的意图进行更加明确地分类,以便于市场人员或其他人员有针对性的为用户提供定制化的服务。
从硬件层面来说,为了能够对呼叫中心每天产生的海量语音数据和文本数据进行有效分析,及时发现用户核心诉求意图、工作过程中的问题和不足、有效把握服务质量、针对性的改善、培训、提升用户满意度,本申请提供一种用于实现所述话务数据处理方法中的全部或部分内容的电子设备的实施例,所述电子设备具体包含有如下内容:
处理器(processor)、存储器(memory)、通信接口(Communications Interface)和总线;其中,所述处理器、存储器、通信接口通过所述总线完成相互间的通信;所述通信接口用于实现话务数据处理装置与核心业务系统、用户终端以及相关数据库等相关设备之间的信息传输;该逻辑控制器可以是台式计算机、平板电脑及移动终端等,本实施例不限于此。在本实施例中,该逻辑控制器可以参照实施例中的话务数据处理方法的实施例,以及话务数据处理装置的实施例进行实施,其内容被合并于此,重复之处不再赘述。
可以理解的是,所述用户终端可以包括智能手机、平板电子设备、网络机顶盒、便携式计算机、台式电脑、个人数字助理(PDA)、车载设备、智能穿戴设备等。其中,所述智能穿戴设备可以包括智能眼镜、智能手表、智能手环等。
在实际应用中,话务数据处理方法的部分可以在如上述内容所述的电子设备侧执行,也可以所有的操作都在所述客户端设备中完成。具体可以根据所述客户端设备的处理能力,以及用户使用场景的限制等进行选择。本申请对此不作限定。若所有的操作都在所述客户端设备中完成,所述客户端设备还可以包括处理器。
上述的客户端设备可以具有通信模块(即通信单元),可以与远程的服务器进行通信连接,实现与所述服务器的数据传输。所述服务器可以包括任务调度中心一侧的服务器,其他的实施场景中也可以包括中间平台的服务器,例如与任务调度中心服务器有通信链接的第三方服务器平台的服务器。所述的服务器可以包括单台计算机设备,也可以包括多个服务器组成的服务器集群,或者分布式装置的服务器结构。
图7为本申请实施例的电子设备9600的系统构成的示意框图。如图7所示,该电子设备9600可以包括中央处理器9100和存储器9140;存储器9140耦合到中央处理器9100。值得注意的是,该图7是示例性的;还可以使用其他类型的结构,来补充或代替该结构,以实现电信功能或其他功能。
一实施例中,话务数据处理方法功能可以被集成到中央处理器9100中。其中,中央处理器9100可以被配置为进行如下控制:
步骤S101:基于预设语料库中的句子样本数据,进行标准化句向量模型训练;
步骤S102:将接收到的录音数据文件转化为文本内容;
步骤S103:将所述文本内容进行句子切分,并计算每个句子的句向量;
步骤S104:基于所述标准化句向量模型对所述每个句子的句向量进行标准化训练,得到对应的标准化句子;
步骤S105:将所述标准化句子进行关键词提取,并根据提取到的关键词生成话务数据分析报表。
从上述描述可知,本申请实施例提供的电子设备,通过基于预设语料库中的句子样本数据,进行标准化句向量模型训练;将接收到的录音数据文件转化为文本内容;将所述文本内容进行句子切分,并计算每个句子的句向量;基于所述标准化句向量模型对所述每个句子的句向量进行标准化训练,得到对应的标准化句子;将所述标准化句子进行关键词提取,并根据提取到的关键词生成话务数据分析报表,本申请能够利用企业呼叫中心积累的海量语音语料和文本语料分别构建语音识别模型和标准化句向量模型,以对呼叫中心的录音数据进行语音转写生成文本内容,通过对生成的文本内容进行标准化转换,从而利用文本分析及设置。
在另一个实施方式中,话务数据处理装置可以与中央处理器9100分开配置,例如可以将话务数据处理装置配置为与中央处理器9100连接的芯片,通过中央处理器的控制来实现话务数据处理方法功能。
如图7所示,该电子设备9600还可以包括:通信模块9110、输入单元9120、音频处理器9130、显示器9160、电源9170。值得注意的是,电子设备9600也并不是必须要包括图7中所示的所有部件;此外,电子设备9600还可以包括图7中没有示出的部件,可以参考现有技术。
如图7所示,中央处理器9100有时也称为控制器或操作控件,可以包括微处理器或其他处理器装置和/或逻辑装置,该中央处理器9100接收输入并控制电子设备9600的各个部件的操作。
其中,存储器9140,例如可以是缓存器、闪存、硬驱、可移动介质、易失性存储器、非易失性存储器或其它合适装置中的一种或更多种。可储存上述与失败有关的信息,此外还可存储执行有关信息的程序。并且中央处理器9100可执行该存储器9140存储的该程序,以实现信息存储或处理等。
输入单元9120向中央处理器9100提供输入。该输入单元9120例如为按键或触摸输入装置。电源9170用于向电子设备9600提供电力。显示器9160用于进行图像和文字等显示对象的显示。该显示器例如可为LCD显示器,但并不限于此。
该存储器9140可以是固态存储器,例如,只读存储器(ROM)、随机存取存储器(RAM)、SIM卡等。还可以是这样的存储器,其即使在断电时也保存信息,可被选择性地擦除且设有更多数据,该存储器的示例有时被称为EPROM等。存储器9140还可以是某种其它类型的装置。存储器9140包括缓冲存储器9141(有时被称为缓冲器)。存储器9140可以包括应用/功能存储部9142,该应用/功能存储部9142用于存储应用程序和功能程序或用于通过中央处理器9100执行电子设备9600的操作的流程。
存储器9140还可以包括数据存储部9143,该数据存储部9143用于存储数据,例如联系人、数字数据、图片、声音和/或任何其他由电子设备使用的数据。存储器9140的驱动程序存储部9144可以包括电子设备的用于通信功能和/或用于执行电子设备的其他功能(如消息传送应用、通讯录应用等)的各种驱动程序。
通信模块9110即为经由天线9111发送和接收信号的发送机/接收机9110。通信模块(发送机/接收机)9110耦合到中央处理器9100,以提供输入信号和接收输出信号,这可以和常规移动通信终端的情况相同。
基于不同的通信技术,在同一电子设备中,可以设置有多个通信模块9110,如蜂窝网络模块、蓝牙模块和/或无线局域网模块等。通信模块(发送机/接收机)9110还经由音频处理器9130耦合到扬声器9131和麦克风9132,以经由扬声器9131提供音频输出,并接收来自麦克风9132的音频输入,从而实现通常的电信功能。音频处理器9130可以包括任何合适的缓冲器、解码器、放大器等。另外,音频处理器9130还耦合到中央处理器9100,从而使得可以通过麦克风9132能够在本机上录音,且使得可以通过扬声器9131来播放本机上存储的声音。
本申请的实施例还提供能够实现上述实施例中的执行主体为服务器或客户端的话务数据处理方法中全部步骤的一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述实施例中的执行主体为服务器或客户端的话务数据处理方法的全部步骤,例如,所述处理器执行所述计算机程序时实现下述步骤:
步骤S101:基于预设语料库中的句子样本数据,进行标准化句向量模型训练;
步骤S102:将接收到的录音数据文件转化为文本内容;
步骤S103:将所述文本内容进行句子切分,并计算每个句子的句向量;
步骤S104:基于所述标准化句向量模型对所述每个句子的句向量进行标准化训练,得到对应的标准化句子;
步骤S105:将所述标准化句子进行关键词提取,并根据提取到的关键词生成话务数据分析报表。
从上述描述可知,本申请实施例提供的计算机可读存储介质,通过基于预设语料库中的句子样本数据,进行标准化句向量模型训练;将接收到的录音数据文件转化为文本内容;将所述文本内容进行句子切分,并计算每个句子的句向量;基于所述标准化句向量模型对所述每个句子的句向量进行标准化训练,得到对应的标准化句子;将所述标准化句子进行关键词提取,并根据提取到的关键词生成话务数据分析报表,本申请能够利用企业呼叫中心积累的海量语音语料和文本语料分别构建语音识别模型和标准化句向量模型,以对呼叫中心的录音数据进行语音转写生成文本内容,通过对生成的文本内容进行标准化转换,从而利用文本分析及设置。
本领域内的技术人员应明白,本发明的实施例可提供为方法、装置、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(装置)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
本发明中应用了具体实施例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种话务数据处理方法,其特征在于,所述方法包括:
基于预设语料库中的句子样本数据,进行标准化句向量模型训练;
将接收到的录音数据文件转化为文本内容;
将所述文本内容进行句子切分,并计算每个句子的句向量;
基于所述标准化句向量模型对所述每个句子的句向量进行标准化训练,得到对应的标准化句子;
将所述标准化句子进行关键词提取,并根据提取到的关键词生成话务数据分析报表。
2.根据权利要求1所述的话务数据处理方法,其特征在于,所述基于预设语料库中的句子样本数据,进行标准化句向量模型训练,包括:
将预设语料库中的各句子样本数据进行句向量计算,得到句向量样本集合;
将所述句向量样本集合中的每个句向量样本进行相似性计算;
利用神经网络算法对符合相似性阈值的多个句向量进行标准化训练,建立标准化句向量模型。
3.根据权利要求2所述的话务数据处理方法,其特征在于,所述基于所述标准化句向量模型对所述每个句子的句向量进行标准化训练,得到对应的标准化句子,包括:
将所述每个句子的句向量与所述句向量样本集合中的各句向量样本进行相似性计算;
分别选择符合与该每个句子的句向量相似性阈值的句向量样本所对应的标准化句向量模型,对该每个句子的句向量进行标准化训练;
将训练生成的每个句子的标准句向量进行转化,输出对应的标准化句子。
4.根据权利要求1所述的话务数据处理方法,其特征在于,在所述将所述文本内容进行句子切分之前,还包括:
对所述文本内容进行无效词语或无效语句的过滤。
5.一种话务数据处理装置,其特征在于,包括:
模型训练模块,用于基于预设语料库中的句子样本数据,进行标准化句向量模型训练;
文本转化模块,用于将接收到的录音数据文件转化为文本内容;
句向量确定模块,用于将所述文本内容进行句子切分,并计算每个句子的句向量;
标准化句子确定模块,用于基于所述标准化句向量模型对所述每个句子的句向量进行标准化训练,得到对应的标准化句子;
关键词提取模块,用于将所述标准化句子进行关键词提取,并根据提取到的关键词生成话务数据分析报表。
6.根据权利要求5所述的话务数据处理装置,其特征在于,所述句向量确定模块包括:
样本集合确定单元,用于将预设语料库中的各句子样本数据进行句向量计算,得到句向量样本集合;
相似性计算单元,用于将所述句向量样本集合中的每个句向量样本进行相似性计算;
模型建立单元,用于利用神经网络算法对符合相似性阈值的多个句向量进行标准化训练,建立标准化句向量模型。
7.根据权利要求6所述的话务数据处理装置,其特征在于,所述标准化句子确定模块包括:
相似性计算单元,用于将所述每个句子的句向量与所述句向量样本集合中的各句向量样本进行相似性计算;
标准化训练单元,用于分别选择符合与该每个句子的句向量相似性阈值的句向量样本所对应的标准化句向量模型,对该每个句子的句向量进行标准化训练;
句向量转化单元,用于将训练生成的每个句子的标准句向量进行转化,输出对应的标准化句子。
8.根据权利要求5所述的话务数据处理装置,其特征在于,还包括:
文本过滤单元,用于对所述文本内容进行无效词语或无效语句的过滤。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1至4任一项所述的话务数据处理方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至4任一项所述的话务数据处理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010187238.5A CN111414748A (zh) | 2020-03-17 | 2020-03-17 | 话务数据处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010187238.5A CN111414748A (zh) | 2020-03-17 | 2020-03-17 | 话务数据处理方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111414748A true CN111414748A (zh) | 2020-07-14 |
Family
ID=71492989
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010187238.5A Pending CN111414748A (zh) | 2020-03-17 | 2020-03-17 | 话务数据处理方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111414748A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112988953A (zh) * | 2021-04-26 | 2021-06-18 | 成都索贝数码科技股份有限公司 | 自适应广播电视新闻关键词标准化方法 |
CN113590828A (zh) * | 2021-08-12 | 2021-11-02 | 杭州东方通信软件技术有限公司 | 一种通话关键信息的获取方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140358539A1 (en) * | 2013-05-29 | 2014-12-04 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for building a language model |
CN108182175A (zh) * | 2017-12-29 | 2018-06-19 | 中国银联股份有限公司 | 一种文本质量指标获取方法及装置 |
CN110853649A (zh) * | 2019-11-05 | 2020-02-28 | 集奥聚合(北京)人工智能科技有限公司 | 基于智能语音技术的标签提取方法、系统、设备及介质 |
CN111489754A (zh) * | 2019-01-28 | 2020-08-04 | 国家电网有限公司客户服务中心 | 一种基于智能语音技术的话务数据分析方法 |
-
2020
- 2020-03-17 CN CN202010187238.5A patent/CN111414748A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140358539A1 (en) * | 2013-05-29 | 2014-12-04 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for building a language model |
CN108182175A (zh) * | 2017-12-29 | 2018-06-19 | 中国银联股份有限公司 | 一种文本质量指标获取方法及装置 |
CN111489754A (zh) * | 2019-01-28 | 2020-08-04 | 国家电网有限公司客户服务中心 | 一种基于智能语音技术的话务数据分析方法 |
CN110853649A (zh) * | 2019-11-05 | 2020-02-28 | 集奥聚合(北京)人工智能科技有限公司 | 基于智能语音技术的标签提取方法、系统、设备及介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112988953A (zh) * | 2021-04-26 | 2021-06-18 | 成都索贝数码科技股份有限公司 | 自适应广播电视新闻关键词标准化方法 |
CN113590828A (zh) * | 2021-08-12 | 2021-11-02 | 杭州东方通信软件技术有限公司 | 一种通话关键信息的获取方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110853649A (zh) | 基于智能语音技术的标签提取方法、系统、设备及介质 | |
CN111933129B (zh) | 音频处理方法、语言模型的训练方法、装置及计算机设备 | |
CN111429889B (zh) | 基于截断注意力的实时语音识别的方法、装置、设备以及计算机可读存储介质 | |
CN109817213B (zh) | 用于自适应语种进行语音识别的方法、装置及设备 | |
CN106683677B (zh) | 语音识别方法及装置 | |
CN110827805B (zh) | 语音识别模型训练方法、语音识别方法和装置 | |
CN111081280B (zh) | 与文本无关的语音情感识别方法及装置、用于识别情感的算法模型的生成方法 | |
CN112634876B (zh) | 语音识别方法、装置、存储介质及电子设备 | |
CN111477216A (zh) | 一种用于对话机器人的音意理解模型的训练方法及系统 | |
CN111489754A (zh) | 一种基于智能语音技术的话务数据分析方法 | |
CN112530408A (zh) | 用于识别语音的方法、装置、电子设备和介质 | |
CN111489765A (zh) | 一种基于智能语音技术的话务服务质检方法 | |
CN112509562B (zh) | 用于文本后处理的方法、装置、电子设备和介质 | |
JP2010085536A (ja) | 音声認識システム、音声認識方法、音声認識クライアントおよびプログラム | |
CN110136715B (zh) | 语音识别方法和装置 | |
CN111435592B (zh) | 一种语音识别方法、装置及终端设备 | |
CN111489743A (zh) | 一种基于智能语音技术的运营管理分析系统 | |
CN112259089A (zh) | 语音识别方法及装置 | |
CN111414748A (zh) | 话务数据处理方法及装置 | |
US20230410794A1 (en) | Audio recognition method, method of training audio recognition model, and electronic device | |
CN113793599A (zh) | 语音识别模型的训练方法和语音识别方法及装置 | |
CN113486661A (zh) | 一种文本理解方法、系统、终端设备和存储介质 | |
CN110809796B (zh) | 具有解耦唤醒短语的语音识别系统和方法 | |
CN114613351A (zh) | 韵律预测方法、装置、可读介质及电子设备 | |
CN112397053A (zh) | 语音识别方法、装置、电子设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200714 |
|
RJ01 | Rejection of invention patent application after publication |