CN110347823A - 基于语音的用户分类方法、装置、计算机设备及存储介质 - Google Patents
基于语音的用户分类方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN110347823A CN110347823A CN201910492604.5A CN201910492604A CN110347823A CN 110347823 A CN110347823 A CN 110347823A CN 201910492604 A CN201910492604 A CN 201910492604A CN 110347823 A CN110347823 A CN 110347823A
- Authority
- CN
- China
- Prior art keywords
- keyword
- recognition result
- voice
- user
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000003860 storage Methods 0.000 title claims abstract description 20
- 230000008909 emotion recognition Effects 0.000 claims abstract description 32
- 230000011218 segmentation Effects 0.000 claims abstract description 23
- 230000008451 emotion Effects 0.000 claims abstract description 17
- 238000012549 training Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 14
- 239000000284 extract Substances 0.000 claims description 7
- 235000013399 edible fruits Nutrition 0.000 claims description 4
- 238000005086 pumping Methods 0.000 claims 1
- 238000007689 inspection Methods 0.000 abstract description 22
- 235000021167 banquet Nutrition 0.000 abstract description 10
- 238000005516 engineering process Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 8
- 238000012706 support-vector machine Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000004927 fusion Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000005520 cutting process Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000036651 mood Effects 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000010224 classification analysis Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000008676 import Effects 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000000611 regression analysis Methods 0.000 description 2
- 238000003045 statistical classification method Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了基于语音的用户分类方法、装置、计算机设备及存储介质。该方法包括:接收待识别语音,通过N‑gram模型对待识别语音进行进行识别,得到识别结果;将识别结果通过关键词抽取,得到与识别结果对应的关键词集合;获取关键词集合的语义向量,将语义向量作为文本情感分类器的输入,得到文本情感识别结果;以及将名称词性的关键词根据预先设置的标签库对应的标签转化策略转化成对应标签,以得到与所述识别结果对应的用户画像。该方法采用语音识别、情感识别及用户画像技术,实现了根据坐席与用户沟通的待识别语音进行语音识别后,进行文本情感识别及用户画像绘制,有效将各类型客户分类后便于质检岗分了抽查,提高了质检效率。
Description
技术领域
本发明涉及语音识别技术领域,尤其涉及一种基于语音的用户分类方法、装置、计算机设备及存储介质。
背景技术
目前,电话营销在业务推广中得到了广泛的应用,但是现在坐席对客户拨打电话进行沟通后,质检岗对通话的录音信息进行质检时只能逐个收听,无法转化为文字,不能实时知道坐席与客户之间的沟通效果;也无法对录音信息进行情感分类及关键语音节点的标记,降低了语音质检的效率。
发明内容
本发明实施例提供了一种基于语音的用户分类方法、装置、计算机设备及存储介质,旨在解决现有技术中质检岗对坐席与客户之间的语音进行质检时只能逐个收听录音信息,录音信息无法转化为文字,不能实时知道坐席与客户之间的沟通效果,降低了语音质检的效率的问题。
第一方面,本发明实施例提供了一种基于语音的用户分类方法,其包括:
接收待识别语音,通过所述N-gram模型对所述待识别语音进行进行识别,得到识别结果;
将所述识别结果通过词频-逆文本频率指数模型进行关键词抽取,得到与所述识别结果对应的关键词集合;
获取所述关键词集合的语义向量,将所述语义向量作为文本情感分类器的输入,得到文本情感识别结果;以及
获取所述关键词集合中名称词性的关键词,将名称词性的关键词根据预先设置的标签库对应的标签转化策略转化成对应标签,以得到与所述识别结果对应的用户画像。
第二方面,本发明实施例提供了一种基于语音的用户分类装置,其包括:
语音识别单元,用于接收待识别语音,通过所述N-gram模型对所述待识别语音进行进行识别,得到识别结果;
关键词抽取单元,用于将所述识别结果通过词频-逆文本频率指数模型进行关键词抽取,得到与所述识别结果对应的关键词集合;
情感识别单元,用于获取所述关键词集合的语义向量,将所述语义向量作为文本情感分类器的输入,得到文本情感识别结果;以及
用户画像绘制单元,用于获取所述关键词集合中名称词性的关键词,将名称词性的关键词根据预先设置的标签库对应的标签转化策略转化成对应标签,以得到与所述识别结果对应的用户画像。
第三方面,本发明实施例又提供了一种计算机设备,其包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面所述的基于语音的用户分类方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其中所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行上述第一方面所述的基于语音的用户分类方法。
本发明实施例提供了一种基于语音的用户分类方法、装置、计算机设备及存储介质。该方法包括接收待识别语音,通过所述N-gram模型对所述待识别语音进行进行识别,得到识别结果;将所述识别结果通过词频-逆文本频率指数模型进行关键词抽取,得到与所述识别结果对应的关键词集合;获取所述关键词集合的语义向量,将所述语义向量作为文本情感分类器的输入,得到文本情感识别结果;以及获取所述关键词集合中名称词性的关键词,将名称词性的关键词根据预先设置的标签库对应的标签转化策略转化成对应标签,以得到与所述识别结果对应的用户画像。该方法采用语音识别、情感识别及用户画像技术,实现了根据坐席与用户沟通的待识别语音进行语音识别后,进行文本情感识别及用户画像绘制,有效将各类型客户分类后便于质检岗分了抽查,提高了质检效率。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的基于语音的用户分类方法的应用场景示意图;
图2为本发明实施例提供的基于语音的用户分类方法的流程示意图;
图3为本发明实施例提供的基于语音的用户分类方法的另一流程示意图;
图4为本发明实施例提供的基于语音的用户分类方法的子流程示意图;
图5为本发明实施例提供的基于语音的用户分类方法的另一子流程示意图;
图6为本发明实施例提供的基于语音的用户分类方法的另一子流程示意图;
图7为本发明实施例提供的基于语音的用户分类装置的示意性框图;
图8为本发明实施例提供的基于语音的用户分类装置的另一示意性框图;
图9为本发明实施例提供的基于语音的用户分类装置的子单元示意性框图;
图10为本发明实施例提供的基于语音的用户分类装置的另一子单元示意性框图;
图11为本发明实施例提供的基于语音的用户分类装置的另一子单元示意性框图;
图12为本发明实施例提供的计算机设备的示意性框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
请参阅图1和图2,图1为本发明实施例提供的基于语音的用户分类方法的应用场景示意图,图2为本发明实施例提供的基于语音的用户分类方法的流程示意图,该基于语音的用户分类方法应用于服务器中,该方法通过安装于服务器中的应用软件进行执行。
如图2所示,该方法包括步骤S110~S140。
S110、接收待识别语音,通过所述N-gram模型对所述待识别语音进行进行识别,得到识别结果。
在本实施例中,是站在服务器的角度描述技术方案。服务器可接收训练集语料库训练得到N-gram模型,通过N-gram模型对设置在坐席端上传至服务器的待识别语音进行识别。从而得到识别结果。
在一实施例中,步骤S110之前还包括:
接收训练集语料库,将所述训练集语料库输入至初始N-gram模型进行训练,得到N-gram模型;其中,所述N-gram模型为N元模型。
在本实施例中,N-gram模型是一种语言模型(Language Model,LM),语言模型是一个基于概率的判别模型,它的输入是一句话(单词的顺序序列),输出是这句话的概率,即这些单词的联合概率(joint probability)。
假设句子T是有词序列w1,w2,w3...wn组成,用公式表示N-Gram语言模型如下:
P(T)=P(w1)*p(w2)*p(w3)*…*p(wn)
=p(w1)*p(w2|w1)*p(w3|w1w2)*…*p(wn|w1w2w3...)
一般常用的N-Gram模型是Bi-Gram和Tri-Gram。分别用公式表示如下:
Bi-Gram:
P(T)=p(w1|begin)*p(w2|w1)*p(w3|w2)*…*p(wn|wn-1)
Tri-Gram:
P(T)=p(w1|begin1,begin2)*p(w2|w1,begin1)*p(w3|w2w1)*…*p(wn|wn-1,wn-2);
可见,对于句子T中每一个词出现的条件概率,可以通过在语料库中统计计数的方式得出。则n元模型如下:
p(wn|w1w2w3...)=C(wi-n-1,…,wi)/C(wi-n-1,…,wi-1);
式中C(wi-n-1,…,wi)表示字符串wi-n-1,…,wi在语料库中的次数。
根据所设置的模型融合比例,如商品语料与通用语料的比例设置为2:8,得到第一N-gram模型和所述第二N-gram模型的模型融合比例也为2:8,将所述第一N-gram模型和所述第二N-gram模型进行融合,最终得到用于语音识别的N-gram模型。
S120、将所述识别结果通过词频-逆文本频率指数模型进行关键词抽取,得到与所述识别结果对应的关键词集合。
在一实施例中,如图4所示,步骤S120包括:
S121、将所述识别结果通过基于概率统计分词模型进行分词,得到对应的分词结果;
S122、通过词频-逆文本频率指数模型,抽取所述分词结果中位于预设的第一排名值之前的关键词信息,以作为与所述识别结果对应的关键词集合。
在本实施例中,将所述识别结果通过基于概率统计分词模型进行分词过程如下:
例如,令C=C1C2...Cm,C是待切分的汉字串,令W=W1W2...Wn,W是切分的结果,Wa,Wb,……,Wk是C的所有可能的切分方案。那么,基于概率统计分词模型就是能够找到目的词串W,使得W满足:P(W|C)=MAX(P(Wa|C),P(Wb|C)...P(Wk|C))的分词模型,上述分词模型得到的词串W即估计概率为最大之词串。即:
对一个待分词的子串S,按照从左到右的顺序取出全部候选词w1、w2、…、wi、…、wn;在词典中查出每个候选词的概率值P(wi),并记录每个候选词的全部左邻词;计算每个候选词的累计概率,同时比较得到每个候选词的最佳左邻词;如果当前词wn是字串S的尾词,且累计概率P(wn)最大,则wn就是S的终点词;从wn开始,按照从右到左顺序,依次将每个词的最佳左邻词输出,即S的分词结果。
获取了与所述识别结果对应的分词结果后,再通过词频-逆文本频率指数模型(即TF-IDF模型,TF-IDF是Term Frequency–Inverse Document Frequency的简写),抽取所述分词结果中位于预设的第一排名值之前的关键词信息以作为关键词集合。通过TF-IDF模型抽取所述分词结果中位于预设的排名值之前的关键词信息,具体如下:
1)计算分词结果中每一分词i的词频,记为TFi;
2)计算分词结果中每一分词i的逆文档频率IDFi;
在计算每一分词i的逆文档频率IDFi时,需要一个语料库(与分词过程中的字典类似),用来模拟语言的使用环境;
逆文档频IDFi=lg[语料库的文档总数/(包含该分词的文档数+1)];
如果一个词越常见,那么分母就越大,逆文档频率就越小越接近0。分母之所以要加1,是为了避免分母为0(即所有文档都不包含该词)。
3)根据TFi*IDFi计算分词结果中每一分词i对应的词频-逆文本频率指数TF-IDFi;
显然,TF-IDF与一个词在文档中的出现次数成正比,与该词在整个语言中的出现次数成反比。所以,自动提取关键词即是计算出文档的每个分词的TF-IDF值,然后按降序排列,取排在前N位的词作为文档的关键词列表。
4)将分词结果中每一分词对应的词频-逆文本频率指数按降序排序,取排名位于预设的第一排名值之前(例如预设的第一排名值为6)的分词组成与所述识别结果对应的关键词集合。
S130、获取所述关键词集合的语义向量,将所述语义向量作为文本情感分类器的输入,得到文本情感识别结果。
在一实施例中,如图5所示,步骤S130包括:
S131、获取所述关键词集合中各关键词信息对应的目标词向量;
S132、根据所述关键词集合中各目标词向量,及各目标词向量对应的权重,获取与所述关键词集合对应的语义向量。
在本实施例中,获取与识别结果对应的关键词集合后,即可对应获取关键词集合中每一关键词对应的目标词向量。其中,获取关键词信息对应的词向量是基于预先构建的词汇表查询得到,词向量的获取过程称为word2vec,作用就是将自然语言中的字词转为计算机可以理解的稠密向量。例如,在语料库(也即词汇表)中,AA、BB、CC、DD(其中AA、BB、CC、DD代表一个中文词)各对应一个向量,向量中只有一个值为1,其余都为0。即先通过One-HotEncoder(独热码)将字词转为离散的单独的符号,再通过Word2Vec降维转化为低维度的连续值,也就是稠密向量,并且其中意思相近的词将被映射到向量空间中相近的位置。
当获取了所述关键词集合对应的语义向量时,即可输入至传统分类器,得到文本情感识别结果。
文本情感分类器可以选择传统分类器(SVM或者贝叶斯),通过传统分类器得到文本情感识别结果。
SVM(Support Vector Machine)指的是支持向量机,是常见的一种判别方法。在机器学习领域,是一个有监督的学习模型,通常用来进行模式识别、分类以及回归分析。
贝叶斯分类器是各种分类器中分类错误概率最小或者在预先给定代价的情况下平均风险最小的分类器。它的设计方法是一种最基本的统计分类方法。其分类原理是通过某对象的先验概率,利用贝叶斯公式计算出其后验概率,即该对象属于某一类的概率,选择具有最大后验概率的类作为该对象所属的类。
当对客户的待识别语音提取识别结果,并进行文本情感识别后,可以分析客户听到推广营销信息时的接受度,愉悦度,烦躁度。例如质检岗抽查烦躁情绪的录音信息时,只要输入文本情感识别结果对应的关键字,就可以听取这一类型的录音信息。
S140、获取所述关键词集合中名称词性的关键词,将名称词性的关键词根据预先设置的标签库对应的标签转化策略转化成对应标签,以得到与所述识别结果对应的用户画像。
在一实施例中,如图6所示,步骤S140包括:
S141、在所述标签库中获取与所述关键词集合中名称词性的关键词中各关键词对应的标签转化策略;
S142、根据与各关键词对应的标签转化策略,将各关键词对应转化为标签;
S143、由各关键词对应的标签,组成与所述识别结果对应的用户画像。
在本实施例中,将定性信息转化为定量分类是用户画像的一个重要工作环节,具有较高的业务场景要求。其主要目的是帮助企业将复杂数据简单化,将交易数据定性进行归类,并且融入商业分析的要求,对数据进行商业加工。
例如在设置标签转化策略时,可以将客户按照年龄区间分为学生,青年,中青年,中年,中老年,老年等人生阶段。源于各人生阶段的金融服务需求不同,在寻找目标客户时,可以通过人生阶段进行目标客户定位。企业可以利用客户的收入、学历、资产等情况将客户分为低、中、高端客户,并依据其金融服务需求,提供不同的金融服务。可以参考其金融消费记录和资产信息,以及交易产品,购买的产品,将客户行为特征进行定性描述,区分出电商客户,理财客户,保险客户,稳健投资客户,激进投资客户等。
当获取了所述关键词集合中名称词性的关键词,即可根据这些关键词绘制与所述识别结果对应的用户画像。当获知了用户画像后,可以分析获知客户意向模型,从而便于坐席根据用户画像对用户进行更精准的信息推送。
在一实施例中,如图3所示,步骤S140之后还包括:
S150、获取所述关键词集合中词频-逆文本频率指数为最大值的关键词,以作为目标关键词,定位所述目标关键词在所述识别结果中的时间点并进行关键词标记。
在本实施例中,为了对每一段待识别语音进行关键词的标记时,可以先获取获取所述关键词集合中词频-逆文本频率指数为最大值的关键词以作为目标关键词,然后所述目标关键词在该待识别的语音中的时间点并进行关键词标记(类似于标记歌曲的高潮部分)。这样质检人员可以很清楚的知道听哪些重点部分,节省时间,无需从头听到尾,提高了质检效率。
在一实施例中,步骤S140之后还包括:
S160、将所述识别结果对应的文本情感识别结果作为用户情感标签增加至所述识别结果对应的用户画像中,得到融合后用户画像。
在本实施例中,即获取某一用户的待识别语音对应的文本情感识别结果以及用户画像后,还可将文本情感识别结果作为用户情感标签增加至所述识别结果对应的用户画像中,形成具有用户情感标签数据的融合后用户画像。例如质检岗抽查烦躁情绪的录音信息时,只要输入文本情感识别结果对应的关键字,就可以听取这一类型的用户画像,以及与每一用户画像对应的待识别语音以及识别结果。
该方法实现了根据坐席与用户沟通的待识别语音进行语音识别后,进行文本情感识别及用户画像绘制,有效将各类型客户分类后便于质检岗分了抽查,提高了质检效率。
本发明实施例还提供一种基于语音的用户分类装置,该基于语音的用户分类装置用于执行前述基于语音的用户分类方法的任一实施例。具体地,请参阅图7,图7是本发明实施例提供的基于语音的用户分类装置的示意性框图。该基于语音的用户分类装置100可以配置于服务器中。
如图7所示,基于语音的用户分类装置100包括语音识别单元110、关键词抽取单元120、情感识别单元130、用户画像绘制单元140。
语音识别单元110,用于接收待识别语音,通过所述N-gram模型对所述待识别语音进行进行识别,得到识别结果。
在本实施例中,是站在服务器的角度描述技术方案。服务器可接收训练集语料库训练得到N-gram模型,通过N-gram模型对设置在坐席端上传至服务器的待识别语音进行识别。从而得到识别结果。
在一实施例中,基于语音的用户分类装置100还包括:
模型训练单元,用于接收训练集语料库,将所述训练集语料库输入至初始N-gram模型进行训练,得到N-gram模型;其中,所述N-gram模型为N元模型。
在本实施例中,N-gram模型是一种语言模型(Language Model,LM),语言模型是一个基于概率的判别模型,它的输入是一句话(单词的顺序序列),输出是这句话的概率,即这些单词的联合概率(joint probability)。
根据所设置的模型融合比例,如商品语料与通用语料的比例设置为2:8,得到第一N-gram模型和所述第二N-gram模型的模型融合比例也为2:8,将所述第一N-gram模型和所述第二N-gram模型进行融合,最终得到用于语音识别的N-gram模型。
关键词抽取单元120,用于将所述识别结果通过词频-逆文本频率指数模型进行关键词抽取,得到与所述识别结果对应的关键词集合。
在一实施例中,如图9所示,关键词抽取单元120包括:
分词单元121,用于将所述识别结果通过基于概率统计分词模型进行分词,得到对应的分词结果;
目标抽取单元122,用于通过词频-逆文本频率指数模型,抽取所述分词结果中位于预设的第一排名值之前的关键词信息,以作为与所述识别结果对应的关键词集合。
在本实施例中,将所述识别结果通过基于概率统计分词模型进行分词过程如下:
例如,令C=C1C2...Cm,C是待切分的汉字串,令W=W1W2...Wn,W是切分的结果,Wa,Wb,……,Wk是C的所有可能的切分方案。那么,基于概率统计分词模型就是能够找到目的词串W,使得W满足:P(W|C)=MAX(P(Wa|C),P(Wb|C)...P(Wk|C))的分词模型,上述分词模型得到的词串W即估计概率为最大之词串。即:
对一个待分词的子串S,按照从左到右的顺序取出全部候选词w1、w2、…、wi、…、wn;在词典中查出每个候选词的概率值P(wi),并记录每个候选词的全部左邻词;计算每个候选词的累计概率,同时比较得到每个候选词的最佳左邻词;如果当前词wn是字串S的尾词,且累计概率P(wn)最大,则wn就是S的终点词;从wn开始,按照从右到左顺序,依次将每个词的最佳左邻词输出,即S的分词结果。
获取了与所述识别结果对应的分词结果后,再通过词频-逆文本频率指数模型(即TF-IDF模型,TF-IDF是Term Frequency–Inverse Document Frequency的简写),抽取所述分词结果中位于预设的第一排名值之前的关键词信息以作为关键词集合。
情感识别单元130,用于获取所述关键词集合的语义向量,将所述语义向量作为文本情感分类器的输入,得到文本情感识别结果。
在一实施例中,如图10所示,情感识别单元130包括:
目标词向量获取单元131,用于获取所述关键词集合中各关键词信息对应的目标词向量;
语义向量获取单元132,用于根据所述关键词集合中各目标词向量,及各目标词向量对应的权重,获取与所述关键词集合对应的语义向量。
在本实施例中,获取与识别结果对应的关键词集合后,即可对应获取关键词集合中每一关键词对应的目标词向量。其中,获取关键词信息对应的词向量是基于预先构建的词汇表查询得到,词向量的获取过程称为word2vec,作用就是将自然语言中的字词转为计算机可以理解的稠密向量。例如,在语料库(也即词汇表)中,AA、BB、CC、DD(其中AA、BB、CC、DD代表一个中文词)各对应一个向量,向量中只有一个值为1,其余都为0。即先通过One-HotEncoder(独热码)将字词转为离散的单独的符号,再通过Word2Vec降维转化为低维度的连续值,也就是稠密向量,并且其中意思相近的词将被映射到向量空间中相近的位置。
当获取了所述关键词集合对应的语义向量时,即可输入至传统分类器,得到文本情感识别结果。
文本情感分类器可以选择传统分类器(SVM或者贝叶斯),通过传统分类器得到文本情感识别结果。
SVM(Support Vector Machine)指的是支持向量机,是常见的一种判别方法。在机器学习领域,是一个有监督的学习模型,通常用来进行模式识别、分类以及回归分析。
贝叶斯分类器是各种分类器中分类错误概率最小或者在预先给定代价的情况下平均风险最小的分类器。它的设计方法是一种最基本的统计分类方法。其分类原理是通过某对象的先验概率,利用贝叶斯公式计算出其后验概率,即该对象属于某一类的概率,选择具有最大后验概率的类作为该对象所属的类。
当对客户的待识别语音提取识别结果,并进行文本情感识别后,可以分析客户听到推广营销信息时的接受度,愉悦度,烦躁度。例如质检岗抽查烦躁情绪的录音信息时,只要输入文本情感识别结果对应的关键字,就可以听取这一类型的录音信息。
用户画像绘制单元140,用于获取所述关键词集合中名称词性的关键词,将名称词性的关键词根据预先设置的标签库对应的标签转化策略转化成对应标签,以得到与所述识别结果对应的用户画像。
在一实施例中,如图11所示,用户画像绘制单元140包括:
策略获取单元141,用于在所述标签库中获取与所述关键词集合中名称词性的关键词中各关键词对应的标签转化策略;
标签转化单元142,用于根据与各关键词对应的标签转化策略,将各关键词对应转化为标签;
画像绘制单元143,用于由各关键词对应的标签,组成与所述识别结果对应的用户画像。
在本实施例中,将定性信息转化为定量分类是用户画像的一个重要工作环节,具有较高的业务场景要求。其主要目的是帮助企业将复杂数据简单化,将交易数据定性进行归类,并且融入商业分析的要求,对数据进行商业加工。
例如在设置标签转化策略时,可以将客户按照年龄区间分为学生,青年,中青年,中年,中老年,老年等人生阶段。源于各人生阶段的金融服务需求不同,在寻找目标客户时,可以通过人生阶段进行目标客户定位。企业可以利用客户的收入、学历、资产等情况将客户分为低、中、高端客户,并依据其金融服务需求,提供不同的金融服务。可以参考其金融消费记录和资产信息,以及交易产品,购买的产品,将客户行为特征进行定性描述,区分出电商客户,理财客户,保险客户,稳健投资客户,激进投资客户等。
当获取了所述关键词集合中名称词性的关键词,即可根据这些关键词绘制与所述识别结果对应的用户画像。当获知了用户画像后,可以分析获知客户意向模型,从而便于坐席根据用户画像对用户进行更精准的信息推送。
在一实施例中,如图8所示,基于语音的用户分类装置100还包括:
关键点标记单元150,用于获取所述关键词集合中词频-逆文本频率指数为最大值的关键词,以作为目标关键词,定位所述目标关键词在所述识别结果中的时间点并进行关键词标记。
在本实施例中,为了对每一段待识别语音进行关键词的标记时,可以先获取获取所述关键词集合中词频-逆文本频率指数为最大值的关键词以作为目标关键词,然后所述目标关键词在该待识别的语音中的时间点并进行关键词标记(类似于标记歌曲的高潮部分)。这样质检人员可以很清楚的知道听哪些重点部分,节省时间,无需从头听到尾,提高了质检效率。
在一实施例中,基于语音的用户分类装置100还包括:
S160、将所述识别结果对应的文本情感识别结果作为用户情感标签增加至所述识别结果对应的用户画像中,得到融合后用户画像。
在本实施例中,即获取某一用户的待识别语音对应的文本情感识别结果以及用户画像后,还可将文本情感识别结果作为用户情感标签增加至所述识别结果对应的用户画像中,形成具有用户情感标签数据的融合后用户画像。例如质检岗抽查烦躁情绪的录音信息时,只要输入文本情感识别结果对应的关键字,就可以听取这一类型的用户画像,以及与每一用户画像对应的待识别语音以及识别结果。
该装置实现了根据坐席与用户沟通的待识别语音进行语音识别后,进行文本情感识别及用户画像绘制,有效将各类型客户分类后便于质检岗分了抽查,提高了质检效率。
上述基于语音的用户分类装置可以实现为计算机程序的形式,该计算机程序可以在如图12所示的计算机设备上运行。
请参阅图12,图12是本发明实施例提供的计算机设备的示意性框图。该计算机设备500是服务器,服务器可以是独立的服务器,也可以是多个服务器组成的服务器集群。
参阅图12,该计算机设备500包括通过系统总线501连接的处理器502、存储器和网络接口505,其中,存储器可以包括非易失性存储介质503和内存储器504。
该非易失性存储介质503可存储操作系统5031和计算机程序5032。该计算机程序5032被执行时,可使得处理器502执行基于语音的用户分类方法。
该处理器502用于提供计算和控制能力,支撑整个计算机设备500的运行。
该内存储器504为非易失性存储介质503中的计算机程序5032的运行提供环境,该计算机程序5032被处理器502执行时,可使得处理器502执行基于语音的用户分类方法。
该网络接口505用于进行网络通信,如提供数据信息的传输等。本领域技术人员可以理解,图12中示出的结构,仅仅是与本发明方案相关的部分结构的框图,并不构成对本发明方案所应用于其上的计算机设备500的限定,具体的计算机设备500可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
其中,所述处理器502用于运行存储在存储器中的计算机程序5032,以实现如下功能:接收待识别语音,通过N-gram模型对待识别语音进行进行识别,得到识别结果;将识别结果通过关键词抽取,得到与识别结果对应的关键词集合;获取关键词集合的语义向量,将语义向量作为文本情感分类器的输入,得到文本情感识别结果;以及将名称词性的关键词根据预先设置的标签库对应的标签转化策略转化成对应标签,以得到与所述识别结果对应的用户画像。
在一实施例中,处理器502在执行所述接收待识别语音,通过所述N-gram模型对所述待识别语音进行进行识别,得到识别结果的步骤之前,还执行如下操作:接收训练集语料库,将所述训练集语料库输入至初始N-gram模型进行训练,得到N-gram模型;其中,所述N-gram模型为N元模型。
在一实施例中,处理器502在执行所述获取所述关键词集合中名称词性的关键词,将名称词性的关键词根据预先设置的标签库对应的标签转化策略转化成对应标签,以得到与所述识别结果对应的用户画像的步骤之后,还执行如下操作:获取所述关键词集合中词频-逆文本频率指数为最大值的关键词,以作为目标关键词,定位所述目标关键词在所述识别结果中的时间点并进行关键词标记。
在一实施例中,处理器502在执行所述将所述识别结果通过词频-逆文本频率指数模型进行关键词抽取,得到与所述识别结果对应的关键词集合的步骤时,执行如下操作:将所述识别结果通过基于概率统计分词模型进行分词,得到对应的分词结果;通过词频-逆文本频率指数模型,抽取所述分词结果中位于预设的第一排名值之前的关键词信息,以作为与所述识别结果对应的关键词集合。
在一实施例中,处理器502在执行所述获取所述关键词集合的语义向量的步骤时,执行如下操作:获取所述关键词集合中各关键词信息对应的目标词向量;根据所述关键词集合中各目标词向量,及各目标词向量对应的权重,获取与所述关键词集合对应的语义向量。
在一实施例中,处理器502在执行所述根据名称词性的关键词及预先设置的标签转化策略,以得到与所述识别结果对应的用户画像的步骤时,执行如下操作:在所述标签库中获取与所述关键词集合中名称词性的关键词中各关键词对应的标签转化策略;根据与各关键词对应的标签转化策略,将各关键词对应转化为标签;由各关键词对应的标签,组成与所述识别结果对应的用户画像。
本领域技术人员可以理解,图12中示出的计算机设备的实施例并不构成对计算机设备具体构成的限定,在其他实施例中,计算机设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。例如,在一些实施例中,计算机设备可以仅包括存储器及处理器,在这样的实施例中,存储器及处理器的结构及功能与图12所示实施例一致,在此不再赘述。
应当理解,在本发明实施例中,处理器502可以是中央处理单元(CentralProcessing Unit,CPU),该处理器502还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
在本发明的另一实施例中提供计算机可读存储介质。该计算机可读存储介质可以为非易失性的计算机可读存储介质。该计算机可读存储介质存储有计算机程序,其中计算机程序被处理器执行时实现以下步骤:接收待识别语音,通过N-gram模型对待识别语音进行进行识别,得到识别结果;将识别结果通过关键词抽取,得到与识别结果对应的关键词集合;获取关键词集合的语义向量,将语义向量作为文本情感分类器的输入,得到文本情感识别结果;以及将名称词性的关键词根据预先设置的标签库对应的标签转化策略转化成对应标签,以得到与所述识别结果对应的用户画像。
在一实施例中,所述接收待识别语音,通过所述N-gram模型对所述待识别语音进行进行识别,得到识别结果之前,还包括:接收训练集语料库,将所述训练集语料库输入至初始N-gram模型进行训练,得到N-gram模型;其中,所述N-gram模型为N元模型。
在一实施例中,所述获取所述关键词集合中名称词性的关键词,将名称词性的关键词根据预先设置的标签库对应的标签转化策略转化成对应标签,以得到与所述识别结果对应的用户画像之后,还包括:获取所述关键词集合中词频-逆文本频率指数为最大值的关键词,以作为目标关键词,定位所述目标关键词在所述识别结果中的时间点并进行关键词标记。
在一实施例中,所述将所述识别结果通过词频-逆文本频率指数模型进行关键词抽取,得到与所述识别结果对应的关键词集合,包括:将所述识别结果通过基于概率统计分词模型进行分词,得到对应的分词结果;通过词频-逆文本频率指数模型,抽取所述分词结果中位于预设的第一排名值之前的关键词信息,以作为与所述识别结果对应的关键词集合。
在一实施例中,所述获取所述关键词集合的语义向量,包括:获取所述关键词集合中各关键词信息对应的目标词向量;根据所述关键词集合中各目标词向量,及各目标词向量对应的权重,获取与所述关键词集合对应的语义向量。
在一实施例中,所述根据名称词性的关键词及预先设置的标签转化策略,以得到与所述识别结果对应的用户画像,包括:在所述标签库中获取与所述关键词集合中名称词性的关键词中各关键词对应的标签转化策略;根据与各关键词对应的标签转化策略,将各关键词对应转化为标签;由各关键词对应的标签,组成与所述识别结果对应的用户画像。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的设备、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为逻辑功能划分,实际实现时可以有另外的划分方式,也可以将具有相同功能的单元集合成一个单元,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种基于语音的用户分类方法,其特征在于,包括:
接收待识别语音,通过所述N-gram模型对所述待识别语音进行进行识别,得到识别结果;
将所述识别结果通过词频-逆文本频率指数模型进行关键词抽取,得到与所述识别结果对应的关键词集合;
获取所述关键词集合的语义向量,将所述语义向量作为文本情感分类器的输入,得到文本情感识别结果;以及
将名称词性的关键词根据预先设置的标签库对应的标签转化策略转化成对应标签,以得到与所述识别结果对应的用户画像。
2.根据权利要求1所述的基于语音的用户分类方法,其特征在于,所述接收待识别语音,通过所述N-gram模型对所述待识别语音进行进行识别,得到识别结果之前,还包括:
接收训练集语料库,将所述训练集语料库输入至初始N-gram模型进行训练,得到N-gram模型;其中,所述N-gram模型为N元模型。
3.根据权利要求1所述的基于语音的用户分类方法,其特征在于,所述获取所述关键词集合中名称词性的关键词,将名称词性的关键词根据预先设置的标签库对应的标签转化策略转化成对应标签,以得到与所述识别结果对应的用户画像之后,还包括:
获取所述关键词集合中词频-逆文本频率指数为最大值的关键词,以作为目标关键词,定位所述目标关键词在所述识别结果中的时间点并进行关键词标记。
4.根据权利要求1所述的基于语音的用户分类方法,其特征在于,所述将所述识别结果通过词频-逆文本频率指数模型进行关键词抽取,得到与所述识别结果对应的关键词集合,包括:
将所述识别结果通过基于概率统计分词模型进行分词,得到对应的分词结果;
通过词频-逆文本频率指数模型,抽取所述分词结果中位于预设的第一排名值之前的关键词信息,以作为与所述识别结果对应的关键词集合。
5.根据权利要求1所述的基于语音的用户分类方法,其特征在于,所述获取所述关键词集合的语义向量,包括:
获取所述关键词集合中各关键词信息对应的目标词向量;
根据所述关键词集合中各目标词向量,及各目标词向量对应的权重,获取与所述关键词集合对应的语义向量。
6.根据权利要求1所述的基于语音的用户分类方法,其特征在于,所述根据名称词性的关键词及预先设置的标签转化策略,以得到与所述识别结果对应的用户画像,包括:
在所述标签库中获取与所述关键词集合中名称词性的关键词中各关键词对应的标签转化策略;
根据与各关键词对应的标签转化策略,将各关键词对应转化为标签;
由各关键词对应的标签,组成与所述识别结果对应的用户画像。
7.一种基于语音的用户分类装置,其特征在于,包括:
语音识别单元,用于接收待识别语音,通过所述N-gram模型对所述待识别语音进行进行识别,得到识别结果;
关键词抽取单元,用于将所述识别结果通过词频-逆文本频率指数模型进行关键词抽取,得到与所述识别结果对应的关键词集合;
情感识别单元,用于获取所述关键词集合的语义向量,将所述语义向量作为文本情感分类器的输入,得到文本情感识别结果;以及
用户画像绘制单元,用于获取所述关键词集合中名称词性的关键词,将名称词性的关键词根据预先设置的标签库对应的标签转化策略转化成对应标签,以得到与所述识别结果对应的用户画像。
8.根据权利要求7所述的基于语音的用户分类装置,其特征在于,还包括:
关键词时间标记单元,用于获取所述关键词集合中词频-逆文本频率指数为最大值的关键词,以作为目标关键词,定位所述目标关键词在所述识别结果中的时间点并进行关键词标记。
9.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至6中任一项所述的基于语音的用户分类方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行如权利要求1至6任一项所述的基于语音的用户分类方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910492604.5A CN110347823A (zh) | 2019-06-06 | 2019-06-06 | 基于语音的用户分类方法、装置、计算机设备及存储介质 |
PCT/CN2019/103265 WO2020244073A1 (zh) | 2019-06-06 | 2019-08-29 | 基于语音的用户分类方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910492604.5A CN110347823A (zh) | 2019-06-06 | 2019-06-06 | 基于语音的用户分类方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110347823A true CN110347823A (zh) | 2019-10-18 |
Family
ID=68181606
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910492604.5A Pending CN110347823A (zh) | 2019-06-06 | 2019-06-06 | 基于语音的用户分类方法、装置、计算机设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110347823A (zh) |
WO (1) | WO2020244073A1 (zh) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111046163A (zh) * | 2019-11-15 | 2020-04-21 | 贝壳技术有限公司 | 未读消息的处理方法、装置、存储介质及设备 |
CN111061902A (zh) * | 2019-12-12 | 2020-04-24 | 广东智媒云图科技股份有限公司 | 一种基于文本语义分析的绘图方法、装置及终端设备 |
CN111326160A (zh) * | 2020-03-11 | 2020-06-23 | 南京奥拓电子科技有限公司 | 一种纠正噪音文本的语音识别方法、系统及存储介质 |
CN111326142A (zh) * | 2020-01-21 | 2020-06-23 | 青梧桐有限责任公司 | 基于语音转文本的文本信息提取方法、系统和电子设备 |
CN111563190A (zh) * | 2020-04-07 | 2020-08-21 | 中国电子科技集团公司第二十九研究所 | 一种区域网络用户行为的多维度分析与监管方法及系统 |
CN111695353A (zh) * | 2020-06-12 | 2020-09-22 | 百度在线网络技术(北京)有限公司 | 时效性文本的识别方法、装置、设备及存储介质 |
CN111753802A (zh) * | 2020-07-06 | 2020-10-09 | 北京猿力未来科技有限公司 | 识别方法及装置 |
CN112052375A (zh) * | 2020-09-30 | 2020-12-08 | 北京百度网讯科技有限公司 | 舆情获取和词粘度模型训练方法及设备、服务器和介质 |
CN112329437A (zh) * | 2020-10-21 | 2021-02-05 | 交通银行股份有限公司 | 一种智能客服语音质检评分方法、设备及存储介质 |
CN112487039A (zh) * | 2020-12-16 | 2021-03-12 | 平安养老保险股份有限公司 | 一种数据处理方法、装置、设备及可读存储介质 |
CN112507116A (zh) * | 2020-12-16 | 2021-03-16 | 平安科技(深圳)有限公司 | 基于客户应答语料的客户画像方法及其相关设备 |
CN112579781A (zh) * | 2020-12-28 | 2021-03-30 | 平安银行股份有限公司 | 文本归类方法、装置、电子设备及介质 |
CN112712407A (zh) * | 2020-12-25 | 2021-04-27 | 云汉芯城(上海)互联网科技股份有限公司 | 一种新客引流的方法、装置、存储介质和设备 |
CN112818009A (zh) * | 2021-02-25 | 2021-05-18 | 华侨大学 | 一种在线展会的用户画像建模方法与系统 |
CN112818118A (zh) * | 2021-01-22 | 2021-05-18 | 大连民族大学 | 基于反向翻译的中文幽默分类模型 |
CN113139141A (zh) * | 2021-04-22 | 2021-07-20 | 康键信息技术(深圳)有限公司 | 用户标签扩展标注方法、装置、设备及存储介质 |
CN113743115A (zh) * | 2021-09-07 | 2021-12-03 | 北京沃东天骏信息技术有限公司 | 文本处理的方法、装置、电子设备和存储介质 |
CN113743721A (zh) * | 2021-07-29 | 2021-12-03 | 深圳市东信时代信息技术有限公司 | 营销策略生成方法、装置、计算机设备及存储介质 |
CN114048714A (zh) * | 2022-01-14 | 2022-02-15 | 阿里巴巴达摩院(杭州)科技有限公司 | 逆文本标准化方法和装置 |
CN114048283A (zh) * | 2022-01-11 | 2022-02-15 | 北京仁科互动网络技术有限公司 | 用户画像生成方法、装置、电子设备及存储介质 |
CN116523545A (zh) * | 2023-06-28 | 2023-08-01 | 大汉电子商务有限公司 | 基于大数据的异常订单画像构建方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104184870A (zh) * | 2014-07-29 | 2014-12-03 | 小米科技有限责任公司 | 通话记录标记方法、装置及电子设备 |
CN108564942A (zh) * | 2018-04-04 | 2018-09-21 | 南京师范大学 | 一种基于敏感度可调的语音情感识别方法及系统 |
CN109325132A (zh) * | 2018-12-11 | 2019-02-12 | 平安科技(深圳)有限公司 | 专家知识推荐方法、装置、计算机设备及存储介质 |
CN109410986A (zh) * | 2018-11-21 | 2019-03-01 | 咪咕数字传媒有限公司 | 一种情绪识别方法、装置及存储介质 |
CN109658928A (zh) * | 2018-12-06 | 2019-04-19 | 山东大学 | 一种家庭服务机器人云端多模态对话方法、装置及系统 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140002171A (ko) * | 2012-06-28 | 2014-01-08 | 한국전자통신연구원 | 자동통역방법 |
CN102723078B (zh) * | 2012-07-03 | 2014-04-30 | 武汉科技大学 | 基于自然言语理解的语音情感识别方法 |
KR102065045B1 (ko) * | 2013-03-15 | 2020-01-10 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어 방법 |
CN104090955A (zh) * | 2014-07-07 | 2014-10-08 | 科大讯飞股份有限公司 | 一种音视频标签自动标注方法及系统 |
KR102505347B1 (ko) * | 2015-07-16 | 2023-03-03 | 삼성전자주식회사 | 사용자 관심 음성 알림 장치 및 방법 |
CN105335352A (zh) * | 2015-11-30 | 2016-02-17 | 武汉大学 | 基于微博情感的实体识别方法 |
CN109840323A (zh) * | 2018-12-14 | 2019-06-04 | 深圳壹账通智能科技有限公司 | 保险产品的语音识别处理方法及服务器 |
CN109767791B (zh) * | 2019-03-21 | 2021-03-30 | 中国—东盟信息港股份有限公司 | 一种针对呼叫中心通话的语音情绪识别及应用系统 |
-
2019
- 2019-06-06 CN CN201910492604.5A patent/CN110347823A/zh active Pending
- 2019-08-29 WO PCT/CN2019/103265 patent/WO2020244073A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104184870A (zh) * | 2014-07-29 | 2014-12-03 | 小米科技有限责任公司 | 通话记录标记方法、装置及电子设备 |
CN108564942A (zh) * | 2018-04-04 | 2018-09-21 | 南京师范大学 | 一种基于敏感度可调的语音情感识别方法及系统 |
CN109410986A (zh) * | 2018-11-21 | 2019-03-01 | 咪咕数字传媒有限公司 | 一种情绪识别方法、装置及存储介质 |
CN109658928A (zh) * | 2018-12-06 | 2019-04-19 | 山东大学 | 一种家庭服务机器人云端多模态对话方法、装置及系统 |
CN109325132A (zh) * | 2018-12-11 | 2019-02-12 | 平安科技(深圳)有限公司 | 专家知识推荐方法、装置、计算机设备及存储介质 |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111046163A (zh) * | 2019-11-15 | 2020-04-21 | 贝壳技术有限公司 | 未读消息的处理方法、装置、存储介质及设备 |
CN111061902A (zh) * | 2019-12-12 | 2020-04-24 | 广东智媒云图科技股份有限公司 | 一种基于文本语义分析的绘图方法、装置及终端设备 |
CN111061902B (zh) * | 2019-12-12 | 2023-12-19 | 广东智媒云图科技股份有限公司 | 一种基于文本语义分析的绘图方法、装置及终端设备 |
CN111326142A (zh) * | 2020-01-21 | 2020-06-23 | 青梧桐有限责任公司 | 基于语音转文本的文本信息提取方法、系统和电子设备 |
CN111326160A (zh) * | 2020-03-11 | 2020-06-23 | 南京奥拓电子科技有限公司 | 一种纠正噪音文本的语音识别方法、系统及存储介质 |
CN111563190A (zh) * | 2020-04-07 | 2020-08-21 | 中国电子科技集团公司第二十九研究所 | 一种区域网络用户行为的多维度分析与监管方法及系统 |
CN111695353A (zh) * | 2020-06-12 | 2020-09-22 | 百度在线网络技术(北京)有限公司 | 时效性文本的识别方法、装置、设备及存储介质 |
CN111695353B (zh) * | 2020-06-12 | 2023-07-04 | 百度在线网络技术(北京)有限公司 | 时效性文本的识别方法、装置、设备及存储介质 |
CN111753802A (zh) * | 2020-07-06 | 2020-10-09 | 北京猿力未来科技有限公司 | 识别方法及装置 |
CN112052375B (zh) * | 2020-09-30 | 2024-06-11 | 北京百度网讯科技有限公司 | 舆情获取和词粘度模型训练方法及设备、服务器和介质 |
CN112052375A (zh) * | 2020-09-30 | 2020-12-08 | 北京百度网讯科技有限公司 | 舆情获取和词粘度模型训练方法及设备、服务器和介质 |
CN112329437B (zh) * | 2020-10-21 | 2024-05-28 | 交通银行股份有限公司 | 一种智能客服语音质检评分方法、设备及存储介质 |
CN112329437A (zh) * | 2020-10-21 | 2021-02-05 | 交通银行股份有限公司 | 一种智能客服语音质检评分方法、设备及存储介质 |
CN112507116A (zh) * | 2020-12-16 | 2021-03-16 | 平安科技(深圳)有限公司 | 基于客户应答语料的客户画像方法及其相关设备 |
CN112487039A (zh) * | 2020-12-16 | 2021-03-12 | 平安养老保险股份有限公司 | 一种数据处理方法、装置、设备及可读存储介质 |
CN112487039B (zh) * | 2020-12-16 | 2024-04-30 | 平安养老保险股份有限公司 | 一种数据处理方法、装置、设备及可读存储介质 |
CN112507116B (zh) * | 2020-12-16 | 2023-10-10 | 平安科技(深圳)有限公司 | 基于客户应答语料的客户画像方法及其相关设备 |
CN112712407A (zh) * | 2020-12-25 | 2021-04-27 | 云汉芯城(上海)互联网科技股份有限公司 | 一种新客引流的方法、装置、存储介质和设备 |
CN112579781A (zh) * | 2020-12-28 | 2021-03-30 | 平安银行股份有限公司 | 文本归类方法、装置、电子设备及介质 |
CN112579781B (zh) * | 2020-12-28 | 2023-09-15 | 平安银行股份有限公司 | 文本归类方法、装置、电子设备及介质 |
CN112818118A (zh) * | 2021-01-22 | 2021-05-18 | 大连民族大学 | 基于反向翻译的中文幽默分类模型 |
CN112818118B (zh) * | 2021-01-22 | 2024-05-21 | 大连民族大学 | 基于反向翻译的中文幽默分类模型的构建方法 |
CN112818009A (zh) * | 2021-02-25 | 2021-05-18 | 华侨大学 | 一种在线展会的用户画像建模方法与系统 |
CN113139141B (zh) * | 2021-04-22 | 2023-10-31 | 康键信息技术(深圳)有限公司 | 用户标签扩展标注方法、装置、设备及存储介质 |
CN113139141A (zh) * | 2021-04-22 | 2021-07-20 | 康键信息技术(深圳)有限公司 | 用户标签扩展标注方法、装置、设备及存储介质 |
CN113743721A (zh) * | 2021-07-29 | 2021-12-03 | 深圳市东信时代信息技术有限公司 | 营销策略生成方法、装置、计算机设备及存储介质 |
CN113743115A (zh) * | 2021-09-07 | 2021-12-03 | 北京沃东天骏信息技术有限公司 | 文本处理的方法、装置、电子设备和存储介质 |
CN114048283A (zh) * | 2022-01-11 | 2022-02-15 | 北京仁科互动网络技术有限公司 | 用户画像生成方法、装置、电子设备及存储介质 |
CN114048714A (zh) * | 2022-01-14 | 2022-02-15 | 阿里巴巴达摩院(杭州)科技有限公司 | 逆文本标准化方法和装置 |
CN116523545A (zh) * | 2023-06-28 | 2023-08-01 | 大汉电子商务有限公司 | 基于大数据的异常订单画像构建方法 |
CN116523545B (zh) * | 2023-06-28 | 2023-09-15 | 大汉电子商务有限公司 | 基于大数据的用户画像构建方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2020244073A1 (zh) | 2020-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110347823A (zh) | 基于语音的用户分类方法、装置、计算机设备及存储介质 | |
CN107818781B (zh) | 智能交互方法、设备及存储介质 | |
CN110297907B (zh) | 生成访谈报告的方法、计算机可读存储介质和终端设备 | |
CN110349568A (zh) | 语音检索方法、装置、计算机设备及存储介质 | |
CN110334110A (zh) | 自然语言分类方法、装置、计算机设备以及存储介质 | |
CN109325132A (zh) | 专家知识推荐方法、装置、计算机设备及存储介质 | |
US20050086045A1 (en) | Question answering system and question answering processing method | |
CN112084381A (zh) | 一种事件抽取方法、系统、存储介质以及设备 | |
WO2020114302A1 (zh) | 一种行为预测方法 | |
CN110738033A (zh) | 报告模板生成方法、装置及存储介质 | |
CN102541838A (zh) | 用于优化情感分类器的方法和设备 | |
CN108460150A (zh) | 新闻标题的处理方法及装置 | |
Malik et al. | Automatically selecting answer templates to respond to customer emails. | |
KR20170072644A (ko) | 상담정보 및 군집화에 기반한 금융상품추천장치 및 방법 | |
CN105159927B (zh) | 目标文本主题词的选取方法、装置及终端 | |
CN110457424A (zh) | 生成访谈报告的方法、计算机可读存储介质和终端设备 | |
CN108363700A (zh) | 新闻标题的质量评估方法及装置 | |
CN110990711A (zh) | 基于机器学习的微信公众号推荐算法及系统 | |
Di Fabbrizio et al. | Starlet: multi-document summarization of service and product reviews with balanced rating distributions | |
CN111428034A (zh) | 分类模型的训练方法、评论信息的分类方法及装置 | |
CN110502755A (zh) | 基于融合模型的字符串识别方法及计算机存储介质 | |
CN109902304A (zh) | 信息处理方法、装置、存储介质和电子设备 | |
CN113407584A (zh) | 标签抽取方法、装置、设备及存储介质 | |
CN115659961B (zh) | 用于提取文本观点的方法、装置以及计算机存储介质 | |
KR20210099739A (ko) | 사용자 리뷰 기반 평점 재산정 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |