WO2021218086A1 - 呼叫控制方法、装置、计算机设备以及存储介质 - Google Patents

呼叫控制方法、装置、计算机设备以及存储介质 Download PDF

Info

Publication number
WO2021218086A1
WO2021218086A1 PCT/CN2020/125064 CN2020125064W WO2021218086A1 WO 2021218086 A1 WO2021218086 A1 WO 2021218086A1 CN 2020125064 W CN2020125064 W CN 2020125064W WO 2021218086 A1 WO2021218086 A1 WO 2021218086A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
word segmentation
text data
word
result
Prior art date
Application number
PCT/CN2020/125064
Other languages
English (en)
French (fr)
Inventor
罗金雄
胡宏伟
马骏
王少军
Original Assignee
平安科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 平安科技(深圳)有限公司 filed Critical 平安科技(深圳)有限公司
Publication of WO2021218086A1 publication Critical patent/WO2021218086A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/51Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
    • H04M3/5166Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing in combination with interactive voice response systems or voice portals, e.g. as front-ends
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Definitions

  • the determining and judging unit is configured to determine the user's intention according to the classification result, and determine whether to use the outgoing module to perform a call operation to the user based on the determined user's intention.
  • the user's intention is determined according to the classification result, and the determined user's intention is used to determine whether to use the outgoing module to perform a call operation to the user.
  • the classification result is verb-query, noun-credit card , Verb-available, noun-amount
  • the classification result is: verb- Query, noun-credit card, adjective-this month, noun-bill
  • action.name is used to describe the actions of the user's intention, such as query, processing, application, etc.
  • target.name is the target object of the user's intention, such as annual fee, quota, bill, etc.
  • the other two slots are used as the attribute of the intention
  • the input unit 103a is configured to input the words in the word segmentation result of the text data into the Python toolkit Gensim;

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medical Informatics (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Signal Processing (AREA)
  • Machine Translation (AREA)

Abstract

一种呼叫控制方法、装置(100)、计算机设备(500)以及存储介质(503),方法通过呼入模块记录坐席终端(10)所采集的用户自然语言数据,并将用户自然语言数据转换成对应的文本数据(S101);将文本数据进行分词,得到分词结果(S102);以分词结果中的词语作为输入,对文本数据的分词结果进行训练,获取分词训练结果(S103);将分词训练结果输入至预先训练得到的用于自然语言分类的神经网络模型,得到针对自然语言数据的分类结果(S104);根据分类结果确定用户意图,并通过所确定的用户意图判断是否使用呼出模块对用户进行呼叫操作(S105)。基于人工智能中的自然语言处理技术,能够快速识别用户来电的意图,帮助企业改善客户服务质量,提高客户满意度。

Description

呼叫控制方法、装置、计算机设备以及存储介质
本申请要求于2020年04月28日提交中国专利局、申请号为202010351277.4,发明名称为“呼叫控制方法、装置、计算机设备以及存储介质”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请涉及计算机技术领域,尤其涉及一种呼叫控制方法、装置、计算机设备以及存储介质。
背景技术
近年来,数据挖掘引起了信息产业界的极大关注,其主要原因是存在大量数据,以及能够广泛使用,并且迫切需要将这些数据转换成有用的信息和知识。获取的信息和知识可以广泛用于各种应用,包括商务管理、生产控制、市场分析、工程设计和科学探索等,具有很大的应用价值。
发明人意识到传统的数据挖掘的数据来源,多为已经存在的历史数据信息或海量的网页资源,处理的对象多为文本型的媒体介质,类型较为单一,数据的来源较为被动,只能等待数据的出现,而且拿到数据以后,面对复杂、多意图的文本内容,无法通过主动的方式进一步的数据的确认性进行筛选和确认,对数据分析造成了比较大的难度,很难挖掘出有效的有价值的信息,使得数据挖掘的周期较长,确定信息较少,企业数据挖掘的成本很大,并且采用人工方式进行数据采集,需要投入大量的人力成本,利用人工方式挖掘用户来电的意图,对于用户意图的挖掘效率不高、准确率不高,最后导致客户满意度不高。
发明内容
有鉴于此,本申请实施例提供一种呼叫控制方法、装置、计算机设备以及存储介质,能够快速识别用户来电的意图,帮助企业改善客户服务质量,提高客户满意度。
一方面,本申请实施例提供了一种呼叫控制方法,该方法包括:
通过呼入模块记录坐席终端所采集的用户自然语言数据,并将所述用户自然语言数据转换成对应的文本数据;
将所述文本数据进行分词,得到所述文本数据的分词结果,所述分词结果包括一个或者多个词语;
以所述分词结果中的词语作为输入,使用预设词向量模型对所述文本数据的分词结果进行训练,获取分词训练结果,所述分词训练结果包括每个词语对应的向量表示;
将所述分词训练结果输入至预先训练得到的用于自然语言分类的神经网络模型,得到针对自然语言数据的分类结果;
根据所述分类结果确定用户意图,并通过所确定的用户意图判断是否使用呼出模块对用户进行呼叫操作。
另一方面,本申请实施例提供了一种呼叫控制装置,所述装置包括:
转换单元,用于通过呼入模块记录坐席终端所采集的用户自然语言数据,并将所述用户自然语言数据转换成对应的文本数据;
分词单元,用于将所述文本数据进行分词,得到所述文本数据的分词结果,所述分词结果包括一个或者多个词语;
训练单元,用于以所述分词结果中的词语作为输入,使用预设词向量模型对所述文本数据的分词结果进行训练,获取分词训练结果,所述分词训练结果包括每个词语对应的向量表示;
分类单元,用于将所述分词训练结果输入至预先训练得到的用于自然语言分类的神经网络模型,得到针对自然语言数据的分类结果;
确定判断单元,用于根据所述分类结果确定用户意图,并通过所确定的用户意图判断是 否使用呼出模块对用户进行呼叫操作。
又一方面,本申请实施例还提供了一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其中,所述处理器执行所述计算机程序时执行以下步骤:
通过呼入模块记录坐席终端所采集的用户自然语言数据,并将所述用户自然语言数据转换成对应的文本数据;
将所述文本数据进行分词,得到所述文本数据的分词结果,所述分词结果包括一个或者多个词语;
以所述分词结果中的词语作为输入,使用预设词向量模型对所述文本数据的分词结果进行训练,获取分词训练结果,所述分词训练结果包括每个词语对应的向量表示;
将所述分词训练结果输入至预先训练得到的用于自然语言分类的神经网络模型,得到针对自然语言数据的分类结果;
根据所述分类结果确定用户意图,并通过所确定的用户意图判断是否使用呼出模块对用户进行呼叫操作。
再一方面,本申请实施例还提供了一种计算机可读存储介质,其中所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行以下步骤:
通过呼入模块记录坐席终端所采集的用户自然语言数据,并将所述用户自然语言数据转换成对应的文本数据;
将所述文本数据进行分词,得到所述文本数据的分词结果,所述分词结果包括一个或者多个词语;
以所述分词结果中的词语作为输入,使用预设词向量模型对所述文本数据的分词结果进行训练,获取分词训练结果,所述分词训练结果包括每个词语对应的向量表示;
将所述分词训练结果输入至预先训练得到的用于自然语言分类的神经网络模型,得到针对自然语言数据的分类结果;
根据所述分类结果确定用户意图,并通过所确定的用户意图判断是否使用呼出模块对用户进行呼叫操作。
本申请实施例通过呼入模块和呼出模块进行大量用户来电的处理、意图的确认和意图的跟进,并通过神经网络模型实现自动、快速识别用户来电的意图,帮助企业改善客户服务质量,提高客户满意度。
附图说明
为了更清楚地说明本申请实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种呼叫控制方法的应用场景示意图;
图2是本申请实施例提供的一种呼叫控制方法的示意流程图;
图3是本申请实施例提供的一种呼叫控制方法的另一示意流程图;
图4是本申请实施例提供的一种呼叫控制方法的另一示意流程图;
图5是本申请实施例提供的一种呼叫控制方法的另一示意流程图;
图6是本申请实施例提供的一种呼叫控制装置的示意性框图;
图7是本申请实施例提供的一种呼叫控制装置的另一示意性框图;
图8是本申请实施例提供的一种呼叫控制装置的另一示意性框图;
图9是本申请实施例提供的一种呼叫控制装置的另一示意性框图;
图10是本申请实施例提供的一种呼叫控制装置的另一示意性框图;
图11是本申请实施例提供的一种计算机设备的结构组成示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描 述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本申请说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本申请。如在本申请说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本申请说明书里和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
请参阅图1和图2,图1为本申请实施例提供的一种呼叫控制方法的应用场景示意图,图2为本申请实施例提供的一种呼叫控制方法的流程示意图。该呼叫控制方法应用于呼叫中心系统的坐席终端中。作为一应用,如图1所示,该呼叫控制方法应用于坐席终端10中,该坐席终端10执行用户意图识别指令,并将用户意图识别结果反馈给用户端20。
需要说明的是,图1中仅仅示意出一台终端20,在实际操作过程中,服务器10可以将执行结果反馈至多台终端20中。
请参阅图2,图2为本申请实施例提供的一种呼叫控制方法的示意流程图。如图2所示,该方法包括以下步骤S101~S105。
S101,通过呼入模块记录坐席终端所采集的用户自然语言数据,并将所述用户自然语言数据转换成对应的文本数据。
在本申请实施例中,在坐席终端中配置有与用户进行交互的多个话路通道,例如在有线通信中,一根电话线代表一个话路通道,在无线通信中,一个载频代表一个话路通道;所述呼入模块,用于当坐席终端处于就绪状态时用户将会根据智能分派方式将电话分给坐席终端,并且当座席处于振铃时,将会出现呼入提示,并且出现接听和拒绝按钮,点击接听则与用户开始通话,所述呼入模块设置在坐席终端的多个话路通道中,呼入模块还可以通过对话管理,设定各种自助流程,主要用于业务的咨询和办理,并记录来电用户通过坐席终端所输入的用户自然语言数据,用户输入的用户自然语言数据指的是来电用户的录音数据。比如:用户口述的用户自然查询语言为:“我要查询信用卡可用额度”、“我要查询我的信用卡的本月账单”等等。
进一步地,如图3所示,所述通过呼入模块记录坐席终端所采集的用户自然语言数据,并将所述用户自然语言数据转换成对应的文本数据的步骤,具体包括步骤S201~S204:S201,利用坐席终端上的话筒采集用户输入的自然语言数据,并通过呼入模块记录坐席终端所采集的用户自然语言数据;S202,将所述用户自然语言数据进行数字化处理得到语音信号;S203,提取所述语音信号的声学特征;S204,将所述声学特征输入至预设声学模型进行解码,以生成所述文本数据。需要说明的是,将所述用户自然语言数据转换成对应的文本数据,由于用户自然语言数据为语音信号,而语音信息属于模拟信号,因此需要将模拟的语音信号进行处理,将其数字化,提取出语音信号的声学特征。其中,可使用如梅尔频率倒谱系数MFCC、线性预测倒谱系数LPCC、多媒体内容描述接口MPEG7等方法来提取声学特征。然后,可将声学特征输入至声学模型进行解码,从而得到语音信号所对应的文本数据。也就是将所述用户自然语言数据转换成对应的文本数据的过程。
S102,将所述文本数据进行分词,得到所述文本数据的分词结果,所述分词结果包括一个或者多个词语。
具体地,在所述将所述文本数据进行分词,得到所述文本数据的分词结果之前,需要对文本数据进行数据预处理,主要的数据预处理步骤包括:语料清洗,即删除所述文本数据中 的噪音数据,以及删除文本数据中的标点符号、语气助词,并保留有用的数据,在本实施例中,常见的清洗方式有:人工去重、对齐、删除、标注等,例如去掉对文本特征没有任何贡献作用的字词,如标点符号、语气、“的”等。所述将所述文本数据进行分词,包括:使用基于概率统计模型的分词方法对所述文本数据进行分词。例如,令T=T1T2...Tm,T是待分词的文本数据对应的汉字串,令W=W1W2...Wn,W是分词的结果,Wa,Wb,…,Wk是T的所有可能的分词方案。那么,基于概率统计的分词模型就是能够找到目的词串W,使得W满足:P(W|T)=MAX(P(Wa|T),P(Wb|T)...P(Wk|T))的分词模型,上述分词模型得到的词串W即估计概率为最大之词串,并将词串W作为所述文本数据分词后得到的分词结果。比如:文本数据“我要查询信用卡可用额度”,通过上述分词模型进行分词后得到的分词结果为:“我要”,“查询”、“信用卡”、“可用”、“额度”;文本数据“我要查询我的信用卡的本月账单”,通过上述分词模型进行分词后得到的分词结果为:“我要”、“查询”、“信用卡”、“本月”、“账单”。
S103,以所述分词结果中的词语作为输入,使用预设词向量模型对所述文本数据的分词结果进行训练,获取分词训练结果,所述分词训练结果包括每个词语对应的向量表示。
具体地,所述预设词向量模型指的是基于Word2vec深度学习模型,在一些实施例中,还可以使用其他机器学习模型,比如KNN、SVM、Naive Bayes、决策树、K-means等,或者,还可以选择使用其他深度学习模型,比如RNN、CNN、LSTM、Seq2Seq、FastText、TextCNN等,在本实施例中,使用的深度学习模型为基于Word2vec深度学习模型,具体的训练过程是利用Python工具包中的Gensim中的Word2vec深度学习模型对所述文本数据的分词结果进行训练,以所述分词结果中的词语作为输入,以词向量训练结果作为输出,所述词向量结果包括每个词语对应的向量表示。
进一步地,如图4所示,所述步骤S103包括步骤S301~S302:
S301,将所述文本数据的分词结果中的词语输入至Python工具包Gensim中;
S302,利用Python工具包Gensim中的基于Word2vec深度学习模型对所述文本数据的分词结果进行训练,以获取每个词语对应的向量表示作为分词训练结果。
在本实施例中,利用Python工具包中的Gensim并对工具包中的Word2vec深度学习模型进行以下参数设置:
参数 解释
sg 设置训练算法
size 特征向量的维度
window 最大距离
alpha 学习速率
seed 随机数发生器
min_count 字典做截断,词频小于不计算
hs: 采用hierarchica.softmax技巧
negative Negativesamping
通过Python工具包Gensim中的Word2vec模型进行训练完成后,得到vectors.bin这个文件,在vectors.bin中包括有文本数据的各词语和各词语对应的词向量,在本实施例中,利用Python工具包Gensim中的size参数预先设置词向量的维度。
S104,将所述分词训练结果输入至预先训练得到的用于自然语言分类的神经网络模型,得到针对自然语言数据的分类结果。
在本申请实施例中,所述神经网络模型为:O t=g(V·S t)S t=f(U·X t+S t-1);其中,X t是循环神经网络输入层的值,S t、S t-1是循环神经网络隐藏层的值,O t是循环神经网络输出层的值,U是输入层到隐藏层的第一权重矩阵,V是隐藏层到输出层的第二权重矩阵,g()为非线性的激活函数,f()为softmax函数。在将词向量训练结果输入至预先训练得到的用于自然语言分类的神经网络模型之前,需要预先训练用于自然语言分类的神经网络模型,训练过 程如下:将历史词向量数据输入预先构建的用于词性标注的筛选模型中,得到针对每一历史词向量对应的词性概率,若每一历史词向量对应的词性概率大于或等于预先设置的第一概率,将对应的历史词向量标注为名词词性的词向量,若每一词向量对应的词性概率大于或等于预先设置的第二概率,将对应的历史词向量标注为动词词性的词向量,若每一词向量对应的词性概率大于或等于预先设置的第三概率,将对应的历史词向量标注为形容词词性的词向量;更具体的,在本实施例中根据朴素贝叶斯算法对历史词向量进行模型训练所构建的筛选模型;所述筛选模型用于判断输入的词向量是名词词性的向量、动词词性的词向量或是形容词词性的词向量。其中,在构建用于词性标注的筛选模型时,需要将训练集中所包括的多个词向量作为筛选模型的输入,并将每一词向量对应的词性作为筛选模型的输出,进行训练得到筛选模型。采用的朴素贝叶斯算法的模型如下:
Figure PCTCN2020125064-appb-000001
其中,
Figure PCTCN2020125064-appb-000002
Figure PCTCN2020125064-appb-000003
Nck表示训练集中ck类文档的数目,N表示训练集中词向量总数;Tjk表示词项tj在类别ck中出现的次数,V是所有类别的词项集合。通过上述筛选模型作为词向量的词性的分类器,就能判断输入的词向量是名词词性的向量、动词词性的词向量或是形容词词性的词向量。例如,将每一词向量输入至朴素贝叶斯算法的模型中,当该数据出现在名词词性的向量类别的概率大于或等于50%(即第一概率设置为50%)则可将该数据视为名词词性的向量;当词向量对应的词性概率在动词词性的词向量类别的概率大于或等于50%(即第二概率设置为50%),将词向量标注为动词词性的词向量;当词向量对应的词性概率在形容词词性的词向量类别的概率大于或等于50%(即第三概率设置为50%),将词向量标注为形容词词性的词向量。
将进行词性标注后的词向量结果作为神经网络的输入,并将对应的词向量分类结果作为循环神经网络的输出,进行训练得到神经网络模型,通过将历史词向量进行词性标注后的分词结果作为神经网络的输入,并将对应的词向量分类结果作为循环神经网络的输出,就能训练得到第一权重矩阵、第二权重矩阵、及神经网络模型,通过这种方式得到作为后续词向量分类的模型。在得到预先训练好的神经网络模型之后,将用户的词向量训练结果输入至预先训练得到的神经网络模型中,根据预设的神经网络模型对用户的词向量进行快速和智能化的分类。例如,对于文本数据“我要查询信用卡可用额度”,经过分词和向量表示后得到了4个维度的词向量,将该4个维度的词向量输入至预先训练好的神经网络模型之后,则输出的分类结果为动词-查询,名词-信用卡,动词-可用,名词-额度,对于文本数据“我要查询我的信用卡的本月账单”,经过分词和向量表示后得到了4个维度的词向量,将该4个维度的词向量输入至预先训练好的神经网络模型之后,则输出的分类结果为:动词-查询、名词-信用卡、形容词-本月、名词-账单。
S105,根据所述分类结果确定用户意图,并通过所确定的用户意图判断是否使用呼出模块对用户进行呼叫操作。
具体地,根据分类结果确定哪些内容为特定的用户意图或者具有价值的内容,本实施例使用意图槽位模型进行确定。进一步地,如图5所示,所述步骤S105包括步骤S401~S403:S401,使用意图-槽位模型对所述分类结果进行描述;S402,根据描述的内容确定用户意图的属性,并依据所确定的用户意图的属性确定用户意图;S403,通过所确定的用户意图判断是否使用呼出模块对用户进行呼叫操作。在本实施例中,特定的用户意图指的是用户明确表达了需要做的时候,在意图槽位模型中,通常使用包含四要素的模型描述,比如对于分类结果为动词-查询,名词-信用卡,动词-可用,名词-额度,我们使用以下槽位来描述:action.name=查询#target.name=额度#target.params1=可用#target.params2=信用卡,又如对于分类结果为: 动词-查询、名词-信用卡、形容词-本月、名词-账单,我们使用以下槽位来描述:action.name=查询#target.name=账单#target.params1=本月#target.params2=信用卡,四要素槽位模型中action.name用于描述用户意图的动作,查询、办理,申请等,target.name为用户意图的目标对象,如年费、额度、账单等,另外两个槽位作为意图的属性,对意图槽位进行补充,通过补充,进一步明确意图,如果没有这两个槽位的补充,有些意图将无法区分开来,如“我要查询我的信用卡的固定额度”和“我要查询我的信用卡的临时额度”,它们的action.name都是“查询”,target.name都是“额度”,单靠这两个槽位是无法确定唯一意图的,只有加上意图的属性这两个槽位才得以区分。在前面的举例中“查询信用卡可用额度”、“查询信用卡本月账单”、“提升信用卡固定额度”等就是用户特定的意图,这些意图,对于某个公司(如:平安)它就是有价值的内容,因为他表达了用户想要办理业务的想法。但是有些意图如“我想查询深圳今天的天气”这样的意图对于平安而言,它就是没有价值的。至于机器人如何确认是否有价值,需要有业务人员提前去定义意图的价值性,列出可识别的意图清单,将清单中的意图分为有价值的和没有价值的,通过意图匹配就可以知道当前意图是否有价值。
需要说明的是,在四要素的意图模型中,一般需要填满四个槽位才能确定一个精确意图,如果用户在表达自己意图的时候只说了“我要查询信用卡额度”,我们在做意图槽位填充的时候,发现它只符合两个槽位,没有确定他表达的意图是“查询信用卡临时额度”还是“查询信用卡固定额度”。
在确定用户意图后判断是否使用呼出模块对用户进行呼叫操作,具体的,呼叫操作可以指的是通过电话回拨,我们根据意图库中已有的精确意图模型“action.name=查询#target.name=额度#target.params1=可用#target.params2=信用卡”,或“action.name=查询#target.name=额度#target.params1=固定#target.params2=信用卡”对用户上轮电话进行时表达的模糊意图“查询信用卡额度”进行追问,确认是“查询信用卡临时额度”还是“查询信用卡固定额度”。
请参阅图6,对应上述一种呼叫控制方法,本申请实施例还提出一种呼叫控制装置,该装置100包括:转换单元101、分词单元102、训练单元103、分类单元104、确定判断单元105。
其中,转换单元101,用于通过呼入模块记录坐席终端所采集的用户自然语言数据,并将所述用户自然语言数据转换成对应的文本数据;
分词单元102,用于将所述文本数据进行分词,得到所述文本数据的分词结果,所述分词结果包括一个或者多个词语;
训练单元103,用于以所述分词结果中的词语作为输入,使用预设词向量模型对所述文本数据的分词结果进行训练,获取分词训练结果,所述分词训练结果包括每个词语对应的向量表示;
分类单元104,用于将所述分词训练结果输入至预先训练得到的用于自然语言分类的神经网络模型,得到针对自然语言数据的分类结果;
确定判断单元105,用于根据所述分类结果确定用户意图,并通过所确定的用户意图判断是否使用呼出模块对用户进行呼叫操作。
请参阅图7,所述转换单元101,包括:
采集单元101a,用于利用坐席终端上的话筒采集用户自然语言数据,并通过呼入模块记录坐席终端所采集的用户自然语言数据;
处理单元101b,用于将所述用户自然语言数据进行数字化处理得到语音信号;
提取单元101c,用于提取所述语音信号的声学特征;
生成单元101d,用于将所述声学特征输入至预设声学模型进行解码,以生成所述文本数据。
请参阅图8,所述装置100还包括:
语料清洗单元102a,用于对文本数据进行语料清洗,以删除所述文本数据中的噪音数据, 以及删除文本数据中的标点符号、语气助词。
请参阅图9,所述训练单元103,包括:
输入单元103a,用于将所述文本数据的分词结果中的词语输入至Python工具包Gensim中;
训练子单元103b,用于利用Python工具包Gensim中的基于word2vec深度学习模型对所述文本数据的分词结果进行训练,以获取每个词语对应的向量表示作为分词训练结果。
请参阅图10,所述确定判断单元105,包括:
描述单元105a,用于使用意图-槽位模型对所述分类结果进行描述;
确定单元105b,用于根据描述的内容确定用户意图的属性,并依据所确定的用户意图的属性确定用户意图;
判断执行单元105c,用于通过所确定的用户意图判断是否使用呼出模块对用户进行呼叫操作。
请参阅图11,图11是本申请实施例提供的计算机设备的示意性框图。
参阅图11,该设备500包括通过系统总线501连接的处理器502、存储器和网络接口505,其中,存储器可以包括非易失性存储介质503和内存储器504。
该非易失性存储介质503可存储操作系统5031和计算机程序5032。该计算机程序5032被执行时,可使得处理器502执行呼叫控制方法。该处理器502用于提供计算和控制能力,支撑整个设备500的运行。该内存储器504为非易失性存储介质503中的计算机程序5032的运行提供环境,该计算机程序5032被处理器502执行时,可使得处理器502执行呼叫控制方法。该网络接口505用于进行网络通信,如提供数据信息的传输等。本领域技术人员可以理解,图11中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的设备500的限定,具体的设备500可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
其中,所述处理器502用于运行存储在存储器中的计算机程序5032,以实现上述呼叫控制方法的任一实施例。
应当理解,在本申请实施例中,处理器502可以是中央处理单元(Central Processing Unit,CPU),该处理器502还可以是其他通用处理器502、数字信号处理器502(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器502可以是微处理器502或者该处理器502也可以是任何常规的处理器502等。
本领域普通技术人员可以理解的是实现上述实施例的方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成。该计算机程序可存储于一存储介质中,该存储介质可以为计算机可读存储介质。该计算机程序被该计算机系统中的至少一个处理器执行,以实现上述方法的实施例的流程步骤。
因此,本申请还提供了一种计算机可读存储介质。该计算机可读存储介质可以是非易失性,也可以是易失性。该存储介质存储有计算机程序,该计算机程序当被处理器执行时实现上述呼叫控制方法的任一实施例。
该计算机可读存储介质可以是U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置、设备和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的装置、设备和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围 内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

Claims (20)

  1. 一种呼叫控制方法,其中,所述方法包括:
    通过呼入模块记录坐席终端所采集的用户自然语言数据,并将所述用户自然语言数据转换成对应的文本数据;
    将所述文本数据进行分词,得到所述文本数据的分词结果,所述分词结果包括一个或者多个词语;
    以所述分词结果中的词语作为输入,使用预设词向量模型对所述文本数据的分词结果进行训练,获取分词训练结果,所述分词训练结果包括每个词语对应的向量表示;
    将所述分词训练结果输入至预先训练得到的用于自然语言分类的神经网络模型,得到针对自然语言数据的分类结果;
    根据所述分类结果确定用户意图,并通过所确定的用户意图判断是否使用呼出模块对用户进行呼叫操作。
  2. 如权利要求1所述的方法,其中,所述通过呼入模块记录坐席终端所采集的用户自然语言数据,并将所述用户自然语言数据转换成对应的文本数据,包括:
    利用坐席终端上的话筒采集用户自然语言数据,并通过呼入模块记录坐席终端所采集的用户自然语言数据;
    将所述用户自然语言数据进行数字化处理得到语音信号;
    提取所述语音信号的声学特征;
    将所述声学特征输入至预设声学模型进行解码,以生成所述文本数据。
  3. 如权利要求1所述的方法,其中,所述将所述文本数据进行分词,包括:
    使用基于概率统计模型的分词方法对所述文本数据进行分词。
  4. 如权利要求1所述的方法,其中,在所述将所述文本数据进行分词,得到所述文本数据的分词结果之前,所述方法还包括文本数据预处理步骤:
    对文本数据进行语料清洗,以删除所述文本数据中的噪音数据,以及删除文本数据中的标点符号、语气助词。
  5. 如权利要求1所述的方法,其中,所述以所述分词结果中的词语作为输入,使用预设词向量模型对所述文本数据的分词结果进行训练,获取分词训练结果,包括:
    将所述文本数据的分词结果中的词语输入至Python工具包Gensim中;
    利用Python工具包Gensim中的基于word2vec深度学习模型对所述文本数据的分词结果进行训练,以获取每个词语对应的向量表示作为分词训练结果。
  6. 如权利要求1所述的方法,其中,所述用于自然语言分类的神经网络模型的训练过程为:
    将历史词向量数据输入预先构建的用于词性标注的筛选模型中,得到针对每一历史词向量对应的词性概率;
    若每一历史词向量对应的词性概率大于或等于预先设置的第一概率,将对应的历史词向量标注为名词词性的词向量;
    若每一词向量对应的词性概率大于或等于预先设置的第二概率,将对应的历史词向量标注为动词词性的词向量;
    若每一词向量对应的词性概率大于或等于预先设置的第三概率,将对应的历史词向量标注为形容词词性的词向量。
  7. 如权利要求1所述的方法,其中,所述根据所述分类结果确定用户意图,并通过所确定的用户意图判断是否使用呼出模块对用户进行呼叫操作,包括:
    使用意图-槽位模型对所述分类结果进行描述;
    根据描述的内容确定用户意图的属性,并依据所确定的用户意图的属性确定用户意图;
    通过所确定的用户意图判断是否使用呼出模块对用户进行呼叫操作。
  8. 一种呼叫控制装置,其中,所述装置包括:
    转换单元,用于通过呼入模块记录坐席终端所采集的用户自然语言数据,并将所述用户自然语言数据转换成对应的文本数据;
    分词单元,用于将所述文本数据进行分词,得到所述文本数据的分词结果,所述分词结果包括一个或者多个词语;
    训练单元,用于以所述分词结果中的词语作为输入,使用预设词向量模型对所述文本数据的分词结果进行训练,获取分词训练结果,所述分词训练结果包括每个词语对应的向量表示;
    分类单元,用于将所述分词训练结果输入至预先训练得到的用于自然语言分类的神经网络模型,得到针对自然语言数据的分类结果;
    确定判断单元,用于根据所述分类结果确定用户意图,并通过所确定的用户意图判断是否使用呼出模块对用户进行呼叫操作。
  9. 一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其中,所述处理器执行所述计算机程序时执行以下步骤:
    通过呼入模块记录坐席终端所采集的用户自然语言数据,并将所述用户自然语言数据转换成对应的文本数据;
    将所述文本数据进行分词,得到所述文本数据的分词结果,所述分词结果包括一个或者多个词语;
    以所述分词结果中的词语作为输入,使用预设词向量模型对所述文本数据的分词结果进行训练,获取分词训练结果,所述分词训练结果包括每个词语对应的向量表示;
    将所述分词训练结果输入至预先训练得到的用于自然语言分类的神经网络模型,得到针对自然语言数据的分类结果;
    根据所述分类结果确定用户意图,并通过所确定的用户意图判断是否使用呼出模块对用户进行呼叫操作。
  10. 如权利要求9所述的计算机设备,其中,所述通过呼入模块记录坐席终端所采集的用户自然语言数据,并将所述用户自然语言数据转换成对应的文本数据,包括:
    利用坐席终端上的话筒采集用户自然语言数据,并通过呼入模块记录坐席终端所采集的用户自然语言数据;
    将所述用户自然语言数据进行数字化处理得到语音信号;
    提取所述语音信号的声学特征;
    将所述声学特征输入至预设声学模型进行解码,以生成所述文本数据。
  11. 如权利要求9所述的计算机设备,其中,所述将所述文本数据进行分词,包括:
    使用基于概率统计模型的分词方法对所述文本数据进行分词。
  12. 如权利要求9所述的计算机设备,其中,在所述将所述文本数据进行分词,得到所述文本数据的分词结果之前,所述方法还包括文本数据预处理步骤:
    对文本数据进行语料清洗,以删除所述文本数据中的噪音数据,以及删除文本数据中的标点符号、语气助词。
  13. 如权利要求9所述的计算机设备,其中,所述以所述分词结果中的词语作为输入,使用预设词向量模型对所述文本数据的分词结果进行训练,获取分词训练结果,包括:
    将所述文本数据的分词结果中的词语输入至Python工具包Gensim中;
    利用Python工具包Gensim中的基于word2vec深度学习模型对所述文本数据的分词结果进行训练,以获取每个词语对应的向量表示作为分词训练结果。
  14. 如权利要求9所述的计算机设备,其中,所述用于自然语言分类的神经网络模型的训练过程为:
    将历史词向量数据输入预先构建的用于词性标注的筛选模型中,得到针对每一历史词向量对应的词性概率;
    若每一历史词向量对应的词性概率大于或等于预先设置的第一概率,将对应的历史词向 量标注为名词词性的词向量;
    若每一词向量对应的词性概率大于或等于预先设置的第二概率,将对应的历史词向量标注为动词词性的词向量;
    若每一词向量对应的词性概率大于或等于预先设置的第三概率,将对应的历史词向量标注为形容词词性的词向量。
  15. 如权利要求9所述的计算机设备,其中,所述根据所述分类结果确定用户意图,并通过所确定的用户意图判断是否使用呼出模块对用户进行呼叫操作,包括:
    使用意图-槽位模型对所述分类结果进行描述;
    根据描述的内容确定用户意图的属性,并依据所确定的用户意图的属性确定用户意图;
    通过所确定的用户意图判断是否使用呼出模块对用户进行呼叫操作。
  16. 一种计算机可读存储介质,其中,所述计算机可读存储介质存储有一个或者一个以上计算机程序,所述计算机程序当被处理器执行以下步骤:
    通过呼入模块记录坐席终端所采集的用户自然语言数据,并将所述用户自然语言数据转换成对应的文本数据;
    将所述文本数据进行分词,得到所述文本数据的分词结果,所述分词结果包括一个或者多个词语;
    以所述分词结果中的词语作为输入,使用预设词向量模型对所述文本数据的分词结果进行训练,获取分词训练结果,所述分词训练结果包括每个词语对应的向量表示;
    将所述分词训练结果输入至预先训练得到的用于自然语言分类的神经网络模型,得到针对自然语言数据的分类结果;
    根据所述分类结果确定用户意图,并通过所确定的用户意图判断是否使用呼出模块对用户进行呼叫操作。
  17. 如权利要求16所述的计算机可读存储介质,其中,所述通过呼入模块记录坐席终端所采集的用户自然语言数据,并将所述用户自然语言数据转换成对应的文本数据,包括:
    利用坐席终端上的话筒采集用户自然语言数据,并通过呼入模块记录坐席终端所采集的用户自然语言数据;
    将所述用户自然语言数据进行数字化处理得到语音信号;
    提取所述语音信号的声学特征;
    将所述声学特征输入至预设声学模型进行解码,以生成所述文本数据。
  18. 如权利要求16所述的计算机可读存储介质,其中,所述将所述文本数据进行分词,包括:
    使用基于概率统计模型的分词方法对所述文本数据进行分词。
  19. 如权利要求16所述的计算机可读存储介质,其中,在所述将所述文本数据进行分词,得到所述文本数据的分词结果之前,所述方法还包括文本数据预处理步骤:
    对文本数据进行语料清洗,以删除所述文本数据中的噪音数据,以及删除文本数据中的标点符号、语气助词。
  20. 如权利要求16所述的计算机可读存储介质,其中,所述以所述分词结果中的词语作为输入,使用预设词向量模型对所述文本数据的分词结果进行训练,获取分词训练结果,包括:
    将所述文本数据的分词结果中的词语输入至Python工具包Gensim中;
    利用Python工具包Gensim中的基于word2vec深度学习模型对所述文本数据的分词结果进行训练,以获取每个词语对应的向量表示作为分词训练结果。
PCT/CN2020/125064 2020-04-28 2020-10-30 呼叫控制方法、装置、计算机设备以及存储介质 WO2021218086A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010351277.4A CN111681653A (zh) 2020-04-28 2020-04-28 呼叫控制方法、装置、计算机设备以及存储介质
CN202010351277.4 2020-04-28

Publications (1)

Publication Number Publication Date
WO2021218086A1 true WO2021218086A1 (zh) 2021-11-04

Family

ID=72452291

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2020/125064 WO2021218086A1 (zh) 2020-04-28 2020-10-30 呼叫控制方法、装置、计算机设备以及存储介质

Country Status (2)

Country Link
CN (1) CN111681653A (zh)
WO (1) WO2021218086A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114168716A (zh) * 2022-02-11 2022-03-11 华南理工大学 基于深度学习的工程造价自动抽取和分析方法及装置
CN114615378A (zh) * 2022-03-10 2022-06-10 平安普惠企业管理有限公司 通话连接方法、装置、智能语音平台及存储介质
CN115687577A (zh) * 2023-01-04 2023-02-03 交通运输部公路科学研究所 一种道路运输常态化问题诉求发现方法及系统
CN116320171A (zh) * 2023-05-25 2023-06-23 安徽博天亚智能科技集团有限公司 基于大数据的人工智能呼叫系统、方法、装置及介质
CN116361442A (zh) * 2023-06-02 2023-06-30 国网浙江宁波市鄞州区供电有限公司 基于人工智能的营业厅数据分析方法及系统

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111681653A (zh) * 2020-04-28 2020-09-18 平安科技(深圳)有限公司 呼叫控制方法、装置、计算机设备以及存储介质
CN112242140A (zh) * 2020-10-13 2021-01-19 中移(杭州)信息技术有限公司 智能设备控制方法、装置、电子设备及存储介质
CN112350908B (zh) * 2020-11-10 2021-11-23 珠海格力电器股份有限公司 智能家居设备的控制方法和装置
CN112347232A (zh) * 2020-11-18 2021-02-09 武汉贝多多网络科技有限公司 一种基于云计算对客体进行意图识别的方法
CN112735383A (zh) * 2020-12-23 2021-04-30 深圳壹账通智能科技有限公司 语音信号的处理方法、装置、设备及存储介质
CN113434680A (zh) * 2021-06-29 2021-09-24 平安科技(深圳)有限公司 基于坐席数据的用户意愿分析方法、装置、电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105681609A (zh) * 2014-11-20 2016-06-15 中兴通讯股份有限公司 一种客服中心座席的辅助方法和装置
CN109840276A (zh) * 2019-02-12 2019-06-04 北京健康有益科技有限公司 基于文本意图识别的智能对话方法、装置和存储介质
WO2019132135A1 (ko) * 2017-12-26 2019-07-04 주식회사 머니브레인 사용자간 대화 세션에 대한 능동적 모니터링 및 개입을 제공하는 대화형 ai 에이전트 시스템, 방법 및 컴퓨터 판독가능 기록 매체
CN110046221A (zh) * 2019-03-01 2019-07-23 平安科技(深圳)有限公司 一种机器对话方法、装置、计算机设备及存储介质
CN110853649A (zh) * 2019-11-05 2020-02-28 集奥聚合(北京)人工智能科技有限公司 基于智能语音技术的标签提取方法、系统、设备及介质
CN111681653A (zh) * 2020-04-28 2020-09-18 平安科技(深圳)有限公司 呼叫控制方法、装置、计算机设备以及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105681609A (zh) * 2014-11-20 2016-06-15 中兴通讯股份有限公司 一种客服中心座席的辅助方法和装置
WO2019132135A1 (ko) * 2017-12-26 2019-07-04 주식회사 머니브레인 사용자간 대화 세션에 대한 능동적 모니터링 및 개입을 제공하는 대화형 ai 에이전트 시스템, 방법 및 컴퓨터 판독가능 기록 매체
CN109840276A (zh) * 2019-02-12 2019-06-04 北京健康有益科技有限公司 基于文本意图识别的智能对话方法、装置和存储介质
CN110046221A (zh) * 2019-03-01 2019-07-23 平安科技(深圳)有限公司 一种机器对话方法、装置、计算机设备及存储介质
CN110853649A (zh) * 2019-11-05 2020-02-28 集奥聚合(北京)人工智能科技有限公司 基于智能语音技术的标签提取方法、系统、设备及介质
CN111681653A (zh) * 2020-04-28 2020-09-18 平安科技(深圳)有限公司 呼叫控制方法、装置、计算机设备以及存储介质

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114168716A (zh) * 2022-02-11 2022-03-11 华南理工大学 基于深度学习的工程造价自动抽取和分析方法及装置
CN114168716B (zh) * 2022-02-11 2022-05-24 华南理工大学 基于深度学习的工程造价自动抽取和分析方法及装置
CN114615378A (zh) * 2022-03-10 2022-06-10 平安普惠企业管理有限公司 通话连接方法、装置、智能语音平台及存储介质
CN115687577A (zh) * 2023-01-04 2023-02-03 交通运输部公路科学研究所 一种道路运输常态化问题诉求发现方法及系统
CN115687577B (zh) * 2023-01-04 2023-04-07 交通运输部公路科学研究所 一种道路运输常态化问题诉求发现方法及系统
CN116320171A (zh) * 2023-05-25 2023-06-23 安徽博天亚智能科技集团有限公司 基于大数据的人工智能呼叫系统、方法、装置及介质
CN116320171B (zh) * 2023-05-25 2023-12-08 安徽博天亚智能科技集团有限公司 基于大数据的人工智能呼叫系统、方法、装置及介质
CN116361442A (zh) * 2023-06-02 2023-06-30 国网浙江宁波市鄞州区供电有限公司 基于人工智能的营业厅数据分析方法及系统
CN116361442B (zh) * 2023-06-02 2023-10-17 国网浙江宁波市鄞州区供电有限公司 基于人工智能的营业厅数据分析方法及系统

Also Published As

Publication number Publication date
CN111681653A (zh) 2020-09-18

Similar Documents

Publication Publication Date Title
WO2021218086A1 (zh) 呼叫控制方法、装置、计算机设备以及存储介质
WO2020238061A1 (zh) 自然语言分类方法、装置、计算机设备以及存储介质
CN110444198B (zh) 检索方法、装置、计算机设备和存储介质
CN108847241B (zh) 将会议语音识别为文本的方法、电子设备及存储介质
CN107798032B (zh) 自助语音会话中的应答消息处理方法和装置
US10498888B1 (en) Automatic call classification using machine learning
US8135579B2 (en) Method of analyzing conversational transcripts
WO2018150245A1 (en) Unsupervised automated topic detection, segmentation and labeling of conversations
WO2021073116A1 (zh) 生成法律文书的方法、装置、设备和存储介质
WO2021217769A1 (zh) 基于情绪识别的答复方法、装置、计算机设备及存储介质
US11887623B2 (en) End-to-end speech diarization via iterative speaker embedding
CN111462752B (zh) 基于注意力机制、特征嵌入及bi-lstm的客户意图识别方法
CN113129866B (zh) 语音处理方法、装置、存储介质及计算机设备
CN111651572A (zh) 一种多领域任务型对话系统、方法和终端
JP7182923B2 (ja) 情報検索システム
CN113239204A (zh) 文本分类方法及装置、电子设备、计算机可读存储介质
CN111062221A (zh) 数据处理方法、装置、电子设备以及存储介质
CN114722191A (zh) 一种基于语义理解处理的通话自动聚类方法及系统
CN111858900B (zh) 问句语义解析规则模板的生成方法、装置、设备及存储介质
CN112527969A (zh) 增量意图聚类方法、装置、设备及存储介质
CN103474063A (zh) 语音辨识系统以及方法
CN114141235A (zh) 语音语料库生成方法、装置、计算机设备和存储介质
CN116432638A (zh) 一种文本关键词提取方法、装置、电子设备及存储介质
CN109192198A (zh) 一种基于声波感知的文本输入方法
CN114464198B (zh) 一种可视化人声分离系统、方法以及装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20933918

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20933918

Country of ref document: EP

Kind code of ref document: A1