CN113284498B - 客户意图识别方法及装置 - Google Patents
客户意图识别方法及装置 Download PDFInfo
- Publication number
- CN113284498B CN113284498B CN202110550960.5A CN202110550960A CN113284498B CN 113284498 B CN113284498 B CN 113284498B CN 202110550960 A CN202110550960 A CN 202110550960A CN 113284498 B CN113284498 B CN 113284498B
- Authority
- CN
- China
- Prior art keywords
- target
- client
- word
- nodes
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 239000011159 matrix material Substances 0.000 claims abstract description 61
- 238000012549 training Methods 0.000 claims abstract description 31
- 230000006870 function Effects 0.000 claims description 28
- 238000004590 computer program Methods 0.000 claims description 16
- 238000010276 construction Methods 0.000 claims description 11
- 230000011218 segmentation Effects 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 6
- 238000012804 iterative process Methods 0.000 claims description 4
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 9
- 229920006934 PMI Polymers 0.000 description 7
- 230000003993 interaction Effects 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Computing Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
Abstract
本发明提供一种客户意图识别方法及装置,属于人工智能技术领域。该客户意图识别方法包括:获取目标客户音频文件,根据目标客户音频文件构造目标句子节点和目标词节点;根据目标句子节点和目标词节点构建目标异质文本图;对目标异质文本图进行编码得到目标异质文本矩阵,将目标异质文本矩阵输入基于训练异质文本矩阵创建的客户意图识别模型中,得到目标客户意图。本发明可以有效提高短意图识别的准确率。
Description
技术领域
本发明涉及人工智能技术领域,具体地,涉及一种客户意图识别方法及装置。
背景技术
近年来,随着语音识别、语音合成和智能移动终端的快速发展和应用,人与计算机通过自然语言交流已逐渐成为重要的交互方式。
经典的人机交互系统一般包括三个主要部分:意图识别、对话管理和语言生成。其中意图识别是智能交互系统能否进行准确、有效对话的一个首要基础环节。然而,由于智能交互环境的复杂性及客户表达方式的多样性,对话系统经常对客户意图识别出错,很大程度上影响交互的效果。此外,现有的意图识别模型大多针对长意图识别能起到很好的效果,而对短意图的识别效果欠佳。因此,迫切需要针对智能交互中的客户短意图识别提出更有效的解决办法。
发明内容
本发明实施例的主要目的在于提供一种客户意图识别方法及装置,以有效提高短意图识别的准确率。
为了实现上述目的,本发明实施例提供一种客户意图识别方法,包括:
获取目标客户音频文件,根据目标客户音频文件构造目标句子节点和目标词节点;
根据目标句子节点和目标词节点构建目标异质文本图;
对目标异质文本图进行编码得到目标异质文本矩阵,将目标异质文本矩阵输入基于训练异质文本矩阵创建的客户意图识别模型中,得到目标客户意图。
本发明实施例还提供一种客户意图识别装置,包括:
节点构造模块,用于获取目标客户音频文件,根据目标客户音频文件构造目标句子节点和目标词节点;
文本图构建模块,用于根据目标句子节点和目标词节点构建目标异质文本图;
意图识别模块,用于对目标异质文本图进行编码得到目标异质文本矩阵,将目标异质文本矩阵输入基于训练异质文本矩阵创建的客户意图识别模型中,得到目标客户意图。
本发明实施例还提供一种计算机设备,包括存储器、处理器及存储在存储器上并在处理器上运行的计算机程序,处理器执行计算机程序时实现所述的客户意图识别方法的步骤。
本发明实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现所述的客户意图识别方法的步骤。
本发明实施例的客户意图识别方法及装置先根据目标客户音频文件构造目标句子节点和目标词节点以构建目标异质文本图,再对目标异质文本图进行编码得到目标异质文本矩阵,将目标异质文本矩阵输入客户意图识别模型中得到目标客户意图,可以有效提高短意图识别的准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中客户意图识别方法的流程图;
图2是本发明一实施例中客户意图识别模型的示意图;
图3是本发明实施例中构造目标句子节点和目标词节点的流程图;
图4是本发明实施例中目标异质文本图的示意图;
图5是本发明实施例中创建客户意图识别模型的流程图;
图6是本发明实施例中客户意图识别装置的结构框图;
图7是本发明实施例中计算机设备的结构框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本领域技术人员知道,本发明的实施方式可以实现为一种系统、装置、设备、方法或计算机程序产品。因此,本公开可以具体实现为以下形式,即:完全的硬件、完全的软件(包括固件、驻留软件、微代码等),或者硬件和软件结合的形式。
现有的智能交互系统普遍依据问题类型生成对应的回复,因此系统需要首先正确识别出用户的意图,并基于此给出合适的回答。例如用户表达“你好啊,很高兴见到你!”,系统将其分到闲聊类;表达“我想购买一些基金”,系统将其分到任务类中的“产品咨询”类;对于“我想投诉你们”,将其分到任务类中的“售后服务”类。目前一般使用句子相似度进行客户意图的识别,将特征扩展思想引入意图识别研究中,即引入额外的信息挖掘文本所表达的含义来辅助分类等,这些研究通常在长意图识别上有较好效果。然而,人机对话中的问答通常是短文本形式,往往是十个字以内,因此传统的长文本分析模式直接用于目前的对话意图识别还存在诸多不足。本发明实施例提供一种客户意图识别方法,可以有效提高短意图识别的准确率。以下结合附图对本发明进行详细说明。
图1是本发明一实施例中客户意图识别方法的流程图。图2是本发明一实施例中客户意图识别模型的示意图。如图1-图2所示,客户意图识别方法包括:
S101:获取目标客户音频文件,根据目标客户音频文件构造目标句子节点和目标词节点。
图3是本发明实施例中构造目标句子节点和目标词节点的流程图。如图3所示,根据目标客户音频构造目标句子节点和目标词节点包括:
S201:将目标客户音频文件转换为目标客户文本,根据目标客户文本构造目标句子节点。
具体实施时,可以使用ASR(自动语音识别,Automatic Speech Recognition)技术将目标客户音频文件转换为文本。然后利用开源接口,通过回译的方式对上述文本进行扩充以得到更大规模的对话文本数据集作为目标客户文本。
例如,先将中文语句文本翻译为英文,再将其翻译回中文以实现数据扩充:原始中文语句文本为“我想咨询一下最近收益率比较稳定的理财产品有什么”,翻译为英文为“Iwant to consult yield to compare stable financial products recently what tohave”,再将其翻译回中文则是“我想了解以下近期收益稳定的金融产品有哪些”。
句子节点主要描述数据集中的客户语句(客户文本)。由于这些语句通常具有句子格式,所以被看作拥有句子级的状态,因此本发明将目标客户文本视为目标句子节点。
S202:对目标客户文本进行分词操作,得到目标客户词序列。
具体实施时,可以使用jieba分词工具进行分词操作,将目标客户文本转化为目标客户词序列,同时使用nltk工具包,对转换后的目标客户词序列进行数据清洗,去除标点、姓名、数字等干扰信息。
S203:根据目标客户词序列构造目标客户词组。
其中,目标客户词组为bigram词组。本发明将词序列中连续两个词的组合视为一个bigram词组。例如“我要买基金”得到的词序列为“我”,“要”,“买”,“基金”;对应的bigram词组则为“我要”,“要买”和“买基金”。
S204:根据目标客户词序列和目标客户词组构造目标词节点。
词节点对应于客户语句中出现的词序列和bigram词组,用于捕获客户语句的内容信息。具体来说,词语反映了语句中包含的核心要素,bigram词组近似地反映两个连续词语所表达的概念,并在一定程度上反映了两个概念之间的句法关系,因此本发明将目标客户词序列和目标客户词组均视为目标词节点。
S102:根据目标句子节点和目标词节点构建目标异质文本图。
一实施例中,S102包括:根据目标句子节点与目标词节点之间的连边权值和各目标词节点之间的共现概率构建目标异质文本图。图4是本发明实施例中目标异质文本图的示意图。如图4所示,椭圆表示目标词节点,圆圈表示目标句子节点,实线表示目标词节点与目标句子节点之间的边,虚线表示目标词节点与目标词节点之间的边。
当句子节点对应的客户文本包括词节点对应的词序列或bigram词组,则视为句子节点与词节点之间具有连边,连边权值由句子节点与词节点之间的TF-IDF值来表示,其中TF(Term Frequency,词频)指文本中出现词序列或bigram词组的次数,IDF(InverseDocument Frequency,逆文本频率指数)指对话文本数据集中包括词序列或bigram词组的目标客户文本数量的倒数的对数。可以通过如下公式确定句子节点与词节点之间的TF-IDF:
其中,TF-IDF(sw)为句子节点s与词节点w之间的连边权值,Nw为句子节点s对应的目标客户文本中与词节点w对应的目标客户词序列或目标客户词组的数量,NW为对话文本数据集中客户词序列或客户词组的数量,Ns为对话文本数据集中客户文本的数量,为对话文本数据集中包括词节点w对应的目标客户词序列或目标客户词组的客户文本的数量。
当两个词节点共同出现的概率(共现概率)超过一定阈值时,它们之间存在连边。本发明使用点互信息(PMI,用于计算两个词语的语义相似度)来计算两个词节点之间连边的权重。具体实施时,可以通过如下公式确认两个词节点之间连边的权重:
其中,PMI(Wi,Wj)为第i个词节点Wi与第j个词节点Wj之间连边的权重,P(WiWj)为第i个词节点Wi与第j个词节点Wj共同出现的概率,即第i个词节点Wi和第j个词节点Wj共同出现的客户文本的数量;P(Wi)为第i个词节点Wi单独出现的概率,即第i个词节点Wi单独在客户文本中出现的数量;P(Wj)为第j个词节点Wj单独出现的概率,即第j个词节点Wj单独在客户文本中出现的数量。P(Wi,Wj)与P(Wi)P(Wj)的比值是Wi与词Wj的相关性衡量。
当PMI(Wi,Wj)>0时,第i个词节点Wi与第j个词节点Wj相关,PMI(Wi,Wj)越大,Wi与Wj的关联性越强。
当PMI(Wi,Wj)=0时,第i个词节点Wi与第j个词节点Wj统计独立,Wi与Wj不相关也不排斥。
当PMI(Wi,Wj)<0时,第i个词节点Wi与第j个词节点Wj不相关,Wi与Wj相互排斥。
本发明仅在两个PMI(Wi,Wj)>0的词节点之间建立连边。
S103:对目标异质文本图进行编码得到目标异质文本矩阵,将目标异质文本矩阵输入基于训练异质文本矩阵创建的客户意图识别模型中,得到目标客户意图。
如图2所示,客户意图识别模型为包括softmax分类器的两层GCN(Graphconvolution Network,图卷积网络)分类模型。可以使用GCN模型对目标异质文本图进行编码,得到目标异质文本矩阵以聚集所有节点和边的信息,然后将目标异质文本矩阵输入客户意图识别模型,通过图卷积得到图表示和意图分类以对客户意图进行预测。以图2为例,目标客户意图包括理财产品、信用卡和借记卡,通过本发明可以将目标客户提出的问题分为理财产品类问题、信用卡类问题或借记卡类问题。
图1所示的客户意图识别方法的执行主体可以为计算机。由图1所示的流程可知,本发明实施例的客户意图识别方法先根据目标客户音频文件构造目标句子节点和目标词节点以构建目标异质文本图,再对目标异质文本图进行编码得到目标异质文本矩阵,将目标异质文本矩阵输入客户意图识别模型中得到目标客户意图,可以有效提高短意图识别的准确率。
图5是本发明实施例中创建客户意图识别模型的流程图。如图5所示,基于训练异质文本矩阵创建客户意图识别模型包括:
执行如下迭代处理:
S301:根据训练异质文本矩阵和模型参数确定预测客户意图。
具体实施时,先根据已标注实际客户意图标签的句子节点和词节点构建训练异质文本图,再对训练异质文本图进行编码得到训练异质文本矩阵。模型参数为GCN模型的参数,GCN是卷积神经网络的一种变体,可以学习图中节点的语义表示。
图像可以表示成二维矩阵,CNN(Convolutional Neural Networks,卷积神经网络)对数据处理的核心思想是用一个规则的滤波器对空间上相邻的像素点做卷积以提取特征。这种卷积只能对欧式结构数据进行处理。但是现实生活中很多数据是以图这种非欧形式存在,因此CNN不是很适用。
本发明使用GCN可以对图中节点及其邻近节点一起卷积,在提取特征时可以将其自身及邻居节点一起考虑。此外,GCN通过节点间的信息传播来更新图的表示,同时保留图的结构信息,是一种直接在图上进行操作的多层神经网络,根据节点的邻接节点属性及自身属性生成嵌入向量。当GCN只有一种关系时,分层传播规则如下所示:
H(l+1)=σ(D-0.5AD-0.5HlW);
其中,H(l+1)为GCN第l层的输出,Hl为GCN第l层的输入,当l=1时,Hl为异质文本矩阵X,W为滤波器参数,σ为非线性激活函数,一般为ReLu函数,A为异质文本矩阵X的邻接矩阵,D为邻接矩阵A的度矩阵。
当使用多个GCN层时,生成节点嵌入时可以聚合更远的相邻节点信息,本发明选用两层GCN,可以允许信息在最多两层节点间传递,第二层的节点嵌入与实际客户意图标签的标签集的大小相同。因此,尽管训练异质文本图的两个句子节点之间没有相连的边,但是两层的GCN允许两个句子节点对它们之间共有的词节点进行信息交换,可以间接获取它们之间的关系。GCN模型在对数据进行处理时间接保留了整体的结构,每个节点从一阶邻域和二阶邻域聚集了各种信息,包括内容信息、标签信息和交互信息等。
具体实施时,可以通过softmax分类器确定预测客户意图,如下:
其中,p为预测客户意图,I为单位矩阵,异质文本矩阵X为通过One-hot(独热)表示的特征矩阵,W(0)为隐藏到输入的权重矩阵,W(1)为隐藏到输出的权重矩阵,ReLu(·)为激活函数。softmax函数用于对GCN的输出进行分类,xi∈Rn对应于节点的表示。
S302:根据预测客户意图与对应的实际客户意图确定损失函数。
S303:判断损失函数是否符合预设训练规则。
S304:当损失函数符合预设训练规则时,根据模型参数创建客户意图识别模型。
例如,根据连续的预设数量的损失函数构造损失函数趋势曲线,当损失函数趋势曲线趋于平稳时,根据模型参数创建客户意图识别模型。模型参数包括滤波器参数和权重矩阵。
S305:当损失函数不符合预设训练规则时,根据损失函数更新模型参数,继续执行迭代处理。
本发明实施例的具体流程如下:
1、根据已标注实际客户意图标签的句子节点和词节点构建训练异质文本图。
2、对训练异质文本图进行编码得到训练异质文本矩阵。
3、根据训练异质文本矩阵和模型参数确定预测客户意图。
4、根据预测客户意图与对应的实际客户意图确定损失函数。
5、判断损失函数是否符合预设训练规则:当损失函数符合预设训练规则时,根据模型参数创建客户意图识别模型,否则根据损失函数更新模型参数,返回步骤3。
6、获取目标客户音频文件,将目标客户音频文件转换为目标客户文本,根据目标客户文本构造目标句子节点。
7、对目标客户文本进行分词操作,得到目标客户词序列,根据目标客户词序列构造目标客户词组。
8、根据目标客户词序列和目标客户词组构造目标词节点。
9、根据目标句子节点与目标词节点之间的连边权值和各目标词节点之间的共现概率构建目标异质文本图。
10、对目标异质文本图进行编码得到目标异质文本矩阵,将目标异质文本矩阵输入客户意图识别模型中,得到目标客户意图。
综上所述,本发明实施例提供的客户意图识别方法具有以下有益效果:
(1)将智能交互中的客户文本进行扩充,以此得到更大规模的数据集;
(2)通过基于异质图网络进行意图识别,可以学习到数据集中短意图的词共现关系和客户语句间的全局交互信息,从而有效提高短意图识别的准确率,减少答非所问现象。
基于同一发明构思,本发明实施例还提供了一种客户意图识别装置,由于该装置解决问题的原理与客户意图识别方法相似,因此该装置的实施可以参见方法的实施,重复之处不再赘述。
图6是本发明实施例中客户意图识别装置的结构框图。如图6所示,客户意图识别装置包括:
节点构造模块,用于获取目标客户音频文件,根据目标客户音频文件构造目标句子节点和目标词节点;
文本图构建模块,用于根据目标句子节点和目标词节点构建目标异质文本图;
意图识别模块,用于对目标异质文本图进行编码得到目标异质文本矩阵,将目标异质文本矩阵输入基于训练异质文本矩阵创建的客户意图识别模型中,得到目标客户意图。
在其中一种实施例中,节点构造模块包括:
句子节点构造单元,用于将目标客户音频文件转换为目标客户文本,根据目标客户文本构造目标句子节点;
分词单元,用于对目标客户文本进行分词操作,得到目标客户词序列;
词组构造单元,用于根据目标客户词序列构造目标客户词组;
词节点构造单元,用于根据目标客户词序列和目标客户词组构造目标词节点。
在其中一种实施例中,文本图构建模块具体用于:
根据目标句子节点与目标词节点之间的连边权值和各目标词节点之间的共现概率构建目标异质文本图。
在其中一种实施例中,还包括:客户意图识别模型创建模块,用于执行如下迭代处理:
根据训练异质文本矩阵和模型参数确定预测客户意图;
根据预测客户意图与对应的实际客户意图确定损失函数;
当损失函数符合预设训练规则时,根据模型参数创建客户意图识别模型,否则根据损失函数更新模型参数,继续执行迭代处理。
综上,本发明实施例的客户意图识别装置先根据目标客户音频文件构造目标句子节点和目标词节点以构建目标异质文本图,再对目标异质文本图进行编码得到目标异质文本矩阵,将目标异质文本矩阵输入客户意图识别模型中得到目标客户意图,可以有效提高短意图识别的准确率。
本发明实施例还提供能够实现上述实施例中的客户意图识别方法中全部步骤的一种计算机设备的具体实施方式。图7是本发明实施例中计算机设备的结构框图,参见图7,所述计算机设备具体包括如下内容:
处理器(processor)701和存储器(memory)702。
所述处理器701用于调用所述存储器702中的计算机程序,所述处理器执行所述计算机程序时实现上述实施例中的客户意图识别方法中的全部步骤,例如,所述处理器执行所述计算机程序时实现下述步骤:
获取目标客户音频文件,根据目标客户音频文件构造目标句子节点和目标词节点;
根据目标句子节点和目标词节点构建目标异质文本图;
对目标异质文本图进行编码得到目标异质文本矩阵,将目标异质文本矩阵输入基于训练异质文本矩阵创建的客户意图识别模型中,得到目标客户意图。
综上,本发明实施例的计算机设备先根据目标客户音频文件构造目标句子节点和目标词节点以构建目标异质文本图,再对目标异质文本图进行编码得到目标异质文本矩阵,将目标异质文本矩阵输入客户意图识别模型中得到目标客户意图,可以有效提高短意图识别的准确率。
本发明实施例还提供能够实现上述实施例中的客户意图识别方法中全部步骤的一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述实施例中的客户意图识别方法的全部步骤,例如,所述处理器执行所述计算机程序时实现下述步骤:
获取目标客户音频文件,根据目标客户音频文件构造目标句子节点和目标词节点;
根据目标句子节点和目标词节点构建目标异质文本图;
对目标异质文本图进行编码得到目标异质文本矩阵,将目标异质文本矩阵输入基于训练异质文本矩阵创建的客户意图识别模型中,得到目标客户意图。
综上,本发明实施例的计算机可读存储介质先根据目标客户音频文件构造目标句子节点和目标词节点以构建目标异质文本图,再对目标异质文本图进行编码得到目标异质文本矩阵,将目标异质文本矩阵输入客户意图识别模型中得到目标客户意图,可以有效提高短意图识别的准确率。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
本领域技术人员还可以了解到本发明实施例列出的各种说明性逻辑块(illustrative logical block),单元,和步骤可以通过电子硬件、电脑软件,或两者的结合进行实现。为清楚展示硬件和软件的可替换性(interchangeability),上述的各种说明性部件(illustrative components),单元和步骤已经通用地描述了它们的功能。这样的功能是通过硬件还是软件来实现取决于特定的应用和整个系统的设计要求。本领域技术人员可以对于每种特定的应用,可以使用各种方法实现所述的功能,但这种实现不应被理解为超出本发明实施例保护的范围。
本发明实施例中所描述的各种说明性的逻辑块,或单元,或装置都可以通过通用处理器,数字信号处理器,专用集成电路(ASIC),现场可编程门阵列或其它可编程逻辑装置,离散门或晶体管逻辑,离散硬件部件,或上述任何组合的设计来实现或操作所描述的功能。通用处理器可以为微处理器,可选地,该通用处理器也可以为任何传统的处理器、控制器、微控制器或状态机。处理器也可以通过计算装置的组合来实现,例如数字信号处理器和微处理器,多个微处理器,一个或多个微处理器联合一个数字信号处理器核,或任何其它类似的配置来实现。
本发明实施例中所描述的方法或算法的步骤可以直接嵌入硬件、处理器执行的软件模块、或者这两者的结合。软件模块可以存储于RAM存储器、闪存、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动磁盘、CD-ROM或本领域中其它任意形式的存储媒介中。示例性地,存储媒介可以与处理器连接,以使得处理器可以从存储媒介中读取信息,并可以向存储媒介存写信息。可选地,存储媒介还可以集成到处理器中。处理器和存储媒介可以设置于ASIC中,ASIC可以设置于用户终端中。可选地,处理器和存储媒介也可以设置于用户终端中的不同的部件中。
在一个或多个示例性的设计中,本发明实施例所描述的上述功能可以在硬件、软件、固件或这三者的任意组合来实现。如果在软件中实现,这些功能可以存储与电脑可读的媒介上,或以一个或多个指令或代码形式传输于电脑可读的媒介上。电脑可读媒介包括电脑存储媒介和便于使得让电脑程序从一个地方转移到其它地方的通信媒介。存储媒介可以是任何通用或特殊电脑可以接入访问的可用媒体。例如,这样的电脑可读媒体可以包括但不限于RAM、ROM、EEPROM、CD-ROM或其它光盘存储、磁盘存储或其它磁性存储装置,或其它任何可以用于承载或存储以指令或数据结构和其它可被通用或特殊电脑、或通用或特殊处理器读取形式的程序代码的媒介。此外,任何连接都可以被适当地定义为电脑可读媒介,例如,如果软件是从一个网站站点、服务器或其它远程资源通过一个同轴电缆、光纤电缆、双绞线、数字用户线(DSL)或以例如红外、无线和微波等无线方式传输的也被包含在所定义的电脑可读媒介中。所述的碟片(disk)和磁盘(disc)包括压缩磁盘、镭射盘、光盘、DVD、软盘和蓝光光盘,磁盘通常以磁性复制数据,而碟片通常以激光进行光学复制数据。上述的组合也可以包含在电脑可读媒介中。
Claims (8)
1.一种客户意图识别方法,其特征在于,包括:
获取目标客户音频文件,根据所述目标客户音频文件构造目标句子节点和目标词节点;
根据所述目标句子节点和所述目标词节点构建目标异质文本图;
对所述目标异质文本图进行编码得到目标异质文本矩阵,将所述目标异质文本矩阵输入基于训练异质文本矩阵创建的客户意图识别模型中,得到目标客户意图;
基于训练异质文本矩阵创建客户意图识别模型包括:
执行如下迭代处理:
根据训练异质文本矩阵和模型参数确定预测客户意图;
根据所述预测客户意图与对应的实际客户意图确定损失函数;
当所述损失函数符合预设训练规则时,根据所述模型参数创建客户意图识别模型,否则根据所述损失函数更新所述模型参数,继续执行所述迭代处理。
2.根据权利要求1所述的客户意图识别方法,其特征在于,根据所述目标客户音频构造目标句子节点和目标词节点包括:
将所述目标客户音频文件转换为目标客户文本,根据所述目标客户文本构造目标句子节点;
对所述目标客户文本进行分词操作,得到目标客户词序列;
根据所述目标客户词序列构造目标客户词组;
根据所述目标客户词序列和所述目标客户词组构造目标词节点。
3.根据权利要求1所述的客户意图识别方法,其特征在于,根据所述目标句子节点和所述目标词节点构建目标异质文本图包括:
根据目标句子节点与目标词节点之间的连边权值和各目标词节点之间的共现概率构建目标异质文本图。
4.一种客户意图识别装置,其特征在于,包括:
节点构造模块,用于获取目标客户音频文件,根据所述目标客户音频文件构造目标句子节点和目标词节点;
文本图构建模块,用于根据所述目标句子节点和所述目标词节点构建目标异质文本图;
意图识别模块,用于对所述目标异质文本图进行编码得到目标异质文本矩阵,将所述目标异质文本矩阵输入基于训练异质文本矩阵创建的客户意图识别模型中,得到目标客户意图;
所述客户意图识别装置还包括:客户意图识别模型创建模块,用于执行如下迭代处理:
根据训练异质文本矩阵和模型参数确定预测客户意图;
根据所述预测客户意图与对应的实际客户意图确定损失函数;
当所述损失函数符合预设训练规则时,根据所述模型参数创建客户意图识别模型,否则根据所述损失函数更新所述模型参数,继续执行所述迭代处理。
5.根据权利要求4所述的客户意图识别装置,其特征在于,所述节点构造模块包括:
句子节点构造单元,用于将所述目标客户音频文件转换为目标客户文本,根据所述目标客户文本构造目标句子节点;
分词单元,用于对所述目标客户文本进行分词操作,得到目标客户词序列;
词组构造单元,用于根据所述目标客户词序列构造目标客户词组;
词节点构造单元,用于根据所述目标客户词序列和所述目标客户词组构造目标词节点。
6.根据权利要求4所述的客户意图识别装置,其特征在于,所述文本图构建模块具体用于:
根据目标句子节点与目标词节点之间的连边权值和各目标词节点之间的共现概率构建目标异质文本图。
7.一种计算机设备,包括存储器、处理器及存储在存储器上并在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至3任一项所述的客户意图识别方法的步骤。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至3任一项所述的客户意图识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110550960.5A CN113284498B (zh) | 2021-05-20 | 2021-05-20 | 客户意图识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110550960.5A CN113284498B (zh) | 2021-05-20 | 2021-05-20 | 客户意图识别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113284498A CN113284498A (zh) | 2021-08-20 |
CN113284498B true CN113284498B (zh) | 2022-09-30 |
Family
ID=77280250
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110550960.5A Active CN113284498B (zh) | 2021-05-20 | 2021-05-20 | 客户意图识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113284498B (zh) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200242146A1 (en) * | 2019-01-24 | 2020-07-30 | Andrew R. Kalukin | Artificial intelligence system for generating conjectures and comprehending text, audio, and visual data using natural language understanding |
US11494647B2 (en) * | 2019-12-06 | 2022-11-08 | Adobe Inc. | Slot filling with contextual information |
CN111832305B (zh) * | 2020-07-03 | 2023-08-25 | 北京小鹏汽车有限公司 | 一种用户意图识别方法、装置、服务器和介质 |
CN112163069B (zh) * | 2020-09-27 | 2024-04-12 | 广东工业大学 | 一种基于图神经网络节点特征传播优化的文本分类方法 |
CN112287108B (zh) * | 2020-10-29 | 2022-08-16 | 四川长虹电器股份有限公司 | 一种物联领域的意图识别优化方法 |
CN112632984A (zh) * | 2020-11-20 | 2021-04-09 | 南京理工大学 | 基于描述文本词频的图模型移动应用分类方法 |
-
2021
- 2021-05-20 CN CN202110550960.5A patent/CN113284498B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN113284498A (zh) | 2021-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106649561B (zh) | 面向税务咨询业务的智能问答系统 | |
US20220337538A1 (en) | Customized message suggestion with user embedding vectors | |
CN111241237B (zh) | 一种基于运维业务的智能问答数据处理方法及装置 | |
CN114580382A (zh) | 文本纠错方法以及装置 | |
CN108170848B (zh) | 一种面向中国移动智能客服的对话场景分类方法 | |
CN112580328A (zh) | 事件信息的抽取方法及装置、存储介质、电子设备 | |
CN111339260A (zh) | 一种基于bert和qa思想的细粒度情感分析方法 | |
CN110399473B (zh) | 为用户问题确定答案的方法和装置 | |
Bokka et al. | Deep Learning for Natural Language Processing: Solve your natural language processing problems with smart deep neural networks | |
US11934787B2 (en) | Intent determination in a messaging dialog manager system | |
CN112836519A (zh) | 文本生成模型的训练方法、文本生成方法及装置 | |
CN113158687B (zh) | 语义的消歧方法及装置、存储介质、电子装置 | |
CN115545041B (zh) | 一种增强医疗语句语义向量表示的模型构造方法及系统 | |
CN112632244A (zh) | 一种人机通话的优化方法、装置、计算机设备及存储介质 | |
CN112101042A (zh) | 文本情绪识别方法、装置、终端设备和存储介质 | |
CN113705196A (zh) | 基于图神经网络的中文开放信息抽取方法和装置 | |
CN111241820A (zh) | 不良用语识别方法、装置、电子装置及存储介质 | |
CN114416981A (zh) | 一种长文本的分类方法、装置、设备及存储介质 | |
CN116361442B (zh) | 基于人工智能的营业厅数据分析方法及系统 | |
CN113869054A (zh) | 一种基于深度学习的电力领域项目特征识别方法 | |
CN112349294A (zh) | 语音处理方法及装置、计算机可读介质、电子设备 | |
CN111736804A (zh) | 一种基于用户评论识别App关键功能的方法及装置 | |
CN113284498B (zh) | 客户意图识别方法及装置 | |
CN115292492A (zh) | 意图分类模型的训练方法、装置、设备及存储介质 | |
Kreyssig | Deep learning for user simulation in a dialogue system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |