CN113051930B - 基于Bert模型的意图识别方法、装置及相关设备 - Google Patents

基于Bert模型的意图识别方法、装置及相关设备 Download PDF

Info

Publication number
CN113051930B
CN113051930B CN202110319798.6A CN202110319798A CN113051930B CN 113051930 B CN113051930 B CN 113051930B CN 202110319798 A CN202110319798 A CN 202110319798A CN 113051930 B CN113051930 B CN 113051930B
Authority
CN
China
Prior art keywords
word
vector
sequence
adjacent
corpus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110319798.6A
Other languages
English (en)
Other versions
CN113051930A (zh
Inventor
王伟
黄勇其
于翠翠
张黔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Resources Digital Technology Co Ltd
Original Assignee
China Resources Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Resources Digital Technology Co Ltd filed Critical China Resources Digital Technology Co Ltd
Priority to CN202110319798.6A priority Critical patent/CN113051930B/zh
Publication of CN113051930A publication Critical patent/CN113051930A/zh
Application granted granted Critical
Publication of CN113051930B publication Critical patent/CN113051930B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)

Abstract

本发明实施例公开了基于Bert模型的意图识别方法、装置及相关设备。该方法包括:对训练语料进行分词处理得到多个单词,并基于多个单词构建语料矩阵;构建训练语料中每个单词的对话序列标识向量以及邻接语义向量;获取训练语料中每一单词的词向量及位置向量,并对每一单词对应的词向量、位置向量、对话序列标识向量以及邻接语义向量进行组合,得到每个单词的输入向量;基于输入向量,通过预置的Bert模型对所输入向量进行预测,得到输入向量所属意图的预测概率,从而构建意图识别模型;获取目标识别语料对应的目标输入向量,通过意图识别模型进行意图识别,得到意图识别结果。该方法使意图识别更准确。

Description

基于Bert模型的意图识别方法、装置及相关设备
技术领域
本发明涉及人工智能领域,尤其涉及一种基于Bert模型的意图识别方法、装置及相关设备。
背景技术
近年来通过深度神经网络进行对话状态管理已成为对话机器人领域的主流技术。对话状态管理具体来说是对话机器人通过识别用户意图和槽位抽取,实现与用户交互完成特定任务。其中,意图是表明用户想实现何种目的,例如订机票还是订火车票;而槽位是指完成对话的关键要素,例如在订票流程中必须要填写的出发时间、出发地、目的地等要素。
传统的技术是将意图识别视为多分类任务,预先定义好一定类别的意图,通过各种神经网络模型实现分类。通过这些方法完成意图识别需要对每个任务进行大量的标注,需要耗费较多人力和时间成本,影响了实际应用范围。当前技术发展趋势是在预置了丰富语义特征的开源预训练模型(例如Bert模型)基础上,再进行优化改进,以达到更好的效果。
发明内容
本发明实施例提供了一种基于Bert模型的意图识别方法、装置及相关设备,旨在解决现有技术中意图识别准确性不高的问题。
第一方面,本发明实施例提供了一种基于Bert模型的意图识别方法,其包括:
将训练语料进行分词处理得到多个单词,并基于多个所述单词构建语料矩阵,其中,所述训练语料包含多个对话序列;
根据所述训练语料中每个对话序列的先后顺序确定所述对话序列内每个单词的对话序列标识向量;以及获取所述训练语料中每一单词在所述语料矩阵的邻接词序列,并根据所述邻接词序列计算得到对应的邻接语义向量;
获取所述训练语料中每个单词的词向量及位置向量,并对所述词向量、位置向量、对话序列标识向量以及邻接语义向量进行组合,得到所述训练语料每个单词的输入向量;
基于所述输入向量,通过预置的Bert模型对所述输入向量进行预测,得到所述输入向量所属意图的预测概率,从而构建意图识别模型;
获取待识别的目标语料对应的目标输入向量,通过所述意图识别模型进行意图识别,得到意图识别结果。
第二方面,本发明实施例提供了一基于Bert模型的意图识别装置,其包括:
构建模块,用于将训练语料进行分词处理得到多个单词,并基于多个所述单词构建语料矩阵,其中,所述训练语料包含多个对话序列;
计算模块,用于根据所述训练语料中每个对话序列的先后顺序确定所述对话序列内每个单词的对话序列标识向量;以及获取所述训练语料中每一单词在所述语料矩阵的邻接词序列,并根据所述邻接词序列计算得到对应的邻接语义向量;
组合模块,用于获取所述训练语料中每个单词的词向量及位置向量,并对所述词向量、位置向量、对话序列标识向量以及邻接语义向量进行组合,得到所述训练语料每个单词的输入向量;
预测模块,用于基于所述输入向量,通过预置的Bert模型对所述输入向量进行预测,得到所述输入向量所属意图的预测概率,从而构建意图识别模型;
识别模块,用于获取待识别的目标语料对应的目标输入向量,通过所述意图识别模型进行意图识别,得到意图识别结果。
第三方面,本发明实施例又提供了一种计算机设备,其包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面所述的基于Bert模型的意图识别方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其中所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行上述第一方面所述的基于Bert模型的意图识别方法。
本发明实施例提供了一种基于Bert模型的意图识别方法、装置及相关设备。该方法包括对训练语料进行分词处理得到多个单词,并基于多个所述单词构建语料矩阵;根据所述训练语料中每个对话序列的先后顺序确定所述对话序列内每个单词的对话序列标识向量;以及获取所述训练语料中每一单词在所述语料矩阵的邻接词序列,并根据所述邻接词序列计算得到对应的邻接语义向量;获取所述训练语料中每个单词的词向量及位置向量,并对所述词向量、位置向量、对话序列标识向量以及邻接语义向量进行组合,得到所述训练语料每个单词的输入向量;基于所述输入向量,通过预置的Bert模型对所述输入向量进行预测,得到所述输入向量所属意图的预测概率,从而构建意图识别模型;获取待识别的目标语料对应的目标输入向量,通过所述意图识别模型进行意图识别,得到意图识别结果。该方法考虑了单词在语料中的位置联系和语义联系,增加单词在语料矩阵中的邻接语义向量和对话序列标识向量,提高意图识别的准确性。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的基于Bert模型的意图识别方法的流程示意图;
图2为本发明实施例提供的基于Bert模型的意图识别方法中遮掩步骤的流程示意图;
图3为图2中步骤S105的一子流程示意图;
图4为本发明实施例提供的基于Bert模型的意图识别方法步骤S110的子流程示意图;
图5为本发明实施例提供的基于Bert模型的意图识别方法步骤S120的子流程示意图;
图6为本发明实施例提供的基于Bert模型的意图识别方法步骤S120的子流程示意图;
图7为本发明实施例提供的基于Bert模型的意图识别方法步骤S120的子流程示意图;
图8为本发明实施例提供的基于Bert模型的意图识别装置的示意性框图;
图9为本发明实施例提供的基于Bert模型的意图识别方法的语料矩阵示意图;
图10为本发明实施例提供的基于Bert模型的意图识别方法中计算邻接语义向量的计算示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
请参阅图1为本发明实施例提供的意图识别方法的流程示意图,该方法包括步骤S110~S150。
步骤S110、对训练语料进行分词处理得到多个单词,并基于多个所述单词构建语料矩阵,其中,所述训练语料包含多个对话序列;
本实施例中,为了使训练模型的效果达到最佳,在利用样本语料训练模型前,根据预置的遮掩规则对样本语料进行遮掩,得到训练模型用的训练语料。其中,训练语料包含多轮对话的对话序列,每一对话序列中包括单词对话中提问与回答的语料。通过分词技术对训练语料进行分词处理得到多个单词,并基于多个单词构建语料矩阵。通过语料矩阵可以反映文本中邻接词语之间的语义信息。例如,基于单词构建9×9的语料矩阵。
在一实施例中,如图2所示,在步骤S110之前,包括:
步骤S101、获取样本语料,统计样本语料中每个所述对话序列中每一单词的词频和逆文档频率,并计算所述词频和逆文档频率的乘积,得到每个单词对应的TF-IDF值;
步骤S102、将所述对话序列中每个单词按照所述TF-IDF值从低到高排序并标识位置序号,得到TF-IDF属性队列;
步骤S103、统计所述对话序列中所有单词的所属词性,并根据所述词性对应的占比从低到高对所述对话序列中的单词进行排序并标识位置序号,得到词性属性队列,所属词性至少包括名词、副词、形容词;
步骤S104、计算所述对话序列每个单词在所述TF-IDF属性队列及词性属性队列中对应的位置序号乘积,并根据乘积结果从低到高排序,得到mask队列;
步骤S105、对所述mask队列的单词进行随机遮掩,得到所述训练语料。
本实施例中,为了使模型学习到样本语料中词频较低或所属词性占比较低的单词,对样本语料进行遮掩处理,得到用于训练模型的训练语料。遮掩处理具体包括:统计样本语料中每个对话序列中每一单词的词频和逆文档频率,并计算词频和逆文档频率的乘积,得到每个对话序列中每一单词对应的TF-IDF值;将对话序列中每个单词按照TF-IDF值从低到高排序并标识位置序号,得到TF-IDF属性队列;统计对话序列中所有单词的所属词性,并按词性对应的占比从低到高对对话序列中的单词进行排序并标识位置序号,得到词性属性队列;计算对话序列每个单词在TF-IDF属性队列及词性属性队列中对应的位置序号乘积,并根据乘积结果从低到高排序,得到mask队列;按遮掩规则对mask队列的单词进行随机遮掩,得到训练语料。需要知道的是,对于TF-IDF值相等的单词,或词性所占比例相等的单词,在TF-IDF属性队列或词性属性队列中的位置序号为同一个,排名靠后的单词对应的位置序号再依次累加。例如,两个单词的TF-IDF值相等,在TF-IDF属性队列都为10,那么接下去的单词位置序号则为12。此外,样本语料可以是各种对话机器人与客户的对话语料等。对话序列中单词的词性至少包括名词、形容词、副词及数词等词性,且优先排列名词词性的单词。
在一实施例中,如图3所示,步骤S105包括:
步骤S1051、随机从所述mask队列中选择若干单词作为目标遮掩单词,其中单词在所述mask队列中越靠前,被选择的概率越低;
步骤S1052、按预置比例从所述目标遮掩单词中选择一部分替换为所述样本语料中的任意一个单词,从所述目标遮掩单词中选择一部分替换为指定符号,以及保持其余部分不变,得到所述训练语料。
本实施例中,随机从mask队列中选择若干单词作为目标遮掩单词,然后根据预置比例从目标遮掩单词中选择一定比例的单词替换为样本语料中的任一单词,一定比例替换为指定符号,其余的单词保持不变,得到用于训练意图识别模型的训练语料。其中,mask队列中单词越靠后,被选择的概率相对越高,越能使模型能够学习到样本语料中更重要的单词与上下文内容的语义关联,得到更丰富的语义特征。
例如,假设mask队列为[“我”、“北京”、“飞机”],则“飞机”被遮掩的概率高于“我”。预设目标遮掩单词40%的单词替换为样本语料中的任一单词,40%替换为符号unk,20%保持不变,最终得到用于训练意图识别模型的训练语料。
在一实施例中,如图4所示,步骤S110包括:
步骤S111、将所述训练语料进行分词,得到每一对话序列中提问与回答的所有单词;
步骤S112、按顺序将每一对话序列中提问与回答的所有单词进行排列,并在每一提问以及每一回答的首个单词前分别添加提问序号和回答序号,以及对未填充部分进行补全,构建得到n×n语料矩阵。
本实施例中,将训练语料进行分词处理,得到每一对话序列中提问与回答的所有单词;按顺序将每一对话序列中提问与回答的所有单词进行排列,并在每一提问以及每一回答的首个单词前分别添加提问序号和回答序号,以及对未填充部分进行补全,构建n×n语料矩阵。如图8所示,在对话机器人的每个问题以及客户的每个回答前添加对应的提问序号(如U1至U6)和对应的回答序号如(S1至S6),构建9×9的语料矩阵。
步骤S120、根据所述训练语料中每个对话序列的先后顺序确定所述对话序列内每个单词的对话序列标识向量;以及获取所述训练语料中每一单词在所述语料矩阵的邻接词序列,并根据所述邻接词序列计算得到对应的邻接语义向量;
本实施例中,首先根据训练语料中每个对话序列的先后顺序确定对话序列内每个单词的对话序列标识向量。接着确定语料矩阵中每一单词的邻接词序列;最后根据邻接词序列进行计算,得到每个单词的邻接语义向量。其中,每个单词至少存在一个邻接词序列。
例如,如图9所示,在9×9的语料矩阵的语料矩阵中,以第5行的“请问”为例,选择其邻接的左、左上、左下、上、下、右上、右、右下8个方位的单词作为第1个邻接词序列;第二次以一个单词的步长向外延伸取16个单词作为第2个邻接词序列;第三次以两个单词为步长向外延伸取24个单词作为第3个邻接词序列;第四次以两个单词为步长向外延伸取32个单词作为第3个邻接词序列。依次类推,一个单词存在一个或多个邻接词序列。需要注意的是,若某个方向的单词已超过第二文档矩阵最边缘,此时首先做单词补全,以指定符号(unk)填充,构建最后一个该单词的最后一个邻接词序列。
在一实施例中,如图5所示,步骤S120包括:
步骤S121、按时间顺序定义所述训练语料中每个对话序列的序号;
步骤S122、将所述序号作为对应对话序列内每个单词的对话序列标识向量。
本实施例中,根据训练语料中每个对话序列的发生时间,对每个对话序列进行排序,确定每个对话序列的序号;以序号作为对话序列内每个单词的对话序列标识向量。例如,第5对话序列中的每一个单词的对话序列标识向量为5。
在一实施例中,如图6所示,步骤S120还包括:
步骤S123、根据每个单词与所述语料矩阵中其他单词的距离确定所述语料矩阵中每个单词的邻接词序列;
步骤S124、基于所述邻接词序列,采用预置的GRU模型计算每个单词的前向邻接语义向量和后向邻接语义向量,并将所述前向邻接语义向量和后向邻接语义向量进行拼接,得到所述邻接语义向量,其中,每个单词至少存在一个邻接语义向量。
本实施例中,根据每个单词与语料矩阵中其他单词的距离确定语料矩阵中每个单词的邻接词序列。如图10所示,一个单词至少存在一个邻接词序列,对于一个单词的第k个邻接词序列,采用预置的GRU模型计算每个单词的前向邻接语义向量和后向邻接语义向量,并将前向邻接语义向量和后向邻接语义向量进行拼接,得到第k个邻接语义向量。需要注意的是,由于语料矩阵中一个单词存在一个或多个邻接词序列,因此,一个单词存在一个或多个邻接语义向量。其中,k为邻接词序列的序号,对一个单词的所有邻接语义向量赋予权重,k越大权重越小。权重赋予规则如下:根据k值对同一个单词的每个邻接语义向量赋予权重,k越大权重越小。
在一实施例中,如图7所示,步骤S124之后,还包括:
步骤S125、按预置邻接语义规则对每一所述单词的所有邻接语义向量进行排序,得到邻接向量矩阵及标签向量,所述标签向量为所述邻接向量矩阵中每个邻接语义向量的序号;
步骤S126、根据预置权重矩阵函数计算所述邻接向量矩阵中每一所述邻接语义向量的权重。
本实施例中,对一个单词的每个邻接语义向量赋予权重,权重的计算方式如下:将一个单词的所有邻接词序列按序号从低到高排序,得到该单词的邻接向量矩阵和标签向量。其中,标签向量为所有邻接语义向量的序号。接着根据权重矩阵函数计算邻接向量矩阵中每一邻接语义向量的权重。其中,一个单词的所有邻接语义向量的权重之和为1,若存在单词的所有邻接语义向量的权重之和不为1,则用归一化处理使得同一单词的所有邻接语义向量的权重之和为1。
权重矩阵函数如下:
Figure BDA0002992338070000081
其中,Wadj(m×n)表示邻接向量矩阵,
Figure BDA0002992338070000082
表示权重向量,Y表示标签向量,m表示邻接语义向量个数,n表示向量维数。
步骤S130、获取所述训练语料中每一单词的词向量及位置向量,并对每一单词对应的所述词向量、位置向量、对话序列标识向量以及邻接语义向量进行组合,得到所述训练语料每个单词的输入向量;
本实施例中,获取训练语料中每一个单词对应的词嵌入相邻和位置向量。其中,单词的词嵌入向量可以通过word2vec、glove等词嵌入模型计算获得;位置向量采用预置的Transformer模型中正余弦方式计算获取。然后逐一组合训练语料中每一个单词对应的词向量、位置向量、对话序列标识向量以及邻接语义向量,得到训练语料每一个单词对应的输入向量。
步骤S140、基于所述输入向量,通过预置的Bert模型对所述输入向量进行预测,得到所述输入向量所属意图的预测概率,从而构建意图识别模型;
本实施例中,基于输入向量,通过预置的Bert模型对输入向量进行预测,得到输入向量所属意图的预测概率;然后根据预置的损失函数计算预测概率与输入向量所属真实意图之间的概率损失,并根据概率损失对Bert模型的模型参数进行优化调整,以最终的Bert模型作为意图识别模型。其中,需要知道的是,Bert模型的网络结构由多层Transformer-encoder模型组成,Transformer-encoder模型为Transformer模型中的编码器。
步骤S150、获取待识别的目标语料对应的目标输入向量,通过所述意图识别模型进行意图识别,得到意图识别结果。
本实施例中,基于上述步骤确定意图识别模型后,将目标识别语料对应的目标输入向量输入语义识别模型进行意图识别,得到相应的预测概率,根据预测概率确定最终的意图识别结果。
该方法考虑了单词在语料中的位置联系和语义联系,增加单词在语料矩阵中的对话序列标识向量和邻接语义向量,提高意图识别的准确性。
本发明实施例还提供一种基于Bert模型的意图识别装置,该基于Bert模型的意图识别装置用于执行前述基于Bert模型的意图识别方法的任一实施例。具体地,请参阅图8,图8是本发明实施例提供的基于Bert模型的意图识别装置的示意性框图。该基于Bert模型的意图识别装置100可以配置于服务器中。
如图8所示,意图识别装置100包括构建模块110、计算模块120、组合模块130、预测模块140、识别模块150。
构建模块110,用于将训练语料进行分词处理得到多个单词,并基于多个所述单词构建语料矩阵,其中,所述训练语料包含多个对话序列;
计算模块120,用于根据所述训练语料中每个对话序列的先后顺序确定所述对话序列内每个单词的对话序列标识向量;以及获取所述训练语料中每一单词在所述语料矩阵的邻接词序列,并根据所述邻接词序列计算得到对应的邻接语义向量;
组合模块130,用于获取所述训练语料中每一单词的词向量及位置向量,并对每一单词对应的所述词向量、位置向量、对话序列标识向量以及邻接语义向量进行组合,得到所述训练语料每个单词的输入向量;
预测模块140,用于基于所述输入向量,通过预置的Bert模型对所述输入向量进行预测,得到所述输入向量所属意图的预测概率,从而构建意图识别模型;
识别模块150,用于获取待识别的目标语料对应的目标输入向量,通过所述意图识别模型进行意图识别,得到意图识别结果。
在一实施例中,意图识别装置100还包括:
第一统计模块,用于统计每个所述对话序列中每一单词的词频和逆文档频率,并计算所述词频和逆文档频率的乘积,得到每个单词对应的TF-IDF值;
第一排序模块,用于将所述对话序列中每个单词按照所述TF-IDF值从低到高排序并标识位置序号,得到TF-IDF属性队列;
第二统计模块,用于统计所述对话序列中所有单词的所属词性,并根据所述词性对应的占比从低到高对所述对话序列中的单词进行排序并标识位置序号,得到词性属性队列,所属词性至少包括名词、副词、形容词;
第二排序模块,用于计算所述对话序列每个单词在所述TF-IDF属性队列及词性属性队列中对应的位置序号乘积,并根据乘积结果从低到高排序,得到mask队列;
遮掩模块,用于对所述mask队列的单词进行随机遮掩,得到训练语料。
在一实施例中,遮掩模块包括:
选择子单元,用于随机从所述mask队列中选择若干单词作为目标遮掩单词,其中单词在所述mask队列中越靠前,被选择的概率越低;
遮掩子单元,用于按预置比例从所述目标遮掩单词中选择一部分替换为训练语料中的任意一个单词,从所述目标遮掩单词中选择一部分替换为指定符号,以及保持其余部分不变。
在一实施例中,构建模块110包括:
分词单元,用于将所述训练语料进行分词,得到每一对话序列中提问与回答的所有单词;
构建单元,用于按顺序将每一对话序列中提问与回答的所有单词进行排列,并在每一提问以及每一回答的首个单词前分别添加提问序号和回答序号,以及对未填充部分进行补全,构建n×n语料矩阵。
在一实施例中,计算模块120包括:
标识单元,用于按时间顺序定义所述训练语料中每个对话序列的序号;
确定单元,用于将所述序号作为对应对话序列内每个单词的对话序列标识向量。
在一实施例中,计算模块120包括:
邻接词序列确定单元,用于根据每个单词与所述语料矩阵中其他单词的距离确定所述语料矩阵中每个单词的邻接词序列;
语义向量计算单元,用于基于所述邻接词序列,采用预置的GRU模型计算每个单词的前向邻接语义向量和后向邻接语义向量,并将所述前向邻接语义向量和后向邻接语义向量进行拼接,得到所述邻接语义向量,其中,每个单词至少存在一个邻接语义向量。
在一实施例中,计算模块120还包括:
邻接语义向量排序单元,用于按所述邻接语义规则确定每一所述单词的所有邻接语义向量并排序,得到邻接向量矩阵及标签向量,所述标签向量为所述邻接向量矩阵中每个邻接语义向量的序号;
权重计算单元,用于根据预置权重矩阵函数计算所述邻接向量矩阵中每一所述邻接语义向量的权重。
在一实施例中,计算模块120还包括:
对话序列排序单元,用于按时间顺序定义所述训练语料每个对话序列的序号;
确定单元,用于将所述序号作为对应对话序列内每个单词的对话序列标识向量。
本发明实施例还提供一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其中,所述处理器执行所述计算机程序时实现如上所述的基于Bert模型的意图识别方法。
在本发明的另一实施例中提供计算机可读存储介质。该计算机可读存储介质可以为非易失性的计算机可读存储介质。该计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行如上所述的基于Bert模型的意图识别方法。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的设备、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为逻辑功能划分,实际实现时可以有另外的划分方式,也可以将具有相同功能的单元集合成一个单元,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (6)

1.一种基于Bert模型的意图识别方法,其特征在于,包括:
对训练语料进行分词处理得到多个单词,并基于多个所述单词构建语料矩阵,其中,所述训练语料包含多个对话序列;
根据所述训练语料中每个对话序列的先后顺序确定所述对话序列内每个单词的对话序列标识向量;以及获取所述训练语料中每一单词在所述语料矩阵的邻接词序列,并根据所述邻接词序列计算得到对应的邻接语义向量;
获取所述训练语料中每一单词的词向量及位置向量,并对每一单词对应的所述词向量、位置向量、对话序列标识向量以及邻接语义向量进行组合,得到所述训练语料每一单词的输入向量;
基于所述输入向量,通过预置的Bert模型对所述输入向量进行预测,得到所述输入向量所属意图的预测概率,从而构建意图识别模型;
获取待识别的目标语料对应的目标输入向量,通过所述意图识别模型进行意图识别,得到意图识别结果;
所述对训练语料进行分词处理得到多个单词,并基于多个所述单词构建语料矩阵的步骤之前,包括:
获取样本语料,统计样本语料中每个所述对话序列中每一单词的词频和逆文档频率,并计算所述词频和逆文档频率的乘积,得到每个单词对应的TF-IDF值;
将所述对话序列中每个单词按照所述TF-IDF值从低到高排序并标识位置序号,得到TF-IDF属性队列;
统计所述对话序列中所有单词的所属词性,并根据所述词性对应的占比从低到高对所述对话序列中的单词进行排序并标识位置序号,得到词性属性队列,所属词性至少包括名词、副词、形容词;
计算所述对话序列每个单词在所述TF-IDF属性队列及词性属性队列中对应的位置序号乘积,并根据乘积结果从低到高排序,得到mask队列;
对所述mask队列的单词进行随机遮掩,得到所述训练语料;
所述对所述mask队列的单词进行随机遮掩,得到所述训练语料,包括:
随机从所述mask队列中选择若干单词作为目标遮掩单词,其中单词在所述mask队列中越靠前,被选择的概率越低;
按预置比例从所述目标遮掩单词中选择一部分替换为所述样本语料中的任意一个单词,从所述目标遮掩单词中选择一部分替换为指定符号,以及保持其余部分不变,得到所述训练语料;
所述获取所述训练语料中每一单词在所述语料矩阵的邻接词序列,并根据所述邻接词序列计算得到对应的邻接语义向量,包括:
根据每个单词与所述语料矩阵中其他单词的距离确定所述语料矩阵中每个单词的邻接词序列;
基于所述邻接词序列,采用预置的GRU模型计算每个单词的前向邻接语义向量和后向邻接语义向量,并将所述前向邻接语义向量和后向邻接语义向量进行拼接,得到所述邻接语义向量,其中,每个单词至少存在一个邻接语义向量;
在所述基于所述邻接词序列,采用预置的GRU模型计算每个单词的前向邻接语义向量和后向邻接语义向量,并将所述前向邻接语义向量和后向邻接语义向量进行拼接,得到所述邻接语义向量之后,还包括:
按预置邻接语义规则对每一所述单词的所有邻接语义向量进行排序,得到邻接向量矩阵及标签向量,所述标签向量为所述邻接向量矩阵中每个邻接语义向量的序号;
根据预置权重矩阵函数计算所述邻接向量矩阵中每一所述邻接语义向量的权重。
2.根据权利要求1所述的意图识别方法,其特征在于,所述对训练语料进行分词处理得到多个单词,并基于多个所述单词构建语料矩阵,包括:
对所述训练语料进行分词,得到每一对话序列中提问与回答的所有单词;
按顺序将每一对话序列中提问与回答的所有单词进行排列,并在每一提问以及每一回答的首个单词前分别添加提问序号和回答序号,以及对未填充部分进行补全,构建n×n语料矩阵。
3.根据权利要求1所述的意图识别方法,其特征在于,所述根据所述训练语料中每个对话序列的先后顺序确定所述对话序列内每个单词的对话序列标识向量,包括:
按时间顺序定义所述训练语料中每个对话序列的序号;
将所述序号作为对应对话序列内每个单词的对话序列标识向量。
4.一种基于Bert模型的意图识别装置,其特征在于,包括:
构建模块,用于对训练语料进行分词处理得到多个单词,并基于多个所述单词构建语料矩阵,其中,所述训练语料包含多个对话序列;
计算模块,用于根据所述训练语料中每个对话序列的先后顺序确定所述对话序列内每个单词的对话序列标识向量;以及获取所述训练语料中每一单词在所述语料矩阵的邻接词序列,并根据所述邻接词序列计算得到对应的邻接语义向量;
组合模块,用于获取所述训练语料中每个单词的词向量及位置向量,并对所述词向量、位置向量、对话序列标识向量以及邻接语义向量进行组合,得到所述训练语料每个单词的输入向量;
预测模块,用于基于所述输入向量,通过预置的Bert模型对所述输入向量进行预测,得到所述输入向量所属意图的预测概率,从而构建意图识别模型;
识别模块,用于获取待识别的目标语料对应的目标输入向量,通过所述意图识别模型进行意图识别,得到意图识别结果;
所述意图识别装置还包括:
第一统计模块,用于统计每个所述对话序列中每一单词的词频和逆文档频率,并计算所述词频和逆文档频率的乘积,得到每个单词对应的TF-IDF值;
第一排序模块,用于将所述对话序列中每个单词按照所述TF-IDF值从低到高排序并标识位置序号,得到TF-IDF属性队列;
第二统计模块,用于统计所述对话序列中所有单词的所属词性,并根据所述词性对应的占比从低到高对所述对话序列中的单词进行排序并标识位置序号,得到词性属性队列,所属词性至少包括名词、副词、形容词;
第二排序模块,用于计算所述对话序列每个单词在所述TF-IDF属性队列及词性属性队列中对应的位置序号乘积,并根据乘积结果从低到高排序,得到mask队列;
遮掩模块,用于对所述mask队列的单词进行随机遮掩,得到训练语料;
所述遮掩模块包括:
选择子单元,用于随机从所述mask队列中选择若干单词作为目标遮掩单词,其中单词在所述mask队列中越靠前,被选择的概率越低;
遮掩子单元,用于按预置比例从所述目标遮掩单词中选择一部分替换为训练语料中的任意一个单词,从所述目标遮掩单词中选择一部分替换为指定符号,以及保持其余部分不变;
所述计算模块包括:
邻接词序列确定单元,用于根据每个单词与所述语料矩阵中其他单词的距离确定所述语料矩阵中每个单词的邻接词序列;
语义向量计算单元,用于基于所述邻接词序列,采用预置的GRU模型计算每个单词的前向邻接语义向量和后向邻接语义向量,并将所述前向邻接语义向量和后向邻接语义向量进行拼接,得到所述邻接语义向量,其中,每个单词至少存在一个邻接语义向量;
所述计算模块还包括:
邻接语义向量排序单元,用于按预置邻接语义规则确定每一所述单词的所有邻接语义向量并排序,得到邻接向量矩阵及标签向量,所述标签向量为所述邻接向量矩阵中每个邻接语义向量的序号;
权重计算单元,用于根据预置权重矩阵函数计算所述邻接向量矩阵中每一所述邻接语义向量的权重。
5.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至3中任一项所述的基于Bert模型的意图识别方法。
6.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行如权利要求1至3中任一项所述的基于Bert模型的意图识别方法。
CN202110319798.6A 2021-03-25 2021-03-25 基于Bert模型的意图识别方法、装置及相关设备 Active CN113051930B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110319798.6A CN113051930B (zh) 2021-03-25 2021-03-25 基于Bert模型的意图识别方法、装置及相关设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110319798.6A CN113051930B (zh) 2021-03-25 2021-03-25 基于Bert模型的意图识别方法、装置及相关设备

Publications (2)

Publication Number Publication Date
CN113051930A CN113051930A (zh) 2021-06-29
CN113051930B true CN113051930B (zh) 2023-04-14

Family

ID=76515749

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110319798.6A Active CN113051930B (zh) 2021-03-25 2021-03-25 基于Bert模型的意图识别方法、装置及相关设备

Country Status (1)

Country Link
CN (1) CN113051930B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113987115A (zh) * 2021-09-26 2022-01-28 润联智慧科技(西安)有限公司 一种文本相似度计算方法、装置、设备及存储介质
CN113869049B (zh) * 2021-12-03 2022-03-04 北京大学 基于法律咨询问题的具有法律属性的事实抽取方法及装置
CN114625851B (zh) * 2022-03-10 2024-04-30 平安国际智慧城市科技股份有限公司 文本阅读模型的预训练方法、装置、设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111444305A (zh) * 2020-03-19 2020-07-24 浙江大学 一种基于知识图谱嵌入的多三元组联合抽取方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108509411B (zh) * 2017-10-10 2021-05-11 腾讯科技(深圳)有限公司 语义分析方法和装置
CN109657229A (zh) * 2018-10-31 2019-04-19 北京奇艺世纪科技有限公司 一种意图识别模型生成方法、意图识别方法及装置
CN111563208B (zh) * 2019-01-29 2023-06-30 株式会社理光 一种意图识别的方法、装置及计算机可读存储介质
US11914962B2 (en) * 2019-09-12 2024-02-27 Oracle International Corporation Reduced training intent recognition techniques
CN111680168B (zh) * 2020-05-29 2024-06-28 平安银行股份有限公司 文本特征语义提取方法、装置、电子设备及存储介质
CN111966811A (zh) * 2020-09-25 2020-11-20 平安直通咨询有限公司上海分公司 意图识别和槽填充方法、装置、可读存储介质及终端设备

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111444305A (zh) * 2020-03-19 2020-07-24 浙江大学 一种基于知识图谱嵌入的多三元组联合抽取方法

Also Published As

Publication number Publication date
CN113051930A (zh) 2021-06-29

Similar Documents

Publication Publication Date Title
CN113051930B (zh) 基于Bert模型的意图识别方法、装置及相关设备
CN109783817B (zh) 一种基于深度强化学习的文本语义相似计算模型
US11983645B2 (en) Agent aptitude prediction
CN110032641B (zh) 计算机执行的、利用神经网络进行事件抽取的方法及装置
CN112818690B (zh) 结合知识图谱实体信息的语义识别方法、装置及相关设备
CN111222305A (zh) 一种信息结构化方法和装置
Hunt et al. Evolving" less-myopic" scheduling rules for dynamic job shop scheduling with genetic programming
CN111581966A (zh) 一种融合上下文特征方面级情感分类方法和装置
EP3138058A1 (en) Method and apparatus for classifying object based on social networking service, and storage medium
CN110135681A (zh) 风险用户识别方法、装置、可读存储介质及终端设备
CN110291540A (zh) 批再归一化层
CN111199149B (zh) 一种对话系统的语句智能澄清方法及系统
CN108733644A (zh) 一种文本情感分析方法、计算机可读存储介质及终端设备
CN110969243A (zh) 防止隐私泄漏的对抗生成网络的训练方法及装置
CN112685550A (zh) 智能问答方法、装置、服务器及计算机可读存储介质
CN113297351A (zh) 文本数据标注方法及装置、电子设备及存储介质
CN115115389A (zh) 一种基于价值细分和集成预测的快递客户流失预测方法
CN109801073B (zh) 风险用户识别方法、装置、计算机设备及存储介质
JP2010272004A (ja) 判別装置及び判別方法、並びにコンピューター・プログラム
CN117150395A (zh) 模型训练、意图识别方法、装置、电子设备及存储介质
CN115545674A (zh) 一种人岗匹配检测方法、装置、设备以及存储介质
CN116823264A (zh) 风险识别方法、装置、电子设备、介质及程序产品
Kuznietsova et al. Business intelligence techniques for missing data imputation
CN115982634A (zh) 应用程序分类方法、装置、电子设备及计算机程序产品
CN109308565B (zh) 人群绩效等级识别方法、装置、存储介质及计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: Room 801, building 2, Shenzhen new generation industrial park, 136 Zhongkang Road, Meidu community, Meilin street, Futian District, Shenzhen, Guangdong 518000

Applicant after: China Resources Digital Technology Co.,Ltd.

Address before: Room 801, building 2, Shenzhen new generation industrial park, 136 Zhongkang Road, Meidu community, Meilin street, Futian District, Shenzhen, Guangdong 518000

Applicant before: Runlian software system (Shenzhen) Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant