CN110245348A - 一种意图识别方法及系统 - Google Patents
一种意图识别方法及系统 Download PDFInfo
- Publication number
- CN110245348A CN110245348A CN201910414764.8A CN201910414764A CN110245348A CN 110245348 A CN110245348 A CN 110245348A CN 201910414764 A CN201910414764 A CN 201910414764A CN 110245348 A CN110245348 A CN 110245348A
- Authority
- CN
- China
- Prior art keywords
- neural network
- intention
- word sequence
- word
- gram
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000003062 neural network model Methods 0.000 claims abstract description 52
- 238000005520 cutting process Methods 0.000 claims abstract description 3
- 239000013598 vector Substances 0.000 claims description 78
- 238000013527 convolutional neural network Methods 0.000 claims description 39
- 230000015654 memory Effects 0.000 claims description 30
- 238000013528 artificial neural network Methods 0.000 claims description 29
- 238000002372 labelling Methods 0.000 claims description 14
- 238000003860 storage Methods 0.000 claims description 14
- 230000004927 fusion Effects 0.000 claims description 9
- 230000002457 bidirectional effect Effects 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 8
- 230000011218 segmentation Effects 0.000 claims description 7
- 238000011176 pooling Methods 0.000 claims description 6
- 230000000306 recurrent effect Effects 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 5
- 230000000694 effects Effects 0.000 abstract description 10
- 238000012549 training Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 230000007787 long-term memory Effects 0.000 description 8
- 230000006403 short-term memory Effects 0.000 description 8
- 230000008878 coupling Effects 0.000 description 6
- 238000010168 coupling process Methods 0.000 description 6
- 238000005859 coupling reaction Methods 0.000 description 6
- 238000009826 distribution Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012163 sequencing technique Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种意图识别方法及系统,其中所述方法包括对待识别文本进行切词,生成词序列;将所述词序列输入预设的浅层神经网络模型,得到意图分类结果PA;将所述词序列输入预设的深层神经网络模型,得到意图分类结果PB;将意图分类结果PA与意图分类结果PB进行融合,得到所述待识别文本的意图。应用本发明所述方案,可以提高用户意图识别的准确性,能够在少量样本的情况下得到较好的效果。
Description
【技术领域】
本发明涉及计算机应用技术,特别涉及意图识别方法及系统。
【背景技术】
自然语言理解是人机对话系统中关键的一个模块,其作用是把用户对计算机说的自然语言转换成计算机能够理解的语义表示,达到理解用户自然语言的目的。要理解用户说的话,就必须知道用户自然语言所涉及的领域或者用户想表达的意图,用户意图识别就是采用分类的方法达到上述目的。用户意图识别准确率的提高,会极大地帮助对话系统生成合理的回复。
在人机对话系统中,用户意图的正确识别是对话系统生成合理回复的基础。如果用户的意图无法判断正确,对话系统就会生成答非所问的回复,这样的回复也就没有任何意义。因此对于对话系统的性能提升、增加用户体验,准确识别用户的意图显得尤为重要。除此之外,准确地判断用户意图,商用智能对话系统能向用户提供有用的消费、娱乐、产品等推荐,具有很大的商业价值。综上所述,用户意图识别具有很重要的研究价值和研究意义。
目前,对于用户的语义查询意图的识别方法主要为利用规则模板或机器学习模型进行识别。但是,使用规则模板虽然对查询语句中的词槽识别效果较好,但是对于意图的泛化识别效果有限,不能够准确的识别出用户的查询意图。而使用机器学习模型虽然对于意图分类识别效果较好,但对于词槽的识别效果不理想。并且,机器学习模型需要几十万的标注样本才能训练出有较好识别效果的模型,但是一般用户并不能够提供如此多的标注数据,且如此构建模型成本较高。另一方面,用户的查询语言通常更偏于口语化,与传统搜索场景的语言特征差别较大,如果无法准确的获取语义特征,则无法很好的识别出用户的查询意图。
【发明内容】
本申请的多个方面提供了意图识别方法、系统、设备及存储介质,能够提高用户意图识别的准确性,能够在少量样本的情况下得到较好的效果。
本申请的一方面,提供一种意图识别方法,包括:
对待识别文本进行切词,生成词序列;
将所述词序列输入预设的浅层神经网络模型,得到意图分类结果PA;将所述词序列输入预设的深层神经网络模型,得到意图分类结果PB;
将意图分类结果PA与意图分类结果PB进行融合,得到所述待识别文本的意图。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,将所述词序列输入预设的浅层神经网络模型,得到意图分类结果PA,包括:
对所述词序列进行N-gram标注;
对N-gram标注后的所述词序列进行特征选择,得到每一个N-gram的中心词向量;
将所述N-gram的中心词向量输入预设的卷积神经网络CNN,得到多分类结果。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述对N-gram标注后的所述词序列进行特征选择包括:
计算N-gram权重,根据所述权重选择能表达文本特征的N-gram;
对所述能表达文本特征的N-gram进行词向量表达;
对词向量表达后的N-gram进行聚类,得到每一类N-gram的中心词向量;
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述卷积神经网络包括:输入层、隐含层、输出层;所述隐含层包括卷积层、池化层、全连接层;
将所述中心词向量输入所述输入层;由所述隐含层得到一维特征向量;由所述输出层将所述一维特征向量接入softmax分类器,对所述待识别文本的类别进行预测。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述深层神经网络模型为双向长短期记忆网络Bi-LSTM、卷积神经网络CNN、或循环神经网络RNN。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,将所述词序列输入预设的深层神经网络模型,得到意图分类结果PB包括:
依据知识图谱为所述词序列中每一类实体和描述标注语义标签;
将所述词序列的词向量和语义标签的向量输入预设的深层神经网络模型,得到意图分类结果PB。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述融合包括:
将意图分类结果PA与意图分类结果PB进行线性加权或投票。
本申请的另一方面,提供一种意图识别系统,包括:
提取模块,用于对待识别文本进行切词,生成词序列;
分类模块,包括浅层神经网络分类模块,用于将所述词序列输入预设的浅层神经网络模型,得到意图分类结果PA;深层神经网络分类模块,用于将所述词序列输入预设的深层神经网络模型,得到意图分类结果PB;
融合模块,用于将意图分类结果PA与意图分类结果PB进行融合,得到所述待识别文本的意图。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述浅层神经网络分类模块具体用于:
对所述词序列进行N-gram标注;
对N-gram标注后的所述词序列进行特征选择,得到每一个N-gram的中心词向量;
将所述N-gram的中心词向量输入预设的卷积神经网络CNN,得到多分类结果。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述对N-gram标注后的所述词序列进行特征选择包括:
计算N-gram权重,根据所述权重选择能表达文本特征的N-gram;
对所述能表达文本特征的N-gram进行词向量表达;
对词向量表达后的N-gram进行聚类,得到每一类N-gram的中心词向量;
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述卷积神经网络包括:输入层、隐含层、输出层;所述隐含层包括卷积层、池化层、全连接层;
将所述中心词向量输入所述输入层;由所述隐含层得到一维特征向量;由所述输出层将所述一维特征向量接入softmax分类器,对所述待识别文本的类别进行预测。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述深层神经网络模型为双向长短期记忆网络Bi-LSTM、卷积神经网络CNN、或循环神经网络RNN。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述深层神经网络分类模块具体用于:
依据知识图谱为所述词序列中每一类实体和描述标注语义标签;
将所述词序列的词向量和语义标签的向量输入预设的深层神经网络模型,得到意图分类结果PB。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述融合模块具体用于:
将意图分类结果PA与意图分类结果PB进行线性加权或投票。
本发明的另一方面,提供一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序时实现如以上所述的方法。
本发明的另一方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如以上所述的方法。
基于上述介绍可以看出,采用本发明所述方案,能够提高用户意图识别的准确性,能够在少量样本的情况下得到较好的效果。
【附图说明】
图1为本发明所述意图识别方法的流程图;
图2为本发明所述意图识别系统的结构图;
图3示出了适于用来实现本发明实施方式的示例性计算机系统/服务器012的框图。
【具体实施方式】
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的全部其他实施例,都属于本申请保护的范围。
图1为本发明所述意图识别方法实施例的流程图,如图1所示,包括以下步骤:
步骤S11、对待识别文本进行切词,生成词序列;
步骤S12、将所述词序列输入预设的浅层神经网络模型,得到意图分类结果PA;将所述词序列输入预设的深层神经网络模型,得到意图分类结果PB;
步骤S13、将意图分类结果PA与意图分类结果PB进行融合,得到所述待识别文本的意图。
在步骤S11的一种优选实现方式中,
优选地,本实施例中,对行业文本进行意图识别。
优选地,对所述行业文本进行中文分词及文本去噪,得到词序列。其中,
文本分词:对待分类语料的所有中文文本分词。
文本去噪:对分好词的行业文本删除其中的标点、符号、“的、这”等这些停用词。
在步骤S12的一种优选实现方式中;
将所述词序列输入预设的浅层神经网络模型,得到意图分类结果PA;将所述词序列输入预设的深层神经网络模型,得到意图分类结果PB。
优选地,将所述词序列输入预设的浅层神经网络模型,得到意图分类结果PA包括:
在步骤S121、对所述词序列进行N-gram标注;
优选地,对所述词序列进行一元、二元、三元标注,分别得到unigram、bigram、trigram,即N-gram。
子步骤S122、对N-gram标注后的所述词序列进行特征选择,得到每一个N-gram的中心词向量;
优选地,计算所述词序列中每个N-gram在本类别中所占的比重,并进行排序;优选地,计算所述词序列中每个N-gram在本类别中所占的权重数值并通过log函数进行平滑处理,根据数值大小对权重降序排序。选择前20%的N-ram作为最能表达文本特征的词语。
得到按照特定规则选择出来的N-gram的中心词向量;
优选地,对于不同类别,分别得到unigram、bigram、trigram三种语义特征。
子步骤S123、将所述N-gram的中心词向量输入预设的卷积神经网络CNN,得到多分类结果。
优选地,将子步骤S122得到的N-gram的中心词向量载入预设的卷积神经网络中,所述卷积神经网络包括:输入层、隐含层、输出层;所述隐含层包括卷积层、池化层、全连接层;将所述中心词向量输入所述输入层;由所述隐含层得到一维特征向量;由所述输出层将所述一维特征向量接入softmax分类器,对所述待识别文本的类别进行预测,得到意图分类结果PA。
优选地,利用标注了类别的的文本生成训练集,对原始卷积神经网络进行训练,得到预设的卷积神经网络。
其中,N-Gram是一种统计语言模型,用来根据前(n-1)个item来预测第n个item。一般来讲,可以从大规模文本或音频语料库生成N-Gram模型。习惯上,1-gram叫unigram,2-gram称为bigram,3-gram是trigram。
通过上述基于加权N-gram向量模型和卷积神经网络相结合的方式,保证提取重要N-gram后能够使用卷积神经网络充分提取文本语义特征,进一步提高了意图识别的准确性。
优选地,将所述词序列输入预设的深层神经网络模型,得到意图分类结果PB,包括以下子步骤:
子步骤S124、依据知识图谱为所述词序列中每一类实体和描述标注语义标签;
子步骤S125、将所述标注有语义标签的词序列输入预设的深层神经网络模型,得到意图分类结果PB。
优选地,由于本实施例中,对行业文本进行意图识别。因此,创建或获取行业知识图谱。所述知识图谱以(实体,状态描述)和(实体,行为动作描述)为基本组成单位。
优选地,依据知识图谱为所述词序列中每一类实体和描述标注语义标签。
优选地,基于预先训练的神经网络模型,对所述词序列中每一类实体和描述标注语义标签。
优选地,依据知识图谱为每一类实体和描述定义语义标签,并将这些语义标签标注于训练集中,利用训练集训练神经网络模型实现语义标签的预测。
通过上述操作,为所述词序列增加了基于知识图谱的知识embedding向量,以便进一步地与深度神经网络模型相结合,以应用于复杂分类场景。
优选地,将所述标注有语义标签的词序列输入预设的深层神经网络模型,得到意图分类结果PB。
所述深层神经网络模型为双向长短期记忆网络Bi-LSTM、卷积神经网络CNN、或循环神经网络RNN。
优选地,所述词序列被表示成向量列表的形式,列表中的每一个向量由两部分组成,一部分是词向量,另一部分是该词所对应的语义标签的向量表示。
优选地,以所述深层神经网络模型为双向长短期记忆网络Bi-LSTM为例,
基于Bi-LSTM训练词序列的意图分类模型,对已标注过语义标签的词序列进行分类,进一步确定每条词序列的意图分类结果PB。
将所述向量列表输入双向长短期记忆网络Bi-LSTM模型中,双向长短期记忆神经网络Bi-LSTM,由一个前向的长短期记忆神经网络和一个后向的长短期记忆神经网络构成。对于每一个时间步t(t=1,2,3…l)(文本中一个词的输入作为一个时间步),前向的长短期记忆神经网络输出隐层状态,后向的长短期记忆神经网络输出隐层状态,组合两个隐层状态的向量得到向量ht;根据所有时间步的向量表示,得到词序列相应的向量H,H中隐含上下文语义信息。
通过全连接层,连接所有的词序列特征H得到yc,将yc输入到softmax函数中得到每个类别的概率。
优选地,对训练语料中的每一条文本输入所述Bi-LSTM模型,选取概率最大的意图类别作为预测意图类别,通过与其真实意图进行比对,以此来训练Bi-LSTM模型并不断迭代优化模型中的参数,用已经训练好的Bi-LSTM模型来计算待进行意图识别的行业文本的词序列,得到对应所有意图类别的概率分布PB。
通过将深度学习模型与知识图谱知识结合,应用于复杂分类场景。
在步骤S13的一种优选实现方式中,
将意图分类结果PA与意图分类结果PB进行融合,得到所述待识别文本的意图。
优选地,将意图分类结果PA与意图分类结果PB进行线性融合后得到最终的意图类别概率分布P,在P中选取概率最大所对应的意图类别作为最终意图识别的结果。
优选地,将意图分类结果PA与意图分类结果PB进行投票后得到最终的意图类别概率分布P,在P中选取概率最大所对应的意图类别作为最终意图识别的结果。
应用本发明所述方案,结合深层神经网络模型和浅层神经网络模型,能够提高用户意图识别的准确性,能够在少量样本的情况下得到较好的效果。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
以上是关于方法实施例的介绍,以下通过装置实施例,对本发明所述方案进行进一步说明。
图2为本发明所述意图识别系统实施例的流程图,如图2所示,包括:
提取模块21,用于对待识别文本进行切词,生成词序列;
分类模块22,包括浅层神经网络分类模块,用于将所述词序列输入预设的浅层神经网络模型,得到意图分类结果PA;深层神经网络分类模块,用于将所述词序列输入预设的深层神经网络模型,得到意图分类结果PB;
融合模块23,用于将意图分类结果PA与意图分类结果PB进行融合,得到所述待识别文本的意图。
在提取模块21的一种优选实现方式中,
优选地,本实施例中,对行业文本进行意图识别。
优选地,提取模块21对所述行业文本进行中文分词及文本去噪,得到词序列。其中,
文本分词:对待分类语料的所有中文文本分词。
文本去噪:对分好词的行业文本删除其中的标点、符号、“的、这”等这些停用词。
在分类模块22的一种优选实现方式中;
分类模块22,包括浅层神经网络分类模块221,用于将所述词序列输入预设的浅层神经网络模型,得到意图分类结果PA;深层神经网络分类模块222,用于将所述词序列输入预设的深层神经网络模型,得到意图分类结果PB;
优选地,浅层神经网络分类模块221将所述词序列输入预设的浅层神经网络模型,得到意图分类结果PA包括:
对所述词序列进行N-gram标注;
优选地,对所述词序列进行一元、二元、三元标注,分别得到unigram、bigram、trigram,即N-gram。
对N-gram标注后的所述词序列进行特征选择,得到每一个N-gram的中心词向量;
优选地,计算所述词序列中每个N-gram在本类别中所占的比重,并进行排序;优选地,计算所述词序列中每个N-gram在本类别中所占的权重数值并通过log函数进行平滑处理,根据数值大小对权重降序排序。选择前20%的N-ram作为最能表达文本特征的词语。
得到按照特定规则选择出来的N-gram的中心词向量;
优选地,对于不同类别,分别得到unigram、bigram、trigram三种语义特征。
将所述N-gram的中心词向量输入预设的卷积神经网络CNN,得到多分类结果。
优选地,将N-gram的中心词向量载入预设的卷积神经网络中,所述卷积神经网络包括:输入层、隐含层、输出层;所述隐含层包括卷积层、池化层、全连接层;将所述中心词向量输入所述输入层;由所述隐含层得到一维特征向量;由所述输出层将所述一维特征向量接入softmax分类器,对所述待识别文本的类别进行预测,得到意图分类结果PA。
优选地,利用标注了类别的的文本生成训练集,对原始卷积神经网络进行训练,得到预设的卷积神经网络。
其中,N-Gram是一种统计语言模型,用来根据前(n-1)个item来预测第n个item。一般来讲,可以从大规模文本或音频语料库生成N-Gram模型。习惯上,1-gram叫unigram,2-gram称为bigram,3-gram是trigram。
通过上述基于加权N-gram向量模型和卷积神经网络相结合的方式,保证提取重要N-gram后能够使用卷积神经网络充分提取文本语义特征,进一步提高了意图识别的准确性。
优选地,深层神经网络分类模块222将所述词序列输入预设的深层神经网络模型,得到意图分类结果PB,包括:
依据知识图谱为所述词序列中每一类实体和描述标注语义标签;
将所述标注有语义标签的词序列输入预设的深层神经网络模型,得到意图分类结果PB。
优选地,由于本实施例中,对行业文本进行意图识别。因此,创建或获取行业知识图谱。所述知识图谱以(实体,状态描述)和(实体,行为动作描述)为基本组成单位。
优选地,依据知识图谱为所述词序列中每一类实体和描述标注语义标签。
优选地,基于预先训练的神经网络模型,对所述词序列中每一类实体和描述标注语义标签。
优选地,依据知识图谱为每一类实体和描述定义语义标签,并将这些语义标签标注于训练集中,利用训练集训练神经网络模型实现语义标签的预测。
通过上述操作,为所述词序列增加了基于知识图谱的知识embedding向量,以便进一步地与深度神经网络模型相结合,以应用于复杂分类场景。
优选地,将所述标注有语义标签的词序列输入预设的深层神经网络模型,得到意图分类结果PB。
所述深层神经网络模型为双向长短期记忆网络Bi-LSTM、卷积神经网络CNN、或循环神经网络RNN。
优选地,所述词序列被表示成向量列表的形式,列表中的每一个向量由两部分组成,一部分是词向量,另一部分是该词所对应的语义标签的向量表示。
优选地,以所述深层神经网络模型为双向长短期记忆网络Bi-LSTM为例,
基于Bi-LSTM训练词序列的意图分类模型,对已标注过语义标签的词序列进行分类,进一步确定每条词序列的意图分类结果PB。
将所述向量列表输入双向长短期记忆网络Bi-LSTM模型中,双向长短期记忆神经网络Bi-LSTM,由一个前向的长短期记忆神经网络和一个后向的长短期记忆神经网络构成。对于每一个时间步t(t=1,2,3…l)(文本中一个词的输入作为一个时间步),前向的长短期记忆神经网络输出隐层状态,后向的长短期记忆神经网络输出隐层状态,组合两个隐层状态的向量得到向量ht;根据所有时间步的向量表示,得到词序列相应的向量H,H中隐含上下文语义信息。
通过全连接层,连接所有的词序列特征H得到yc,将yc输入到softmax函数中得到每个类别的概率。
优选地,对训练语料中的每一条文本输入所述Bi-LSTM模型,选取概率最大的意图类别作为预测意图类别,通过与其真实意图进行比对,以此来训练Bi-LSTM模型并不断迭代优化模型中的参数,用已经训练好的Bi-LSTM模型来计算待进行意图识别的行业文本的词序列,得到对应所有意图类别的概率分布PB。
通过将深度学习模型与知识图谱知识结合,应用于复杂分类场景。
在融合模块13的一种优选实现方式中,
融合模块23将意图分类结果PA与意图分类结果PB进行融合,得到所述待识别文本的意图。
优选地,将意图分类结果PA与意图分类结果PB进行线性融合后得到最终的意图类别概率分布P,在P中选取概率最大所对应的意图类别作为最终意图识别的结果。
优选地,将意图分类结果PA与意图分类结果PB进行投票后得到最终的意图类别概率分布P,在P中选取概率最大所对应的意图类别作为最终意图识别的结果。
应用本发明所述方案,结合深层神经网络模型和浅层神经网络模型,能够提高用户意图识别的准确性,能够在少量样本的情况下得到较好的效果。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,所述描述的终端和服务器的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的方法和装置,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理器中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。所述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
图3示出了适于用来实现本发明实施方式的示例性计算机系统/服务器012的框图。图3显示的计算机系统/服务器012仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图3所示,计算机系统/服务器012以通用计算设备的形式表现。计算机系统/服务器012的组件可以包括但不限于:一个或者多个处理器或者处理器016,系统存储器028,连接不同系统组件(包括系统存储器028和处理器016)的总线018。
总线018表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机系统/服务器012典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机系统/服务器012访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器028可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)030和/或高速缓存存储器032。计算机系统/服务器012可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统034可以用于读写不可移动的、非易失性磁介质(图3未显示,通常称为“硬盘驱动器”)。尽管图3中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线018相连。存储器028可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块042的程序/实用工具040,可以存储在例如存储器028中,这样的程序模块042包括——但不限于——操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块042通常执行本发明所描述的实施例中的功能和/或方法。
计算机系统/服务器012也可以与一个或多个外部设备014(例如键盘、指向设备、显示器024等)通信,在本发明中,计算机系统/服务器012与外部雷达设备进行通信,还可与一个或者多个使得用户能与该计算机系统/服务器012交互的设备通信,和/或与使得该计算机系统/服务器012能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口022进行。并且,计算机系统/服务器012还可以通过网络适配器020与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图3所示,网络适配器020通过总线018与计算机系统/服务器012的其它模块通信。应当明白,尽管图3中未示出,可以结合计算机系统/服务器012使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理器、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理器016通过运行存储在系统存储器028中的程序,从而执行本发明所描述的实施例中的功能和/或方法。
上述的计算机程序可以设置于计算机存储介质中,即该计算机存储介质被编码有计算机程序,该程序在被一个或多个计算机执行时,使得一个或多个计算机执行本发明上述实施例中所示的方法流程和/或装置操作。
随着时间、技术的发展,介质含义越来越广泛,计算机程序的传播途径不再受限于有形介质,还可以直接从网络下载等。可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,所述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的方法和装置,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理器中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。所述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (16)
1.一种意图识别方法,其特征在于,包括以下步骤:
对待识别文本进行切词,生成词序列;
将所述词序列输入预设的浅层神经网络模型,得到意图分类结果PA;将所述词序列输入预设的深层神经网络模型,得到意图分类结果PB;
将意图分类结果PA与意图分类结果PB进行融合,得到所述待识别文本的意图。
2.根据权利要求1所述的方法,其特征在于,将所述词序列输入预设的浅层神经网络模型,得到意图分类结果PA,包括:
对所述词序列进行N-gram标注;
对N-gram标注后的所述词序列进行特征选择,得到每一个N-gram的中心词向量;
将所述N-gram的中心词向量输入预设的卷积神经网络CNN,得到多分类结果。
3.根据权利要求2所述的方法,其特征在于,所述对N-gram标注后的所述词序列进行特征选择包括:
计算N-gram权重,根据所述权重选择能表达文本特征的N-gram;
对所述能表达文本特征的N-gram进行词向量表达;
对词向量表达后的N-gram进行聚类,得到每一类N-gram的中心词向量。
4.根据权利要求2所述的方法,其特征在于,所述卷积神经网络包括:输入层、隐含层、输出层;所述隐含层包括卷积层、池化层、全连接层;
将所述中心词向量输入所述输入层;由所述隐含层得到一维特征向量;由所述输出层将所述一维特征向量接入softmax分类器,对所述待识别文本的类别进行预测。
5.根据权利要求1所述的方法,其特征在于,
所述深层神经网络模型为双向长短期记忆网络B i-LSTM、卷积神经网络CNN、或循环神经网络RNN。
6.根据权利要求5所述的方法,其特征在于,将所述词序列输入预设的深层神经网络模型,得到意图分类结果PB包括:
依据知识图谱为所述词序列中每一类实体和描述标注语义标签;
将所述词序列的词向量和语义标签的向量输入预设的深层神经网络模型,得到意图分类结果PB。
7.根据权利要求1所述的方法,其特征在于,所述融合包括:
将意图分类结果PA与意图分类结果PB进行线性加权或投票。
8.一种意图识别系统,其特征在于,包括:
提取模块,用于对待识别文本进行切词,生成词序列;
分类模块,包括浅层神经网络分类模块,用于将所述词序列输入预设的浅层神经网络模型,得到意图分类结果PA;深层神经网络分类模块,用于将所述词序列输入预设的深层神经网络模型,得到意图分类结果PB;
融合模块,用于将意图分类结果PA与意图分类结果PB进行融合,得到所述待识别文本的意图。
9.根据权利要求8所述的系统,其特征在于,所述浅层神经网络分类模块具体用于:
对所述词序列进行N-gram标注;
对N-gram标注后的所述词序列进行特征选择,得到每一个N-gram的中心词向量;
将所述N-gram的中心词向量输入预设的卷积神经网络CNN,得到多分类结果。
10.根据权利要求9所述的系统,其特征在于,所述对N-gram标注后的所述词序列进行特征选择包括:
计算N-gram权重,根据所述权重选择能表达文本特征的N-gram;
对所述能表达文本特征的N-gram进行词向量表达;
对词向量表达后的N-gram进行聚类,得到每一类N-gram的中心词向量。
11.根据权利要求9所述的系统,其特征在于,所述卷积神经网络包括:输入层、隐含层、输出层;所述隐含层包括卷积层、池化层、全连接层;
将所述中心词向量输入所述输入层;由所述隐含层得到一维特征向量;由所述输出层将所述一维特征向量接入softmax分类器,对所述待识别文本的类别进行预测。
12.根据权利要求8所述的系统,其特征在于,
所述深层神经网络模型为双向长短期记忆网络B i-LSTM、卷积神经网络CNN、或循环神经网络RNN。
13.根据权利要求12所述的系统,其特征在于,所述深层神经网络分类模块具体用于:
依据知识图谱为所述词序列中每一类实体和描述标注语义标签;
将所述词序列的词向量和语义标签的向量输入预设的深层神经网络模型,得到意图分类结果PB。
14.根据权利要求8所述的系统,其特征在于,所述融合模块具体用于:
将意图分类结果PA与意图分类结果PB进行线性加权或投票。
15.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1~7中任一项所述的方法。
16.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1~7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910414764.8A CN110245348B (zh) | 2019-05-17 | 2019-05-17 | 一种意图识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910414764.8A CN110245348B (zh) | 2019-05-17 | 2019-05-17 | 一种意图识别方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110245348A true CN110245348A (zh) | 2019-09-17 |
CN110245348B CN110245348B (zh) | 2023-11-24 |
Family
ID=67884065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910414764.8A Active CN110245348B (zh) | 2019-05-17 | 2019-05-17 | 一种意图识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110245348B (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110674305A (zh) * | 2019-10-10 | 2020-01-10 | 天津师范大学 | 一种基于深层特征融合模型的商品信息分类方法 |
CN110826315A (zh) * | 2019-11-01 | 2020-02-21 | 智者四海(北京)技术有限公司 | 使用神经网络系统识别短文本时效性的方法 |
CN110928997A (zh) * | 2019-12-04 | 2020-03-27 | 北京文思海辉金信软件有限公司 | 意图识别方法、装置、电子设备及可读存储介质 |
CN111291205A (zh) * | 2020-01-22 | 2020-06-16 | 北京百度网讯科技有限公司 | 知识图谱构建方法、装置、设备和介质 |
CN112259080A (zh) * | 2020-10-20 | 2021-01-22 | 成都明杰科技有限公司 | 一种基于神经网络模型的语音识别方法 |
CN112528657A (zh) * | 2020-12-23 | 2021-03-19 | 中移(杭州)信息技术有限公司 | 基于双向lstm的文本意图识别方法及装置、服务器和介质 |
CN112560425A (zh) * | 2020-12-24 | 2021-03-26 | 北京百度网讯科技有限公司 | 模板生成方法、装置、电子设备及存储介质 |
CN112732912A (zh) * | 2020-12-30 | 2021-04-30 | 平安科技(深圳)有限公司 | 敏感倾向表述检测方法、装置、设备及存储介质 |
CN112765959A (zh) * | 2020-12-31 | 2021-05-07 | 康佳集团股份有限公司 | 意图识别方法、装置、设备及计算机可读存储介质 |
CN112836025A (zh) * | 2019-11-22 | 2021-05-25 | 航天信息股份有限公司 | 一种意图识别方法及装置 |
CN113360751A (zh) * | 2020-03-06 | 2021-09-07 | 百度在线网络技术(北京)有限公司 | 意图识别方法、装置、设备和介质 |
CN113377972A (zh) * | 2020-03-09 | 2021-09-10 | 北京达佳互联信息技术有限公司 | 多媒体内容推荐方法、装置、计算设备和存储介质 |
CN113377969A (zh) * | 2021-08-16 | 2021-09-10 | 中航信移动科技有限公司 | 意图识别数据处理系统 |
CN117648930A (zh) * | 2023-11-22 | 2024-03-05 | 平安创科科技(北京)有限公司 | 联合任务实现方法、装置、设备及介质 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103493041A (zh) * | 2011-11-29 | 2014-01-01 | Sk电信有限公司 | 使用浅层句法分析器自动评估句子的自动句子评估装置及其错误检测设备和方法 |
CN106951470A (zh) * | 2017-03-03 | 2017-07-14 | 中兴耀维科技江苏有限公司 | 一种基于业务知识图检索的智能问答系统 |
CN107516312A (zh) * | 2017-08-14 | 2017-12-26 | 北京工业大学 | 一种应用浅层神经网络的中医面色自动分类方法 |
US20180121787A1 (en) * | 2016-11-03 | 2018-05-03 | Salesforce.Com, Inc. | Joint Many-Task Neural Network Model for Multiple Natural Language Processing (NLP) Tasks |
CN108009847A (zh) * | 2017-11-30 | 2018-05-08 | 西安电子科技大学 | 外卖场景下店铺embedding特征提取的方法 |
CN108549636A (zh) * | 2018-04-09 | 2018-09-18 | 北京信息科技大学 | 一种赛事文字直播关键句抽取方法 |
CN109002432A (zh) * | 2017-06-07 | 2018-12-14 | 北京京东尚科信息技术有限公司 | 同义词的挖掘方法及装置、计算机可读介质、电子设备 |
CN109063221A (zh) * | 2018-11-02 | 2018-12-21 | 北京百度网讯科技有限公司 | 基于混合策略的查询意图识别方法和装置 |
CN109241255A (zh) * | 2018-08-20 | 2019-01-18 | 华中师范大学 | 一种基于深度学习的意图识别方法 |
CN109241530A (zh) * | 2018-08-29 | 2019-01-18 | 昆明理工大学 | 一种基于N-gram向量和卷积神经网络的中文文本多分类方法 |
CN109308497A (zh) * | 2018-10-27 | 2019-02-05 | 北京航空航天大学 | 一种基于多标签网络的多向量表示学习方法 |
CN109447140A (zh) * | 2018-10-19 | 2019-03-08 | 广州四十五度科技有限公司 | 一种基于神经网络深度学习的图像识别并推荐认知的方法 |
CN109450845A (zh) * | 2018-09-18 | 2019-03-08 | 浙江大学 | 一种基于深度神经网络的算法生成恶意域名检测方法 |
CN109492104A (zh) * | 2018-11-09 | 2019-03-19 | 北京京东尚科信息技术有限公司 | 意图分类模型的训练方法、分类方法、系统、设备和介质 |
CN109684626A (zh) * | 2018-11-16 | 2019-04-26 | 深思考人工智能机器人科技(北京)有限公司 | 语义识别方法、模型、存储介质和装置 |
-
2019
- 2019-05-17 CN CN201910414764.8A patent/CN110245348B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103493041A (zh) * | 2011-11-29 | 2014-01-01 | Sk电信有限公司 | 使用浅层句法分析器自动评估句子的自动句子评估装置及其错误检测设备和方法 |
US20180121787A1 (en) * | 2016-11-03 | 2018-05-03 | Salesforce.Com, Inc. | Joint Many-Task Neural Network Model for Multiple Natural Language Processing (NLP) Tasks |
CN106951470A (zh) * | 2017-03-03 | 2017-07-14 | 中兴耀维科技江苏有限公司 | 一种基于业务知识图检索的智能问答系统 |
CN109002432A (zh) * | 2017-06-07 | 2018-12-14 | 北京京东尚科信息技术有限公司 | 同义词的挖掘方法及装置、计算机可读介质、电子设备 |
CN107516312A (zh) * | 2017-08-14 | 2017-12-26 | 北京工业大学 | 一种应用浅层神经网络的中医面色自动分类方法 |
CN108009847A (zh) * | 2017-11-30 | 2018-05-08 | 西安电子科技大学 | 外卖场景下店铺embedding特征提取的方法 |
CN108549636A (zh) * | 2018-04-09 | 2018-09-18 | 北京信息科技大学 | 一种赛事文字直播关键句抽取方法 |
CN109241255A (zh) * | 2018-08-20 | 2019-01-18 | 华中师范大学 | 一种基于深度学习的意图识别方法 |
CN109241530A (zh) * | 2018-08-29 | 2019-01-18 | 昆明理工大学 | 一种基于N-gram向量和卷积神经网络的中文文本多分类方法 |
CN109450845A (zh) * | 2018-09-18 | 2019-03-08 | 浙江大学 | 一种基于深度神经网络的算法生成恶意域名检测方法 |
CN109447140A (zh) * | 2018-10-19 | 2019-03-08 | 广州四十五度科技有限公司 | 一种基于神经网络深度学习的图像识别并推荐认知的方法 |
CN109308497A (zh) * | 2018-10-27 | 2019-02-05 | 北京航空航天大学 | 一种基于多标签网络的多向量表示学习方法 |
CN109063221A (zh) * | 2018-11-02 | 2018-12-21 | 北京百度网讯科技有限公司 | 基于混合策略的查询意图识别方法和装置 |
CN109492104A (zh) * | 2018-11-09 | 2019-03-19 | 北京京东尚科信息技术有限公司 | 意图分类模型的训练方法、分类方法、系统、设备和介质 |
CN109684626A (zh) * | 2018-11-16 | 2019-04-26 | 深思考人工智能机器人科技(北京)有限公司 | 语义识别方法、模型、存储介质和装置 |
Non-Patent Citations (1)
Title |
---|
余昉恒: ""循环神经网络门结构模型研究"", 《中国优秀硕士学位论文全文数据库信息科技辑》, pages 140 - 37 * |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110674305B (zh) * | 2019-10-10 | 2023-05-12 | 天津师范大学 | 一种基于深层特征融合模型的商品信息分类方法 |
CN110674305A (zh) * | 2019-10-10 | 2020-01-10 | 天津师范大学 | 一种基于深层特征融合模型的商品信息分类方法 |
CN110826315A (zh) * | 2019-11-01 | 2020-02-21 | 智者四海(北京)技术有限公司 | 使用神经网络系统识别短文本时效性的方法 |
CN110826315B (zh) * | 2019-11-01 | 2023-11-24 | 智者四海(北京)技术有限公司 | 使用神经网络系统识别短文本时效性的方法 |
CN112836025A (zh) * | 2019-11-22 | 2021-05-25 | 航天信息股份有限公司 | 一种意图识别方法及装置 |
CN110928997A (zh) * | 2019-12-04 | 2020-03-27 | 北京文思海辉金信软件有限公司 | 意图识别方法、装置、电子设备及可读存储介质 |
CN111291205A (zh) * | 2020-01-22 | 2020-06-16 | 北京百度网讯科技有限公司 | 知识图谱构建方法、装置、设备和介质 |
CN111291205B (zh) * | 2020-01-22 | 2023-06-13 | 北京百度网讯科技有限公司 | 知识图谱构建方法、装置、设备和介质 |
CN113360751A (zh) * | 2020-03-06 | 2021-09-07 | 百度在线网络技术(北京)有限公司 | 意图识别方法、装置、设备和介质 |
CN113377972A (zh) * | 2020-03-09 | 2021-09-10 | 北京达佳互联信息技术有限公司 | 多媒体内容推荐方法、装置、计算设备和存储介质 |
CN112259080A (zh) * | 2020-10-20 | 2021-01-22 | 成都明杰科技有限公司 | 一种基于神经网络模型的语音识别方法 |
CN112528657A (zh) * | 2020-12-23 | 2021-03-19 | 中移(杭州)信息技术有限公司 | 基于双向lstm的文本意图识别方法及装置、服务器和介质 |
CN112560425A (zh) * | 2020-12-24 | 2021-03-26 | 北京百度网讯科技有限公司 | 模板生成方法、装置、电子设备及存储介质 |
CN112560425B (zh) * | 2020-12-24 | 2024-04-09 | 北京百度网讯科技有限公司 | 模板生成方法、装置、电子设备及存储介质 |
CN112732912A (zh) * | 2020-12-30 | 2021-04-30 | 平安科技(深圳)有限公司 | 敏感倾向表述检测方法、装置、设备及存储介质 |
CN112732912B (zh) * | 2020-12-30 | 2024-04-09 | 平安科技(深圳)有限公司 | 敏感倾向表述检测方法、装置、设备及存储介质 |
CN112765959A (zh) * | 2020-12-31 | 2021-05-07 | 康佳集团股份有限公司 | 意图识别方法、装置、设备及计算机可读存储介质 |
CN112765959B (zh) * | 2020-12-31 | 2024-05-28 | 康佳集团股份有限公司 | 意图识别方法、装置、设备及计算机可读存储介质 |
CN113377969A (zh) * | 2021-08-16 | 2021-09-10 | 中航信移动科技有限公司 | 意图识别数据处理系统 |
CN113377969B (zh) * | 2021-08-16 | 2021-11-09 | 中航信移动科技有限公司 | 意图识别数据处理系统 |
CN117648930A (zh) * | 2023-11-22 | 2024-03-05 | 平安创科科技(北京)有限公司 | 联合任务实现方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110245348B (zh) | 2023-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110245348B (zh) | 一种意图识别方法及系统 | |
CN107908635B (zh) | 建立文本分类模型以及文本分类的方法、装置 | |
CN107291828B (zh) | 基于人工智能的口语查询解析方法、装置及存储介质 | |
US10726061B2 (en) | Identifying text for labeling utilizing topic modeling-based text clustering | |
US10372821B2 (en) | Identification of reading order text segments with a probabilistic language model | |
CN112084327B (zh) | 在保留语义的同时对稀疏标注的文本文档的分类 | |
CN113495900B (zh) | 基于自然语言的结构化查询语言语句获取方法及装置 | |
CN112270379A (zh) | 分类模型的训练方法、样本分类方法、装置和设备 | |
CN110580308B (zh) | 信息审核方法及装置、电子设备、存储介质 | |
CN111858843B (zh) | 一种文本分类方法及装置 | |
CN111177186B (zh) | 基于问题检索的单句意图识别方法、装置和系统 | |
CN113064964A (zh) | 文本分类方法、模型训练方法、装置、设备以及存储介质 | |
CN111739520B (zh) | 一种语音识别模型训练方法、语音识别方法、装置 | |
CA2969593A1 (en) | Method for text recognition and computer program product | |
CN112860919B (zh) | 基于生成模型的数据标注方法、装置、设备及存储介质 | |
CN111079432B (zh) | 文本检测方法、装置、电子设备及存储介质 | |
CN112395421B (zh) | 课程标签的生成方法、装置、计算机设备及介质 | |
CN111753082A (zh) | 基于评论数据的文本分类方法及装置、设备和介质 | |
CN113486178B (zh) | 文本识别模型训练方法、文本识别方法、装置以及介质 | |
CN113011186A (zh) | 命名实体识别方法、装置、设备及计算机可读存储介质 | |
CN113515629A (zh) | 一种文档分类方法、装置、计算机设备及存储介质 | |
CN108205524B (zh) | 文本数据处理方法和装置 | |
CN111078881A (zh) | 细粒度情感分析方法、系统、电子设备和存储介质 | |
CN111782793A (zh) | 智能客服处理方法和系统及设备 | |
CN113220999A (zh) | 用户特征的生成方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |