CN114860909A - 一种基于文章的回答推荐方法、装置、设备及介质 - Google Patents
一种基于文章的回答推荐方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN114860909A CN114860909A CN202210499323.4A CN202210499323A CN114860909A CN 114860909 A CN114860909 A CN 114860909A CN 202210499323 A CN202210499323 A CN 202210499323A CN 114860909 A CN114860909 A CN 114860909A
- Authority
- CN
- China
- Prior art keywords
- article
- question
- answer
- training
- word vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请提供了一种基于文章的回答推荐方法。通过获取文章与问题,然后将文章与问题输入至回答推荐模型,通过回答推荐模型提取文章和问题的特征,获得文章词向量和问题词向量,然后通过双向循环神经网络对文章词向量和问题词向量进行融合,根据融合结果确定推荐回答。双向循环神经网络可以提取文章词向量和问题词向量中的方向特征,从而有利于对文章和问题中上下文特征的提取,因此可以更准确的识别语义,提供更准确的回答推荐。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及一种基于文章的回答推荐方法、装置、设备以及计算机可读存储介质。
背景技术
基于文章的回答推荐是指基于对文本的理解程度回答问题的技术,在智能问答应用中具有广泛应用。由于人工回答用户提出的问题所需要的人力成本较高,为了节省人力成本,因此可以通过基于文章的回答推荐技术针对用户的问题确定推荐回答。
通常通过机器学习模型进行基于文章的回答推荐,但是现有的机器学习模型难以充分理解语义,在回答推荐时存在准确率较差的问题,难以满足用户的需求。
因此,业界亟需一种准确率较高的基于文章的回答推荐方法。
发明内容
本申请提供了一种基于文章的回答推荐方法。该方法可以基于文章和问题进行较高准确率的回答推荐。本申请还提供了上述方法对应的装置、设备以及介质。
第一方面,本申请提供了一种基于文章的回答推荐方法,该方法包括:
获取文章与问题;
将所述文章与所述问题输入至回答推荐模型,通过所述回答推荐模型提取所述文章和所述问题的特征,获得文章词向量和问题词向量,通过双向循环神经网络对所述文章词向量和问题词向量进行融合,根据融合结果确定推荐回答。
在一些可能的实现方式中,所述回答推荐模型通过以下方式训练获得:
获取训练文章、训练问题与训练回答;
提取所述训练文章和训练问题的特征,获得训练文章词向量和训练问题词向量;
通过双向循环神经网络对所述训练文章词向量和训练问题词向量进行融合,根据融合结果确定预测回答;
根据所述预测回答与所述训练回答更新所述回答推荐模型。
在一些可能的实现方式中,所述通过所述回答推荐模型提取所述文章和所述问题的特征,获得文章词向量和问题词向量,包括:
通过所述回答推荐模型利用方向skip-gram提取所述文章和所述问题的特征,获得文章词向量和问题词向量,所述文章词向量包括所述文章的方向特征,所述问题词向量包括所述问题的方向特征。
在一些可能的实现方式中,所述通过双向循环神经网络对所述文章词向量和问题词向量进行融合,根据融合结果确定推荐回答,包括:
通过双向循环神经网络对所述文章词向量和问题词向量进行融合,并经过双曲正切tanh激活函数获得融合结果,根据融合结果确定推荐回答。
在一些可能的实现方式中,所述通过双向循环神经网络对所述文章词向量和问题词向量进行融合,根据融合结果确定推荐回答,包括:
通过双向循环神经网络对所述文章词向量和问题词向量基于自适应注意力机制进行融合,根据融合结果确定推荐回答。
在一些可能的实现方式中,所述双向循环神经网络为3层双向循环神经网络。
在一些可能的实现方式中,所述训练文章、所述训练问题和所述训练回答均为中文。
第二方面,本申请提供了一种基于文章的回答推荐装置,该装置包括:
获取模块,用于获取文章与问题;
推荐模块,用于将所述文章与所述问题输入至回答推荐模型,通过所述回答推荐模型提取所述文章和所述问题的特征,获得文章词向量和问题词向量,通过双向循环神经网络对所述文章词向量和问题词向量进行融合,根据融合结果确定推荐回答。
在一些可能的实现方式中,所述回答推荐模型通过训练模块训练获得,训练模块用于:
获取训练文章、训练问题与训练回答;
提取所述训练文章和训练问题的特征,获得训练文章词向量和训练问题词向量;
通过双向循环神经网络对所述训练文章词向量和训练问题词向量进行融合,根据融合结果确定预测回答;
根据所述预测回答与所述训练回答更新所述回答推荐模型。
在一些可能的实现方式中,推荐模块具体用于:
通过所述回答推荐模型利用方向skip-gram提取所述文章和所述问题的特征,获得文章词向量和问题词向量,所述文章词向量包括所述文章的方向特征,所述问题词向量包括所述问题的方向特征。
在一些可能的实现方式中,推荐模块具体用于:
通过双向循环神经网络对所述文章词向量和问题词向量进行融合,并经过双曲正切tanh激活函数获得融合结果,根据融合结果确定推荐回答。
在一些可能的实现方式中,推荐模块具体用于:
通过双向循环神经网络对所述文章词向量和问题词向量基于自适应注意力机制进行融合,根据融合结果确定推荐回答。
在一些可能的实现方式中,所述双向循环神经网络为3层双向循环神经网络。
在一些可能的实现方式中,所述训练文章、所述训练问题和所述训练回答均为中文。
第三方面,本申请提供一种设备,设备包括处理器和存储器。处理器、存储器进行相互的通信。处理器用于执行存储器中存储的指令,以使得设备执行如第一方面或第一方面的任一种实现方式中的基于文章的回答推荐方法。
第四方面,本申请提供一种计算机可读存储介质,计算机可读存储介质中存储有指令,指令指示设备执行上述第一方面或第一方面的任一种实现方式所述的基于文章的回答推荐方法。
第五方面,本申请提供了一种包含指令的计算机程序产品,当其在设备上运行时,使得设备执行上述第一方面或第一方面的任一种实现方式所述的基于文章的回答推荐方法。
本申请在上述各方面提供的实现方式的基础上,还可以进行进一步组合以提供更多实现方式。
从以上技术方案可以看出,本申请实施例具有以下优点:
本申请提供了一种基于文章的回答推荐方法,该方法通过获取文章与问题,然后将文章与问题输入至回答推荐模型,通过回答推荐模型提取文章和问题的特征,获得文章词向量和问题词向量,通过双向循环神经网络对该文章词向量和问题词向量进行融合,根据融合结果确定推荐回答。双向循环神经网络可以提取文章词向量和问题词向量中的方向特征,从而有利于对文章和问题中上下文特征的提取,因此可以更准确的识别语义,提供更准确的回答推荐。
附图说明
为了更清楚地说明本申请实施例的技术方法,下面将对实施例中所需使用的附图作以简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种回答推荐模型的训练方法的流程示意图;
图2为本申请实施例提供的一种回答推荐模型的流程示意图;
图3为本申请实施例提供的一种基于文章的回答推荐方法的流程示意图;
图4为本申请实施例提供的一种基于文章的回答推荐装置的结构示意图。
具体实施方式
下面将结合本申请中的附图,对本申请提供的实施例中的方案进行描述。
本申请实施例中的术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。
首先对本申请实施例中所涉及到的一些技术术语进行介绍。
随着信息化技术的不断发展,对于自然语言处理提出了更多的要求。在一些情况下,需要机器进行自动回复,即基于文章进行回答推荐。
相关技术中的回答推荐难以充分理解语义,并且,绝大多数模型均是基于英文来进行训练了,而中文文本通常较英文文本复杂,经常可能出现理解不准确的问题。
有鉴于此,本申请提供了一种基于文章的回答推荐方法,该方法可以由电子设备执行。电子设备是指具有数据处理能力的设备,例如可以是服务器,或者是终端。其中,终端包括但不限于身份标识系统、智能手机、平板电脑、笔记本电脑、个人数字助理(personaldigital assistant,PDA)等。服务器可以是云服务器,例如是中心云计算集群中的中心服务器,或者是边缘云计算集群中的边缘服务器。当然,服务器也可以是本地数据中心中的服务器。本地数据中心是指用户直接控制的数据中心。
具体地,电子设备获取文章与问题,然后将文章与问题输入至回答推荐模型,通过回答推荐模型提取文章和问题的特征,获得文章词向量和问题词向量,然后通过双向循环神经网络对文章词向量和问题词向量进行融合,根据融合结果确定推荐回答。双向循环神经网络可以提取文章词向量和问题词向量中的方向特征,从而有利于对文章和问题中上下文特征的提取,因此可以更准确的识别语义,提供更准确的回答推荐。
为了便于理解,下面结合附图对本申请实施例提供的回答推荐模型的训练方法进行具体介绍。
参见图1所示的回答推荐模型的训练方法的流程图,该方法包括:
S102:电子设备获取训练文章、训练问题与训练回答。
其中,训练文章、训练问题与训练回答均为中文。相比于英文文本,中文文本更加复杂,并且,在日常对话中,很多情况下使用的中文为非标准的主谓宾结构,因此若使用英文文本进行训练,容易造成在中文语句下语义理解不佳的问题。
在一些可能的实现方式中,可以采用DRCD数据集进行训练。DRCD是台达研究院发布的繁体中文阅读理解数据集,目标是从篇章中抽取出连续片段作为答案,在本实施中,可以将其转换为简体中文。通过包括大量数据的数据集,可以避免由于数据量过少导致的欠拟合的问题。
S104:电子设备提取训练文章和训练问题的特征,获得训练文章词向量和训练问题词向量。
具体地,电子设备可以利用方向skip-gram(Directional skip-gram)提取训练文章和训练问题的特征,获得训练文章词向量和训练问题词向量。由此,提取获得的训练文章词向量包括该训练文章的方向特征,提取获得的训练问题词向量包括该训练问题的方向特征。
Directional skip-gram在训练时会在每个词向量wt+i中加入一个方向向量δ,来描述词向量wt+i与wt在“方向”上的关系,其函数表达式如公式(1)所示:
函数g的更新范式如公式(2)与公式(3)所示:
其中σ表示激活函数,γ表示学习率,D代表方向标签函数,当i<0时D为1,当i>0时D为0,所以最终的模型可替换为f函数的表达式如公式(4):
f(wt+i,wt)=p(wt+i,wt)+g(wt+i,wt) (4)
Directional Skip-gram可以明确区分预测中的上下文。
S106:电子设备通过双向循环神经网络对训练文章词向量和训练问题词向量进行融合,根据融合结果确定预测回答。
其中,双向循环神经网络(Recurrent Neural Network,RNN)可以为双向门限递归单元网络(Gated Recurrent Unit,GRU)。GRU消耗算力更小,从而可以更快进行输出。
具体地,电子设备通过双向循环神经网络对所述训练文章词向量和训练问题词向量基于自适应注意力机制(attention mechanism)进行融合,并经过双曲正切tanh激活函数获得融合结果,根据融合结果确定推荐回答。
在一些可能的实现方式中,如图2所示,包括训练文章的方向特征的训练文章词向量和包括训练问题的方向特征的训练问题词向量分别输入至双向门限递归单元网络(Bi-GRU)中,获取训练文章词向量对应的uP,以及训练问题词向量对应的uQ。然后将uP,和uQ基于自适应注意力机制(attention,att)进行融合,获取vp。然后通过双曲正切tanh激活函数获得融合函数。
与sigmoid函数作为门限函数相比,tanh激活函数可以加强GRU层与Attention层之间信息的流通性,从而提升模型的准确性。
具体地,tanh激活函数的阈值空间为[-1,1],这使得tanh函数具有更符合作为门限函数的特质,即值越接近0给与越小的权重,从而进一步加强信息特征的流通。使用tanh函数作为门限函数的表达式如公式(5)与公式(6):
然后可以将融合结果继续经过Bi-GRU、att和tanh激活函数进行处理,以提高训练的准确性。如此,重复三次获得融合结果。通过以上重复处理,可以提取更多的上下文信息,并且可以减少原有GRU的叠加操作造成的冗余计算以及特征损失。
在模型的每次att层之后将输出再次与训练问题的特征进行att操作,通过反馈型操作弥补GRU层中特征提取训练时损失的问题特征,使该模型能够在理解文本语义中同时在意问题的语义,加强对问题的重视。
在一些可能的实现方式中,可以在每层的循环神经网络和每次attention中都使用dropout进行剪枝,以防止模型过拟合并减少模型的训练时间。
S108:电子设备根据预测回答与训练回答更新回答推荐模型。
经过上述训练,回答推荐模型可以获得预测回答,然后将预测回答与训练回答进行对比,更新回答推荐模型。其中,训练回答是指与训练文字和训练问题相对应的回答。
基于以上内容的描述,本申请提供了一种回答推荐模型的训练方法,具体地,电子设备获取训练文章、训练问题与训练回答,然后提取训练文章和训练问题的特征,获得训练文章词向量和训练问题词向量,通过双向循环神经网络对训练文章词向量和训练问题词向量进行融合,根据融合结果确定预测回答,最终根据预测回答与训练回答更新回答推荐模型。
通过以上方式所训练获得的回答推荐模型,可以用于实现本申请所提供的基于文章的回答推荐方法。训练中的电子设备与基于文章的回答推荐方法中的电子设备可以为同一电子设备,也可以为不同电子设备。
下面结合附图对本申请实施例提供的基于文章的回答推荐方法进行具体介绍。
参见图3所示的基于文章的回答推荐方法的流程图,该方法包括:
S302:电子设备获取文章与问题。
其中,问题为基于该文章的待回答的问题。文章与问题均为中文。
S304:电子设备将文章与问题输入至回答推荐模型,通过回答推荐模型提取文章和问题的特征,获得文章词向量和问题词向量,通过双向循环神经网络对文章词向量和问题词向量进行融合,根据融合结果确定推荐回答。
具体地,可以通过所述回答推荐模型利用方向skip-gram提取所述文章和所述问题的特征,获得包括方向特征的文章词向量和包括方向特征的问题词向量,从而可以区分预测中的上下文。
通过双向循环神经网络对所述文章词向量和问题词向量基于自适应注意力机制进行融合,根据融合结果确定推荐回答。自适应注意力机制可以加强对于其中关键特征的重视。
电子设备通过双向循环神经网络对所述文章词向量和所述问题词向量进行融合,并经过双曲正切tanh激活函数获得融合结果,根据融合结果确定推荐回答。tanh激活函数可以加强GRU层与Attention层之间信息的流通性,从而提升模型的准确性。
双向循环神经网络可以为3层的双向门限递归单元网络,从而更小算力的输出更高精度的结果。
综上所述,本申请提供了一种基于文章的回答推荐方法。电子设备获取文章与问题,然后将文章与问题输入至回答推荐模型,通过回答推荐模型提取文章和问题的特征,获得文章词向量和问题词向量,然后通过双向循环神经网络对文章词向量和问题词向量进行融合,根据融合结果确定推荐回答。双向循环神经网络可以提取文章词向量和问题词向量中的方向特征,从而有利于对文章和问题中上下文特征的提取,因此可以更准确的识别语义,提供更准确的回答推荐。
与上述方法实施例相对应的,本申请还提供了一种基于文章的回答推荐装置,参见图4所示,该装置400包括:获取模块402和推荐模块404。
获取模块,用于获取文章与问题;
推荐模块,用于将所述文章与所述问题输入至回答推荐模型,通过所述回答推荐模型提取所述文章和所述问题的特征,获得文章词向量和问题词向量,通过双向循环神经网络对所述文章词向量和问题词向量进行融合,根据融合结果确定推荐回答。
在一些可能的实现方式中,所述回答推荐模型通过训练模块训练获得,训练模块用于:
获取训练文章、训练问题与训练回答;
提取所述训练文章和训练问题的特征,获得训练文章词向量和训练问题词向量;
通过双向循环神经网络对所述训练文章词向量和训练问题词向量进行融合,根据融合结果确定预测回答;
根据所述预测回答与所述训练回答更新所述回答推荐模型。
在一些可能的实现方式中,推荐模块具体用于:
通过所述回答推荐模型利用方向skip-gram提取所述文章和所述问题的特征,获得文章词向量和问题词向量,所述文章词向量包括所述文章的方向特征,所述问题词向量包括所述问题的方向特征。
在一些可能的实现方式中,推荐模块具体用于:
通过双向循环神经网络对所述文章词向量和问题词向量进行融合,并经过双曲正切tanh激活函数获得融合结果,根据融合结果确定推荐回答。
在一些可能的实现方式中,推荐模块具体用于:
通过双向循环神经网络对所述文章词向量和问题词向量基于自适应注意力机制进行融合,根据融合结果确定推荐回答。
在一些可能的实现方式中,所述双向循环神经网络为3层双向循环神经网络。
在一些可能的实现方式中,所述训练文章、所述训练问题和所述训练回答均为中文。
本申请提供一种设备,用于实现基于文章的回答推荐方法。所述设备包括处理器和存储器。所述处理器、所述存储器进行相互的通信。所述处理器用于执行所述存储器中存储的指令,以使得设备执行基于文章的回答推荐方法。
本申请提供一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在设备上运行时,使得设备执行上述基于文章的回答推荐方法。
本申请提供了一种包含指令的计算机程序产品,当其在设备上运行时,使得设备执行上述基于文章的回答推荐方法。
另外需说明的是,以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。另外,本申请提供的装置实施例附图中,模块之间的连接关系表示它们之间具有通信连接,具体可以实现为一条或多条通信总线或信号线。
通过以上的实施方式的描述,所属领域的技术人员可以清楚地了解到本申请可借助软件加必需的通用硬件的方式来实现,当然也可以通过专用硬件包括专用集成电路、专用CPU、专用存储器、专用元器件等来实现。一般情况下,凡由计算机程序完成的功能都可以很容易地用相应的硬件来实现,而且,用来实现同一功能的具体硬件结构也可以是多种多样的,例如模拟电路、数字电路或专用电路等。但是,对本申请而言更多情况下软件程序实现是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在可读取的存储介质中,如计算机的软盘、U盘、移动硬盘、ROM、RAM、磁碟或者光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,训练设备,或者网络设备等)执行本申请各个实施例所述的方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。
所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、训练设备或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、训练设备或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存储的任何可用介质或者是包含一个或多个可用介质集成的训练设备、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘(Solid State Disk,SSD))等。
Claims (10)
1.一种基于文章的回答推荐方法,其特征在于,所述方法包括:
获取文章与问题;
将所述文章与所述问题输入至回答推荐模型,通过所述回答推荐模型提取所述文章和所述问题的特征,获得文章词向量和问题词向量,通过双向循环神经网络对所述文章词向量和所述问题词向量进行融合,根据融合结果确定推荐回答。
2.根据权利要求1所述的方法,其特征在于,所述回答推荐模型通过以下方式训练获得:
获取训练文章、训练问题与训练回答;
提取所述训练文章和训练问题的特征,获得训练文章词向量和训练问题词向量;
通过双向循环神经网络对所述训练文章词向量和所述训练问题词向量进行融合,根据融合结果确定预测回答;
根据所述预测回答与所述训练回答更新所述回答推荐模型。
3.根据权利要求1所述的方法,其特征在于,所述通过所述回答推荐模型提取所述文章和所述问题的特征,获得文章词向量和问题词向量,包括:
通过所述回答推荐模型利用方向skip-gram提取所述文章和所述问题的特征,获得文章词向量和问题词向量,所述文章词向量包括所述文章的方向特征,所述问题词向量包括所述问题的方向特征。
4.根据权利要求1所述的方法,其特征在于,所述通过双向循环神经网络对所述文章词向量和所述问题词向量进行融合,根据融合结果确定推荐回答,包括:
通过双向循环神经网络对所述文章词向量和所述问题词向量进行融合,并经过双曲正切tanh激活函数获得融合结果,根据融合结果确定推荐回答。
5.根据权利要求1所述的方法,其特征在于,所述通过双向循环神经网络对所述文章词向量和所述问题词向量进行融合,根据融合结果确定推荐回答,包括:
通过双向循环神经网络对所述文章词向量和问题词向量基于自适应注意力机制进行融合,根据融合结果确定推荐回答。
6.根据权利要求1所述的方法,其特征在于,所述双向循环神经网络为3层双向循环神经网络。
7.根据权利要求2所述的方法,其特征在于,所述训练文章、所述训练问题和所述训练回答均为中文。
8.一种基于文章的回答推荐装置,其特征在于,所述装置包括:
获取模块,用于获取文章与问题;
推荐模块,用于将所述文章与所述问题输入至回答推荐模型,通过所述回答推荐模型提取所述文章和所述问题的特征,获得文章词向量和问题词向量,通过双向循环神经网络对所述文章词向量和问题词向量进行融合,根据融合结果确定推荐回答。
9.一种设备,其特征在于,所述设备包括处理器和存储器;
所述处理器用于执行所述存储器中存储的指令,以使得所述设备执行如权利要求1至7中任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,包括指令,所述指令指示设备执行如权利要求1至7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210499323.4A CN114860909A (zh) | 2022-05-09 | 2022-05-09 | 一种基于文章的回答推荐方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210499323.4A CN114860909A (zh) | 2022-05-09 | 2022-05-09 | 一种基于文章的回答推荐方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114860909A true CN114860909A (zh) | 2022-08-05 |
Family
ID=82637581
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210499323.4A Pending CN114860909A (zh) | 2022-05-09 | 2022-05-09 | 一种基于文章的回答推荐方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114860909A (zh) |
-
2022
- 2022-05-09 CN CN202210499323.4A patent/CN114860909A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110705301B (zh) | 实体关系抽取方法及装置、存储介质、电子设备 | |
CN111368548A (zh) | 语义识别方法及装置、电子设备和计算机可读存储介质 | |
CN109086265B (zh) | 一种语义训练方法、短文本中多语义词消歧方法 | |
CN111898374B (zh) | 文本识别方法、装置、存储介质和电子设备 | |
CN112215008A (zh) | 基于语义理解的实体识别方法、装置、计算机设备和介质 | |
CN108304376B (zh) | 文本向量的确定方法、装置、存储介质及电子装置 | |
CN113158687B (zh) | 语义的消歧方法及装置、存储介质、电子装置 | |
CN111159409A (zh) | 基于人工智能的文本分类方法、装置、设备、介质 | |
CN112214576B (zh) | 舆情分析方法、装置、终端设备及计算机可读存储介质 | |
CN112101042A (zh) | 文本情绪识别方法、装置、终端设备和存储介质 | |
CN113901836A (zh) | 基于上下文语义的词义消歧方法、装置及相关设备 | |
CN113158656A (zh) | 讽刺内容识别方法、装置、电子设备以及存储介质 | |
CN113836303A (zh) | 一种文本类别识别方法、装置、计算机设备及介质 | |
CN111444321B (zh) | 问答方法、装置、电子设备和存储介质 | |
CN115438149A (zh) | 一种端到端模型训练方法、装置、计算机设备及存储介质 | |
CN111178082A (zh) | 一种句向量生成方法、装置及电子设备 | |
CN114281996A (zh) | 长文本分类方法、装置、设备及存储介质 | |
CN111859933A (zh) | 马来语识别模型的训练方法、识别方法、装置、设备 | |
CN108874786B (zh) | 机器翻译方法及装置 | |
CN116975221A (zh) | 文本阅读理解方法、装置、设备及存储介质 | |
CN115391490A (zh) | 数据搜索方法、装置、设备及存储介质 | |
CN114860909A (zh) | 一种基于文章的回答推荐方法、装置、设备及介质 | |
CN115146033A (zh) | 命名实体识别方法及装置 | |
CN113657092A (zh) | 识别标签的方法、装置、设备以及介质 | |
CN113807920A (zh) | 基于人工智能的产品推荐方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |