CN110232118A - 一种新型的基于gru注意力机制的答案选择模型 - Google Patents

一种新型的基于gru注意力机制的答案选择模型 Download PDF

Info

Publication number
CN110232118A
CN110232118A CN201910521062.XA CN201910521062A CN110232118A CN 110232118 A CN110232118 A CN 110232118A CN 201910521062 A CN201910521062 A CN 201910521062A CN 110232118 A CN110232118 A CN 110232118A
Authority
CN
China
Prior art keywords
gru
answer
input
attention
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910521062.XA
Other languages
English (en)
Inventor
王慧
刘璨
戴宪华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN201910521062.XA priority Critical patent/CN110232118A/zh
Publication of CN110232118A publication Critical patent/CN110232118A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Machine Translation (AREA)

Abstract

答案选择(Answer selection,AS)是问答系统设计中一个重要子任务,目前主要是使用深度学习的方法解决该问题。传统的attention机制更加偏向于后面的状态特征,基于此后来提出了内部注意力机制,从而避免出现权重分配偏差问题。但是这种模型没有对输入信息进行筛选,这会导致在候选输出隐藏状态中包含较多的噪声。本发明涉及一种用于问答系统答案选择模型的算法。包括:(1)在GRU内部注意力模型前增加一个输入门过滤掉无用信息。(2)通过使用这种新的注意力机制对问答系统中的答案选择模型做出了改进,精确度比原来基于GRU内部注意力机制模型有提高;(3)本发明提供的方法,在精确度、算法稳定度等方面有较大的改进提高,能够更好地适用于实际工程工作中。

Description

一种新型的基于GRU注意力机制的答案选择模型
技术领域
本发明涉及自然语言处理领域,即一种用于问答系统答案选择模型中选择最优回复的算法。
背景技术
答案选择(Answer selection,AS)是问答系统设计中一个重要子任务,它的功能是对于一个给定的问题能够从一系列候选回复中选出一个最佳的答案。在对话过程中答案选择的准确性对问答系统的性能起着关键性的影响。在过去几年中,answer selection被广泛关注。其中,用神经网络模型解决答案选择任务取得了巨大的成功。但是通过循环神经网络生成语义向量的时候是对问题和答案单独编码的,忽略掉了答案中与问题有联系部分的信息,导致生成的答案语义向量不仅丢失了有用信息并且参杂一些无用的噪声。后来将注意力机制引入问答模型中,端到端的注意力机制,在该问题上取得了最好的结果。端到端的attention计算了答案和问题之间的词语权重。然而,由于RNN算法用于处理时序特征的特点,隐含状态迭代更新,因此t时刻隐藏状态包含t时刻以及t时刻之前的所有隐藏状态的信息。加入问题的注意力信息目的是用于找出候选答案中包含信息最多的部分,因此越靠后的隐藏状态越容易被选择。综上所述,传统的attention机制更加偏向于后面的状态特征。后来有人提出内部注意力机制,通过把注意力机制作用到GRU网络内部的‘门’上同样可以达到对信息进行筛选和过滤的目的,从而避免出现权重分配偏差问题。我们把传统的注意力机制模型称为OARNN,把注意力机制作用在‘门’上的模型称为IARNN-GATE。IARNN-GATE没有对输入信息进行筛选,这会导致在候选输出隐藏状态中包含较多的噪声,只通过GRU内部的一个更新门难以将噪声全部去除。
发明内容
本发明旨在至少解决上述技术问题之一。
为此,本发明的目的在于提出一种新型的基于GRU的注意力机制的答案选择模型,该模型考虑在循环神经网络内部新增一个‘门’,即输入门。并把注意力向量作为这个‘门’的输入,通过这个新增的‘门’来对输入信息进行筛选,保留有用的信息,然后把进过筛选的输出作为新的输入。在Question-Encoder模块的GRU网络中加入输入门相当于为GRU网络添加了自注意能力,能够让输入的问句通过自身来对问句中的细粒度信息进行筛选、过滤,使得最后得到的语义表示中关键信息的比重更大,语义表示更准确,而这个语义表示又要作为注意力向量来对候选答案中的信息进行筛选,因此使得对候选答案的筛选更加精确。在Answer-Encoder模块中,将候选答案输入到输入门之后经过内部注意力机制的GRU网络,改进后的模型,在insuranceqa数据集上取得了很好的效果。
为了实现上述目的,本发明的技术方案为:
一种新型的基于GRU注意力机制的答案选择模型,包括如下步骤:
S1.问句xt经过输入门ft来对输入进行信息筛选和过滤,将过滤的信息输入到GRU网络中;
S2.过滤后的信息经过GRU网络和池化后产生一个语义向量rq,把这个语义向量rq作为attention向量;
S3.把候选答句xt、上一时刻的隐藏状态ht-1和注意力向量rq输入到输入门ft中,得到输出作为新的输入,输入到GRU网络中;
S4.经过输入门的信息输入到GRU网络,引入上面的attention向量rq,通过重置门rt和更新门zt,得到输出ht
S5.候选答句经过GRU网络池化层后同样的得到一个语义向量ra
S6.计算问句的rq和答句的ra之间的余弦相似度;
S7.选择相似度最大的候选答案作为最后的的回复。
与现有技术相比,本发明的有益效果是:
1)本发明提供的方法,通过在GRU内部新增加一个门,对输入信息进行筛选和过滤,保留有用信息且去除多余的噪声,提出了一种新的注意力机制。
2)本发明提供的方法,通过使用这种新增加一个输入门的GRU内部注意力机制对问答系统中的答案选择模型做出了改进,精确度比原来IARNN-GATE模型在insuranceQA数据集中提高了2.1个百分点。
3)本发明提供的方法,可应用于电商平台的智能客服系统下,在精确度、算法稳定度等方面有较大的改进提高,能够更好地适用于实际工程工作中。
附图说明
图1根据本发明实施例的一种新型的基于GRU注意力机制的答案选择模型的流程
图2根据本发明一个实施例的循环神经网络RNN的结构示意图
图3根据本发明一个实施例的传统GRU的结构示意图
图4根据本发明一个实施例的基于内部注意力机制的GRU的结构(IARNN-GATE)示意图
图5根据本发明一个具体实施例的一种新型基于GRU的注意力机制的答案选择模型在Question-Encoder端的网络结构示意图
图6根据本发明一个具体实施例的一种新型基于GRU的注意力机制的答案选择模型在答句的Answer-Encoder端的网络结构示意图
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
以下结合附图和实施例对本发明做进一步的阐述。
实施例1
图1是根据本发明一个实施例的循环神经网络RNN的结构示意图。循环神经网络可以表示成一种函数,普通形式的神经网络可以分为输入层、隐藏层以及输出层。隐藏层无论内部有几层,在整体上都可以抽象成一个大的隐藏层。隐藏层同样可以表示为一个函数的形式,这个函数以输入层的数据作为自变量,通过计算得到输出因变量。输出层同样是一个函数,它以隐藏层的因变量输出作为自变量输入。RNN在许多自然语言处理任务中都有重要的应用,RNN在语言模型、文本生成、机器翻译、语言识别和图像描述生成等任务中都取得了很不错的效果。
根据图1的结构示意图,循环神经网络在t时刻从输入层输入xt之后,隐藏层的值更新为st,同时输出ot,其中,st的值不仅取决于xt,同时还与st-1有关。循环神经网络中t时刻的隐藏状态和输出的计算公式如下:
ot=g(Vst)
St=f(Uxt+Wst-1) (1)
图2是根据本发明一个实施例的传统GRU的结构示意图。GRU(Gated RecurrentUnit)是LSTM网络的一个改进模型,GRU网络将LSTM中的遗忘门和输入门组成了一个新的门—更新门,同时还把细胞状态和隐藏状态结合在一起传输。GRU模型比标准的LSTM模型要简单,而且效果也很好。它可以解决RNN网络中的长依赖问题。
根据图2的结构示意图,图中的zt和rt分别表示更新门和重置门。更新门用于筛选出前一时刻的状态信息中有用的部分输入到当前状态中,更新门的值越大说明前一时刻的状态中有越多的信息进到当前时刻。重置门用于筛选出前一状态中信息写入到当前的候选状态上,重置门的值越小,表示前一状态的信息被筛选出来的越少。GRU网络的前向传播公式如下:
rt=σ(wxrxt+whrht-1)
zt=σ(wxzxt+whzht-1)
yt=σ(wo·ht)
图3是根据本发明的一个实施例的基于内部注意力机制的GRU的结构(IARNN-GATE)示意图。此模型的Answer-Encoder模块中,通过把注意力机制作用到GRU网络内部的‘门’上可以达到对信息进行筛选和过滤的目的,从而避免出现权重分配偏差问题。
根据图3的结构示意图,基于内部注意力机制的GRU的结构(IARNN-GATE),相对于传统的GRU模型,此模型在Question-Encoder模块生成的语义向量rq当作注意力向量来对重置门和更新门的输出rt和zt进行改进,基于内部注意力机制的GRU(IARNN-GATE)网络的前向传播公式如下:
rt=σ(wxrxt+whrht-1+Mqrrq)
zt=σ(wxzxt+whzht-1+Mqzrq)
yt=σ(wo·ht)
本发明提出的方法具体步骤如下:
a)问句经过输入门ft之后得到作为新的输入,输入到Question-Encoder模块的传统GRU网络中。
其中,步骤a)的具体做法为:
实验之前首先对问题和答案进行数据清洗,生成神经网络能够使用的数据,即将问题和候选答案切分成单词,然后采用word2vec对切割后的单词训练生成词向量。
将输入信息xt和前一个隐藏状态ht-1经过一个σ门函数,得到输入门ft用来更新输入信息。将前一时刻的隐藏状态引入到输入信息中,可以去除输入信息中的无用信息并且保留有关信息,涉及到的公式如下:
ft=σ(wxfxt+whfht-1+bf)
其中,wxf、whf和bf为网络参数,原来的网络结构相比较,在Question-Encoder端新增一个输入‘门’,对输入信息进行初步筛选,相当于为GRU网络添加了自注意能力,在经过GRU网络内部又通过一个更新们来对网络中的信息进行筛选,这相当于对输入信息进行了双重筛选,使得本发明提出的模型能更准确的生成的语义表示。
b)输入经过GRU网络得到时序的GRU特征,将这个特征输入到池化层,采用max-pooling(最大池化)进行过滤得到问句的语义向量rq,这个语义向量是经过特征提取的向量,能深层次的表达句子的意思,把语义向量rq作为输入到Answer-Encoder端GRU内部的attention向量;
其中,步骤b)的具体做法为:
把问句经过输入门由公式(4)得到输出输入双向GRU网络,根据公式(2),将公式(2)中的xt换成得到输出yt,然后把yt输入到池化层,采用max-pooling(最大池化)进行过滤得到问句的语义向量rq:
其中,rq,i表示rq的第i个元素,yt,i表示yt的第i各元素;
c)答句经过问句模块的输入门之后得到作为新的输入,输入到Answer-Encoder模块的带内部注意力机制的GRU网络中。
其中,步骤c)的具体做法为:
实验之前首先对答句进行数据清洗,生成神经网络能够使用的数据,即将答句切分成单词,然后采用word2vec对切割后的单词训练生成词向量。
然后将经过分词和词嵌入后的答句xt,输入到本模型中新加的输入门中,且在Answer-Encoder模块的输入门中引入问句的语义向量rq,作为输入门的注意力机制,也即本模型中不仅在GRU内部加入注意力机制,也在新增的输入门中加入注意力机制,具体做法是,把输入xt、上一时刻的隐藏状态ht-1和注意力向量rq输入到该输入门,得到输出具体公式如下:
其中是输入门中激活函数σ(本文使用sigmoid函数作为激活函数)后的输出,通过它来对输入信息进行筛选,过滤掉其中无用(与问题不相关)的信息,把有用(与问题相关)的信息输入进GRU网络。
d)把作为新的输入,输入到带有内部注意力机制的GRU网络中,通过重置门rt和更新门,得到输出。
其中,步骤d)的设计的公式为:
其中Mqrrq表示两个矩阵相乘,rt⊙ht-1表示两个矩阵的点乘操作。
e)GRU网络的输出ht经过池化层后得到一个语义向量ra
其中,步骤e)的具体做法为:
把GRU网络的输出ht输入池化层,利用平均池计算出问题的表示,根据公式(5),得到一个语义向量ra
f)计算问句的rq和答句的ra之间的余弦相似度。
其中,步骤f)的具体做法为:
计算rq与ra之间的余弦相似度,计算公式如下:
θqa越大,表示向量rq与ra之间夹角越小,说明问句与答句的语义越相近;θqa越小,表示向量rq与ra之间夹角越大,说明问句与答句的语义相差越大。
假设q代表问句,a+代表正例答案,a-代表负例答案,本模型的目标函数如下:
其中,N表示所有负例答案的集合,M表示边界,cos表示计算得分的余弦相似度函数
实施例
本发明对上述方法基于GRU内部的注意力机制模型进行了精确度比较与分析实验,具体如下:
本次实验采用InsuranceQA数据集和WikiQA数据集。
首先使用InsuranceQA数据集,InsuranceQA数据集分为训练集、验证集和测试集三部分,其中测试集分为两个小测试集(Test1和Test2)。每部分都是相同的组成格式:每个问题-答案对由1个问题和11个答案组成,其中11个答案包括1个正确答案和10个干扰答案。在模型训练阶段,对于训练集中的每一个问题,随机从相应的10个干扰答案中选择一个作为训练时的干扰答案;在测试阶段,会计算每一个问题和它对应的11个答案之间的相似度得分。实验之前首先对问题和答案按字切词,然后采用word2vec对问题和答案进行预训练得到100维的词向量。
实验建模生成输入数据。本次实验采用问答三元组的形式进行建模(q,a+,a-),q代表问题,a+代表正向答案,a-代表负向答案。InsuranceQA里的训练数据已经包含了问题和正向答案,因此需要对负向答案进行选择,实验时我们采用随机的方式对负向答案进行选择,组合成(q,a+,a-)的形式。将问题和答案进行Embedding(batch_size,sequence_len,embedding_size)表示。
然后根据传统的GRU模型计算问题的特征rq,根据公式(4)和公式(6)分别Question-Encoder模块增加输入门、Answer-Encoder模块增加输入门。将加入自注意力机制的输入问题的特征rq和经过输入门的答案的输入根据公式(6)和公式(7)的计算出ra,采用max-pooling的方式获得最后的特征。最后根据问题和答案最终计算的特征,计算目标函数余弦相似度。
InsuranceQA数据集上的参数设置如下:本实验的优化函数使用随机梯度下降(SGD),学习率设为动态学习速率,训练150轮,参数M是预定义的边距,本实验设置为0.2,batch_size为32,问题长度保持30字、答案100字,本实验在答案选择模型中所使用的循环神经网络均为双向网络,隐藏层的神经元个数rnn_size设置为201,字预训练采用100维。
通过上述参数的设置,本发明的算法和基于GRU内部注意力机制算法在InsuranceQA数据集上的对比结果如表1所示。
表1新型的基于GRU注意力机制模型在InsuranceQA数据集上的实验结果
在WikiQA数据集上的实验,该数据集同样被分为训练集、验证集和测试集三部分。WikiQA数据集上实验参数设置为:首先采用word2vec对问题和答案进行预训练得到100维的词向量;设置词向量在训练过程中可以不断更新;使用SGD算法作为优化算法;损失函数和InsuranceQA数据集中使用的损失函数一样,其中的预定义边距M设置为0.1;学习率设为动态学习速率,训练150轮,batch_size为32,问题长度保持30字、答案100字,本实验在答案选择模型中所使用的循环神经网络均为双向网络,隐藏层的神经元个数rnn_size设置为201。由于WikiQA测试集中每个问题对应的正确答案不止一个,所以实验采用MAP(平均精度均值)和MRR(平均倒数排名)这两个评价指标来测试模型。
通过上述参数的设置,本发明的算法和基于GRU内部注意力机制模型在WikiQA数据集上的实验结果如表2所示。
表2新型的基于GRU注意力机制模型在WikiQA数据集上的实验结果
从表1中可以看出,对于InsuranceQA的两个测试集,本文所提出的一种改进的基于GRU内部注意力机制的模型在R10@1这一评价指标上比改进之前的模型提高了大约2.1%和大约1.8%。从表2中可以看出,对于WikiQA数据集,本文所提出的一种改进的基于GRU内部注意力机制的模型,在MAP和MRR这两个评价指标上比改进前的模型提高了大约1.86%和大约1.91%。在InsuranceQA数据集和WikiQA数据集上的测试结果表明改进后的模型确实起到实际效果,本专利中提出的改进的基于GRU内部注意力机制模型对输入信息的筛选能力更强,能过滤更多的无用信息。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (1)

1.一种新型的基于GRU神经网络注意力机制的答案选择模型,其特征在于,包括如下步骤:
S1.问句经过Question-Encoder端新增的输入门,得到过滤后的信息将过滤的信息输入到传统的GRU模块中。
S2.过滤后的信息经过GRU网络得到时序的GRU特征,对这个特征采用max-pooling(最大池化)进行选择得到问句的语义向量,这个语义向量能深层次的表达句子的意思,把这个语义向量作为attention向量;
利用max-pooling计算出问句的语义向量rq:
其中,表示rq的第i个元素,yt,i表示yt的第i各元素;
S3.然后将经过分词和词嵌入后的答句xt,输入到本模型中新加的输入门中,且在Answer-Encoder模块的输入门中引入问句的语义向量rq,作为输入门的注意力机制,具体做法是,把输入xt、上一时刻的隐藏状态ht-1和注意力向量rq输入到该输入门,得到输出
S4.把过滤后的信息输入到Answer-Encoder模块中带内部注意力机制的GRU网络中,上面的语义向量rq作为attention向量,通过重置门rt和更新门,得到输出。
S5.GRU网络的输出经过池化层后得到一个语义向量ra
S6.计算问句的rq和答句的ra之间的余弦相似度;计算rq与ra之间的余弦相似度,计算公式如下:
S7.选择相似度最大的答句作为最佳的回复。
CN201910521062.XA 2019-08-08 2019-08-08 一种新型的基于gru注意力机制的答案选择模型 Pending CN110232118A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910521062.XA CN110232118A (zh) 2019-08-08 2019-08-08 一种新型的基于gru注意力机制的答案选择模型

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910521062.XA CN110232118A (zh) 2019-08-08 2019-08-08 一种新型的基于gru注意力机制的答案选择模型

Publications (1)

Publication Number Publication Date
CN110232118A true CN110232118A (zh) 2019-09-13

Family

ID=67860002

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910521062.XA Pending CN110232118A (zh) 2019-08-08 2019-08-08 一种新型的基于gru注意力机制的答案选择模型

Country Status (1)

Country Link
CN (1) CN110232118A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112580365A (zh) * 2020-11-05 2021-03-30 中科讯飞互联(北京)信息科技有限公司 篇章解析方法及电子设备、存储装置
CN113706951A (zh) * 2021-08-26 2021-11-26 陕西万唯教育传媒有限公司 线上教育方法、系统及计算机存储介质
CN113792860A (zh) * 2021-09-15 2021-12-14 中国人民解放军陆军军医大学第二附属医院 基于常微分方程的gru网络模型及特征提取方法、装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108038209A (zh) * 2017-12-18 2018-05-15 深圳前海微众银行股份有限公司 答案选择方法、装置和计算机可读存储介质
CN108062388A (zh) * 2017-12-15 2018-05-22 北京百度网讯科技有限公司 人机对话的回复生成方法和装置
CN108829719A (zh) * 2018-05-07 2018-11-16 中国科学院合肥物质科学研究院 一种非事实类问答答案选择方法及系统
CN109408680A (zh) * 2018-10-08 2019-03-01 腾讯科技(深圳)有限公司 自动问答方法、装置、设备和计算机可读存储介质
WO2019071599A1 (en) * 2017-10-13 2019-04-18 Microsoft Technology Licensing, Llc PROVIDING AN ANSWER IN A SESSION

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019071599A1 (en) * 2017-10-13 2019-04-18 Microsoft Technology Licensing, Llc PROVIDING AN ANSWER IN A SESSION
CN108062388A (zh) * 2017-12-15 2018-05-22 北京百度网讯科技有限公司 人机对话的回复生成方法和装置
CN108038209A (zh) * 2017-12-18 2018-05-15 深圳前海微众银行股份有限公司 答案选择方法、装置和计算机可读存储介质
CN108829719A (zh) * 2018-05-07 2018-11-16 中国科学院合肥物质科学研究院 一种非事实类问答答案选择方法及系统
CN109408680A (zh) * 2018-10-08 2019-03-01 腾讯科技(深圳)有限公司 自动问答方法、装置、设备和计算机可读存储介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112580365A (zh) * 2020-11-05 2021-03-30 中科讯飞互联(北京)信息科技有限公司 篇章解析方法及电子设备、存储装置
CN112580365B (zh) * 2020-11-05 2024-06-11 科大讯飞(北京)有限公司 篇章解析方法及电子设备、存储装置
CN113706951A (zh) * 2021-08-26 2021-11-26 陕西万唯教育传媒有限公司 线上教育方法、系统及计算机存储介质
CN113792860A (zh) * 2021-09-15 2021-12-14 中国人民解放军陆军军医大学第二附属医院 基于常微分方程的gru网络模型及特征提取方法、装置

Similar Documents

Publication Publication Date Title
KR102194837B1 (ko) 지식기반 질문 응답 방법 및 장치
EP1433118B1 (en) System and method of face recognition using portions of learned model
Collins et al. A combined model of sensory and cognitive representations underlying tonal expectations in music: from audio signals to behavior.
KR101815438B1 (ko) 비감독 신경 리플레이, 학습 리파인먼트, 연관 및 기억 전달: 신경 연관 학습, 패턴 완성, 분리, 일반화 및 계층적 리플레이를 위한 방법들 및 장치
CN104598611B (zh) 对搜索条目进行排序的方法及系统
CN110232118A (zh) 一种新型的基于gru注意力机制的答案选择模型
CN108804677A (zh) 结合多层级注意力机制的深度学习问题分类方法及系统
CN110084610A (zh) 一种基于孪生神经网络的网络交易欺诈检测系统
CN108229718A (zh) 一种信息预测方法及装置
CN106295694A (zh) 一种迭代重约束组稀疏表示分类的人脸识别方法
CN109003625A (zh) 基于三元损失的语音情感识别方法及系统
CN109933792A (zh) 基于多层双向lstm和验证模型的观点型问题阅读理解方法
KR20140092881A (ko) 비감독 신경 리플레이, 학습 리파인먼트, 연관 및 기억 전달: 신경 성분 리플레이를 위한 방법들 및 장치
CN107145514A (zh) 基于决策树和svm混合模型的中文句型分类方法
CN110852181A (zh) 基于注意力机制卷积神经网络钢琴乐谱难度识别方法
CN111563373A (zh) 聚焦属性相关文本的属性级情感分类方法
CN110033094A (zh) 一种基于扰动样本的模型训练方法和装置
CN112884150A (zh) 一种预训练模型知识蒸馏的安全性增强方法
Duan Automatic generation and evolution of personalized curriculum based on genetic algorithm
CN109325125A (zh) 一种基于cnn优化的社交网络谣言方法
CN116910185B (zh) 模型训练方法、装置、电子设备及可读存储介质
Ledesma et al. Feature selection using artificial neural networks
Lattner et al. Learning Musical Relations using Gated Autoencoders
Chen et al. LDAnet: a discriminant subspace for metric-based few-shot learning
CN112632291B (zh) 本体概念增强的归纳式图谱表征方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
AD01 Patent right deemed abandoned
AD01 Patent right deemed abandoned

Effective date of abandoning: 20220603