CN109740168B - 一种基于中医药知识图谱和注意力机制的中医典籍古文翻译方法 - Google Patents

一种基于中医药知识图谱和注意力机制的中医典籍古文翻译方法 Download PDF

Info

Publication number
CN109740168B
CN109740168B CN201910019916.4A CN201910019916A CN109740168B CN 109740168 B CN109740168 B CN 109740168B CN 201910019916 A CN201910019916 A CN 201910019916A CN 109740168 B CN109740168 B CN 109740168B
Authority
CN
China
Prior art keywords
vector
chinese medicine
traditional chinese
ancient
attention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910019916.4A
Other languages
English (en)
Other versions
CN109740168A (zh
Inventor
徐亨如
李思
徐雅静
高升
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Posts and Telecommunications
Original Assignee
Beijing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Posts and Telecommunications filed Critical Beijing University of Posts and Telecommunications
Priority to CN201910019916.4A priority Critical patent/CN109740168B/zh
Publication of CN109740168A publication Critical patent/CN109740168A/zh
Application granted granted Critical
Publication of CN109740168B publication Critical patent/CN109740168B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

本发明公开了一种基于中医药知识图谱和注意力机制的中医典籍古文翻译方法,属于信息处理领域。该方法的特征包括:基于注意力机制,用中医药知识图谱指导训练attention‑seq2seq中医典籍古文翻译模型。具体特征为:根据中医药知识图谱,将中医专业知识编码成图谱向量,用循环神经网络将中医古文编码得到古文向量;将古文向量作为另一个循环神经网络的初始参数,输入特定开始字符,开始解码;将上一时刻解码器的输出经过Attention模块得到attention向量,attention向量和图谱向量一起得到指导向量。指导向量和上一时刻的输出拼接作为下一时刻解码器的输入,直至解码器输出结束符。本发明通过中医药知识图谱引入了大量专业中医知识指导attention‑seq2seq模型,取得了很好的应用效果。

Description

一种基于中医药知识图谱和注意力机制的中医典籍古文翻译 方法
技术领域
本发明涉及信息处理领域,特别涉及一种基于中医药知识图谱和注意力机制的中医典籍古文翻译方法。
背景技术
机器翻译应用非常广泛,传统的机器翻译基于统计的方法,需要耗费大量的人力,且效果不好。目前主流的方法是基于神经网络的神经机器翻译。神经机器翻译分为两大流派,分别是基于seq2seq和基于纯注意力机制的神经翻译方法。seq2seq又称编码器-解码器结构,attention机制又称注意力机制。attention-seq2seq是基于编码器-解码器结构,在解码过程中,让解码器关注待翻译文本的特定文字,使得翻译时可以从待翻译文本中选择对该时刻最重要的子集进行额外关注,以提升翻译效果。纯注意力机制抛弃了seq2seq结构,完全使用注意力机制进行翻译。在中医典籍古文翻译领域,传统的seq2seq、attention-seq2seq、以及基于纯注意力机制的神经翻译方法效果均不好。传统的seq2seq结构将待翻译文本编码成一个定长向量,难以关注待翻译文本中的特定文字,难以生成符合专业中医知识的翻译结果。 attention-seq2seq以及基于纯注意力机制的神经翻译方法,由于目前中医古文翻译适用语料很少,在缺乏专业中医知识指导的情况下,难以训练复杂的神经网络模型。本发明为了解决上述问题,提出了一种基于中医药知识图谱和注意力机制的中医典籍古文翻译方法。知识图谱(Knowledge Graph)是一种基于图的知识表示与组织方法,它的核心部件是语义网络,其中的节点代表领域概念(实体),边代表概念之间的语义关系。中医药知识图谱目前网上已有相关的服务,包括中医经方知识图谱、中医临床知识图谱、中医特色诊疗技术知识图谱等。中医知识图谱实体涵盖疾病、中药、方剂、中药化学成分等,关系包括层次关系和相关关系两大类,并在语义网络的基础上添加了更多的知识内容。例如,在图谱中搜索“党参”,我们可以得到它的药性、药材基原、炮制方法、药理学等属性以及它的上下位关系(如“党参”的上位概念为“补气药”)和50多种相关关系(如“党参”与其相关花卉、相关生物和相关药品等的相关关系)。本发明在attention-seq2seq的基础上,基于注意力机制,用中医知识图谱给attention-seq2seq提供了专业的中医知识指导,使得神经网络可训练,翻译结果质量高。
发明内容
为了解决现有的技术问题,本发明提供了一种基于中医药知识图谱和注意力机制的中医典籍古文翻译方法,方案如下。
步骤一,基于中医药知识图谱,构造中医药实体词典和关系词典,并初始化实体向量和关系向量。实体类型包括疾病、中药、方剂、中药化学成分等,关系类型包括药味关系、方治关系、证治关系、机证关系等。
步骤二,建立中医古文词表和现代汉语词表,并将中医古文和现代汉语的每个词语都映射为相应的词向量,并将中医古文的词向量拼接,将输入的中医古文映射为一个中医古文矩阵。
步骤三,对中医古文,基于中医药实体词典和中医药知识图谱,得到其相邻的实体-关系对,并编码成图谱向量。
步骤四,编码阶段,使用一个循环神经网络对中医古文矩阵进行编码,将中医古文映射成古文向量。
步骤五,解码阶段,用步骤四编码器得到的古文向量,初始化另一个循环神经网络,拼接特定的开始符和零向量,作为解码器的输入,开始解码。
步骤六,上一时刻解码器的输出通过attention结构得到attention向量,attention向量和步骤三的图谱向量得到指导向量。指导向量和上一时刻的输出共同作为下一个时刻解码器的输入,每个时刻的输出经过一个前向神经网络,并在现代汉语词表上得到翻译结果,直到解码器输出的翻译结果为结束符,解码结束。
附图说明
图1是本发明提供的基于中医药知识图谱和注意力机制的古文翻译模型结构图。
图2为长短期记忆网络单元的内部结构图。
具体实施方式
接下来将对本发明的实施方案作更详细的描述。
图1是基于中医药知识图谱和注意力机制的古文翻译模型结构图,其中包括:
步骤S1:基于中医药知识图谱,构造中医药实体词典和中医药关系类型词典,初始化中医药实体向量和中医药关系向量;
步骤S2:将中医古文现代汉语分别映射成词向量,拼接中医古文词向量得到编码器输入;
步骤S3:对中医古文,基于中医药知识图谱,将其编码成图谱向量;
步骤S4:编码阶段,用循环神经网络编码中医古文信息;
步骤S5:输入特定的开始符,开始解码;
步骤S6:通过attention结构得到attention向量,结合图谱向量得到指导向量。拼接指导向量和解码器上一时刻的输出得到下一时刻解码器的输入,解码直至输出停止符。
下面对第一部分的每个步骤进行具体的说明:
步骤S1:基于中医药知识图谱,构造中医药实体词典和中医药关系词典,初始化中医药实体向量和中医药关系向量。如图1所示,图中是中医药知识图谱的一部分,该图包含的实体有“心”、“当归”、“甘”、“温”、“养心汤”、“心血虚症”、“心血虚”、“补血养心”和“心血失养”,包含的关系有“药味关系”、“方药关系”、“方治关系”、“证治关系”、“药性关系”和“机证关系”。针对整个中医药知识图谱,构造中医药实体词典和中医药关系词典。假设中医药实体词典共有实体S个,那么中医药实体向量矩阵可以表示为一个S*k的矩阵,其中k表示词向量的维度,每一个中医药实体可以用一个k维的向量进行表示,即fi。同理,每一个中医药关系可以用gi表示。
步骤S2:中医古文和现代汉语分别向量化。本发明首先分别针对中医古文和现代汉语,建立词语到词向量编号的映射字典,将文本中各个词语映射为相应的词语编号。建立词向量矩阵,每一行行号对应相应的词语编号,每一行代表一个词向量。假设中文词语共有N个,那么词向量矩阵可以表示为一个N*d的矩阵,其中d表示词向量的维度,每一个词语都可以用一个d维的向量进行表示。拼接中医古文词向量得到编码器输入。对于中医古文的输入文本,假设该句话中一共有n个词语,将该句中的所有词语的词向量拼接,可以得到编码器的输入矩阵,输入矩阵可以表示为x。
Figure BDA0001940417150000021
其中,xi表示文本中第i个单词的词向量,n表示文本长度即文本中词语个数,
Figure BDA0001940417150000022
表示向量的列连接。
步骤S3:对中医古文,基于中医药知识图谱,将其编码成图谱向量。针对待翻译的中医古文,基于步骤S1构造的中医药实体词典,提取出待翻译中医古文的实体entity。针对实体entity,基于中医药知识图谱,找到与该entity通过一条邻边相连的所有实体-关系集合。即对与entity相邻实体entityi,entityi与 entity之间的关系relationi可以构成entityi-relationi实体-关系对。所有的相邻实体-关系对可以构成大小为n′的实体-关系集合{entity1-relation1,…,entityn′-relationn′}。对特定的实体-关系对entity1-relation1,由S1初始化的中医药实体向量集合和中医药关系向量集合,得到实体向量g1和关系向量f1。将所有实体-关系对对应相乘求和,可以编码得到图谱向量C图谱
C图谱=g1*f1+g2*f2+…+gn′*fn′
步骤S4:编码阶段,用一个循环神经网络编码古文信息,记为LSTMe。循环神经网络可以很好的提取文本的上下文信息,循环神经网络可以关注到更长时间的依赖关系,更好的捕捉文章的整体信息。传统的循环神经网络会出现梯度消失及梯度爆炸的问题,而长短期记忆网络(LSTM)可以很好的解决这个问题。长短期记忆网络中利用输入门,忘记门,输出门可以更有效的控制学习到长距离的依赖关系。
图2给出了一种长短期记忆网络的单元结构,时刻t可以描述为:
it=σ(Wi·xt+Ui·ht-1+bi)
ft=σ(Wf·xt+Uf·ht-1+bf)
Figure BDA0001940417150000031
Figure BDA0001940417150000032
ot=σ(Wo·xt+Uo·ht-1+bo)
ht=ot⊙tanh(Ct)
其中x是输入的向量,C是记忆单元,i是输入门,f是忘记门,o是输出门。σ是sigmoid激活函数。⊙是数值对位相乘,·是矩阵相乘。W和U分别是输入和隐藏层的权重矩阵,b是偏置。
Figure BDA0001940417150000033
是记忆单元的候选值,由当前的输入与之前的隐藏层状态共同决定。Ct通过输入门和忘记门分别作用于记忆单元候选值和前一时刻记忆单元的值共同作用。LSTMe可以得到中医古文每一时刻的隐层[h1 h2 … hn],循环神经网络的最后时刻的隐层被认为包含了整个序列的所有信息,因此我们用LSTMe最后时刻的隐层,作为中医古文的向量表示。
C古文=hn
步骤S5:输入特定的开始符,开始解码。在步骤S4中我们得到了古文的语义表示向量C古文,该向量蕴含了该古文的所有信息。我们使用如步骤S4相同结构的长短期记忆网络LSTMd,作为解码器,并用C古文初始化LSTMd。我们设定两个特殊的符号,一个是开始符,另一个是结束符。首先列拼接开始符和全零向量,输入到LSTMd,得到第一个时刻的隐状态s1,此时,解码阶段开始。
步骤S6:解码直至输出停止符。对上一时刻解码器LSTMd的隐状态si-1和步骤S4得到的所有时刻的隐状态[h1 h2 … hn],经过Attention模块,得到attention向量,该attention向量会选择性的从 [h1 h2 … hn]向量序列中挑选一个子集输入解码器进行进一步处理。这样,在解码器产生每一个输出的时候,都能够做到充分利用输入序列携带的信息。Attention模块的具体方法如下,对S4得到的所有时刻隐层输出hj∈[h1 h2 …hn],算出hj与上一时刻解码器隐状态si-1的分数eij,a是前向神经网络,用来衡量得分。之后使用softmax得到解码器输出si-1在Tx输入隐藏状态中的注意力分配向量αij,然后按照αij对 [h1h2 … hn]向量进行加权,得到attention向量Ai。该attention向量蕴含了针对前一刻时刻解码器输出和输入序列的特定信息。
eij=a(si-1,hj)
Figure BDA0001940417150000034
Figure BDA0001940417150000035
之后,我们用Ai和步骤S3得到的图谱向量C图谱,经过前向神经网络,得到该时刻的指导向量
Figure BDA0001940417150000036
Figure BDA0001940417150000041
根据该时刻的指导向量
Figure BDA0001940417150000042
和已经生成的输出序列列拼接得到下一时刻解码器的输入xi,进行解码,得到该时刻解码器的隐状态。将该时刻的隐状态si和该时刻的指导向量
Figure BDA0001940417150000043
拼接,经过一个前向神经网络 (fc),并在现代汉语词表上经过softmax得到翻译结果,直到该翻译结果为另一个特殊字符结束符,解码结束。
Figure BDA0001940417150000044
si=LSTMd(xi)
Figure BDA0001940417150000045
Figure BDA0001940417150000046
以上结合附图对所提出的一种基于中医药知识图谱和注意力机制的中医典籍古文翻译方法及各模块的具体实施方式进行了阐述。通过以上实施方式的描述,所属领域的一般技术人员可以清楚的了解到本发明可借助软件加必需的通用硬件平台的方式来实现。
依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
以上所述的本发明实施方式,并不构成对发明保护范围的限定。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种基于中医药知识图谱和注意力机制的中医典籍古文翻译方法,其特征在于,所述方法包含以下结构和步骤:
(1)基于中医药知识图谱,构造中医药实体词典和关系词典,并初始化实体向量和关系向量;
(2)中医古文和现代汉语词语分别向量化,将词语转换为相应的词向量,将中医古文映射为一个中医古文矩阵;
(3)对中医古文,根据步骤(1)构造的中医药实体词典,得到中医药实体集合,再基于中医药知识图谱,得到该中医药实体相邻的实体-关系对集合,由步骤(1)构造的中医药实体向量矩阵和中医药关系向量矩阵,对应相乘求和得到图谱向量;
(4)编码阶段,使用循环神经网络对中医古文进行语义信息编码,将步骤(2)得到的中医古文矩阵作为编码器的输入,编码成古文向量;
(5)解码阶段,用步骤(4)得到的古文向量初始化用于解码的循环神经网络,使用特定的开始符,作为解码器第一时刻的输入,开始解码;
(6)解码直至输出停止符,前一时刻解码器的输出经过attention结构得到attention向量,结合步骤(3)的图谱向量得到指导向量,列拼接指导向量和解码器上一时刻的输出得到下一时刻解码器的输入,解码直至输出停止符。
2.如权利要求1所述的方法,其特征在于,所述步骤(1)具体包括:
(1.1)基于中医药知识图谱,构造中医药实体词典;
(1.2)基于中医药知识图谱,构造中医药关系词典;
(1.3)初始化中医药实体向量矩阵;
(1.4)初始化中医药关系向量矩阵。
3.如权利要求1所述的方法,其特征在于,所述步骤(2)具体包括:
(2.1)建立中医古文和现代汉语词表;
(2.2)根据词表,初始化中医古文词向量矩阵和现代汉语词向量矩阵,将中医古文和现代汉语词语分别向量化;
(2.3)将最大长度之内的每个中医古文词语的词向量列拼接,得到编码器的输入。
4.如权利要求1所述的方法,其特征在于,所述步骤(4)具体包括:
(4.1)初始化编码器的循环神经网络参数;
(4.2)循环神经单元对步骤(2)得到的中医古文矩阵进行处理,得到每一个时刻的隐层矩阵;
(4.3)由最后一个时刻循环神经网络的隐层矩阵,得到中医古文向量。
5.如权利要求1所述的方法,其特征在于,所述步骤(5)具体包括:
(5.1)用步骤(4)得到的中医古文向量初始化解码器的循环神经网络参数;
(5.2)将特定字符开始符向量化;
(5.3)拼接开始符向量和全零向量,作为解码器第一时刻的输入,开始解码。
6.如权利要求1所述的方法,其特征在于,所述步骤(6)具体包括:
(6.1)解码器上一时刻的输出和步骤(4)编码器得到的所有时刻隐层矩阵经过Attention模块,得到attention向量;
(6.2)列拼接attention向量和步骤(3)得到的图谱向量,再经过一个前向神经网络得到指导向量;
(6.3)指导向量和解码器上一时刻的输出列拼接,作为解码器该时刻的输入;
(6.4)列拼接解码器该时刻的输出和步骤(6.2)的指导向量,经过一个前向神经网络,得到翻译成的现代词语的每一个词的分数;
(6.5)将各分数经过softmax函数,得到该时刻的现代汉语翻译结果。
CN201910019916.4A 2019-01-09 2019-01-09 一种基于中医药知识图谱和注意力机制的中医典籍古文翻译方法 Active CN109740168B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910019916.4A CN109740168B (zh) 2019-01-09 2019-01-09 一种基于中医药知识图谱和注意力机制的中医典籍古文翻译方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910019916.4A CN109740168B (zh) 2019-01-09 2019-01-09 一种基于中医药知识图谱和注意力机制的中医典籍古文翻译方法

Publications (2)

Publication Number Publication Date
CN109740168A CN109740168A (zh) 2019-05-10
CN109740168B true CN109740168B (zh) 2020-10-13

Family

ID=66364078

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910019916.4A Active CN109740168B (zh) 2019-01-09 2019-01-09 一种基于中医药知识图谱和注意力机制的中医典籍古文翻译方法

Country Status (1)

Country Link
CN (1) CN109740168B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110175338B (zh) * 2019-05-31 2023-09-26 北京金山数字娱乐科技有限公司 一种数据处理方法及装置
CN110263353B (zh) * 2019-06-25 2023-10-13 北京金山数字娱乐科技有限公司 一种机器翻译方法及装置
CN110852331B (zh) * 2019-10-25 2023-09-08 中电科大数据研究院有限公司 一种结合bert模型的图像描述生成方法
CN111160564B (zh) * 2019-12-17 2023-05-19 电子科技大学 一种基于特征张量的中文知识图谱表示学习方法
CN111222347B (zh) * 2020-04-15 2020-07-28 北京金山数字娱乐科技有限公司 语句翻译模型的训练方法及装置、语句翻译方法及装置
CN111950303B (zh) * 2020-10-19 2021-01-08 平安科技(深圳)有限公司 医疗文本翻译方法、装置及存储介质
CN112287217B (zh) * 2020-10-23 2023-08-04 平安科技(深圳)有限公司 医学文献检索方法、装置、电子设备及存储介质
CN112906361A (zh) * 2021-02-09 2021-06-04 上海明略人工智能(集团)有限公司 文本数据的标注方法和装置、电子设备和存储介质
CN117271796B (zh) * 2023-09-20 2024-03-15 南京大经中医药信息技术有限公司 一种中医典籍知识库反馈修正方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1553378A (zh) * 2003-05-26 2004-12-08 北京永邦专利技术开发有限责任公司 具有自适应学习功能的智能化翻译系统
CN1652106A (zh) * 2004-02-04 2005-08-10 北京赛迪翻译技术有限公司 基于语言知识库的机器翻译方法与装置
CN107357789A (zh) * 2017-07-14 2017-11-17 哈尔滨工业大学 融合多语编码信息的神经机器翻译方法
CN107967262A (zh) * 2017-11-02 2018-04-27 内蒙古工业大学 一种神经网络蒙汉机器翻译方法
CN108108449A (zh) * 2017-12-27 2018-06-01 哈尔滨福满科技有限责任公司 一种面向医疗领域的基于多源异构数据问答系统及该系统的实现方法
CN108920472A (zh) * 2018-07-04 2018-11-30 哈尔滨工业大学 一种基于深度学习的机器翻译系统的融合系统及方法
CN108932232A (zh) * 2018-05-07 2018-12-04 内蒙古工业大学 一种基于lstm神经网络的蒙汉互译方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018023356A1 (en) * 2016-08-01 2018-02-08 Microsoft Technology Licensing, Llc Machine translation method and apparatus
CN106776711B (zh) * 2016-11-14 2020-04-07 浙江大学 一种基于深度学习的中文医学知识图谱构建方法
US10460044B2 (en) * 2017-05-26 2019-10-29 General Electric Company Methods and systems for translating natural language requirements to a semantic modeling language statement
CN109145190B (zh) * 2018-08-27 2021-07-30 安徽大学 一种基于神经机器翻译技术的局部引文推荐方法及系统
CN109740169B (zh) * 2019-01-09 2020-10-13 北京邮电大学 一种基于词典和seq2seq预训练机制的中医古籍翻译方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1553378A (zh) * 2003-05-26 2004-12-08 北京永邦专利技术开发有限责任公司 具有自适应学习功能的智能化翻译系统
CN1652106A (zh) * 2004-02-04 2005-08-10 北京赛迪翻译技术有限公司 基于语言知识库的机器翻译方法与装置
CN107357789A (zh) * 2017-07-14 2017-11-17 哈尔滨工业大学 融合多语编码信息的神经机器翻译方法
CN107967262A (zh) * 2017-11-02 2018-04-27 内蒙古工业大学 一种神经网络蒙汉机器翻译方法
CN108108449A (zh) * 2017-12-27 2018-06-01 哈尔滨福满科技有限责任公司 一种面向医疗领域的基于多源异构数据问答系统及该系统的实现方法
CN108932232A (zh) * 2018-05-07 2018-12-04 内蒙古工业大学 一种基于lstm神经网络的蒙汉互译方法
CN108920472A (zh) * 2018-07-04 2018-11-30 哈尔滨工业大学 一种基于深度学习的机器翻译系统的融合系统及方法

Also Published As

Publication number Publication date
CN109740168A (zh) 2019-05-10

Similar Documents

Publication Publication Date Title
CN109740168B (zh) 一种基于中医药知识图谱和注意力机制的中医典籍古文翻译方法
Cotterell et al. CoNLL-SIGMORPHON 2017 shared task: Universal morphological reinflection in 52 languages
CN107291693B (zh) 一种改进词向量模型的语义计算方法
Santos et al. Attentive pooling networks
CN109190113B (zh) 一种中医理论典籍的知识图谱构建方法
CN109740169B (zh) 一种基于词典和seq2seq预训练机制的中医古籍翻译方法
CN109669994A (zh) 一种健康知识图谱的构建方法及系统
CN110110330A (zh) 基于文本的关键词提取方法和计算机设备
Jin et al. Combining cnns and pattern matching for question interpretation in a virtual patient dialogue system
CN110457661A (zh) 自然语言生成方法、装置、设备及存储介质
WO2023035623A1 (zh) 基于人工智能的应答语料生成方法及相关设备
Seelawi et al. NSURL-2019 task 8: Semantic question similarity in arabic
Solyman et al. Proposed model for arabic grammar error correction based on convolutional neural network
CN115050481A (zh) 一种基于图卷积神经网络的中医方剂功效预测方法
Du et al. Hierarchical question-aware context learning with augmented data for biomedical question answering
Chen et al. Co-attention fusion based deep neural network for Chinese medical answer selection
Tan et al. Chinese medical named entity recognition based on Chinese character radical features and pre-trained language models
Jeong et al. Question Answering System for Healthcare Information based on BERT and GPT
CN116860947A (zh) 面向文本阅读理解的选择题生成方法、系统及存储介质
CN111813907A (zh) 一种自然语言问答技术中的问句意图识别方法
Belainine et al. End-to-end dialogue generation using a single encoder and a decoder cascade with a multidimension attention mechanism
CN111274826A (zh) 一种基于语义信息融合的低频词翻译方法
CN115905852A (zh) 基于预训练提示的故事生成方法、系统、存储介质和终端
Seelawi et al. Nsurl-2019 shared task 8: Semantic question similarity in arabic
Oura et al. Multimodal Deep Neural Network with Image Sequence Features for Video Captioning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant