CN108415977A - 一个基于深度神经网络及强化学习的生成式机器阅读理解方法 - Google Patents

一个基于深度神经网络及强化学习的生成式机器阅读理解方法 Download PDF

Info

Publication number
CN108415977A
CN108415977A CN201810131702.1A CN201810131702A CN108415977A CN 108415977 A CN108415977 A CN 108415977A CN 201810131702 A CN201810131702 A CN 201810131702A CN 108415977 A CN108415977 A CN 108415977A
Authority
CN
China
Prior art keywords
text
vector
word
decoder
penalty values
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810131702.1A
Other languages
English (en)
Other versions
CN108415977B (zh
Inventor
朱国轩
王家兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201810131702.1A priority Critical patent/CN108415977B/zh
Publication of CN108415977A publication Critical patent/CN108415977A/zh
Application granted granted Critical
Publication of CN108415977B publication Critical patent/CN108415977B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一个基于深度神经网络及强化学习的生成式机器阅读理解方法,该方法通过结合注意力机制的深层神经网络来对文本和问题进行编码,形成融合了问题信息的文本向量表示之后,再通过单向LSTM解码器进行解码,逐步生成对应的答案文本。本发明公开的阅读理解方法融合了抽取式模型和生成式模型的优点,采用多任务联合优化的方式进行训练,训练过程中同时还使用了强化学习方法,有利于生成更加准确而流畅的答案文本。

Description

一个基于深度神经网络及强化学习的生成式机器阅读理解 方法
技术领域
本发明涉及自然语言处理技术领域,具体涉及一个基于深度神经网络及强化学习的生成式机器阅读理解方法。
背景技术
机器阅读理解作为自然语言处理的一个子领域,在近年来受到了极高的关注的同时也取得了长足的发展。更丰富的数据以及更加多样、先进的模型的出现,使得机器能更好地处理自然语言文本输入,并在一定程度上能够就针对输入文本提出的相关问题作出回答。这对于构建更加高级的自然语言处理应用,如自动问答(QA)、对话系统(DialogueSystem),提供更加智能、高效、个性化的搜索引擎服务,乃至于构建真正的强人工智能,都具有重要的基础意义。
目前,主流的机器阅读理解技术研究大多数基于斯坦福大学发表的SQuAD数据集(Rajpurkar P,Zhang J,Lopyrev K,et al.SQuAD:100,000+Questions for MachineComprehension of Text[C]//Proceedings of the 2016 Conference on EmpiricalMethods in Natural Language Processing,2016:2383–2392)进行,该数据集的特点是问题的标准答案都被设计为文档中的一个片段。因而基于该数据集设计的模型均属于抽取式模型,仅能够完成从原文本中获取关键片段作为答案的任务。而由微软研究院发表的另外一个阅读理解数据集MS MARCO(Nguyen T,Rosenberg M,Song X,et al.MS MARCO:A HumanGenerated MAchine Reading COmprehension Dataset[J].arXiv preprint arXiv:1611.09268,2016),则要求模型不仅仅能够抽取文本中的关键片段,而是需要通过对文本语义进行一定的归纳,生成符合自然语言形式的答案。显然,生成式模型比起抽取式模型而言,更符合实际应用中的需求。现在对生成式机器阅读模型的研究还较少。论文“ChuanqiT,et al.S-Net:From Answer Extraction to Answer Generation for Machine ReadingComprehension[J].arXiv preprint arXiv:1706.04815,2017”提出的S-NET模型采取了先抽取再合成的方法,能够更好地生成符合自然语言形式的答案,但其抽取方法存在缺点,无法同时利用文本中的多个有效信息片段。而论文“Rajarshee Mitra.An Abstractiveapproach to Question Answering[J].arXiv preprint arXiv:1711.06238,2017”提出的模型则直接采用生成方法,模型更为简化,却又失去了抽取式模型标记突出原文中有效消息的优点。
发明内容
本发明的目的是为了解决现有技术中的上述缺陷,提供一个基于深度神经网络及强化学习的生成式机器阅读理解方法,该方法按照编码器-解码器结构设计,其中,编码器部分不进行单独训练,而是通过多任务联合训练的形式,与解码器一同训练;解码器部分采用文本摘要生成方法,在训练阶段,解码器同时生成两个文本序列,并分别采用监督学习及强化学习方法进行训练。
本发明的目的可以通过采取如下技术方案达到:
一个基于深度神经网络及强化学习的生成式机器阅读理解模型,所述方法包括以下步骤:
S1、对文本及问题中的句子进行分词、词性标注、命名实体识别等预处理,将单词映射成词表当中对应的词向量,并与词性及命名实体类型的特征向量拼接在一起,形成文本和问题的初始特征向量表示;
S2、将文本与问题的向量表示分别通过两个多层BiLSTM进行处理,将各层的正向及反向输出全部拼接在一起,从而学习到文本和问题浅层和深层特征表示的组合;
S3、通过文档-问题分层注意力机制将问题的向量表示融合到文本的向量表示当中去,然后再次通过BiLSTM对文本和问题进行编码,形成文本和问题的最终特征向量表示;
S4、通过注意力机制,对问题中各单词的表示进行加权组合,形成一个与问题长度无关的向量。通过该向量与文本的最终向量表示做内积,抽取出文本当中能够用于回答问题的信息片段。再次通过注意力机制,对文本中的这些信息片段进行加权组合,形成一个与文本长度无关的向量,作为解码器的初始隐状态输入。
S5、使用一个单向LSTM作为解码器,并以文本的最终特征向量表示作为其输入序列,按照序列到序列(Seq2Seq)的方式逐个单词地生成对应的答案文本。
进一步地,步骤S1中所述的文本和问题的初始特征向量表示,除了包含词向量和词性、命名实体类型特征向量外,还可以根据实际数据的特点和应用的需要,加入例如文本单词和问题单词的匹配度特征、单词的词频特征等各种特征。
进一步地,步骤S3中所述的通过分层注意力机制进行文本-问题的向量表示融合,在计算各层注意力权重时,所使用的文本和问题向量均为前面产生的所有层次特征向量的拼接,而各层之间使用的注意力函数参数又是独立、各不相同的,所以在进行向量融合时,各层分别按照各自的注意力权重计算结果进行融合。
进一步地,步骤S4中所述的用问题的注意力加权组合向量与文本的最终向量表示做内积,其结果再通过一个softmax函数可转化为一个概率分布。优化该概率分布,使文本中用于回答问题的有效信息片段的概率相应增大,作为模型多任务联合训练的优化目标之一,将与解码器的优化目标相结合,进行共同优化训练。
进一步地,步骤S4所述的单向LSTM解码器,在序列生成的每一步当中,除了利用上一步的隐状态输出之外,还将通过注意力机制,对原文本的最终特征向量表示做加权组合并与上一步的隐状态输出拼接在一起,再经过一个非线性的变换之后,再作为该步的隐状态输入。
进一步地,步骤S5中所述的单向LSTM解码器,在序列生成的每一步当中,如果遇到词表中不存在合适的生成词的情况,还将通过复制机制,从原文本当中选择最合适的词作为该步的生成词。该选择可以通过一个作用于原文本向量表示上的softmax分类器实现。
进一步地,步骤S5中所述的单向LSTM解码器,在训练过程当中,同时生成两个序列。其中一个序列通过强制监督学习进行训练,目的是为了训练解码器能够生成与标准答案一模一样的文本序列。而另外一个序列则通过强化学习方法进行训练,目的是为了训练解码器能够生成与标准答案不完全相同,但又能够正确流畅地回答问题的答案。
本发明相对于现有技术具有如下的优点及效果:
1)本发明公开的阅读理解方法在文本和问题的原始特征表示当中,加入了更多语义特征,有利于提取文本中的关键信息。相对于一般的抽取式方法,本发明的方法不片面强调抽取文本中最能够回答问题某个连续片段,而是同时考虑了所有包含用于回答问题的信息块,以此为目标进行优化,有助于生成聚合多个离散片段信息的回答。
2)另外,通过使用强化学习方法进行训练,使得本发明方法的优化目标更具灵活性,有利于生成符合自然语言规律的正确回答。
3)最后,本发明方法通过将多部分的Loss结合,进行多任务同时优化训练,相对于多阶段训练的方法而言,简化了训练过程。
附图说明
图1是本发明描述的方法流程结构图;其中,
图1(a)是编码器部分的结构图,其中部分输出作为解码器的输入;
图1(b)是解码器部分的结构图,其中包含编码器的部分输出。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
本实施例描述了一个基于深度神经网络及强化学习的生成式机器阅读理解模型,其具体实现包括以下步骤:
步骤R1、对文本及问题中的句子进行分词、词性标注、命名实体识别等预处理,将单词映射成词表当中对应的词向量(通常使用GloVe词向量或者再与CoVe词向量相结合)。同时,对每个单词,按照其词性特征与命名实体类别特征,也将各特征映射到一个低维的特征向量,与词向量拼接在一起。另外,对于文本当中的每个单词,根据其与问题当中单词的匹配程度,再增加两个特征:
1)精确匹配特征,表示为:β(pi)=II(pi∈q),即当文本中的某个单词pi出现在问题q当中时,特征值为1,否则为0;
2)模糊匹配特征,表示为:
其中,分别表示文本及问题当中某个单词的词向量,f(·)表示单层全连接层接ReLU激活函数。该特征反映了文本中某个单词pi与问题q中各个单词的相似度。
将词向量与额外的特征向量表示拼接在一起,形成文本和问题的向量表示。
步骤R2、对于训练数据中的文本,通过遍历搜索选择出文本中与标准答案匹配度(可以根据BLEU或者ROUGE-L等标准计算)最高的片段作为关键片段,作为编码器部分在多任务训练当中的训练目标答案。
步骤R3、将文本与问题的向量表示分别通过两个多层BiLSTM进行处理,将各层的正向及反向输出全部拼接在一起,从而学习到文本和问题浅层和深层特征表示的组合。
步骤R4、将步骤R3中得到的问题的多层特征向量表示通过另外一个BiLSTM进行聚合,获得问题的最终特征向量表示,然后通过注意力机制,对问题中各单词的表示进行加权组合,形成一个与问题长度无关的向量。
步骤R5、通过分层注意力机制将步骤R3和步骤R4中得到的问题的各层特征表示融合到文本的特征表示当中。其中注意力权重按照以下方式计算:
其中,k表示相应层的标号,各层之间的相似度计算函数Sk各不相同,则分别代表步骤R1和步骤R3当中文本和问题中各个单词对应的起始向量表示及多层特征表示的拼接。
在计算出注意力权重之后,各层分别按照以下方式计算融合问题信息的文本向量表示:
其中分别代表步骤R3当中得到的文本和问题中的各个单词的第k层特征表示,则代表同一步骤中得到的第k层的注意力权重。
这种方法允许各层独自进行信息融合,不互相干扰,增强了特征表达能力,而在计算相似度时又同时考虑到了文本和问题的各层信息。
步骤R6、将步骤R1、步骤R3、步骤R5中得到的各阶段的文本向量表示全部拼接在一起,再通过另外一个BiLSTM进行聚合,获得文本的最终特征向量表示。这个最终向量表示与步骤R4中得到的经过加权组合的问题的向量表示做内积,再接上softmax函数,将文本中的每一个单词映射到一个归一化的概率表示,表示每个单词出现在答案当中的概率大小。根据步骤R2中选择训练文本的关键片段,设定优化目标为增大关键片段中单词的概率,相应降低其它单词的概率。通过计算Cross Entropy Loss,得到的损失值Le作为多任务训练当中的一个优化目标。
步骤R7、将步骤R6中得到的文本的最终向量表示与步骤R4中得到的经过加权组合的问题的向量表示做内积,再接上softmax函数,将文本中的每一个单词映射到一个归一化概率表示。按照该归一化概率对文本的表示进行加权组合,得到一个与文本的长度无关的向量表示。
步骤R8、以步骤R7中得到文本向量表示作为解码器LSTM的初始隐状态,通过解码器同时生成两个序列。其中一个序列通过强制监督学习进行训练,目的是为了训练解码器能够生成与标准答案一模一样的文本序列。在生成过程中,每一步的输入均为标准答案中上一步对应的词,输出为softmax分类概率,代表该步生成的词为词表中某个词的概率,以标准答案为目标序列,通过计算Cross Entropy Loss,得到损失值Lt。而另外一个序列则通过强化学习方法进行训练,目的是为了训练解码器能够生成与标准答案不完全相同,但又能够正确流畅地回答问题的答案。与监督学习的不同之处在于,生成序列时每一步的输入均为上一步解码器的输出,在整个序列生成后,根据BLEU或者ROUGE-L等评价标准计算该序列的Reward,并以提高Reward作为训练目标,通过Policy Gradient方法可以计算得到损失值Lr。将两个生成序列的损失值按一定比例组合得到解码器的Loss:
Ls=γ′Lt+(1-γ′)Lr
其中Lt为强制监督学习过程的损失值,Lr为强化学习过程的损失值,γ′是一个0-1之间的值,用于控制两部分损失值的比例,Ls则代表解码器部分的总损失值。
步骤R9、将编码器中的损失值与解码器中的损失值按一定比例组合得到总的Loss:
L=γLe+(1-γ)Ls
其中Le代表步骤R6中计算得到的编码器部分的损失值。Ls代表步骤R8中计算得到的解码器部分的损失值。γ是一个0-1之间的值,用于控制两部分损失值的比例。L则表示模型整体的损失值。
然后可以通过SGD+Momentum,AdaDelta或者Adam等各种基于梯度下降原理的优化器来对模型进行多任务联合训练优化。
步骤R10、当得到训练好的模型之后,在将模型用于答案生成时,解码器还会通过Beam Search方法搜索多个可能的文本序列,在合理增加计算量的范围内提高答案生成的准确度。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (8)

1.一个基于深度神经网络及强化学习的生成式机器阅读理解方法,其特征在于,所述的生成式机器阅读理解方法包括下列步骤:
S1、对文本及问题中的句子进行预处理,所述的预处理包括分词、词性标注、命名实体识别,将单词映射成词表当中对应的词向量,并与词性及命名实体类型的特征向量拼接在一起,形成文本和问题的初始特征向量表示;
S2、将文本与问题的向量表示分别通过两个多层BiLSTM进行处理,将各层的正向及反向输出全部拼接在一起,从而学习到文本和问题浅层和深层特征表示的组合;
S3、通过文档-问题分层注意力机制将问题的向量表示融合到文本的向量表示当中去,然后再次通过BiLSTM对文本和问题进行编码,形成文本和问题的最终特征向量表示;
S4、通过注意力机制,对问题中各单词的表示进行加权组合,形成一个与问题长度无关的向量,通过该向量与文本的最终向量表示做内积,抽取出文本当中能够用于回答问题的信息片段,再次通过注意力机制,对文本中的这些信息片段进行加权组合,形成一个与文本长度无关的向量,作为解码器的初始隐状态输入;
S5、使用一个单向LSTM作为解码器,并以文本的最终特征向量表示作为其输入序列,按照序列到序列的方式逐个单词地生成对应的答案文本。
2.根据权利要求1所述的一个基于深度神经网络及强化学习的生成式机器阅读理解方法,其特征在于,所述的文本和问题的初始特征向量表示还包括文本单词和问题单词的匹配度特征、单词的词频特征。
3.根据权利要求1所述的一个基于深度神经网络及强化学习的生成式机器阅读理解方法,其特征在于,对于文本当中的每个单词,根据其与问题当中单词的匹配程度,增加特征如下:
1)精确匹配特征,表示为:即当文本中的某个单词pi出现在问题q当中时,特征值为1,否则为0;
2)模糊匹配特征,表示为:
其中,分别表示文本及问题当中某个单词的词向量,f(·)表示单层全连接层接ReLU激活函数,该特征反映文本中某个单词pi与问题q中各个单词的相似度;
将词向量与额外的特征向量表示拼接在一起,形成文本和问题的向量表示。
4.根据权利要求1所述的一个基于深度神经网络及强化学习的生成式机器阅读理解方法,其特征在于,所述的步骤S3过程如下:
S31、将步骤S2中得到的问题的多层特征向量表示通过另外一个BiLSTM进行聚合,获得问题的最终特征向量表示,然后通过注意力机制,对问题中各单词的表示进行加权组合,形成一个与问题长度无关的向量;
S32、通过分层注意力机制将步骤S2和步骤S31中得到的问题的各层特征表示融合到文本的特征表示当中,其中注意力权重按照以下方式计算:
其中,k表示相应层的标号,各层之间的相似度计算函数Sk各不相同,则分别代表步骤S1和步骤S2当中文本和问题中各个单词对应的起始向量表示及多层特征表示的拼接;
S33、在计算出注意力权重之后,各层分别按照以下方式计算融合问题信息的文本向量表示:
其中分别代表步骤S2当中得到的文本和问题中的各个单词的第k层特征表示,则代表步骤S32中得到的第k层的注意力权重。
5.根据权利要求1所述的一个基于深度神经网络及强化学习的生成式机器阅读理解方法,其特征在于,所述的步骤S3中通过分层注意力机制进行文本-问题的向量表示融合,在计算各层注意力权重时,所使用的文本和问题向量均为前面步骤产生的所有层次特征向量的拼接,而各层之间使用的注意力函数参数又是独立、各不相同的,所以在进行向量融合时,各层分别按照各自的注意力权重计算结果进行融合。
6.根据权利要求1所述的一个基于深度神经网络及强化学习的生成式机器阅读理解方法,其特征在于,所述的步骤S4中用问题的注意力加权组合向量与文本的最终向量表示做内积,其结果再通过一个softmax函数可转化为一个概率分布;优化该概率分布,使文本中用于回答问题的有效信息片段的概率相应增大,作为模型多任务联合训练的优化目标之一,将与解码器的优化目标相结合,进行共同优化训练。
7.根据权利要求1所述的一个基于深度神经网络及强化学习的生成式机器阅读理解方法,其特征在于,所述的步骤S5过程如下:
S51、以步骤S4中得到文本向量表示作为解码器LSTM的初始隐状态,通过解码器同时生成两个序列,其中一个序列通过强制监督学习进行训练,在生成过程中,每一步的输入均为标准答案中上一步对应的词,输出为softmax分类概率,代表该步生成的词为词表中某个词的概率,以标准答案为目标序列,通过计算Cross Entropy Loss,得到损失值Lt;另外一个序列则通过强化学习方法进行训练,生成序列时每一步的输入均为上一步解码器的输出,在整个序列生成后,根据BLEU或者ROUGE-L评价标准计算该序列的Reward,并以提高Reward作为训练目标,通过Policy Gradient方法计算得到损失值Lr
将两个生成序列的损失值按一定比例组合得到解码器的Loss,即Ls
Ls=γ′Lt+(1-γ′)Lr
其中Lt为强制监督学习过程的损失值,Lr为强化学习过程的损失值,γ′是一个0-1之间的值,用于控制两部分损失值的比例,Ls则代表解码器部分的总损失值;
S52、将编码器中的损失值与解码器中的损失值按一定比例组合得到总的Loss,即L:
L=γLe+(1-γ)Ls
其中Le代表编码器部分的损失值,即步骤S4中用问题的注意力加权组合向量与文本的最终向量表示做内积,其结果再通过一个softmax函数可转化为一个概率分布,优化该概率分布时计算得到的损失值,Ls则代表解码器部分的损失值,γ是一个0-1之间的值,用于控制两部分损失值的比例,L则表示模型整体的损失值;
然后通过基于梯度下降原理的优化器来对模型进行多任务联合训练优化;
S53、当得到训练好的模型之后,在将模型用于答案生成时,解码器还会通过BeamSearch方法搜索多个可能的文本序列,在合理增加计算量的范围内提高答案生成的准确度。
8.根据权利要求7所述的一个基于深度神经网络及强化学习的生成式机器阅读理解方法,其特征在于,
所述的基于梯度下降原理的优化器包括:SGD+Momentum、AdaDelta或者Adam。
CN201810131702.1A 2018-02-09 2018-02-09 一个基于深度神经网络及强化学习的生成式机器阅读理解方法 Expired - Fee Related CN108415977B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810131702.1A CN108415977B (zh) 2018-02-09 2018-02-09 一个基于深度神经网络及强化学习的生成式机器阅读理解方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810131702.1A CN108415977B (zh) 2018-02-09 2018-02-09 一个基于深度神经网络及强化学习的生成式机器阅读理解方法

Publications (2)

Publication Number Publication Date
CN108415977A true CN108415977A (zh) 2018-08-17
CN108415977B CN108415977B (zh) 2022-02-15

Family

ID=63128029

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810131702.1A Expired - Fee Related CN108415977B (zh) 2018-02-09 2018-02-09 一个基于深度神经网络及强化学习的生成式机器阅读理解方法

Country Status (1)

Country Link
CN (1) CN108415977B (zh)

Cited By (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109271493A (zh) * 2018-11-26 2019-01-25 腾讯科技(深圳)有限公司 一种语言文本处理方法、装置和存储介质
CN109271483A (zh) * 2018-09-06 2019-01-25 中山大学 基于递进式多判别器的问题生成方法
CN109299273A (zh) * 2018-11-02 2019-02-01 广州语义科技有限公司 基于改进seq2seq模型的多源多标签文本分类方法及其系统
CN109344234A (zh) * 2018-09-06 2019-02-15 和美(深圳)信息技术股份有限公司 机器阅读理解方法、装置、计算机设备和存储介质
CN109359191A (zh) * 2018-09-18 2019-02-19 中山大学 基于强化学习的句子语义编码方法
CN109408680A (zh) * 2018-10-08 2019-03-01 腾讯科技(深圳)有限公司 自动问答方法、装置、设备和计算机可读存储介质
CN109543009A (zh) * 2018-10-17 2019-03-29 龙马智芯(珠海横琴)科技有限公司 文本相似度评估系统及文本相似度评估方法
CN109598334A (zh) * 2018-12-03 2019-04-09 中国信息安全测评中心 一种样本生成方法及装置
CN109658270A (zh) * 2018-12-19 2019-04-19 前海企保科技(深圳)有限公司 一种基于保险产品阅读理解的核赔系统及方法
CN109657226A (zh) * 2018-09-20 2019-04-19 北京信息科技大学 多联结注意力的阅读理解模型、系统及方法
CN109657246A (zh) * 2018-12-19 2019-04-19 中山大学 一种基于深度学习的抽取式机器阅读理解模型的建立方法
CN109685212A (zh) * 2018-12-14 2019-04-26 安徽省泰岳祥升软件有限公司 一种机器阅读理解模型的分阶段训练方法及装置
CN109684452A (zh) * 2018-12-25 2019-04-26 中科国力(镇江)智能技术有限公司 一种基于答案与答案位置信息的神经网络问题生成方法
CN109726281A (zh) * 2018-12-12 2019-05-07 Tcl集团股份有限公司 一种文本摘要生成方法、智能终端及存储介质
CN109766427A (zh) * 2019-01-15 2019-05-17 重庆邮电大学 一种基于堆叠Bi-LSTM网络和协同注意力的虚拟学习环境智能问答方法
CN109766407A (zh) * 2018-11-28 2019-05-17 科大讯飞股份有限公司 数据处理方法和系统
CN109766424A (zh) * 2018-12-29 2019-05-17 安徽省泰岳祥升软件有限公司 一种阅读理解模型训练数据的过滤方法及装置
CN109816111A (zh) * 2019-01-29 2019-05-28 北京金山数字娱乐科技有限公司 阅读理解模型训练方法以及装置
CN109871541A (zh) * 2019-03-06 2019-06-11 电子科技大学 一种适用于多语言多领域的命名实体识别方法
CN109885673A (zh) * 2019-02-13 2019-06-14 北京航空航天大学 一种基于预训练语言模型的自动文本摘要方法
CN109885671A (zh) * 2019-02-28 2019-06-14 重庆邮电大学 基于多任务学习的问答方法
CN109918560A (zh) * 2019-01-09 2019-06-21 平安科技(深圳)有限公司 一种基于搜索引擎的问答方法和装置
CN109933792A (zh) * 2019-03-11 2019-06-25 海南中智信信息技术有限公司 基于多层双向lstm和验证模型的观点型问题阅读理解方法
CN109947912A (zh) * 2019-01-25 2019-06-28 四川大学 一种基于段落内部推理和联合问题答案匹配的模型方法
CN109977428A (zh) * 2019-03-29 2019-07-05 北京金山数字娱乐科技有限公司 一种答案获取的方法及装置
CN109978022A (zh) * 2019-03-08 2019-07-05 腾讯科技(深圳)有限公司 一种医疗文本信息处理方法及装置、存储介质
CN109977404A (zh) * 2019-03-22 2019-07-05 深圳追一科技有限公司 基于深度学习的答案抽取方法、装置和存储介质
CN110046244A (zh) * 2019-04-24 2019-07-23 中国人民解放军国防科技大学 一种用于问答系统的答案选择方法
CN110083682A (zh) * 2019-04-19 2019-08-02 西安交通大学 一种基于多轮注意力机制的机器阅读理解答案获取方法
CN110162684A (zh) * 2019-05-07 2019-08-23 中国电子科技集团公司第二十八研究所 基于深度学习的机器阅读理解数据集构建以及评估方法
CN110164476A (zh) * 2019-05-24 2019-08-23 广西师范大学 一种基于多输出特征融合的blstm的语音情感识别方法
CN110222345A (zh) * 2019-06-18 2019-09-10 卓尔智联(武汉)研究院有限公司 完型填空答题方法、装置、电子设备及存储介质
CN110309305A (zh) * 2019-06-14 2019-10-08 中国电子科技集团公司第二十八研究所 基于多任务联合训练的机器阅读理解方法及计算机存储介质
CN110347898A (zh) * 2019-06-28 2019-10-18 北京牡丹电子集团有限责任公司宁安智慧工程中心 一种网络舆情监控的应答生成方法及系统
CN110609886A (zh) * 2019-09-18 2019-12-24 北京金山数字娱乐科技有限公司 一种文本分析方法及装置
CN110633472A (zh) * 2019-09-19 2019-12-31 电子科技大学 一种基于注意力与聚合机制的文章与问题的融合方法
CN110750630A (zh) * 2019-09-25 2020-02-04 北京捷通华声科技股份有限公司 一种生成式机器阅读理解方法、装置、设备及存储介质
CN110929024A (zh) * 2019-12-10 2020-03-27 哈尔滨工业大学 一种基于多模型融合的抽取式文本摘要生成方法
CN111078836A (zh) * 2019-12-10 2020-04-28 中国科学院自动化研究所 基于外部知识增强的机器阅读理解方法、系统、装置
CN111190997A (zh) * 2018-10-26 2020-05-22 南京大学 一种使用神经网络和机器学习排序算法的问答系统实现方法
CN111209738A (zh) * 2019-12-31 2020-05-29 浙江大学 一种联合文本分类的多任务命名实体识别方法
CN111382584A (zh) * 2018-09-04 2020-07-07 腾讯科技(深圳)有限公司 文本翻译方法、装置、可读存储介质和计算机设备
WO2020140403A1 (zh) * 2019-01-04 2020-07-09 平安科技(深圳)有限公司 文本分类方法、装置、计算机设备及存储介质
CN111612025A (zh) * 2019-02-25 2020-09-01 北京嘀嘀无限科技发展有限公司 描述模型训练方法、文本描述方法、装置及电子设备
CN112040076A (zh) * 2020-09-01 2020-12-04 中国平安财产保险股份有限公司 处理坐席上报文本的方法、装置、计算机设备和存储介质
CN112269868A (zh) * 2020-12-21 2021-01-26 中南大学 一种基于多任务联合训练的机器阅读理解模型的使用方法
CN112328555A (zh) * 2020-11-25 2021-02-05 国网重庆招标有限公司 一种招标文件的快速生成方法
CN112487811A (zh) * 2020-10-21 2021-03-12 上海旻浦科技有限公司 基于强化学习的级联信息提取系统及方法
CN112632216A (zh) * 2020-12-10 2021-04-09 深圳得理科技有限公司 一种基于深度学习的长文本检索系统及方法
CN113190659A (zh) * 2021-06-29 2021-07-30 中南大学 基于多任务联合训练的文言文机器阅读理解方法
CN113239703A (zh) * 2021-05-24 2021-08-10 清华大学深圳国际研究生院 基于多元因素融合的深层逻辑推理金融文本分析方法及系统
US20210256018A1 (en) * 2018-04-23 2021-08-19 Nippon Telegraph And Telephone Corporation Question responding apparatus, question responding method and program
CN113420833A (zh) * 2021-07-21 2021-09-21 南京大学 一种基于问题语义映射的视觉问答方法及装置
CN113435183A (zh) * 2021-06-30 2021-09-24 平安科技(深圳)有限公司 文本生成方法、装置及存储介质
CN113553837A (zh) * 2020-04-23 2021-10-26 北京金山数字娱乐科技有限公司 阅读理解模型的训练方法和装置、文本分析的方法和装置
CN113837386A (zh) * 2021-02-09 2021-12-24 宏龙科技(杭州)有限公司 一种基于多跳推理的检索方法及装置
CN114281982A (zh) * 2021-12-29 2022-04-05 中山大学 一种多模态融合技术的图书宣传摘要生成方法和系统
CN114840648A (zh) * 2022-03-21 2022-08-02 阿里巴巴(中国)有限公司 答案生成方法、装置及计算机程序产品
US11544259B2 (en) * 2018-11-29 2023-01-03 Koninklijke Philips N.V. CRF-based span prediction for fine machine learning comprehension

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106599933A (zh) * 2016-12-26 2017-04-26 哈尔滨工业大学 一种基于联合深度学习模型的文本情感分类方法
CN107301246A (zh) * 2017-07-14 2017-10-27 河北工业大学 基于超深卷积神经网络结构模型的中文文本分类方法
CN107368613A (zh) * 2017-09-05 2017-11-21 中国科学院自动化研究所 短文本情感分析方法及装置
CN107480206A (zh) * 2017-07-25 2017-12-15 杭州电子科技大学 一种基于多模态低秩双线性池化的图像内容问答方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106599933A (zh) * 2016-12-26 2017-04-26 哈尔滨工业大学 一种基于联合深度学习模型的文本情感分类方法
CN107301246A (zh) * 2017-07-14 2017-10-27 河北工业大学 基于超深卷积神经网络结构模型的中文文本分类方法
CN107480206A (zh) * 2017-07-25 2017-12-15 杭州电子科技大学 一种基于多模态低秩双线性池化的图像内容问答方法
CN107368613A (zh) * 2017-09-05 2017-11-21 中国科学院自动化研究所 短文本情感分析方法及装置

Cited By (84)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11693854B2 (en) * 2018-04-23 2023-07-04 Nippon Telegraph And Telephone Corporation Question responding apparatus, question responding method and program
US20210256018A1 (en) * 2018-04-23 2021-08-19 Nippon Telegraph And Telephone Corporation Question responding apparatus, question responding method and program
CN111382584A (zh) * 2018-09-04 2020-07-07 腾讯科技(深圳)有限公司 文本翻译方法、装置、可读存储介质和计算机设备
CN109271483A (zh) * 2018-09-06 2019-01-25 中山大学 基于递进式多判别器的问题生成方法
CN109344234A (zh) * 2018-09-06 2019-02-15 和美(深圳)信息技术股份有限公司 机器阅读理解方法、装置、计算机设备和存储介质
CN109359191A (zh) * 2018-09-18 2019-02-19 中山大学 基于强化学习的句子语义编码方法
CN109657226B (zh) * 2018-09-20 2022-12-27 北京信息科技大学 多联结注意力的阅读理解模型、系统及方法
CN109657226A (zh) * 2018-09-20 2019-04-19 北京信息科技大学 多联结注意力的阅读理解模型、系统及方法
CN109408680A (zh) * 2018-10-08 2019-03-01 腾讯科技(深圳)有限公司 自动问答方法、装置、设备和计算机可读存储介质
CN109543009B (zh) * 2018-10-17 2019-10-25 龙马智芯(珠海横琴)科技有限公司 文本相似度评估系统及文本相似度评估方法
CN109543009A (zh) * 2018-10-17 2019-03-29 龙马智芯(珠海横琴)科技有限公司 文本相似度评估系统及文本相似度评估方法
CN111190997A (zh) * 2018-10-26 2020-05-22 南京大学 一种使用神经网络和机器学习排序算法的问答系统实现方法
CN111190997B (zh) * 2018-10-26 2024-01-05 南京大学 一种使用神经网络和机器学习排序算法的问答系统实现方法
CN109299273A (zh) * 2018-11-02 2019-02-01 广州语义科技有限公司 基于改进seq2seq模型的多源多标签文本分类方法及其系统
CN109271493A (zh) * 2018-11-26 2019-01-25 腾讯科技(深圳)有限公司 一种语言文本处理方法、装置和存储介质
CN109271493B (zh) * 2018-11-26 2021-10-08 腾讯科技(深圳)有限公司 一种语言文本处理方法、装置和存储介质
CN109766407A (zh) * 2018-11-28 2019-05-17 科大讯飞股份有限公司 数据处理方法和系统
CN109766407B (zh) * 2018-11-28 2021-05-04 科大讯飞股份有限公司 数据处理方法和系统
US11544259B2 (en) * 2018-11-29 2023-01-03 Koninklijke Philips N.V. CRF-based span prediction for fine machine learning comprehension
CN109598334A (zh) * 2018-12-03 2019-04-09 中国信息安全测评中心 一种样本生成方法及装置
CN109726281A (zh) * 2018-12-12 2019-05-07 Tcl集团股份有限公司 一种文本摘要生成方法、智能终端及存储介质
CN109685212A (zh) * 2018-12-14 2019-04-26 安徽省泰岳祥升软件有限公司 一种机器阅读理解模型的分阶段训练方法及装置
CN109685212B (zh) * 2018-12-14 2022-12-16 安徽省泰岳祥升软件有限公司 一种机器阅读理解模型的分阶段训练方法及装置
CN109658270A (zh) * 2018-12-19 2019-04-19 前海企保科技(深圳)有限公司 一种基于保险产品阅读理解的核赔系统及方法
CN109657246A (zh) * 2018-12-19 2019-04-19 中山大学 一种基于深度学习的抽取式机器阅读理解模型的建立方法
CN109684452A (zh) * 2018-12-25 2019-04-26 中科国力(镇江)智能技术有限公司 一种基于答案与答案位置信息的神经网络问题生成方法
CN109766424B (zh) * 2018-12-29 2021-11-19 安徽省泰岳祥升软件有限公司 一种阅读理解模型训练数据的过滤方法及装置
CN109766424A (zh) * 2018-12-29 2019-05-17 安徽省泰岳祥升软件有限公司 一种阅读理解模型训练数据的过滤方法及装置
WO2020140403A1 (zh) * 2019-01-04 2020-07-09 平安科技(深圳)有限公司 文本分类方法、装置、计算机设备及存储介质
CN109918560B (zh) * 2019-01-09 2024-03-12 平安科技(深圳)有限公司 一种基于搜索引擎的问答方法和装置
CN109918560A (zh) * 2019-01-09 2019-06-21 平安科技(深圳)有限公司 一种基于搜索引擎的问答方法和装置
CN109766427A (zh) * 2019-01-15 2019-05-17 重庆邮电大学 一种基于堆叠Bi-LSTM网络和协同注意力的虚拟学习环境智能问答方法
CN109766427B (zh) * 2019-01-15 2021-04-06 重庆邮电大学 一种基于协同注意力的虚拟学习环境智能问答方法
CN109947912A (zh) * 2019-01-25 2019-06-28 四川大学 一种基于段落内部推理和联合问题答案匹配的模型方法
CN109947912B (zh) * 2019-01-25 2020-06-23 四川大学 一种基于段落内部推理和联合问题答案匹配的模型方法
CN109816111A (zh) * 2019-01-29 2019-05-28 北京金山数字娱乐科技有限公司 阅读理解模型训练方法以及装置
CN109885673A (zh) * 2019-02-13 2019-06-14 北京航空航天大学 一种基于预训练语言模型的自动文本摘要方法
CN111612025B (zh) * 2019-02-25 2023-12-12 北京嘀嘀无限科技发展有限公司 描述模型训练方法、文本描述方法、装置及电子设备
CN111612025A (zh) * 2019-02-25 2020-09-01 北京嘀嘀无限科技发展有限公司 描述模型训练方法、文本描述方法、装置及电子设备
CN109885671A (zh) * 2019-02-28 2019-06-14 重庆邮电大学 基于多任务学习的问答方法
CN109885671B (zh) * 2019-02-28 2022-10-14 重庆邮电大学 基于多任务学习的问答方法
CN109871541A (zh) * 2019-03-06 2019-06-11 电子科技大学 一种适用于多语言多领域的命名实体识别方法
CN109978022A (zh) * 2019-03-08 2019-07-05 腾讯科技(深圳)有限公司 一种医疗文本信息处理方法及装置、存储介质
CN109933792A (zh) * 2019-03-11 2019-06-25 海南中智信信息技术有限公司 基于多层双向lstm和验证模型的观点型问题阅读理解方法
CN109977404A (zh) * 2019-03-22 2019-07-05 深圳追一科技有限公司 基于深度学习的答案抽取方法、装置和存储介质
CN109977428B (zh) * 2019-03-29 2024-04-02 北京金山数字娱乐科技有限公司 一种答案获取的方法及装置
CN109977428A (zh) * 2019-03-29 2019-07-05 北京金山数字娱乐科技有限公司 一种答案获取的方法及装置
CN110083682A (zh) * 2019-04-19 2019-08-02 西安交通大学 一种基于多轮注意力机制的机器阅读理解答案获取方法
CN110083682B (zh) * 2019-04-19 2021-05-28 西安交通大学 一种基于多轮注意力机制的机器阅读理解答案获取方法
CN110046244B (zh) * 2019-04-24 2021-06-08 中国人民解放军国防科技大学 一种用于问答系统的答案选择方法
CN110046244A (zh) * 2019-04-24 2019-07-23 中国人民解放军国防科技大学 一种用于问答系统的答案选择方法
CN110162684A (zh) * 2019-05-07 2019-08-23 中国电子科技集团公司第二十八研究所 基于深度学习的机器阅读理解数据集构建以及评估方法
CN110164476A (zh) * 2019-05-24 2019-08-23 广西师范大学 一种基于多输出特征融合的blstm的语音情感识别方法
CN110309305A (zh) * 2019-06-14 2019-10-08 中国电子科技集团公司第二十八研究所 基于多任务联合训练的机器阅读理解方法及计算机存储介质
CN110309305B (zh) * 2019-06-14 2021-05-11 中国电子科技集团公司第二十八研究所 基于多任务联合训练的机器阅读理解方法及计算机存储介质
CN110222345A (zh) * 2019-06-18 2019-09-10 卓尔智联(武汉)研究院有限公司 完型填空答题方法、装置、电子设备及存储介质
CN110347898A (zh) * 2019-06-28 2019-10-18 北京牡丹电子集团有限责任公司宁安智慧工程中心 一种网络舆情监控的应答生成方法及系统
CN110609886A (zh) * 2019-09-18 2019-12-24 北京金山数字娱乐科技有限公司 一种文本分析方法及装置
CN110633472B (zh) * 2019-09-19 2021-03-12 电子科技大学 一种基于注意力与聚合机制的文章与问题的融合方法
CN110633472A (zh) * 2019-09-19 2019-12-31 电子科技大学 一种基于注意力与聚合机制的文章与问题的融合方法
CN110750630A (zh) * 2019-09-25 2020-02-04 北京捷通华声科技股份有限公司 一种生成式机器阅读理解方法、装置、设备及存储介质
CN111078836A (zh) * 2019-12-10 2020-04-28 中国科学院自动化研究所 基于外部知识增强的机器阅读理解方法、系统、装置
CN110929024B (zh) * 2019-12-10 2021-07-02 哈尔滨工业大学 一种基于多模型融合的抽取式文本摘要生成方法
CN110929024A (zh) * 2019-12-10 2020-03-27 哈尔滨工业大学 一种基于多模型融合的抽取式文本摘要生成方法
CN111078836B (zh) * 2019-12-10 2023-08-08 中国科学院自动化研究所 基于外部知识增强的机器阅读理解方法、系统、装置
CN111209738A (zh) * 2019-12-31 2020-05-29 浙江大学 一种联合文本分类的多任务命名实体识别方法
CN113553837A (zh) * 2020-04-23 2021-10-26 北京金山数字娱乐科技有限公司 阅读理解模型的训练方法和装置、文本分析的方法和装置
CN112040076B (zh) * 2020-09-01 2022-11-04 中国平安财产保险股份有限公司 处理坐席上报文本的方法、装置、计算机设备和存储介质
CN112040076A (zh) * 2020-09-01 2020-12-04 中国平安财产保险股份有限公司 处理坐席上报文本的方法、装置、计算机设备和存储介质
CN112487811A (zh) * 2020-10-21 2021-03-12 上海旻浦科技有限公司 基于强化学习的级联信息提取系统及方法
CN112328555A (zh) * 2020-11-25 2021-02-05 国网重庆招标有限公司 一种招标文件的快速生成方法
CN112328555B (zh) * 2020-11-25 2022-11-04 国家电网有限公司 一种招标文件的快速生成方法
CN112632216A (zh) * 2020-12-10 2021-04-09 深圳得理科技有限公司 一种基于深度学习的长文本检索系统及方法
CN112269868A (zh) * 2020-12-21 2021-01-26 中南大学 一种基于多任务联合训练的机器阅读理解模型的使用方法
CN113837386A (zh) * 2021-02-09 2021-12-24 宏龙科技(杭州)有限公司 一种基于多跳推理的检索方法及装置
CN113239703B (zh) * 2021-05-24 2023-05-02 清华大学深圳国际研究生院 基于多元因素融合的深层逻辑推理金融文本分析方法及系统
CN113239703A (zh) * 2021-05-24 2021-08-10 清华大学深圳国际研究生院 基于多元因素融合的深层逻辑推理金融文本分析方法及系统
CN113190659A (zh) * 2021-06-29 2021-07-30 中南大学 基于多任务联合训练的文言文机器阅读理解方法
CN113435183A (zh) * 2021-06-30 2021-09-24 平安科技(深圳)有限公司 文本生成方法、装置及存储介质
CN113435183B (zh) * 2021-06-30 2023-08-29 平安科技(深圳)有限公司 文本生成方法、装置及存储介质
CN113420833B (zh) * 2021-07-21 2023-12-26 南京大学 一种基于问题语义映射的视觉问答方法及装置
CN113420833A (zh) * 2021-07-21 2021-09-21 南京大学 一种基于问题语义映射的视觉问答方法及装置
CN114281982A (zh) * 2021-12-29 2022-04-05 中山大学 一种多模态融合技术的图书宣传摘要生成方法和系统
CN114840648A (zh) * 2022-03-21 2022-08-02 阿里巴巴(中国)有限公司 答案生成方法、装置及计算机程序产品

Also Published As

Publication number Publication date
CN108415977B (zh) 2022-02-15

Similar Documents

Publication Publication Date Title
CN108415977A (zh) 一个基于深度神经网络及强化学习的生成式机器阅读理解方法
CN111159368B (zh) 一种个性化对话的回复生成方法
CN108763284B (zh) 一种基于深度学习和主题模型的问答系统实现方法
WO2021077974A1 (zh) 一种个性化对话内容生成方法
CN109492227A (zh) 一种基于多头注意力机制和动态迭代的机器阅读理解方法
CN104050160B (zh) 一种机器与人工翻译相融合的口语翻译方法和装置
CN108268444A (zh) 一种基于双向lstm、cnn和crf的中文分词方法
CN108416065A (zh) 基于层级神经网络的图像-句子描述生成系统及方法
CN111274362B (zh) 一种基于transformer架构的对话生成方法
CN109783657A (zh) 基于受限文本空间的多步自注意力跨媒体检索方法及系统
CN106126507A (zh) 一种基于字符编码的深度神经翻译方法及系统
CN109753567A (zh) 一种结合标题与正文注意力机制的文本分类方法
CN108563624A (zh) 一种基于深度学习的自然语言生成方法
CN113435211B (zh) 一种结合外部知识的文本隐式情感分析方法
CN109271629A (zh) 基于强化学习的生成式文本摘要方法
CN108647191A (zh) 一种基于有监督情感文本和词向量的情感词典构建方法
CN112765333B (zh) 基于情感与提示词结合的自动对话生成方法及系统
CN111382257A (zh) 一种生成对话下文的方法和系统
CN114648016A (zh) 一种基于事件要素交互与标签语义增强的事件论元抽取方法
CN117216234A (zh) 基于人工智能的话术改写方法、装置、设备及存储介质
CN115841119A (zh) 一种基于图结构的情绪原因提取方法
CN116029283A (zh) 一种基于常识扩展的角色一致性对话生成方法
CN117632098B (zh) 一种基于aigc的建筑智能设计系统
CN109887499A (zh) 一种基于循环神经网络的语音自动断句算法
CN110297894A (zh) 一种基于辅助网络的智能对话生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20220215

CF01 Termination of patent right due to non-payment of annual fee