CN107423437A - 一种基于对抗网络强化学习的问答模型优化方法 - Google Patents
一种基于对抗网络强化学习的问答模型优化方法 Download PDFInfo
- Publication number
- CN107423437A CN107423437A CN201710662815.XA CN201710662815A CN107423437A CN 107423437 A CN107423437 A CN 107423437A CN 201710662815 A CN201710662815 A CN 201710662815A CN 107423437 A CN107423437 A CN 107423437A
- Authority
- CN
- China
- Prior art keywords
- question
- answer
- mrow
- msub
- answering
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005457 optimization Methods 0.000 title claims abstract description 33
- 238000000034 method Methods 0.000 title claims abstract description 15
- 230000004044 response Effects 0.000 claims abstract description 23
- 230000003993 interaction Effects 0.000 claims abstract description 15
- 230000007246 mechanism Effects 0.000 claims abstract description 8
- 230000006870 function Effects 0.000 claims abstract description 7
- 230000003292 diminished effect Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 230000004069 differentiation Effects 0.000 abstract description 7
- 238000004364 calculation method Methods 0.000 abstract description 4
- 238000013461 design Methods 0.000 abstract description 4
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000013549 information retrieval technique Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005303 weighing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于对抗网络强化学习的问答模型优化方法,问答模型优化方法的原理是在知识库中多问一答以及一问多答题目,然后引入了对抗机制,即通过两套智能问答系统交替问答实现问答交互,基于强化学习机制,最终优化智能问答系统模型并具有奖励系统模型。本发明设计合理,定义了对抗问答交互的优化指标及其计算方式,包括易响应性、内容丰富性、主题演变性及语义连续性,并进一步定义了对抗问答模型优化的奖励函数,强化了学习,可以不断优化问答模型,提高问答交互的质量,提升用户体验。
Description
技术领域
本发明属于计算机程序领域,更具体地说,涉及一种基于对抗网络强化学习的问答模型优化方法。
背景技术
当今社会,信息技术飞速发展。随着人们在信息社会中对信息检索的迫切需求的增加,普通的信息检索系统己经无法满足用户的需要,而发展在信息检索技术之上的智能问答系统可以满足人们的这一需求。智能问答系统允许用户以自然语言的形式输入一个问句,最终返回给用户的也是自然语言形式的简短而准确的答案。
自动问答是当前自然语言处理和信息检索领域备受关注的一个研究方向。自动问答系统可以分为开放域自动问答和限定域自动问答。开放域是指不限定问题领域,用户随意提问,系统从海量数据中寻找答案;限定域是指系统事先声明,只能回答某一个领域的问题,其他领域问题无法回答。开放域自动问答是目前研究的热点。在开放领域的问答系统研宄中,人们着力于解决从一个给定的庞大语料库中回答那些针对该语料库提出的各种问题,即问答模型的构建。
最近出现的对话生成神经网络使得问答模型的构建更进一步,但目前的神经网络实现都存在一定的局限,即它们只考虑当前时刻的下一句响应如何生成,忽略了其对整个问答交互后续发展所产生的而影响,而问答的可持续交互性对于一个智能问答系统是十分关键的。
为此,一个有效的解决方法就是利用强化学习来对传统的对话生成神经网络模型进行优化改进。
发明内容
针对现有技术存在的不足,本发明的目的在于提供了一种基于对抗网络强化学习的问答模型优化方法,设计合理,定义了对抗问答交互的优化指标及其计算方式,包括易响应性、内容丰富性、主题演变性及语义连续性,并进一步定义了对抗问答模型优化的奖励函数,强化了学习,可以不断优化问答模型,提高问答交互的质量,提升用户体验。
为实现上述目的,本发明提供了如下技术方案:
一种基于对抗网络强化学习的问答模型优化方法,其特征在于:问答模型优化方法的原理是在知识库中多问一答以及一问多答题目,然后引入了对抗机制,即通过两套智能问答系统交替问答实现问答交互,基于强化学习机制,最终优化智能问答系统模型并具有奖励系统模型。
作为一种优化的技术方案,所述智能问答系统模型包括两个问答系统,两个问答系统分别表示为M以及N,初始时随机指定一个问题输入,接下来M和N交替问答;问答的时候,在第i轮问答中,M、N相应的应答分别表示为MAi+MQi、NAi+NQi,其中,NAi表示N对于MQi的应答,MAi+1表示M对于MQi的应答,问答交互进行;值得注意的是,MQi以及NQi有可能不存在,即M或N只应答而没有进一步提出问题,则相应的MAi+1以及MAi+1也不存在。
作为一种优化的技术方案,所述奖励系统模型包括无意义回答概率公式、内容丰富奖励公式、主题演变奖励公式、语义相似度奖励公式和最终的奖励公式;
无意义回答概率公式表示为,
其中,NS为集合S的大小,P(NAi+1|MQi)是当第i轮M输出问题MQi时,第i+1轮N的回答是NAi+1的概率,对集合S中所有响应遍历计算平均概率,就可以得到当前时刻问答模型产生无意义回答的概率;通过尽量让问答模型产生这样无意义回答的概率变小(即f1变大),可以实现较好的问答响应性;
内容丰富奖励公式表示为:
f2=lognNum(MQi)
其中,Num(MQi)表示MQi中有效关键词的个数,有效关键词为去除了停用词、冗余词以及完成同义词映射后的关键词;
主题演变奖励公式表示为:
其中,Num(MQi,MQi-1)表示MQi与MQi-1中共同存在的有效关键词的个数,Num(MQi)、Num(MQi-1)分别表示MQi、MQi-1中存在的有效关键词的个数;
语义相似度奖励公式表示为:
f3=Sim(MQi,NAi+1)
其中,MQi是第i轮M输出的问题,而NAi+1是第i+1轮N的回答,Sim(MQi,NAi+1)表示MQi和NAi+1的语义相似度;因此,问答的语义连续性是通过计算当前轮次的答案与上一轮次的问题间的语义相似度来衡量的;
最终的奖励公式表示为:
f=θ1*f1+θ2*f2+θ3*f3+θ4*f4
其中,θi为各指标相应的权值,θ1+θ2+θ3+θ4=1;
奖励函数作为衡量问答交互是否向着预先定义的优化目标发展的一个指标,可以用来指导问答模型的优化,使得问答交互朝着所定义的优化目标不断前进。
由于采用了上述技术方案,与现有技术相比,本发明设计合理,定义了对抗问答交互的优化指标及其计算方式,包括易响应性、内容丰富性、主题演变性及语义连续性,并进一步定义了对抗问答模型优化的奖励函数,强化了学习,可以不断优化问答模型,提高问答交互的质量,提升用户体验。
参照附图和实施例对本发明做进一步说明。
附图说明
图1为本发明一种实施例的对抗回答流程的流程图。
具体实施方式
实施例
一种基于对抗网络强化学习的问答模型优化方法,问答模型优化方法的原理是在知识库中多问一答以及一问多答题目,然后引入了对抗机制,即通过两套智能问答系统交替问答实现问答交互,基于强化学习机制,最终优化智能问答系统模型并具有奖励系统模型。
所述智能问答系统模型包括两个问答系统,两个问答系统分别表示为M以及N,初始时随机指定一个问题输入,接下来M和N交替问答。如图1所示,为本实施例的对抗回答流程,即:问答的时候,在第i轮问答中,M、N相应的应答分别表示为MAi+MQi、NAi+NQi,其中,NAi表示N对于MQi的应答,MAi+1表示M对于NQi的应答,问答交互进行;值得注意的是,MQi以及NQi有可能不存在,即M或N只应答而没有进一步提出问题,则相应的NAi+1以及MAi+1也不存在。
所述奖励系统模型包括无意义回答概率公式、内容丰富奖励公式、主题演变奖励公式、语义相似度奖励公式和最终的奖励公式。
易响应性是问答可持续进行的关键因素之一。当出现一些没有太多意义的问答响应时,如“我不知道你在说什么”等,一个对话就很难很好地被进行下去。本发明将知识库中存在的这类响应收集起来组成一个集合。无意义回答概率公式表示为,
其中,NS为集合S的大小,P(NAi+1|MQi)是当第i轮M输出问题MQi时,第i+1轮N的回答是NAi+1的概率,对集合S中所有响应遍历计算平均概率,就可以得到当前时刻问答模型产生无意义回答的概率;通过尽量让问答模型产生这样无意义回答的概率变小(即f1变大),可以实现较好的问答响应性。
内容丰富性是衡量问答质量的关键因素之一。一个好的问答响应应该包含较为丰富的信息,而不是简单的一个词或几个词。因此,如果M或者N在问答响应中出现了比较多的关键词的话,那么应该视作一种奖励。内容丰富奖励公式表示为:
f2=lognNum(MQi)
其中,Num(MQi)表示MQi中有效关键词的个数,有效关键词为去除了停用词、冗余词以及完成同义词映射后的关键词。
主题演变性是指在问答交互的过程中,其主题应该是逐渐改变的,即如果M以及N在逐轮问答响应的时候,如果都能持续贡献出新的信息,开辟新的主题的话,那么是有利于问答的持续发展的,与此同时也会减少循环问答的出现。因此,很自然地,如果M或者N在先后两轮问答中出现了比较多重合的关键词的话,那么这种重复就应该被视作一种惩罚。主题演变奖励公式表示为:
其中,Num(MQi,MQi-1)表示MQi与MQi-1中共同存在的有效关键词的个数,Num(MQi)、Num(MQi-1)分别表示MQi、MQi-1中存在的有效关键词的个数;
通过主题演变性的奖励,很容易促使问答系统产生各种跟问答语义无关的响应(因为主题演变性会促进引入更多主题,从而得到更大的奖励,而更多主题的引入,很容易导致其语义不相关),进而造成问答在语义上是不连贯的。因此,把问答响应和之前问题之间的语义相似度引入作为一个奖励。语义相似度奖励公式表示为:
f3=Sim(MQi,NAi+1)
其中,MQi是第i轮M输出的问题,而NAi+1是第i+1轮N的回答,Sim(MQi,NAi+1)表示MQi和NAi+1的语义相似度;因此,问答的语义连续性是通过计算当前轮次的答案与上一轮次的问题间的语义相似度来衡量的;
最后一步,将易响应性、内容丰富性、主题演变性以及语义连续性四个指标加权求和,可以得到最终的奖励函数。最终的奖励公式表示为:
f=θ1*f1+θ2*f2+θ3*f3+θ4*f4
其中,θi为各指标相应的权值,θ1+θ2+θ3+θ4=1;
奖励函数作为衡量问答交互是否向着预先定义的优化目标发展的一个指标,可以用来指导问答模型的优化,使得问答交互朝着所定义的优化目标不断前进。
本发明设计合理,定义了对抗问答交互的优化指标及其计算方式,包括易响应性、内容丰富性、主题演变性及语义连续性,并进一步定义了对抗问答模型优化的奖励函数,强化了学习,可以不断优化问答模型,提高问答交互的质量,提升用户体验。
本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (3)
1.一种基于对抗网络强化学习的问答模型优化方法,其特征在于:问答模型优化方法的原理是在知识库中多问一答以及一问多答题目,然后引入了对抗机制,即通过两套智能问答系统交替问答实现问答交互,基于强化学习机制,最终优化智能问答系统模型并具有奖励系统模型。
2.根据权利要求1所述的一种基于对抗网络强化学习的问答模型优化方法,其特征在于:所述智能问答系统模型包括两个问答系统,两个问答系统分别表示为M以及N,初始时随机指定一个问题输入,接下来M和N交替问答;问答的时候,在第i轮问答中,M、N相应的应答分别表示为MAi+MQi、NAi+NQi,其中,NAi表示N对于MQi的应答,MAi+1表示M对于NQi的应答,问答交互进行;值得注意的是,MQi以及NQi有可能不存在,即M或N只应答而没有进一步提出问题,则相应的NAi+1以及MAi+1也不存在。
3.根据权利要求2所述的一种基于对抗网络强化学习的问答模型优化方法,其特征在于:所述奖励系统模型包括无意义回答概率公式、内容丰富奖励公式、主题演变奖励公式、语义相似度奖励公式和最终的奖励公式;
无意义回答概率公式表示为,
<mrow>
<msub>
<mi>f</mi>
<mn>1</mn>
</msub>
<mo>=</mo>
<mo>-</mo>
<mfrac>
<mn>1</mn>
<msub>
<mi>N</mi>
<mi>S</mi>
</msub>
</mfrac>
<munder>
<mo>&Sigma;</mo>
<mrow>
<msub>
<mi>N</mi>
<mrow>
<mi>A</mi>
<mi>i</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>&Element;</mo>
<mi>S</mi>
</mrow>
</munder>
<mi>log</mi>
<mi>P</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>N</mi>
<mrow>
<mi>A</mi>
<mi>i</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>|</mo>
<msub>
<mi>M</mi>
<mrow>
<mi>Q</mi>
<mi>i</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
</mrow>
其中,Ns为集合S的大小,P(NAi+1|MQi)是当第i轮M输出问题MQi时,第i+1轮N的回答是NAi+1的概率,对集合S中所有响应遍历计算平均概率,就可以得到当前时刻问答模型产生无意义回答的概率;通过尽量让问答模型产生这样无意义回答的概率变小(即f1变大),可以实现较好的问答响应性;
内容丰富奖励公式表示为:
f2=lognNum(MQi)
其中,Num(MQi)表示MQi中有效关键词的个数,有效关键词为去除了停用词、冗余词以及完成同义词映射后的关键词;
主题演变奖励公式表示为:
<mrow>
<msub>
<mi>f</mi>
<mn>4</mn>
</msub>
<mo>=</mo>
<mo>-</mo>
<mi>l</mi>
<mi>o</mi>
<mi>g</mi>
<mfrac>
<mrow>
<mi>N</mi>
<mi>u</mi>
<mi>m</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>M</mi>
<mrow>
<mi>Q</mi>
<mi>i</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>M</mi>
<mrow>
<mi>Q</mi>
<mi>i</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>N</mi>
<mi>u</mi>
<mi>m</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>M</mi>
<mrow>
<mi>Q</mi>
<mi>i</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mo>*</mo>
<mi>N</mi>
<mi>u</mi>
<mi>m</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>M</mi>
<mrow>
<mi>Q</mi>
<mi>i</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mrow>
其中,Num(MQi,MQi-1)表示MQi与MQi-1中共同存在的有效关键词的个数,Num(MQi)、Num(MQi-1)分别表示MQi、MQi-1中存在的有效关键词的个数;
语义相似度奖励公式表示为:
f3=Sim(MQi,NAi+1)
其中,MQi是第i轮M输出的问题,而NAi+1是第i+1轮N的回答,Sim(MQi,NAi+1)表示MQi和NAi+1的语义相似度;因此,问答的语义连续性是通过计算当前轮次的答案与上一轮次的问题间的语义相似度来衡量的;
最终的奖励公式表示为:
f=θ1*f1+θ2*f2+θ3*f3+θ4*f4
其中,θi为各指标相应的权值,θ1+θ2+θ3+θ4=1;
奖励函数作为衡量问答交互是否向着预先定义的优化目标发展的一个指标,可以用来指导问答模型的优化,使得问答交互朝着所定义的优化目标不断前进。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710662815.XA CN107423437B (zh) | 2017-08-04 | 2017-08-04 | 一种基于对抗网络强化学习的问答模型优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710662815.XA CN107423437B (zh) | 2017-08-04 | 2017-08-04 | 一种基于对抗网络强化学习的问答模型优化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107423437A true CN107423437A (zh) | 2017-12-01 |
CN107423437B CN107423437B (zh) | 2020-09-01 |
Family
ID=60437287
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710662815.XA Expired - Fee Related CN107423437B (zh) | 2017-08-04 | 2017-08-04 | 一种基于对抗网络强化学习的问答模型优化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107423437B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108256065A (zh) * | 2018-01-16 | 2018-07-06 | 智言科技(深圳)有限公司 | 基于关系检测和强化学习的知识图谱推理方法 |
CN108846124A (zh) * | 2018-06-29 | 2018-11-20 | 北京百度网讯科技有限公司 | 训练方法、装置、计算机设备和可读存储介质 |
CN109460462A (zh) * | 2018-11-15 | 2019-03-12 | 中通天鸿(北京)通信科技股份有限公司 | 一种中文相似问题生成系统与方法 |
CN110019732A (zh) * | 2017-12-27 | 2019-07-16 | 杭州华为数字技术有限公司 | 一种智能问答方法以及相关装置 |
CN110866101A (zh) * | 2019-11-07 | 2020-03-06 | 昆明理工大学 | 一种基于近端策略优化与对抗学习的对话生成方法 |
CN110909147A (zh) * | 2019-12-02 | 2020-03-24 | 支付宝(杭州)信息技术有限公司 | 一种训练排序结果选择模型输出标准问法的方法和系统 |
CN110929085A (zh) * | 2019-11-14 | 2020-03-27 | 国家电网有限公司 | 基于元语义分解的电力客服留言生成模型样本处理系统及方法 |
WO2020224220A1 (zh) * | 2019-05-07 | 2020-11-12 | 平安科技(深圳)有限公司 | 基于知识图谱的问答方法、电子装置、设备及存储介质 |
CN112297012A (zh) * | 2020-10-30 | 2021-02-02 | 上海交通大学 | 一种基于自适应模型的机器人强化学习方法 |
WO2022083291A1 (en) * | 2020-10-21 | 2022-04-28 | International Business Machines Corporation | Training question-answer dialog system to avoid adversarial attacks |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105701253A (zh) * | 2016-03-04 | 2016-06-22 | 南京大学 | 中文自然语言问句语义化的知识库自动问答方法 |
US20170140275A1 (en) * | 2014-06-09 | 2017-05-18 | Cognitive Scale, Inc. | System for Refining Cognitive Insights Using Cognitive Graph Vectors |
CN106980652A (zh) * | 2017-03-03 | 2017-07-25 | 竹间智能科技(上海)有限公司 | 智能问答方法及系统 |
-
2017
- 2017-08-04 CN CN201710662815.XA patent/CN107423437B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170140275A1 (en) * | 2014-06-09 | 2017-05-18 | Cognitive Scale, Inc. | System for Refining Cognitive Insights Using Cognitive Graph Vectors |
CN105701253A (zh) * | 2016-03-04 | 2016-06-22 | 南京大学 | 中文自然语言问句语义化的知识库自动问答方法 |
CN106980652A (zh) * | 2017-03-03 | 2017-07-25 | 竹间智能科技(上海)有限公司 | 智能问答方法及系统 |
Non-Patent Citations (1)
Title |
---|
王坤峰等: ""生成式对抗网络GAN的研究进展与展望"", 《自动化学报》 * |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110019732A (zh) * | 2017-12-27 | 2019-07-16 | 杭州华为数字技术有限公司 | 一种智能问答方法以及相关装置 |
CN108256065A (zh) * | 2018-01-16 | 2018-07-06 | 智言科技(深圳)有限公司 | 基于关系检测和强化学习的知识图谱推理方法 |
CN108256065B (zh) * | 2018-01-16 | 2021-11-09 | 智言科技(深圳)有限公司 | 基于关系检测和强化学习的知识图谱推理方法 |
CN108846124A (zh) * | 2018-06-29 | 2018-11-20 | 北京百度网讯科技有限公司 | 训练方法、装置、计算机设备和可读存储介质 |
CN108846124B (zh) * | 2018-06-29 | 2022-05-17 | 北京百度网讯科技有限公司 | 训练方法、装置、计算机设备和可读存储介质 |
CN109460462B (zh) * | 2018-11-15 | 2021-10-19 | 中通天鸿(北京)通信科技股份有限公司 | 一种中文相似问题生成系统与方法 |
CN109460462A (zh) * | 2018-11-15 | 2019-03-12 | 中通天鸿(北京)通信科技股份有限公司 | 一种中文相似问题生成系统与方法 |
WO2020224220A1 (zh) * | 2019-05-07 | 2020-11-12 | 平安科技(深圳)有限公司 | 基于知识图谱的问答方法、电子装置、设备及存储介质 |
CN110866101A (zh) * | 2019-11-07 | 2020-03-06 | 昆明理工大学 | 一种基于近端策略优化与对抗学习的对话生成方法 |
CN110866101B (zh) * | 2019-11-07 | 2022-11-01 | 昆明理工大学 | 一种基于近端策略优化与对抗学习的对话生成方法 |
CN110929085A (zh) * | 2019-11-14 | 2020-03-27 | 国家电网有限公司 | 基于元语义分解的电力客服留言生成模型样本处理系统及方法 |
CN110929085B (zh) * | 2019-11-14 | 2023-12-19 | 国家电网有限公司 | 基于元语义分解的电力客服留言生成模型样本处理系统及方法 |
CN110909147A (zh) * | 2019-12-02 | 2020-03-24 | 支付宝(杭州)信息技术有限公司 | 一种训练排序结果选择模型输出标准问法的方法和系统 |
WO2022083291A1 (en) * | 2020-10-21 | 2022-04-28 | International Business Machines Corporation | Training question-answer dialog system to avoid adversarial attacks |
US11520829B2 (en) | 2020-10-21 | 2022-12-06 | International Business Machines Corporation | Training a question-answer dialog sytem to avoid adversarial attacks |
GB2615666A (en) * | 2020-10-21 | 2023-08-16 | Ibm | Training question-answer dialog system to avoid adversarial attacks |
US11755657B2 (en) | 2020-10-21 | 2023-09-12 | International Business Machines Corporation | Training a question-answer dialog system to avoid adversarial attacks |
CN112297012A (zh) * | 2020-10-30 | 2021-02-02 | 上海交通大学 | 一种基于自适应模型的机器人强化学习方法 |
CN112297012B (zh) * | 2020-10-30 | 2022-05-31 | 上海交通大学 | 一种基于自适应模型的机器人强化学习方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107423437B (zh) | 2020-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107423437A (zh) | 一种基于对抗网络强化学习的问答模型优化方法 | |
Lv et al. | Graph-based reasoning over heterogeneous external knowledge for commonsense question answering | |
Li et al. | A co-attention neural network model for emotion cause analysis with emotional context awareness | |
Bruce | A model for temporal references and its application in a question answering program | |
Nihalani et al. | Natural language interface for database: a brief review | |
CN108009285B (zh) | 基于自然语言处理的林业生态环境人机交互方法 | |
WO2023225858A1 (zh) | 一种基于常识推理的阅读型考题生成系统及方法 | |
CN112559702A (zh) | 基于Transformer的土木建筑信息领域自然语言问题生成方法 | |
US20180107940A1 (en) | Artificial intelligence method and apparatus | |
CN111340661A (zh) | 一种基于图神经网络的应用题自动解题方法 | |
Agarwal et al. | EDUQA: Educational domain question answering system using conceptual network mapping | |
Yu et al. | Retrieval augmentation for commonsense reasoning: A unified approach | |
CN112506945A (zh) | 基于知识图谱的自适应导学方法及系统 | |
CN113743095B (zh) | 基于词格和相对位置嵌入的中文问题生成统一预训练方法 | |
CN1838159B (zh) | 一种认知逻辑机器及其处理信息的方法 | |
Yang et al. | Chunk-aware alignment and lexical constraint for visual entailment with natural language explanations | |
CN115080717A (zh) | 基于文本理解推理的问答方法和系统 | |
Wu | [Retracted] Analysis and Evaluation of the Impact of Integrating Mental Health Education into the Teaching of University Civics Courses in the Context of Artificial Intelligence | |
Quine | The significance of the new logic | |
Park et al. | Can machines learn to comprehend scientific literature? | |
Chakkarwar et al. | A Review on BERT and Its Implementation in Various NLP Tasks | |
CN115905852A (zh) | 基于预训练提示的故事生成方法、系统、存储介质和终端 | |
Zhang | Research on the optimizing method of question answering system in natural language processing | |
Yang | Research on the Intelligent Question Answering based on knowledge graph | |
Liu et al. | Semantic repeatability screening mechanism of intelligent learning platform based on Bi-LSTM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20200915 Address after: 18 / F, 11 science and technology Northwest Building, 532 Shenzhou Third Road, Xi'an Aerospace base, Shaanxi Province 710000 Patentee after: Knowledge intelligence technology Co.,Ltd. Address before: 1904 Hongyuan building, No.4 Jiuxianqiao Road, Chaoyang District, Beijing 100015 Patentee before: EASYTO (BEIJING) TECHNOLOGY Co.,Ltd. |
|
TR01 | Transfer of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20200901 |
|
CF01 | Termination of patent right due to non-payment of annual fee |