CN107949841A - 提问应答系统的训练装置以及该训练装置用的计算机程序 - Google Patents
提问应答系统的训练装置以及该训练装置用的计算机程序 Download PDFInfo
- Publication number
- CN107949841A CN107949841A CN201680049453.0A CN201680049453A CN107949841A CN 107949841 A CN107949841 A CN 107949841A CN 201680049453 A CN201680049453 A CN 201680049453A CN 107949841 A CN107949841 A CN 107949841A
- Authority
- CN
- China
- Prior art keywords
- enquirement
- learning data
- unit
- answer
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/9032—Query formulation
- G06F16/90332—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
- G06N5/025—Extracting rules from data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/041—Abduction
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Electrically Operated Instructional Devices (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Computational Mathematics (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
Abstract
本发明提供一种尽可能不经由人工而高效地作成分类器的学习数据的为什么型提问应答系统的训练装置。训练装置(62)包含:提问发行部(100),将存储在提问/预想回答存储部(76)的提问发行到提问应答系统(60);回答候补过滤部(102)、回答候补判定部(104)、学习数据生成/标记部(106)以及学习数据选择部(108),根据从为什么型提问应答系统(60)与得分一起输出的多个回答候补的每一个与提问的配对,生成提问应答系统(60)的排序部(122)的学习数据并追加到学习数据存储部(64);以及反复控制部(110),对提问发行部(100)、回答候补过滤部(102)、回答候补判定部(104)、学习数据生成/标记部(106)以及学习数据选择部(108)进行控制,以便直到结束条件成立为止,反复进行学习装置的学习、提问的发行、学习数据的追加。
Description
技术领域
本发明涉及提问应答系统,特别是,涉及在提问应答系统中提高针对“为什么型提问”的回答的精度的技术。
背景技术
对人类而言,在产生某种疑问时寻找其回答是基本的活动之一。例如,针对“为什么会得癌?”这样的提问,为了找到其回答而进行了各种努力。另一方面,计算机得到发展,变得能够以高于人类的能力进行人类迄今为止所能进行的各种活动。例如,存储事物或高速检索所需要的信息的能力。
可是,以往认为用计算机来检索针对上述那样的“为什么型提问”的回答是极为困难的任务。在此,所谓“为什么型提问”,是指像“为什么会得癌?”这样的提问那样追寻发生了某种现象的理由的提问,利用计算机来寻找针对其的回答称为“为什么型提问应答”。
另一方面,由于计算机硬件和软件的发展,正在研究通过与人类寻找针对“为什么型提问”的回答的方法不同的方法来探索针对“为什么型提问”的回答的技术。作为技术领域,是所谓的被称为人工智能、自然语言处理、网页挖掘、数据挖掘等的领域。
关于这一点,作为提问应答系统的一个例子,有本申请的申请人在互联网上公开的提问应答服务。该提问应答系统作为其一个构成要件而安装了为什么型提问应答系统。该为什么型提问应答系统使用了后面说明的专利文献1所公开的技术。
该为什么型提问应答系统预先从网页收集大量的文件,并着眼于表示因果关系的词汇等而从中取出大量的因果关系表现。在此所说的因果关系表现,是指表示原因的词组和表示结果的词组通过特定的词汇而结合那样的表现。当接受“为什么型提问”时,该系统从该大量的因果关系表现之中,将结果部分与提问句共同的因果关系表现汇集起来,并提取该表示原因的词组作为回答候补。因为可大量地得到这样的回答候补,所以在该系统中,使用用于从它们之中选择适当的回答候补作为针对提问的回答的分类器。
该分类器通过使用了文本的词汇性的特征(单词串、词素串等)、构造特征(部分的文章结构树等)、意义性的特征(单词的意义、评价表现、因果关系等)的有教师的学习来进行学习。
在先技术文献
专利文献
专利文献1:日本特开2015-011426号公报
专利文献2:日本特开2013-175097号公报
发明内容
发明要解决的课题
上述的以往的为什么型提问应答系统虽然使用该分类器表现出了某种程度的性能,但是仍有改善的余地。为了改善性能,认为只要使用更多的、适当的学习数据来进行分类器的学习即可。但是,以往,学习数据通过人工作成,从而作成成本高,因此难以作成大量的学习数据。进而,并不清楚选择什么样的学习数据才能高效地进行分类器的学习。因此,期望更高效地进行分类器的学习而提高分类器的性能的技术。
故此,本发明的目的在于,提供一种尽可能不经由人工而高效地作成分类器的学习数据来进行学习的为什么型提问应答系统的训练装置。
用于解决课题的技术方案
本发明的第一局面涉及的提问应答系统的训练装置与因果关系表现存储单元、提问及预想回答存储单元、以及提问应答系统一起使用,且用于提高进行该提问应答系统内的回答候补的得分附加的分类器的性能,其中,该因果关系表现存储单元存储多个因果关系表现,该提问及预想回答存储单元存储多个从存储在因果关系表现存储单元的、相同的因果关系表现提取出的提问与针对该提问的预想回答的组,该提问应答系统当接受提问时附带得分地输出针对该提问的多个回答候补。训练装置进一步与具备用于进行提问应答系统的分类器的学习的学习数据存储单元的学习装置一起使用。该训练装置包含:学习装置控制单元,对学习装置进行控制,以便使用存储在学习数据存储单元的学习数据进行分类器的学习;提问发行单元,发行存储在提问/预想回答存储单元的提问,并提供给提问应答系统;学习数据追加单元,从针对提问发行单元所发行的提问而从提问应答系统与得分一起输出的多个回答候补的每一个与该提问的配对生成提问应答系统的分类器的学习数据,并追加到学习数据存储单元;以及反复控制单元,对学习装置控制单元、提问发行单元、以及学习数据追加单元进行控制,以便直到给定的结束条件成立为止,反复执行多次基于学习装置控制单元的学习装置的控制、基于提问发行单元的提问的发行、以及基于学习数据追加单元的学习数据的追加。
优选为,学习数据追加单元包含:回答候补选择单元,在针对提问发行单元所发行的提问而从提问应答系统与得分一起输出的多个回答候补之中,选择得分的绝对值小于正的第一阈值且该得分处于上位的给定个数的回答候补;学习数据候补生成单元,算出由回答候补选择单元选择出的给定个数的回答候补的每一个与对应于提问的预想回答之间的一致度,并按照该一致度是否大于第二阈值对该回答候补和该提问附加正例或反例的标记而生成学习数据候补;以及学习数据追加单元,将由学习数据候补生成单元生成的学习数据候补作为新的学习数据而追加到学习数据存储单元。
更优选为,学习数据追加单元还包含:第一回答候补废弃单元,设置在回答候补选择单元的输出与学习数据候补生成单元的输入之间,将由回答候补选择单元选择出的回答候补之中、从得到了成为该回答候补之源的提问的因果关系表现得到的回答候补废弃。
进一步优选为,学习数据追加单元还包含:第二回答候补废弃单元,设置在回答候补选择单元的输出与学习数据候补生成单元的输入之间,将由回答候补选择单元选择出的回答候补与提问的配对之中、与存储在学习数据存储单元的配对一致的配对删除。
学习数据追加单元也可以包含:学习数据选择单元,仅选择作为由学习数据候补生成单元生成的学习数据候补的一部分的、包含于该学习数据候补的回答候补的得分处于上位的给定个数的学习数据候补,作为新的学习数据追加到学习数据存储单元。
此外,提问应答系统也可以从由多个句子构成且包含至少一个在进行因果关系表现的提取时成为线索的词组的段落的集合提取回答候补。
本发明的第二局面涉及的计算机程序使计算机作为提问应答系统的训练装置起作用,其中,该提问应答系统的训练装置与因果关系表现存储单元、提问及预想回答存储单元、以及提问应答系统一起使用,且用于提高该提问应答系统内的基于机器学习的分类器的性能,其中,该因果关系表现存储单元存储多个因果关系表现,该提问及预想回答存储单元存储多个从存储在因果关系表现存储单元的、相同的因果关系表现提取出的提问与针对该提问的预想回答的组,该提问应答系统当接受提问时附带得分地输出针对该提问的多个回答候补。训练装置进一步与具备用于进行提问应答系统的分类器的学习的学习数据存储单元的学习装置一起使用。形成组的提问和预想回答是从相同的因果关系表现生成的提问和预想回答。计算机程序使计算机作为构成上述任一个训练装置的各单元起作用。
附图说明
图1是示意性地示出本发明的实施方式涉及的为什么型提问应答系统的训练系统的概要的图。
图2是示出图1所示的为什么型提问应答系统的训练装置的概略结构的框图。
图3是示出从因果关系表现作成提问与预想回答的配对的过程的示意图。
图4是从由存储了大量的文件的网页文件等提取出的大量的因果关系来生成如图3所示的提问与预想回答的配对的提问/预想回答生成/提取部的框图。
图5是在图4所示的提问/预想回答生成/提取部中使用的、进行执行提问的过滤处理的第二过滤部的学习的第二过滤学习部的框图。
图6是示出通过计算机硬件和计算机软件的协作来实现图2所示的反复控制部110时的计算机程序的控制构造的流程图。
图7是示出实现图2所示的回答候补过滤部、回答候补判定部、以及学习数据生成/标记部的计算机程序的控制构造的流程图。
图8是将通过本发明的实施方式涉及的训练系统进行了学习的分类器的性能与现有技术进行比较而示出的曲线图。
图9是示出用计算机来实现本发明的实施方式时所需的计算机硬件的结构的框图。
具体实施方式
在以下的说明以及附图中,对于同一部件标注同一附图标记。因此,不再重复对它们的详细的说明。
[概要]
在图1示意性地示出本发明的实施方式涉及的为什么型提问应答系统的训练系统50的概要。参照图1,该训练系统50包含训练装置62,训练装置62自动识别上述的在先技术的为什么型提问应答系统60难以应付的提问,发现针对这样的提问的应答而自动作成强化分类器的性能那样的学习数据,并保存到学习数据存储部64。通过使用了存储在学习数据存储部64的学习数据的基于学习处理部66的学习,为什么型提问应答系统60的性能得到提高。
[结构]
在图2示出训练系统50的具体的结构。参照图2,训练系统50包含:网页语料库存储部68,对由从网页汇集的大量的文件构成的网页语料库进行存储;因果关系表现提取部70,从存储在网页语料库存储部68的大量的文件提取大量的因果关系表现;以及因果关系表现存储部72,对由因果关系表现提取部70提取出的因果关系表现进行存储。另外,关于因果关系的提取,除了在上述的专利文献1公开的技术以外,还能够使用在专利文献2记载的技术。
训练系统50还包含:提问/预想回答生成/提取部74,从存储在因果关系表现存储部72的大量的因果关系表现之中,生成并输出适合于生成学习数据的提问及其预想回答;提问/预想回答存储部76,对由提问/预想回答生成/提取部74输出的提问和预想回答进行存储;前述的训练装置62,将存储在提问/预想回答存储部76的提问以及预想回答的组提供给为什么型提问应答系统60,使用该回答生成使为什么型提问应答系统60的性能提高那样的学习数据并保存在学习数据存储部64。
在图3示出从因果关系表现130作成提问144及其预想回答146的过程。在因果关系表现中可以有各种表现,例如,在图3所示的因果关系表现130的情况下,表示原因的原因词组140和表示结果的结果词组142通过表示两者之间的因果关系的连词“因为~,所以”而连接。通过按照一定的变形规则对该结果词组142进行变形,从而可得到提问144。从原因词组140,也可通过一定的变形规则得到针对提问144的预想回答146。通过根据因果关系的形式而预先准备变形规则的组,从而能够从因果关系表现生成提问句及其预想回答的配对。
再次参照图2,为什么型提问应答系统60包含:回答候补检索部120,从网页语料库存储部68之中检索针对所给出的提问的多个回答候补;以及排序部122,使用预先完成学习的分类器对由回答候补检索部120检索出的大量的回答候补附加评分,并进行排序而输出。进行使用了存储在学习数据存储部64的学习数据的基于学习处理部66的学习的是该排序部122的分类器。排序部122以对各回答候补附加了得分的形式进行输出。该得分是附带了基于该分类器的分类的结果的、表示针对提问的回答的可能性的得分。回答候补检索部120所输出的回答候补是在保存在网页语料库存储部68的文件之中、提问句之间的tf-idf的值处于上位的一定数量(在本实施方式中,为1200组)的一系列的句子串(段落)。另外,在本实施方式中,为了使为什么型提问应答系统60能够从大量的文件高效地检索回答候补,进行了如下的设计。即,在存储在网页语料库存储部68的文件之中,提取由连续的7个句子构成且包含至少一个在Oh等的论文(Jong-Hoon Oh,Kentaro Torisawa,ChikaraHashimoto,Motoki Sano,Stijn De Saeger,and Kiyonori Ohtake.2013.Why-question answeringusing intra-and inter-sentential causal relations.In Proceedings of the 51stAnnual Meeting of the Association for Computational Linguistics,pages1733-1743.)中使用的、成为用于识别因果关系的线索的词组的段落,并限定了为什么型提问应答系统60的回答候补的检索范围,以便从这些段落的集合之中检索回答候补。另外,段落所包含的句子的数量并不限定于7,也可以从5至10左右的范围中选择。
训练装置62包含:提问发行部100,从存储在提问/预想回答存储部76的许多的提问/预想回答的配对选择提问并发行针对回答候补检索部120的提问;以及回答候补过滤部102,从针对由提问发行部100发行的提问而由为什么型提问应答系统60发送来的、进行了排序的回答候补之中,仅留下俱备一定的条件的回答候补,而将其它过滤掉。关于回答候补过滤部102的功能,将在后面参照图7进行叙述。
训练装置62还包含:回答候补判定部104,针对回答候补过滤部102所输出的回答候补中的每一个,与和提问发行部100所发行的提问成为组的预想回答进行比较,由此判定该回答候补是否正确,并输出判定结果;学习数据生成/标记部106,对提问及其回答候补的组附加回答候补判定部104针对该回答候补所输出的判定结果来作为标记,从而生成学习数据候补;学习数据选择部108,积累由学习数据生成/标记部106输出的学习数据候补,并在针对提问/预想回答生成/提取部74所包含的全部因果关系表现结束了学习数据候补的生成的时间点,在学习数据候补之中选择由排序部122附加的得分最高的给定个数(K个)来作为学习数据追加到学习数据存储部64;以及反复控制部110,对提问发行部100、回答候补过滤部102、回答候补判定部104、学习数据生成/标记部106以及学习数据选择部108进行控制,以便直到俱备给定的结束条件为止,反复进行基于它们的处理。
在图4示出图2所示的提问/预想回答生成/提取部74的结构。参照图4,提问/预想回答生成/提取部74包含:补充处理部172,如果在存储在因果关系表现存储部72的因果关系表现的结果部分存在对于生成提问句来说不足的信息,则对它们进行补充;规则存储部170,对预先通过人工作成的、用于从因果关系的结果词组生成提问句的规则进行存储;以及提问句生成部174,对于存储在因果关系表现存储部72的因果关系表现的各个结果词组且是由补充处理部172进行了补充的结果词组,在存储在规则存储部170的规则之中选择并应用任一个合适的规则来生成提问句并进行输出。
在此,对补充处理部172的处理进行说明。在因果关系表现的结果词组部分中,很多情况下存在向其它部分的呼应(其它部分的参照),或没有谓语所应取的自变量。其结果是,有时在结果部分不存在主语,或者缺少主题。如果从这些结果部分生成提问句,则不能得到适合作为学习数据的提问句。因此,补充处理部172从因果关系表现的其它部分补充这样的主语以及主题。
提问/预想回答生成/提取部74还包含:第一过滤处理部176,在提问句生成部174所输出的提问句之中,过滤掉包含代词的提问句,并输出除此以外的提问句;第二过滤处理部178,在第一过滤处理部176所输出的提问句之中,如果存在缺少与谓语相关的自变量的提问句,则将它们过滤掉,并输出除此以外的提问句;规则存储部182,存储了用于从因果关系表现的原因部分生成预想回答的变形规则;以及预想回答生成部180,对得到了第二过滤处理部178所输出的提问的因果关系表现的原因部分,应用存储在规则存储部182的变形规则,生成针对该提问的预想回答,并与提问作为组而保存到提问/预想回答存储部76。
基于图4所示的第二过滤处理部178的处理使用基于机器学习的判别器来进行。参照图5,该第二过滤处理部178用的学习由第二过滤学习部202进行。为了该学习,在正例学习数据存储部200作为正例而存储自身完整的“为什么型提问”的例子。在本实施方式中,通过人工准备了9500个“为什么型提问”。第二过滤处理部178使用了在SVM-Light(T.Joachims.1999.Making large-scale SVM learning practical.In B.Schoelkopf,C.Burges,and A.Smola,editors,Advances in Kernel Methods-Support VectorLearning,chapter 11,pages 169-184.MIT Press,Cambridge,MA.)中安装的子集树内核(subset tree kernel)。使用以下的树以及矢量的组合进行了该子集树内核的学习。
·词组构造树的子集树
·用对应的单词类置换名词后得到的子集树
·用词素以及POS标签-n元模型表示的矢量
第二过滤学习部202包含:反例学习数据生成部220,在存储在正例学习数据存储部200的正例学习数据的各提问句中,通过删除主语或宾语、或这两者,从而自动地生成反例的学习数据;反例学习数据存储部222,对由反例学习数据生成部220生成的反例学习数据进行存储;学习数据生成部224,将存储在正例学习数据存储部200的正例以及存储在反例学习数据存储部222的反例合并,并从各提问句提取给定的特征量而附加正例/反例的标记,由此生成学习数据集;学习数据存储部226,对存储在学习数据生成部224的学习数据进行存储;以及学习处理部228,使用存储在学习数据存储部226的学习数据进行第二过滤处理部178的学习。在本实施方式中,从9500个正例学习数据生成了16094个反例的学习数据。因此,学习数据成为合计25594个。
基于学习数据生成部224的学习数据的生成以如下方式进行,即,通过日本语修饰关系分析工具(J.DepP)进行各提问句的依赖构造分析,并将得到的依赖构造树变换为词组构造树。在该变换中,使用了如下这样的简单的规则。在依赖构造树中,作为依赖构造树的各短语的父节点,如果各短语的核心词为名词,则追加NP(名词性短语),如果是动词或形容词,则追加VP,除此以外,追加OP,由此变换为词组构造树。从该词组构造树提取了上述子集树的特性。
再次参照图2,对图2所示的反复控制部110的功能进行说明。反复控制部110具有如下功能,即,直到俱备给定的结束条件为止,反复执行基于图2的提问发行部100、回答候补过滤部102、回答候补判定部104、学习数据生成/标记部106、以及学习数据选择部108的处理。反复控制部110能够由计算机硬件和计算机软件来实现。
参照图6,实现反复控制部110的程序包含:步骤250,在启动后,进行存储器区域的确保、客体的生成等准备处理;步骤252,将0代入到反复控制变量i;以及步骤254,直到与变量i相关的结束条件成立为止(具体地,直到变量i达到预先确定的上限数为止),反复执行以下的处理256。另外,在以下的说明中,为了表示是反复的第i次的数据,在各记号的右上角附上小写的i。
另外,在以下的说明中,将从提问发行部100对为什么型提问应答系统60提供的提问设为q,将针对该提问q的预想回答设为e,设针对该提问q从为什么型提问应答系统60返回的回答候补有多个(具体地,20个),并将它们设为回答候补pj(j=1~20)。对各回答候补附加了基于排序部122的排序的得分s。排序部122在本实施方式中由SVM实现。因此,得分s的绝对值q表示从SVM的识别边界到回答候补的距离。该距离越小,回答的可信度越低,该距离越大,可信度越高。在由提问q和回答候补pj构成的配对之中,将得分s最大的配对用(q′,p′)来表示。此外,反复的第i个学习数据用Li来表示,并用ci来表示利用该学习数据Li进行了学习的排序部122的分类器。将尚未附加正例、反例的标记这样的配对称为无标记配对。
处理256包含:步骤270,学习处理部66用存储在图2所示的学习数据存储部64的学习数据Li进行图2所示的排序部122的分类器ci的学习。处理256还包含:步骤272,在步骤270之后,将保存在提问/预想回答存储部76的各提问句提供给回答候补检索部120,其结果,根据从排序部122发送过来的应答,对由提问和回答候补构成的无标记配对之中适合于作为学习数据的一部分配对附加正例/反例的标记。关于步骤272的处理内容,将在后面参照图7进行叙述。
对于一个提问q,多个(在本实施方式中,为20个)回答候补从排序部122发送到回答候补过滤部102。当将除提问q以及预想回答e以外还由来自排序部122的回答候补pj(j=1~20)构成的三元组(q,e,pj)用U表示,并将针对一个提问q通过步骤272的处理得到的数据的集合设为LU i时,可表示为LU i=Label(ci,U)。在步骤272中,对存储在提问/预想回答存储部76的全部的提问/预想回答配对执行该处理。
处理256还包含:步骤274,在针对全部提问通过步骤272得到的全部的标记后的配对LU i之中,将其得分处于上位的K个配对追加到学习数据Li而生成新的学习数据Li+1;以及步骤276,对变量i的值加1并结束处理256。
参照图7,实现图6所示的步骤272的程序包含:步骤300,在由从提问发行部100对为什么型提问应答系统60提供的提问q和针对该提问q从为什么型提问应答系统60发送来的20个回答候补pj中的每一个构成的无标记配对(q,pj)之中,选择得分s最大的配对(q′,p′);以及步骤302,判定在步骤300中选择出的配对(q′,p′)的得分s的绝对值是否小于给定的阈值α(>0),若判定为否定,则不作任何操作而结束该例行程序的执行。像这样,在本实施方式中,针对应答候补中的得分s最大且其值小于阈值α的应答候补,判断为基于为什么型提问应答系统60的应答不可信,并追加针对该例子的学习数据。
该程序还包含:步骤304,在步骤302的判定为肯定时,判定回答候补p′是否包含得到了提问q′的原来的因果关系表现,若判定为肯定,则结束该例行程序的执行;以及步骤306,在步骤304的判定为否定时,判定配对(q′,p′)是否存在于当前的学习数据中,若判定为肯定,则结束该例行程序的执行。步骤304的判定是为了使得不会对得到了因果关系表现的段落施加过大的偏倚。步骤306的判定是为了使得不会将相同的例子加入到学习数据中。
该程序还包含:步骤308,在步骤306的判定为否定时,算出回答候补p′与针对提问q′的预想回答e′之间的重复词汇量W1、以及回答候补p′与提问q′之间的重复词汇量W2;步骤310,判定在步骤308中算出的重复词汇量W1以及W2是否均大于给定的阈值a,并根据判定结果使控制的流程分支;步骤312,在步骤310的判定为肯定时,对配对(q′,p′)附加表示正例的标记并作为追加学习数据而进行输出,结束该例行程序的执行;步骤311,在步骤310的判定为否定时,判定重复词汇量W1以及W2是否均小于给定的阈值b(b<a),并根据判定结果使控制的流程分支;以及步骤314,在步骤311的判定为肯定时,对配对(q′,p′)附加表示反例的标记并作为追加学习数据而进行输出,结束该例行程序的执行。在步骤311的判定为否定时,不进行任何操作,该例行程序结束。
预想回答e′是从得到了提问q′的因果关系表现的原因部分得到的。因此,认为预想回答e′作为提问q′的回答是相称的。假设在预想回答e′与回答候补p′的重复词汇量大的情况下,认为回答候补p′作为针对提问q′的回答是相称的。一般来说,预想回答e与回答候补p之间的重复词汇量Tm(e,p)可通过以下的式子算出。
[数学式1]
在此,T(x)是由句子x所包含的内容词语(名词、动词、形容词)构成的集合,S(p)是由构成回答候补p的段落之中的连续的两个句子构成的集合。
另外,虽然在以上的例子中,在步骤310中,针对重复词汇量W1以及W2,与相同的阈值a进行了比较,但是本发明并不限定于那样的实施方式。针对重复词汇量W1和W2,也可以与相互不同的阈值进行比较。在步骤311中,针对与重复词汇量W1以及W2进行比较的阈值b也是同样的,也可以相互将重复词汇量W1以及W2与相互不同的阈值进行比较。
此外,虽然在步骤310以及步骤311中,在两个条件均成立时判定为作为整体俱备条件,但是也可以是只要两个条件中的任一个成立,就判定为作为整体俱备条件。
[动作]
该训练系统50像以下那样动作。参照图2,预先在网页语料库存储部68收集许多的文件。回答候补检索部120将作为被认为与所提供的各提问相称的回答候补的段落从网页语料库存储部68根据tf-idf进行排序,并提取tf-idf处于上位的给定个数(在本实施方式s中,为1200个)而提供给排序部122。在学习数据存储部64中准备了初始的学习数据。因果关系表现提取部70从网页语料库存储部68提取许多的因果关系表现,并保存到因果关系表现存储部72。提问/预想回答生成/提取部74从存储在因果关系表现存储部72的许多的因果关系表现提取提问与针对该提问的预想回答的组,并保存到提问/预想回答存储部76。
参照图4,此时,提问/预想回答生成/提取部74像以下那样动作。首先,图4所示的补充处理部172针对存储在因果关系表现存储部72的因果关系表现的每一个检测呼应关系、省略等,并对这些呼应关系、省略语等进行增补,从而对因果关系表现的、特别是结果部分中不足的部分(主语、主题等)进行补充。提问句生成部174参照规则存储部170针对因果关系表现的结果部分应用适当的变形规则来生成为什么型提问句。第一过滤处理部176将由提问句生成部174生成的提问句之中包含代词的提问句过滤掉,将除此以外的提问句输出到第二过滤处理部178。第二过滤处理部178将谓语的自变量之中必需的自变量所不存在的提问过滤掉,并将除此以外的提问提供给预想回答生成部180。预想回答生成部180对得到了第二过滤处理部178所输出的提问的因果关系表现的原因部分应用存储在规则存储部182的变形规则,生成针对该提问的预想回答,并与提问作为组而保存在提问/预想回答存储部76。
另外,在此之前,需要由图5所示的第二过滤学习部202进行第二过滤处理部178的学习。参照图5,反例学习数据生成部220在存储在正例学习数据存储部200的正例学习数据的各提问句中,删除主语或宾语、或这两者,由此自动地生成反例的学习数据。所生成的反例的学习数据保存到反例学习数据存储部222。学习数据生成部224将存储在正例学习数据存储部200的正例和存储在反例学习数据存储部222的反例合并,生成第二过滤处理部178用的学习数据。学习数据存储到学习数据存储部226。学习处理部228使用该学习数据进行第二过滤处理部178的学习。
以下,通过以下的反复来进行为什么型提问应答系统60的排序部122的训练。
参照图2,最初,通过反复控制部110的控制,学习处理部66使用存储在学习数据存储部64的初始的学习数据进行排序部122的学习。接着,反复控制部110对提问发行部100进行控制,依次选择保存在提问/预想回答存储部76的提问q,并提供给回答候补检索部120。回答候补检索部120将作为被认为与所提供的各提问相称的回答候补的段落从网页语料库存储部68根据tf-idf进行排序,并提取tf-idf处于上位的给定个数(在本实施方式中,为1200个)而提供给排序部122。排序部122从各段落提取给定的特征量,并通过进行了基于学习处理部66的学习的分类器进行打分,选择上位20个来附加得分并发送到回答候补过滤部102。
回答候补过滤部102当接受回答候补时,从提问/回答候补的配对(q,pj)(j=1~20)选择包含得分s处于最上位的回答候补p′的配对(q′,p′)(图7,步骤300),如果该得分不小于阈值α(在步骤302中“否”),则废弃该配对,并转移到针对下一个提问的处理。如果得分小于阈值α(在步骤302中,“是”),则接着判定回答候补p′是否包含得到了提问q′的因果关系表现(步骤304)。若判定为肯定(在步骤304中“是”),则结束针对该提问的处理,并转移到下一个提问的处理。若判定为否定(在步骤304中“否”),则在步骤306中判定配对(q′,p′)是否存在于当前的学习数据中。若判定为肯定(在步骤306中“是”),则结束针对该提问的处理并转移到针对下一个提问的处理。若判定为否定(在步骤306中“否”),则在步骤308中通过式(1)分别算出回答候补p′与预想回答e之间的重复词汇量W1、回答候补p′与提问q′之间的重复词汇量W2。
接下来,在步骤310中,判定重复词汇量W1以及W2是否均大于给定的阈值a。若判定为肯定,则对配对(q′,p′)附加表示正例的标记并作为追加学习数据而进行输出。若判定为否定,则控制推进到步骤311。在步骤311中,判定重复词汇量W1以及W2是否均小于给定的阈值b(b<a)。若判定为肯定,则对配对(q′,p′)附加表示反例的标记并作为追加学习数据而进行输出。若判定为否定,则不进行任何操作而结束该处理。
这样,当针对存储在图2的提问/预想回答存储部76的提问/预想回答的处理结束时,由训练装置62选择出的新的学习数据与正例/反例的标记一同存储到学习数据选择部108中。学习数据选择部108在这些新的学习数据之中选择得分处于上位的K个并追加到学习数据存储部64。
反复控制部110对反复变量i加1(图6的步骤276),并判定是否俱备结束条件。如果不俱备结束条件,则再次使用存储在学习数据存储部64的更新后的学习数据,通过反复控制部110的控制由学习处理部66执行排序部122的学习。由此,排序部122的分类器通过基于使用存储在因果关系表现存储部72的因果关系表现而得到的学习数据的学习被强化。
通过俱备反复的结束条件,从而以上的反复结束,得到由使用存储在因果关系表现存储部72的因果关系而得到的学习数据进行了强化的排序部122,其结果是,基于为什么型提问应答系统60的应答的精度提高。
[实验]
为了确认上述实施方式的效果,准备了由850个日本语的为什么型提问和针对这些提问从6亿日本语网页提取出的前20的回答候补段落构成的实验集。该实验集是通过由Murata等(Masaki Murata,Sachiyo Tsukawaki,Toshiyuki Kanamaru,Qing Ma,andHitoshi Isahara.2007.A system for answering non-factoid Japanese questions byusing passage retrieval weighted based on type of answer.In Proceedings ofNTCIR-6.)提出的提问应答系统得到的。针对它们中的每一个,通过人工确认了是否为正确的提问-回答配对。在实验中,将该实验集分割为学习集、开发集、以及测试数据集。学习集由15000个提问-回答配对构成。剩余的2000个实验数据由100个提问和针对它们的回答(各20个)构成,二等分为开发集和测试集。
将上述的学习数据用作初始学习数据而进行了排序部122的反复学习。开发集为了决定阈值α、重复词汇量的阈值β而使用,进而,为了决定每次反复时追加到学习数据的新的数据数K而使用。针对满足α∈{0.2,0.3,0.4}、β∈{0.6,0.7,0.8}、以及K∈{150,300,450}的α、β以及K的组合,用开发数据进行了实验,其结果是,在α=0.3、β=0.7、K=150的组合下得到了最好的结果。在以下所述的实验中,使用了该α、β以及K的值的组合。反复次数设定为40。这是因为,相对于开发集的、基于上述α、β以及K的组合的学习数据在该反复次数的附近收敛。评价使用测试集来进行。
在实验中,以从存储了20亿个文件的网页语料库自动地提取出的6亿5600万个因果关系表现为基础,选择出相当于其60分之一的1100万个因果关系表现。从它们之中选择了自身完整型的提问及其预想回答的组合。该数量为56775个。将这些提问输入到为什么型提问应答系统60,并针对各提问接受20个上位回答候补,使用它们生成了无标记的提问-回答候补配对(无标记配对)。
为了比较,最初从上述的1100万个因果关系表现随机地提取了10万个因果关系表现。从它们的全部生成提问,并全部生成无标记配对而进行使用。
将这两个类型称为USC(仅从自身完整型的提问生成的无标记配对)以及UAll(从还包含自身完整型以外的提问生成的无标记配对)而相互进行区分。|USC|=514674,|UAll|=1548998,|USC∩UAll|=17844。
将比较结果示于下表。
[表1]
P@1 | MAP | |
OH | 42 | 46.5 |
AtOnce | 42 | 45.4 |
Ours(UAI) | 34 | 41.7 |
Ours(USC) | 50 | 48.9 |
UpperBound | 66 | 66 |
OH是进行了基于初始学习数据的学习的结果。
AtOnce表示将在实施方式的第一次的反复中得到的全部的附带标记的数据追加到学习数据时的性能。通过对该结果和后述的Ours(USC)进行比较,从而反复的效果变得明确。
Ours(UAll)是上述实施方式的变形例,是将以上所述的UAll用作无标记配对的结果。通过与Ours(USC)进行比较,可知在本实施方式中仅使用自身完整型的提问所带来的效率的良好程度。
Ours(USC)是基于上述实施方式的结果。
UpperBound是如下的系统,即,只要对全部的提问在测试集之中存在n个正确的回答,就在前n个的回答候补之中必然可得到正确的回答。该结果示出本实验的性能的上限。在除UpperBound以外的全部的系统中,为了进行分类器的学习,使用了线性内核的TinySVM。使用最前的回答(P@1)以及平均精度均值(MAP)来进行评价。P@1表示在基于系统的最前的回答之中可得到何种程度的数量的正解。平均精度均值表示前20的整体的品质。
表1示出该评价的结果。根据表1,AtOnce和Ours(UAll)均未能示出超过OH的结果。在本发明的实施方式涉及的结果(Ours(USC))中,在P@1中和MAP中均稳定地示出了优于OH的结果。该结果表示:上述实施方式中的反复的结果对于性能提高是重要的;以及仅使用自身完整型的提问句对于性能提高是重要的。进而,若将Ours(USC)的P@1的结果与UpperBound进行比较,则可知示出75.7%这样的值。由此可认为,只要存在从网页取出至少一个正确的回答的回答检索模块,就可通过上述实施方式以高精度对为什么型提问找到正确的回答。
在图8,在反复次数=0至50的范围示出Ours(UAll)和Ours(USC)的、反复次数与精度的关系。在本申请实施方式涉及的Ours(USC)中,在50次的反复学习之后,在P@1(曲线图350)和MAP(曲线图360)中,精度分别达到了50%和49.2%。在P@1的情况下,在38次收敛。Ours(UAll)(P@1用曲线图362表示,MAP用曲线图364表示。)在最初的阶段的几次反复中示出了比Ours(USC)高的性能,但是随着反复增多,相对地,性能变低。认为这大概是自身完整型的提问以外的提问作为噪声对性能带来了不良影响。
[表2]
P@1 | P@3 | P@5 | |
OH | 43.0 | 65.0 | 71.0 |
OURS(USC) | 50.0 | 68.0 | 75.0 |
进而,进行用上述本发明的实施方式涉及的装置进行了学习的提问应答系统(Ours(USC))和仅使用初始学习数据进行了学习的提问应答系统(OH)的性能比较。学习的对象在任一情况下均为提问应答系统的排序部122的分类器。在实验中,使得针对开发集的100个提问的每一个得到前5的回答段落。3位评价员对这些提问-回答的配对进行检查,并通过多数表决判定了其正误。评价以P@1、P@3、以及P@5进行。在此,所谓P@N,是指在前N个回答候补之中存在正确的回答的比率。在表2示出其结果。
根据表2的结果可知,根据本发明的实施方式,在P@1、P@3、以及P@5中的任一个中都示出比通过OH得到的结果更好的结果。
[实施方式的效果]
如上所述,根据本实施方式,从存储在网页语料库存储部68的大量的文件提取许多的因果关系表现。从该因果关系表现选择许多的提问q与预想回答e的配对。将选择出的配对之中的提问q提供给为什么型提问应答系统60,并从为什么型提问应答系统60接受多个(p1~p20)针对提问的回答候补p。对于各回答候补pj,附加由作为本系统的训练对象的排序部122的分类器给出的得分s。选择得分s最高的回答候补与提问的配对(q′,p′),并仅在该配对满足以下的条件时,采用该回答候补。
(1)回答候补p′的得分s小于阈值α(>0)。
(2)该回答候补p′不包含得到了提问q′的因果关系表现。
(3)在当前的学习数据中没有配对(q′,p′)。
仅将俱备这样的条件的配对(q′,p′)之中、重复词汇量的得分处于上位的K个配对追加到学习数据。此时,基于针对提问q′的预想回答e′和回答候补p′的重复词汇量,判定该配对是否为正例,并根据其结果,对学习数据附加表示正例或反例的记号。因此,在学习数据中,重点追加原来的基于排序部122的判定的可信度低的数据。通过针对所得到的全部因果关系表现反复进行给定次数的这样的学习,从而能够扩充与可信度低的部分相关的学习数据。而且,虽然提问应答系统的分类器的初始学习数据需要通过人工进行准备,但是无需通过人工来准备应追加的学习数据,能够以低成本高效地作成大量的学习数据。其结果是,能够在尽可能不经由人工的情况下提高利用该学习数据进行了学习的排序部122的分类器的精度。
另外,在上述的实施方式中,在提问/预想回答存储部76中存储有从由存储在网页语料库存储部68的大量的文件提取出的因果关系自动地作成的提问和预想回答的配对。但是,本发明并不限定于那样的实施方式。存储在提问/预想回答存储部76的提问与预想回答的配对的来源可以是任意的。此外,不仅是自动地生成的配对,还可以与自动地收集了通过人工作成的提问和预想回答后得到的配对一起存储在提问/预想回答存储部76。
此外,在上述实施方式中,使基于回答候补检索部120的反复在反复数达到上限数时结束。但是,本发明并不限定于那样的实施方式。例如,也可以在没有了要追加到学习数据存储部64的新的学习数据的时间点结束反复。
进而,在上述实施方式中,在图7的步骤300中,选择一个得分最大的配对。但是,本发明并不限定于那样的实施方式。也可以选择两个以上的给定个数的得分最大的得分。在该情况下,只要对各配对分别进行步骤302至步骤314的处理即可。
[基于计算机的实现]
上述实施方式涉及的训练装置62能够由计算机硬件和在该计算机硬件上执行的计算机程序实现。图9示出计算机系统930的内部结构。
参照图9,该计算机系统930包含:具有存储器端口952以及DVD(DigitalVersatile Disc)驱动器950的计算机940、键盘946、鼠标94、以及监视器942。
计算机940除了存储器端口952以及DVD驱动器950以外,还包含:CPU(中央处理装置)956;与CPU956、存储器端口952以及DVD驱动器950连接的总线966;对引导程序等进行存储的读出专用存储器(ROM)958;以及与总线966连接并对程序命令、系统程序、以及工作数据等进行存储的随机存取存储器(RAM)960。计算机系统930还包含提供对使得能够进行与其它终端(例如,图2所示的为什么型提问应答系统60、实现学习数据存储部64以及66的计算机、实现提问/预想回答存储部76的计算机等)的通信的网络的连接的网络接口(I/F)944。网络I/F944也可以与互联网970连接。
用于使计算机系统930作为构成上述的实施方式的训练装置62的各功能部起作用的计算机程序存储在安装于DVD驱动器950或存储器端口952的DVD962或移动式存储器964,进而转发到硬盘954。或者,程序也可以通过网络I/F944发送到计算机940并存储到硬盘954。程序在执行时载入到RAM960。也可以从DVD962、从移动式存储器964、或者经由网络I/F944直接将程序载入到RAM960。
该程序包含用于使计算机940作为上述实施方式涉及的训练装置62的各功能部起作用的多个命令。进行该动作所需的基本的功能中的几个功能由在计算机940上动作的操作系统(OS)或者第三方的程序、或安装在计算机940的各种编程工具集的模块来提供。因此,该程序未必一定要包含实现该实施方式涉及的训练装置62所需的全部功能。该程序只要仅包含命令之中的如下命令即可:即,通过以控制为可得到所希望的结果的做法调用适当的功能或编程工具集内的适当的程序工具,从而实现作为上述系统的功能的命令。计算机系统930的动作是众所周知的。因此,在此不再重复。
此次公开的实施方式仅是例示,本发明并不仅限制于上述的实施方式。本发明的范围在参考发明的详细的说明的记载的基础上由权利要求书的各权利要求示出,包含与在权利要求书中记载的语句等同的意思以及范围内的所有的变更。
产业上的可利用性
本发明能够应用于对提问应答服务的提供,该提问应答服务通过提供针对为什么型提问的回答,从而对参与研究、学习、教育、兴趣、生产、政治、经济等的企业以及个人做出贡献。
附图标记说明
50:训练系统;
60:为什么型提问应答系统;
62:训练装置;
64:学习数据存储部;
66:学习处理部;
68:网页语料库存储部;
70:因果关系表现提取部;
72:因果关系表现存储部;
74:提问/预想回答生成/提取部;
76:提问/预想回答存储部;
100:提问发行部;
102:回答候补过滤部;
104:回答候补判定部;
106:学习数据生成/标记部;
108:学习数据选择部;
110:反复控制部;
120:回答候补检索部;
122:排序部。
Claims (6)
1.一种提问应答系统的训练装置,与因果关系表现存储单元、提问及预想回答存储单元、以及提问应答系统一起使用,且用于提高进行该提问应答系统内的回答候补的得分附加的分类器的性能,其中,所述因果关系表现存储单元存储多个因果关系表现,所述提问及预想回答存储单元存储多个从存储在所述因果关系表现存储单元的、相同的因果关系表现提取出的提问与针对该提问的预想回答的组,所述提问应答系统当接受提问时附带得分地输出针对该提问的多个回答候补,该提问应答系统的训练装置的特征在于,
所述训练装置进一步与具备用于存储所述提问应答系统的所述分类器用的学习数据的学习数据存储单元的学习装置一起使用,
所述训练装置包含:
学习装置控制单元,对所述学习装置进行控制,以便使用存储在所述学习数据存储单元的学习数据进行所述分类器的学习;
提问发行单元,发行存储在所述提问/预想回答存储单元的提问并提供给所述提问应答系统;
学习数据追加单元,从针对所述提问发行单元所发行的提问而从所述提问应答系统与得分一起输出的多个回答候补的每一个与该提问的配对生成所述提问应答系统的所述分类器的学习数据,并追加到所述学习数据存储单元;以及
反复控制单元,对所述学习装置控制单元、所述提问发行单元、以及所述学习数据追加单元进行控制,以便直到给定的结束条件成立为止,反复多次执行基于所述学习装置控制单元的所述学习装置的控制、基于所述提问发行单元的提问的发行、以及基于所述学习数据追加单元的所述学习数据的追加。
2.根据权利要求1所述的提问应答系统的训练装置,其特征在于,
所述学习数据追加单元包含:
回答候补选择单元,在针对所述提问发行单元所发行的提问而从所述提问应答系统与得分一起输出的多个回答候补之中,选择所述得分的绝对值小于正的第一阈值且该得分处于上位的给定个数的回答候补;
学习数据候补生成单元,算出由所述回答候补选择单元选择出的所述给定个数的回答候补的每一个与对应于所述提问的所述预想回答之间的一致度,并按照该一致度是否大于第二阈值对该回答候补和该提问附加正例或反例的标记而生成学习数据候补;以及
学习数据追加单元,将由所述学习数据候补生成单元生成的学习数据候补作为新的学习数据而追加到所述学习数据存储单元。
3.根据权利要求2所述的提问应答系统的训练装置,其特征在于,
所述学习数据追加单元还包含:
第一回答候补废弃单元,设置在所述回答候补选择单元的输出与所述学习数据候补生成单元的输入之间,将由所述回答候补选择单元选择出的回答候补之中、从得到了成为该回答候补之源的提问的因果关系表现得到的回答候补废弃。
4.根据权利要求2或权利要求3所述的提问应答系统的训练装置,其特征在于,
所述学习数据追加单元还包含:
第二回答候补废弃单元,设置在所述回答候补选择单元的输出与所述学习数据候补生成单元的输入之间,将由所述回答候补选择单元选择出的回答候补与所述提问的配对之中、与存储在所述学习数据存储单元的配对一致的配对删除。
5.根据权利要求1~4中任一项所述的提问应答系统的训练装置,其特征在于,
所述提问应答系统从由多个句子构成且包含至少一个在进行因果关系表现的提取时成为线索的词组的段落的集合提取回答候补。
6.一种计算机程序,使计算机作为提问应答系统的训练装置起作用,其中,所述提问应答系统的训练装置与因果关系表现存储单元、提问及预想回答存储单元、以及提问应答系统一起使用,且用于提高该提问应答系统内的基于机器学习的分类器的性能,所述因果关系表现存储单元存储多个因果关系表现,所述提问及预想回答存储单元存储多个从存储在所述因果关系表现存储单元的、相同的因果关系表现提取出的提问与针对该提问的预想回答的组,所述提问应答系统当接受提问时附带得分地输出针对该提问的多个回答候补,该计算机程序的特征在于,
所述训练装置进一步与具备用于进行所述提问应答系统的所述分类器的学习的学习数据存储单元的学习装置一起使用,
形成所述组的提问和预想回答是从相同的因果关系表现生成的提问和预想回答,
所述计算机程序使计算机作为构成权利要求1至权利要求5中任一项所述的训练装置的各单元起作用。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015170923A JP6618735B2 (ja) | 2015-08-31 | 2015-08-31 | 質問応答システムの訓練装置及びそのためのコンピュータプログラム |
JP2015-170923 | 2015-08-31 | ||
PCT/JP2016/074903 WO2017038657A1 (ja) | 2015-08-31 | 2016-08-26 | 質問応答システムの訓練装置及びそのためのコンピュータプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107949841A true CN107949841A (zh) | 2018-04-20 |
CN107949841B CN107949841B (zh) | 2022-03-18 |
Family
ID=58188883
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680049453.0A Active CN107949841B (zh) | 2015-08-31 | 2016-08-26 | 提问应答系统的训练装置以及存储介质 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20180246953A1 (zh) |
EP (1) | EP3346394A4 (zh) |
JP (1) | JP6618735B2 (zh) |
KR (1) | KR102640564B1 (zh) |
CN (1) | CN107949841B (zh) |
WO (1) | WO2017038657A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109376249A (zh) * | 2018-09-07 | 2019-02-22 | 桂林电子科技大学 | 一种基于自适应负采样的知识图谱嵌入方法 |
CN111506712A (zh) * | 2019-01-30 | 2020-08-07 | 株式会社东芝 | 对话系统、对话方法、程序以及存储介质 |
CN113302601A (zh) * | 2019-01-08 | 2021-08-24 | 三菱电机株式会社 | 含义关系学习装置、含义关系学习方法及含义关系学习程序 |
CN113474769A (zh) * | 2019-02-20 | 2021-10-01 | 日立产业控制解决方案有限公司 | 图像检索装置以及监督数据提取方法 |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10902330B2 (en) * | 2016-06-21 | 2021-01-26 | International Business Machines Corporation | Cognitive question answering pipeline calibrating |
JP6767042B2 (ja) * | 2016-09-26 | 2020-10-14 | 国立研究開発法人情報通信研究機構 | シナリオパッセージ分類器、シナリオ分類器、及びそのためのコンピュータプログラム |
US10699215B2 (en) * | 2016-11-16 | 2020-06-30 | International Business Machines Corporation | Self-training of question answering system using question profiles |
CN107193882B (zh) * | 2017-04-27 | 2020-11-20 | 东南大学 | RDF数据上基于图匹配的why-not查询回答方法 |
JP2019020893A (ja) | 2017-07-13 | 2019-02-07 | 国立研究開発法人情報通信研究機構 | ノン・ファクトイド型質問応答装置 |
JP6506360B2 (ja) * | 2017-08-24 | 2019-04-24 | 三菱電機インフォメーションシステムズ株式会社 | 教師データを生成する方法、学習済みモデルを生成する方法、学習済みモデル、コンピュータおよびプログラム |
MX2018011305A (es) * | 2017-09-18 | 2019-07-04 | Tata Consultancy Services Ltd | Técnicas para corregir el desvío de entrenamiento lingüístico en los datos de entrenamiento. |
JP7009911B2 (ja) * | 2017-10-26 | 2022-01-26 | 富士通株式会社 | 回答出力プログラム、回答出力方法および情報処理装置 |
KR102100951B1 (ko) * | 2017-11-16 | 2020-04-14 | 주식회사 마인즈랩 | 기계 독해를 위한 질의응답 데이터 생성 시스템 |
CN108170749B (zh) * | 2017-12-21 | 2021-06-11 | 北京百度网讯科技有限公司 | 基于人工智能的对话方法、装置及计算机可读介质 |
JP2019133229A (ja) * | 2018-01-29 | 2019-08-08 | 国立研究開発法人情報通信研究機構 | 質問応答システムの訓練データの作成方法及び質問応答システムの訓練方法 |
JP7052395B2 (ja) * | 2018-02-13 | 2022-04-12 | 富士通株式会社 | 学習プログラム、学習方法および学習装置 |
JP7126843B2 (ja) * | 2018-03-29 | 2022-08-29 | エヌ・ティ・ティ・データ先端技術株式会社 | 学習対象抽出装置、学習対象抽出方法及び学習対象抽出プログラム |
US11715042B1 (en) | 2018-04-20 | 2023-08-01 | Meta Platforms Technologies, Llc | Interpretability of deep reinforcement learning models in assistant systems |
US10978056B1 (en) * | 2018-04-20 | 2021-04-13 | Facebook, Inc. | Grammaticality classification for natural language generation in assistant systems |
US11307880B2 (en) | 2018-04-20 | 2022-04-19 | Meta Platforms, Inc. | Assisting users with personalized and contextual communication content |
US11676220B2 (en) | 2018-04-20 | 2023-06-13 | Meta Platforms, Inc. | Processing multimodal user input for assistant systems |
US10782986B2 (en) | 2018-04-20 | 2020-09-22 | Facebook, Inc. | Assisting users with personalized and contextual communication content |
US11886473B2 (en) | 2018-04-20 | 2024-01-30 | Meta Platforms, Inc. | Intent identification for agent matching by assistant systems |
US11508357B2 (en) * | 2018-04-25 | 2022-11-22 | Nippon Telegraph And Telephone Corporation | Extended impersonated utterance set generation apparatus, dialogue apparatus, method thereof, and program |
KR102329290B1 (ko) * | 2018-05-31 | 2021-11-22 | 주식회사 마인즈랩 | 구조화된 학습 데이터의 전처리 방법 및 이를 이용한 인공 신경망 학습 방법 |
JP7087938B2 (ja) * | 2018-06-07 | 2022-06-21 | 日本電信電話株式会社 | 質問生成装置、質問生成方法及びプログラム |
WO2019235103A1 (ja) * | 2018-06-07 | 2019-12-12 | 日本電信電話株式会社 | 質問生成装置、質問生成方法及びプログラム |
WO2019244803A1 (ja) * | 2018-06-18 | 2019-12-26 | 日本電信電話株式会社 | 回答学習装置、回答学習方法、回答生成装置、回答生成方法、及びプログラム |
US10678822B2 (en) * | 2018-06-29 | 2020-06-09 | International Business Machines Corporation | Query expansion using a graph of question and answer vocabulary |
CN113535915B (zh) | 2018-09-28 | 2024-09-13 | 北京百度网讯科技有限公司 | 用于扩充数据集的方法 |
WO2020122290A1 (ko) * | 2018-12-14 | 2020-06-18 | (주)하니소프트 | 암호 해독 장치 및 방법, 이를 기록한 기록매체인공지능 기반의 공동주택 민원처리 장치 및 방법 |
US20220237637A1 (en) * | 2018-12-18 | 2022-07-28 | Meta Platforms, Inc. | Systems and methods for real time crowdsourcing |
US11295077B2 (en) * | 2019-04-08 | 2022-04-05 | International Business Machines Corporation | Stratification of token types for domain-adaptable question answering systems |
US11270077B2 (en) * | 2019-05-13 | 2022-03-08 | International Business Machines Corporation | Routing text classifications within a cross-domain conversational service |
US11544461B2 (en) * | 2019-05-14 | 2023-01-03 | Intel Corporation | Early exit for natural language processing models |
KR102283779B1 (ko) * | 2019-07-18 | 2021-07-29 | 건국대학교 산학협력단 | 질의 응답 방법 및 이를 수행하는 장치들 |
JP7290861B2 (ja) | 2019-07-19 | 2023-06-14 | 国立研究開発法人情報通信研究機構 | 質問応答システムのための回答分類器及び表現ジェネレータ、並びに表現ジェネレータを訓練するためのコンピュータプログラム |
US11531818B2 (en) * | 2019-11-15 | 2022-12-20 | 42 Maru Inc. | Device and method for machine reading comprehension question and answer |
JP2021096711A (ja) | 2019-12-18 | 2021-06-24 | 富士通株式会社 | 情報処理プログラム、情報処理方法および情報処理装置 |
JP7106036B2 (ja) * | 2020-04-30 | 2022-07-25 | 三菱電機株式会社 | 学習データ作成装置、方法、及びプログラム |
CN111858883A (zh) * | 2020-06-24 | 2020-10-30 | 北京百度网讯科技有限公司 | 三元组样本的生成方法、装置、电子设备及存储介质 |
KR102280489B1 (ko) | 2020-11-19 | 2021-07-22 | 주식회사 두유비 | 대규모 사전학습 모델을 학습하여 지성을 기반으로 대화하는 대화 지능 획득 방법 |
CN113535911B (zh) * | 2020-12-03 | 2024-04-12 | 腾讯科技(深圳)有限公司 | 奖励模型处理方法、电子设备、介质和计算机程序产品 |
CN112507706B (zh) * | 2020-12-21 | 2023-01-31 | 北京百度网讯科技有限公司 | 知识预训练模型的训练方法、装置和电子设备 |
JPWO2022249946A1 (zh) * | 2021-05-28 | 2022-12-01 | ||
CN113408299B (zh) * | 2021-06-30 | 2022-03-25 | 北京百度网讯科技有限公司 | 语义表示模型的训练方法、装置、设备和存储介质 |
WO2023079703A1 (ja) * | 2021-11-05 | 2023-05-11 | 楽天グループ株式会社 | 処理実行システム、処理実行方法、及びプログラム |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130007037A1 (en) * | 2011-06-28 | 2013-01-03 | Microsoft Corporation | Automatic Question and Answer Detection |
CN102956126A (zh) * | 2011-08-22 | 2013-03-06 | 日立民用电子株式会社 | 学习支持系统以及学习支持方法 |
CN103617159A (zh) * | 2012-12-07 | 2014-03-05 | 万继华 | 将自然语言翻译成计算机语言的方法、语义分析器及人机对话系统 |
CN104050256A (zh) * | 2014-06-13 | 2014-09-17 | 西安蒜泥电子科技有限责任公司 | 基于主动学习的问答方法及采用该方法的问答系统 |
US20140280087A1 (en) * | 2013-03-15 | 2014-09-18 | International Business Machines Corporation | Results of Question and Answer Systems |
CN104137097A (zh) * | 2012-02-27 | 2014-11-05 | 独立行政法人情报通信研究机构 | 谓语模板收集装置、特定短语对收集装置、以及用于它们的计算机程序 |
CN104137102A (zh) * | 2012-02-23 | 2014-11-05 | 独立行政法人情报通信研究机构 | 非事实型询问应答系统以及计算机程序 |
CN104572734A (zh) * | 2013-10-23 | 2015-04-29 | 腾讯科技(深圳)有限公司 | 问题推荐方法、装置及系统 |
CN104834651A (zh) * | 2014-02-12 | 2015-08-12 | 北京京东尚科信息技术有限公司 | 一种提供高频问题回答的方法和装置 |
EP3016002A1 (en) * | 2013-06-27 | 2016-05-04 | National Institute Of Information And Communications Technology | Non-factoid question-and-answer system and method |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8543565B2 (en) * | 2007-09-07 | 2013-09-24 | At&T Intellectual Property Ii, L.P. | System and method using a discriminative learning approach for question answering |
-
2015
- 2015-08-31 JP JP2015170923A patent/JP6618735B2/ja active Active
-
2016
- 2016-08-26 WO PCT/JP2016/074903 patent/WO2017038657A1/ja active Application Filing
- 2016-08-26 KR KR1020187005104A patent/KR102640564B1/ko active IP Right Grant
- 2016-08-26 CN CN201680049453.0A patent/CN107949841B/zh active Active
- 2016-08-26 US US15/755,068 patent/US20180246953A1/en not_active Abandoned
- 2016-08-26 EP EP16841689.9A patent/EP3346394A4/en not_active Withdrawn
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130007037A1 (en) * | 2011-06-28 | 2013-01-03 | Microsoft Corporation | Automatic Question and Answer Detection |
CN102956126A (zh) * | 2011-08-22 | 2013-03-06 | 日立民用电子株式会社 | 学习支持系统以及学习支持方法 |
CN104137102A (zh) * | 2012-02-23 | 2014-11-05 | 独立行政法人情报通信研究机构 | 非事实型询问应答系统以及计算机程序 |
US20150026106A1 (en) * | 2012-02-23 | 2015-01-22 | National Institute Of Information And Communcations Technology | Non-factoid question-answering system and computer program |
CN104137097A (zh) * | 2012-02-27 | 2014-11-05 | 独立行政法人情报通信研究机构 | 谓语模板收集装置、特定短语对收集装置、以及用于它们的计算机程序 |
CN103617159A (zh) * | 2012-12-07 | 2014-03-05 | 万继华 | 将自然语言翻译成计算机语言的方法、语义分析器及人机对话系统 |
US20140280087A1 (en) * | 2013-03-15 | 2014-09-18 | International Business Machines Corporation | Results of Question and Answer Systems |
EP3016002A1 (en) * | 2013-06-27 | 2016-05-04 | National Institute Of Information And Communications Technology | Non-factoid question-and-answer system and method |
US20160155058A1 (en) * | 2013-06-27 | 2016-06-02 | National Institute Of Information And Communications Technology | Non-factoid question-answering system and method |
CN104572734A (zh) * | 2013-10-23 | 2015-04-29 | 腾讯科技(深圳)有限公司 | 问题推荐方法、装置及系统 |
CN104834651A (zh) * | 2014-02-12 | 2015-08-12 | 北京京东尚科信息技术有限公司 | 一种提供高频问题回答的方法和装置 |
CN104050256A (zh) * | 2014-06-13 | 2014-09-17 | 西安蒜泥电子科技有限责任公司 | 基于主动学习的问答方法及采用该方法的问答系统 |
Non-Patent Citations (3)
Title |
---|
JONG-HOON OH等: "why-question answering using intra- and inter-sentential causal relations", 《HTTPS://WWW.RESEARCHGATE.NET/PUBLICATION/259334345》 * |
LUCIAN VLAD LITA等: "Unsupervised Question Answering Data Acquisition", 《HTTPS://WWW.RESEARCHGATE.NET/PUBLICATION/221614580》 * |
周佳逸: "基于张量递归神经网络的英文语义关系分类方法研究", 《现代计算机(专业版)》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109376249A (zh) * | 2018-09-07 | 2019-02-22 | 桂林电子科技大学 | 一种基于自适应负采样的知识图谱嵌入方法 |
CN109376249B (zh) * | 2018-09-07 | 2021-11-30 | 桂林电子科技大学 | 一种基于自适应负采样的知识图谱嵌入方法 |
CN113302601A (zh) * | 2019-01-08 | 2021-08-24 | 三菱电机株式会社 | 含义关系学习装置、含义关系学习方法及含义关系学习程序 |
CN111506712A (zh) * | 2019-01-30 | 2020-08-07 | 株式会社东芝 | 对话系统、对话方法、程序以及存储介质 |
CN111506712B (zh) * | 2019-01-30 | 2023-11-07 | 株式会社东芝 | 对话系统、对话方法、程序以及存储介质 |
CN113474769A (zh) * | 2019-02-20 | 2021-10-01 | 日立产业控制解决方案有限公司 | 图像检索装置以及监督数据提取方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2017038657A1 (ja) | 2017-03-09 |
EP3346394A1 (en) | 2018-07-11 |
EP3346394A4 (en) | 2019-05-15 |
JP6618735B2 (ja) | 2019-12-11 |
CN107949841B (zh) | 2022-03-18 |
KR102640564B1 (ko) | 2024-02-26 |
KR20180048624A (ko) | 2018-05-10 |
JP2017049681A (ja) | 2017-03-09 |
US20180246953A1 (en) | 2018-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107949841A (zh) | 提问应答系统的训练装置以及该训练装置用的计算机程序 | |
Daems et al. | Translationese and post-editese: How comparable is comparable quality? | |
US9443513B2 (en) | System and method for automated detection of plagiarized spoken responses | |
Zhang et al. | One-shot learning for question-answering in gaokao history challenge | |
KR20190057282A (ko) | 시나리오 패시지 분류기, 시나리오 분류기, 및 그것을 위한 컴퓨터 프로그램 | |
Dobson | Interpretable Outputs: Criteria for Machine Learning in the Humanities. | |
Chen et al. | Research on automatic essay scoring of composition based on CNN and OR | |
Yun Ying et al. | Opinion mining on Viet Thanh Nguyen’s the sympathizer using topic modelling and sentiment analysis | |
Wang | Using machine learning and natural language processing to analyze library chat reference transcripts | |
Jeon et al. | Dropout prediction over weeks in MOOCs via interpretable multi-layer representation learning | |
CN117291192B (zh) | 一种政务文本语义理解分析方法及系统 | |
CN114330318A (zh) | 一种金融领域中文细粒度实体识别方法及装置 | |
Maree et al. | Optimizing machine learning-based sentiment analysis accuracy in bilingual sentences via preprocessing techniques. | |
CN109299007A (zh) | 一种缺陷修复者自动推荐方法 | |
US20210357867A1 (en) | Method, system and computer-readable medium for information retrieval | |
Shen et al. | A Multimodal Approach to Assessing Document Quality. | |
Shen et al. | A general approach to multimodal document quality assessment | |
Rio | Text message categorization of collaborative learning skills in online discussion using support vector machine | |
CN116975275A (zh) | 多语种文本分类模型训练方法、装置和计算机设备 | |
KR20200065348A (ko) | 신뢰도 분포 기반 논지 및 뒷받침 증거자료의 군집화를 통한 신뢰 가능성 판단 가속화 방법 및 시스템 | |
Alnashwan et al. | Classification of online medical discourse by modified co-training | |
Ogihara et al. | Student retention pattern prediction employing linguistic features extracted from admission application essays | |
Al-Shargabi et al. | Aegd: Arabic essay grading dataset for machine learning | |
Zhu et al. | Automated qualitative rule extraction based on bidirectional long shortterm memory model | |
Doss et al. | Learning Analytics Model for Predictive Analysis of Learners Behavior for an Indigenous MOOC Platform (Tadakhul System) in Oman |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |