CN111666395A - 面向软件缺陷的可解释问答方法、装置、计算机设备和存储介质 - Google Patents
面向软件缺陷的可解释问答方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN111666395A CN111666395A CN202010417642.7A CN202010417642A CN111666395A CN 111666395 A CN111666395 A CN 111666395A CN 202010417642 A CN202010417642 A CN 202010417642A CN 111666395 A CN111666395 A CN 111666395A
- Authority
- CN
- China
- Prior art keywords
- question
- vector
- bug
- answer
- fact
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 230000007547 defect Effects 0.000 title claims abstract description 31
- 239000013598 vector Substances 0.000 claims abstract description 156
- 238000010276 construction Methods 0.000 claims abstract description 21
- 230000007246 mechanism Effects 0.000 claims abstract description 18
- 238000012545 processing Methods 0.000 claims description 20
- 238000006243 chemical reaction Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 235000008733 Citrus aurantifolia Nutrition 0.000 claims description 2
- 235000011941 Tilia x europaea Nutrition 0.000 claims description 2
- 239000004571 lime Substances 0.000 claims description 2
- 230000008569 process Effects 0.000 abstract description 7
- 230000000875 corresponding effect Effects 0.000 description 35
- 238000005516 engineering process Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种面向软件缺陷的可解释问答方法、装置、计算机设备和存储介质。方法包括:构建bug语料库、实体集合E、事实三元组集合F;将F、E、用户问题q均转换为向量;对E和q对应的向量迭代执行多跳注意力机制,获得向量ct;将向量ct输入全连接层,输出向量b;对向量b与E对应的向量进行内积,将内积结果中最大值对应的实体作为答案a,完成问答模型的构建;将F、q和a输入为问答模型预设的解释方法,获与问题q最相关的事实三元组。本发明提供了面向软件缺陷的问答模型,并使用解释方法对模型进行解释,使问答过程中与问题最相关的事实三元组对用户可见,提升了该问答模型的透明度,增强了用户对该机器学习问答模型的理解力。
Description
技术领域
本发明涉及软件维护领域,特别涉及一种面向软件缺陷的可解释问答方法、装置、计算机设备和存储介质。
背景技术
软件开发人员和维护人员为了解决自己所遇到的一些新的软件缺陷,通常会需要借助搜索引擎以及软件缺陷库来对软件缺陷相关信息进行问答。但是,搜索引擎和软件缺陷库采用的检索方法一般是直接使用关键字匹配技术,搜索空间很大,非常耗费时间,并且仅依靠关键词检索所得到的搜索结果并不准确。而且,这些软件缺陷库大多数采用基于传统的关系数据库的搜索方法,搜索得到的结果虽然包含了软件缺陷大量的信息和属性,但是这些信息和属性常常与自己所想知道的问题相关性不大,不能够很好地帮助自己修复新的软件缺陷。此外,由于深度学习对特征提取的天然优势,目前研究领域的先进问答技术基本使用了各种各样的深度学习模型,但这些技术大多是基于开放领域的,很少甚至没有涉及到具体的软件缺陷数据,因此很难找到对缺陷理解修复切实可用的信息。随着使用深度学习技术所带来的对用户不透明的弊端日益显露,用户逐渐对深度学习模型失去了理解和信任。
发明内容
本发明的目的在于针对上述问题,提供一种能够很好地回答软件开发者和维护者提出的软件缺陷问题的机器学习问答模型,使用解释方法对该问答模型进行解释,使问答过程中的与用户问题最相关的事实三元组对用户可见,提升该问答模型的透明度以及增强用户对该机器学习问答模型的理解力。
实现本发明目的的技术解决方案为:面向软件缺陷的可解释问答方法,所述方法包括以下步骤:
步骤1,构建bug语料库;
步骤2,提取bug语料库中的所有实体,构建实体集合E;
步骤3,根据主语、宾语以及主宾之间的关系将bug语料库中的数据处理为事实三元组f=<s,r,o>,构建事实三元组集合F;其中s表示主语,o表示宾语,r表示主语s和宾语o之间的关系;
步骤4,将所述事实三元组集合F和实体集合E分别转换为向量;
步骤5,将输入的用户问题q转换为向量;
步骤6,对实体集合E对应的向量和用户问题q对应的向量迭代执行多跳注意力机制,获得向量ct;
步骤7,将所述向量ct输入全连接层,输出向量b;
步骤8,将所述向量b与实体集合E对应的向量进行内积,将内积结果中最大值对应的实体作为用户问题q的答案a,完成问答模型的构建;
步骤9,将所述事实三元组集合F、用户问题q和答案a输入为所述问答模型预设的解释方法,获得事实三元组集合F中与用户问题q最相关的事实三元组f。
基于上述面向软件缺陷的可解释问答方法的可解释问答装置,所述装置包括:
第一构建模块,用于构建bug语料库;
第二构建模块,提取bug语料库中的所有实体,构建实体集合E;
第三构建模块,用于根据主语、宾语以及主宾之间的关系将bug语料库中的数据处理为事实三元组f=<s,r,o>,构建事实三元组集合F;其中s表示主语,o表示宾语,r表示主语s和宾语o之间的关系;
第一转换模块,用于将所述事实三元组集合F和实体集合E分别转换为向量;
第二转换模块,用于将输入的用户问题q转换为向量;
迭代模块,用于对实体集合E对应的向量和用户问题q对应的向量迭代执行多跳注意力机制,获得向量ct;
第三转换模块,用于将所述向量ct输入全连接层,输出向量b;
答案获取模块,用于将所述向量b与实体集合E对应的向量进行内积,将内积结果中最大值对应的实体作为用户问题q的答案a,完成问答模型的构建;
解释模块,用于将所述事实三元组集合F、用户问题q和答案a输入为所述问答模型预设的解释方法,获得事实三元组集合F中与用户问题q最相关的事实三元组f。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行所述计算机程序时实现以下步骤:
步骤1,构建bug语料库;
步骤2,提取bug语料库中的所有实体,构建实体集合E;
步骤3,根据主语、宾语以及主宾之间的关系将bug语料库中的数据处理为事实三元组f=<s,r,o>,构建事实三元组集合F;其中s表示主语,o表示宾语,r表示主语s和宾语o之间的关系;
步骤4,将所述事实三元组集合F和实体集合E分别转换为向量;
步骤5,将输入的用户问题q转换为向量;
步骤6,对实体集合E对应的向量和用户问题q对应的向量迭代执行多跳注意力机制,获得向量ct;
步骤7,将所述向量ct输入全连接层,输出向量b;
步骤8,将所述向量b与实体集合E对应的向量进行内积,将内积结果中最大值对应的实体作为用户问题q的答案a,完成问答模型的构建;
步骤9,将所述事实三元组集合F、用户问题q和答案a输入为所述问答模型预设的解释方法,获得事实三元组集合F中与用户问题q最相关的事实三元组f。
一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
步骤1,构建bug语料库;
步骤2,提取bug语料库中的所有实体,构建实体集合E;
步骤3,根据主语、宾语以及主宾之间的关系将bug语料库中的数据处理为事实三元组f=<s,r,o>,构建事实三元组集合F;其中s表示主语,o表示宾语,r表示主语s和宾语o之间的关系;
步骤4,将所述事实三元组集合F和实体集合E分别转换为向量;
步骤5,将输入的用户问题q转换为向量;
步骤6,对实体集合E对应的向量和用户问题q对应的向量迭代执行多跳注意力机制,获得向量ct;
步骤7,将所述向量ct输入全连接层,输出向量b;
步骤8,将所述向量b与实体集合E对应的向量进行内积,将内积结果中最大值对应的实体作为用户问题q的答案a,完成问答模型的构建;
步骤9,将所述事实三元组集合F、用户问题q和答案a输入为所述问答模型预设的解释方法,获得事实三元组集合F中与用户问题q最相关的事实三元组f。
本发明与现有技术相比,其显著优点为:1)本发明的方法基于memory network,提出了一种专门针对软件缺陷的深度学习问答模型,相对于使用开放领域的问答技术来进行软件缺陷数据的问答效果好;2)相对于传统的借助于搜索引擎以及软件缺陷库来对软件缺陷相关信息进行问答,本发明的方法所设计的针对软件缺陷的深度学习问答模型能够对缺陷数据进行特征提取,所提取的数据抽象特征鲁棒性好,泛化能力强;3)本发明的方法使用解释方法对提出的面向软件缺陷的深度学习问答模型进行解释,使问答过程中的与问题最相关的事实三元组对用户可见,提升了该问答模型的透明度,增强了用户对该机器学习问答模型的理解力;4)本发明的方法所设计的软件缺陷问答模型中的多跳注意力机制对问答过程中的推理大有裨益。
下面结合附图对本发明作进一步详细描述。
附图说明
图1为一个实施例中面向软件缺陷的可解释问答方法的流程图。
图2为一个实施例中bug 59908的bug报告示意图。
图3为一个实施例中利用LSTM将用户问题转换为向量的示意图。
图4为一个实施例中解释方法的示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,结合图1,提供了一种面向软件缺陷的可解释问答方法,该方法包括以下步骤:
步骤1,构建bug语料库;
步骤2,提取bug语料库中的所有实体,构建实体集合E;
步骤3,根据主语、宾语以及主宾之间的关系将bug语料库中的数据处理为事实三元组f=<s,r,o>,构建事实三元组集合F;其中s表示主语,o表示宾语,r表示主语s和宾语o之间的关系;
步骤4,将所述事实三元组集合F和实体集合E分别转换为向量;
步骤5,将输入的用户问题q转换为向量;
步骤6,对实体集合E对应的向量和用户问题q对应的向量迭代执行多跳注意力机制,获得向量ct;
步骤7,将所述向量ct输入全连接层,输出向量b;
这里,全连接层的核心操作就是矩阵向量乘积y=Wx(其中x和y都是向量,W为矩阵),其本质就是由一个特征空间线性变换到另一个特征空间。
步骤8,将所述向量b与实体集合E对应的向量进行内积,将内积结果中最大值对应的实体作为用户问题q的答案a,完成问答模型的构建;
步骤9,将所述事实三元组集合F、用户问题q和答案a输入为所述问答模型预设的解释方法,获得事实三元组集合F中与用户问题q最相关的事实三元组f。
这里,可以将该问答模型的解释方法视为一个函数,事实三元组集合F、用户问题q和答案a作为该函数的输入,获得事实三元组集合F中与问题q最相关的事实三元组f作为该函数的输出。
这里,获取最相关的事实三元组f可以采用现有的任意可用的解释方法。
本发明的方法结合memory network,提出了一种面向软件缺陷的问答模型,并使用解释方法对该问答模型进行解释,使问答过程中的与问题最相关的事实三元组对用户可见,达到了解释该问答模型的目的。
进一步地,在其中一个实施例中,步骤1所述构建bug语料库具体为:从bug报告中提取bug信息构成bug语料库,所述bug信息包括:BugID、Product、Component、Reported、Modified、Assignee、Reporter、QA Contact、Summary、Description信息。
进一步地,在其中一个实施例中,步骤2所述提取bug语料库中的所有实体,可以采用软件领域中的任意实体识别方法,优选采用S-NER方法。
进一步地,在其中一个实施例中,步骤4所述将所述事实三元组集合F和实体集合E转换为向量,具体包括:利用word embedding将事实三元组f中的s和r处理为二维向量key,o处理为一维向量value,实体集合E处理为二维向量M(将独立的文本转换成有关联的二维向量);所述二维向量M包括多个一维向量,每个一维向量对应一个实体向量表示。
进一步地,在其中一个实施例中,步骤5所述将输入的用户问题q转换为向量,具体为:通过双向LSTM神经网络将输入的用户问题q转换为二维向量q0。
进一步地,在其中一个实施例中,步骤6所述多跳注意力机制为点积运算,公式为:
式中,t表示第t跳,t=0初始化ct=c0=q0,ct表示第t跳注意力机制获得的向量,可称为第t跳的语境向量,ct-1表示第t-1跳注意力机制获得的向量,可称为第t-1跳的语境向量,wt表示权重矩阵,将上一跳的语境和当前迭代中基于注意力权重的值纳入考虑之内,wp表示投影矩阵,k代表所述二维向量key,v代表所述一维向量value。
进一步优选地,在其中一个实施例中,步骤9中所述解释方法具体采用LIME,(局部可理解的与模型无关的解释技术),它使本发明提出的问答模型中的一些中间结果对用户可见,提升了用户对该问答模型的信任。
在一个实施例中,提供了一种面向软件缺陷的可解释问答装置,该装置包括:
第一构建模块,用于构建bug语料库;
第二构建模块,提取bug语料库中的所有实体,构建实体集合E;
第三构建模块,用于根据主语、宾语以及主宾之间的关系将bug语料库中的数据处理为事实三元组f=<s,r,o>,构建事实三元组集合F;其中s表示主语,o表示宾语,r表示主语s和宾语o之间的关系;
第一转换模块,用于将所述事实三元组集合F和实体集合E分别转换为向量;
第二转换模块,用于将输入的用户问题q转换为向量;
迭代模块,用于对实体集合E对应的向量和用户问题q对应的向量迭代执行多跳注意力机制,获得向量ct;
第三转换模块,用于将所述向量ct输入全连接层,输出向量b;
答案获取模块,用于将所述向量b与实体集合E对应的向量进行内积,将内积结果中最大值对应的实体作为用户问题q的答案a,完成问答模型的构建;
解释模块,用于将所述事实三元组集合F、用户问题q和答案a输入为所述问答模型预设的解释方法,获得事实三元组集合F中与用户问题q最相关的事实三元组f。
关于面向软件缺陷的可解释问答装置的具体限定可以参见上文中对于面向软件缺陷的可解释问答方法的限定,在此不再赘述。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以下步骤:
构建bug语料库;
提取bug语料库中的所有实体,构建实体集合E;
根据主语、宾语以及主宾之间的关系将bug语料库中的数据处理为事实三元组f=<s,r,o>,构建事实三元组集合F;其中s表示主语,o表示宾语,r表示主语s和宾语o之间的关系;
将所述事实三元组集合F和实体集合E分别转换为向量;
将输入的用户问题q转换为向量;
对实体集合E对应的向量和用户问题q对应的向量迭代执行多跳注意力机制,获得向量ct;
将所述向量ct输入全连接层,输出向量b;
将所述向量b与实体集合E对应的向量进行内积,将内积结果中最大值对应的实体作为用户问题q的答案a,完成问答模型的构建;
将所述事实三元组集合F、用户问题q和答案a输入为所述问答模型预设的解释方法,获得事实三元组集合F中与用户问题q最相关的事实三元组f。
对于每一步的限定具体限定可以参见上文中对于面向软件缺陷的可解释问答方法的限定,在此不再赘述。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
构建bug语料库;
提取bug语料库中的所有实体,构建实体集合E;
根据主语、宾语以及主宾之间的关系将bug语料库中的数据处理为事实三元组f=<s,r,o>,构建事实三元组集合F;其中s表示主语,o表示宾语,r表示主语s和宾语o之间的关系;
将所述事实三元组集合F和实体集合E分别转换为向量;
将输入的用户问题q转换为向量;
对实体集合E对应的向量和用户问题q对应的向量迭代执行多跳注意力机制,获得向量ct;
将所述向量ct输入全连接层,输出向量b;
将所述向量b与实体集合E对应的向量进行内积,将内积结果中最大值对应的实体作为用户问题q的答案a,完成问答模型的构建;
将所述事实三元组集合F、用户问题q和答案a输入为所述问答模型预设的解释方法,获得事实三元组集合F中与用户问题q最相关的事实三元组f。
对于每一步的限定具体限定可以参见上文中对于面向软件缺陷的可解释问答方法的限定,在此不再赘述。
作为一种具体示例,对本发明面向软件缺陷的可解释问答进行进一步说明,包括以下内容:
1、针对一个具体的bug 59908如图2所示,利用Python的requests库从bug报告中爬取BugID、Product、Component、Reported、Modified、Assignee、Reporter、QA Contact、Summary、Description等信息,从这些信息中抽取实体,构成实体集合E,E中部分内容如表1所示,并将这些信息根据主语、宾语以及主宾之间的关系处理成事实三元组形式(即f=<s,r,o>),构成事实三元组集合F,F中部分内容如表2所示。
表1 实体集合E中的部分内容
表2 事实三元组F中部分内容
2、利用word embedding方法将事实三元组f中的s和r处理为二维向量key,o处理成一维向量value,并将实体集合E处理得到一个二维向量M,该二维向量M包括多个一维向量,每一个一维向量即是实体集合E中相应的实体的向量表示。
3、利用双向LSTM神经网络将用户输入的问题q处理成二维空间的分布式表示q0,具体过程如图3所示,将用户输入的问题按单词进行拆分,然后embedding,经过LSTM处理得到多个一维向量,然后将这些向量进行拼接,得到该用户问题的二维向量表示。
4、对向量key、value和q0迭代执行多跳注意力机制,获得向量ct,这里采用的是点积运算,多跳注意力机制的公式:
式中,t表示第t跳,t=0初始化ct=c0=q0,ct表示第t跳注意力机制获得的向量,可称为第t跳的语境向量,ct-1表示第t-1跳注意力机制获得的向量,可称为第t-1跳的语境向量,wt表示权重矩阵,wp表示投影矩阵,k代表所述二维向量key,v代表所述一维向量value。
5、将向量ct输入全连接层,输出向量b。这里全连接层,其核心操作就是矩阵向量乘积y=Wx(其中x和y都是向量,W为矩阵),其本质就是由一个特征空间线性变换到另一个特征空间。
6、将向量b与二维向量M进行内积,内积结果中最大值对应的实体即为问题q的答案a,完成问答模型的构建。
7、结合图4,将事实三元组集合F、用户问题q和问题答案a输入为该问答模型预设的解释方法,获得F中与问题q最相关的事实三元组f,这里将该问答模型的解释方法视为一个函数,事实三元组集合F、用户问题q和问题答案a作为该函数的输入,得到事实三元组集合F中与问题q最相关的事实三元组f作为该函数的输出。
本发明的方法提供了一种能够很好地回答软件开发者和维护者提出的软件缺陷问题的机器学习问答模型,并使用解释方法对该问答模型进行解释,使问答过程中与用户问题最相关的事实三元组对用户可见,提升了该问答模型的透明度,增强了用户对该机器学习问答模型的理解力。
以上显示和描述了本发明的基本原理、主要特征及优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
Claims (10)
1.面向软件缺陷的可解释问答方法,其特征在于,所述方法包括以下步骤:
步骤1,构建bug语料库;
步骤2,提取所述bug语料库中的所有实体,构建实体集合E;
步骤3,根据主语、宾语以及主宾之间的关系将bug语料库中的数据处理为事实三元组f=<s,r,o>,构建事实三元组集合F;其中s表示主语,o表示宾语,r表示主语s和宾语o之间的关系;
步骤4,将所述事实三元组集合F和实体集合E分别转换为向量;
步骤5,将输入的用户问题q转换为向量;
步骤6,对实体集合E对应的向量和用户问题q对应的向量迭代执行多跳注意力机制,获得向量ct;
步骤7,将所述向量ct输入全连接层,输出向量b;
步骤8,将所述向量b与实体集合E对应的向量进行内积,将内积结果中最大值对应的实体作为用户问题q的答案a,完成问答模型的构建;
步骤9,将所述事实三元组集合F、用户问题q和答案a输入为所述问答模型预设的解释方法,获得事实三元组集合F中与用户问题q最相关的事实三元组f。
2.根据权利要求1所述的面向软件缺陷的可解释问答方法,其特征在于,步骤1所述构建bug语料库具体为:从bug报告中提取bug信息构成bug语料库,所述bug信息包括:BugID、Product、Component、Reported、Modified、Assignee、Reporter、QA Contact、Summary、Description信息。
3.根据权利要求1所述的面向软件缺陷的可解释问答方法,其特征在于,步骤2所述提取bug语料库中的所有实体具体采用S-NER方法。
4.根据权利要求1所述的面向软件缺陷的可解释问答方法,其特征在于,步骤4所述将所述事实三元组集合F和实体集合E转换为向量,具体包括:利用word embedding将事实三元组f中的s和r处理为二维向量key,o处理为一维向量value,实体集合E处理为二维向量M;所述二维向量M包括多个一维向量,每个一维向量对应一个实体向量表示。
5.根据权利要求1所述的面向软件缺陷的可解释问答方法,其特征在于,步骤5所述将输入的用户问题q转换为向量,具体为:通过双向LSTM神经网络将输入的用户问题q转换为二维向量q0。
7.根据权利要求1所述的面向软件缺陷的可解释问答方法,其特征在于,步骤9中所述解释方法具体采用LIME。
8.基于权利要求1至7任意一项所述的面向软件缺陷的可解释问答方法的可解释问答装置,其特征在于,所述装置包括:
第一构建模块,用于构建bug语料库;
第二构建模块,提取所述bug语料库中的所有实体,构建实体集合E;
第三构建模块,用于根据主语、宾语以及主宾之间的关系将bug语料库中的数据处理为事实三元组f=<s,r,o>,构建事实三元组集合F;其中s表示主语,o表示宾语,r表示主语s和宾语o之间的关系;
第一转换模块,用于将所述事实三元组集合F和实体集合E分别转换为向量;
第二转换模块,用于将输入的用户问题q转换为向量;
迭代模块,用于对实体集合E对应的向量和用户问题q对应的向量迭代执行多跳注意力机制,获得向量ct;
第三转换模块,用于将所述向量ct输入全连接层,输出向量b;
答案获取模块,用于将所述向量b与实体集合E对应的向量进行内积,将内积结果中最大值对应的实体作为用户问题q的答案a,完成问答模型的构建;
解释模块,用于将所述事实三元组集合F、用户问题q和答案a输入为所述问答模型预设的解释方法,获得事实三元组集合F中与用户问题q最相关的事实三元组f。
9.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010417642.7A CN111666395A (zh) | 2020-05-18 | 2020-05-18 | 面向软件缺陷的可解释问答方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010417642.7A CN111666395A (zh) | 2020-05-18 | 2020-05-18 | 面向软件缺陷的可解释问答方法、装置、计算机设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111666395A true CN111666395A (zh) | 2020-09-15 |
Family
ID=72383774
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010417642.7A Pending CN111666395A (zh) | 2020-05-18 | 2020-05-18 | 面向软件缺陷的可解释问答方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111666395A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113326062A (zh) * | 2021-05-25 | 2021-08-31 | 扬州大学 | 一种面向软件缺陷的多轮自动问答方法、系统、计算机设备和存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170249311A1 (en) * | 2016-02-26 | 2017-08-31 | Yahoo! Inc. | Quality-based scoring and inhibiting of user-generated content |
CN108509519A (zh) * | 2018-03-09 | 2018-09-07 | 北京邮电大学 | 基于深度学习的通用知识图谱增强问答交互系统及方法 |
CN109947914A (zh) * | 2019-02-21 | 2019-06-28 | 扬州大学 | 一种基于模板的软件缺陷自动问答方法 |
CN110110043A (zh) * | 2019-04-11 | 2019-08-09 | 中山大学 | 一种多跳视觉问题推理模型及其推理方法 |
CN110413732A (zh) * | 2019-07-16 | 2019-11-05 | 扬州大学 | 面向软件缺陷知识的知识搜索方法 |
CN110609995A (zh) * | 2018-06-15 | 2019-12-24 | 中央民族大学 | 构建藏语问答语料库的方法及装置 |
CN111046147A (zh) * | 2018-10-11 | 2020-04-21 | 马上消费金融股份有限公司 | 一种问答方法、装置及终端设备 |
-
2020
- 2020-05-18 CN CN202010417642.7A patent/CN111666395A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170249311A1 (en) * | 2016-02-26 | 2017-08-31 | Yahoo! Inc. | Quality-based scoring and inhibiting of user-generated content |
CN108509519A (zh) * | 2018-03-09 | 2018-09-07 | 北京邮电大学 | 基于深度学习的通用知识图谱增强问答交互系统及方法 |
CN110609995A (zh) * | 2018-06-15 | 2019-12-24 | 中央民族大学 | 构建藏语问答语料库的方法及装置 |
CN111046147A (zh) * | 2018-10-11 | 2020-04-21 | 马上消费金融股份有限公司 | 一种问答方法、装置及终端设备 |
CN109947914A (zh) * | 2019-02-21 | 2019-06-28 | 扬州大学 | 一种基于模板的软件缺陷自动问答方法 |
CN110110043A (zh) * | 2019-04-11 | 2019-08-09 | 中山大学 | 一种多跳视觉问题推理模型及其推理方法 |
CN110413732A (zh) * | 2019-07-16 | 2019-11-05 | 扬州大学 | 面向软件缺陷知识的知识搜索方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113326062A (zh) * | 2021-05-25 | 2021-08-31 | 扬州大学 | 一种面向软件缺陷的多轮自动问答方法、系统、计算机设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11966839B2 (en) | Auto-regressive neural network systems with a soft attention mechanism using support data patches | |
Stachurski | Economic dynamics: theory and computation | |
US20190130221A1 (en) | Method and device for generative adversarial network training | |
CN111506714A (zh) | 基于知识图嵌入的问题回答 | |
CN112765287A (zh) | 基于知识图谱嵌入的挖掘人物关系的方法、装置以及介质 | |
JP2022533265A (ja) | 完全アテンション型コンピュータビジョン | |
US20220406034A1 (en) | Method for extracting information, electronic device and storage medium | |
US20230008897A1 (en) | Information search method and device, electronic device, and storage medium | |
CN117094395B (zh) | 对知识图谱进行补全的方法、装置和计算机存储介质 | |
US20220392242A1 (en) | Method for training text positioning model and method for text positioning | |
US20220027722A1 (en) | Deep Relational Factorization Machine Techniques for Content Usage Prediction via Multiple Interaction Types | |
CN116738476A (zh) | 一种基于大语言模型的安全交互方法及装置 | |
CN117271724A (zh) | 一种基于大模型和语义图谱的智能问答实现方法及系统 | |
CN117043783A (zh) | 文本-图像-布局变换器模型(tilt) | |
CN114417161B (zh) | 基于异构图的虚拟物品时序推荐方法、装置、介质及设备 | |
Kovalev et al. | Application of pretrained large language models in embodied artificial intelligence | |
Wu et al. | Visual Question Answering | |
Archibald et al. | Numerical analysis for convergence of a sample-wise backpropagation method for training stochastic neural networks | |
CN111666395A (zh) | 面向软件缺陷的可解释问答方法、装置、计算机设备和存储介质 | |
CN117113998A (zh) | 统一信息抽取方法和装置 | |
CN115186072A (zh) | 一种基于双过程认知理论的知识图谱视觉问答方法 | |
CN113127615A (zh) | 文本处理方法、装置、电子设备及计算机可读存储介质 | |
Jha | Mastering PyTorch: build powerful neural network architectures using advanced PyTorch 1. x features | |
CN115906861A (zh) | 基于交互方面信息融合的语句情感分析方法以及装置 | |
CN113204679A (zh) | 一种代码查询模型的生成方法和计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200915 |