CN107330519A - 基于深度神经网络的故障定位方法 - Google Patents

基于深度神经网络的故障定位方法 Download PDF

Info

Publication number
CN107330519A
CN107330519A CN201710494488.1A CN201710494488A CN107330519A CN 107330519 A CN107330519 A CN 107330519A CN 201710494488 A CN201710494488 A CN 201710494488A CN 107330519 A CN107330519 A CN 107330519A
Authority
CN
China
Prior art keywords
mrow
msup
neural network
deep neural
failure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710494488.1A
Other languages
English (en)
Inventor
郑炜
冯晨
黄月明
蔺军
杨喜兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201710494488.1A priority Critical patent/CN107330519A/zh
Publication of CN107330519A publication Critical patent/CN107330519A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R31/00Arrangements for testing electric properties; Arrangements for locating electric faults; Arrangements for electrical testing characterised by what is being tested not provided for elsewhere
    • G01R31/34Testing dynamo-electric machines
    • G01R31/346Testing of armature or field windings

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种基于深度神经网络的故障定位方法,用于解决现有故障定位方法故障定位精度差的技术问题。技术方案是基于深度神经网络(deep neural network)通过学习一种深层非线性网络结构,实现复杂函数逼近,从而对输入数据进行分布式表征,同时展现了强大的从少数样本集中学习数据集本质特征的能力。这种方法通过利用测试用例样本对深度神经网络进行训练,训练后的深度神经网络被输入新的测试用例,输出结果得到每一条语句的故障概率,通过比较故障概率,来进行故障的有效定位,提高了故障定位的精确度。

Description

基于深度神经网络的故障定位方法
技术领域
本发明涉及一种故障定位方法,特别涉及一种基于深度神经网络的故障定位方法。
背景技术
文献“赵义飞,高锦宏,刘亚平,等.基于蚁群优化神经网络的故障诊断[J].北京信息科技大学学报(自然科学版),2010,25(2):45-48.”公开了一种基于蚁群算法的BP神经网络训练模型,并应用于电机转子故障诊断。该方法针对BP神经网络收敛速度慢,容易陷入局部极小点的问题,将蚁群算法引入BP神经网络的优化训练,用蚁群算法来学习BP神经网络的权系,建立了基于该算法的BP神经网络训练模型。该模型兼有了神经网络的广泛映射能力和蚁群算法的快速全局收敛以及启发式学习等特点,在某种程度上避免了BP神经网络收敛速度慢,易于陷入局部极小点的问题。但是文献所述方法使用模型为浅层结构算法,其局限性在于有限样本和计算单元情况下对复杂函数的表示能力有限,针对复杂问题的泛化能力也有一定的制约性,导致故障原因不能精确分析。
发明内容
为了克服现有故障定位方法故障定位精度差的不足,本发明提供一种基于深度神经网络的故障定位方法。该方法基于深度神经网络(deep neural network)通过学习一种深层非线性网络结构,实现复杂函数逼近,从而对输入数据进行分布式表征,同时展现了强大的从少数样本集中学习数据集本质特征的能力。这种方法通过利用测试用例样本对深度神经网络进行训练,训练后的深度神经网络被输入新的测试用例,输出结果得到每一条语句的故障概率,通过比较故障概率,来进行故障的有效定位,提高了故障定位的精确度。
本发明解决其技术问题所采用的技术方案:一种基于深度神经网络的故障定位方法,其特点是包括以下步骤:
步骤一、设计深度神经网络模型。构造深度神经网络,确定输入层与输出层的层数。根据公式
num=[a/30]*10 (1)
计算隐层节点数,其中,num为隐层节点个数,a为输入层节点数。假设输入层节点数为m,隐层节点数为n,输出层节点数为1,每个节点的转换函数采用单极性sigmoid函数f(s)=1/1+e-s;其中,s表示输入特征,ρ(s)表示输出。
步骤二、训练深度神经网络模型。深度神经网络模型输入层的节点数等于输入特征向量的维数,对应于可疑度值,输出层仅仅有一个输出节点。在模型经过区分性预训练后,用反向传播算法来微调这个模型的参数。设y1:T是训练样本,目标是最小化训练样本y1:T和标注x1:T之间的平方误差和,目标函数为:
对权重W和偏置b进行逐层求导并化简,递推得到对任意的第l层权重为:
为计算实际输出和期望输出的误差,输出样本y1:T到深度神经网络,然后执行其的前向过程,同时计算所有隐层节点和输出节点的输出,再计算误差eL(t)。得到L层误差eL(t)后,执行反向传播过程,迭代计算每层隐节点的误差eL(t),计算所需导数,得到DNN的参数更新方法:
(Wl,bl)m+1=(Wl,bl)m+Δ(Wl,bl)m,0≤l≤L (5)
其中,是ε学习率,α是冲量,m表示第m次迭代。输入虚拟测试矩阵Y到深度神经网络中,然后执行前向计算过程,最终输出节点的输出值就是对应每一句故障的可疑度值。
步骤三、获取测试用例。通过在相同程序中注入不同类型的故障,得到不同的错误版本,方法有在正确的程序版本中遗漏一些语句,改变原语句中的逻辑或是改变语句的赋值等。使用Gcov方法对待测源文件进行编译,得到程序可执行语句的覆盖信息。有故障版本程序的测试用例执行结果通过采用以下方法得到:在原正确版本上执行测试用例,得到测试用例执行结果;在故障版本上执行测试用例,得到测试用例执行结果;将正确版本的执行结果与故障版本的执行结果进行比较,如果相同,则认为故障版本中的测试用例执行成功,若不相同,则认为测试用例执行失败。
步骤四、基于深度神经网络的故障定位。根据Gcov方法得到程序执行测试用例后的覆盖信息及执行结果,作为所构造深度神经网络的训练样本。将测试用例覆盖信息与其对应执行结果依次输入到构建好的深度神经网络中,训练深度神经网络。以此模拟之间的非线性映射关系。构造虚拟测试集,使测试集中的每个测试用例都只覆盖待测文件中的一条语句。将此虚拟测试集表现为公式
的形式,其中,向分别表示测试用例v1,v2,...,vm的覆盖信息,并将虚拟测试集输入到训练好的深度神经网络中,得到输出 反映了可执行语句sj中包含故障的概率,即可疑度值。对进行降序排名,排名将作为故障定位的依据,排名越靠前的语句越先被查找。从高到底逐条检查语句,直到故障被定位。
本发明的有益效果是:该方法基于深度神经网络(deep neural network)通过学习一种深层非线性网络结构,实现复杂函数逼近,从而对输入数据进行分布式表征,同时展现了强大的从少数样本集中学习数据集本质特征的能力。这种方法通过利用测试用例样本对深度神经网络进行训练,训练后的深度神经网络被输入新的测试用例,输出结果得到每一条语句的故障概率,通过比较故障概率,来进行故障的有效定位,提高了故障定位的精确度。
将浅层的BP神经网络技术和深度神经网络技术分别在Siemens数据集的122个故障版本程序中进行实验,并利用图表的方式与目前主流的故障定位方法NN、PPDG、Tarantula作比较,基于深度神经网络的故障定位在整体上提高了故障定位的有效性,尤其在横坐标90%-0%的区间内定位效果明显优于其他三种定位方法,不需要查找更多的语句就能找到故障,深度神经网络技术只需查找50%的语句就可以找出所有版本的故障,优于NN方法的60%,PPDG方法的80%,Tarantula方法的90%。参照表1可以得出四种方法找到的故障版本个数占总版本数的比例数,其中Score值为未被检查到的语句占所有语句的百分比,当Score值越大,则证明本发明更加有效。如一个程序的故障版本中有100条可执行语句,按照可疑度的降序排列,包含故障的语句排在第5位,程序员从高到底逐条查找,需要查找5条语句才能定位故障,即不需要查找95条语句,那么该程序的Score值为95%。
表1四种方法找到的故障版本个数占总版本数的比例
下面结合附图和具体实施方式对本发明作详细说明。
附图说明
图1是本发明基于深度神经网络的故障定位方法的流程图。
图2是本发明方法(DNN)与NN、PPDG和Tarantula三种方法的整体比较结果对比图。
具体实施方式
参照图1-2。本发明基于深度神经网络的故障定位方法具体步骤如下:
步骤一、设计深度神经网络模型。构造深度神经网络,确定输入层与输出层的层数。根据公式
num=[a/30]*10 (1)
来计算隐层节点数,其中,num为隐层节点个数,a为输入层节点数。假设输入层节点数为m,隐层节点数为n,输出层节点数为1,每个节点的转换函数采用单极性sigmoid函数f(s)=1/1+e-s;其中,s表示输入特征,ρ(s)表示输出。
参照表2的程序Mid(),功能为通过比较求三个整数的中间值,该程序有12条语句,10个测试用例,其中第6条可执行语句中包含故障,“●”表示所在行语句被对应的测试用例覆盖,空格表示没有被测试用例覆盖,表中的最后一行中“P”表示对应的测试用例执行成功,“F”表示测试用例执行失败。参照表3可以得出程序中每个测试用例对应的覆盖信息向量和执行结果。表2与表3是一一对应的,其中“●”用1表示,代表该语句对应的测试用例覆盖,空格用0表示,代表该语句未被对应的测试用例覆盖,最一列为执行结果,“P”用0表示,代表对应的测试用例执行成功,“F”用1表示,代表对应的测试用例执行失败。
表2程序Mid()实例
表3程序Mid()覆盖信息和执行结果
将网络设置为5层,输入层为1层,隐层为3层,输出层为1层,输入层节点数为12,隐层节点数简单设置为4,输出层节点数为1,每个节点的转换函数为单极性sigmoid函数。
步骤二、训练深度神经网络模型。在本发明中,深度神经网络模型输入层的节点数等于输入特征向量的维数,对应于可疑度值,输出层仅仅有一个输出节点。在模型经过区分性预训练后,用反向传播算法来微调这个模型的参数。设y1:T是训练样本,目标是最小化训练样本y1:T和标注x1:T之间的平方误差和,目标函数为:
对权重W和偏置b进行逐层求导并化简,可递推得对任意的第l层权重为:
为计算实际输出和期望输出的误差,输出样本y1:T到深度神经网络,然后执行其的前向过程,同时计算所有隐层节点和输出节点的输出,再计算误差eL(t)。得到L层误差eL(t)后,执行反向传播过程,迭代计算每层隐节点的误差eL(t),计算所需导数,得到DNN的参数更新方法:
(Wl,bl)m+1=(Wl,bl)m+Δ(Wl,bl)m,0≤l≤L (5)
其中,是ε学习率,α是冲量,m表示第m次迭代。输入虚拟测试矩阵Y到深度神经网络中,然后执行前向计算过程,最终输出节点的输出值就是对应每一句故障的可疑度值。
将测试用例覆盖信息和执行结果依次输入到构建好的深度神经网络中。
首先输入向量(1,1,1,0,1,1,0,0,0,0,0,1)和执行结果0,其次输入第二个向量(1,1,1,1,0,0,0,0,0,0,0,1)和执行结果0,直到将10个测试用例的覆盖信息和执行结果都输入到网络中,训练深度神经网络,来模拟测试用例覆盖信息和执行结果之间复杂的非线性映射关系。
步骤三、获取测试用例。通过在相同程序中注入不同类型的故障来得到不同的错误版本,可用的方法有在正确的程序版本中遗漏一些语句,改变原语句中的逻辑或是改变语句的赋值等。使用Gcov技术对待测源文件进行编译,得到程序可执行语句的覆盖信息。有故障版本程序的测试用例执行结果通过采用以下方法得到:在原正确版本上执行测试用例,得到测试用例执行结果;在故障版本上执行测试用例,得到测试用例执行结果;将正确版本的执行结果与故障版本的执行结果进行比较,如果相同,则认为故障版本中的测试用例执行成功,若不相同,则认为测试用例执行失败。
参照表4选取12个测试用例,每个测试用例只覆盖一条语句。
表4虚拟测试集
步骤四、基于深度神经网络的故障定位。根据Gcov技术得到程序执行测试用例后的覆盖信息及执行结果,作为所构造深度神经网络的训练样本。将测试用例覆盖信息与其对应执行结果依次输入到构建好的深度神经网络中,来训练深度神经网络。以此来模拟之间的非线性映射关系。构造虚拟测试集,使测试集中的每个测试用例都只覆盖待测文件中的一条语句。将此虚拟测试集表现为公式
的形式,其中,向分别表示测试用例v1,v2,...,vm的覆盖信息,并将虚拟测试集输入到训练好的深度神经网络中,得到输出 反映了可执行语句sj中包含故障的概率,即可疑度值。对进行降序排名,排名将作为故障定位的依据,排名越靠前的语句越先被查找。从高到底逐条检查语句,直到故障被定位。
将虚拟测试集输入到训练好的神度神经网络中,得到对应语句的可疑度值。
表5程序Mid()语句可疑度表
参照表5根据可疑度值排名。程序中第6条语句为故障语句,根据深度神经网络的输出,可得其可疑度值最高,排在第一位。此时只需要查找一条语句即可定位故障位置。

Claims (1)

1.一种基于深度神经网络的故障定位方法,其特征在于包括以下步骤:
步骤一、设计深度神经网络模型;构造深度神经网络,确定输入层与输出层的层数;根据公式
num=[a/30]*10 (1)
计算隐层节点数,其中,num为隐层节点个数,a为输入层节点数;假设输入层节点数为m,隐层节点数为n,输出层节点数为1,每个节点的转换函数采用单极性sigmoid函数f(s)=1/1+e-s;其中,s表示输入特征,ρ(s)表示输出;
步骤二、训练深度神经网络模型;深度神经网络模型输入层的节点数等于输入特征向量的维数,对应于可疑度值,输出层仅仅有一个输出节点;在模型经过区分性预训练后,用反向传播算法来微调这个模型的参数;设y1:T是训练样本,目标是最小化训练样本y1:T和标注x1:T之间的平方误差和,目标函数为:
<mrow> <mi>E</mi> <mrow> <mo>(</mo> <mi>W</mi> <mo>,</mo> <mi>b</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <munder> <mo>&amp;Sigma;</mo> <mi>t</mi> </munder> <mo>|</mo> <mo>|</mo> <mi>f</mi> <mrow> <mo>(</mo> <msub> <mi>y</mi> <mi>t</mi> </msub> <mo>,</mo> <mi>W</mi> <mo>,</mo> <mi>b</mi> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>x</mi> <mi>t</mi> </msub> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
对权重W和偏置b进行逐层求导并化简,递推得到对任意的第l层权重为:
<mrow> <mfrac> <mrow> <mo>&amp;part;</mo> <mi>E</mi> <mrow> <mo>(</mo> <mi>W</mi> <mo>,</mo> <mi>b</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&amp;part;</mo> <msup> <mi>W</mi> <mi>l</mi> </msup> </mrow> </mfrac> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mi>t</mi> </munder> <msup> <mi>e</mi> <mrow> <mi>l</mi> <mo>+</mo> <mn>1</mn> </mrow> </msup> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <msup> <mrow> <mo>(</mo> <msup> <mi>v</mi> <mi>l</mi> </msup> <mo>(</mo> <mi>t</mi> <mo>)</mo> <mo>)</mo> </mrow> <mi>T</mi> </msup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <mfrac> <mrow> <mo>&amp;part;</mo> <mi>E</mi> <mrow> <mo>(</mo> <mi>W</mi> <mo>,</mo> <mi>b</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mo>&amp;part;</mo> <msup> <mi>b</mi> <mi>l</mi> </msup> </mrow> </mfrac> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mi>t</mi> </munder> <msup> <mi>e</mi> <mrow> <mi>l</mi> <mo>+</mo> <mn>1</mn> </mrow> </msup> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
为计算实际输出和期望输出的误差,输出样本y1:T到深度神经网络,然后执行其的前向过程,同时计算所有隐层节点和输出节点的输出,再计算误差eL(t);得到L层误差eL(t)后,执行反向传播过程,迭代计算每层隐节点的误差eL(t),计算所需导数,得到DNN的参数更新方法:
(Wl,bl)m+1=(Wl,bl)m+Δ(Wl,bl)m,0≤l≤L (5)
<mrow> <mi>&amp;Delta;</mi> <msup> <mrow> <mo>(</mo> <msup> <mi>W</mi> <mi>l</mi> </msup> <mo>,</mo> <msup> <mi>b</mi> <mi>l</mi> </msup> <mo>)</mo> </mrow> <mi>m</mi> </msup> <mo>=</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <mi>&amp;alpha;</mi> <mo>)</mo> </mrow> <mi>&amp;epsiv;</mi> <mrow> <mo>(</mo> <mo>-</mo> <mfrac> <mrow> <mo>&amp;part;</mo> <mi>E</mi> </mrow> <mrow> <mo>&amp;part;</mo> <mrow> <mo>(</mo> <msup> <mi>W</mi> <mi>l</mi> </msup> <mo>,</mo> <msup> <mi>b</mi> <mi>l</mi> </msup> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>)</mo> </mrow> <mo>+</mo> <mi>&amp;alpha;</mi> <mi>&amp;Delta;</mi> <msup> <mrow> <mo>(</mo> <msup> <mi>W</mi> <mi>l</mi> </msup> <mo>,</mo> <msup> <mi>b</mi> <mi>l</mi> </msup> <mo>)</mo> </mrow> <mrow> <mi>m</mi> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mo>,</mo> <mn>0</mn> <mo>&amp;le;</mo> <mi>l</mi> <mo>&amp;le;</mo> <mi>L</mi> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>6</mn> <mo>)</mo> </mrow> </mrow>
其中,是ε学习率,α是冲量,m表示第m次迭代;输入虚拟测试矩阵Y到深度神经网络中,然后执行前向计算过程,最终输出节点的输出值就是对应每一句故障的可疑度值;
步骤三、获取测试用例;通过在相同程序中注入不同类型的故障,得到不同的错误版本,方法有在正确的程序版本中遗漏一些语句,改变原语句中的逻辑或是改变语句的赋值等;使用Gcov方法对待测源文件进行编译,得到程序可执行语句的覆盖信息;有故障版本程序的测试用例执行结果通过采用以下方法得到:在原正确版本上执行测试用例,得到测试用例执行结果;在故障版本上执行测试用例,得到测试用例执行结果;将正确版本的执行结果与故障版本的执行结果进行比较,如果相同,则认为故障版本中的测试用例执行成功,若不相同,则认为测试用例执行失败;
步骤四、基于深度神经网络的故障定位;根据Gcov方法得到程序执行测试用例后的覆盖信息及执行结果,作为所构造深度神经网络的训练样本;将测试用例覆盖信息与其对应执行结果依次输入到构建好的深度神经网络中,训练深度神经网络;以此模拟之间的非线性映射关系;构造虚拟测试集,使测试集中的每个测试用例都只覆盖待测文件中的一条语句;将此虚拟测试集表现为公式
的形式,其中,向分别表示测试用例v1,v2,...,vm的覆盖信息,并将虚拟测试集输入到训练好的深度神经网络中,得到输出 反映了可执行语句sj中包含故障的概率,即可疑度值;对进行降序排名,排名将作为故障定位的依据,排名越靠前的语句越先被查找;从高到底逐条检查语句,直到故障被定位。
CN201710494488.1A 2017-06-26 2017-06-26 基于深度神经网络的故障定位方法 Pending CN107330519A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710494488.1A CN107330519A (zh) 2017-06-26 2017-06-26 基于深度神经网络的故障定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710494488.1A CN107330519A (zh) 2017-06-26 2017-06-26 基于深度神经网络的故障定位方法

Publications (1)

Publication Number Publication Date
CN107330519A true CN107330519A (zh) 2017-11-07

Family

ID=60195644

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710494488.1A Pending CN107330519A (zh) 2017-06-26 2017-06-26 基于深度神经网络的故障定位方法

Country Status (1)

Country Link
CN (1) CN107330519A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108074045A (zh) * 2018-01-30 2018-05-25 上海交通大学 风电机组整机脆弱性分析与故障排序方法及电子终端
CN109596942A (zh) * 2018-12-06 2019-04-09 华北电力大学 一种基于深度置信网络的电压暂降原因识别方法
CN109726200A (zh) * 2018-12-06 2019-05-07 国网甘肃省电力公司信息通信公司 基于双向深度神经网络的电网信息系统故障定位系统及方法
CN109738797A (zh) * 2019-01-16 2019-05-10 珠海市精实测控技术有限公司 一种基于大电压模型的线性马达bl方法
CN110232023A (zh) * 2019-05-22 2019-09-13 中国科学院长春光学精密机械与物理研究所 一种基于卷积神经网络的软件缺陷定位方法、装置和介质
CN113139642A (zh) * 2020-01-16 2021-07-20 辉达公司 在自主驾驶应用中使用神经网络执行故障检测
CN113474666A (zh) * 2019-02-01 2021-10-01 诺宝公司 分布式数据库中节点故障检测与解决
US11899765B2 (en) 2019-12-23 2024-02-13 Dts Inc. Dual-factor identification system and method with adaptive enrollment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016100816A1 (en) * 2014-12-19 2016-06-23 United Technologies Corporation Sensor data fusion for prognostics and health monitoring
CN105893256A (zh) * 2016-03-30 2016-08-24 西北工业大学 基于机器学习算法的软件故障定位方法
CN106408088A (zh) * 2016-11-22 2017-02-15 北京六合智汇技术有限责任公司 一种基于深度学习理论的旋转机械设备故障诊断方法
CN106682694A (zh) * 2016-12-27 2017-05-17 复旦大学 一种基于深度学习的敏感图像识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016100816A1 (en) * 2014-12-19 2016-06-23 United Technologies Corporation Sensor data fusion for prognostics and health monitoring
CN105893256A (zh) * 2016-03-30 2016-08-24 西北工业大学 基于机器学习算法的软件故障定位方法
CN106408088A (zh) * 2016-11-22 2017-02-15 北京六合智汇技术有限责任公司 一种基于深度学习理论的旋转机械设备故障诊断方法
CN106682694A (zh) * 2016-12-27 2017-05-17 复旦大学 一种基于深度学习的敏感图像识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
WEI ZHENG, DESHENG HU, JING WANG: "Fault Localization Analysis Based on Deep Neural Network", 《MATHEMATICAL PROBLEMS IN ENGINEERING》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108074045A (zh) * 2018-01-30 2018-05-25 上海交通大学 风电机组整机脆弱性分析与故障排序方法及电子终端
CN109596942A (zh) * 2018-12-06 2019-04-09 华北电力大学 一种基于深度置信网络的电压暂降原因识别方法
CN109726200A (zh) * 2018-12-06 2019-05-07 国网甘肃省电力公司信息通信公司 基于双向深度神经网络的电网信息系统故障定位系统及方法
CN109738797A (zh) * 2019-01-16 2019-05-10 珠海市精实测控技术有限公司 一种基于大电压模型的线性马达bl方法
CN113474666A (zh) * 2019-02-01 2021-10-01 诺宝公司 分布式数据库中节点故障检测与解决
CN113474666B (zh) * 2019-02-01 2023-10-27 诺宝公司 分布式数据库中节点故障检测与解决
US11822441B2 (en) 2019-02-01 2023-11-21 Nuodb, Inc. Node failure detection and resolution in distributed databases
CN110232023A (zh) * 2019-05-22 2019-09-13 中国科学院长春光学精密机械与物理研究所 一种基于卷积神经网络的软件缺陷定位方法、装置和介质
CN110232023B (zh) * 2019-05-22 2021-07-06 中国科学院长春光学精密机械与物理研究所 一种基于卷积神经网络的软件缺陷定位方法、装置和介质
US11899765B2 (en) 2019-12-23 2024-02-13 Dts Inc. Dual-factor identification system and method with adaptive enrollment
CN113139642A (zh) * 2020-01-16 2021-07-20 辉达公司 在自主驾驶应用中使用神经网络执行故障检测
CN113139642B (zh) * 2020-01-16 2024-04-12 辉达公司 在自主驾驶应用中使用神经网络执行故障检测

Similar Documents

Publication Publication Date Title
CN107330519A (zh) 基于深度神经网络的故障定位方法
Cao et al. KQA pro: A dataset with explicit compositional programs for complex question answering over knowledge base
CN107239446B (zh) 一种基于神经网络与注意力机制的情报关系提取方法
CN102662931B (zh) 一种基于协同神经网络的语义角色标注方法
CN108009285B (zh) 基于自然语言处理的林业生态环境人机交互方法
CN104598611B (zh) 对搜索条目进行排序的方法及系统
CN104536881B (zh) 基于自然语言分析的众测错误报告优先级排序方法
CN106295186A (zh) 一种基于智能推理的辅助疾病诊断的方法与系统
CN109933602A (zh) 一种自然语言与结构化查询语言的转换方法及装置
CN106886572A (zh) 基于Markov逻辑网的知识图谱关系类型推测方法及其装置
CN111709244A (zh) 一种用于矛盾纠纷事件因果关系识别的深度学习方法
CN106203625A (zh) 一种基于多重预训练的深层神经网络训练方法
CN106951512A (zh) 一种基于混合编码网络的端到端对话控制方法
CN103226562A (zh) 用于生成问题的方法和装置
CN106470122A (zh) 一种网络故障定位方法及装置
CN106527757A (zh) 一种输入纠错方法及装置
CN106227718A (zh) 基于cnn的陆空通话语义一致性校验方法
CN104933038A (zh) 机器翻译方法和机器翻译装置
CN105975455A (zh) 基于双向递归神经网络的信息分析系统
Rücklé et al. Representation learning for answer selection with LSTM-based importance weighting
CN110471835A (zh) 一种基于电力信息系统代码文件的相似度检测方法及系统
CN110516240A (zh) 一种基于Transformer的语义相似度计算模型DSSM技术
Ben-Naim et al. A User-Driven and Data-Driven Approach for Supporting Teachers in Reflection and Adaptation of Adaptive Tutorials.
CN105740237B (zh) 一种基于词汇语义相似度的学生能力达成度评价度量方法
Cheng et al. Decouple knowledge from parameters for plug-and-play language modeling

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20171107