CN1578968A - 用于受监督的神经网络学习的组合方法 - Google Patents

用于受监督的神经网络学习的组合方法 Download PDF

Info

Publication number
CN1578968A
CN1578968A CNA028217292A CN02821729A CN1578968A CN 1578968 A CN1578968 A CN 1578968A CN A028217292 A CNA028217292 A CN A028217292A CN 02821729 A CN02821729 A CN 02821729A CN 1578968 A CN1578968 A CN 1578968A
Authority
CN
China
Prior art keywords
data
neural network
receive
value
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CNA028217292A
Other languages
English (en)
Inventor
R·K·舍蒂
V·蒂阿加赖安
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honeywell International Inc
Original Assignee
Honeywell International Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honeywell International Inc filed Critical Honeywell International Inc
Publication of CN1578968A publication Critical patent/CN1578968A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

一种用于机器学习(例如受监督的人工神经网络学习)的技术,包括接收数据和检查读出数据的维数,以及使用主要方法减少该维数以便提高机器学习的性能。该技术还包括指定神经网络的结构,并且初始化权重以便在包括减少的维数的读出数据与预测值之间建立连接。该技术还包括使用指定的神经网络结构、初始化的权重和包括减少的维数的读出数据来执行受监督的机器学习,以便对于值进行预测。然后将预测的值与归一化的系统误差阈值进行比较,并且根据该比较的结果来修改初始化的权重以便生成在权重空间具有减少的误差的学习过的神经网络。使用已知的值验证学习过的神经网络,然后将其用于对于值进行预测。

Description

用于受监督的神经网络学习的组合方法
技术领域
本发明一般而言涉及智能信息检索领域,更具体而言涉及基于机器学习的智能信息检索。
背景技术
智能信息检索的未来似乎是基于例如人工神经网络(ANN或NN)的机器学习技术的。ANN表示数据中非线性关系的能力能产生更好的分类,并且最适合用于例如模式识别、预测和分类的信息检索应用。
ANN技术试图模仿人脑的结构和信息表示模式。它的结构取决于要获得的目的。ANN中的学习可以是受监督的也可以是受监督的。在受监督的学习(SL)中,ANN假定结果应该是什么(就像老师指导学生一样)。在这种情况下,我们给出输入、检查输出显示的是什么并且调整输入和输出映射之间的连接强度(权重)直到得到正确的输出为止。这可以施加到所有输入直到网络变成尽可能无误差的网络为止。SL方法要求为每个输入提供输出类别声明。
目前SL方法能够处理离线(静态)或者在线(动态/时序)数据,但是不能两种都处理。此外,当前的SL方法花费很长的时间学习,而且要求相当多数量的迭代才能稳定。目前的SL方法在使用静态数据时将共轭的通用增量规则(共轭GDR)用于机器学习,并且不能确保找到全局最优。用于时序数据的基于随机逼近的GDR是复杂并且不可靠的,因为GDR只能处理离线数据。
因此,本领域需要一种既能处理静态数据又能处理时序数据的SL技术。此外,本领域还需要一种能够减少接收到的数据的维数以便提高机器学习速度和系统性能的SL技术。
发明内容
本发明的一个方面是一种用于机器学习的方法,例如受监督的人工神经网络学习。通过接收数据、检查接收到的数据的维数并使用主要(PCA)方法减少该维数以便提高机器学习的性能来执行所述方法。该方法还包括指定神经网络结构,以及初始化权重以便在包括减少的维数的读出数据和预测值之间建立连接。该方法还包括使用指定的神经网络结构、初始化的权重和包括减少的维数的读出数据来执行受监督的机器学习以便对于值进行预测。然后将预测的值与归一化的系统误差阈值进行比较,并且根据该比较的结果修改初始化的权重以便生成在权重空间具有减少的误差的学习过的神经网络。使用已知值验证学习过的神经网络,并且将其用于对于值进行预测。
本发明的另一个方面是具有用于执行受监督的人工神经网络学习的方法的计算机可执行指令的计算机可读介质。根据该方法,检查接收到的数据的维数,并使用PCA方法减少该维数以便提高机器学习的性能。该方法还包括指定神经网络结构,以及初始化权重以便在包括减少的维数的读出数据和预测值之间建立连接。该方法还包括使用指定的神经网络结构、初始化的权重和包括减少的维数的读出数据来执行受监督的机器学习以便对于值进行预测。然后将预测的值与归一化的系统误差阈值进行比较,并且根据该比较的结果修改初始化的权重以便生成在权重空间具有减少的误差的学习过的神经网络。使用已知值验证学习过的神经网络,并且将其用于对于值进行预测。
本发明的另一个方面是一种用于受监督的人工神经网络学习的计算机系统。该计算机系统包括存储设备、输出设备和被编程用于重复执行一种方法的处理器。根据该方法,检查接收到的数据的维数,并使用PCA方法减少该维数以便提高机器学习的性能。该方法还包括指定神经网络结构,以及初始化权重以便在包括减少的维数的读出数据和预测值之间建立连接。该方法还包括使用指定的神经网络结构、初始化的权重和包括减少的维数的读出数据来执行受监督的机器学习以便对于值进行预测。然后将预测的值与归一化的系统误差阈值进行比较,并且根据该比较的结果修改初始化的权重以便生成在权重空间具有减少的误差的学习过的神经网络。使用已知值验证学习过的神经网络,并且将其用于对于值进行预测。
本发明的另一个方面是一种用于受监督的人工神经网络学习的计算机实现的系统。该计算机系统包括用于接收数据的接收模块。一个读取模块读取接收到的数据。一个分析器检查读出数据的维数,并且根据该检查的结果来减少接收到的数据的维数以便提高机器学习的性能。该分析器还指定神经网络结构,以及初始化权重以便在接收到的数据和使用神经网络获得的预测值之间建立连接强度。该分析器使用指定的结构、初始化的权重和包括减少的维数的接收数据来执行受监督的学习以便对于值进行预测。一个比较器将预测的值与归一化的系统误差阈值进行比较。然后该分析器根据所述比较的结果来修改初始化的神经网络的权重以便生成在权重空间具有减少的误差的学习过的神经网络。
通过阅读本发明的以下的详细描述以及查看作为说明书一部分的附图,本发明的其他方面将会显而易见。
附图说明
图1是根据本发明教导的计算机实现的系统的主要部件的一个实施例的框图。
图2是说明图1所示的实施例的全部操作的流程图。
图3显示一个适合的计算系统环境的例子,该计算系统环境用于实现本发明的实施例,例如图1和2中所示的实施例。
具体实施方式
受监督的机器学习既可以在静态数据环境中执行也可以在实时数据环境中执行。
图1说明根据本发明的计算机实现的系统100的一个实施例的概览。数据库130被连接用以接收由110概括指示的各种类型的接收数据。例如,数据库130可以接收这样的数据,例如时序数据111、文本/文档数据112、静态的非结构化数据113、决定自动化数据114和/或函数逼近数据115。决定自动化数据是指软件系统中封装人类决策和领域专家经验的数据,计算机需要这种数据支持作出人类决定的活动。例如,在现代的汽车中已经使用了这样的数据,用于实现根据封装的复杂条件的判断实时作出专家刹车决定的控制系统。函数逼近是指用于在实际和计算的从属变量之间找到紧密联系以便得到一组独立变量的曲线拟和方法。在一些实施例中,耦合一个唯一数值表示模块120,用于接收文本/文档数据110并将接收到的文本/文档数据转换成唯一的数值表示。
接收模块140被连接到数据库130,用于从数据库130接收数据。读取模块150被连接到接收模块140,用于从接收模块140读取接收到的数据的样本。在一些实施例中,读取模块读取接收到的数据的样本,使得读出数据的样本具有一个预定的窗口长度。如果接收模块140接收静态数据,则读取模块150使用预定长度的静态窗口来读取接收到的静态数据的样本。如果接收模块140接收实时数据,则读取模块150使用动态改变的预定长度窗口来读取接收到的实时数据的样本。
耦合到读取模块150的分析器160检查读出数据的维数,并根据检查的结果减少读出数据的维数以便提高机器学习的性能。在一些实施例中,耦合到分析器160的比较器170将读出数据的维数与一个阈值进行比较,分析器160根据由比较器170所作的比较结果减少读出数据的维数,以便提高机器学习的性能。在一些实施例中,该阈值大于或等于25。在一些实施例中,比较器170将读出数据中的属性数量与阈值进行比较,分析器160通过使用主要(PCA)减少读出数据中的属性数量,从而减少读出数据的维数。
在一些实施例中,分析器160通过使用下列方程式形成协方差矩阵,从而减少读出数据的维数:
Cn×n=Xt*X
其中接收到的数据是以矩阵形式(例如XM×N)输入的。然后分析器160使用下列方程式根据形成的协方差矩阵计算特征值和特征向量:
(C-λI)Ui=0-----------→  (1)
其中λ=(λ1,λ2,......,λn)是方程式的根。通过解方程(1)得到特征值,并且通过Ui=(ui1,ui2,......,uin)得到对应的特征向量。然后分析器160使用下式选择主成分:
{ 1,2 , . . k | Σ i = 1 k λ i / Σ i = 1 n λ i ≥ β }
其中β是截止百分比(~85%)。分析器160还使用下式选择接收到的数据中的特征:
{ j | U ij ≥ max j { U ij } / 2 , i ∈ cuttoff ( k )
以便减少接收到的数据的维数。
然后,分析器160指定神经网络结构并且初始化权重,以便建立读出数据和由神经网络预测的值之间的连接强度。分析器160使用指定的结构、初始化的权重和读出数据执行受监督的学习以便对于值进行预测。在一些实施例中,分析器160使用学习参数(例如,输入节点的数量、隐藏层数量、每层中的节点数量、输出层的节点数量、学习速度和/或动态存储)指定学习参数,用于更新初始的权重。在一些实施例中,分析器160使用范围从大约-0.5到0.5的随机值初始化权重。
比较器170将预测的值与归一化的系统误差阈值进行比较。分析器160然后根据该比较的结果修改神经网络的初始化的权重,以便生成在权重空间中具有减少的误差的学习过的神经网络。在一些实施例中,分析器160通过使用期望值和预测值计算归一化的系统误差。比较器170然后将计算的归一化的系统误差与归一化的系统误差阈值进行比较,以便使用基于该比较结果的梯度下降技术减少权重空间中的误差。
在一些实施例中,分析器160通过使用下列方程式减少权重空间中的先前迭代误差:
Wij(n+1)=Wji(n)+η(δjoi)
其中Wij是i行和j列空间中的权重,oi是实际的输出,δj是期望的输出,而η是学习速度。
在一些实施例中,分析器160在使用赫斯(Hessian)矩阵减少在先前迭代中的误差(当计算的归一化的系统误差超过归一化的系统误差阈值时)的同时,提高神经网络的学习速度。在这些实施例中,分析器160使用赫斯矩阵的下列方程式提高神经网络的学习速度:
H [ i , k ] = Σ k Σ j G [ k ] * w [ i , j ]
其中H[i,k]是二阶导数的对角元素,其中i,j和k是节点和隐藏层的结构相关数,并且其中:
G [ k ] = Σ j w [ j , k ] * d [ i , k ]
其中G[k]是先前迭代误差相对于权重空间的梯度,并且i,j和k是节点和隐藏层的结构相关数。
在一些实施例中,分析器160还在当计算的归一化的系统误差超过归一化的系统误差阈值时使用函数逼近邻域技术减少在先前迭代中的误差(当计算的归一化的系统误差超过归一化的系统误差阈值时)的同时,提高神经网络的学习速度。在这些实施例中,分析器160使用下列函数逼近邻域技术的方程式更新权重:
W(t+1)=f(n,m,δr(t))
其中n是输入层中的节点数量,m是下一层中的节点数量,而δr(t)是基于时间函数的参数。
分析器160使用学习过的神经网络验证学习过的神经网络,以便通过执行受监督的学习来对于值进行预测,从而检验学习过的神经网络的可靠性。分析器160使用预测的值和已知和/或预期的数据计算预测值的准确度。比较器把计算的准确度与预测的值进行比较。然后分析器160重复受监督的学习来更新权重,进一步根据比较的结果减少系统误差。耦合到分析器170的输出模块180使用验证的神经网络和未知的输入来对于值进行预测。
图2说明本发明的过程200的一个实施例的概览。如图2所示,本发明的一个方面是具有计算机可执行的指令的计算机可读介质,该计算机可执行的指令用于执行受监督的机器学习的过程200。
该过程通过接收稀疏数据开始于步骤210,其中稀疏数据例如:时序数据(例如,时序数据可以包括诸如股票市场数据和天气预报数据、发动机数据和/或飞机维修数据的实时数据)、文本文档数据和/或静态的非结构化数据。在一些实施例中,如果接收到的数据是静态数据,则该过程包括使用预定的窗口长度接收数据,如果接收到的数据是动态数据,则该过程包括使用预定窗口长度的动态改变窗口接收动态数据。在一些实施例中,如果接收到的数据是实时数据,则该过程包括使用预定窗口长度的动态改变窗口重复读取接收到的实时数据的样本。
步骤220和225包括检查接收到的数据的维数,并分别根据检查的结果减少接收到的数据的维数以便提高机器学习的性能。在一些实施例中,这包括将接收到的数据的维数与一个阈值进行比较,并根据该比较的结果减少接收到的数据的维数,以便提高机器学习的性能。在一些实施例中,对接收到的数据的维数进行比较包括将接收到的数据中的属性数量与阈值进行比较,并根据该比较的结果使用PCA减少接收到的数据中的属性数量。参考图1更详细地描述这种使用PCA减少属性数量的技术。在一些实施例中,该阈值大于或等于25个属性。
步骤230包括指定受监督的神经网络结构。在一些实施例中,这包括指定神经网络的学习参数,例如输入节点的数量、隐藏层的数量、每层中的节点数量、输出层的节点数量和/或学习速度。这还可以包括分配动态存储器用于更新初始化的权重,并且在使用指定的神经网络结构进行每次迭代期间存储输入和输出节点之间的趋势(trend)。步骤235包括初始化权重以便在接收到的数据和预测值之间建立连接强度。在一些实施例中,初始化权重包括使用随机的权重初始化权重。
步骤240包括使用指定的结构、初始化的权重和包括减少的维数的接收数据执行受监督的机器学习,以便对于值进行预测。步骤245和250分别包括将预测值与期望值进行比较,并根据比较的结果修改神经网络的初始化的权重,以便生成在权重空间具有减少的误差的学习过的神经网络。在一些实施例中,将预测值与期望值进行比较包括通过使用期望值和预测值计算归一化的系统误差,从而使用梯度下降技术减少权重空间中的误差,以及将计算的归一化的系统误差与归一化的系统误差阈值进行比较。参考图1更详细地描述使用梯度下降的技术计算归一化系统误差。在这些实施例中,重复上述检查、减少、指定、执行和比较步骤直到计算的归一化的系统误差小于或等于归一化的系统误差阈值。
在一些实施例中,步骤255包括通过使用赫斯矩阵改变受监督的神经网络的学习速度,以便提高神经网络的学习,该步骤还包括使用函数逼近邻域技术干扰神经网络的学习参数,以便进一步提高神经网络的学习速度。参考图1更详细地讨论这些使用赫斯矩阵和函数逼近邻域技术来提高神经网络的学习速度的技术。
步骤260包括验证学习过的神经网络以便检验学习过的神经网络的可靠性。在一些实施例中,这包括使用学习过的神经网络执行受监督的学习以便对于值进行预测,并通过将预测值与已知值进行比较来计算预测值的准确度,然后将计算的准确度与准确度值进行比较,并根据该比较的结果重复执行、比较和验证步骤,以便进一步提高学习过的神经网络的可靠性。在一些实施例中,重复上述步骤直到计算的准确度小于或等于准确度值。在一些实施例中,在通过将计算的准确度与准确度值进行比较来验证神经网络的同时,还重复改变学习速度的步骤以便进一步提高神经网络的学习。
步骤270包括通过将未知的值输入到验证的神经网络中以及在验证的神经网络上执行受监督的学习来对于值进行预测。
图2所示的方法200可以实现为如图1所示的接收模块140、读取模块150,分析器160和/或比较器170。本发明的各方面可以以软件实现,该软件可以在图2中所示的环境中运行,或者在任何其他合适的计算环境中运行。本发明在很多其他的通用或专用计算环境中也是可操作的。一些计算环境是个人计算机、通用计算机、服务器计算机、手持式设备、膝上型设备、多处理器、微处理器、机顶盒、可编程的消费电子产品、网络PC、小型计算机、大型计算机、分布式计算环境等执行存储在计算机可读介质上的代码的计算环境。本发明可以部分或全部地实现为计算机可执行的指令,例如由计算机执行的程序模块。一般而言,程序模块包括例程、程序、对象、组件、数据结构等,用于执行特定任务或实现特定的抽象数据类型。在分布式的计算环境中,程序模块可以位于本地或远程的存储设备。
图3显示用于实现本发明的实施例(如图1和2中所示)的合适的计算系统环境300的一个例子。本发明的各方面可以以软件实现,该软件可以在图3所示的环境中运行或在任何其他合适的计算环境中运行。本发明在很多其他的通用或专用计算环境中也是可操作的。一些计算环境是个人计算机、服务器计算机、手持式设备、膝上型设备、多处理器、微处理器、机顶盒、可编程的消费电子产品、网络PC、小型计算机、大型计算机、分布式计算环境等。本发明可以部分或全部地实现为计算机可执行的指令,例如由计算机执行的程序模块。一般而言,程序模块包括例程、程序、对象、组件、数据结构等,用于执行特定任务或实现特定的抽象数据类型。在分布式的计算环境中,程序模块可以位于本地或远程的存储设备。
图3以计算机310的形式显示通用计算设备,计算机310包括处理单元302、存储器304、可移动存储器312和不可移动存储器314。存储器304可以包括易失存储器306和非易失存储器308。计算机310可以包括各种计算机可读介质,或者可以访问包括各种计算机可读介质的计算环境,各种计算机可读介质包括易失存储器306和非易失存储器308、可移动存储器312和不可移动存储器314。计算机可读介质还包括用于借助于任何类型的网络在不同设备之间传输可执行的代码的载波。计算机存储器包括RAM、ROM、EPROM和EEPROM、闪存或其他存储技术、CD ROM、数字多功能盘(DVD)或其他光盘存储器、磁带盒、磁带、磁盘存储器或其他磁的存储设备、或任何其他能够存储计算机可读指令的介质。计算机310可以包括包含输入316、输出318和通信连接320的计算环境,或者可以访问包含输入316、输出318和通信连接320的计算环境。计算机可以使用通信连接连接到一个或多个远程计算机在连网环境中进行操作。远程计算机可以包括个人计算机、服务器、路由器、网络PC、同级设备或其他共用网络节点等。通信连接可以包括局域网(LAN)、广域网(WAN)或其他网络。
结论
上述计算机实现的技术提供了一种对于静态和时序的数据都可用的受监督的人工神经网络学习技术。此外,上述技术减少接收到的数据的维数以便提高机器学习速度和系统性能。上述技术可以被用于预测应用中的值,其中应用例如是自动的电子邮件回复、文本挖掘、文档分类、信息搜索、天气预报、销售预测、预测股票市场数据、验证数据和/或风险管理。上述技术还可以被用于例如工业自动化、过程控制和其他相似应用的应用中。
上述描述是说明性的而不是限制性的。很多其他的实施例对于本领域的技术人员来说是显而易见的。因此,本发明的范围是由所附的权利要求书以及这些权利要求的等同物的全部范围确定的。

Claims (72)

1.一种用于受监督的人工神经网络机器学习的计算机实现的方法,该方法包括:
根据维数来减少接收到的数据的维数以便提高机器学习的性能;
指定受监督的神经网络结构;
初始化权重以便在接收到的数据和预测值之间建立连接强度;
使用指定的结构、初始化的权重和包括减少维数的接收到的数据来执行受监督的机器学习,以便对于值进行预测;以及
根据归一化的系统误差阈值来修改初始化的网络权重,以便生成在权重空间具有减少的误差的学习过的神经网络。
2.如权利要求1所述的方法,其中所述数据包括:
从包含静态数据和实时数据的组中选出的数据。
3.如权利要求2所述的方法,其中根据所述维数来减少接收到的数据的维数以便提高机器学习的性能还包括:
接收数据;
检查接收到的数据的维数;以及
根据检查的结果来减少接收到的数据的维数,以便提高机器学习的性能。
4.如权利要求3所述的方法,其中在机器学习期间检查接收到的数据的维数以便改进性能还包括:
将接收到的数据的维数与一个阈值进行比较;以及
根据比较的结果来减少接收到的数据的维数,以便提高机器学习的性能。
5.如权利要求4所述的方法,其中减少接收到的数据的维数包括:
使用主要来减少接收到的数据中的属性数量。
6.如权利要求4所述的方法,其中将接收到的数据的维数与阈值进行比较包括:
将接收到的数据中的属性数量与阈值进行比较。
7.如权利要求6所述的方法,其中所述阈值包括:
大于或等于25个属性。
8.如权利要求2所述的方法,还包括:
如果接收到的数据是静态数据,则使用预定的窗口长度读取接收到的静态数据的样本;以及
如果接收到的数据是实时数据,则使用预定窗口长度的动态改变窗口来读取接收到的实时数据的样本。
9.如权利要求8所述的方法,还包括:
如果接收到的数据是实时数据,则使用预定窗口长度的动态改变窗口来重复接收该实时数据。
10.如权利要求2所述的方法,其中指定受监督的神经网络的结构包括:
指定神经网络的学习参数,这些参数是从包括输入节点数量、隐藏层数量、每层中的节点数量、输出层的节点数量和学习速度的组中选出的;以及
分配动态存储器用于更新初始化的权重,并且在使用指定的神经网络结构进行每次迭代期间存储输入和输出节点之间的趋势。
11.如权利要求2所述的方法,其中初始化权重还包括:
使用随机权重来初始化权重。
12.如权利要求2所述的方法,其中根据归一化的系统误差阈值来修改网络的初始化的权重还包括:
将预测值与归一化的系统误差阈值进行比较;以及
根据该比较的结果来修改神经网络的初始化的权重,以便生成在权重空间具有减少的误差的学习过的神经网络。
13.如权利要求12所述的方法,其中将预测值与归一化的系统误差阈值进行比较还包括:
通过使用期望值和预测值来计算归一化的系统误差,从而使用梯度下降技术来减少权重空间中的误差;以及
将计算的归一化的系统误差与归一化的系统误差阈值进行比较。
14.如权利要求13所述的方法,还包括:
重复执行和比较步骤直到计算的归一化的差分误差小于或等于归一化的系统误差阈值。
15.如权利要求1所述的方法,还包括:
使用赫斯矩阵来提高神经网络的学习速度;以及
使用函数逼近邻域技术来干扰神经网络的学习参数,以便进一步提高神经网络的学习速度。
16.如权利要求1所述的方法,还包括:
验证学习过的神经网络以便检验学习过的神经网络的可靠性。
17.如权利要求16所述的方法,其中验证神经网络还包括:
使用学习过的神经网络来执行受监督的学习以便对于值进行预测;
通过将预测值与已知值进行比较来计算预测值的准确度;
将计算的准确度与一个准确度值进行比较;以及
根据该比较的结果来重复改变学习速度、执行、比较和验证步骤,以便进一步提高学习过的神经网络的可靠性。
18.如权利要求16所述的方法,还包括:
将未知的值输入到验证的神经网络中;以及
通过在验证的神经网络上执行受监督的学习来对于值进行预测。
19.一种计算机可读介质,具有用于受监督的人工神经网络学习的计算机可执行指令,包括:
接收数据;
检查接收到的数据的维数;
根据检查的结果来减少接收到的数据的维数,以便提高机器学习的性能;
指定受监督的神经网络的结构;
初始化权重以便在接收到的数据和预测值之间建立连接强度;
使用指定的结构、初始化的权重和包括减少的维数的接收到的数据来执行受监督的机器学习以便对于值进行预测;
将预测的值与归一化的系统误差阈值进行比较;以及
根据该比较的结果来修改神经网络的初始化的权重,以便生成在权重空间具有减少的误差的学习过的神经网络。
20.如权利要求19所述的计算机可读介质,其中所述数据包括:
从包含静态数据和实时数据的组中选出的数据。
21.如权利要求20所述的计算机可读介质,其中在机器学习期间检查接收到的数据的维数以便改进性能还包括:
将接收到的数据的维数与一个阈值进行比较;以及
根据比较的结果来减少接收到的数据的维数,以便提高机器学习的性能。
22.如权利要求21所述的计算机可读介质,其中减少接收到的数据的维数包括:
使用主要来减少接收到的数据中的属性数量。
23.如权利要求21所述的计算机可读介质,其中将接收到的数据的维数与阈值进行比较包括:
将接收到的数据中的属性数量与阈值进行比较。
24.如权利要求23所述的计算机可读介质,其中所述阈值包括:
大于或等于25个属性。
25.如权利要求20所述的计算机可读介质,还包括:
如果接收到的数据是静态数据,则使用预定的窗口长度来读取接收到的静态数据的样本;以及
如果接收到的数据是实时数据,则使用预定窗口长度的动态改变窗口来读取接收到的实时数据的样本。
26.如权利要求25所述的计算机可读介质,还包括:
如果接收到的数据是实时数据,则使用预定窗口长度的动态改变窗口来重复接收该实时数据。
27.如权利要求20所述的计算机可读介质,其中指定受监督的神经网络的结构包括:
指定神经网络的学习参数,这些参数是从包括输入节点数量、隐藏层数量、每层中的节点数量、输出层的节点数量和学习速度的组中选出的;以及
分配动态存储器用于更新初始化的权重,并且在使用指定的神经网络结构进行每次迭代期间存储输入和输出节点之间的趋势。
28.如权利要求20所述的计算机可读介质,其中初始化权重还包括:
使用随机权重来初始化权重。
29.如权利要求20所述的计算机可读介质,其中将预测值与归一化的系统误差阈值进行比较还包括:
通过使用期望值和预测值来计算归一化的系统误差,从而使用梯度下降技术来减少权重空间中的误差;以及
将计算的归一化的系统误差与归一化的系统误差阈值进行比较。
30.如权利要求29所述的计算机可读介质,还包括:
重复执行和比较步骤直到计算的归一化的差分误差小于或等于归一化的系统误差阈值。
31.如权利要求19所述的计算机可读介质,还包括:
使用赫斯矩阵来提高神经网络的学习速度;以及
使用函数逼近邻域技术来干扰神经网络的学习参数,以便进一步提高神经网络的学习速度。
32.如权利要求19所述的计算机可读介质,还包括:
验证学习过的神经网络以便检验学习过的神经网络的可靠性。
33.如权利要求32所述的计算机可读介质,其中验证神经网络还包括:
使用学习过的神经网络来执行受监督的学习以便对于值进行预测;
通过将预测值与已知值进行比较来计算预测值的准确度;
将计算的准确度与一个准确度值进行比较;以及
根据该比较的结果来重复改变学习速度、执行和比较步骤。
34.如权利要求32所述的计算机可读介质,还包括:
使用验证的神经网络来对于值进行预测。
35.一种用于在稀疏数据环境中进行机器学习的计算机系统,该计算机系统包括:
存储设备;
输出设备;以及
被编程用于重复执行一种方法的处理器,该方法包括:
接收数据;
检查接收到的数据的维数;
根据检查的结果来减少接收到的数据的维数,以便提高机器学
习的性能;
指定受监督的神经网络的结构;
初始化权重以便在接收到的数据和预测值之间建立连接强度;
使用指定的结构、初始化的权重和包括减少的维数的接收到的数据来执行受监督的机器学习以便对于值进行预测;
将预测的值与归一化的系统误差阈值进行比较;以及
根据该比较的结果来修改神经网络的初始化的权重,以便生成
在权重空间具有减少的误差的学习过的神经网络。
36.如权利要求35所述的系统,其中所述数据包括:
从包含静态数据和实时数据的组中选出的数据。
37.如权利要求36所述的系统,其中在机器学习期间检查接收到的数据的维数以便改进性能还包括:
将接收到的数据的维数与一个阈值进行比较;以及
根据比较的结果来减少接收到的数据的维数,以便提高机器学习的性能。
38.如权利要求37所述的系统,其中减少接收到的数据的维数包括:
使用主要来减少接收到的数据中的属性数量。
39.如权利要求37所述的系统,其中将接收到的数据的维数与阈值进行比较包括:
将接收到的数据中的属性数量与阈值进行比较。
40.如权利要求39所述的系统,其中所述阈值包括:
大于或等于25个属性。
41.如权利要求36所述的系统,还包括:
如果接收到的数据是静态数据,则使用预定的窗口长度来读取接收到的静态数据的样本;以及
如果接收到的数据是实时数据,则使用预定窗口长度的动态改变窗口来读取接收到的实时数据的样本。
42.如权利要求41所述的系统,还包括:
如果接收到的数据是实时数据,则使用预定窗口长度的动态改变窗口来重复接收该实时数据。
43.如权利要求36所述的系统,其中指定受监督的神经网络的结构包括:
指定神经网络的学习参数,这些参数是从包括输入节点数量、隐藏层数量、每层中的节点数量、输出层的节点数量和学习速度的组中选出的;以及
分配动态存储器用于更新初始化的权重,并且在使用指定的神经网络结构进行每次迭代期间存储输入和输出节点之间的趋势。
44.如权利要求36所述的系统,其中初始化权重还包括:
使用随机权重来初始化权重。
45.如权利要求36所述的系统,其中将预测值与归一化的系统误差阈值进行比较还包括:
通过使用期望值和预测值来计算归一化的系统误差,从而使用梯度下降技术来减少权重空间中的误差;以及
将计算的归一化的系统误差与归一化的系统误差阈值进行比较。
46.如权利要求45所述的系统,还包括:
重复执行和比较步骤直到计算的归一化的差分误差小于或等于归一化的系统误差阈值。
47.如权利要求35所述的系统,还包括:
使用赫斯矩阵来提高神经网络的学习速度;以及
使用函数逼近邻域技术来干扰神经网络的学习参数,以便进一步提高神经网络的学习速度。
48.如权利要求35所述的系统,还包括:
验证学习过的神经网络以便检验学习过的神经网络的可靠性。
49.如权利要求48所述的系统,其中验证神经网络还包括:
使用学习过的神经网络来执行受监督的学习以便对于值进行预测;
通过将预测值与已知值进行比较来计算预测值的准确度;
将计算的准确度与一个准确度值进行比较;以及
根据该比较的结果来重复执行和比较步骤。
50.如权利要求48所述的系统,还包括:
使用验证的神经网络来对于值进行预测。
51.一种用于受监督的人工神经网络学习的计算机实现的系统,该系统包括:
用于接收数据的接收模块;
用于读取接收到的数据的读取模块;
一个分析器,用于检查读出数据的维数,并且根据该检查的结果来减少读出数据的维数以便提高机器学习的性能;
其中该分析器指定神经网络的结构,以及初始化权重以便在读出数据和使用神经网络获得的预测值之间建立连接强度,其中该分析器使用指定的结构、初始化的权重和包括减少的维数的读出数据来执行受监督的学习以便对于值进行预测;以及
一个耦合到该分析器的比较器,用于将预测的值与归一化的系统误差阈值进行比较,其中该分析器根据所述比较的结果来修改神经网络的初始化的权重,以便生成在权重空间具有减少的误差的学习过的神经网络。
52.如权利要求51所述的系统,还包括:
耦合到所述接收模块的数据库,用于接收和存储数据。
53.如权利要求52所述的系统,其中所述数据包括:
从包含静态数据和实时数据的组中选出的数据。
54.如权利要求53所述的系统,其中所述比较器将读出数据的维数与一个阈值进行比较,并且所述分析器根据比较器的比较结果来减少读出数据的维数,以便提高神经网络学习的性能。
55.如权利要求54所述的系统,其中所述阈值大于或等于25。
56.如权利要求55所述的系统,其中所述比较器将读出数据中的属性数量与阈值进行比较。
57.如权利要求54所述的系统,其中所述分析器通过使用主要来减少读出数据中的属性数量,从而减少读出数据的维数。
58.如权利要求57所述的系统,其中所述分析器通过使用下列方程式形成协方差矩阵,从而减少读出数据的维数:
CM×N=Xt*X
其中接收到的数据是以矩阵形式(例如XM×N)输入的;
并且使用下列方程式根据形成的协方差矩阵来计算特征值和特征向量:
(C-λI)Ui=0→  (1)
其中λ=(λ1,λ2,......,λn)是方程式的根,通过解方程(1)得到特征值,并且由Ui=(ui1,ui2,......,uin)给出对应的特征向量;
并且使用下式来选择主成分:
{ 1,2 , . . k | Σ i = 1 k λ i / Σ i = 1 n λ i ≥ β }
其中β是截止百分比(~85%);
并且还使用下式来选择特征:
{ j | U ij ≥ max j { U ij } / 2 , i ∈ cuttoff ( k )
以便减少接收到的数据的维数。
59.如权利要求54所述的系统,其中所述读取模块使用预定的窗口长度来读取接收到的数据的样本。
60.如权利要求59所述的系统,其中当读出数据是静态数据时,所述读取模块使用预定的窗口长度来读取接收到的数据的样本;并且当读出数据是实时数据时,所述读取模块使用预定窗口长度的动态改变窗口来读取接收到的数据的样本。
61.如权利要求60所述的系统,其中当接收到的数据是实时数据时,所述读取模块使用预定窗口长度的动态改变窗口来重复读取接收到的数据的样本。
62.如权利要求51所述的系统,其中所述分析器使用从包括输入节点数量、隐藏层数量、每层中的节点数量、输出层的节点数量、学习速度和更新初始化的权重的动态存储器的组中选出的学习参数来指定神经网络的学习参数。
63.如权利要求51所述的系统,其中所述分析器使用大约范围从-0.5到0.5的随机值来初始化权重。
64.如权利要求51所述的系统,其中所述分析器通过使用期望值和预测值来计算归一化的系统误差,并且所述比较器将计算的归一化的系统误差与归一化的系统误差阈值进行比较,以便根据该比较的结果来使用梯度下降技术减少权重空间中的误差。
65.如权利要求64所述的系统,其中所述梯度下降技术使用下列方程式:
Wij(n+1)=Wji(n)+η(δj oi)
其中Wij是i行和j列空间中的权重,oj是实际的输出,δj是期望的输出,而η是学习速度。
66.如权利要求65所述的系统,其中所述分析器在使用赫斯矩阵更新权重期间提高神经网络的学习速度,其中赫斯矩阵为:
H [ i , k ] = Σ k Σ j G [ k ] * w [ i , j ]
其中H[i,k]是二阶导数的对角元素,其中i,j和k是节点和隐藏层的结构相关数,并且其中:
G [ k ] = Σ j w [ j , k ] * d [ i , k ]
其中G[k]是先前迭代误差相对于权重空间的梯度,并且i,j和k是节点和隐藏层的结构相关数。
67.如权利要求66所述的系统,其中所述分析器还使用函数逼近邻域技术利用下列方程式更新权重以便提高神经网络的学习速度:
W(t+1)=f(n,m,δr(t))
其中n是输入层中的节点数量,m是下一层的节点数量,而δr(t)是基于时间函数的参数。
68.如权利要求67所述的系统,还包括:
重复改变学习速度、执行和比较,以便减少归一化的系统误差。
69.如权利要求51所述的系统,其中所述分析器通过使用学习过的神经网络执行受监督的学习以便对于值进行预测,从而验证神经网络以便检验学习过的神经网络的可靠性,其中所述分析器通过将预测值与已知值进行比较来计算预测值的准确度,其中所述比较器将计算的准确度与一个准确度值进行比较,并且所述分析器根据该比较器的比较结果来重复受监督的学习。
70.如权利要求69所述的系统,还包括:
使用从包含赫斯矩阵和函数逼近邻域的组中选出的技术来重复改变神经网络的学习速度。
71.如权利要求70所述的系统,还包括:
重复执行和验证神经网络,以便提高学习过的神经网络的可靠性。
72.如权利要求71所述的系统,还包括:
耦合到所述分析器的输出模块,用于使用验证的神经网络来对于值进行预测。
CNA028217292A 2001-08-29 2002-08-29 用于受监督的神经网络学习的组合方法 Pending CN1578968A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/942,155 US6954744B2 (en) 2001-08-29 2001-08-29 Combinatorial approach for supervised neural network learning
US09/942,155 2001-08-29

Publications (1)

Publication Number Publication Date
CN1578968A true CN1578968A (zh) 2005-02-09

Family

ID=25477648

Family Applications (1)

Application Number Title Priority Date Filing Date
CNA028217292A Pending CN1578968A (zh) 2001-08-29 2002-08-29 用于受监督的神经网络学习的组合方法

Country Status (6)

Country Link
US (1) US6954744B2 (zh)
EP (1) EP1454295A2 (zh)
JP (1) JP2005504367A (zh)
CN (1) CN1578968A (zh)
AU (1) AU2002324828A1 (zh)
WO (1) WO2003021528A2 (zh)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101247392B (zh) * 2008-02-28 2010-12-08 中兴通讯股份有限公司 目标活动预测装置及方法
CN101206727B (zh) * 2006-12-19 2011-08-17 富士施乐株式会社 数据处理装置和数据处理方法
CN103620624A (zh) * 2011-06-22 2014-03-05 高通股份有限公司 用于导致稀疏连通性的局部竞争性学习规则的方法和装置
CN103890787A (zh) * 2011-10-19 2014-06-25 高通股份有限公司 用于尖峰神经网络中的自然多尖峰序列的神经学习的方法和装置
CN104598981A (zh) * 2013-10-31 2015-05-06 国际商业机器公司 生成装置、生成方法和程序
CN105637541A (zh) * 2013-10-11 2016-06-01 高通股份有限公司 用于神经模拟器的共享存储器架构
CN106471527A (zh) * 2014-08-26 2017-03-01 谷歌公司 从全局模型进行本地化学习
CN107690663A (zh) * 2015-06-05 2018-02-13 谷歌有限责任公司 白化神经网络层
CN108600002A (zh) * 2018-04-17 2018-09-28 浙江工业大学 一种基于半监督学习的移动边缘计算分流决策方法
CN109155002A (zh) * 2016-02-05 2019-01-04 渊慧科技有限公司 具有外部存储器的增强神经网络
CN109716356A (zh) * 2016-09-01 2019-05-03 摄取技术有限公司 多变量数据中的异常检测
WO2019200544A1 (zh) * 2018-04-17 2019-10-24 深圳鲲云信息科技有限公司 网络模型的应用开发方法及相关产品
CN110852432A (zh) * 2018-07-24 2020-02-28 三星电子株式会社 对象识别装置、电子装置和识别对象的方法
CN111357019A (zh) * 2017-11-30 2020-06-30 国际商业机器公司 通过对权重矩阵实施空间局部性并实现频率压缩来压缩(多个)深度网络的全连接/递归层
CN111670468A (zh) * 2017-12-18 2020-09-15 日立汽车系统株式会社 移动体行为预测装置以及移动体行为预测方法
WO2020215748A1 (zh) * 2019-04-23 2020-10-29 国网冀北电力有限公司计量中心 电能表任务执行能力检测方法及装置

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7249007B1 (en) * 2002-01-15 2007-07-24 Dutton John A Weather and climate variable prediction for management of weather and climate risk
US20060242180A1 (en) * 2003-07-23 2006-10-26 Graf James A Extracting data from semi-structured text documents
US7603330B2 (en) * 2006-02-01 2009-10-13 Honda Motor Co., Ltd. Meta learning for question classification
US9223858B1 (en) * 2009-02-27 2015-12-29 QuisLex, Inc. System and method to determine quality of a document screening process
WO2012162485A2 (en) 2011-05-26 2012-11-29 Causata, Inc. Real-time adaptive binning
WO2013012898A2 (en) * 2011-07-19 2013-01-24 Causata Inc. Distributed scalable incrementally updated models in decisioning systems
US8914314B2 (en) 2011-09-28 2014-12-16 Nice Systems Technologies Uk Limited Online temporal difference learning from incomplete customer interaction histories
US8909590B2 (en) 2011-09-28 2014-12-09 Nice Systems Technologies Uk Limited Online asynchronous reinforcement learning from concurrent customer histories
KR101910576B1 (ko) * 2011-11-08 2018-12-31 삼성전자주식회사 인공신경망을 이용하여 신속하게 입력 패턴을 분류하는 방법 및 장치
CN103324979B (zh) * 2013-06-28 2017-02-01 电子科技大学 一种可编程阈值电路
CN103646299A (zh) * 2013-12-19 2014-03-19 浙江省公众信息产业有限公司 基于神经元网络的农作物预测方法与装置
US10579922B2 (en) 2014-04-08 2020-03-03 Microsoft Technology Licensing, Llc Deep learning using alternating direction method of multipliers
CN104834285B (zh) * 2015-03-30 2018-01-12 福州大学 对角递归神经网络控制器在多平台中的实现方法
WO2018106458A1 (en) * 2016-12-05 2018-06-14 Hsu Fu Chang High-density neural network array
KR102031123B1 (ko) * 2016-12-28 2019-11-08 주식회사 엘렉시 이상패턴 감지 시스템 및 방법
US10795836B2 (en) * 2017-04-17 2020-10-06 Microsoft Technology Licensing, Llc Data processing performance enhancement for neural networks using a virtualized data iterator
CN109327421A (zh) 2017-08-01 2019-02-12 阿里巴巴集团控股有限公司 数据加密、机器学习模型训练方法、装置及电子设备
CN107958695B (zh) * 2017-11-17 2021-12-14 桂林电子科技大学 一种基于机器学习的高精度药物定量方法
US10979307B2 (en) 2018-05-01 2021-04-13 B.yond, Inc. Synchronized distributed processing in a communications network
US11494587B1 (en) 2018-10-23 2022-11-08 NTT DATA Services, LLC Systems and methods for optimizing performance of machine learning model generation
CN109558032B (zh) * 2018-12-05 2020-09-04 北京三快在线科技有限公司 操作处理方法、装置以及计算机设备
CN110503198B (zh) * 2019-07-23 2024-07-12 平安科技(深圳)有限公司 获取神经网络测试报告的方法、装置、设备和存储介质
CN112825105B (zh) * 2019-11-20 2022-07-12 上海交通大学 混合材料参数压缩的板料挤压成形力快速预测方法
JP6791347B1 (ja) * 2019-12-19 2020-11-25 トヨタ自動車株式会社 モデル診断装置及びモデル診断システム
CN111028512B (zh) * 2019-12-31 2021-06-04 福建工程学院 一种基于稀疏bp神经网络的实时交通预测方法及装置
US20240176992A1 (en) * 2022-11-01 2024-05-30 Boe Technology Group Co., Ltd. Method, apparatus and device for explaining model and computer storage medium

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5303330A (en) 1991-06-03 1994-04-12 Bell Communications Research, Inc. Hybrid multi-layer neural networks
US5355434A (en) 1991-08-19 1994-10-11 Toyoda Koki Kabushiki Kaisha Method and apparatus for performing learning in a neural network
JPH0877010A (ja) 1994-09-07 1996-03-22 Hitachi Ltd データ分析方法および装置
US5793888A (en) * 1994-11-14 1998-08-11 Massachusetts Institute Of Technology Machine learning apparatus and method for image searching
US5812992A (en) 1995-05-24 1998-09-22 David Sarnoff Research Center Inc. Method and system for training a neural network with adaptive weight updating and adaptive pruning in principal component space
US5970482A (en) 1996-02-12 1999-10-19 Datamind Corporation System for data mining using neuroagents
US5809490A (en) * 1996-05-03 1998-09-15 Aspen Technology Inc. Apparatus and method for selecting a working data set for model development
EP0935789A1 (en) * 1996-11-04 1999-08-18 3-Dimensional Pharmaceuticals, Inc. System, method, and computer program product for the visualization and interactive processing and analysis of chemical data
US6424961B1 (en) * 1999-12-06 2002-07-23 AYALA FRANCISCO JOSé Adaptive neural learning system

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101206727B (zh) * 2006-12-19 2011-08-17 富士施乐株式会社 数据处理装置和数据处理方法
CN101247392B (zh) * 2008-02-28 2010-12-08 中兴通讯股份有限公司 目标活动预测装置及方法
CN103620624B (zh) * 2011-06-22 2016-10-19 高通股份有限公司 用于导致稀疏连通性的局部竞争性学习规则的方法和装置
CN103620624A (zh) * 2011-06-22 2014-03-05 高通股份有限公司 用于导致稀疏连通性的局部竞争性学习规则的方法和装置
CN103890787A (zh) * 2011-10-19 2014-06-25 高通股份有限公司 用于尖峰神经网络中的自然多尖峰序列的神经学习的方法和装置
CN105637541A (zh) * 2013-10-11 2016-06-01 高通股份有限公司 用于神经模拟器的共享存储器架构
US10339041B2 (en) 2013-10-11 2019-07-02 Qualcomm Incorporated Shared memory architecture for a neural simulator
CN104598981A (zh) * 2013-10-31 2015-05-06 国际商业机器公司 生成装置、生成方法和程序
CN106471527A (zh) * 2014-08-26 2017-03-01 谷歌公司 从全局模型进行本地化学习
US11551153B2 (en) 2014-08-26 2023-01-10 Google Llc Localized learning from a global model
CN106471527B (zh) * 2014-08-26 2019-05-03 谷歌有限责任公司 从全局模型进行本地化学习
US10824958B2 (en) 2014-08-26 2020-11-03 Google Llc Localized learning from a global model
CN107690663A (zh) * 2015-06-05 2018-02-13 谷歌有限责任公司 白化神经网络层
CN109155002A (zh) * 2016-02-05 2019-01-04 渊慧科技有限公司 具有外部存储器的增强神经网络
CN109155002B (zh) * 2016-02-05 2021-11-09 渊慧科技有限公司 增强神经网络系统、方法和计算机程序
CN109716356A (zh) * 2016-09-01 2019-05-03 摄取技术有限公司 多变量数据中的异常检测
CN111357019A (zh) * 2017-11-30 2020-06-30 国际商业机器公司 通过对权重矩阵实施空间局部性并实现频率压缩来压缩(多个)深度网络的全连接/递归层
CN111357019B (zh) * 2017-11-30 2023-12-29 国际商业机器公司 通过对权重矩阵实施空间局部性并实现频率压缩来压缩(多个)深度网络的全连接/递归层
US11977974B2 (en) 2017-11-30 2024-05-07 International Business Machines Corporation Compression of fully connected / recurrent layers of deep network(s) through enforcing spatial locality to weight matrices and effecting frequency compression
CN111670468A (zh) * 2017-12-18 2020-09-15 日立汽车系统株式会社 移动体行为预测装置以及移动体行为预测方法
WO2019200544A1 (zh) * 2018-04-17 2019-10-24 深圳鲲云信息科技有限公司 网络模型的应用开发方法及相关产品
CN108600002A (zh) * 2018-04-17 2018-09-28 浙江工业大学 一种基于半监督学习的移动边缘计算分流决策方法
US11954576B2 (en) 2018-04-17 2024-04-09 Shenzhen Corerain Technologies Co., Ltd. Method for implementing and developing network model and related product
CN110852432A (zh) * 2018-07-24 2020-02-28 三星电子株式会社 对象识别装置、电子装置和识别对象的方法
WO2020215748A1 (zh) * 2019-04-23 2020-10-29 国网冀北电力有限公司计量中心 电能表任务执行能力检测方法及装置

Also Published As

Publication number Publication date
AU2002324828A1 (en) 2003-03-18
WO2003021528A3 (en) 2004-06-17
US6954744B2 (en) 2005-10-11
US20030055796A1 (en) 2003-03-20
WO2003021528A2 (en) 2003-03-13
JP2005504367A (ja) 2005-02-10
EP1454295A2 (en) 2004-09-08

Similar Documents

Publication Publication Date Title
CN1578968A (zh) 用于受监督的神经网络学习的组合方法
Moustapha et al. Surrogate-assisted reliability-based design optimization: a survey and a unified modular framework
Kann et al. Approaches for performing uncertainty analysis in large-scale energy/economic policy models
Srinivasan et al. Machine learning approaches to estimating software development effort
US6725208B1 (en) Bayesian neural networks for optimization and control
Xia et al. Collective personalized change classification with multiobjective search
US20060217939A1 (en) Time series analysis system, time series analysis method, and time series analysis program
US20070233435A1 (en) Boosted linear modeling of non-linear time series
Wang Randomized linear programming solves the markov decision problem in nearly linear (sometimes sublinear) time
CN112001496B (zh) 神经网络结构搜索方法及系统、电子设备及存储介质
WO2000036523A1 (en) Method for solving partial constraint satisfaction problems for sequencing tasks
CN112884236B (zh) 一种基于vdm分解与lstm改进的短期负荷预测方法及系统
Karthik et al. Prognostic Kalman Filter Based Bayesian Learning Model for Data Accuracy Prediction.
CN112765894B (zh) 一种基于k-lstm的铝电解槽状态预测方法
Haesaert et al. Temporal logic control of general Markov decision processes by approximate policy refinement
Wu et al. A new rescheduling method for computer based scheduling systems
Queipo et al. A gradient boosting approach with diversity promoting measures for the ensemble of surrogates in engineering
Rashid et al. An Artificial Neural Network-Based Model for Effective Software Development Effort Estimation
WO2020205150A1 (en) Validation of operating plans and schedules using machine learning
CN113689301A (zh) 赔付策略的构建方法、装置、设备及存储介质
CN117768164A (zh) 基于SSA和IQPSO优化TCAN-BiGRU的网络安全态势预测方法
George Predicting Oil Production Flow Rate Using Artificial Neural Networks-The Volve Field Case
Ohishi et al. Coordinate descent algorithm of generalized fused Lasso logistic regression for multivariate trend filtering
US20230297837A1 (en) Method for automated determination of a model compression technique for compression of an artificial intelligence-based model
US20220405599A1 (en) Automated design of architectures of artificial neural networks

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication