CN114897188B - 大规模数据处理方法 - Google Patents

大规模数据处理方法 Download PDF

Info

Publication number
CN114897188B
CN114897188B CN202210643076.0A CN202210643076A CN114897188B CN 114897188 B CN114897188 B CN 114897188B CN 202210643076 A CN202210643076 A CN 202210643076A CN 114897188 B CN114897188 B CN 114897188B
Authority
CN
China
Prior art keywords
model
relm
iteration
regularized
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210643076.0A
Other languages
English (en)
Other versions
CN114897188A (zh
Inventor
刘半藤
霍闪闪
王柯
陈友荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Shuren University
Original Assignee
Zhejiang Shuren University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Shuren University filed Critical Zhejiang Shuren University
Priority to CN202210643076.0A priority Critical patent/CN114897188B/zh
Publication of CN114897188A publication Critical patent/CN114897188A/zh
Application granted granted Critical
Publication of CN114897188B publication Critical patent/CN114897188B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Complex Calculations (AREA)

Abstract

本申请公开了一种基于最大分划自适应松弛交替方向乘子法的大规模数据处理方法,属于人工智能技术领域,方法包括:构建RELM网络模型,得到模型拟合函数;引入辅助变量对模型拟合函数进行转换;采用Gauss–Seidel迭代法最小化优化变量β、z上的增广拉格朗日函数:采用最大分划自适应松弛交替方向乘子法,将RELM网络模型处理的正则化最小二乘问题最大限度地分解为可并行执行的多个单变量子问题;采用自适应参数寻优方法,简化单变量子问题的求解过程;对多个单变量子问题进行求解,以得到正则化最小二乘问题的结果。避免了在求解过程中进行大量Moore‑Penrose矩阵逆运算,减少计算过程中所需要存储空间和计算量,降低RELM模型分析和计算成本。

Description

大规模数据处理方法
技术领域
本申请属于人工智能技术领域,具体涉及一种基于最大分划自适应松弛交替方向乘子法的大规模数据处理方法。
背景技术
极限学习机(Extreme Learning Machine,ELM)因具有良好的快速学习能力和泛化性能被广泛应用于疾病诊断、图像质量评估、交通标志识别等多个领域中。正则化ELM(Regularization ELM,RELM)是标准ELM的一种扩展变体,通过在损失函数中加入正则化项,从而提高ELM的泛化性能和稳定性。
然而,随着互联网、云计算、物联网的迅猛发展,数据维数和体量呈爆炸式增长,当训练样本数和隐含层节点数都非常大时,会导致ELM模型输出矩阵维数特别大,基于Moore-Penrose矩阵逆运算(MI)的计算过程需要大量的存储空间和计算量,会显著增加RELM的建模分析和计算成本,因此,为满足高效的大规模数据处理需求,需要从根源上解决在大规模数据条件下RELM求解效率不高的问题。
发明内容
本申请实施例的目的是提供一种基于最大分划自适应松弛交替方向乘子法的大规模数据处理方法,能够解决现有技术在基于Moore-Penrose矩阵逆运算对ELM模型进行求解时计算过程需要大量的存储空间和计算量,会显著增加RELM模型分析和计算成本的问题。
为了解决上述技术问题,本申请是这样实现的:
本申请实施例提供了一种基于最大分划自适应松弛交替方向乘子法的大规模数据处理方法,应用于正则化极限学习机,大规模数据处理方法包括:
S101:构建正则化极限学习机RELM网络模型,得到模型拟合函数:
其中,||·||F为Frobenius范数,μ为正则化因子,μ>0,控制损失函数和正则项之间的平衡,T为目标输出矩阵,H为输出矩阵,β为输出权重;
S102:引入辅助变量z=Hβ将模型拟合函数转换成:
s.t.Hβ-z=0 公式2
其中,s.t.表示条件;
S103:采用Gauss–Seidel迭代法最小化优化变量β、z上的增广拉格朗日函数:
λk+1=λk+ρ(Hβk+1-zk+1) 公式3
其中,ρ为惩罚参数,ρ>0,λ为对偶变量,z-T为训练误差;
S104:采用最大分划自适应松弛交替方向乘子法MS-ARADMM,将RELM网络模型处理的正则化最小二乘问题最大限度地分解为可并行执行的多个单变量子问题,其中,每个单变量子问题中只包含一个标量分量:
其中,λ=[λ12,...,λL]∈RN×L,H=[a1,a2,...,aN]∈RN×L,ai∈RN,β=[β12,...,βL]T∈RL×mi∈Rm
S105:采用自适应参数寻优方法,简化单变量子问题的求解过程;
S106:对多个单变量子问题进行求解,以得到正则化最小二乘问题的结果。
在本申请实施例中,采用最大分划自适应松弛交替方向乘子法将RELM网络模型处理的正则化最小二乘问题最大限度地分解为可并行执行的多个单变量子问题,并且采用自适应参数寻优方法,简化单变量子问题的求解过程,通过对多个单变量子问题进行求解,以得到正则化最小二乘问题的结果。避免了在求解过程中进行大量的Moore-Penrose矩阵逆运算,减少对ELM模型进行求解时计算过程中所需要存储空间和计算量,降低RELM模型分析和计算成本。
附图说明
图1是本申请实施例提供的一种基于最大分划自适应松弛交替方向乘子法的大规模数据处理方法的流程示意图;
图2是本申请实施例提供的一种RELM网络模型框架示意图;
图3是本申请实施例提供的一种基于最大分划自适应松弛交替方向乘子法的大规模数据处理方法的实现框图;
图4是本申请实施例提供的一种最大分划并行方法算法流程图;
图5是本申请实施例提供的一种残差约束松弛方法流程图;
图6是本申请实施例提供的一种自适应参数选择方法流程图;
图7是本申请实施例提供的一种基于最大分划自适应松弛交替方向乘子法的正则化极限学习机模型构建流程图。
本发明目的的实现、功能特点及优点将结合实施例、参照附图做进一步说明。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
下面结合附图,通过具体的实施例及其应用场景对本申请实施例提供的大规模数据处理方法进行详细地说明。
实施例一
参照图1,示出了本申请实施例提供的一种基于最大分划自适应松弛交替方向乘子法(Maximally Split and Adaptive Relaxed ADMM,MS-ARADMM)的大规模数据处理方法的流程示意图。
本申请提供的一种基于最大分划自适应松弛交替方向乘子法的大规模数据处理方法,应用于正则化极限学习机(Regularized Extreme Learning Machines,RELM)。
参照图2,示出了本申请实施例提供的一种RELM网络模型框架示意图。
RELM网络模型框架分为三层:左侧为输入层,中间为隐含层,右侧为输出层。
参照图3,示出了本申请实施例提供的一种基于最大分划自适应松弛交替方向乘子法的大规模数据处理方法的实现框图。
参照图4,示出了本申请实施例提供的一种最大分划并行方法算法流程图。
本申请实施例提供的大规模数据处理方法包括:
S101:构建正则化极限学习机网络模型,得到模型拟合函数:
其中,||·||F为Frobenius范数,μ为正则化因子,μ>0,控制损失函数和正则项之间的平衡,T为目标输出矩阵,H为输出矩阵,β为输出权重。
S102:引入辅助变量z=Hβ将模型拟合函数转换成:
s.t.Hβ-z=0 公式2
其中,s.t.表示条件。
S103:采用Gauss–Seidel迭代法最小化优化变量β、z上的增广拉格朗日函数:
λk+1=λk+ρ(Hβk+1-zk+1) 公式3
其中,ρ为惩罚参数,ρ>0,λ为对偶变量,z-T为训练误差。
S104:采用最大分划自适应松弛交替方向乘子法,将RELM网络模型处理的正则化最小二乘问题(Regularized Least Squares,RLS)最大限度地分解为可并行执行的多个单变量子问题,其中,每个单变量子问题中只包含一个标量分量:
其中,λ=[λ12,...,λL]∈RN×L,H=[a1,a2,...,aN]∈RN×L,ai∈RN,β=[β12,...,βL]T∈RL×mi∈Rm
需要说明的是,利用MS-ARADMM优化方法,将RELM网络模型中大的全局问题最大程度地分解为多个较小、较容易求解的局部单变量子问题,极大地提高了算法并行性。
具体地,通过考虑2-block ADMM,将一个问题分成两个子问题进行并行计算,并将数据矩阵H简化为数据向量ai,向量系数β简化为标量系数βi,使得算法具有高度并行结构,提高并行运算效率。
S105:采用自适应参数寻优方法,简化单变量子问题的求解过程。
需要说明的是,在单变量子问题的求解过程得到简化之后,可以极大地提高RELM网络模型对于大规模数据的处理速度。
S106:对多个单变量子问题进行求解,以得到正则化最小二乘问题的结果。参照图5,图5示出了本申请实施例提供的一种残差约束松弛方法流程图。可选地,步骤S104可由子步骤S1041至S1045来完成。
S1041:定义原始残差和对偶残差来衡量算法收敛性:
rk=aβk-zk
dk=ρaT(zk-zk-1) 公式5
其中,rk、dk分别代表原始残差和对偶残差。
S1042:在计算一次迭代时考虑过去迭代,通过放大等式约束残差aiβi-zi=0,将公式4中的替换成/>zi替换成/> 替换成其中,α为松弛参数。
需要说明的是,通过放大等式约束残差,可以提高算法法的收敛性能。
S1043:结合松弛技术,RELM网络模型的求解过程转变为:
S1044:确定松弛交替方向乘子法ADMM和松弛Douglas-Rachford分裂算法(DRS)之间的关系,假设在迭代k次时的局部线性模型近似为:
其中,θk>0,γk>0分别为f、g的局部曲率估计,ψk、φk为常数。
S1045:将线性模型拟合到目标梯度上,使得ρ和α满足此时f(x)+g(x)的残差为0。
可选地,步骤S105可由子步骤S1051至S1056来完成。
参照图6,示出了本申请实施例提供的一种自适应参数选择方法流程图。
在利用MS-ARADMM方法优化RELM模型求解过程时,考虑到对偶变量λk与步长会影响模型收敛性能的因素,将非单调Wolfe型线搜索策略引入到记忆梯度法中,通过结合当前函数迭代信息和过去多个迭代点的函数信息,提高MS-ARADMM算法全局收敛性能。通过添加步长选择约束条件,简化子问题求解复杂度,提高模型收敛速度。
S1051:设置停止误差ε=10-5,令尺度参数σ为10-4,给定初始点x0,常数τ0=1,常数Λ=10-4,h0=A*x0-b,迭代次数k=0。
S1052:如果τk≤∈或令/>即λ=τk
S1053:若为非单调线搜索,λk计算公式为:
其中,ξ为步长的约束因子,ζ为(0,1)之间的随机数,用于控制步长的变化情况。
S1054:否则,λk计算公式为:
λk=σλ 公式10
S1055:根据获得的λk,计算τk,计算公式为:
S1056:判断是否满足终止条件,若满足,输出τk;否则,迭代次数k加1,跳转到S1052。
可选地,在步骤S104之前,本申请实施例提供的大规模数据处理方法还包括:
S107:计算输出矩阵H和最佳输出权重。
需要说明的是,计算输出矩阵H和最佳输出权重可以极大的提高后续步骤的计算效率。
参照图7,图7示出了本申请实施例提供的一种基于最大分划自适应松弛交替方向乘子法的正则化极限学习机模型构建流程图。
可选地,步骤S107可由子步骤S1071至S1077来完成。
S1071:给定训练样本数据x,设置隐含层为L,随机生成输入权重w和隐含层阈值s;
S1072:根据公式12计算出极限学习机模型隐含层输出矩阵H:
hi(x)=g(wix+si) 公式12
其中,wi、si分别为输入权重和阈值,g(·)为非线性激活函数,T为目标输出矩阵,fL(x)为极限学习机模型输出;
S1073:引入正则化理论,使得模型训练误差和输出权重范数达到最小,则极限学习机模型中的最小二乘问题转变为公式1,从而得到精简的RELM网络模型;
需要说明的是,利用正则化理论使得模型训练误差和输出权重范数达到最小,提高模型泛化性能和稳定性。
S1074:令Hβ=z,设置误差终止条件εtol=10-5,输出权重β、z、λ的初始值均为0,迭代次数k=0;
S1075:利用原始残差rk和对偶残差dk衡量算法收敛性,设定迭代终止条件:
||rk||≤εtolmax{||H*x||,||z},||dk||≤εtolmax{||λ||} 公式13
S1076:利用公式12求解出的输出矩阵H,结合MS-ARADMM算法,利用迭代过程求解出当前迭代次数下的最佳输出权重β,计算公式为:
S1077:判断是否满足迭代终止条件,若满足,输出最佳输出权重β;否则,迭代次数k加1,跳转到S1076。
在本申请实施例中,采用最大分划自适应松弛交替方向乘子法将RELM网络模型处理的正则化最小二乘问题最大限度地分解为可并行执行的多个单变量子问题,并且采用自适应参数寻优方法,简化单变量子问题的求解过程,通过对多个单变量子问题进行求解,以得到正则化最小二乘问题的结果。避免了在求解过程中进行大量的Moore-Penrose矩阵逆运算,减少对ELM模型进行求解时计算过程中所需要存储空间和计算量,降低RELM模型分析和计算成本。综上,本发明采用利用MS-ARADMM的可分解性,将正则化极限学习机的RLS问题最大限度地分解为可并行执行的单变量子问题,弥补极限学习机基于MI的计算过程需要大量的存储空间和计算量所带来的一系列问题。采用正则化理论精简ELM模型,最小化训练误差和输出权重范数,提高模型泛化性能和稳定性;利用ADMM的可分解性,采用最大分划技术和松弛技术,将RELM模型拟合问题最大限度地划分成一组可并行执行的单变量子问题;提出一种自适应参数选择方法,将非单调Wolfe型策略引入到记忆梯度法中,通过结合当前函数迭代信息和过去多个点的函数信息,克服震荡现象的同时提高算法全局收敛性,结合改进BB谱梯度下降法,通过添加步长选择约束条件,简化ADMM算法子问题求解复杂度,提高算法收敛速度。
以上所述仅为本发明的实施例而已,并不用于限制本发明。对于本领域技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本发明的权利要求范围之内。

Claims (3)

1.一种基于最大分划自适应松弛交替方向乘子法的大规模数据处理方法,应用于正则化极限学习机,具体应用于疾病诊断、图像质量评估和交通标志识别,其特征在于,包括:
S101:构建正则化极限学习机RELM网络模型,得到模型拟合函数:
其中,||·||F为Frobenius范数,μ为正则化因子,μ>0,控制损失函数和正则项之间的平衡,T为目标输出矩阵,H为输出矩阵,β为输出权重;
S102:引入辅助变量z=Hβ将所述模型拟合函数转换成:
其中,s.t.表示条件;
S103:采用Gauss–Seidel迭代法最小化优化变量β、z上的增广拉格朗日函数:
其中,ρ为惩罚参数,ρ>0,λ为对偶变量,z-T为训练误差;
S104:采用最大分划自适应松弛交替方向乘子法MS-ARADMM,将所述RELM网络模型处理的正则化最小二乘问题最大限度地分解为可并行执行的多个单变量子问题,其中,每个所述单变量子问题中只包含一个标量分量:
其中,λ=[λ12,...,λL]∈RN×L,H=[a1,a2,...,aN]∈RN×L,ai∈RN,β=[β12,...,βL]T∈RL×mi∈Rm
S105:采用自适应参数寻优方法,简化所述单变量子问题的求解过程;
S106:对多个所述单变量子问题进行求解,以得到所述正则化最小二乘问题的结果;
其中,所述S104具体包括:
S1041:定义原始残差和对偶残差来衡量算法收敛性:
其中,rk、dk分别代表原始残差和对偶残差;
S1042:在计算一次迭代时考虑过去迭代,通过放大等式约束残差aiβi-zi=0,将所述公式4中的替换成/>zi替换成/> 替换成其中,α为松弛参数;
S1043:结合松弛技术,所述RELM网络模型的求解过程转变为:
S1044:确定松弛交替方向乘子法ADMM和松弛Douglas-Rachford分裂算法之间的关系,假设在迭代k次时的局部线性模型近似为:
其中,θk>0,γk>0分别为f、g的局部曲率估计,ψk、φk为常数;
S1045:将线性模型拟合到目标梯度上,使得ρ和α满足此时f(x)+g(x)的残差为0;
其中,所述S105具体包括:
S1051:设置停止误差ε=10-5,令尺度参数σ为10-4,给定初始点x0,常数τ0=1,常数Λ=10-4,h0=A*x0-b,迭代次数k=0;
S1052:如果τk≤∈或令/>即λ=τk
S1053:若为非单调线搜索,λk计算公式为:
其中,ξ为步长的约束因子,ζ为(0,1)之间的随机数,用于控制步长的变化情况;
S1054:否则,λk计算公式为:
λk=σλ 公式10
S1055:根据获得的λk,计算τk,计算公式为:
S1056:判断是否满足终止条件,若满足,输出τk;否则,迭代次数k加1,跳转到S1052。
2.根据权利要求1所述的大规模数据处理方法,其特征在于,在所述S104之前,包括:
S107:计算输出矩阵H和最佳输出权重β。
3.根据权利要求2所述的大规模数据处理方法,其特征在于,所述S107具体包括:
S1071:给定训练样本数据x,设置隐含层为L,随机生成输入权重w和隐含层阈值s;
S1072:根据公式12计算出极限学习机模型隐含层输出矩阵H:
其中,wi、si分别为输入权重和阈值,g(·)为非线性激活函数,T为目标输出矩阵,fL(x)为极限学习机模型输出;
S1073:引入正则化理论,使得模型训练误差和输出权重范数达到最小,则极限学习机模型中的最小二乘问题转变为所述公式1,从而得到精简的RELM网络模型;
S1074:令Hβ=z,设置误差终止条件εtol=10-5,输出权重β、z、λ的初始值均为0,迭代次数k=0;
S1075:利用原始残差rk和对偶残差dk衡量算法收敛性,设定迭代终止条件:
||rk||≤εtolmax{||H*x||,||z||},||dk||≤εtolmax{||λ||} 公式13
S1076:利用所述公式12求解出的输出矩阵H,结合MS-ARADMM算法,利用迭代过程求解出当前迭代次数下的最佳输出权重β,计算公式为:
S1077:判断是否满足迭代终止条件,若满足,输出最佳输出权重β;否则,迭代次数k加1,跳转到所述S1076。
CN202210643076.0A 2022-06-08 2022-06-08 大规模数据处理方法 Active CN114897188B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210643076.0A CN114897188B (zh) 2022-06-08 2022-06-08 大规模数据处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210643076.0A CN114897188B (zh) 2022-06-08 2022-06-08 大规模数据处理方法

Publications (2)

Publication Number Publication Date
CN114897188A CN114897188A (zh) 2022-08-12
CN114897188B true CN114897188B (zh) 2024-04-30

Family

ID=82728067

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210643076.0A Active CN114897188B (zh) 2022-06-08 2022-06-08 大规模数据处理方法

Country Status (1)

Country Link
CN (1) CN114897188B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118296473A (zh) * 2024-06-06 2024-07-05 广汽埃安新能源汽车股份有限公司 电机控制系统稳定性评估方法、装置、存储介质及设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104954973A (zh) * 2015-06-01 2015-09-30 北京工业大学 基于almm的l1正则化核学习机的分布式训练方法
CN113343559A (zh) * 2021-05-19 2021-09-03 暨南大学 迭代重加权最小二乘法极限学习机响应面可靠性分析方法
CN114332542A (zh) * 2022-01-04 2022-04-12 北京理工大学 一种基于sta-admm的极限学习机的图像分类方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9753892B2 (en) * 2014-02-20 2017-09-05 Mitsubishi Electric Research Laboratories, Inc. Method for solving quadratic programs for convex sets with linear equalities by an alternating direction method of multipliers with optimized step sizes

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104954973A (zh) * 2015-06-01 2015-09-30 北京工业大学 基于almm的l1正则化核学习机的分布式训练方法
CN113343559A (zh) * 2021-05-19 2021-09-03 暨南大学 迭代重加权最小二乘法极限学习机响应面可靠性分析方法
CN114332542A (zh) * 2022-01-04 2022-04-12 北京理工大学 一种基于sta-admm的极限学习机的图像分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A Maximally Split and Relaxed ADMM for Regularized Extreme Learning Machines;Xiaoping Lai;《 IEEE Transactions on Neural Networks and Learning Systems》;20200630;1899 - 1913 *
正则化超限学习机的多分块松弛交替方向乘子法;张立佳;赖晓平;曹九稳;;模式识别与人工智能;20191215(第12期);全文 *

Also Published As

Publication number Publication date
CN114897188A (zh) 2022-08-12

Similar Documents

Publication Publication Date Title
Meerbergen The solution of parametrized symmetric linear systems
WO2015125714A1 (en) Method for solving convex quadratic program for convex set
An et al. Maximum likelihood based multi‐innovation stochastic gradient identification algorithms for bilinear stochastic systems with ARMA noise
CN113420421B (zh) 移动边缘计算中基于时序正则化张量分解的QoS预测方法
WO2019193981A1 (ja) データ予測装置、方法、及びプログラム
CN114897188B (zh) 大规模数据处理方法
Sinquin et al. K4SID: Large-scale subspace identification with Kronecker modeling
CN111652664A (zh) 训练混合元学习网络的装置和方法
Bai Several splittings for non-Hermitian linear systems
CN116306248B (zh) 基于时空非线性误差补偿模型的锂电池温度场预测方法
Quirynen et al. Lifted implicit integrators for direct optimal control
Jin et al. A coupled recursive least squares algorithm for multivariable systems and its computational amount analysis by using the coupling identification concept
Zhou et al. Universal neural functionals
Dektor et al. Tensor rank reduction via coordinate flows
Herda et al. Study of an entropy dissipating finite volume scheme for a nonlocal cross-diffusion system
Watanabe Learning efficiency of redundant neural networks in Bayesian estimation
Sargsyan et al. Online interpolation point refinement for reduced-order models using a genetic algorithm
Jia et al. The implicitly restarted multi-symplectic block-Lanczos method for large-scale Hermitian quaternion matrix eigenvalue problem and applications
JP7045150B2 (ja) 連続最適化問題の大域的探索装置及びプログラム
Cho et al. Fast subspace-based system identification: An instrumental variable approach
Ni et al. LBFP: Logarithmic block floating point arithmetic for deep neural networks
Mohades et al. Reducing Computational and Statistical Complexity in Machine Learning Through Cardinality Sparsity
WO2023175722A1 (ja) 学習プログラム及び学習器
CN114580285B (zh) 一种基于cae网络的双曲型系统模型约简方法
Fasshauer Dual bases and discrete reproducing kernels: a unified framework for RBF and MLS approximation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant