CN116630728A - 基于注意力残差孪生网络的加工精度预测方法 - Google Patents

基于注意力残差孪生网络的加工精度预测方法 Download PDF

Info

Publication number
CN116630728A
CN116630728A CN202310577060.9A CN202310577060A CN116630728A CN 116630728 A CN116630728 A CN 116630728A CN 202310577060 A CN202310577060 A CN 202310577060A CN 116630728 A CN116630728 A CN 116630728A
Authority
CN
China
Prior art keywords
time sequence
displacement
sequence
attention
twin network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310577060.9A
Other languages
English (en)
Inventor
唐倩
李潇
李志航
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN202310577060.9A priority Critical patent/CN116630728A/zh
Publication of CN116630728A publication Critical patent/CN116630728A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供的一种基于注意力残差孪生网络的加工精度预测方法,包括以下步骤:S1.采集时序位移数据,利用分段聚合近似和格拉姆角场处理时序位移数据,得到二维灰度图像数据,将得到的灰度图像数据作为样本数据集;S2.构建注意力机制残差孪生网络,并在网络中加入通道注意力模块和残差块;S3.将样本数据集输入注意力机制残差孪生网络中进行训练;S4.判断注意力机制残差孪生网络是否训练完成,如是,则进入步骤S5,如否,则更新注意力机制残差孪生网络学习模型的参数,返回步骤S3中;S5.将待测数据输入训练完成的学习模型中进行预测分类。

Description

基于注意力残差孪生网络的加工精度预测方法
技术领域
本发明涉及一种零件加工精度预测领域,尤其涉及一种基于注意力残差孪生网络的加工精度预测方法。
背景技术
数控机床是实现复杂零件高精度加工的关键设备,已广泛应用于航空航天、模具制造、核电等领域。目前,人们对加工精度要求的日益提高,也使得对机数控床本身的质量和加工效果有了更高的要求。在数控加工作业中会产生多种生产数据,这些数据一定程度上反映了产品的加工质量,使用高效准确的加工精度预测方法对加工过程进行调控,在产品检测之前对数控机床存在的误差进行补偿,能有效提升加工性能,降低下一次加工的零件次品率。因此,对数控加工精度预测方法的研究具有十分重要的意义。
数控加工中产生的数据信号是一种时序序列,时序位移序列具有数据量大、维度高、周期性、趋势性等特点。随着工作场景的变迁、加工工况的调整、工艺指标的考虑,使用传统的方法对数控加工中产生的时序位移序列数据进行分析建模的难度越来越大。
因此,为解决上述技术问题,亟需提出一种新的技术手段。
发明内容
本发明提供的一种基于注意力残差孪生网络的加工精度预测方法,包括以下步骤:
S1.采集加工零件的时序位移数据作为样本数据集,对时序位移数据利用分段聚合近似法进行降维,再将降维后的时序位移数据进行格拉姆角场处理升维,得到时间维度和位移维度的二维矩阵,将二维矩阵转化为二维灰度图像数据;
S2.构建通道注意力模块和残差模块的注意力机制残差孪生网络;
S3.将二维灰度图像数据输入注意力机制残差孪生网络中进行训练;
S4.判断注意力机制残差孪生网络是否训练完成,如是,则进入步骤S5,如否,则更新注意力机制残差孪生网络学习模型的参数,返回步骤S3中;
S5.将实时采集的待加工零件时序位移数据通过步骤S1转化为二维灰度图像数据,将二维灰度图像数据输入至训练完成的注意力机制残差孪生网络中进行预测分类,输出预测结果。
进一步,步骤S1中,通过如下方法得到二维灰度图像数据:
对时序位移数据进行数据清洗和滤波,并去除噪声,得到有周期性的时序位移数据;
利用分段聚合近似法对时序位移数据的长度进行降维,分段聚合近似降维过程如下:
将长度为L的时序位移序列平均分为n段,求取每个时序位移序列片段的均值,并将均值作为时域特征值,再将汇聚后的时域特征值用于表征长度为L的时序位移数据,均值计算公式为:
其中,表示时序位移序列片段中的第m个时序位移序列的特征值,n表示长度为L的时序位移序列被平均分成了n段,xk表示第m个片段中的第k个时序位移序列数值;
对降维后的时序位移数据进行格拉姆角场升维,格拉姆角场升维过程如下:
首先,对降维后的时序位移数据进行归一化处理,归一化公式为:
其中,X表示降维后的时序位移序列,Xi表示降维后的时序位移序列中第i个时序位移序列的数值,Si表示第i个归一化后时序位移序列的数值,i表示时序位移序列序号,n表示时序位移序列的长度;
然后,将归一化后的时序位移序列转化为极坐标形式,极坐标转换公式为:
其中,表示极角,i表示时序位移序列序号,S表示归一化后的时序位移序列,Si表示归一化之后的第i个时序位移序列,r表示极轴,t表示与时序位移序列S对应的时间,n是时序位移序列数据的个数;
最后,计算极角之和的余弦值,计算公式为:
其中,G表示时间维度和位移维度的二维矩阵,表示第i个归一化后的时序位移序列对应的极角,/>表示第j个归一化后的时序位移序列对应的极角,i和j为相邻的时序位移数据;
将时间维度和位移维度的二维矩阵转化为二维灰度图像,得到表征时序位移序列的二维灰度图像。
进一步,步骤S2中,根据如下方法构建注意力机制残差孪生网络:
注意力机制残差孪生网络有两条主干提取网络,主干提取网络均由通道注意力模块和残差模块组成,在两条主干提取网络后接一个全连接层,其中,通道注意力模块使用有效通道注意力模块,在有效通道注意力模块后堆叠3个残差模块。
进一步,步骤S3中,通过如下方法进行训练:
S31.有效通道注意力模块对输入的二维灰度图进行卷积,并在特征图的空间维度进行特征压缩,进行特征压缩时保证通道数不变,在通道维度进行学习,对各个通道的重要性进行加权,得到特征矩阵;
S32.残差模块对输入的特征矩阵进行深层特征提取,得到两个样本特征向量;
S33.将两个样本特征向量一维化,并相减得到新向量,将新向量输入至全连接层中,进行预测分类,输出预测结果。
进一步,步骤S3中,注意力机制残差孪生网络使用Contrastive loss函数作为损失函数:
使用Contrastive loss函数作为损失函数,计算损失函数在训练参数上的梯度值,进行反向传播,并使用优化器更新权重;
Contrastive loss函数如下:
其中,N表示成对输入网络的样本数量,Ew表示孪生神经网络的两个样本特征之间的欧式距离,Y表示两个样本是否匹配的标签,Y=1代表两个样本相似或者匹配,Y=0则代表不匹配,m为设定的表示不相似的距离阈值。
进一步,步骤S3中,将样本数据集输入注意力残差孪生网络中进行训练,学习率使用余弦退火学习率;
余弦退火公式如下:
其中,ηt表示学习率,b表示运行的次数,分别表示学习率的最小值和最大值,Tcur表示epoch的执行个数,Tb表示第b次运行中总的epoch数。
进一步,步骤S4中,当样本数据集对应的二维灰度图像输入注意力残差孪生网络中得到的预测值达到预设精度要求时,注意力残差孪生网络训练完成。
有益效果:本发明公开了一种基于注意力残差孪生网络的加工精度预测方法,是将数控加工精度预测问题转化为图像分类问题,将深度学习作为时序位移序列数据特征提取的有力工具,充分挖掘数控加工信号中的价值信息,将有效提升数控加工精度预测过程的智能化水平和预测准确率。
附图说明
下面结合附图和实施例对本发明作进一步描述:
图1为本发明的流程图;
图2为分段聚合近似降维过程图;
图3为格拉姆角场时序二维化过程图;
图4为基于通道注意力的残差孪生网络结构图;
图5为有效通道注意力模块;
图6为残差块结构图。
具体实施方式
以下结合说明书附图对本发明作出进一步说明:
本发明提供的一种基于注意力残差孪生网络的加工精度预测方法,包括以下步骤:
S1.采集加工零件的时序位移数据作为样本数据集,对时序位移数据利用分段聚合近似法进行降维,再将降维后的时序位移数据进行格拉姆角场处理升维,得到时间维度和位移维度的二维矩阵,将二维矩阵转化为二维灰度图像数据;
S2.构建通道注意力模块和残差模块的注意力机制残差孪生网络;
S3.将二维灰度图像数据输入注意力机制残差孪生网络中进行训练;
S4.判断注意力机制残差孪生网络是否训练完成,如是,则进入步骤S5,如否,则更新注意力机制残差孪生网络学习模型的参数,返回步骤S3中;
S5.将实时采集的待加工零件时序位移数据通过步骤S1转化为二维灰度图像数据,将二维灰度图像数据输入至训练完成的注意力机制残差孪生网络中进行预测分类,输出预测结果。通过上述方法,能够将深度学习作为时序位移序列数据特征提取的强有力工具,充分挖掘数控加工信号中的价值信息,将有效提升数控加工精度预测过程的智能化水平和预测准确率。
本实施例中,步骤S1中,时序位移数据是一种具有时间先后顺序的位移数据,通过涡流位移传感器采集数控加工的位移数据,对时序位移数据进行数据清洗和滤波,并去除噪声,得到具有周期性的时序位移数据;
利用分段聚合近似法对时序位移数据的长度进行降维,分段聚合近似过程如图2,分段聚合近似降维为现有技术,分段聚合近似降维过程如下:
将一个长度为L的零件的时序位移序列平均分为n段,对每个时序位移序列片段计算均值,将均值作为特征值,再将整个加工信号的n个特征值进行汇聚用于表征长度为L的时序位移序列,均值计算公式为:
其中,表示时序位移序列片段中的第m个时序位移序列的特征值,n表示长度为L的时序位移序列被平均分成了n段,xk表示第m个片段中的第k个时序位移序列数值;
对降维后的时序位移数据进行格拉姆角场升维,格拉姆角场升维过程如图3,格拉姆角场升维过程为现有技术,格拉姆角场升维过程如下:
首先,对降维后的时序位移数据进行归一化处理,归一化公式为:
其中,i表示时序位移序列序号,X表示降维后的时序位移序列,X={X1,X2,X3,……,Xn},Xi表示降维后的时序位移序列中的第i个时序位移序列数值,S表示归一化后的时序位移序列,S={S1,S2,S3,……,Sn},Si表示第i个归一化后的时序位移序列数值,n表示时序位移序列维度,即时序位移序列的个数
然后,将归一化后的时序位移序列转化为极坐标形式,极坐标转换公式为:
其中,表示极角,i表示时序位移序列序号,S表示归一化后的时序位移序列,Si表示归一化之后的第i个时序位移序列,r表示极轴,t表示与时序位移序列S对应的时间,n是时序位移序列数据的个数;
最后,计算极角之和的余弦值,计算公式为:
其中,G表示时间维度和位移维度的二维矩阵,表示第i个归一化后的时序位移序列对应的极角,/>表示第j个归一化后的时序位移序列对应的极角,i和j为相邻的时序位移数据;
将时间维度和位移维度的二维矩阵转化为二维灰度图像,得到表征时序位移序列的二维灰度图像,其中,将二维矩阵转化为灰度图的方法采用常用的现有技术,例如:使用matlab进行转化,转化方法在此不加以赘述。通过上述方法,能够在降低数据维度的同时,保持数据中原有的时序位移序列信息,减少计算量和存储空间的使用,并在二维空间上较好的保留一维时序位移序列的相关性,能够更好地利用神经网络学习影响数控加工精度的主要特征。
本实施例中,步骤S2中,根据如下方法构建注意力机制残差孪生网络:
注意力机制残差孪生网络由两条主干提取网络和一个全连接层组成,具体结构如图4,,主干提取网络均由通道注意力模块和残差模块组成,其中,通道注意力模块使用有效通道注意力模块,在有效通道注意力模块后堆叠3个残差块组成残差模块,一个残差块由残差部分和捷径分支部分组成,其中,残差部分由3个卷积层组成,3个卷积层之间使用RELU激活函数,第一层卷积层的卷积核个数a,大小为1×1,第一层卷积层用于压缩channel维度,第二层卷积层的卷积核个数为a,大小为3×3,第二层卷积层用于特征提取,第三层卷积层的卷积核个数4a,大小为1×1,第三层卷积层用于还原channel维度。通过上述方法,能够增加感受野,获取图像的整体信息,并提升特征提取能力,降低模型的学习难度。
本实施例中,步骤S3中,通过如下方法训练注意力机制残差孪生网络:
S31.有效通道注意力模块通过全局平均池化获得特征图的聚合特征,再通过卷积核大小为k的一维卷积来生成通道权重,一维卷积后接Sigmoid激活函数,将得到的结果和原特征图相乘,为每一个通道赋予不同的权重,得到特征矩阵,其中,卷积核大小k根据预测分类的准确度确定,使用分类准确度最高时卷积核的大小作为最终的有效通道注意力模块的卷积核的尺度;例如,当卷积核大小为3时,预测分类的准确率为95%,当卷积核大小为7时,预测分类的准确率为98%,则有效通道注意力模块中的卷积核大小为7,通常有效通道注意力模块中使用的一维卷积核大小为7;
S32.残差模块对输入的特征矩阵进行深层特征提取,得到两个样本特征向量;
S33.使用flatten函数将两个样本特征向量一维化,并相减得到新向量,将新向量输入至全连接层中进行预测分类,输出预测结果;
注意力机制残差孪生网络使用的损失函数为Contrastive loss函数,Contrastive loss函数公式如下:
其中,N表示成对输入网络的样本数量,Ew表示孪生神经网络的两个一维化样本特征之间的欧式距离,Y表示两个样本是否匹配的标签,Y=1代表两个样本相似或者匹配,Y=0则代表不匹配,m为设定的表示不相似的距离阈值,m的取值根据具体任务进行调整,取适合任务目标的最优值,m的取值可以通过交叉验证等技术来确定,在实际使用中,可以先选取一个较大的阈值,然后根据模型在验证集上的表现进行调整,以取得最优的性能;
注意力残差孪生网络使用余弦退火作为学习率;
余弦退火公式如下:
其中,ηt表示学习率,b表示运行的次数,分别表示学习率的最小值和最大值,Tcur表示epoch的执行个数,Tb表示第b次运行中总的epoch数。通过上述方法,能够通过注意力残差孪生网络进行准确预测。
本实施例中,步骤S4中,当样本数据集对应的二维灰度图像输入注意力残差孪生网络中得到的预测结果达到预设精度要求时,注意力残差孪生网络训练完成,预设精度要求根据合格率要求进行设定。
本实施例中,步骤S5中,将待测数据输入至训练完成的注意力残差孪生网络中,经过有效通道注意力模块和残差模块后得到的两个特征向量,将两个特征向量一维化并相减,得到一个新的向量,将新的向量输入全连接层中,得到是否合格的分类结果。通过上述方法,能够将数控加工精度预测问题转化为图像分类问题,将深度学习作为时序位移序列数据特征提取的有力工具,充分挖掘数控加工信号中的价值信息,将有效提升数控加工精度预测过程的智能化水平和预测准确率。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (7)

1.一种基于注意力残差孪生网络的加工精度预测方法,其特征在于:包括以下步骤:
S1.采集加工零件的时序位移数据作为样本数据集,对时序位移数据利用分段聚合近似法进行降维,再将降维后的时序位移数据进行格拉姆角场处理升维,得到时间维度和位移维度的二维矩阵,将二维矩阵转化为二维灰度图像数据;
S2.构建通道注意力模块和残差模块的注意力机制残差孪生网络;
S3.将二维灰度图像数据输入注意力机制残差孪生网络中进行训练;
S4.判断注意力机制残差孪生网络是否训练完成,如是,则进入步骤S5,如否,则更新注意力机制残差孪生网络学习模型的参数,返回步骤S3中;
S5.将实时采集的待加工零件时序位移数据通过步骤S1转化为二维灰度图像数据,将二维灰度图像数据输入至训练完成的注意力机制残差孪生网络中进行预测分类,输出预测结果。
2.根据权利要求1所述基于注意力残差孪生网络的加工精度预测方法,其特征在于:步骤S1中,通过如下方法得到二维灰度图像数据:
对时序位移数据进行数据清洗和滤波,并去除噪声,得到有周期性的时序位移数据;
利用分段聚合近似法对时序位移数据的长度进行降维,分段聚合近似降维过程如下:
将长度为L的时序位移序列平均分为n段,求取每个时序位移序列片段的均值,并将均值作为时域特征值,再将汇聚后的时域特征值用于表征长度为L的时序位移数据,均值计算公式为:
其中,表示时序位移序列片段中的第m个时序位移序列的特征值,n表示长度为L的时序位移序列被平均分成了n段,xk表示第m个片段中的第k个时序位移序列数值;
对降维后的时序位移数据进行格拉姆角场升维,格拉姆角场升维过程如下:
首先,对降维后的时序位移数据进行归一化处理,归一化公式为:
其中,X表示降维后的时序位移序列,Xi表示降维后的时序位移序列中第i个时序位移序列的数值,Si表示第i个归一化后时序位移序列的数值,i表示时序位移序列序号,n表示时序位移序列的长度;
然后,将归一化后的时序位移序列转化为极坐标形式,极坐标转换公式为:
其中,表示极角,i表示时序位移序列序号,S表示归一化后的时序位移序列,Si表示归一化之后的第i个时序位移序列,r表示极轴,t表示与时序位移序列S对应的时间,n是时序位移序列数据的个数;
最后,计算极角之和的余弦值,计算公式为:
其中,G表示时间维度和位移维度的二维矩阵,表示第i个归一化后的时序位移序列对应的极角,/>表示第j个归一化后的时序位移序列对应的极角,i和j为相邻的时序位移数据;
将时间维度和位移维度的二维矩阵转化为二维灰度图像,得到表征时序位移序列的二维灰度图像。
3.根据权利要求1所述基于注意力残差孪生网络的加工精度预测方法,其特征在于:步骤S2中,根据如下方法构建注意力机制残差孪生网络:
注意力机制残差孪生网络有两条主干提取网络,主干提取网络均由通道注意力模块和残差模块组成,在两条主干提取网络后接一个全连接层,其中,通道注意力模块使用有效通道注意力模块,在有效通道注意力模块后堆叠3个残差模块。
4.根据权利要求1所述基于注意力残差孪生网络的加工精度预测方法,其特征在于:步骤S3中,通过如下方法进行训练:
S31.有效通道注意力模块对输入的二维灰度图进行卷积,并在特征图的空间维度进行特征压缩,进行特征压缩时保证通道数不变,在通道维度进行学习,对各个通道的重要性进行加权,得到特征矩阵;
S32.残差模块对输入的特征矩阵进行深层特征提取,得到两个样本特征向量;
S33.将两个样本特征向量一维化,并相减得到新向量,将新向量输入至全连接层中,进行预测分类,输出预测结果。
5.根据权利要求1所述基于注意力残差孪生网络的加工精度预测方法,其特征在于:步骤S3中,注意力机制残差孪生网络使用Contrastive loss函数作为损失函数:
使用Contrastive loss函数作为损失函数,计算损失函数在训练参数上的梯度值,进行反向传播,并使用优化器更新权重;
Contrastive loss函数如下:
其中,N表示成对输入网络的样本数量,Ew表示孪生神经网络的两个样本特征之间的欧式距离,Y表示两个样本是否匹配的标签,Y=1代表两个样本相似或者匹配,Y=0则代表不匹配,m为设定的表示不相似的距离阈值。
6.根据权利要求1所述基于注意力残差孪生网络的加工精度预测方法,其特征在于:步骤S3中,将样本数据集输入注意力残差孪生网络中进行训练,学习率使用余弦退火学习率;
余弦退火公式如下:
其中,ηt表示学习率,b表示运行的次数,分别表示学习率的最小值和最大值,Tcur表示epoch的执行个数,Tb表示第b次运行中总的epoch数。
7.根据权利要求1所述基于注意力残差孪生网络的加工精度预测方法,其特征在于:步骤S4中,当样本数据集对应的二维灰度图像输入注意力残差孪生网络中得到的预测值达到预设精度要求时,注意力残差孪生网络训练完成。
CN202310577060.9A 2023-05-19 2023-05-19 基于注意力残差孪生网络的加工精度预测方法 Pending CN116630728A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310577060.9A CN116630728A (zh) 2023-05-19 2023-05-19 基于注意力残差孪生网络的加工精度预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310577060.9A CN116630728A (zh) 2023-05-19 2023-05-19 基于注意力残差孪生网络的加工精度预测方法

Publications (1)

Publication Number Publication Date
CN116630728A true CN116630728A (zh) 2023-08-22

Family

ID=87596725

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310577060.9A Pending CN116630728A (zh) 2023-05-19 2023-05-19 基于注意力残差孪生网络的加工精度预测方法

Country Status (1)

Country Link
CN (1) CN116630728A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117611952A (zh) * 2024-01-17 2024-02-27 南京阿吉必信息科技有限公司 一种led封装结构的制备方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117611952A (zh) * 2024-01-17 2024-02-27 南京阿吉必信息科技有限公司 一种led封装结构的制备方法
CN117611952B (zh) * 2024-01-17 2024-04-12 南京阿吉必信息科技有限公司 一种led封装结构的制备方法

Similar Documents

Publication Publication Date Title
CN112364779B (zh) 信号处理与深-浅网络多模型融合的水声目标识别方法
CN111738363B (zh) 基于改进的3d cnn网络的阿尔茨海默病分类方法
CN108985335B (zh) 核反应堆包壳材料辐照肿胀的集成学习预测方法
CN110766060B (zh) 基于深度学习的时间序列相似度的计算方法、系统及介质
CN114022812B (zh) 一种基于轻量化SSD的DeepSort水面漂浮物多目标跟踪方法
CN116630728A (zh) 基于注意力残差孪生网络的加工精度预测方法
CN110726898A (zh) 一种配电网故障类型识别方法
CN113642414A (zh) 一种基于Transformer模型的滚动轴承剩余使用寿命预测方法
CN112434891A (zh) 基于wcnn-alstm的太阳辐照度时间序列的预测方法
CN113988357A (zh) 基于深度学习的高层建筑风致响应预测方法及装置
CN113516133A (zh) 一种多模态图像分类方法及系统
CN115496100A (zh) 一种基于GAF-ConvNeXt-TF的周界安防扰动识别算法
CN111783336A (zh) 一种基于深度学习理论的不确定性结构频响动力学模型修正方法
CN116842379A (zh) 一种基于DRSN-CS和BiGRU+MLP模型的机械轴承剩余使用寿命预测方法
CN115169401A (zh) 一种基于多尺度DenseNet-ResNet-GRU模型的刀具磨损量预测方法
CN114299305A (zh) 聚合密集和注意力多尺度特征的显著性目标检测算法
CN111863153A (zh) 一种基于数据挖掘的废水中悬浮固体总量的预测方法
CN116229323A (zh) 一种基于改进的深度残差网络的人体行为识别方法
CN117009916A (zh) 基于多传感器信息融合与迁移学习的促动器故障诊断方法
CN116378120A (zh) 一种基于自注意力机制的变形监测方法
CN116342961A (zh) 基于混合量子神经网络的时间序列分类深度学习系统
CN115631771A (zh) 基于组合卷积神经网络的声音事件检测与定位方法
CN113450313B (zh) 一种基于区域对比学习的图像显著性可视化方法
Wang et al. CNN based chromosome classification architecture for combined dataset
CN113435321A (zh) 一种主轴轴承状态评估方法、系统、设备及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination