CN114821201B - 铝材加工的液压式撞角机及其使用方法 - Google Patents
铝材加工的液压式撞角机及其使用方法 Download PDFInfo
- Publication number
- CN114821201B CN114821201B CN202210738577.7A CN202210738577A CN114821201B CN 114821201 B CN114821201 B CN 114821201B CN 202210738577 A CN202210738577 A CN 202210738577A CN 114821201 B CN114821201 B CN 114821201B
- Authority
- CN
- China
- Prior art keywords
- feature map
- value
- region
- assembly
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 title claims abstract description 182
- 229910052782 aluminium Inorganic materials 0.000 title claims abstract description 182
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000012545 processing Methods 0.000 title claims description 25
- 230000003116 impacting effect Effects 0.000 title description 4
- 239000000463 material Substances 0.000 claims abstract description 65
- 238000012549 training Methods 0.000 claims description 60
- 238000013527 convolutional neural network Methods 0.000 claims description 44
- 238000000605 extraction Methods 0.000 claims description 26
- 238000010586 diagram Methods 0.000 claims description 17
- 238000013528 artificial neural network Methods 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 4
- 238000005728 strengthening Methods 0.000 claims description 3
- 230000003014 reinforcing effect Effects 0.000 claims description 2
- 239000012530 fluid Substances 0.000 claims 1
- 238000003754 machining Methods 0.000 abstract description 3
- 238000004519 manufacturing process Methods 0.000 abstract description 2
- 238000009826 distribution Methods 0.000 description 24
- 210000001503 joint Anatomy 0.000 description 10
- 238000010606 normalization Methods 0.000 description 8
- 238000012937 correction Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 230000001965 increasing effect Effects 0.000 description 6
- 238000001125 extrusion Methods 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 238000005065 mining Methods 0.000 description 4
- 238000004080 punching Methods 0.000 description 3
- 229910000838 Al alloy Inorganic materials 0.000 description 2
- 101100311330 Schizosaccharomyces pombe (strain 972 / ATCC 24843) uap56 gene Proteins 0.000 description 2
- 239000004411 aluminium Substances 0.000 description 2
- 239000011324 bead Substances 0.000 description 2
- 101150018444 sub2 gene Proteins 0.000 description 2
- 102100033620 Calponin-1 Human genes 0.000 description 1
- 102100033591 Calponin-2 Human genes 0.000 description 1
- 101000945318 Homo sapiens Calponin-1 Proteins 0.000 description 1
- 101000945403 Homo sapiens Calponin-2 Proteins 0.000 description 1
- 238000002788 crimping Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011900 installation process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及智能制造的领域,其具体地公开了一种铝材加工的液压式撞角机及其使用方法,其通过卷积神经网络模型来提取撞角机在对装的过程中两侧铝材所呈现的夹角和形状发生的微弱变化隐含特征以进行铝材组装件的规范预警,并且在特征提取中使用感兴趣区域来更加聚焦于所述两侧铝材与定位块的结合处,同时对于感兴趣区域的特征图进行相对于特征图整体的归一化修正,使得局部特征对于全局特征具有信息最小化的鲁棒性,相对于对于特征局部进行向着特征整体的聚类操作,从而增大局部特征分布对于全局特征分布的依赖性,进而提升了模型预测的准确度。
Description
技术领域
本申请涉及智能制造的领域,且更为具体地,涉及一种铝材加工的液压式撞角机及其使用方法。
背景技术
撞角机又称组角机,是高档断桥铝合金门窗生产专用设备,适用于角码结构型铝门窗90度角连接,根据可组角的不同,分为单头组角机,双头组角机,四头组角机,由组角油缸推动组角滑板,组角滑板向前运动,同时推动左右冲铆轴,由冲铆轴上的组角刀实现对铝门窗90度角连接。
撞角机在对装的过程中采用在两侧设置顶紧液压缸,通过顶紧液压缸推动铝材,实现两侧铝材在定位块夹角处对装,但对于不同长度的铝材,这种方式很难掌握顶紧液压缸的行程和动作时间,这样就控制不好铝材的运动距离,经常造成对装过头或者对装不完全,对装过头的两个铝材在接触处由于液压缸过度挤压,被挤压抬起甚至变形,严重影响定位精度的组装效果,从而影响组角质量,同时对于长度较长的铝材(如超出工作台面的铝材),顶紧液压缸则完全失去作用。因此,期待一种具有对装精度自检功能的液压式撞角机。
发明内容
为了解决上述技术问题,提出了本申请。本申请的实施例提供了一种铝材加工的液压式撞角机及其使用方法,其通过卷积神经网络模型来提取撞角机在对装的过程中两侧铝材所呈现的夹角和形状发生的微弱变化隐含特征以进行铝材组装件的规范预警,并且在特征提取中使用感兴趣区域来更加聚焦于所述两侧铝材与定位块的结合处,同时对于感兴趣区域的特征图进行相对于特征图整体的归一化修正,使得局部特征对于全局特征具有信息最小化的鲁棒性,相对于对于特征局部进行向着特征整体的聚类操作,从而增大局部特征分布对于全局特征分布的依赖性,进而提升了模型预测的准确度。
根据本申请的一个方面,提供了一种铝材加工的液压式撞角机,其包括:
训练模块,包括:
训练数据单元,用于获取由部署于液压式撞角机的相机采集的铝材组装件的组装图像以及参考图像,所述参考图像为组装规范的铝材组装件的图像;
第一图像控制结果生成单元,用于将所述组装图像通过第一卷积神经网络以得到第一特征图;
第二图像控制结果生成单元,用于将所述参考图像通过第二卷积神经网络以得到第二特征图;
距离损失计算单元,用于计算所述第一特征图和所述第二特征图之间的距离损失函数值;
感兴趣区域提取单元,用于将所述第一特征图通过候选框提取网络以从所述第一特征图提取第一感兴趣区域和第二感兴趣区域,其中,所述第一感兴趣区域和所述第二感兴趣区域对应于所述铝材组装件的定位块与两侧铝材的两个结合处;
参考值获取单元,用于获取所述组装规范的铝材组装件在其定位块与两侧铝材的两个结合处的两个压力值;
感兴趣区域加强单元,用于基于所述第一特征图,分别对所述第一感兴趣区域和所述第二感兴趣区域进行校正以得到校正后第一感兴趣区域和校正后第二感兴趣区域;
交叉熵损失函数值计算单元,用于分别计算所述校正后第一感兴趣区域和校正后第二感兴趣区域与所述两个压力值的第一交叉熵数值和第二交叉熵数值,并计算所述第一交叉熵数值和所述第二交叉熵数值的加权和作为交叉熵损失函数值;
分类损失计算单元,用于将所述第一特征图通过分类器以得到分类损失函数值;以及
训练单元,用于以所述交叉熵损失函数值、距离损失函数值和所述分类损失函数值的加权和作为损失函数值对所述第一卷积神经网络和所述分类器进行训练;以及
推断模块,包括:
组装过程图像获取单元,用于获取由部署于液压式撞角机的相机采集的铝材组装件的组装图像;
组装图像识别单元,用于将所述组装图像通过经训练模块训练完成的所述第一卷积神经网络以得到第一特征图;以及
控制结果生成单元,用于将所述第一特征图通过经训练模块训练完成的所述分类器以得到分类结果,所述分类结果用于表示铝材组装件是否组装规范。
根据本申请的另一个方面,提供了一种铝材加工的液压式撞角机的使用方法,其包括:
训练阶段,包括:
获取由部署于液压式撞角机的相机采集的铝材组装件的组装图像以及参考图像,所述参考图像为组装规范的铝材组装件的图像;
将所述组装图像通过第一卷积神经网络以得到第一特征图;
将所述参考图像通过第二卷积神经网络以得到第二特征图;
计算所述第一特征图和所述第二特征图之间的距离损失函数值;
将所述第一特征图通过候选框提取网络以从所述第一特征图提取第一感兴趣区域和第二感兴趣区域,其中,所述第一感兴趣区域和所述第二感兴趣区域对应于所述铝材组装件的定位块与两侧铝材的两个结合处;
获取所述组装规范的铝材组装件在其定位块与两侧铝材的两个结合处的两个压力值;
基于所述第一特征图,分别对所述第一感兴趣区域和所述第二感兴趣区域进行校正以得到校正后第一感兴趣区域和校正后第二感兴趣区域;
分别计算所述校正后第一感兴趣区域和校正后第二感兴趣区域与所述两个压力值的第一交叉熵数值和第二交叉熵数值,并计算所述第一交叉熵数值和所述第二交叉熵数值的加权和作为交叉熵损失函数值;
将所述第一特征图通过分类器以得到分类损失函数值;以及
以所述交叉熵损失函数值、距离损失函数值和所述分类损失函数值的加权和作为损失函数值对所述第一卷积神经网络和所述分类器进行训练;以及
推断阶段,包括:
获取由部署于液压式撞角机的相机采集的铝材组装件的组装图像;
将所述组装图像通过经训练模块训练完成的所述第一卷积神经网络以得到第一特征图;以及
将所述第一特征图通过经训练模块训练完成的所述分类器以得到分类结果,所述分类结果用于表示铝材组装件是否组装规范。
与现有技术相比,本申请提供的铝材加工的液压式撞角机及其使用方法,其通过卷积神经网络模型来提取撞角机在对装的过程中两侧铝材所呈现的夹角和形状发生的微弱变化隐含特征以进行铝材组装件的规范预警,并且在特征提取中使用感兴趣区域来更加聚焦于所述两侧铝材与定位块的结合处,同时对于感兴趣区域的特征图进行相对于特征图整体的归一化修正,使得局部特征对于全局特征具有信息最小化的鲁棒性,相对于对于特征局部进行向着特征整体的聚类操作,从而增大局部特征分布对于全局特征分布的依赖性,进而提升了模型预测的准确度。
附图说明
通过结合附图对本申请实施例进行更详细的描述,本申请的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本申请实施例的进一步理解,并且构成说明书的一部分,与本申请实施例一起用于解释本申请,并不构成对本申请的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1为根据本申请实施例的铝材加工的液压式撞角机的场景示意图。
图2为根据本申请实施例的铝材加工的液压式撞角机的框图。
图3A为根据本申请实施例的铝材加工的液压式撞角机的使用方法中训练阶段的流程图。
图3B为根据本申请实施例的铝材加工的液压式撞角机的使用方法中推断阶段的流程图。
图4为根据本申请实施例的铝材加工的液压式撞角机的使用方法中训练阶段的架构示意图。
图5为根据本申请实施例的铝材加工的液压式撞角机的使用方法中推断阶段的架构示意图。
具体实施方式
下面,将参考附图详细地描述根据本申请的示例实施例。显然,所描述的实施例仅仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。
场景概述
如前所述,撞角机又称组角机,是高档断桥铝合金门窗生产专用设备,适用于角码结构型铝门窗90度角连接,根据可组角的不同,分为单头组角机,双头组角机,四头组角机,由组角油缸推动组角滑板,组角滑板向前运动,同时推动左右冲铆轴,由冲铆轴上的组角刀实现对铝门窗90度角连接。
撞角机在对装的过程中采用在两侧设置顶紧液压缸,通过顶紧液压缸推动铝材,实现两侧铝材在定位块夹角处对装,但对于不同长度的铝材,这种方式很难掌握顶紧液压缸的行程和动作时间,这样就控制不好铝材的运动距离,经常造成对装过头或者对装不完全,对装过头的两个铝材在接触处由于液压缸过度挤压,被挤压抬起甚至变形,严重影响定位精度的组装效果,从而影响组角质量,同时对于长度较长的铝材(如超出工作台面的铝材),顶紧液压缸则完全失去作用。因此,期待一种具有对装精度自检功能的液压式撞角机。
相应地,本申请发明人发现在将两侧铝材在定位块夹角处安装时,由于两侧的铝材长度不一,很难掌握液压缸的行程和动作时间,导致对装过头或者对装不完全。并且当对装过头与对装不完全时,两侧铝材所呈现的夹角和形状会发生微弱变化,这通过肉眼很难观察出差别。因此,本申请实施例中,选择通过在局部隐含特征提取方面具有优异表现的卷积神经网络来提取这种微弱的差别以进行预警。
具体地,在本申请的技术方案中,首先通过部署于液压式撞角机的相机采集的铝材组装件的组装图像以及参考图像,这里。所述参考图像为组装规范的铝材组装件的图像。然后,将得到的所述组装图像以及参考图像分别通过在局部隐含的关联特征挖掘方面具有优异表现的第一卷积神经网络和第二卷积神经网络中进行处理,以分别提取出所述组装图像以及参考图像的局部高维隐含特征分布。这里,所述第一卷积神经网络和所述第二卷积神经网络具有相同的网络结构,其尺度为W×H×C。
然后,进一步计算所述第一特征图和所述第二特征图之间的距离以作为这两个所述特征图之间的距离损失函数值,在本申请实施例中,可以计算这两个所述特征图之间的余弦距离或者L2距离来反映所述第一特征图所在的图像空间内的样本点分布与所述第二特征图所在的图像空间内的样本点分布之间的差异。
应可以理解,由于在图像的特征挖掘中,为了更精准地对铝材组装件的对装精度进行自检,以准确地检测所述铝材组装件是否符合规范,则需要在特征提取中更加聚焦于两侧铝材与定位块的结合处。因此,进一步基于候选框提取网络从所述第一特征图中提取两个感兴趣区域以得到第一感兴趣区域和第二感兴趣区域,特别地,这里,所述第一感兴趣区域和所述第二感兴趣区域对应于所述铝材组装件的定位块与两侧铝材的两个结合处。
考虑到在基于候选框提取网络从所述第二特征图中提取两个感兴趣区域以得到第一感兴趣区域和第二感兴趣区域时,由于第一感兴趣区域和第二感兴趣区域对应于第二特征图中的部分区域,其可能会缺失第二特征图的整体信息,使得在计算交叉熵数值并训练模型,会缺失对特征整体分布信息的拟合。
因此,对于第一感兴趣区域和第二感兴趣区域对应的第一子特征图和第二子特征图,进行相对于特征图整体的归一化修正,即:
其中fsub1和fsub2为第一子特征图和第二子特征图中的每个位置的特征值,且fwhole为第一特征图中的每个位置的特征值。
也就是,在通过候选框提取网络获得局部区域的特征时,可以通过归一化来使得局部特征对于全局特征具有信息最小化的鲁棒性,相对于对于特征局部进行向着特征整体的聚类操作,从而增大局部特征分布对于全局特征分布的依赖性。这样,在计算交叉熵损失函数时,其就可以既包括相对于局部特征分布的一致性信息,也包括相对于整体特征分布的一致性信息,提升了模型预测的准确度。
由于撞角机在对装的过程中采用在两侧设置顶紧液压缸,通过顶紧液压缸推动铝材,实现两侧铝材在定位块夹角处对装,但是对装过头的两个铝材在接触处由于液压缸过度挤压,被挤压抬起甚至变形,严重影响定位精度的组装效果,从而影响组角质量。因此,为了对对装精度进行自检,以准确地判断铝材组装件是否组装规范,还需要考虑所述组装规范的铝材组装件在其定位块与两侧铝材的两个结合处的两个压力值。然后,计算所述校正后的感兴趣区域分别与这两个所述压力值的第一交叉熵数值和第二交叉熵数值,并计算这两个交叉熵数值的加权和以得到交叉熵损失函数值。
进一步地,基于所述交叉熵损失函数值、距离损失函数值和所述分类损失函数值的加权和作为损失函数值对所述第一卷积神经网络和所述分类器进行训练,以提升模型预测的准确度。这样,在对于铝材组装件的组装规范性进行检测判断时,就可以直接将所述相机采集的铝材组装件的组装图像输入至训练完成的所述第一卷积神经网络和所述分类器中,以获得更准确地分类结果。
基于此,本申请提出了一种铝材加工的液压式撞角机,其包括训练模块和推断模块。其中,训练模块,包括:训练数据单元,用于获取由部署于液压式撞角机的相机采集的铝材组装件的组装图像以及参考图像,所述参考图像为组装规范的铝材组装件的图像;第一图像控制结果生成单元,用于将所述组装图像通过第一卷积神经网络以得到第一特征图;第二图像控制结果生成单元,用于将所述参考图像通过第二卷积神经网络以得到第二特征图;距离损失计算单元,用于计算所述第一特征图和所述第二特征图之间的距离损失函数值;感兴趣区域提取单元,用于将所述第一特征图通过候选框提取网络以从所述第一特征图提取第一感兴趣区域和第二感兴趣区域,其中,所述第一感兴趣区域和所述第二感兴趣区域对应于所述铝材组装件的定位块与两侧铝材的两个结合处;参考值获取单元,用于获取所述组装规范的铝材组装件在其定位块与两侧铝材的两个结合处的两个压力值;感兴趣区域加强单元,用于基于所述第一特征图,分别对所述第一感兴趣区域和所述第二感兴趣区域进行校正以得到校正后第一感兴趣区域和校正后第二感兴趣区域;交叉熵损失函数值计算单元,用于分别计算所述校正后第一感兴趣区域和校正后第二感兴趣区域与所述两个压力值的第一交叉熵数值和第二交叉熵数值,并计算所述第一交叉熵数值和所述第二交叉熵数值的加权和作为交叉熵损失函数值;分类损失计算单元,用于将所述第一特征图通过分类器以得到分类损失函数值;以及,训练单元,用于以所述交叉熵损失函数值、距离损失函数值和所述分类损失函数值的加权和作为损失函数值对所述第一卷积神经网络和所述分类器进行训练。其中,推断模块,包括:组装过程图像获取单元,用于获取由部署于液压式撞角机的相机采集的铝材组装件的组装图像;组装图像识别单元,用于将所述组装图像通过经训练模块训练完成的所述第一卷积神经网络以得到第一特征图;以及,控制结果生成单元,用于将所述第一特征图通过经训练模块训练完成的所述分类器以得到分类结果,所述分类结果用于表示铝材组装件是否组装规范。
图1图示了根据本申请实施例的铝材加工的液压式撞角机的场景示意图。如图1所示,在该应用场景的训练阶段中,首先,通过部署于液压式撞角机(例如,如图1中所示意的T)的相机(例如,如图1中所示意的C)采集的铝材组装件(例如,如图1中所示意的H)的组装图像以及参考图像,这里,所述参考图像为组装规范的铝材组装件的图像,并且通过部署于所述组装规范的铝材组装件在其定位块与两侧铝材的两个结合处的传感器(例如,如图1中所示意的压力传感器R)采集两个压力值。然后,将获得的所述组装图像、所述参考图像以及所述两个压力值输入至部署有铝材加工的液压式撞角机算法的服务器(例如,如图1中所示意的S)中,其中,所述服务器能够基于铝材加工的液压式撞角机算法以所述组装图像、所述参考图像以及所述两个压力值对铝材加工的液压式撞角机的所述第一卷积神经网络和所述分类器进行训练。
在训练完成后,在推断阶段中,首先,通过部署于液压式撞角机(例如,如图1中所示意的T)的相机(例如,如图1中所示意的C)采集的铝材组装件(例如,如图1中所示意的H)的组装图像。然后,将获得的所述铝材组装件的组装图像输入至部署有铝材加工的液压式撞角机算法的服务器(例如,如图1中所示意的S)中,其中,所述服务器能够以铝材加工的液压式撞角机算法对所述铝材组装件的组装图像进行处理,以生成用于表示铝材组装件是否组装规范的分类结果。
在介绍了本申请的基本原理之后,下面将参考附图来具体介绍本申请的各种非限制性实施例。
示例性系统
图2图示了根据本申请实施例的铝材加工的液压式撞角机的框图。如图2所示,根据本申请实施例的铝材加工的液压式撞角机200,包括:训练模块210和推断模块220。其中,训练模块210,包括:训练数据单元2101,用于获取由部署于液压式撞角机的相机采集的铝材组装件的组装图像以及参考图像,所述参考图像为组装规范的铝材组装件的图像;第一图像控制结果生成单元2102,用于将所述组装图像通过第一卷积神经网络以得到第一特征图;第二图像控制结果生成单元2103,用于将所述参考图像通过第二卷积神经网络以得到第二特征图;距离损失计算单元2104,用于计算所述第一特征图和所述第二特征图之间的距离损失函数值;感兴趣区域提取单元2105,用于将所述第一特征图通过候选框提取网络以从所述第一特征图提取第一感兴趣区域和第二感兴趣区域,其中,所述第一感兴趣区域和所述第二感兴趣区域对应于所述铝材组装件的定位块与两侧铝材的两个结合处;参考值获取单元2106,用于获取所述组装规范的铝材组装件在其定位块与两侧铝材的两个结合处的两个压力值;感兴趣区域加强单元2107,用于基于所述第一特征图,分别对所述第一感兴趣区域和所述第二感兴趣区域进行校正以得到校正后第一感兴趣区域和校正后第二感兴趣区域;交叉熵损失函数值计算单元2108,用于分别计算所述校正后第一感兴趣区域和校正后第二感兴趣区域与所述两个压力值的第一交叉熵数值和第二交叉熵数值,并计算所述第一交叉熵数值和所述第二交叉熵数值的加权和作为交叉熵损失函数值;分类损失计算单元2109,用于将所述第一特征图通过分类器以得到分类损失函数值;以及,训练单元2110,用于以所述交叉熵损失函数值、距离损失函数值和所述分类损失函数值的加权和作为损失函数值对所述第一卷积神经网络和所述分类器进行训练。其中,推断模块220,包括:组装过程图像获取单元221,用于获取由部署于液压式撞角机的相机采集的铝材组装件的组装图像;组装图像识别单元222,用于将所述组装图像通过经训练模块训练完成的所述第一卷积神经网络以得到第一特征图;以及,控制结果生成单元223,用于将所述第一特征图通过经训练模块训练完成的所述分类器以得到分类结果,所述分类结果用于表示铝材组装件是否组装规范。
具体地,在本申请实施例中,在训练模块210中,所述训练数据单元2101、第一图像控制结果生成单元2102和所述第二图像控制结果生成单元2103,用于获取由部署于液压式撞角机的相机采集的铝材组装件的组装图像以及参考图像,所述参考图像为组装规范的铝材组装件的图像,并将所述组装图像通过第一卷积神经网络以得到第一特征图,再将所述参考图像通过第二卷积神经网络以得到第二特征图。如前所述,在将两侧铝材在定位块夹角处安装时,由于所述两侧的铝材长度不一,很难掌握液压缸的行程和动作时间,导致对装过头或者对装不完全。并且当对装过头与对装不完全时,所述两侧铝材所呈现的夹角和形状会发生微弱变化,这通过肉眼很难观察出差别。因此,本申请的技术方案中,选择通过在局部隐含特征提取方面具有优异表现的卷积神经网络来提取这种微弱的差别以进行预警。
具体地,在本申请的技术方案中,首先通过部署于液压式撞角机的相机采集的铝材组装件的组装图像以及参考图像,这里。所述参考图像为组装规范的铝材组装件的图像。然后,将得到的所述组装图像以及参考图像分别通过在局部隐含的关联特征挖掘方面具有优异表现的第一卷积神经网络和第二卷积神经网络中进行处理,以分别提取出所述组装图像以及参考图像的局部高维隐含特征分布。特别地,这里,所述第一卷积神经网络和所述第二卷积神经网络具有相同的网络结构,其尺度为W×H×C。
具体地,在本申请实施例中,在训练模块210中,所述距离损失计算单元2104,用于计算所述第一特征图和所述第二特征图之间的距离损失函数值。也就是,在本申请的技术方案中,接着,进一步计算所述第一特征图和所述第二特征图之间的距离以作为这两个所述特征图之间的距离损失函数值。相应地,在一个具体示例中,可以计算这两个所述特征图之间的余弦距离或者L2距离来反映所述第一特征图所在的图像空间内的样本点分布与所述第二特征图所在的图像空间内的样本点分布之间的差异。
更具体地,在本申请实施例中,所述距离损失计算单元,进一步用于:以如下公式计算所述第一特征图和所述第二特征图之间的所述距离损失函数值;
其中,所述公式为:
更具体地,在本申请实施例中,所述距离损失计算单元,进一步用于:以如下公式计算所述第一特征图和所述第二特征图之间的所述距离损失函数值;
其中,所述公式为:
具体地,在本申请实施例中,在训练模块210中,所述感兴趣区域提取单元2105,用于将所述第一特征图通过候选框提取网络以从所述第一特征图提取第一感兴趣区域和第二感兴趣区域,其中,所述第一感兴趣区域和所述第二感兴趣区域对应于所述铝材组装件的定位块与两侧铝材的两个结合处。应可以理解,由于在图像的特征挖掘中,为了更精准地对所述铝材组装件的对装精度进行自检,以准确地检测所述铝材组装件是否符合规范,则需要在特征提取中更加聚焦于所述两侧铝材与定位块的结合处。因此,在本申请的技术方案中,进一步基于候选框提取网络从所述第一特征图中提取两个感兴趣区域以得到第一感兴趣区域和第二感兴趣区域,特别地,这里,所述第一感兴趣区域和所述第二感兴趣区域对应于所述铝材组装件的定位块与两侧铝材的两个结合处。
具体地,在本申请实施例中,在训练模块210中,所述参考值获取单元2106和所述感兴趣区域加强单元2107,用于获取所述组装规范的铝材组装件在其定位块与两侧铝材的两个结合处的两个压力值,并基于所述第一特征图,分别对所述第一感兴趣区域和所述第二感兴趣区域进行校正以得到校正后第一感兴趣区域和校正后第二感兴趣区域。应可以理解,考虑到在基于所述候选框提取网络从所述第二特征图中提取两个感兴趣区域以得到第一感兴趣区域和第二感兴趣区域时,由于所述第一感兴趣区域和所述第二感兴趣区域对应于所述第二特征图中的部分区域,其可能会缺失所述第二特征图的整体信息,使得在计算交叉熵数值并训练模型,会缺失对特征整体分布信息的拟合。
因此,在本申请的技术方案中,对于所述第一感兴趣区域和所述第二感兴趣区域对应的所述第一子特征图和所述第二子特征图,进行相对于特征图整体的归一化修正。也就是,在通过候选框提取网络获得局部区域的特征时,可以通过归一化来使得局部特征对于全局特征具有信息最小化的鲁棒性,相对于对于特征局部进行向着特征整体的聚类操作,从而增大局部特征分布对于全局特征分布的依赖性。这样,在利用所述压力值计算交叉熵损失函数时,其就可以既包括相对于局部特征分布的一致性信息,也包括相对于整体特征分布的一致性信息,提升了模型预测的准确度。
更具体地,在本申请实施例中,所述感兴趣区域加强单元,进一步用于:全局特征表示子单元,用于计算所述第一特征图中所有位置的特征值的求和值与一的加和值的对数函数值作为所述第一特征图的全局特征值;以及,基于全局的特征加强子单元,用于以所述第一感兴趣区域和所述第二感兴趣区域中各个位置的特征值与一的加和值的对数函数值分别除以所述所述第一特征图的全局特征值以得到所述校正后第一感兴趣区域和所述校正后第二感兴趣区域。在一个具体示例中,相对于所述特征图整体的归一化修正的公式为:
其中fsub1和fsub2为所述第一子特征图和所述第二子特征图中的每个位置的特征值,且fwhole为所述第一特征图中的每个位置的特征值。
具体地,在本申请实施例中,在训练模块210中,所述交叉熵损失函数值计算单元2108,用于分别计算所述校正后第一感兴趣区域和校正后第二感兴趣区域与所述两个压力值的第一交叉熵数值和第二交叉熵数值,并计算所述第一交叉熵数值和所述第二交叉熵数值的加权和作为交叉熵损失函数值。应可以理解,由于所述撞角机在对装的过程中采用在两侧设置顶紧液压缸,通过顶紧液压缸推动铝材,实现两侧铝材在定位块夹角处对装,但是对装过头的两个铝材在接触处由于液压缸过度挤压,被挤压抬起甚至变形,严重影响定位精度的组装效果,从而影响组角质量。因此,在本申请的技术方案中,为了对对装精度进行自检,以准确地判断铝材组装件是否组装规范,还需要考虑所述组装规范的铝材组装件在其定位块与两侧铝材的两个结合处的两个压力值。然后,计算所述校正后的感兴趣区域分别与这两个所述压力值的第一交叉熵数值和第二交叉熵数值,并计算这两个所述交叉熵数值的加权和以得到交叉熵损失函数值。
具体地,在本申请实施例中,在训练模块210中,所述分类损失计算单元2109和所述训练单元2110,用于将所述第一特征图通过分类器以得到分类损失函数值,并以所述交叉熵损失函数值、距离损失函数值和所述分类损失函数值的加权和作为损失函数值对所述第一卷积神经网络和所述分类器进行训练。也就是,在本申请的技术方案中,进一步地,在将所述第一特征图通过分类器以获得分类损失函数值后,基于所述交叉熵损失函数值、所述距离损失函数值和所述分类损失函数值的加权和作为损失函数值对所述第一卷积神经网络和所述分类器进行训练,以提升模型预测的准确度。这样,在对于所述铝材组装件的组装规范性进行检测判断时,就可以直接将所述相机采集的铝材组装件的组装图像输入至训练完成的所述第一卷积神经网络和所述分类器中,以获得更准确地分类结果。
更具体地,在本申请实施例中,所述分类损失计算单元,进一步用于:所述分类器以如下公式对所述第一特征图进行处理以生成分类结果,其中,所述公式为:softmax{(Wn,Bn):…:(W1,B1)|Project(F)},其中Project(F)表示将所述第一特征图投影为向量,W1至Wn为各层全连接层的权重矩阵,B1至Bn表示各层全连接层的偏置矩阵;以及,计算所述分类结果与真实值之间的交叉熵值作为所述分类损失函数值。
在完成训练之后,进入推断模块,也就是,将训练完成的所述第一卷积神经网络和所述分类器用于实际的推断检测过程中。
具体地,在本申请实施例中,首先,获取由部署于液压式撞角机的相机采集的铝材组装件的组装图像。然后,将所述组装图像通过经训练模块训练完成的所述第一卷积神经网络以得到第一特征图。最后,将所述第一特征图通过经训练模块训练完成的所述分类器以得到分类结果,所述分类结果用于表示铝材组装件是否组装规范。
综上,基于本申请实施例的所述铝材加工的液压式撞角机200被阐明,其通过卷积神经网络模型来提取撞角机在对装的过程中两侧铝材所呈现的夹角和形状发生的微弱变化隐含特征以进行铝材组装件的规范预警,并且在特征提取中使用感兴趣区域来更加聚焦于所述两侧铝材与定位块的结合处,同时对于感兴趣区域的特征图进行相对于特征图整体的归一化修正,使得局部特征对于全局特征具有信息最小化的鲁棒性,相对于对于特征局部进行向着特征整体的聚类操作,从而增大局部特征分布对于全局特征分布的依赖性,进而提升了模型预测的准确度。
如上所述,根据本申请实施例的铝材加工的液压式撞角机200可以实现在各种终端设备中,例如铝材加工的液压式撞角机算法的服务器等。在一个示例中,根据本申请实施例的铝材加工的液压式撞角机200可以作为一个软件模块和/或硬件模块而集成到终端设备中。例如,该铝材加工的液压式撞角机200可以是该终端设备的操作系统中的一个软件模块,或者可以是针对于该终端设备所开发的一个应用程序;当然,该铝材加工的液压式撞角机200同样可以是该终端设备的众多硬件模块之一。
替换地,在另一示例中,该铝材加工的液压式撞角机200与该终端设备也可以是分立的设备,并且该铝材加工的液压式撞角机200可以通过有线和/或无线网络连接到该终端设备,并且按照约定的数据格式来传输交互信息。
示例性方法
图3A图示了根据本申请实施例的铝材加工的液压式撞角机的使用方法中训练阶段的流程图。如图3A所示,根据本申请实施例的铝材加工的液压式撞角机的使用方法,包括:训练阶段,包括步骤:S110,获取由部署于液压式撞角机的相机采集的铝材组装件的组装图像以及参考图像,所述参考图像为组装规范的铝材组装件的图像;S120,将所述组装图像通过第一卷积神经网络以得到第一特征图;S130,将所述参考图像通过第二卷积神经网络以得到第二特征图;S140,计算所述第一特征图和所述第二特征图之间的距离损失函数值;S150,将所述第一特征图通过候选框提取网络以从所述第一特征图提取第一感兴趣区域和第二感兴趣区域,其中,所述第一感兴趣区域和所述第二感兴趣区域对应于所述铝材组装件的定位块与两侧铝材的两个结合处;S160,获取所述组装规范的铝材组装件在其定位块与两侧铝材的两个结合处的两个压力值;S170,基于所述第一特征图,分别对所述第一感兴趣区域和所述第二感兴趣区域进行校正以得到校正后第一感兴趣区域和校正后第二感兴趣区域;S180,分别计算所述校正后第一感兴趣区域和校正后第二感兴趣区域与所述两个压力值的第一交叉熵数值和第二交叉熵数值,并计算所述第一交叉熵数值和所述第二交叉熵数值的加权和作为交叉熵损失函数值;S190,将所述第一特征图通过分类器以得到分类损失函数值;以及,S200,以所述交叉熵损失函数值、距离损失函数值和所述分类损失函数值的加权和作为损失函数值对所述第一卷积神经网络和所述分类器进行训练。
图3B图示了根据本申请实施例的铝材加工的液压式撞角机的使用方法中推断阶段的流程图。图3B所示,根据本申请实施例的铝材加工的液压式撞角机的使用方法,包括:推断阶段,包括步骤:S210,获取由部署于液压式撞角机的相机采集的铝材组装件的组装图像;S220,将所述组装图像通过经训练模块训练完成的所述第一卷积神经网络以得到第一特征图;以及,S230,将所述第一特征图通过经训练模块训练完成的所述分类器以得到分类结果,所述分类结果用于表示铝材组装件是否组装规范。
图4图示了根据本申请实施例的铝材加工的液压式撞角机的使用方法中训练阶段的架构示意图。如图4所示,在训练阶段中,在该网络架构中,首先,将获得的所述组装图像(例如,如图4中所示意的P1)通过第一卷积神经网络(例如,如图4中所示意的CNN1)以得到第一特征图(例如,如图4中所示意的F1);接着,将所述参考图像(例如,如图4中所示意的P2)通过第二卷积神经网络(例如,如图4中所示意的CNN2)以得到第二特征图(例如,如图4中所示意的F2);然后,计算所述第一特征图和所述第二特征图之间的距离损失函数值(例如,如图4中所示意的DLV);接着,将所述第一特征图通过候选框提取网络以从所述第一特征图提取第一感兴趣区域(例如,如图4中所示意的R1)和第二感兴趣区域(例如,如图4中所示意的R2);然后,基于所述第一特征图,分别对所述第一感兴趣区域和所述第二感兴趣区域进行校正以得到校正后第一感兴趣区域(例如,如图4中所示意的RC1)和校正后第二感兴趣区域(例如,如图4中所示意的RC2);接着,分别计算所述校正后第一感兴趣区域和校正后第二感兴趣区域与获得的所述两个压力值(例如,如图4中所示意的Q1和Q2)的第一交叉熵数值(例如,如图4中所示意的CE1)和第二交叉熵数值(例如,如图4中所示意的CE2),并计算所述第一交叉熵数值和所述第二交叉熵数值的加权和作为交叉熵损失函数值(例如,如图4中所示意的CE);然后,将所述第一特征图通过分类器(例如,如图4中所示意的分类器)以得到分类损失函数值(例如,如图4中所示意的CLV);以及,最后,以所述交叉熵损失函数值、距离损失函数值和所述分类损失函数值的加权和作为损失函数值对所述第一卷积神经网络和所述分类器进行训练。
图5图示了根据本申请实施例的铝材加工的液压式撞角机的使用方法中推断阶段的架构示意图。如图5所示,在推断阶段中,在该网络架构中,首先,将获得的所述组装图像(例如,如图5中所示意的P)通过经训练模块训练完成的所述第一卷积神经网络(例如,如图5中所示意的CNN)以得到第一特征图(例如,如图5中所示意的F);以及,然后,将所述第一特征图通过经训练模块训练完成的所述分类器(例如,如图5中所示意的分类器)以得到分类结果,所述分类结果用于表示铝材组装件是否组装规范。
综上,基于本申请实施例的所述铝材加工的液压式撞角机的使用方法被阐明,其通过卷积神经网络模型来提取撞角机在对装的过程中两侧铝材所呈现的夹角和形状发生的微弱变化隐含特征以进行铝材组装件的规范预警,并且在特征提取中使用感兴趣区域来更加聚焦于所述两侧铝材与定位块的结合处,同时对于感兴趣区域的特征图进行相对于特征图整体的归一化修正,使得局部特征对于全局特征具有信息最小化的鲁棒性,相对于对于特征局部进行向着特征整体的聚类操作,从而增大局部特征分布对于全局特征分布的依赖性,进而提升了模型预测的准确度。
以上结合具体实施例描述了本申请的基本原理,但是,需要指出的是,在本申请中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本申请的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本申请为必须采用上述具体的细节来实现。
本申请中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
还需要指出的是,在本申请的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本申请的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本申请。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本申请的范围。因此,本申请不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
Claims (10)
1.一种铝材加工的液压式撞角机,其特征在于,包括:
训练模块,包括:
训练数据单元,用于获取由部署于液压式撞角机的相机采集的铝材组装件的组装图像以及参考图像,所述参考图像为组装规范的铝材组装件的图像;
第一图像控制结果生成单元,用于将所述组装图像通过第一卷积神经网络以得到第一特征图;
第二图像控制结果生成单元,用于将所述参考图像通过第二卷积神经网络以得到第二特征图;
距离损失计算单元,用于计算所述第一特征图和所述第二特征图之间的距离损失函数值;
感兴趣区域提取单元,用于将所述第一特征图通过候选框提取网络以从所述第一特征图提取第一感兴趣区域和第二感兴趣区域,其中,所述第一感兴趣区域和所述第二感兴趣区域对应于所述铝材组装件的定位块与两侧铝材的两个结合处;
参考值获取单元,用于获取所述组装规范的铝材组装件在其定位块与两侧铝材的两个结合处的两个压力值;
感兴趣区域加强单元,用于基于所述第一特征图,分别对所述第一感兴趣区域和所述第二感兴趣区域进行校正以得到校正后第一感兴趣区域和校正后第二感兴趣区域;
交叉熵损失函数值计算单元,用于分别计算所述校正后第一感兴趣区域和校正后第二感兴趣区域与所述两个压力值的第一交叉熵数值和第二交叉熵数值,并计算所述第一交叉熵数值和所述第二交叉熵数值的加权和作为交叉熵损失函数值;
分类损失计算单元,用于将所述第一特征图通过分类器以得到分类损失函数值;以及
训练单元,用于以所述交叉熵损失函数值、距离损失函数值和所述分类损失函数值的加权和作为损失函数值对所述第一卷积神经网络和所述分类器进行训练;以及
推断模块,包括:
组装过程图像获取单元,用于获取由部署于液压式撞角机的相机采集的铝材组装件的组装图像;
组装图像识别单元,用于将所述组装图像通过经训练模块训练完成的所述第一卷积神经网络以得到第一特征图;以及
控制结果生成单元,用于将所述第一特征图通过经训练模块训练完成的所述分类器以得到分类结果,所述分类结果用于表示铝材组装件是否组装规范。
5.根据权利要求4所述的铝材加工的液压式撞角机,其中,所述分类损失计算单元,进一步用于:所述分类器以如下公式对所述第一特征图进行处理以生成分类结果,其中,所述公式为:softmax{(Wn,Bn):…:(W1,B1)|Project(F)},其中Project(F)表示将所述第一特征图投影为向量,W1至Wn为各层全连接层的权重矩阵,B1至Bn表示各层全连接层的偏置矩阵;以及,计算所述分类结果与真实值之间的交叉熵值作为所述分类损失函数值。
6.根据权利要求5所述的铝材加工的液压式撞角机,其中,所述第一卷积神经网络和所述第二卷积神经网络具有相同的网络结构。
7.一种铝材加工的液压式撞角机的使用方法,其特征在于,包括:
训练阶段,包括:
获取由部署于液压式撞角机的相机采集的铝材组装件的组装图像以及参考图像,所述参考图像为组装规范的铝材组装件的图像;
将所述组装图像通过第一卷积神经网络以得到第一特征图;
将所述参考图像通过第二卷积神经网络以得到第二特征图;
计算所述第一特征图和所述第二特征图之间的距离损失函数值;
将所述第一特征图通过候选框提取网络以从所述第一特征图提取第一感兴趣区域和第二感兴趣区域,其中,所述第一感兴趣区域和所述第二感兴趣区域对应于所述铝材组装件的定位块与两侧铝材的两个结合处;
获取所述组装规范的铝材组装件在其定位块与两侧铝材的两个结合处的两个压力值;
基于所述第一特征图,分别对所述第一感兴趣区域和所述第二感兴趣区域进行校正以得到校正后第一感兴趣区域和校正后第二感兴趣区域;
分别计算所述校正后第一感兴趣区域和校正后第二感兴趣区域与所述两个压力值的第一交叉熵数值和第二交叉熵数值,并计算所述第一交叉熵数值和所述第二交叉熵数值的加权和作为交叉熵损失函数值;
将所述第一特征图通过分类器以得到分类损失函数值;以及
以所述交叉熵损失函数值、距离损失函数值和所述分类损失函数值的加权和作为损失函数值对所述第一卷积神经网络和所述分类器进行训练;以及
推断阶段,包括:
获取由部署于液压式撞角机的相机采集的铝材组装件的组装图像;
将所述组装图像通过经训练模块训练完成的所述第一卷积神经网络以得到第一特征图;以及
将所述第一特征图通过经训练模块训练完成的所述分类器以得到分类结果,所述分类结果用于表示铝材组装件是否组装规范。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210738577.7A CN114821201B (zh) | 2022-06-28 | 2022-06-28 | 铝材加工的液压式撞角机及其使用方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210738577.7A CN114821201B (zh) | 2022-06-28 | 2022-06-28 | 铝材加工的液压式撞角机及其使用方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114821201A CN114821201A (zh) | 2022-07-29 |
CN114821201B true CN114821201B (zh) | 2022-09-20 |
Family
ID=82522333
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210738577.7A Active CN114821201B (zh) | 2022-06-28 | 2022-06-28 | 铝材加工的液压式撞角机及其使用方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114821201B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111460915A (zh) * | 2020-03-13 | 2020-07-28 | 华南理工大学 | 一种基于轻量神经网络的指静脉验证方法及系统 |
CN111652216A (zh) * | 2020-06-03 | 2020-09-11 | 北京工商大学 | 基于度量学习的多尺度目标检测模型方法 |
CN112528862A (zh) * | 2020-12-10 | 2021-03-19 | 西安电子科技大学 | 基于改进的交叉熵损失函数的遥感图像目标检测方法 |
CN112733590A (zh) * | 2020-11-06 | 2021-04-30 | 哈尔滨理工大学 | 一种基于二阶混合注意力的行人重识别方法 |
CN112836713A (zh) * | 2021-03-12 | 2021-05-25 | 南京大学 | 基于图像无锚框检测的中尺度对流系统识别与追踪方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112712497B (zh) * | 2020-12-21 | 2024-05-28 | 江门市江海区金垠塱钢管有限公司 | 基于局部描述算符的铸铁管道连接处的稳定性检测方法 |
CN114581767B (zh) * | 2022-01-19 | 2024-03-22 | 上海土蜂科技有限公司 | 图像处理系统、方法及其计算机装置 |
-
2022
- 2022-06-28 CN CN202210738577.7A patent/CN114821201B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111460915A (zh) * | 2020-03-13 | 2020-07-28 | 华南理工大学 | 一种基于轻量神经网络的指静脉验证方法及系统 |
CN111652216A (zh) * | 2020-06-03 | 2020-09-11 | 北京工商大学 | 基于度量学习的多尺度目标检测模型方法 |
CN112733590A (zh) * | 2020-11-06 | 2021-04-30 | 哈尔滨理工大学 | 一种基于二阶混合注意力的行人重识别方法 |
CN112528862A (zh) * | 2020-12-10 | 2021-03-19 | 西安电子科技大学 | 基于改进的交叉熵损失函数的遥感图像目标检测方法 |
CN112836713A (zh) * | 2021-03-12 | 2021-05-25 | 南京大学 | 基于图像无锚框检测的中尺度对流系统识别与追踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114821201A (zh) | 2022-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108596081B (zh) | 一种基于雷达和摄像机融合的车辆行人探测方法 | |
CN111368639B (zh) | 车辆越线判定方法、装置、计算机设备和存储介质 | |
US6987534B1 (en) | Brightness adjusting apparatus for stereoscopic camera | |
US7519197B2 (en) | Object identification between non-overlapping cameras without direct feature matching | |
CN115239515B (zh) | 用于机械部件的精密智能化加工制造系统及其制造方法 | |
CN112686835B (zh) | 路上障碍物检测装置、方法及计算机可读存储介质 | |
CN112261390B (zh) | 车载摄像设备及其图像优化装置和优化方法 | |
CN113313701B (zh) | 基于形状先验的电动汽车充电口两阶段视觉检测定位方法 | |
CN110235177B (zh) | 图像处理装置、图像识别装置、以及存储介质 | |
CN104680554A (zh) | 基于surf的压缩跟踪方法和系统 | |
Steingrube et al. | Performance evaluation of stereo algorithms for automotive applications | |
CN114821201B (zh) | 铝材加工的液压式撞角机及其使用方法 | |
CN112766273A (zh) | 一种车牌识别方法 | |
CN104981844A (zh) | 移动物体检测 | |
CN117115415B (zh) | 基于大数据分析的图像标记处理方法和系统 | |
CN116091496B (zh) | 基于改进Faster-RCNN的缺陷检测方法及装置 | |
WO2011083665A1 (ja) | 類似度算出装置、類似度算出方法、及びプログラム | |
CN109063543B (zh) | 一种考虑局部形变的视频车辆重识别方法、系统及装置 | |
CN109614970A (zh) | 一种红外目标隐身效能的评估方法及系统 | |
CN110826468A (zh) | 一种辅助驾驶的基于车道线检测的车辆检测测距方法 | |
CN114170202A (zh) | 基于面阵结构光3d视觉的焊缝分割与铣削判别方法及装置 | |
Boshra et al. | Predicting an upper bound on SAR ATR performance | |
JP2006010652A (ja) | 物体検出装置 | |
CN117152083B (zh) | 一种基于类别激活映射的探地雷达道路病害图像预测可视化方法 | |
CN113847944B (zh) | 一种基于增强学习记忆控制的道路病害检测装置及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |