CN115564950A - 基于深度学习的小样本火箭弹粘接缺陷检测方法 - Google Patents
基于深度学习的小样本火箭弹粘接缺陷检测方法 Download PDFInfo
- Publication number
- CN115564950A CN115564950A CN202211203489.3A CN202211203489A CN115564950A CN 115564950 A CN115564950 A CN 115564950A CN 202211203489 A CN202211203489 A CN 202211203489A CN 115564950 A CN115564950 A CN 115564950A
- Authority
- CN
- China
- Prior art keywords
- deep learning
- model
- rocket projectile
- defect
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明属于计算机视觉领域,公开了一种基于深度学习的小样本火箭弹粘接缺陷检测方法。所述方法包括以下步骤:对火箭弹粘接缺陷图像进行收集与预处理;训练一个深度卷积生成对抗网络(DCGAN),再次扩充缺陷数据集;使用公开的图像数据集,对YOLOv5s深度学习模型进行预训练并保存YOLOv5s深度学习模型的参数,将训练好的YOLOv5s深度学习模型的结构进行改造,在C3模块引入稠密网络,进行训练,得到缺陷检测模型;使用多进程和多线程技术部署缺陷检测模型,进行火箭弹粘接缺陷检测。本发明将深度学习方法应用于火箭弹粘接缺陷检测,基于DCGAN与YOLOv5s的小样本火箭弹粘接缺陷检测,利用多进程技术,成功实现在实时检测的基础上保证模型检测的准确率。
Description
技术领域
本发明属于计算机视觉领域,具体为一种基于深度学习的小样本火箭弹粘接缺陷检测方法。
背景技术
武器是战争的关键。战场上武器装备内部的微小瑕疵,都有可能导致先进武器装备系统或整体功能的失效,甚至导致作战失利和被动受制的后果。随着科学的不断发展,部队的装备水平和现代化程度不断提高,同时也对武器装备检测技术提出了更高的要求。
在火箭弹生产过程中,由于生产工艺的限制和现场环境的复杂性,会产生脱粘、开裂、分层等多种类型的粘接缺陷。目前,对于火箭弹粘接缺陷类别的识别还停留在由工人凭借个人经验对缺陷进行判断,由于缺陷种类多样,有的缺陷体积小不易察觉,往往需要投入大量人力成本用于产品质检,费时费力且存在着一定的主观性,难以保证判定的准确率。高效、可靠的自动化质检能够降低大量人工成本,提高缺陷识别的准确率。对此,本发明提出了一种基于深度学习的小样本火箭弹粘接缺陷检测方法。
发明内容
为了解决现有的火箭弹粘接缺陷检测存在样本不足和检测费时费力且存在着一定的主观性,难以保证判定的准确率等问题,本发明提供了一种基于深度学习的小样本火箭弹粘接缺陷检测方法,以满足现阶段的需要,可进一步提升火箭弹粘接缺陷检测的检测效率和检测速率。
为了达到上述目的,本发明采用了下列技术方案:
本发明提供一种基于深度学习的小样本火箭弹粘接缺陷检测方法,包括以下步骤:
S1、对火箭弹粘接缺陷图像进行收集与预处理,得到缺陷数据集;
S2、在步骤S1数据集基础上,设计深度卷积生成对抗网络,再次扩充缺陷数据集;
S3、搭建基于YOLOv5架构的目标检测器模型;
S4、构建缺陷检测模型;
S5、使用多进程和多线程技术部署缺陷检测模型,提升缺陷检测模型的检测速度,采用缺陷检测模型进行火箭弹粘接缺陷检测。
进一步,所述步骤S1具体为:
S11、通过终端设备收集火箭弹粘接的缺陷图像;
S12、利用MAKE SENSE工具对步骤S11收集的火箭弹粘接缺陷图像依次进行标注,并将标注的信息记录在txt文件中;
S13、通过非生成式数据增强方法对步骤S12获得的数据集进行数据增强,扩充小样本缺陷图像。
进一步,所述步骤S2具体为:
S21、使用以下目标函数生成对抗网络:
式中,D是判别网络,G是生成对抗网络,pdta(x)表示真实样本x的分布,pz(z)表示随机噪声z的分布,D(G(z))表示D网络判断G生成的图片是否真实的概率;E表示分批次的输入网络;
S22、使用公开的图像数据集对生成的对抗网络进行训练,固定判别网络D,优化生成对抗网络G的参数,完成缺陷数据集的扩充。
进一步,所述步骤S3具体为:
S31、搭建YOLOv5s深度学习模型;
S32、使用公开的COCO图像数据集,对YOLOv5s深度学习模型进行预训练并保存YOLOv5s深度学习模型的参数;
S33、对训练好的YOLOv5s深度学习模型的结构进行改造,在YOLOv5s深度学习模型网络的C3模块引入稠密模块;所述稠密模块包括Conv(1×1)+BN+SiLU+Conv(3×3)+BN+SiLU,SiLU作为非线性激活函数,实现网络的非线性化。其中,1×1卷积和3×3卷积可以看作是一个组合,1×1卷积可以减少输入特征图的数量、提高计算效率,3×3卷积层可以提取空间特征;整个模块的输出是将输入和3×3卷积的输出堆叠在一起,然后通过卷积核为1×1的过渡层减少通道数,降低模型复杂度;
S34、为了加强网络特征融合的能力、减少计算量,利用四个卷积核大小不同的最大池化层实现不同尺度的特征融合;
S35、搭建PANet模块通过采样操作实现特征融合,搭建Output模块对图像特征进行预测,生成边界框并预测类别,完成基于YOLOv5架构的目标检测器模型的搭建。
进一步,所述步骤S4具体为:在步骤S35搭建的基于YOLOv5架构的目标检测器模型中,先加载步骤S32得到的模型参数,再将步骤S2得到的数据集数据导入模型进行训练,得到缺陷检测模型。
进一步,所述步骤S5包括以下步骤:
S51、在对步骤S4得到的缺陷检测模型进行部署时,在服务器上根据GPU和内存开启多个进程,对每个进程都启动同一个缺陷检测模型;
S52、在服务器接收端建立管道进行进程间通信,同时对每个接收的图像进行编号,通过管道将接收的图像平均分给多个进程进行火箭弹粘接缺陷检测的模型训练;
S53、在服务器返回部分建立管道,用于收集步骤S52中的结果,并对结果根据编号进行排序后返回结果。
更进一步,所述步骤S11中的终端设备为拍摄装置;所述步骤S3中的非生成式数据增强方法包括几何变换、颜色抖动和随机噪声。
更进一步,在所述步骤S32中,设置初始学习率为0.1,并设置学习率衰减,衰减策略为固定步长衰减,学习率每两轮衰减为原来的一半,动量围为0.9;使用如下损失函数和Adam优化器;
式中:x表示样本,y表示标签,a表示预测的输出,n表示样本总量。
更进一步,用步骤S2得到的数据集数据对模型进行训练时,使用的损失函数包括定位损失、置信度损失和类别损失3部分构成:整体的损失函数如下:
其中,K表示网络最后输出的特征图划分为K×K个格子;k,s2,B分别为输出特征图cell和每个cell上anchor的数量;α*为对应项的权重,默认取值为αbox=0.05,αcls=0.3,αobj=0.7;表示第k个输出特征图,第i个cell,第j个anchorbox是否是正样本,如果是正样本则为1,反之为0;tp,tgt分别表示预测向量和ground-truth向量;表示用于平衡每个尺度的输出特征图的权重;
定位损失为:
Lbox=(x-x*)2+(y-y*)2+(w-w*)2+(h-h*)2
其中,x,y,w,h分别代表预测框的左上角坐标与框的长宽,x*,y*,w*,h*分别代表真实框的左上角坐标与框的长宽;
置信度损失函数:
分类损失函数为:
与现有技术相比本发明具有以下优点:
1、本发明基于小样本深度学习的火箭弹粘接缺陷检测方法通过对已标注的缺陷样本集学习,获得缺陷特征检测模型,并通过缺陷特征检测模型进行缺陷识别,进而利用需检测图像进行增量学习从而调整模型参数,有效提升了火箭弹粘接缺陷的智能检测的准确度。
2、在部署模型的时候,本发明采用多进程的方式,大大释放了服务器多核以及内存的性能,提升了模型的预测速度,基本可以达到实时检测的要求。
3、本发明优化了YOLOv5s网络中的C3模块,将C3模块设计为包含稠密块和过渡层的结构,稠密块增强网络的特征提取能力,过渡层减少输出通道数,之后,使用优化的YOLOv5算法识别缺陷图像,大大提高了火箭弹粘接缺陷检测速度和准确度。
4、本发明所提供的火箭弹粘接缺陷检测方法,在对火箭弹X射线缺陷图像实施亮度变换、对比度变换、颜色变换等非生成式数据增强方法的基础上,设计了深度卷积生成对抗网络(DCGAN)扩充缺陷数据集,解决了样本少且分布不均的问题,能够有效解决火箭弹粘接缺陷检测中缺陷样本稀少,缺陷样本不平衡问题,大大提高了火箭弹粘接缺陷检测速度和准确度。
附图说明
图1为本发明方法流程图。
具体实施方式
下面将结合实施例,对本发明作进一步的详细说明,显然,所描述的实施例只是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一种基于深度学习的小样本火箭弹粘接缺陷检测方法,如图1所示,包括以下步骤:
S1、采集火箭弹粘接缺陷图像,对图像进行标注,包括以下步骤:
S1.1、通过终端设备收集火箭弹粘接缺陷的图像,所述终端设备为拍摄装置,包括但不限于手机、摄像机。
S1.2、利用MAKE SENSE工具对火箭弹粘接缺陷图像依次进行标注,并将标注的信息记录在txt文件中。
S2、对标注数据整理构成数据集,并对数据集进行数据增强,完成数据集的第一次构建,包括以下步骤;
S2.1、对步骤S1中得到的数据集进行先通过非生成式数据增强方法扩充小样本缺陷图像。非生成式数据增强方法包括几何变换、颜色抖动、随机噪声。
S3、使用步骤S2中构建好的数据集,训练一个深度卷积生成对抗网络(DCGAN)的数据集扩充网络,再次扩充缺陷数据集。
S3.1在步骤S3.1使用以下目标函数得到生成对抗网络:
式中,D是判别网络,G是生成对抗网络,pdta(x)表示真实样本x的分布,pz(z)表示随机噪声z的分布,D(G(z))表示D网络判断G生成的图片是否真实的概率;E表示分批次的输入网络;
S3.2使用公开的图像数据集对生成对抗网络(DCGAN网络)进行训练,固定判别网络D,优化生成对抗网络G的参数。
本实施例中,根据相关资料,使用pytorch开源库搭建DCGAN网络。pytorch是一款开源的,基于数据流编程的符号数学系统,被广泛的应用于各类机器学习和深度学习算法的编程实现。
S4、搭建基于YOLOv5架构的目标检测器模型;
S4.1、搭建YOLOv5s深度学习模型;
S4.2、使用公开的COCO数据图像数据集,对YOLOv5s深度学习模型进行预训练并保存YOLOv5s深度学习模型的参数;设置初始学习率为0.1,并设置学习率衰减,衰减策略为固定步长衰减,学习率每两轮衰减为原来的一半,动量围为0.9;使用如下损失函数和Adam优化器:
式中:x表示样本,y表示标签,a表示预测的输出,n表示样本总量。
S4.3、对训练好的YOLOv5s深度学习模型的结构进行改造,在YOLOv5s深度学习模型网络的C3模块引入稠密网络;稠密模块包括Conv(1×1)+BN+SiLU+Conv(3×3)+BN+SiLU,SiLU作为非线性激活函数,实现网络的非线性化。其中,1×1卷积和3×3卷积可以看作是一个组合,1×1卷积可以减少输入特征图的数量、提高计算效率,3×3卷积层可以提取空间特征。整个模块的输出是将输入和3×3卷积的输出堆叠在一起。然后通过卷积核为1×1的过渡层减少通道数,降低模型复杂度;
S4.4、为了加强网络特征融合的能力、减少计算量,利用四个卷积核大小不同的最大池化层实现不同尺度的特征融合;
S4.5搭建PANet模块通过采样操作实现特征融合,搭建Output模块对图像特征进行预测,生成边界框并预测类别,完成基于YOLOv5架构的目标检测器模型的搭建。
S5、在步骤S4.5搭建的基于YOLOv5架构的目标检测器模型中,先加载步骤S32得到的模型参数,再将步骤S3得到的数据集数据导入模型进行训练,得到缺陷检测模型。
S6、使用多进程和多线程技术部署缺陷检测模型,提升缺陷检测模型的检测速度,采用缺陷检测模型进行火箭弹粘接缺陷检测。包括以下步骤:
S6.1、在对步骤S5中得到的缺陷检测模型进行部署时,在服务器上根据GPU和内存开启多个进程,对每个进程都启动同一个缺陷检测模型;
S6.2、在服务器接收端建立管道进行进程间通信,同时对每个接收的图像进行编号,通过管道将接收的图像平均分给多个进程进行火箭弹粘接缺陷检测;
S6.3、在服务器返回部分建立管道,用于收集步骤S6.2中的结果,并对结果根据编号进行排序后返回结果。
在实施中如果模型检测效率偏慢,可以采用适当的丢弃帧的方式,在不影响视觉效果的前提下,基本可以实现实时缺陷检测。
S7、终端将图像上传到服务器端,服务器端进行检测并将结果发送到终端并显示。
为了进一步说明本发明所提供的火箭弹粘接缺陷检测方法的性能,对本发明所设计的深度卷积生成对抗网络(DCGAN)和改进后YOLOv5的进行训练,并在火箭弹粘接缺陷数据集上进行验证,缺陷类别有Debonding(脱粘)、Cracking(开裂)、Delamination(分层),采用mAP(准确率)、precision(精确率)、Recall(召回率)作为评价指标对上述模型的性能进行评估,得到如表1所示的结果
表1各性能指标检测结果
从表1可以看出,采用生成对抗网络(DCGAN)对数据增强,分类模型的提升效果较为显著,说明使用生成对抗网络(DCGAN)对数据增强能够有效解决数据集图像少且不平衡的问题。此外,相比采用残差结构的YOLOv5,采用稠密结构的YOLOv5的识别效果有一定程度的提高,mAP值增加了2.9%,Precision增加了1%,Recall增加了4.8%。
由于1×1卷积可以减少输入特征图的数量、提高计算效率设计,在推理速度上具有较好的性能。表2给出了不同模型分别在训练平台GPU和CPU的实际耗时对比。
表2耗时对比
模型 | GPU耗时/ms | CPU耗时/ms |
Yolov5s | 42.2 | 102.6 |
本发明 | 36.6 | 82.1 |
从表2可以看出本发明所提供的改进网络的算法推理速度也稍远快于其他模型,在使用GPU加速时推理时间为36.6ms,在仅使用CPU时推理时间为82.1ms,运算速度稍快于改进前模型。综合表1和表2可以看出本发明所提出的轻量级生成对抗网络在保证具有较高检测精度下,推理速度也能够有所提高。
Claims (9)
1.一种基于深度学习的小样本火箭弹粘接缺陷检测方法,其特征在于,包括以下步骤:
S1、对火箭弹粘接缺陷图像进行收集与预处理,得到缺陷数据集;
S2、在步骤S1数据集基础上,设计深度卷积生成对抗网络,再次扩充缺陷数据集;
S3、搭建基于YOLOv5架构的目标检测器模型;
S4、构建缺陷检测模型;
S5、使用多进程和多线程技术部署缺陷检测模型,进行火箭弹粘接缺陷检测。
2.根据权利要求1所述的一种基于深度学习的小样本火箭弹粘接缺陷检测方法,其特征在于,所述步骤S1具体为:
S11、通过终端设备收集火箭弹粘接的缺陷图像;
S12、利用MAKE SENSE工具对步骤S11收集的火箭弹粘接缺陷图像依次进行标注,并将标注的信息记录在txt文件中;
S13、通过非生成式数据增强方法对步骤S12获得的数据集进行数据增强,扩充小样本缺陷图像。
4.根据权利要求1所述的一种基于深度学习的小样本火箭弹粘接缺陷检测方法,其特征在于,所述步骤S3具体为:
S31、搭建YOLOv5s深度学习模型;
S32、使用公开的COCO图像数据集,对YOLOv5s深度学习模型进行预训练并保存YOLOv5s深度学习模型的参数;
S33、对训练好的YOLOv5s深度学习模型的结构进行改造,在YOLOv5s深度学习模型网络的C3模块引入稠密模块;所述稠密模块包括Conv(1×1)+BN+SiLU+Conv(3×3)+BN+SiLU,SiLU作为非线性激活函数,实现网络的非线性化;其中,1×1卷积和3×3卷积可以看作是一个组合,1×1卷积可以减少输入特征图的数量、提高计算效率,3×3卷积层可以提取空间特征;整个模块的输出是将输入和3×3卷积的输出堆叠在一起,然后通过卷积核为1×1的过渡层减少通道数,降低模型复杂度;
S34、为了加强网络特征融合的能力、减少计算量,利用四个卷积核大小不同的最大池化层实现不同尺度的特征融合;
S35、搭建PANet模块通过采样操作实现特征融合,搭建Output模块对图像特征进行预测,生成边界框并预测类别,完成基于YOLOv5架构的目标检测器模型的搭建。
5.根据权利要求4所述的一种基于深度学习的小样本火箭弹粘接缺陷检测方法,其特征在于,所述步骤S4具体为:在步骤S35搭建的基于YOLOv5架构的目标检测器模型中,先加载步骤S32得到的模型参数,再将步骤S2得到的数据集数据导入模型进行训练,得到缺陷检测模型。
6.根据权利要求1所述的一种基于深度学习的小样本火箭弹粘接缺陷检测方法,其特征在于,所述步骤S5包括以下步骤:
S51、在对步骤S4得到的缺陷检测模型进行部署时,在服务器上根据GPU和内存开启多个进程,对每个进程都启动同一个缺陷检测模型;
S52、在服务器接收端建立管道进行进程间通信,同时对每个接收的图像进行编号,通过管道将接收的图像平均分给多个进程进行火箭弹粘接缺陷检测的模型训练;
S53、在服务器返回部分建立管道,用于收集步骤S52中的结果,并对结果根据编号进行排序后返回结果。
7.根据权利要求2所述的一种基于深度学习的小样本火箭弹粘接缺陷检测方法,其特征在于:所述步骤S11中的终端设备为拍摄装置;所述步骤S3中的非生成式数据增强方法包括几何变换、颜色抖动和随机噪声。
9.根据权利要求5所述的一种基于深度学习的小样本火箭弹粘接缺陷检测方法,其特征在于:用步骤S2得到的数据集数据对模型进行训练时,使用的损失函数由定位损失、置信度损失和类别损失3部分构成:整体的损失函数如下:
其中,K表示网络最后输出的特征图划分为K×K个格子;k,s2,B分别为输出特征图、cell和每个cell上anchor的数量;αbox,αcls,αobj为对应项的权重,默认取值为αbox=0.05,αcls=0.3,αobj=0.7;表示第k个输出特征图,第i个cell,第j个anchor box是否是正样本,如果是正样本则为1,反之为0;tp,tgt分别表示预测向量和ground-truth向量;表示用于平衡每个尺度的输出特征图的权重;
定位损失为:
Lbox=(x-x*)2+(y-y*)2+(w-w*)2+(h-h*)2
其中,x,y,w,h分别代表预测框的左上角坐标与框的长宽,x*,y*,w*,h*分别代表真实框的左上角坐标与框的长宽;
置信度损失函数:
分类损失函数为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211203489.3A CN115564950A (zh) | 2022-09-29 | 2022-09-29 | 基于深度学习的小样本火箭弹粘接缺陷检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211203489.3A CN115564950A (zh) | 2022-09-29 | 2022-09-29 | 基于深度学习的小样本火箭弹粘接缺陷检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115564950A true CN115564950A (zh) | 2023-01-03 |
Family
ID=84743134
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211203489.3A Pending CN115564950A (zh) | 2022-09-29 | 2022-09-29 | 基于深度学习的小样本火箭弹粘接缺陷检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115564950A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115953404A (zh) * | 2023-03-14 | 2023-04-11 | 常州微亿智造科技有限公司 | 应用于工业质检的切图方法及装置 |
CN117011263A (zh) * | 2023-08-03 | 2023-11-07 | 东方空间技术(山东)有限公司 | 一种用于火箭子级回收段的缺陷检测方法及装置 |
CN117173461A (zh) * | 2023-08-29 | 2023-12-05 | 湖北盛林生物工程有限公司 | 一种多视觉任务的灌装容器缺陷检测方法、系统及介质 |
CN117237334A (zh) * | 2023-11-09 | 2023-12-15 | 江西联益光学有限公司 | 一种基于深度学习的手机镜头杂光检测方法 |
CN117952983A (zh) * | 2024-03-27 | 2024-04-30 | 中电科大数据研究院有限公司 | 一种基于人工智能的智能制造生产过程监控方法和系统 |
-
2022
- 2022-09-29 CN CN202211203489.3A patent/CN115564950A/zh active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115953404A (zh) * | 2023-03-14 | 2023-04-11 | 常州微亿智造科技有限公司 | 应用于工业质检的切图方法及装置 |
CN117011263A (zh) * | 2023-08-03 | 2023-11-07 | 东方空间技术(山东)有限公司 | 一种用于火箭子级回收段的缺陷检测方法及装置 |
CN117011263B (zh) * | 2023-08-03 | 2024-05-10 | 东方空间技术(山东)有限公司 | 一种用于火箭子级回收段的缺陷检测方法及装置 |
CN117173461A (zh) * | 2023-08-29 | 2023-12-05 | 湖北盛林生物工程有限公司 | 一种多视觉任务的灌装容器缺陷检测方法、系统及介质 |
CN117237334A (zh) * | 2023-11-09 | 2023-12-15 | 江西联益光学有限公司 | 一种基于深度学习的手机镜头杂光检测方法 |
CN117237334B (zh) * | 2023-11-09 | 2024-03-26 | 江西联益光学有限公司 | 一种基于深度学习的手机镜头杂光检测方法 |
CN117952983A (zh) * | 2024-03-27 | 2024-04-30 | 中电科大数据研究院有限公司 | 一种基于人工智能的智能制造生产过程监控方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115564950A (zh) | 基于深度学习的小样本火箭弹粘接缺陷检测方法 | |
CN111178206B (zh) | 一种基于改进yolo的建筑预埋件检测方法及系统 | |
CN110660052B (zh) | 一种基于深度学习的热轧带钢表面缺陷检测方法 | |
CN111126134B (zh) | 基于非指纹信号消除器的雷达辐射源深度学习识别方法 | |
CN113408423B (zh) | 适用于tx2嵌入式平台的水产品目标实时检测方法 | |
CN111507370A (zh) | 获得自动标注图像中检查标签的样本图像的方法和装置 | |
CN112308825B (zh) | 一种基于SqueezeNet的农作物叶片病害识别方法 | |
CN112001110A (zh) | 一种基于振动信号空间时时递归图卷积神经网络的结构损伤识别监测方法 | |
CN111598854B (zh) | 基于丰富鲁棒卷积特征模型的复杂纹理小缺陷的分割方法 | |
CN109508746A (zh) | 基于卷积神经网络的脉冲星候选体识别方法 | |
CN112749761A (zh) | 基于注意力机制和循环神经网络的敌方作战意图识别方法及系统 | |
CN109919246A (zh) | 基于自适应特征聚类和多重损失融合的行人重识别方法 | |
CN117689731B (zh) | 一种基于改进YOLOv5模型的轻量化新能源重卡电池包识别方法 | |
CN113570571A (zh) | 一种工业边缘端动力电池缺陷检测方法及系统 | |
CN117036980A (zh) | 基于高分辨率特征自注意的卫星遥感图像小目标检测方法 | |
CN115311601A (zh) | 一种基于视频分析技术的火灾探测分析方法 | |
CN117079095A (zh) | 基于深度学习的高空抛物检测方法、系统、介质和设备 | |
Wang et al. | Automatic detection of carbon steel corrosion degree based on image identification | |
CN113723553A (zh) | 一种基于选择性密集注意力的违禁物品检测方法 | |
CN113971775A (zh) | 一种基于优化yolov4算法的违章行为识别方法及系统 | |
CN118015247A (zh) | 基于双向多尺度特征增强的轻量级yolo目标检测方法 | |
CN117292313A (zh) | 一种基于改进YOLOv7模型的小目标漂浮垃圾检测方法 | |
CN116433980A (zh) | 脉冲神经网络结构的图像分类方法、装置、设备及介质 | |
CN115616570A (zh) | 基于半监督生成对抗网络的sar目标识别方法 | |
CN115457423A (zh) | 一种结合高效采样增强的火焰烟雾检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |