CN116883409B - 一种基于深度学习的输送带缺陷检测方法及系统 - Google Patents
一种基于深度学习的输送带缺陷检测方法及系统 Download PDFInfo
- Publication number
- CN116883409B CN116883409B CN202311152401.4A CN202311152401A CN116883409B CN 116883409 B CN116883409 B CN 116883409B CN 202311152401 A CN202311152401 A CN 202311152401A CN 116883409 B CN116883409 B CN 116883409B
- Authority
- CN
- China
- Prior art keywords
- feature
- branch
- feature map
- network
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 171
- 238000013135 deep learning Methods 0.000 title claims abstract description 64
- 230000007547 defect Effects 0.000 title claims abstract description 41
- 238000000034 method Methods 0.000 claims abstract description 52
- 238000000605 extraction Methods 0.000 claims abstract description 49
- 230000008569 process Effects 0.000 claims abstract description 32
- 238000012549 training Methods 0.000 claims description 55
- 238000010586 diagram Methods 0.000 claims description 49
- 238000011176 pooling Methods 0.000 claims description 47
- 238000012545 processing Methods 0.000 claims description 18
- 230000002708 enhancing effect Effects 0.000 claims description 16
- 230000004913 activation Effects 0.000 claims description 14
- 238000002372 labelling Methods 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 10
- 230000006872 improvement Effects 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 3
- 238000013136 deep learning model Methods 0.000 abstract 1
- 239000000463 material Substances 0.000 description 7
- 230000009467 reduction Effects 0.000 description 5
- 230000002950 deficient Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000035515 penetration Effects 0.000 description 2
- 230000009901 attention process Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本申请提供一种基于深度学习的输送带缺陷检测方法及系统,涉及图像检测技术领域,该方法包括:获取待检测图像,和包括主干网络、注意力增强网络及检测网络的深度学习网络模型,主干网络可提取待检测图像中的第一特征图,注意力增强网络则增强第一特征图中的特征注意力,并对第一特征图进行特征提取得到第一特征,最后通过检测网络对第一特征进行检测得到第一特征检测结果,若第一特征检测结果大于告警阈值,则生成用于关闭输送带的控制指令。这样设置深度学习模型结构,使模型检测过程中结合注意力增强的方式,将图像中的特征注意力提高,进而提高深度学习网络模型对输送带的检测精准程度,更有利于模型对特征图像中的特征进行提取。
Description
技术领域
本申请涉及图像检测技术领域,尤其涉及一种基于深度学习的输送带缺陷检测方法及系统。
背景技术
输送带是一种用于承载、运送物料的设备,在粮食运输、矿石传送、智慧矿山等领域发挥着重要的作用。随着使用时间的增长,输送带会受到物料影响产生破损,若输送带在发生穿透、撕裂等严重破损后没有及时进行停机操作,可能会造成长距离、大面积的输送带撕裂,造成巨额的经济损失,甚至会危及操作人员的生命安全。
为了能够对输送带进行实时检测,并能在规定时间内判断出输送带中缺陷类型,减少事故发生,会应用视觉检测技术结合深度学习算法来对输送带的完整程度进行检测,但在采用线激光作为辅助光进行检测的视觉检测技术与深度学习算法进行融合过程中,深度学习算法对线激光轮廓的注意力度不足,导致推理难度提升,精度难以满足生产的需要,存在输送带缺陷漏检的问题。
发明内容
本申请提出一种基于深度学习的输送带缺陷检测方法及系统,以解决采用线激光作为辅助光进行检测的视觉检测技术在与深度学习算法进行融合时,对线激光轮廓注意力度不足的问题。
第一方面,本申请提供一种基于深度学习的输送带缺陷检测方法,该方法包括:获取深度学习网络模型和待检测图像;深度学习网络模型包括主干网络、注意力增强网络和检测网络,待检测图像为通过线激光作为辅助光获取的输送带图像;通过主干网络提取待检测图像中的第一特征图,并将第一特征图发送至注意力增强网络;第一特征图包括多个分支特征图;通过注意力增强网络对第一特征图中的多个分支特征图进行提高注意力和特征提取,以得到第一特征;提高注意力包括全局池化、平均池化、卷积和数据的相乘及相加;通过检测网络对第一特征进行检测,以得到第一特征检测结果;若第一特征检测结果大于告警阈值,则生成用于关闭输送带的控制指令。
通过在深度学习网络模型中增加注意力增强网络,使得在通过图像对缺陷进行检测的过程中能够对图像中的特征注意力提高,通过提高特征注意力的方式,提高深度学习网络模型对输送带的检测精准程度,更有利于模型对特征图像中的特征进行提取。
在一种可行的实施方式中,获取深度学习网络模型包括:构建主干网络、注意力增强网络和检测网络;获取训练图像和训练图像对应的标注数据;根据训练图像和对应的标注数据,迭代训练主干网络、注意力增强网络和检测网络,以得到深度学习网络模型。在应用深度学习网络模型进行输送带的缺陷检测前,需要构建并训练一个能够检测输送带缺陷的深度学习网络模型,从而通过该深度学习网络模型对待检测图像进行检测。
在一种可行的实施方式中,根据训练图像和对应的标注数据,迭代训练主干网络、注意力增强网络和检测网络,包括:通过主干网络提取训练图像中的第二特征图;通过注意力增强网络对第二特征图进行特征提取,以得到第二特征;通过检测网络对第二特征进行检测,以得到第二特征检测结果;根据第二特征检测结果、标注数据和损失函数,计算第二特征检测结果的损失值;若损失值未收敛,则通过反向传播算法对主干网络、注意力增强网络和检测网络进行参数调节;若损失值收敛,则将训练后主干网络、注意力增强网络和检测网络确定为深度学习网络模型。通过使训练图像在主干网络、注意力增强网络和检测网络中先后进行处理,得到第二特征检测结果,再对第二特征检测结果进行损失值的计算,从而根据损失值对主干网络、注意力增强网络和检测网络进行参数调节,以得到损失值符合检测要求的深度学习网络模型。
在一种可行的实施方式中,通过主干网络提取待检测图像中的第一特征图,并将第一特征图发送至注意力增强网络,包括:对待检测图像进行特征图提取处理以得到第一分支特征图,留存第一分支特征图;特征图提取处理包括卷积、激活操作;对第一分支特征图依次进行最大池化和特征图提取处理以得到第二分支特征图,留存第二分支特征图;对第二分支特征图进行特征图提取处理以得到第三分支特征图,留存第三分支特征图;对第三分支特征图依次进行最大池化和特征图提取处理以得到第四分支特征图,留存第四分支特征图;将第四分支特征图、第三分支特征图、第二分支特征图及第一分支特征图确定为第一特征图,并分别发送至注意力增强网络。通过对待检测图像依次进行卷积、激活、最大池化等操作,并根据不同步骤执行次数的差异,获取四个分支特征图,并将四个分支特征图确定为第一特征图,以进行后续的注意力增强过程,通过对图像进行多次特征图提取过程,从而使深度学习网络模型能够更好地对特征进行提取,提高模型训练和输送带检测的效率。
在一种可行的实施方式中,通过注意力增强网络对第一特征图中的多个分支特征图进行提高注意力和特征提取,以得到第一特征,包括:接收第四分支特征图,并对第四分支特征图执行提高注意力操作;对第四分支特征图进行特征提取,以得到第一分支特征;特征提取包括卷积、批归一化、激活和上采样操作;将第一分支特征与第三分支特征图进行连接;对连接后的第三分支特征图进行提高注意力和特征提取,以获取第二分支特征;将第二分支特征与第二分支特征图进行连接;对连接后的第二分支特征图进行提高注意力和特征提取,以获取第三分支特征;将第三分支特征与第一分支特征图进行连接;将第一分支特征、第二分支特征、第三分支特征和连接后的第一分支特征图确定为第一特征,并发送至检测网络。这样可分别对多个分支特征图进行提高注意力和特征提取操作,从而分别获取每个分支特征图对应的分支特征,从而对图像中的特征进行更加精细的提取。
在一种可行的实施方式中,对第四分支特征图执行提高注意力操作,包括:对第四分支特征图进行最大池化和平均池化操作,以得到扩充特征图;根据扩充特征图的行列数据,对扩充特征图进行卷积,以获取分别对应于行数据和列数据的第一扩充特征和第二扩充特征;将扩充特征图与第一扩充特征、第二扩充特征对应位置的数据分别相乘,以获取第一扩充特征图和第二扩充特征图;将第一扩充特征图和第二扩充特征图对应位置的数据相加,以获取第三扩充特征图;将第三扩充特征图和第四分支特征图对应位置的数据相乘,以得到提高特征注意力后的第四分支特征图。在提高分支特征图的注意力时,通过注意力增强算法,对分支特征图进行最大池化和平均池化操作,并进行卷积得到分支特征图的行列特征,进而进行扩充、相加、相乘等操作,放大特征位置,提高对特征位置的注意力,进而提高检测效率。
在一种可行的实施方式中,通过检测网络对第一特征进行检测,以得到第一特征检测结果,包括:对第一分支特征图进行下采样操作,并与第三分支特征连接并卷积,以获取第一检测特征;将第一检测特征与第二扩充特征连接并卷积,以获取第二检测特征;将第二检测特征与第一扩充特征连接并卷积,以获取第三检测特征;根据第一检测特征、第二检测特征和第三检测特征,获取第一特征检测结果。这样可对分支特征中的特征进行分析,以得到不同分支特征对应的输送带的状态信息,进而得到特征检测结果,实现对图像的检测。
在一种可行的实施方式中,平均池化的公式为:
;
其中,GAP代表平均池化后的结果,H为扩充特征图的行数据,W为扩充特征图的列数据,i为池化时水平方向的步长,j为池化时垂直方向的步长,为平均池化过程。
在一种可行的实施方式中,损失函数包括置信度损失、分类损失和定位损失;损失函数公式为:
;
其中为置信度损失,/>为分类损失,/>为定位损失。
第二方面,本申请还提供一种基于深度学习的输送带缺陷检测系统,该系统适用于前述任一种基于深度学习的输送带缺陷检测方法,检测系统包括:输送带,输送带沿预设轨道运行;辅助光源,设置在输送带下方,以向输送带发射线激光作为辅助光,并在输送带上形成激光痕迹;视觉采集装置,被配置为获取输送带上的激光痕迹以作为待检测图像;处理器,被配置为执行如前述中任一种基于深度学习的输送带缺陷检测方法;控制器,被配置为根据控制指令,控制输送带的运行状态。通过系统中的设置,使得处理器能够接收视觉采集装置采集到的输送带图像,从而对图像进行检测以获取输送带的状态,实现在输送带出现缺陷时及时检测到并停止缺陷输送带的运行。
由以上方案可知,本申请提供一种基于深度学习的输送带缺陷检测方法及系统,该方法包括获取深度学习网络模型和待检测图像,深度学习网络模型包括主干网络、注意力增强网络和检测网络,待检测图像为通过线激光作为辅助光获取的输送带图像。通过模型中的主干网络提取待检测图像中的第一特征图,并将第一特征图发送至注意力增强网络,再通过注意力增强网络对第一特征图进行特征提取,以得到第一特征,最后通过检测网络对第一特征进行检测,以得到第一特征检测结果,若第一特征检测结果大于告警阈值,则生成用于关闭输送带的控制指令。这样设置模型结构,使模型检测过程中结合注意力提高的方式,将图像中的特征注意力提高,进而提高深度学习网络模型对输送带的检测精准程度,更有利于模型对特征图像中的特征进行提取。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例中一种基于深度学习的输送带缺陷检测方法的流程示意图;
图2为本申请实施例中一种获取深度学习网络模型的流程示意图;
图3为本申请实施例中一种主干网络图像处理方法的流程示意图;
图4为本申请实施例中一种注意力增强网络图像处理方法的流程示意图;
图5为本申请实施例中一种注意力增强机制的示意图;
图6为本申请实施例中一种注意力增强机制的流程示意图;
图7为本申请实施例中一种检测网络运行的流程示意图;
图8为本申请实施例中一种深度学习网络模型的训练流程示意图;
图9为本申请实施例中一种基于深度学习的输送带缺陷检测系统的示意图。
具体实施方式
下面将结合实施例对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个所述特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
输送带是一种能够承载、运送物料的装置,在输送带的使用过程中,会出现物料重量较大或物料具有棱角等情况,因此在长时间运行过程中,物料会对输送带造成损伤,导致输送带存在缺陷。应当理解的是,一些较为细小的缺陷,例如深度较浅的划痕、凹坑等并不影响输送带的正常运行,但诸如孔洞、撕裂等损伤会影响输送带的整体强度以及输送物料的能力。在出现孔洞、撕裂等损伤时,若输送带未及时停止运行,可能会造成长距离、大面积的输送带撕裂,造成巨额的经济损失,甚至会危及操作人员的生命安全。
为了能够对输送带进行实时检测,并能在规定时间内判断出输送带中缺陷类型,减少事故发生,同时提升对输送带的检测效率,本申请提供一种基于深度学习的输送带缺陷检测方法,如图1所示,该方法包括:
S100:获取深度学习网络模型和待检测图像。
其中,深度学习网络模型包括主干网络、注意力增强网络和检测网络,待检测图像为通过线激光作为辅助光获取的输送带图像。应当理解的是,为了提高深度学习网络模型对待检测图像的检测准确性,获取到的深度学习网络模型应是通过训练图像进行训练后,损失值降至预设范围内的主干网络、注意力增强网络和检测网络共同构建。而待检测图像可通过在输送带中设置摄像头、照相机等视觉采集设备,对线激光照射后带有激光痕迹的输送带进行图像采集,从而得到待检测图像。
因此如图2所示,获取深度学习网络模型的过程可包括:
S110:构建主干网络、注意力增强网络和检测网络。
依次构建主干网络、注意力增强网络和检测网络,其中,主干网络用于为将图像进行降维拆分,以生成多个特征图进行注意力提高及后续的检测;注意力增强网络则通过提高特征注意力的方式,便于对特征图中的特征进行提取,同时减少特征未被发现的概率,提高检测准确性;而检测网络则是通过从图像中得到的特征,判断输送带的状态,在模型训练过程中,检测网络还可用于在检测得到输送带的状态信息后,计算得到的输送带状态信息与训练图像对应的标注数据间的损失值,并通过损失值来判断模型的训练程度。
S120:获取训练图像和训练图像对应的标注数据。
在本申请实施例中,训练图像与待检测图像相同,均为通过线激光作为辅助光获取的输送带图像,因此训练图像上同样具有激光痕迹。而与待检测图像不同的是,为了达到模型训练的目的,训练图像中还包括其对应的标注数据,从而在模型对训练图像进行检测后,比对检测结果与输送带状态间的差异来获取损失值,以得到具有良好性能的深度学习网络模型。应当理解的是,训练图像的标记数据即是训练图像中的激光痕迹所展示出的输送带的状态信息。
在本申请部分实施例中,可通过数字方式对输送带的状态信息和标注数据进行体现,若输送带处于完好状态数值则为0,输送带处于断裂状态则为1,其他缺陷根据程度不同,取0至1间的数值,例如深度较浅的凹坑可为0.1,划痕可为0.2-0.5,穿孔可为0.5-0.7,撕裂则可为0.7-0.9。需要说明的是,前述输送带的状态信息和标注数据的表达方法及数值仅为一种示例,本申请中不限制对输送带状态信息和标注数据的表达方式。
S130:根据训练图像和对应的标注数据,迭代训练主干网络、注意力增强网络和检测网络,以得到深度学习网络模型。
在得到训练图像和其对应的标注数据后,则可将训练图像输入至主干网络中,并通过训练图像对主干网络、注意力增强网络和检测网络进行训练。示例性的,训练图像在主干网络、注意力增强网络和检测网络中依次流转后得到一个训练结果,将训练结果与训练图像对应的标注数据进行对比,根据两者间的差异计算损失值,当损失值满足预设条件,即损失值收敛时,即可确定模型训练完毕。
应当理解的是,为了实现迭代训练,训练图像可为多个,同时每个训练图像对应一个输送带状态,进而通过多次训练,完善主干网络、注意力增强网络和检测网络,得到检测准确率较高的深度学习网络模型,进而可在输送带运行过程中进行实际检测。
S200:通过主干网络提取待检测图像中的第一特征图,并将第一特征图发送至注意力增强网络。
在得到训练完成后的深度学习网络模型后,即可通过模型对输送带的状态进行检测。具体的,可将待检测图像发送至主干网络中,从而通过主干网络提取待检测图像中的第一特征图。而后可将第一特征图发送至注意力增强网络中。
在部分实施例中,为了提高特征提取的准确性,可通过多次拆分待检测图像,进而获取多个分支特征图,一同作为第一特征图,因此第一特征图中可包括多个分支特征图。示例性的,当主干网络接收到224×224×64的图像后,可通过卷积、激活及最大池化操作,将图像依次拆分为112×112×128、56×56×256、28×28×512以及14×14×512的四个分支特征图,并对分支特征图进行留存,进而将不同的分支特征图依次发送至注意力增强网络中。
示例性的,如图3所示,提取第一特征图的过程可包括:
S210:对待检测图像进行特征图提取处理以得到第一分支特征图,留存第一分支特征图。
其中,特征图提取处理包括卷积、激活操作,即通过对待检测图像进行卷积、激活操作,从而将图像进行降维、拆分操作,从而得到第一分支特征图。
以主干网络接收到的待检测图像大小为224×224×64的图像为例,首先对图像进行卷积和激活操作,将图像降至112×112×128大小,从而得到第一分支特征图,并进行留存,以便于后续发送至注意力增强网络中。
S220:对第一分支特征图依次进行最大池化和特征图提取处理以得到第二分支特征图,留存第二分支特征图。
在生成第一分支特征图后,对第一分支特征图依次进行最大池化和卷积、激活操作,从而在第一分支特征图的基础上继续降维。示例性的,当第一分支特征图为112×112×128大小的图像时,步骤S220可将图像降至56×56×256大小,从而得到第二分支特征图并进行留存。
S230:对第二分支特征图进行特征图提取处理以得到第三分支特征图,留存第三分支特征图。
在生成第二分支特征图后,对第二分支特征图依次进行卷积、激活操作,从而在第二分支特征图的基础上继续降维。示例性的,当第二分支特征图为56×56×256大小的图像时,步骤S230可将图像降至28×28×512大小,从而得到第三分支特征图并进行留存。
S240:对第三分支特征图依次进行最大池化和特征图提取处理以得到第四分支特征图,留存第四分支特征图。
在生成第三分支特征图后,对第三分支特征图依次进行最大池化和卷积、激活操作,从而在第三分支特征图的基础上继续降维。示例性的,当第三分支特征图为28×28×512大小的图像时,步骤S240可将图像降至14×14×512大小,从而得到第四分支特征图并进行留存。
需要说明的是,步骤S210至S240的过程为线性过程,即仅有前一步骤执行并生成结果后,后一步骤才会执行。
S250:将第四分支特征图、第三分支特征图、第二分支特征图及第一分支特征图确定为第一特征图,并分别发送至注意力增强网络。
在得到第四分支特征图后,则可将第四分支特征图、第三分支特征图、第二分支特征图及第一分支特征图确定为第一特征图,并分别发送至注意力增强网络中,进行后续的注意力增强处理。
这样可通过对待检测图像依次进行卷积、激活、最大池化等操作,并根据不同步骤执行次数的差异,获取四个分支特征图,并将四个分支特征图确定为第一特征图,以进行后续的注意力增强过程,通过对图像进行多次特征图提取过程,从而使深度学习网络模型能够更好地对特征进行提取,提高模型训练和输送带检测的效率。
S300:通过注意力增强网络对第一特征图中的多个分支特征图进行提高注意力和特征提取,以得到第一特征。
在得到第一特征图后,则可通过注意力增强网络进行注意力提升和特征提取操作,其中注意力提升过程能够将特征图中的特征进行突出,从而便于进行特征提取,提高特征提取的效率。
示例性的,当主干网络将图像拆分为前述中四个分支特征图后,注意力增强网络可按分支特征图的生成顺序,由新至旧依次进行注意力提升、特征提取和特征连接操作,当分支特征图的数量为4时,注意力提升、特征提取和特征连接操作操作共进行三轮,以分别得到大小为56×56×256、28×28×512以及14×14×512的分支特征图对应的分支特征,并将56×56×256的分支特征图对应的分支特征与112×112×128的分支特征图进行连接,从而得到第一特征。
如图4所示,在本申请部分实施例中,通过注意力增强网络对第一特征图中的多个分支特征图进行提高注意力和特征提取,以得到第一特征的过程可包括:
S310:接收第四分支特征图,并对第四分支特征图执行提高注意力操作。
应当理解的是,特征注意力提升的过程是将特征图中对应特征内容放大的过程,示例性的,提高注意力可包括全局池化、平均池化、卷积和数据的相乘及相加步骤。具体的,如图5所示,在得到分支特征图后,通过全局最大池化初步提升特征图中的纹理特征,减少图像中无用信息的影响。然后做全局平均池化保留背景信息,提取背景中激光线边缘信息中隐藏信息,将平均池化与最大池化的结果对应位置相加输出为H×W×1的特征图A,其中H为行数据,W为列数据。在得到特征图A后可通过行互相关卷积,将特征图A中每一列中的信息压缩,形成一个1×W×1的列特征,同理还可通过列互相关卷积,将特征图A中每一行中的信息压缩,形成一个H×1×1的行特征。
得到行特征和列特征后,分别与特征图A对应的行、列相乘得到带有行、列位置信息的H×W×1的特征图B和特征图C,其中列特征对应特征图B,行特征对应特征图C。最后将特征图B与特征图C对应像素点相加得到含激光线位置信息的特征图,再与输入的特征图相乘后输出,从而便于后续步骤在提高注意力后的分支特征图中提取特征。
示例性的,进行列互相关卷积的过程可包括:将输入的H×W×1特征图A,通过H×1的卷积核,按步长为1,padding为1进行卷积操作,以此将每列特征的信息值压缩为一个数值,该数值代表本列像素中存在有激光线条信息的概率指数。其中,padding为填充像素点层数,即在特征图A的外围增加一层像素点,从而使行列数值变为(H+2)×(W+2)。同时在此基础上,将卷积核替换为W×1,即为行互相关卷积的过程。
示例性的,如图5和图6所示,对第四分支特征图执行提高注意力操作的过程可包括:
S311:对第四分支特征图进行最大池化和平均池化操作,以得到扩充特征图。
在接收到第四分支特征图后,即可对第四分支特征图进行最大池化和平均池化操作,从而得到对应于图5中特征图A的扩充特征图。扩充特征图能够在增加图像中的纹理特征的基础上,减少图像中的无用信息,提高特征提取效率。
在本申请部分实施例中,平均池化的公式可为:
;
其中,GAP代表平均池化后的结果,H为扩充特征图的行数据,W为扩充特征图的列数据,i为池化时水平方向的步长,j为池化时垂直方向的步长,为平均池化过程。
S312:根据扩充特征图的行列数据,对扩充特征图进行卷积,以获取分别对应于行数据和列数据的第一扩充特征和第二扩充特征。
而后对扩充特征图进行行互相关卷积和列互相关卷积,以分别获取对应于列数据的第一扩充特征和对应于行数据的第二扩充特征。
S313:将扩充特征图与第一扩充特征、第二扩充特征对应位置的数据分别相乘,以获取第一扩充特征图和第二扩充特征图。
将第一扩充特征和扩充特征图对应位置的数据相乘,从而得到第一扩充特征图,将第二扩充特征和扩充特征图对应位置的数据相乘,从而得到第二扩充特征图。示例性的,第一扩充特征图对应于图5中的特征图B,第二扩充特征图对应于图5中的特征图C。
S314:将第一扩充特征图和第二扩充特征图对应位置的数据相加,以获取第三扩充特征图。
S315:将第三扩充特征图和第四分支特征图对应位置的数据相乘,以得到提高特征注意力后的第四分支特征图。
在提高分支特征图的注意力时,通过注意力增强算法,对分支特征图进行最大池化和平均池化操作,并进行卷积得到分支特征图的行列特征,进而进行扩充、相加、相乘等操作,放大特征位置,提高对特征位置的注意力,进而提高检测效率。
应当理解的是,对其他分支特征图进行注意力提高的过程与提高第四分支特征图的特征注意力的过程相同,因此本申请中对于提高其他分支特征图的注意力过程不再赘述。
S320:对第四分支特征图进行特征提取,以得到第一分支特征。
其中,特征提取包括卷积、批归一化、激活和上采样操作,通过对提升特征注意力后的第四分支特征图进行特征提取,即可得到第一分支特征。
S330:将第一分支特征与第三分支特征图进行连接。
在得到第一分支特征后,可将第一分支特征与第三分支特征图进行连接,便于后续再次进行注意力提升和特征提取。
S340:对连接后的第三分支特征图进行提高注意力和特征提取,以获取第二分支特征。
S350:将第二分支特征与第二分支特征图进行连接。
S360:对连接后的第二分支特征图进行提高注意力和特征提取,以获取第三分支特征。
S370:将第三分支特征与第一分支特征图进行连接。
应当理解的是,步骤S340至步骤S370的实现过程与步骤S310至步骤S330相同,仅存在处理顺序及处理数据存在区别,本申请在此不做赘述。
S380:将第一分支特征、第二分支特征、第三分支特征和连接后的第一分支特征图确定为第一特征,并发送至检测网络。
需要说明的是,步骤S310至步骤S380的执行顺序也为线性过程,即在前一步骤执行并生成结果后,后一步骤才会执行。这样可分别对多个分支特征图进行提高注意力和特征提取操作,从而分别获取每个分支特征图对应的分支特征,从而对图像中的特征进行更加精细的提取。
这样在深度学习网络模型中增加注意力增强网络,可使在通过图像对缺陷进行检测的过程中能够对图像中的特征注意力提高,通过提高特征注意力的方式,提高深度学习网络模型对输送带的检测精准程度,更有利于模型对特征图像中的特征进行提取。
S400:通过检测网络对第一特征进行检测,以得到第一特征检测结果。
检测网络在接收到提取到的特征信息后,即可通过特征信息,判断输送带的状态,从而得到第一特征检测结果。
在本申请部分实施例中,如图7所示,得到第一特征检测结果的过程可包括:
S410:对第一分支特征图进行下采样操作,并与第三分支特征连接并卷积,以获取第一检测特征。
在部分实施例中,本步骤中接收到的第一分支特征图是由第三分支特征与第一分支特征图连接后得到的,在进行推理运算时,需要先将接收到的第一分支特征图进行下采样操作,并再次与第三分支特征进行连接与卷积,从而获取第一检测特征。
S420:将第一检测特征与第二扩充特征连接并卷积,以获取第二检测特征。
在得到第一检测特征后,可将第一检测特征与第二扩充特征连接并卷积,从而得到第二检测特征。
S430:将第二检测特征与第一扩充特征连接并卷积,以获取第三检测特征。
在得到第二检测特征后,可将第二检测特征与第三扩充特征连接并卷积,从而得到第三检测特征。
S440:根据第一检测特征、第二检测特征和第三检测特征,获取第一特征检测结果。
这样可对分支特征图中的特征进行分析,以得到不同分支特征对应的输送带状态,进而通过计算得到特征检测结果,实现对图像的检测。
S500:若第一特征检测结果大于告警阈值,则生成用于关闭输送带的控制指令。
在得到第一特征检测结果后,则可根据检测到的结果,生成控制指令。示例性的,可通过对缺陷进行分级的方式,来确定告警阈值,例如将凹坑确定为1级缺陷,划痕确定为2级缺陷,穿透确定为3级缺陷,撕裂确定为4级缺陷,告警阈值可为2级缺陷,当检测到的缺陷大于2级,即可生成关闭输送带的控制指令,以便于进行维护,减少危险的发生。
需要说明的是,输送带中存在的缺陷还可包括其他种类,且上述方式仅为一种实施方式,在其他实施方式中还可通过对不同缺陷赋值的方式,进行告警阈值的确定,本申请中在此不做赘述。
若第一特征检测结果小于告警阈值,则说明输送带没有较大缺陷,可以正常运行,此时可继续采集输送带图像进行检测,从而实现对输送带状态的持续检测。
示例性的,如图8所示,对主干网络、注意力增强网络和检测网络的训练过程可包括如下步骤:
S131:通过主干网络提取训练图像中的第二特征图。
S132:通过注意力增强网络对第二特征图进行特征提取,以得到第二特征。
S133:通过检测网络对第二特征进行检测,以得到第二特征检测结果。
应当理解的是,主干网络、注意力增强网络和检测网络的运行步骤仅与模型的具体结构有关,由于训练过程中仅对模型中的参数进行调整,并不会改变模型的结构,因此主干网络、注意力增强网络和检测网络的运行步骤与S200至S400中相同,所以本申请对训练过程中,主干网络、注意力增强网络和检测网络的运行步骤不做赘述。
S134:根据第二特征检测结果、标注数据和损失函数,计算第二特征检测结果的损失值。
在得到对应于训练图像的第二特征检测,对应于训练图像的标注数据和损失函数后,即可计算第二特征检测结果与标注数据间的损失值。
损失函数包括置信度损失、分类损失和定位损失。损失函数公式为:
;
其中,为置信度损失,/>为分类损失,/>为定位损失。分类损失用于判断模型是否能够准确地识别出图像中的特征对象,并将其分类到正确的类别中,置信度损失用于衡量模型的预测结果与真实结果间的差异,定位损失则用于计算模型预测时边界框与真实的边界框间的距离,从而便于检测时定位对象。
S135:若损失值未收敛,则通过反向传播算法对主干网络、注意力增强网络和检测网络进行参数调节。
当损失值未收敛,则说明模型仍有可训练的余地,此时可通过反向传播算法对主干网络、注意力增强网络和检测网络进行参数调节,从而使模型检测得到的结果更加接近真实结果。
S135’:若损失值收敛,则将训练后主干网络、注意力增强网络和检测网络确定为深度学习网络模型。
当损失值收敛至某个值,此时对模型训练所产生的增益效果较小甚至会降低模型的检测准确度。因此在损失值收敛后,则可将训练后主干网络、注意力增强网络和检测网络确定为深度学习网络模型。
这样使训练图像在主干网络、注意力增强网络和检测网络中先后进行处理,得到第二特征检测结果,再对第二特征检测结果进行损失值的计算,从而根据损失值对主干网络、注意力增强网络和检测网络进行参数调节,从而实现对主干网络、注意力增强网络和检测网络的训练,以得到损失值符合检测要求的深度学习网络模型。
在上述基于深度学习的输送带缺陷检测方法的基础上,如图9所示,本申请还提供一种基于深度学习的输送带缺陷检测系统10,该系统适用于前述任一种基于深度学习的输送带缺陷检测方法,检测系统10包括:
输送带11,输送带11沿预设轨道运行。
辅助光源12,设置在输送带11下方,以向输送带11发射线激光作为辅助光,并在输送带11上形成激光痕迹。
视觉采集装置13,被配置为获取输送带11上的激光痕迹以作为待检测图像。
处理器14,被配置为执行如前述中任一种基于深度学习的输送带缺陷检测方法。
控制器15,被配置为根据控制指令,控制输送带11的运行状态。
通过系统中的设置,使得处理器14能够接收视觉采集装置13采集到的输送带图像,从而对图像进行检测以获取输送带11的状态,实现在输送带11出现缺陷时及时检测到并停止缺陷输送带的运行。
由以上方案可知,本申请提供一种基于深度学习的输送带缺陷检测方法及系统,该方法包括获取深度学习网络模型和待检测图像,深度学习网络模型包括主干网络、注意力增强网络和检测网络,待检测图像为通过线激光作为辅助光获取的输送带图像。通过模型中的主干网络提取待检测图像中的第一特征图,并将第一特征图发送至注意力增强网络,再通过注意力增强网络对第一特征图进行特征提取,以得到第一特征,最后通过检测网络对第一特征进行检测,以得到第一特征检测结果,若第一特征检测结果大于告警阈值,则生成用于关闭输送带的控制指令。这样设置模型结构,使模型检测过程中结合注意力提高的方式,将图像中的特征注意力提高,进而提高深度学习网络模型对输送带的检测精准程度,更有利于模型对特征图像中的特征进行提取。
容易理解的是,本领域技术人员在本申请提供的几个实施例的基础上,可以对本申请的实施例进行结合、拆分、重组等得到其他实施例,这些实施例均没有超出本申请的保护范围。
以上的具体实施方式,对本申请实施例的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上仅为本申请实施例的具体实施方式而已,并不用于限定本申请实施例的保护范围,凡在本申请实施例的技术方案的基础之上,所做的任何修改、等同替换、改进等,均应包括在本申请实施例的保护范围之内。
Claims (8)
1.一种基于深度学习的输送带缺陷检测方法,其特征在于,所述方法包括:
获取深度学习网络模型和待检测图像;所述深度学习网络模型包括主干网络、注意力增强网络和检测网络,所述待检测图像为通过线激光作为辅助光获取的输送带图像;
通过所述主干网络提取所述待检测图像中的第一特征图,并将所述第一特征图发送至所述注意力增强网络;所述第一特征图包括多个分支特征图;
通过所述注意力增强网络对所述第一特征图中的所述多个分支特征图进行提高注意力和特征提取,以得到第一特征;所述提高注意力包括全局池化、平均池化、卷积和数据的相乘及相加;
通过所述检测网络对所述第一特征进行检测,以得到第一特征检测结果;
若所述第一特征检测结果大于告警阈值,则生成用于关闭输送带的控制指令;
其中,所述通过所述主干网络提取所述待检测图像中的第一特征图,并将所述第一特征图发送至所述注意力增强网络,包括:
对所述待检测图像进行特征图提取处理以得到第一分支特征图,留存所述第一分支特征图;所述特征图提取处理包括卷积、激活操作;
对所述第一分支特征图依次进行最大池化和所述特征图提取处理以得到第二分支特征图,留存所述第二分支特征图;
对所述第二分支特征图进行所述特征图提取处理以得到第三分支特征图,留存所述第三分支特征图;
对所述第三分支特征图依次进行最大池化和所述特征图提取处理以得到第四分支特征图,留存所述第四分支特征图;
将所述第四分支特征图、所述第三分支特征图、所述第二分支特征图及所述第一分支特征图确定为所述第一特征图,并分别发送至所述注意力增强网络;
所述通过所述注意力增强网络对所述第一特征图中的所述多个分支特征图进行提高注意力和特征提取,以得到第一特征,包括:
接收所述第四分支特征图,并对所述第四分支特征图的执行所述提高注意力操作;
对所述第四分支特征图进行所述特征提取,以得到第一分支特征;所述特征提取包括卷积、批归一化、激活和上采样操作;
将所述第一分支特征与所述第三分支特征图进行连接;
对连接后的所述第三分支特征图进行所述提高注意力和所述特征提取,以获取第二分支特征;
将所述第二分支特征与所述第二分支特征图进行连接;
对连接后的所述第二分支特征图进行所述提高注意力和所述特征提取,以获取第三分支特征;
将所述第三分支特征与所述第一分支特征图进行连接;
将所述第一分支特征、所述第二分支特征、所述第三分支特征和连接后的所述第一分支特征图确定为第一特征,并发送至所述检测网络。
2.根据权利要求1所述的方法,其特征在于,所述获取深度学习网络模型包括:
构建所述主干网络、所述注意力增强网络和所述检测网络;
获取训练图像和所述训练图像对应的标注数据;
根据所述训练图像和对应的所述标注数据,迭代训练所述主干网络、所述注意力增强网络和所述检测网络,以得到所述深度学习网络模型。
3.根据权利要求2所述的方法,其特征在于,所述根据所述训练图像和对应的所述标注数据,迭代训练所述主干网络、所述注意力增强网络和所述检测网络,包括:
通过所述主干网络提取所述训练图像中的第二特征图;
通过所述注意力增强网络对所述第二特征图进行特征提取,以得到第二特征;
通过所述检测网络对所述第二特征进行检测,以得到第二特征检测结果;
根据所述第二特征检测结果、所述标注数据和损失函数,计算所述第二特征检测结果的损失值;
若损失值未收敛,则通过反向传播算法对所述主干网络、所述注意力增强网络和所述检测网络进行参数调节;
若损失值收敛,则将训练后所述主干网络、所述注意力增强网络和所述检测网络确定为所述深度学习网络模型。
4.根据权利要求1所述的方法,其特征在于,所述对所述第四分支特征图的执行所述提高注意力操作,包括:
对所述第四分支特征图进行最大池化和平均池化操作,以得到扩充特征图;
根据所述扩充特征图的行列数据,对所述扩充特征图进行卷积,以获取分别对应于行数据和列数据的第一扩充特征和第二扩充特征;
将所述扩充特征图与所述第一扩充特征、所述第二扩充特征对应位置的数据分别相乘,以获取第一扩充特征图和第二扩充特征图;
将所述第一扩充特征图和所述第二扩充特征图对应位置的数据相加,以获取第三扩充特征图;
将所述第三扩充特征图和所述第四分支特征图对应位置的数据相乘,以得到提高特征注意力后的所述第四分支特征图。
5.根据权利要求4所述的方法,其特征在于,所述通过所述检测网络对所述第一特征进行检测,以得到第一特征检测结果,包括:
对所述第一分支特征图进行下采样操作,并与所述第三分支特征连接并卷积,以获取第一检测特征;
将所述第一检测特征与所述第二扩充特征连接并卷积,以获取第二检测特征;
将所述第二检测特征与所述第一扩充特征连接并卷积,以获取第三检测特征;
根据所述第一检测特征、所述第二检测特征和所述第三检测特征,获取所述第一特征检测结果。
6.根据权利要求4所述的方法,其特征在于,所述平均池化的公式为:
;
其中,GAP代表平均池化后的结果,H为所述扩充特征图的行数据,W为所述扩充特征图的列数据,i为池化时水平方向的步长,j为池化时垂直方向的步长,为平均池化过程。
7.根据权利要求3所述的方法,其特征在于,所述损失函数包括置信度损失、分类损失和定位损失;所述损失函数公式为:
;
其中为置信度损失,/>为分类损失,/>为定位损失。
8.一种基于深度学习的输送带缺陷检测系统,其特征在于,所述系统适用于权利要求1至7中任一种基于深度学习的输送带缺陷检测方法,所述检测系统包括:
输送带,所述输送带沿预设轨道运行;
辅助光源,设置在所述输送带下方,以向所述输送带发射线激光作为辅助光,并在所述输送带上形成激光痕迹;
视觉采集装置,被配置为获取所述输送带上的所述激光痕迹以作为所述待检测图像;
处理器,被配置为执行如权利要求1至7中所述的任一种基于深度学习的输送带缺陷检测方法;
控制器,被配置为根据所述控制指令,控制所述输送带的运行状态。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311152401.4A CN116883409B (zh) | 2023-09-08 | 2023-09-08 | 一种基于深度学习的输送带缺陷检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311152401.4A CN116883409B (zh) | 2023-09-08 | 2023-09-08 | 一种基于深度学习的输送带缺陷检测方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116883409A CN116883409A (zh) | 2023-10-13 |
CN116883409B true CN116883409B (zh) | 2023-11-24 |
Family
ID=88259120
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311152401.4A Active CN116883409B (zh) | 2023-09-08 | 2023-09-08 | 一种基于深度学习的输送带缺陷检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116883409B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113516651A (zh) * | 2021-07-30 | 2021-10-19 | 深圳康微视觉技术有限公司 | 基于残差网络的焊接接头缺陷检测方法及装置 |
CN114898200A (zh) * | 2022-05-25 | 2022-08-12 | 西安建筑科技大学 | 一种基于轻量化YOLOV4-tiny的传送带工件图像目标检测方法及系统 |
CN114926733A (zh) * | 2022-05-13 | 2022-08-19 | 太原理工大学 | 一种改进区域卷积神经网络的传送带撕裂检测方法 |
EP4080414A1 (en) * | 2021-04-23 | 2022-10-26 | Samsung Display Co., Ltd. | Systems and methods for identifying manufacturing defects |
WO2022252348A1 (zh) * | 2021-06-01 | 2022-12-08 | 浙江工商大学 | 基于旋转目标和改进注意力机制的薄膜划痕瑕疵检测方法 |
WO2023019636A1 (zh) * | 2021-08-18 | 2023-02-23 | 浙江工商大学 | 一种基于深度学习网络的瑕疵点识别方法 |
CN115993365A (zh) * | 2023-03-23 | 2023-04-21 | 山东省科学院激光研究所 | 一种基于深度学习的皮带缺陷检测方法及系统 |
WO2023096908A1 (en) * | 2021-11-23 | 2023-06-01 | Trustees Of Tufts College | Detection and identification of defects using artificial intelligence analysis of multi-dimensional information data |
-
2023
- 2023-09-08 CN CN202311152401.4A patent/CN116883409B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4080414A1 (en) * | 2021-04-23 | 2022-10-26 | Samsung Display Co., Ltd. | Systems and methods for identifying manufacturing defects |
WO2022252348A1 (zh) * | 2021-06-01 | 2022-12-08 | 浙江工商大学 | 基于旋转目标和改进注意力机制的薄膜划痕瑕疵检测方法 |
CN113516651A (zh) * | 2021-07-30 | 2021-10-19 | 深圳康微视觉技术有限公司 | 基于残差网络的焊接接头缺陷检测方法及装置 |
WO2023019636A1 (zh) * | 2021-08-18 | 2023-02-23 | 浙江工商大学 | 一种基于深度学习网络的瑕疵点识别方法 |
WO2023096908A1 (en) * | 2021-11-23 | 2023-06-01 | Trustees Of Tufts College | Detection and identification of defects using artificial intelligence analysis of multi-dimensional information data |
CN114926733A (zh) * | 2022-05-13 | 2022-08-19 | 太原理工大学 | 一种改进区域卷积神经网络的传送带撕裂检测方法 |
CN114898200A (zh) * | 2022-05-25 | 2022-08-12 | 西安建筑科技大学 | 一种基于轻量化YOLOV4-tiny的传送带工件图像目标检测方法及系统 |
CN115993365A (zh) * | 2023-03-23 | 2023-04-21 | 山东省科学院激光研究所 | 一种基于深度学习的皮带缺陷检测方法及系统 |
Non-Patent Citations (4)
Title |
---|
基于X射线钢芯传送带图像的缺陷检测算法;刘振东;郭大波;申红燕;秦文兵;;测试技术学报(第01期);全文 * |
基于改进卷积神经网络的化纤丝饼表面缺陷识别;王泽霞;陈革;陈振中;;纺织学报(04);全文 * |
基于注意力机制-Inception-CNN模型的滚动轴承故障分类;朱浩;宁芊;雷印杰;陈炳才;严华;;振动与冲击(19);全文 * |
基于深度学习的齿轮视觉微小缺陷检测;韩明;吴庆祥;曾雄军;;计算机系统应用(第03期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN116883409A (zh) | 2023-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110148130B (zh) | 用于检测零件缺陷的方法和装置 | |
CN111461133B (zh) | 快递面单品名识别方法、装置、设备及存储介质 | |
US20170278234A1 (en) | Method for detecting a defect on a surface of a tire | |
CN111126393A (zh) | 车辆外观改装判断方法、装置、计算机设备及存储介质 | |
CN113516146A (zh) | 一种数据分类方法、计算机及可读存储介质 | |
CN117078661B (zh) | 一种高空作业车结构件生产质量智能检测方法 | |
CN116665011A (zh) | 一种基于机器视觉的煤矿带式输送机煤流异物识别方法 | |
CN114612403B (zh) | 一种上料皮带破损缺陷智能检测方法及系统 | |
CN115829965A (zh) | 一种基于深度学习的x射线图像中气孔缺陷的检测方法 | |
CN116245876A (zh) | 缺陷检测方法、装置、电子设备、存储介质和程序产品 | |
CN115631146A (zh) | 一种基于图像的受电弓碳滑条缺损缺陷检测方法 | |
CN113702393B (zh) | 一种本安型矿用输送带表面损伤检测系统及检测方法 | |
CN114067296A (zh) | 钢轨表面缺陷识别方法及装置 | |
CN116883409B (zh) | 一种基于深度学习的输送带缺陷检测方法及系统 | |
Samdangdech et al. | Log-end cut-area detection in images taken from rear end of eucalyptus timber trucks | |
CN113160220A (zh) | 一种基于深度学习的检测门把手归位和弯曲的方法 | |
EP3349049A1 (en) | Inspection devices and methods for inspecting a container | |
CN111738991A (zh) | 一种焊缝缺陷的数字射线检测模型的创建方法 | |
CN115352832A (zh) | 一种皮带撕裂检测方法 | |
CN113392833B (zh) | 一种工业射线底片图像铅字编号识别方法 | |
CN115049641A (zh) | 一种用于机械零件异常检测的电数据处理方法及系统 | |
CN111401104B (zh) | 分类模型的训练方法、分类方法、装置、设备及存储介质 | |
CN111950538B (zh) | 一种标签检测方法、装置以及计算机可读存储介质 | |
CN114998194A (zh) | 产品缺陷检测方法、系统和存储介质 | |
CN112256906A (zh) | 在显示屏上标记批注的方法、装置和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |