CN112215795A - 一种基于深度学习的服务器部件智能检测方法 - Google Patents
一种基于深度学习的服务器部件智能检测方法 Download PDFInfo
- Publication number
- CN112215795A CN112215795A CN202010911802.3A CN202010911802A CN112215795A CN 112215795 A CN112215795 A CN 112215795A CN 202010911802 A CN202010911802 A CN 202010911802A CN 112215795 A CN112215795 A CN 112215795A
- Authority
- CN
- China
- Prior art keywords
- image
- feature
- deep learning
- layer
- server component
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 57
- 238000013135 deep learning Methods 0.000 title claims abstract description 22
- 238000012549 training Methods 0.000 claims abstract description 17
- 230000006870 function Effects 0.000 claims abstract description 16
- 238000002372 labelling Methods 0.000 claims abstract description 15
- 238000000605 extraction Methods 0.000 claims abstract description 13
- 230000004927 fusion Effects 0.000 claims abstract description 11
- 238000000034 method Methods 0.000 claims abstract description 11
- 239000011159 matrix material Substances 0.000 claims abstract description 9
- 230000008569 process Effects 0.000 claims abstract description 6
- 238000013528 artificial neural network Methods 0.000 claims abstract description 4
- 239000013598 vector Substances 0.000 claims description 19
- 238000005070 sampling Methods 0.000 claims description 15
- 230000008859 change Effects 0.000 claims description 7
- 238000011176 pooling Methods 0.000 claims description 6
- 230000001965 increasing effect Effects 0.000 claims description 4
- 238000004519 manufacturing process Methods 0.000 claims description 4
- 239000000203 mixture Substances 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 2
- 230000006872 improvement Effects 0.000 description 10
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000009434 installation Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 208000003464 asthenopia Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000009776 industrial production Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Evolutionary Biology (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的服务器部件智能检测方法,该方法包括:S10、采集样本图像并进行标注;S20、对采集的样本图像进行特征增强;S30、构建基于神经网络的目标检测模型;其中,目标检测模型包括特征提取网络和多级特征融合网络,通过特征提取网络提取出图像特征信息,通过多级特征融合网络构建预测矩阵;S40、构建Focal Loss损失函数;S50、利用增强后的图像数据对目标检测模型进行训练;其中,每次迭代后根据Focal Loss损失函数确定下一次迭代过程的权重和偏置的更新走向;S60、利用训练后的模型对服务器部件进行检测。本发明基于深度学习的服务器部件智能检测方法可以准确地识别出服务器部件的位置和数量,提升服务器部件装配的效率和准确性。
Description
技术领域
本发明涉及工业视觉检测技术领域,特别涉及一种基于深度学习的服务器部件智能检测方法。
背景技术
人工检测,存在耗费人力、人的视觉疲劳易引起检测误差、受主观因素影响和准确度不高等问题。传统的工业视觉配件检测处理方式在于提取连通域,与预设面积进行匹配,对比结果。通常情况下,在提取连通域的过程中,图像容易受光源和噪声的影响,相应地,匹配结果也会大打折扣。此外,这种处理方式相对刻板,在较为复杂的工业环境中,配件的角度发生偏移、工作距离发生变化等等问题都会对检测结果产生影响。因此这样的检测方式鲁棒性较差,检测结果的出错率较高。
目标检测是计算机视觉领域中一个新兴的应用方向。目标检测,也叫目标提取,是一种基于目标几何和统计特征的图像分割,它将目标的分割和识别合二为一,其准确性和实时性是整个系统的一项重要能力。尤其是在复杂场景中,需要对多个目标进行实时处理时,目标自动提取和识别就显得特别重要。随着计算机技术的发展和计算机视觉原理的广泛应用,利用计算机图像处理技术对目标进行实时跟踪研究越来越热门,对目标进行动态实时跟踪定位在智能化交通系统、智能监控系统、军事目标检测及医学导航手术中手术器械定位等方面具有广泛的应用价值。
目前可以将现有的基于深度学习的目标检测与识别算法大致分为以下三大类:基于区域建议的目标检测与识别算法,如R-CNN,Fast-R-CNN,Faster-R-CNN;基于回归的目标检测与识别算法,如YOLO,SSD;基于搜索的目标检测与识别算法,如基于视觉注意的AttentionNet,基于强化学习的算法。YOLO,基于卷积神经网络,是一个端到端的目标检测算法,用户输入图像,模型输出识别到的对象类别和位置,YOLO V1的识别速度为R-CNN的1000倍。2020年4月由Alexey等人提出的YOLO V4算法,在YOLO V3的基础上,有了更精进的改进。
Focal Loss for Dense Object Detection一文中提到,one-stage网络识别率普遍低于two-stage网络的问题,其指出根本原因是样本类别不均衡。通过改变传统的loss(CE)变为focal loss,瞬间提升了one-stage网络的准确率。YOLO作为一种one-stage算法,也存在这样的问题。
因此,如何调整目标检测算法以提高识别准确率,如何将目标检测算法应用到生产线装配检测中,与实际工业生产达到完美的结合变得非常具有战略意义。
发明内容
本发明目的在于提供一种鲁棒性好,准确率高的基于深度学习的服务器部件智能检测方法。
为了解决上述问题,本发明提供了一种基于深度学习的服务器部件智能检测方法,包括以下步骤:
S10、采集样本图像并进行标注;
S20、对采集的样本图像进行特征增强;
S30、构建基于神经网络的目标检测模型;
S40、构建Focal Loss损失函数;
S50、利用增强后的图像数据对所述目标检测模型进行训练;其中,每次迭代后根据所述Focal Loss损失函数确定下一次迭代过程的权重和偏置的更新走向;
S60、利用训练后的模型对服务器部件进行检测。
作为本发明的进一步改进,所述目标检测模型包括特征提取网络和多级特征融合网络,通过所述特征提取网络提取出图像特征信息,通过所述多级特征融合网络构建预测矩阵。
作为本发明的进一步改进,所述特征提取网络包括堆叠的输出卷积层、初始池化层、第一模块层、第二模块层、第三模块层和第四模块层,所述初始卷积层包括一个卷积层、一个归一化层和一个非线性激活层,所述初始卷积层所使用卷积核尺寸为3*3,卷积的步长为2,输出特征通道数为64;所述初始池化层的步长为2;所述初始化层输出按通道分为两部分xa和xb,所述第一模块层输出x1out=f(xb)+xb,第二模块层的输出为x2out=f(x1out)+x1out,所述第三模块层输出x3out=f(x2out)+x2out,第四个模块层的输出为x4out=f(x3out)+x3out,输出图像特征向量y=x4out+xa。
作为本发明的进一步改进,所述多级特征融合网络包括5个下采样层、5个上采样层和全连接层,所述特征向量y先依次与所述5个下采样层的特征进行连接,再复合上5个上采样层的特性向量,然后与所述5个下采样层的特征向量复合,获得5个特征向量,所述5个特征向量作为所述全连接层的输入,输出两个预测矩阵,其中一个矩阵预测边框,另一个矩阵预测类别和置信度。
作为本发明的进一步改进,所述步骤S10具体包括:
S11、实际应用场景下通过拍摄照片或视频的方式获取样本图像;
S12、根据服务器部件构成和组装需求,通过标注工具对样本图像中目标物体进行标注。
作为本发明的进一步改进,所述标注所得标签类别及数量根据具体需求做相应调整,每个标签包括左下角坐标、右上角坐标、标签类别。
作为本发明的进一步改进,所述步骤S20中特征增强包括:增加噪声,亮度变化,色度变化,图像组合。
作为本发明的进一步改进,所述增加噪声具体包括:随机选取增加噪声的像素点个数为1/10个总像素点,并对其进行高斯噪声覆盖;所述亮度变化具体包括:对图像进行随机亮度变化;所述色度变化具体包括:对图像进行随机色度变换,将图像RGB三通道分别随机按0.5,1,1.5调整后再改变通道;所述图像组合具体包括:将四幅图像组合为一张图像。
作为本发明的进一步改进,所述Focal Loss损失函数为:
FL(pt)=-αt(1-pt)γlog(pt)
其中,pt是不同类别的分类概率,γ是个大于0的值,αt是[0,1]之间的小数,γ和αt都是固定值,不参与训练,pt越大,权重(1-pt)就越小。
作为本发明的进一步改进,所述步骤50利用增强后的图像数据对所述目标检测模型进行训练,具体包括:使用增强之后的样本数据对所述目标检测模型进行从0开始训练,设置的初始学习率为0.01,学习率下降方式为根据训练次数呈阶梯式下降,设置批大小为8,最终得到训练好的模型。
作为本发明的进一步改进,所述步骤S60具体包括:拍摄服务器装配产线图像,将拍摄的图像送入训练好的模型,检测出服务器组件位置、数量和类别信息。
本发明的有益效果:
本发明基于深度学习的服务器部件智能检测方法可以识别服务器部件,并准确地识别出服务器部件的位置和数量,提升服务器部件装配的效率和准确性。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其他目的、特征和优点能够更明显易懂,以下特举较佳实施例,并配合附图,详细说明如下。
附图说明
图1是本发明优选实施例中基于深度学习的服务器部件智能检测方法的流程图;
图2是本发明优选实施例中Focal Loss损失函数的loss变化曲线图;
图3是本发明优选实施例中模型预测的准确率变化曲线图;
图4是本发明优选实施例中的模型预测结果图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步说明,以使本领域的技术人员可以更好地理解本发明并能予以实施,但所举实施例不作为对本发明的限定。
如图1所示,为本发明优选实施例中基于深度学习的服务器部件智能检测方法,该方法包括以下步骤:
S10、采集样本图像并进行标注。
具体的,步骤S10包括:
S11、实际应用场景下通过拍摄照片或视频的方式获取样本图像;
S12、根据服务器部件构成和组装需求,通过标注工具对样本图像中目标物体进行标注。其中,所述标注所得标签类别及数量根据具体需求做相应调整,每个标签包括左下角坐标、右上角坐标、标签类别。在其中一实施例中,通过LableImg标注工具对样本图像中目标物体进行标注,标注所得标签包括:RAM,NoRAM,RAMs,CPU,NoCPU,CPUFan,RAID共七个类别。
S20、对采集的样本图像进行特征增强。
具体的,特征增强包括:增加噪声,亮度变化,色度变化,图像组合。
所述增加噪声包括:为了适当增加噪声避免特征过分损失,优选的,随机选取增加噪声的像素点个数为1/10个总像素点,并对其进行高斯噪声覆盖。
所述亮度变化包括:为了模拟真实工作环境中光照强度的变化,对图像进行随机亮度变化。优选的,亮度变化的随机比例为0.5、0.75、1.25、1.5。
所述色度变化包括:为了模拟真实环境中存在光照折射反射等物理现象,对图像进行随机色度变换,优选的,将图像RGB三通道分别随机按0.5,1,1.5调整后再改变通道。
所述图像组合包括:将四幅图像组合为一张图像,可以缩小目标物尺寸,达到多尺度训练的目的,同时更新样本的标注文件。
S30、构建基于神经网络的目标检测模型;其中,所述目标检测模型包括特征提取网络和多级特征融合网络,通过所述特征提取网络提取出图像特征信息,通过所述多级特征融合网络构建预测矩阵。
其中,所述特征提取网络包括堆叠的输出卷积层、初始池化层、第一模块层、第二模块层、第三模块层和第四模块层,所述初始卷积层包括一个卷积层、一个归一化层和一个非线性激活层,所述初始卷积层所使用卷积核尺寸为3*3,卷积的步长为2,输出特征通道数为64;所述初始池化层的步长为2;所述初始化层输出按通道分为两部分xa和xb,所述第一模块层输出x1out=f(xb)+xb,第二模块层的输出为x2out=f(x1out)+x1out,所述第三模块层输出x3out=f(x2out)+x2out,第四个模块层的输出为x4out=f(x3out)+x3out,输出图像特征向量y=x4out+xa。
其中,所述多级特征融合网络包括5个下采样层、5个上采样层和全连接层,所述特征向量y先依次与所述5个下采样层的特征进行连接,再复合上5个上采样层的特性向量,然后与所述5个下采样层的特征向量复合,获得5个特征向量,所述5个特征向量作为所述全连接层的输入,输出两个预测矩阵,其中一个矩阵预测边框,另一个矩阵预测类别和置信度。
S40、构建Focal Loss损失函数。
其中,所述Focal Loss损失函数为:
FL(pt)=-αt(1-pt)γlog(pt)
其中,pt是不同类别的分类概率,γ是个大于0的值,αt是[0,1]之间的小数,γ和αt都是固定值,不参与训练,无论是前景还是背景类,pt越大,权重(1-pt)就越小。
参考Focal Loss的思想,我们在这里使用Focal Loss损失函数,将正负样本loss的权重进行了相应的修改,通过对各类别分类概率的loss加权,拉开分类足够好的样本和预测概率小的样本之间的差距,解决one-stage深度学习算法中样本图像正负比例失衡的问题。这样得到的loss可以集中精力去诱导模型分辨难以区分的目标类别,就可以有效的提升整体的目标检测准确度。按照本发明更改的loss函数计算,训练过程中的loss变化如图2所示,loss趋于收敛。
S50、利用增强后的图像数据对所述目标检测模型进行训练;其中,每次迭代后根据所述Focal Loss损失函数确定下一次迭代过程的权重和偏置的更新走向。
其中,利用增强后的图像数据对所述目标检测模型进行训练,具体包括:使用增强之后的样本数据对所述目标检测模型进行从0开始训练,设置的初始学习率为0.01,学习率下降方式为根据训练次数呈阶梯式下降,设置批大小为8,最终得到训练好的模型。
S60、利用训练后的模型对服务器部件进行检测。
具体的:拍摄服务器装配产线图像,将拍摄的图像送入训练好的模型,检测出服务器组件位置、数量和类别信息。在本实施例中,推理出机箱内部部件的实时安装情况如图3所示,后台整理模型推理结果之后与本批次服务器机箱的标准安装手册匹配,若未达到安装标准,即可提示操作员接下来需要如何操作。
如图4所示,为本发明优选实施例中的模型预测结果图,从图中可以准确看出机箱内部各个部件。如表1所示,为本实施例中利用Focal Loss损失函数的模型预测的准确率与利用经典的交叉熵损失函数的模型的准确率对比表。可以看出该检测方法的检测准确率明显提高。
表1
以上实施例仅是为充分说明本发明而所举的较佳的实施例,本发明的保护范围不限于此。本技术领域的技术人员在本发明基础上所作的等同替代或变换,均在本发明的保护范围之内。本发明的保护范围以权利要求书为准。
Claims (10)
1.一种基于深度学习的服务器部件智能检测方法,其特征在于,包括以下步骤:
S10、采集样本图像并进行标注;
S20、对采集的样本图像进行特征增强;
S30、构建基于神经网络的目标检测模型;其中,所述目标检测模型包括特征提取网络和多级特征融合网络,通过所述特征提取网络提取出图像特征信息,通过所述多级特征融合网络构建预测矩阵;
S40、构建Focal Loss损失函数;
S50、利用增强后的图像数据对所述目标检测模型进行训练;其中,每次迭代后根据所述Focal Loss损失函数确定下一次迭代过程的权重和偏置的更新走向;
S60、利用训练后的模型对服务器部件进行检测。
2.如权利要求1所述的基于深度学习的服务器部件智能检测方法,其特征在于,所述特征提取网络包括堆叠的输出卷积层、初始池化层、第一模块层、第二模块层、第三模块层和第四模块层,所述初始卷积层包括一个卷积层、一个归一化层和一个非线性激活层,所述初始卷积层所使用卷积核尺寸为3*3,卷积的步长为2,输出特征通道数为64;所述初始池化层的步长为2;所述初始化层输出按通道分为两部分xa和xb,所述第一模块层输出x1out=f(xb)+xb,第二模块层的输出为x2out=f(x1out)+x1out,所述第三模块层输出x3out=f(x2out)+x2out,第四个模块层的输出为x4out=f(x3out)+x3out,输出图像特征向量y=x4out+xa。
3.如权利要求2所述的基于深度学习的服务器部件智能检测方法,其特征在于,所述多级特征融合网络包括5个下采样层、5个上采样层和全连接层,所述特征向量y先依次与所述5个下采样层的特征进行连接,再复合上5个上采样层的特性向量,然后与所述5个下采样层的特征向量复合,获得5个特征向量,所述5个特征向量作为所述全连接层的输入,输出两个预测矩阵,其中一个矩阵预测边框,另一个矩阵预测类别和置信度。
4.如权利要求1所述的基于深度学习的服务器部件智能检测方法,其特征在于,所述步骤S10具体包括:
S11、实际应用场景下通过拍摄照片或视频的方式获取样本图像;
S12、根据服务器部件构成和组装需求,通过标注工具对样本图像中目标物体进行标注。
5.如权利要求4所述的基于深度学习的服务器部件智能检测方法,其特征在于,所述标注所得标签类别及数量根据具体需求做相应调整,每个标签包括左下角坐标、右上角坐标、标签类别。
6.如权利要求1所述的基于深度学习的服务器部件智能检测方法,其特征在于,所述步骤S20中特征增强包括:增加噪声,亮度变化,色度变化,图像组合。
7.如权利要求6所述的基于深度学习的服务器部件智能检测方法,其特征在于,所述增加噪声具体包括:随机选取增加噪声的像素点个数为1/10个总像素点,并对其进行高斯噪声覆盖;所述亮度变化具体包括:对图像进行随机亮度变化;所述色度变化具体包括:对图像进行随机色度变换,将图像RGB三通道分别随机按0.5,1,1.5调整后再改变通道;所述图像组合具体包括:将四幅图像组合为一张图像。
8.如权利要求1所述的基于深度学习的服务器部件智能检测方法,其特征在于,所述Focal Loss损失函数为:
FL(pt)=-αt(1-pt)γlog(pt)
其中,pt是不同类别的分类概率,γ是个大于0的值,αt是[0,1]之间的小数,γ和αt都是固定值,不参与训练,pt越大,权重(1-pt)就越小。
9.如权利要求1所述的基于深度学习的服务器部件智能检测方法,其特征在于,所述步骤50利用增强后的图像数据对所述目标检测模型进行训练,具体包括:使用增强之后的样本数据对所述目标检测模型进行从0开始训练,设置的初始学习率为0.01,学习率下降方式为根据训练次数呈阶梯式下降,设置批大小为8,最终得到训练好的模型。
10.如权利要求1所述的基于深度学习的服务器部件智能检测方法,其特征在于,所述步骤S60具体包括:拍摄服务器装配产线图像,将拍摄的图像送入训练好的模型,检测出服务器组件位置、数量和类别信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010911802.3A CN112215795B (zh) | 2020-09-02 | 2020-09-02 | 一种基于深度学习的服务器部件智能检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010911802.3A CN112215795B (zh) | 2020-09-02 | 2020-09-02 | 一种基于深度学习的服务器部件智能检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112215795A true CN112215795A (zh) | 2021-01-12 |
CN112215795B CN112215795B (zh) | 2024-04-09 |
Family
ID=74048972
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010911802.3A Active CN112215795B (zh) | 2020-09-02 | 2020-09-02 | 一种基于深度学习的服务器部件智能检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112215795B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112836745A (zh) * | 2021-02-02 | 2021-05-25 | 歌尔股份有限公司 | 一种目标检测方法和装置 |
CN113591568A (zh) * | 2021-06-28 | 2021-11-02 | 北京百度网讯科技有限公司 | 目标检测方法、目标检测模型的训练方法及其装置 |
CN113706501A (zh) * | 2021-08-26 | 2021-11-26 | 成都飞机工业(集团)有限责任公司 | 一种飞机装配的智能监测方法 |
CN115346125A (zh) * | 2022-10-18 | 2022-11-15 | 南京金瀚途科技有限公司 | 一种基于深度学习的目标检测方法 |
CN115424027A (zh) * | 2022-08-24 | 2022-12-02 | 厦门国际银行股份有限公司 | 针对画面前景人物的图像相似度比对方法、装置以及设备 |
CN117741070A (zh) * | 2024-02-21 | 2024-03-22 | 山东多瑞电子科技有限公司 | 基于深度学习的气体安全智能检测方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107220980A (zh) * | 2017-05-25 | 2017-09-29 | 重庆理工大学 | 一种基于全卷积网络的mri图像脑肿瘤自动分割方法 |
CN108009524A (zh) * | 2017-12-25 | 2018-05-08 | 西北工业大学 | 一种基于全卷积网络的车道线检测方法 |
WO2019100724A1 (zh) * | 2017-11-24 | 2019-05-31 | 华为技术有限公司 | 训练多标签分类模型的方法和装置 |
CN109840531A (zh) * | 2017-11-24 | 2019-06-04 | 华为技术有限公司 | 训练多标签分类模型的方法和装置 |
CN110163077A (zh) * | 2019-03-11 | 2019-08-23 | 重庆邮电大学 | 一种基于全卷积神经网络的车道识别方法 |
CN110516561A (zh) * | 2019-08-05 | 2019-11-29 | 西安电子科技大学 | 基于dcgan和cnn的sar图像目标识别方法 |
CN110533631A (zh) * | 2019-07-15 | 2019-12-03 | 西安电子科技大学 | 基于金字塔池化孪生网络的sar图像变化检测方法 |
CN110766681A (zh) * | 2019-10-28 | 2020-02-07 | 福建帝视信息科技有限公司 | 一种基于三重损失网络的竹条表面缺陷检测方法 |
CN110837850A (zh) * | 2019-10-23 | 2020-02-25 | 浙江大学 | 一种基于对抗学习损失函数的无监督域适应方法 |
CN111428750A (zh) * | 2020-02-20 | 2020-07-17 | 商汤国际私人有限公司 | 一种文本识别模型训练及文本识别方法、装置及介质 |
-
2020
- 2020-09-02 CN CN202010911802.3A patent/CN112215795B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107220980A (zh) * | 2017-05-25 | 2017-09-29 | 重庆理工大学 | 一种基于全卷积网络的mri图像脑肿瘤自动分割方法 |
WO2019100724A1 (zh) * | 2017-11-24 | 2019-05-31 | 华为技术有限公司 | 训练多标签分类模型的方法和装置 |
CN109840531A (zh) * | 2017-11-24 | 2019-06-04 | 华为技术有限公司 | 训练多标签分类模型的方法和装置 |
CN108009524A (zh) * | 2017-12-25 | 2018-05-08 | 西北工业大学 | 一种基于全卷积网络的车道线检测方法 |
CN110163077A (zh) * | 2019-03-11 | 2019-08-23 | 重庆邮电大学 | 一种基于全卷积神经网络的车道识别方法 |
CN110533631A (zh) * | 2019-07-15 | 2019-12-03 | 西安电子科技大学 | 基于金字塔池化孪生网络的sar图像变化检测方法 |
CN110516561A (zh) * | 2019-08-05 | 2019-11-29 | 西安电子科技大学 | 基于dcgan和cnn的sar图像目标识别方法 |
CN110837850A (zh) * | 2019-10-23 | 2020-02-25 | 浙江大学 | 一种基于对抗学习损失函数的无监督域适应方法 |
CN110766681A (zh) * | 2019-10-28 | 2020-02-07 | 福建帝视信息科技有限公司 | 一种基于三重损失网络的竹条表面缺陷检测方法 |
CN111428750A (zh) * | 2020-02-20 | 2020-07-17 | 商汤国际私人有限公司 | 一种文本识别模型训练及文本识别方法、装置及介质 |
Non-Patent Citations (2)
Title |
---|
K C SHAHIRA: "《Document Image Classification: Towards Assisting Visually Impaired》", 《IEEE》 * |
易欣 等: "《基于改进YOLOv2和迁移学习的管道巡检航拍图像第三方施工目标检测》", 《计算机应用》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112836745A (zh) * | 2021-02-02 | 2021-05-25 | 歌尔股份有限公司 | 一种目标检测方法和装置 |
CN113591568A (zh) * | 2021-06-28 | 2021-11-02 | 北京百度网讯科技有限公司 | 目标检测方法、目标检测模型的训练方法及其装置 |
CN113706501A (zh) * | 2021-08-26 | 2021-11-26 | 成都飞机工业(集团)有限责任公司 | 一种飞机装配的智能监测方法 |
CN113706501B (zh) * | 2021-08-26 | 2024-03-19 | 成都飞机工业(集团)有限责任公司 | 一种飞机装配的智能监测方法 |
CN115424027A (zh) * | 2022-08-24 | 2022-12-02 | 厦门国际银行股份有限公司 | 针对画面前景人物的图像相似度比对方法、装置以及设备 |
CN115346125A (zh) * | 2022-10-18 | 2022-11-15 | 南京金瀚途科技有限公司 | 一种基于深度学习的目标检测方法 |
CN115346125B (zh) * | 2022-10-18 | 2023-03-24 | 南京金瀚途科技有限公司 | 一种基于深度学习的目标检测方法 |
CN117741070A (zh) * | 2024-02-21 | 2024-03-22 | 山东多瑞电子科技有限公司 | 基于深度学习的气体安全智能检测方法 |
CN117741070B (zh) * | 2024-02-21 | 2024-05-03 | 山东多瑞电子科技有限公司 | 基于深度学习的气体安全智能检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112215795B (zh) | 2024-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112215795A (zh) | 一种基于深度学习的服务器部件智能检测方法 | |
CN109584248B (zh) | 基于特征融合和稠密连接网络的红外面目标实例分割方法 | |
Xu et al. | Light-YOLOv3: fast method for detecting green mangoes in complex scenes using picking robots | |
CN110060237B (zh) | 一种故障检测方法、装置、设备及系统 | |
WO2022099598A1 (zh) | 一种基于图像像素相对统计特征的视频动态目标检测的方法 | |
CN110032925B (zh) | 一种基于改进胶囊网络与算法的手势图像分割与识别方法 | |
CN108154502B (zh) | 一种基于卷积神经网络的通孔焊点识别方法 | |
CN111553929A (zh) | 基于融合网络的手机屏幕缺陷分割方法、装置及设备 | |
CN111144322A (zh) | 一种分拣方法、装置、设备和存储介质 | |
CN109684922B (zh) | 一种基于卷积神经网络的多模型对成品菜的识别方法 | |
WO2019207557A1 (en) | Method for distinguishing a real three-dimensional object from a two-dimensional spoof of the real object | |
CN111723829B (zh) | 一种基于注意力掩模融合的全卷积目标检测方法 | |
CN114241340B (zh) | 一种基于双路深度残差网络的图像目标检测方法及系统 | |
CN110569782A (zh) | 一种基于深度学习目标检测方法 | |
CN111815564B (zh) | 一种检测丝锭的方法、装置及丝锭分拣系统 | |
CN111738344A (zh) | 一种基于多尺度融合的快速目标检测方法 | |
CN109145964B (zh) | 一种实现图像颜色聚类的方法和系统 | |
CN111461213A (zh) | 一种目标检测模型的训练方法、目标快速检测方法 | |
CN109977834B (zh) | 从深度图像中分割人手与交互物体的方法和装置 | |
CN114092793B (zh) | 适用于复杂水下环境的端到端生物目标检测方法 | |
CN113449806A (zh) | 基于层次结构的二阶段林业害虫识别与检测系统及方法 | |
CN114494812A (zh) | 一种基于改进CenterNet的图像小目标检测方法 | |
CN115880298A (zh) | 一种基于无监督预训练的玻璃表面缺陷检测方法及系统 | |
CN113129390B (zh) | 一种基于联合显著性的色盲图像重新着色方法及系统 | |
CN116071315A (zh) | 一种基于机器视觉的产品可视缺陷检测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |