CN112767365A - 一种探伤方法 - Google Patents
一种探伤方法 Download PDFInfo
- Publication number
- CN112767365A CN112767365A CN202110091709.7A CN202110091709A CN112767365A CN 112767365 A CN112767365 A CN 112767365A CN 202110091709 A CN202110091709 A CN 202110091709A CN 112767365 A CN112767365 A CN 112767365A
- Authority
- CN
- China
- Prior art keywords
- image
- detected
- neural network
- flaw detection
- deep neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种探伤方法,该方法基于卷积神经网络建立了一个可进行探伤的卷积神经网络模型,并初步实现了内部裂纹或缺陷的可视化。本发明提供的一种探伤方法具有较高的敏感性与特异性,同时基于t‑SNE实现了对探测贡献较大的缺陷区域的可视化,为质检及维护等过程提供了较为可靠的依据;另一方面,目前作业人员专业水平良莠不齐,实现深度学习结果的可视化可促进AI在基层工作的应用和推广。本发明解决现在技术所存在的人工智能分析结果的不确定性与探伤过程仍需依赖作业人员经验和知识水平导致大量专业人力资源浪费的问题,作用效果显著。
Description
技术领域
本发明涉及人工智能技术领域,特别涉及,一种探伤方法。
背景技术
探伤是探测物体是否存在裂纹或缺陷的过程,满足物体的质量高要求,减少破损物件对工作生活,严重的甚至是对生命安全的影响。
目前,基于人工智能(artificial intelligence,AI)利用高质量待测图像进行探伤的深度学习算法,其敏感性和特异性均超过90%。但由于深度学习算法采用的是“黑箱操作”,其输出结果仅仅是根据训练所得,依赖于作业人员提供缺陷的分类或标注结果,最终训练好的模型测试过程中也只是单纯根据图像的区别给出定论,人们常无法对其作出的分类进行解释,因而结果常被搁置存疑。
针对上述问题,设计一种解决现有技术所存在的人工智能分析结果的不确定性与缺陷识别过程仍需依赖作业人员经验和知识水平导致大量专业人力资源浪费的问题的方法,从而使探伤过程更便利,探伤结果更准确,避免不必要的事故发生。
发明内容
针对上述缺陷,本发明解决的技术问题在于,提供一种探伤方法,以解决现在技术所存在的人工智能分析结果的不确定性与缺陷识别过程仍需依赖作业人员经验和知识水平导致大量专业人力资源浪费的问题。
本发明提供了一种探伤方法,具体步骤包括:
步骤1、获取多张待测图像组成的数据集,对数据集中的图像进行缺陷标注,其中标注后的数据集的一部分待测图像用于缺陷区可视化识别结果的评估;
步骤2、对标注后的数据集另一部分待测图像进行处理,使用处理后的待测图像对深度神经网络模型进行训练与测试;
步骤3、使用训练好的模型对原数据集中的待测图像进行检测,将检测结果基于t-SNE进行可视化处理,实现对不同类别的深度特征分布可视化,生成相应的缺陷区域热力图。
优选地,所述步骤1具体步骤包括:
步骤1.1、对数据集中的待测图像进行初步质量控制,得到初步筛选出的异常形态的待测图像;
步骤1.2、对初步筛选出的待测图像,参考标注标准判定待测图像是否存在缺陷,将待测图像分为非缺陷和缺陷两类;
步骤1.3、评定在所述步骤1.2中有争议的待测图像。
优选地,所述步骤2具体步骤包括:
步骤2.1、对数据集中的另一部分待测图像进行预处理;
步骤2.2、将预处理后的图像划分为训练集和验证集,其中,所述验证集中一部分待测图像用于模型判错的原因分析;
步骤2.3、基于卷积神经网络和残差神经网络的基本结构构建并训练深度神经网络模型;
步骤2.4、使用训练好的深度神经网络模型测试输入的待测图像是否有缺陷区,并计算深度神经网络探伤分类的准确率;
步骤2.5、基于Logit变换的置信区间,以曲线下面积评价模型的性能。
优选地,所述步骤3具体步骤包括:
步骤3.1、将原始待测图像调整为m×m像素的RGB图像,其中m为一定像素值;
步骤3.2、用n×n像素的灰色正方形分别沿垂直方向和水平方向以z像素为移动单位,对测试图像进行遮挡,其中,m=xn,n为另一像素值,x、z为常数,每一幅原图生成多个不同位置被遮挡的图片;
步骤3.3、将生成的被遮挡的图片输入到训练好的深度神经网络模型中进行测试,通过用t-SNE方法进行非线性降维操作,将检测得到的结果降维到3维,得到每张测试图像相应位置的可视化热图;
步骤3.4、根据相应位置的可视化热图,通过计算学习网络最后一个卷积层特征的加权和创建出一张热图,将热图映射到原始待测图像,得到各个区域在缺陷预测中的重要性。
优选地,所述步骤2.1具体步骤包括:
步骤2.1.1、将每张经过标注的待测图像调整为统一的像素大小;
步骤2.1.2、确定待测图像的物体中心位置;
步骤2.1.3、计算数据集所有图像像素的均值,将剪裁后的图像分别在RGB通道上减去相应的均值,得到零均值化处理后的图像数据。
优选地,所述步骤2.3具体步骤包括:
步骤2.3.1、在训练过程中,深度神经网络通过随机梯度下降法反复对参数进行初始化,并保证交叉熵损失函数最小化,得到原始深度神经网络模型;
步骤2.3.2、釆用算子离散化库对原始深度神经网络模型进行微调,得到微调深度神经网络模型;
步骤2.3.3、基于深度神经网络的二分类处理,使用交叉熵损失函数衡量微调深度神经网络模型的学习性能。
优选地,所述步骤3.3中降维操作的具体步骤包括:
步骤3.3.2、迭代梯度更新低维数据点信息得到其中C为高维和低维两个概率分布之间距离的目标函数,Yt为迭代t次的解(t=1,...,T),T为迭代次数,η为学习速率,α(t)为迭代t次的动量,pij为高维空间下数据点的概率分布。
由上述方案可知,本发明提供的一种探伤方法基于卷积神经网络建立了一个可进行探伤的卷积神经网络模型,基于深度学习的卷积神经网络对缺陷的待测图像进行了分类判断,具有较高的敏感性与特异性,同时基于t-SNE实现了对判断贡献较大的缺陷区域的可视化,为作业人员提供了较为可靠的依据;另一方面,目前基层作业人员专业水平良莠不齐,实现深度学习结果的可视化可促进AI在基层的应用和推广。本发明提供的方法同样可以用在地形勘测生成可视化地貌、眼底图像识别、面部识别生成可视化比对图等方面,有效解决现在技术所存在的人工智能分析结果的不确定性与缺陷识别过程仍需依赖作业人员经验和知识水平导致大量专业人力资源浪费的问题,作用效果显著,适于广泛推广。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种探伤方法的过程框图一;
图2为本发明实施例提供的一种探伤方法的过程框图二;
图3为本发明实施例提供的一种探伤方法的过程框图三;
图4为本发明实施例提供的一种探伤方法的过程框图四;
图5为本发明实施例提供的一种探伤方法的过程框图五;
图6为本发明实施例提供的一种探伤方法的过程框图六。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请一并参阅图1至图6,现对本发明提供的一种探伤方法的一种具体实施方式进行说明。该种探伤方法的具体步骤包括:
S1、获取多张待测图像组成的数据集,对数据集中的图像进行缺陷标注,其中标注后的数据集的一部分待测图像用于缺陷区可视化识别结果的评估;
示例性的,收集2014-2018年的5148例金属器件的前后视角10296张图像组成数据集,其中有缺陷的占38.21%。从数据集中抽取1144张待测图像用于缺陷区可视化识别结果的评估。数据集中每张待测图像都要经过分级评分系统,该系统由多个级别的评分员组成。本步骤具体的实现步骤可以为:
S1.1、第一级评分员对数据集中的待测图像进行初步质量控制,得到初步筛选出的异常形态的待测图像;
S1.2、第二级评分员由22名具有2年以上工作经验的作业人员组成,对初步筛选出的待测图像,参考标注标准判定待测图像是否存在缺陷,将待测图像分为非缺陷和缺陷两类,此外每张待测图像会被随机分到两名评分员进行分级;
S1.3、第三级评分员由2名具有10年以上经验的资深作业人员组成,评定在所述S1.2中有争议的待测图像。
S2、对标注后的数据集另一部分待测图像进行处理,使用处理后的待测图像对深度神经网络模型进行训练与测试;
机器学习主要包括监督学习和非监督学习。监督学习算法的数据集带有明确的标签,主要目的是对缺陷和非缺陷进行区分;非监督机器学习没有标签,需要对参数进行分类或建模,这些参数有助于更好地发现隐藏缺陷。深度学习的基础是人工神经网络,实现分类并提取特征,同时仅需要作业人员对图像进行分类标注,通过反向传播自动提取缺陷特征,并基于特征构建了自动训练分类器,最终根据输入的图像进行判断。
本步骤具体的实现步骤可以为:
S2.1、对数据集中的另一部分待测图像进行预处理;
本步骤具体的实现步骤可以为:
S2.1.1、将每张经过标注的待测图像调整为统一的像素大小,示例性的调整为224x224像素大小;
S2.1.2、通过自动算法确定待测图像的物体中心位置;
S2.1.3、计算数据集所有图像像素的均值,将剪裁后的图像分别在RGB通道上减去相应的均值,得到零均值化处理后的图像数据,以保证模型训练时输入在零均值范围内。
S2.2、将预处理后的图像划分为训练集和验证集,其中,验证集中一部分待测图像用于模型判错的原因分析;
示例性的,将数据集按9:1的比例划分为训练集和验证集,在验证集中抽取1000张待测图像用于判错原因分析,这部分图像分别由初级作业人员和AI进行判读,后由资深的作业人员进行结果判断和判错原因分析。
S2.3、基于卷积神经网络和残差神经网络的基本结构构建并训练深度神经网络模型;
深度神经网络结构是基于Reset这种广泛用于自然图像分类的深度学习网络框架搭建的,本步骤具体的实现步骤可以为:
S2.3.1、在训练过程中,深度神经网络通过随机梯度下降法反复对参数进行初始化,并保证交叉熵损失函数最小化,得到原始深度神经网络模型;
S2.3.2、釆用算子离散化库(operator discretization library,ODL)对原始深度神经网络模型进行微调,得到微调深度神经网络模型,提高模型的泛化性、敏感性和特异性,同时更好地将该模型用于实践;
S2.3.3、基于深度神经网络的二分类处理,使用交叉熵损失函数衡量微调深度神经网络模型的学习性能。
基于深度神经网络对缺陷进行二分类处理。对于二分类変量,深度神经网络使用交叉熵损失函数衡量模型最后的学习性能,以评估判断缺陷的预测结果与真实结果之间的距离。
S2.4、使用训练好的深度神经网络模型测试输入的待测图像是否有缺陷区,示例性的,判断是否为缺陷,并计算深度神经网络判断分类的准确率,观察生成相应的缺陷区域热力图,从而实现最终检測缺陷区域的功能,提高辅助判断缺陷的准确性;
S2.5、基于Logit变换的置信区间,以曲线下面积(area under curve,AUC)评价模型的性能。
通过基于Logit变换的置信区间进行非参数计算,得到AUC的95%置信区间,以及受试工作特性曲线(receiver operating curve,ROC)上各操作点的敏感性和特异性的95%置信区间。对原始深度神经网络模型和微调深度神经网络模型进行McNemar检验,确定ODL系统是否对缺陷的判断有影响。
S3、使用训练好的模型对原数据集中的待测图像进行检测,将检测结果基于t-SNE(t-distributed stochastic neighbor embedding,t-分布随机邻域嵌入可视化方法)进行可视化处理,实现对不同类别的深度特征分布可视化,生成相应的缺陷区域热力图。
基于反卷积方法,实现了对待测图像上不同区域对卷积神经网络预测缺陷贡献的可视化,并以热图说明了待测图像的强预测区域,为作业人员提供了可解释性依据。本步骤具体的实现步骤可以为:
S3.1、将原始待测图像调整为m×m像素的RGB图像,其中m为一定像素值,示例性的,调整为360×360像素的红、绿、蓝图像;
S3.2、然后用n×n像素的灰色正方形分别沿垂直方向和水平方向以z像素为移动单位,对测试图像进行遮挡,其中,m=xn,n为另一像素值,x、z为常数,每一幅原图生成多个不同位置被遮挡的图片,示例性的,用60x60像素的灰色正方形以10像素为移动单位对测试图像进行遮挡,每边长进行31次遮挡,每一幅原图可以生成31×31=961个不同位置被遮挡的图片;
S3.3、将生成的被遮挡的图片输入到训练好的深度神经网络模型中进行测试,对于每张可视化测试图像,预测概率输出值即代表了相应位置的可视化热图的值,通过用t-分布随机邻域嵌入可视化方法进行非线性降维操作,将检测得到的结果降维到3维,实现了对不同类別的深度特征分布可视化,得到每张测试图像相应位置的可视化热图;
由于最终全连接层输出的深度特征为512维的特征,网络在训练过程中学习到的深度特征需要通过用t-分布随机邻域嵌入可视化方法(t-SNE)进行非线性降维操作,将其降维到3维,从而实现对不同类别的深度特征分布可视化。本步骤具体步骤可以为:
给定目标函数的参数困惑度其中H(Pi)是Pi的熵,得到高维空间下数据点xi和xj间的条件概率为σi为以数据点xi为中心的高斯均方差;xk为图像数据点;高维空间下数据点的概率分布用N(0,10-4I)随机初始化低维目标数据点集Y;目标函数其中P为高维空间里各点的联合概率分布,Q为低维空间里各点的联合概率分布,KL散度(Kullback-Leibler divergences)即两个概率分布之间的距离。
S3.3.2、从t=1到T迭代梯度更新低维数据点信息得到其中C为高维和低维两个概率分布之间距离的目标函数,Yt为迭代t次的解(t=1,...,T),T为迭代次数,η为学习速率,α(t)为迭代t次的动量,pij为高维空间下数据点的概率分布,得到低维数据表示YT=y1,K,yn。
S3.4、根据相应位置的可视化热图,通过计算学习网络最后一个卷积层特征的加权和创建出一张热图,将热图映射到原始待测图像,得到各个区域在缺陷预测中的重要性,其中,随着该区域重要性的增加,颜色逐渐从蓝色变成黄色,直至最高的红色,红色区域表示对于判断缺陷的贡献最大,即该区域有缺陷的可能性较大。
通过计算学习网络最后一个卷积层特征的加权和,不但能判断该图像是否存在缺陷,还可得到缺陷区热图,初步实现了深度学习的可视化,并可大致判断神经网络学习到的概念类型;进一步通过比较卷积神经网络生成的热图与作业人员勾画出的缺陷区,标注一致的结果表明了识別的准确性,而不一致的结果可督促原因排查,同时热图对缺陷范围的显示可更直观地分析人机差异出现的原因。
抽取部分待测图像由资深作业人员进行缺陷区勾画,并选出对判断缺陷意义最大的区域,将其结果与深度神经网络生成的热图进行比对,从而评估深度神经网络对缺陷区的识别能力。采用缺陷水平的评价标准,即判断一个候选区域是否为缺陷区,侧重于深度神经网络热图能准确识别出缺陷区的数量,评价指标使用对某种类型缺陷区的识别准确率;若资深作业人员勾画出的缺陷区域在相应热图上的热力值达到0.80,则认为该缺陷区被准确识別;资深作业人员选出的对于判断贡献最大的区域若在热图上热力值最高,则认为判别一致。
示例性的,在验证集中,该方法卷积神经网络的AUC为0.996(95%CI,0.995-0.998),检测到缺陷缺陷区的敏感性和特异性与受过培训的专业评分员相当(敏感性,96.2%vs96.0%,P=0.76;特异性,97.7%vs97.9%,P=0.81)。缺陷区域热力图对视盘异常和盘沿丢失区域的识别准确率达到100%,卷积神经网络对于判断贡献最大的区域判别与资深作业人员的一致性达91.8%。
该种探伤方法基于卷积神经网络建立了一个可进行探伤的卷积神经网络模型,并初步实现了缺陷区的可视化。运用深度学习算法对缺陷的待测图像进行了分类判断,具有较高的敏感性与特异性,同时基于t-SNE实现了对判断贡献较大的缺陷区域的可视化,为作业人员提供了较为可靠的依据。通过可视化方法将神经网络中每层学到的概念转化成可以理解的有实际含义的图像,实现缺陷区的可视化,一方面可提高算法的可信度,解决深度学习的黑箱性的问题,为作业人员进行判断和随访评估提供具体依据;另一方面,目前基层作业人员专业水平良莠不齐,实现深度学习结果的可视化可促进AI在基层的应用和推广。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。本发明实施例中未作详细描述的内容属于本领域专业技术人员公知的现有技术。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (7)
1.一种探伤方法,其特征在于,具体步骤包括:
步骤1、获取多张待测图像组成的数据集,对数据集中的图像进行缺陷标注,其中标注后的数据集的一部分待测图像用于缺陷区可视化识别结果的评估;
步骤2、对标注后的数据集另一部分待测图像进行处理,使用处理后的待测图像对深度神经网络模型进行训练与测试;
步骤3、使用训练好的模型对原数据集中的待测图像进行检测,将检测结果基于t-SNE进行可视化处理,实现对不同类别的深度特征分布可视化,生成相应的缺陷区域热力图。
2.根据权利要求1所述的一种探伤方法,其特征在于,所述步骤1具体步骤包括:
步骤1.1、对数据集中的待测图像进行初步质量控制,得到初步筛选出的异常形态的待测图像;
步骤1.2、对初步筛选出的待测图像,参考标注标准判定待测图像是否存在缺陷,将待测图像分为非缺陷和缺陷两类;
步骤1.3、评定在所述步骤1.2中有争议的待测图像。
3.根据权利要求2所述的一种探伤方法,其特征在于,所述步骤2具体步骤包括:
步骤2.1、对数据集中的另一部分待测图像进行预处理;
步骤2.2、将预处理后的图像划分为训练集和验证集,其中,所述验证集中一部分待测图像用于模型判错的原因分析;
步骤2.3、基于卷积神经网络和残差神经网络的基本结构构建并训练深度神经网络模型;
步骤2.4、使用训练好的深度神经网络模型测试输入的待测图像是否有缺陷区,并计算深度神经网络探伤分类的准确率;
步骤2.5、基于Logit变换的置信区间,以曲线下面积评价模型的性能。
4.根据权利要求3所述的一种探伤方法,其特征在于,所述步骤3具体步骤包括:
步骤3.1、将原始待测图像调整为m×m像素的RGB图像,其中m为一定像素值;
步骤3.2、用n×n像素的灰色正方形分别沿垂直方向和水平方向以z像素为移动单位,对测试图像进行遮挡,其中,m=xn,n为另一像素值,x、z为常数,每一幅原图生成多个不同位置被遮挡的图片;
步骤3.3、将生成的被遮挡的图片输入到训练好的深度神经网络模型中进行测试,通过用t-SNE方法进行非线性降维操作,将检测得到的结果降维到3维,得到每张测试图像相应位置的可视化热图;
步骤3.4、根据相应位置的可视化热图,通过计算学习网络最后一个卷积层特征的加权和创建出一张热图,将热图映射到原始待测图像,得到各个区域在缺陷预测中的重要性。
5.根据权利要求3所述的一种探伤方法,其特征在于,所述步骤2.1具体步骤包括:
步骤2.1.1、将每张经过标注的待测图像调整为统一的像素大小;
步骤2.1.2、确定待测图像的物体中心位置;
步骤2.1.3、计算数据集所有图像像素的均值,将剪裁后的图像分别在RGB通道上减去相应的均值,得到零均值化处理后的图像数据。
6.根据权利要求5所述的一种探伤方法,其特征在于,所述步骤2.3具体步骤包括:
步骤2.3.1、在训练过程中,深度神经网络通过随机梯度下降法反复对参数进行初始化,并保证交叉熵损失函数最小化,得到原始深度神经网络模型;
步骤2.3.2、釆用算子离散化库对原始深度神经网络模型进行微调,得到微调深度神经网络模型;
步骤2.3.3、基于深度神经网络的二分类处理,使用交叉熵损失函数衡量微调深度神经网络模型的学习性能。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110091709.7A CN112767365A (zh) | 2021-01-23 | 2021-01-23 | 一种探伤方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110091709.7A CN112767365A (zh) | 2021-01-23 | 2021-01-23 | 一种探伤方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112767365A true CN112767365A (zh) | 2021-05-07 |
Family
ID=75706869
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110091709.7A Withdrawn CN112767365A (zh) | 2021-01-23 | 2021-01-23 | 一种探伤方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112767365A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2609699A (en) * | 2021-07-28 | 2023-02-15 | Coopervision Int Ltd | Systems and methods for acquiring and inspecting lens images of ophthalmic lenses |
-
2021
- 2021-01-23 CN CN202110091709.7A patent/CN112767365A/zh not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2609699A (en) * | 2021-07-28 | 2023-02-15 | Coopervision Int Ltd | Systems and methods for acquiring and inspecting lens images of ophthalmic lenses |
GB2609699B (en) * | 2021-07-28 | 2024-04-24 | Coopervision Int Ltd | Systems and methods for acquiring and inspecting lens images of ophthalmic lenses |
US12051191B2 (en) | 2021-07-28 | 2024-07-30 | Coopervision International Limited | Systems and methods for acquiring and inspecting lens images of ophthalmic lenses |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chen et al. | A self organizing map optimization based image recognition and processing model for bridge crack inspection | |
CN110148130B (zh) | 用于检测零件缺陷的方法和装置 | |
Wang et al. | Automatic identification of different types of welding defects in radiographic images | |
CN113409314B (zh) | 高空钢结构腐蚀的无人机视觉检测与评价方法及系统 | |
CN110097547B (zh) | 一种基于深度学习的焊缝底片造假的自动检测方法 | |
CN112734734A (zh) | 一种基于改进残差网络的铁路隧道裂缝检测方法 | |
CN115797354B (zh) | 用于检测激光焊接焊缝外观缺陷的方法 | |
CN110473201A (zh) | 一种刹车片表面缺陷的自动检测方法及装置 | |
CN114581764B (zh) | 基于深度学习算法的地下结构裂纹病害判别方法 | |
CN105046259B (zh) | 基于多特征融合的日冕物质抛射检测方法 | |
CN116787022B (zh) | 基于多源数据的散热铜底板焊接质量检测方法及系统 | |
CN117541483B (zh) | 一种扩散板的结构性能评估方法及系统 | |
CN109859199B (zh) | 一种sd-oct图像的淡水无核珍珠质量检测的方法 | |
CN110660049A (zh) | 一种基于深度学习的轮胎缺陷检测方法 | |
CN114881987A (zh) | 基于改进YOLOv5的热压导光板缺陷可视化检测方法 | |
CN117173590A (zh) | 一种基于多源时序遥感影像的水体异常监测方法 | |
Ahmadi et al. | Automatic road crack detection and classification using image processing techniques, machine learning and integrated models in urban areas: A novel image binarization technique | |
CN117740797A (zh) | 一种铝合金的缺陷探伤方法 | |
TW202034421A (zh) | 濾色器檢查裝置、檢查裝置、濾色器檢查方法及檢查方法 | |
CN114881998A (zh) | 一种基于深度学习的工件表面缺陷检测方法及系统 | |
CN117875549A (zh) | 一种基于图像识别的建筑遗产保护评估系统和方法 | |
CN112767365A (zh) | 一种探伤方法 | |
Yang et al. | Weld defect cascaded detection model based on bidirectional multi-scale feature fusion and shape pre-classification | |
CN117455828A (zh) | 一种基于mlp神经网络的燃烧质量检测方法 | |
KR102494829B1 (ko) | 컨볼루션 신경망을 이용한 건물 손상 평가 방법 및 상기 방법을 수행하는 컴퓨팅 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20210507 |