CN115656189B - 基于光度立体与深度学习算法的缺陷检测方法及装置 - Google Patents
基于光度立体与深度学习算法的缺陷检测方法及装置 Download PDFInfo
- Publication number
- CN115656189B CN115656189B CN202211588775.6A CN202211588775A CN115656189B CN 115656189 B CN115656189 B CN 115656189B CN 202211588775 A CN202211588775 A CN 202211588775A CN 115656189 B CN115656189 B CN 115656189B
- Authority
- CN
- China
- Prior art keywords
- photometric
- module
- layer
- stereogram
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 88
- 230000007547 defect Effects 0.000 title claims abstract description 63
- 238000004422 calculation algorithm Methods 0.000 title claims abstract description 29
- 238000013135 deep learning Methods 0.000 title claims abstract description 29
- 238000000605 extraction Methods 0.000 claims abstract description 61
- 238000005286 illumination Methods 0.000 claims abstract description 47
- 230000004927 fusion Effects 0.000 claims abstract description 34
- 238000000034 method Methods 0.000 claims abstract description 30
- 238000011176 pooling Methods 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 10
- 238000003860 storage Methods 0.000 claims description 9
- 238000012512 characterization method Methods 0.000 claims description 3
- 238000012856 packing Methods 0.000 claims 4
- 238000003475 lamination Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 12
- 238000012549 training Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 11
- 238000002372 labelling Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 238000002310 reflectometry Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009776 industrial production Methods 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于光度立体与深度学习算法的缺陷检测方法及装置,涉及缺陷检测领域,通过获取不同光照方向下的待测物体的表面图像,且每个表面图像上同一位置的像素点对应物体上的同一个位置坐标;将不同光照方向下的待测物体的表面图像输入光度立体图生成模型,通过特征提取与特征匹配,并将不同光照方向下的待测物体的表面图像进行特征融合,生成待测物体的光度立体图;将光度立体图输入目标检测模型,得到待测物体的缺陷检测结果。该方法将不同光照方向下的表面图像特征融合而成的光度立体图输入到目标检测模型中进行缺陷检测,解决工业相机直接拍摄的图片检测精度低、识别不准确等问题,提高了缺陷检测的准确性。
Description
技术领域
本发明涉及缺陷检测领域,具体涉及一种基于光度立体与深度学习算法的缺陷检测方法及装置。
背景技术
在工业生产过程中,材料物质表面可能会出现折痕、划痕、异物等缺陷,为了防止这些缺陷产品流入市场,影响企业声誉,需要进行检测。
人工缺陷检测成本大,当前流行的深度学习缺陷检测方法存在以下技术问题:
(1)采用工业相机直接拍摄的图像难以捕捉到不同光线方向下所产生的特征,检测精度低,识别不准确。
(2)深度学习算法关键在于特征提取,然而由于缺陷形态类别的多样性,特征提取的过程很容易受到光照不充分和背景影响,鲁棒性较低,检测效果不够理想。
因此,有必要提供一种高效可靠的缺陷检测设备及检测方法。
发明内容
针对上述提到的物体缺陷检测人工成本大,现有的深度学习缺陷检测方法在特征提取步骤容易受到光照不充分和背景影响,鲁棒性较低,检测效果不够理想问题。本申请的实施例的目的在于提出了一种基于光度立体与深度学习算法的缺陷检测方法及装置,来解决以上背景技术部分提到的技术问题,以解决了工业相机直接拍摄的图像检测精度低、识别不准确等问题。
第一方面,本发明提供了一种基于光度立体与深度学习算法的缺陷检测方法,包括以下步骤:
S1,获取不同光照方向下的待测物体的表面图像,且每个表面图像上同一位置的像素点对应物体上的同一个位置坐标;
S2,将不同光照方向下的待测物体的表面图像输入光度立体图生成模型,通过特征提取与特征匹配,并将不同光照方向下的待测物体的表面图像进行特征融合,生成待测物体的光度立体图,光度立体图生成模型包括特征提取模块、融合模块和回归模块,特征提取模块分别对不同光照方向下的待测物体的表面图像进行特征提取,得到多个图像特征,将多个图像特征输入融合模块中进行融合,得到融合后的特征,将融合后的特征输入回归模块中进行光度立体图回归,得到待测物体的光度立体图,特征提取模块参考Darknet53模型,包括依次连接的第一卷积层、第二卷积层、第一残差结构、第二残差结构和第一反卷积层,第一残差结构和第二残差结构之间设有第三卷积层,用于完成下采样的操作,第一残差结构和第二残差结构包括依次连接的第四卷积层和第五卷积层,第五卷积层的输出特征通过残差连接与第四卷积层的输入特征融合;
S3,将光度立体图输入目标检测模型,得到待测物体的缺陷检测结果。
作为优选,第一卷积层和第二卷积层的卷积核大小为3×3,第一反卷积层的步长为2、卷积核大小为3×3,第三卷积层的步长为2、卷积核大小为3×3,第四卷积层的卷积核大小为1×1,第五卷积层的卷积核大小为3×3。
作为优选,融合模块为最大池化层,用于提取每个通道层面的最大表征。
作为优选,回归模块包括依次连接的第六卷积层、第七卷积层、第八卷积层、第二反卷积层以及第九卷积层,用于生成光度立体图,其中,第六卷积层,第七卷积层和第八卷积层的卷积核大小为3×3,第二反卷积层的步长为2、卷积核大小为3×3,第九卷积层的卷积核大小为3×3、卷积核数目为3。
作为优选,目标检测模型包括增加SPP模块的YOLOv3模型,目标检测模型中,将Darknet53作为特征提取网络,将待测物体的光度立体图输入特征提取网络进行特征提取,得到第一特征,将第一特征输入到3个卷积层和SPP模块,在SPP模块中分别采用13×13、9×9、5×5、1×1四个不同尺度池化核进行最大池化处理,得到第二特征,根据第二特征进行预测,得到预测结果,对预测结果进行解码,得到待测物体的缺陷检测结果。
作为优选,在训练过程中,光度立体图生成模型和目标检测模型同时训练,损失函数为光度立体图损失和目标检测损失之和。
第二方面,本发明提供了一种基于光度立体与深度学习算法的缺陷检测装置,包括:
图像获取模块,被配置为获取不同光照方向下的待测物体的表面图像,且每个表面图像上同一位置的像素点对应物体上的同一个位置坐标;
光度立体图生成模块,被配置为将不同光照方向下的待测物体的表面图像输入光度立体图生成模型,通过特征提取与特征匹配,并将不同光照方向下的待测物体的表面图像进行特征融合,生成待测物体的光度立体图,光度立体图生成模型包括特征提取模块、融合模块和回归模块,特征提取模块分别对不同光照方向下的待测物体的表面图像进行特征提取,得到多个图像特征,将多个图像特征输入融合模块中进行融合,得到融合后的特征,将融合后的特征输入回归模块中进行光度立体图回归,得到待测物体的光度立体图,特征提取模块参考Darknet53模型,包括依次连接的第一卷积层、第二卷积层、第一残差结构、第二残差结构和第一反卷积层,第一残差结构和第二残差结构之间设有第三卷积层,用于完成下采样的操作,第一残差结构和第二残差结构包括依次连接的第四卷积层和第五卷积层,第五卷积层的输出特征通过残差连接与第四卷积层的输入特征融合;
目标检测模块,被配置为将光度立体图输入目标检测模型,得到待测物体的缺陷检测结果。
第三方面,本发明提供了一种电子设备,包括一个或多个处理器;存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本发明提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
相比于现有技术,本发明具有以下有益效果:
(1)本发明提出的基于光度立体与深度学习算法的缺陷检测方法利用现有数据集样本训练光度立体图生成模型和目标检测模型,获得高置信度的权重,进行高精度的缺陷检测。与传统的图像识别和机器学习方法相比,具有检测速度快、识别准确率高、部署成本低、工作效率高的优点;
(2)本发明提出的基于光度立体与深度学习算法的缺陷检测方法采用更优异性能的光度立体图生成模型,在图像采集和融合时能得到更加细致的高精度细节图像,从而提高缺陷检测的准确度;
(3)本发明提出的基于光度立体与深度学习算法的缺陷检测方法将光度立体视觉与目标检测模型相结合应用到缺陷检测领域,为解决缺陷检测问题提供了新的方法思路。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请的一个实施例可以应用于其中的示例性装置架构图;
图2为本申请的实施例的基于光度立体与深度学习算法的缺陷检测方法的流程示意图;
图3为本申请的实施例的基于光度立体与深度学习算法的缺陷检测方法的光度立体图生成模型的结构图;
图4为本申请的实施例的基于光度立体与深度学习算法的缺陷检测方法的结果图;
图5为本申请的实施例的基于光度立体与深度学习算法的缺陷检测装置的示意图;
图6是适于用来实现本申请实施例的电子设备的计算机装置的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
图1示出了可以应用本申请实施例的基于光度立体与深度学习算法的缺陷检测方法或基于光度立体与深度学习算法的缺陷检测装置的示例性装置架构100。
如图1所示,装置架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种应用,例如数据处理类应用、文件处理类应用等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上传的文件或数据进行处理的后台数据处理服务器。后台数据处理服务器可以对获取的文件或数据进行处理,生成处理结果。
需要说明的是,本申请实施例所提供的基于光度立体与深度学习算法的缺陷检测方法可以由服务器105执行,也可以由终端设备101、102、103执行,相应地,基于光度立体与深度学习算法的缺陷检测装置可以设置于服务器105中,也可以设置于终端设备101、102、103中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。在所处理的数据不需要从远程获取的情况下,上述装置架构可以不包括网络,而只需服务器或终端设备。
图2示出了本申请的实施例提供的一种基于光度立体与深度学习算法的缺陷检测方法,包括以下步骤:
S1,获取不同光照方向下的待测物体的表面图像,且每个表面图像上同一位置的像素点对应物体上的同一个位置坐标。
具体的,固定观测物体和图像采集设备,通过控制器控制多个光源依次照射观测物体表面,并控制图像采集设备采集不同光源下物体表面的图像。在其中一个实施例中,采用高清数字摄像机,像素为4096×3000,将观测物体和图像采集设备位置固定,控制图像采集设备采集4种不同光照方向的光源下物体表面的图像,不同光照方向的光源分别对应相对相机平面东南西北四个方向的光源,按照光源递进的命名方式对图片进行存储,分别为L1、L2、L3、L4,构建同一观测物体的图像集合,其中每个图像同一位置的像素点对应观测物体的相同位置坐标。
具体的,本申请的实施例中以电池缺陷样本作为观测物体,并构建训练数据,过程如下:
采集多种电池缺陷样本97个,对应4种不同光照方向下的缺陷图片388张,利用现有的立体广度图生成软件,生成对应97个电池缺陷样本的光度立体图;
将采集到的数据集进行标注,具体步骤如下:
在Windows 10 64bit操作系统环境下,安装开源的labelImg软件,在YOLO格式下,利用labelImg软件对电池缺陷样本的光度立体图进行手动标注,并且在标注时确保每个缺陷都位于标注框的中心;标记完成后,保存生成的txt文件,该txt文件包含电池缺陷的类别、中心坐标及相对的宽和高。
将标注后的数据集作为训练数据,用于同时训练光度立体图生成模型和目标检测模型,损失函数为光度立体图损失和目标检测损失之和。
其中,T表示图像像素矩阵的转置。
目标检测损失为YOLOv3模型自定义的损失。
光度立体图是通过计算物体表面反射率以产生具有增强的对比度和减小的表面噪声的图像。光度立体视觉法是用固定摄像机从不同光照方向下的一组图像中恢复静态场景的表面法线的方法。
早期校准的光度立体方法假设一个简化的反射率模型,如理想的朗伯模型或解析反射率模型:
依据双向反射率分布函数(BRDF)是描述表面反射率特性的一种通用形式,公式如下:
S2,将不同光照方向下的待测物体的表面图像输入光度立体图生成模型,通过特征提取与特征匹配,并将不同光照方向下的待测物体的表面图像进行特征融合,生成待测物体的光度立体图,光度立体图生成模型包括特征提取模块、融合模块和回归模块,特征提取模块分别对不同光照方向下的待测物体的表面图像进行特征提取,得到多个图像特征,将多个图像特征输入融合模块中进行融合,得到融合后的特征,将融合后的特征输入回归模块中进行光度立体图回归,得到待测物体的光度立体图,特征提取模块参考Darknet53模型,包括依次连接的第一卷积层、第二卷积层、第一残差结构、第二残差结构和第一反卷积层,第一残差结构和第二残差结构之间设有第三卷积层,用于完成下采样的操作,第一残差结构和第二残差结构包括依次连接的第四卷积层和第五卷积层,第五卷积层的输出特征通过残差连接与第四卷积层的输入特征融合。
在具体的实施例中,光度立体图生成模型包括特征提取模块、融合模块和回归模块,特征提取模块分别对不同光照方向下的待测物体的表面图像进行特征提取,得到多个图像特征,将多个图像特征输入融合模块中进行融合,得到融合后的特征,将融合后的特征输入回归模块中进行光度立体图回归,得到待测物体的光度立体图。
具体的,参考图3,特征提取模块参考Darknet53模型,包括依次连接的第一卷积层、第二卷积层、第一残差结构、第二残差结构和第一反卷积层,第一卷积层和第二卷积层的卷积核大小为3×3,第一反卷积层的步长为2、卷积核大小为3×3,第一残差结构和第二残差结构之间设有第三卷积层,第三卷积层的步长为2、卷积核大小为3×3,用于完成下采样的操作,第一残差结构和第二残差结构包括依次连接的第四卷积层和第五卷积层,第四卷积层的卷积核大小为1×1,第五卷积层的卷积核大小为3×3,并且第五卷积层的输出特征通过残差连接与第四卷积层的输入特征融合。融合模块为最大池化层,用于提取每个通道层面的最大表征。回归模块包括依次连接的第六卷积层、第七卷积层、第八卷积层、第二反卷积层以及第九卷积层,用于生成光度立体图,其中,第六卷积层,第七卷积层和第八卷积层的卷积核大小为3×3,第二反卷积层的步长为2、卷积核大小为3×3,第九卷积层的卷积核大小为3×3、卷积核数目为3。其中,第一卷积层至第九卷积层均采用conv-BN-leakyrelu结构。
本申请的实施例将基于深度学习的方法引入光度立体视觉,采用光度立体图生成模型,直接学习从反射率观测到给定已知光线方向的表面法线的映射。在光度立体图生成模型的训练数据中的四种光照下的缺陷图片388张,97张光度图用于校准,光度立体图生成模型具体搭建流程如下:
S21:利用卷积对同一观测物体不同光照方向下的表面图像进行特征提取,并共享卷积实现特征匹配;具体的,通过特征提取模块分别对不同光照方向下的表面图像进行特征提取,共享权重,从每个输入中提取特征映射。
S22:通过最大池化层对不同光照图像特征进行融合,得到融合后的特征;在一定的光照方向下,具有高强度或高光的区域为表面法线推断提供了强有力的线索。最大池化层可以自然地从不同光线方向下捕获的表面图像中融合这些强大的特征。
S23:对融合后的特征进行光度图回归以生成精细的光度立体图。具体的,将融合后的特征映射上采样到与输入的表面图像相同的空间维数。在正常回归子网络的末尾添加归一化层以生成法线映射,最终生成精细的光度立体图。
光度立体图生成模型训练好后,将待测物体的四个光照方向的表面图像输入到训练好的光度立体图生成模型中,利用特征提取与特征匹配,对同一观测物体不同光照方向下的表面图像进行特征融合,生成待测物体表面的光度立体图。
S3,将光度立体图输入目标检测模型,得到待测物体的缺陷检测结果。
在具体的实施例中,目标检测模型包括增加SPP模块的YOLOv3模型,目标检测模型中,将Darknet53作为特征提取网络,将待测物体的光度立体图输入特征提取网络进行特征提取,得到第一特征,将第一特征输入到3个卷积层和SPP模块,在SPP模块中分别采用13×13、9×9、5×5、1×1四个不同尺度池化核进行最大池化处理,得到第二特征,根据第二特征进行预测,得到预测结果,对预测结果进行解码,得到待测物体的缺陷检测结果。
在具体的实施例中,在目标检测模型的训练过程中采用K-Means算法对训练集中的标注框进行聚类得到先验框,并替换SPP模块得到的原始的先验框。
具体的,目标检测模型的训练过程需要对模型参数进行调试,具体步骤如下:
首先,调整输入的光度立体图的尺寸为960×960,输入特征提取网络Darknet53进行特征提取,输出大小为30×30的第一特征;
其次,将第一特征输入到3个卷积层和SPP模块,在SPP模块中,分别利用13×13、9×9、5×5、1×1四个不同尺度池化核进行最大池化处理,极大地增加感受野,分离出最显著的上下文特征,得到第二特征。
而后,根据第二特征进行预测,得到预测结果。YOLOv3有三个特征层,共有标记9种缺陷。第一特征的大小分别为(120, 120, 256)、(60, 60, 512)、(30, 30, 1024),第二特征的大小分别为(30, 30, 42)、(60, 60, 42)、(120, 120, 42) 。
最后,对预测结果进行解码操作,利用预测结果反向计算得到预测框的中心、长和宽,得到整个预测框的位置。
训练好的目标检测模型,是利用已有图像整理建立的数据集,输入到添加了SPP模块的YOLOv3模型进行训练,得到93%置信度的权重文件。
在训练过程中,使用K-Means聚类算法处理训练数据的标注框,具体步骤如下:
(1)初始化k个聚类中心,与先验框相对应,令k为9;
(2)计算每一个对象到每一个聚类中心的距离1-IOU(对象,聚类中心);
(3)依次计算每一个对象到每一个聚类中心的距离,将对象分配到距离最近的聚类中心的类簇中;
(4)根据每个簇中的对象重新计算簇中心,采用计算中值的方式;
(5)重复步骤(3)和(4)直到每个簇中元素不再发生变化。
通过标注框、聚类中心和交并比的关系计算,得到的9个先验框尺寸分别为:(38,50)、(67, 83)、(94, 401)、(137, 197)、(151, 112)、(242, 236)、(359, 207)、(421,389)、(764, 879)。
现有的VOC数据集包含多类目标,但电池缺陷数据集面积大,因此需要根据自己制作的数据集样本特点重新进行聚类,采用K-Means算法聚类电池缺陷训练数据集的标注框得到的先验框,替换SPP原始的先验框。
将待测物体的光度立体图输入到训练好的目标检测模型中,输出缺陷的得分、类别与位置,得到的电池缺陷检测结果如图4所示,其中左图为输出结果,右图为左图的局部放大图。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种基于光度立体与深度学习算法的缺陷检测装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
本申请实施例提供了一种基于光度立体与深度学习算法的缺陷检测装置,包括:
图像获取模块1,被配置为获取不同光照方向下的待测物体的表面图像,且每个表面图像上同一位置的像素点对应物体上的同一个位置坐标;
光度立体图生成模块2,被配置为将不同光照方向下的待测物体的表面图像输入光度立体图生成模型,通过特征提取与特征匹配,并将不同光照方向下的待测物体的表面图像进行特征融合,生成待测物体的光度立体图,光度立体图生成模型包括特征提取模块、融合模块和回归模块,特征提取模块分别对不同光照方向下的待测物体的表面图像进行特征提取,得到多个图像特征,将多个图像特征输入融合模块中进行融合,得到融合后的特征,将融合后的特征输入回归模块中进行光度立体图回归,得到待测物体的光度立体图,特征提取模块参考Darknet53模型,包括依次连接的第一卷积层、第二卷积层、第一残差结构、第二残差结构和第一反卷积层,第一残差结构和第二残差结构之间设有第三卷积层,用于完成下采样的操作,第一残差结构和第二残差结构包括依次连接的第四卷积层和第五卷积层,第五卷积层的输出特征通过残差连接与第四卷积层的输入特征融合;
目标检测模块3,被配置为将光度立体图输入目标检测模型,得到待测物体的缺陷检测结果。
下面参考图6,其示出了适于用来实现本申请实施例的电子设备(例如图1所示的服务器或终端设备)的计算机装置600的结构示意图。图6示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机装置600包括中央处理单元(CPU)601和图形处理器(GPU)602,其可以根据存储在只读存储器(ROM)603中的程序或者从存储部分609加载到随机访问存储器(RAM)604中的程序而执行各种适当的动作和处理。在RAM 604中,还存储有装置600操作所需的各种程序和数据。CPU 601、GPU602、ROM 603以及RAM 604通过总线605彼此相连。输入/输出(I/O)接口606也连接至总线605。
以下部件连接至I/O接口606:包括键盘、鼠标等的输入部分607;包括诸如、液晶显示器(LCD)等以及扬声器等的输出部分608;包括硬盘等的存储部分609;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分610。通信部分610经由诸如因特网的网络执行通信处理。驱动器611也可以根据需要连接至I/O接口606。可拆卸介质612,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器611上,以便于从其上读出的计算机程序根据需要被安装入存储部分609。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分610从网络上被下载和安装,和/或从可拆卸介质612被安装。在该计算机程序被中央处理单元(CPU)601和图形处理器(GPU)602执行时,执行本申请的方法中限定的上述功能。
需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读介质或者是上述两者的任意组合。计算机可读介质例如可以是——但不限于——电、磁、光、电磁、红外线或半导体的装置、装置或器件,或者任意以上的组合。计算机可读介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件或者上述的任意合适的组合。在本申请中,计算机可读介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行装置、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行装置、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,也可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,该模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的装置来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的模块也可以设置在处理器中。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取不同光照方向下的待测物体的表面图像,且每个表面图像上同一位置的像素点对应物体上的同一个位置坐标;将不同光照方向下的待测物体的表面图像输入光度立体图生成模型,通过特征提取与特征匹配,并将不同光照方向下的待测物体的表面图像进行特征融合,生成待测物体的光度立体图,光度立体图生成模型包括特征提取模块、融合模块和回归模块,特征提取模块分别对不同光照方向下的待测物体的表面图像进行特征提取,得到多个图像特征,将多个图像特征输入融合模块中进行融合,得到融合后的特征,将融合后的特征输入回归模块中进行光度立体图回归,得到待测物体的光度立体图,特征提取模块参考Darknet53模型,包括依次连接的第一卷积层、第二卷积层、第一残差结构、第二残差结构和第一反卷积层,第一残差结构和第二残差结构之间设有第三卷积层,用于完成下采样的操作,第一残差结构和第二残差结构包括依次连接的第四卷积层和第五卷积层,第五卷积层的输出特征通过残差连接与第四卷积层的输入特征融合;将光度立体图输入目标检测模型,得到待测物体的缺陷检测结果。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (8)
1.一种基于光度立体与深度学习算法的缺陷检测方法,其特征在于,包括以下步骤:
S1,获取不同光照方向下的待测物体的表面图像,且每个表面图像上同一位置的像素点对应物体上的同一个位置坐标;
S2,将所述不同光照方向下的待测物体的表面图像输入经训练的光度立体图生成模型,通过特征提取与特征匹配,并将所述不同光照方向下的待测物体的表面图像进行特征融合,生成所述待测物体的光度立体图,所述光度立体图生成模型包括特征提取模块、融合模块和回归模块,所述特征提取模块分别对所述不同光照方向下的待测物体的表面图像进行特征提取,得到多个图像特征,将所述多个图像特征输入所述融合模块中进行融合,得到融合后的特征,将所述融合后的特征输入所述回归模块中进行光度立体图回归,得到所述待测物体的光度立体图,所述特征提取模块参考Darknet53模型,包括依次连接的第一卷积层、第二卷积层、第一残差结构、第二残差结构和第一反卷积层,所述第一残差结构和所述第二残差结构之间设有第三卷积层,用于完成下采样的操作,所述第一残差结构和所述第二残差结构包括依次连接的第四卷积层和第五卷积层,所述第五卷积层的输出特征通过残差连接与所述第四卷积层的输入特征融合;
S3,将所述光度立体图输入经训练的目标检测模型,所述目标检测模型包括增加SPP模块的YOLOv3模型,所述目标检测模型中,将Darknet53作为特征提取网络,将所述待测物体的光度立体图输入所述特征提取网络进行特征提取,得到第一特征,将所述第一特征输入到3个卷积层和所述SPP模块,在所述SPP模块中分别采用13×13、9×9、5×5、1×1四个不同尺度池化核进行最大池化处理,得到第二特征,根据所述第二特征进行预测,得到预测结果,对所述预测结果进行解码,得到所述待测物体的缺陷检测结果。
2.根据权利要求1所述的基于光度立体与深度学习算法的缺陷检测方法,其特征在于,所述第一卷积层和第二卷积层的卷积核大小为3×3,所述第一反卷积层的步长为2、卷积核大小为3×3,所述第三卷积层的步长为2、卷积核大小为3×3,所述第四卷积层的卷积核大小为1×1,所述第五卷积层的卷积核大小为3×3。
3.根据权利要求1所述的基于光度立体与深度学习算法的缺陷检测方法,其特征在于,所述融合模块为最大池化层,用于提取每个通道层面的最大表征。
4.根据权利要求1所述的基于光度立体与深度学习算法的缺陷检测方法,其特征在于,所述回归模块包括依次连接的第六卷积层、第七卷积层、第八卷积层、第二反卷积层以及第九卷积层,用于生成光度立体图,其中,所述第六卷积层,第七卷积层和第八卷积层的卷积核大小为3×3,所述第二反卷积层的步长为2、卷积核大小为3×3,所述第九卷积层的卷积核大小为3×3、卷积核数目为3。
5.根据权利要求1所述的基于光度立体与深度学习算法的缺陷检测方法,其特征在于,在训练过程中,所述光度立体图生成模型和所述目标检测模型同时训练,损失函数为光度立体图损失和目标检测损失之和。
6.一种基于光度立体与深度学习算法的缺陷检测装置,其特征在于,包括:
图像获取模块,被配置为获取不同光照方向下的待测物体的表面图像,且每个表面图像上同一位置的像素点对应物体上的同一个位置坐标;
光度立体图生成模块,被配置为将所述不同光照方向下的待测物体的表面图像输入经训练的光度立体图生成模型,通过特征提取与特征匹配,并将所述不同光照方向下的待测物体的表面图像进行特征融合,生成所述待测物体的光度立体图,所述光度立体图生成模型包括特征提取模块、融合模块和回归模块,所述特征提取模块分别对所述不同光照方向下的待测物体的表面图像进行特征提取,得到多个图像特征,将所述多个图像特征输入所述融合模块中进行融合,得到融合后的特征,将所述融合后的特征输入所述回归模块中进行光度立体图回归,得到所述待测物体的光度立体图,所述特征提取模块参考Darknet53模型,包括依次连接的第一卷积层、第二卷积层、第一残差结构、第二残差结构和第一反卷积层,所述第一残差结构和所述第二残差结构之间设有第三卷积层,用于完成下采样的操作,所述第一残差结构和所述第二残差结构包括依次连接的第四卷积层和第五卷积层,所述第五卷积层的输出特征通过残差连接与所述第四卷积层的输入特征融合;
目标检测模块,被配置为将所述光度立体图输入经训练的目标检测模型,所述目标检测模型包括增加SPP模块的YOLOv3模型,所述目标检测模型中,将Darknet53作为特征提取网络,将所述待测物体的光度立体图输入所述特征提取网络进行特征提取,得到第一特征,将所述第一特征输入到3个卷积层和所述SPP模块,在所述SPP模块中分别采用13×13、9×9、5×5、1×1四个不同尺度池化核进行最大池化处理,得到第二特征,根据所述第二特征进行预测,得到预测结果,对所述预测结果进行解码,得到所述待测物体的缺陷检测结果。
7.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的方法。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-5中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211588775.6A CN115656189B (zh) | 2022-12-12 | 2022-12-12 | 基于光度立体与深度学习算法的缺陷检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211588775.6A CN115656189B (zh) | 2022-12-12 | 2022-12-12 | 基于光度立体与深度学习算法的缺陷检测方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115656189A CN115656189A (zh) | 2023-01-31 |
CN115656189B true CN115656189B (zh) | 2023-03-17 |
Family
ID=85019506
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211588775.6A Active CN115656189B (zh) | 2022-12-12 | 2022-12-12 | 基于光度立体与深度学习算法的缺陷检测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115656189B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117372770A (zh) * | 2023-05-31 | 2024-01-09 | 上海才匠智能科技有限公司 | 基于光度立体和深度学习的pcb微小缺陷检测识别方法 |
CN117347383A (zh) * | 2023-12-06 | 2024-01-05 | 中材新材料装备科技(天津)有限公司 | 一种硅酸钙板表面缺陷检测与自动修复系统及方法 |
CN118429349B (zh) * | 2024-07-05 | 2024-09-06 | 成都嘉晨科技有限公司 | 一种芯片封装的质量评价方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113658155A (zh) * | 2021-08-24 | 2021-11-16 | 凌云光技术股份有限公司 | 一种基于光度立体的物体表面瑕疵检测分析方法及装置 |
CN115147363A (zh) * | 2022-06-24 | 2022-10-04 | 深圳市纳研科技有限公司 | 一种基于深度学习算法的影像缺陷检测和分类方法及系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112345539A (zh) * | 2020-11-05 | 2021-02-09 | 菲特(天津)检测技术有限公司 | 一种基于深度学习的铝压铸件表面缺陷检测方法 |
EP4016058B1 (en) * | 2020-12-16 | 2023-11-15 | Zhejiang University | Automatic machine of vision on detection device for workpiece with complex curved surface |
CN113838044B (zh) * | 2021-09-30 | 2024-09-10 | 江西省通讯终端产业技术研究院有限公司 | 基于机器视觉的面板缺陷检测方法及系统 |
CN114998308A (zh) * | 2022-07-06 | 2022-09-02 | 江苏科技大学 | 一种基于光度立体的缺陷检测方法及系统 |
-
2022
- 2022-12-12 CN CN202211588775.6A patent/CN115656189B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113658155A (zh) * | 2021-08-24 | 2021-11-16 | 凌云光技术股份有限公司 | 一种基于光度立体的物体表面瑕疵检测分析方法及装置 |
CN115147363A (zh) * | 2022-06-24 | 2022-10-04 | 深圳市纳研科技有限公司 | 一种基于深度学习算法的影像缺陷检测和分类方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN115656189A (zh) | 2023-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115656189B (zh) | 基于光度立体与深度学习算法的缺陷检测方法及装置 | |
CN109508681B (zh) | 生成人体关键点检测模型的方法和装置 | |
KR102612808B1 (ko) | 조명 추정 | |
JP2021526253A (ja) | 深層学習システム | |
Kang et al. | Learning efficient illumination multiplexing for joint capture of reflectance and shape. | |
CN111414879B (zh) | 人脸遮挡程度识别方法、装置、电子设备及可读存储介质 | |
US11823415B2 (en) | 3D pose estimation in robotics | |
CN112419179B (zh) | 修复图像的方法、装置、设备和计算机可读介质 | |
CN110084873B (zh) | 用于渲染三维模型的方法和装置 | |
CN113255607A (zh) | 基于多模型融合的遥感房屋检测方法及装置 | |
CN111292406B (zh) | 模型渲染方法、装置、电子设备及介质 | |
CN113205507A (zh) | 一种视觉问答方法、系统及服务器 | |
CN118097157B (zh) | 基于模糊聚类算法的图像分割方法及系统 | |
CN110288691B (zh) | 渲染图像的方法、装置、电子设备和计算机可读存储介质 | |
CN113706400A (zh) | 图像矫正方法、装置、显微镜图像的矫正方法及电子设备 | |
CN115620264B (zh) | 车辆定位方法、装置、电子设备和计算机可读介质 | |
CN117078574A (zh) | 一种图像去雨方法及装置 | |
CN113421217A (zh) | 可行驶区域检测方法和装置 | |
CN116258756A (zh) | 一种自监督单目深度估计方法及系统 | |
CN118265998A (zh) | 坏点检测模型训练方法、坏点检测方法以及坏点修复方法 | |
CN112418233B (zh) | 图像处理方法、装置、可读介质及电子设备 | |
CN117745928A (zh) | 一种图像处理方法、装置、设备及介质 | |
CN114820558A (zh) | 汽车零件检测方法、装置、电子设备和计算机可读介质 | |
CN115588039B (zh) | 基于光线自适应对抗学习的光度立体图生成方法及装置 | |
CN111862105A (zh) | 图像的区域处理方法、装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |