CN116894829A - 焊缝缺陷检测的方法、装置、计算机设备及存储介质 - Google Patents

焊缝缺陷检测的方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN116894829A
CN116894829A CN202310902645.3A CN202310902645A CN116894829A CN 116894829 A CN116894829 A CN 116894829A CN 202310902645 A CN202310902645 A CN 202310902645A CN 116894829 A CN116894829 A CN 116894829A
Authority
CN
China
Prior art keywords
target
defect
coordinate system
weld
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310902645.3A
Other languages
English (en)
Inventor
舒琦
陈志亮
姜文晖
方玉明
赵小伟
钟裕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shengjing Intelligent Technology Jiaxing Co ltd
Original Assignee
Shengjing Intelligent Technology Jiaxing Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shengjing Intelligent Technology Jiaxing Co ltd filed Critical Shengjing Intelligent Technology Jiaxing Co ltd
Priority to CN202310902645.3A priority Critical patent/CN116894829A/zh
Publication of CN116894829A publication Critical patent/CN116894829A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30152Solder
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本公开涉及计算机技术领域,公开了焊缝缺陷检测的方法、装置、计算机设备及存储介质,其中,该方法包括:获取焊缝待检测对象的目标图像;根据目标图像确定相机的内参数和外参数;根据内参数和外参数,将焊缝待检测对象的激光雷达坐标系转换到像素坐标系,得到目标图像对应的三维的目标点云数据在投影到二维图像上时所对应的目标像素数据;根据目标图像对应的二维的目标图像数据、目标点云数据、目标像素数据以及目标检测模型,得到焊缝待检测对象的焊缝缺陷以及对应的缺陷位置。本公开解决了相关技术在数据未对齐的情况下,存在焊缝缺陷检测结果不准确的问题。

Description

焊缝缺陷检测的方法、装置、计算机设备及存储介质
技术领域
本公开涉及计算机技术领域,具体涉及焊缝缺陷检测的方法、装置、计算机设备及存储介质。
背景技术
在大型的制造业中,大型物件的焊接是十分常见的,在工业制造生产中,很多设备的生产都需要焊接,大型的设备由于技术的限制或者是成本的限制,焊接的过程中可能会出现很多焊点或者是其他不符合规定的缺陷,这些缺陷会使得设备的使用造成很大的影响。
在实际的焊接场景下,对焊接的部分进行检测时,若能及时地发现焊接不完好出现的焊缝缺陷十分重要。当前的实际应用场景下对焊缝进行缺陷检测中,为避免高温的影响,对焊接的部分进行边焊接边拍照,再进行实时检测焊缝中的缺陷。但是由于焊接时复杂的环境背景,以及设备焊接的体积较大问题,单个2D相机和3D点云相机难以完全覆盖整个设备的焊接,需要对大型设备的焊缝进行转动,才能获取完整的焊接图像。由于2D相机和3D点云相机不是在相同的位置和相同的角度拍摄焊缝的,因此获取到的数据都是不对齐的,导致最终的焊缝缺陷检测结果不准确。
因此,相关技术中存在焊缝缺陷检测结果不准确的问题。
发明内容
有鉴于此,本公开提供了一种焊缝缺陷检测的方法、装置、计算机设备及存储介质,以解决焊缝缺陷检测结果不准确的问题。
第一方面,本公开提供了一种焊缝缺陷检测的方法,该方法包括:
获取焊缝待检测对象的目标图像;
根据所述目标图像确定相机的内参数和外参数;
根据所述内参数和所述外参数,将所述焊缝待检测对象的激光雷达坐标系转换到像素坐标系,得到所述目标图像对应的三维的目标点云数据在投影到二维图像上时所对应的目标像素数据;
根据所述目标图像对应的二维的目标图像数据、所述目标点云数据、所述目标像素数据以及目标检测模型,得到所述焊缝待检测对象的焊缝缺陷以及对应的缺陷位置,其中,所述目标检测模型用于确定所述焊缝待检测对象是否存在焊缝缺陷以及在存在焊缝缺陷的情况下所对应的所述缺陷位置。
在本公开实施例中,获取到焊缝待检测对象的目标图像后,然后根据目标图像获取到相机的内参数和外参数,利用相机的内参数和外参数来计算激光雷达坐标系转换到像素坐标系后,使得目标点云数据投影到二维图像上时所得到的目标像素数据,然后再基于目标图像对应的二维的目标图像数据、目标点云数据、目标像素数据以及目标检测模型,得到焊缝缺陷以及焊缝缺陷对应的缺陷位置。本公开实施例公开的焊缝缺陷检测的整个过程无需对现场环境进行整体建模,同时通过相机的内参数和外参数实现目标图像对应的三维的目标点云数据与二维图像上目标像素数据之间的数据对齐,再利用二维的目标图像数据和三维的目标点云数据融合的方式,并结合深度学习的方法对目标图像中焊缝的缺陷进行识别和分割,得到较为准确的缺陷识别结果和缺陷位置的确定,整个检测过程准确率更高、鲁棒性更强,解决了相关技术中存在焊缝缺陷检测结果不准确的问题。
在一种可选的实施方式中,根据所述内参数和所述外参数,将所述焊缝待检测对象的激光雷达坐标系转换到像素坐标系,包括:
根据所述激光雷达坐标系和所述外参数,将所述激光雷达坐标系转换为相机坐标系;
根据所述相机坐标系和相机的焦距,将所述相机坐标系转换为图像坐标系;
根据所述图像坐标系和所述内参数,将所述图像坐标系转换为所述像素坐标系。
在本公开实施例中,利用相机的内参数和外参数,实现激光雷达坐标系到像素坐标系的转换,这样便于使用标定的方式实现三维的目标点云数据投影到二维平面上,实现二维的目标图像数据和目标点云数据之间的数据对齐。
在一种可选的实施方式中,根据所述激光雷达坐标系和所述外参数,将所述激光雷达坐标系转换为相机坐标系,包括:
根据所述外参数确定第一矩阵和第二矩阵;
基于所述第一矩阵和所述第二矩阵,将所述激光雷达坐标系转换为所述相机坐标系。
在本公开实施例中,通过相机外参数确定第一矩阵和第二矩阵,实现激光雷达坐标系转换为所述相机坐标系,便于实现二维的目标图像数据和目标点云数据之间的数据对齐。
在一种可选的实施方式中,根据所述图像坐标系和所述内参数,将所述图像坐标系转换为所述像素坐标系,包括:
对所述图像坐标系内的各个坐标点作预设变换,得到变换后的图像坐标点;
根据所述图像坐标点和所述内参数,将所述图像坐标系转换为所述像素坐标系。
在本公开实施例中,通过对图像坐标系内的各个坐标点作预设变换,将变换后的图像坐标点与相机内参数相结合,实现图像坐标系到所述像素坐标系的转换,便于实现二维的目标图像数据和目标点云数据之间的数据对齐。
在一种可选的实施方式中,在所述根据所述目标图像对应的二维的目标图像数据、所述目标点云数据、所述目标像素数据以及目标检测模型,得到所述焊缝待检测对象的焊缝缺陷以及对应的缺陷位置之前,所述方法还包括:
获取焊缝缺陷训练样本的训练图像,其中,所述焊缝缺陷训练样本内的各个训练图像均携带有缺陷标签和缺陷位置标签;
获取所述训练图像对应的二维的初始图像数据、三维的初始点云数据以及根据相机的内参数和外参数得到的所述初始点云数据在投影到二维图像上时所对应的初始像素数据;
将所述初始图像数据、所述初始点云数据以及所述初始像素数据相拼接,得到拼接后的特征信息;
利用所述拼接后的特征信息和初始检测模型,得到焊缝初始检测结果和对应的缺陷初始位置;
将所述焊缝初始检测结果与所述缺陷标签、所述缺陷初始位置与所述缺陷位置标签作比较,得到比较结果;
在所述比较结果指示所述焊缝初始检测结果与所述缺陷标签、所述缺陷初始位置与所述缺陷位置标签不相一致的情况下,调整所述初始检测模型的模型参数权重,直到所述焊缝初始检测结果与所述缺陷标签、所述缺陷初始位置与所述缺陷位置标签均相一致时,停止调整所述模型参数权重,得到所述目标检测模型。
在本公开实施例中,将焊缝缺陷训练样本的训练图像对应的二维的初始图像数据、三维的初始点云数据以及初始点云数据在投影到二维图像上时所对应的初始像素数据相融合,输入到初始检测模型,进而得到焊缝初始检测结果和对应的缺陷初始位置,再将焊缝初始检测结果和对应的缺陷初始位置与训练图像携带的缺陷标签和缺陷位置标签相比较,根据比较结果调整初始检测模型的模型参数权重,最终确定出目标检测模型。由于二维图像数据和三维点云数据相融合,利用了二维图像的丰富的语义信息和三维点云数据所带来的深度信息,这样得到的目标检测模型具备较高的分割性能,相比单一模态模型的检测精准度更高。
在一种可选的实施方式中,利用所述拼接后的特征信息和初始检测模型,得到焊缝初始检测结果和对应的缺陷初始位置,包括:
将所述拼接后的特征信息输入所述初始检测模型中进行多尺度的编码,得到编码后的特征;
利用自注意力机制提取所述编码后的特征中的关键特征;
将所述关键特征传输至前馈层做特征检测;
对检测后的特征执行下采样处理,得到降维后的特征;
将所述降维后的特征输入多层感知机,得到所述焊缝初始检测结果和对应的所述缺陷初始位置。
在一种可选的实施方式中,根据所述目标图像对应的二维的目标图像数据、所述目标点云数据、所述目标像素数据以及目标检测模型,得到所述焊缝待检测对象的焊缝缺陷以及对应的缺陷位置,包括:
将所述目标图像数据、所述目标点云数据、所述目标像素数据进行拼接,得到目标拼接特征信息;
将所述目标拼接特征信息输入所述目标检测模型,得到所述焊缝待检测对象的所述焊缝缺陷以及对应的所述缺陷位置。
在本公开实施例中,由于目标检测模型是已经训练好的模型,只需将目标图像数据、所述目标点云数据、所述目标像素数据进行拼接,将拼接后的特征输入目标检测模型即可得到较为准确的焊缝缺陷以及对应的所述缺陷位置。
第二方面,本公开提供了一种焊缝缺陷检测的装置,该装置包括:
第一获取模块,用于获取焊缝待检测对象的目标图像;
确定模块,用于根据所述目标图像确定相机的内参数和外参数;
第一得到模块,用于根据所述内参数和所述外参数,将所述焊缝待检测对象的激光雷达坐标系转换到像素坐标系,得到所述目标图像对应的三维的目标点云数据在投影到二维图像上时所对应的目标像素数据;
第二得到模块,用于根据所述目标图像对应的二维的目标图像数据、所述目标点云数据、所述目标像素数据以及目标检测模型,得到所述焊缝待检测对象的焊缝缺陷以及对应的缺陷位置,其中,所述目标检测模型用于确定所述焊缝待检测对象是否存在焊缝缺陷以及在存在焊缝缺陷的情况下所对应的所述缺陷位置。
第三方面,本公开提供了一种计算机设备,包括:存储器和处理器,存储器和处理器之间互相通信连接,存储器中存储有计算机指令,处理器通过执行计算机指令,从而执行上述第一方面或其对应的任一实施方式的焊缝缺陷检测的方法。
第四方面,本公开提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机指令,计算机指令用于使计算机执行上述第一方面或其对应的任一实施方式的焊缝缺陷检测的方法。
附图说明
为了更清楚地说明本公开具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本公开的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本公开实施例的焊缝缺陷检测的方法的流程示意图;
图2是根据本公开实施例的建立二维目标图像数据和三维目标点云数据之间的对应关系的坐标系示意图;
图3是根据本公开实施例的网络结构示意图;
图4是根据本公开实施例的焊缝缺陷检测的装置的结构框图;
图5是本公开实施例的计算机设备的硬件结构示意图。
具体实施方式
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
在对焊接的部位进行焊缝检测时,通常是在焊接设备的上方固定2D相机和3D点云相机,考虑有些设备比较大,2D相机或者是3D点云相机无法全部捕获焊缝,所以采用了转动设备的方法来获取所有的焊缝数据。由于2D相机和3D点云相机不是在相同的位置和相同的角度拍摄焊缝的,因此获取到的数据都是不对齐的,导致最终的焊缝缺陷检测结果不准确。
为了解决上述问题,根据本公开实施例,提供了一种焊缝缺陷检测的方法实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
在本实施例中提供了一种焊缝缺陷检测的方法,图1是根据本公开实施例的焊缝缺陷检测的方法的流程图,如图1所示,该方法可以应用于进行数据处理的服务器侧,该流程包括如下步骤:
步骤S101,获取焊缝待检测对象的目标图像。
可选地,在本公开实施例中,服务器会获取到当前采集装置采集到的、需要进行焊缝检测的焊缝待检测对象对应的目标图像。
步骤S102,根据目标图像确定相机的内参数和外参数。
可选地,基于目标图像来确定出3D相机的内参数和外参数以及2D相机的内参数和外参数。其中,内参数是与相机自身特性相关的参数,比如相机的焦距、像素大小等,外参数是在世界坐标系中的参数,比如相机的位置、旋转方向等。相比于不变的内参,外参会随着相机运动发生改变。
步骤S103,根据内参数和外参数,将焊缝待检测对象的激光雷达坐标系转换到像素坐标系,得到目标图像对应的三维的目标点云数据在投影到二维图像上时所对应的目标像素数据。
可选地,在获取3D相机的内参数和外参数以及2D相机的内参数和外参数后,基于相机标定原理,利用这些参数建立定标板确定的三维坐标系和相机图像坐标系的映射关系,也即是用这些参数把一个三维空间中的点映射到图像空间内。因此,在本公开实施例中,将焊缝待检测对象的激光雷达坐标系转换到像素坐标系,得到目标图像对应的三维的目标点云数据在投影到二维图像上时所对应的目标像素数据。
步骤S104,根据目标图像对应的二维的目标图像数据、目标点云数据、目标像素数据以及目标检测模型,得到焊缝待检测对象的焊缝缺陷以及对应的缺陷位置,其中,目标检测模型用于确定焊缝待检测对象是否存在焊缝缺陷以及在存在焊缝缺陷的情况下所对应的缺陷位置。
可选地,将2D相机获取到的关于目标图像的二维目标图像数据与3D相机获取到的关于目标图像的三维目标点云数据,以及三维的目标点云数据在投影到二维图像上时所对应的目标像素数据做拼接,将拼接后的数据输入目标检测模型内,即可得到目标检测模型检测到的针对焊缝待检测对象的焊缝缺陷以及出现缺陷的缺陷位置。
需要说明的是,该目标检测模型是已经训练好的、用于确定焊缝待检测对象是否存在焊缝缺陷以及在存在焊缝缺陷的情况下出现缺陷的具体位置的模型。
在本公开实施例中,获取到焊缝待检测对象的目标图像后,然后根据目标图像获取到相机的内参数和外参数,利用相机的内参数和外参数来计算激光雷达坐标系转换到像素坐标系后,使得目标点云数据投影到二维图像上时所得到的目标像素数据,然后再基于目标图像对应的二维的目标图像数据、目标点云数据、目标像素数据以及目标检测模型,得到焊缝缺陷以及焊缝缺陷对应的缺陷位置。本公开实施例公开的焊缝缺陷检测的整个过程无需对现场环境进行整体建模,同时通过相机的内参数和外参数实现目标图像对应的三维的目标点云数据与二维图像上目标像素数据之间的数据对齐,再利用二维的目标图像数据和三维的目标点云数据融合的方式,并结合深度学习的方法对目标图像中焊缝的缺陷进行识别和分割,得到较为准确的缺陷识别结果和缺陷位置的确定,整个检测过程准确率更高、鲁棒性更强,解决了相关技术中存在焊缝缺陷检测结果不准确的问题。
在一些可选的实施方式中,根据内参数和外参数,将焊缝待检测对象的激光雷达坐标系转换到像素坐标系,包括:
根据激光雷达坐标系和外参数,将激光雷达坐标系转换为相机坐标系;
根据相机坐标系和相机的焦距,将相机坐标系转换为图像坐标系;
根据图像坐标系和内参数,将图像坐标系转换为像素坐标系。
可选地,采用相机标定的方法来获取到2D相机和3D相机的内参数和外参数后,获取一系列的矩阵来计算二维目标图像数据和三维目标点云数据之间的对应关系。
首先需要建立相对应的坐标系,所要建立的坐标系如图2所示。其中,激光雷达坐标系是焊缝待检测对象与激光雷达相机的相对位置,表示为[XL,YL,ZL],其中激光雷达相机的几何中心为原点,XL轴水平向前,YL轴水平向左,ZL轴垂直向上,符合右手坐标系的原则。相机系统中存在三个坐标系:像素坐标系、图像坐标系和相机坐标系(这里指的是2D相机坐标系),像素坐标系表示为[u,v],其中原点为目标图像的左上角,u轴水平向右,v轴垂直向下;图像坐标系表示为[x,y],其中原点为2D相机主点,即2D相机光轴与图像平面的交点,一般位于图像平面的中心,x轴与u轴平行,y轴与v轴平行;2D相机坐标系可以描述2D相机与焊缝待检测对象的相对位置,表示为[XC,YC,ZC],其中原点是2D相机光点O点,XC轴与x轴平行,YC轴与y轴平行,ZC轴与相机光轴平行,与图像平面垂直。
三维目标点云数据和二维目标图像数据是在不同位置对于同一条焊缝进行拍摄的,两者之间有一定的位置关系,利用相机标定算法基于两个相机的内参数和外参数,使得激光雷达相机(即3D相机)和2D相机所拍摄的图片对齐,即找到激光点云数据的像素点与图像数据的对应的像素点。
坐标变换的过程可以分为三个步骤:第一,根据激光雷达坐标系和外参数,将激光雷达坐标系转换为相机坐标系;第二,根据相机坐标系和相机的焦距,将相机坐标系转换为图像坐标系;第三,根据图像坐标系和内参数,将图像坐标系转换为像素坐标系。
在本公开实施例中,利用相机的内参数和外参数,实现激光雷达坐标系到像素坐标系的转换,这样便于使用标定的方式实现三维的目标点云数据投影到二维平面上,实现二维的目标图像数据和目标点云数据之间的数据对齐。
在一些可选的实施方式中,根据激光雷达坐标系和外参数,将激光雷达坐标系转换为相机坐标系,包括:
根据外参数确定第一矩阵和第二矩阵;
基于第一矩阵和第二矩阵,将激光雷达坐标系转换为相机坐标系。
可选地,使用标定的方式获得激光雷达坐标系转换相机坐标系的外参数,再获取第一矩阵,如旋转矩阵R和第二矩阵,如平移矩阵T,其中R是大小为3×3的矩阵,表示为空间坐标旋转;T是大小为3×1的矩阵,表示为空间坐标平移。
基于第一矩阵和第二矩阵以及转换关系式(1),将激光雷达坐标系转换为相机坐标系。
另外,需要说明下根据相机坐标系和相机的焦距,将相机坐标系转换为图像坐标系的过程:从相机坐标系到图像坐标系的转换,是从三维转换坐标系转换为二维坐标系的过程,属于透视投影关系。其中f为相机的焦距,其转换关系如式(2)。
在本公开实施例中,通过相机外参数确定第一矩阵和第二矩阵,实现激光雷达坐标系转换为相机坐标系,便于实现二维的目标图像数据和目标点云数据之间的数据对齐。
在一些可选的实施方式中,根据图像坐标系和内参数,将图像坐标系转换为像素坐标系,包括:
对图像坐标系内的各个坐标点作预设变换,得到变换后的图像坐标点;
根据图像坐标点和内参数,将图像坐标系转换为像素坐标系。
可选地,从图像坐标系转换到像素坐标系,此时不存在旋转变换,但是坐标原点的位置不同,单位长度也不一样,主要是涉及对图像坐标系内的各个坐标点作预设变换,比如伸缩变换和平移变换。然后结合相机内参数,将图像坐标系转换为像素坐标系,具体计算公式如式(3)。
综上,激光雷达坐标系转换到像素坐标系的转换公式可以表示为式(4)。
在本公开实施例中,通过对图像坐标系内的各个坐标点作预设变换,将变换后的图像坐标点与相机内参数相结合,实现图像坐标系到像素坐标系的转换,便于实现二维的目标图像数据和目标点云数据之间的数据对齐。
在一些可选的实施方式中,在根据目标图像对应的二维的目标图像数据、目标点云数据、目标像素数据以及目标检测模型,得到焊缝待检测对象的焊缝缺陷以及对应的缺陷位置之前,方法还包括:
获取焊缝缺陷训练样本的训练图像,其中,焊缝缺陷训练样本内的各个训练图像均携带有缺陷标签和缺陷位置标签;
获取训练图像对应的二维的初始图像数据、三维的初始点云数据以及根据相机的内参数和外参数得到的初始点云数据在投影到二维图像上时所对应的初始像素数据;
将初始图像数据、初始点云数据以及初始像素数据相拼接,得到拼接后的特征信息;
利用拼接后的特征信息和初始检测模型,得到焊缝初始检测结果和对应的缺陷初始位置;
将焊缝初始检测结果与缺陷标签、缺陷初始位置与缺陷位置标签作比较,得到比较结果;
在比较结果指示焊缝初始检测结果与缺陷标签、缺陷初始位置与缺陷位置标签不相一致的情况下,调整初始检测模型的模型参数权重,直到焊缝初始检测结果与缺陷标签、缺陷初始位置与缺陷位置标签均相一致时,停止调整模型参数权重,得到目标检测模型。
可选地,在本公开实施例中,为了得到目标检测模型,需要获取一些焊缝缺陷训练样本的训练图像作为训练初始检测模型的数据,然后基于训练图像携带的缺陷标签和缺陷位置标签不断调整初始检测模型的模型参数权重,进而得到训练好的目标检测模型。
由于2D图像数据几何信息较少,缺少深度信息,3D点云数据语义数据较少,具有深度信息,为了提高模型的分割性能,本公开实施例使用Transformer架构的分割的网络,将2D数据和3D数据做融合。
具体地,先获取训练图像对应的二维的初始图像数据、训练图像三维的初始点云数据以及根据相机的内参数和外参数得到的初始点云数据在投影到二维图像上时所对应的初始像素数据。再如图3,将初始图像数据、初始点云数据以及初始像素数据三种特征在通道维度上拼接在一起,得到拼接后的特征信息,再利用初始检测模型(即Transformer分割网络模型)的卷积神经网络去提取拼接后的特征信息,然后经过初始检测模型处理,输出焊缝初始检测结果和对应的缺陷初始位置。
由于训练图像本身携带有自身的缺陷标签和缺陷位置标签,所以可以将焊缝初始检测结果和对应的缺陷初始位置分别与训练图像的缺陷标签和缺陷位置标签进行比较,只有在焊缝初始检测结果与缺陷标签、缺陷初始位置与缺陷位置标签均相一致时才认为初始检测模型训练完成,否则需要一直调整初始检测模型的模型参数权重,进而得到目标检测模型。
在本公开实施例中,将焊缝缺陷训练样本的训练图像对应的二维的初始图像数据、三维的初始点云数据以及初始点云数据在投影到二维图像上时所对应的初始像素数据相融合,输入到初始检测模型,进而得到焊缝初始检测结果和对应的缺陷初始位置,再将焊缝初始检测结果和对应的缺陷初始位置与训练图像携带的缺陷标签和缺陷位置标签相比较,根据比较结果调整初始检测模型的模型参数权重,最终确定出目标检测模型。由于二维图像数据和三维点云数据相融合,利用了二维图像的丰富的语义信息和三维点云数据所带来的深度信息,这样得到的目标检测模型具备较高的分割性能,相比单一模态模型的检测精准度更高。
在一些可选的实施方式中,利用拼接后的特征信息和初始检测模型,得到焊缝初始检测结果和对应的缺陷初始位置,包括:
将拼接后的特征信息输入初始检测模型中进行多尺度的编码,得到编码后的特征;
利用自注意力机制提取编码后的特征中的关键特征;
将关键特征传输至前馈层做特征检测;
对检测后的特征执行下采样处理,得到降维后的特征;
将降维后的特征输入多层感知机,得到焊缝初始检测结果和对应的缺陷初始位置。
可选地,如图3所示,Transformer分割网络模型包含编码层、多个特征提取层、多层感知机以及多层神经网络,进一地,将拼接后的特征信息输入Transformer分割网络模型中进行多尺度的编码,得到编码后的特征,再将编码后的特征输入特征提取层进行特征提取,由于特征提取层又包含加速自注意力机制、前馈层,所以先利用加速自注意力机制提取编码后的特征中的关键特征,然后将键特征传输至前馈层做特征检测,加速自注意力机制和前馈层执行的动作循环执行N次,将最终得到的特征执行下采样处理,得到降维后的特征。然后将每个特征提取层得到的降维后的特征全部输入多层感知机,经过多层神经网络处理后,输出焊缝初始检测结果和对应的缺陷初始位置。
上述过程有效地利用上下文的语义信息(比如颜色信息、纹理信息等和物体之间的空间信息(比如几何信息、像素位置关系等)以及细节信息(比如边源信息、纹理细节信息等),同时利用Transformer中的加速自注意力机制,通过压缩通道的数量,来减少计算的开销,同时也获得较大的感受野,使得网络能够有效的分割出缺陷。
在一些可选的实施方式中,根据目标图像对应的二维的目标图像数据、目标点云数据、目标像素数据以及目标检测模型,得到焊缝待检测对象的焊缝缺陷以及对应的缺陷位置,包括:
将目标图像数据、目标点云数据、目标像素数据进行拼接,得到目标拼接特征信息;
将目标拼接特征信息输入目标检测模型,得到焊缝待检测对象的焊缝缺陷以及对应的缺陷位置。
可选地,将目标图像数据、目标点云数据、目标像素数据进行拼接三种特征在通道维度上拼接到一起后,得到目标拼接特征信息,然后将目标拼接特征信息输入目标检测模型,即可得到焊缝待检测对象是否存在焊缝缺陷,以及在存在焊缝缺陷时对应的缺陷位置。
在本公开实施例中,由于目标检测模型是已经训练好的模型,只需将目标图像数据、目标点云数据、目标像素数据进行拼接,将拼接后的特征输入目标检测模型即可得到较为准确的焊缝缺陷以及对应的缺陷位置。
在本实施例中还提供了一种焊缝缺陷检测的装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
本实施例提供一种在本实施例中还提供了一种焊缝缺陷检测的装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
本实施例提供一种焊缝缺陷检测的装置,如图4所示,包括:
第一获取模块401,用于获取焊缝待检测对象的目标图像;
确定模块402,用于根据目标图像确定相机的内参数和外参数;
第一得到模块403,用于根据内参数和外参数,将焊缝待检测对象的激光雷达坐标系转换到像素坐标系,得到目标图像对应的三维的目标点云数据在投影到二维图像上时所对应的目标像素数据;
第二得到模块404,用于根据目标图像对应的二维的目标图像数据、目标点云数据、目标像素数据以及目标检测模型,得到焊缝待检测对象的焊缝缺陷以及对应的缺陷位置,其中,目标检测模型用于确定焊缝待检测对象是否存在焊缝缺陷以及在存在焊缝缺陷的情况下所对应的缺陷位置。
在一些可选的实施方式中,第一得到模块403包括:
第一转换单元,用于根据激光雷达坐标系和外参数,将激光雷达坐标系转换为相机坐标系;
第二转换单元,用于根据相机坐标系和相机的焦距,将相机坐标系转换为图像坐标系;
第三转换单元,用于根据图像坐标系和内参数,将图像坐标系转换为像素坐标系。
在一些可选的实施方式中,第一转换单元包括:
确定子模块,用于根据外参数确定第一矩阵和第二矩阵;
第一转换子模块,用于基于第一矩阵和第二矩阵,将激光雷达坐标系转换为相机坐标系。
在一些可选的实施方式中,第三转换单元包括:
得到子模块,用于对图像坐标系内的各个坐标点作预设变换,得到变换后的图像坐标点;
第二转换子模块,用于根据图像坐标点和内参数,将图像坐标系转换为像素坐标系。
在一些可选的实施方式中,该装置包括:
第二获取模块,用于在根据目标图像对应的二维的目标图像数据、目标点云数据、目标像素数据以及目标检测模型,得到焊缝待检测对象的焊缝缺陷以及对应的缺陷位置之前,获取焊缝缺陷训练样本的训练图像,其中,焊缝缺陷训练样本内的各个训练图像均携带有缺陷标签和缺陷位置标签;
第三获取模块,用于获取训练图像对应的二维的初始图像数据、三维的初始点云数据以及根据相机的内参数和外参数得到的初始点云数据在投影到二维图像上时所对应的初始像素数据;
拼接模块,用于将初始图像数据、初始点云数据以及初始像素数据相拼接,得到拼接后的特征信息;
第三得到模块,用于利用拼接后的特征信息和初始检测模型,得到焊缝初始检测结果和对应的缺陷初始位置;
比较模块,用于将焊缝初始检测结果与缺陷标签、缺陷初始位置与缺陷位置标签作比较,得到比较结果;
第四得到模块,用于在比较结果指示焊缝初始检测结果与缺陷标签、缺陷初始位置与缺陷位置标签不相一致的情况下,调整初始检测模型的模型参数权重,直到焊缝初始检测结果与缺陷标签、缺陷初始位置与缺陷位置标签均相一致时,停止调整模型参数权重,得到目标检测模型。
在一些可选的实施方式中,第三得到模块包括:
编码单元,用于将拼接后的特征信息输入初始检测模型中进行多尺度的编码,得到编码后的特征;
提取单元,用于利用自注意力机制提取编码后的特征中的关键特征;
传输单元,用于将关键特征传输至前馈层做特征检测;
下采样单元,用于对检测后的特征执行下采样处理,得到降维后的特征;
第一得到单元,用于将降维后的特征输入多层感知机,得到焊缝初始检测结果和对应的缺陷初始位置。
在一些可选的实施方式中,第二得到模块404包括:
拼接单元,用于将目标图像数据、目标点云数据、目标像素数据进行拼接,得到目标拼接特征信息;
第二得到单元,用于将目标拼接特征信息输入目标检测模型,得到焊缝待检测对象的焊缝缺陷以及对应的缺陷位置。
本实施例中的焊缝缺陷检测的装置是以功能单元的形式来呈现,这里的单元是指ASIC电路,执行一个或多个软件或固定程序的处理器和存储器,和/或其他可以提供上述功能的器件。
上述各个模块和单元的更进一步的功能描述与上述对应实施例相同,在此不再赘述。
本公开实施例还提供一种计算机设备,具有上述图4所示的焊缝缺陷检测的装置。
请参阅图5,图5是本公开可选实施例提供的一种计算机设备的结构示意图,如图5所示,该计算机设备包括:一个或多个处理器10、存储器20,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相通信连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在计算机设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在一些可选的实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个计算机设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图5中以一个处理器10为例。
处理器10可以是中央处理器,网络处理器或其组合。其中,处理器10还可以进一步包括硬件芯片。上述硬件芯片可以是专用集成电路,可编程逻辑器件或其组合。上述可编程逻辑器件可以是复杂可编程逻辑器件,现场可编程逻辑门阵列,通用阵列逻辑或其任意组合。
其中,存储器20存储有可由至少一个处理器10执行的指令,以使至少一个处理器10执行实现上述实施例示出的方法。
存储器20可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据一种小程序落地页的展现的计算机设备的使用所创建的数据等。此外,存储器20可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些可选的实施方式中,存储器20可选包括相对于处理器10远程设置的存储器,这些远程存储器可以通过网络连接至该计算机设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
存储器20可以包括易失性存储器,例如,随机存取存储器;存储器也可以包括非易失性存储器,例如,快闪存储器,硬盘或固态硬盘;存储器20还可以包括上述种类的存储器的组合。
该计算机设备还包括通信接口30,用于该计算机设备与其他设备或通信网络通信。
本公开实施例还提供了一种计算机可读存储介质,上述根据本公开实施例的方法可在硬件、固件中实现,或者被实现为可记录在存储介质,或者被实现通过网络下载的原始存储在远程存储介质或非暂时机器可读存储介质中并将被存储在本地存储介质中的计算机代码,从而在此描述的方法可被存储在使用通用计算机、专用处理器或者可编程或专用硬件的存储介质上的这样的软件处理。其中,存储介质可为磁碟、光盘、只读存储记忆体、随机存储记忆体、快闪存储器、硬盘或固态硬盘等;进一步地,存储介质还可以包括上述种类的存储器的组合。可以理解,计算机、处理器、微处理器控制器或可编程硬件包括可存储或接收软件或计算机代码的存储组件,当软件或计算机代码被计算机、处理器或硬件访问且执行时,实现上述实施例示出的方法。
虽然结合附图描述了本公开的实施例,但是本领域技术人员可以在不脱离本公开的精神和范围的情况下做出各种修改和变型,这样的修改和变型均落入由所附权利要求所限定的范围之内。

Claims (10)

1.一种焊缝缺陷检测的方法,其特征在于,所述方法包括:
获取焊缝待检测对象的目标图像;
根据所述目标图像确定相机的内参数和外参数;
根据所述内参数和所述外参数,将所述焊缝待检测对象的激光雷达坐标系转换到像素坐标系,得到所述目标图像对应的三维的目标点云数据在投影到二维图像上时所对应的目标像素数据;
根据所述目标图像对应的二维的目标图像数据、所述目标点云数据、所述目标像素数据以及目标检测模型,得到所述焊缝待检测对象的焊缝缺陷以及对应的缺陷位置,其中,所述目标检测模型用于确定所述焊缝待检测对象是否存在焊缝缺陷以及在存在焊缝缺陷的情况下所对应的所述缺陷位置。
2.根据权利要求1所述的方法,其特征在于,所述根据所述内参数和所述外参数,将所述焊缝待检测对象的激光雷达坐标系转换到像素坐标系,包括:
根据所述激光雷达坐标系和所述外参数,将所述激光雷达坐标系转换为相机坐标系;
根据所述相机坐标系和相机的焦距,将所述相机坐标系转换为图像坐标系;
根据所述图像坐标系和所述内参数,将所述图像坐标系转换为所述像素坐标系。
3.根据权利要求2所述的方法,其特征在于,所述根据所述激光雷达坐标系和所述外参数,将所述激光雷达坐标系转换为相机坐标系,包括:
根据所述外参数确定第一矩阵和第二矩阵;
基于所述第一矩阵和所述第二矩阵,将所述激光雷达坐标系转换为所述相机坐标系。
4.根据权利要求2所述的方法,其特征在于,所述根据所述图像坐标系和所述内参数,将所述图像坐标系转换为所述像素坐标系,包括:
对所述图像坐标系内的各个坐标点作预设变换,得到变换后的图像坐标点;
根据所述图像坐标点和所述内参数,将所述图像坐标系转换为所述像素坐标系。
5.根据权利要求1所述的方法,其特征在于,在所述根据所述目标图像对应的二维的目标图像数据、所述目标点云数据、所述目标像素数据以及目标检测模型,得到所述焊缝待检测对象的焊缝缺陷以及对应的缺陷位置之前,所述方法还包括:
获取焊缝缺陷训练样本的训练图像,其中,所述焊缝缺陷训练样本内的各个训练图像均携带有缺陷标签和缺陷位置标签;
获取所述训练图像对应的二维的初始图像数据、三维的初始点云数据以及根据相机的内参数和外参数得到的所述初始点云数据在投影到二维图像上时所对应的初始像素数据;
将所述初始图像数据、所述初始点云数据以及所述初始像素数据相拼接,得到拼接后的特征信息;
利用所述拼接后的特征信息和初始检测模型,得到焊缝初始检测结果和对应的缺陷初始位置;
将所述焊缝初始检测结果与所述缺陷标签、所述缺陷初始位置与所述缺陷位置标签作比较,得到比较结果;
在所述比较结果指示所述焊缝初始检测结果与所述缺陷标签、所述缺陷初始位置与所述缺陷位置标签不相一致的情况下,调整所述初始检测模型的模型参数权重,直到所述焊缝初始检测结果与所述缺陷标签、所述缺陷初始位置与所述缺陷位置标签均相一致时,停止调整所述模型参数权重,得到所述目标检测模型。
6.根据权利要求5所述的方法,其特征在于,所述利用所述拼接后的特征信息和初始检测模型,得到焊缝初始检测结果和对应的缺陷初始位置,包括:
将所述拼接后的特征信息输入所述初始检测模型中进行多尺度的编码,得到编码后的特征;
利用自注意力机制提取所述编码后的特征中的关键特征;
将所述关键特征传输至前馈层做特征检测;
对检测后的特征执行下采样处理,得到降维后的特征;
将所述降维后的特征输入多层感知机,得到所述焊缝初始检测结果和对应的所述缺陷初始位置。
7.根据权利要求1所述的方法,其特征在于,所述根据所述目标图像对应的二维的目标图像数据、所述目标点云数据、所述目标像素数据以及目标检测模型,得到所述焊缝待检测对象的焊缝缺陷以及对应的缺陷位置,包括:
将所述目标图像数据、所述目标点云数据、所述目标像素数据进行拼接,得到目标拼接特征信息;
将所述目标拼接特征信息输入所述目标检测模型,得到所述焊缝待检测对象的所述焊缝缺陷以及对应的所述缺陷位置。
8.一种焊缝缺陷检测的装置,其特征在于,所述装置包括:
第一获取模块,用于获取焊缝待检测对象的目标图像;
确定模块,用于根据所述目标图像确定相机的内参数和外参数;
第一得到模块,用于根据所述内参数和所述外参数,将所述焊缝待检测对象的激光雷达坐标系转换到像素坐标系,得到所述目标图像对应的三维的目标点云数据在投影到二维图像上时所对应的目标像素数据;
第二得到模块,用于根据所述目标图像对应的二维的目标图像数据、所述目标点云数据、所述目标像素数据以及目标检测模型,得到所述焊缝待检测对象的焊缝缺陷以及对应的缺陷位置,其中,所述目标检测模型用于确定所述焊缝待检测对象是否存在焊缝缺陷以及在存在焊缝缺陷的情况下所对应的所述缺陷位置。
9.一种计算机设备,其特征在于,包括:
存储器和处理器,所述存储器和所述处理器之间互相通信连接,所述存储器中存储有计算机指令,所述处理器通过执行所述计算机指令,从而执行权利要求1至7中任一项所述的焊缝缺陷检测的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机指令,所述计算机指令用于使计算机执行权利要求1至7中任一项所述的焊缝缺陷检测的方法。
CN202310902645.3A 2023-07-21 2023-07-21 焊缝缺陷检测的方法、装置、计算机设备及存储介质 Pending CN116894829A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310902645.3A CN116894829A (zh) 2023-07-21 2023-07-21 焊缝缺陷检测的方法、装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310902645.3A CN116894829A (zh) 2023-07-21 2023-07-21 焊缝缺陷检测的方法、装置、计算机设备及存储介质

Publications (1)

Publication Number Publication Date
CN116894829A true CN116894829A (zh) 2023-10-17

Family

ID=88310592

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310902645.3A Pending CN116894829A (zh) 2023-07-21 2023-07-21 焊缝缺陷检测的方法、装置、计算机设备及存储介质

Country Status (1)

Country Link
CN (1) CN116894829A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117095002A (zh) * 2023-10-19 2023-11-21 深圳市信润富联数字科技有限公司 轮毂缺陷的检测方法及装置、存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117095002A (zh) * 2023-10-19 2023-11-21 深圳市信润富联数字科技有限公司 轮毂缺陷的检测方法及装置、存储介质
CN117095002B (zh) * 2023-10-19 2024-02-06 深圳市信润富联数字科技有限公司 轮毂缺陷的检测方法及装置、存储介质

Similar Documents

Publication Publication Date Title
CN111160172B (zh) 泊车位检测方法、装置、计算机设备和存储介质
CN110070564B (zh) 一种特征点匹配方法、装置、设备及存储介质
CN111028155B (zh) 一种基于多对双目相机的视差图像拼接方法
WO2021134325A1 (zh) 基于无人驾驶技术的障碍物检测方法、装置和计算机设备
CN112312113B (zh) 用于生成三维模型的方法、装置和系统
WO2020207172A1 (zh) 基于三维光场技术的光学无人机监测方法及系统
CN116894829A (zh) 焊缝缺陷检测的方法、装置、计算机设备及存储介质
CN113362457B (zh) 一种基于散斑结构光的立体视觉测量方法及系统
CN112184793B (zh) 深度数据的处理方法、装置及可读存储介质
CN114119992A (zh) 基于图像与点云融合的多模态三维目标检测方法及装置
CN115049821A (zh) 一种基于多传感器融合的三维环境目标检测方法
CN107590444A (zh) 静态障碍物的检测方法、装置及存储介质
CN113793413A (zh) 三维重建方法、装置、电子设备及存储介质
Liu et al. Vehicle-related distance estimation using customized YOLOv7
Kallwies et al. Triple-SGM: stereo processing using semi-global matching with cost fusion
CN112802114A (zh) 多视觉传感器融合装置及其方法和电子设备
CN110197104B (zh) 基于车辆的测距方法及装置
Harvent et al. Multi-view dense 3D modelling of untextured objects from a moving projector-cameras system
CN113160330A (zh) 基于端到端的相机与激光雷达标定方法、系统及介质
Anisimov et al. A compact light field camera for real-time depth estimation
CN114648639B (zh) 一种目标车辆的检测方法、系统及装置
CN116259040A (zh) 识别交通标志的方法、装置和电子设备
CN116246119A (zh) 3d目标检测方法、电子设备及存储介质
CN110148086B (zh) 稀疏深度图的深度补齐方法、装置及三维重建方法、装置
CN117765047B (zh) 一种工件配准方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination