CN110992337A - 一种集装箱残损检测方法及系统 - Google Patents

一种集装箱残损检测方法及系统 Download PDF

Info

Publication number
CN110992337A
CN110992337A CN201911216725.3A CN201911216725A CN110992337A CN 110992337 A CN110992337 A CN 110992337A CN 201911216725 A CN201911216725 A CN 201911216725A CN 110992337 A CN110992337 A CN 110992337A
Authority
CN
China
Prior art keywords
damage
point cloud
cloud data
obtaining
target image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911216725.3A
Other languages
English (en)
Inventor
徐国强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianwei Information Technology Tianjin Co ltd
Original Assignee
Tianwei Information Technology Tianjin Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianwei Information Technology Tianjin Co ltd filed Critical Tianwei Information Technology Tianjin Co ltd
Priority to CN201911216725.3A priority Critical patent/CN110992337A/zh
Publication of CN110992337A publication Critical patent/CN110992337A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • G01N2021/8861Determining coordinates of flaws
    • G01N2021/8864Mapping zones of defects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • G01N2021/8874Taking dimensions of defect into account
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Electromagnetism (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种集装箱残损检测方法及系统,获取待测板的目标图像和点云数据;其中,所述目标图像中的像素点坐标与所述点云数据的点坐标一一对应;基于所述点云数据,获得所述待测板的深度图;将所述目标图像和所述深度图输入已训练的神经网络模型,输出残损区域的边缘坐标;基于所述残损区域的边缘坐标,获得已标注残损区域的目标图像;基于所述已标注残损区域的目标图像和所述点云数据,获得所述待测板中残损的量化数据。该方法可提高残损识别定位的准确性。基于准确的残损定位,由于点云数据可反映待测板表面的深度情况,因此,可结合准确的残损定位,精确高效的获得残损的量化数据。

Description

一种集装箱残损检测方法及系统
技术领域
本发明涉及集装箱检测技术领域,尤其涉及一种集装箱残损检测方法及系统。
背景技术
货运集装箱被广泛应用于水上、道路、铁路等形式的运输。在运输和使用过程中,多种因素会导致集装箱箱体和结构受到一定程度的损害。因此,在每次运输活动结束之后对集装箱箱体进行检查(验箱),并评估损坏情况,就成为保证运输安全的重要手段。
目前主要的检查手段是依靠人工进行,并专门设有“验箱师”职位,检测的效率低。现有技术中,为了提高检测效率,也有借助检测产品进行验箱的,例如,目前市场上的“验箱宝”,依靠移动设备采集集装箱外观和内部照片,上传到服务端,利用图像识别技术验视集装箱箱况,判断卸货后的集装箱是否存在残损。该方法可以提高检测效率,但其无法对残损进行精确定量检测。
发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的集装箱残损检测方法及系统。
一方面,本申请通过本申请的一实施例提供如下技术方案:
一种集装箱残损检测方法,所述方法包括:
获取待测板的目标图像和点云数据;其中,所述目标图像中的像素点坐标与所述点云数据的点坐标一一对应;
基于所述点云数据,获得所述待测板的深度图;
将所述目标图像和所述深度图输入已训练的神经网络模型,输出残损区域的边缘坐标;
基于所述残损区域的边缘坐标,获得已标注残损区域的目标图像;
基于所述已标注残损区域的目标图像和所述点云数据,获得所述待测板中残损的量化数据。
可选的,所述已训练的神经网络模型为卷积神经网络,所述卷积神经网络中包括第一DenseNet网络、第二DenseNet网络和特征合并层;
所述已训练的神经网络模型的训练方法,包括:
获取所述待测板的残损图像集和无残损图像集,其中,所述残损图像集中包括不同残损类型的多个图像子集;
获取所述不同残损类型的多个图像子集对应的多个第一点云数据集,以及无残损图像集对应的第二点云数据集;
基于所述多个第一点云数据集,获得多个第一深度图集;
基于所述多个第二点云数据集,获得第二深度图集;
以所述多个第一深度图集、第二深度图集、残损图像集和无残损图像集为训练样本,训练获得所述已训练的神经网络模型;其中,
所述第一DenseNet网络用于提取所述残损图像集和无残损图像集中各图像中的第一残损特征;
所述第二DenseNet网络用于提取所述多个第一深度图集和第二深度图集中各深度图的第二残损特征;
所述特征合并层用于合并所述第一残损特征与所述第二残损特征。
可选的,所述方法还包括:
将所述目标图像和所述深度图输入已训练的神经网络模型,输出所述待测板的残损类型。
可选的,所述待测板为所述集装箱的顶板和/或侧板;
所述基于所述已标注残损区域的目标图像和所述点云数据,获得所述待测板中残损的量化数据,具体包括:
获取所述残损区域标注范围外的第一点云数据;
基于所述第一点云数据,获得所述第一点云数据的深度平均值;
将所述残损区域标注范围内的每个点云数据的深度值与所述第一点云数据的深度平均值求差,获得所述残损区域的凹凸值;
基于所述残损区域的凹凸值,获得所述残损的轮廓及面积。
可选的,在所述基于所述残损区域的凹凸值,获得所述残损的轮廓及面积之后,所述方法还包括:
基于所述残损的轮廓的位置信息和所述待测板边缘的位置信息,获得所述残损的轮廓到所述待测板边缘的距离。
可选的,在所述基于所述已标注残损区域的目标图像和所述点云数据,获得所述待测板中残损的量化数据之后,所述方法还包括:
判断所述残损在所述待测板上相对于中心线的对称位置是否有类似的残损;其中,所述中心线与所述待测板上的纹理方向垂直;
若是,则将该残损判定为原始孔洞。
可选的,所述待测板为所述集装箱的箱门板,所述箱门板包括对称对开设置的第一箱门和第二箱门,其中,所述残损区域位于所述第一箱门;
所述基于所述已标注残损区域的目标图像和所述点云数据,获得所述待测板中残损的量化数据,具体包括:
在所述第二箱门上获取与所述第一箱门上的残损区域位置对应的区域的第二点云数据;
基于所述第二点云数据,获得所述第二点云数据的深度平均值;
将所述残损区域标注范围内的每个点云数据的深度值与所述第二点云数据的深度平均值求差,获得所述残损区域的凹凸值;
基于所述残损区域的凹凸值,获得所述残损的轮廓及面积。
另一方面,本申请通过本申请的另一实施例提供一种集装箱残损检测系统,所述系统包括:
数据获取模块,用于获取待测板的目标图像和点云数据;其中,所述目标图像中的像素点坐标与所述点云数据的点坐标一一对应;
第一获得模块,用于基于所述点云数据,获得所述待测板的深度图;
残损输出模块,用于将所述目标图像和所述深度图输入已训练的神经网络模型,输出残损区域的边缘坐标;
第二获得模块,用于基于所述残损区域的边缘坐标,获得已标注残损区域的目标图像;
第三获得模块,用于基于所述已标注残损区域的目标图像和所述点云数据,获得所述待测板中残损的量化数据。
本发明公开了一种可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述方法的步骤。
本发明公开了一种检测设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述方法的步骤。
本申请实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:
本发明的方法,获取待测板的目标图像和点云数据;其中,所述目标图像中的像素点坐标与所述点云数据的点坐标一一对应;基于所述点云数据,获得所述待测板的深度图;将所述目标图像和所述深度图输入已训练的神经网络模型,输出残损区域的边缘坐标;基于所述残损区域的边缘坐标,获得已标注残损区域的目标图像;基于所述已标注残损区域的目标图像和所述点云数据,获得所述待测板中残损的量化数据。由于不仅使用了图像数据,还使用了带有集装箱轮廓的空间信息的深度图作为网络模型的输入,其输出的残损检测结果中可根据深度情况排除轻微划伤等并不能判定为残损的损伤;相对于现有只利用图像作为输入,由于图像只是二维数据,则会将轻微划伤等识别为残损;因此,该方法可提高残损识别定位的准确性。基于准确的残损定位,由于点云数据可反映待测板表面的深度情况,因此,可结合准确的残损定位,精确高效的获得残损的量化数据。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明一种实施例中的集装箱残损检测方法的流程图;
图2是本发明一种实施例中的场站闸口示意图;
图3是本发明一种实施例中的神经网络结构示意图;
图4是本发明一种实施例中的已标注残损区域的顶板的目标图像示意图;
图5是本发明一种实施例中是箱门板的示意图;
图6是本发明一种实施例中的集装箱残损检测系统的构架图。
具体实施方式
本申请实施例通过提供一种集装箱残损检测方法及系统,解决了现有的检测手段无法对残损高效进行量化评估的技术问题。
本申请实施例的技术方案为解决上述技术问题,总体思路如下:
一种集装箱残损检测方法,该方法包括:获取待测板的目标图像和点云数据;其中,所述目标图像中的像素点坐标与所述点云数据的点坐标一一对应;基于所述点云数据,获得所述待测板的深度图;将所述目标图像和所述深度图输入已训练的神经网络模型,输出残损区域的边缘坐标;基于所述残损区域的边缘坐标,获得已标注残损区域的目标图像;基于所述已标注残损区域的目标图像和所述点云数据,获得所述待测板中残损的量化数据。
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。
首先说明,本文中出现的术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
货运集装箱被广泛应用于水上、道路、铁路等形式的运输。在运输和使用过程中,多种因素会导致集装箱箱体和结构受到一定程度的损害,因此,在每次运输活动结束之后对集装箱箱体进行检查(验箱),并评估损坏情况,就成为了保证下一次运输安全稳妥的重要手段。
目前主要的检查手段是依靠人工进行,并专门设有“验箱师”职位,IICL(国际集装箱出租者协会)有相应的考试制度。现行验箱方式为,验箱师或类似技术人员以目测的方式判断箱体是否有损坏(定性),并使用测量工具对损坏部位进行测量(定量)以判断损坏程度、是否需要修理,以及修理价格。
依靠人工肉眼主管判断箱体损坏情况,测量时同样依靠人的感知得出结论,无论是定性和定量均依靠人工进行,主观因素占主导地位,对于检验部位和项目是否完整、损害程度评估是否准确、检验程序是否规范等都无法保证,存在安全隐患。
为了提高检测效率,目前有少数企业和机构使用信息化手段对验箱流程和结果进行管理,以达到提高效率和准确性的目的。目前,市场代表有“验箱宝”,它是由上海撬动网络科技有限公司研发的一款产品,依靠移动设备采集集装箱外观和内部照片,上传到服务端,利用图像识别技术验视集装箱箱况,判断卸货后的集装箱是否存在残损。该产品采用的图像识别技术主要视觉领域的深度学习技术,提前收集大量集装箱残损装箱和完好照片,采用神经网络进行训练,训练完成后,使用训练模型让机器能够通过集装箱照片判读集装是否存在大的残损。
但是类似于该“验箱宝”的现有技术,也都存在如下不足:
1.该产品只能对大面积的残损情况进行判读,如小面积凸凹,变形,空洞精确度不高,漏检风险高。
2.该产品只能对集装箱残损情况,进行定性判读“是否有残损”,无法对残箱的后续工作起到帮助作用,还需要“验箱人员”到现场,采用人工办法进行测量评估,难以提高残箱评估工作的效率。
3.该产品只通过二维图形进行判读,没有残损的空间信息,产生误判的概率该较高。
为了在提高检测效率的同时,提高检测的准确性,对残损进行快速准确的量化,本申请实施中,首先对集装箱的结构特点进行分析如下:
集装箱的构成部件可分为梁、板、配件三类,其中各个梁的损坏为结构性损坏,各个板和配件的损坏为一般性损坏。其中,梁的结构性损坏直接评估需要进行力学分析,而板的损坏则可以通过图像数据进行评估。例如,类似于“验箱宝”的现有技术,就是对板的残损评估,但其存在前述弊端。因此,本实施例提供了一种集装箱残损检测方法及系统,以提高集装箱残损检测准确性,获得准确的量化数据。
实施例一
本实施提供了一种集装箱残损检测方法,参见图1,所述方法包括:
S110、获取待测板的目标图像和点云数据;其中,所述目标图像中的像素点坐标与所述点云数据的点坐标一一对应;
S120、基于所述点云数据,获得所述待测板的深度图;
S130、将所述目标图像和所述深度图输入已训练的神经网络模型,输出残损区域的边缘坐标;
S140、基于所述残损区域的边缘坐标,获得已标注残损区域的目标图像;
S150、基于所述已标注残损区域的目标图像和所述点云数据,获得所述待测板中残损的量化数据。
下面参照图1,对本实施中各步骤进行详细的解释说明。
首先,执行S110、获取待测板的目标图像和点云数据;其中,所述目标图像中的像素点坐标与所述点云数据的点坐标一一对应。
需要说明的是,集装箱包括顶板、底板、三个侧板和箱门板。因此,本实施中待测板可以包括顶板、底板、三个侧板和箱门板。但为了实现对目标图像和点云数据的快速获取,充分利用原有集装箱码头,集装箱场站的基础设施,本实施中,参见图2,可在原有码头场站的闸口安装专用光学拍照设备(可以是专用照相机或摄像机)和激光雷达轮廓扫描设备。参见图2,具体可安装在闸口的正上方、两侧和入口上方,便于拍摄卡车所载集装箱的顶板、两侧板和箱门板光学照片,并同时采集装箱顶板、两侧板和箱门板的轮廓数据(点云数据)。
其中,点云数据是指在一个三维坐标系统中的一组向量的集合。这些向量通常以X,Y,Z三维坐标的形式表示,而且一般主要用来代表一个物体的外表面形状。不经如此,除(X,Y,Z)代表的几何位置信息之外,点云数据还可以表示一个点的RGB颜色,灰度值,深度,分割结果等。Eg..Pi={Xi,Yi,Zi,.......}表示空间中的一个点,则Point Cloud={P1,P2,P3,.....Pn}表示一组点云数据
当然,上述实施方式只是为了快速方便的对集装箱进行检测,不影响正常作业。如果条件允许,也可以将集装箱吊起,对底板和车头一边的侧板进行数据采集。
由于单独使用光学图形结合深度学习方式进行集装箱残损分析,只能达到定性分析的程度,只能获得有无残损,残损位置、残损分类等信息,无法获得残损的定量信息,如凸凹的面积、深度、孔洞的大小等,因此,本实施例引入了激光雷达测量系统(即激光雷达轮廓扫描设备)。
激光雷达测量系统测量3D空间中每个像素到发射器间的距离和方向,通过传感器创造出真实世界完整的3D模型。激光雷达测量系统的测量的基本方法是发射一束激光,然后测量光在物体表面反射而返回来的信号。接收模块接收到反射回来的信号所需的时间,这提供了一种非接触直接测量雷达系统与物体之间的距离的手段。
激光雷达测量系统是通过发射激光束来探测目标位置、速度等特征量的雷达系统,具有测量精度高、方向性好等优点,具体如下:
1、具有极高的分辨率
激光雷达工作于光学波段,频率比微波高2~3个数量级以上,因此,与微波雷达相比,激光雷达具有极高的距离分辨率、角分辨率和速度分辨率;
2、抗干扰能力强
激光波长短,可发射发散角非常小(μrad量级)的激光束,多路径效应小(不会形成定向发射,与微波或者毫米波产生多路径效应),可探测低空/超低空目标;
3、获取的信息量丰富
可直接获取目标的距离、角度、反射强度、速度等信息,生成目标多维度图像;
4、可全天时工作
激光主动探测,不依赖于外界光照条件或目标本身的辐射特性。它只需发射自己的激光束,通过探测发射激光束的回波信号来获取目标信息。
激光雷达轮廓扫描设备采集是集装箱与光学拍照设备距离信息,而光学拍照设备采集是色度信息,为后续处理能够使这两部份信息,对于同一检测目标区域的信息能够融合,必须将激光雷达轮廓扫描设备和光学拍照设备进行标定。光学拍照设备的标定就是获得其内外参数,内部参数为焦距,光心点位置,外部参数为拍照设备的位置和姿态;激光雷达也类似。标定的作用就是建立点云数据的point和目标图像pixe1之间的对应关系,需要获取光学拍照设备与激光雷达外参,将点云数据三维坐标系下的点投影到光学拍照设备三维坐标系下。为此,可使采集的目标图像中的像素点坐标与点云数据的点坐标一一对应。这样就便于后续步骤中通过点云数据生成的缺陷位置在目标图像上找到对应的定位。
接下来,执行S120,基于所述点云数据,获得所述待测板的深度图。
在具体实施过程中,为了后续步骤中通过点云数据生成的缺陷位置在目标图像上找到对应的定位,生成的深度图与目标图像的尺寸相同。其具体的生产方法包括:
S121、创建与目标图像相同的大小的空白图片,像素初始值为RGB(0,0,0);
S122、遍历点云数据,进行坐标变化,将点云数据点投影到目标图像的坐标系统;
S123、点云数据点投影后,判断点是否在集装箱光学照片坐标范围内,如果在,则根据该点距离设置空白图片对应像素的RGB值(例如红色值),越近颜色越深,越远颜色越浅,超过一定距离后(超出检测范围的数据),RGB值为常量值;
S124、全部点云数据的对应像素值设置完成后,空白的图片就形成代表空间信息的颜色深浅的深度图,也叫距离图。
接下来,执行S130,将所述目标图像和所述深度图输入已训练的神经网络模型,输出残损区域的边缘坐标;
为了快速获得残损区域的边缘坐标,需要预先训练获得该已训练的神经网络模型。在图像识别领域,由于卷积神经网络表现优异。因此,作为一种可选的实施方式,所述已训练的神经网络模型为卷积神经网络,所述卷积神经网络中包括第一DenseNet网络、第二DenseNet网络和特征合并层;
所述已训练的神经网络模型的训练方法,包括:
获取所述待测板的残损图像集和无残损图像集,其中,所述残损图像集中包括不同残损类型的多个图像子集;
获取所述不同残损类型的多个图像子集对应的多个第一点云数据集,以及无残损图像集对应的第二点云数据集;
基于所述多个第一点云数据集,获得多个第一深度图集;
基于所述多个第二点云数据集,获得第二深度图集;
以所述多个第一深度图集、第二深度图集、残损图像集和无残损图像集为训练样本,训练获得所述已训练的神经网络模型;其中,
所述第一DenseNet网络用于提取所述残损图像集和无残损图像集中各图像中的第一残损特征;
所述第二DenseNet网络用于提取所述多个第一深度图集和第二深度图集中各深度图的第二残损特征;
所述特征合并层用于合并所述第一残损特征与所述第二残损特征。
之所以进行上述神经网络结构的改进,是考虑到残损尺寸相对集装箱而言比较小,由于特征不是太明显,往往只是一小块,在选择网络的时候,要考虑把浅层特征和深度特征进行融合,这样就不会造成主要特征丢失。因此,本实施例中,采用DenseNet(全称Dense Convolutional Network,中文翻译为稠密卷积网络)作为骨干网,同时,采用DenseNet作为另一种拥有较深层数的卷积神经网络,具有如下优点:(1)相比ResNet(全称Residual Network残差网络)网络拥有更少的参数数量;(2)旁路加强了特征的重用;(3)网络更易于训练,并具有一定的正则效果;(4)缓解了gradient vanishing(梯度消失)和model degradation(模型降级)的问题。
下面再来介绍一下DenseNet网络结构。
在深度学习网络中,随着网络深度的加深,梯度消失问题会愈加明显,目前针对这个问题提出了解决方案,比如ResNet,Highway Networks,Stochastic depth,FractalNets等,尽管这些算法的网络结构有差别,但是核心都在于:那就是在保证网络中层与层之间最大程度的信息传输的前提下,直接将所有层连接起来。
DenseNet的整体结构主要包含稠密块(Dense Blocks)和过渡块(transition1ayers)。以五层dense block的结构图为例,一个Dense Blocks可以多个连续操作的组合函数BN,ReLU,3*3卷积(Conv)组成。transition layer作用就是降低feature map(特征映射)的大小,减少运算量。
在传统的卷积神经网络中,如果你有L层,那么就会有L个连接,但是在DenseNet中,会有L(L+1)/2个连接。简单讲,就是每一层的输入来自前面所有层的输出。举例来说,x0是input(输入),H1的输入是x0,H2的输入是x0和x1。
DenseNet的一个优点是网络更窄,参数更少,很大一部分原因得益于这种denseblock的设计,后面有提到在dense block中每个卷积层的输出feature map的数量都很小(小于100),而不是像其他网络一样几百上千的宽度。同时这种连接方式使得特征和梯度的传递更加有效,网络也就更加容易训练。前面提到过梯度消失问题在网络深度越深的时候越容易出现,原因就是输入信息和梯度信息在很多层之间传递导致的,而DenseNet相当于每一层都直接连接input和loss,因此,就可以减轻梯度消失现象。另外,这种denseconnection(稠密连接)有正则化的效果,因此,对于过拟合有一定的抑制作用。
参见图3,是本实施例采用的神经网络结构,以DenseNet作为基础网络,并且采用双DenseNet,去掉原DenseNet的池化层、全连接层及SoftMax层,新增一个特征合并层、全连接层及softmax输出。这种结构的目的是可以为神经网络提供集装箱轮廓的空间信息,减少因集装箱表面的图画、轻微划痕、油脂污染等系统的误判,以实现提高残损检测效率的同时,提高对残损判断的准确性。
表1是该神经网络的具体参数情况。表中的k=32,k=48中的k是growth rate,表示每个dense block中每层输出的feature map个数。为了避免网络变得很宽,都是采用较小的k,例如32。根据dense block的设计,后面几层可以得到前面所有层的输入,因此,concat(特征融合)后的输入channel(特征渠道)还是比较大的。另外,这里每个denseblock的3*3卷积前面都包含了一个1*1的卷积操作,就是所谓的bottleneck layer,目的是减少输入的feature map数量,既能降维减少计算量,又能融合各个通道的特征。另外,为了进一步压缩参数,在每两个dense block之间又增加了1*1的卷积操作。
表1
Figure BDA0002295745540000131
基于上述网络结构,要训练获得成熟的模型,以获得准确的残损分类,输出待测板的残损类型。作为一种可选的实施方式,需要按照S110的方法,执获取以下训练样本:
获取所述待测板的残损图像集和无残损图像集,其中,所述残损图像集中包括不同残损类型的多个图像子集;
获取所述不同残损类型的多个图像子集对应的多个第一点云数据集,以及无残损图像集对应的第二点云数据集;
基于所述多个第一点云数据集,获得多个第一深度图集;
基于所述多个第二点云数据集,获得第二深度图集。
分类的训练样本,可以训练获得相应的具备分类能力的神经网络模型。
在获得训练样本后,以所述多个第一深度图集、第二深度图集、残损图像集和无残损图像集为训练样本,训练获得所述已训练的神经网络模型。
因此,利用该已训练的神经网络模型,只要输入待测板的目标图像和深度图,就可以获得待测板的残损类型和残损区域边缘坐标输出。
具体的,残损类型的分类可根据需要进行设置,只要对训练样本的不同残损类型的多个图像子集进行定义就可实现,举例来说,把集装箱残损按如下分类:
1.顶板:a)破损,b)变形,c)完好;
2.侧板:a)破损,b)变形,c)完好;
3.箱门:a)破损,b)变形,c)完好。
需要说明的是,考虑到原始图片比较大,为了减少计算量又不丢失图形特殊,在本实施例中,可以采用图形分割办法(例如把集装箱照片按中心线分割),把分割后图形输入神经网络进行判读,结果进行合并。
另外,为能够在后续残损定量分析中判断残损涉及到梁的残损,可以利用独立的DeneNet卷积网络,根据目标图像,识别集装箱顶板、侧板和箱门板在目标图像中的矩形区域并同时识别集装箱号,对于集装箱门由于存在锁杆干扰残损分析,通过卷积神经网络识别出并从背景图中分离出来。
接下来,执行S140,基于所述残损区域的边缘坐标,获得已标注残损区域的目标图像。
在输出残损区域边缘坐标后,自然可以在目标图像中进行标注,其标注的形式不限,例如,可以是框柱残损的矩形。
接下来,执行S150,基于所述已标注残损区域的目标图像和所述点云数据,获得所述待测板中残损的量化数据。
需要说明的是,要获得量化数据,就需要进行残损分析,而残损分析的任务就是根据神经网络的输出结果,结合点云数据,定量分析出残损的面积、深度以及与梁的距离等。
需要注意的是,由于集装箱表面不是的平面,是存在波纹的。也就说即使集装箱完好的情况下,也是存在凹凸或孔洞的,正确的定量分析,那就必须排除这些正常的凸凹或孔洞。因此,必须针对集装箱表面的波形一致性和对称性来解决这个问题,为此,在分别抓取已有的点云数据时,可以按照垂直于表面波纹的方向进行扫描抓取。由于顶板和侧板结构基本一致,而箱门板则与顶板和侧板的结构不同,因此,在量化分析时,将其分开进行。下面分别介绍具体的残损分析方法。
第一种情况,当待测板为集装箱的顶板和/或侧板;
所述基于所述已标注残损区域的目标图像和所述点云数据,获得所述待测板中残损的量化数据,具体包括:
获取所述残损区域标注范围外的第一点云数据;
基于所述第一点云数据,获得所述第一点云数据的深度平均值;
将所述残损区域标注范围内的每个点云数据的深度值与所述第一点云数据的深度平均值求差,获得所述残损区域的凹凸值;
基于所述残损区域的凹凸值,获得所述残损的轮廓及面积。
参见图4,为一个顶板的已标注残损区域的目标图像示意图。根据像素点与点云数据点的一一对应关系,按照垂直于表面波纹的方向进行扫描抓取的方式获得整个板面上在残损区域标注范围内(边缘为小矩形框内的区域)的点云数据和残损区域标注范围外的第一点云数据。根据上述方法可获得所述残损区域的凹凸值。在此基础上,通过逐列扫描计算后,可以得到残损的近似轮廓、从而能够计算真实的面积,获得深度最深值,称为凸凹或孔洞的深度(称为M),对于M值如果大于某一阀值,则可以判断是否存在孔洞。
另外,根据残损近似轮廓,可以计算最小外接矩形,因此,可以计算该矩形到顶板四边(顶板四边一般为梁)的距离,该距离可提供判断残损是否与梁有关提供依据。根据行业标准,该距离如果小于某个阈值,则认为该残损与梁有关,需要处理。因此,作为一种可选的实施方式,在所述基于所述残损区域的凹凸值,获得所述残损的轮廓及面积之后,所述方法还包括:
基于所述残损的轮廓的位置信息和所述待测板边缘的位置信息,获得所述残损的轮廓到所述待测板边缘的距离。
另外,如果存在残损,作为一种可选的实施方式,为了排除板面原始的非残损性孔洞,使残损分析结果更准确,在所述基于所述已标注残损区域的目标图像和所述点云数据,获得所述待测板中残损的量化数据之后,所述方法还包括:
判断所述残损在所述待测板上相对于中心线的对称位置是否有类似的残损;其中,所述中心线与所述待测板上的纹理方向垂直;
若是,则将该残损判定为原始孔洞。否则确定为残损。
第二种情况,当所述待测板为所述集装箱的箱门板,参见图5,箱门板表面由于存在较多的附件如门锁、门锁杆等,不能通过表面外形直接计算残损信息。因此,在本实施例中,利用箱门结构左右对称的特征,通过分析残损对称部位和残损部位深度的差值,获得残损深度,面积等等
具体的,所述箱门板包括对称对开设置的第一箱门和第二箱门,其中,所述残损区域位于所述第一箱门;
所述基于所述已标注残损区域的目标图像和所述点云数据,获得所述待测板中残损的量化数据,具体包括:
在所述第二箱门上获取与所述第一箱门上的残损区域位置对应的区域的第二点云数据;
基于所述第二点云数据,获得所述第二点云数据的深度平均值;
将所述残损区域标注范围内的每个点云数据的深度值与所述第二点云数据的深度平均值求差,获得所述残损区域的凹凸值;
基于所述残损区域的凹凸值,获得所述残损的轮廓及面积。
具体的实施步骤原理与第一种情况类似,这里不再赘述。
上述本申请实施例中的技术方案,至少具有如下的技术效果或优点:
本实施例的方法,获取待测板的目标图像和点云数据;其中,所述目标图像中的像素点坐标与所述点云数据的点坐标一一对应;基于所述点云数据,获得所述待测板的深度图;将所述目标图像和所述深度图输入已训练的神经网络模型,输出残损区域的边缘坐标;基于所述残损区域的边缘坐标,获得已标注残损区域的目标图像;基于所述已标注残损区域的目标图像和所述点云数据,获得所述待测板中残损的量化数据。由于不仅使用了图像数据,还使用了带有集装箱轮廓的空间信息的深度图作为网络模型的输入,其输出的残损检测结果中可根据深度情况排除轻微划伤等并不能判定为残损的损伤;相对于现有只利用图像作为输入,由于图像只是二维数据,则会将轻微划伤等识别为残损;因此,该方法可提高残损识别定位的准确性。基于准确的残损定位,由于点云数据可反映待测板表面的深度情况,因此,可结合准确的残损定位,精确高效的获得残损的量化数据。
此外,本实施例中的技术方案还具有如下有益效果:双DenseNet神经网络结构,给神经网络提供空间特征,提高残损分类定位的精度,降低误判;利用激光雷达测量获得点云数据和神经网络获得的残损定位,进行定量分析残损的表面轮廓,面积、深度、与梁的距离等信息;具体利用顶板、侧板、箱门的外形纹理一致性和对称性,解决原始凸凹和孔洞的干扰问题;高清图片分割的办法,减少集装箱表面特征丢失,同时也解决了高清图片,在神经网络计算量太大的问题。
实施例二
基于与实施例一同样的发明构思,本实施例提供一种集装箱残损检测系统,参见图6,所述系统包括:
数据获取模块,用于获取待测板的目标图像和点云数据;其中,所述目标图像中的像素点坐标与所述点云数据的点坐标一一对应;
第一获得模块,用于基于所述点云数据,获得所述待测板的深度图;
残损输出模块,用于将所述目标图像和所述深度图输入已训练的神经网络模型,输出残损区域的边缘坐标;
第二获得模块,用于基于所述残损区域的边缘坐标,获得已标注残损区域的目标图像;
第三获得模块,用于基于所述已标注残损区域的目标图像和所述点云数据,获得所述待测板中残损的量化数据。
由于本实施例所介绍的集装箱残损检测系统为实现本申请实施例一种集装箱残损检测方法所采用的系统,故而基于本申请实施例一中所介绍的集装箱残损检测方法,本领域所属技术人员能够了解本实施例的系统的具体实施方式以及其各种变化形式,所以在此对于如何利用本中的系统实现实施例一中的方法不再详细介绍。只要本领域所属技术人员用于实现本申请实施例中集装箱残损检测方法所采用的系统,都属于本申请所欲保护的范围。
基于与前述实施例中同样的发明构思,本发明实施例还提供一种可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现前文任一所述方法的步骤。
基于与前述实施例中同样的发明构思,本发明实施例还提供一种检测设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现前文任一所述方法的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (10)

1.一种集装箱残损检测方法,其特征在于,所述方法包括:
获取待测板的目标图像和点云数据;其中,所述目标图像中的像素点坐标与所述点云数据的点坐标一一对应;
基于所述点云数据,获得所述待测板的深度图;
将所述目标图像和所述深度图输入已训练的神经网络模型,输出残损区域的边缘坐标;
基于所述残损区域的边缘坐标,获得已标注残损区域的目标图像;
基于所述已标注残损区域的目标图像和所述点云数据,获得所述待测板中残损的量化数据。
2.如权利要求1所述的方法,其特征在于,所述已训练的神经网络模型为卷积神经网络,所述卷积神经网络中包括第一DenseNet网络、第二DenseNet网络和特征合并层;
所述已训练的神经网络模型的训练方法,包括:
获取所述待测板的残损图像集和无残损图像集,其中,所述残损图像集中包括不同残损类型的多个图像子集;
获取所述不同残损类型的多个图像子集对应的多个第一点云数据集,以及无残损图像集对应的第二点云数据集;
基于所述多个第一点云数据集,获得多个第一深度图集;
基于所述多个第二点云数据集,获得第二深度图集;
以所述多个第一深度图集、第二深度图集、残损图像集和无残损图像集为训练样本,训练获得所述已训练的神经网络模型;其中,
所述第一DenseNet网络用于提取所述残损图像集和无残损图像集中各图像中的第一残损特征;
所述第二DenseNet网络用于提取所述多个第一深度图集和第二深度图集中各深度图的第二残损特征;
所述特征合并层用于合并所述第一残损特征与所述第二残损特征。
3.如权利要求2所述的方法,其特征在于,所述方法还包括:
将所述目标图像和所述深度图输入已训练的神经网络模型,输出所述待测板的残损类型。
4.如权利要求1所述的方法,其特征在于,所述待测板为所述集装箱的顶板和/或侧板;
所述基于所述已标注残损区域的目标图像和所述点云数据,获得所述待测板中残损的量化数据,具体包括:
获取所述残损区域标注范围外的第一点云数据;
基于所述第一点云数据,获得所述第一点云数据的深度平均值;
将所述残损区域标注范围内的每个点云数据的深度值与所述第一点云数据的深度平均值求差,获得所述残损区域的凹凸值;
基于所述残损区域的凹凸值,获得所述残损的轮廓及面积。
5.如权利要求4所述的方法,其特征在于,在所述基于所述残损区域的凹凸值,获得所述残损的轮廓及面积之后,所述方法还包括:
基于所述残损的轮廓的位置信息和所述待测板边缘的位置信息,获得所述残损的轮廓到所述待测板边缘的距离。
6.如权利要求5所述的方法,其特征在于,在所述基于所述已标注残损区域的目标图像和所述点云数据,获得所述待测板中残损的量化数据之后,所述方法还包括:
判断所述残损在所述待测板上相对于中心线的对称位置是否有类似的残损;其中,所述中心线与所述待测板上的纹理方向垂直;
若是,则将该残损判定为原始孔洞。
7.如权利要求1所述的方法,其特征在于,所述待测板为所述集装箱的箱门板,所述箱门板包括对称对开设置的第一箱门和第二箱门,其中,所述残损区域位于所述第一箱门;
所述基于所述已标注残损区域的目标图像和所述点云数据,获得所述待测板中残损的量化数据,具体包括:
在所述第二箱门上获取与所述第一箱门上的残损区域位置对应的区域的第二点云数据;
基于所述第二点云数据,获得所述第二点云数据的深度平均值;
将所述残损区域标注范围内的每个点云数据的深度值与所述第二点云数据的深度平均值求差,获得所述残损区域的凹凸值;
基于所述残损区域的凹凸值,获得所述残损的轮廓及面积。
8.一种集装箱残损检测系统,其特征在于,所述系统包括:
数据获取模块,用于获取待测板的目标图像和点云数据;其中,所述目标图像中的像素点坐标与所述点云数据的点坐标一一对应;
第一获得模块,用于基于所述点云数据,获得所述待测板的深度图;
残损输出模块,用于将所述目标图像和所述深度图输入已训练的神经网络模型,输出残损区域的边缘坐标;
第二获得模块,用于基于所述残损区域的边缘坐标,获得已标注残损区域的目标图像;
第三获得模块,用于基于所述已标注残损区域的目标图像和所述点云数据,获得所述待测板中残损的量化数据。
9.一种可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1-7任一项所述方法的步骤。
10.一种检测设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1-7任一项所述方法的步骤。
CN201911216725.3A 2019-11-29 2019-11-29 一种集装箱残损检测方法及系统 Pending CN110992337A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911216725.3A CN110992337A (zh) 2019-11-29 2019-11-29 一种集装箱残损检测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911216725.3A CN110992337A (zh) 2019-11-29 2019-11-29 一种集装箱残损检测方法及系统

Publications (1)

Publication Number Publication Date
CN110992337A true CN110992337A (zh) 2020-04-10

Family

ID=70089379

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911216725.3A Pending CN110992337A (zh) 2019-11-29 2019-11-29 一种集装箱残损检测方法及系统

Country Status (1)

Country Link
CN (1) CN110992337A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111626992A (zh) * 2020-05-13 2020-09-04 苏州凝眸物联科技有限公司 一种智能道口验箱方法
CN112381792A (zh) * 2020-11-13 2021-02-19 中国人民解放军空军工程大学 基于深度学习的雷达吸波涂层/电磁屏蔽薄膜损伤的智能化成像在线检测方法
CN112819793A (zh) * 2021-02-01 2021-05-18 宁波港信息通信有限公司 一种集装箱残损识别方法、装置、设备和可读存取介质
CN113962274A (zh) * 2021-11-18 2022-01-21 腾讯科技(深圳)有限公司 一种异常识别方法、装置、电子设备及存储介质
CN115222697A (zh) * 2022-07-18 2022-10-21 北京国泰星云科技有限公司 基于机器视觉和深度学习的集装箱残损检测方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170213093A1 (en) * 2016-01-27 2017-07-27 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for detecting vehicle contour based on point cloud data
CN107525810A (zh) * 2017-08-31 2017-12-29 中远海运科技股份有限公司 一种基于3d成像的集装箱破损检测设备及方法
CN107576960A (zh) * 2017-09-04 2018-01-12 苏州驾驶宝智能科技有限公司 视觉雷达时空信息融合的目标检测方法及系统
EP3296247A1 (de) * 2016-09-14 2018-03-21 Siemens Aktiengesellschaft Detektion von verriegelungsvorrichtungen
CN109271880A (zh) * 2018-08-27 2019-01-25 深圳清创新科技有限公司 车辆检测方法、装置、计算机设备和存储介质
CN109345510A (zh) * 2018-09-07 2019-02-15 百度在线网络技术(北京)有限公司 物体检测方法、装置、设备、存储介质及车辆
CN109523552A (zh) * 2018-10-24 2019-03-26 青岛智能产业技术研究院 基于视锥点云的三维物体检测方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170213093A1 (en) * 2016-01-27 2017-07-27 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for detecting vehicle contour based on point cloud data
CN107025642A (zh) * 2016-01-27 2017-08-08 百度在线网络技术(北京)有限公司 基于点云数据的车辆轮廓检测方法和装置
EP3296247A1 (de) * 2016-09-14 2018-03-21 Siemens Aktiengesellschaft Detektion von verriegelungsvorrichtungen
CN107525810A (zh) * 2017-08-31 2017-12-29 中远海运科技股份有限公司 一种基于3d成像的集装箱破损检测设备及方法
CN107576960A (zh) * 2017-09-04 2018-01-12 苏州驾驶宝智能科技有限公司 视觉雷达时空信息融合的目标检测方法及系统
CN109271880A (zh) * 2018-08-27 2019-01-25 深圳清创新科技有限公司 车辆检测方法、装置、计算机设备和存储介质
CN109345510A (zh) * 2018-09-07 2019-02-15 百度在线网络技术(北京)有限公司 物体检测方法、装置、设备、存储介质及车辆
CN109523552A (zh) * 2018-10-24 2019-03-26 青岛智能产业技术研究院 基于视锥点云的三维物体检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张雪松 等: "基于迁移学习的类别级物体识别与检测研究与进展" *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111626992A (zh) * 2020-05-13 2020-09-04 苏州凝眸物联科技有限公司 一种智能道口验箱方法
CN112381792A (zh) * 2020-11-13 2021-02-19 中国人民解放军空军工程大学 基于深度学习的雷达吸波涂层/电磁屏蔽薄膜损伤的智能化成像在线检测方法
CN112819793A (zh) * 2021-02-01 2021-05-18 宁波港信息通信有限公司 一种集装箱残损识别方法、装置、设备和可读存取介质
CN113962274A (zh) * 2021-11-18 2022-01-21 腾讯科技(深圳)有限公司 一种异常识别方法、装置、电子设备及存储介质
CN115222697A (zh) * 2022-07-18 2022-10-21 北京国泰星云科技有限公司 基于机器视觉和深度学习的集装箱残损检测方法

Similar Documents

Publication Publication Date Title
CN110992337A (zh) 一种集装箱残损检测方法及系统
CN110910382A (zh) 一种集装箱检测系统
KR102646521B1 (ko) 편광 큐를 이용한 표면 모델링 시스템 및 방법
CN112669318B (zh) 表面缺陷检测方法、装置、设备及存储介质
CN109801333B (zh) 体积测量方法、装置、系统及计算设备
CN112651968B (zh) 一种基于深度信息的木板形变与凹坑检测方法
US11948344B2 (en) Method, system, medium, equipment and terminal for inland vessel identification and depth estimation for smart maritime
Zhang et al. Stud pose detection based on photometric stereo and lightweight YOLOv4
CN111383257B (zh) 一种车厢装卸率确定方法和装置
US11953312B2 (en) System and method of object inspection using multispectral 3D laser scanning
CN113362276B (zh) 板材视觉检测方法及系统
CN111784684A (zh) 基于激光辅助的透明产品内部缺陷定深检测方法及装置
Zhou et al. UAV vision detection method for crane surface cracks based on Faster R-CNN and image segmentation
CN114252449A (zh) 一种基于线结构光的铝合金焊缝表面质量检测系统及方法
CN116543247A (zh) 基于光度立体表面重建的数据集制作方法及验证系统
CN115063472A (zh) 基于深度学习的行李识别测量方法及装置
CN115953550A (zh) 针对线结构光扫描的点云离群点剔除系统及方法
CN113409282A (zh) 箱式结构的形变检测方法、装置、电子设备及存储介质
CN114092411A (zh) 一种高效快速的双目3d点云焊点缺陷检测方法
CN116579955B (zh) 一种新能源电芯焊缝反光点去噪和点云补全方法及系统
CN113298007A (zh) 一种小样本sar图像目标识别方法
Zhao et al. Binocular vision measurement for large-scale weakly textured ship hull plates using feature points encoding method
CN210377552U (zh) 一种水果分类用多面图像获取装置
CN117036971A (zh) 自适应局部空谱一致下的机载LiDAR数据建筑物提取方法
Lei et al. Transparent object detection using color image and laser reflectance image for mobile manipulator

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination