CN114882355A - 一种建筑裂缝智能识别和检测方法及装置 - Google Patents

一种建筑裂缝智能识别和检测方法及装置 Download PDF

Info

Publication number
CN114882355A
CN114882355A CN202210427609.1A CN202210427609A CN114882355A CN 114882355 A CN114882355 A CN 114882355A CN 202210427609 A CN202210427609 A CN 202210427609A CN 114882355 A CN114882355 A CN 114882355A
Authority
CN
China
Prior art keywords
building crack
representing
box
detection model
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210427609.1A
Other languages
English (en)
Inventor
黄宝峰
管西强
张益�
朱佳鹏
韩杨杨
观复
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Normal University
Original Assignee
Shanghai Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Normal University filed Critical Shanghai Normal University
Priority to CN202210427609.1A priority Critical patent/CN114882355A/zh
Publication of CN114882355A publication Critical patent/CN114882355A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种建筑裂缝智能识别和检测方法,其特征在于,该方法包括以下步骤:步骤1:对训练数据集进行人工标注;步骤2:获取训练数据集中的图像,作为建筑裂缝检测模型的输入;步骤3:基于YOLO算法对建筑裂缝检测模型进行训练,并得到训练后的建筑裂缝检测模型;步骤4:采用训练后的建筑裂缝检测模型进行前向推断;步骤5:获取对建筑裂缝预测的结果。与现有技术相比,本发明具有能够改改烧遮挡问题、目标姿势动作幅度过大或目标方向改变造成的检测影响以及减少计算量等优点。

Description

一种建筑裂缝智能识别和检测方法及装置
技术领域
本发明涉及计算机视觉领域,尤其是涉及一种建筑裂缝智能识别和检测方法及装置。
背景技术
随着计算机运算性能的逐渐增强,通过计算机视觉领域来代替传统的人工检测幕墙裂缝的方法逐渐普及,为了能够提高传统目标检测识别裂缝的效率,为用户提供更好的体验服务,使用高效率的算法变的越来越重要,传统目标检测主要有复杂度高、鲁棒性差等缺点,以HOG算法为例,具体表现如下:
HOG算法应用于在计算机视觉以及数字图像处理中,是一种能对物体进行检测的基于形状边缘特征的描述算子,它的基本思想是利用梯度信息反映图像目标的边缘信息并通过局部梯度的大小将图像局部的外观和形状特征化,整体流程分为下面五个步骤:
(1)颜色空间归一化:对整幅图像的颜色信息作归一化处理从而减少不同光照及背景的影响,提高检测的鲁棒性,引入图像Gamma和颜色空间归一化作为特征提取的预处理手段。不对图像进行高斯平滑处理,因平滑处理会降低图像目标边缘信息的辨识度,影响检测结果;
(2)梯度计算:边缘是由图像局部特征包括灰度、颜色和纹理的突变导致的。一幅图像中相邻的像素点之间变化比较少,区域变化比较平坦,则梯度幅值就会比较小,反之,则梯度幅值就会比较大。梯度在图像中对应的就是其一阶导数;
(3)计算细胞单元的梯度直方图:对于整个目标窗口,将其分成互不重叠大小相同的细胞单元(cell),然后分别计算出每个cell的梯度信息,包括梯度大小和梯度方向;
(4)对组合成块的梯度直方图作归一化:梯度幅值绝对值的大小容易受到前景与背景对比度及局部光照的影响,要减少这种影响得到较准确的检测效果就必须对局部细胞单元进行归一化处理,将几个细胞单元(cell)组合成更大的块(block),将整幅图像看成待检测窗口,将更大的块看成是滑动窗口,依次从左到右从上到下进行滑动,得到一些有重复细胞单元的块及一些相同细胞单元(cell)在不同块(block)中的梯度信息,再对这些块(block)信息分别作归一化处理;
(5)对归一化梯度特征进行SVM分类:对于滑动窗口提取的窗口,分别计算出归一化的梯度特征,然后应用SVM实现是目标还是背景的分类判定。
需要解决的主要问题是:
1、很难处理遮挡问题,目标姿势动作幅度过大或目标方向改变也不易检测;
2、计算量大,不具有普适性。
随机机器学习方法的不断完善和发展,深度学习算法越来越受到重视,其中卷积神经网络就是深度学习中一种重要的算法,目前已成为语音分析和图像识别领域的研究热点,卷积神经打破了传统神经网络中层与层之间的神经元全连接的方式,它的权值共享网络结构使之更类似于生物神经网络,降低了网络建筑裂缝检测模型的复杂度,减少了权值的数量,该优点在网络的输入是图像是表现的更为明显,使图像可以直接作为网络的输入,避免了传统识别算法中复杂的特征提取和数据重建过程,卷积网络是为识别二维形状而特殊设计的一个多层感知器,这种网络结构对平移、比例缩放、倾斜或者其他形式的形变具有高度不变性,基于卷积神经网络的图像分类技术能够有效地自动的从图像中提取特征信息,提取的特征具有非常好的图像表达能力,因此该技术在一些图像分类问题中取得了令人满意的实验结果。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种建筑裂缝智能识别和检测方法及装置。
本发明的目的可以通过以下技术方案来实现:
一种建筑裂缝智能识别和检测方法,该方法包括以下步骤:
步骤1:对训练数据集进行人工标注;
步骤2:获取训练数据集中的图像,作为建筑裂缝检测模型的输入;
步骤3:基于YOLO算法对建筑裂缝检测模型进行训练,并得到训练后的建筑裂缝检测模型;
步骤4:采用训练后的建筑裂缝检测模型进行前向推断;
步骤5:获取对建筑裂缝预测的结果。
所述的步骤1中,采用在线标注工具makesense.ai对训练数据集进行人工标注。
所述的步骤3中,基于YOLO算法对建筑裂缝检测模型进行训练的过程具体包括以下步骤:
步骤301:将训练数据集中的图像划分为多个网格单元;
步骤302:运行神经网络,获取真实框和边界框的参数,真实框即候选框,边界框即预测框;
步骤303:根据人工标注的真实框确定该真实框所属的网格单元,同时由于每一个网格单元会生成多个边界框,比较该真实框与所落在的网格单元预测出的边界框之间的IoU值;
步骤304:设置损失函数,以选择IoU值大的真实框进行拟合,并舍弃其他的IoU值。
所述的步骤303中,损失函数的表达式为:
Figure BDA0003608977250000031
其中,λcoord表示负责检测物体的预测框坐标误差权重,λnoobj表示不负责检测物体的预测框坐标误差权重,S表示图像划分成网格单元后的网格单元的数量,B表示每个网格单元所预测的预测框的个数的最大值,
Figure BDA0003608977250000032
表示第i个网格单元的第j个预测框,若负责预测物体则为1,否则为0,xi表示负责检测物体的预测框中心点的横坐标,
Figure BDA0003608977250000033
表示对该物体人工标注的候选框中心点的横坐标,yi表示负责检测物体的预测框中心点的纵坐标,
Figure BDA0003608977250000034
表示对该物体人工标注的候选框中心点的纵坐标,wi表示负责检测物体的预测框的宽度,
Figure BDA0003608977250000035
表示对该物体人工标注的候选框的宽度,hi表示负责检测物体的预测框的高度,
Figure BDA0003608977250000041
表示对该物体人工标注的候选框的高度,Ci表示正向推断中预测出的IoU值,
Figure BDA0003608977250000042
表示该预测框与人工标注的候选框的真实IoU。
所述的步骤4中,采用训练后的建筑裂缝检测模型进行前向推断的过程具体包括以下步骤:
步骤401:将测试数据集中的图片输入至训练后的建筑裂缝检测模型中;
步骤402:经过卷积层提取图像特征得到一个7*7*30的张量,该张量包括边界框中心点的坐标、边界框的高度、边界框的宽度、置信度以及类别结果;
步骤403:通过将置信度乘以类别结果得出预测框的类别,并采用NMS过滤掉多余的预测框得到预测的结果。
所述的步骤402中,张量包括边界框中心点的坐标、边界框的高度、边界框的宽度、置信度以及类别结果。
所述的步骤403中,通过将置信度乘以类别结果得到预测框的类别。
一种实现如所述建筑裂缝智能识别和检测方法的装置,该装置包括存储器和处理器。
所述的存储器用以存储计算机程序。
所述的处理器用以当执行计算机程序时,实现以下方法:
步骤1:对训练数据集进行人工标注;
步骤2:获取训练数据集中的图像,作为建筑裂缝检测模型的输入;
步骤3:基于YOLO算法对建筑裂缝检测模型进行训练,并得到训练后的建筑裂缝检测模型;
步骤4:采用训练后的建筑裂缝检测模型进行前向推断;
步骤5:获取对建筑裂缝预测的结果。
与现有技术相比,本发明具有以如下有益效果:
1、本发明基于YOLO算法进行识别和检测建筑裂缝,YOLO算法的背景误检率低,能够改善遮挡问题、目标姿势动作幅度过大或目标方向改变造成的检测影响;
2、本发明基于YOLO算法进行识别和检测建筑裂缝,能够在训练和推理过程中能识别整张图像的整体信息;
3、本发明能够减小计算量,更具有普适性。
附图说明
图1为本发明整体流程示意图;
图2为预测阶段流程示意图;
图3为待识别的裂缝图像;
图4为训练模型输出效果图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
本发明提供了一种建筑裂缝智能识别和检测方法,基于YOLO算法识别和检测建筑裂缝,YOLO算法将对象检测重新定义为一个回归问题,它将单个卷积神经网络(CNN)应用于整个图像,将图像分成多个网格单元,并预测每个网格单元的类概率和边界框,该方法包括以下步骤:
步骤1:进行人工标注(ground truth),采用标注工具(此处使用的是在线标注工具makesense.ai)对训练数据集进行人工标注;
步骤2:将训练数据集输入至卷积神经网络中进行建筑裂缝检测模型的训练:
将图像划分为多个网格单元(gird cell);
根据标注的真实框(ground truth)确定该真实框所属的网格单元,同时由于每一个网格单元会生成多个边界框(Bounding box),设计损失函数以选择与真实框的较大IoU值进行拟合,其他IoU值舍弃,损失函数的表达式为:
Figure BDA0003608977250000061
其中,λcoord表示负责检测物体的预测框坐标误差权重,λnoobj表示不负责检测物体的预测框坐标误差权重,i表示第i个网格单元,S表示图像划分成网格单元后的网格单元的数量,j表示每个网格单元所预测的预测框的个数,B表示每个网格单元所预测的预测框的个数的最大值,
Figure BDA0003608977250000062
表示第i个网格单元的第j个预测框,若负责预测物体则为1,否则为0,xi表示负责检测物体的预测框中心点的横坐标,
Figure BDA0003608977250000063
表示对该物体人工标注的候选框中心点的横坐标,yi表示负责检测物体的预测框中心点的纵坐标,
Figure BDA0003608977250000064
表示对该物体人工标注的候选框中心点的纵坐标,wi表示负责检测物体的预测框的宽度,
Figure BDA0003608977250000065
表示对该物体人工标注的候选框的宽度,hi表示负责检测物体的预测框的高度,
Figure BDA0003608977250000066
表示对该物体人工标注的候选框的高度,Ci表示正向推断中预测出的IoU值,
Figure BDA0003608977250000067
表示该预测框与人工标注的候选框的真实IoU;
步骤3:采用训练后的建筑裂缝检测模型进行前向推断:
将测试数据集中的待检测图片输入到训练后的建筑裂缝检测模型中;
经过卷积层提取图像特征得到一个7*7*30的张量(tensor),该张量包括边界框中心点的坐标、边界框的高度、边界框的宽度、置信度以及类别结果;
通过将置信度乘以类别结果使用NMS过滤掉多余的边界框得到预测的结果。
HOG算法中具有较难处理遮挡、目标姿势动作幅度过大或目标方向改变也不易检测的问题,而YOLO算法的背景误检率低,YOLO算法在训练和推理过程中能识别整张图像的整体信息,而HOG算法在检测过程中只识别局部图像信息,因此,若当图像背景(非目标)中的部分数据对目标产生影响时,容易被误检测成物体。
为了验证本发明的性能,本实施例运用采集到的数据集进行了实验,实验内容为检测数据集中的裂缝,并且计算出识别率供参考,如表1所示,从中可以看出,YOLO在数据集的特征不足且较为单一的条件下识别率较高,证明了YOLO卷积神经网络在目标检测中的重要作用。
表1实验数据表
训练集数量 测试集数量 成功识别数 识别率
54 42 31 73.80%
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。

Claims (10)

1.一种建筑裂缝智能识别和检测方法,其特征在于,该方法包括以下步骤:
步骤1:对训练数据集进行人工标注;
步骤2:获取训练数据集中的图像,作为建筑裂缝检测模型的输入;
步骤3:基于YOLO算法对建筑裂缝检测模型进行训练,并得到训练后的建筑裂缝检测模型;
步骤4:采用训练后的建筑裂缝检测模型进行前向推断;
步骤5:获取对建筑裂缝预测的结果。
2.根据权利要求1所述的一种建筑裂缝智能识别和检测方法,其特征在于,所述的步骤1中,采用在线标注工具makesense.ai对训练数据集进行人工标注。
3.根据权利要求1所述的一种建筑裂缝智能识别和检测方法,其特征在于,所述的步骤3中,基于YOLO算法对建筑裂缝检测模型进行训练的过程具体包括以下步骤:
步骤301:将训练数据集中的图像划分为多个网格单元;
步骤302:运行神经网络,获取真实框和边界框的参数,真实框即候选框,边界框即预测框;
步骤303:根据人工标注的真实框确定该真实框所属的网格单元,同时由于每一个网格单元会生成多个边界框,比较该真实框与所落在的网格单元预测出的边界框之间的IoU值;
步骤304:设置损失函数,以选择IoU值大的真实框进行拟合,并舍弃其他的IoU值。
4.根据权利要求3所述的一种建筑裂缝智能识别和检测方法,其特征在于,所述的步骤303中,损失函数的表达式为:
Figure FDA0003608977240000021
其中,λcoord表示负责检测物体的预测框坐标误差权重,λnoobj表示不负责检测物体的预测框坐标误差权重,S表示图像划分成网格单元后的网格单元的数量,B表示每个网格单元所预测的预测框的个数的最大值,
Figure FDA0003608977240000022
表示第i个网格单元的第j个预测框,若负责预测物体则为1,否则为0,xi表示负责检测物体的预测框中心点的横坐标,
Figure FDA0003608977240000023
表示对该物体人工标注的候选框中心点的横坐标,yi表示负责检测物体的预测框中心点的纵坐标,
Figure FDA0003608977240000024
表示对该物体人工标注的候选框中心点的纵坐标,wi表示负责检测物体的预测框的宽度,
Figure FDA0003608977240000025
表示对该物体人工标注的候选框的宽度,hi表示负责检测物体的预测框的高度,
Figure FDA0003608977240000026
表示对该物体人工标注的候选框的高度,Ci表示正向推断中预测出的IoU值,
Figure FDA0003608977240000027
表示该预测框与人工标注的候选框的真实IoU。
5.根据权利要求1所述的一种建筑裂缝智能识别和检测方法,其特征在于,所述的步骤4中,采用训练后的建筑裂缝检测模型进行前向推断的过程具体包括以下步骤:
步骤401:将测试数据集中的图片输入至训练后的建筑裂缝检测模型中;
步骤402:经过卷积层提取图像特征得到一个7*7*30的张量,该张量包括边界框中心点的坐标、边界框的高度、边界框的宽度、置信度以及类别结果;
步骤403:通过将置信度乘以类别结果得出预测框的类别,并采用NMS过滤掉多余的预测框得到预测的结果。
6.根据权利要求5所述的一种建筑裂缝智能识别和检测方法,其特征在于,所述的步骤402中,张量包括边界框中心点的坐标、边界框的高度、边界框的宽度、置信度以及类别结果。
7.根据权利要求6所述的一种建筑裂缝智能识别和检测方法,其特征在于,所述的步骤403中,通过将置信度乘以类别结果得到预测框的类别。
8.一种实现如权利要求1~7任一项所述建筑裂缝智能识别和检测方法的装置,其特征在于,该装置包括存储器和处理器。
9.根据权利要求8所述的一种建筑裂缝智能识别和检测装置,其特征在于,所述的存储器用以存储计算机程序。
10.根据权利要求8所述的一种建筑裂缝智能识别和检测装置,其特征在于,所述的处理器用以当执行计算机程序时,实现以下方法:
步骤1:对训练数据集进行人工标注;
步骤2:获取训练数据集中的图像,作为建筑裂缝检测模型的输入;
步骤3:基于YOLO算法对建筑裂缝检测模型进行训练,并得到训练后的建筑裂缝检测模型;
步骤4:采用训练后的建筑裂缝检测模型进行前向推断;
步骤5:获取对建筑裂缝预测的结果。
CN202210427609.1A 2022-04-21 2022-04-21 一种建筑裂缝智能识别和检测方法及装置 Pending CN114882355A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210427609.1A CN114882355A (zh) 2022-04-21 2022-04-21 一种建筑裂缝智能识别和检测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210427609.1A CN114882355A (zh) 2022-04-21 2022-04-21 一种建筑裂缝智能识别和检测方法及装置

Publications (1)

Publication Number Publication Date
CN114882355A true CN114882355A (zh) 2022-08-09

Family

ID=82672166

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210427609.1A Pending CN114882355A (zh) 2022-04-21 2022-04-21 一种建筑裂缝智能识别和检测方法及装置

Country Status (1)

Country Link
CN (1) CN114882355A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117132896A (zh) * 2023-10-23 2023-11-28 深圳英飞拓科技股份有限公司 一种建筑物开裂的检测与识别方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117132896A (zh) * 2023-10-23 2023-11-28 深圳英飞拓科技股份有限公司 一种建筑物开裂的检测与识别方法
CN117132896B (zh) * 2023-10-23 2024-05-14 深圳英飞拓科技股份有限公司 一种建筑物开裂的检测与识别方法

Similar Documents

Publication Publication Date Title
CN110334706B (zh) 一种图像目标识别方法及装置
CN108960245B (zh) 轮胎模具字符的检测与识别方法、装置、设备及存储介质
CN113160192B (zh) 复杂背景下基于视觉的压雪车外观缺陷检测方法及装置
WO2022012110A1 (zh) 胚胎光镜图像中细胞的识别方法及系统、设备及存储介质
CN110148130B (zh) 用于检测零件缺陷的方法和装置
CN108918536B (zh) 轮胎模具表面字符缺陷检测方法、装置、设备及存储介质
CN113781402A (zh) 芯片表面划痕缺陷的检测方法、装置和计算机设备
CN111753828B (zh) 一种基于深度卷积神经网络的自然场景水平文字检测方法
CN113592845A (zh) 一种电池涂布的缺陷检测方法及装置、存储介质
CN111815564B (zh) 一种检测丝锭的方法、装置及丝锭分拣系统
CN111275082A (zh) 一种基于改进端到端神经网络的室内物体目标检测方法
CN108038846A (zh) 基于多层卷积神经网络的输电线路设备图像缺陷检测方法及系统
CN113658132A (zh) 基于计算机视觉的结构件焊缝检测方法
CN110008853B (zh) 行人检测网络及模型训练方法、检测方法、介质、设备
CN114749342B (zh) 一种锂电池极片涂布缺陷识别方法、装置及介质
CN109685045A (zh) 一种运动目标视频跟踪方法及系统
CN112734741A (zh) 一种肺炎ct影像的图像处理方法和系统
CN112613410B (zh) 基于迁移学习的寄生虫虫卵识别方法
CN116664565A (zh) 一种光伏太阳能电池片的隐裂检测方法及系统
CN114359199A (zh) 一种基于深度学习的鱼类计数方法、装置、设备和介质
CN112749673A (zh) 一种基于遥感影像智能提取储油罐库存的方法及装置
CN113221956A (zh) 基于改进的多尺度深度模型的目标识别方法及装置
CN112926592A (zh) 一种基于改进Fast算法的商标检索方法及装置
An et al. Fabric defect detection using deep learning: An Improved Faster R-approach
CN114882355A (zh) 一种建筑裂缝智能识别和检测方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Guan Xiqiang

Inventor after: Zhang Yi

Inventor after: Huang Baofeng

Inventor after: Zhu Jiapeng

Inventor after: Han Yangyang

Inventor after: Tang Chenglian

Inventor before: Huang Baofeng

Inventor before: Guan Xiqiang

Inventor before: Zhang Yi

Inventor before: Zhu Jiapeng

Inventor before: Han Yangyang

Inventor before: Guan Fu

CB03 Change of inventor or designer information