CN112270383A - 一种基于全卷积神经网络的隧道大规模铆钉孔提取方法 - Google Patents
一种基于全卷积神经网络的隧道大规模铆钉孔提取方法 Download PDFInfo
- Publication number
- CN112270383A CN112270383A CN202011285066.1A CN202011285066A CN112270383A CN 112270383 A CN112270383 A CN 112270383A CN 202011285066 A CN202011285066 A CN 202011285066A CN 112270383 A CN112270383 A CN 112270383A
- Authority
- CN
- China
- Prior art keywords
- image
- full convolution
- tunnel
- rivet hole
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于全卷积神经网络的隧道大规模铆钉孔提取方法,包括获取地铁隧道点云数据并生成图像;对图像进行预处理,建立并扩充图像数据集,划分训练集和测试集;构建全卷积神经网络并进行训练,得到用于铆钉孔特征提取的全卷积网络模型;基于全卷积网络模型,对测试集样本进行铆钉孔特征提取;将待检测的隧道图像输入全卷积网络模型中,实现图像中铆钉孔结构的自动提取。本发明解决了现有技术中针对地铁隧道大规模铆钉孔结构无法识别定位问题,有效提高了隧道铆钉孔的提取精度,基于准确提取的隧道铆钉孔,可根据不同类别的铆钉孔排列模板进行隧道管片块的分割提取,从而提高隧道结构形变分析准确度。
Description
技术领域
本发明属于轨道交通技术领域,具体涉及一种基于全卷积神经网络的隧道大规模铆钉孔提取方法。
背景技术
近年来,随着城市的发展,地面交通压力越来越大。造成交通阻塞的关键原因在于城市道路容量不足,道路扩建的速度跟不上车流量增加的速度。为了解决交通拥挤的问题,地铁等公共交通工具越来越普遍。地铁隧道作为城市中运送旅客的主要载体,其安全性和稳定性至关重要,因此其隧道结构的定位和分析具有重要的现实意义。
隧道结构是由不同类型的管片块经过铆钉拼接而成的,铆钉作为隧道结构的关键组成部分,其真实可靠的定位及分析数据的来源是隧道检测的基础,传统铆钉孔定位分析通过接触式测量及人工肉眼检测,人力财力成本极高,检测周期长准确性低,近年来,三维激光扫描技术快速发展,基于此的隧道铆钉孔结构定位及分析技术能够克服传统测量方法的不足。
然而,目前三维扫描技术在隧道检测领域的应用还处于初级阶段,存在成本高、自动化程度低、实时性差等缺陷,相应的数据处理方法也不能满足实际需求,无法对铆钉孔结构进行准确的定位和分析,从而进一步影响隧道结构的形变分析等后续步骤
针对现有技术中隧道大规模铆钉孔结构无法准确定位的问题,目前尚未提出有效的解决方案。
发明内容
本发明所要解决的技术问题是针对上述现有技术的不足,提供一种基于全卷积神经网络的隧道大规模铆钉孔提取方法,可解决现有技术中隧道铆钉孔结构无法准确定位的问题。
为实现上述技术目的,本发明采取的技术方案为:
一种基于全卷积神经网络的隧道大规模铆钉孔提取方法,包括:
S1:获取地铁隧道点云数据并生成图像;
S2:对S1生成的图像进行预处理,建立并扩充图像数据集,从扩充后的图像数据集中划分出训练集和测试集;
S3:构建全卷积神经网络,并利用训练集对全卷积神经网络进行训练,得到用于铆钉孔特征提取的全卷积网络模型;
S4:基于S3得到的全卷积网络模型,对测试集样本进行铆钉孔特征提取,输出铆钉孔提取结果,检验全卷积网络模型的提取效果;
S5:将待检测的隧道图像输入完成S4测试的全卷积网络模型中,实现图像中铆钉孔结构的自动提取。
为优化上述技术方案,采取的具体措施还包括:
上述的S2所述对S1生成的图像进行预处理,建立并扩充图像数据集,从扩充后的图像数据集中划分出训练集和测试集,包括:
对S1生成的图像进行裁剪,得到统一尺寸的子图像,并将所述子图像中所有不同朝向的铆钉孔进行分类标注,其中同一朝向的作为一类,从而建立图像数据集;
对于建立的图像数据集,采用平移和增加噪声的方式进行扩充;
然后,将扩充后的图像数据集按比例划分为训练集和测试集。
上述的S2将图像数据集中的70%作为训练集,30%作为测试集。
上述的S3基于Faseter RCNN网络构建全卷积神经网络,所述全卷积神经网络包括卷积注意力模块和方向感知模块;
所述卷积注意力模块用于Faseter RCNN网络的特征提取阶段,用于加强图像中的铆钉孔特征,增强铆钉的识别;
所述方向感知模块,用于对铆钉每个方向的特征进行提取,最后将方向特征与卷积特征融合用于铆钉孔的检测。
上述的卷积注意力模块为:
上述的S3训练过程中,建立基于TensorFlow深度学习库搭建的损失函数和优化器,经前向传播后,采用随机梯度下降法及反向传播算法进行神经网络的权重更新。
上述的损失函数分为两项,一项为分类损失函数,一项为识别框的定位损失函数,以保证网络对于图像中铆钉孔的分类和定位都具有较高的准确度;
所述损失函数为:
其中,Ncls,Nreg分别表示图像中候选区域的数量及正样本的数量,pi表示网络对图像候选区域ri的预测结果;pi *表示该候选区域的理论结果,λ表示分类损失函数和定位损失函数的权重参数,ti表示网络预测的识别框的位置,ti *表示识别框的理论位置;
其中,分类损失函数:
Lcls(pi,pi *)=(pi-pi *)2
识别框的定位损失函数:
Lreg(ti,ti *)=0.5|ti,ti *|2|ti,ti *|≤1
Lreg(ti,ti *)=|ti-ti *|-0.5|ti,ti *|>1。
上述的S3预设最大迭代训练次数50次,直到所述网络模型的损失值趋于收敛,则停止训练,即得到全卷积网络模型。
上述的S5所述将待检测的隧道图像输入完成S4测试的全卷积网络模型中,实现图像中铆钉孔结构的自动提取,具体为:
给定一张隧道图像,首先经过预处理裁剪成统一尺寸的子图像,分别输入完成S4测试的全卷积网络模型中,提取其中的铆钉孔结构,所有子图像检测完成后,将图像进行拼接恢复,即完成对所述图像中的所有铆钉孔结构的提取。
本发明具有以下有益效果:
本发明为地铁隧道铆钉孔结构无法识别定位问题提供了准确的自动检测方法,可以有效提高隧道铆钉孔的提取精度,基于准确提取的隧道铆钉孔,可根据不同类别的铆钉孔排列模板进行隧道管片块的分割提取,从而提高隧道结构形变分析准确度。
附图说明
图1是根据本发明实施例1的基于全卷积神经网络的隧道大规模铆钉孔提取方法的一种可选的流程图;
图2是根据本发明实施例1的隧道反射率影像图;
图3是根据本发明实施例1的隧道反射率影响图中不同类型的铆钉孔结构;
图4是根据本发明实施例1的由全卷积神经网络定位提取出的所有铆钉孔结构。
具体实施方式
以下结合附图对本发明的实施例作进一步详细描述。
实施例1
在本发明优选的实施例1中提供了基于全卷积神经网络的隧道大规模铆钉孔提取方法,该方法可以直接应用至各种地铁隧道图像处理装置上,具体实现时,可以通过在写入地铁隧道图像处理装置控制器相应的程序的方式来实现。具体来说,图1示出该方法的一种可选的流程图,如图1所示,该方法包括如下步骤S1-S5:
本发明的一种基于全卷积神经网络的隧道大规模铆钉孔提取方法,包括:
S1:获取地铁隧道点云数据并生成图像;
S2:对S1生成的图像进行预处理,建立并扩充图像数据集,从扩充后的图像数据集中划分出训练集和测试集;
S3:构建全卷积神经网络,并利用训练集对全卷积神经网络进行训练,得到用于铆钉孔特征提取的全卷积网络模型;
S4:基于S3得到的全卷积网络模型,对测试集样本进行铆钉孔特征提取,输出铆钉孔提取结果,检验全卷积网络模型的提取效果;
S5:在实际应用中,将任意一副待检测的隧道图像输入完成S4测试的全卷积网络模型中,实现图像中铆钉孔结构的自动提取。
上述方法步骤可以有效提高隧道铆钉孔的提取精度,基于准确提取的隧道铆钉孔,可根据不同类别的铆钉孔排列模板进行隧道管片块的分割提取,从而提高隧道结构形变分析准确度。
图2所示为隧道反射率影像,如图2所示,隧道反射率影像中分布有不同朝向的铆钉孔,这些铆钉孔的排布方式对于隧道结构的分割和提取具有重要的指导意义。基于上述因素,本发明需要对影像中的铆钉孔进行自动准确的识别和定位,从而保证后续的隧道结构分析的效率和准确度。
实施例中,S2所述对S1生成的图像进行预处理,建立并扩充图像数据集,从扩充后的图像数据集中划分出训练集和测试集,包括:
对S1生成的图像进行裁剪,得到统一尺寸的子图像,并将所述子图像中所有不同朝向的铆钉孔进行分类标注,其中同一朝向的作为一类;
对于建立的图像数据集,采用平移和增加噪声的方式进行扩充;
然后,将扩充后的图像数据集按比例划分为训练集和测试集。
具体的,包括:
给定一张分辨率为1200×1000的隧道反射率影像,对其进行裁剪,裁减成为统一尺寸的子图像(25×25),并将子图像中所有不同朝向的铆钉孔进行分类标注(同一朝向的作为一类),从而建立图像数据集,对于建立的图像数据集,采用平移和增加噪声的方式进行扩充;
然后,将扩充后的图像数据集,70%作为训练集,30%作为测试集。图3展示了隧道反射率影像中不同朝向(类别)的铆钉孔结构。
实施例中,所述S3基于Faseter RCNN网络构建全卷积神经网络,所述全卷积神经网络包括卷积注意力模块和方向感知模块;
所述卷积注意力模块用于Faseter RCNN网络的特征提取阶段,用于加强图像中的铆钉孔特征,增强铆钉的识别;
所述方向感知模块,用于对铆钉每个方向的特征进行提取,最后将方向特征与卷积特征融合用于铆钉孔的检测。
实施例中,所述S3应用Faseter RCNN网络,将训练集作为网络输入,进行训练。
在Faseter RCNN网络的特征提取阶段融入卷积注意力模块(CBAM),加强图像中的铆钉孔特征,增强铆钉的识别。
所述卷积注意力模块结合了空间和通道注意力机制,相比其他注意力机制模块,可以加强目标物体的特征,抑制背景区域。
进一步地,结合铆钉的四个方向的特性,在网络中增加了方向感知模块,对铆钉各个方向特征进行提取,最后将方向特征与卷积特征融合用于铆钉孔的检测。
训练过程中,建立基于TensorFlow深度学习库搭建的损失函数和优化器,经前向传播后,设计网络损失函数,包括分类损失函数和识别框的定位损失函数,并采用随机梯度下降法及反向传播算法进行神经网络的权重更新,预设最大迭代训练次数50次,直到网络模型的损失值趋于收敛,则停止训练,即得到全卷积网络模型。
具体地,设计网络损失函数,包括分类损失函数和识别框的定位损失函数,包括:
所述损失函数分为两项,一项为分类损失函数,一项为识别框的定位损失函数,以保证网络对于图像中铆钉孔的分类和定位都具有较高的准确度。所述损失函数设计为:
其中Ncls,Nreg分别表示图像中候选区域的数量及正样本的数量,pi表示网络对图像候选区域ri的预测结果(1代表预测准确,0代表预测错误),pi *表示该候选区域的理论结果(设为1),λ表示分类损失函数和定位损失函数的权重参数,ti表示网络预测的识别框的位置,ti *表示识别框的理论位置。
具体地,所述损失函数分为两项,一项为分类损失函数,一项为识别框的定位损失函数,包括:
Lcls(pi,pi *)=(pi-pi *)2
Lreg(ti,ti *)=0.5|ti-ti *|2|ti-ti *|≤1
Lreg(ti,ti *)=|ti-ti *|-0.5|ti-ti *|>1
实施例中,S5将任意一副待检测的隧道图像输入完成测试的全卷积神经网络模型中,即可自动提取图像中的铆钉孔结构,包括:给定一张隧道图像(1200×1000),首先经过预处理裁剪成统一尺寸的子图像(25×25),分别输入完成S4测试的全卷积网络模型中,提取其中的铆钉孔结构,所有子图像检测完成后,将图像进行拼接恢复,即完成对图像中的所有铆钉孔结构的提取。
图4为经过全卷积神经网络的分类和定位后提取得到的隧道铆钉孔。基于此,能够准确地实现对隧道反射率影像中的铆钉孔结构提取,从而保证后续的隧道结构分析的效率和准确度。
综上所述,本发明解决了现有技术中针对地铁隧道大规模铆钉孔结构无法识别定位问题,有效提高了隧道铆钉孔的提取精度,基于准确提取的隧道铆钉孔,可根据不同类别的铆钉孔排列模板进行隧道管片块的分割提取,从而提高隧道结构形变分析准确度。
以上仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,应视为本发明的保护范围。
Claims (9)
1.一种基于全卷积神经网络的隧道大规模铆钉孔提取方法,其特征在于,包括:
S1:获取地铁隧道点云数据并生成图像;
S2:对S1生成的图像进行预处理,建立并扩充图像数据集,从扩充后的图像数据集中划分出训练集和测试集;
S3:构建全卷积神经网络,并利用训练集对全卷积神经网络进行训练,得到用于铆钉孔特征提取的全卷积网络模型;
S4:基于S3得到的全卷积网络模型,对测试集样本进行铆钉孔特征提取,输出铆钉孔提取结果,检验全卷积网络模型的提取效果;
S5:将待检测的隧道图像输入完成S4测试的全卷积网络模型中,实现图像中铆钉孔结构的自动提取。
2.根据权利要求1所述的一种基于全卷积神经网络的隧道大规模铆钉孔提取方法,其特征在于,S2所述对S1生成的图像进行预处理,建立图像数据集并进行扩充,从扩充后的图像数据集中划分出训练集和测试集,包括:
对S1生成的图像进行裁剪,得到统一尺寸的子图像,并将所述子图像中所有不同朝向的铆钉孔进行分类标注,其中同一朝向的作为一类,从而建立图像数据集;
对于建立的图像数据集,采用平移和增加噪声的方式进行扩充;
然后,将扩充后的图像数据集按比例划分为训练集和测试集。
3.根据权利要求2所述的一种基于全卷积神经网络的隧道大规模铆钉孔提取方法,其特征在于,所述S2将图像数据集中的70%作为训练集,30%作为测试集。
4.根据权利要求1所述的一种基于全卷积神经网络的隧道大规模铆钉孔提取方法,其特征在于,所述S3基于Faseter RCNN网络构建全卷积神经网络,所述全卷积神经网络包括卷积注意力模块和方向感知模块;
所述卷积注意力模块用于Faseter RCNN网络的特征提取阶段,用于加强图像中的铆钉孔特征,增强铆钉的识别;
所述方向感知模块,用于对铆钉每个方向的特征进行提取,最后将方向特征与卷积特征融合用于铆钉孔的检测。
6.根据权利要求1所述的一种基于全卷积神经网络的隧道大规模铆钉孔提取方法,其特征在于,S3训练过程中,建立基于Tensor Flow深度学习库搭建损失函数和优化器,经前向传播后,采用随机梯度下降法及反向传播算法进行神经网络的权重更新。
7.根据权利要求6所述的一种基于全卷积神经网络的隧道大规模铆钉孔提取方法,其特征在于,所述损失函数分为两项,一项为分类损失函数,一项为识别框的定位损失函数,以保证网络对于图像中铆钉孔的分类和定位都具有较高的准确度;
所述损失函数为:
其中,Ncls,Nreg分别表示图像中候选区域的数量及正样本的数量,pi表示网络对图像候选区域ri的预测结果;pi *表示该候选区域的理论结果,λ表示分类损失函数和定位损失函数的权重参数,ti表示网络预测的识别框的位置,ti *表示识别框的理论位置;
其中,分类损失函数:
Lcls(pi,pi *)=(pi-pi *)2
识别框的定位损失函数:
Lreg(ti,ti *)=0.5|ti-ti *|2 |ti-ti *|≤1
Lreg(ti,ti *)=|ti-ti *|-0.5 |ti-ti *|>1。
8.根据权利要求1所述的一种基于全卷积神经网络的隧道大规模铆钉孔提取方法,其特征在于,所述S3预设最大迭代训练次数50次,直到所述网络模型的损失值趋于收敛,则停止训练,即得到全卷积网络模型。
9.根据权利要求1所述的一种基于全卷积神经网络的隧道大规模铆钉孔提取方法,其特征在于,S5所述将待检测的隧道图像输入完成S4测试的全卷积网络模型中,实现图像中铆钉孔结构的自动提取,具体为:
给定一张隧道图像,首先经过预处理裁剪成统一尺寸的子图像,分别输入完成S4测试的全卷积网络模型中,提取其中的铆钉孔结构,所有子图像检测完成后,将图像进行拼接恢复,即完成对所述图像中的所有铆钉孔结构的提取。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011285066.1A CN112270383B (zh) | 2020-11-17 | 2020-11-17 | 一种基于全卷积神经网络的隧道大规模铆钉孔提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011285066.1A CN112270383B (zh) | 2020-11-17 | 2020-11-17 | 一种基于全卷积神经网络的隧道大规模铆钉孔提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112270383A true CN112270383A (zh) | 2021-01-26 |
CN112270383B CN112270383B (zh) | 2021-11-23 |
Family
ID=74340084
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011285066.1A Active CN112270383B (zh) | 2020-11-17 | 2020-11-17 | 一种基于全卷积神经网络的隧道大规模铆钉孔提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112270383B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113554664A (zh) * | 2021-07-06 | 2021-10-26 | 南京航空航天大学 | 一种地铁隧道反射率影像优化剪裁方法 |
CN113687282A (zh) * | 2021-08-20 | 2021-11-23 | 吉林建筑大学 | 一种磁性纳米材料的磁性检测系统及方法 |
CN115792949A (zh) * | 2023-02-10 | 2023-03-14 | 深圳酷源数联科技有限公司 | 一种适用于矿井巷道的形变监测方法及系统 |
CN116011107A (zh) * | 2023-01-10 | 2023-04-25 | 南京航空航天大学 | 大型复合材料构件孔特征提取方法、装置及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111507998A (zh) * | 2020-04-20 | 2020-08-07 | 南京航空航天大学 | 基于深度级联的多尺度激励机制隧道表面缺陷分割方法 |
CN111612758A (zh) * | 2020-05-19 | 2020-09-01 | 南京航空航天大学 | 一种基于卷积神经网络的隧道表面缺陷检测方法 |
-
2020
- 2020-11-17 CN CN202011285066.1A patent/CN112270383B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111507998A (zh) * | 2020-04-20 | 2020-08-07 | 南京航空航天大学 | 基于深度级联的多尺度激励机制隧道表面缺陷分割方法 |
CN111612758A (zh) * | 2020-05-19 | 2020-09-01 | 南京航空航天大学 | 一种基于卷积神经网络的隧道表面缺陷检测方法 |
Non-Patent Citations (1)
Title |
---|
QIAN XIE等: "RRCNet:Rivet Region Classification Network for Rivet Flush Measurement Based on 3-D Point cloud", 《IEEETRANSACTIONS ON INSTRUMENTATION AND MEASUREMENT》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113554664A (zh) * | 2021-07-06 | 2021-10-26 | 南京航空航天大学 | 一种地铁隧道反射率影像优化剪裁方法 |
CN113554664B (zh) * | 2021-07-06 | 2024-02-09 | 南京航空航天大学 | 一种地铁隧道反射率影像优化剪裁方法 |
CN113687282A (zh) * | 2021-08-20 | 2021-11-23 | 吉林建筑大学 | 一种磁性纳米材料的磁性检测系统及方法 |
CN116011107A (zh) * | 2023-01-10 | 2023-04-25 | 南京航空航天大学 | 大型复合材料构件孔特征提取方法、装置及系统 |
CN115792949A (zh) * | 2023-02-10 | 2023-03-14 | 深圳酷源数联科技有限公司 | 一种适用于矿井巷道的形变监测方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112270383B (zh) | 2021-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112270383B (zh) | 一种基于全卷积神经网络的隧道大规模铆钉孔提取方法 | |
CN110378222B (zh) | 一种输电线路防震锤目标检测与缺陷识别方法及装置 | |
CN109615016B (zh) | 一种基于金字塔输入增益的卷积神经网络的目标检测方法 | |
CN109543740B (zh) | 一种基于生成对抗网络的目标检测方法 | |
CN109214349B (zh) | 一种基于语义分割增强的物体检测方法 | |
CN111488873B (zh) | 一种基于弱监督学习的字符级场景文字检测方法和装置 | |
CN111861978A (zh) | 基于Faster R-CNN的桥梁裂缝实例分割方法 | |
CN111461114A (zh) | 一种基于分割的多尺度特征金字塔文本检测方法 | |
CN111932511B (zh) | 一种基于深度学习的电子元器件质量检测方法与系统 | |
CN109117836A (zh) | 一种基于焦点损失函数的自然场景下文字检测定位方法和装置 | |
CN110969166A (zh) | 一种巡检场景下小目标识别方法和系统 | |
CN111461212A (zh) | 一种用于点云目标检测模型的压缩方法 | |
Ye et al. | Autonomous surface crack identification of concrete structures based on the YOLOv7 algorithm | |
CN112926621B (zh) | 数据标注方法、装置、电子设备及存储介质 | |
Ji et al. | An encoder-decoder deep learning method for multi-class object segmentation from 3D tunnel point clouds | |
Bai et al. | Detecting cracks and spalling automatically in extreme events by end-to-end deep learning frameworks | |
CN114677501A (zh) | 一种基于二维高斯边界框重叠度度量的车牌检测方法 | |
CN112508099A (zh) | 一种实时目标检测的方法和装置 | |
CN110660049A (zh) | 一种基于深度学习的轮胎缺陷检测方法 | |
CN117437647B (zh) | 基于深度学习和计算机视觉的甲骨文字检测方法 | |
Deepa et al. | Pothole detection using roboflow convolutional neural networks | |
CN112115817B (zh) | 基于深度学习的遥感影像道路轨迹正确性核查方法及装置 | |
Xu et al. | Solar panel recognition of non-cooperative spacecraft based on deep learnin | |
CN111583417B (zh) | 一种图像语义和场景几何联合约束的室内vr场景构建的方法、装置、电子设备和介质 | |
CN117689932A (zh) | 一种基于改进YOLOv7的InSAR大气相位和地表形变的检测方法、装置及计算机存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |