CN113420643A - 基于深度可分离空洞卷积的轻量级水下目标检测方法 - Google Patents
基于深度可分离空洞卷积的轻量级水下目标检测方法 Download PDFInfo
- Publication number
- CN113420643A CN113420643A CN202110688073.4A CN202110688073A CN113420643A CN 113420643 A CN113420643 A CN 113420643A CN 202110688073 A CN202110688073 A CN 202110688073A CN 113420643 A CN113420643 A CN 113420643A
- Authority
- CN
- China
- Prior art keywords
- convolution
- channels
- network
- underwater target
- target detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于深度可分离空洞卷积的轻量级水下目标检测方法,使用水下机器人拍摄水下目标图像,得到水下目标检测数据集,对基于VGG16的Faster R‑CNN模型进行改进,读取水下目标检测数据集,对改进后模型进行训练和测试,得到检测模型权重,在水下机器人平台上搭载检测模型和训练后检测模型权重,对水下图像进行实时检测,识别水下目标。本发明增大了特征图分辨率,适用于多尺度目标,通过降低特征图通道数以及压缩全连接层减少了检测过程的参数量,以此加快了目标识别的速度,使网络具有轻量级的特点,可以搭载于水下机器人平台,具有广阔的应用前景。
Description
技术领域
本发明涉及计算机目标检测技术领域,尤其是一种水下目标检测方法。
背景技术
地球表面约71%的面积被水覆盖,水下探索和开发具有广阔的应用前景和重要的战略意义。对人类而言,水下环境十分恶劣,不适合人工作业,这促进了水下机器人的快速发展,而水下机器人离不开对目标的检测和识别。传统水下检测大多采用声学手段,但随着技术的发展,水下光学图像分辨率越来越高,信息量更加丰富,在短距离检测中具有突出的优势,因此,在水下机器人上搭载光学识别模块是现在的研究热点。
近年来,随着深度学习理论及算法发展,目标检测算法在精度和速度方面都有所提升,具有代表性的如Faster R-CNN、SSD、YOLO v3等,但这些算法参数量较大,对算力要求较高,不能直接搭载在水下机器人平台上进行实时检测。
发明内容
为了克服现有技术的不足,本发明提供一种基于深度可分离空洞卷积的轻量级水下目标检测方法。本发明基于深度可分离空洞卷积来降低通用目标检测算法Faster R-CNN的参数量,从而提供一种实时轻量级水下目标检测方法。
本发明解决其技术问题所采用的技术方案包括如下步骤:
步骤1:使用水下机器人拍摄水下目标图像,人工进行数据标注,标注文件包括图片名称、图像尺寸、矩形边界框框坐标和目标物类别信息,图片与标注文件合并得到水下目标检测数据集;
步骤2:对基于VGG16的Faster R-CNN模型进行改进,使用单个DDG卷积模块一一代替网络中的普通卷积层和平均池化层,并在ROI池化层之前增加一个DDG卷积模块降低特征图通道数,减少分类网络的全连接层数和通道数;
步骤3:读取水下目标检测数据集,对步骤2中改进后模型进行训练和测试,得到检测模型权重;
步骤4:在水下机器人平台上搭载检测模型和训练后检测模型权重,对水下图像进行实时检测,识别水下目标。
所述图像和标注文件按6:2:2的比例随机划分训练集、测试集和验证集。
进一步的,所述DDG卷积模块中:对于输入特征图,尺寸为H*W,通道数为C,对输入特征图进行深度可分离卷积,卷积核大小为K*K,卷积方式为空洞卷积,共有C个单通道可分离空洞卷积核,由于原始网络特征图通道数C均为4的倍数,将可分离空洞卷积核的空洞卷积系数设置为[1,2,3,5]的循环;可分离空洞卷积的输出再通过一个1*1的分组卷积进行特征融合,分组卷积每个卷积核通道数为4,分组数目为C/4,卷积核数量等于输出通道数数量;
特别的,对于三通道彩色图像,可分离空洞卷积核数与图像通道数相等,空洞系数从[1,2,3,5]中按顺序选取为[1,2,3],对应分组卷积每个卷积核通道数为3。
进一步的,使用DDG卷积模块代替网络中的普通卷积层,DDG卷积模块中可分离空洞卷积核大小与步长与原始网络对应位置普通卷积核相同,对输入三通道彩色图像进行深度可分离空洞卷积时,卷积系数设置为[1,2,3],之后所有DDG卷积模块中空洞卷积系数设置为[1,2,3,5]的循环,1*1分组卷积的分组数为输入通道数的1/4,每个卷积核通道数量为4。
进一步的,使用DDG卷积模块代替网络中的平均池化层,基于VGG16的Faster R-CNN模型有四个平均池化层,下采样率为16,首先去除第四平均池化层,使得下采样率变为8,特征图分辨率扩大一倍,然后使用DDG卷积模块代替网络中剩下三个平均池化层,并设置DDG卷积模块中的卷积步长为2,空洞卷积系数设置为[1,2,3,5]的循环。
进一步的,在ROI池化层之前增加一个深度可分离卷积层降低特征图通道数,基于VGG16的Faster R-CNN模型输出特征图通道数为512,增加一个深度可分离卷积层,先进行逐通道卷积,再进行逐点卷积,其中逐点卷积的卷积核数量设置为10,使得输出特征图通道数为10。
进一步的,减少分类网络的全连接层数和通道数;基于VGG16的Faster R-CNN模型的分类网络,具有两个通道数为4096的全连接层,首先去除一个4096全连接层,再将剩下的一个全连接层通道数从4096减小为2048,最后通过两个并行的输出层进行分类和回归。
所述步骤3中,网络模型训练的步骤为:
网络模型训练时,每次输入一张图片进行计算,首先经过m次的DDG卷积模块,得到相应特征图,输入RPN网络,生成锚框,并进行分类和回归,选择N个正负样本,将其预测值与真实边界框一次送入损失函数计算分类和回归损失,锚框经过回归系数回归得到ROI,选择N个正负样本中的N1个正负样本通过全连接层,得到预测类别分数以及回归系数,与真实边界框一起计算分类和回归损失,由损失进行反向传播,更新网络权重;不断迭代计算,每训练p次计算一次损失并输出,完成一轮训练后保存相应权重文件,当损失收敛不再下降,即可得到最终模型。
本发明的有益效果在于:通过DDG卷积模块中的空洞卷积扩大了模型感受野,增大了特征图分辨率,适用于多尺度目标。通过DDG卷积模块中的可分离卷积和分组卷积减少了卷积过程的参数量,通过降低特征图通道数以及压缩全连接层减少了检测过程的参数量,以此加快了目标识别的速度,使网络具有轻量级的特点,可以搭载于水下机器人平台,具有广阔的应用前景。
附图说明
图1是本发明所述方法步骤图。
图2是本发明DDG卷积模块示意图。
图3是本发明提供的整体网络模型示意图。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
本实例提供一种基于深度可分离空洞卷积的轻量级水下目标检测方法,如图1所示,包括以下步骤:
步骤一:使用水下机器人拍摄水下目标图像,人工进行数据标注,存储为xml格式标注文件,标注文件包括图片名称、图像尺寸、矩形边界框框坐标和目标物类别信息,将得到的图像和标注文件按6:2:2的比例随机划分训练集、测试集和验证集,得到所需的水下目标检测数据集。
步骤二:图2所示为DDG卷积模块,所述DDG卷积模块:对于输入的特征图,尺寸为H*W,通道数为C,对其进行深度可分离卷积,卷积核大小为K*K,卷积方式为空洞卷积,共有C个单通道可分离空洞卷积核,由于原始网络特征图通道数均为4的倍数,将可分离空洞卷积核的空洞卷积系数设置为[1,2,3,5]的循环。可分离空洞卷积的输出再通过一个1*1的分组卷积,以进行特征融合,分组卷积每个卷积核通道数为4,分组数目为C/4,卷积核数量等于输出通道数数量。特别的,对于三通道彩色图像,可分离空洞卷积核数与图像通道数相等,空洞系数从[1,2,3,5]中按顺序选取为[1,2,3],对应分组卷积每个卷积核通道数为3。对基于VGG16的Faster R-CNN模型进行改进,整体网络模型如图3,改进部分包括:
使用DDG卷积模块代替网络中的普通卷积层,DDG卷积模块中可分离空洞卷积核大小与步长与原始网络对应位置普通卷积核相同,对输入三通道彩色图像进行深度可分离空洞卷积时,卷积系数设置为[1,2,3],之后所有DDG卷积模块中空洞卷积系数设置为[1,2,3,5]的循环,1*1分组卷积的分组数为输入通道数的1/4,每个卷积核通道数量为4。
使用DDG卷积模块代替网络中的平均池化层,基于VGG16的Faster R-CNN模型有四个平均池化层,下采样率为16,首先去除第四平均池化层,使得下采样率变为8,特征图分辨率扩大一倍,然后使用DDG卷积模块代替网络中的剩下三个平均池化层,并设置DDG卷积模块中的卷积步长为2,空洞卷积系数设置为[1,2,3,5]的循环。
在ROI池化层之前增加一个深度可分离卷积层降低特征图通道数,基于VGG16的Faster R-CNN模型输出特征图通道数为512,增加一个深度可分离卷积层,进行两步操作,先进行逐通道卷积,再进行逐点卷积,其中逐点卷积的卷积核数量设置为10,使得输出特征图通道数为10。
减少分类网络的全连接层数和通道数。基于VGG16的Faster R-CNN模型的分类网络,具有两个通道数为4096的全连接层,首先去除一个4096全连接层,再将剩下的一个全连接层通道数从4096减小为2048,最后通过两个并行的输出层进行分类和回归。
步骤三:读取水下目标检测数据集,对改进后模型进行训练和测试,得到检测模型权重。所诉网络模型训练时每次输入一张图片进行计算,首先经过一定次数的DDG卷积模块,得到相应特征图,输入RPN网络,生成锚框,并进行分类和回归,选择256个正负样本,将其预测值与真实边界框一次送入损失函数计算分类和回归损失。锚框经过回归系数回归得到ROI,选择较好的128个正负样本通过全连接层,得到预测类别分数以及回归系数,与真实边界框一起计算分类和回归损失。由损失进行反向传播,更新网络权重。不断迭代计算,每训练100次计算一次损失并输出。完成一轮训练后保存相应权重文件。当损失收敛不再下降,即可得到最终模型。
步骤四:在水下机器人平台上搭载检测模型和训练后权重,对水下图像进行实时检测,识别水下目标。
检测时具体过程为:
水下航行器实时采集的水下RGB图片,输入模型,经过一定次数的DDG卷积模块,可以学习到图像高层次特征,得到一张通道数为512,分辨率为原图八分之一的特征图,再输入RPN网络,其中RPN是一个浅层的全卷积网络,一开始特征图经过一个3*3的卷积,也就是在特征图上滑动一个一个3*3的矩形窗口,每个滑动窗口映射到一个低维特征(VGG模型为512维)。这个特征被输入到两个1*1卷积层,进行分类和回归。在每个滑动窗口位置,同时预测多个区域提议,默认值是对应特征图上每一点都在与图上预测9个不同尺度和长宽比的矩形框,称之为anchor,因此分类层有18个输出,表示9个anchor分别为前景和背景大的概率,回归层有36个输出,表示9个anchor的四个回归系数。再通过NMS等操作得到好的anchor,经过回归系数变换得到感兴趣区域ROI。
RPN输出的ROI特征图通道数为512,通过一个深度可分离卷积操作,将通道数降低为10,特征图分辨率大小不变,再进行ROI Pooling,将ROI水平与垂直方向都均分为7份。进行max pooling,即只提取每一个里的最大值作为输出,从而得到固定尺寸为7*7的ROI特征图,连接一个通道数为2048的全连接层,最后分别预测RoIs属于哪个类别以及每个类别的位置回归系数,经过可视化处理,输出具有预测目标检测框及相应置信度分数的图片。
以上所述仅为本发明的具体实施例而已,并不用于限制本发明,对于本领域的技术人员来说,能够根据上述的内容进行许多替换、修改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于深度可分离空洞卷积的轻量级水下目标检测方法,其特征在于包括下述步骤:
步骤1:使用水下机器人拍摄水下目标图像,人工进行数据标注,标注文件包括图片名称、图像尺寸、矩形边界框框坐标和目标物类别信息,图片与标注文件合并得到水下目标检测数据集;
步骤2:对基于VGG16的Faster R-CNN模型进行改进,使用单个DDG卷积模块一一代替网络中的普通卷积层和平均池化层,并在ROI池化层之前增加一个DDG卷积模块降低特征图通道数,减少分类网络的全连接层数和通道数;
步骤3:读取水下目标检测数据集,对步骤2中改进后模型进行训练和测试,得到检测模型权重;
步骤4:在水下机器人平台上搭载检测模型和训练后检测模型权重,对水下图像进行实时检测,识别水下目标。
2.根据权利要求1所述的基于深度可分离空洞卷积的轻量级水下目标检测方法,其特征在于:
所述图像和标注文件按6:2:2的比例随机划分训练集、测试集和验证集。
3.根据权利要求1所述的基于深度可分离空洞卷积的轻量级水下目标检测方法,其特征在于:
所述DDG卷积模块中:对于输入特征图,尺寸为H*W,通道数为C,对输入特征图进行深度可分离卷积,卷积核大小为K*K,卷积方式为空洞卷积,共有C个单通道可分离空洞卷积核,由于原始网络特征图通道数C均为4的倍数,将可分离空洞卷积核的空洞卷积系数设置为[1,2,3,5]的循环;可分离空洞卷积的输出再通过一个1*1的分组卷积进行特征融合,分组卷积每个卷积核通道数为4,分组数目为C/4,卷积核数量等于输出通道数数量。
4.根据权利要求3所述的基于深度可分离空洞卷积的轻量级水下目标检测方法,其特征在于:
对于三通道彩色图像,可分离空洞卷积核数与图像通道数相等,空洞系数从[1,2,3,5]中按顺序选取为[1,2,3],对应分组卷积每个卷积核通道数为3。
5.根据权利要求1所述的基于深度可分离空洞卷积的轻量级水下目标检测方法,其特征在于:
使用DDG卷积模块代替网络中的普通卷积层,DDG卷积模块中可分离空洞卷积核大小与步长与原始网络对应位置普通卷积核相同,对输入三通道彩色图像进行深度可分离空洞卷积时,卷积系数设置为[1,2,3],之后所有DDG卷积模块中空洞卷积系数设置为[1,2,3,5]的循环,1*1分组卷积的分组数为输入通道数的1/4,每个卷积核通道数量为4。
6.根据权利要求1所述的基于深度可分离空洞卷积的轻量级水下目标检测方法,其特征在于:
使用DDG卷积模块代替网络中的平均池化层,基于VGG16的Faster R-CNN模型有四个平均池化层,下采样率为16,首先去除第四平均池化层,使得下采样率变为8,特征图分辨率扩大一倍,然后使用DDG卷积模块代替网络中剩下三个平均池化层,并设置DDG卷积模块中的卷积步长为2,空洞卷积系数设置为[1,2,3,5]的循环。
7.根据权利要求1所述的基于深度可分离空洞卷积的轻量级水下目标检测方法,其特征在于:
在ROI池化层之前增加一个深度可分离卷积层降低特征图通道数,基于VGG16的FasterR-CNN模型输出特征图通道数为512,增加一个深度可分离卷积层,先进行逐通道卷积,再进行逐点卷积,其中逐点卷积的卷积核数量设置为10,使得输出特征图通道数为10。
8.根据权利要求1所述的基于深度可分离空洞卷积的轻量级水下目标检测方法,其特征在于:
减少分类网络的全连接层数和通道数;基于VGG16的Faster R-CNN模型的分类网络,具有两个通道数为4096的全连接层,首先去除一个4096全连接层,再将剩下的一个全连接层通道数从4096减小为2048,最后通过两个并行的输出层进行分类和回归。
9.根据权利要求1所述的基于深度可分离空洞卷积的轻量级水下目标检测方法,其特征在于:
所述步骤3中,网络模型训练的步骤为:
网络模型训练时,每次输入一张图片进行计算,首先经过m次的DDG卷积模块,得到相应特征图,输入RPN网络,生成锚框,并进行分类和回归,选择N个正负样本,将其预测值与真实边界框一次送入损失函数计算分类和回归损失,锚框经过回归系数回归得到ROI,选择N个正负样本中的N1个正负样本通过全连接层,得到预测类别分数以及回归系数,与真实边界框一起计算分类和回归损失,由损失进行反向传播,更新网络权重;不断迭代计算,每训练p次计算一次损失并输出,完成一轮训练后保存相应权重文件,当损失收敛不再下降,即可得到最终模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110688073.4A CN113420643B (zh) | 2021-06-21 | 2021-06-21 | 基于深度可分离空洞卷积的轻量级水下目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110688073.4A CN113420643B (zh) | 2021-06-21 | 2021-06-21 | 基于深度可分离空洞卷积的轻量级水下目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113420643A true CN113420643A (zh) | 2021-09-21 |
CN113420643B CN113420643B (zh) | 2023-02-10 |
Family
ID=77789595
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110688073.4A Active CN113420643B (zh) | 2021-06-21 | 2021-06-21 | 基于深度可分离空洞卷积的轻量级水下目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113420643B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114119965A (zh) * | 2021-11-30 | 2022-03-01 | 齐鲁工业大学 | 一种道路目标检测方法及系统 |
CN114494891A (zh) * | 2022-04-15 | 2022-05-13 | 中国科学院微电子研究所 | 一种基于多尺度并行检测的危险品识别装置和方法 |
CN114998567A (zh) * | 2022-07-18 | 2022-09-02 | 中国科学院长春光学精密机械与物理研究所 | 一种基于多模态特征判别的红外点群目标识别方法 |
CN115272980A (zh) * | 2022-09-22 | 2022-11-01 | 常州海图信息科技股份有限公司 | 一种基于机器视觉的运输皮带表面检测方法及系统 |
CN116721302A (zh) * | 2023-08-10 | 2023-09-08 | 成都信息工程大学 | 一种基于轻量级网络的冰雪晶粒子图像分类方法 |
CN117173552A (zh) * | 2023-11-03 | 2023-12-05 | 青岛理工大学 | 一种水下目标检测方法、系统、电子设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190095795A1 (en) * | 2017-03-15 | 2019-03-28 | Samsung Electronics Co., Ltd. | System and method for designing efficient super resolution deep convolutional neural networks by cascade network training, cascade network trimming, and dilated convolutions |
WO2020181685A1 (zh) * | 2019-03-12 | 2020-09-17 | 南京邮电大学 | 一种基于深度学习的车载视频目标检测方法 |
WO2020243826A1 (en) * | 2019-06-04 | 2020-12-10 | University Of Manitoba | Computer-implemented method of analyzing an image to segment article of interest therein |
CN112634276A (zh) * | 2020-12-08 | 2021-04-09 | 西安理工大学 | 一种基于多尺度视觉特征提取的轻量级语义分割方法 |
WO2021073418A1 (zh) * | 2019-10-18 | 2021-04-22 | 平安科技(深圳)有限公司 | 人脸识别方法、装置、设备及存储介质 |
-
2021
- 2021-06-21 CN CN202110688073.4A patent/CN113420643B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190095795A1 (en) * | 2017-03-15 | 2019-03-28 | Samsung Electronics Co., Ltd. | System and method for designing efficient super resolution deep convolutional neural networks by cascade network training, cascade network trimming, and dilated convolutions |
WO2020181685A1 (zh) * | 2019-03-12 | 2020-09-17 | 南京邮电大学 | 一种基于深度学习的车载视频目标检测方法 |
WO2020243826A1 (en) * | 2019-06-04 | 2020-12-10 | University Of Manitoba | Computer-implemented method of analyzing an image to segment article of interest therein |
WO2021073418A1 (zh) * | 2019-10-18 | 2021-04-22 | 平安科技(深圳)有限公司 | 人脸识别方法、装置、设备及存储介质 |
CN112634276A (zh) * | 2020-12-08 | 2021-04-09 | 西安理工大学 | 一种基于多尺度视觉特征提取的轻量级语义分割方法 |
Non-Patent Citations (2)
Title |
---|
HOANH NGUYEN: "《Fast Traffic Sign Detection Approach Based on Lightweight Network and Multilayer Proposal Network》", 《JOURNAL OF SENSORS》 * |
王威 等: "《基于局部感受野扩张D-MobileNet模型的图像分类方法》", 《计算机应用研究》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114119965A (zh) * | 2021-11-30 | 2022-03-01 | 齐鲁工业大学 | 一种道路目标检测方法及系统 |
CN114494891A (zh) * | 2022-04-15 | 2022-05-13 | 中国科学院微电子研究所 | 一种基于多尺度并行检测的危险品识别装置和方法 |
CN114998567A (zh) * | 2022-07-18 | 2022-09-02 | 中国科学院长春光学精密机械与物理研究所 | 一种基于多模态特征判别的红外点群目标识别方法 |
CN114998567B (zh) * | 2022-07-18 | 2022-11-01 | 中国科学院长春光学精密机械与物理研究所 | 一种基于多模态特征判别的红外点群目标识别方法 |
CN115272980A (zh) * | 2022-09-22 | 2022-11-01 | 常州海图信息科技股份有限公司 | 一种基于机器视觉的运输皮带表面检测方法及系统 |
CN116721302A (zh) * | 2023-08-10 | 2023-09-08 | 成都信息工程大学 | 一种基于轻量级网络的冰雪晶粒子图像分类方法 |
CN116721302B (zh) * | 2023-08-10 | 2024-01-12 | 成都信息工程大学 | 一种基于轻量级网络的冰雪晶粒子图像分类方法 |
CN117173552A (zh) * | 2023-11-03 | 2023-12-05 | 青岛理工大学 | 一种水下目标检测方法、系统、电子设备及存储介质 |
CN117173552B (zh) * | 2023-11-03 | 2024-02-20 | 青岛理工大学 | 一种水下目标检测方法、系统、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113420643B (zh) | 2023-02-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113420643B (zh) | 基于深度可分离空洞卷积的轻量级水下目标检测方法 | |
CN111126472B (zh) | 一种基于ssd改进的目标检测方法 | |
CN111652321B (zh) | 一种基于改进yolov3算法的海上船舶检测方法 | |
CN111640125B (zh) | 基于Mask R-CNN的航拍图建筑物检测和分割方法及装置 | |
CN109886066B (zh) | 基于多尺度和多层特征融合的快速目标检测方法 | |
CN109919934B (zh) | 一种基于多源域深度迁移学习的液晶面板缺陷检测方法 | |
CN108648161B (zh) | 非对称核卷积神经网络的双目视觉障碍物检测系统及方法 | |
CN112150821B (zh) | 轻量化车辆检测模型构建方法、系统及装置 | |
CN111445488B (zh) | 一种弱监督学习自动识别和分割盐体的方法 | |
CN111489358A (zh) | 一种基于深度学习的三维点云语义分割方法 | |
CN113160062B (zh) | 一种红外图像目标检测方法、装置、设备及存储介质 | |
CN111091105A (zh) | 基于新的边框回归损失函数的遥感图像目标检测方法 | |
CN108805070A (zh) | 一种基于嵌入式终端的深度学习行人检测方法 | |
CN111783772A (zh) | 一种基于RP-ResNet网络的抓取检测方法 | |
CN110322453A (zh) | 基于位置注意力和辅助网络的3d点云语义分割方法 | |
CN112418330A (zh) | 一种基于改进型ssd的小目标物体高精度检测方法 | |
CN110287777A (zh) | 一种自然场景下的金丝猴躯体分割算法 | |
CN112507904B (zh) | 一种基于多尺度特征的教室人体姿态实时检测方法 | |
CN113221956A (zh) | 基于改进的多尺度深度模型的目标识别方法及装置 | |
CN116071389A (zh) | 一种基于前背景匹配的边界框弱监督图像分割方法 | |
CN117994525A (zh) | 基于混合增强和实例信息学习的点云半监督全景分割方法 | |
CN115049945A (zh) | 一种基于无人机图像的小麦倒伏面积提取方法和装置 | |
CN111222534A (zh) | 一种基于双向特征融合和更平衡l1损失的单发多框检测器优化方法 | |
CN111429419B (zh) | 一种基于混合蚁群算法的绝缘子轮廓检测方法 | |
CN113536896A (zh) | 基于改进Faser RCNN的小目标检测方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |