CN112508977A - 一种面向自动驾驶场景的基于深度学习的语义分割方法 - Google Patents
一种面向自动驾驶场景的基于深度学习的语义分割方法 Download PDFInfo
- Publication number
- CN112508977A CN112508977A CN202011585194.8A CN202011585194A CN112508977A CN 112508977 A CN112508977 A CN 112508977A CN 202011585194 A CN202011585194 A CN 202011585194A CN 112508977 A CN112508977 A CN 112508977A
- Authority
- CN
- China
- Prior art keywords
- model
- network
- semantic segmentation
- image
- automatic driving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20192—Edge enhancement; Edge preservation
Abstract
本发明公开一种面向自动驾驶场景的基于深度学习的语义分割方法,主要解决当前街景图像语义分割技术中计算量大,分割准确率不高的问题。该方法以Cityscapes和Camvid数据集作为训练集和测试集,在Tensorflow环境中对数据集进行预处理,然后以改进的Xception分类模型为主干网络,对复杂场景图像中目标对象进行特征提取,将Xception识别处理的结果送到DeeplabV3+中进行语义分割,经过训练、测试调整网络参数后,得到分割结果。本发明以改进的Xception作为分类网络模型提高了图像目标识别、分割的准确率,降低了识别时间和经济成本,可以应用在自动驾驶、军事等领域中。
Description
技术领域
本发明涉及深度学习领域与计算机视觉、图像分析领域,具体是一种面向自动驾驶场景的基于深度学习的语义分割方法。
背景技术
近年来人工智能技术迅速发展,人们的生活越来越倾向于智能化,越来越多的智能化产品相继问世,人们的生活也越来越依赖智能产品完成一些琐碎的工作。如今辅助驾驶汽车、无人机、机器人、城市虚拟化等大批智能化设备和技术得到发展,同时对于在智能识别的需求也变得愈来愈迫切。然而对图像的分割是智能识别的基础和前提,分割的效果直接影响到识别的效率和准确率。同时对于街景的图像的分割与识别是无人驾驶、无人机、智慧城市以及城市重建等新兴领域的关键技术因此更精确的图像分割技术对于生活中个方面的发展都有很大的提升与帮助。
目前大部分的家庭都拥有了私家车,使用私家车出行给人们的生活带来了很大的便利。但是带来便利的同时,在驾驶汽车行驶过程中由于驾驶员的分心驾驶、危险驾驶、疲劳驾驶、违反交通规则等其它不可抗拒因素,每年都会引发很多的交通事故,对一个家庭带来很大的经济损失甚至会付出生命的代价。随着近年来汽车产业与在人工智能产业的联合发展,对在汽车代步的基础上逐渐增加了一些智能化的功能,来辅助驾驶人员驾驶汽车,减少因为不正确驾驶所产生的经济损失和人员伤亡。目前有许多相关领域的公司,例如百度、谷歌等科技公司都展开了对自动驾驶领域的研究,推动了自动驾驶领域的发展。
在自动驾驶技术中,对街景场景的精确感知是至关重要的。街景状况的感知可以通过分割获取的行车道路图像来获取道路信息。对于街景图像的快速分割处理技术的应用能够促进更多产业的快速发展,因此对于街景图像分割技术的深入研究对社会的发展具有很重要的意义。目前,图像的分割方法主要分为传统分割方法和新理论分割方法。传统的图像分割方法主要有:阈值法、区域法和边缘检测法等。新理论的图像分割方法有:超像素法和语义分割法。在深度学习的引领下语义分割在街景图像分割领域取得了比较显著的成果。而由谷歌团队提出的Depplab-V3+被誉为语义分割界的新高峰,本文将使用Deeplab-V3+算法模型针对街景图像进行语义分割处理。
发明内容
本文提出一种自动驾驶场景中基于编码器-解码器模型进行语义分割的方法,利用深度学习技术解决了微小目标边界分割困难问题。该方法在平衡网络分割的准确率、识别速度的同时,使两者均达到最优值。
本发明可以通过以下技术步骤进行实现:
1)Cityscapes(5000张精细标注的图像)和Camvid两个数据集作为训练集和测试集,划分比例为7∶3。对上述数据集进行标签化处理,再将标签化处理的数据转换为便于Tensorflow获取的TFRecord格式数据。
2)在Tensorflow环境下对每一帧图像进行翻转、旋转、缩放和移位等几何变换来增强图像数据,并使用CUDA进行加速运算。
3)将Xception模型中的扩展卷积和深度可分离卷积组成扩张分离卷积,原模型中的最大池化操作换成了带有下采样的深度可分离卷积,并在每个3×3卷积后面添加了批量归一化处理和Relu激活函数,实现对复杂场景图像中目标对象的特征提取。
4)采用随机梯度下降算法(SGD)和L1正则化对DeeplabV3+网络模型进行训练和优化处理。使用均交并比值(MIoU)评估模型对街景图像实现语义分割性能的标准度量。以改进的Xception-65作为主干模型的DeeplabV3+网络分别在CamVid和Cityscapes数据集进行了30000和50000次的迭代测试,得到不同的MIoU评估结果,以此验证训练数据和迭代次数对网络模型性能的影响。
5)在Xception-65和Xception-71的网络结构基础上改变Output stride和空洞卷积率。经对比试验分析,最终使用Output stride=16和空洞卷积率为[6,12,18]的网络对街景图像分割,得到MIoU值达到88.10%的街景图像语义分割图。
本发明与现有技术相比具有以下优点:
一、tensorflow作为实验环境,可以保障支持、开发的持续性,是一种可读性比较强的的开发语言,支持多GPU。
二、以Xception分类模型作为主干网络,Xception网络结构将InceptionV3模型中的Inception模块换成了深度可分离卷积模块作为网络的基本结构,使用了ResNet的残差网络的跳跃连接机制,减少一定的计算复杂度,能够进行快速计算,并保留了原有的输入网络层。
三、Xception作为主干网络的模型,实验结果对小物体和物体边缘分割效果更佳,物体整体识别度更高。对比ResNet101和MobileNetV2作为主干网络的模型具有参数量少,检测速度快,准确率高的特点。
四、Deeplab-V3+网络结合了空间金字塔模块和编码器-解码器结构的优点,可以得到更加准确的分割模型,使分割准确率更高。
附图说明
为更好的解释说明本发明的技术流程,下面使用一些附图对技术进行简单的介绍。
图1本发明自动驾驶场景中基于编码器-解码器模型语义分割方法研究流程示意图
图2改进后的Xception网络
图3 CamVid和Cityscapes不同迭代次数整体loss收敛图
图4不同数据集和迭代次数结果对比图
图5 Xception分类结构的训练数据对比图
图6 Xception为主干网络的最佳分割状态下的分割图像与原始图像叠加图
具体实施方式
下面结合附图对本发明描述。
流程图如图1所示的自动驾驶场景中基于深度学习的语义分割方法研究,主要包括以下步骤。
步骤1:获取Cityscapes(5000张精细标注的图像)和Camvid两个数据集作为训练集和测试集。对数据集进行标签化处理,并转换为便于Tensorflow获取的tfrecord格式数据。
步骤2:将数据集分为训练集和测试集,其比例为7∶3。在以Python编程语言为基础的Tensorflow环境下,对两个数据集的图像进行翻转、旋转、缩放和移位等几何变换来增强图像数据,使用CUDA进行加速运算。
步骤3:使用改进后的Xception在Cityscapes和Camvid上预训练权重,完成对图像底层的形状、纹理、颜色等特征信息的提取过程。图2是改进后的Xception网络,Xception由输入层、中间层和输出层组成,以下是对Xception网络的优化改变:
1)网络将原来模型中的最大池化操作换成了带有下采样的深度可分离卷积,能够更好的应用扩张分离卷积去扩张特征的分辨率;
2)网络在每个3×3的卷积后面添加了批量归一化处理和Relu激活函数,使深层次的Xception网络能够进行快速计算,在保留原有输入网络层的同时,使网络识别性能更好。
步骤4:采用随机梯度下降算法(SGD)和L1正则化对DeeplabV3+网络模型进行训练和优化处理。随机梯度下降算法(SGD)不需要遍历全部样本数据,对梯度的更新频次较快,对模型优化的速度快,而且可以实现在线优化处理;正则化处理可以通过限制网络参数的稀疏性,来约束网络的实际容量,达到对网络模型的拟合处理。
随机梯度下降(SGD)初始学习率为0.0001,动能0.9,权重衰减0.8,公式算法:
正则化处理公式:
在式子中θ表示网络参数,Ω(θ)表示网络参数的稀疏性,||θi||l是表示参数θi的L1范数。
将均交并比值(MIoU)作为评估网络模型对街景图像实现语义分割性能的标准度量,MIoU主要是计算真实值和预测值这两个集合的交集与并集之比,计算公式如下:
步骤5:以改进的Xception-65作为主干模型的DeeplabV3+网络分别在CamVid和Cityscapes数据集进行了30000和50000次的迭代测试,得到MIoU评估结果值,以此验证训练数据和迭代次数分别对网络模型性能的影响。
Deeplab-V3+算法具体实施步骤:
Step1:街景原始图像输入优化后的主流深度卷积神经网络(深度卷积神经网络加入了一个空洞卷积Atrous Conv)提取特征,分别得到一个高级语义特征和一个低级语义特征。
Step2:高级语义特征进入到空洞金字塔池化模块ASPP,分别与四个空洞卷积层和一个池化层进行卷积、池化操作,得到五个特征图,五个特征图连接成五层。
Srep3:连接成五层的特征图通过一个1*1的卷积和4倍上采样操作,得到一个特征图。
Step4:通过在深度卷积网络层找到一个与特征图分辨率相同的低级语义特征图,经1*1卷积进行降通道数使之与特征图所占通道比重相同,目的是减少低层级的比重,更有利于模型学习。
Step5:高级语义特征图和低级语义特征图融合形成的新特征图通过一个3*3细化卷积进行细化,最后通过双线性4倍上采样,得到预测结果。
图3 CamVid和Cityscapes不同迭代次数整体loss收敛图,图4不同数据集和迭代次数对比图。经实验分析得到,最大迭代次数为50000次时,使用Cityscapes数据集训练的网络性能远超过使用CamVid数据集训练的网络,使用Cityscapes数据集训练模型的loss下降速率比CamVid的下降速率快,而且loss收敛效果更好。
步骤:6:在对网络模型DeeplabV3+进行优化和训练之后,在Xception-65和Xception-71的网络结构上改变Output stride、空洞卷积率和密集预测单元,对街景图像进行分割对比实验:
Step1:以Xception-65分类模型为主干网络,空洞卷积Output stride 16,空洞卷积率(Atrous rate)为[6,12,18],添加解码模块,网络分割的准确率为76.78%。
Step2:以Xception-65分类模型为主干网络,空洞卷积Output stride 8,空洞卷积率(Atrous rate)[12,24,36],添加解码模块,网络分割的准确率为74.49%。
Step3:以Xception-71分类模型为主干网络,空洞卷积Output stride 16,空洞卷积率(Atrous rate)[6,12,18],添加解码模块,网络分割的准确率为83.59%。
Step4;以Xception-71分类模型为主干网络,空洞卷积Output stride 8,空洞卷积率(Atrous rate)[12,24,36],添加解码模块,网络分割的准确率为82.86%。
Step5:以Xception-71分类模型为主干网络,用密集预测单元代替空洞卷积单元,网络分割的准确率为86.71%。
Step6:以Xception-71分类模型为主干网络,将密集预测单元、空洞卷积和编码解码结合一起,网络分割的准确率可以达到88.10%。
图5是Xception分类结构的训练数据对比图。通过对不同深度的网络结构改变Output stride和空洞卷积率发现,使用Output stride=16和空洞卷积率为[6,12,18]的网络对街景图像的分割效果最好。在Xception-65的主干网络上的准确率达到了76.78%,在Xception-71的主干网络上的准确率达到了83.59%。在Xception-71为主干网络的基础上用密集预测单元代替空洞卷积单元,网络分割的准确率增加了3.12%。最后将密集预测单元、空洞卷积和编码解码结合在一起在Xception-71为主干网络的模型上准确率高达88.10%。图6是Xception-71作为主干网络的最佳分割状态下的分割图像与原始图像叠加图。
Claims (6)
1.一种自动驾驶场景中基于编码器-解码器模型进行深度学习的语义分割方法研究,包括:
步骤A1,Camvid和Cityscapes数据集划分部分;
步骤A2,采用图像翻转、旋转、缩放和移位等几何变换增强模型训练数据;
步骤A3,Xception作为主干网络对复杂场景图像中目标对象的特征提取;
步骤A4,对网络模型的损失函数进行优化处理;
步骤A5,验证深度网络模型效果并实现街景图像的语义分割图。
2.如权利要求1一种自动驾驶场景中基于编码器-解码器模型进行深度学习的语义分割方法研究,其中所述Camvid和Cityscapes数据集划分部分:Cityscapes主要是由5000张精细标注的图像作为对街景图像分割模型训练和测试的样本数据,CamVid数据集是第一个具有目标类别语义标签的视频集合,Camvid和Cityscapes数据集中训练集和测试集的比例为7∶3。
3.如权利要求1一种自动驾驶场景中基于编码器-解码器模型进行深度学习的语义分割方法研究,其中所述对图像翻转、旋转、缩放和移位等几何变换增强模型训练数据部分:为了避免因为样本较小造成的网络过拟合现象的产生采用数据增强的方法来增大学习的样本数量,主要是对图像进行翻转、旋转、缩放、裁剪和移位等处理,改变原始数据集中的几何空间来扩展模型训练数据。实验环境主要在以Python编程语言为基础的Tensorflow环境下进行,并使用CUDA进行加速运算。
4.如权利要求1一种自动驾驶场景中基于编码器-解码器模型进行深度学习的语义分割方法研究,其中所述Xception作为主干网络对复杂场景图像中目标对象的特征提取部分:使用进行改进后的Xception模型作为主干网络,改进后的网络将扩展卷积和深度可分离卷积组成了扩张分离卷积,将原来模型中的最大池化操作换成了带有下采样的深度可分离卷积,并在每个3×3的卷积后面添加了批量归一化处理和Relu激活函数,完成对复杂场景图像中目标对象的特征提取。
5.如权利要求1一种自动驾驶场景中基于编码器-解码器模型进行深度学习的语义分割方法研究,其中所述对网络模型的损失函数进行优化处理部分:在训练神经网络模型时为了避免模型的过拟合问题,使网络模型具有良好的泛化能力,采用了随机梯度下降算法(SGD)和L1正则化对网络模型的损失函数进行训练和优化处理,使模型达到更好的性能。以Xception-65作为主干模型的DeeplabV3+网络,在CamVid和Cityscapes数据集上进行迭代测试,分别验证训练数据和迭代次数对网络模型优化性能的影响。
6.如权利要求1一种自动驾驶场景中基于编码器-解码器模型进行深度学习的语义分割方法研究,其中所述验证深度网络模型效果并实现街景图像的语义分割图部分:通过消融实验,分析总结不同深度的网络结构中Output stride和空洞卷积率的分割效果。最终采用Output stride=16和空洞卷积率为[6,12,18]的网络对街景图像的进行分割,获得最优街景图像的语义分割图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011585194.8A CN112508977A (zh) | 2020-12-29 | 2020-12-29 | 一种面向自动驾驶场景的基于深度学习的语义分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011585194.8A CN112508977A (zh) | 2020-12-29 | 2020-12-29 | 一种面向自动驾驶场景的基于深度学习的语义分割方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112508977A true CN112508977A (zh) | 2021-03-16 |
Family
ID=74951916
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011585194.8A Pending CN112508977A (zh) | 2020-12-29 | 2020-12-29 | 一种面向自动驾驶场景的基于深度学习的语义分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112508977A (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113011427A (zh) * | 2021-03-17 | 2021-06-22 | 中南大学 | 基于自监督对比学习的遥感图像语义分割方法 |
CN113034598A (zh) * | 2021-04-13 | 2021-06-25 | 中国计量大学 | 一种基于深度学习的无人机电力巡线方法 |
CN113139551A (zh) * | 2021-04-23 | 2021-07-20 | 桂林电子科技大学 | 一种基于DeepLabv3+的改进语义分割方法 |
CN113379771A (zh) * | 2021-07-02 | 2021-09-10 | 西安电子科技大学 | 带有边缘约束的层次化人体解析语义分割方法 |
CN113409322A (zh) * | 2021-06-18 | 2021-09-17 | 中国石油大学(华东) | 面向遥感影像语义分割的深度学习训练样本增强方法 |
CN113688682A (zh) * | 2021-07-23 | 2021-11-23 | 北京理工雷科电子信息技术有限公司 | 一种基于改进fcn深度网络的杂波辨识与目标检测方法 |
CN113743358A (zh) * | 2021-09-16 | 2021-12-03 | 华中农业大学 | 一种全方位采集和智能计算的景观视觉特征识别方法 |
CN114998230A (zh) * | 2022-05-23 | 2022-09-02 | 肇庆学院 | 一种咽拭子口腔核酸采样区域图像识别方法 |
CN115100491A (zh) * | 2022-08-25 | 2022-09-23 | 山东省凯麟环保设备股份有限公司 | 一种面向复杂自动驾驶场景的异常鲁棒分割方法与系统 |
CN115294774A (zh) * | 2022-06-20 | 2022-11-04 | 桂林电子科技大学 | 基于深度学习的非机动车道路违停检测方法及装置 |
CN115914495A (zh) * | 2022-11-15 | 2023-04-04 | 大连海事大学 | 一种用于车载自动驾驶系统的目标与背景分离方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110175613A (zh) * | 2019-06-03 | 2019-08-27 | 常熟理工学院 | 基于多尺度特征和编解码器模型的街景图像语义分割方法 |
CN110188817A (zh) * | 2019-05-28 | 2019-08-30 | 厦门大学 | 一种基于深度学习的实时高性能街景图像语义分割方法 |
CN111275711A (zh) * | 2020-01-08 | 2020-06-12 | 西安电子科技大学 | 基于轻量级卷积神经网络模型的实时图像语义分割方法 |
CN111563909A (zh) * | 2020-05-10 | 2020-08-21 | 中国人民解放军91550部队 | 一种复杂街景图像语义分割方法 |
CN111899249A (zh) * | 2020-08-05 | 2020-11-06 | 吉林大学 | 基于ResNet50和DeeplabV3+的卷积神经网络的遥感图像变化检测方法 |
-
2020
- 2020-12-29 CN CN202011585194.8A patent/CN112508977A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110188817A (zh) * | 2019-05-28 | 2019-08-30 | 厦门大学 | 一种基于深度学习的实时高性能街景图像语义分割方法 |
CN110175613A (zh) * | 2019-06-03 | 2019-08-27 | 常熟理工学院 | 基于多尺度特征和编解码器模型的街景图像语义分割方法 |
CN111275711A (zh) * | 2020-01-08 | 2020-06-12 | 西安电子科技大学 | 基于轻量级卷积神经网络模型的实时图像语义分割方法 |
CN111563909A (zh) * | 2020-05-10 | 2020-08-21 | 中国人民解放军91550部队 | 一种复杂街景图像语义分割方法 |
CN111899249A (zh) * | 2020-08-05 | 2020-11-06 | 吉林大学 | 基于ResNet50和DeeplabV3+的卷积神经网络的遥感图像变化检测方法 |
Non-Patent Citations (1)
Title |
---|
宋建辉等: "基于深度卷积网络的无人机地物场景语义分割", 《沈阳理工大学学报》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113011427B (zh) * | 2021-03-17 | 2022-06-21 | 中南大学 | 基于自监督对比学习的遥感图像语义分割方法 |
CN113011427A (zh) * | 2021-03-17 | 2021-06-22 | 中南大学 | 基于自监督对比学习的遥感图像语义分割方法 |
CN113034598A (zh) * | 2021-04-13 | 2021-06-25 | 中国计量大学 | 一种基于深度学习的无人机电力巡线方法 |
CN113034598B (zh) * | 2021-04-13 | 2023-08-22 | 中国计量大学 | 一种基于深度学习的无人机电力巡线方法 |
CN113139551A (zh) * | 2021-04-23 | 2021-07-20 | 桂林电子科技大学 | 一种基于DeepLabv3+的改进语义分割方法 |
CN113409322A (zh) * | 2021-06-18 | 2021-09-17 | 中国石油大学(华东) | 面向遥感影像语义分割的深度学习训练样本增强方法 |
CN113379771A (zh) * | 2021-07-02 | 2021-09-10 | 西安电子科技大学 | 带有边缘约束的层次化人体解析语义分割方法 |
CN113379771B (zh) * | 2021-07-02 | 2024-04-09 | 西安电子科技大学 | 带有边缘约束的层次化人体解析语义分割方法 |
CN113688682A (zh) * | 2021-07-23 | 2021-11-23 | 北京理工雷科电子信息技术有限公司 | 一种基于改进fcn深度网络的杂波辨识与目标检测方法 |
CN113743358A (zh) * | 2021-09-16 | 2021-12-03 | 华中农业大学 | 一种全方位采集和智能计算的景观视觉特征识别方法 |
CN113743358B (zh) * | 2021-09-16 | 2023-12-05 | 华中农业大学 | 一种全方位采集和智能计算的景观视觉特征识别方法 |
CN114998230A (zh) * | 2022-05-23 | 2022-09-02 | 肇庆学院 | 一种咽拭子口腔核酸采样区域图像识别方法 |
CN115294774A (zh) * | 2022-06-20 | 2022-11-04 | 桂林电子科技大学 | 基于深度学习的非机动车道路违停检测方法及装置 |
CN115294774B (zh) * | 2022-06-20 | 2023-12-29 | 桂林电子科技大学 | 基于深度学习的非机动车道路违停检测方法及装置 |
CN115100491A (zh) * | 2022-08-25 | 2022-09-23 | 山东省凯麟环保设备股份有限公司 | 一种面向复杂自动驾驶场景的异常鲁棒分割方法与系统 |
US11954917B2 (en) | 2022-08-25 | 2024-04-09 | Shandong Kailin Environmental Protection Equipment Co., Ltd. | Method of segmenting abnormal robust for complex autonomous driving scenes and system thereof |
CN115914495A (zh) * | 2022-11-15 | 2023-04-04 | 大连海事大学 | 一种用于车载自动驾驶系统的目标与背景分离方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112508977A (zh) | 一种面向自动驾驶场景的基于深度学习的语义分割方法 | |
CN109190752B (zh) | 基于深度学习的全局特征和局部特征的图像语义分割方法 | |
CN108875608B (zh) | 一种基于深度学习的机动车交通信号识别方法 | |
CN110263786B (zh) | 一种基于特征维度融合的道路多目标识别系统及方法 | |
CN112016556B (zh) | 多类型车牌识别方法 | |
Zhang et al. | CDNet: A real-time and robust crosswalk detection network on Jetson nano based on YOLOv5 | |
CN111563909A (zh) | 一种复杂街景图像语义分割方法 | |
CN112183203A (zh) | 一种基于多尺度像素特征融合的实时交通标志检测方法 | |
CN112990065B (zh) | 一种基于优化的YOLOv5模型的车辆分类检测方法 | |
CN113688836A (zh) | 一种基于深度学习的实时性道路图像语义分割方法及系统 | |
CN114092917B (zh) | 一种基于mr-ssd的被遮挡交通标志检测方法及系统 | |
CN110781850A (zh) | 道路识别的语义分割系统和方法、计算机存储介质 | |
CN111814863A (zh) | 一种轻量级车辆与行人的检测方法 | |
CN114913498A (zh) | 一种基于关键点估计的并行多尺度特征聚合车道线检测方法 | |
CN112819000A (zh) | 街景图像语义分割系统及分割方法、电子设备及计算机可读介质 | |
CN115376089A (zh) | 一种基于深度学习的车道线检测方法 | |
Muthalagu et al. | Vehicle lane markings segmentation and keypoint determination using deep convolutional neural networks | |
CN115527096A (zh) | 一种基于改进YOLOv5的小目标检测方法 | |
CN111046723A (zh) | 一种基于深度学习的车道线检测方法 | |
CN109543519B (zh) | 一种用于物体检测的深度分割引导网络 | |
CN111612803B (zh) | 一种基于图像清晰度的车辆图像语义分割方法 | |
CN116630702A (zh) | 一种基于语义分割网络的路面附着系数预测方法 | |
CN112634289B (zh) | 一种基于非对称空洞卷积的快速可行域分割方法 | |
CN115909276A (zh) | 基于改进YOLOv5的复杂天气下小交通标志目标检测方法 | |
CN113379711B (zh) | 一种基于图像的城市道路路面附着系数获取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210316 |
|
WD01 | Invention patent application deemed withdrawn after publication |