CN108985269B - 基于卷积和空洞卷积结构的融合网络驾驶环境感知模型 - Google Patents

基于卷积和空洞卷积结构的融合网络驾驶环境感知模型 Download PDF

Info

Publication number
CN108985269B
CN108985269B CN201810933385.5A CN201810933385A CN108985269B CN 108985269 B CN108985269 B CN 108985269B CN 201810933385 A CN201810933385 A CN 201810933385A CN 108985269 B CN108985269 B CN 108985269B
Authority
CN
China
Prior art keywords
semantic segmentation
target detection
convolution
modules
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810933385.5A
Other languages
English (en)
Other versions
CN108985269A (zh
Inventor
秦文虎
张仕超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN201810933385.5A priority Critical patent/CN108985269B/zh
Publication of CN108985269A publication Critical patent/CN108985269A/zh
Application granted granted Critical
Publication of CN108985269B publication Critical patent/CN108985269B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

基于卷积和空洞卷积结构的融合网络驾驶环境感知模型,同时实现目标检测和语义分割。通过安装在车辆上的前视相机系统拍摄道路环境视频图像;采用残差网络模型得到图像底层特征图;设计融合网络,包括目标检测和语义分割2个子模块,这2个模块共享底层特征图。其中,目标检测模块负责预测目标框与类别置信度,语义分割模块负责对每个类别进行像素级预测。对两个模块分别选取合适的损失函数,先交替训练使感知模型在两个模块都趋于收敛;最后使用联合损失函数同时训练两个模块,得到最终感知模型。本发明可以用较小的运算量同时完成目标检测和语义分割,并且感知模型使用目标检测的大量数据辅助语义分割模块学习图像分布规律。

Description

基于卷积和空洞卷积结构的融合网络驾驶环境感知模型
技术领域
本发明涉及高级汽车驾驶员辅助技术领域,特别是涉及一种基于卷积和空洞卷积结构的融合网络驾驶环境感知模型。
背景技术
驾驶环境感知功能是高级汽车驾驶员辅助系统ADAS(Advanced DriverAssistance System)的一项重要功能。现有的驾驶环境感知主要包含目标检测(对感兴趣的目标,比如行人,车辆,自行车,交通标志等,得到目标在图像中的位置信息和类别信息)和语义分割(对图像的每个像素点分别标记类别)两大任务。驾驶环境感知可以用于辅助驾驶决策,减少交通事故的发生。
目前,为了完成目标检测和语义分割,多使用支持向量机等统计学习方法或者卷积神经网络分别对两个任务建立独立的模型。统计学习方法依赖繁琐复杂的特征工程,虽然计算速度很快但是准确率较低。卷积神经网络准确率较高,但是考虑到深度神经网络的运算量很大,如果对每个任务分别建立独立模型的话,目前的算力无法满足实时使用要求。本发明的融合网络模型可以很好地权衡计算速度和准确率,满足基本的实时使用要求。
目前的专利都是针对单任务提出模型,且大多数模型计算量很大。中国专利申请公布号CN108062756A的专利提出了一种基于全卷积网络和条件随机场的图像语义分割方法,该方法使用全卷积神经网络进行语义粗分割,之后用条件随机场细化分割边界。该方法虽然可以有效进行语义分割,但是条件随机场的运算量过大,无法满足实时要求,并且只能完成语义分割一项任务。中国专利申请公布号108009509A的专利提出了一种基于卷积神经网络的目标检测模型,但也是单任务模型,并且由于采用了滑窗法,检测速度很慢。
发明内容
为了以上问题,本发明提供一种基于卷积和空洞卷积结构的融合网络驾驶环境感知模型,解决目前驾驶环境感知模型计算量大,重复计算多,单任务模型解决问题单一,语义分割模型对语义分割数据集要求过高(像素级数据标注成本过高),并且无法同时完成多任务驾驶环境感知的问题,为达此目的,本发明提供基于卷积和空洞卷积结构的融合网络驾驶环境感知模型,具体步骤如下,其特征在于:
1)通过安装在车辆前方的摄像机拍摄当前驾驶环境图像;
2)通过卷积层检测图像底层特征;
3)将得到的底层特征同时用于目标检测和语义分割模块;
4)分别为目标检测和语义分割模块设计损失函数,先交替训练这两个模块,使融合网络模型在两个模块上都趋于收敛;然后联合两个模块的损失函数得到总损失函数,同时训练两个模块,最终达到一个感知模型同时完成目标检测和语义分割的效果。
作为本发明进一步改进,所述步骤2)和3)中,目标检测和语义分割共享底层特征,底层特征采用残差卷积网络进行检测,包括3次下采样过程,图像大小变为原始图像的1/8,得到角点,边缘相关底层特征,并输出特征图。
作为本发明进一步改进,所述步骤3)中,目标检测和语义分割共享底层特征,共享大部分卷积层,大大减小重复计算,由于融合网络模型最初的卷积层提取的特征比较底层,比如角点、边缘、极值点等,这些特征无论对目标检测还是语义分割都是有效的,所以可以共享卷积层。
作为本发明进一步改进,所述步骤3)中,语义分割模块采用了空洞卷积结构,在不降低特征图分辨率、不增加网络参数数量的前提下快速聚合图像上下文信息,并使用图像金字塔对特征图进行多尺度描述,最后采用双线性插值上采样变回原始图像大小,其中图像金字塔由卷积核为3×3,采样率分别为6,12,18的空洞卷积层和一个卷积核为1×1大小的普通卷积层构成。之后对金字塔池化层进行一层1×1单卷积核卷积,最后采用双线性插值上采样,使特征图变回原始图像大小,得到分割结果。。
作为本发明进一步改进,所述步骤3)中,把底层特征图分割为21×7的网格,每个网格单元负责预测1个目标,并给出每个类别的置信度,目标检测模块借鉴YOLO模型思想。
作为本发明进一步改进,所述步骤4)中,首先使用残差网络预训练的参数初始化共享卷积层,使用xavier初始化目标检测和语义分割模块,模型训练前期,采用了交替训练的策略:先输入目标检测图片,完成目标检测模块的前向传播和反向传播参数更新;再输入语义分割图片,在上一步目标检测模块的更新参数的基础上,完成语义分割的前向传播和反向传播参数更新。交替进行两个模块的训练,直到两个模块都趋于收敛。
由于语义分割的数据集标注成本很高,难以获得大量语义分割标注数据,因此语义分割在大规模模型上容易过拟合;而目标检测的数据标注成本较低,容易获得大量标注数据,适合训练大规模模型,因此交替训练策略可以使语义分割模块借鉴目标检测模块的网络参数来学习图像分布规律,防止过拟合,提高泛化能力,从而提高语义分割准确率;同时,由于目标检测与语义分割交替训练,所以感知模型也可以保证目标检测模块处在不断动态修正之中,不会因为语义分割模块的影响而大幅降低识别效果。
作为本发明进一步改进,所述步骤4)中,交替训练完成后,将两个模块的损失函数按比例加权求和得到总损失函数,对总损失函数采用Adam算法进行优化,对两个损失函数设置合适的权值,最终融合网络模型可以只用一次计算,同时得出语义分割和目标检测的结果。
本发明一种基于卷积和空洞卷积结构的融合网络驾驶环境感知模型,与现有技术相比,具有以下优点:
本发明提出的技术方案可以使用一个感知模型同时得出语义分割和目标检测的结果,并且二者可以相互促进,提高准确率。语义分割模型在训练的时候需要数据集有像素级标注(对图像的每个像素点进行类别标注),数据标注成本极高,即使采用公开数据集,也难以获得大量标注数据。而根据应用场景的变化,数据的分布会发生变化,只靠少量的语义分割数据难以学习数据分布规律。而目标检测的数据标注简单,成本较低,可以获得大量标注数据。本发明可以使目标检测和语义分割模块协同训练,语义分割模块借助目标检测的海量数据学习图像分布规律,并以语义分割的少量数据获得精细化结果,与此同时,模型也会得出精确地目标检测结果,从而以较低的运算成本和数据标注成本同时得出目标检测和语义分割结果。
附图说明
图1为本发明残差模块示意图;
图2为本发明融合网络模型示意图;
图3为本发明语义分割模块示意图;
图4为本发明目标检测模块示意图。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细描述:
本发明提供一种基于卷积和空洞卷积结构的融合网络驾驶环境感知模型,解决目前驾驶环境感知模型计算量大,重复计算多,单任务模型解决问题单一,语义分割模型对语义分割数据集要求过高(像素级数据标注成本过高),并且无法同时完成多任务驾驶环境感知的问题。
本发明一种基于卷积和空洞卷积的融合网络驾驶环境感知模型,包括以下步骤:
1)通过安装在车辆前方的摄像机拍摄当前驾驶环境图像;
2)通过卷积层检测图像底层特征;
3)将得到的底层特征同时用于目标检测和语义分割模块;
4)分别为目标检测和语义分割模块设计损失函数,先交替训练这两个模块,使融合网络模型在两个模块上都趋于收敛;然后联合两个模块的损失函数得到总损失函数,同时训练两个模块,最终实现一个感知模型同时完成目标检测和语义分割的效果。
本发明使用的前视相机采集的视频数据参数为1280×720@60FPS,视频帧为彩色图像,包含RGB三通道色彩信息,用(1280,720,3)维度的张量表示,张量中每个元素为整数,取值范围为[0,255];
所述步骤2)中,采用残差卷积网络检测底层特征,包括3次下采样过程,图像大小变为原始图像的1/8。此步骤得到角点,边缘等底层特征,并输出特征图。此部分包括如下网络层:
(1)conv2d(7×7,64,2)
(2)max_pooling(2×2)
(3)block(1×1,64,3×3,64,1×1,256)
(4)block(1×1,128,3×3,128,1×1,512)
(5)block(1×1,256,3×3,256,1×1,1024),此处第一层卷积步长为2
其中,conv2d表示二维卷积,其3个参数分别表示卷积核尺寸、输出通道数和步长;max_pooling表示最大池化层,其参数为池化核大小,默认步长为2;block表示残差模块,如图1所示,每个残差模块由3层卷积组成,其6个参数分别表示第1层卷积核尺寸、第1层卷积输出通道数、第2层卷积核尺寸、第2层卷积输出通道数、第3层卷积核尺寸、第3层卷积输出通道数。没有特殊说明时,残差模块每个卷积层的步长为均1。
所述步骤3)中,得到底层特征之后,目标检测和语义分割共享底层特征,共享大部分卷积层。如图2所示。
所述步骤3)中,语义分割模块的空洞卷积部分由以下部分组成,如图3所示:
(1)dilate_conv2d(3×3,rate=2,stride=1)
(2)
Figure BDA0001767200560000041
(3)conv2d(1×1,stride=1)
(4)bilinear-upsample()
其中,dilate-conv2d表示空洞卷积。空洞卷积指的是稀疏卷积核,如图3所示,空洞卷积的卷积核只在深色部分有值,其它部分值为0;dilate-conv2d的3个参数分别表示卷积核尺寸、采样率以及步长。conv2d表示普通卷积,其2个参数分别表示卷积核尺寸以及步长。bilinear_upsample()表示双线性插值上采样。
其中,图像金字塔由卷积核为1×1的普通卷积和卷积核为3×3,采样率分别为6、12、18的空洞卷积组成,从而实现对特征图的多尺度描述。
所述步骤3)中,目标检测模块如图4所示,包括:
(1)conv2d(7×7,stride=1,outdim=192)
(2)conv2d(3×3,stride=1.outdim=256)
(3)conv2d(3×3.stride=1.outdim=512)
(4)fn(outdim=1176)
其中,conv2d表示卷积层,其3个参数分别为卷积核尺寸、步长和输出通道数;fn()表示全连接层,其参数为输出向量维数。本模块最终的目标检测部分输出维数由所有网格的输出组成,每个网格的预测输出为置信度、目标框的4个坐标和3个类别概率(车辆,行人,骑自行车的人),一共有21×7=147个网格,共输出147×(4+1)=1176维向量。
所述步骤4)中,语义分割部分采用交叉熵损失函数,目标检测部分采用坐标、置信度以及类别概率预测的最小二乘误差之和。融合网络模型采用标准Adam优化算法进行交替训练。具体训练策略如下:首先,使用预训练的残差网络模型初始化融合网络模型的共享部分,然后使用xavier初始化算法初始化融合网络模型其余参数;训练开始后,首先输入目标检测图片,训练目标检测模块,目标检测的前向传播过程如图2前向深色箭头(向右的深色箭头)所示,目标检测的反向传播过程如图2反向浅色箭头(向左的浅色箭头所示);然后输入语义分割图片,训练语义分割模块,语义分割的前向传播过程如图2前向的浅色箭头(向右的浅色箭头)所示,语义分割的反向传播过程如图2反向深色箭头(向左的深色箭头)所示;交替训练目标检测和语义分割模块,直到两个模块都趋于收敛;最后将语义分割和目标检测的损失函数按权值相加得到总损失函数,使用总损失函数同时训练两个模块,直到融合网络模型收敛。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作任何其他形式的限制,而依据本发明的技术实质所作的任何修改或等同变化,仍属于本发明所要求保护的范围。

Claims (1)

1.基于卷积和空洞卷积结构的融合网络驾驶环境感知模型,具体步骤如下,其特征在于:
1)通过安装在车辆前方的摄像机拍摄当前驾驶环境图像;
2)通过卷积层检测图像底层特征;
3)将得到的底层特征同时用于目标检测和语义分割模块;
所述步骤2)和3)中,目标检测和语义分割共享底层特征,底层特征采用残差卷积网络进行检测,包括3次下采样过程,图像大小变为原始图像的1/8,得到角点,边缘相关底层特征,并输出特征图;
所述步骤3)中,目标检测和语义分割共享底层特征,共享大部分卷积层,大大减小重复计算;
所述步骤3)中,语义分割模块采用了空洞卷积结构,在不降低特征图分辨率、不增加网络参数数量的前提下快速聚合图像上下文信息,并使用图像金字塔对特征图进行多尺度描述,最后采用双线性插值上采样变回原始图像大小;
所述步骤3)中,把底层特征图分割为
Figure DEST_PATH_IMAGE002
的网格,每个网格单元负责预测1个目标,并给出每个类别的置信度;
4)分别为目标检测和语义分割模块设计损失函数,先交替训练这两个模块,使融合网络模型在两个模块上都趋于收敛;然后联合两个模块的损失函数得到总损失函数,同时训练两个模块,最终达到一个感知模型同时完成目标检测和语义分割的效果;
所述步骤4)中,首先使用残差网络预训练的参数初始化共享卷积层,使用xavier初始化目标检测和语义分割模块,模型训练前期,采用了交替训练的策略:先输入目标检测图片,完成目标检测模块的前向传播和反向传播参数更新;再输入语义分割图片,在上一步目标检测模块的更新参数的基础上,完成语义分割的前向传播和反向传播参数更新; 交替进行两个模块的训练,直到两个模块都趋于收敛;
所述步骤4)中,交替训练完成后,将两个模块的损失函数按比例加权求和得到总损失函数,对总损失函数采用Adam算法进行优化,对两个损失函数设置合适的权值,最终融合网络模型可以只用一次计算,同时得出语义分割和目标检测的结果。
CN201810933385.5A 2018-08-16 2018-08-16 基于卷积和空洞卷积结构的融合网络驾驶环境感知模型 Active CN108985269B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810933385.5A CN108985269B (zh) 2018-08-16 2018-08-16 基于卷积和空洞卷积结构的融合网络驾驶环境感知模型

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810933385.5A CN108985269B (zh) 2018-08-16 2018-08-16 基于卷积和空洞卷积结构的融合网络驾驶环境感知模型

Publications (2)

Publication Number Publication Date
CN108985269A CN108985269A (zh) 2018-12-11
CN108985269B true CN108985269B (zh) 2022-06-10

Family

ID=64553999

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810933385.5A Active CN108985269B (zh) 2018-08-16 2018-08-16 基于卷积和空洞卷积结构的融合网络驾驶环境感知模型

Country Status (1)

Country Link
CN (1) CN108985269B (zh)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109840471B (zh) * 2018-12-14 2023-04-14 天津大学 一种基于改进Unet网络模型的可行道路分割方法
CN109741301A (zh) * 2018-12-19 2019-05-10 北京理工大学 一种更快的基于深度学习的密集目标计数方法
CN109753913B (zh) * 2018-12-28 2023-05-23 东南大学 计算高效的多模式视频语义分割方法
CN111507126B (zh) * 2019-01-30 2023-04-25 杭州海康威视数字技术股份有限公司 一种驾驶辅助系统的报警方法、装置及电子设备
CN109948707B (zh) * 2019-03-20 2023-04-18 腾讯科技(深圳)有限公司 模型训练方法、装置、终端及存储介质
CN111738037B (zh) * 2019-03-25 2024-03-08 广州汽车集团股份有限公司 一种自动驾驶方法及其系统、车辆
CN110097110B (zh) * 2019-04-26 2021-07-20 华南理工大学 一种基于目标优化的语义图像修复方法
CN110136136B (zh) 2019-05-27 2022-02-08 北京达佳互联信息技术有限公司 场景分割方法、装置、计算机设备及存储介质
CN110189337A (zh) * 2019-05-31 2019-08-30 广东工业大学 一种自动驾驶图像语义分割方法
CN110201394B (zh) * 2019-06-05 2023-03-24 网易(杭州)网络有限公司 附件模型的生成方法、装置、存储介质、处理器及终端
CN110264483B (zh) * 2019-06-19 2023-04-18 东北大学 一种基于深度学习的语义图像分割方法
CN110263732B (zh) * 2019-06-24 2022-01-21 京东方科技集团股份有限公司 多尺度目标检测方法及装置
CN110348447B (zh) * 2019-06-27 2022-04-19 电子科技大学 一种具有丰富空间信息的多模型集成目标检测方法
CN110363770B (zh) * 2019-07-12 2022-10-11 安徽大学 一种边缘引导式红外语义分割模型的训练方法及装置
CN110490205B (zh) * 2019-07-23 2021-10-12 浙江科技学院 基于全残差空洞卷积神经网络的道路场景语义分割方法
CN110390314B (zh) * 2019-07-29 2022-02-15 深兰科技(上海)有限公司 一种视觉感知方法及设备
CN110378438A (zh) * 2019-08-07 2019-10-25 清华大学 标签容错下的图像分割模型的训练方法、装置及相关设备
CN110598771A (zh) * 2019-08-30 2019-12-20 北京影谱科技股份有限公司 一种基于深度语义分割网络的视觉目标识别方法和装置
CN110555424A (zh) * 2019-09-10 2019-12-10 深圳前海微众银行股份有限公司 港口集装箱布局检测方法、装置、设备及可读存储介质
CN110781776B (zh) * 2019-10-10 2022-07-05 湖北工业大学 一种基于预测和残差细化网络的道路提取方法
CN111126175A (zh) * 2019-12-05 2020-05-08 厦门大象东方科技有限公司 一种基于深度卷积神经网络的面部图像识别算法
CN110751134B (zh) * 2019-12-23 2020-05-12 长沙智能驾驶研究院有限公司 目标检测方法、装置、存储介质及计算机设备
CN111160206A (zh) * 2019-12-24 2020-05-15 国汽(北京)智能网联汽车研究院有限公司 一种交通环境元素视觉感知方法及装置
CN111241941A (zh) * 2019-12-31 2020-06-05 重庆特斯联智慧科技股份有限公司 一种基于人工智能的公共节水控制方法和系统
CN111311475A (zh) * 2020-02-21 2020-06-19 广州腾讯科技有限公司 检测模型训练方法、装置、存储介质和计算机设备
US11481862B2 (en) * 2020-02-26 2022-10-25 Beijing Jingdong Shangke Information Technology Co., Ltd. System and method for real-time, simultaneous object detection and semantic segmentation
CN111460919B (zh) * 2020-03-13 2023-05-26 华南理工大学 一种基于改进YOLOv3的单目视觉道路目标检测及距离估计方法
CN111461127B (zh) * 2020-03-30 2023-06-06 华南理工大学 基于一阶段目标检测框架的实例分割方法
CN111508263A (zh) * 2020-04-03 2020-08-07 西安电子科技大学 停车场智能引导机器人及智能引导方法
CN111783784A (zh) * 2020-06-30 2020-10-16 创新奇智(合肥)科技有限公司 建筑的空洞检测方法及装置、电子设备、存储介质
CN112084864A (zh) * 2020-08-06 2020-12-15 中国科学院空天信息创新研究院 模型优化方法、装置、电子设备和存储介质
CN112101205B (zh) * 2020-09-15 2024-08-16 东软睿驰汽车技术(沈阳)有限公司 基于多任务网络的训练方法和装置
CN112183395A (zh) * 2020-09-30 2021-01-05 深兰人工智能(深圳)有限公司 基于多任务学习神经网络的道路场景识别方法和系统
CN112733662A (zh) * 2020-12-31 2021-04-30 上海智臻智能网络科技股份有限公司 一种特征检测方法及其装置
CN112617850B (zh) * 2021-01-04 2022-08-30 苏州大学 心电信号的早搏心拍检测系统
CN112785661B (zh) * 2021-01-12 2022-12-06 山东师范大学 基于融合感知损失的深度语义分割图像压缩方法及系统
CN112801929A (zh) * 2021-04-09 2021-05-14 宝略科技(浙江)有限公司 一种用于建筑物变化检测的局部背景语义信息增强方法
CN113392960B (zh) * 2021-06-10 2022-08-30 电子科技大学 一种基于混合空洞卷积金字塔的目标检测网络及方法
CN113435271A (zh) * 2021-06-10 2021-09-24 中国电子科技集团公司第三十八研究所 一种基于目标检测和实例分割模型的融合方法
CN113538457B (zh) * 2021-06-28 2022-06-24 杭州电子科技大学 利用多频动态空洞卷积的视频语义分割方法
CN113537002B (zh) * 2021-07-02 2023-01-24 安阳工学院 一种基于双模神经网络模型的驾驶环境评估方法及装置
CN113610099B (zh) * 2021-08-26 2024-02-02 吉林大学 一种环境感知方法及系统
CN114332688B (zh) * 2021-12-14 2022-09-09 浙江省交通投资集团有限公司智慧交通研究分公司 公路监控视频场景下车辆检测方法
CN114912629A (zh) * 2022-03-08 2022-08-16 北京百度网讯科技有限公司 联合感知模型训练、联合感知方法、装置、设备和介质
CN116048096B (zh) * 2023-02-23 2024-04-30 南京理工大学 一种基于层次化深度感知的无人车运动规划方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107767384A (zh) * 2017-11-03 2018-03-06 电子科技大学 一种基于对抗训练的图像语义分割方法
CN107886117A (zh) * 2017-10-30 2018-04-06 国家新闻出版广电总局广播科学研究院 基于多特征提取和多任务融合的目标检测算法
CN108062756A (zh) * 2018-01-29 2018-05-22 重庆理工大学 基于深度全卷积网络和条件随机场的图像语义分割方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107886117A (zh) * 2017-10-30 2018-04-06 国家新闻出版广电总局广播科学研究院 基于多特征提取和多任务融合的目标检测算法
CN107767384A (zh) * 2017-11-03 2018-03-06 电子科技大学 一种基于对抗训练的图像语义分割方法
CN108062756A (zh) * 2018-01-29 2018-05-22 重庆理工大学 基于深度全卷积网络和条件随机场的图像语义分割方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于深度卷积神经网络的道路场景理解;吴宗胜等;《计算机工程与应用》;20171115;第53卷(第22期);第8-15页 *

Also Published As

Publication number Publication date
CN108985269A (zh) 2018-12-11

Similar Documents

Publication Publication Date Title
CN108985269B (zh) 基于卷积和空洞卷积结构的融合网络驾驶环境感知模型
Zhou et al. GMNet: Graded-feature multilabel-learning network for RGB-thermal urban scene semantic segmentation
CN110782490B (zh) 一种具有时空一致性的视频深度图估计方法及装置
WO2020244653A1 (zh) 物体识别方法及装置
CN109726627B (zh) 一种神经网络模型训练及通用接地线的检测方法
Wu et al. FPANet: Feature pyramid aggregation network for real-time semantic segmentation
US11940803B2 (en) Method, apparatus and computer storage medium for training trajectory planning model
WO2021218786A1 (zh) 一种数据处理系统、物体检测方法及其装置
Mahjourian et al. Geometry-based next frame prediction from monocular video
Xie et al. A binocular vision application in IoT: Realtime trustworthy road condition detection system in passable area
CN112529944B (zh) 一种基于事件相机的端到端无监督光流估计方法
CN111354030B (zh) 嵌入SENet单元的无监督单目图像深度图生成方法
CN110956119B (zh) 一种图像中目标检测的方法
CN111539983A (zh) 基于深度图像的运动物体分割方法及系统
CN116129390B (zh) 一种增强曲线感知的车道线精准检测方法
CN113762267A (zh) 一种基于语义关联的多尺度双目立体匹配方法及装置
CN114764856A (zh) 图像语义分割方法和图像语义分割装置
CN114677479A (zh) 一种基于深度学习的自然景观多视图三维重建方法
CN115049945A (zh) 一种基于无人机图像的小麦倒伏面积提取方法和装置
CN116342675B (zh) 一种实时单目深度估计方法、系统、电子设备及存储介质
CN117115690A (zh) 一种基于深度学习和浅层特征增强的无人机交通目标检测方法及系统
CN116977976A (zh) 一种基于YOLOv5的交通标志检测方法和系统
CN116863437A (zh) 车道线检测模型训练方法、装置、设备、介质及车辆
CN116309634A (zh) 图像处理方法、装置、终端设备、存储介质及程序产品
CN116721151B (zh) 一种数据处理方法和相关装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant