CN113569774A - 一种基于持续学习的语义分割方法及系统 - Google Patents

一种基于持续学习的语义分割方法及系统 Download PDF

Info

Publication number
CN113569774A
CN113569774A CN202110879932.8A CN202110879932A CN113569774A CN 113569774 A CN113569774 A CN 113569774A CN 202110879932 A CN202110879932 A CN 202110879932A CN 113569774 A CN113569774 A CN 113569774A
Authority
CN
China
Prior art keywords
scene
scenes
model
parameter
continuous learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110879932.8A
Other languages
English (en)
Other versions
CN113569774B (zh
Inventor
张新钰
李骏
李志伟
刘华平
刘玉超
韩威
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN202110879932.8A priority Critical patent/CN113569774B/zh
Publication of CN113569774A publication Critical patent/CN113569774A/zh
Application granted granted Critical
Publication of CN113569774B publication Critical patent/CN113569774B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于持续学习的语义分割方法及系统,所述方法包括:通过车载单目相机实时采集路面的RGB图像;基于RGB图像识别当前场景的类型,基于场景的类型,获取其对应的最优骨架模型;将实时采集到的RGB图像输入所述最优骨架模型,输出目标检测结果。本发明的方法提高了现有目标检测的骨架模型在复杂多场景下的平均性能。

Description

一种基于持续学习的语义分割方法及系统
技术领域
本发明属于自动驾驶技术领域,具体涉及一种基于持续学习的语义分割方法及系统。
背景技术
感知车辆周围环境对自动驾驶具有重要作用。车道线检测作为一种重要的感知技术,为车辆在自动驾驶过程中提供各个车道的准确位置以保障乘客和行人的安全。
当前车道线检测工作主要存在以下局限:(1)不同场景下的数据不平衡问题使得算法难以在所有场景中获得一致的性能。车道线检测模型在数据量最多的情况下会出现过拟合现象,而在数据量较少的情况下会得到较差的结果;(2)现实场景中的车道数量和类型是动态变化的,这使得需要通过单个车道存在判别作为辅助任务提高识别精度的模型,无法得到预期识别效果;(3)对于自动驾驶中大多数现实世界的车道检测任务,需要多阶段的数据采集来提高整个驾驶过程中的性能。
传统的训练方法使用一系列数据微调车道检测模型,用于解决存在灾难性遗忘的问题。当新的观测数据(即:即将到来的场景)与旧的观测数据(即:过去的场景)分布不同时,车道线检测模型往往对新的观测结果过拟合,而忘记了从旧的观测结果中学到的知识,因此不能在所有复杂的现实场景中获得一致的性能。
发明内容
本发明的目的在于克服上述技术缺陷,提供了一种基于持续学习的语义分割方法,所述方法包括:
通过车载单目相机实时采集路面的RGB图像;
基于RGB图像识别当前场景的类型,基于场景的类型,获取其对应的最优骨架模型;
将实时采集到的RGB图像输入所述最优骨架模型,输出目标检测结果。
进一步的,所述方法还包括:在车载系统中部署多个场景及其对应的最优骨架模型;具体包括:
构建N个结构不同的骨架模型;
使用车载单目相机采集路面的RGB图像,对目标像素和行驶过程中不同场景进行标注;
对待训练的K个类型的场景进行排序;
对于排序后的每个场景,将标注后的RGB图像作为训练集,使用持续学习算法分别对N个骨架模型进行训练;使用该场景的测试集对训练好的N个骨架模型进行识别精度计算,将精度最高的骨架模型作为该场景的最优骨架模型;由此,得到在每个场景对应的最优骨架模型;
将每个场景对应的最优模型部署于车载系统中。
进一步的,所述骨架模型包括:LaneAF、ENet-SAD、LaneNet和SCNN。
进一步的,对待训练的K个类型的场景进行排序,具体为:按照K个类型场景的训练样本数量,对K个场景进行升序或降序排列。
进一步的,对待训练的K个类型的场景进行排序,具体为:按照K个类型场景的识别难度,对K个场景进行升序或降序排列。
进一步的,对于排序后的每个场景,将标注后的RGB图像作为训练集,使用持续学习算法分别对N个骨架模型进行训练;具体包括:
排序后的第k个场景下参数为θ的骨架模型的损失函数为Lk(θ):
Lk(θ)=Lk-1(θ)+λR(θ)(k)
其中,1≤k≤K,K为场景的总数,Lk-1(θ)为第k-1个场景下参数为θ的骨架模型的损失函数,λ是正则项的超参数;R(θ)(k)为对应第k个场景的惩罚项:
Figure BDA0003191782940000021
其中,Np是模型中参数的总数量,θi参数θ的第i个参数,
Figure BDA0003191782940000022
是训练第l个场景后的模型参数
Figure BDA0003191782940000023
的第i个参数,
Figure BDA0003191782940000024
是第l个场景下Fisher信息矩阵F(l)的第i个对角线元素,定义为:
Figure BDA0003191782940000025
其中,|X(l)|是第1个场景的训练数据集的批数量,
Figure BDA0003191782940000026
是模型在参数
Figure BDA0003191782940000027
下x处的预测值。
进一步的,对于排序后的每个场景,将标注后的RGB图像作为训练集,使用持续学习算法分别对N个骨架模型进行训练;具体包括:
排序后的第k个场景下参数为θ的骨架模型的损失函数为Lk(θ):
Lk(θ)=Lk-1(θ)+λR(θ)(k)
其中,1≤k≤K,K为场景的总数,Lk-1(θ)为第k-1个场景下参数为θ的骨架模型的损失函数,λ是正则项的超参数;R(θ)(k)为对应第k个场景的惩罚项:
Figure BDA0003191782940000031
其中,Np是模型中参数的总数量,θi为参数θ的第i个参数,
Figure BDA0003191782940000032
是训练第k-1个场景后的模型参数
Figure BDA0003191782940000033
的第i个参数,第i个参数的重要性矩阵Ωi为:
Figure BDA0003191782940000034
其中,|X(k)|是第k个场景的训练数据集的批数量,
Figure BDA0003191782940000035
是骨架模型输出的l2范数,xj为k个场景的训练数据集中的第j批数据。
进一步的,所述方法还包括:
存储识别结果置信度小于阈值的路面RGB图像;
在离线阶段,对存储的RGB图像进行标注,并使用持续学习算法对部署的最优骨架模型进行优化。
本发明还提供了一种基于持续学习的语义分割系统,所述系统包括:预先部署在车载系统的多个场景及其对应的最优骨架模型、数据采集模块和目标检测模块;
所述数据采集模块,用于通过车载单目相机实时采集路面的RGB图像;
所述目标检测模块,用于基于RGB图像识别当前场景的类型,基于场景的类型,获取其对应的最优骨架模型;将实时采集到的RGB图像输入所述最优骨架模型,输出目标检测结果。
与现有技术相比,本发明的优势在于:
1、本发明的方法构建了一个真实自动驾驶场景下适应多步数据采集和复杂场景的鲁棒车道线检测方案;并在车道线检测模型中引入持续学习算法,可以有效缓解在复杂多场景下车道线检测遇到的灾难性遗忘问题;
2、本发明的方法提高了现有车道线检测模型在复杂多场景下的平均性能。
附图说明
图1为本发明的实施例1的基于持续学习的语义分割方法的流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在介绍本发明实施例之前首先对本发明实施例中涉及到的相关名词作如下释义:
RGB图像:是指通过车载相机采集到的RGB图片,为三通道图像。
场景:是指车辆行驶过程中,环境变化产生的场景。例如,在周围车辆较多时的拥挤场景,车前侧遭受光照时的闪光场景,以及夜晚行车的黑暗场景等。
持续学习算法:是指通过特定模型定制、正则化优化和特定数据优化三种方式,减轻深度学习模型在原任务数据集上学习后,在新任务数据集上继续学习时存在的灾难性遗忘问题。实现良好的持续学习算法需要解决以下问题:(1)无论有多少场景出现,持续学习所占用的存储空间应当恒定;(2)持续学习算法不应该仅适用于特定的模型和数据集,应当具有模型数据无关性;(3)持续学习算法应当能够在既有模型基础上继续学习和优化模型。
课程学习算法:人类和动物的学习过程一般都遵循着由易到难的顺序,而课程学习借鉴了这种学习思想。相较于不加区分的机器学习的一般范式,课程学习算法主张让模型先从容易的样本开始学习,并逐渐进阶到复杂的样本和知识。良好的课程学习能够:加速机器学习模型的训练并使模型获得更好的泛化性能,即能让模型训练到更好的局部最优值状态。
如图1所示,本发明的实施例1提供了一种基于持续学习的语义分割方法,包括以下步骤:
步骤1)获取多个场景的路面RGB图像;
采用安装在行驶车辆上的前向单目相机或前向单目摄像头采集路面图像信息。前向单目相机采集的是行驶车辆的行车方向正前方和路面上方的路面图像信息。即采集的路面图像信息是对应于采集车辆的行车方向的正前方和路面上方的信息的透视图。
在本实施例中,在行驶车辆上安装配置前向单目相机后,开始路面数据信息采集。同时,为配合后续持续学习算法,应对RGB图像进行场景标注,并采集较长时间较丰富场景的RGB图像数据。
步骤2)标注车道线;
对获取的路面图像进行像素级车道线标注。
具体的,应构建同RGB图像相同大小的灰度图像,并对其上的背景像素和车道线像素分别使用不同灰度值进行绘制,以实现像素级车道线标注。
步骤3)对车道线检测模型进行持续学习训练;具体包括:
步骤301)构建多个不同结构的车道检测骨架模型;
构建多个具有较高精度的基于语义分割技术的车道线检测模型,即骨架模型1~骨架模型N,其采用的模型包括:LaneAF、ENet-SAD、LaneNet和SCNN等。需要说明的是,为了提高骨架模型泛化能力,应当移除模型中识别固定数量车道线是否存在的分支(如:ENet-SAD和SCNN)。同时,为提高识别效率和持续学习性能,不使用需要进行后处理的车道线检测模型。
步骤302)使用标注后的RGB图像数据对N个骨架模型分别进行持续学习训练。
鉴于本领域技术人员应当理解神经网络模型的训练过程,描述如下:
基于工具PyTorch构建的N个不同的骨架模型,按照对应参考工作中的最优参数,设定各网络隐藏层超参数、训练批处理数量、训练轮次数量并选择对应的损失函数等。在进行持续学习训练前,需要对RGB图像进行预处理,将图像都裁剪为(800,288,3)的大小。
选择基于正则化优化的持续学习算法可以适应任意车道线检测模型,具有较好的鲁棒性。EWC(Elastic Weight Consolidation)和MAS(Memory Aware Synapses)是在计算机视觉领域性能较好的两种基于正则化优化的持续学习算法。为方便叙述,定义第k个场景下参数为θ的车道线检测模型的损失函数为Lk(θ),则有:
Lk(θ)=Lk-1(θ)+λR(θ)(k)
其中,Lk-1(θ)为第k-1个场景下参数为θ的骨架模型的损失函数,R(θ)(k)为对应场景k的惩罚项,用以惩罚模型参数的改变。λ是正则项的超参数,用来控制惩罚的程度。惩罚项度量当前场景中模型的重要参数,防止模型遗忘之前场景中的重要领域知识。需要说明的是,在车道线检测任务中λ一般设置为0.8或0.9。
下面叙述EWC和MAS持续学习算法。
对于划分的K个场景,EWC中重要性参数的计算基于Fisher信息矩阵的近似,第k个场景的惩罚项为:
Figure BDA0003191782940000061
其中,Np是模型中参数的总数量,
Figure BDA0003191782940000062
是训练第l个场景后的模型参数
Figure BDA0003191782940000063
的第i个参数,
Figure BDA0003191782940000064
是第l个场景下Fisher信息矩阵F(l)的第i个对角线元素,被定义为:
Figure BDA0003191782940000065
其中,|X(l)|是第l个场景的训练数据集的批数量,
Figure BDA0003191782940000066
是模型在参数
Figure BDA0003191782940000067
下x处的预测值。
MAS的重要性参数是根据学习函数对参数变化敏感性的近似来计算的,第k个场景的惩罚项为:
Figure BDA0003191782940000068
其中,
Figure BDA0003191782940000069
是训练第k-1个场景后的模型参数
Figure BDA00031917829400000610
的第i个参数,第i个参数的重要性矩阵Ωi为:
Figure BDA00031917829400000611
其中,|X(k)|是第k个场景的训练数据集的批数量,
Figure BDA00031917829400000612
是骨架模型输出的l2范数,xj为k个场景的训练数据集中的第j批数据。
使用上述EWC和MAS两种持续学习算法,对于第k个场景,使用其数据集分别对N个骨架模型进行训练,然后使用该场景的测试集对训练好的N个骨架模型进行识别精度计算,将精度最高的骨架模型作为该场景的最优模型;由此,可得到在每个场景对应的最优模型。
需要说明的是,训练场景的次序会在一定程度上影响车道线检测的精度。一般地,可以根据以下几种方式设置训练场景的次序:
(1)按照各场景的样本数量的升序或降序安排训练场景;
(2)按照各场景的识别难度的升序或降序安排训练场景:各场景的识别难度可以通过使用传统深度学习训练得到的模型在不同场景上使用统一的评估指标评估得到(如:F1-Score),F1-Score越低说明识别难度越大;
(3)按照各场景的语义安排训练场景:根据课程学习的理念,人类持续学习知识是从简单概念开始逐渐过渡到复杂问题的渐进式过程。因此,通过赋予不同场景语义,并由简单到复杂安排场景顺序,可以提高持续学习效果,实现更高精度车道线检测。例如,先学习车辆较少的场景再学习车辆拥挤的场景,先学习阴影较多的场景和高光较多的场景再学习夜晚的场景等。
步骤4)部署模型并实时检测车道线;
将每个场景对应的最优模型部署于车载系统。通常情况下,场景的数量大于骨架模型的数量,因此,一个骨架模型为多个场景的最优骨架模型,例如,将第一个模型A1应用于场景1、3、4下,将第N个模型应用于场景5、7、10,由此实现对各类复杂场景的高精度识别。
根据激光雷达和RGB相机采集的数据识别行驶车辆所处的场景,根据其场景获取其对应的最优模型作为当前测车道检测模型,用于实时车道检测。
步骤5)储存置信度较低的路面RGB图像;
在实时检测过程中,遇到部分场景的部分路面RGB图像,如果识别为车道线的置信度低于设定阈值,则自动储存该RGB图像于车载系统中并标注对应场景,用以进行后续持续学习。
在车辆结束行驶后,对保存的多场景RGB图像进行标注,并使用持续学习算法对原最优骨架模型进行优化,持续提高车道线检测模型识别精度,提升车道线检测模型识别鲁棒性。
本发明的实施例2提供了一种基于持续学习的语义分割系统,所述系统包括:预先部署在车载系统的多个场景及其对应的最优骨架模型、数据采集模块和目标检测模块;
所述数据采集模块,用于通过车载单目相机实时采集路面的RGB图像;
所述目标检测模块,用于基于RGB图像识别当前场景的类型,基于场景的类型,获取其对应的最优骨架模型;将实时采集到的RGB图像输入所述最优骨架模型,输出目标检测结果。
最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制。尽管参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行修改或者等同替换,都不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (9)

1.一种基于持续学习的语义分割方法,所述方法包括:
通过车载单目相机实时采集路面的RGB图像;
基于RGB图像识别当前场景的类型,基于场景的类型,获取其对应的最优骨架模型;
将实时采集到的RGB图像输入所述最优骨架模型,输出目标检测结果。
2.根据权利要求1所述的基于持续学习的语义分割方法,其特征在于,所述方法还包括:在车载系统中部署多个场景及其对应的最优骨架模型;具体包括:
构建N个结构不同的骨架模型;
使用车载单目相机采集路面的RGB图像,对目标像素和行驶过程中不同场景进行标注;
对待训练的K个类型的场景进行排序;
对于排序后的每个场景,将标注后的RGB图像作为训练集,使用持续学习算法分别对N个骨架模型进行训练;使用该场景的测试集对训练好的N个骨架模型进行识别精度计算,将精度最高的骨架模型作为该场景的最优骨架模型;由此,得到在每个场景对应的最优骨架模型;
将每个场景对应的最优模型部署于车载系统中。
3.根据权利要求2所述的基于持续学习的语义分割方法,其特征在于,所述骨架模型包括:LaneAF、ENet-SAD、LaneNet和SCNN。
4.根据权利要求2所述的基于持续学习的语义分割方法,其特征在于,对待训练的K个类型的场景进行排序,具体为:按照K个类型场景的训练样本数量,对K个场景进行升序或降序排列。
5.根据权利要求2所述的基于持续学习的语义分割方法,其特征在于,对待训练的K个类型的场景进行排序,具体为:按照K个类型场景的识别难度,对K个场景进行升序或降序排列。
6.根据权利要求3所述的基于持续学习的语义分割方法,其特征在于,对于排序后的每个场景,将标注后的RGB图像作为训练集,使用持续学习算法分别对N个骨架模型进行训练;具体包括:
排序后的第k个场景下参数为θ的骨架模型的损失函数为Lk(θ):
Lk(θ)=Lk-1(θ)+λR(θ)(k)
其中,1≤k≤K,K为场景的总数,Lk-1(θ)为第k-1个场景下参数为θ的骨架模型的损失函数,λ是正则项的超参数;R(θ)(k)为对应第k个场景的惩罚项:
Figure FDA0003191782930000021
其中,Np是模型中参数的总数量,θi参数θ的第i个参数,
Figure FDA0003191782930000022
是训练第l个场景后的模型参数
Figure FDA0003191782930000023
的第i个参数,
Figure FDA0003191782930000024
是第l个场景下Fisher信息矩阵F(l)的第i个对角线元素,定义为:
Figure FDA0003191782930000025
其中,|X(l)|是第l个场景的训练数据集的批数量,
Figure FDA0003191782930000026
是模型在参数
Figure FDA0003191782930000027
下x处的预测值。
7.根据权利要求3所述的基于持续学习的语义分割方法,其特征在于,对于排序后的每个场景,将标注后的RGB图像作为训练集,使用持续学习算法分别对N个骨架模型进行训练;具体包括:
排序后的第k个场景下参数为θ的骨架模型的损失函数为Lk(θ):
Lk(θ)=Lk-1(θ)+λR(θ)(k)
其中,1≤k≤K,K为场景的总数,Lk-1(θ)为第k-1个场景下参数为θ的骨架模型的损失函数,λ是正则项的超参数;R(θ)(k)为对应第k个场景的惩罚项:
Figure FDA0003191782930000028
其中,Np是模型中参数的总数量,θi为参数θ的第i个参数,
Figure FDA0003191782930000029
是训练第k-1个场景后的模型参数
Figure FDA00031917829300000210
的第i个参数,第i个参数的重要性矩阵Ωi为:
Figure FDA00031917829300000211
其中,|X(k)|是第k个场景的训练数据集的批数量,
Figure FDA0003191782930000031
是骨架模型输出的l2范数,xj为k个场景的训练数据集中的第j批数据。
8.根据权利要求3所述的基于持续学习的语义分割方法,其特征在于,所述方法还包括:
存储识别结果置信度小于阈值的路面RGB图像;
在离线阶段,对存储的RGB图像进行标注,并使用持续学习算法对部署的最优骨架模型进行优化。
9.一种基于持续学习的语义分割系统,其特征在于,所述系统包括:预先部署在车载系统的多个场景及其对应的最优骨架模型、数据采集模块和目标检测模块;
所述数据采集模块,用于通过车载单目相机实时采集路面的RGB图像;
所述目标检测模块,用于基于RGB图像识别当前场景的类型,基于场景的类型,获取其对应的最优骨架模型;将实时采集到的RGB图像输入所述最优骨架模型,输出目标检测结果。
CN202110879932.8A 2021-08-02 2021-08-02 一种基于持续学习的语义分割方法及系统 Active CN113569774B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110879932.8A CN113569774B (zh) 2021-08-02 2021-08-02 一种基于持续学习的语义分割方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110879932.8A CN113569774B (zh) 2021-08-02 2021-08-02 一种基于持续学习的语义分割方法及系统

Publications (2)

Publication Number Publication Date
CN113569774A true CN113569774A (zh) 2021-10-29
CN113569774B CN113569774B (zh) 2022-04-08

Family

ID=78169859

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110879932.8A Active CN113569774B (zh) 2021-08-02 2021-08-02 一种基于持续学习的语义分割方法及系统

Country Status (1)

Country Link
CN (1) CN113569774B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109087303A (zh) * 2018-08-15 2018-12-25 中山大学 基于迁移学习提升语义分割模型效果的框架
CN110111335A (zh) * 2019-05-08 2019-08-09 南昌航空大学 一种自适应对抗学习的城市交通场景语义分割方法及系统
CN111010545A (zh) * 2019-12-20 2020-04-14 深圳市中天安驰有限责任公司 车辆驾驶决策方法、系统、终端及存储介质
CN111598095A (zh) * 2020-03-09 2020-08-28 浙江工业大学 一种基于深度学习的城市道路场景语义分割方法
CN112232226A (zh) * 2020-10-19 2021-01-15 戴姆勒股份公司 通过判别式模型检测目标对象的方法和系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109087303A (zh) * 2018-08-15 2018-12-25 中山大学 基于迁移学习提升语义分割模型效果的框架
CN110111335A (zh) * 2019-05-08 2019-08-09 南昌航空大学 一种自适应对抗学习的城市交通场景语义分割方法及系统
CN111010545A (zh) * 2019-12-20 2020-04-14 深圳市中天安驰有限责任公司 车辆驾驶决策方法、系统、终端及存储介质
CN111598095A (zh) * 2020-03-09 2020-08-28 浙江工业大学 一种基于深度学习的城市道路场景语义分割方法
CN112232226A (zh) * 2020-10-19 2021-01-15 戴姆勒股份公司 通过判别式模型检测目标对象的方法和系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SINAN ÖZGÜR ÖZGÜN 等: ""Importance Driven Continual Learning for Segmentation Across Domains"", 《ARXIV:2005.00079V1 [CS.CV]》 *

Also Published As

Publication number Publication date
CN113569774B (zh) 2022-04-08

Similar Documents

Publication Publication Date Title
Bouti et al. A robust system for road sign detection and classification using LeNet architecture based on convolutional neural network
US7724962B2 (en) Context adaptive approach in vehicle detection under various visibility conditions
Prieto et al. Using self-organising maps in the detection and recognition of road signs
KR101848019B1 (ko) 차량 영역 검출을 통한 차량 번호판 검출 방법 및 장치
Janahiraman et al. Traffic light detection using tensorflow object detection framework
CN113420607A (zh) 无人机多尺度目标检测识别方法
CN113095152B (zh) 一种基于回归的车道线检测方法及系统
CN109886086B (zh) 基于hog特征和线性svm级联分类器的行人检测方法
Naufal et al. Preprocessed mask RCNN for parking space detection in smart parking systems
Liu et al. Multi-type road marking recognition using adaboost detection and extreme learning machine classification
Hu et al. A video streaming vehicle detection algorithm based on YOLOv4
Wang et al. A comparative study of small object detection algorithms
Ayachi et al. Real-time implementation of traffic signs detection and identification application on graphics processing units
Rashtehroudi et al. Iranian license plate recognition using deep learning
CN110008899B (zh) 一种可见光遥感图像候选目标提取与分类方法
CN113177528B (zh) 基于多任务学习策略训练网络模型的车牌识别方法及系统
CN110751005B (zh) 融合深度感知特征和核极限学习机的行人检测方法
Acunzo et al. Context-adaptive approach for vehicle detection under varying lighting conditions
CN113569774B (zh) 一种基于持续学习的语义分割方法及系统
CN110334703B (zh) 一种昼夜图像中的船舶检测和识别方法
He et al. Real-time pedestrian warning system on highway using deep learning methods
US20230298335A1 (en) Computer-implemented method, data processing apparatus and computer program for object detection
Huang et al. Chinese license plate detection based on deep neural network
CN115147450B (zh) 基于运动帧差图像的移动目标检测方法及检测装置
Al Khafaji et al. Traffic Signs Detection and Recognition Using A combination of YOLO and CNN

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant