CN109145798B - 一种驾驶场景目标识别与可行驶区域分割集成方法 - Google Patents
一种驾驶场景目标识别与可行驶区域分割集成方法 Download PDFInfo
- Publication number
- CN109145798B CN109145798B CN201810917335.8A CN201810917335A CN109145798B CN 109145798 B CN109145798 B CN 109145798B CN 201810917335 A CN201810917335 A CN 201810917335A CN 109145798 B CN109145798 B CN 109145798B
- Authority
- CN
- China
- Prior art keywords
- target
- scene
- target detection
- scene segmentation
- segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种驾驶场景目标识别与可行驶区域分割集成方法,包括:S1,共享特征模块获取输入的车载视觉系统的参数配置信息和图像信息;S2,目标检测网络模块在目标检测ROI区域内根据输入的3个不同尺寸的目标检测特征输出目标类别、目标左上角横坐标、目标左上角点纵坐标、目标宽度和目标高度;S3,目标检测网络模块对目标类别、目标左上角横坐标、目标左上角点纵坐标、目标宽度和目标高度,进行置信度阈值过滤和极大值抑制后,合并输出目标检测列表;S4,场景分割网络模块在场景分割ROI区域内根据输入的3个不同尺寸的场景分割特征输出与场景分割特征对应的单通道可通行区域二进制输出图。采用本发明,大幅提升鲁棒性以及准确性。
Description
技术领域
本发明涉及车辆视觉系统,尤其涉及车辆视觉系统中驾驶场景目标识别与可行驶区域分割集成方法。
背景技术
现有商用车载视觉系统感知功能主要包括行人、车辆、交通标识以及结构化道路标识线的检测与识别。其算法层面大多基于传统的视觉处理与及其学习的方法,包括基础的图像特征算子、霍夫变换、adaboost或SVM分类器等。此类方法的效果取决于图像特征描述算子的设计,并且应用的鲁棒性以及可移植性较差。其局限性以及应用难点在于:比如行人、车辆、交通标识等不同类别的目标检测需要设计不同的图像特征描述算子,白天夜间的算法目标检测架构与方法需要区分调整,对于非结构化道路边界难以识别等。
发明内容
本发明的目的提供一种驾驶场景目标识别与可行驶区域分割集成方法,提高了精度,降低了成本。
为解决现有技术存在的问题,本发明提供一种驾驶场景目标识别与可行驶区域分割集成方法,该方法应用于车载视觉系统中,所述车载视觉系统包括深度卷积神经网络模块,所述深度卷积神经网络模块包括共享特征模块、目标检测网络模块和场景分割网络模块,其特征在于,所述方法包括:
S1,共享特征模块获取输入的车载视觉系统的参数配置信息和图像信息,并通过卷积步长对图像信息进行降采样后输出3个不同尺度的目标检测特征和场景分割特征;
S2,目标检测网络模块在目标检测ROI区域内根据输入的3个不同尺寸的目标检测特征输出目标类别、目标左上角横坐标、目标左上角点纵坐标、目标宽度和目标高度;
S3,目标检测网络模块对目标类别、目标左上角横坐标、目标左上角点纵坐标、目标宽度和目标高度,进行置信度阈值过滤和极大值抑制后,合并输出目标检测列表;
S4,场景分割网络模块在场景分割ROI区域内根据输入的3个不同尺寸的场景分割特征输出与场景分割特征对应的单通道可通行区域二进制输出图。
优选的,还包括离线训练的步骤,所述步骤包括:
采集各类道路驾驶场景数据,提取时序离散时序样本集;
根据生成的训练样本,通过损失函数采用随机梯度下降的方式分步训练共享卷积模块的权重系数,所述损失函数为:
Loss1=α1*L_seg+β1*L_det;
其中,α1,β1为可配置参数,L_seg表示每个像素点分类交叉熵之和,L_det表示每个目标的分类交叉熵与位置回归损失之和;
固化上述共享卷积特征权重系数,并按场景分割模块以及检测网络模块各自的损失函数分别进行离线训练。
优选的,步骤S4还包括:
目标检测网络模块对输出的检测目标列表按预设重合度阈值进行极大值抑制。
优选的,步骤S5还包括:
对场景分割网络模块输出的二进制输出图,比较各像素点UI的softmax输出,对每一像素点,取softmax相对较大的类,生成场景分割mask。
优选的,步骤S5还包括:
对生成的场景分割mask左右边缘进行曲线拟合,生产道路左右边界解析式。
本发明将应用基于多任务深度卷积神经网络架构替代传统视觉感知算法,鲁棒性以及准确性都大幅提升。本发明所采用的多任务网络架构基于共享的多尺度特征图谱,相比于两个线程并行的独立子网络模型,提高了精度,降低了成本。
附图说明
图1是本发明一种驾驶场景目标识别与可行驶区域分割集成方法的流程示意图;
图2是本发明一种驾驶场景目标识别与可行驶区域分割集成方法的深度卷积神经网络模块的示意图。
具体实施方式
下面结合附图对本发明进行详细说明。
本发明提出了一种基于车载视觉输入的多任务深度卷积神经网络驾驶场景感知方法,可应用于辅助驾驶以及自动驾驶系统的数据融合、预警以及控制模块输入。本发明采用的深度网络输入为3通道车载视觉图像,输出各类目标列表以及可行驶区域Mask(可后处理为左右边界)。下面进行详细说明。
参考图1,该图是本发明一种驾驶场景目标识别与可行驶区域分割集成方法的流程示意图,
步骤S1,共享特征模块获取输入的车载视觉系统的参数配置信息和图像信息,并通过卷积步长对图像信息进行降采样后输出3个不同尺度的目标检测特征和场景分割特征;
步骤S3,目标检测网络模块在目标检测ROI区域内根据输入的3个不同尺寸的目标检测特征输出目标类别、目标左上角横坐标、目标左上角点纵坐标、目标宽度和目标高度;
步骤S4,目标检测网络模块对目标类别、目标左上角横坐标、目标左上角点纵坐标、目标宽度和目标高度,进行置信度阈值过滤和极大值抑制后,合并输出目标检测列表;
步骤S5,场景分割网络模块在场景分割ROI区域内根据输入的3个不同尺寸的场景分割特征输出与场景分割特征对应的单通道可通行区域二进制输出图。
本需要说明的,发明实施例应用于车载视觉系统中,该车载视觉系统包括深度卷积神经网络模块,如图2所示,该深度卷积神经网络模块包括共享特征模块11(共享特征层)、目标检测网络模块12(目标检测分支网络)和场景分割网络模块13(分割分支网络)。
共享特征层11:由级联conv+relu+BN组合组成,输入为720*360的图像,通过卷积步长进行降采样,可输出3个不同尺度的特征层(对应大、中、小尺寸的目标检测与分割);
目标检测分支网络12:该分支网络包含卷积以及softmax层,输入为3尺度共享卷积层特征,原始输出为1*5向量,即目标类别,目标左上角点横坐标,目标左上角点纵坐标,目标宽度,目标高度,经后处理(置信度阈值过滤以及极大值抑制)可得合并后目标输出列表;
分割分支网络13:该分支网络包反卷积以及softmax层,输入为单尺度共享卷积层特征,原始输出维度为720*360*2,经后处理可得720*360单通道可通行区域二进制输出图。
另外,还包括深度卷积网络离线训练的步骤具体的为:
训练数据采集步骤,离线采集各类道路驾驶场景数据,提取离散时序训练样本100,000张,标签内容包含:目标类别(例如0-背景,1-小型车辆,2-卡车及公交,3-行人及自行车,4-交通标识牌,5-交通信号灯),目标区域(x,y,w,h)以及可行驶区域mask。利用图像色域、几何等空间变换,进行样本扩充(若采集样本进一步扩充,此步骤可省略)。
分步多任务训练步骤:首先训练浅层共享卷积特征,采用所生成的训练样本,训练损失函数设置如下(α1,β1为可配置参数,默认值为0.5和0.5):Loss1=α1*L_seg+β1*L_det;之后固化上述共享卷积层特征权重系数,按分割以及检测网络各自损失函数(即Loss2=L_seg或Loss2=L_det)训练更新分支网络重系数;
其中L_seg定义为每个像素点分类交叉熵之和,L_det定义为每个目标的分类交叉熵与位置回归损失(L2)之和。
深度卷积神经网络对离线生产的多任务深度卷积神经网络进行稀疏化与量化操作,验证压缩网络精度,进行道路驾驶场景分析。主要包括:目标检测、场景分割以及结果后处理。具体实现时,首先,对图像采集与预处理:包括采集参数配置(自动曝光、自动白平衡等)以及图像预处理(畸变矫正、抖动去除以及平滑滤波)。
然后,度卷积神经网络前向运算:在道路目标检测以及场景分割各自ROI区域内进行网络前向运算(ROI区域可作为配置参数预先设置,亦可根据相机自身运动估计结果动态更新),网络输出为限制个数的目标检测列表以及与输入分辨率对应的2通道图像像素级分类结果。
然后,网络输出后处理:对于输出检测目标按设定重合度(IOU)阈值进行极大值抑制(NMS);对于分割分支网络输出结果,比较各像素点softmax输出,对每一像素点,取softmax相对较大的类,生成场景分割mask。对mask左右边缘进行曲线拟合(二次曲线或B样条曲线),生成道路左右边界解析式。
最后,系统输出:若应用层与本方法共硬件平台,将上述神经网络后处理结果,以共享内存的方式与应用层交互;若应用层与本方法不共用硬件平台,将上述神经网络后处理结果,以网络或CAN的接口输出至应用层所在平台。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。
Claims (4)
1.一种驾驶场景目标识别与可行驶区域分割集成方法,应用于车载视觉系统中,所述车载视觉系统包括深度卷积神经网络模块,所述深度卷积神经网络模块包括共享特征模块、目标检测网络模块和场景分割网络模块,其特征在于,所述方法包括:
S1,共享特征模块获取输入的车载视觉系统的参数配置信息和图像信息,并通过卷积步长对图像信息进行降采样后输出3个不同尺度的目标检测特征和场景分割特征;
S2,目标检测网络模块在目标检测ROI区域内根据输入的3个不同尺寸的目标检测特征输出目标类别、目标左上角横坐标、目标左上角点纵坐标、目标宽度和目标高度;
S3,目标检测网络模块对目标类别、目标左上角横坐标、目标左上角点纵坐标、目标宽度和目标高度,进行置信度阈值过滤和极大值抑制后,合并输出目标检测列表;
S4,场景分割网络模块在场景分割ROI区域内根据输入的3个不同尺寸的场景分割特征输出与场景分割特征对应的单通道可通行区域二进制输出图;
离线训练的步骤,所述步骤包括:
采集各类道路驾驶场景数据,提取时序离散时序样本集;
根据生成的训练样本,通过损失函数采用随机梯度下降的方式分步训练共享卷积模块的权重系数,所述损失函数为:
Loss1 = α1*L_seg +β1*L_det;
其中,α1,β1为可配置参数,L_seg表示每个像素点分类交叉熵之和,L_det表示每个目标的分类交叉熵与位置回归损失之和;
固化上述共享卷积特征权重系数,并按场景分割模块以及检测网络模块各自的损失函数分别进行离线训练;
深度卷积神经网络对离线生产的多任务深度卷积神经网络进行稀疏化与量化操作,验证压缩网络精度,进行道路驾驶场景分析;包括:目标检测、场景分割以及结果后处理;
对图像采集与预处理:包括采集参数配置以及图像预处理;
深度卷积神经网络前向运算:在道路目标检测以及场景分割各自ROI区域内进行网络前向运算,网络输出为限制个数的目标检测列表以及与输入分辨率对应的2通道图像像素级分类结果;
然后,网络输出后处理;最后,系统输出:若应用层与本方法共硬件平台,将上述神经网络后处理结果,以共享内存的方式与应用层交互;若应用层与本方法不共用硬件平台,将上述神经网络后处理结果,以网络或CAN的接口输出至应用层所在平台。
2.根据权利要求1所述的驾驶场景目标识别与可行驶区域分割集成方法,其特征在于,步骤S4还包括:
目标检测网络模块对输出的检测目标列表按预设重合度阈值进行极大值抑制。
3.根据权利要求1所述的驾驶场景目标识别与可行驶区域分割集成方法,其特征在于,步骤S5还包括:
对场景分割网络模块输出的二进制输出图,比较各像素点的softmax输出,对每一像素点,取softmax相对较大的类,生成场景分割mask。
4.根据权利要求3所述的驾驶场景目标识别与可行驶区域分割集成方法,其特征在于,步骤S5还包括:
对生成的场景分割mask左右边缘进行曲线拟合,生成道路左右边界解析式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810917335.8A CN109145798B (zh) | 2018-08-13 | 2018-08-13 | 一种驾驶场景目标识别与可行驶区域分割集成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810917335.8A CN109145798B (zh) | 2018-08-13 | 2018-08-13 | 一种驾驶场景目标识别与可行驶区域分割集成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109145798A CN109145798A (zh) | 2019-01-04 |
CN109145798B true CN109145798B (zh) | 2021-10-22 |
Family
ID=64792795
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810917335.8A Active CN109145798B (zh) | 2018-08-13 | 2018-08-13 | 一种驾驶场景目标识别与可行驶区域分割集成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109145798B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109934096B (zh) * | 2019-01-22 | 2020-12-11 | 浙江零跑科技有限公司 | 基于特征时序相关性的自动驾驶视觉感知优化方法 |
CN110321866B (zh) * | 2019-07-09 | 2023-03-24 | 西北工业大学 | 基于深度特征稀疏化算法的遥感图像场景分类方法 |
CN110473414B (zh) * | 2019-08-20 | 2021-03-23 | 北京经纬恒润科技股份有限公司 | 一种车辆行驶路径确定方法、装置及系统 |
CN110909794B (zh) * | 2019-11-22 | 2022-09-13 | 乐鑫信息科技(上海)股份有限公司 | 一种适用于嵌入式设备的目标检测系统 |
CN111310574B (zh) * | 2020-01-17 | 2022-10-14 | 清华大学 | 一种车载视觉实时多目标多任务联合感知方法和装置 |
CN111723697A (zh) * | 2020-06-05 | 2020-09-29 | 广东海洋大学 | 一种基于Mask-RCNN改进的驾驶员背景分割方法 |
CN111860141B (zh) * | 2020-06-10 | 2022-10-11 | 北京航空航天大学 | 一种基于场景结构的行人实时检测系统及方法 |
CN112329724B (zh) * | 2020-11-26 | 2022-08-05 | 四川大学 | 机动车变道实时检测与抓拍方法 |
CN113963238A (zh) * | 2021-12-22 | 2022-01-21 | 深圳佑驾创新科技有限公司 | 多任务感知识别模型的构建方法以及多任务感知识别方法 |
CN115965926B (zh) * | 2023-03-16 | 2023-06-02 | 四川京炜数字科技有限公司 | 一种车载式道路标志标线巡检系统 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016026063A1 (en) * | 2014-08-21 | 2016-02-25 | Xiaoou Tang | A method and a system for facial landmark detection based on multi-task |
CN105975915A (zh) * | 2016-04-28 | 2016-09-28 | 大连理工大学 | 一种基于多任务卷积神经网络的前方车辆参数识别方法 |
CN106228110A (zh) * | 2016-07-07 | 2016-12-14 | 浙江零跑科技有限公司 | 一种基于车载双目相机的障碍物及可行驶区域检测方法 |
CN106529402A (zh) * | 2016-09-27 | 2017-03-22 | 中国科学院自动化研究所 | 基于多任务学习的卷积神经网络的人脸属性分析方法 |
CN107092862A (zh) * | 2017-03-16 | 2017-08-25 | 浙江零跑科技有限公司 | 一种基于卷积神经网络的车道边缘检测方法 |
CN107169421A (zh) * | 2017-04-20 | 2017-09-15 | 华南理工大学 | 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法 |
CN107609602A (zh) * | 2017-09-28 | 2018-01-19 | 吉林大学 | 一种基于卷积神经网络的驾驶场景分类方法 |
CN107679250A (zh) * | 2017-11-01 | 2018-02-09 | 浙江工业大学 | 一种基于深度自编码卷积神经网络的多任务分层图像检索方法 |
CN107704866A (zh) * | 2017-06-15 | 2018-02-16 | 清华大学 | 基于新型神经网络的多任务场景语义理解模型及其应用 |
CN107730903A (zh) * | 2017-06-13 | 2018-02-23 | 银江股份有限公司 | 基于深度卷积神经网络的违章停车和抛锚车视觉检测系统 |
CN107729801A (zh) * | 2017-07-11 | 2018-02-23 | 银江股份有限公司 | 一种基于多任务深度卷积神经网络的车辆颜色识别系统 |
CN107784288A (zh) * | 2017-10-30 | 2018-03-09 | 华南理工大学 | 一种基于深度神经网络的迭代定位式人脸检测方法 |
CN107885764A (zh) * | 2017-09-21 | 2018-04-06 | 银江股份有限公司 | 基于多任务深度学习快速哈希车辆检索方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9858525B2 (en) * | 2015-10-14 | 2018-01-02 | Microsoft Technology Licensing, Llc | System for training networks for semantic segmentation |
CN107451620A (zh) * | 2017-08-11 | 2017-12-08 | 深圳市唯特视科技有限公司 | 一种基于多任务学习的场景理解方法 |
CN107679489B (zh) * | 2017-09-29 | 2021-06-04 | 北京奇虎科技有限公司 | 基于场景分割的自动驾驶处理方法、装置及计算设备 |
CN107977671B (zh) * | 2017-10-27 | 2021-10-26 | 浙江工业大学 | 一种基于多任务卷积神经网络的舌象分类方法 |
CN107909147A (zh) * | 2017-11-16 | 2018-04-13 | 深圳市华尊科技股份有限公司 | 一种数据处理方法及装置 |
CN108012156B (zh) * | 2017-11-17 | 2020-09-25 | 深圳市华尊科技股份有限公司 | 一种视频处理方法及控制平台 |
CN107944555B (zh) * | 2017-12-07 | 2021-09-17 | 广州方硅信息技术有限公司 | 神经网络压缩和加速的方法、存储设备和终端 |
-
2018
- 2018-08-13 CN CN201810917335.8A patent/CN109145798B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016026063A1 (en) * | 2014-08-21 | 2016-02-25 | Xiaoou Tang | A method and a system for facial landmark detection based on multi-task |
CN105975915A (zh) * | 2016-04-28 | 2016-09-28 | 大连理工大学 | 一种基于多任务卷积神经网络的前方车辆参数识别方法 |
CN106228110A (zh) * | 2016-07-07 | 2016-12-14 | 浙江零跑科技有限公司 | 一种基于车载双目相机的障碍物及可行驶区域检测方法 |
CN106529402A (zh) * | 2016-09-27 | 2017-03-22 | 中国科学院自动化研究所 | 基于多任务学习的卷积神经网络的人脸属性分析方法 |
CN107092862A (zh) * | 2017-03-16 | 2017-08-25 | 浙江零跑科技有限公司 | 一种基于卷积神经网络的车道边缘检测方法 |
CN107169421A (zh) * | 2017-04-20 | 2017-09-15 | 华南理工大学 | 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法 |
CN107730903A (zh) * | 2017-06-13 | 2018-02-23 | 银江股份有限公司 | 基于深度卷积神经网络的违章停车和抛锚车视觉检测系统 |
CN107704866A (zh) * | 2017-06-15 | 2018-02-16 | 清华大学 | 基于新型神经网络的多任务场景语义理解模型及其应用 |
CN107729801A (zh) * | 2017-07-11 | 2018-02-23 | 银江股份有限公司 | 一种基于多任务深度卷积神经网络的车辆颜色识别系统 |
CN107885764A (zh) * | 2017-09-21 | 2018-04-06 | 银江股份有限公司 | 基于多任务深度学习快速哈希车辆检索方法 |
CN107609602A (zh) * | 2017-09-28 | 2018-01-19 | 吉林大学 | 一种基于卷积神经网络的驾驶场景分类方法 |
CN107784288A (zh) * | 2017-10-30 | 2018-03-09 | 华南理工大学 | 一种基于深度神经网络的迭代定位式人脸检测方法 |
CN107679250A (zh) * | 2017-11-01 | 2018-02-09 | 浙江工业大学 | 一种基于深度自编码卷积神经网络的多任务分层图像检索方法 |
Non-Patent Citations (5)
Title |
---|
A traffic sign detection algorithm based on deep convolutional neural network;Xiong Changzhen等;《2016 IEEE International Conference on Signal and Image Processing (ICSIP)》;20170330;676-679 * |
RefineNet: Refining Object Detectors for Autonomous Driving;Rakesh Nattoji Rajaram等;《IEEE Transactions on Intelligent Vehicles》;20161231;第1卷(第4期);358-368 * |
基于卷积神经网络特征共享与目标检测的跟踪算法研究;李贺;《中国优秀硕士学位论文全文数据库 信息科技辑》;20180715;第2018年卷(第7期);I138-1347 * |
基于深度卷积神经网络的室外场景理解研究;文俊;《中国优秀硕士学位论文全文数据库 信息科技辑》;20170415;第2017年卷(第4期);I138-357 * |
基于特征共享的高效物体检测;任少卿;《中国博士学位论文全文数据库 信息科技辑》;20160815;第2016年卷(第8期);I138-98 * |
Also Published As
Publication number | Publication date |
---|---|
CN109145798A (zh) | 2019-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109145798B (zh) | 一种驾驶场景目标识别与可行驶区域分割集成方法 | |
Wu et al. | Lane-mark extraction for automobiles under complex conditions | |
KR101848019B1 (ko) | 차량 영역 검출을 통한 차량 번호판 검출 방법 및 장치 | |
CN109753913B (zh) | 计算高效的多模式视频语义分割方法 | |
US9477892B2 (en) | Efficient method of offline training a special-type parked vehicle detector for video-based on-street parking occupancy detection systems | |
CN110956597A (zh) | 用于车辆中的自动图像改善的设备和方法 | |
CN114118124B (zh) | 图像检测方法和装置 | |
CN107886043B (zh) | 视觉感知的汽车前视车辆和行人防碰撞预警系统及方法 | |
EP3537348A1 (en) | Heterogeneous convolutional neural network for multi-problem solving | |
Kalyan et al. | Vehicle detection using image processing | |
Wu et al. | Raindrop detection and removal using salient visual features | |
JP7091686B2 (ja) | 立体物認識装置、撮像装置および車両 | |
CN112990065B (zh) | 一种基于优化的YOLOv5模型的车辆分类检测方法 | |
Feniche et al. | Lane detection and tracking for intelligent vehicles: A survey | |
CN110807384A (zh) | 低能见度下的小目标检测方法和系统 | |
KR100965800B1 (ko) | 차량 영상 검지 및 속도 산출방법 | |
Dubuisson et al. | Object contour extraction using color and motion | |
WO2022230319A1 (en) | Data driven dynamically reconfigured disparity map | |
Ghahremannezhad et al. | Automatic road detection in traffic videos | |
CN115588188A (zh) | 一种机车、车载终端和驾驶员行为识别方法 | |
CN113313118A (zh) | 基于多尺度特征融合的自适应可变占比目标检测方法 | |
JP6847709B2 (ja) | カメラ装置、検出装置、検出システムおよび移動体 | |
Rahaman et al. | Lane detection for autonomous vehicle management: PHT approach | |
Lin et al. | Two-Stage License Plate Recognition System Using Deep learning | |
Altundogan et al. | Image processing and deep neural image classification based physical feature determiner for traffic stakeholders |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 310051 1st and 6th floors, no.451 Internet of things street, Binjiang District, Hangzhou City, Zhejiang Province Applicant after: Zhejiang Zero run Technology Co.,Ltd. Address before: 310051 1st and 6th floors, no.451 Internet of things street, Binjiang District, Hangzhou City, Zhejiang Province Applicant before: ZHEJIANG LEAPMOTOR TECHNOLOGY Co.,Ltd. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |