CN110069982A - 一种交通车辆与行人的自动识别方法 - Google Patents

一种交通车辆与行人的自动识别方法 Download PDF

Info

Publication number
CN110069982A
CN110069982A CN201910173764.3A CN201910173764A CN110069982A CN 110069982 A CN110069982 A CN 110069982A CN 201910173764 A CN201910173764 A CN 201910173764A CN 110069982 A CN110069982 A CN 110069982A
Authority
CN
China
Prior art keywords
layer
convolutional layer
convolutional
enhancement
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910173764.3A
Other languages
English (en)
Inventor
刘军
高亮
后士浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu University
Original Assignee
Jiangsu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu University filed Critical Jiangsu University
Priority to CN201910173764.3A priority Critical patent/CN110069982A/zh
Publication of CN110069982A publication Critical patent/CN110069982A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明提供了一种交通车辆与行人的自动识别方法,包括如下步骤:数据集的制作;构建增强卷积神经网络Enhancement‑tiny YOLOv3;通过输入所述数据集,对增强卷积神经网络Enhancement‑tiny YOLOv3训练,当Enhancement‑tiny YOLOv3网络的平均损失小于预设阈值时,得到训练好的Enhancement‑tiny YOLOv3的网络;自动识别目标。所述数据集的制作具体为:对目标分类;自行采集目标的图片数据集。所述目标为行人和车俩;每个类别的目标采集白天图片和夜晚图片并进行手工标注。本发明可以检测平均准确率显著提高,平均误检率较大减少,平均漏检率大幅降低,在保证实时性的前提下,有效降低了视频流目标检测的误检和漏检。

Description

一种交通车辆与行人的自动识别方法
技术领域
本发明涉及目标自动检测领域,特别涉及一种交通车辆与行人的自动识别方法。
背景技术
随着人民生活水平的提高,针对汽车的需求不断提高,汽车行业蓬勃发展。根据中国纲领性产业政策《中国制造2025》的规划,低碳化、信息化、智能化将是未来汽车行业发展的特色,到2025年时中国智能汽车技术将处于国际先进水平。
无人驾驶、先进辅助驾驶系统ADAS(Advanced Driver Assistance Systems)等作为汽车智能化发展的重要技术方向,有着提高驾驶人驾驶体验、改变未来汽车驾驶方式等等一系列重要意义,最重要的是,交通事故发生率能在智能汽车技术下得到有效的改善。这些技术都涉及到了不同道路环境下的车辆、行人等交通参与者的目标检测技术。目标检测技术是无人驾驶、先进辅助驾驶系统ADAS等智能汽车技术实现的前提,当智能汽车行驶在不同道路环境下时,需要目标检测技术精确的检测出当前道路环境下交通参与者的类别,根据这些信息智能汽车可以执行预警、避障等等操作。
近些年目标检测算法在深度学习的热潮下也有了很大程度的发展,检测的速度和精确度都在不断的提高,如果将基于深度学习的目标检测算法用在交通参与者的目标检测技术上可以很大程度上提高不同道路环境下交通参与者的识别速度和识别精度。TinyYOLOv3就是一种可以实现对不同道路环境下交通参与者的快速识别、准确识别的积神经网络算法。这些检测算法性能的提升针对无人驾驶、汽车辅助驾驶等这些针对道路环境感知的实时性精确性要求很高的技术有着十分重要的意义。
但是现有的Tiny YOLOv3在对目标车辆的视觉检测时,针对小(远)目标车辆、夜晚场景下目标车辆漏检率高、依赖计算资源较高、嵌入式实时等方面存在应用较难的问题。因而有必要对Tiny YOLOv3的网络结构进行改进,提高车辆检测技术的实时性和对小(远)目标车辆的检测精度。
发明内容
针对现有技术中存在的不足,本发明提供了一种交通车辆与行人的自动识别方法,检测平均准确率显著提高,平均误检率较大减少,平均漏检率大幅降低,在保证实时性的前提下,有效降低了视频流目标检测的误检和漏检。
本发明是通过以下技术手段实现上述技术目的的。
一种交通车辆与行人的自动识别方法,包括如下步骤:
数据集的制作;
构建增强卷积神经网络Enhancement-tiny YOLOv3;
通过输入所述数据集,对增强卷积神经网络Enhancement-tiny YOLOv3训练,当Enhancement-tiny YOLOv3网络的平均损失小于预设阈值时,得到训练好的Enhancement-tiny YOLOv3的网络;
自动识别目标。
进一步,所述数据集的制作具体为:对目标分类;自行采集目标的图片数据集。
进一步,所述目标为行人和车俩;每个类别的目标采集白天图片和夜晚图片并进行手工标注。
进一步,构建增强卷积神经网络Enhancement-tiny YOLOv3具体为:在tinyYOLOv3卷积神经网络基础上,将最大池化层maxpool3层修改为卷积层conv4,将卷积层conv4的特征通道维度压缩以减少无效参数;增加卷积层conv5和采样层upsample2,卷积层conv5和采样层upsample2在通道维度上进行连接操作,作为Enhancement-tiny YOLOv3特征金字塔的一个特征图层。
进一步,所述增强卷积神经网络Enhancement-tiny YOLOv3为25层:网络结构从输入到输出依次是卷积层conv1、最大池化层maxpool1、卷积层conv2、最大池化层maxpool2、卷积层conv3、卷积层conv4、卷积层conv5、卷积层conv6、最大池化层maxpool3、卷积层conv7、最大池化层maxpool4、卷积层conv8、最大池化层maxpool5、卷积层conv9、卷积层conv10、卷积层conv11、卷积层conv12、卷积层conv13、采样层upsample1、卷积层conv14、卷积层conv15、卷积层conv16、采样层upsample2、卷积层conv17和卷积层conv18;所述卷积层conv12到采样层upsample1进行上采样操作,所述卷积层conv15到采样层upsample2进行上采样操作;所述卷积层conv5和采样层upsample2在通道维度进行了连接操作,所述卷积层conv7和采样层upsample1在通道维度进行了连接操作;所述增强卷积神经网络Enhancement-tiny YOLOv3的输入层为:卷积层conv1;所述增强卷积神经网络Enhancement-tiny YOLOv3输出层为:卷积层conv12、卷积层conv15和卷积层conv18。
进一步,所述增强卷积神经网络Enhancement-tiny YOLOv3将tiny YOLOv3卷积神经网络基础的特征金字塔网络由原来的13×13和26×26像素的特征图改进为13×13、26×26和52×52像素的3层结构的特征图。
本发明的有益效果在于:
本发明所述的交通车辆与行人的自动识别方法,针对在小或远的情况下,检测平均准确率显著提高,平均误检率较大减少,平均漏检率大幅降低,在保证实时性的前提下,有效降低了视频流目标检测的误检和漏检。
附图说明
图1为本发明所述的交通车辆与行人的自动识别方法的流程图。
图2为现有技术tiny YOLOv3的网络结构图。
图3为本发明所述的Enhancement-tiny YOLOv3的网络结构图。
具体实施方式
下面结合附图以及具体实施例对本发明作进一步的说明,但本发明的保护范围并不限于此。
如图2所示,现有结构的tiny YOLOv3网络包括卷积层、池化层和采样层构成。网络中层的命名规则由其类别和在网络中第几次出现的编号构成,例如conv5表示网络中的第5个卷积层,maxpool1表示网络中的第1个最大池化层,upsample1表示网络中的第1个上采样层,网络中每层的输出特征图尺寸表示为“分辨率宽×分辨率高×通道数”的形式。
如图1所示,本发明所述的交通车辆与行人的自动识别方法,包括如下步骤:
S1:针对中国城市道路环境下汽车种类的进行分类。本发明参考GB7258-2012和GB/T3730.1-2001这两个汽车分类标准再结合车辆外观和城市道路环境下汽车种类的实际情况等提出了在市区道路环境下道路参与者的类别划分。划分为:乘用车、商用车、行人、自行车、摩托车、三轮车六大类。乘用车又细分为普通乘用车、敞篷车、多用途乘用车、运动型多用途乘用车、越野车、专用乘用车六个次级类别;专用乘用车又分为救护车、旅居车两个子类别。商用车辆分为客车、半挂牵引车、货车三个次级类别;其中货车又分为普通货车、多用途货车、罐式车、专用作业车四个子类。专用作业车又分为消防车、工程抢险车、高空作业车、水泥搅拌车四个类别。客车又分为公路客车、公交车、校车三个类别。本发明把城市道路环境下交通参与者分为23个类别。
S2:本发明选择自行采集图片数据。采取下载网上高清图片、实际拍摄的方法,为每个类别分别采集了4000张左右的图片共计100000张图片,并从4000张图片中精选出1000张分辨率为416×416像素白天图片、1000张分辨率为416×416像素夜晚图片共计46000图片进行训练数据集的制作。
S3:构建含有25层的卷积神经网络Enhancement-tiny YOLOv3。网络结构从输入到输出依次是卷积层conv1、最大池化层maxpool1、卷积层conv2、最大池化层maxpool2、卷积层conv3、卷积层conv4、卷积层conv5、卷积层conv6、最大池化层maxpool3、卷积层conv7、最大池化层maxpool4、卷积层conv8、最大池化层maxpool5、卷积层conv9、卷积层conv10、卷积层conv11、卷积层conv12、卷积层conv13、上采样层upsample1、卷积层conv14、卷积层conv15、卷积层conv16、上采样层upsample2、卷积层conv17、卷积层conv18。卷积层conv12到上采样层upsample1进行上采样操作,卷积层conv15到上采样层upsample2进行上采样操作。卷积层conv5和上采样层upsample2的特征图的通道维度进行了连接,卷积层conv7和上采样层upsample1的特征图的通道维度进行了连接。卷积网络的输入层为:卷积层conv1,网络输出层为:卷积层conv12、卷积层conv15、卷积层conv18。25层的卷积神经网络的输入和输出详见表1。
本发明针对tiny YOLOv3对小或远目标车辆漏检率高、依赖计算资源较高、嵌入式实时等方面存在应用较难的问题以及tiny YOLOv3是一种通用的目标检测算法并非针对本发明提出的城市交通参与者的目标检测算法,对tiny YOLOv3的网络结构进行了改进,在针对浅层卷积特征图结构进行研究的基础上,分别针对原tiny YOLOv3的卷积层conv3、卷积层conv4和卷积层conv5层的有效感受野进行了可视化。本发明将tiny YOLOv3的最大池化层maxpool3层修改为卷积层conv4,将卷积层conv4的特征通道维度压缩以减少无效参数;同时在原tiny YOLOv3的基础上增加一层上采样层upsample2和卷积层conv5,另外将卷积层conv5和上采样层upsample2在通道维度上进行连接操作,作为特征金字塔的一个特征图层。
S4、增强Enhancement-tiny YOLOv3的网络训练过程为:
S401、本发明将制作的分辨率为416×416像素大小的图片作为输入图片,将训练样本打乱顺序,存放在一个容器中,并且使用了很多数据扩充方法,包括旋转图像、调节色调、饱和度等,这些数据扩充方法是随机进行,目的在于使检测具有适用各种情况的能力。样本被分成很多小批,每次将一批样本送入网络进行训练。
S402、这些图片样本被送入网络,进行前向传播计算,最后输出候选框的相对位置、包含目标的置信度以及类别概率信息。
S403、利用反向传播算法和小批量梯度下降法,不断更新网络各层权重,减小代价函数的值。
S404、训练Enhancement-tiny YOLOv3的网络,直到Enhancement-tiny YOLOv3网络的平均损失时,得到训练好的Enhancement-tiny YOLOv3的网络。
表1 25层的卷积神经网络的输入和输出
S5、把车载摄像头采集到的视频输入训练好的Enhancement-tiny YOLOv3的模型中来检测城市道路中的车辆和行人。检测过程:把车载摄像头采集到的视频输入训练好的Enhancement-tiny YOLOv3的模型中,输出:检测到目标的检测框位置信息、类别信息、检测框属于这一类别的概率。
把本发明的Enhancement-tiny YOLOv3与现有技术tiny YOLOv3模型进行对比,本发明选取平均准确率(mean Precision Rate,mPR)、平均误检率(mean False Rate,mFR)、平均漏检率(mean Missing Rate,mMR)以及平均运算速度(mean Operation Speed,mOS)作为评价指标。mPR、mFR和mMR关系分别如下式所示:
式中TP表示视频帧中正确检测出来的车辆目标,FN表示视频帧中没有检测出来的车辆目标,FP表示视频帧中误检出来的车辆目标,TN表示视频帧中没有误检成车辆目标的数量。
在白天和夜间分别进行了8组试验,通过上述4个指标对两模型进行比较,如表2所示,可见与tiny YOLOv3模型相比本文提出的Enhancement-tiny YOLOv3模型的平均准确率提高了9.1%,平均误检率减少了0.5%,平均漏检率降低了7.4%,算法平均耗时增加了87.6ms/帧,算法平均耗时虽然有所增加,依然可以保证检测算法实时性。
表2 tiny YOLOv3与Enhancement-tiny YOLOv3性能对比
注:上述数据来源于本文试验视频数据测试。
车载实验结果表明:重新构建的Enhancement-tiny YOLOv3卷积神经网络模型的相比较原始的tiny YOLOv3网络,针对本发明提出的城市交通参与者在小(远)的情况下,检测平均准确率显著提高,平均误检率较大减少,平均漏检率大幅降低,在保证实时性的前提下,有效降低了视频流目标检测的误检和漏检。
所述实施例为本发明的优选的实施方式,但本发明并不限于上述实施方式,在不背离本发明的实质内容的情况下,本领域技术人员能够做出的任何显而易见的改进、替换或变型均属于本发明的保护范围。

Claims (6)

1.一种交通车辆与行人的自动识别方法,其特征在于,包括如下步骤:
数据集的制作;
构建增强卷积神经网络Enhancement-tiny YOLOv3;
通过输入所述数据集,对增强卷积神经网络Enhancement-tiny YOLOv3训练,当Enhancement-tiny YOLOv3网络的平均损失小于预设阈值时,得到训练好的Enhancement-tiny YOLOv3的网络;
自动识别目标。
2.根据权利要求1所述的交通车辆与行人的自动识别方法,其特征在于,所述数据集的制作具体为:对目标分类;自行采集目标的图片数据集。
3.根据权利要求2所述的交通车辆与行人的自动识别方法,其特征在于,所述目标为行人和车俩;每个类别的目标采集白天图片和夜晚图片并进行手工标注。
4.根据权利要求1所述的交通车辆与行人的自动识别方法,其特征在于,构建增强卷积神经网络Enhancement-tiny YOLOv3具体为:在tiny YOLOv3卷积神经网络基础上,将最大池化层maxpool3层修改为卷积层conv4,将卷积层conv4的特征通道维度压缩以减少无效参数;增加卷积层conv5和上采样层upsample2,卷积层conv5和上采样层upsample2在通道维度上进行连接操作,作为Enhancement-tiny YOLOv3特征金字塔的一个特征图层。
5.根据权利要求4所述的交通车辆与行人的自动识别方法,其特征在于,所述增强卷积神经网络Enhancement-tiny YOLOv3为25层:网络结构从输入到输出依次是卷积层conv1、最大池化层maxpool1、卷积层conv2、最大池化层maxpool2、卷积层conv3、卷积层conv4、卷积层conv5、卷积层conv6、最大池化层maxpool3、卷积层conv7、最大池化层maxpool4、卷积层conv8、最大池化层maxpool5、卷积层conv9、卷积层conv10、卷积层conv11、卷积层conv12、卷积层conv13、上采样层upsample1、卷积层conv14、卷积层conv15、卷积层conv16、上采样层upsample2、卷积层conv17和卷积层conv18;所述卷积层conv12到上采样层upsample1进行上采样操作,所述卷积层conv15到上采样层upsample2进行上采样操作;所述卷积层conv5和上采样层upsample2在通道维度进行了连接操作,所述卷积层conv7和上采样层upsample1在通道维度进行了连接操作;所述增强卷积神经网络Enhancement-tinyYOLOv3的输入层为:卷积层conv1;所述增强卷积神经网络Enhancement-tiny YOLOv3输出层为:卷积层conv12、卷积层conv15和卷积层conv18。
6.根据权利要求4所述的交通车辆与行人的自动识别方法,其特征在于,所述增强卷积神经网络Enhancement-tiny YOLOv3将tiny YOLOv3卷积神经网络基础的特征金字塔网络由原来的13×13和26×26像素的特征图改进为13×13、26×26和52×52像素的3层结构的特征图。
CN201910173764.3A 2019-03-08 2019-03-08 一种交通车辆与行人的自动识别方法 Pending CN110069982A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910173764.3A CN110069982A (zh) 2019-03-08 2019-03-08 一种交通车辆与行人的自动识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910173764.3A CN110069982A (zh) 2019-03-08 2019-03-08 一种交通车辆与行人的自动识别方法

Publications (1)

Publication Number Publication Date
CN110069982A true CN110069982A (zh) 2019-07-30

Family

ID=67366060

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910173764.3A Pending CN110069982A (zh) 2019-03-08 2019-03-08 一种交通车辆与行人的自动识别方法

Country Status (1)

Country Link
CN (1) CN110069982A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110781964A (zh) * 2019-10-28 2020-02-11 兰州交通大学 一种基于视频图像的人体目标检测方法及系统
CN110852358A (zh) * 2019-10-29 2020-02-28 中国科学院上海微系统与信息技术研究所 一种基于深度学习的车辆类型判别方法
CN111444916A (zh) * 2020-03-26 2020-07-24 中科海微(北京)科技有限公司 面向无约束条件下的车牌定位及识别方法、系统
CN112464911A (zh) * 2020-12-21 2021-03-09 青岛科技大学 基于改进YOLOv3-tiny的交通标志检测与识别方法
WO2021184628A1 (zh) * 2020-03-18 2021-09-23 平安国际智慧城市科技股份有限公司 一种图像处理方法及装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110781964A (zh) * 2019-10-28 2020-02-11 兰州交通大学 一种基于视频图像的人体目标检测方法及系统
CN110852358A (zh) * 2019-10-29 2020-02-28 中国科学院上海微系统与信息技术研究所 一种基于深度学习的车辆类型判别方法
WO2021184628A1 (zh) * 2020-03-18 2021-09-23 平安国际智慧城市科技股份有限公司 一种图像处理方法及装置
CN111444916A (zh) * 2020-03-26 2020-07-24 中科海微(北京)科技有限公司 面向无约束条件下的车牌定位及识别方法、系统
CN112464911A (zh) * 2020-12-21 2021-03-09 青岛科技大学 基于改进YOLOv3-tiny的交通标志检测与识别方法

Similar Documents

Publication Publication Date Title
CN110069982A (zh) 一种交通车辆与行人的自动识别方法
CN109919072B (zh) 基于深度学习和轨迹跟踪的精细车型识别与流量统计方法
CN107886073B (zh) 一种基于卷积神经网络的细粒度车辆多属性识别方法
CN104508719B (zh) 驾驶辅助系统以及驾驶辅助方法
CN107633220A (zh) 一种基于卷积神经网络的车辆前方目标识别方法
CN106096531A (zh) 一种基于深度学习的交通图像多类型车辆检测方法
CN106372577A (zh) 一种基于深度学习的交通标志自动识别与标注方法
CN107730906A (zh) 斑马线车辆不礼让行人行为的视觉检测系统
CN109977793A (zh) 基于变尺度多特征融合卷积网络的路侧图像行人分割方法
CN107730904A (zh) 基于深度卷积神经网络的多任务车辆逆向行驶视觉检测系统
CN101944174B (zh) 车牌字符的识别方法
CN108509954A (zh) 一种实时交通场景的多车牌动态识别方法
DE102019121785A1 (de) Wahrnehmungsvorrichtung für die Hindernisdetektion und Hindernisverfolgung und Wahrnehmungsverfahren für die Hindernisdetektion und Hindernisverfolgung
CN107609602A (zh) 一种基于卷积神经网络的驾驶场景分类方法
CN103824081B (zh) 一种室外恶劣光照条件下的快速鲁棒交通标志检测方法
CN105844257A (zh) 基于机器视觉雾天行车错失道路标志牌的预警系统及方法
CN105938560A (zh) 一种基于卷积神经网络的车型精细分类系统
CN109948416A (zh) 一种基于深度学习的违法占用公交车道自动审核方法
CN108537197A (zh) 一种基于深度学习的车道线检测预警装置及预警方法
CN105354568A (zh) 基于卷积神经网络的车标识别方法
CN107133974A (zh) 高斯背景建模与循环神经网络相结合的车型分类方法
CN109190444A (zh) 一种基于视频的收费车道车辆特征识别系统的实现方法
CN107886731A (zh) 一种非法营运车辆智能检测方法
CN106934374A (zh) 一种雾霾场景中交通标识牌的识别方法及系统
CN110009648A (zh) 基于深浅特征融合卷积神经网络的路侧图像车辆分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190730