CN113111859B - 一种基于深度学习的车牌去除模糊检测方法 - Google Patents
一种基于深度学习的车牌去除模糊检测方法 Download PDFInfo
- Publication number
- CN113111859B CN113111859B CN202110514778.4A CN202110514778A CN113111859B CN 113111859 B CN113111859 B CN 113111859B CN 202110514778 A CN202110514778 A CN 202110514778A CN 113111859 B CN113111859 B CN 113111859B
- Authority
- CN
- China
- Prior art keywords
- network
- net
- deblurring
- license plate
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 53
- 238000013135 deep learning Methods 0.000 title claims abstract description 10
- 238000000034 method Methods 0.000 claims abstract description 15
- 238000012549 training Methods 0.000 claims abstract description 13
- 238000013526 transfer learning Methods 0.000 claims abstract description 7
- 238000012545 processing Methods 0.000 claims abstract description 6
- 230000006870 function Effects 0.000 claims description 13
- 238000005516 engineering process Methods 0.000 claims description 10
- 238000010586 diagram Methods 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 5
- 238000013459 approach Methods 0.000 claims description 2
- 238000012360 testing method Methods 0.000 abstract description 3
- 238000013461 design Methods 0.000 abstract description 2
- 238000002474 experimental method Methods 0.000 abstract description 2
- 238000004364 calculation method Methods 0.000 description 15
- 230000000694 effects Effects 0.000 description 4
- 230000004927 fusion Effects 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/625—License plates
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
一种基于深度学习的车牌去模糊检测方法,该方法受到YOLOv5网络的启发设计了一个全新的网络:YD‑NET去模糊检测网络。采用高速相机拍摄多段公路上车辆行驶时的视频,使用平均连续的短曝光帧来接近长曝光帧,从而得到大量包含清晰车牌和模糊车牌的图片对,经过数据处理后得到数据集;利用迁移学习加载YOLOv5的部分预训练权重后训练YD‑NET去模糊检测网络,不断调整超参数,直至得到最优网络;测试训练好的YD‑NET模型,利用实验指标评价模型性能。本发明不仅可以在自然场景下快速检测出图像中车牌的位置,还能有效的去除由于车辆高速行驶所产生的模糊,经过理论分析与实验证明,该方法具有良好的性能且不依赖于价格高昂的高端显卡设备也可以满足实时处理的要求,具有推广价值。
Description
技术领域
本发明属于计算机视觉领域,具体涉及一种基于深度学习的车牌去除模糊检测方法。
背景技术
自动车牌识别automatic license plate recognition(ALPR)是一项重要任务,在智能交通和监视领域中具有多种相关的应用,例如自动交通执法,检测被盗车辆,违章收费,交通流量控制等。ALPR问题可分为以下三个子任务:车牌检测license platedetection(LPD),车牌分割license Plate segmentation(LPS)和字符识别characterrecognition(CR)。
目前大多数车牌检测系统只适用于固定场景,比如收费站的车牌检测、停车场管理等。但是在自然场景下,会出现复杂多变的情况,捕获的车牌图像中会包含大量噪声,传统的车牌检测系统很难在复杂的自然场景中取得精确实时的性能。
近年来,深度学习的迅速发展给车牌检测提供了新方法,即使在复杂多变的场景中也具有较好的性能。但是,当车辆高速行驶时,可能会导致拍到的车牌图像模糊不清,这无疑会给车牌识别系统带来巨大的困难。
目前,YOLOv5网络是目前检测速度和检测精度都十分优越的目标检测网络,其输入端应用了Mosaic数据增强技术,以及自适应锚点计算来代替YOLOv4的先验聚类,主干网应用了CSP及Focus结构,Neck采用了CSP结构和特征金字塔Feature PyramidNetwork(FPN)以及路径聚合网络path aggregationnetwork(PANet)结构。
发明内容
本发明的目的是克服现有技术的上述缺陷,提供一种基于深度学习的车牌去除模糊检测方法,该方法在YOLOv5网络的启发下设计了一个全新的网络,我们将其命名为YD-NET去模糊检测网络。本方法在YOLOv5m网络的基础上引入了去模糊分支,该分支采用对抗生成技术,且在多任务损失函数融合上使用了gradient normalization(GradNorm)融合技术来得到更稳定的模型训练结果。本方法最大的优点在于,保留了YOLOv5m的高效性,使网络能在快速检测车牌目标的同时去除由于车辆高速行驶所产生的图像模糊,且不会将原本清晰的图片模糊化,该方法具有良好的性能且不依赖于价格高昂的显卡设备,可以满足实时处理的要求,有推广意义。
本发明采用的技术方案为:
采用高速相机拍摄多段公路上车辆行驶时的视频,使用平均连续的短曝光帧来接近长曝光帧,从而得到大量包含清晰车牌和模糊车牌的图片对,经过数据处理后得到数据集;
利用迁移学习加载YOLOv5m网络的部分预训练权重,适当的调整YD-NET去模糊检测网络的超参数后训练网络,通过反向传播不断优化YD-NET的损失函数,直至得到最优网络;
测试训练好的模型,利用实验指标评价模型性能。
进一步的,所述的得到数据集的具体方法为:为了模拟30fps视频下车辆产生的运动模糊,我们以240fps的相机拍摄多段公路上车辆行驶时的视频后每八帧进行一次采样,得到30fps的真实清晰视频。然后求取余下7帧的平均时间中心窗口(每侧3帧)以生成可以逼近30fps下真实情况的运动模糊(该方法经过大量实验证明,具有很好的性能,可以产生逼近真实情况的运动模糊)。将视频分解为图像序列后人工标注清晰图片中的车牌位置信息,然后将模糊图片与其对应的清晰图片进行同样的图像增强操作,具体为:翻转、裁剪、改变对比度、调整饱和度、拼接。将得到的图像对和位置信息组合为模型的数据集。其中模型输入包含模糊或清晰的图片,输出包含输入对应的清晰图片以及车牌的位置信息。
进一步的,所述的利用迁移学习加载YOLOv5m的部分预训练权重具体为:将YOLOv5m在数据集COCO上预训练的模型权重参数通过迁移学习加载到YD-NET去模糊检测网络的主干网络以及部分目标检测分支中。
进一步的,所述的YD-NET去模糊检测网络具体为:
采用带有Focus结构的CSPDarknet53作为主干网来提取输入图片的底层特征;从主干网中输出7个不同层次的特征图,其中3个特征图连接YOLOv5m中的CSP结构块,并结合FPN和PANet构成YD-NET网络的目标检测分支,用于预测输入图片中车牌的位置。另外4个特征图通过卷积、上采样,拼接等方式构成YD-NET网络的去模糊分支,用来去除输入图片中的模糊;
其中去模糊分支采用对抗生成技术(GAN),其对应的判别器为双链判别器,用于区分真实清晰的图片与YD-NET网络中的去模糊分支生成的图片,并且同时也为YD-NET提供更加可靠的梯度下降方向。双链判别器包括全局判别器和局部判别器。
进一步的,所述的YD-NET去模糊检测网络的损失函数具体为:
我们可以将YD-NET去模糊检测网络划分为两个子任务,任务一是YOLOv5目标检测分支的损失L1(与原文一致),任务二是去模糊分支损失L2,其计算公式如下:
其中mean(·)表示均值,MSE(·)表示均方误差,Imgr,Imgf分别表示当前输入的真实图片和YD-NET去模糊分支生成的图片,分别表示Imgr,Imgf经过VGG16网络的前15层输出的两个特征向量,Lg(Locald),Lg(Globald)分别表示去模糊分支中的局部判别器损失和全局判别器损失,计算公式如下:
其中net为局部判别器或全局判别器网络,E(·)表示期望(针对保存在缓冲区的过去样本),当采用局部判别器Locald时,net=Locald,当采用全局判别器Globald时,net=Globald。
YD-NET去模糊分支采用对抗生成技术,其对应的判别器损失为:
任务一和任务二的损失函数融合采用梯度标准化GradNorm技术来更新任务权重,不仅能让两个任务的损失函数的数量级相近,还能平衡学习速度,计算公式如下:
L(t)=∑iωi(t)*Li(t) (4)
其中Li(t)表示每个任务的损失函数,ωi(t)表示每个任务的权重,更新公式如下:
其中ε表示调节参数,LGL表示梯度损失,计算公式如下:
其中w表示最后一个共享层的权重。
进一步的,所述的利用实验指标评价模型性能具体为:
车牌检测的准确性用精确度P(precision)、召回率R(recall)以及两者的积分AP评价,指标越大,模型检测性能越好。计算公式如下:
其中TP表示真实值是车牌,预测值也是车牌的数量;FP表示真实值不是车牌,预测值是车牌的数量;FN表示真实值是车牌,预测值不是车牌的数量。
车牌图像的清晰程度,用峰值信噪比Peak Signal-to-Noise Ratio(PSNR)和结构相似性Structural Similarity(SSIM)评价,PSNR和SSIM的数值越大,表示图像失真越小。计算公式如下:
本发明的有益效果:
1)本发明不仅能够精确实时的检测出车牌位置,还能去除由于车辆高速行驶带来的车牌模糊,有利于进一步的车牌识别。
2)本发明的YD-NET去模糊检测网络为一步的端到端网络,可以直接对车牌进行去模糊检测,相比于先去除模糊,再检测车牌位置的两步级联深度学习方法,在检测速度和车牌识别精度上具有明显优势。
3)本发明的YD-NET保留了YOLOv5m检测网络速度快和检测精度高的特点,且并不依赖于价格高昂的显卡设备,减少了设备成本,在对高速移动车辆进行车牌检测的应用中具有积极意义。
附图说明
图1是本发明的整体流程图。
图2是YD-NET去模糊检测网络结构图。
图3是YD-NET在白天车牌去模糊检测效果图。
图4是YD-NET在黑天车牌去模糊检测效果图。
图2中:判别器表示YD-NET去模糊分支对应的判别器部分,feature map表示特征层,Conv表示卷积层,Upsample表示双线性插值上采样,CNL表示先卷积、归一化、再用Leakyrelu激活函数,Upsample+CNL表示先上采样再经过CNL,concat表示拼接操作。
具体实施方式
如图1所示,一种基于深度学习的车牌去模糊检测方法,采用高速相机拍摄多段公路上车辆行驶时的视频,使用平均连续的短曝光帧来接近长曝光帧,从而得到大量包含清晰车牌和模糊车牌的图片对,经过数据处理后得到数据集;利用迁移学习加载YOLOv5网络的部分预训练权重,适当的调整YD-NET去模糊检测网络的超参数后训练网络,通过反向传播不断优化YD-NET的损失函数,直至得到最优网络;测试训练好的模型,利用实验指标评价模型性能。
进一步的,所述的得到数据集的具体方法为:为了模拟30fps视频下车辆产生的运动模糊,我们以240fps的相机拍摄多段公路上车辆行驶时的视频后每八帧进行一次采样,得到30fps的真实清晰视频。然后求取余下7帧的平均时间中心窗口,每侧3帧,以生成可以逼近30fps下真实情况的运动模糊,该方法经过大量实验证明,具有很好的性能,可以产生逼近真实情况的运动模糊。将视频分解为图像序列后人工标注清晰图片中的车牌位置信息,然后将模糊图片与其对应的清晰图片进行同样的图像增强操作,具体为:翻转、裁剪、改变对比度、调整饱和度、拼接。将得到的图像对和位置信息组合为模型的数据集。其中模型输入包含模糊或清晰的图片,输出包含输入对应的清晰图片以及车牌的位置信息。如图3、图4所示的Input和Target即为数据集中的两个清晰车牌和模糊车牌的图片对。
进一步的,所述的利用迁移学习加载YOLOv5的部分预训练权重具体为:将YOLOv5m在数据集COCO上预训练的模型权重参数,通过迁移学习加载到YD-NET去模糊检测网络的主干网络以及部分目标检测分支中。
进一步的,所述的YD-NET去模糊检测网络如图2所示,具体为:
采用带有Focus结构的CSP Darknet53作为主干网来提取输入图片的底层特征;从主干网中输出7个不同层次的特征图,其中3个特征图连接YOLOv5中的CSP结构块,并结合FPN和PANet构成YD-NET网络的目标检测分支,用于预测输入图片中车牌的位置。另外4个特征图通过卷积、上采样,拼接等方式构成YD-NET网络的去模糊分支,用来去除输入图片中的模糊,生成清晰的图片;
其中去模糊分支采用对抗生成技术(GAN),其对应的判别器为双链判别器,用于区分真实清晰的图片与YD-NET网络中的去模糊分支生成的图片,并且也为YD-NET提供更加可靠的梯度下降方向。双链判别器包括全局判别器和局部判别器。
进一步的,所述的YD-NET去模糊检测网络的损失函数具体为:
将YD-NET去模糊检测网络划分为两个子任务,任务一是YOLOv5目标检测分支的损失L1(与原文一致),任务二是去模糊分支损失L2,其计算公式如下:
其中mean(·)表示均值,MSE(·)表示均方误差,Imgr,Imgf分别表示当前输入的真实图片和YD-NET去模糊分支生成的图片,分别表示Imgr,Imgf经过VGG16网络的前15层输出的两个向量值,Lg(Locald),Lg(Globald)分别表示去模糊分支生成器中的局部判别器损失和全局判别器损失,计算公式如下:
其中net为局部判别器或全局判别器网络,E(·)表示期望(针对保存在缓冲区的过去样本),当采用局部判别器Locald时,net=Locald,当采用全局判别器Globald时,net=Globald。
YD-NET去模糊分支采用对抗生成技术,其对应的判别器损失为:
任务一和任务二的损失函数融合采用梯度标准化GradNorm技术来更新权重,不仅能让两个任务的损失函数的数量级相近,还能平衡学习速度,计算公式如下:
L(t)=∑iωi(t)*Li(t) (4)
其中Li(t)表示每个任务的损失函数,ωi(t)表示每个任务的权重,更新公式如下:
其中ε表示调节参数,LGL表示梯度损失,计算公式如下:
其中w表示最后一个共享层的权重。
进一步的,所述的利用实验指标评价模型性能具体为:
车牌检测的准确性用精确度P(precision)、召回率R(recall)以及两者的积分AP评价,指标越大,模型检测性能越好。计算公式如下:
其中TP表示真实值是车牌,预测值也是车牌的数量;FP表示真实值不是车牌,预测值是车牌的数量;FN表示真实值是车牌,预测值不是车牌的数量。
车牌图像的清晰程度,用峰值信噪比Peak Signal-to-Noise Ratio(PSNR)和结构相似性Structural Similarity(SSIM)评价,PSNR和SSIM的数值越大,表示图像失真越小。计算公式如下:
其中分别表示Imgr,Imgf的像素均值,分别表示Imgr,Imgf的像素方差,c1,c2表示常数。评价结果如表1所示,YD-NET在白天车牌去模糊检测效果如图3所示,YD-NET在黑天车牌去模糊检测效果如图4所示。
表1:YD-NET去模糊检测网络的实验性能表
Claims (2)
1.一种基于深度学习的车牌去模糊检测方法,采用高速相机拍摄多段公路上车辆行驶时的视频,使用平均连续的短曝光帧来接近长曝光帧,从而得到大量包含清晰车牌和模糊车牌的图片对,经过数据处理后得到数据集;利用迁移学习加载YOLOv5网络的部分预训练权重,适当的调整YD-NET去模糊检测网络的超参数后训练网络,通过反向传播不断优化YD-NET的损失函数,直至得到最优网络,其特征在于:所述的YD-NET去模糊检测网络具体包括采用带有Focus结构的CSP Darknet53作为主干网来提取输入图片的底层特征;从主干网中输出7个不同层次的特征图,其中3个特征图连接YOLOv5中的CSP结构块,并结合FPN和PANet构成YD-NET网络的目标检测分支,用于预测输入图片中车牌的位置;另外4个特征图通过卷积、上采样,拼接方式构成YD-NET网络的去模糊分支,用来去除输入图片中的模糊,生成清晰的图片。
2.根据权利要求1所述的一种基于深度学习的车牌去模糊检测方法,其特征在于:所述的YD-NET网络的去模糊分支采用对抗生成技术,其对应的判别器为双链判别器,用于区分真实清晰的图片与YD-NET网络中的去模糊分支生成的图片,并且同时也为YD-NET提供更加可靠的梯度下降方向。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110514778.4A CN113111859B (zh) | 2021-05-12 | 2021-05-12 | 一种基于深度学习的车牌去除模糊检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110514778.4A CN113111859B (zh) | 2021-05-12 | 2021-05-12 | 一种基于深度学习的车牌去除模糊检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113111859A CN113111859A (zh) | 2021-07-13 |
CN113111859B true CN113111859B (zh) | 2022-04-19 |
Family
ID=76721926
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110514778.4A Expired - Fee Related CN113111859B (zh) | 2021-05-12 | 2021-05-12 | 一种基于深度学习的车牌去除模糊检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113111859B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114898352A (zh) * | 2022-06-29 | 2022-08-12 | 松立控股集团股份有限公司 | 一种同时实现图像去雾与车牌检测的方法 |
CN117649364B (zh) * | 2024-01-30 | 2024-05-07 | 安徽大学 | 基于改进DeblurGANv2模型的真菌孢子显微图像去模糊方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109886147A (zh) * | 2019-01-29 | 2019-06-14 | 电子科技大学 | 一种基于单网络多任务学习的车辆多属性检测方法 |
CN109948490A (zh) * | 2019-03-11 | 2019-06-28 | 浙江工业大学 | 一种基于行人重识别的员工特定行为记录方法 |
CN110276253A (zh) * | 2019-05-15 | 2019-09-24 | 中国科学院信息工程研究所 | 一种基于深度学习的模糊文字检测识别方法 |
CN112733691A (zh) * | 2021-01-04 | 2021-04-30 | 北京工业大学 | 一种基于注意力机制的多方向的无人机航拍的车辆检测方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10289951B2 (en) * | 2016-11-02 | 2019-05-14 | Adobe Inc. | Video deblurring using neural networks |
CN109284733B (zh) * | 2018-10-15 | 2021-02-02 | 浙江工业大学 | 一种基于yolo和多任务卷积神经网络的导购消极行为监控方法 |
CN110163069B (zh) * | 2019-01-04 | 2023-09-08 | 深圳市布谷鸟科技有限公司 | 用于辅助驾驶的车道线检测方法 |
CN110782399B (zh) * | 2019-08-22 | 2023-05-12 | 天津大学 | 一种基于多任务cnn的图像去模糊方法 |
CN111899172A (zh) * | 2020-07-16 | 2020-11-06 | 武汉大学 | 一种面向遥感应用场景的车辆目标检测方法 |
-
2021
- 2021-05-12 CN CN202110514778.4A patent/CN113111859B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109886147A (zh) * | 2019-01-29 | 2019-06-14 | 电子科技大学 | 一种基于单网络多任务学习的车辆多属性检测方法 |
CN109948490A (zh) * | 2019-03-11 | 2019-06-28 | 浙江工业大学 | 一种基于行人重识别的员工特定行为记录方法 |
CN110276253A (zh) * | 2019-05-15 | 2019-09-24 | 中国科学院信息工程研究所 | 一种基于深度学习的模糊文字检测识别方法 |
CN112733691A (zh) * | 2021-01-04 | 2021-04-30 | 北京工业大学 | 一种基于注意力机制的多方向的无人机航拍的车辆检测方法 |
Non-Patent Citations (2)
Title |
---|
Detecting Motion Blurred Vehicle Logo in IoV Using Filter-DeblurGAN and VL-YOLO;Linghua Zhou et al.;《 IEEE Transactions on Vehicular Technology》;20200127;3604-3614 * |
基于多任务卷积神经网络的车道线与车辆检测方法研究;黎铭浩;《中国优秀硕士学位论文全文数据库 (工程科技Ⅱ辑)》;20210215;第48-73页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113111859A (zh) | 2021-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113111859B (zh) | 一种基于深度学习的车牌去除模糊检测方法 | |
CN110717387B (zh) | 一种基于无人机平台的实时车辆检测方法 | |
CN112215074A (zh) | 基于无人机视觉的实时目标识别与检测追踪系统及方法 | |
WO2023207742A1 (zh) | 一种交通异常行为检测方法与系统 | |
CN115601717B (zh) | 基于深度学习的交通违法行为分类检测方法及SoC芯片 | |
Sun et al. | A convolutional network for joint deraining and dehazing from a single image for autonomous driving in rain | |
CN115376108A (zh) | 一种复杂天气下障碍物检测方法及装置 | |
Ho et al. | Vehicle detection at night time | |
CN114187581A (zh) | 一种基于无监督学习的驾驶员分心细粒度检测方法 | |
Piérard et al. | Mixture domain adaptation to improve semantic segmentation in real-world surveillance | |
Wang et al. | Variant-depth neural networks for deblurring traffic images in intelligent transportation systems | |
CN111160282B (zh) | 一种基于二值化Yolov3网络的红绿灯检测方法 | |
Wei et al. | Dynamic scene deblurring and image de-raining based on generative adversarial networks and transfer learning for internet of vehicle | |
Singh et al. | A review on gan based image dehazing | |
CN114565597A (zh) | 一种基于YOLOv3-tiny-DB和迁移学习的夜间道路行人检测方法 | |
CN114612999A (zh) | 一种目标行为分类方法、存储介质及终端 | |
Fan et al. | Multi-class lane semantic segmentation of expressway dataset based on aerial view | |
Vasudha et al. | Carriageway Edge Detection for Unmarked Urban Roads using Deep Learning Techniques | |
CN114694091B (zh) | 一种复杂交通环境下基于监控视频的交通参与者检测方法 | |
CN112712011B (zh) | 基于边界细节补偿和相似特征强化的实时道路检测方法 | |
CN117391177B (zh) | 一种驾驶员行为检测模型的构建方法及应用 | |
Mien et al. | Estimating Traffic Density in Uncertain Environment: A Case Study of Danang, Vietnam | |
Ziaratnia et al. | Development of Robust Vehicle Classification and Tracking for Traffic Analysis | |
ALzubaidy et al. | Implementing deep learning and CNNs for vehicle detection to alleviate highway traffic congestion | |
Sharma et al. | Categorical vehicle classification and tracking using deep neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220419 |
|
CF01 | Termination of patent right due to non-payment of annual fee |