CN114627405A - 一种车辆集成视觉识别方法 - Google Patents
一种车辆集成视觉识别方法 Download PDFInfo
- Publication number
- CN114627405A CN114627405A CN202210133912.0A CN202210133912A CN114627405A CN 114627405 A CN114627405 A CN 114627405A CN 202210133912 A CN202210133912 A CN 202210133912A CN 114627405 A CN114627405 A CN 114627405A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- detection model
- visual angle
- model
- view
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/285—Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种车辆集成视觉识别方法,利用所述无人机视角检测模型,对所述导入视频材料全天候无人机视角下的车流量信息进行检测,利用所述电子警察视角检测模型,对所述导入视频材料全天候电子警察视角下的车流量信息进行检测,利用所述路人视角检测模型,对所述导入视频材料全天候路人视角下的车流量信息进行检测,利用所述夜间红外视频检测模型,对所述导入视频材料夜间电子警察视角和路人视角下的车流量信息进行检测,实现了对夜间、雨天、雾天等光图像情况不良条件下交叉路口的全天候多视角车流量信息的检测,有效地降低车辆检测的漏检率和误检率。
Description
技术领域
本发明涉及信息采集领域,特别是涉及一种车辆集成视觉识别方法以及计算机可读存储介质。
背景技术
随着我国城市化建设的速度逐年提升,公民的汽车拥有量随之逐年增加,这导致了交通流延误概率的增加,进而使交通系统的效益受损。因此对车辆的精细化管理变得十分迫切,而掌握车辆行为特征是实行精细化管理的重要前提。现阶段对于路口车辆轨迹车辆方向特征提取的方式仍主要依赖人工经验和交通雷达。现有雷达技术通过多方多收的天线模式,结合信号处理技术检测从而精准定位,轨迹追踪,但是在可视化特征数据上存在巨大的缺陷,且在成本与维修方面存在一定的问题。而国内的交叉口流量监测多数依赖于地感线圈,但线圈的故障率较高,埋入地下固定后维修困难,如果要获取车辆的全时空轨迹,需要较密集的安装方式和较高的成本。现有大多数视频图像检测模型大多仅仅在可见光照明条件良好,清晰度高的视频环境下进行实现,又由于可见光图像在不良的照明情况下,易缺失车辆特征信息,难以实现对于交通场景的全天候识别分析。因此需要设计一个车辆多角度全天候的识别算法,以解决以往视频中存在漏检和误检问题。
发明内容
本发明的目的是提供一种车辆集成视觉识别方法,以解决现有技术在可见光图像在不良的照明情况下易缺失车辆特征信息,难以对交通环境的全天候识别分析。
为解决上述技术问题,本发明提供一种车辆集成视觉识别方法,包括:
构建车辆集成视觉识别算法模型,其中,所述车辆集成视觉识别算法模型包括集成选择模型和多视角检测模型,所述多视角检测模型包括无人机视角检测模型、电子警察视角检测模型、路人视角检测模型;
利用多视角下日间、雾天、雨天的数据集对所述多视角检测模型训练学习,得到训练后的多视角检测模型;
识别待检测视频的视角类型,所述集成选择模型根据所述待检测视频的视角类型调用所述训练后的多视角检测模型中与所述待检测视频匹配的车辆检测模型;
利用所述匹配的车辆检测模型检测所述待检测视频中车辆信息,输出检测结果。
优选地,所述无人机视角检测模型采用YOLOv4算法模型。
优选地,所述YOLOv4算法模型包括:
主体YOLOv3算法、骨干网络CSPDarknet53、附加模块SPP、PANet网络和Prediction模块。
优选地,利用多视角下日间、雾天、雨天的数据集对所述多视角检测模型训练学习包括:
放大采集的无人机视角视频中的车辆特征;
对放大车辆特征后的无人机视角视频分帧;
利用标注软件对分帧后的照片进行车辆标注和反标注,得到所述无人机视角检测模型的训练集;
根据所述训练集对所述无人机视角检测模型进行预训练;
利用预训练后的无人机视角检测模型对车辆特征进行深度学习,并结合反标注标签的反例识别进行纵向训练,得到训练完成的无人机视角检测模型。
优选地,所述多视角下日间、雾天、雨天的数据集包括:
无人机视角下日间、雾天、雨天不同型号的车辆视频、电子警察视角下日间、雾天、雨天不同型号的车辆视频、路人视角下日间、雾天、雨天不同型号的车辆视频。
优选地,所述电子警察视角检测模型与所述路人视角检测模型均采用YOLOv3算法模型。
优选地,所述YOLOv3算法模型包括:
骨干网络DarkNet53、多尺度预测网络和激活函数sigmoid。
优选地,所述车辆集成视觉识别算法模型还包括:
夜间红外视频检测模型,所述夜间红外视频检测模型采用YOLOv4算法模型。
优选地,所述夜间红外视频检测模型识别过程对车辆红外图像中红色高温区域进行正向识别和反向识别。
优选地,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至9任一项所述一种车辆集成视觉识别方法的步骤。
本发明所提供的一种车辆集成视觉识别方法,构建车辆集成视觉识别算法模型,其中所述车辆集成视觉识别算法包括集成选择模型和多视角检测模型,利用多视角下日间、雾天、雨天的数据集对所述多视角检测模型训练学习,得到训练后的多视角检测模型,利用所述训练后的多视角检测模型检测待测视频中车辆信息,实现了对雨天、雾天等条件下交叉路口的全天候车流量信息的检测,有效地降低系统对车辆检测的漏检率和误检率。
附图说明
为了更清楚的说明本发明实施例或现有技术的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明所提供的一种车辆集成视觉识别方法的第一种具体实施例的流程图;
图2为车辆集成视觉识别方法示意图;
图3为本发明所提供的一种车辆集成视觉识别方法的第二种具体实施例的流程图;
图4为高空无人机视角下识别效果图;
图5为高空无人机视角下识别效果图;
图6为电子警察视角下雨天车辆识别效果图;
图7为电子警察视角下雨天车辆识别效果图;
图8为雾天环境车辆识别效果图;
图9为路人视角下雨天车辆识别效果图;
图10为红外视角下车辆识别效果图;
图11为红外视角下车辆识别效果图。
具体实施方式
本发明的核心是提供一种车辆集成视觉识别方法,通过引入多种类目标检测算法,同时借助无人机、红外技术,实现了对夜间、雨天、雾天等条件下交叉路口的全天候车流量信息检测,降低了系统对车辆检测的漏检率和误检率。
为了使本技术领域的人员更好地理解本发明方案,下面结合附图和具体实施方式对本发明作进一步的详细说明。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参考图1,图1为本发明所提供的一种车辆集成视觉识别方法的第一种具体实施例的流程图;具体操作步骤如下:
步骤S101:构建车辆集成视觉识别算法模型;
如图2所示,车辆集成视觉识别方法示意图;
其中,所述车辆集成视觉识别算法模型包括集成选择模型和多视角检测模型,所述多视角检测模型包括无人机视角检测模型、电子警察视角检测模型、路人视角检测模型。
步骤S102:利用多视角下日间、雾天、雨天的数据集对所述多视角检测模型训练学习,得到训练后的多视角检测模型;
步骤S103:识别待检测视频的视角类型,所述集成选择模型根据所述待检测视频的视角类型调用所述训练后的多视角检测模型中与所述待检测视频匹配的车辆检测模型;
步骤S104:利用所述匹配的车辆检测模型检测所述待检测视频中车辆信息,输出检测结果。
本实施例所提供的车辆集成视觉识别方法构建了车辆集成视觉识别算法模型,利用所述多视角下日间、雾天、雨天的数据集对所述多视角检测模型训练学习,实现了对雨天、雾天等条件下交叉路口的全天候车流量信息检测,降低了系统对车辆检测的漏检率和误检率,所述集成选择模块结合无人机视角、电子警察视角和路人视角三种视频源对应的两种算法,实现了对算法模型的集成选择。
基于上述实施例,在本实施例中,重点对所述无人机视角检测模型结构及训练过程进行解释说明;
请参考图3,图3为本发明所提供的一种车辆集成视觉识别方法的第二种具体实施例的流程图;具体操作步骤如下:
步骤S201:构建车辆集成视觉识别算法模型;
所述无人机视角检测模型采用YOLOv4算法模型,所述YOLOv4算法模型包括主体YOLOv3算法、骨干网络CSPDarknet53、附加模块SPP和PANet网络,其中具体有以下组件:
CBM:Yolov4网络结构中的最小组件,由Conv+Bn+Mish激活函数三者组成。
CBL:由Conv+Bn+Leaky_relu激活函数三者组成。
Res unit:借鉴Resnet网络中的残差结构,让网络可以构建的更深。
CSPX:借鉴CSPNet网络结构,由卷积层和X个Res unint模块Concate组成。
SPP:SPP网络用在YOLOv4中的目的是增加网络的感受野。实现是对layer进行5×5、9×9、13×13的最大池化,分别得到另外三层layer完成池化后,再将这三层layer进行concatenate,连接成一个特征图并通过1×1降维到512个通道。
步骤S202:放大采集的无人机视角视频中的车辆特征;
取800余帧无人机视角的车辆视频,将所述车辆视频放大到车辆特征较为明显的像素。
步骤S203:对放大车辆特征后的无人机视角视频分帧;
将所述放大后的视频按每秒3张照片进行分帧后标注。
步骤S204:利用标注软件对分帧后的照片进行车辆标注和反标注,得到所述无人机视角检测模型的训练集;
选取其中标注好的500张车辆图片在YOLOv4算法中进行识别训练。
步骤S205:根据所述训练集对所述无人机视角检测模型进行预训练;
步骤S206:利用预训练后的无人机视角检测模型对车辆特征进行深度学习,并结合反标注标签的反例识别进行纵向训练,得到训练完成的无人机视角检测模型;
所述无人机视角检测模型首先我们将采集到的无人机视频放大到车辆特征较为明显的像素,然后对视频按每秒3张照片左右进行分帧,对近200张分帧照片采用labelImg进行车辆标注和反标注,进行预模型训练,再通过增加很小的计算量就可以极大的提高模型精度的方法Bag of specials,其结合数据增强data augmentation、正则化方法、难例挖掘和MSE等损失函数对模型进行深度优化,对无人机视角下的车辆特征如车顶、天窗、挡风玻璃、引擎盖等进行深度学习并结合反标注标签的反例识别进行纵向训练,从而进行对整个无人机视频的识别工作。
步骤S207:利用所述无人机视角检测模块将剩余车辆图片检测,输出检测结果。
最终的识别效果如图4、图5所示;
如表1所示,白天高空无人机视角下识别结果表;
本实施例所提供的车辆集成视觉识别方法重点描述了所述无人机视角检测模型的训练和识别过程,根据所述无人机视角下日间、雾天、雨天的数据集训练所述无人机视角识别模型,实现了无人机视角下的全天候车流量信息检测。
基于上述实施例,在本实施例中,重点对所述电子警察视角检测模型结构及训练过程进行解释说明;具体操作步骤如下:
所述电子警察视角检测模型日间、雾天和雨天两种天气情况下均采用基于深度学习的回归方法——YOLOv3算法。YOLOv3算法的对于目标检测的准确率和检测速度有很大的提升,并且相比于YOLOv2使用了更加深的骨干网络DarkNet53,同时加入了多尺度预测,能够实现多尺度目标检测;在分类上使用sigmoid激活函数,支持了目标的多分类。
所述电子警察视角检测模型训练过程包括:
将输入图片缩放到416x416,通过特征提取网络(Darknet53without FC layer)进行了5次下采样,还用了残差网络,目的是使网络在深层能够很快的收敛继续训练下去,然后通过yolo层对输入图像提取特征得到大小一定的特征图13x13,输出的特征图经过DBL后的13×13的特征图上采样后与倒数第二次下采样的结果相加,二者都为26×26,然后再进行同样的后续操作。最后是26×26的特征图上采样后与倒数第三次下采样的特征图相加,即还为26×26,再进行后续操作。
最后会输出三个不同尺度的特征图(即多尺度预测),每个尺度的特征图用来预测不同大小的目标,比如小尺度13x13可以预测大目标,中尺度26x26预测中目标,大尺度52x52预测小目标。而后,每个特征图对应3种anchor大小不同的负责预测目标,这样就可以实现多尺度目标的检测;
实拍雨天视频进行测试,最终检测结果如图6、图7;
雨天车辆检测使用voc2007与coco数据集进行模型训练,实拍雨天视频进行测试,最终得到如下检测结果,其检测平均准确度达到86.67%。
表2为雨天电子警察视角检测结果;
雾天环境车辆识别测试:雾天车辆检测使用RESIDE数据集进行模型训练,实拍雾天视频进行测试,最终检测结果如图8所示,其检测准确度达到100%;
表3为雾天电子警察视角检测结果;
测试例 | 车辆实际数 | 车辆检测结果 | 精度% | FPS |
雾天车辆视频 | 12 | 12 | 100 | 3.87 |
本实施例所提供的车辆集成视觉识别方法重点描述了所述电子警察视角检测模型的结构及训练过程,根据所述电子警察视角下日间、雾天、雨天的数据集训练所述电子警察视角识别模型,实现了电子警察视角下的全天候车流量信息检测。
基于上述实施例,在本实施例中,对所述路人视角检测模型结构及训练过程进行说明;具体操作步骤如下:
所述路人视角检测模型日间、雾天、雨天的车辆检测采用的是YOLOv3算法;其训练过程与所述电子警察视角检测模型训练过程一致,再此不多做详细解释说明;
由于路人视角下视频存在车辆完全遮挡这类特殊情况,这也是我们选择精度更高的YOLOv3算法的原因。也因为路人视角下的视频素材易于我们拍摄,我们针对大量路人视角下的车辆进行识别,不断扩充模型数据库,目前已包括路人视角摄像的交叉口车辆照片800余张,标签700余张。
路人视角下雨天车辆识别效果如图9所示;
表4为雨天路人视角检测结果;
表4为雨天路人视角检测结果;
本实施例所提供的车辆集成视觉识别方法重点描述了所述路人视角检测模型的结构及训练过程,根据所述路人视角下日间、雾天、雨天的数据集训练所述路人视角识别模型,实现了路人视角下的全天候车流量信息检测。
基于上述实施例,在本实施例中,对所述夜间红外视频检测模型结构及训练过程进行说明;具体操作步骤如下:
所述夜间红外视频检测模型采用的是YOLOv4算法,其训练过程与所述无人机视角检测模型训练过程一致,再此不多做详细解释说明;
所述夜间红外视频检测模型由于识别过程对红外视频拍摄的色彩对比度要求较高,识别过程中主要对车辆红外图像中的红色高温区域如引擎盖、轮胎等特征进行正向识别和反例识别。数据库目前已包括红外摄像的交叉口车辆照片300余张,标签300余张。
红外视频车辆识别测试:取红外摄像的交叉路口视频作为数据源,以温差颜色作为特征进行识别,取交叉路口图像300余张,制作标签300余张进行训练。训练结果如图10、图11所示;
如表5所示,夜间车辆识别效果;
综上所述,本发明实施例所提供的一种车辆集成视觉识别方法,利用所述无人机视角检测模型、所述电子警察视角检测模型、所述路人视角检测模型、所述夜间红外视频检测模型,对所述导入视频材料的车流量信息进行检测,实现了对夜间、雨天、雾天等光图像不良的条件下交叉路口的全天候多视角车流量信息的检测,有效地降低系统对车辆检测的漏检率和误检率,所述集成选择模块结合无人机视角、电子警察视角和路人视角三种视频源对应的两种算法,实现了对算法模型的集成选择,所述数据集还包括不同型号车辆图像,根据所述不同型号车辆图像对所述多视角检测模型训练,得到可识别不同车辆类型的多视角检测模型,实现了对汽车、卡车等不同型号车辆的分类识别。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上对本发明所提供的一种车辆集成视觉识别方法以及计算机可读存储介质进行了详细介绍。本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
Claims (10)
1.一种车辆集成视觉识别方法,其特征在于,包括:
构建车辆集成视觉识别算法模型,其中,所述车辆集成视觉识别算法模型包括集成选择模型和多视角检测模型,所述多视角检测模型包括无人机视角检测模型、电子警察视角检测模型、路人视角检测模型;
利用多视角下日间、雾天、雨天的数据集对所述多视角检测模型训练学习,得到训练后的多视角检测模型;
识别待检测视频的视角类型,所述集成选择模型根据所述待检测视频的视角类型调用所述训练后的多视角检测模型中与所述待检测视频匹配的车辆检测模型;
利用所述匹配的车辆检测模型检测所述待检测视频中车辆信息,输出检测结果。
2.如权利要求1所述的车辆集成视觉识别方法,其特征在于,所述无人机视角检测模型采用YOLOv4算法模型。
3.如权利要求2所述的车辆集成视觉识别方法,其特征在于,所述YOLOv4算法模型包括:
主体YOLOv3算法、骨干网络CSPDarknet53、附加模块SPP、PANet网络和Prediction模块。
4.如权利要求1所述的车辆集成视觉识别方法,其特征在于,利用多视角下日间、雾天、雨天的数据集对所述多视角检测模型训练学习包括:
放大采集的无人机视角视频中的车辆特征;
对放大车辆特征后的无人机视角视频分帧;
利用标注软件对分帧后的照片进行车辆标注和反标注,得到所述无人机视角检测模型的训练集;
根据所述训练集对所述无人机视角检测模型进行预训练;
利用预训练后的无人机视角检测模型对车辆特征进行深度学习,并结合反标注标签的反例识别进行纵向训练,得到训练完成的无人机视角检测模型。
5.如权利要求1所述的车辆集成视觉识别方法,其特征在于,所述多视角下日间、雾天、雨天的数据集包括:
无人机视角下日间、雾天、雨天不同型号的车辆视频、电子警察视角下日间、雾天、雨天不同型号的车辆视频、路人视角下日间、雾天、雨天不同型号的车辆视频。
6.如权利要求1所述的车辆集成视觉识别方法,其特征在于,所述电子警察视角检测模型与所述路人视角检测模型均采用YOLOv3算法模型。
7.如权利要求6所述的车辆集成视觉识别方法,其特征在于,所述YOLOv3算法模型包括:
骨干网络DarkNet53、多尺度预测网络和激活函数sigmoid。
8.如权利要求1所述的车辆集成视觉识别方法,其特征在于,所述车辆集成视觉识别算法模型还包括:
夜间红外视频检测模型,所述夜间红外视频检测模型采用YOLOv4算法模型。
9.如权利要求8所述的车辆集成视觉识别方法,其特征在于,所述夜间红外视频检测模型识别过程对车辆红外图像中红色高温区域进行正向识别和反向识别。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至9任一项所述一种车辆集成视觉识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210133912.0A CN114627405B (zh) | 2022-02-14 | 2022-02-14 | 一种车辆集成视觉识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210133912.0A CN114627405B (zh) | 2022-02-14 | 2022-02-14 | 一种车辆集成视觉识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114627405A true CN114627405A (zh) | 2022-06-14 |
CN114627405B CN114627405B (zh) | 2022-11-18 |
Family
ID=81897662
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210133912.0A Active CN114627405B (zh) | 2022-02-14 | 2022-02-14 | 一种车辆集成视觉识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114627405B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109582993A (zh) * | 2018-06-20 | 2019-04-05 | 长安大学 | 城市交通场景图像理解与多视角群智优化方法 |
CN110689720A (zh) * | 2019-10-10 | 2020-01-14 | 成都携恩科技有限公司 | 基于无人机的实时动态车流量检测方法 |
CN110796862A (zh) * | 2019-11-05 | 2020-02-14 | 西南交通大学 | 一种基于人工智能的高速公路交通状况检测系统及方法 |
CN110874578A (zh) * | 2019-11-15 | 2020-03-10 | 北京航空航天大学青岛研究院 | 一种基于强化学习的无人机视角车辆识别追踪方法 |
CN112037343A (zh) * | 2020-08-27 | 2020-12-04 | 北京握奇数据股份有限公司 | 一种用于路侧单元的多角度天线装置 |
-
2022
- 2022-02-14 CN CN202210133912.0A patent/CN114627405B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109582993A (zh) * | 2018-06-20 | 2019-04-05 | 长安大学 | 城市交通场景图像理解与多视角群智优化方法 |
CN110689720A (zh) * | 2019-10-10 | 2020-01-14 | 成都携恩科技有限公司 | 基于无人机的实时动态车流量检测方法 |
CN110796862A (zh) * | 2019-11-05 | 2020-02-14 | 西南交通大学 | 一种基于人工智能的高速公路交通状况检测系统及方法 |
CN110874578A (zh) * | 2019-11-15 | 2020-03-10 | 北京航空航天大学青岛研究院 | 一种基于强化学习的无人机视角车辆识别追踪方法 |
CN112037343A (zh) * | 2020-08-27 | 2020-12-04 | 北京握奇数据股份有限公司 | 一种用于路侧单元的多角度天线装置 |
Non-Patent Citations (3)
Title |
---|
HAO XU ET AL.: ""Performance Comparison of small Object Detection Algorithms of UAV based Aerial Images"", 《IEEE》 * |
JINGYE HAN ET AL.: ""Real-tine detection of rise phenoligy through convolutional neural network using handheld camera images"", 《PRECISION AGRICULTURE》 * |
夏武: ""基于深度学习的航拍车流实时检测与追踪方法研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Also Published As
Publication number | Publication date |
---|---|
CN114627405B (zh) | 2022-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10628890B2 (en) | Visual analytics based vehicle insurance anti-fraud detection | |
CN110909666B (zh) | 一种基于改进型YOLOv3卷积神经网络的夜间车辆检测方法 | |
CN109241349B (zh) | 一种基于深度学习的监控视频多目标分类检索方法及系统 | |
CN110717387B (zh) | 一种基于无人机平台的实时车辆检测方法 | |
CN112949633B (zh) | 一种基于改进YOLOv3的红外目标检测方法 | |
CN113762209A (zh) | 一种基于yolo的多尺度并行特征融合路标检测方法 | |
CN106934374B (zh) | 一种雾霾场景中交通标识牌的识别方法及系统 | |
CN107506729B (zh) | 一种基于深度学习的能见度检测方法 | |
CN109086803B (zh) | 一种基于深度学习与个性化因子的雾霾能见度检测系统及方法 | |
CN113723377A (zh) | 一种基于ld-ssd网络的交通标志检测方法 | |
CN109657599B (zh) | 距离自适应的车辆外观部件的图片识别方法 | |
CN114782949B (zh) | 一种边界引导上下文聚合的交通场景语义分割方法 | |
CN114267025A (zh) | 基于高分辨率网络与轻量注意力机制的交通标志检测方法 | |
CN116597270A (zh) | 基于注意力机制集成学习网络的道路损毁目标检测方法 | |
CN113361528A (zh) | 一种多尺度目标检测方法及系统 | |
CN113052071A (zh) | 危化品运输车驾驶员分心行为快速检测方法及系统 | |
CN112597996A (zh) | 基于任务驱动的自然场景中交通标志显著性检测方法 | |
CN114627405B (zh) | 一种车辆集成视觉识别方法 | |
CN114550016B (zh) | 一种基于上下文信息感知的无人机定位方法及系统 | |
CN114882469B (zh) | 一种基于dl-ssd模型的交通标志检测方法及系统 | |
Lashkov et al. | Edge-computing-facilitated nighttime vehicle detection investigations with CLAHE-enhanced images | |
CN115331147A (zh) | 一种基于机器视觉的道路抛洒物检测方法与系统 | |
CN114926456A (zh) | 一种半自动标注和改进深度学习的铁轨异物检测方法 | |
CN115171079A (zh) | 一种基于夜间场景的车辆检测方法 | |
CN113159153A (zh) | 一种基于卷积神经网络的车牌识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |