CN109325502B - 基于视频渐进区域提取的共享单车停放检测方法和系统 - Google Patents
基于视频渐进区域提取的共享单车停放检测方法和系统 Download PDFInfo
- Publication number
- CN109325502B CN109325502B CN201810945899.2A CN201810945899A CN109325502B CN 109325502 B CN109325502 B CN 109325502B CN 201810945899 A CN201810945899 A CN 201810945899A CN 109325502 B CN109325502 B CN 109325502B
- Authority
- CN
- China
- Prior art keywords
- video
- clustering
- target object
- sample data
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于视频渐进区域提取的共享单车停放检测方法,包括有以下步骤:对视频图像进行注意力区域提取处理得到背景图像;对训练集图像中目标对象的长宽值进行聚类;根据聚类结果调整区域卷积神经网络的区域生成网络参数,并采用区域卷积神经网络提取目标对象的候选区域。本发明利用现有部署完善的监控视频系统,采用目标检测技术的过程中,利用聚类方法对目标对象的聚类结果调整区域卷积神经网络的区域生成网络参数,从而能够准确获取目标对象的位置和分类,利于对目标对象的管理规范。本发明作为基于视频渐进区域提取的共享单车停放检测方法和系统可广泛应用于图像处理领域。
Description
技术领域
本发明涉及图像处理领域,尤其是基于视频渐进区域提取的共享单车停放检测方法和系统。
背景技术
随着共享单车的迅猛发展,停放混乱已成为当前城市管理的最大痛点之一。作为处理此问题的常用手段,人工巡查方式工作量大、目标性不强、难以发现非主干道的零散单车,停放问题中,发现乱停放的共享单车是其首要和关键步骤。
在共享单车检测的相关技术中,主要分为两类,一类是人工检测,通过人工查看视频或现实场景,发现是否存在公共自行车存在乱停放现象;第二类主要通过传感设备,利用电子围栏等技术手段设定停车位,确定是否存在乱停放的共享单车。第一类方法准确率高,但不论是通过观看监控视频亦或是人工现场巡查,都将会带来人力物力的极度浪费,效率极其低下。第二类方法常见的有基于卫星定位技术以及基于蓝牙电子标签的电子围栏的方法。基于卫星定位技术(GPS)的电子围栏,其解决了人工观察的巨大工作量,同时也能较准确的检测到共享单车,但受限GPS定位精度与通讯耗电量,无法精准确定共享单车是否是停在规定的停车区域;基于蓝牙电子标签的电子围栏,需要在停放点和车锁内加装蓝牙设备,提供相应的网络与供电服务,增加安装及维护成本,物力消耗较大,且挖坑立杆涉及市政规划管理问题,同时受到定位精度的影响,定位偏差较大。
发明内容
为了解决上述技术问题,本发明的目的是:提供一种基于视频渐进区域提取的高准确度共享单车停放检测方法。
为了解决上述技术问题,本发明的另一目的是:提供一种基于视频渐进区域提取的高准确度共享单车停放检测系统。
本发明所采用的技术方案是:基于视频渐进区域提取的共享单车停放检测方法,包括有以下步骤:
对视频图像进行注意力区域提取处理得到背景图像;
对训练集图像中目标对象的长宽值进行聚类;
根据聚类结果调整区域卷积神经网络的区域生成网络参数,并采用区域卷积神经网络提取目标对象的候选区域。
进一步,所述对训练集图像中目标对象的长宽值进行聚类这一步骤,具体包括有以下子步骤:
获取训练集图像中目标对象的长宽值二维数据作为样本数据集合;
随机选取其中一个二维数据作为初始聚类中心;
计算每个样本数据与当前最近的聚类中心之间的最短距离,计算每个样本被选为下一个聚类中心的概率,概率最大的样本数据作为聚类中心;
重复上一步骤得到多个聚类中心;
根据多个聚类中心将样本数据集合分为多个聚类集合,并对多个聚类集合分别计算新的聚类中心;
重复上一步骤直至所有样本数据与其所属的聚类集合的聚类中心的距离之和最小。
进一步,所述区域卷积神经网络为Faster R-CNN。
进一步,所述根据聚类结果调整区域卷积神经网络的区域生成网络参数,并采用区域卷积神经网络提取目标对象的候选区域这一步骤,具体包括有以下子步骤:
将背景图像提取后的待检测视频帧输入至区域卷积神经网络;
根据聚类得到的长宽值以及长宽值之比调整区域生成网络中的anchors参数,并采用区域生成网络生成候选区域;
利用Softmax分类器和边框回归判断候选区域内是否为目标对象,并获取目标对象的前景位置;
把候选区域映射到卷积神经网络的最后一层卷积特征图上,通过RoI pooling层使每个感兴趣区域生成固定尺寸的特征图;
利用特征图计算目标对象的类别,并利用边框回归获得最终候选区域。
进一步,所述对视频图像进行注意力区域提取处理得到背景图像这一步骤,具体为:
获取视频图像的多个视频帧;
采用混合高斯背景建模去除运动状态下的前景目标,得到背景图像。
本发明所采用的另一技术方案是:基于视频渐进区域提取的共享单车停放检测系统,包括有
注意力区域提取模块,用于对视频图像进行注意力区域提取处理得到背景图像;
聚类模块,用于对训练集图像中目标对象的长宽值进行聚类;
候选区域提取模块,用于根据聚类结果调整区域卷积神经网络的区域生成网络参数,并采用区域卷积神经网络提取目标对象的候选区域。
进一步,所述聚类模块包括有
数据获取子模块,用于获取训练集图像中目标对象的长宽值二维数据作为样本数据集合;
初始聚类中心选择子模块,用于随机选取样本数据集合中的一个二维数据作为初始聚类中心;
多中心计算子模块,用于计算每个样本数据与当前最近的聚类中心之间的最短距离,计算每个样本被选为下一个聚类中心的概率,概率最大的样本数据作为聚类中心;然后重复上述计算过程得到多个聚类中心;
迭代计算子模块,用于根据多个聚类中心将样本数据集合分为多个聚类集合,并对多个聚类集合分别计算新的聚类中心;然后重复上述计算过程直至所有样本数据与其所属的聚类集合的聚类中心的距离之和最小。
进一步,所述候选区域提取模块中的区域卷积神经网络为Faster R-CNN。
进一步,所述候选区域提取模块包括有
输入子模块,用于将背景图像提取后的待检测视频帧输入至区域卷积神经网络;
第一候选区域生成子模块,用于根据聚类得到的长宽值以及长宽值之比调整区域生成网络中的anchors参数,并采用区域生成网络生成候选区域;
前景位置获取子模块,用于利用Softmax分类器和边框回归判断候选区域内是否为目标对象,并获取目标对象的前景位置;
特征图生成子模块,用于把候选区域映射到卷积神经网络的最后一层卷积特征图上,通过RoI pooling层使每个感兴趣区域生成固定尺寸的特征图;
第二候选区域生成子模块,用于利用特征图计算目标对象的类别,并利用边框回归获得并利用边框回归获得最终候选区域。
进一步,所述注意力区域提取模块包括有
数据获取子模块,用于获取视频图像的多个视频帧;
背景提取子模块,用于采用混合高斯背景建模去除运动状态下的前景目标,得到背景图像。
本发明的有益效果是:利用现有部署完善的监控视频系统,采用目标检测技术的过程中,利用聚类方法对目标对象的聚类结果调整区域卷积神经网络的区域生成网络参数,从而能够准确获取目标对象的位置和分类,利于对目标对象的管理规范。
附图说明
图1为本发明方法的步骤流程图;
图2为本发明方法中聚类的步骤流程图;
图3为本发明方法中候选区域提取的步骤流程图。
具体实施方式
下面结合附图对本发明的具体实施方式作进一步说明:
参照图1,基于视频渐进区域提取的共享单车停放检测方法,包括有以下步骤:
对视频图像进行注意力区域提取处理得到背景图像,即将运动前景与静止背景分离开,减少了行进中目标对象对检测结果的影响,同时也减少了监控视频中行进的行人或车辆对停止状态下目标对象的检测所带来的干扰;
对训练集图像中目标对象的长宽值进行聚类;
根据聚类结果调整区域卷积神经网络的区域生成网络参数,并采用区域卷积神经网络提取目标对象的候选区域。
由于区域卷积神经网络中的区域生成网络参数根据聚类结果调整,本发明方法可更加精确地对停放状态下的目标对象进行位置信息和类别信息的获取,不仅适用与共享单车的停放检测,还可扩展到复杂背景下其他物体的检测与识别。
进一步作为优选的实施方式,所述对视频图像进行注意力区域提取处理得到背景图像这一步骤,具体为:
获取视频图像的多个视频帧;
采用混合高斯背景建模去除运动状态下的前景目标,得到背景图像。
例如采集一段时间内连续的多个视频帧,设视频中的某个像素点在t时刻的像素值为Xt,则Xt服从的混合高斯分布概率密度函数如式(1)(2)(3)所示:
逐次读取视频序列的N帧图像,将图像当前像素值Xt与K个被赋予了权值的模型进行比较,如果它与某个高斯模型间的关系满足式(4),那么认为这个像素与该模型匹配,若所匹配的模型符合背景要求,则该属于背景,否则属于前景。
|Xt-μi,t-1|≤2.5σi,t-1 (4)
各模式权值按公式(5)更新,其中α为模型的更新率,对于匹配的模型Mk,t=1,不匹配的模型Mk,t=0,然后各模型的权重进行归一化。
ωk,t=(1-α)*ωk,t-1+αMk,t (5)
未匹配模型的均值μi,t与标准差σ不变,匹配模型的参数按公式(6)(7)(8)更新。
μt=(1-ρ)*μt-1+ρ*Xt (7)
若现有的背景模型中没有可满足关系式(4)的,则权重值小的模型会被当前像素值替换,之后各个模型按ω/α2先进行降序,继续选前B个模型作为背景,这里B满足式(9),参数T表示背景所占比例。
参照图2,进一步作为优选的实施方式,所述对训练集图像中目标对象的长宽值进行聚类这一步骤,以共享单车目标为例,具体包括有以下子步骤:
获取训练集图像中共享单车的标注数据,即长宽值二维数据作为样本数据集合;
随机选取其中一个二维数据作为初始聚类中心c1;
重复上一步骤得到多个聚类中心,例如选出k个聚类中心μ1,μ2,…,μk;
根据多个聚类中心将样本数据集合分为多个聚类集合,并对多个聚类集合分别计算新的聚类中心;具体为对多个聚类中心之外的样本数据分别计算其与多个聚类中心的相似度,并根据相似度分配到最相似的聚类集合中,其中第i个数据对象所属类别c(i)计算如下:
c(i)=arg minj||x(i)-μj||2,j=1,2,…,k (10)
计算聚类中所有对象的均值,更新每个聚类的聚类中心,聚类中心算法如式(11):
式中1{c(i)=j}表示的函数为:
重复上一步骤直至所有样本数据与其所属的聚类集合的聚类中心的距离之和f(x)最小:
进一步作为优选的实施方式,所述区域卷积神经网络为Faster R-CNN。
参照图3,进一步作为优选的实施方式,所述根据聚类结果调整区域卷积神经网络的区域生成网络参数,并采用区域卷积神经网络提取目标对象的候选区域这一步骤,具体包括有以下子步骤:
将背景图像提取后的待检测视频帧输入至区域卷积神经网络进行特征提取;
根据聚类得到的长宽值以及长宽值之比调整区域生成网络中的anchors参数,并采用区域生成网络生成候选区域,例如在每张图像中生成300个候选区域;
利用Softmax分类器和边框回归(Bounding box regression)判断候选区域内是否为目标对象,即是否为共享单车,并获取目标对象的前景位置;
把候选区域映射到卷积神经网络的最后一层卷积特征图上,通过RoI pooling层使每个感兴趣区域(RoI,Region of Interest)生成固定尺寸的特征图;
利用特征图计算目标对象的类别,即共享单车的种类,并利用边框回归获得最终候选区域。
对应上述基于视频渐进区域提取的共享单车停放检测方法,本发明另一具体实施例为基于视频渐进区域提取的共享单车停放检测系统,包括有
注意力区域提取模块,用于对视频图像进行注意力区域提取处理得到背景图像;
聚类模块,用于对训练集图像中目标对象的长宽值进行聚类;
候选区域提取模块,用于根据聚类结果调整区域卷积神经网络的区域生成网络参数,并采用区域卷积神经网络提取目标对象的候选区域。
进一步作为优选的实施方式,所述聚类模块包括有
数据获取子模块,用于获取训练集图像中目标对象的长宽值二维数据作为样本数据集合;
初始聚类中心选择子模块,用于随机选取样本数据集合中的一个二维数据作为初始聚类中心;
多中心计算子模块,用于计算每个样本数据与当前最近的聚类中心之间的最短距离,计算每个样本被选为下一个聚类中心的概率,概率最大的样本数据作为聚类中心;然后重复上述计算过程得到多个聚类中心;
迭代计算子模块,用于根据多个聚类中心将样本数据集合分为多个聚类集合,并对多个聚类集合分别计算新的聚类中心;然后重复上述计算过程直至所有样本数据与其所属的聚类集合的聚类中心的距离之和最小。
进一步作为优选的实施方式,所述候选区域提取模块中的区域卷积神经网络为Faster R-CNN。
进一步作为优选的实施方式,所述候选区域提取模块包括有
输入子模块,用于将背景图像提取后的待检测视频帧输入至区域卷积神经网络;
第一候选区域生成子模块,用于根据聚类得到的长宽值以及长宽值之比调整区域生成网络中的anchors参数,并采用区域生成网络生成候选区域;
前景位置获取子模块,用于利用Softmax分类器和边框回归判断候选区域内是否为目标对象,并获取目标对象的前景位置;
特征图生成子模块,用于把候选区域映射到卷积神经网络的最后一层卷积特征图上,通过RoI pooling层使每个感兴趣区域生成固定尺寸的特征图;
第二候选区域生成子模块,用于利用特征图计算目标对象的类别,并利用边框回归获得并利用边框回归获得最终候选区域。
进一步作为优选的实施方式,所述注意力区域提取模块包括有
数据获取子模块,用于获取视频图像的多个视频帧;
背景提取子模块,用于采用混合高斯背景建模去除运动状态下的前景目标,得到背景图像。
以上是对本发明的较佳实施进行了具体说明,但本发明创造并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可以作出种种的等同变换或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。
Claims (4)
1.基于视频渐进区域提取的共享单车停放检测方法,其特征在于,包括有以下步骤:
对视频图像进行注意力区域提取处理得到背景图像;
获取训练集图像中目标对象的长宽值二维数据作为样本数据集合;
随机选取其中一个二维数据作为初始聚类中心;
计算每个样本数据与当前最近的聚类中心之间的最短距离,计算每个样本被选为下一个聚类中心的概率,概率最大的样本数据作为聚类中心;
重复上一步骤得到多个聚类中心;
根据多个聚类中心将样本数据集合分为多个聚类集合,并对多个聚类集合分别计算新的聚类中心;
重复上一步骤直至所有样本数据与其所属的聚类集合的聚类中心的距离之和最小;
区域卷积神经网络为Faster R-CNN,将背景图像提取后的待检测视频帧输入至区域卷积神经网络;
根据聚类得到的长宽值以及长宽值之比调整区域生成网络中的anchors参数,并采用区域生成网络生成候选区域;
利用Softmax分类器和边框回归判断候选区域内是否为目标对象,并获取目标对象的前景位置;
把候选区域映射到卷积神经网络的最后一层卷积特征图上,通过RoI pooling层使每个感兴趣区域生成固定尺寸的特征图;
利用特征图计算目标对象的类别,并利用边框回归获得最终候选区域;
其中,逐次读取视频序列的N帧图像,将图像当前像素值与K个被赋予了权值的模型进行比较,如果满足如下关系式,那么认为这个像素与该模型匹配,若所匹配的模型符合背景要求,则属于背景,否则属于前景,关系式为:
|Xt-μi,t-1|≤2.5σi,t-1
其中,为K高斯分布的个数,Xt为视频中的某个像素点在t时刻的像素值,μi,t-1为高斯分布均值,σi,t-1为方差。
2.根据权利要求1所述的基于视频渐进区域提取的共享单车停放检测方法,其特征在于:所述对视频图像进行注意力区域提取处理得到背景图像这一步骤,具体为:
获取视频图像的多个视频帧;
采用混合高斯背景建模去除运动状态下的前景目标,得到背景图像。
3.基于视频渐进区域提取的共享单车停放检测系统,其特征在于:包括有
注意力区域提取模块,用于对视频图像进行注意力区域提取处理得到背景图像;
聚类模块,用于获取训练集图像中目标对象的长宽值二维数据作为样本数据集合;随机选取其中一个二维数据作为初始聚类中心;计算每个样本数据与当前最近的聚类中心之间的最短距离,计算每个样本被选为下一个聚类中心的概率,概率最大的样本数据作为聚类中心;重复上一步骤得到多个聚类中心;根据多个聚类中心将样本数据集合分为多个聚类集合,并对多个聚类集合分别计算新的聚类中心;重复上一步骤直至所有样本数据与其所属的聚类集合的聚类中心的距离之和最小;区域卷积神经网络为FasterR-CNN,将背景图像提取后的待检测视频帧输入至区域卷积神经网络;
候选区域提取模块,用于根据聚类得到的长宽值以及长宽值之比调整区域生成网络中的anchors参数,并采用区域生成网络生成候选区域;利用Softmax分类器和边框回归判断候选区域内是否为目标对象,并获取目标对象的前景位置;把候选区域映射到卷积神经网络的最后一层卷积特征图上,通过RoIpooling层使每个感兴趣区域生成固定尺寸的特征图;利用特征图计算目标对象的类别,并利用边框回归获得最终候选区域;
其中,逐次读取视频序列的N帧图像,将图像当前像素值与K个被赋予了权值的模型进行比较,如果满足如下关系式,那么认为这个像素与该模型匹配,若所匹配的模型符合背景要求,则属于背景,否则属于前景,关系式为:
|Xt-μi,t-1|≤2.5σi,t-1
其中,为K高斯分布的个数,Xt为视频中的某个像素点在t时刻的像素值,μi,t-1为高斯分布均值,σi,t-1为方差。
4.根据权利要求3所述的基于视频渐进区域提取的共享单车停放检测系统,其特征在于:所述注意力区域提取模块包括有数据获取子模块,用于获取视频图像的多个视频帧;
背景提取子模块,用于采用混合高斯背景建模去除运动状态下的前景目标,得到背景图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810945899.2A CN109325502B (zh) | 2018-08-20 | 2018-08-20 | 基于视频渐进区域提取的共享单车停放检测方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810945899.2A CN109325502B (zh) | 2018-08-20 | 2018-08-20 | 基于视频渐进区域提取的共享单车停放检测方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109325502A CN109325502A (zh) | 2019-02-12 |
CN109325502B true CN109325502B (zh) | 2022-06-10 |
Family
ID=65264681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810945899.2A Active CN109325502B (zh) | 2018-08-20 | 2018-08-20 | 基于视频渐进区域提取的共享单车停放检测方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109325502B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11100346B2 (en) * | 2018-12-26 | 2021-08-24 | Here Global B.V. | Method and apparatus for determining a location of a shared vehicle park position |
CN109886269A (zh) * | 2019-02-27 | 2019-06-14 | 南京中设航空科技发展有限公司 | 一种基于注意力机制的交通广告牌识别方法 |
CN110309765B (zh) * | 2019-06-27 | 2021-08-24 | 浙江工业大学 | 一种视频运动目标高效检测方法 |
CN112153483B (zh) * | 2019-06-28 | 2022-05-13 | 腾讯科技(深圳)有限公司 | 信息植入区域的检测方法、装置及电子设备 |
CN110337064B (zh) * | 2019-07-04 | 2020-12-29 | 南京大学 | 一种基于蓝牙和机器视觉的共享单车停放管理系统 |
CN110705404A (zh) * | 2019-09-20 | 2020-01-17 | 北京文安智能技术股份有限公司 | 一种检测共享单车乱放的方法、装置及系统 |
CN111767355B (zh) * | 2020-06-24 | 2024-02-27 | 中电科华云信息技术有限公司 | 一种基于活动中心点圈层扩散组织监控感知区的方法 |
CN112580477A (zh) * | 2020-12-12 | 2021-03-30 | 江西洪都航空工业集团有限责任公司 | 一种共享单车乱停乱放检测方法 |
CN113268678B (zh) * | 2021-04-07 | 2023-10-27 | 北京中交兴路信息科技有限公司 | 一种车辆停靠点的语义挖掘方法、装置、存储介质及终端 |
CN113421382B (zh) * | 2021-06-01 | 2022-08-30 | 杭州鸿泉物联网技术股份有限公司 | 共享电单规范停车的检测方法、系统、设备及存储介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2008200966B2 (en) * | 2008-02-28 | 2012-03-15 | Canon Kabushiki Kaisha | Stationary object detection using multi-mode background modelling |
CN101576952B (zh) * | 2009-03-06 | 2013-10-16 | 北京中星微电子有限公司 | 一种检测静止目标的方法和装置 |
CN102509073A (zh) * | 2011-10-17 | 2012-06-20 | 上海交通大学 | 一种基于高斯背景模型的静态目标分割的方法 |
CN102495998B (zh) * | 2011-11-10 | 2013-11-06 | 西安电子科技大学 | 基于视觉选择性注意计算模型的静态目标检测方法 |
CN106878674B (zh) * | 2017-01-10 | 2019-08-30 | 哈尔滨工业大学深圳研究生院 | 一种基于监控视频的停车检测方法及装置 |
CN107169421B (zh) * | 2017-04-20 | 2020-04-28 | 华南理工大学 | 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法 |
CN107316001A (zh) * | 2017-05-31 | 2017-11-03 | 天津大学 | 一种自动驾驶场景中小且密集的交通标志检测方法 |
-
2018
- 2018-08-20 CN CN201810945899.2A patent/CN109325502B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109325502A (zh) | 2019-02-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109325502B (zh) | 基于视频渐进区域提取的共享单车停放检测方法和系统 | |
CN109241349B (zh) | 一种基于深度学习的监控视频多目标分类检索方法及系统 | |
Chen et al. | Vehicle detection in high-resolution aerial images based on fast sparse representation classification and multiorder feature | |
Ma et al. | Capsule-based networks for road marking extraction and classification from mobile LiDAR point clouds | |
CN110796168A (zh) | 一种基于改进YOLOv3的车辆检测方法 | |
CN109815859B (zh) | 一种低等级道路自动提取及变化分析方法 | |
CN112016605B (zh) | 一种基于边界框角点对齐和边界匹配的目标检测方法 | |
CN110020651A (zh) | 基于深度学习网络的车牌检测定位方法 | |
CN109871875B (zh) | 一种基于深度学习的建筑物变化检测方法 | |
CN111967313B (zh) | 一种深度学习目标检测算法辅助的无人机图像标注方法 | |
CN106570874B (zh) | 一种结合图像局部约束与对象全局约束的图像标记方法 | |
Tao et al. | Scene context-driven vehicle detection in high-resolution aerial images | |
CN104346620A (zh) | 对输入图像中的像素分类的方法和装置及图像处理系统 | |
CN104794219A (zh) | 一种基于地理位置信息的场景检索方法 | |
CN102708385A (zh) | 用于视频监控场景的三维车型比对识别的方法和系统 | |
Lee et al. | Clustering learning model of CCTV image pattern for producing road hazard meteorological information | |
Abou Chacra et al. | Road segmentation in street view images using texture information | |
Bao et al. | Unpaved road detection based on spatial fuzzy clustering algorithm | |
CN116091946A (zh) | 一种基于YOLOv5的无人机航拍图像目标检测方法 | |
WO2018042208A1 (en) | Street asset mapping | |
CN114898243A (zh) | 基于视频流的交通场景解析方法以及装置 | |
CN110636248B (zh) | 目标跟踪方法与装置 | |
CN110765900A (zh) | 一种基于dssd的自动检测违章建筑方法及系统 | |
CN111339823A (zh) | 基于机器视觉和反向投影算法的打谷晒场检测方法 | |
CN106250828A (zh) | 一种基于改进的lbp算子的人群计数方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |