CN108615401B - 基于深度学习的室内非均匀光线车位状况识别方法 - Google Patents
基于深度学习的室内非均匀光线车位状况识别方法 Download PDFInfo
- Publication number
- CN108615401B CN108615401B CN201810594592.2A CN201810594592A CN108615401B CN 108615401 B CN108615401 B CN 108615401B CN 201810594592 A CN201810594592 A CN 201810594592A CN 108615401 B CN108615401 B CN 108615401B
- Authority
- CN
- China
- Prior art keywords
- parking space
- vehicle
- layer
- image
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/14—Traffic control systems for road vehicles indicating individual free spaces in parking areas
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/586—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于深度学习的室内非均匀光线车位状况识别方法,主要解决现有识别方法在室内非均匀光线下鲁棒性差、识别精度低的问题。其实现步骤包括:1)输入图像;2)筛选图像数据集;3)对图像数据集中的图像进行计算处理,并根据计算结果获取图像标签;4)创建图像与标签一一对应的索引文件;5)搭建深度卷积神经网络CNN模型;6)划分训练集与测试集,并用训练集数据对神经网络进行训练,得到训练后的CNN模型;7)利用训练后的CNN模型获取识别结果。本发明增加了模型的鲁棒性、提高了识别精确度,且应用场景广泛,能够在复杂的室内非均匀光线中完成7分类,得到高精度的车位状况识别结果。
Description
技术领域
本发明属于图像处理技术领域,更进一步涉及计算机视觉技术领域,具体为一种基于深度学习的室内非均匀光线车位状况识别方法。可用于在光线不均匀的室内环境中检测车位,并识别车位上是否有车。
背景技术
在室内非均匀光线的场景下,例如地下车库,由于光线分布不均匀、建筑结构复杂且车位设置较为密集,因此车位状况的识别面临着巨大挑战。现有的识别方法可归于以下其中之一或两者都具备的范畴:1)基于传感器的车位状况识别,该方法在车位检测上取得了显著的效果,但随着室内车位数量的增加,识别成本增加,逐渐被取代;2)基于图像处理的车位状况识别,相比于传统的传感器方法,该方法在识别成本上大大降低的同时,依靠图像处理技术,显著提升了识别精度并提高了应用范围。随着车位数量增加,车位状况的复杂性大大提升,因此,为了更大程度地提升识别的精度和更好地应用于复杂的非均匀光线场景,需要一种高精度且具有较强理论支撑的车位状况识别方法。
天津理工大学在其申请的专利文献“基于磁阻传感器和ZigBee的车位检测系统”中公开了一种车位检测系统。该系统具体包含:(1)结合磁阻传感器的特性、工作原理,并且对Zig Bee技术的网络体系架构、网络设备类型和网络拓扑架构进行详细分析的基础上,提出了车位检测系统的整体结构。(2)分析了车位检测节点、协调器和路由器的硬件结构基础,详细设计了主要硬件电路模块包括传感器模块、微处理器模块、串口通信模块、电源管理模块、天线及巴伦匹配电路,并对节点的硬件电路完成了PCB设计。(3)通过设计I2C总线驱动程序,提取传感器检测的磁信号,运用车位检测算法处理以判断当前车位的状态。该方法的不足之处在于:通过计算红外线、超声波、雷达等传感器到目标车辆的距离判断车位的状态,这种车位状态识别方法不仅对外界环境因素敏感,而且成本高、维护困难。
哈尔滨工业大学在其申请的专利文献“基于图像处理的室外停车场车位状态识别算法研究”中公开了一种停车场车位状态识别方法。该方法的具体步骤如下:1)设计了一种适应非规则化停车场的车位定位方法,引入了Ada Boost分类器算法识别停车场中车辆所在位置,2)引入LBP和LPQ算子提取车位图像特征,LUV颜色特征描述图像的亮度和色度,采用串行特征融合技术将纹理特征和颜色特征合并成新的特征向量,并训练SVM分类器模型实现车位状态分类。该方法存在的不足之处是:由于数据量由变换增加得到,即使能提取到较好的图像纹理与颜色特征,在实际运用中,由于室内光线的不均匀性,训练得到的模型在停车场环境下的鲁棒性并不好,精度也不高。
哈尔滨工业大学在其申请的专利文献“面向监控图像的停车场智能车位识别算法研究”中公开了一种车位识别算法。该方法具体步骤如下:1)将三维Otsu的第一维度由原始灰度值变为梯度值,增强边缘信息,2)将差分图像灰度值小于20的像素点视为背景。与一维Otsu以及基于分解的三维Otsu相比,有效地消除噪声的干扰,更好地保留边缘信息。3)提出一种区域分割模型,处理停车位遮挡问题。将每个停车位分割成9个不均匀区域。角落包含的车辆信息较少,权值设为0。中间包含的车辆信息较多,权值设为2,以此实现车位状况的识别。该方法存在的不足之处是:训练数据较少,模型复杂度较高,在室内非均匀光线下,误报率较高。
发明内容
本发明的目的在于针对上述现有技术存在的问题,提出了一种基于深度学习的室内非均匀光线车位状况识别方法,用于提高在室内非均匀光线条件下识别的准确率,从而得到更好的车位状况识别结果。
实现本发明目的的思路是:筛选图像数据集,对其进行计算处理获取图像标签,再创建图像与标签一一对应的索引文件,然后搭建深度卷积神经网络CNN模型,并对该模型进行训练,最终,利用训练后的CNN模型得到图像中的车位数与车位状况。
本发明实现上述目的的具体步骤如下:
(1)将室内摄像头拍摄得到的图像输入到计算机;
(2)设定亮度阈值为30,从计算机中筛选出亮度大于30的所有图片,作为图像数据集;
(3)获取图像标签:
(3a)对图像数据集中的每一幅图像做如下处理:
(3a1)框选出像素点位置为(23:39,88:128)与(40:56,88:128)的两个矩形框图像,设其分别为sub1、sub2;
(3a2)将sub1、sub2分别灰度化,得到两个灰度图像;
(3a3)计算两个灰度图像对应的梯度图,分别求这两个梯度图的梯度均方误差gm,得到sub1的梯度均方误差gm均值s1,以及sub2的梯度均方误差gm均值s2;
(3b)根据每一幅图像的s1与s2大小,对该图像进行分类,即获取图像标签:
当s1<=10且s2<=10时,为第1类,此时两车位均禁用;
当10<s1<53且s2<=10时,为第2类,此时车位1无车,车位2禁用;
当s1>=53且s2<=10时,为第3类,此时车位1有车,车位2禁用;
当10<s1<53且10<s2<53时,为第4类,此时车位1无车,车位2无车;
当s1>=53且10<s2<53时,为第5类,此时车位1有车,车位2无车;
当10<s1<53且s2>=53时,为第6类,此时车位1无车,车位2有车;
当s1>=53且s2>=53时,为第7类,此时车位1有车,车位2有车;
其余情况均定义为第8类,舍去该类图像;
(4)将第1-7类图像的尺寸缩小至180*320,并按照“图像名类别序号-1”的顺序写入文本文档txt,得到图像与标签一一对应的索引文件;
(5)搭建一个11层的深度卷积神经网络CNN,其中包含6个卷积层,3个池化层以及2个全连接层;
(6)训练深度卷积神经网络CNN:
将索引文件划分为训练集和测试集两部分,并将训练集中的图像数据输入深度卷积神经网络CNN中进行学习训练,得到训练后的CNN模型;
(7)获取识别结果:
将测试集中的图像数据输入训练后的CNN模型,获取长度为7的一维向量,并将其转化为十进制数,得到车位状况的识别结果:
第一类为无车位;
第二类为有一个车位,且车位上无车;
第三类为有一个车位,且车位上有车;
第四类为有两个车位,且两车位上均无车;
第五类为有两个车位,且车位1有车,车位2无车;
第六类为有两个车位,且车位1无车,车位2有车;
第七类为有两个车位,且车位1与车位2均有车。
本发明与现有的技术相比具有以下优点:
第一,由于本发明在训练模型时采用的数据是由互联网中获取,训练集包含了近300w张图像数据,该数据量是以往模型算法的数倍之多,因此,大大增加了模型的鲁棒性与泛化能力;
第二,由于本发明采用了深度学习中的深度卷积神经网络CNN,其结构参数以及模型的超参数由多次实验仿真得到,同时,图像特征由CNN网络自动提取,从而更符合人类视觉系统,大大提高了在室内非均匀光线下进行识别的精确度;
第三,由于本发明将车位状况划分为7类,在图像通过模型后,可获得图像中车位的数量以及每个车位上是否有车的具体信息,因此,增加了该方法的应用场景,并进一步提高了车位状况的识别精度。
附图说明
图1是本发明的实现流程图。
具体实施方式
下面结合附图对本发明作进一步的描述。
参照图1,本发明的实现步骤如下:
步骤1.输入图像:
将室内摄像头拍摄得到的图像输入到计算机。
步骤2.筛选数据集:
将亮度阈值设定为30,在计算机中筛选出亮度大于30的所有图片,作为图像数据集。
步骤3.获取图像标签:
第一步,对图像数据集中的每一幅图像做如下处理:
(3a1)每张图像左上角均带有拍摄时的数据记录且每张图像的大小均为720*1280,选取图像中坐标为(23:39,88:128)与(40:56,88:128)的两个矩形框图像,设其分别为sub1、sub2;
(3a2)将sub1、sub2分别灰度化,得到两个灰度图像;
(3a3)计算两个灰度图像对应的梯度图,分别求这两个梯度图的梯度均方误差gm,得到sub1的梯度均方误差gm均值s1,以及sub2的梯度均方误差gm均值s2;
第二步,根据每一幅图像的s1与s2大小,对该图像进行分类,即获取图像标签:
当s1<=10且s2<=10时,为第1类,此时两车位均禁用;
当10<s1<53且s2<=10时,为第2类,此时车位1无车,车位2禁用;
当s1>=53且s2<=10时,为第3类,此时车位1有车,车位2禁用;
当10<s1<53且10<s2<53时,为第4类,此时车位1无车,车位2无车;
当s1>=53且10<s2<53时,为第5类,此时车位1有车,车位2无车;
当10<s1<53且s2>=53时,为第6类,此时车位1无车,车位2有车;
当s1>=53且s2>=53时,为第7类,此时车位1有车,车位2有车;
其余情况均定义为第8类,舍去该类图像。
步骤4.将第1-7类图像的尺寸缩小至180*320,并按照“图像名类别序号-1”的顺序写入文本文档txt,得到图像与标签一一对应的索引文件。
步骤5.搭建深度卷积网络CNN模型:
搭建一个11层的深度卷积神经网络CNN,其中包含6个卷积层,3个池化层以及2个全连接层,其实现步骤如下:
第1步,第一层由32个3*3的卷积核构成,步长为1,不填充补零层,激活函数为ReLU;
第2步,第二层由32个3*3的卷积核构成,步长为1,不填充补零层,激活函数为ReLU;
第3步,第三层由一个2*2的最大池化核构成,步长为2,不填充补零层,无激活函数;
第4步,第四层由64个3*3的卷积核构成,步长为1,不填充补零层,激活函数为ReLU;
第5步,第五层由64个3*3的卷积核构成,步长为1,不填充补零层,激活函数为ReLU;
第6步,第六层由一个2*2的最大池化核构成,步长为2,不填充补零层,无激活函数;
第7步,第七层由128个3*3的卷积核构成,步长为1,不填充补零层,激活函数为ReLU;
第8步,第八层由128个3*3的卷积核构成,步长为1,不填充补零层,激活函数为ReLU;
第9步,第九层由一个2*2的最大池化核构成,步长为2,不填充补零层,无激活函数;
第10步,第十层为全连接层,本实施例由58876个参数组成该层,输出为长度1000的一维向量;
第11步,第十一层为全连接层,本实施例由1000个参数组成该全连接层,输出为长度7的一维向量。
步骤6.训练搭建好的深度卷积神经网路CNN:
将索引文件随即划分为两部分,即:随即选取80%的图像数据作为训练集,剩余20%的图像数据作为测试集,本实施例将上述完成预处理的511737张图像数据中500000张图像作为训练集,剩余11737张图像作测试集;将训练集中的图像数据输入深度卷积神经网络CNN中,设定每个batch为50张图像、学习率为0.0001、优化函数为Adam、迭代训练100次,进行学习训练,最终得到训练后的CNN模型。
步骤7.将测试集中的图像数据输入训练后的CNN模型,获取长度为7的一维向量,并将其转化为十进制数,得到车位状况的识别结果:
第一类为无车位;
第二类为有一个车位,且车位上无车;
第三类为有一个车位,且车位上有车;
第四类为有两个车位,且两车位上均无车;
第五类为有两个车位,且车位1有车,车位2无车;
第六类为有两个车位,且车位1无车,车位2有车;
第七类为有两个车位,且车位1与车位2均有车。
下面结合仿真实验对本发明的效果做进一步的说明:
1.仿真条件:
本发明的仿真实验是在Ubantu16.04LTS系统下,以python为核心代码,pytorch为深度算法框架进行的。
实验中,室内非均匀光线图像数据VIPLab database是各种车库中不同角度不同位置的摄像头所获取,其包含了近400w张图像数据,以及图像左上角包含的相应图像信息。测试图像分为测试集图像与全局图像,测试集图像是在全局图像上去除了亮度小于30的图像,因为这些图像即使是人为主观去评判都存在着很多错误,并且在这类图像上的测试并没有很大意义,因此,将此类数据作为衡量效果的标准之一。
2.仿真内容:
室内非均匀光线图像数据VIPLab database,共包含了410w幅图像,其中因不少图像因亮度过低,人眼也无法判断车位的具体状况,因此剔除亮度小于30的图像,得到的近300w幅图像中,如表1所示,将80%(240w幅图像)作为训练集,20%(60w幅图像)作为测试集,进行训练。训练过程中,每个批处理batch为50张图像,学习率为0.001,优化过程采用Adam函数,迭代训练次数为100次,得到训练完好后的深度卷积网络CNN。
表1本发明所用数据库筛选部分结果
3.仿真结果分析
在测试中,按照每个batch为50的大小,将测试集中的图像输入模型,直到测试完所有60w幅图像,表2给出了本发明在VIPLab database上的识别准确率。
表2本发明在VIPLab database上的识别准确率
测试精度 | 在测试集上的识别准确率 | 在全局上的识别准确率 |
识别精度 | 98.3% | 85.3% |
由上表可知,在亮度足够的室内非均匀光线环境下,本发明可以得到98.3%的精度,然而由于全局数据库中包含许多非常暗的图像,即使人眼也无法将其车位状况正确判断,因此在全数据集上的精度有所下降,但仍然有相当可观的85.3%。
在之前许多基于图像处理的车位状况识别方法中,相当多的方法采用了支持向量机SVM来训练数据,再用分类器得到最后车位状况分类精度,表3给出了基于SVM与AdaBoost分类器在相同数据库下的识别准确率。
表3基于SVM与Ada Boost分类器在VIPLab database上的识别准确率
测试精度 | 在测试集上的识别准确率 | 在全局上的识别准确率 |
识别精度 | 91.4% | 73.4% |
从上文两个表格中可以清楚的观察到,无论是在测试集上的识别精度,在全局上的识别精度,本发明都要比传统的基于图像处理的车位状况识别方法精度高出许多,足以证明本发明增加了模型的鲁棒性、提高了识别精确度,能够在复杂的室内非均匀光线中完成细致分类,得到高精度的车位状况识别结果。
本发明未详细说明部分属于本领域技术人员公知常识。
以上描述仅是本发明的一个具体实例,显然对于本领域的专业人员来说,在了解了本发明内容和原理后,都可能在不背离本发明原理、结构的情况下,进行形式和细节上的各种修正和改变,但是这些基于本发明思想的修正和改变仍在本发明的权利要求保护范围之内。
Claims (5)
1.一种基于深度学习的室内非均匀光线车位状况识别方法,其特征在于,包括如下步骤:
(1)将室内摄像头拍摄得到的图像输入到计算机;
(2)设定亮度阈值为30,从计算机中筛选出亮度大于30的所有图片,作为图像数据集;
(3)获取图像标签:
(3a)对图像数据集中的每一幅图像做如下处理:
(3a1)框选出像素点位置为(23:39,88:128)与(40:56,88:128)的两个矩形框图像,设其分别为sub1、sub2;
(3a2)将sub1、sub2分别灰度化,得到两个灰度图像;
(3a3)计算两个灰度图像对应的梯度图,分别求这两个梯度图的梯度均方误差gm,得到sub1的梯度均方误差gm均值s1,以及sub2的梯度均方误差gm均值s2;
(3b)根据每一幅图像的s1与s2大小,对该图像进行分类,即获取图像标签:
当s1<=10且s2<=10时,为第1类,此时两车位均禁用;
当10<s1<53且s2<=10时,为第2类,此时车位1无车,车位2禁用;
当s1>=53且s2<=10时,为第3类,此时车位1有车,车位2禁用;
当10<s1<53且10<s2<53时,为第4类,此时车位1无车,车位2无车;
当s1>=53且10<s2<53时,为第5类,此时车位1有车,车位2无车;
当10<s1<53且s2>=53时,为第6类,此时车位1无车,车位2有车;
当s1>=53且s2>=53时,为第7类,此时车位1有车,车位2有车;
其余情况均定义为第8类,舍去该类图像;
(4)将第1-7类图像的尺寸缩小至180*320,并按照“图像名类别序号-1”的顺序写入文本文档txt,得到图像与标签一一对应的索引文件;
(5)搭建一个11层的深度卷积神经网络CNN,其中包含6个卷积层、3个池化层以及2个全连接层;
(6)训练深度卷积神经网络CNN:
将索引文件划分为训练集和测试集两部分,并将训练集中的图像数据输入深度卷积神经网络CNN中进行学习训练,得到训练后的CNN模型;
(7)获取识别结果:
将测试集中的图像数据输入训练后的CNN模型,获取长度为7的一维向量,并将其转化为十进制数,得到车位状况的识别结果:
第一类为无车位;
第二类为有一个车位,且车位上无车;
第三类为有一个车位,且车位上有车;
第四类为有两个车位,且两车位上均无车;
第五类为有两个车位,且车位1有车,车位2无车;
第六类为有两个车位,且车位1无车,车位2有车;
第七类为有两个车位,且车位1与车位2均有车。
2.根据权利要求1所述方法,其特征在于:步骤(3a)中图像数据集中的每一幅图像尺寸均为720*1280,且在各图像左上角均带有拍摄时的数据记录。
3.根据权利要求1所述方法,其特征在于:步骤(5)中的深度卷积神经网络CNN,具体搭建步骤如下:
(3a)第一层为卷积层,由32个3*3的卷积核构成,步长为1,不补零,激活函数为线性规划单元ReLU;
(3b)第二层为卷积层,由32个3*3的卷积核构成,步长为1,激活函数为线性规划单元ReLU;
(3c)第三层为池化层,由单个2*2的最大池化核构成,步长为2,无激活函数;
(3d)第四层为卷积层,由64个3*3的卷积核构成,步长为1,激活函数为线性规划单元ReLU;
(3e)第五层为卷积层,由64个3*3的卷积核构成,步长为1,激活函数为线性规划单元ReLU;
(3f)第六层为池化层,由单个2*2的最大池化核构成,步长为2,无激活函数;
(3g)第七层为卷积层,由128个3*3的卷积核构成,步长为1,激活函数为线性规划单元ReLU;
(3h)第八层为卷积层,由128个3*3的卷积核构成,步长为1,激活函数为线性规划单元ReLU;
(3i)第九层为池化层,由单个2*2的最大池化核构成,步长为2,无激活函数;
(3j)第十层为全连接层,输出为长度1000的一维向量;
(3k)第十一层为全连接层,输出为长度7的一维向量。
4.根据权利要求1所述方法,其特征在于:步骤(6)中的学习训练过程设置如下:每个批处理batch为50张图像,学习率为0.001,优化过程采用Adam函数,迭代训练次数为100次。
5.根据权利要求1所述方法,其特征在于:步骤(6)中的索引文件划分具体为:在索引文件中随机选取80%的图像数据作为训练集,剩余20%的图像数据作为测试集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810594592.2A CN108615401B (zh) | 2018-06-11 | 2018-06-11 | 基于深度学习的室内非均匀光线车位状况识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810594592.2A CN108615401B (zh) | 2018-06-11 | 2018-06-11 | 基于深度学习的室内非均匀光线车位状况识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108615401A CN108615401A (zh) | 2018-10-02 |
CN108615401B true CN108615401B (zh) | 2021-01-05 |
Family
ID=63665050
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810594592.2A Active CN108615401B (zh) | 2018-06-11 | 2018-06-11 | 基于深度学习的室内非均匀光线车位状况识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108615401B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109828751A (zh) * | 2019-02-15 | 2019-05-31 | 福州大学 | 集成化的机器学习算法库与统一编程框架 |
CN110060238B (zh) * | 2019-04-01 | 2022-04-19 | 桂林电子科技大学 | 基于深度学习的pcb板标注印刷质量检测方法 |
CN111653103A (zh) * | 2020-05-07 | 2020-09-11 | 浙江大华技术股份有限公司 | 一种目标对象的识别方法及装置 |
CN111932933B (zh) * | 2020-08-05 | 2022-07-26 | 杭州像素元科技有限公司 | 一种城市智能停车位检测方法、设备及可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105788352A (zh) * | 2016-04-01 | 2016-07-20 | 上海美迪索科电子科技有限公司 | 一种利用深度摄像头进行停车引导的装置及其引导方法 |
CN105868774A (zh) * | 2016-03-24 | 2016-08-17 | 西安电子科技大学 | 基于选择性搜索和卷积神经网络的车标识别方法 |
CN105975941A (zh) * | 2016-05-31 | 2016-09-28 | 电子科技大学 | 一种基于深度学习的多方向车型检测识别系统 |
CN106157688A (zh) * | 2016-08-25 | 2016-11-23 | 华南师范大学 | 基于深度学习和大数据的停车位检测方法和系统 |
US20170330389A1 (en) * | 2016-05-10 | 2017-11-16 | Parkingcloud Co., Ltd. | Incoming and outgoing vehicle management method and incoming and outgoing vehicle management system based on vehicle number and vehicle type identified therefrom |
-
2018
- 2018-06-11 CN CN201810594592.2A patent/CN108615401B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105868774A (zh) * | 2016-03-24 | 2016-08-17 | 西安电子科技大学 | 基于选择性搜索和卷积神经网络的车标识别方法 |
CN105788352A (zh) * | 2016-04-01 | 2016-07-20 | 上海美迪索科电子科技有限公司 | 一种利用深度摄像头进行停车引导的装置及其引导方法 |
US20170330389A1 (en) * | 2016-05-10 | 2017-11-16 | Parkingcloud Co., Ltd. | Incoming and outgoing vehicle management method and incoming and outgoing vehicle management system based on vehicle number and vehicle type identified therefrom |
CN105975941A (zh) * | 2016-05-31 | 2016-09-28 | 电子科技大学 | 一种基于深度学习的多方向车型检测识别系统 |
CN106157688A (zh) * | 2016-08-25 | 2016-11-23 | 华南师范大学 | 基于深度学习和大数据的停车位检测方法和系统 |
Non-Patent Citations (1)
Title |
---|
Deep learning for decentralized parking lot occupancy detection;Giuseppe Amato et_al;《Expert Systems With Applications》;20161029;第327-334页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108615401A (zh) | 2018-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109584248B (zh) | 基于特征融合和稠密连接网络的红外面目标实例分割方法 | |
US11455805B2 (en) | Method and apparatus for detecting parking space usage condition, electronic device, and storage medium | |
CN109190752B (zh) | 基于深度学习的全局特征和局部特征的图像语义分割方法 | |
CN107564025B (zh) | 一种基于深度神经网络的电力设备红外图像语义分割方法 | |
CN108615401B (zh) | 基于深度学习的室内非均匀光线车位状况识别方法 | |
CN111257341B (zh) | 基于多尺度特征与堆叠式全卷积网络的水下建筑物裂缝检测方法 | |
CN109840556B (zh) | 一种基于孪生网络的图像分类识别方法 | |
CN105975929A (zh) | 一种基于聚合通道特征的快速行人检测方法 | |
CN105574550A (zh) | 一种车辆识别方法及装置 | |
CN105654066A (zh) | 一种车辆识别方法及装置 | |
CN113723377B (zh) | 一种基于ld-ssd网络的交通标志检测方法 | |
CN111209858B (zh) | 一种基于深度卷积神经网络的实时车牌检测方法 | |
CN111652273B (zh) | 一种基于深度学习的rgb-d图像分类方法 | |
CN110879982A (zh) | 一种人群计数系统及方法 | |
CN112149535A (zh) | 一种结合SegNet和U-Net的车道线检测方法和装置 | |
CN115690615B (zh) | 一种面向视频流的深度学习目标识别方法及系统 | |
CN110781980A (zh) | 目标检测模型的训练方法、目标检测方法及装置 | |
CN113780423A (zh) | 一种基于多尺度融合的单阶段目标检测神经网络及工业品表面缺陷检测模型 | |
CN114627435A (zh) | 基于图像识别的智能灯光调节方法、装置、设备及介质 | |
CN113313031A (zh) | 一种基于深度学习的车道线检测和车辆横向定位方法 | |
CN110321867B (zh) | 基于部件约束网络的遮挡目标检测方法 | |
CN105404682B (zh) | 一种基于数字图像内容的图书检索方法 | |
CN113269195A (zh) | 读数表图像字符识别方法和装置以及可读存储介质 | |
CN111582057B (zh) | 一种基于局部感受野的人脸验证方法 | |
CN110458120B (zh) | 一种复杂环境下不同车型识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |