CN107122732B - 一种监控场景下高鲁棒性的快速车牌定位方法 - Google Patents

一种监控场景下高鲁棒性的快速车牌定位方法 Download PDF

Info

Publication number
CN107122732B
CN107122732B CN201710277191.XA CN201710277191A CN107122732B CN 107122732 B CN107122732 B CN 107122732B CN 201710277191 A CN201710277191 A CN 201710277191A CN 107122732 B CN107122732 B CN 107122732B
Authority
CN
China
Prior art keywords
license plate
detection
character
region
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710277191.XA
Other languages
English (en)
Other versions
CN107122732A (zh
Inventor
柯逍
张毓峰
陈羽中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN201710277191.XA priority Critical patent/CN107122732B/zh
Publication of CN107122732A publication Critical patent/CN107122732A/zh
Application granted granted Critical
Publication of CN107122732B publication Critical patent/CN107122732B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种监控场景下高鲁棒性的快速车牌定位方法,包括以下步骤:步骤S1:对车牌训练图像进行语义分组,即将车牌图像分为车牌和非车牌两个语义组,并按组将训练图像输入到支持向量机中进行训练;步骤S2:采用基于Epanechikov核密度估计自适应快速车辆检测方法对车辆区域进行快速检测;步骤S3:利用基于AFRD的帧滑动算法对视频帧进行过滤,得到感兴趣的帧图像;步骤S4:对感兴趣帧图像中车辆区域采用形态学、颜色和MSER相结合的方法对车牌进行检测;步骤S5:对步骤S4中得到的候选车牌运用步骤S1中训练好的支持向量机进行二元分类,得到正确的车牌。本发明的定位方法能够改善车牌识别系统在低对比度、低光照等恶劣环境下的鲁棒性。

Description

一种监控场景下高鲁棒性的快速车牌定位方法
技术领域
本发明涉及模式识别与计算机视觉领域,特别是一种监控场景下高鲁棒性的快速车牌定位方法。
背景技术
随着平安中国建设步伐的加快,监控摄像头分布越来越广,摄像头的分辨率越来越高,直接使用这些遍布大街小巷的监控环境与使用标准卡口的车辆图像采集装置相比,带来了一些新的挑战。传统的车牌识别系统在公路收费、停车场等方面运用广泛,但大多数的运用场景都需要一些特殊硬件设备的支持,如地感线圈,一次只能对一辆车进行识别,识别速度慢,且图像传输大多采用模拟信号,图像层次感不强,对比度较差,为了保证分辨率往往不能采集到车辆全景,从而导致不能满足刑侦、治安的相关业务要求。监控环境场景下基于动态视频流的车牌检测与识别系统无需安装其它硬件设备,能够同时对图像中的多个车牌进行检测,不受硬件和环境的制约,效率高,能够对多帧视频图像分别进行识别,选择置信度最高的作为最终结果,从而降低单帧图像对识别结果的影响,识别准确率较高。但基于监控环境场景下的车牌检测系统也面临着许多挑战,例如车牌角度变化大,长期使用的摄像头表面附着的尘埃会使采集到的图像模糊,噪点增多。摄像头的分辨率的提高也给车牌识别的实时性带来了严峻的挑战。近年来,随着计算机图像处理、人工智能、模式识别、视频传输等技术的不断发展,基于动态视频流的车牌算法在犯罪侦查、交通事故快速处理等社会生活中获得越来越广泛的应用。
虽然国内外学者也纷纷对此展开了研究,提出了一些高水平和使用性强的基于动态视频流的车牌检测算法,但是仍然存在一些研究的难点问题亟待解决。
1)基于高分辨率的视频的车牌识别对系统实时性造成巨大挑战。随着1080P等高清摄像头的不断普及运用,图像预处理、车牌检测和识别的时间也不断增加,这也给基于动态视频流的车牌识别速度带来了很大挑战。由于获取的动态视频流图像受到多方面的影响,比如天气的变化、光照条件的变化、车辆自身的运动阴影、道路场景中的静态阴影、缓慢移动的阴影如浮云造成的阴影、运动目标之间的遮挡、摄像机的抖动、道路中其它运动物体等,这些都使得高效的机动车运动检测与分割成为相当重要但又比较困难的问题。
2)车牌检测鲁棒性不够。车牌图像采集系统工作在各种各样的复杂环境中,受到天气、光线变化、污迹遮挡、拍摄位置和角度等影响,且极易因摄像头长期缺少定期维护导致镜头的镜片处容易覆盖一层尘埃,导致图像清晰度和对比度下降,影响车牌检测的准确率。
对于第一个问题,我们提出了用Epanechikov核和帧自适应的运动检测方法。该方法首先利用基于Epanechikov核的背景差分法,从视频流中检测是否有运动发生,再根据运动情况采用帧自适应的运动目标过滤,从而加快车牌识别速度。该方法利用车牌的大小去动态估计车辆大小,将不符合规则的连通区域过滤掉,减少车牌的检测时间。同时,我们提出了基于AFRD的帧滑动算法,通过无效帧的检测,在不降低准确率的前提下提升车牌识别系统对视频流的处理速度,对提高车牌识别系统的实时性具有重大意义。
对于第二个问题,本文在颜色和形态学检测的基础上增加了一种基于最大稳定极值区域(Maximally Stable Extremal Region,MSER)的车牌文字车牌检测法,在充分利用车牌颜色为蓝色或者黄色的颜色特性和几何特征的同时,利用最大稳定极值区域的车牌文字车牌检测法对其进行有效的补充,并采用车牌非极大值抑制的方法对多种检测方式得到的可能的车牌图像进行非极大值抑制,得到最精确的结果,改善车牌识别系统在低对比度、低光照等恶劣环境下的鲁棒性。
发明内容
有鉴于此,本发明的目的是提供一种监控场景下高鲁棒性的快速车牌定位方法,以克服现有技术中存在的缺陷。
本发明采用以下方案实现:一种监控场景下高鲁棒性的快速车牌定位方法,包括以下步骤:
步骤S1:对车牌训练图像进行语义分组,即将车牌图像分为车牌和非车牌两个语义组,并按组将训练图像输入到支持向量机中进行训练;
步骤S2:采用基于Epanechikov核密度估计自适应快速车辆检测方法对车辆区域进行快速检测;
步骤S3:利用基于AFRD的帧滑动算法对视频帧进行过滤,得到感兴趣的帧图像;
步骤S4:对感兴趣帧图像中车辆区域采用形态学、颜色和MSER相结合的方法对车牌进行检测;
步骤S5:对步骤S4中得到的候选车牌运用步骤S1中训练好的支持向量机进行二元分类,得到正确的车牌。
进一步地,在所述步骤S2中,通过如下步骤对车辆区域进行快速检测:
步骤S21:将式:作为背景建模的模型,其中,随机变量X是若干组观测值,假定随机变量X符合Epanechikov核密度估计模型,根据X的观测值使用最大期望算法对Epanechikov核密度估计模型进行参数估计;
步骤S22:模型和参数都确定好后需要根据确定好的模型对图像中的观测像素x是前景像素和背景像素进行判断,如果像素点x与Epanechikov密度估计模型估计值的距离满足式:||x-f(x)||<σ,就认为像素点x近似服从Epanechikov估计分布,应该把该像素点作为背景像素,否则的话作为前景像素,其中σ为阈值。
步骤S23:检测到了图像中的所有前景像素以后,下一步利用闭运算得到若干连通块,连通块包括机动车、行人、自行车在内的运动物体,采用一个自适应车辆过滤器快速滤过干扰因素;令pi为依次检测到的第i个车牌,S(pi)为对第i个车牌求面积的运算,则有:对于则对于每个连通域Contour都应该满足式:S(pi)Magnifymin≤S(Contour)≤S(pi)Magnifymax,其中Magnifymin为放大因子的下界,为Magnifymax车牌放大因子的上界。
进一步地,在所述步骤S3中,通过如下步骤对视频帧进行过滤,得到感兴趣的帧图像:
步骤S31:帧滑动算法采用慢开始策略slow start一次从视频流中读取一个窗口大小的图像帧进入滑动缓冲区,令F={f1,f2,f3,...,fM},fi为读取到的图像帧;
步骤S32:然后对滑动窗口的上界帧fM采用Epanechikov核密度估计车辆快速提取方法提取出可能的机动车区域集合S={s1,s2,s3,...,sM},si
步骤S33:如果cardS等于0,则说明该窗口为近似静止窗口,不对滑动窗口中的图像进行车牌检测和车牌识别;
步骤S34:如果cardS大于0,则说明该窗口的图像中出现了感兴趣的区域,需要采用监听回退的AFRD方法来保证检测的完整性;监听回退的AFRD方法是当上界帧fM检测到了感兴趣的区域,令下界帧为fN,则检测点回退至如果出现感兴趣区域则将M更新为否则将N更新为直至M<=N为止,从而找到了不丢失检测的最远图像帧,在这个图像帧中进行车牌检测与车牌识别;
进一步地,在所述步骤S31中,对视频帧进行过滤得到感兴趣的帧图像,通过如下步骤实现所述慢开始策略:
步骤S311:令Threshholdsend表示滑动窗口的阈值,Slidew表示滑动窗口的尺寸,开始时Slidew=1;
步骤S312:系统根据滑动窗口尺寸来决定从视频流中读取的图像帧的数量,当前滑动窗口没有检测到感兴趣区域的时候按照下式增大滑动窗口
步骤S313:当前滑动窗口检测到感兴趣区域的时候Slidew从1开始重新开始慢开始策略;
步骤S314:采用慢开始策略是基于帧图像的时间局部性原理,某图像帧检测到感兴趣的区域时,它的后一图像帧在很大程度也是属于感兴趣的图像帧;
进一步地,在所述步骤S34中,通过如下步骤实现车牌检测:
步骤S41:用式:为边缘检测去除干扰噪声;
步骤S42:灰度化处理为边缘检测准备灰度化的环境
步骤S43:采用Sobel边缘检测算子对车牌边缘进行检测;
步骤S44:采用基于HSV色彩空间的车牌检测:将饱和度,亮度都固定为1,色调分量处于200与290之间的颜色属于蓝色,色调分量处于30与90之间的颜色属于黄色,将符合该性质的像素标记为白色像素,否则标记为黑色像素,最后将二值图像进行形态学检测、闭操作、取轮廓等方法将车牌截取出来,从而得到车牌的潜在区域;
步骤S45:利用基于MSER的车牌文字检测方法对车牌进行检测;
步骤S46:采用基于形态学和连通域的车牌筛选:通过闭操作将多个孤立的字符连接成一个整体,形成车牌的一个大致轮廓,采用过滤规则来对连通域进行过滤,在进行过滤前先对连通域做外接矩形操作,令ω表示车牌宽高比浮动偏差率,aspectratio表示当前连通域外接矩形宽高比,area表示当前外接矩形面积,aspectratioMax表示系统能接受的最大宽高比,aspectratioMin表示系统所能接受的最小宽高比,areaMax表示系统能够接受的最大矩形面积,areaMin表示系统能接受的最小矩形面积,则对于任何一个连通域的外接矩形都应满足如下条件:
步骤S47:多方法检测融合。
进一步地,在所述步骤S45中,采用基于MSER的车牌文字检测方法对车牌进行检测时,通过如下步骤实现车牌检测:
步骤S451:G={y1,y2,...,yM},yi∈y表示通过MSER提取的所有最大稳定极值区域,对任意最大稳定极值区域G′={y′,y′2,...,y′N},y′i∈y进行尺寸判断,筛选出符合车牌字符尺寸的区域;
步骤S452:多层次特征融合分类器将对剩余的区域进行判断,得到G*={(y1′,p1),(y′2,p2),...,(y′N,pN)},y′i∈y,其中pi为y′i属于车牌字符的概率
步骤S453:如果pi≥Threadhold,其中Threadhold为强字符区域的阈值,该情况下说明邻近区域很可能是车牌潜在区域,对邻域内的强字符区域进行聚合,作一条线穿过若干个强字符区域中心,这条穿过若干个强字符区域中心线段很大程度上可能是车牌的中轴线;
步骤S454:继续查找该线段附近pi<Threadhold的区域y′i,该区域距离强字符区域的距离要小于设定的阈值,同时,长宽比例及尺寸也接近于强字符区域的均值;
步骤S455:对于满足1≤i<j≤N的任意i,j,如果字符区域y′i的宽度width(y′i)、中点的纵坐标positiony(y′i)满足:则说明两个最大极值区域存在新的字符方库,此时如果N<7则说明存在一个通过MSER无法提取的字符区域,且这个区域不在两个已提取字符区域中,如果第一个字符方库是中文字符则在最右边的字符后面做滑动窗口字符检测操作;
步骤S456:如果第一个字符方库不是中文字符则对最左边字符方库的左边进行滑动窗口字符检测操作;
步骤S457:滑动窗口属于车牌字符的概率pslide应满足下式:其中Threadholdc为字符的最小置信度。
进一步地,在所述步骤S47中,通过如下步骤实现多方法检测融合:
步骤S471:令G={(y1,p1),(y2,p2),...,(yN,pN)},yi∈y表示经过检测后的候选区域yi属于车牌的概率pi,集合表示最终确定的车牌图像集合,开始时令
步骤S472:算法开始时对集合G按置信度从大到小的顺序排列得到集合:G*={(y′1,p1),(y′2,p2),...,(y′N,pN)},pi≤pi-1,i=2,3,...,N;
步骤S473:对于任意y′i,i=1,2,…,N计算与其后的任意图像y′j的重叠区域面积与两者面积较小的图像面积的比值IOU,若超出阈值则将y′j抑制,直到j=N;
步骤S474:将y′i加入到集合直到
相较于现有技术,本发明具有以下有益效果:本发明构建采用Epanechikov核函数和车辆自适应的快速车辆检测算法,对可能的车辆进行检测,然后在潜在区域进行车牌检测与识别,加快检测速度,提高识别准确率。在此基础上,本文提出了帧滑动算法,在不丢失检测的情况下进一步加快检测速度。本文在颜色和形态学检测的基础上增加了一种基于最大稳定极值区域的车牌文字车牌检测法,在充分利用车牌颜色为蓝色或者黄色的颜色特性和几何特征的同时,利用最大稳定极值区域的车牌文字车牌检测法对其进行有效的补充,并采用车牌非极大值抑制的方法对多种检测方式得到的可能的车牌图像进行非极大值抑制,得到最精确的结果,改善车牌识别系统在低对比度、低光照等恶劣环境下的鲁棒性。
附图说明
图1是本发明监控场景下高鲁棒性的快速车牌定位方法的流程图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
本实施例提供一种监控场景下高鲁棒性的快速车牌定位方法,如图1所示,针对基于高分辨率的视频的车牌识别对系统实时性造成巨大挑战的问题,我们提出了用Epanechikov核和帧自适应的运动检测方法。该方法首先利用基于Epanechikov核的背景差分法,从视频流中检测是否有运动发生,再根据运动情况采用帧自适应的运动目标过滤,从而加快车牌识别速度。该方法利用车牌的大小去动态估计车辆大小,将不符合规则的连通区域过滤掉,减少车牌的检测时间。同时,我们提出了基于AFRD的帧滑动算法,通过无效帧的检测,在不降低准确率的前提下提升车牌识别系统对视频流的处理速度,对提高车牌识别系统的实时性具有重大意义。针对车牌检测鲁棒性不够的问题,本文在颜色和形态学检测的基础上增加了一种基于最大稳定极值区域的车牌文字车牌检测法,在充分利用车牌颜色为蓝色或者黄色的颜色特性和几何特征的同时,利用最大稳定极值区域的车牌文字车牌检测法对其进行有效的补充,并采用车牌非极大值抑制的方法对多种检测方式得到的可能的车牌图像进行非极大值抑制,得到最精确的结果,改善车牌识别系统在低对比度、低光照等恶劣环境下的鲁棒性,具体包括以下步骤:
步骤S1:对车牌训练图像进行语义分组,即将车牌图像分为车牌和非车牌两个语义组,并按组将训练图像输入到支持向量机中进行训练;
步骤S2:采用基于Epanechikov核密度估计自适应快速车辆检测方法对车辆区域进行快速检测;
步骤S3:利用基于AFRD的帧滑动算法对视频帧进行过滤,得到感兴趣的帧图像;
步骤S4:对感兴趣帧图像中车辆区域采用形态学、颜色和MSER相结合的方法对车牌进行检测;
步骤S5:对步骤S4中得到的候选车牌运用步骤S1中训练好的支持向量机进行二元分类,得到正确的车牌。
在本实施例中,在所述步骤S2中,通过如下步骤对车辆区域进行快速检测:
步骤S21:将式:作为背景建模的模型,其中,随机变量X是若干组观测值,假定随机变量X符合Epanechikov核密度估计模型,根据X的观测值使用最大期望算法对Epanechikov核密度估计模型进行参数估计;
步骤S22:模型和参数都确定好后需要根据确定好的模型对图像中的观测像素x是前景像素和背景像素进行判断,如果像素点x与Epanechikov密度估计模型估计值的距离满足式:||x-f(x)||<σ,就认为像素点x近似服从Epanechikov估计分布,应该把该像素点作为背景像素,否则的话作为前景像素,其中σ为阈值。
步骤S23:检测到了图像中的所有前景像素以后,下一步利用闭运算得到若干连通块,连通块包括机动车、行人、自行车在内的运动物体,采用一个自适应车辆过滤器快速滤过干扰因素;令pi为依次检测到的第i个车牌,S(pi)为对第i个车牌求面积的运算,则有:对于则对于每个连通域Contour都应该满足式:S(pi)Magnifymin≤S(Contour)≤S(pi)Magnifymax,其中Magnifymin为放大因子的下界,为Magnifymax车牌放大因子的上界;车牌放大因子既可以过滤行人、自行车等无关运动物体的干扰,同时也能将距离摄像头较远的机动车过滤达到加快识别速度,稳定识别的作用。
在本实施例中,在所述步骤S3中,通过如下步骤对视频帧进行过滤,得到感兴趣的帧图像:
步骤S31:帧滑动算法采用慢开始策略slow start一次从视频流中读取一个窗口大小的图像帧进入滑动缓冲区,令F={f1,f2,f3,...,fM},fi为读取到的图像帧;
步骤S32:然后对滑动窗口的上界帧fM采用Epanechikov核密度估计车辆快速提取方法提取出可能的机动车区域集合S={s1,s2,s3,...,sM},si
步骤S33:如果cardS等于0,则说明该窗口为近似静止窗口,不对滑动窗口中的图像进行车牌检测和车牌识别;
步骤S34:如果cardS大于0,则说明该窗口的图像中出现了感兴趣的区域,需要采用监听回退的AFRD方法来保证检测的完整性;监听回退的AFRD方法是当上界帧fM检测到了感兴趣的区域,令下界帧为fN,则检测点回退至如果出现感兴趣区域则将M更新为否则将N更新为直至M<=N为止,从而找到了不丢失检测的最远图像帧,在这个图像帧中进行车牌检测与车牌识别;
在本实施例中,在所述步骤S31中,对视频帧进行过滤得到感兴趣的帧图像,通过如下步骤实现所述慢开始策略:
步骤S311:令Threshholdsend表示滑动窗口的阈值,Slidew表示滑动窗口的尺寸,开始时Slidew=1;
步骤S312:系统根据滑动窗口尺寸来决定从视频流中读取的图像帧的数量,当前滑动窗口没有检测到感兴趣区域的时候按照下式增大滑动窗口
步骤S313:当前滑动窗口检测到感兴趣区域的时候Slidew从1开始重新开始慢开始策略;
步骤S314:采用慢开始策略是基于帧图像的时间局部性原理,某图像帧检测到感兴趣的区域时,它的后一图像帧在很大程度也是属于感兴趣的图像帧;
在本实施例中,在所述步骤S34中,通过如下步骤实现车牌检测:
步骤S41:用式:为边缘检测去除干扰噪声;
步骤S42:灰度化处理为边缘检测准备灰度化的环境
步骤S43:采用Sobel边缘检测算子对车牌边缘进行检测;
步骤S44:采用基于HSV色彩空间的车牌检测:将饱和度,亮度都固定为1,色调分量处于200与290之间的颜色属于蓝色,色调分量处于30与90之间的颜色属于黄色,将符合该性质的像素标记为白色像素,否则标记为黑色像素,最后将二值图像进行形态学检测、闭操作、取轮廓等方法将车牌截取出来,从而得到车牌的潜在区域;
步骤S45:利用基于MSER的车牌文字检测方法对车牌进行检测;
步骤S46:采用基于形态学和连通域的车牌筛选:通过闭操作将多个孤立的字符连接成一个整体,形成车牌的一个大致轮廓,采用过滤规则来对连通域进行过滤,在进行过滤前先对连通域做外接矩形操作,令ω表示车牌宽高比浮动偏差率,aspectratio表示当前连通域外接矩形宽高比,area表示当前外接矩形面积,aspectratioMax表示系统能接受的最大宽高比,aspectratioMin表示系统所能接受的最小宽高比,areaMax表示系统能够接受的最大矩形面积,areaMin表示系统能接受的最小矩形面积,则对于任何一个连通域的外接矩形都应满足如下条件:
步骤S47:多方法检测融合。
在本实施例中,在所述步骤S45中,采用基于MSER的车牌文字检测方法对车牌进行检测时,通过如下步骤实现车牌检测:
步骤S451:G={y1,y2,...,yM},yi∈y表示通过MSER提取的所有最大稳定极值区域,对任意最大稳定极值区域G′={y′,y′2,...,y′N},y′i∈y进行尺寸判断,筛选出符合车牌字符尺寸的区域;
步骤S452:多层次特征融合分类器将对剩余的区域进行判断,得到G*={(y′1,p1),(y′2,p2),...,(y′N,pN)},y′i∈y,其中pi为y′i属于车牌字符的概率
步骤S453:如果pi≥Threadhold,其中Threadhold为强字符区域的阈值,该情况下说明邻近区域很可能是车牌潜在区域,对邻域内的强字符区域进行聚合,作一条线穿过若干个强字符区域中心,这条穿过若干个强字符区域中心线段很大程度上可能是车牌的中轴线;
步骤S454:继续查找该线段附近pi<Threadhold的区域yi′,该区域距离强字符区域的距离要小于设定的阈值,同时,长宽比例及尺寸也接近于强字符区域的均值;
步骤S455:对于满足1≤i<j≤N的任意i,j,如果字符区域y′i的宽度width(y′i)、中点的纵坐标positiony(y′i)满足:则说明两个最大极值区域存在新的字符方库,此时如果N<7则说明存在一个通过MSER无法提取的字符区域,且这个区域不在两个已提取字符区域中,如果第一个字符方库是中文字符则在最右边的字符后面做滑动窗口字符检测操作;
步骤S456:如果第一个字符方库不是中文字符则对最左边字符方库的左边进行滑动窗口字符检测操作;
步骤S457:滑动窗口属于车牌字符的概率pslide应满足下式:其中Threadholdc为字符的最小置信度。
进一步地,在所述步骤S47中,通过如下步骤实现多方法检测融合:
步骤S471:令G={(y1,p1),(y2,p2),...,(yN,pN)},yi∈y表示经过检测后的候选区域yi属于车牌的概率pi,集合表示最终确定的车牌图像集合,开始时令
步骤S472:算法开始时对集合G按置信度从大到小的顺序排列得到集合:G*={(y′1,p1),(y′2,p2),...,(y′N,pN)},pi≤pi-1,i=2,3,...,N;
步骤S473:对于任意y′i,i=1,2,…,N计算与其后的任意图像y′j的重叠区域面积与两者面积较小的图像面积的比值IOU,若超出阈值则将y′j抑制,直到j=N;
步骤S474:将y′i加入到集合直到
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。

Claims (6)

1.一种监控场景下高鲁棒性的快速车牌定位方法,其特征在于:包括以下步骤:
步骤S1:对车牌训练图像进行语义分组,即将车牌图像分为车牌和非车牌两个语义组,并按组将训练图像输入到支持向量机中进行训练;
步骤S2:采用基于Epanechikov核密度估计自适应快速车辆检测方法对车辆区域进行快速检测;
步骤S3:利用基于AFRD的帧滑动算法对视频帧进行过滤,得到感兴趣的帧图像;
步骤S4:对感兴趣帧图像中车辆区域采用形态学、颜色和MSER相结合的方法对车牌进行检测;
步骤S5:对步骤S4中得到的候选车牌运用步骤S1中训练好的支持向量机进行二元分类,得到正确的车牌;
其中,在所述步骤S2中,通过如下步骤对车辆区域进行快速检测:
步骤S21:将式:作为背景建模的模型,其中,随机变量X是若干组观测值,假定随机变量X符合Epanechikov核密度估计模型,根据X的观测值使用最大期望算法对Epanechikov核密度估计模型进行参数估计;
步骤S22:模型和参数都确定好后需要根据确定好的模型对图像中的观测像素x是前景像素和背景像素进行判断,如果像素点x与Epanechikov密度估计模型估计值的距离满足式:||x-f(x)||<σ,就认为像素点x近似服从Epanechikov估计分布,应该把该像素点作为背景像素,否则的话作为前景像素,其中σ为阈值;
步骤S23:检测到了图像中的所有前景像素以后,下一步利用闭运算得到若干连通块,连通块包括机动车、行人、自行车在内的运动物体,采用一个自适应车辆过滤器快速滤过干扰因素;令pi为依次检测到的第i个车牌,S(pi)为对第i个车牌求面积的运算,则有:对于则对于每个连通域Contour都应该满足式:S(pi)Magnifymin≤S(Contour)≤S(pi)Magnifymax,其中Magnifymin为放大因子的下界,Magnifymax为车牌放大因子的上界。
2.根据权利要求1所述的一种监控场景下高鲁棒性的快速车牌定位方法,其特征在于:在所述步骤S3中,通过如下步骤对视频帧进行过滤,得到感兴趣的帧图像:
步骤S31:帧滑动算法采用慢开始策略slow start一次从视频流中读取一个窗口大小的图像帧进入滑动缓冲区,令F={f1,f2,f3,...,fM},fi为读取到的图像帧;
步骤S32:然后对滑动窗口的上界帧fM采用Epanechikov核密度估计车辆快速提取方法提取出可能的机动车区域集合S={s1,s2,s3,...,sM},si
步骤S33:如果cardS等于0,则说明该窗口为近似静止窗口,不对滑动窗口中的图像进行车牌检测和车牌识别;
步骤S34:如果cardS大于0,则说明该窗口的图像中出现了感兴趣的区域,需要采用监听回退的AFRD方法来保证检测的完整性;监听回退的AFRD方法是当上界帧fM检测到了感兴趣的区域,令下界帧为fN,则检测点回退至如果出现感兴趣区域则将M更新为否则将N更新为直至M<=N为止,从而找到了不丢失检测的最远图像帧,在这个图像帧中进行车牌检测与车牌识别。
3.根据权利要求2所述的一种监控场景下高鲁棒性的快速车牌定位方法,其特征在于:在所述步骤S31中,对视频帧进行过滤得到感兴趣的帧图像,通过如下步骤实现所述慢开始策略:
步骤S311:令Threshholdsend表示滑动窗口的阈值,Slidew表示滑动窗口的尺寸,开始时Slidew=1;
步骤S312:系统根据滑动窗口尺寸来决定从视频流中读取的图像帧的数量,当前滑动窗口没有检测到感兴趣区域的时候按照下式增大滑动窗口
步骤S313:当前滑动窗口检测到感兴趣区域的时候Slidew从1开始重新开始慢开始策略;
步骤S314:采用慢开始策略是基于帧图像的时间局部性原理,某图像帧检测到感兴趣的区域时,它的后一图像帧在很大程度也是属于感兴趣的图像帧。
4.根据权利要求2所述的一种监控场景下高鲁棒性的快速车牌定位方法,其特征在于:在所述步骤S34中,通过如下步骤实现车牌检测:
步骤S41:用式:为边缘检测去除干扰噪声;
步骤S42:灰度化处理为边缘检测准备灰度化的环境
步骤S43:采用Sobel边缘检测算子对车牌边缘进行检测;
步骤S44:采用基于HSV色彩空间的车牌检测:将饱和度,亮度都固定为1,色调分量处于200与290之间的颜色属于蓝色,色调分量处于30与90之间的颜色属于黄色,将符合该性质的像素标记为白色像素,否则标记为黑色像素,最后将二值图像进行形态学检测、闭操作、取轮廓等方法将车牌截取出来,从而得到车牌的潜在区域;
步骤S45:利用基于MSER的车牌文字检测方法对车牌进行检测;
步骤S46:采用基于形态学和连通域的车牌筛选:通过闭操作将多个孤立的字符连接成一个整体,形成车牌的一个大致轮廓,采用过滤规则来对连通域进行过滤,在进行过滤前先对连通域做外接矩形操作,令ω表示车牌宽高比浮动偏差率,aspectratio表示当前连通域外接矩形宽高比,area表示当前外接矩形面积,aspectratioMax表示系统能接受的最大宽高比,aspectratioMin表示系统所能接受的最小宽高比,areaMax表示系统能够接受的最大矩形面积,areaMin表示系统能接受的最小矩形面积,则对于任何一个连通域的外接矩形都应满足如下条件:
步骤S47:多方法检测融合。
5.根据权利要求4所述的一种监控场景下高鲁棒性的快速车牌定位方法,其特征在于:在所述步骤S45中,采用基于MSER的车牌文字检测方法对车牌进行检测时,通过如下步骤实现车牌检测:
步骤S451:G={y1,y2,…,yM},yi∈y表示通过MSER提取的所有最大稳定极值区域,对任意最大稳定极值区域G′={y′,y′2,...,y′N},y′i∈y进行尺寸判断,筛选出符合车牌字符尺寸的区域;
步骤S452:多层次特征融合分类器将对剩余的区域进行判断,得到G*={(y′1,p1),(y′2,p2),...,(y′N,pN)},y′i∈y,其中pi为y′i属于车牌字符的概率
步骤S453:如果pi≥Threadhold,其中Threadhold为强字符区域的阈值,该情况下说明邻近区域很可能是车牌潜在区域,对邻域内的强字符区域进行聚合,作一条线穿过若干个强字符区域中心,这条穿过若干个强字符区域中心线段很大程度上可能是车牌的中轴线;
步骤S454:继续查找该线段附近pi<Threadhold的区域y′i,该区域距离强字符区域的距离要小于设定的阈值,同时,长宽比例及尺寸也接近于强字符区域的均值;
步骤S455:对于满足1≤i<j≤N的任意i,j,如果字符区域y′i的宽度width(y′i)、中点的纵坐标positiony(y′i)满足:则说明两个最大极值区域存在新的字符方库,此时如果N<7则说明存在一个通过MSER无法提取的字符区域,且这个区域不在两个已提取字符区域中,如果第一个字符方库是中文字符则在最右边的字符后面做滑动窗口字符检测操作;
步骤S456:如果第一个字符方库不是中文字符则对最左边字符方库的左边进行滑动窗口字符检测操作;
步骤S457:滑动窗口属于车牌字符的概率pslide应满足下式:其中Threadholdc为字符的最小置信度。
6.根据权利要求4所述的一种监控场景下高鲁棒性的快速车牌定位方法,其特征在于:在所述步骤S47中,通过如下步骤实现多方法检测融合:
步骤S471:令G={(y1,p1),(y2,p2),...,(yN,pN)},yi∈y表示经过检测后的候选区域yi属于车牌的概率pi,集合表示最终确定的车牌图像集合,开始时令
步骤S472:算法开始时对集合G按置信度从大到小的顺序排列得到集合:G*={(y′1,p1),(y′2,p2),...,(y′N,pN)},pi≤pi-1,i=2,3,...,N;
步骤S473:对于任意y′i,i=1,2,…,N计算与其后的任意图像y′j的重叠区域面积与两者面积较小的图像面积的比值IOU,若超出阈值则将y′j抑制,直到j=N;
步骤S474:将y′i加入到集合直到
CN201710277191.XA 2017-04-25 2017-04-25 一种监控场景下高鲁棒性的快速车牌定位方法 Active CN107122732B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710277191.XA CN107122732B (zh) 2017-04-25 2017-04-25 一种监控场景下高鲁棒性的快速车牌定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710277191.XA CN107122732B (zh) 2017-04-25 2017-04-25 一种监控场景下高鲁棒性的快速车牌定位方法

Publications (2)

Publication Number Publication Date
CN107122732A CN107122732A (zh) 2017-09-01
CN107122732B true CN107122732B (zh) 2019-12-31

Family

ID=59725476

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710277191.XA Active CN107122732B (zh) 2017-04-25 2017-04-25 一种监控场景下高鲁棒性的快速车牌定位方法

Country Status (1)

Country Link
CN (1) CN107122732B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109670532B (zh) * 2018-11-23 2022-12-09 腾讯医疗健康(深圳)有限公司 生物体器官组织图像的异常识别方法、装置及系统
CN109543669A (zh) * 2018-12-04 2019-03-29 龙马智芯(珠海横琴)科技有限公司 文字的处理方法及装置、存储介质、电子装置
CN111027544B (zh) * 2019-11-29 2023-09-29 武汉虹信技术服务有限责任公司 一种基于视觉显著性检测的mser车牌定位方法及系统
CN111476230B (zh) * 2020-03-05 2023-04-18 重庆邮电大学 一种改进mser与多特征支持向量机相结合的车牌定位方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101266689A (zh) * 2008-04-23 2008-09-17 北京中星微电子有限公司 一种运动目标检测方法及装置
CN101833117A (zh) * 2010-05-24 2010-09-15 长沙博通电子科技有限公司 智能车辆安全视觉检测装置及运动目标跟踪方法
CN102411368A (zh) * 2011-07-22 2012-04-11 北京大学 机器人的主动视觉人脸跟踪方法和跟踪系统
CN103235938A (zh) * 2013-05-03 2013-08-07 北京国铁华晨通信信息技术有限公司 车牌检测与识别的方法及系统
CN105373794A (zh) * 2015-12-14 2016-03-02 河北工业大学 一种车牌识别方法
CN105893951A (zh) * 2016-03-29 2016-08-24 华东师范大学 一种面向无人驾驶车的多维非穿戴式交警手势识别方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101266689A (zh) * 2008-04-23 2008-09-17 北京中星微电子有限公司 一种运动目标检测方法及装置
CN101833117A (zh) * 2010-05-24 2010-09-15 长沙博通电子科技有限公司 智能车辆安全视觉检测装置及运动目标跟踪方法
CN102411368A (zh) * 2011-07-22 2012-04-11 北京大学 机器人的主动视觉人脸跟踪方法和跟踪系统
CN103235938A (zh) * 2013-05-03 2013-08-07 北京国铁华晨通信信息技术有限公司 车牌检测与识别的方法及系统
CN105373794A (zh) * 2015-12-14 2016-03-02 河北工业大学 一种车牌识别方法
CN105893951A (zh) * 2016-03-29 2016-08-24 华东师范大学 一种面向无人驾驶车的多维非穿戴式交警手势识别方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"多摄像机人体跟踪技术的研究";张莉;《中国博士学位论文全文数据库 信息科技辑》;20090715(第7期);正文第3.6节,第4.6节 *

Also Published As

Publication number Publication date
CN107122732A (zh) 2017-09-01

Similar Documents

Publication Publication Date Title
CN101872546B (zh) 一种基于视频的过境车辆快速检测方法
CN107122732B (zh) 一种监控场景下高鲁棒性的快速车牌定位方法
CN109918971B (zh) 监控视频中人数检测方法及装置
WO2022027931A1 (zh) 基于视频图像的运动车辆前景检测方法
CN106886778B (zh) 一种监控场景下车牌字符分割与识别方法
CN106686280A (zh) 影像修补系统及其方法
CN108280409B (zh) 一种基于多特征融合的大空间视频烟雾检测方法
CN111860120A (zh) 车载相机自动遮挡检测方法和装置
Ma et al. An all-weather lane detection system based on simulation interaction platform
CN105046719A (zh) 一种视频监控方法及系统
CN105046948A (zh) 一种黄色网格线区域内交通违章停车监测系统和方法
Nejati et al. License plate recognition based on edge histogram analysis and classifier ensemble
CN116229423A (zh) 基于改进的Canny边缘检测算法和SVM的无人驾驶中的小目标检测方法
CN109766846B (zh) 一种基于视频的自适应多车道车流检测方法及系统
CN107977608B (zh) 一种应用于公路视频图像道路区域提取的方法
Song et al. All-day traffic states recognition system without vehicle segmentation
Chen et al. Head-shoulder detection using joint HOG features for people counting and video surveillance in library
CN116152758A (zh) 一种智能实时事故检测及车辆跟踪方法
Liu et al. Vehicle capturing and counting using a new edge extraction approach
Xiang et al. Research on target detection method based on HSV fusion Gaussian mixture model
CN106951831B (zh) 一种基于深度摄像机的行人检测跟踪方法
CN114373147A (zh) 一种用于低纹理视频车牌的检测方法
Li et al. A fog level detection method based on grayscale features
CN110321828B (zh) 一种基于双目摄像机和车底阴影的前方车辆检测方法
CN114782268A (zh) 一种改进surf算法的低照度图像增强方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant