CN101957309B - 一种能见度的全天候视频测量方法 - Google Patents

一种能见度的全天候视频测量方法 Download PDF

Info

Publication number
CN101957309B
CN101957309B CN2010102558673A CN201010255867A CN101957309B CN 101957309 B CN101957309 B CN 101957309B CN 2010102558673 A CN2010102558673 A CN 2010102558673A CN 201010255867 A CN201010255867 A CN 201010255867A CN 101957309 B CN101957309 B CN 101957309B
Authority
CN
China
Prior art keywords
image
target
visibility
value
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2010102558673A
Other languages
English (en)
Other versions
CN101957309A (zh
Inventor
邹小春
凌睿
须民健
袁源
李茂华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Merchants Chongqing Communications Research and Design Institute Co Ltd
Original Assignee
China Merchants Chongqing Communications Research and Design Institute Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Merchants Chongqing Communications Research and Design Institute Co Ltd filed Critical China Merchants Chongqing Communications Research and Design Institute Co Ltd
Priority to CN2010102558673A priority Critical patent/CN101957309B/zh
Publication of CN101957309A publication Critical patent/CN101957309A/zh
Application granted granted Critical
Publication of CN101957309B publication Critical patent/CN101957309B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开一种能见度的全天候视频测量方法,其特征在于按以下步骤进行:一、能见度测量模型建立,设置靶标,建立能见度模型数据库,建立能见度测量模型,能见度测量模型的数据整合;二、能见度测量,靶标图像的摄取和识别,靶标图像的特征提取,能见度计算。本发明的显著效果是,能满足不同地点、不同时间、不同路况、不同气候变化的高准确度能见度检测的需要;在环境变化的情况下依然能准确反映出图像特征与能见度之间的映射规律。

Description

一种能见度的全天候视频测量方法
技术领域
本发明涉及智能交通技术领域,涉及一种公路及其隧道中的大气能见度测量方法,主要用于公路及公路隧道环境中的一种能见度的全天候视频实时测量方法。
背景技术
在我国公路在促进国民经济快速发展的同时,较高的公路交通事故发生率和死亡率也给经济的高速发展、社会的持续稳定和人民的生命财产安全带来了诸多的不利影响。据统计,在所有高速公路的交通事故中,因雨雾等恶劣天气影响造成的交通事故就占1/4左右,雾天高速公路地事故率时平常地10倍,即低能见度环境是造成高速公路交通事故的一个非常重要的因素。因此,对高速公路沿线的天气尤其是能见度情况进行全程全天候的实时监控,实现不分昼夜,随时预警低能见度特别是随机雾团、瞬时雨雪、沙尘等短时低能见度天气,对交通运输安全有着非常重要的意义。
另一方面,随着我国公路交通事业的快速发展,公路隧道尤其是高速公路隧道大量建设和投入运营,公路隧道的交通安全问题也日益得到重视。
对道路上行驶的车辆来说,公路隧道是一个特殊的地域,烟尘大、光线暗导致洞内能见度低,封闭的空间也给人以压抑感,这些因素作用在驾驶员身上,使驾驶员处理问题的能力也较洞外有所降低,如果发生意外,驾驶员容易惊慌失措,处理失常。据有关部门统计,公路隧道每公里的事故发生率大约相当于普通路段的3倍,由于能见度降低,如果有车辆在隧道内发生意外,后面车辆不易及时发现,甚至隧道监控中心也不易及时发现,这也容易导致二次事故的发生,在多条公路上都有惨痛的案例发生。所以目前在高速公路的长隧道(1Km以上)中一般都设置了能见度检测器,如果发现能见度过低,就及时开启风机进行通风,或增开照明灯具,增加隧道内的能见度。
目前,在公路中投入使用的能见度检测仪主要分为两类,一类是透射式能见度仪,根据透射原理工作,发射器和接收器相对安装,安装距离间隔3米~20米,利用支架固定对准后,光学部件发出的可见光或激光成为一条检测光束,通过光路衰减后到达接收器,接收器检测该信号后处理为测量值。透射式能见度仪主要应用于隧道内。另一类是散射式能见度仪,其中以前向式散射仪为主,通过测量一个小的采样容积的散射光强,来计算消光系数。
该两类检测仪的主要缺点是:
(1)由于发射点和接收点之间的透射率或散射系数和波长有关,仪器测量的结果可能和按人眼视觉特性评价结果相差较大。
(2)对于隧道内常用的透射式能见度仪来说,由于车辆通过的不确定性和隧道环境的封闭性,隧道内的粉尘浓度、水雾浓度等分布可能极不均匀,在现有仪器安装位置的环境空间的粉尘浓度、水雾浓度等可能与整个隧道大部分空间的参数差别较大,以此位置的一条线所测量出的能见度来作为整个隧道内的能见度,可能产生较大误差。
(3)现有能见度仪器价格昂贵,难以大量应用。
随着视频技术的不断发展,以及图像处理算法的日益完善,基于视频的能见度检测方法渐渐发展起来。目前,已有的一些视频测量手段主要是基于无源靶标(单一或多个)以及纯图像处理算法两大类,由于受夜间光照影响与制约,该类能见度检测手段基本仅适用于白天的能见度检测,而难以满足全天候实时检测的需要。
国外从上世纪90年代开始研究利用视频图像进行能见度检测,美国明尼苏达大学2004年公布的《Atmospheric visibility Measurements Using VideoCameras:Relative Visibility》一文和相关专利中,使用照相机和多个靶标,将靶标的对比度值进行能见度非线性曲线拟合,得出日间的能见度值。
国内成都易航信息科技有限公司于2003年和2006年申请了自校准大气能见度测量方法和系统专利,对多个靶标拍摄照片,提取特征区域,计算其亮度、对比度、空间分辨率,再对比人眼可见参数表计算出能见度距离。
深圳先进技术研究院在2007年申请的大气能见度测量方法专利,以某一固定场景作为观测点,通过摄像获得多个能见度条件下的该场景图像边缘强度值,及与能见度的对应关系,获得能见度数据库,再测量当前图像的边缘强度,计算得到当前大气能见度值。
辽宁姜廷顺等于2008年申请的一种能见度检测系统和方法专利,采用了三个目标发光光源作为测量靶标,计算出目标发光源点亮和熄灭的亮度差,亮度差超过预先设定的目标发光源可见阈值则认为目标发光源可见,通过检测多个发光源的可见性来判断道路的能见度。
南京大学2008年申请的能见度检测方法专利,使用高速公路外场路侧摄像机摄取多个角度、位置、时间的视频图像,将图像信息转换成距离信息,然后进行符合人眼的能见度分析,得出能见度值距离。
这些技术的局限在于,首先,不能做到全天候条件下连续检测环境能见度;其次,大多是使用图像信息处理的方法提取出图像的特征,再根据光学原理构建视频图像信息和能见度之间的关系模型,属于机理建模的方式。但由于检测环境的复杂性和光路的复杂性,使用机理建模难免有偏差;而使用一种机理建模不能满足不同地点、不同路况、不同气候变化的高准确度能见度检测的需要;若使用复杂的机理模型,则会增加工程应用的难度,不便于软件的维护和升级,而有的专利中使用数据拟合的方式或查表的方式,在环境变化的情况下不能准确反映出图像特征与能见度之间映射规律。
发明内容
本发明的目的是提供一种能见度的全天候视频测量方法,能满足不同地点、不同路况、不同气候变化的高准确度能见度检测的需要;在环境变化的情况下依然能准确反映出图像特征与能见度之间的映射规律。
为达到上述目的,本发明表述一种能见度的全天候视频测量方法,其关键在于按以下步骤进行:
一、能见度测量模型建立
1.1设置靶标,所述靶标为自带光源的黑色和白色条纹相间图像;
1.2建立能见度模型数据库;
通过摄像头获取在九个能见度条件下的靶标视频图像信息,利用图像处理方法提取靶标的视频图像特征,靶标的视频图像特征有:靶标图像灰度均值g1,靶标图像图形的边缘总长度b,靶标图像的对比度c,图像的亮度分布峰值距离h;
以靶标的视频图像特征与能见度数据,建立能见度模型数据库;
1.3建立能见度测量模型;
对九个能见度条件下的靶标视频图像特征:靶标图像灰度均值g1、靶标图像图形的边缘总长度b、靶标图像的对比度c、图像的亮度分布峰值距离h进行数据融合,生成九个能见度条件下的能见度测量值X,并将九个能见度条件下的能见度测量值X输入神经网络训练,得到从图像特征数据到能见度值的神经网络映射模型;
这里可以用到的方法还有“支持向量机”和“贝叶斯网络”两种方法。“支持向量机”相关文献是《支持向量机导论》机械工业出版社,作者是克里斯蒂亚尼尼;“贝叶斯网络”相关文献是《贝叶斯网络学习、推理与应用》立信会计出版社,作者是王双成。两种方法都能对靶标视频图像特征进行网络训练。
1.4能见度测量模型的数据整合;
反复获取九个能见度条件下的靶标视频图像特征,并不断生成新的当前能见度下的能见度测量值X’,并运用数理统计的理论,将该新的当前能见度下的能见度测量值X’输入神经网络模型训练,获得最优能见度估计模型;
二、能见度测量
2.1靶标图像的摄取和识别
在现场安装靶标和用于视频数据获取的摄像头,利用PC机读取摄像头获得的视频图像,采用形态学和行扫描的办法识别靶标位置,并生成当前靶标的视频图像信息;
2.2靶标图像的特征提取
利用图像处理方法提取靶标的视频图像特征,靶标的视频图像特征有:靶标图像灰度均值g1,靶标图像图形的边缘总长度b,靶标图像的对比度c,图像的亮度分布峰值距离h;生成路段当前条件下的能见度测量值X1;
2.3能见度计算
将路段当前条件下的能见度测量值X1送入所述能见度测量神经网络模型中,经计算,获得环境能见度等级。
在能见度的视频测量方法中,所述靶标图像灰度均值g1的获取方法是:
采用现行标准的平局值法获得靶标图像灰度均值g1
用R.G.B分别表示原彩色图像中的红、绿、蓝分量,有:
g1=0.3R+0.59G+0.11B                                         (1)。
在本公路隧道能见度的视频测量方法中,所述靶标位置的识别方法是:
3.1、竖直方向差分边缘检测
采集到图像的背景水平纹理群丰富,根据水平纹理群,先将经过灰度处理的图像竖直方向做差分运算,其一阶差分运算式为:
g2(i,j)=|g1(i,j)-g1(i+1,j)|                              (2)
g2代表做竖直方向差分边缘检测后的图像,g1代表经过上面灰度处理后的图像,利用差分运算能有效检测横向边缘,使能见度检测靶标的定位更准确;
3.2、二值化处理
将靶标图像分为m×n大小的方块,设M为局部均值,σ为局部方差,t为局部阀值,有
σ = 1 m × n Σ i = 0 m Σ j = 0 n [ g 2 ( i , j ) - M ] 2
t = 128 1 + σ 256 - - - ( 3 )
图像中大于t的像素为255,反之为0。用g3代表二值化处理输出,g2代表上面经过竖直方向差分边缘检测的图像结果,二值化处理计算式如下:
g 3 = 255 , g 2 > t 0 , g 2 < t
3.3、形态学运算
采用形态学的滤波方法,使用1×k大小的结构元素对图像作横向腐蚀运算,k的取值通过系统调试决定,但k应根据噪声颗粒和非噪声颗粒的半径大小选取,这里的k应小于非噪声颗粒的横向长度,由第3.1竖直方向差分边缘检测出的靶标的横向边缘,并大于且接近噪声颗粒的半径,假设噪声颗粒的半径为rn,非噪声颗粒的最小横向长度为r1,其中r1>>rn,则k可取k=rn+(r1-rn)/10,以消除细小干扰,而非噪声颗粒半径rn,即靶标条纹在图像中所占的横向长度,可以根据靶标距摄像机的安装距离和摄像机的视角参数估计出,则rn以g3代表输入的二值化图像,B代表结构元素,g4代表腐蚀输出,腐蚀运算为:
g 4 = g 3 &Theta;B = { z | b + z &SubsetEqual; g 3 , b &Element; B } - - - ( 4 )
在腐蚀后的图像的基础上进行形态学闭运算,首先使用1×l结构元素作横向膨胀运算,l的取值通过系统调试决定,但l应根据噪声颗粒半径和非噪声颗粒的横向长度选取,和上面腐蚀算法不同的是这里的l应接近非噪声颗粒的横向长度,取l=r1-(r1-rn)/10。然后在使用同样大小的结构元素作横向腐蚀运算,g4代表经过上面腐蚀运算后的结果,g5代表膨胀运算的输出,C代表用于膨胀运算的结构元素,膨胀运算为:
g 5 = g 4 &CirclePlus; C = { z | ( - C + z ) &cap; C &NotEqual; &phi; } - - - ( 5 )
再做腐蚀运算                       g6=g5ΘC
形态学滤波最终输出为g6
3.3、靶标的定位
通过形态学的处理后,靶标区域形成连通候选区域,对列进行扫描,统计每行经过的连续的灰度值为255的像素点数目,再根据统计得到的数据,和阀值计算出靶标的纵向位置。竖向坐标范围计算式如下:
Y∈{y|f(g6,y)>τ}
上式中,Y代表靶标的坐标范围计算结果,f代表指定行连续灰度值为255的像素点的数目统计函数,g6代表经过上一步形态学处理的输出图像,y代表竖向坐标,τ代表阀值;
同样的原理使用到靶标的横向位置定位,至此可以识别出的根据坐标范围和经过灰度处理后的图像g1提取出灰度图像g1中的靶标图像g7
3.4、图像角度变换校正
使用Radon变换,图像变换前在图像空间,变换后在参数空间,可以表示为:        ρ=xcosθ+ysinθ            (6)
二维Radon变换即将(x,y)平面空间的一条直线ρ=xcosθ+ysinθ映射成Radon空间的一个点(ρ,θ),连续图像的Radon变换为:
R ( &rho; , &theta; ) = &Integral; &Integral; D g 7 ( x , y ) &delta; ( &rho; - x cos &theta; - y sin &theta; ) dxdy - - - ( 7 )
式中,D为整个图像平面,g7(x,y)为提取出的靶标图像上某一点(x,y)的像素点灰度值,特征函数δ为狄拉克函数,ρ为(x,y)平面内直线到原点的距离,θ为原点到直线的垂线与x轴的夹角,特征函数δ使积分沿着直线ρ=xcosθ+ysinθ进行,Radon变换后,(ρ,θ)也可重构原图像中的直线,其表达式为:
y=ρ/sinθ-xcotθ                    (8)
通过校正图像变换到Radon空间内的角度变量θ,在重构原图像,即可实现校正图像角度的目的,角度变换后的靶标图像为g8
3.4、靶标图像的距离校正
定义被提取特征的标准靶标图像大小为m×n,角度变换后的靶标图像g8的大小为m0×n0,并且有m>m0,n>n0,因此本部分选择采用图像的双线性插值算法,将图像放大到标准大小m×n,具体算法如下:
双线性插值是指利用映射点在输入图像的4个邻点的灰度值对映射点进插值,即待插点处的数值用离待插点最近的四个点的值加权求得,在同一行内根据待插值像素点与其前后的原图像像素点的位置距离进行加权线性插值,即离原图像像素点越近的待插值像素点,原图像像素的加权系数就越大;行间根据待插值行与其上下的原图像行间的距离进行加权线性插值,即离原图像行越近的待插值行,原图像行的加权系数就越大;
对于一个g9(x,y)目的像素,其对应于行列坐标值分别为目的像素坐标x,y,f分别除以行和列的放大倍数,行放大倍数为m/m0,列放大倍数为n/n0,通过反向变换映射为原图像的浮点坐标f(i+p,j+q),其中i和j均为非负整数,p和q是取余后[0,1]区间内的浮点数,则这个目的像素的值f(i+p,j+q)可由原图像中坐标为(i,j)、(i+1,j)、(i,j+1)、(i+1,j+1)所对应的周围四个像素的值来决定,如下公式
f(i+p,j+q)=(1-p)(1-q)g8(i,j)+(1-p)qg8(i+1,j)
+p(1-q)g8(i,j+1)+pqg8(i+1,j+1)
其中,g8(i,j)表示图像g8在位置(i,j)处的像素值,p,q随着放大后像素行列坐标的不同而改变,将这四个点的像素值按照权重不同做相加,得到放大图像f目标位置的像素值,最后将f映射回放大后的结果图像g9,通过别乘以行列放大倍数,将浮点坐标还原为g9中的整数坐标。
在本公路隧道能见度的视频测量方法中,所述靶标图像图形的边缘总长度b的获取方法是:
得到角度校正后的图像g9后即可进行图像特征提取,图像的边缘特征提取使用Canny算子方法,Canny算子方法通过高斯一阶微分计算梯度,寻找图像梯度的局部最大值,使用双阀值法检测强边缘和弱边缘,当弱边缘与强边缘链接成轮廓边缘才输出;
Canny边缘检测步骤为:
第一步:用高斯滤波器平滑图像
高斯平滑函数为:
H ( m , n ) = e - m 2 + n 2 2 &sigma; 2 - - - ( 9 )
可以通过设定m和n的范围和σ的大小决定高斯平滑滤波的模板大小和平滑尺度,用高斯平滑函数对图像进行滤波的计算式如下:
g10=g9*H                (10)
其中*为卷积符号;
第二步:用一阶偏导的有限差分来计算梯度的幅值和方向一阶差卷积分模板为:
H 1 = - 1 - 1 1 1 H 2 = 1 - 1 1 - 1
ψ1=g10*H1
ψ2=g10*H2
&psi; = &psi; 1 2 + &psi; 2 2 - - - ( 10 )
&theta; &psi; = tan - 1 &psi; 2 &psi; 1
第三步:对梯度幅值进行极大值抑制
仅仅得到全局的梯度并不足以确定边缘,因此为确定边缘,必须保留局部梯度最大的点,而抑制非极大值;
解决方法:利用梯度的方向:
ξ[x,y]=Sector(θψ[x,y])            (11)
对经过高斯平滑后的图像g10的每一点上,将领域的中心像素M与沿着梯度线的两个像素相比较,梯度信息来自于第二步计算结果,如果M的梯度值比沿梯度线的两个相邻像素梯度值小,则令M=0,即
g11[x,y]=NMS(g10[x,y],ξ[x,y])
第四步:用双阀值算法检测和连接边缘
减少假边缘段数量的典型方法是对g11[x,y]使用一个阀值。将低于阀值的所有值赋零;
用双阀值的方法选取阀值:τ1和τ2,且τ1≈2τ2,得到两个阀值边缘图像T1[x,y]和T2[x,y],在T1中收取边缘,将T2中的所有间隙连接起来,最终得到靶标图像的边缘信息g12,通过对g12统计边缘像素数量即可求得图像边缘总长度b。
在本公路隧道能见度的视频测量方法中,靶标图像的对比度c的获取方法是:
一般的,图像的对比度定义为:C=(L-LB)/LB=LH/LB                 (12)
上式中,L表示图像的局部亮度,即局部灰度,LB表示图像的局部背景亮度,相当于局部低频分量,上式右边部分LH=L-LB相当于图像的局部高频分量,在这里计算图像g9的对比度。
在本公路隧道能见度的视频测量方法中,所述图像的亮度分布峰值距离h的获取方法是:
在这里,灰度均值计算的计算式如下
avg = 1 mn &Sigma; x = 1 m &Sigma; y = 1 n g 9 ( x , y ) - - - ( 13 )
上式中,m为标靶图像的总行数,n为标靶图像的总列数;
图像的亮度分布峰值计算式如下
l ( w ) = &Sigma; x = 1 m &Sigma; y = 1 n M ( x , y ) - - - ( 14 )
以上式中,w=0,1,...,255.为亮度值,且有
M ( x , y ) = 1 , g ( x , y ) = w ; 0 , g ( x , y ) &NotEqual; w . - - - ( 15 )
从而可以得到关于靶标图像亮度分布的曲线,其中w为亮度值,h为两峰值距离。
本发明的显著效果是:使用图像处理技术结合基于数据建模技术测量能见度,通过在现场安装固定有源靶标,使用摄像头获取靶标视频,再使用图像识别处理技术,提取靶标的图像信息以及其特征信息,使用数据建立的图像信息到能见度数据映射模型计算隧道内的能见度。本发明能满足不同地点、不同路况、不同气候变化的高准确度能见度检测的需要;在环境变化的情况下依然能准确反映出图像特征与能见度之间的映射规律。
本发明采用基于实验数据的建模方法,利用多个神经网络模型建立靶标图像信息与能见度的多个映射模型,通过基于数理统计的数据融合方法获得最优能见度估计模型。在测量时,通过摄像机获得靶标图像,利用图像处理方法获得图像各种特征,并送入建立的测量模型进行计算,求得环境能见度。
1)靶标的视频图像特征主要包括有靶标图像灰度均值,靶标图像图形的边缘总长度,靶标图像的对比度,图像的亮度分布等。
2)采用基于实验数据的建模方法,利用多个神经网络模型建立靶标图像信息与能见度的多个映射模型,通过基于数理统计的数据融合方法获得最优能见度估计模型。在测量时,通过摄像机获得靶标图像,利用图像处理方法获得图像各种特征,并送入建立的测量模型进行计算,求得环境能见度。
3)本发明采用的单个自带光源、等间距、黑色到白色的渐变条纹靶标,可以有效地减少环境光照对靶标的影响。
本方法是依赖于有靶标图像灰度均值,靶标图像图形的边缘总长度,靶标图像的对比度,图像的亮度分布等信息,建立基于神经网络建模方法的测量模型,对环境能见度进行测量。测量结果为连续值。
附图说明
图1是能见度分级图;
图2是标靶的布局图,其中:
图2a是线条宽度逐渐变化图;
图2b是线条灰度逐渐变化图;
图2c是分段线条大小逐渐变化图;
图3是连续灰度值为255的像素点统计函数图;
图4是图像角度变换示意图;
图5是双线性插值示意图;
图6是梯度最大示意图;
图7是靶标图像亮度分布曲线图;
图8是神经网络GRNN网络结构。
具体实施方式
下面结合附图和具体实施例对本发明作进一步详细说明。
以靶标的视频图像特征与能见度数据,建立能见度模型数据库,使用数据融合技术和数据挖掘技术,寻找图像信息和能见度信息之间的映射的规律。图像特征信息主要包括:靶标图像灰度均值,靶标图像图形的边缘总长度,靶标图像的对比度,图像的亮度分布;使用基于神经网络的数据融合技术寻找图像特征信息和能见度信息之间的映射规律,并根据当前所得到的数据,采用基于神经网络的学习方法,更新图像信息到能见度信息之间的映射规律模型。
以数据库为手段实现上述数据建模中的信息管理,在能见度测试软件后台构建数据信息管理系统,包括管理图像信息,图像特征信息,模型参数信息,能见度信息和图像信息到能见度信息之间的映射规律模型参数;以在PC平台上编程实现图像信息的处理和能见度的计算等功能。
一种能见度的全天候视频测量方法,是按以下步骤进行:
一、能见度测量模型建立
1.1设置靶标,所述靶标为自带光源的黑色和白色条纹相间图像;自带光源为成熟技术,如普通的灯箱就可以实现。
1.2建立能见度模型数据库;
如图1所示,通过摄像头获取在九个能见度条件下的靶标视频图像信息,利用图像处理方法提取靶标的视频图像特征,靶标的视频图像特征有:靶标图像灰度均值g1,靶标图像图形的边缘总长度b,靶标图像的对比度c,图像的亮度分布峰值距离h;
以靶标的视频图像特征与能见度数据,建立能见度模型数据库;
1.3建立能见度测量模型;
对九个能见度条件下的靶标视频图像特征:靶标图像灰度均值g1、靶标图像图形的边缘总长度b、靶标图像的对比度c、图像的亮度分布峰值距离h进行数据融合,生成九个能见度条件下的能见度测量值X,并将九个能见度条件下的能见度测量值X输入神经网络训练,得到从图像特征数据到能见度值的神经网络映射模型;
在获得g1、b、c和h后,就可以通过加权平均的数据融合算法获得能见度测量值X。
1.4能见度测量模型的数据整合;
反复获取九个能见度条件下的靶标视频图像特征,并不断生成新的当前能见度下的能见度测量值X’,并运用数理统计的理论,将该新的当前能见度下的能见度测量值X’输入神经网络模型训练,获得最优能见度估计模型;
二、能见度测量
2.1靶标图像的摄取和识别
在隧道内安装靶标和用于视频数据获取的摄像头,利用PC机读取摄像头获得的视频图像,采用形态学和行扫描的办法识别靶标位置,并生成当前靶标的视频图像信息;
如图2所示:本系统建立单个自带光源、等间距、黑色到白色的渐变条纹靶标。利用摄像头获取靶标不同的图像特征信息,求解环境能见度。靶标的形状很多,如“s”形,如多排或多列线条并列,如多段线条依次排列,其渐变方式也有多种形式,如黑色线条宽度的渐变,如黑色线条灰度的渐变。
2.2靶标图像的特征提取
利用图像处理方法提取靶标的视频图像特征,靶标的视频图像特征有:靶标图像灰度均值g1,靶标图像图形的边缘总长度b,靶标图像的对比度c,图像的亮度分布峰值距离h;生成路段当前条件下的能见度测量值X1;
2.3能见度计算
将路段当前条件下的能见度测量值X1送入所述能见度测量神经网络模型中,经计算,获得环境能见度等级。
由于采集到的图像是彩色图像,所以需要将其转变为灰度图,彩色图像中的每个像素的颜色由R、G、B三个分量决定,而每个分量有255个值可取,这样一个像素点就有1600多万的颜色变化范围。而灰度图像是R、G、B三个分量相同的一种特殊的彩色图像,其一个像素点的变变化范围为255,所以采用灰度图像能减少图像处理的计算量。灰度图像的描述与彩色图像一样仍然反映了整幅图像的整体和局部的色度和亮度等级的分布和特征。采用现行标准的平局值法。
所述靶标图像灰度均值g1的获取方法是:
采用现行标准的平局值法获得靶标图像灰度均值g1
用R.G.B分别表示原彩色图像中的红、绿、蓝分量,有:
g1=0.3R+0.59G+0.11B                                            (1)。
所述靶标位置的识别方法是:
3.1、竖直方向差分边缘检测
采集到图像的背景水平纹理群丰富,根据水平纹理群,先将经过灰度处理的图像竖直方向做差分运算,其一阶差分运算式为:
g2(i,j)=|g1(i,j)-g1(i+1,j)|                                                (2)
g2代表做竖直方向差分边缘检测后的图像,g1代表经过上面灰度处理后的图像,利用差分运算能有效检测横向边缘,使能见度检测靶标的定位更准确;
3.2、二值化处理
图像二值化的方法一般分为全局阀值和局部阀值。前者得到的二值化图像常常不能很好的对图像进行分割,阀值过大会导致图像二值化处理后的白点过多,形态学运算后靶标区域容易被淹没。为了更好的突出靶标区域,根据图像的局部方差确定阀值。
将靶标图像分为m×n大小的方块,设M为局部均值,σ为局部方差,t为局部阀值,有
&sigma; = 1 m &times; n &Sigma; i = 0 m &Sigma; j = 0 n [ g 2 ( i , j ) - M ] 2
t = 128 1 + &sigma; 256 - - - ( 3 )
图像中大于t的像素为255,反之为0。用g3代表二值化处理输出,g2代表上面经过竖直方向差分边缘检测的图像结果,二值化处理计算式如下:
g 3 = 255 , g 2 > t 0 , g 2 < t
3.3、形态学运算
采用形态学的滤波方法,使用k×k大小的结构元素对图像作腐蚀运算,k的取值通过系统调试决定,但k应根据噪声颗粒和非噪声颗粒的半径大小选取,消除细小干扰,以g3代表输入的二值化图像,B代表结构元素,g4代表腐蚀输出,腐蚀运算为:
g 4 = g 3 &Theta;B = { z | b + z &SubsetEqual; g 3 , b &Element; B } - - - ( 4 )
在腐蚀后的图像的基础上进行形态学闭运算,首先使用l×l结构元素作膨胀运算,l的取值通过系统调试决定,但l应根据噪声颗粒和非噪声颗粒的半径大小选取,然后在使用同样大小的结构元素作腐蚀运算,g4代表经过上面腐蚀运算后的结果,g5代表膨胀运算的输出,C代表用于膨胀运算的结构元素,膨胀运算为:
g 5 = g 4 &CirclePlus; C = { z | ( - C + z ) &cap; C &NotEqual; &phi; } - - - ( 5 )
再做腐蚀运算
g6=g5ΘC
形态学滤波最终输出为g6
3.3、靶标的定位
通过形态学的处理后,靶标区域形成连通候选区域,对列进行扫描,统计每行经过的连续的灰度值为255的像素点数目,再根据统计得到的数据,和阀值计算出靶标的纵向位置。竖向坐标范围计算式如下:
Y∈{y|f(g6,y)>τ}
如图3所示:上式中,Y代表靶标的坐标范围计算结果,f代表指定行连续灰度值为255的像素点的数目统计函数,g6代表经过上一步形态学处理的输出图像,y代表竖向坐标,τ代表阀值;
同样的原理使用到靶标的横向位置定位,至此可以识别出的根据坐标范围和经过灰度处理后的图像g1提取出灰度图像g1中的靶标图像g7
3.4、图像角度变换校正
这里为了消除由于摄像头的视角变化所带来的误差,使用Radon变换,Radon变换的基本思想是点和直线的对偶性。图像变换前在图像空间,变换后在参数空间。如图3所示,二维空间平面内的一条直线,可以表示为:
ρ=xcosθ+ysinθ                        (6)
二维Radon变换即将(x,y)平面空间的一条直线ρ=xcosθ+ysinθ映射成Radon空间的一个点(ρ,θ),连续图像的Radon变换为:
R ( &rho; , &theta; ) = &Integral; &Integral; D g 7 ( x , y ) &delta; ( &rho; - x cos &theta; - y sin &theta; ) dxdy - - - ( 7 )
式中,D为整个图像平面,g7(x,y)为提取出的靶标图像上某一点(x,y)的像素点灰度值,特征函数δ为狄拉克函数,ρ为(x,y)平面内直线到原点的距离,θ为原点到直线的垂线与x轴的夹角,特征函数δ使积分沿着直线ρ=xcosθ+ysinθ进行,Radon变换后,(ρ,θ)也可重构原图像中的直线,其表达式为:
y=ρ/sinθ-xcotθ                        (8)
如图4所示:通过校正图像变换到Radon空间内的角度变量θ,在重构原图像,即可实现校正图像角度的目的,角度变换后的靶标图像为g8
3.4、靶标图像的距离校正
在得到角度变换后的靶标图像g8后,由于摄像机到靶标距离变动的误差,可能带来能见度检测的误差,因此这里有必要对靶标g8校正,而距离的校正在靶标图像g8中具体体现为图像的大小校正。
定义被提取特征的标准靶标图像大小为m×n,角度变换后的靶标图像g8的大小为m0×n0,并且有m>m0,n>n0,因此本部分选择采用图像的双线性插值算法,将图像放大到标准大小m×n,具体算法如下:
双线性插值是指利用映射点在输入图像的4个邻点的灰度值对映射点进插值,即待插点处的数值用离待插点最近的四个点的值加权求得,在同一行内根据待插值像素点与其前后的原图像像素点的位置距离进行加权线性插值,即离原图像像素点越近的待插值像素点,原图像像素的加权系数就越大;行间根据待插值行与其上下的原图像行间的距离进行加权线性插值,即离原图像行越近的待插值行,原图像行的加权系数就越大;
其原理如图5所示。
对于一个g9(x,y)目的像素,其对应于行列坐标值分别为目的像素坐标x,y,f分别除以行和列的放大倍数,行放大倍数为m/m0,列放大倍数为n/n0,通过反向变换映射为原图像的浮点坐标f(i+p,j+q),其中i和j均为非负整数,p和q是取余后[0,1]区间内的浮点数,则这个目的像素的值f(i+p,j+q)可由原图像中坐标为(i,j)、(i+1,j)、(i,j+1)、(i+1,j+1)所对应的周围四个像素的值来决定,如下公式
f(i+p,j+q)=(1-p)(1-q)g8(i,j)+(1-p)qg8(i+1,j)
+p(1-q)g8(i,j+1)+pqg8(i+1,j+1)
其中,g8(i,j)表示图像g8在位置(i,j)处的像素值,p,q随着放大后像素行列坐标的不同而改变,将这四个点的像素值按照权重不同做相加,得到放大图像f目标位置的像素值,最后将f映射回放大后的结果图像g9,通过别乘以行列放大倍数,将浮点坐标还原为g9中的整数坐标。
所述靶标图像图形的边缘总长度b的获取方法是:
得到角度校正后的图像g9后即可进行图像特征提取,图像的边缘特征提取使用Canny算子方法。Canny算子方法通过高斯一阶微分计算梯度,寻找图像梯度的局部最大值,使用双阀值法检测强边缘和弱边缘,当弱边缘与强边缘链接成轮廓边缘才输出。所以Canny算法不容易受噪声影响,能够在噪声和边缘检测间取得较好的平衡。
Canuny边缘检测步骤为:
第一步:用高斯滤波器平滑图像
高斯平滑函数为:
H ( m , n ) = e - m 2 + n 2 2 &sigma; 2 - - - ( 9 )
可以通过设定m和n的范围和σ的大小决定高斯平滑滤波的模板大小和平滑尺度,用高斯平滑函数对图像进行滤波的计算式如下:
g10=g9*H                (10)
其中*为卷积符号;
第二步:用一阶偏导的有限差分来计算梯度的幅值和方向
一阶差卷积分模板为:
H 1 = - 1 - 1 1 1 H 2 = 1 - 1 1 - 1
ψ1=g10*H1
ψ2=g10*H2
&psi; = &psi; 1 2 + &psi; 2 2 - - - ( 10 )
&theta; &psi; = tan - 1 &psi; 2 &psi; 1
第三步:对梯度幅值进行极大值抑制
仅仅得到全局的梯度并不足以确定边缘,因此为确定边缘,必须保留局部梯度最大的点,而抑制非极大值;
解决方法:利用梯度的方向:
ξ[x,y]=Sector(θψ[x,y])                    (11)
如图6所示:利用上式计算出梯度方向在下图所示的扇形中的所属区域。
四个扇区的编号为0到3,对应3×3领域的四种可能组合。
对经过高斯平滑后的图像g10的每一点上,将领域的中心像素M与沿着梯度线的两个像素相比较,梯度信息来自于第二步计算结果,如果M的梯度值比沿梯度线的两个相邻像素梯度值小,则令M=0,即
g11[x,y]=NMS(g10[x,y],ξ[x,y])
第四步:用双阀值算法检测和连接边缘
减少假边缘段数量的典型方法是对g11[x,y]使用一个阀值。将低于阀值的所有值赋零;
用双阀值的方法选取阀值:τ1和τ2,且τ1≈2τ2,得到两个阀值边缘图像T1[x,y]和T2[x,y],在T1中收取边缘,将T2中的所有间隙连接起来,最终得到靶标图像的边缘信息g12,通过对g12统计边缘像素数量即可求得图像边缘总长度b。
所述靶标图像的对比度c的获取方法是:
一般的,图像的对比度定义为:
C=(L-LB)/LB=LH/LB                        (12)
上式中,L表示图像的局部亮度,即局部灰度,LB表示图像的局部背景亮度,相当于局部低频分量,上式右边部分LH=L-LB相当于图像的局部高频分量,在这里计算图像g9的对比度。
求解图像对比度的具体方法请见李勃,董蓉,陈启美缩写的无需人工标记的视频对比度道路能见度检测[J].计算机辅助设计与图形学学报.2009。
所述图像的亮度分布峰值距离h的获取方法是:
灰度均值计算的计算式如下
avg = 1 mn &Sigma; x = 1 m &Sigma; y = 1 n g 9 ( x , y ) - - - ( 13 )
上式中,m为标靶图像的总行数,n为标靶图像的总列数;
图像的亮度分布峰值计算式如下
l ( w ) = &Sigma; x = 1 m &Sigma; y = 1 n M ( x , y ) - - - ( 14 )
以上式中,w=0,1,...,255.为亮度值,且有
M ( x , y ) = 1 , g ( x , y ) = w ; 0 , g ( x , y ) &NotEqual; w . - - - ( 15 )
如图7所示:从而可以得到关于靶标图像亮度分布的曲线,其中w为亮度值,L为两峰值距离。
本系统使用最优加权的数据融合方法对多次测量得到的图像数据特征信息融合。该方法是对多个数据的加权平均值,因此权值系统的分配对融合效果的影响十分明显,分配得当,融合效果好,分配不合理,对系统的精度和可靠性提高不大。
(2)神经网络
本系统采用神经网络建立图像信息和能见度之间的映射模型,以靶标图像灰度均值,靶标图像边缘总长度,靶标图像亮度分布峰值距离,靶标图像对比度作为神经网络的输入计算能见度。
在神经网络中采用广义回归神经网络(GRNN)模型。GRNN是径向基网络的一种变异形式。这种网络是建立在数理统计的基础上,能够根据样本数据逼近其中隐含的映射关系,即使样本数据稀少,网络的输出结果也能够收敛于最优回归表面。由于其非线性映射能力很强,因此它经常用于函数逼近。在本系统中,使用GRNN的非线性映射能力强的特点,建立基于数据的能见度测量模型。GRNN模型描述如下:
设Xi和Yi分别是输入向量和输出向量的样本,对于任意一个X对应的Y值,可以采用以下公式进行估计:
Y ^ ( X ) = &Sigma; i = 1 n Y i exp [ - ( X - X i ) T ( X - X i ) 2 &delta; 2 ] &Sigma; i = 1 n exp [ - ( X - X i ) T ( X - X i ) 2 &delta; 2 ] - - - ( 13 )
式中,估计值为所有样本观测值Yi的加权平均,δ为平滑系数。
广义回归神经网络结构如图8所示,包括输入层、模式层、求和层和输出层。
其中,X=[x1,x2,...,xm]T为网络输入,Y=[y1,y2,...,yl]T为网络输出。输入层中的神经元数只是其简单的分配作用,即将输入向量直接传递到第二层,其神经元数目与输入向量的维数相等。第二层是模式层,其神经元数目等于学习样本的数目n,神经元i的传递函数为:
p i = exp [ - D i 2 2 &delta; 2 ] , i = 1,2 , . . . , n - - - ( 14 )
其中:即神经元i的输出为输入变量X与其对应的样本Xi之间的Euclid距离平方的指数形式。
求和层中神经元的传递函数包括分为两种。其中一个神经元与模式层的连接权值为1,其传递函数为所有模式层神经元的输出进行算术求和,即式(13)中的分母;其余神经元的传递函数为所有模式层神经元的输出进行加权求和,即式(13)中的分子。模式层中第i个神经元与求和层中第j个神经元之间的连接权值为第i个输出样本Yi中的第j个元素Yij
输出层中的神经元数目等于学习样本中输出向量的维数,其神经元的传递函数即将求和层中计算出的分子和分母相除,即得式(13)的估计结果。

Claims (6)

1.一种能见度的全天候视频测量方法,其特征在于按以下步骤进行:
一、能见度测量模型建立
1.1设置靶标,所述靶标为自带光源的黑色和白色条纹相间图像;
1.2建立能见度模型数据库;
通过摄像头获取在九个能见度条件下的靶标视频图像信息,利用图像处理方法提取靶标的视频图像特征,靶标的视频图像特征有:靶标图像灰度均值g1,靶标图像图形的边缘总长度b,靶标图像的对比度c,图像的亮度分布峰值距离h;
以靶标的视频图像特征与能见度数据,建立能见度模型数据库;
1.3建立能见度测量模型;
对九个能见度条件下的靶标视频图像特征:靶标图像灰度均值g1、靶标图像图形的边缘总长度b、靶标图像的对比度c、图像的亮度分布峰值距离h进行数据融合,生成九个能见度条件下的能见度测量值X,并将九个能见度条件下的能见度测量值X输入神经网络训练,得到从图像特征数据到能见度值的神经网络映射模型;
1.4能见度测量模型的数据整合;
反复获取九个能见度条件下的靶标视频图像特征,并不断生成新的当前能见度下的能见度测量值X’,并运用机器学习理论,将该新的当前能见度下的能见度测量值X’输入所述从图像特征数据到能见度值的神经网络映射模型训练,获得最优能见度估计模型;
二、能见度测量
2.1靶标图像的摄取和识别
在现场安装靶标和用于视频数据获取的摄像头,利用PC机读取摄像头获得的视频图像,采用形态学和行扫描的办法识别靶标位置,并生成当前靶标的视频图像信息;
2.2靶标图像的特征提取
利用图像处理方法提取靶标的视频图像特征,靶标的视频图像特征有:靶标图像灰度均值g1,靶标图像图形的边缘总长度b,靶标图像的对比度c,图像的亮度分布峰值距离h;生成路段当前条件下的能见度测量值X1;
2.3能见度计算
将路段当前条件下的能见度测量值X1送入所述能见度测量神经网络模型中,经计算,获得环境能见度等级。
2.根据权利要求1所述的一种能见度的全天候视频测量方法,其特征在于,所述靶标图像灰度均值g1的获取方法是:
采用现行标准的平局值法获得靶标图像灰度均值g1
用R.G.B分别表示原彩色图像中的红、绿、蓝分量,有:
g1=0.3R+0.59G+0.11B                                        (1)。
3.根据权利要求1所述的一种能见度的全天候视频测量方法,其特征在于,所述靶标位置的识别方法是:
3.1、竖直方向差分边缘检测
采集到图像的背景水平纹理群丰富,根据水平纹理群,先将经过灰度处理的图像竖直方向做差分运算,其一阶差分运算式为:
g2(i,j)=|g1(i,j)-g1(i+1,j)|                             (2)
g2代表做竖直方向差分边缘检测后的图像,g1代表经过上面灰度处理后的图像;
3.2、二值化处理
将靶标图像分为m×n大小的方块,设M为局部均值,σ为局部方差,t为局部阀值,有
&sigma; = 1 m &times; n &Sigma; i = 0 m &Sigma; j = 0 n [ g 2 ( i , j ) - M ] 2
t = 128 1 + &sigma; 256 - - - ( 3 )
图像中大于t的像素为255,反之为0;用g3代表二值化处理输出,g2代表上面经过竖直方向差分边缘检测的图像结果,二值化处理计算式如下:
g 3 = 255 , g 2 > t 0 , g 2 < t
3.3、形态学运算
采用形态学的滤波方法,使用k×k大小的结构元素对图像作腐蚀运算,消除细小干扰,以g3代表输入的二值化图像,B代表结构元素,g4代表腐蚀输出,腐蚀运算为:
g 4 = g 3 &Theta;B = { z | b + z &SubsetEqual; g 3 , b &Element; B } - - - ( 4 )
在腐蚀后的图像的基础上进行形态学闭运算,首先使用l×l结构元素作膨胀运算,然后在使用同样大小的结构元素作腐蚀运算,g4代表经过上面腐蚀运算后的结果,g5代表膨胀运算的输出,C代表用于膨胀运算的结构元素,膨胀运算为:
g5=g4⊕C={z|(-C+z)∩C≠φ}                    (5)
再做腐蚀运算
g6=g5ΘC
形态学滤波最终输出为g6
3.4、靶标的定位
通过形态学的处理后,靶标区域形成连通候选区域,对列进行扫描,统计每行经过的连续的灰度值为255的像素点数目,再根据统计得到的数据,和阀值计算出靶标的纵向位置;竖向坐标范围计算式如下:
Y∈{y|f(g6,y)>τ}
上式中,Y代表靶标的坐标范围计算结果,f代表指定行连续灰度值为255的像素点的数目统计函数,g6代表经过上一步形态学处理的输出图像,y代表竖向坐标,τ代表阀值;
同样的原理使用到靶标的横向位置定位,至此可以识别出的根据坐标范围和经过灰度处理后的图像g1提取出灰度图像g1中的靶标图像g7
3.5、图像角度变换校正
使用Radon变换,图像变换前在图像空间,变换后在参数空间,可以表示为:
ρ=xcosθ+ysinθ                        (6)
二维Radon变换即将(x,y)平面空间的一条直线ρ=xcosθ+ysinθ映射成Radon空间的一个点(ρ,θ),连续图像的Radon变换为:
R ( &rho; , &theta; ) = &Integral; &Integral; D g 7 ( x , y ) &delta; ( &rho; - x cos &theta; - y sin &theta; ) dxdy - - - ( 7 )
式中,D为整个图像平面,g7(x,y)为提取出的靶标图像上某一点(x,y)的像素点灰度值,特征函数δ为狄拉克函数,ρ为(x,y)平面内直线到原点的距离,θ为原点到直线的垂线与x轴的夹角,特征函数δ使积分沿着直线ρ=xcosθ+ysinθ进行,Radon变换后,(ρ,θ)也可重构原图像中的直线,其表达式为:
y=ρ/sinθ-xcotθ                (8)
通过校正图像变换到Radon空间内的角度变量θ,在重构原图像,即可实现校正图像角度的目的,角度变换后的靶标图像为g8
3.6、靶标图像的距离校正
定义被提取特征的标准靶标图像大小为m×n,角度变换后的靶标图像g8的大小为m0×n0,并且有m>m0,n>n0,因此本部分选择采用图像的双线性插值算法,将图像放大到标准大小m×n,具体算法如下:
双线性插值是指利用映射点在输入图像的4个邻点的灰度值对映射点进插值,即待插点处的数值用离待插点最近的四个点的值加权求得,在同一行内根据待插值像素点与其前后的原图像像素点的位置距离进行加权线性插值,即离原图像像素点越近的待插值像素点,原图像像素的加权系数就越大;行间根据待插值行与其上下的原图像行间的距离进行加权线性插值,即离原图像行越近的待插值行,原图像行的加权系数就越大;
对于一个g9(x,y)目的像素,其对应于行列坐标值分别为目的像素坐标x,y,f分别除以行和列的放大倍数,行放大倍数为m/m0,列放大倍数为n/n0,通过反向变换映射为原图像的浮点坐标f(i+p,j+q),其中i和j均为非负整数,p和q是取余后[0,1]区间内的浮点数,则这个目的像素的值f(i+p,j+q)可由原图像中坐标为(i,j)、(i+1,j)、(i,j+1)、(i+1,j+1)所对应的周围四个像素的值来决定,如下公式
f(i+p,j+q)=(1-p)(1-q)g8(i,j)+(1-p)qg8(i+1,j)
+p(1-q)g8(i,j+1)+pqg8(i+1,j+1)
其中,g8(i,j)表示图像g8在位置(i,j)处的像素值,p,q随着放大后像素行列坐标的不同而改变,将这四个点的像素值按照权重不同做相加,得到放大图像f目标位置的像素值,最后将f映射回放大后的结果图像g9,通过别乘以行列放大倍数,将浮点坐标还原为g9中的整数坐标。
4.根据权利要求1所述的一种能见度的全天候视频测量方法,其特征在于,所述靶标图像图形的边缘总长度b的获取方法是:
得到角度校正后的图像g9后即可进行图像特征提取,图像的边缘特征提取使用Canny算子方法,Canny算子方法通过高斯一阶微分计算梯度,寻找图像梯度的局部最大值,使用双阀值法检测强边缘和弱边缘,当弱边缘与强边缘链接成轮廓边缘才输出;
Canny边缘检测步骤为:
第一步:用高斯滤波器平滑图像,高斯平滑函数为:
H ( m , n ) = e - m 2 + n 2 2 &sigma; 2 - - - ( 9 )
可以通过设定m和n的范围和σ的大小决定高斯平滑滤波的模板大小和平滑尺度,用高斯平滑函数对图像进行滤波的计算式如下:
g10=g9*H                (10)
其中*为卷积符号;
第二步:用一阶偏导的有限差分来计算梯度的幅值和方向一阶差卷积分模板为:
H 1 = - 1 - 1 1 1 H 2 = 1 - 1 1 - 1
ψ1=g10*H1
ψ2=g10*H2
&psi; = &psi; 1 2 + &psi; 2 2 - - - ( 10 )
&theta; &psi; = tan - 1 &psi; 2 &psi; 1
第三步:对梯度幅值进行极大值抑制
仅仅得到全局的梯度并不足以确定边缘,因此为确定边缘,必须保留局部梯度最大的点,而抑制非极大值;
解决方法:利用梯度的方向:
ξ[x,y]=Sector(θψ[x,y])                (11)
对经过高斯平滑后的图像g10的每一点上,将领域的中心像素M与沿着梯度线的两个像素相比较,梯度信息来自于第二步计算结果,如果M的梯度值比沿梯度线的两个相邻像素梯度值小,则令M=0,即
g11[x,y]=NMS(g10[x,y],ξ[x,y])
第四步:用双阀值算法检测和连接边缘
减少假边缘段数量的典型方法是对g11[x,y]使用一个阀值;将低于阀值的所有值赋零;
用双阀值的方法选取阀值:τ1和τ2,且τ1≈2τ2,得到两个阀值边缘图像T1[x,y]和T2[x,y],在T1中收取边缘,将T2中的所有间隙连接起来,最终得到靶标图像的边缘信息g12,通过对g12统计边缘像素数量即可求得图像边缘总长度b。
5.根据权利要求3所述的一种能见度的全天候视频测量方法,其特征在于,所述靶标图像的对比度C的获取方法是:
图像的对比度定义为:
C=(L-LB)/LB=LH/LB           (12)
上式中,L表示图像的局部亮度,即局部灰度,LB表示图像的局部背景亮度,相当于局部低频分量,上式右边部分LH=L-LB相当于图像的局部高频分量,在这里计算图像g9的对比度。
6.根据权利要求1所述的一种能见度的全天候视频测量方法,其特征在于,所述图像的亮度分布峰值距离h的获取方法是:
在这里,灰度均值计算的计算式如下
avg = 1 mn &Sigma; x = 1 m &Sigma; y = 1 n g 9 ( x , y ) - - - ( 13 )
上式中,m为标靶图像的总行数,n为标靶图像的总列数,g9(x,y)为角度校正后的图像;
图像的亮度分布峰值计算式如下
l ( w ) = &Sigma; x = 1 m &Sigma; y = 1 n M ( x , y ) - - - ( 14 )
以上式中,w=0,1,…,255.为亮度值,且有
M ( x , y ) = 1 , g ( x , y ) = w ; 0 , g ( x , y ) &NotEqual; w . - - - ( 15 )
从而可以得到关于靶标图像亮度分布的曲线,根据该靶标图像亮度分布的曲线可以获得两亮度分布峰值距离h。
CN2010102558673A 2010-08-17 2010-08-17 一种能见度的全天候视频测量方法 Expired - Fee Related CN101957309B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2010102558673A CN101957309B (zh) 2010-08-17 2010-08-17 一种能见度的全天候视频测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2010102558673A CN101957309B (zh) 2010-08-17 2010-08-17 一种能见度的全天候视频测量方法

Publications (2)

Publication Number Publication Date
CN101957309A CN101957309A (zh) 2011-01-26
CN101957309B true CN101957309B (zh) 2012-11-07

Family

ID=43484762

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2010102558673A Expired - Fee Related CN101957309B (zh) 2010-08-17 2010-08-17 一种能见度的全天候视频测量方法

Country Status (1)

Country Link
CN (1) CN101957309B (zh)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102509102A (zh) * 2011-09-28 2012-06-20 郝红卫 基于图像学习的能见度测量方法
CN102592457A (zh) * 2012-02-13 2012-07-18 山东鼎讯智能交通科技有限公司 基于物联网技术的复合型区间测速系统及方法
CN103903008B (zh) * 2014-03-26 2018-01-19 国家电网公司 一种基于图像识别输电线路的雾等级的方法以及系统
CN104021523B (zh) * 2014-04-30 2017-10-10 浙江师范大学 一种基于边缘分类的图像超分辨率放大的方法
US9734425B2 (en) * 2015-02-11 2017-08-15 Qualcomm Incorporated Environmental scene condition detection
CN104794903B (zh) * 2014-06-11 2017-05-10 合肥齐飞信息技术有限公司 基于沿线插值原理的公路能见度优化算法
CN104359812B (zh) * 2014-10-30 2016-11-23 陕西明路光电技术有限责任公司 一种基于调制传递函数的pm2.5监测方法
CN106248635B (zh) * 2016-07-22 2019-01-22 福州大学 一种基于数字摄像的能见度检测方法
CN107274383A (zh) * 2017-05-17 2017-10-20 南京邮电大学 一种基于深度学习的雾霾能见度检测方法
CN109145692B (zh) * 2017-06-28 2022-01-07 奥迪股份公司 车辆驾驶辅助系统和方法
CN107328777A (zh) * 2017-07-05 2017-11-07 河北科技大学 一种在夜间测量大气能见度的方法及装置
CN107886049B (zh) * 2017-10-16 2022-08-26 江苏省气象服务中心 一种基于摄像探头的能见度识别预警方法
CN108010012B (zh) * 2017-10-26 2020-11-24 厦门市智联信通物联网科技有限公司 隧道入口黑洞效应评价方法
CN109813282B (zh) * 2017-11-21 2021-09-07 奇美车电股份有限公司 车用影像校正方法与系统
CN109587901B (zh) * 2018-11-09 2020-01-31 重庆光电信息研究院有限公司 照明之智慧调控系统与方法
CN109581327B (zh) * 2018-11-20 2023-07-18 天津大学 全封闭激光发射基站及其实现方法
CN109727274B (zh) * 2018-11-28 2023-04-28 吉林大学 视频处理方法
CN109635821A (zh) * 2018-12-04 2019-04-16 北京字节跳动网络技术有限公司 图像区域的特征提取方法、装置、设备及可读介质
CN109584575B (zh) * 2018-12-19 2020-09-18 山东交通学院 一种基于能见度分析的道路安全限速提示系统及方法
CN112288648B (zh) * 2020-10-23 2022-10-11 天津市气象信息中心(天津市气象档案馆) 一种基于能见度自动观测的快速插值显示方法
RU2764395C1 (ru) 2020-11-23 2022-01-17 Самсунг Электроникс Ко., Лтд. Способ и устройство для совместного выполнения дебайеризации и устранения шумов изображения с помощью нейронной сети
CN112686105B (zh) * 2020-12-18 2021-11-02 云南省交通规划设计研究院有限公司 一种基于视频图像多特征融合的雾浓度等级识别方法
CN112668503B (zh) * 2020-12-30 2022-06-28 日照市气象局 一种发光目标物视频团雾能见度监测方法
CN113192066A (zh) * 2021-05-28 2021-07-30 武汉长江通信智联技术有限公司 一种用于高速公路全天候的能见度估计方法的装置及方法
CN113983871B (zh) * 2021-11-09 2023-04-25 河北砺兵科技有限责任公司 基于视频的实弹和激光双模报靶系统及报靶方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101614675A (zh) * 2009-07-06 2009-12-30 中国气象局北京城市气象研究所 能见度测量系统及方法
CN201392408Y (zh) * 2009-04-16 2010-01-27 北京华创风云科技有限责任公司 交通气象综合观测装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN201392408Y (zh) * 2009-04-16 2010-01-27 北京华创风云科技有限责任公司 交通气象综合观测装置
CN101614675A (zh) * 2009-07-06 2009-12-30 中国气象局北京城市气象研究所 能见度测量系统及方法

Also Published As

Publication number Publication date
CN101957309A (zh) 2011-01-26

Similar Documents

Publication Publication Date Title
CN101957309B (zh) 一种能见度的全天候视频测量方法
CN101382497B (zh) 基于路况监控视频的能见度检测方法
CN111855664B (zh) 一种可调节隧道病害三维检测系统
CN106651953B (zh) 一种基于交通指示牌的车辆位姿估计方法
CN101281142B (zh) 一种测量大气能见度的方法
Díaz-Vilariño et al. Automatic classification of urban pavements using mobile LiDAR data and roughness descriptors
CN106683089B (zh) 一种带约束配准的杆塔变形检测方法
CN102175613B (zh) 基于图像亮度特征的ptz视频能见度检测方法
Huang et al. Urban functional zone mapping by integrating high spatial resolution nighttime light and daytime multi-view imagery
GB2581293A (en) A method for detecting degree of crack development of asphalt pavement
CN111784657A (zh) 一种基于数字图像的水泥路面病害自动识别的系统及方法
Kwon Atmospheric visibility measurements using video cameras: Relative visibility
CN110390255A (zh) 基于多维度特征提取的高铁环境变化监测方法
CN101807352A (zh) 一种模糊模式识别的车位检测方法
CN101976504B (zh) 一种基于颜色空间信息的多车辆视频跟踪方法
Hu et al. Quantifying the shape of urban street trees and evaluating its influence on their aesthetic functions based on mobile lidar data
CN113885025A (zh) 一种滑坡形变监测方法与可视化服务平台
CN105424655A (zh) 一种基于视频图像的能见度检测方法
CN101936900A (zh) 一种基于视频的能见度检测系统
CN103954542A (zh) 基于无参考图像清晰度评价的pm2.5浓度检测仪
CN109186706A (zh) 一种用于城市雨洪淹没区预警的方法
CN102162788A (zh) 基于高清视频的能见度检测方法
CN103630496A (zh) 基于路面视亮度和最小二乘法的交通视频能见度检测方法
CN112070756B (zh) 一种基于无人机倾斜摄影的路面立体病害测量方法
CN111598098A (zh) 一种基于全卷积神经网络的水尺水位线检测及有效性识别方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20121107

Termination date: 20200817

CF01 Termination of patent right due to non-payment of annual fee