CN107169993A - 利用公安视频监控模糊图像对目标物进行检测识别方法 - Google Patents
利用公安视频监控模糊图像对目标物进行检测识别方法 Download PDFInfo
- Publication number
- CN107169993A CN107169993A CN201710335674.0A CN201710335674A CN107169993A CN 107169993 A CN107169993 A CN 107169993A CN 201710335674 A CN201710335674 A CN 201710335674A CN 107169993 A CN107169993 A CN 107169993A
- Authority
- CN
- China
- Prior art keywords
- mtd
- mtr
- mrow
- image
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明公开了一种利用公安视频监控模糊图像对目标物进行检测识别方法,采用卡尔曼滤波法与矩形跟踪法结合,分离目标位置、面积的特征;通过构建特征识别矩阵分析目标运动状态;再对不同状态实施相应的多视角的监控跟踪。本发明对公安视频监控模糊图像,采用模糊神经网络和RS理论,对目标物进行检测识别,改进并提出新的算法,提高模糊图像辨识率;融合处理有效信息并动态提取目标物特征进行动态捕捉及预警,达到国家先进水平,本发明解决了目前视频监控图像模糊的问题。
Description
技术领域
本发明属于图像数据处理技术领域,尤其涉及一种利用公安视频监控模糊图像对目标物进行检测识别方法。
背景技术
目标物比如人脸识别的研究,起源于19世纪末法国人SirFranis Galton。以Allen和Parke为代表主要研究面部特征;人机交互式识别及用几何特征参数来研究的以Harmon和Lesk为代表,以Kaya和Kobayashi为代表采用了统计识别方法;Eyematic公司和我国清华大学研发了“人脸识别系统”,但对视频监控模糊图像的识别率不高,并且对目标物进行动态捕捉预警技术研究处于初始阶段。
随着视频监控技术的不断发展,我国目前视频监控在智慧城市、数字城市、平安园区等各类项目得以广泛应用。监控视频已经成为公安部门进行案件侦查的重要依据和线索,视频侦查已逐步成为继刑侦,技侦,网侦之后的第四大侦查手段。
在公安视频监控中,模糊图像的目标物检测识别及动态捕捉预警技术具有直接、方便、快捷以及非侵犯性的特点,在刑事侦查、维护国家安全和人民生命财产安全以及在反恐、防恐中具有重要意义,极具研究价值和潜力。
视频监控于20世纪80年代正式在我国开始启用,110指挥中心最早使用了视频监控,用于监控城市的治安情况。随着社会的发展,视频监控已经广泛应用于公安机关的治安、刑侦、交通管理、禁毒等多个职能部门具体业务工作中。但由于目前视频监控模糊图像的识别率不高,缺乏有效的信息技术支撑,在公安视频侦查过程中仍然面临图像调取及格式不统一、视频信息管理及协同难、效率不高等问题,针对公安视频监控模糊图像,对嫌疑人人脸或车辆进行检测识别以及动态捕捉、预警等必要的视频图像处理技术,显得尤为重要。
神经网络在工程中的应用是从20世纪90年代才开始的,一般为多层前馈的BP神经网络,但BP神经网络存在局部最优问题,并且训练速度慢、效率低,而模糊神经网络在一定程度上克服了这些问题,它在逼近能力、分类能力和学习速度等方面均优于BP神经网络。而Rough Sets理论(简称RS理论)在操作时无须提供除问题所需处理的数据集合之外的任何先验信息,可以直接对多维数据实施基于属性和元组两个方向上的一致数据浓缩或不一致数据浓缩,从中发现隐含的知识,揭示潜在的规律。
发明内容
本发明的目的在于提供一种利用公安视频监控模糊图像对目标物进行检测识别方法,旨在解决公安视频监控图像模糊的问题。
本发明是这样实现的,
一种利用公安视频监控模糊图像对目标物进行检测识别方法,包括:
采用卡尔曼滤波法与矩形跟踪法结合,分离目标位置、面积的特征;
通过构建特征识别矩阵分析目标运动状态;具体包括:
对于图像序列在时间间隔很小的情况下,目标物的重心和轮廓外接矩形不会发生很大变化。所以可用如式(1)的状态模型来预测。
S(n)=Φ·S(n-1)+W(n-1) (1)
其中S(n)表示在第n帧图像中的系统状态,W(n-1)表示的是系统的估计误差,Φ是状态转换矩阵。目标物体用其重心位置、相邻帧间的加速度、位移量、外接矩阵的周长、外接矩阵的长宽比等特性来反映,则:
其中,Δx(n)、Δy(n)是目标物重心在相邻两帧间x和y方向的速度量,Δx'(n)、Δy'(n)是其x和y方向的加速度,xs(n)、ys(n)表示目标物的矩形窗口的长度和宽度,x's(n)、y's(n)表示其矩形窗口的长度和宽度的变化率;
在采样时间Δt很小且矩形变化为线性时,则:
当系统状态与观测值之间是线性关系时,系统量测方程为:
M(n)=H·S(n)+V(n) (4)
M(n)表示量测向量,H是量测矩阵,V(n)是量测误差,且:
通过以上运算过程,进行目标物的分析及跟踪;
再对不同状态实施相应的多视角的监控跟踪。
进一步,构建特征辨识矩阵方法为:
利用目标的特征与目前目标所处的区域特点构建新矩阵,利用矩形跟踪法判别目标是否产生、是否消失;并分析目标特征,预判目标状态空间,判断目标的所处运动状态;
具体构建时采用如下过程:
第一步,定义目标物像素值为255,背景像素值为0,进行图像搜索,计算矩形左上与右上像素灰度值的差,正前与正后的像素灰度值差,左下与右下的像素灰度值差,并将它们之差的绝对值求和;
第二步,当求得的和大于所设定阈值时,认为这一点在目标物的边界上;
第三步,对这一点中的点计算它的左上与左下的像素灰度值差,正上与正下的像素灰度值差,右上与右下的像素灰度值差,并将它们之差的绝对值求和;
第四步,当求得的和大于所设定阈值时,认为这一点是目标物的特征点;否者不是目标物的特征点。
其中,设定M,N为图像子块矩形的长和宽,K,L为搜索范围矩形的长和宽,根据构建过程及实际匹配情况,找到与当前帧当前块相似度最高的子块当做匹配块,由上一帧或者下一帧得到的匹配块和当前块的相对位置,可以得到这两帧的目标物运动位移,当做当前块运动矢量D。
进一步,判断目标所处运动状态方法为:
将目标分为新目标、目标的融合与目标的消失,当新目标出现时,立刻构建新目标的信息;当目标出现分裂时,分析产生分裂的原因,跟踪分裂;当不同目标出现相互融合时,对融合后的目标进行融合处理;当跟踪的目标消失时,首先判断是否真消失,如果真消失,再删除原有的数据信息,具体原理如下:
对于当前帧当前块,设其可能的运动位移最大矢量为D(dx,dy),则下一帧的块的搜索窗口的相应大小可用(M+2dx)*(N+2dy)来表示。
进一步,所述再对不同状态实施相应的多视角的监控跟踪的方法为:
首先,对运动目标的阴影光照和颜色特征进行分析,即在前述方法基础上,定义目标物像素值为255,背景像素值为0,进行图像搜索,计算矩形左上与右上像素灰度值的差,正前与正后的像素灰度值差,左下与右下的像素灰度值差,并将它们之差的绝对值求和,然后外加对运动目标的阴影光照和颜色特征的考虑,进行微调,使得阈值在原来基础上上下浮动10%,通过实际实验效果改进原有的检测方法;
其次,在针对不同的目标物分别进行检测识别的基础上,其运动状态也不相同,构建的特征辨识矩阵也不相同,此时分别在不同的特征辨识矩阵的基础上,假设任一特征辨识矩阵为当前状态,对其它辨识矩阵做相对运动,即利用矩阵的加减运算,达到多个目标之间的跟踪;
再次,构建符合目标颜色的模型,这里用y,Cb,Cr分量彩色来表示,与常见的R,G,B三原色的关系如下:
其中y,Cb,Cr分别表示流明,蓝色浓度偏移量红色浓度偏移量,R,G,B分别表示红,绿、蓝三个颜色浓度。运用颜色的特点克服对目标的遮挡;最后,分析多视角的监控系统应用需求,实现不同视角的信息传递,一边利用矩阵的空间转换实现。
进一步,所述利用公安视频监控模糊图像对目标物进行检测识别方法还包括对目标物进行检测识别的图像的处理,对目标物进行检测识别的图像的处理方法包括图像增强方法与图像匹配方法;
所述图像增强方法包括:采用稀疏冗余模型算法进行图像增强;
首先,假定原图像收到了加性高斯噪声的污染,污染后的图像称为退化图像,图像恢复的过程其是退化图像的逆过程;假定图像的退化模型为:
g=Hu+v,
其中g表示要恢复的图像,Hu表示退化图像,v表示随机噪声。
则图像的恢复模型表示为:
其中表示恢复图像,g表示含噪图像,Hu表示原图像,arg是对图像的补偿。由于噪声的干扰,并不能得到合适且唯一的解,对图像的恢复模型施加一个正则性约束;则图像的恢复模型变为变分模型:
其中表示恢复图像,g表示含噪图像,Hu表示原图像,R(u)即为正则项,该项是与图像的本身性质有关,利用稀疏冗余字典模型来描述R(u),λ表示约束参数。
进一步,所述对目标物进行检测识别的图像的处理方法还包括图像在不同尺度空间中的特性处理方法和图像关键点的确立;
所述图像在不同尺度空间中的特性处理方法为:通过高斯模糊建立尺度空间,在一个图像的尺度空间
L(x,y,σ)=G(x,y,σ)*I(x,y),
其中,G(x,y,σ)表示一个变化尺度的高斯函数,I(x,y)表示原图像,σ为尺度参数,m,n表示高斯模板的维度,(x,y)表示图像的像素位置;通过尺度参数不同的变化,表达图像在不同尺度空间中的特性;
所述图像关键点的确立为:
利用高斯差分函数
D(x,y,σ)=(G(x,y,kσ)-G(x,y,σ))*I(x,y)=L(x,y,kσ)-L(x,y,σ),
其中D(x,y,σ)为高斯差分函数,I(x,y)表示原图像,G(x,y,kσ)为kσ变化尺度的高斯函数,G(x,y,σ)表示一个变化尺度的高斯函数,σ为尺度参数;通过对两个相邻高斯函数进行相减,得到高斯差分函数,并取得该函数的极值点,确立图像的关键点。
进一步,所述利用公安视频监控模糊图像对目标物进行检测识别方法采用模糊神经网络和RS理论,对目标物进行检测识别;
所述模糊神经网络的运算方法为:
模糊神经网络结构由输入层、模糊化层、模糊推理层及输出层构成;
第一层输入层的各个节点直接与输入量的各个分量连接,将输入量传到下一层模糊化层;
第二层模糊化层采用高斯型函数其中参数σ通常为正,参数c用于确定曲线的中心,x表示横轴)作为隶属函数;
第三层模糊推理层通过与模糊化层的连接来完成模糊规则的匹配,当满足不同阈值条件时,就新目标、目标的融合与目标的消失三种情况进行不同匹配,达到对新目标、目标融合及目标消失的判断,各个节点之间实现模糊运算并通过各个模糊节点的组合得到相应的激活强度;
第四层输出层输出运算结果;
所述RS理论的运算方法为:在视频目标物特征提取数据库中的知识发现,根据等价关系进行纵向及横向信息表中数据的属性约减;
属性约简算法如下:
1)令初始属性约简集P=Φ,计算像素灰度值、阴影的光照、颜色特性、目标运动特性、噪声等决策属性对每个条件属性的依赖性,按依赖性大小对属性进行排序,将依赖性最大的属性S加入属性约简集,P=P∪{S},如果有多个属性的依赖性相等,则选择属性值少的属性加入P;
2)若精确集等于约简集,则结束运算,取P为一个属性约简集;否则,计算P之外的属性加入到P的重要性,按重要性大小对属性进行排序,得一排序集M;
3)取重要性最大的属性S加入属性集P=P∪{S},如果有多个属性的重要性相等,则选择属性值少的属性加入P,若精确集等于约简集,则结束运算,否则,转步骤3)继续计算。
本发明另一目的在于提供一种利用上述利用公安视频监控模糊图像对目标物进行检测识别方法的利用公安视频监控模糊图像对目标物进行检测识别系统。
本发明中,通过图像处理和计算机视觉技术,在监控系统中增加智能分析功能模块,借助计算机的数据处理能力进而过滤掉视频图像中无用的信息或干扰信息、自动识别不同物体,分析抽取视频中关键有用信息,快速、准确得定位事故现场,判断监控画面中的异常情况,并以最快和最佳的方式发出警报或触发其它动作,从而有效进行事前预警、事中处理以及事后取证的全自动实时监控的智能系统。模糊神经网络使系统的容错能力得到提高,误报率相较传统视频监控减少50%,RS理论的应用,在不减少识别率的前提下,自动识别物体速度整体提高近20%。多视角的跟踪方法不但对进一步确定目标物提供辨识外,而且对跟踪目标的布控提供一定的技术支持及保障。
对公安视频监控模糊图像,采用模糊神经网络和RS理论等,对目标物进行检测识别,改进并提出新的算法,提高模糊图像辨识率;融合处理有效信息并动态提取目标物特征进行动态捕捉及预警,达到国家先进水平;视频监控于20世纪80年代正式在我国开始启用,110指挥中心最早使用了视频监控,用于监控城市的治安情况。
支持与前端视频监控的对接,自动将有价值的视频联网采集到搜索视频中,减少视频采集的工作量;
快速定位目标物出现区域,以便公安刑侦人员有针对性的加强警力部署或就近增加监控摄像头等;
通过动态捕捉视频信息与自动预警机制建立关联,提示目标物的出现以便公安刑侦人员及时采取措施,同时自动提取有关联信息的视频,便于侦查人员进行串并案分析及视频比对分析处理,找到有价值的线索等;
对不同的监控视频格式自动识别其格式封装和码流,并以在线流媒体方式供侦查人员调阅,支持主流DVR,NVR厂家的视频格式直接播放,也支持主流DV、手机所拍摄的视频格式,实现多种视频格式的在线播放、视频快速查阅等。
本发明解决了目前视频监控图像模糊的问题。
附图说明
图1是本发明实施例提供的利用公安视频监控模糊图像对目标物进行检测识别方法流程图;
图2是本发明实施例提供的稀疏冗余字典算法增强图像流程图。
图3是本发明实施例提供的SIFT算法流程图。
图4是本发明实施例提供的块匹配原理图。
图5是本发明实施例提供的当前匹配块与搜索窗口关系图。
图6是本发明实施例提供的模糊神经网络结构图。
图7是本发明实施例提供的高斯型隶属函数图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
下面结合附图对本发明的应用原理作进一步描述。
如图1所示,本发明实施例提供的利用公安视频监控模糊图像对目标物进行检测识别方法,包括:
S101:采用卡尔曼滤波法与矩形跟踪法结合,分离目标位置、面积的特征;
S102:通过构建特征识别矩阵分析目标运动状态;
S103:再对不同状态实施相应的多视角的监控跟踪。
所述通过构建特征识别矩阵分析目标运动状态;具体包括:
对于图像序列在时间间隔很小的情况下,目标物的重心和轮廓外接矩形不会发生很大变化。所以可用如式1的状态模型来预测。
S(n)=Φ·S(n-1)+W(n-1) (1)
其中S(n)表示在第n帧图像中的系统状态,W(n-1)表示的是系统的估计误差,Φ是状态转换矩阵。目标物体用其重心位置、相邻帧间的加速度、位移量、外接矩阵的周长、外接矩阵的长宽比等特性来反映,则:
其中,Δx(n)、Δy(n)是目标物重心在相邻两帧间x和y方向的速度量,Δx'(n)、Δy'(n)是其x和y方向的加速度,xs(n)、ys(n)表示目标物的矩形窗口的长度和宽度,x's(n)、y's(n)表示其矩形窗口的长度和宽度的变化率。
在采样时间Δt很小且矩形变化为线性时,则:
当系统状态与观测值之间是线性关系时,系统量测方程为:
M(n)=H·S(n)+V(n) (4)
M(n)表示量测向量,H是量测矩阵,V(n)是量测误差,且:
通过以上运算过程,进行目标物的分析及跟踪。
再对不同状态实施相应的多视角的监控跟踪。
进一步,构建特征辨识矩阵方法为:
利用目标的特征与目前目标所处的区域特点构建新矩阵,利用矩形跟踪法判别目标是否产生、是否消失;并分析目标特征,预判目标状态空间,判断目标的所处运动状态。
具体构建时采用如下过程:
第一步,定义目标物像素值为255,背景像素值为0,进行图像搜索,计算矩形左上与右上像素灰度值的差,正前与正后的像素灰度值差,左下与右下的像素灰度值差,并将它们之差的绝对值求和。
第二步,当求得的和大于所设定阈值时,认为这一点在目标物的边界上。
第三步,对图4所示中的点计算它的左上与左下的像素灰度值差,正上与正下的像素灰度值差,右上与右下的像素灰度值差,并将它们之差的绝对值求和。
第四步,当求得的和大于所设定阈值时,认为这一点是目标物的特征点。否者不是目标物的特征点。
其中M,N为图像子块矩形的长和宽,K,L为搜索范围矩形的长和宽,根据构建过程及实际匹配情况,找到与当前帧当前块相似度最高的子块当做匹配块,由上一帧或者下一帧得到的匹配块和当前块的相对位置,可以得到这两帧的目标物运动位移,当做当前块运动矢量D。
进一步,判断目标所处运动状态方法为:
将目标分为新目标、目标的融合与目标的消失,当新目标出现时,立刻构建新目标的信息;当目标出现分裂时,分析产生分裂的原因,跟踪分裂;当不同目标出现相互融合时,对融合后的目标进行融合处理;当跟踪的目标消失时,首先判断是否真消失,如果真消失,再删除原有的数据信息,具体原理如下:
对于当前帧当前块,设其可能的运动位移最大矢量为D(dx,dy),则下一帧的块的搜索窗口的相应大小可用(M+2dx)*(N+2dy)来表示,判断新目标、目标的融合与目标的消失时,当前匹配块与搜索窗口间的关系如图5所示。
进一步,所述再对不同状态实施相应的多视角的监控跟踪的方法为:
首先,对运动目标的阴影光照和颜色特征进行分析,即在前述方法基础上,定义目标物像素值为255,背景像素值为0,进行图像搜索,计算矩形左上与右上像素灰度值的差,正前与正后的像素灰度值差,左下与右下的像素灰度值差,并将它们之差的绝对值求和,然后外加对运动目标的阴影光照和颜色特征的考虑,进行微调,使得阈值在原来基础上上下浮动10%,通过实际实验效果改进原有的检测方法;
其次,在针对不同的目标物分别进行检测识别的基础上,其运动状态也不相同,构建的特征辨识矩阵也不相同,此时分别在不同的特征辨识矩阵的基础上,假设任一特征辨识矩阵为当前状态,对其它辨识矩阵做相对运动,即利用矩阵的加减运算,达到多个目标之间的跟踪;
再次,构建符合目标颜色的模型,这里用y,Cb,Cr分量彩色来表示,与常见的R,G,B三原色的关系如下:
其中y,Cb,Cr分别表示流明,蓝色浓度偏移量红色浓度偏移量,R,G,B分别表示红,绿、蓝三个颜色浓度。运用颜色的特点克服对目标的遮挡;最后,分析多视角的监控系统应用需求,实现不同视角的信息传递,一边利用矩阵的空间转换实现。
进一步,所述利用公安视频监控模糊图像对目标物进行检测识别方法还包括对目标物进行检测识别的图像的处理,对目标物进行检测识别的图像的处理方法包括图像增强方法与图像匹配方法;
所述图像增强方法包括:采用稀疏冗余模型算法进行图像增强;
首先,假定原图像收到了加性高斯噪声的污染,污染后的图像称为退化图像,图像恢复的过程其是退化图像的逆过程;假定图像的退化模型为:
g=Hu+v,
其中g表示要恢复的图像,Hu表示退化图像,v表示随机噪声;
则图像的恢复模型表示为:
其中表示恢复图像,g表示含噪图像,Hu表示原图像,arg是对图像的补偿。由于噪声的干扰,并不能得到合适且唯一的解,对图像的恢复模型施加一个正则性约束;则图像的恢复模型变为变分模型:
其中表示恢复图像,g表示含噪图像,Hu表示原图像,R(u)即为正则项,该项是与图像的本身性质有关,利用稀疏冗余字典模型来描述R(u),λ表示约束参数。
进一步,所述对目标物进行检测识别的图像的处理方法还包括图像在不同尺度空间中的特性处理方法和图像关键点的确立;
所述图像在不同尺度空间中的特性处理方法为:通过高斯模糊建立尺度空间,在一个图像的尺度空间
L(x,y,σ)=G(x,y,σ)*I(x,y),
其中,G(x,y,σ)表示一个变化尺度的高斯函数,I(x,y)表示原图像,σ为尺度参数,m,n表示高斯模板的维度,(x,y)表示图像的像素位置;通过尺度参数不同的变化,表达图像在不同尺度空间中的特性。
所述图像关键点的确立为:
利用高斯差分函数
D(x,y,σ)=(G(x,y,kσ)-G(x,y,σ))*I(x,y)=L(x,y,kσ)-L(x,y,σ),
其中D(x,y,σ)为高斯差分函数,I(x,y)表示原图像,G(x,y,kσ)为kσ变化尺度的高斯函数,G(x,y,σ)表示一个变化尺度的高斯函数,σ为尺度参数。通过对两个相邻高斯函数进行相减,得到高斯差分函数,并取得该函数的极值点,确立图像的关键点。
进一步,所述利用公安视频监控模糊图像对目标物进行检测识别方法采用模糊神经网络和RS理论,对目标物进行检测识别;
所述模糊神经网络的运算方法为:
该模糊神经网络结构由输入层、模糊化层、模糊推理层及输出层构成,如图6所示;
第一层输入层的各个节点直接与输入量的各个分量连接,将输入量传到下一层模糊化层;
第二层模糊化层采用高斯型函数其中参数σ通常为正,参数c用于确定曲线的中心,x表示横轴)作为隶属函数,如图7所示;
第三层模糊推理层通过与模糊化层的连接来完成模糊规则的匹配,当满足不同阈值条件时,就新目标、目标的融合与目标的消失三种情况进行不同匹配,达到对新目标、目标融合及目标消失的判断,各个节点之间实现模糊运算并通过各个模糊节点的组合得到相应的激活强度;
第四层输出层输出运算结果;
所述RS理论的运算方法为:在视频目标物特征提取数据库中的知识发现,根据等价关系进行纵向及横向信息表中数据的属性约减。
属性约简算法如下:
1)令初始属性约简集P=Φ,计算像素灰度值、阴影的光照、颜色特性、目标运动特性、噪声等决策属性对每个条件属性的依赖性,按依赖性大小对属性进行排序,将依赖性最大的属性S加入属性约简集,P=P∪{S},如果有多个属性的依赖性相等,则选择属性值少的属性加入P;
2)若精确集等于约简集,则结束运算,取P为一个属性约简集;否则,计算P之外的属性加入到P的重要性,按重要性大小对属性进行排序,得一排序集M;
3)取重要性最大的属性S加入属性集P=P∪{S},如果有多个属性的重要性相等,则选择属性值少的属性加入P,若精确集等于约简集,则结束运算,否则,转步骤3)继续计算。
下面结合实施例对本发明的应用原理作进一步描述。
1、多目标跟踪技术:
多目标跟踪技术是智能视频监控系统的核心技术,涉及到传计算机图像处理、模式识别、人工智能及自动控制等诸多相关领域的知识,而智能视频监控能够现实复杂场景中对运动目标的识别和跟踪,检测场景事件和判断危险事件的发生,因此,应加大对多目标跟踪技术的研究工作,提高视频监控系统的智能化水平,改善监控系统的精准度,为社会的经济发展和社会治安贡献一份力量。
在现实复杂场景中,针对视频监控图像中的运动目标,本发明应用光流法和帧差法这两种运动目标检测技术对运动目标进行识别和跟踪。
2、多目标跟踪的实现:
(1)针对不同状态采用不同的跟踪方法:
具体实践中,要分析多目标的运动状态,对不同状态实行不同的跟踪方法,才能有效提高跟踪的性能。卡尔曼滤波与矩形跟踪法是常见的跟踪方法。卡尔曼滤波通过建立目标的运动模型和运动轨迹,判断目标的下一位置,根据位置特征进行跟踪,这种方法的准确度随着模型的准确度而变化。矩形跟踪运用运动时获得的矩形特征完成对目标的跟踪。它适用于简单的情况下判断目标的产生和消失,但无法进行深入的分析,也就不能进行稳定跟踪。
(2)卡尔曼滤波法与矩形跟踪法结合:
因为多目标图像在空间领域和时间领域都变化的特性不同,以往用于单视角的卡尔曼滤波法和矩形跟踪法都不能满足多目标同时处于运动场景时的跟踪,如果充分利用两种方法的优点,将它们有效结合,分离目标位置、面积等特征,通过构建特征识别矩阵分析目标运动状态,再对不同状态实施相应的跟踪办法。
(3)构建新的特征辨识矩阵:
多目标跟踪一直是智能监控的难点,首先,因为在多个目标都存在运动时,目标之间相互产生干扰,严重影响区域检测的精度;其次,在时间上它们相互关联,多目标间有可能有对应的因果关系,大大增加复杂度;再次,多个目标在同一时刻运动时,必须采用和运动状态相对应的提取处理办法。所以,多目标跟踪不仅和运动分离精度有关系,也和目标特征选择、状态分析紧密相连。
要实现对目标各种运动状态的实时监测,包括新目标出现时、目标保留在场景内但没有与其他目标相互干扰、目标出现分裂现象、目标出现融合现象以及目标突然消失等情况,构建特征辨识矩阵,充分利用目标的特征与目前目标所处的区域特点构建新矩阵,利用矩形跟踪法判别目标是否产生、是否消失,注意分析目标特征,预判目标状态空间,判断目标的运动状态。
判断目标所处状态,将目标分为新目标、目标的融合与目标的消失,当新目标出现时,立刻构建新目标的信息;当目标出现分裂时,分析产生分裂的原因,跟踪分裂;当不同目标出现相互融合时,对融合后的目标进行融合处理;当跟踪的目标消失时,首先判断是否真消失,如果真消失,再删除原有的数据信息等。
3、提出一种新型的多视角的监控跟踪方法:
针对运动目标的阴影检测、多目标跟踪、克服遮挡目标的方法以及多视角下监控目标的相互传递。首先,对运动目标的阴影光照和颜色特征进行分析探讨,改进原有的检测办法;其次,探讨研究先利用目标的特点,辨别运动状态,再处理不同跟踪里的不同状态达到跟踪多目标;再次,构建符合目标颜色的模型,运用颜色的特点克服对目标的遮挡。最后,分析多视角的监控系统应用需求,设计智能监控框架,研究一种新型的多视角的监控跟踪办法,实现不同视角的信息传递。
4、图像增强与匹配技术:
(1)采用稀疏冗余模型算法进行图像增强:
由于自然图像会在小波基下呈现出一种“近零元素系数很多,而非零元素系数很少”的特点,这种特点为变换系数向量的“稀疏性”。正是由于这种特性的存在,可以对其进行系数冗余模型的建立。
首先,假定原图像收到了加性高斯噪声的污染,则污染后的图像可称之为退化图像,而图像恢复的过程其实就是退化图像的逆过程。假定图像的退化模型(加性高斯噪声)为:
g=Hu+v
其中g表示要恢复的图像,Hu表示退化图像,v表示随机噪声;
则图像的恢复模型可表示为:
其中表示恢复图像,g表示含噪图像,Hu表示原图像,arg是对图像的补偿。由于噪声的干扰,并不能得到合适且唯一的解,对图像的恢复模型施加一个正则性约束;则图像的恢复模型变为变分模型:
其中表示恢复图像,g表示含噪图像,Hu表示原图像,R(u)即为正则项,该项是与图像的本身性质有关,利用稀疏冗余字典模型来描述R(u),λ表示约束参数。
整个恢复增强算法可以总结为如图2流程图:
(2)利用SIFT算法进行特征提取匹配
通过上述的流程,得到了一个较好的恢复图像,下面针对该恢复图像进行匹配,由于在视频拍摄过程中,往往会由于方向、角度等问题产生一定量的形变,针对这个问题,采用微分不变量,即基于局部考虑的特征提取算法(SIFT匹配算法),该算法注重局部细节,能够很好的对抗位置移动,朝向改变甚至是噪声。
SIFT算法简易流程图3。
5、图像在不同尺度空间中的特性:
尺度空间的建立需要靠高斯模糊来实现,通过尺度参数不同的变化,观察图像在不同尺度空间中的特性。尺度空间内核的确立就成了关键问题,而实验证明,高斯卷积核是尺度空间内核唯一合理的线性核。
在一个图像的尺度空间
L(x,y,σ)=G(x,y,σ)*I(x,y),
其中,G(x,y,σ)表示一个变化尺度的高斯函数,I(x,y)表示原图像,σ为尺度参数,m,n表示高斯模板的维度,(x,y)表示图像的像素位置;通过尺度参数不同的变化,表达图像在不同尺度空间中的特性。
6、图像关键点的确立
利用高斯差分函数:
D(x,y,σ)=(G(x,y,kσ)-G(x,y,σ))*I(x,y)=L(x,y,kσ)-L(x,y,σ),
其中D(x,y,σ)为高斯差分函数,I(x,y)表示原图像,G(x,y,kσ)为kσ变化尺度的高斯函数,G(x,y,σ)表示一个变化尺度的高斯函数,σ为尺度参数。通过对两个相邻高斯函数进行相减,得到高斯差分函数,并取得该函数的极值点,确立图像的关键点。
7、验证了图像特征点的提取及匹配
SIFT算法的关键问题在于尺度空间的建立,关键点位置方向的确立和关键点描述子的确立。当这些问题得到解决后,就可以通过实验来验证图像特征点的提取及匹配情况,
8、结论
本发明建立了视频模糊图像中多目标跟踪算法相关的技术方法,提出了模糊图像中目标物的特征点的提取及匹配算法并进行了一定的实验探究。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种利用公安视频监控模糊图像对目标物进行检测识别方法,其特征在于,所述利用公安视频监控模糊图像对目标物进行检测识别方法包括:
采用卡尔曼滤波法与矩形跟踪法结合,分离目标位置、面积的特征;
通过构建特征识别矩阵分析目标运动状态;
再对不同状态实施相应的多视角的监控跟踪。
2.如权利要求1所述的利用公安视频监控模糊图像对目标物进行检测识别方法,其特征在于,所述通过构建特征识别矩阵分析目标运动状态,具体包括:
对于图像序列在时间间隔很小的情况下,目标物的重心和轮廓外接矩形不发生很大变化;用式(1)的状态模型来预测;
S(n)=Φ·S(n-1)+W(n-1) (1)
其中S(n)表示在第n帧图像中的系统状态,W(n-1)表示的是系统的估计误差,Φ是状态转换矩阵;目标物体用其重心位置、相邻帧间的加速度、位移量、外接矩阵的周长、外接矩阵的长宽比特性来反映,则:
<mrow>
<mtable>
<mtr>
<mtd>
<mrow>
<mi>S</mi>
<mrow>
<mo>(</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mi>&Delta;</mi>
<mi>x</mi>
<mo>(</mo>
<mi>n</mi>
<mo>)</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>&Delta;</mi>
<mi>y</mi>
<mo>(</mo>
<mi>n</mi>
<mo>)</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>x</mi>
<mi>s</mi>
</msub>
<mo>(</mo>
<mi>n</mi>
<mo>)</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>y</mi>
<mi>s</mi>
</msub>
<mo>(</mo>
<mi>n</mi>
<mo>)</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>&Delta;</mi>
<msup>
<mi>x</mi>
<mo>&prime;</mo>
</msup>
<mo>(</mo>
<mi>n</mi>
<mo>)</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>&Delta;</mi>
<msup>
<mi>y</mi>
<mo>&prime;</mo>
</msup>
<mo>(</mo>
<mi>n</mi>
<mo>)</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msubsup>
<mi>x</mi>
<mi>s</mi>
<mo>&prime;</mo>
</msubsup>
<mo>(</mo>
<mi>n</mi>
<mo>)</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msubsup>
<mi>y</mi>
<mi>s</mi>
<mo>&prime;</mo>
</msubsup>
<mo>(</mo>
<mi>n</mi>
<mo>)</mo>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>W</mi>
<mrow>
<mo>(</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>W</mi>
<mrow>
<mi>&Delta;</mi>
<mi>x</mi>
</mrow>
</msub>
<mo>(</mo>
<mi>n</mi>
<mo>)</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>W</mi>
<mrow>
<mi>&Delta;</mi>
<mi>y</mi>
</mrow>
</msub>
<mo>(</mo>
<mi>n</mi>
<mo>)</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>W</mi>
<msub>
<mi>x</mi>
<mi>s</mi>
</msub>
</msub>
<mo>(</mo>
<mi>n</mi>
<mo>)</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>W</mi>
<msub>
<mi>y</mi>
<mi>s</mi>
</msub>
</msub>
<mo>(</mo>
<mi>n</mi>
<mo>)</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>W</mi>
<mrow>
<msup>
<mi>&Delta;x</mi>
<mo>&prime;</mo>
</msup>
</mrow>
</msub>
<mo>(</mo>
<mi>n</mi>
<mo>)</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>W</mi>
<mrow>
<msup>
<mi>&Delta;y</mi>
<mo>&prime;</mo>
</msup>
</mrow>
</msub>
<mo>(</mo>
<mi>n</mi>
<mo>)</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>W</mi>
<msubsup>
<mi>x</mi>
<mi>s</mi>
<mo>&prime;</mo>
</msubsup>
</msub>
<mo>(</mo>
<mi>n</mi>
<mo>)</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>W</mi>
<msubsup>
<mi>y</mi>
<mi>s</mi>
<mo>&prime;</mo>
</msubsup>
</msub>
<mo>(</mo>
<mi>n</mi>
<mo>)</mo>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
</mtd>
</mtr>
</mtable>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,Δx(n)、Δy(n)是目标物重心在相邻两帧间x和y方向的速度量,Δx'(n)、Δy'(n)是其x和y方向的加速度,xs(n)、ys(n)表示目标物的矩形窗口的长度和宽度,x's(n)、y's(n)表示其矩形窗口的长度和宽度的变化率;
在采样时间Δt很小且矩形变化为线性时,则:
<mrow>
<mi>&Phi;</mi>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mrow>
<mi>&Delta;</mi>
<mi>t</mi>
</mrow>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mrow>
<mi>&Delta;</mi>
<mi>t</mi>
</mrow>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mrow>
<mi>&Delta;</mi>
<mi>t</mi>
</mrow>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mrow>
<mi>&Delta;</mi>
<mi>t</mi>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>3</mn>
<mo>)</mo>
</mrow>
</mrow>
当系统状态与观测值之间是线性关系时,系统量测方程为:
M(n)=H·S(n)+V(n) (4)
M(n)表示量测向量,H是量测矩阵,V(n)是量测误差,且:
<mrow>
<mtable>
<mtr>
<mtd>
<mrow>
<mi>M</mi>
<mrow>
<mo>(</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mi>&Delta;</mi>
<mi>x</mi>
<mo>(</mo>
<mi>n</mi>
<mo>)</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>&Delta;</mi>
<mi>y</mi>
<mo>(</mo>
<mi>n</mi>
<mo>)</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>x</mi>
<mi>s</mi>
</msub>
<mo>(</mo>
<mi>n</mi>
<mo>)</mo>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>y</mi>
<mi>s</mi>
</msub>
<mo>(</mo>
<mi>n</mi>
<mo>)</mo>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>H</mi>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mn>0</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
</mtd>
</mtr>
</mtable>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>5</mn>
<mo>)</mo>
</mrow>
<mo>.</mo>
</mrow>
3.如权利要求2所述的利用公安视频监控模糊图像对目标物进行检测识别方法,其特征在于,构建特征识别矩阵方法为:
利用目标的特征与目前目标所处的区域特点构建新矩阵,利用矩形跟踪法判别目标是否产生、是否消失;并分析目标特征,预判目标状态空间,判断目标的所处运动状态;
具体包括:
第一步,定义目标物像素值为255,背景像素值为0,进行图像搜索,计算矩形左上与右上像素灰度值的差,正前与正后的像素灰度值差,左下与右下的像素灰度值差,并将它们之差的绝对值求和;
第二步,当求得的和大于所设定阈值时,认为这一点在目标物的边界上;
第三步,对这一点计算它的左上与左下的像素灰度值差,正上与正下的像素灰度值差,右上与右下的像素灰度值差,并将它们之差的绝对值求和;
第四步,当求得的和大于所设定阈值时,认为这一点是目标物的特征点;否者不是目标物的特征点;
其中,设定M和N为图像子块矩形的长和宽,K和L为搜索范围矩形的长和宽,根据构建过程及实际匹配情况,找到与当前帧当前块相似度最高的子块当做匹配块,由上一帧或者下一帧得到的匹配块和当前块的相对位置,得到这两帧的目标物运动位移,当做当前块运动矢量D。
4.如权利要求2所述的利用公安视频监控模糊图像对目标物进行检测识别方法,其特征在于,分析目标运动状态的方法为:
将目标分为新目标、目标的融合与目标的消失;当新目标出现时,立刻构建新目标的信息;当目标出现分裂时,分析产生分裂的原因,跟踪分裂;当不同目标出现相互融合时,对融合后的目标进行融合处理;当跟踪的目标消失时,首先判断是否真消失,如果真消失,再删除原有的数据信息。
5.如权利要求1所述的利用公安视频监控模糊图像对目标物进行检测识别方法,其特征在于,所述再对不同状态实施相应的多视角的监控跟踪的方法为:
首先,对运动目标的阴影光照和颜色特征进行分析,即在前述方法基础上,定义目标物像素值为255,背景像素值为0,进行图像搜索,计算矩形左上与右上像素灰度值的差,正前与正后的像素灰度值差,左下与右下的像素灰度值差,并将它们之差的绝对值求和,然后外加对运动目标的阴影光照和颜色特征的考虑,进行微调,使得阈值在原来基础上上下浮动10%,通过实际实验效果改进原有的检测方法;
其次,在针对不同的目标物分别进行检测识别的基础上,其运动状态也不相同,构建的特征辨识矩阵也不相同,此时分别在不同的特征辨识矩阵的基础上,假设任一特征辨识矩阵为当前状态,对其它辨识矩阵做相对运动,即利用矩阵的加减运算,达到多个目标之间的跟踪;
再次,构建符合目标颜色的模型,这里用y,Cb,Cr分量彩色来表示,与常见的R,G,B三原色的关系如下:
<mrow>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mi>y</mi>
<mo>=</mo>
<mn>0.299</mn>
<mi>R</mi>
<mo>+</mo>
<mn>0.587</mn>
<mi>G</mi>
<mo>+</mo>
<mn>0.114</mn>
<mi>B</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>C</mi>
<mi>b</mi>
</msub>
<mo>=</mo>
<mn>0.1687</mn>
<mi>R</mi>
<mo>-</mo>
<mn>0.3313</mn>
<mi>G</mi>
<mo>+</mo>
<mn>0.5</mn>
<mi>B</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>C</mi>
<mi>r</mi>
</msub>
<mo>=</mo>
<mn>0.5</mn>
<mi>R</mi>
<mo>-</mo>
<mn>0.4187</mn>
<mi>G</mi>
<mo>-</mo>
<mn>0.0813</mn>
<mi>B</mi>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>,</mo>
</mrow>
其中y,Cb,Cr分别表示流明,蓝色浓度偏移量红色浓度偏移量,R,G,B分别表示红,绿、蓝三个颜色浓度;运用颜色的特点克服对目标的遮挡;
最后,分析多视角的监控系统应用需求,实现不同视角的信息传递,一边利用矩阵的空间转换实现。
6.如权利要求1所述的利用公安视频监控模糊图像对目标物进行检测识别方法,其特征在于,所述利用公安视频监控模糊图像对目标物进行检测识别方法还包括对目标物进行检测识别的图像的处理,对目标物进行检测识别的图像的处理方法包括图像增强方法与图像匹配方法;
所述图像增强方法包括:采用稀疏冗余模型算法进行图像增强;
首先,假定原图像收到了加性高斯噪声的污染,污染后的图像称为退化图像,图像恢复的过程其是退化图像的逆过程;假定图像的退化模型为:
g=Hu+v,
其中g表示要恢复的图像,Hu表示退化图像,v表示随机噪声
则图像的恢复模型表示为:
<mrow>
<mover>
<mi>u</mi>
<mo>^</mo>
</mover>
<mo>=</mo>
<mi>arg</mi>
<munder>
<mrow>
<mi>m</mi>
<mi>i</mi>
<mi>n</mi>
</mrow>
<mi>u</mi>
</munder>
<mo>|</mo>
<mo>|</mo>
<mi>g</mi>
<mo>-</mo>
<mi>H</mi>
<mi>u</mi>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mn>2</mn>
<mn>2</mn>
</msubsup>
<mo>,</mo>
</mrow>
其中表示恢复图像,g表示含噪图像,Hu表示原图像,arg是对图像的补偿;由于噪声的干扰,并不能得到合适且唯一的解,对图像的恢复模型施加一个正则性约束;则图像的恢复模型变为变分模型:
<mrow>
<mover>
<mi>u</mi>
<mo>^</mo>
</mover>
<mo>=</mo>
<mi>arg</mi>
<munder>
<mrow>
<mi>m</mi>
<mi>i</mi>
<mi>n</mi>
</mrow>
<mi>u</mi>
</munder>
<mo>|</mo>
<mo>|</mo>
<mi>g</mi>
<mo>-</mo>
<mi>H</mi>
<mi>u</mi>
<mo>|</mo>
<msubsup>
<mo>|</mo>
<mn>2</mn>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<mi>&lambda;</mi>
<mi>R</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>)</mo>
</mrow>
<mo>,</mo>
</mrow>
其中表示恢复图像,g表示含噪图像,Hu表示原图像,R(u)即为正则项,该项是与图像的本身性质有关,利用稀疏冗余字典模型来描述R(u),λ表示约束参数。
7.如权利要求6所述的利用公安视频监控模糊图像对目标物进行检测识别方法,其特征在于,所述对目标物进行检测识别的图像的处理方法还包括图像在不同尺度空间中的特性处理方法和图像关键点的确立;
所述图像在不同尺度空间中的特性处理方法为:通过高斯模糊建立尺度空间,在一个图像的尺度空间
L(x,y,σ)=G(x,y,σ)*I(x,y),
<mrow>
<mi>G</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>,</mo>
<mi>&sigma;</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mrow>
<mn>2</mn>
<msup>
<mi>&pi;&alpha;</mi>
<mn>2</mn>
</msup>
</mrow>
</mfrac>
<msup>
<mi>e</mi>
<mrow>
<mo>-</mo>
<mfrac>
<mrow>
<msup>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>-</mo>
<mi>m</mi>
<mo>/</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<mi>y</mi>
<mo>-</mo>
<mi>n</mi>
<mo>/</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
<mrow>
<mn>2</mn>
<msup>
<mi>&alpha;</mi>
<mn>2</mn>
</msup>
</mrow>
</mfrac>
</mrow>
</msup>
<mo>,</mo>
</mrow>
其中,G(x,y,σ)表示一个变化尺度的高斯函数,I(x,y)表示原图像,σ为尺度参数,m,n表示高斯模板的维度,(x,y)表示图像的像素位置;通过尺度参数不同的变化,表达图像在不同尺度空间中的特性。
8.如权利要求7所述的利用公安视频监控模糊图像对目标物进行检测识别方法,其特征在于,所述图像关键点的确立为:
利用高斯差分函数
D(x,y,σ)=(G(x,y,kσ)-G(x,y,σ))*I(x,y)=L(x,y,kσ)-L(x,y,σ),
其中D(x,y,σ)为高斯差分函数,I(x,y)表示原图像,G(x,y,kσ)为kσ变化尺度的高斯函数,G(x,y,σ)表示一个变化尺度的高斯函数,σ为尺度参数;通过对两个相邻高斯函数进行相减,得到高斯差分函数,并取得该函数的极值点,确立图像的关键点。
9.如权利要求1所述的利用公安视频监控模糊图像对目标物进行检测识别方法,其特征在于,所述利用公安视频监控模糊图像对目标物进行检测识别方法采用模糊神经网络和RS理论,对目标物进行检测识别;
所述模糊神经网络的运算方法为:
模糊神经网络结构由输入层、模糊化层、模糊推理层及输出层构成;
第一层输入层的各个节点直接与输入量的各个分量连接,将输入量传到下一层模糊化层;
第二层模糊化层采用高斯型函数作为隶属函数,其中参数σ通常为正,参数c用于确定曲线的中心,x表示横轴;
第三层模糊推理层通过与模糊化层的连接来完成模糊规则的匹配,当满足不同阈值条件时,就新目标、目标的融合与目标的消失三种情况进行不同匹配,达到对新目标、目标融合及目标消失的判断,各个节点之间实现模糊运算并通过各个模糊节点的组合得到相应的激活强度;
第四层输出层输出运算结果;
所述RS理论的运算方法为:在视频目标物特征提取数据库中的知识发现,根据等价关系进行纵向及横向信息表中数据的属性约减;
属性约简算法如下:
1)令初始属性约简集P=Φ,计算像素灰度值、阴影的光照、颜色特性、目标运动特性、噪声等决策属性对每个条件属性的依赖性,按依赖性大小对属性进行排序,将依赖性最大的属性S加入属性约简集,P=P∪{S},如果有多个属性的依赖性相等,则选择属性值少的属性加入P;
2)若精确集等于约简集,则结束运算,取P为一个属性约简集;否则,计算P之外的属性加入到P的重要性,按重要性大小对属性进行排序,得一排序集M;
3)取重要性最大的属性S加入属性集P=P∪{S},如果有多个属性的重要性相等,则选择属性值少的属性加入P,若精确集等于约简集,则结束运算,否则,转步骤3)继续计算。
10.一种利用权利要求1所述利用公安视频监控模糊图像对目标物进行检测识别方法的利用公安视频监控模糊图像对目标物进行检测识别系统。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710335674.0A CN107169993A (zh) | 2017-05-12 | 2017-05-12 | 利用公安视频监控模糊图像对目标物进行检测识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710335674.0A CN107169993A (zh) | 2017-05-12 | 2017-05-12 | 利用公安视频监控模糊图像对目标物进行检测识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107169993A true CN107169993A (zh) | 2017-09-15 |
Family
ID=59815596
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710335674.0A Pending CN107169993A (zh) | 2017-05-12 | 2017-05-12 | 利用公安视频监控模糊图像对目标物进行检测识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107169993A (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108038864A (zh) * | 2017-12-05 | 2018-05-15 | 中国农业大学 | 一种动物目标图像的提取方法及系统 |
CN108196453A (zh) * | 2018-01-24 | 2018-06-22 | 中南大学 | 一种机械臂运动规划群体智能计算方法 |
CN109255796A (zh) * | 2018-09-07 | 2019-01-22 | 浙江大丰实业股份有限公司 | 舞台设备安全解析平台 |
CN109493354A (zh) * | 2018-10-10 | 2019-03-19 | 中国科学院上海技术物理研究所 | 一种基于多视角图像的目标二维几何外形重构方法 |
CN109918538A (zh) * | 2019-01-25 | 2019-06-21 | 清华大学 | 视频信息处理方法及装置、存储介质及计算设备 |
CN109934776A (zh) * | 2018-12-25 | 2019-06-25 | 北京奇艺世纪科技有限公司 | 模型生成方法、视频增强方法、装置及计算机可读存储介质 |
CN110426671A (zh) * | 2019-07-04 | 2019-11-08 | 重庆邮电大学 | Wsn中基于模型概率实时修正的imm目标跟踪方法及装置 |
WO2019214016A1 (zh) * | 2018-05-08 | 2019-11-14 | 江南大学 | 基于LoRa技术的多功能LED智能路灯系统 |
CN111612729A (zh) * | 2020-05-26 | 2020-09-01 | 杭州电子科技大学 | 基于卡尔曼滤波的目标序列跟踪图像恢复方法 |
CN111724415A (zh) * | 2020-06-20 | 2020-09-29 | 马鞍山职业技术学院 | 基于视频图像的固定场景下多目标运动检测与跟踪方法 |
CN112396635A (zh) * | 2020-11-30 | 2021-02-23 | 深圳职业技术学院 | 一种基于多设备的复杂环境下多目标检测方法 |
CN112435190A (zh) * | 2020-11-24 | 2021-03-02 | 同济大学 | 一种基于车辆运动与数据增广的运动模糊目标检测方法 |
CN113158843A (zh) * | 2021-04-02 | 2021-07-23 | 汪建余 | 模具机床内人员数量数据处理方法、系统、终端、介质 |
CN113660484A (zh) * | 2021-06-29 | 2021-11-16 | 新疆朝阳商用数据传输有限公司 | 基于音视频内容的音视频属性比对方法、系统、终端及介质 |
CN113822822A (zh) * | 2021-08-09 | 2021-12-21 | 上海海洋大学 | 一种图像模糊矩阵结构的辨识方法 |
CN114495017A (zh) * | 2022-04-14 | 2022-05-13 | 美宜佳控股有限公司 | 基于图像处理的地面杂物检测方法、装置、设备及介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101673403A (zh) * | 2009-10-10 | 2010-03-17 | 安防制造(中国)有限公司 | 复杂干扰场景下的目标跟踪方法 |
-
2017
- 2017-05-12 CN CN201710335674.0A patent/CN107169993A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101673403A (zh) * | 2009-10-10 | 2010-03-17 | 安防制造(中国)有限公司 | 复杂干扰场景下的目标跟踪方法 |
Non-Patent Citations (5)
Title |
---|
栾正禧: "《中国邮电百科全书 电信卷》", 30 September 1993, 北京:人民邮电出版社 * |
梁成: "基于卡尔曼滤波法视频目标跟踪的改进", 《计算机与数字工程》 * |
薛荣坤: "雾天退化的彩色图像增强方法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
覃伟荣 等: "基于粗糙集理论的条件属性动态约简算法", 《计算机技术与发展》 * |
辛晨: "非理想条件下的人脸识别算法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108038864A (zh) * | 2017-12-05 | 2018-05-15 | 中国农业大学 | 一种动物目标图像的提取方法及系统 |
CN108038864B (zh) * | 2017-12-05 | 2020-06-05 | 中国农业大学 | 一种动物目标图像的提取方法及系统 |
CN108196453B (zh) * | 2018-01-24 | 2020-11-20 | 中南大学 | 一种机械臂运动规划群体智能计算方法 |
CN108196453A (zh) * | 2018-01-24 | 2018-06-22 | 中南大学 | 一种机械臂运动规划群体智能计算方法 |
WO2019214016A1 (zh) * | 2018-05-08 | 2019-11-14 | 江南大学 | 基于LoRa技术的多功能LED智能路灯系统 |
CN109255796A (zh) * | 2018-09-07 | 2019-01-22 | 浙江大丰实业股份有限公司 | 舞台设备安全解析平台 |
CN109255796B (zh) * | 2018-09-07 | 2022-01-28 | 浙江大丰实业股份有限公司 | 舞台设备安全解析平台 |
CN109493354A (zh) * | 2018-10-10 | 2019-03-19 | 中国科学院上海技术物理研究所 | 一种基于多视角图像的目标二维几何外形重构方法 |
CN109934776A (zh) * | 2018-12-25 | 2019-06-25 | 北京奇艺世纪科技有限公司 | 模型生成方法、视频增强方法、装置及计算机可读存储介质 |
CN109934776B (zh) * | 2018-12-25 | 2021-05-25 | 北京奇艺世纪科技有限公司 | 模型生成方法、视频增强方法、装置及计算机可读存储介质 |
CN109918538A (zh) * | 2019-01-25 | 2019-06-21 | 清华大学 | 视频信息处理方法及装置、存储介质及计算设备 |
CN110426671A (zh) * | 2019-07-04 | 2019-11-08 | 重庆邮电大学 | Wsn中基于模型概率实时修正的imm目标跟踪方法及装置 |
CN111612729A (zh) * | 2020-05-26 | 2020-09-01 | 杭州电子科技大学 | 基于卡尔曼滤波的目标序列跟踪图像恢复方法 |
CN111612729B (zh) * | 2020-05-26 | 2023-06-23 | 杭州电子科技大学 | 基于卡尔曼滤波的目标序列跟踪图像恢复方法 |
CN111724415A (zh) * | 2020-06-20 | 2020-09-29 | 马鞍山职业技术学院 | 基于视频图像的固定场景下多目标运动检测与跟踪方法 |
CN112435190A (zh) * | 2020-11-24 | 2021-03-02 | 同济大学 | 一种基于车辆运动与数据增广的运动模糊目标检测方法 |
CN112396635A (zh) * | 2020-11-30 | 2021-02-23 | 深圳职业技术学院 | 一种基于多设备的复杂环境下多目标检测方法 |
CN112396635B (zh) * | 2020-11-30 | 2021-07-06 | 深圳职业技术学院 | 一种基于多设备的复杂环境下多目标检测方法 |
CN113158843A (zh) * | 2021-04-02 | 2021-07-23 | 汪建余 | 模具机床内人员数量数据处理方法、系统、终端、介质 |
CN113660484A (zh) * | 2021-06-29 | 2021-11-16 | 新疆朝阳商用数据传输有限公司 | 基于音视频内容的音视频属性比对方法、系统、终端及介质 |
CN113660484B (zh) * | 2021-06-29 | 2024-04-26 | 北京点众快看科技有限公司 | 基于音视频内容的音视频属性比对方法、系统、终端及介质 |
CN113822822A (zh) * | 2021-08-09 | 2021-12-21 | 上海海洋大学 | 一种图像模糊矩阵结构的辨识方法 |
CN113822822B (zh) * | 2021-08-09 | 2023-09-22 | 上海海洋大学 | 一种图像模糊矩阵结构的辨识方法 |
CN114495017A (zh) * | 2022-04-14 | 2022-05-13 | 美宜佳控股有限公司 | 基于图像处理的地面杂物检测方法、装置、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107169993A (zh) | 利用公安视频监控模糊图像对目标物进行检测识别方法 | |
CN110135269B (zh) | 一种基于混合颜色模型与神经网络的火灾图像检测方法 | |
CN105678803B (zh) | 基于w4算法和帧间差分的视频监控目标检测方法 | |
CN103914688B (zh) | 一种城市道路障碍物识别系统 | |
CN102136059B (zh) | 一种基于视频分析的烟雾检测方法 | |
CN108921875A (zh) | 一种基于航拍数据的实时车流检测与追踪方法 | |
CN106203260A (zh) | 基于多摄像机监控网络的行人识别与跟踪方法 | |
CN106204640A (zh) | 一种运动目标检测系统及方法 | |
CN104036323A (zh) | 一种基于卷积神经网络的车辆检测方法 | |
CN103077539A (zh) | 一种复杂背景及遮挡条件下的运动目标跟踪方法 | |
CN111653023A (zh) | 一种智能工厂监管方法 | |
WO2018058854A1 (zh) | 一种视频的背景去除方法 | |
CN107230267A (zh) | 基于人脸识别算法的幼儿园智能签到方法 | |
CN106373146A (zh) | 一种基于模糊学习的目标跟踪方法 | |
Karpagavalli et al. | Estimating the density of the people and counting the number of people in a crowd environment for human safety | |
CN107480653A (zh) | 基于计算机视觉的客流量检测方法 | |
Janku et al. | Fire detection in video stream by using simple artificial neural network | |
CN106339677A (zh) | 一种基于视频的铁路货车洒落物自动检测方法 | |
CN103927875B (zh) | 基于视频的交通溢流状态识别方法 | |
CN113642403A (zh) | 基于边缘计算的人群异动智能安全检测系统 | |
Han et al. | A method based on multi-convolution layers joint and generative adversarial networks for vehicle detection | |
Hu et al. | Parallel spatial-temporal convolutional neural networks for anomaly detection and location in crowded scenes | |
CN107122762A (zh) | 一种针对复杂运动图像的处理方法 | |
Li et al. | Application research of artificial intelligent technology in substation inspection tour | |
CN112613359B (zh) | 用于人员异常行为检测的神经网络的构建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170915 |