CN108491857B - 一种视域重叠的多摄像机目标匹配方法 - Google Patents

一种视域重叠的多摄像机目标匹配方法 Download PDF

Info

Publication number
CN108491857B
CN108491857B CN201810141262.8A CN201810141262A CN108491857B CN 108491857 B CN108491857 B CN 108491857B CN 201810141262 A CN201810141262 A CN 201810141262A CN 108491857 B CN108491857 B CN 108491857B
Authority
CN
China
Prior art keywords
camera
target
image
calculating
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810141262.8A
Other languages
English (en)
Other versions
CN108491857A (zh
Inventor
程德强
陈亮亮
庄焕东
蔡迎春
高蕊
姚洁
赵凯
袁永
屠世浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China University of Mining and Technology CUMT
Original Assignee
China University of Mining and Technology CUMT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China University of Mining and Technology CUMT filed Critical China University of Mining and Technology CUMT
Priority to CN201810141262.8A priority Critical patent/CN108491857B/zh
Publication of CN108491857A publication Critical patent/CN108491857A/zh
Application granted granted Critical
Publication of CN108491857B publication Critical patent/CN108491857B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/48Matching video sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A10/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
    • Y02A10/40Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种视域重叠的多摄像机目标匹配方法,具体如下;根据摄像机1和摄像机2的前5帧信息计算两台摄像机的视野分界线;提取摄像机1视频中的前景目标,根据多特征融合规则将各个前景目标的特征进行融合获得融合后的特征向量;计算摄像机1中各目标在摄像机2中的投影点,确定待匹配目标的可靠区域后,再计算可靠区域内多特征融合向量;计算多特征融合向量的欧式距离,完成视域重叠的多摄像机目标匹配,距离最近且在设定阈值范围内的目标为匹配目标,保存视野分界线参数;更新视野分界线参数,从当前视频帧的前5帧中选取2组参数,再结合当前帧的视野分界线参数进行线性加权,并对视野分界线模型进行更新。

Description

一种视域重叠的多摄像机目标匹配方法
技术领域
本发明属于多摄像机视频监控的目标跟踪技术,尤其涉及一种视域重叠的多摄像机目标匹配方法。
背景技术
随着科学技术的发展,“智慧校园”、“智慧城市”等概念不断的涌入人们的生活。信息技术的飞速发展为这些提供了技术支持,使它们逐渐成为现实。而在交通、工业和教育中,视频监控被越来越广泛的应用。大量涌现的摄像机监控视频也促使人们去思考如何高效的进行视频处理这一问题。于是,不同的智能视频监控系统被开发出来,用来对视频中的目标进行检测、匹配和跟踪,甚至有些智能视频监控系统能够对视频中的目标识别和行为分析。
多摄像机目标追踪系统作为智能视频监控系统的一部分,有着更广阔和多角度的视野,可以克服单摄像机中目标被遮挡和目标移出视野的问题。因此多摄像机目标跟踪系统具有更大的研究和应用价值。主要步骤:首先对单摄像机输入视频进行运动目标检测,分别提取目标特征;再对各单摄像机提取的信息进行融合,实现不同摄像机中的目标匹配;最后实现多摄像机协同进行目标跟踪。
本发明主要是对视野重叠情况下多摄像机的目标匹配问题进行研究。目前关于视域重叠的多摄像机目标匹配方法主要有:基于特征融合的目标匹配方法,基于队列的目标匹配方法和基于模型的目标匹配方法。基于特征融合的目标匹配方法将提取的目标特征利用统计学等方法进行目标匹配,该方法对于无遮挡情况下的视频效果较好,但当候选区域较大后会导致迭代次数增多,增加时间成本。基于队列的目标匹配方法是根据相邻摄像机的几何转换关系进行目标的定位。该方法在确定摄像机几何关系时忽略了摄像机受外界因素而导致的相对位置的变化和几何关系确立时产生的误差,从而会导致系统匹配准确率的逐渐下降。基于模型的目标匹配方法是利用先验信息构建一个目标模型,将视频中的目标和目标模型进行匹配,但该方法在目标发生旋转、形变时就会失去作用,而且建立模型也耗费大量运算时间。
1.现有智能视频监控系统中,在人群密集情况下或目标暂时被其他事物遮挡时,一是会因视频中无法搜索匹配到目标而发生目标丢失情况;二是扩大搜索窗,这会导致目标匹配时迭代搜索区域增大,增加计算复杂度,算法实时性下降。本发明将不采用这两种策略。
2.多视频目标匹配模型参数一般分为两类:一类是模型参数固定不变,但现实生活中各种不确定因素会导致摄像机位置发生变动,从而导致模型逐渐失效;另一类是参数不断更新的模型,但目标搜索和定位过程中也会出现异常数据的计算误差,导致模型参数更新错误,从而模型失效。本发明中的目标匹配模型更加稳健,并能够避免参数更新失败造成的模型失效。
3.在视频中出现多个相似目标时,目标很难依靠单一或较少的目标特征进行辨别。
发明内容
本发明所要解决的技术问题是针对背景技术的不足提供了一种视域重叠的多摄像机目标匹配方法,其采用基于多摄像机视野分界线的方法对目标进行定位,能够避免因单摄像机视野中目标被遮挡或变形而导致的目标丢失和匹配失败;目标通过空间映射实现定位后再进行目标匹配,也可以缩小迭代搜索区域,降低计算复杂度。
本发明为解决上述技术问题采用以下技术方案
一种视域重叠的多摄像机目标匹配方法,具体包含如下步骤;
步骤1,根据摄像机1和摄像机2的前n帧信息计算两台摄像机的视野分界线,其中,n取正整数;
步骤2,提取摄像机1视频中的前景目标,根据多特征融合规则将各个前景目标的特征进行融合获得融合后的特征向量;
步骤3,计算摄像机1中各待匹配前景目标在摄像机2中的投影点,确定待匹配目标的可靠区域后,再计算可靠区域内多特征融合向量;
步骤4,计算多特征融合向量的欧式距离,完成视域重叠的多摄像机目标匹配,距离最近且在设定阈值范围内的目标为匹配目标,保存视野分界线参数;
步骤5,更新视野分界线参数,从当前视频帧的前5帧的中选取2组参数,再结合当前帧的视野分界线参数进行线性加权,并对视野分界线模型进行更新;
步骤6,重复步骤2,直至视频结束。
作为本发明一种视域重叠的多摄像机目标匹配方法的进一步优选方案,在步骤1中,两台摄像机的视野分界线具体计算过程如下:
步骤1.1,设两台摄像机中的同一时刻的帧图像为图像1和图像2;
步骤1.2,提取图像1和图像2的sift匹配关键点,并利用RANSAC算法进行过滤;
步骤1.3,从步骤1.2过滤后的sift匹配关键点对中选取4对空间共面的点对,且任意3点都不共线,设I1和I2为两个独立的投影不变量,则计算如公式如下:
Figure BDA0001577668470000021
Figure BDA0001577668470000022
Figure BDA0001577668470000031
其中,
Figure BDA0001577668470000032
Figure BDA0001577668470000033
是点
Figure BDA0001577668470000034
在图i中的坐标,在两幅待匹配的背景图像中,已知图像1中的5个点
Figure BDA0001577668470000035
计算投影不变量I1,I2;图像1中的
Figure BDA0001577668470000036
分别对应图像2中的
Figure BDA0001577668470000037
根据两个投影不变量,计算图像2中第5个点的对应位置;第5个点的坐标计算公式:
Figure BDA0001577668470000038
Figure BDA0001577668470000039
其中
Figure BDA00015776684700000310
Figure BDA00015776684700000311
Figure BDA00015776684700000312
Figure BDA00015776684700000313
Figure BDA00015776684700000314
Figure BDA00015776684700000315
作为本发明一种视域重叠的多摄像机目标匹配方法的进一步优选方案,在步骤1中,视野分界线的初始化和更新具体如下:
初始化视野分界线,即计算a1,b1,c1和a2,b2,c2两组参数,首先选取两组视频的第1,3,5帧图像,根据5.2.2部分计算视野分界线参数,记第n(n>=5)帧图像视野分界线参数为
Figure BDA00015776684700000316
Figure BDA00015776684700000317
则当前帧图像视野分界线参数为公式(3):
Figure BDA00015776684700000318
Figure BDA00015776684700000319
Figure BDA00015776684700000320
Figure BDA00015776684700000321
Figure BDA0001577668470000041
Figure BDA0001577668470000042
公式中λ12和λ3分别为不同帧参数的加权系数,可根据情况进行调整,本发明中设置为0.2,0.3,0.5;
具体步骤如下:
1)分别从摄像机1和摄像机2中读取视频1和视频2;
2)初始化模型,根据5.2.1计算当前帧a1,b1,c1和a2,b2,c2
3)当帧数n<5时,直接采用5.2.1方法计算模型参数;当帧数n>=5时,采用5.2.2公式计算模型参数;
4)重复步骤3)。
作为本发明一种视域重叠的多摄像机目标匹配方法的进一步优选方案,在步骤2和步骤3中,采用图像显著性加权的HSV特征和HOG特征描述进行融合特征量。
作为本发明一种视域重叠的多摄像机目标匹配方法的进一步优选方案,HOG特征提取具体如下:
HOG特征是通过梯度分布来描述图像局部信息,图像先分块,再分解成细胞单元并计算梯度分布直方图,最后把所有的直方图联合起来即为HOG描述子;
具体步骤如下:
(1)Gamma归一化:
为了避免光照、噪声等影响,图像需要先进行Gamma归一化,归一化公式为:
Figure BDA0001577668470000043
gamma常取2;
I(x,y)=I(x,y)gamma,gamma常取0.5;
(2)梯度计算具体如下:
Gx(x,y)=A(x+1,y)-A(x-1,y)
Gy(x,y)=A(x,y+1)-A(x,y-1) (7)
其中,Gx为水平方向梯度,Gy为垂直方向梯度,A(x,y)为像素(x,y)的灰度值,则梯度值G和梯度方向α为公式(8)和(9):
Figure BDA0001577668470000044
Figure BDA0001577668470000051
(3)计算各单元梯度分布直方图;
将目标图像分解成若干单元cell,并对每个cell计算其梯度分布直方图。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
本发明采用基于多摄像机视野分界线的方法对目标进行定位,能够避免因单摄像机视野中目标被遮挡或变形而导致的目标丢失和匹配失败。目标通过空间映射实现定位后再进行目标匹配,也可以缩小迭代搜索区域,降低计算复杂度。
2.本发明采用自调节空间模型方法,从视频当前帧的前五帧中选取三帧,保存其空间模型参数作为当前帧空间模型的先验信息。当前帧空间模型参数根据先验信息和当前计算参数这两组数据来确定。本方法充分利用了不同时间帧的信息来避免因摄像机位置变化而导致的模型失效,增强了算法的鲁棒性。
3.本发明利用多特征融合匹配方法进行目标匹配。首先利用提出的像素贡献值加权直方图方法计算HSV颜色空间的H和S通道的直方图,再提取HOG特征,然后将颜色直方图特征和HOG特征联合为目标特征向量,最后再计算所提出的空间加权相似度值,并根据匹配规则进行目标匹配。本发明一定程度上能够在相似目标出现时提高目标匹配的准确率。
附图说明
图1是本发明视域重叠的多摄像目标匹配算法框图;
图2是本发明HSV颜色空间;
图3是本发明目标图像划分示意图;
图4是本发明梯度方向划分
图5是本发明目标cell分解和block划分。
具体实施方式
下面结合附图对本发明的技术方案做进一步的详细说明:
5.1整体框架
在多摄像机重叠视域中进行多目标匹配时,主要从两个方面进行考虑:一是模型的鲁棒性,摄像机位置会受外界环境的影响而改变,从而使模型参数逐渐失效,除此之外,摄像机视域中的目标会发生遮挡、变形等异常情况,这也会导致目标丢失;二是模型的准确性,由于多目标进行匹配时会存在目标相似情况,而单一的目标特征匹配方法很难能够对相似目标进行辨别从而导致匹配准确率下降。本发明从这两个方面对多摄像机重叠视域中的多目标匹配算法进行改进,构建一种更加鲁棒和准确率更高的基于自适应视野空间模型的目标匹配方法。
本发明的框架如图1所示,具体如下:
本发明以两台摄像机为例,其主要步骤:
1)先根据摄像机1和摄像机2的前5帧信息计算两台摄像机的视野分界线,以此能够定位摄像机1中的任意一点投影在摄像机2中的位置。
2)提取摄像机1视频中的前景目标,根据多特征融合规则将各个目标的特征进行融合获得融合后的特征向量。
3)计算摄像机1中各目标在摄像机2中的投影点,确定待匹配目标的可靠区域后,再计算可靠区域内多特征融合向量。
4)计算多特征融合向量的欧式距离,距离最近且在设定阈值范围内的目标为匹配目标。
5)更新视野分界线参数,从当前视频帧的前5帧的中选取2组参数,再结合当前帧的视野分界线参数进行线性加权,并对视野分界线模型进行更新。
6)重复步骤2,直至视频结束。
本发明中的空间模型参数能够随时间变化进行更新,这能够很好的解决摄像机相对位置的变化,使投影点的定位更准确;而根据投影点定位确定的可靠区域也能够减少目标匹配的计算量。本发明将目标的多个特征进行融合获得特征向量,相比单特征能够更好的辨别相似目标,提高目标匹配的准确率。
5.2自适应视野空间模型
本发明的整体框架是基于自适应视野空间模型的目标匹配方法,即能够根据本发明的优化方法及时更新视野分界线模型的参数。该部分主要包括两个模块:一是初始化视野分界线模型,二是更新模型参数。
5.2.1生成视野分界线
设两台摄像机中的同一时刻的帧图像为图像1和图像2。首先提取图像1和图像2的sift匹配关键点,并利用RANSAC算法进行过滤。从过滤后的关键点对中选取4对空间共面的点对,且任意3点都不共线。设I1和I2为两个独立的投影不变量,计算如公式(1):
Figure BDA0001577668470000061
Figure BDA0001577668470000062
Figure BDA0001577668470000071
其中,
Figure BDA0001577668470000072
Figure BDA0001577668470000073
是点
Figure BDA0001577668470000074
在图i中的坐标。在两幅待匹配的背景图像中,已知图像1中的5个点
Figure BDA00015776684700000721
计算投影不变量I1,I2;图像1中的
Figure BDA0001577668470000075
分别对应图像2中的
Figure BDA0001577668470000076
根据两个投影不变量,就可以计算图像2中第5个点的对应位置。第5个点的坐标计算公式:
Figure BDA0001577668470000077
Figure BDA0001577668470000078
其中
Figure BDA0001577668470000079
Figure BDA00015776684700000710
Figure BDA00015776684700000711
Figure BDA00015776684700000712
Figure BDA00015776684700000713
Figure BDA00015776684700000714
5.2.2视野分界线的初始化和更新
初始化视野分界线,即计算a1,b1,c1和a2,b2,c2两组参数。首先选取两组视频的第1,3,5帧图像,根据5.2.2部分计算视野分界线参数,记第n(n>=5)帧图像视野分界线参数为
Figure BDA00015776684700000722
Figure BDA00015776684700000715
则当前帧图像视野分界线参数为公式(3):
Figure BDA00015776684700000716
Figure BDA00015776684700000717
Figure BDA00015776684700000718
Figure BDA00015776684700000719
Figure BDA00015776684700000720
Figure BDA0001577668470000081
公式中λ12和λ3分别为不同帧参数的加权系数,可根据情况进行调整,本发明中设置为0.2,0.3,0.5。
具体步骤如下:
1)分别从摄像机1和摄像机2中读取视频1和视频2;
2)初始化模型,根据5.2.1计算当前帧a1,b1,c1和a2,b2,c2
3)当帧数n<5时,直接采用5.2.1方法计算模型参数;当帧数n>=5时,采用5.2.2公式计算模型参数;
4)重复步骤3)。
5.3目标多特征融合方法
当重叠视域中存在多个相似目标时,依靠单一目标特征无法准确进行目标匹配。而本发明中采用一种目标多特征融合的方法来提取目标特征,既可以更好的分辨相似目标,也可以提高目标匹配时的准确率。
常见的单一目标特征有颜色特征,局部特征,纹理特征,空间特征等。本发明主要采用图像显著性加权的HSV特征和HOG特征描述进行融合。
5.3.1像素贡献加权直方图
在图像HSV颜色空间中,H为色相,描述主要的颜色分类,S为饱和度,描述人眼感受到的色彩鲜艳纯正程度,V为亮度,描述人眼感受到的色彩的光的强度。HSV颜色空间可用图2表示,其中H为0-360度;S为到圆锥中心轴的距离,0<S<1,S越大颜色越鲜艳;Y为到圆锥顶点的垂直距离,0<V<1,V越小颜色越暗。而RGB和HSV颜色空间的转换公式如公式(4):
Figure BDA0001577668470000082
Figure BDA0001577668470000091
V=max (4)
颜色直方图是通过对不同颜色在图像中出现的次数进行统计而计算的比例。假设给定图像I,将图像I的HSV颜色空间的H通道进行量化为8个色彩等级(c1,c2,...,c8),若像素p(x,y)的颜色为C(p),则集合Ic为C(p)=c的像素集合。对于颜色ci,i={1,2,...,8},直方图
Figure BDA0001577668470000092
归一化直方图为:
Figure BDA0001577668470000093
其中m×n为图像大小。
S通道的归一化直方图计算方法和H通道相同。为了避免不同摄像机中视频亮度不同而造成的影响,本发明将只提取H和S通道的直方图特征量。
本发明的颜色直方图特征计算采用像素贡献加权直方图特征计算方法。一般待匹配目标是一个矩形区域,本发明将目标从上到下依次分为8个大小相同的条形区域bin,分别对每个bin计算直方图,最后依次将8个bin的直方图特征进行串联{Hbin1,Hbin2,...,Hbin8},如图3。
假设一个bin的中心为p(x0,y0),则像素pi(xi,yi)的贡献值为K(xi,yi),计算公式如公式(5):
Figure BDA0001577668470000094
其中W和H为每个bin的宽和高,则颜色ci的像素p(x,y)对直方图贡献值为Kci,p,颜色ci的直方图特征值为公式(6):
Figure BDA0001577668470000095
其中Ici为颜色为ci的像素集合,Ap为像素p的通道归一化幅值。
5.3.2HOG特征提取
HOG特征是通过梯度分布来描述图像局部信息,图像先分块,再分解成细胞单元并计算梯度分布直方图,最后把所有的直方图联合起来即为HOG描述子。
具体步骤如下:
(1)Gamma归一化
为了避免光照、噪声等影响,图像需要先进行Gamma归一化,归一化公式为:
Figure BDA0001577668470000101
gamma常取2
I(x,y)=I(x,y)gamma,gamma常取0.5
(2)梯度计算
梯度计算公式(7):
Gx(x,y)=A(x+1,y)-A(x-1,y)
Gy(x,y)=A(x,y+1)-A(x,y-1) (7)
其中Gx为水平方向梯度,Gy为垂直方向梯度,A(x,y)为像素(x,y)的灰度值。则梯度值G和梯度方向α为公式(8)和(9):
Figure BDA0001577668470000102
Figure BDA0001577668470000103
(3)计算各单元梯度分布直方图
将目标图像分解成若干单元cell,并对每个cell计算其梯度分布直方图。计算一个cell的梯度分布直方图,先将梯度方向(0-360o)划分为4个值域带bin(图4),计算cell内每个像素的梯度值和梯度方向,并将像素梯度值累加到对应的梯度方向bin中,即可获得该cell的梯度分布直方图。
(4)将相邻的2×2个cell组合为块block如图5所示,串联为block梯度分布直方图特征,并采用L2-norm的方式进行归一化。最后联合各block的直方图特征形成目标图像最终的HOG特征。
5.3.3多特征向量
首先将目标图像通过双线性插值方法统一为大小为128×64像素的图像,再分别按照上述方法提取颜色直方图特征和HOG特征。颜色直方图特征为HSV颜色空间中的H和S通道,则颜色直方图特征为8×8×8=512维;HOG特征提取时,每个cell大小为8×8,相邻的2×2个cell构成block,则HOG特征为128×2×2×4=2048维。最后将颜色直方图特征和HOG特征联合起来,构成最终512+2048=2560维的目标特征向量。
5.4目标匹配
计算目标中心的投影点D0(x0,y0),目标特征向量V0,以该投影点为中心选取128×64的可靠区域并选择可能匹配目标。假设该区域存在的目标中心点有Di(xi,yi)(i=1,2,...,n),n为可靠区域内目标个数,对应目标的特征向量为Vi(i=1,2,...,n)。目标中心Di(xi,yi)到投影点D0(x0,y0)的欧式距离归一化后为Li,计算公式为公式(10):
Figure BDA0001577668470000111
其中M和N为目标图像高和宽。考虑到距离投影点越远的目标为正确匹配目标的可能性越小,本发明定义目标和可靠区域内待匹配目标之间的相似度Si,如公式(11)。
Figure BDA0001577668470000112
计算最佳匹配目标相似度S=max({Si})(i=1,2,...,n)。若S<2/3,则不存在目标匹配对象;若S>2/3,则匹配对象是相似度为Si=S的目标。若存在多个目标相似度等于S,则选取Li比较小的目标。
基于自适应视野空间模型的目标匹配方法,本方法采用多帧图像参数加权的方法实时更新当前模型的参数,既考虑了当前帧参数又考虑了过去帧的模型参数的影响,能够一定程度克服摄像机位移、抖动、缺帧、“鬼影”和目标遮挡的问题。
多特征目标匹配方法,本方法中将目标划分为若干带状区域以扩充直方图特征维度,采用像素贡献加权直方图计算HSV颜色空间的H和S通道的直方图,并联合目标的HOG特征组成目标特征向量。目标匹配时利用定义的空间加权相似度进行确定,既考虑了可能目标和投影点的空间距离关系也考虑了特征向量的相似度,从而能够更准确的辨别匹配目标,一定程度上克服目标尺度不同和光照的影响。

Claims (3)

1.一种视域重叠的多摄像机目标匹配方法,其特征在于:具体包含如下步骤;
步骤1,根据摄像机1和摄像机2的前n帧信息计算两台摄像机的视野分界线,其中,n取正整数;
步骤2,提取摄像机1视频中的前景目标,根据多特征融合规则将各个前景目标的特征进行融合获得融合后的特征向量;
步骤3,计算摄像机1中各待匹配前景目标在摄像机2中的投影点,确定待匹配目标的可靠区域后,再计算可靠区域内多特征融合向量;
步骤4,计算多特征融合向量的欧式距离,完成视域重叠的多摄像机目标匹配,距离最近且在设定阈值范围内的目标为匹配目标,保存视野分界线参数;
步骤5,更新视野分界线参数,从当前视频帧的前5帧的中选取2组参数,再结合当前帧的视野分界线参数进行线性加权,并对视野分界线模型进行更新;
步骤6,重复步骤2,直至视频结束;
在步骤1中,根据摄像机1和摄像机2的前n帧信息计算两台摄像机的视野分界线的过程具体如下:
S11,分别从摄像机1和摄像机2中读取视频1和视频2;
S12,初始化模型:按照下述初始化方法计算当前帧图像的视野分界线参数a1,b1,c1和a2,b2,c2
S121,设两台摄像机中的同一时刻的帧图像为图像1和图像2;
S122,提取图像1和图像2的sift匹配关键点,并利用RANSAC算法进行过滤;
S123,从过滤后的sift匹配关键点对中选取4对空间共面的点对,且任意3点都不共线,设I1和I2为两个独立的投影不变量,则计算如公式如下:
Figure FDA0003592476640000011
Figure FDA0003592476640000012
Figure FDA0003592476640000013
其中,
Figure FDA0003592476640000014
Figure FDA0003592476640000015
是点
Figure FDA0003592476640000016
在图i中的坐标,在两幅待匹配的背景图像中,已知图像1中的5个点
Figure FDA0003592476640000017
计算投影不变量I1,I2;图像1中的
Figure FDA0003592476640000021
分别对应图像2中的
Figure FDA0003592476640000022
根据两个投影不变量,计算图像2中第5个点的对应位置;第5个点的坐标计算公式为:
Figure FDA0003592476640000023
Figure FDA0003592476640000024
其中:
Figure FDA0003592476640000025
Figure FDA0003592476640000026
Figure FDA0003592476640000027
Figure FDA0003592476640000028
Figure FDA0003592476640000029
Figure FDA00035924766400000210
S13,当帧数n<5时,按照步骤S12中的初始化方法直接计算模型参数;当帧数n>=5时,按照下述更新方法计算模型参数:
首先选取两组视频的第1,3,5帧图像,计算视野分界线参数,记第n帧图像视野分界线参数为
Figure FDA00035924766400000211
Figure FDA00035924766400000212
则当前帧图像视野分界线参数为:
Figure FDA0003592476640000031
Figure FDA0003592476640000032
Figure FDA0003592476640000033
Figure FDA0003592476640000034
Figure FDA0003592476640000035
Figure FDA0003592476640000036
公式中λ1,λ2和λ3分别为不同帧参数的加权系数,分别设置为0.2,0.3,0.5;
S14,重复步骤S13。
2.根据权利要求1所述的一种视域重叠的多摄像机目标匹配方法,其特征在于:在步骤2和步骤3中,采用图像显著性加权的HSV特征和HOG特征描述进行融合特征量。
3.根据权利要求2所述的一种视域重叠的多摄像机目标匹配方法,其特征在于:HOG特征提取具体如下:
HOG特征是通过梯度分布来描述图像局部信息,图像先分块,再分解成细胞单元并计算梯度分布直方图,最后把所有的直方图联合起来即为HOG描述子;
具体步骤如下:
(1)Gamma归一化:
为了避免光照、噪声影响,图像先进行Gamma归一化,归一化公式为:
I1(x,y)=loggamma1(I(x,y))
Inormal(x,y)=I1(x,y)gamma2
gamma1取2,gamma2取0.5;
(2)梯度计算具体如下:
Gx(x,y)=A(x+1,y)-A(x-1,y)
Gy(x,y)=A(x,y+1)-A(x,y-1)
其中,Gx为水平方向梯度,Gy为垂直方向梯度,A(x,y)为像素(x,y)的灰度值,则梯度值G和梯度方向α为:
Figure FDA0003592476640000041
Figure FDA0003592476640000042
(3)计算各单元梯度分布直方图
将目标图像分解成若干单元cell,并对每个cell计算其梯度分布直方图。
CN201810141262.8A 2018-02-11 2018-02-11 一种视域重叠的多摄像机目标匹配方法 Active CN108491857B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810141262.8A CN108491857B (zh) 2018-02-11 2018-02-11 一种视域重叠的多摄像机目标匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810141262.8A CN108491857B (zh) 2018-02-11 2018-02-11 一种视域重叠的多摄像机目标匹配方法

Publications (2)

Publication Number Publication Date
CN108491857A CN108491857A (zh) 2018-09-04
CN108491857B true CN108491857B (zh) 2022-08-09

Family

ID=63340599

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810141262.8A Active CN108491857B (zh) 2018-02-11 2018-02-11 一种视域重叠的多摄像机目标匹配方法

Country Status (1)

Country Link
CN (1) CN108491857B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112700491B (zh) * 2019-10-23 2023-08-29 北京地平线机器人技术研发有限公司 视野分割线的确定方法及装置
CN111503992A (zh) * 2020-04-29 2020-08-07 四川虹美智能科技有限公司 冰箱的控制方法及装置
CN112804444B (zh) * 2020-12-30 2022-08-23 影石创新科技股份有限公司 一种视频处理方法、装置、计算设备及存储介质
CN113256992A (zh) * 2021-07-15 2021-08-13 智道网联科技(北京)有限公司 基于车路云的处理方法和装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101329765A (zh) * 2008-07-31 2008-12-24 上海交通大学 多摄像机目标匹配特征融合方法
CN102005040A (zh) * 2010-09-09 2011-04-06 吉林大学 基于多特征融合匹配的目标交接算法
CN102932605A (zh) * 2012-11-26 2013-02-13 南京大学 一种视觉感知网络中摄像机的组合选择方法
CN103997624A (zh) * 2014-05-21 2014-08-20 江苏大学 重叠域双摄像头目标跟踪系统及方法
CN105243667A (zh) * 2015-10-13 2016-01-13 中国科学院自动化研究所 基于局部特征融合的目标再识别方法
CN107580199A (zh) * 2017-09-08 2018-01-12 深圳市伊码泰珂电子有限公司 重叠视域多摄像机协同的目标定位与跟踪系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101329765A (zh) * 2008-07-31 2008-12-24 上海交通大学 多摄像机目标匹配特征融合方法
CN102005040A (zh) * 2010-09-09 2011-04-06 吉林大学 基于多特征融合匹配的目标交接算法
CN102932605A (zh) * 2012-11-26 2013-02-13 南京大学 一种视觉感知网络中摄像机的组合选择方法
CN103997624A (zh) * 2014-05-21 2014-08-20 江苏大学 重叠域双摄像头目标跟踪系统及方法
CN105243667A (zh) * 2015-10-13 2016-01-13 中国科学院自动化研究所 基于局部特征融合的目标再识别方法
CN107580199A (zh) * 2017-09-08 2018-01-12 深圳市伊码泰珂电子有限公司 重叠视域多摄像机协同的目标定位与跟踪系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
基于HOG特征和模板匹配的行人检测与跟踪研究;周科嘉;《中国优秀硕士学位论文全文数据库(电子期刊)》;20141015;第15-17页 *
多摄像机下运动目标跟踪关联的关键技术研究;潘邈;《中国优秀硕士学位论文全文数据库(电子期刊)》;20160315;第40-65页 *
潘邈.多摄像机下运动目标跟踪关联的关键技术研究.《中国优秀硕士学位论文全文数据库(电子期刊)》.2016,第40-65页. *

Also Published As

Publication number Publication date
CN108491857A (zh) 2018-09-04

Similar Documents

Publication Publication Date Title
CN108491857B (zh) 一种视域重叠的多摄像机目标匹配方法
Hu et al. Automatic detection of single ripe tomato on plant combining faster R-CNN and intuitionistic fuzzy set
CN104598883B (zh) 一种多摄像机监控网络中目标再识别的方法
US8374440B2 (en) Image processing method and apparatus
US9462160B2 (en) Color correction device, method, and program
CN106778712B (zh) 一种多目标检测与跟踪方法
Yin et al. Likelihood map fusion for visual object tracking
CN109993052B (zh) 一种复杂场景下尺度自适应的目标跟踪方法和系统
US8488878B2 (en) Sky detection system used in image extraction device and method using sky detection system
CN103093274B (zh) 基于视频的行人计数的方法
CN105404884A (zh) 图像分析方法
CN105809716B (zh) 融合超像素与三维自组织背景减除法的前景提取方法
CN111882586B (zh) 一种面向剧场环境的多演员目标跟踪方法
Huynh-The et al. NIC: A robust background extraction algorithm for foreground detection in dynamic scenes
JP7334432B2 (ja) 物体追跡装置、監視システムおよび物体追跡方法
Demir et al. Co-difference based object tracking algorithm for infrared videos
CN105184771A (zh) 一种自适应运动目标检测系统及检测方法
CN115063447A (zh) 一种基于视频序列的目标动物运动追踪方法及相关设备
Zoidi et al. Stereo object tracking with fusion of texture, color and disparity information
CN111028263B (zh) 一种基于光流颜色聚类的运动物体分割方法及其系统
CN107103301B (zh) 视频目标时空最大稳定性判别性颜色区域匹配方法和系统
CN110120012B (zh) 基于双目摄像头的同步关键帧提取的视频拼接方法
CN108921872B (zh) 一种适用于长程跟踪的鲁棒性视觉目标跟踪方法
US9727780B2 (en) Pedestrian detecting system
Thomas et al. Recent advances towards a robust, automated hurricane damage assessment from high-resolution images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant