CN102256065A - 基于视频监控网络的视频自动浓缩方法 - Google Patents

基于视频监控网络的视频自动浓缩方法 Download PDF

Info

Publication number
CN102256065A
CN102256065A CN201110208090XA CN201110208090A CN102256065A CN 102256065 A CN102256065 A CN 102256065A CN 201110208090X A CN201110208090X A CN 201110208090XA CN 201110208090 A CN201110208090 A CN 201110208090A CN 102256065 A CN102256065 A CN 102256065A
Authority
CN
China
Prior art keywords
video
track
surveillance network
loss
video surveillance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201110208090XA
Other languages
English (en)
Other versions
CN102256065B (zh
Inventor
卢汉清
刘静
王金桥
祝晓斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN 201110208090 priority Critical patent/CN102256065B/zh
Publication of CN102256065A publication Critical patent/CN102256065A/zh
Application granted granted Critical
Publication of CN102256065B publication Critical patent/CN102256065B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

一种基于视频监控网络的视频自动浓缩方法,其是从两个具有重叠区域的摄像机获得第一视频源和第二视频源并对运动目标分割和跟踪,提取背景图像和视频监控网络运动轨迹;根据背景图像生成基于视频监控网络的全景图像,得到两个摄像机各自对应于全景图像的投影矩阵并实时更新基于视频监控网络背景的全景图像;利用两个摄像机全景图像的投影矩阵,把轨迹投影到全景图像空间得到投影轨迹;采用图匹配,基于随机游走思想对两个摄像机的视频源的投影轨迹匹配,得到匹配轨迹对,对重叠区域的匹配轨迹进行选择和融合,得到完整的大场景轨迹;对大场景轨迹按时间重新排列,在全景图像上对完整的大场景轨迹进行展现,得到基于全景图像的视频浓缩。

Description

基于视频监控网络的视频自动浓缩方法
技术领域
本发明属于图像处理技术领域,具体涉及基于视频监控网络的视频自动浓缩方法。
背景技术
随着视频监控技术的迅速发展,单摄像机的视频监控设备越来越普及,视频监控设备每天都记录了海量的视频数据。已有的视频监控技术主要针对单个摄像机,对监控场景中的感兴趣目标进行自动检测、跟踪和分类,以及相应的行为分析。每路摄像机有各自的监控任务,监控系统中摄像机和摄像机的监控任务之间没有关联。然而单个摄像机的视野范围有限,为了满足大范围监控的需要,就需要多个摄像机协同工作。随着摄像机数目的急剧增加,传统的基于人工的被动监控已经无法满足监控任务的需要。如何自动分析和归纳多个摄像机所拍摄的视频中的内容,真正意义上实现大范围监控仍然处在研究的初期阶段。
国内外有很多大学和研究机构在进行视频摘要研究,卡内基梅隆、哥伦比亚大学、IBM研究院等,国内如微软亚洲研究院、清华大学等研究机构都曾在进行该方面研究。视频摘要技术从不同的角度可以进行不同的分类:传统的分类将视频摘要技术分为视频略览和视频梗概两大类。传统的视频摘要技术引入了用户定义的感兴趣的帧做为关键帧的概念,可以分为动态(video browsing)和静态(video abstraction)两种技术。基于关键帧的视频总结技术以“帧”作为不可再分的最小表示单元,总结视频中不可避免存在大量的冗余信息。基于目标运动信息的视频总结技术于2006年提出,最后的输出视频不再是由输入视频中的完整帧组成,来自不同帧的运动目标可能被放入同一帧中输出。微软亚洲研究院提出视频蒙太奇(Video Montage)技术,同时分析时间和空间上的信息分布,抽取出时空上的运动信息用立体块表示,进而运用首次拟合以及图割方法完成立体块的压缩任务,产生摘要视频。以色列希伯来大学的A.Rav-Acha等人系统地提出了一种基于目标运动信息的视频总结技术框架(video synopsis)。在此工作的基础上,该研究组又进一步深入研究了在线监控情况下的视频摘要技术。
发明内容
为了解决如何在大范围内对运动目标进行分析和监控的技术问题,本发明的目的是提出面向监控网络的自动视频浓缩方法。
为实现上述目的,本发明提供基于视频监控网络的视频自动浓缩方法包括步骤如下:
步骤S1:从两个具有重叠区域的摄像机分别获得第一视频源和第二视频源,并对运动目标进行分割和跟踪,提取背景图像、提取视频监控网络运动轨迹;
步骤S2:根据提取的背景图像生成基于视频监控网络的全景图像,得到两个摄像机各自对应于全景图像的投影矩阵,并随时间推移实时更新基于视频监控网络背景的全景图像;
步骤S3:利用两个摄像机全景图像的投影矩阵,把轨迹投影到全景图像空间,得到投影轨迹;
步骤S4:采用图匹配的方法,基于随机游走思想,对两个摄像机的的视频源的投影轨迹进行匹配,得到匹配轨迹对,对重叠区域的匹配轨迹进行选择和融合,得到完整的大场景轨迹;
步骤S5:对大场景轨迹按时间重新排列,然后在全景图像上对完整的大场景轨迹进行展现,得到基于全景图像的视频浓缩。
优选实施例,对视频监控网络运动轨迹进行匹配的步骤包括:把视频监控网络的每条轨迹看作一个点,每个摄像机代表一个图,然后把两个相邻摄像机之间的运动轨迹匹配问题当作求两个图像点集之间的最大匹配问题来解决;把两个图像的点与点的关系度量,转换成点对之间的图像度量,并把两个图像转换为一个点对图,在点对图上采用快速加权随机游走的思想,当随机游走收敛到稳定状态,从稳定状态中根据图像点的得分,求得最大匹配集。
优选实施例,还包括视频监控网络运动轨迹的特征表述:采用多个特征同时来表述运动轨迹,所述多个特征是32维梯度方向直方图(32DHOG feature)、RGB3种颜色分量的直方图、运动轨迹的平均加速度、运动轨迹的平均速度和轨迹长度。
优选实施例,所述重叠区域匹配轨迹的选择与融合是采用自适应权重的方法对长度较长和观测点较多的轨迹,采用更大的权重。另外设定阈值,如果权重低于阈值,则舍弃该的轨迹,如果等于或大于阈值,则选择该轨迹进行融合,最后获得两条轨迹的像素值乘以权重后叠加轨迹。
优选实施例,基于全景图像的视频浓缩是用能量损耗函数来表示视频浓缩中,对监控网络中已经匹配和融合的大场景轨迹重新排列带来的能量损耗,获得能量损耗后,用优化的方法求出一个轨迹重新排列的最优解,使能量损耗函数最小,最后把重新排列的轨迹,在全景图上叠加展现。
优选实施例,所述能量损耗包括轨迹丢失运动损耗、轨迹交叉遮挡损耗、轨迹时间错乱损耗、重叠区域轨迹选择损耗和背景更新损耗。
本发明的有益效果:本发明基于图匹配方法,采用加权随机游走思想,解决了具有重叠区域的轨迹匹配问题。对每个视频监控单独提取背景,然后根据摄像机的拓扑结构,用全景图生成的算法,生成一幅视频监控网络背景的全景图,由于时间的变化,视频背景会变化,采用基于根据能量损耗在线更新的算法,对背景图像进行更新。另外本发明用单独视频的背景来生成全景图像,解决了视频网络全局运动展现问题。另外本发明用能量函数优化的思想,对视频网络的轨迹在时间和空间上重新排列,极大的压缩了视频长度,同单摄像机视频监控视频摘要相比,本发明有如下优点:多角度信息的提供,视觉范围的增大。与传统的视频摘要方法相比,我们的方法可以极大的压缩视频长度,提供大场景的运动目标整体行为的分析和监控。视频监控网络运动轨迹的特征表述,用多个特征同时来表述运动轨迹,增强了轨迹匹配的准确度和提高视频浓缩的效果。
附图说明
图1是本发明的结构图;
图2是本发明的点对图构成示例图;
图3是本发明的加权随机游走示例图;
图4是本发明的视频自动浓缩技术示例图;
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
本发明的结构图在图1中显示,主要包括五个部分:步骤S1.运动目标的分割与轨迹形成;步骤S2.视频监控网络全景图像的生成和更新;步骤S3.轨迹投影;步骤S4.重叠区域运动轨迹的匹配和融合;步骤S5.基于视频监控网络全景图像的视频浓缩。
步骤S1:运动目标的分割与轨迹形成
从两个摄像机分别获得第一视频源1和第二视频源2,我们先对第一视频源1和第二视频源2用混合高斯模型进行背景建模,背景会随着时间动态更新,提取出更新的背景,然后用更新的背景减除法,提取视频的前景。在提取前景后,为了提取有用的轨迹,我们用中值滤波算法,滤除噪点。每个前景用一个外接矩形(bound-box)和掩码表示,外接矩形(bound-box)为前景区域经过3次膨胀后的外接矩形,掩码代表矩形内前景部分。我们对相邻两帧之间的前景,提取其速度,位置,大小信息,然后用在线聚类算法,获取完整的视频运动轨迹。
步骤S2:视频监控网络全景图像的生成和更新
根据提取的背景图像生成基于视频监控网络的全景图像,得到两个摄像机各自对应于全景图像的投影矩阵,并随时间推移实时更新基于视频监控网络背景的全景图像;在运动目标的分割与轨迹形成中,我们得到背景图像,我们提取图像的尺度不变(SIFT)特征,再树方法(K-d树)对每个特征提取N个最近邻。针对每个图像之间的特征匹配,我们用随机抽样一致性算法(RANSAC)去除噪点,最后用概率模型去验证图像间的匹配关系。在得到图像之间对应的匹配点后,我们用光束法(bundleadjustment)得到两个图像之间的投影矩阵(Homography),然后用融合的办法得到全景图。投影矩阵(Homograhpy),在视频浓缩时,用来对轨迹进行空间转换使用。具体的算法流程如下:
Figure BDA0000078154790000051
由于视频监控是长时间的行为,所以背景图象也需要一个更新的过程,我们设定一个阈值,当新背景图像和视频浓缩中正在使用的背景图像差别高于阈值,我们就使用新的背景图像,计算方法如下:
Σ ( x , y ) ∈ B | | B new ( x , y ) - B ( x , y ) | | > C
x,y为图像的坐标,Bnew(x,y)为新背景图像的亮度像素值,B(x,y)为视频浓缩中正在使用的背景图像的亮度像素值,C为人为设定的阈值,在我们的实验中,我们定义C为图像长宽乘积的1/3。
步骤S3:轨迹投影
在得到单摄像机视频运动轨迹后,我们利用视频监控网络全景图像的生成和更新中得到的投影矩阵,把轨迹投影到全景图平面。在得到投影后的轨迹后,为了增强摄像机之间的轨迹匹配的准确度,提高视频浓缩的效果,我们采用了如下一些特征同时来表述运动轨迹:梯度方向直方图(HOG feature),RGB颜色直方图,运动轨迹的平均加速度,运动轨迹的平均速度,轨迹长度。HOG特征可以有效地描述运动目标的形状信息,我们采用了32维梯度方向直方图,然后对轨迹上所有观测点HOG做平均。我们采用RGB 3个颜色分量的颜色直方图,每个分量占8个柱(bin),然后对轨迹上所有观测点的直方图做平均。运动轨迹的平均加速度和平均速度,对轨迹摄像机之间轨迹匹配非常有用,而轨迹长度可以用来度量轨迹的重要性。最后我们得到特征向量如下:
( f RGB n , i , f HOG n , i , V n , i , A n , i , L n , i )
式中上标n,i分别代表第n个摄像机的第i条轨迹,
Figure BDA0000078154790000062
为第n摄像机中第i条轨迹颜色直方图和HOG直方图,Vn,i为第n摄像机中第i条轨迹平均速度,An,i为第n摄像机中第i条轨迹平均加速度,Ln,i为第n摄像机中第i条轨迹长度。
步骤S4:重叠区域运动轨迹匹配和融合
采用图匹配的方法,基于随机游走思想,对两个摄像机的视频源的投影轨迹进行匹配,得到匹配轨迹对,对重叠区域的匹配轨迹进行选择和融合,得到完整的大场景轨迹;
4.1运动轨迹匹配
对于相邻的两个摄像机,我们把每个摄像机看做一幅图像,图像里面的节点就代表一条轨迹。这样对于相邻两幅图像的轨迹匹配问题,我们可以看做图像之间点的最大匹配问题来解决。假设Ga和Gb是摄像机a和摄像机b代表的轨迹图,Ga和Gb的图匹配可以用随机游走(randomwalk)思想在轨迹点对相似图Grw来求解。Ga和Gb到Grw的转换可以参考图2。在图2中,Ga中的1代表图像点1,2代表图像点2,Gb中的p代表图像点p,q代表图像点q,Grw上标rw为reweighted的缩写,代表由Ga和Gb构成的新的图,Grw中点1p代表由Ga的点1和Gb的点p构成的新点,Grw中点1q代表由Ga的点1和Gb的点q构成的新点,Grw中点2p代表由Ga的点2和Gb的点p构成的新点,Grw中点2q代表由Ga的点2和Gb的点q构成的新点。图Grw点之间的双向箭头,代表着点的关系,箭头越粗代表关系越近,距离越小.
轨迹点对相似图Grw考虑了轨迹点对之间的相似性,Ga和Gb图匹配问题就转换为用随机游走(random walk)的思想在轨迹点对相似图Grw上对点进行排序和选择。我们选择一个指示向量x,使下面的函数最大:
x*=arg max(xTWx)
其中 x ∈ { 0,1 } n a n b , ∀ i Σ a = 1 n a x ia ≤ 1 , ∀ i Σ i = 1 n b x ia ≤ 1
关系度量矩阵W考虑了两个摄像机
Figure BDA0000078154790000074
点对之间的关系,T代表对向量转置、
Figure BDA0000078154790000075
代表摄像机n中的第i条轨迹、
Figure BDA0000078154790000076
代表摄像机m中的第j条轨迹、
Figure BDA0000078154790000077
代表摄像机n中的第k条轨迹、
Figure BDA0000078154790000078
代表摄像机m中的第1条轨迹。在我们的实验中,关系度量矩阵由如下式子获得:
W = exp ( - | D i , j a - D k , l b | 2 / σ 2 )
D为两点间特征的欧式距离,σ为自己定义的方差。为了匹配在随机游走后更加相似,非匹配轨迹更加远离,我们在随机游走的过程中,加入一个吸收因子,如图3所示。图3中abs代表吸引子,Grw上标rw为reweighted的缩写,图上中Grw是在图2中由Ga和Gb构成的图Grw中加入一个吸引子所得。图2中示出Grw的点1p、1q、2p、2q,可以参考图2解释。
加权随机游走(Reweighted random walk)的详细算法流程如下:
Figure BDA00000781547900000710
Figure BDA0000078154790000081
算法2
4.2轨迹的选择和融合
在求得摄像机之间的轨迹匹配后,需要对重叠区域的匹配轨迹进行选择和融合,以得到完整的大场景轨迹。假设Tn(t)和Tm(t)代表t时刻两个摄像机的一对匹配轨迹,我们用自适应权重的方法对Tn(t)和Tm(t)进行融合的方法如下:
Figure BDA0000078154790000082
其中w1代表轨迹Tn的权重,w2代表轨迹Tm的权重。权重的获取是根据轨迹的重要程度而来,我们对观测点多的轨迹和较长的轨迹,赋予更高的权重,方法如下:
w 1 = | T n | + L T n | T n | + | T m | + L T n + L T m , w 2 = | T m | + L T m | T n | + | T m | + L T n + L T m
其中|Tm|和|Tn|为轨迹的观测点数,
Figure BDA0000078154790000085
Figure BDA0000078154790000086
为轨迹的长度。
步骤S5:视频监控网络的视频浓缩
对大场景轨迹按时间重新排列,然后在全景图像上对完整的大场景轨迹进行展现,得到基于全景图像的视频浓缩。
如图4示出本发明的视频自动浓缩技术示例,假设Ti(x,y,t)为最终映射后得到第i条轨迹,Ti(x,y,t)为第j条轨迹。在视频浓缩中,我们要打乱原始视频源中的轨迹的时间顺序,但尽量不破坏轨迹的空间位置,对所有轨迹进行重新排列,达到压缩视频长度的目的。
重新排列轨迹,会带来很多能量损耗,如图4,原始视频中有5条轨迹,分别为轨迹1、轨迹2、轨迹3、轨迹4、轨迹5,其中轨迹1和轨迹2在原始视频中为两条不交叉的轨迹,但在浓缩视频中,可能存在交叉,这就带入一个能量损耗,因为交叉处,一条轨迹会遮挡另外一条轨迹。我们总共定义了如下一些损耗Ea、Ec、Et
1 ) . E a = Σ x , y , t i ∈ Lost T i ( x , y , t )
Lost代表轨迹丢失。此项为轨迹丢失带来的损耗,在浓缩视频中,原始的轨迹没有出现,其损耗为轨迹所有亮度分量的和。
2 ) . E c = Σ x , y , t ∈ T i ∩ T j T i ( x , y , t ) T j ( x , y , t )
为轨迹发交叉的损耗,对于交叉,我们用交叉处两条轨迹的亮度分量乘积总和作为惩罚,交叉会影响最后效果,所以惩罚比较大,这种损耗应该尽量避免。
Figure BDA0000078154790000093
为两条轨迹时间先后顺序发生改变的损耗,如图4,轨迹2和轨迹3的时间顺序就发生了改变。
Figure BDA0000078154790000094
Figure BDA0000078154790000095
为轨迹的结束时间点。另外c为自定定义的加权系数,σ为自己设定的高斯模型的方差。
4 ) . E overlapping = Σ x , y , t ∈ T i ∩ T j T i ( x , y , t ) + T j ( x , y , t ) - T ij ( x , y , t )
Eoverlapping为重叠区域轨迹选择带来的损耗。Tij(x,y,t)为Ti(x,y,t)和Tj(x,y,t)合成的轨迹,代表在运动区域使用合成轨迹带来的损耗。
5).EL为压缩长度的损耗
这个为限制参数,为了定义压缩率,压缩后视频越长,我们定义这个值越大,具体值我们定义为压缩后的帧数乘以100。
最后的能量损失函数E公式为
E=Ea+Ec+Et+Eoverlapping+λ*EL,λ为自己定义的参数,EL为压缩长度的损耗。
通过优化算法,比如模拟退火法,解这个能量损失函数,使它的值最小,就得到最后的视频浓缩需要的轨迹排列,然后把排列好的轨迹,合成到全景图上。
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的包含范围之内。

Claims (6)

1.一种基于视频监控网络的视频自动浓缩方法,其特征在于包括步骤如下:
步骤S1:从两个具有重叠区域的摄像机分别获得第一视频源和第二视频源,并对运动目标进行分割和跟踪,提取背景图像、提取视频监控网络运动轨迹;
步骤S2:根据提取的背景图像生成基于视频监控网络的全景图像,得到两个摄像机各自对应于全景图像的投影矩阵,并随时间推移实时更新基于视频监控网络背景的全景图像;
步骤S3:利用两个摄像机全景图像的投影矩阵,把轨迹投影到全景图像空间,得到投影轨迹;
步骤S4:采用图匹配的方法,基于随机游走思想,对两个摄像机的的视频源的投影轨迹进行匹配,得到匹配轨迹对,对重叠区域的匹配轨迹进行选择和融合,得到完整的大场景轨迹;
步骤S5:对大场景轨迹按时间重新排列,然后在全景图像上对完整的大场景轨迹进行展现,得到基于全景图像的视频浓缩。
2.根据权利要求1所述的基于视频监控网络的视频自动浓缩方法,其特征在于,对视频监控网络运动轨迹进行匹配的步骤包括:把视频监控网络的每条轨迹看作一个点,每个摄像机代表一个图,然后把两个相邻摄像机之间的运动轨迹匹配问题当作求两个图像点集之间的最大匹配问题来解决;把两个图像的点与点的关系度量,转换成点对之间的图像度量,并把两个图像转换为一个点对图,在点对图上采用快速加权随机游走的思想,当随机游走收敛到稳定状态,从稳定状态中根据图像点的得分,求得最大匹配集。
3.根据权利要求1所述的基于视频监控网络的视频自动浓缩方法,其特征在于,还包括视频监控网络运动轨迹的特征表述是采用多个特征同时来表述运动轨迹,所述多个特征是32维梯度方向直方图、RGB3种颜色分量的直方图、运动轨迹的平均加速度、运动轨迹的平均速度和轨迹长度。
4.根据权利要求1所述的基于视频监控网络的视频自动浓缩方法,其特征在于,所述重叠区域匹配轨迹的选择与融合是采用自适应权重的方法对长度较长和观测点较多的轨迹,采用更更大的权重。另外设定阈值,如果权重低于阈值,则舍弃该的轨迹,如果等于或大于阈值,则选择该轨迹进行融合,最后获得两条轨迹的像素值乘以权重后叠加轨迹。
5.根据权利要求1所述的基于视频监控网络的视频自动浓缩方法,其特征在于,基于全景图像的视频浓缩是用能量损耗函数来表示视频浓缩中,对监控网络中已经匹配和融合的大场景轨迹重新排列带来的能量损耗,获得能量损耗后,用优化的方法求出一个轨迹重新排列的最优解,使能量损耗函数最小,最后把重新排列的轨迹,在全景图上叠加展现。
6.根据权利要求1所述的基于视频监控网络的视频自动浓缩方法,其特征在于,所述能量损耗包括轨迹丢失运动损耗、轨迹交叉遮挡损耗、轨迹时间错乱损耗、重叠区域轨迹选择损耗和背景更新损耗。
CN 201110208090 2011-07-25 2011-07-25 基于视频监控网络的视频自动浓缩方法 Active CN102256065B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201110208090 CN102256065B (zh) 2011-07-25 2011-07-25 基于视频监控网络的视频自动浓缩方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201110208090 CN102256065B (zh) 2011-07-25 2011-07-25 基于视频监控网络的视频自动浓缩方法

Publications (2)

Publication Number Publication Date
CN102256065A true CN102256065A (zh) 2011-11-23
CN102256065B CN102256065B (zh) 2012-12-12

Family

ID=44983030

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201110208090 Active CN102256065B (zh) 2011-07-25 2011-07-25 基于视频监控网络的视频自动浓缩方法

Country Status (1)

Country Link
CN (1) CN102256065B (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103079117A (zh) * 2012-12-30 2013-05-01 信帧电子技术(北京)有限公司 视频摘要生成方法和视频摘要生成装置
CN103077227A (zh) * 2012-12-31 2013-05-01 浙江元亨通信技术股份有限公司 视频浓缩检索分析方法及其系统
CN103106250A (zh) * 2013-01-14 2013-05-15 浙江元亨通信技术股份有限公司 视频监控智能分析检索方法及其系统
CN103632356A (zh) * 2012-08-29 2014-03-12 华为技术有限公司 提高图像空间分辨率的方法及装置
CN103826125A (zh) * 2014-01-20 2014-05-28 北京创鑫汇智科技发展有限责任公司 用于已压缩监控视频的浓缩分析方法和装置
CN104506800A (zh) * 2014-12-15 2015-04-08 浙江宇视科技有限公司 一种多方向电警摄像机场景合成及综合监控方法和装置
CN104539909A (zh) * 2015-01-15 2015-04-22 安徽大学 一种视频监控方法及视频监控服务器
CN104702917A (zh) * 2015-03-25 2015-06-10 成都市灵奇空间软件有限公司 一种基于微地图的视频浓缩方法
CN105007433A (zh) * 2015-06-03 2015-10-28 南京邮电大学 一种基于对象的能量约束最小化的运动物体排列方法
CN105100688A (zh) * 2014-05-12 2015-11-25 索尼公司 图像处理方法、图像处理装置和监视系统
CN105530554A (zh) * 2014-10-23 2016-04-27 中兴通讯股份有限公司 一种视频摘要生成方法及装置
CN105830426A (zh) * 2014-11-10 2016-08-03 深圳锐取信息技术股份有限公司 一种视频生成系统的视频生成方法及装置
CN106446820A (zh) * 2016-09-19 2017-02-22 清华大学 动态视频编辑中的背景特征点识别方法及装置
TWI586176B (zh) * 2014-10-01 2017-06-01 大猩猩科技股份有限公司 基於壓縮視訊之縮時概要產出系統與方法
CN107493441A (zh) * 2016-06-12 2017-12-19 杭州海康威视数字技术股份有限公司 一种摘要视频生成方法及装置
WO2019019943A1 (zh) * 2017-07-28 2019-01-31 阿里巴巴集团控股有限公司 跨区域目标轨迹跟踪的方法及数据处理方法、装置和系统
CN110322471A (zh) * 2019-07-18 2019-10-11 华中科技大学 全景视频浓缩的方法、装置、设备及存储介质
CN113365104A (zh) * 2021-06-04 2021-09-07 中国建设银行股份有限公司 一种视频浓缩方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020031253A1 (en) * 1998-12-04 2002-03-14 Orang Dialameh System and method for feature location and tracking in multiple dimensions including depth
CN101488222A (zh) * 2008-01-16 2009-07-22 中国科学院自动化研究所 一种基于运动目标表象和运动信息的摄像机自标定方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020031253A1 (en) * 1998-12-04 2002-03-14 Orang Dialameh System and method for feature location and tracking in multiple dimensions including depth
CN101488222A (zh) * 2008-01-16 2009-07-22 中国科学院自动化研究所 一种基于运动目标表象和运动信息的摄像机自标定方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A. NADEEM, C. ANDREA: "Trajectory association and fusion across partially overlapping cameras", 《SIXTH IEEE INTERNATIONAL CONFERENCE ON ADVANCED VIDEO AND SIGNAL BASED SURVEILLANCE(AVSS), GENOA, ITALY, 2009 》 *
J. OMAR, R. ZEESHAN: "Tracking across multiple cameras with disjoint views", 《IEEE 9TH INTERNATIONAL CONFERENCE ON COMPUTER VISION, NICE, FRANCE》 *

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103632356A (zh) * 2012-08-29 2014-03-12 华为技术有限公司 提高图像空间分辨率的方法及装置
CN103079117B (zh) * 2012-12-30 2016-05-25 信帧电子技术(北京)有限公司 视频摘要生成方法和视频摘要生成装置
CN103079117A (zh) * 2012-12-30 2013-05-01 信帧电子技术(北京)有限公司 视频摘要生成方法和视频摘要生成装置
CN103077227A (zh) * 2012-12-31 2013-05-01 浙江元亨通信技术股份有限公司 视频浓缩检索分析方法及其系统
CN103077227B (zh) * 2012-12-31 2016-12-07 浙江元亨通信技术股份有限公司 视频浓缩检索分析方法及其系统
CN103106250A (zh) * 2013-01-14 2013-05-15 浙江元亨通信技术股份有限公司 视频监控智能分析检索方法及其系统
CN103106250B (zh) * 2013-01-14 2016-11-23 浙江元亨通信技术股份有限公司 视频监控智能分析检索方法及其系统
CN103826125A (zh) * 2014-01-20 2014-05-28 北京创鑫汇智科技发展有限责任公司 用于已压缩监控视频的浓缩分析方法和装置
CN103826125B (zh) * 2014-01-20 2017-10-27 北京创鑫汇智科技发展有限责任公司 用于已压缩监控视频的浓缩分析方法和装置
CN105100688B (zh) * 2014-05-12 2019-08-20 索尼公司 图像处理方法、图像处理装置和监视系统
CN105100688A (zh) * 2014-05-12 2015-11-25 索尼公司 图像处理方法、图像处理装置和监视系统
TWI586176B (zh) * 2014-10-01 2017-06-01 大猩猩科技股份有限公司 基於壓縮視訊之縮時概要產出系統與方法
CN105530554A (zh) * 2014-10-23 2016-04-27 中兴通讯股份有限公司 一种视频摘要生成方法及装置
CN105830426A (zh) * 2014-11-10 2016-08-03 深圳锐取信息技术股份有限公司 一种视频生成系统的视频生成方法及装置
CN105830426B (zh) * 2014-11-10 2019-01-01 深圳锐取信息技术股份有限公司 一种视频生成系统的视频生成方法及装置
CN104506800B (zh) * 2014-12-15 2018-11-13 浙江宇视科技有限公司 一种多方向电警摄像机场景合成及综合监控方法和装置
CN104506800A (zh) * 2014-12-15 2015-04-08 浙江宇视科技有限公司 一种多方向电警摄像机场景合成及综合监控方法和装置
CN104539909A (zh) * 2015-01-15 2015-04-22 安徽大学 一种视频监控方法及视频监控服务器
CN104702917A (zh) * 2015-03-25 2015-06-10 成都市灵奇空间软件有限公司 一种基于微地图的视频浓缩方法
CN105007433A (zh) * 2015-06-03 2015-10-28 南京邮电大学 一种基于对象的能量约束最小化的运动物体排列方法
CN105007433B (zh) * 2015-06-03 2020-05-15 南京邮电大学 一种基于对象的能量约束最小化的运动物体排列方法
CN107493441A (zh) * 2016-06-12 2017-12-19 杭州海康威视数字技术股份有限公司 一种摘要视频生成方法及装置
CN107493441B (zh) * 2016-06-12 2020-03-06 杭州海康威视数字技术股份有限公司 一种摘要视频生成方法及装置
CN106446820A (zh) * 2016-09-19 2017-02-22 清华大学 动态视频编辑中的背景特征点识别方法及装置
CN106446820B (zh) * 2016-09-19 2019-05-14 清华大学 动态视频编辑中的背景特征点识别方法及装置
WO2019019943A1 (zh) * 2017-07-28 2019-01-31 阿里巴巴集团控股有限公司 跨区域目标轨迹跟踪的方法及数据处理方法、装置和系统
CN109309809A (zh) * 2017-07-28 2019-02-05 阿里巴巴集团控股有限公司 跨区域目标轨迹跟踪的方法及数据处理方法、装置和系统
CN110322471A (zh) * 2019-07-18 2019-10-11 华中科技大学 全景视频浓缩的方法、装置、设备及存储介质
CN113365104A (zh) * 2021-06-04 2021-09-07 中国建设银行股份有限公司 一种视频浓缩方法和装置
CN113365104B (zh) * 2021-06-04 2022-09-09 中国建设银行股份有限公司 一种视频浓缩方法和装置

Also Published As

Publication number Publication date
CN102256065B (zh) 2012-12-12

Similar Documents

Publication Publication Date Title
CN102256065B (zh) 基于视频监控网络的视频自动浓缩方法
CN108537743B (zh) 一种基于生成对抗网络的面部图像增强方法
Yang et al. Face anti-spoofing: Model matters, so does data
He et al. Hybrid first and second order attention Unet for building segmentation in remote sensing images
CN102663448B (zh) 一种基于网络的增强现实物体识别分析方法
CN102932605B (zh) 一种视觉感知网络中摄像机的组合选择方法
CN110298266A (zh) 基于多尺度感受野特征融合的深度神经网络目标检测方法
CN101604325B (zh) 基于主场景镜头关键帧的体育视频分类方法
CN108960059A (zh) 一种视频动作识别方法及装置
CN110827312B (zh) 一种基于协同视觉注意力神经网络的学习方法
CN110084165A (zh) 基于边缘计算的电力领域开放场景下异常事件的智能识别与预警方法
CN105160310A (zh) 基于3d卷积神经网络的人体行为识别方法
CN103714181B (zh) 一种层级化的特定人物检索方法
CN107798313A (zh) 一种人体姿态识别方法、装置、终端和存储介质
CN113256677A (zh) 一种图注意力视觉目标跟踪方法
CN109214366A (zh) 局部目标重识别方法、装置及系统
CN110334607B (zh) 一种视频人体交互行为识别方法及系统
CN104182765A (zh) 一种互联网图像驱动的三维模型最优视图自动选择方法
CN102034267A (zh) 基于关注度的目标物三维重建方法
Zhou et al. Human de-occlusion: Invisible perception and recovery for humans
CN112801019B (zh) 基于合成数据消除无监督车辆再识别偏差的方法及系统
CN113963032A (zh) 一种融合目标重识别的孪生网络结构目标跟踪方法
CN116343330A (zh) 一种红外-可见光图像融合的异常行为识别方法
CN104751111A (zh) 识别视频中人体行为的方法和系统
CN109447014A (zh) 一种基于双通道卷积神经网络的视频在线行为检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant