CN1945628A - 一种基于时空显著单元的视频内容表示方法 - Google Patents

一种基于时空显著单元的视频内容表示方法 Download PDF

Info

Publication number
CN1945628A
CN1945628A CNA2006101139093A CN200610113909A CN1945628A CN 1945628 A CN1945628 A CN 1945628A CN A2006101139093 A CNA2006101139093 A CN A2006101139093A CN 200610113909 A CN200610113909 A CN 200610113909A CN 1945628 A CN1945628 A CN 1945628A
Authority
CN
China
Prior art keywords
mrow
msub
msup
region
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CNA2006101139093A
Other languages
English (en)
Inventor
须德
郎丛妍
杨旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jiaotong University
Original Assignee
Beijing Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jiaotong University filed Critical Beijing Jiaotong University
Priority to CNA2006101139093A priority Critical patent/CN1945628A/zh
Publication of CN1945628A publication Critical patent/CN1945628A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于时空显著单元的视频内容表示方法,是以生物视觉的注意力机制为基础,通过模糊信息粒化方法将原特征空间映射到模糊信息粒特征空间,可以更有效地实现视觉信息的显著性分析,提取符合视觉感知特点的显著区域作为子单元的时域一致性分析主体;在此基础上,根据显著区域和背景区域对内容描述的不同影响程度,进行子单元的合并,从而得到具有时空内容一致性的时空显著单元。实验结果验证了本发明提取的时空显著单元作为视频内容表示模式的有效性和语义表征性。

Description

一种基于时空显著单元的视频内容表示方法
技术领域
本发明涉及一种基于时空显著单元的视频内容表示方法,属于视频内容分析和检索技术领域。
背景技术
用户对视频信息的描述和理解主要是在语义层次进行的,如何表示视频内容,使其尽可能与人对视频内容的理解一致,是视频内容表示关键所在,也是其难点所在。从时间轴上看,视频包含的视觉信息是由一系列连续的图像帧构成的图像序列,视频时域分割的任务是把这个集合分成时域相邻的子片段集合。目前,对于视频时域分割的主要工作是基于摄像机操作或视频编辑中的语法内容的不连续性,这就是视频结构化的主要研究内容。镜头是视频序列的物理单元,所以大部分的视频时域分割的研究旨在检测镜头边界,将连续视频序列分割为镜头。但是,镜头级的时域分割还不能满足基于内容的访问,其原因在于:第一,镜头是视频序列的物理单元,其时域边界通常不符合人感知过程的分割,不能作为一个基本的语义单元;第二,镜头只是原序列的时域分割单元,没有对空域信息进行分析。它是一系列时域相邻帧的集合,基于帧的全局描述不能很好的表征视频的语义内容。因此,从内容表示的有效性来讲,镜头级的分割还不能满足基于内容的访问,需要对其进一步提取具有语义表征性的内容模式。
镜头语义内容表示的核心技术就是对图像帧序列进行时空域分割,提取出具有一定内容表征能力的内容单元。镜头内时域分割的一种方法是基于全局视觉特征的帧差,通过计算连续帧之间的内容差异,检测出内容变化点将镜头分割为一系列子镜头。由于划分子镜头是基于图像帧的全局特征描述,两个内容不同的图像帧可能具有相似的全局特征,因此,这类方法确定的子镜头语义表征能力差,通常作为镜头的一个粗分割。运动信息是视频分析的一个重要视觉线索,Zhu等人[Zhu X Q,ElmagarmidA K et al.IEEE Trans.on Multimedia.Aug.2005.7(4):648-666.]利用运动矢量将镜头内的摄像机运动进行分类,用摄像机运动确定内容变化边界,从而将镜头根据摄像机运动类别分解成若干子镜头。显然,仅用全局运动模式来提取的子镜头仅仅表达了运动信息的变化,没有反映出视觉内容的变化,不能很好地反映人的视觉感知特点。语义对象是实现内容表示的一个理想的解决方法。然而,自然场景中的对象提取和跟踪仍然面临着许多困难,如对象的遮挡和形变、背景干扰以及运动估计等,所以还不能全自动实现视频对象提取。鉴于目前的技术现状以及人类视觉系统对运动信息的敏感性,研究较多的是运动对象的提取[Zhong D,Chang S F.In Proc.of Int.Conf.on Image Processing(ICIP’01),Oct.2001,2:57-60.]。运动对象是相对于静止背景具有运动一致性的物体,通过增加运动信息作为约束条件,减少了提取对象过程的人机交互操作。然而,从内容表示模式的需求分析,基于运动信息的视频分割作为内容表示有以下几点不足:
(1)视频序列中用户关注的主要内容部分不一定具有相似运动模式;
(2)具有相似的运动区域不一定具有高的内容表征性;
(3)用运动对象来表示视频序列的内容在特定的应用中是一种有效的内容表示模式,如体育视频中的运动轨迹分析等。但这种表示方式缺乏通用性,对运动信息区分性不大的视频序列不能有效地实现内容表示。
发明内容
本发明针对现有的视频序列内容表示方法存在的缺陷,提出一种基于时空显著单元的视频内容表示方法。本发明中提取的显著区域是在浏览过程中得到视觉注意程度高的区域,因此,显著区域可作为主体的一种内容模式,其连续性分析就是体现了主体连续性分析过程。基于这种考虑,本发明中的内容表示方法是在显著区域提取的基础上,通过对显著区域视觉特征的连续性分析,得到满足连续性条件的时空显著单元。由于连续性分析的对象是显著区域,因此,从视觉感知的角度,保持连续性显著区域的集合是具有感知特点的基本语义单元。
本发明的目的是通过如下技术方案实现的。其包括如下步骤:
(1)首先将视频序列按照长度L(L=5帧)的时间窗进行时域分割,时间窗内的视频帧集合构成一个子单元,原视频序列分割为子单元序列;
(2)对子单元首帧根据颜色信息进行同质区域分割;以分割后的同质区域为单位,提取视频帧的可计算特征集合;并将可计算特征空间映射到模糊信息粒特征空间;
(3)通过考察显著区域和非显著区域两类特征分布,将区域分类为显著区域和非显著区域;
(4)在子单元包含的帧序列中,通过对子单元首帧提取的显著区域进行区域跟踪,得到该单元后续帧的显著区域;从而将子单元的每个图像帧分割为显著区域和非显著区域(背景区域);
(5)分别提取子单元显著区域和非显著区域两部分的内容描述子。通过考察子单元的内容连续性,将具有相似内容的子单元进行合并,从而合并后的子单元所包含的显著区域集合形成了具有时空特征一致性的显著区域集合,即时空显著单元。提取的时空显著单元为高层视频应用提供了一种有效的视频内容表示模式。
在上述方法的步骤(2)中,提取视频帧的可计算特征集合是对每个子单元的首帧以分割后的同质区域为单位,提取亮度对比度、纹理、位置、形状和运动特征,构成5维特征向量。考虑到显著程度的主观性和模糊性,我们提出一种模糊粒化算法将原特征空间映射到粒化特征空间,作为显著区域分类器的输入。
在上述方法的步骤(3)中采用朴素贝叶斯分类器实现对显著区域的分类。分类目的是对每帧的区域根据其显著度分配显著值,提取显著度高的区域。在
上述方法的步骤(4)中,首先根据当前帧显著区域的位置,确定后续帧显著区域的搜索范围,在图像帧的搜索范围内,根据像素点和前一帧显著区域的相似度确定该帧显著区域。针对显著区域在后续跟踪过程中可能出现多匹配情况,通过(K-S)检验确定多个匹配区域是否进行合并。
在上述方法的步骤(5)中,分别对子单元的显著区域和背景区域两部分提取内容描述子,显著区域部分采用颜色、纹理和运动信息作为内容描述子,背景区域部分采用主颜色作为内容描述子,子单元的采用Kullback-Leibler(KL)距离。
本发明的效果在于:采用本发明所述的基于时空显著单元的内容表示方法,可以更好地符合人的视觉感知特点,且对于视频类型没有约束,所以具有很好的通用性,为高层视频内容分析应用提供一个有效的内容表示模式。本发明以生物视觉的注意力机制为基础,通过模糊信息粒化方法将原特征空间映射到模糊信息粒特征空间,可以更为有效地实现视觉信息的显著性分析,从而提取符合视觉感知特点的显著区域作为子单元的时域一致性分析主体;在此基础上,根据显著区域和背景区域对内容描述的不同影响程度,进行子单元的合并,得到具有时空内容一致性的时空显著单元。实验结果验证了本发明提取的时空显著单元用以作为视频内容表示模式的有效性和语义表征性。
附图说明
图1是本发明基于时空显著单元的内容表示方法的流程示意图;
图2是本发明所述方法步骤(3)中子单元首帧显著区域提取结果示意图;
图3是本发明所述方法步骤(4)中一个子单元的显著区域集合提取结果示意图;
图4(a)是基于全局直方图表示方法的匹配结果,(b)是本发明所述方法的匹配结果。
具体实施方式
下面结合附图和具体实施方式对本发明作进一步描述。如图1所示,基于时空显著单元的视频内容表示方法,其包括以下步骤:
1.预处理——同质区域分割
首先将视频帧进行颜色同质区域分割,以分割后的同质区域为单位分析显著度。采用均值漂移聚类方法实现颜色同质区域的划分,颜色特征为LUV空间的三个分量值。由于同质区域的划分是显著区域提取的第一步,所以为了避免日后丢失显著区域,运用均值漂移聚类时,选取的参数偏于过分割,在下一步显著度分析中,属于同一个显著区域的同质区域可以进行合并处理,这样就能消除过分割的影响。
2.特征提取以及模糊粒化
对分割后的同质区域提取亮度对比度、纹理、位置、形状和运动特征,构成5维特征向量;考虑到显著程度的主观性和模糊性,我们提出一种模糊粒化算法将原特征空间映射到粒化特征空间,作为显著性分析的输入。虽然粒化过程相对于提取的原始特征维数有所增加,但减少了特征间的依赖关系,从而采用朴素贝叶斯分类器可以实现显著区域的提取。为了使粒化后的特征能更好地反映问题的本质,应使粒化过程结合应用相关的分类性能因素。由此我们提出的一种类相关特征粒化算法结合分类目标和数据分布两方面确定隶属函数,从而不仅能反映数据分布特性,而且可以从分类目标角度对不同的特征分别建立使分类达到最优的隶属函数,从而进一步简化分类计算、提高分类器性能。具体粒化算法步骤如下:
输入:n维初始特征:F={f1,f2,…,f3};
输出:模糊粒化特征 G = { g 11 , . . . , g 1 m 1 ; . . . ; g n 1 , . . . , g nm n } , mi表示第i维特征粒化后对应的模糊集合个数;
步骤:
(1)估计每个特征分布的局部最大值(采用均值漂移聚类算法,其带宽参数选择为特征分布的方差),局部最大点为初始隶属函数中心点;初始隶属函数个数为局部最大点个数;
(2)对每个隶属函数,其参数在相邻两个中心点的值范围内采用穷尽式搜索,使性能指标Q最大所对应的隶属函数确定为初始隶属函数;性能指标Q按如下公式计算:
Q = E ( A ~ ) / Sp ( A ~ )
E ( A ) = Σ x ∈ X | A ( x ) | 2 , Sp ( A ~ ) = Card ( supp ( A ~ ) )
(3)计算任意两个隶属函数的贴近度NL
N L ( A 1 , A 2 ) = e - ( m 2 - m 1 σ 2 - σ 1 ) 2 ;
(4)计算粒化特征集合对应的判别熵W(pA,pB):
                      W(pA,pB)=D(pA,pB)+D(pB,pA)
D ( P A , P B ) = Σ x ∈ &Kgr; p A log ( p A P B )
其中,pA=p(CSR|Gi) pB=p(CBR|Gi)。判别熵的计算需要确定三个密度P(CSR),P(Gi|CSR),P(Gi|CBR),对给定的训练集,假设P(CSR)=P(CBR),类条件密度可以从训练集中估计得到,对训练样本的每个特征计算mi个直方条的模糊直方图,每个直方条的取值通过对属于同一类中样本的隶属度求和计算:
His ( G i ) j = Σ x ∈ C k μ ij ( x ) j = 1 , . . . , m i
其中,μij(x)表示模糊集合gij中特征点x的隶属度,类条件密度通过归一化后的直方图得到。
(5)当隶属函数个数≤Gmin(确定最小模糊粒数Gmin=3)时转(7);
(6)对最大贴近度的两个隶属函数进行以下合并操作:
μ A ~ ∪ B ~ ( x ) = max [ μ A ~ ( x ) , μ B ~ ( x ) ]
(7)取迭代过程中判别熵W值最大的那一步所对应的隶属函数集合作为特征{gi1,...,gimi}的最终粒化结果。
3.特征粒化算法将原始特征空间映射为粒化特征空间,粒化后的特征空间有效地简化了模糊特征和类别之间的关系,所以我们采用简单的分类器实现对显著区域的分类。分类目的是对每帧的区域根据其显著度分配显著值,提取显著度高的区域。区域原始特征F=(f1,f2,f3,f4,f5)(n=5)经模糊粒化后对应的模糊特征表示为 G = { g 11 , . . . , g 1 m 1 ; . . . ; g n 1 , . . . , g nm n } . 为了预测区域的类别我们需要计算后验概率Pr(Ck|f1,...,fn)k={SR,BR)。假设特征具有独立性,由于粒化算法针对每个特征分别进行,所以粒化后不改变其独立性,根据贝叶斯理论后验概率可以计算为:
Pr ( C k | G ) = Pr ( C k ) Π i = 1 n p ( G i | C k ) p ( G )
类条件密度P(Gi|Ck)采用文献[102]提出的模糊集样本空间学习算法,该算法将每个模糊集合转化成概率分布表示,统计样本的类条件密度。得到类条件密度之后,根据最大后验概率(MAP)确定区域的类标号,满足P(CSR|Gi)>P(CBR|Gi)的区域Ri属于显著区域。经过分类确定出显著区域后,如果一个区域其所有相邻区域均为显著区域,则合并该区域和相邻区域作为一个显著区域。
4.假设在一个时窗内各帧内容相似,对时窗的第一帧提取显著区域,窗内后续各帧的显著区域通过区域跟踪得到。但是初始时窗的长度L不能太大,否则会平滑显著区域引起的变化,一般情况下L取3至10。时窗内的首帧通过以上显著区域提取算法提取显著区域。后续帧的显著区域根据以下步骤得到。
首先确定相邻帧的一个区域搜索范围。设帧ft中一个显著区域的外接矩形的对角线坐标为{(xa t,ya t),(xb t,yb t)},帧ft+1中对应帧ft的区域匹配搜索矩形区域
Figure A20061011390900121
的对角线坐标为{(xa t+1,ya t+1),(xb t+1,yb t+1)}:
x a t + 1 = x a t - dx ; y a t + 1 = y a t - dy
x b t + 1 = x b t + dx ; y b t + 1 = y b t + dy
实验中,dx=dx=8可以得到较好实验结果。在确定相应的搜索区域 后,对
Figure A20061011390900125
中每个像素根据其颜色信息的相似性来确定是否属于显著区域。像素点的颜色信息采用LUV空间的三个颜色分量。设 p ∈ R ~ t + 1 , 则点p和帧ft的显著区域的距离定义为:
D ( p , SR t ) = min R ⊆ SR t D ( p , R )
其中,D(p,R)表示点p和SRt中同质区域R,RSRt的相似度量,R的颜色特征为该同质区域的颜色均值,则点p和区域R的相似度D(p,R)通过欧氏距离计算。通过计算帧ft+1的搜索区域范围内每个像素点到帧ft的显著区域的相似度,则相似度大于经验阈值DTR(实验中取DTR=0.83)属于帧ft+1的显著区域。
时窗内的第一帧中的每个显著区域在该窗内后续各帧中进行区域相似度匹配后,将每帧中相邻的同质区域合并为一个显著区域。根据比较时域相邻帧的显著区域的相似性来计算显著性能量值,如下式:
E ( SR ) = Σ j = 2 L D ( SR t i , SR t j )
式中D(SRti,SRtj)是帧fti和帧ftj中两个显著区域特征向量的欧氏距离,实验中,相似性度量基于显著区域的颜色信息,颜色特征采用与人类颜色视觉感知比较接近的HSV颜色模型,建立64-维颜色直方图,由于V(亮度)分量受光照影响比较大,在计算直方图时只使用H(色度,取值范围[0,360])、S(饱和度,取值范围[0,1])分量,对H、S分别量化为16个值和4个值,得到HS特征直方图,共16×4=64个直方条(bin)。满足 E R i > T e 的显著区域构成该时窗的窗内显著单元(通过实验分析,在L=5的时窗长度下,能量值小于0.5的显著区域通常在后续帧的匹配区域数少于3个,即时窗中超过半数的帧没有该区域的相似区域,所以实验取Te=0.5)。 E R i ≤ T e 的显著区域不满足一致性条件,认为是由光照等因素造成的噪声,所以不属于窗内显著单元。如图2所示是三个子单元首帧的显著区域提取结果,如图3所示是其中一个子单元中首帧和后续帧的显著区域提取结果。
5.按照上述方法,得到基于时间窗的子单元,子单元中对一些噪声区域进行过滤。但子单元的时域边界是在相邻帧具有相似内容的假设下按照固定帧数的时窗划分,因此子单元的时域边界不具有内容变化的表征能力。需要进一步合并具有相似内容的子单元。子单元中图像帧的内容基本相似,时空特征变化相对较小。根据前面介绍的集合间的相似性测度方法,可以通过子单元内所有帧的显著区域和背景区域各自平均信息作为子单元的特征描述,即XU={ XSR, XBR}。
除上述用于区域跟踪的颜色特征外,对显著区域部分提取运动和纹理信息作为显著区域内容的描述子。通过计算4个尺度、4个方向的Gabor滤波系数,建立16-维纹理直方图,来描述显著区域的纹理特征。运动强度直方图通过显著区域包含的像素点的运动矢量强度,统计8-维的运动强度直方图。
对显著区域提取了多种特征后,需要对不同种特征进行融合。采用特征加权方法,将各异质特征融合为一个特征向量。对显著区域的三个特征{Xc,Xm,Xo}进行加权融合:
                     XSR={Wc Xc,Wm Xm,Wo Xo}
其中Wc,Wm,Wo计算为:
W c = γ c γ ^ , W m = γ m γ ^ , W 0 = γ o γ ^
其中 γ ^ = γ c + γ m + γ o , γ i = 1 σ i 2 , i={c,m,o},σi 2分别是为三个归一化后特征{ Xc, Xm, Xo}的标准差,即 σ i 2 = 1 N Σ q = 1 N ( x i q - m i ) 2 .
对每个子单元首帧背景部分提取64-维HSV颜色直方图(H:16,S:4),对归一化后的颜色直方图中取直方条取值大于HDC(HDC=0.2)作为该帧的主色直方图,hi为主色对应的直方条,NDC为主色直方条总数。然后,计算每个主颜色在子单元SubSUu中的持续时间Ti(相似主颜色的帧数)并统计子单元的主色直方图Hu,保留持续时间Ti大于时间阈值TC(TC=0.2*Tu,Tu表示子单元总帧数)的主色hi,则子单元背景区域的主色直方图的每个直方条按照主色hi的相对持续时间加权得到:
X BR = { H u ( h i ) × T i T u , i = 1 , L , N DC }
6.分别对子单元的显著区域和背景区域建立相应的特征描述后,根据子单元的相似度进行合并,将时间相近、内容相似的子单元组合在一起。设子单元Ui和Uj,其特征向量分别表示为Xi,Xj。子单元Ui和Uj的相似度根据以下度量公式计算:
D p ( U i , U j ) = P ( U i ) D KL ( p i | | p ′ ) + P ( U j ) D KL ( p j | | p ′ )
D KL ( p i | | p ′ ) = w s D KL ( p s i | | p s ′ ) + w c D KL ( p b i | | p b ′ )
= w s Σ k = 1 d s p s i ( k ) log ( p s i ( k ) p s ′ i ( k ) ) + w c Σ k = 1 d b p b i ( k ) log ( p b i ( k ) p b ′ i ( k ) )
其中,ps i和pb i分别表示子单元Ui的显著区域和背景区域两部分特征的密度分布,p′表示合并子单元Ui,Uj后的密度分布,DKL(pi‖p′)表示两个子单元合并后的单元类和未合并前两个单元的差异度量。根据具体的应用,可以通过调节两个权值ws,wc作为平衡显著区域和背景区域对视频信息内容表征的影响程度。
提取的时空显著单元旨在提供一个有效的内容表示模式,所以为了验证内容表征能力,采用本发明所述的基于时空显著单元的内容表示方法和基于全局特征表示两种算法进行视频镜头匹配。基于全局特征的方法是采用64-维HSV颜色直方图作为镜头Shoti的代表帧集合SFi中的特征向量。比较算法中,基于时空显著单元的方法权值设为{ws=0.7,wc=0.3},实验中均采用KL散度作为相似性测度。如图4所示给出了比较结果。从附图4匹配结果可以看出,采用全局特征描述,对于第三个和第五个匹配结果的匹配误差较大,这是由于在整个背景中由于受光照的影响,使查询镜头和第五个匹配镜头的全局特征分布相似性大于第三个,但不符合人的视觉相似性。从语义内容的层次上,第三个镜头的相似性要高于第五个,基于时空显著单元的序列匹配结果能很好地体现语义相似性,得到的结果更符合视觉感知的相似性。
本发明的其他变化和修改对本领域技术人员是显而易见的,本发明并不局限于所述的具体实施方式。因此,与本发明所公开内容的真正实质和基本原则范围内的任何/所有修改、变化或等效变换,都属于本发明的权利要求保护范围。

Claims (6)

1.一种基于时空显著单元的视频内容表示方法,其特征在于:它包括以下步骤:
(1)首先将视频序列按照长度L(L=5帧)的时间窗进行时域分割,时间窗内的视频帧集合构成一个子单元,原视频序列分割为子单元序列;
(2)对子单元首帧根据颜色信息进行同质区域分割,以分割后的同质区域为单位,提取视频帧的可计算特征集合;并将可计算特征空间映射到模糊信息粒特征空间;
(3)通过考察显著区域和非显著区域两类特征分布,将区域分类为显著区域和非显著区域;
(4)在子单元包含的帧序列中,通过对子单元首帧提取的显著区域进行区域跟踪,得到该单元后续帧的显著区域,从而将子单元的每个图像帧分割为显著区域和非显著区域(背景区域);
(5)分别提取子单元显著区域和非显著区域两部分的内容描述子,通过考察子单元的内容连续性,将具有相似内容的子单元进行合并,从而合并后的子单元所包含的显著区域集合形成了具有时空特征一致性的显著区域集合,即时空显著单元,提取的时空显著单元为高层视频应用提供了一种有效的视频内容表示模式。
2.根据权利要求1所述的基于时空显著单元的视频内容表示方法,其特征在于:步骤(2)中,提取视频帧的可计算特征集合是对每个子单元的首帧,以分割后的同质区域为单位,提取如下五个原始特征:
区域亮度对比度;
区域纹理密度指数;
区域空间平衡性指数;
区域形状指数;
区域运动一致性指数。
3.根据权利要求1所述的基于时空显著单元的视频内容表示方法,其特征在于:步骤(2)中,模糊信息粒特征空间的模糊信息粒采用模糊集合的形式。
4.根据权利要求1所述的基于时空显著单元的视频内容表示方法,其特征在于:步骤(3)中,显著区域分类采用朴素贝叶斯分类方法。
5.根据权利要求1所述的基于时空显著单元的视频内容表示方法,其特征在于:步骤(4)中,区域跟踪方法如下:
(1)根据当前帧显著区域的位置,确定后续帧显著区域的搜索范围;
(2)在图像帧的搜索范围内,根据像素点和前一帧显著区域的相似度确定该帧显著区域;
(3)针对显著区域在后续跟踪过程中可能出现多匹配情况,我们通过kolmogorov-Smirnow(K-S)检验确定多个匹配区域是否进行合并。
6.根据权利要求1所述的基于时空显著单元的视频内容表示方法,其特征在于:步骤(5)中,时空显著单元提取包括子单元特征提取和子单元相似度匹配两个步骤:
(1)分别对子单元的显著区域和背景区域两部分提取内容描述子,显著区域部分采用颜色、纹理和运动信息作为内容描述子,而背景区域部分采用主颜色作为内容描述子;
(2)子单元的相似度根据Kullback-Leibler(KL)距离作为相似性测度:
    Dp(Ui,Uj)=P(Ui)DKL(pi‖p′)+P(Uj)DKL(pj‖p′)
D KL ( p i | | p ′ ) = w s D KL ( p s i | | p s ′ ) + w c D KL ( p b i | | p b ′ )
= w s Σ k = 1 d s p s i ( k ) log ( p s i ( k ) p s ′ i ( k ) ) + w c Σ k = 1 d b p b i ( k ) log 1 ( p b i ( k ) p b ′ i ( k ) )
其中,Dp(Ui,Uj)表示两个子单元Ui,Uj的KL距离,用它来判断两个子单元的相似度;ps i和pb i分别表示子单元Ui的显著区域和背景区域两部分特征的密度分布,p′表示合并子单元Ui,Uj后的密度分布,DKL(pi‖p′)表示两个子单元合并后的单元类和未合并前两个单元的相似性度量;根据具体的应用,可以通过调节两个权值ws,wc作为平衡显著区域和背景区域对视频信息内容表征的影响程度。
CNA2006101139093A 2006-10-20 2006-10-20 一种基于时空显著单元的视频内容表示方法 Pending CN1945628A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CNA2006101139093A CN1945628A (zh) 2006-10-20 2006-10-20 一种基于时空显著单元的视频内容表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CNA2006101139093A CN1945628A (zh) 2006-10-20 2006-10-20 一种基于时空显著单元的视频内容表示方法

Publications (1)

Publication Number Publication Date
CN1945628A true CN1945628A (zh) 2007-04-11

Family

ID=38045023

Family Applications (1)

Application Number Title Priority Date Filing Date
CNA2006101139093A Pending CN1945628A (zh) 2006-10-20 2006-10-20 一种基于时空显著单元的视频内容表示方法

Country Status (1)

Country Link
CN (1) CN1945628A (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102034096A (zh) * 2010-12-08 2011-04-27 中国科学院自动化研究所 基于自顶向下运动注意机制的视频事件识别方法
CN101271525B (zh) * 2008-04-10 2011-05-04 复旦大学 一种快速的图像序列特征显著图获取方法
CN102142148A (zh) * 2011-04-02 2011-08-03 上海交通大学 视频空时特征提取方法
CN102239505A (zh) * 2008-10-03 2011-11-09 3M创新有限公司 用于优化场景的系统和方法
CN102306275A (zh) * 2011-06-29 2012-01-04 西安电子科技大学 基于模糊概念格的视频纹理特征提取方法
CN101639940B (zh) * 2008-08-01 2012-04-25 北京大学 一种基于视频内容的提取视频注意窗序列的方法及系统
CN103745203A (zh) * 2014-01-15 2014-04-23 南京理工大学 基于视觉注意和均值漂移的目标检测与跟踪方法
CN104038792A (zh) * 2014-06-04 2014-09-10 紫光软件系统有限公司 用于iptv监管的视频内容分析方法及设备
CN104091326A (zh) * 2014-06-16 2014-10-08 小米科技有限责任公司 图标分割方法和装置
CN106650816A (zh) * 2016-12-28 2017-05-10 深圳信息职业技术学院 一种视频质量评价方法和装置
CN106875396A (zh) * 2016-12-28 2017-06-20 深圳信息职业技术学院 基于运动特性的视频显著区的提取方法和装置
CN107430687A (zh) * 2015-05-14 2017-12-01 谷歌公司 视频流的基于实体的时间分割
CN110163401A (zh) * 2018-02-12 2019-08-23 腾讯科技(深圳)有限公司 时间序列的预测方法、数据预测方法和装置
CN112188309A (zh) * 2020-09-27 2021-01-05 中国传媒大学 基于累计差异度和奇异值分解的镜头边界检测方法和装置
CN117152650A (zh) * 2023-04-23 2023-12-01 青岛尘元科技信息有限公司 海量视频的视频内容分析方法和视频事件信息网络

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101271525B (zh) * 2008-04-10 2011-05-04 复旦大学 一种快速的图像序列特征显著图获取方法
CN101639940B (zh) * 2008-08-01 2012-04-25 北京大学 一种基于视频内容的提取视频注意窗序列的方法及系统
US9131204B2 (en) 2008-10-03 2015-09-08 3M Innovative Properties Company Systems and methods for optimizing a scene
CN102239505A (zh) * 2008-10-03 2011-11-09 3M创新有限公司 用于优化场景的系统和方法
CN102239505B (zh) * 2008-10-03 2014-10-22 3M创新有限公司 用于优化场景的系统和方法
CN102034096B (zh) * 2010-12-08 2013-03-06 中国科学院自动化研究所 基于自顶向下运动注意机制的视频事件识别方法
CN102034096A (zh) * 2010-12-08 2011-04-27 中国科学院自动化研究所 基于自顶向下运动注意机制的视频事件识别方法
CN102142148A (zh) * 2011-04-02 2011-08-03 上海交通大学 视频空时特征提取方法
CN102306275B (zh) * 2011-06-29 2013-03-20 西安电子科技大学 基于模糊概念格的视频纹理特征提取方法
CN102306275A (zh) * 2011-06-29 2012-01-04 西安电子科技大学 基于模糊概念格的视频纹理特征提取方法
CN103745203A (zh) * 2014-01-15 2014-04-23 南京理工大学 基于视觉注意和均值漂移的目标检测与跟踪方法
CN103745203B (zh) * 2014-01-15 2017-03-15 南京理工大学 基于视觉注意和均值漂移的目标检测与跟踪方法
CN104038792B (zh) * 2014-06-04 2017-06-16 紫光软件系统有限公司 用于iptv监管的视频内容分析方法及设备
CN104038792A (zh) * 2014-06-04 2014-09-10 紫光软件系统有限公司 用于iptv监管的视频内容分析方法及设备
CN104091326A (zh) * 2014-06-16 2014-10-08 小米科技有限责任公司 图标分割方法和装置
CN107430687B (zh) * 2015-05-14 2022-03-04 谷歌有限责任公司 视频流的基于实体的时间分割
CN107430687A (zh) * 2015-05-14 2017-12-01 谷歌公司 视频流的基于实体的时间分割
CN107430687B9 (zh) * 2015-05-14 2022-04-08 谷歌有限责任公司 视频流的基于实体的时间分割
CN106875396A (zh) * 2016-12-28 2017-06-20 深圳信息职业技术学院 基于运动特性的视频显著区的提取方法和装置
CN106875396B (zh) * 2016-12-28 2020-12-01 深圳信息职业技术学院 基于运动特性的视频显著区的提取方法和装置
CN106650816A (zh) * 2016-12-28 2017-05-10 深圳信息职业技术学院 一种视频质量评价方法和装置
CN110163401A (zh) * 2018-02-12 2019-08-23 腾讯科技(深圳)有限公司 时间序列的预测方法、数据预测方法和装置
CN110163401B (zh) * 2018-02-12 2023-05-26 腾讯科技(深圳)有限公司 时间序列的预测方法、数据预测方法和装置
CN112188309A (zh) * 2020-09-27 2021-01-05 中国传媒大学 基于累计差异度和奇异值分解的镜头边界检测方法和装置
CN112188309B (zh) * 2020-09-27 2022-05-13 中国传媒大学 基于累计差异度和奇异值分解的镜头边界检测方法和装置
CN117152650A (zh) * 2023-04-23 2023-12-01 青岛尘元科技信息有限公司 海量视频的视频内容分析方法和视频事件信息网络

Similar Documents

Publication Publication Date Title
CN1945628A (zh) 一种基于时空显著单元的视频内容表示方法
CN109005409B (zh) 一种基于目标检测与跟踪的智能视频编码方法
Paul et al. Human detection in surveillance videos and its applications-a review
JP4907938B2 (ja) 少なくとも1つの画像及び画像群を表現する方法、画像又は画像群の表現、画像及び/又は画像群を比較する方法、画像又は画像群を符号化する方法、画像又は画像シーケンスを復号する方法、符号化されたデータの使用、画像又は画像群を表現する装置、画像及び/又は画像群を比較する装置、コンピュータプログラム、システム、及びコンピュータ読み取り可能な記憶媒体
CN105184763B (zh) 图像处理方法和装置
Cui et al. Temporal spectral residual: fast motion saliency detection
Nouar et al. Improved object tracking with camshift algorithm
US11288544B2 (en) Method, system and apparatus for generating training samples for matching objects in a sequence of images
Li et al. Saliency model-based face segmentation and tracking in head-and-shoulder video sequences
JP5097280B2 (ja) 画像及び画像群を表現、比較及び検索する方法及び装置、プログラム、コンピュータ読み取り可能な記憶媒体
CN1207924C (zh) 取决于图像的面部检测方法
CN111104943A (zh) 基于决策级融合的彩色图像感兴趣区域提取方法
JP2011054183A (ja) 画像処理方法及び装置
JP2002288658A (ja) 領域分割された映像の領域特徴値整合に基づいた客体抽出装置およびその方法
CN109255326A (zh) 一种基于多维信息特征融合的交通场景烟雾智能检测方法
Bai et al. Principal pixel analysis and SVM for automatic image segmentation
Li et al. Salient region detection and tracking in video
Vasamsetti et al. 3D local spatio-temporal ternary patterns for moving object detection in complex scenes
Song et al. A novel video abstraction method based on fast clustering of the regions of interest in key frames
Chen et al. An adaptive noise removal tool for iot image processing under influence of weather conditions
CN105893967B (zh) 基于时序保留性时空特征的人体行为分类检测方法及系统
Xu et al. Robust real-time tracking of non-rigid objects
Gao et al. Shot-based video retrieval with optical flow tensor and HMMs
e Souza et al. Survey on visual rhythms: A spatio-temporal representation for video sequences
Shinde et al. Image object saliency detection using center surround contrast

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication