CN103440640B - 一种视频场景聚类及浏览方法 - Google Patents

一种视频场景聚类及浏览方法 Download PDF

Info

Publication number
CN103440640B
CN103440640B CN201310317750.7A CN201310317750A CN103440640B CN 103440640 B CN103440640 B CN 103440640B CN 201310317750 A CN201310317750 A CN 201310317750A CN 103440640 B CN103440640 B CN 103440640B
Authority
CN
China
Prior art keywords
camera lens
video
similarity
scene
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201310317750.7A
Other languages
English (en)
Other versions
CN103440640A (zh
Inventor
张磊
徐千昆
黄华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN201310317750.7A priority Critical patent/CN103440640B/zh
Publication of CN103440640A publication Critical patent/CN103440640A/zh
Application granted granted Critical
Publication of CN103440640B publication Critical patent/CN103440640B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及一种视频场景聚类及浏览方法,包括以下步骤:镜头边界检测与分割;镜头关键帧提取;镜头间相似度计算;镜头聚类;场景聚类;场景图表示。本发明使用场景聚类,从而得到视频场景层次的内容图结构,获得了基于场景的视频的高层语义信息;并使用二维图结构表述视频结构,为用户提供了一种有引导的非线性视频浏览方式,提高了浏览效率。

Description

一种视频场景聚类及浏览方法
技术领域:
本发明涉及一种视频场景聚类方式,具体涉及一种基于二维图结构的视频场景聚类和非线性浏览方法,属于视频处理领域。
背景技术:
为了清晰地表述视频内容,为用户提供高效的视频浏览,一般将视频分成层次化的四层:帧、镜头、场景和视频。一个视频帧是视频数据中保存的一幅图像;镜头是一台摄像机连续拍摄的若干连续帧的集合;一个或者多个表述相同语义的连续镜头构成一个场景。
由于视频表述是一项基础性问题,这方面的工作已有许多,其中视频摘要的方式更适合视频内容的浏览。常见的视频摘要方法包括静态概要和动态略读两种。例如静态概要中层次化场景拼图(C.Barnes,D.B.Goldman,E.Shechtman,andA.Finkelstein.Videotapestrieswithcontinuoustemporalzoom.ACMTransactionsonGraphics,29(4):89:1–89:9,2010)等方法可以表述视频中不同层次的视频细节,但是无法提供视频浏览时的场景内容回顾;动态略读中基于视频、音频、文本流混合分析的方法(J.G.Kim,H.S.Chang,K.Kang,M.Kim,J.Kim,andH.M.Kim.Summarizationofnewsvideoanditsdescriptionforcontent-basedaccess.InternationalJournalofImagingSystemsandTechnology,13(5):267–274,2003.)在浏览视频时可以很好地提供略读效果,但是其缺少场景类别鉴别的能力,只能表现相邻场景之间的切换关系,而无法表现非相邻场景之间的语义关系(即无法将相同语义信息的场景归为一类)。
由于图的抽象灵活性和构建便捷性,图成为目前比较流行的数据呈现形式。基于图模型的镜头分类(S.Lu,I.K.King,andM.R.Lyu.Videosummarizationbyvideostructureanalysisandgraphoptimization.InProc.ICME,pages1959–1962,2004.)使用图对视频进行镜头层级上的建模,以搜索最优的视频内容建立动态略读。但是其图结构的视频表述还是局限在镜头层级上的底层视频分析,无法表现场景之间的关系。
发明内容:
为了使用户清晰地了解视频场景语义结构和切换过程,高效地浏览视频内容,本发明提出了一种视频场景聚类及浏览方法,根据对镜头的聚类结果,得到视频场景类别和场景之间的切换关系。
本发明的具体实现步骤如下:
一种视频场景聚类及浏览方法,该方法包括以下步骤:
步骤一、镜头边界检测与分割;
读取视频,检测视频中的切变和渐变镜头边界,根据所得镜头边界,将视频分割为多个独立的镜头;
步骤二、镜头关键帧提取
对于独立的镜头,使用光流法检测视频内容变化,当视频帧内对象运动的距离达到一定阈值时,提取关键帧,得到代表镜头的关键帧集合;
步骤三、镜头间相似度计算
对于镜头中提取的关键帧进行SIFT特征点提取,在所有镜头的关键帧集合之间进行关键帧的SIFT特征点匹配,根据匹配特征点数量定义镜头之间相似度,相似度定义如下:
S a , b = - 1 / Σ k = 1 N a Σ h = 1 N b c ( m a k , m b h ) N a × N b
其中Sa,b是镜头a、b之间的相似度,Na、Nb分别表示镜头a、b的关键帧集合中关键帧图像的数量,是镜头a中第k个关键帧图像,是镜头b的第h个关键帧图像,是两幅图像之间SIFT特征点匹配的数量,若小于特定阈值Tnum,则设置为0;
步骤四、镜头聚类
根据上一步获得的镜头之间的相似度,使用信息传递聚类算法对镜头进行聚类,得到若干聚类中心,根据每个镜头所属的聚类中心不同,将所有镜头分为若干个镜头集合,每个集合属于一个镜头类别;在信息传递聚类中镜头自身相似度定义为:
S a , a = 1 N s Σ a ≠ b S a , b
Ns表示全部已有相似度的数量,即将镜头自身相似度Sa,a设置为全部非自身相似度的均值;
步骤五、场景聚类
根据镜头聚类结果,将在一定窗口Twin即连续Twin个镜头内连续出现切换的镜头类别合并为一类,定义不同镜头类别之间的相似关系如下:
S(i,k)=-1/f(i,k)
S(i,k)是镜头类别i,k之间的相似度,f(i,k)是镜头类别i,k之间的切换次数,令镜头类别自身相似度值为S1,使用信息传递聚类算法对镜头类别进行聚类,得到初步的场景聚类结果;令镜头类别自身相似度值为S2,以初步的场景聚类结果为输入,重复本步骤上述操作,得到最终的场景聚类结果,其中S1和S2为用户设置的整数。
通过以上步骤,提出了一种视频场景聚类方法,得到视频场景类别和场景之间的切换关系。基于以上聚类方法,本发明还提出了一种基于二维图结构的非线性视频浏览方法,使用节点表示场景,使用边表示场景之间的切换关系,将视频场景结构以二维图的形式表示出来,并提供基于二维图的浏览接口,使用户可以根据图表现出的视频场景结构,选择感兴趣的视频场景浏览。视频浏览方法除了包括场景聚类方法的五个步骤之外,还包括:
步骤六、场景图表示
根据场景聚类结果,以场景为节点,以切换关系为边,以切换次数为边权重,使用弹簧模型绘制无向有权的场景图,并将各个场景的时间信息和场景图信息存储在一个XML文件中,以便于用户接口访问;当用户进行视频浏览时,根据XML文件中存储的场景图信息和场景时间信息建立场景图,选择特定的场景进行非线性浏览。
有益效果:
(1)传统方法中的视频聚类方法一般只能得到镜头层次的信息,而无法提供视频更高级语义信息,本方法使用场景聚类,从而得到视频场景层次的内容图结构,获得了基于场景的视频的高层语义信息。
(2)传统方法中静态概要只能提供图像形式的视频信息,对于用户感兴趣的视频片段无法进一步详细浏览,而本方法可以使用户在提供视频场景结构信息的前提下,详细浏览感兴趣的视频片段。
(3)传统方法中动态略读一般只能以线性结构来表述视频结构,对视频进行非线性浏览时只能无目的地拖动进度条实现,而本发明使用二维图结构表述视频结构,为用户提供了一种有引导的非线性视频浏览方式。
(4)本方法还可以为用户提供场景层次上的切换信息,使用户在开始浏览视频时,可以选择切换次数较多(即语义信息较重要)的视频场景开始浏览,除去了用户浏览非主要语义内容片段的时间,提高了浏览效率。
附图说明:
图1是本发明一种视频场景聚类及浏览方法的流程图;
图2是计算视频帧间相似度时的帧图像分片示例;
图3是非线性场景表示示意图;
具体实施方式
下面结合附图对本发明方法的实施方式做详细说明。
本实施方式具体实现了一种视频场景聚类及浏览方法,首先进行视频的镜头分割,然后根据对镜头的聚类结果,得到视频场景类别和场景之间的切换关系,进而使用节点表示场景,使用边表示切换关系,使用切换次数作为边权重,将视频场景结构以二维图的形式表示出来,并提供基于二维图的浏览接口,使用户可以根据二维图表现出的视频场景结构,选择感兴趣的视频场景进行浏览。
本实施方式的具体实现步骤如下:
步骤一、镜头边界检测与分割;
读取视频,分别检测视频中的切变镜头边界和渐变镜头边界。
本实施方式中采取的镜头边界检测方法为:
定义一种衡量视频帧之间的内容变化剧烈程度的相似度值,对于帧fi和帧fi+1,其相似度通过计算对应位置像素灰度值差的加权和得到,即:
d i = Σ m = 0 W Σ n = 0 H { k m , n * [ G ( f i ) m , n - G ( f i + 1 ) m , n ] }
其中,W和H表示关键帧的宽与高,km,n表示赋予(m,n)位置的权值,用于标定视频帧中各个位置的重要性。G(fi)m,n表示帧fi中(m,n)位置的灰度值;考虑到人类的视觉关注点集中在视频的中间部分,而边缘处在一定程度上则被忽略,本方法以3:5:3的黄金分割比率非均匀地对视频帧划分区域,如图2所示,最上方三个区域以及最下方三个区域的权值设定为1/14,中间两侧的权值设为1/7,中央区域的权值设置为2/7;对于一段视频,计算相似度后得到一个相似度序列:
n=={d0,d1,d2,d3...dn-2}
对相似度序列进行高斯滤波得到:
Ω ′ = Ω · exp ( - x 2 2 · σ 2 ) , x ∈ ( - σ , σ )
对于切变镜头边界,根据滤波后的相似度序列,检测镜头切变:
hc(Ω′)表示平滑序列Ω′中的切变边界点组成的集合,T0、T1和T表示设定阈值,即当某处的变化量远大于前后两帧的变化量时,便将其标记为切变镜头边界;
对于镜头渐变边界,将相似度序列做差,其相似度的差值序列中超过某个阀值TdiffⅹDiffavg的点即为渐变镜头边界的待选位置,Diffavg定义为上一个镜头渐变边界到当前位置所有差值的均值,对于在帧窗口M内存在N个待选位置的视频片段,选取位于中间位置的待选帧作为镜头渐变边界;
较佳地取σ=27,T0=2,T1=2,T=5,Tdiff=4,M=20,N=8。
根据所得镜头边界,将视频分割为多个独立的镜头。
步骤二、镜头关键帧提取
对于独立的镜头,使用光流法检测视频内容变化,当视频帧内对象运动的距离达到一定阈值(视频帧长宽的百分比Tflow)时,提取关键帧,得到代表镜头的关键帧集合。较佳地选取阈值Tflow=0.3。
步骤三、镜头间相似度计算
对于镜头中提取的关键帧进行SIFT特征点提取,在所有镜头的关键帧集合之间进行关键帧的SIFT特征点匹配,根据匹配特征点数量定义镜头之间相似度,相似度定义如下:
S a , b = - 1 / Σ k = 1 N a Σ h = 1 N b c ( m a k , m b h ) N a × N b
其中Sa,b是镜头a、b之间的相似度,Na、Nb分别表示镜头a、b的关键帧集合中图像的数量,是镜头a中第k个关键帧图像,是镜头b的第h个关键帧图像,是两幅图像之间SIFT特征点匹配的数量。若小于特定阈值Tnum,则设置为0。较佳地选取Tnum=10。
步骤四、镜头聚类
根据上一步获得的镜头之间的相似度,使用信息传递聚类算法对镜头进行聚类,得到若干聚类中心,根据每个镜头所属的聚类中心不同,将所有镜头分为若干个镜头集合,每个集合属于一个镜头类别。信息传递聚类算法的核心是根据不同应用设置Sa,a和Sa,b,定义好这两个量后,就可以输入到信息传递聚类方法进行聚类。在使用信息传递聚类算法中,镜头自身相似度定义为:
S a , a = 1 S s Σ a ≠ b S a , b
Ns表示全部相似度的数量,即将镜头自身相似度Sa,a设置为全部非自身相似度的均值。
步骤五、场景聚类
根据镜头聚类结果,将在一定窗口Twin(连续Twin个镜头)内连续出现切换的镜头类别合并为一类。定义不同镜头类别之间的相似关系如下:
S(i,k)=-1/f(i,k)
S(i,k)是镜头类别i,k之间的相似度,f(i,k)是镜头类别i,k之间的切换次数。令镜头类别自身相似度值为S1,使用信息传递聚类算法对镜头类别进行聚类,得到初步的场景聚类结果。令镜头类别自身相似度值为S2,以初步的场景聚类结果为输入,重复本步骤上述操作,得到最终的场景聚类结果。较佳地选取Twin=4,S1=-4,S2=-6。
步骤六、场景图表示
根据场景聚类结果,以场景为节点,以切换关系为边,以切换次数为边权重,使用弹簧模型绘制无向有权的场景图,并将各个场景的时间信息和场景图信息存储在一个XML文件中,以便于用户接口访问。当用户进行视频浏览时,即可根据XML文件中存储的场景图信息和场景时间信息建立场景图,选择特定的场景进行非线性浏览。

Claims (10)

1.一种视频场景聚类方法,该方法包括以下步骤:
步骤一、镜头边界检测与分割;
读取视频,检测视频中的切变和渐变镜头边界,根据所得镜头边界,将视频分割为多个独立的镜头;
步骤二、镜头关键帧提取
对于独立的镜头,使用光流法检测视频内容变化,当视频帧内对象运动的距离达到一定阈值时,提取关键帧,得到代表镜头的关键帧集合,所述阈值为视频帧长宽的百分比Tflow
步骤三、镜头间相似度计算
对于镜头中提取的关键帧进行SIFT特征点提取,在所有镜头的关键帧集合之间进行关键帧的SIFT特征点匹配,根据匹配特征点数量定义镜头之间相似度,相似度定义如下:
S a , b = - 1 / Σ k = 1 N a Σ h = 1 N b c ( m a k , m b h ) N a × N b
其中Sa,b是镜头a、b之间的相似度,Na、Nb分别表示镜头a、b的关键帧集合中关键帧图像的数量,是镜头a中第k个关键帧图像,是镜头b的第h个关键帧图像,是两幅图像之间SIFT特征点匹配的数量,若小于特定阈值Tnum,则设置为0;
步骤四、镜头聚类
根据上一步获得的镜头之间的相似度,使用信息传递聚类算法对镜头进行聚类,得到若干聚类中心,根据每个镜头所属的聚类中心不同,将所有镜头分为若干个镜头集合,每个集合属于一个镜头类别;在信息传递聚类中镜头自身相似度定义为:
S a , a = 1 N s Σ a ≠ b S a , b
Ns表示全部已有相似度的数量,即将镜头自身相似度Sa,a设置为全部非自身相似度的均值;
步骤五、场景聚类
根据镜头聚类结果,将在一定窗口Twin即连续Twin个镜头内连续出现切换的镜头类别合并为一类,定义不同镜头类别之间的相似关系如下:
S(i,k)=-1/f(i,k)
S(i,k)是镜头类别i,k之间的相似度,f(i,k)是镜头类别i,k之间的切换次数,令镜头类别自身相似度值为S1,使用信息传递聚类算法对镜头类别进行聚类,得到初步的场景聚类结果;令镜头类别自身相似度值为S2,以初步的场景聚类结果为输入,重复本步骤上述操作,得到最终的场景聚类结果,其中S1和S2为用户设置的整数。
2.根据权利要求1所述的一种视频场景聚类方法,其特征在于,步骤一中的镜头边界检测方法为:
定义一种衡量视频帧之间的;内容变化剧烈程度的相似度值,对于帧fi和帧fi+1,其相似度通过计算对应位置像素灰度值差的加权和得到,即:
d i = Σ m = 0 W Σ n = 0 H { k m , n * [ G ( f i ) m , n - G ( f i + 1 ) m , n ] }
其中,W和H表示关键帧的宽与高,km,n表示赋予(m,n)位置的权值,用于标定视频帧中各个位置的重要性;G(fi)m,n表示帧fi中(m,n)位置的灰度值;考虑到人类的视觉关注点集中在视频的中间部分,而边缘处在一定程度上则被忽略,本方法以3:5:3的黄金分割比率非均匀地对视频帧划分区域,最上方三个区域以及最下方三个区域的权值设定为1/14,中间两侧的权值设为1/7,中央区域的权值设置为2/7;对于一段视频,计算相似度后得到一个相似度序列:
Ω={d0,d1,d2,d3...dn-2}
对相似度序列进行高斯滤波得到:
Ω ′ = Ω · exp ( - x 2 2 · σ 2 ) , x ∈ ( - σ , σ )
对于切变镜头边界,根据滤波后的相似度序列,检测镜头切变:
hc(Ω′)表示平滑序列Ω′中的切变边界点组成的集合,T0、T1和T表示设定阈值,即当某处的变化量远大于前后两帧的变化量时,便将其标记为切变镜头边界;
对于镜头渐变边界,将相似度序列做差,其相似度的差值序列中超过某个阀值TdiffⅹDiffavg的点即为渐变镜头边界的待选位置,Diffavg定义为上一个镜头渐变边界到当前位置所有差值的均值,对于在帧窗口M内存在N个待选位置的视频片段,选取位于中间位置的待选帧作为镜头渐变边界;根据所得镜头边界,将视频分割为多个独立的镜头。
3.根据权利要求2所述的一种视频场景聚类方法,其特征在于,在镜头边界检测方法中,取σ=27,T0=2,T1=2,T=5,Tdiff=4,M=20,N=8。
4.根据权利要求1所述的一种视频场景聚类方法,其特征在于,步骤二中的阈值Tflow=0.3。
5.根据权利要求1所述的一种视频场景聚类方法,其特征在于,步骤三中的阈值Tnum=10。
6.根据权利要求1所述的一种视频场景聚类方法,其特征在于,步骤五中所述Twin=4,S1=-4,S2=-6。
7.一种视频场景聚类及浏览方法,根据权利要求1的场景聚类结果进行视频浏览,其特征在于,包括以下步骤:
步骤一、镜头边界检测与分割;
读取视频,检测视频中的切变和渐变镜头边界,根据所得镜头边界,将视频分割为多个独立的镜头;
步骤二、镜头关键帧提取
对于独立的镜头,使用光流法检测视频内容变化,当视频帧内对象运动的距离达到一定阈值时,提取关键帧,得到代表镜头的关键帧集合,所述阈值为视频帧长宽的百分比Tflow
步骤三、镜头间相似度计算
对于镜头中提取的关键帧进行SIFT特征点提取,在所有镜头的关键帧集合之间进行关键帧的SIFT特征点匹配,根据匹配特征点数量定义镜头之间相似度,相似度定义如下:
S a , b = - 1 / Σ k = 1 N a Σ h = 1 N b c ( m a k , m b h ) N a × N b
其中Sa,b是镜头a、b之间的相似度,Na、Nb分别表示镜头a、b的关键帧集合中关键帧图像的数量,是镜头a中第k个关键帧图像,是镜头b的第h个关键帧图像,是两幅图像之间SIFT特征点匹配的数量,若小于特定阈值Tnum,则设置为0;
步骤四、镜头聚类
根据上一步获得的镜头之间的相似度,使用信息传递聚类算法对镜头进行聚类,得到若干聚类中心,根据每个镜头所属的聚类中心不同,将所有镜头分为若干个镜头集合,每个集合属于一个镜头类别;在信息传递聚类中镜头自身相似度定义为:
S a , a = 1 N s Σ a ≠ b S a , b
Ns表示全部已有相似度的数量,即将镜头自身相似度Sa,a设置为全部非自身相似度的均值;
步骤五、场景聚类
根据镜头聚类结果,将在一定窗口Twin即连续Twin个镜头内连续出现切换的镜头类别合并为一类,定义不同镜头类别之间的相似关系如下:
S(i,k)=-1/f(i,k)
S(i,k)是镜头类别i,k之间的相似度,f(i,k)是镜头类别i,k之间的切换次数,令镜头类别自身相似度值为S1,使用信息传递聚类算法对镜头类别进行聚类,得到初步的场景聚类结果;令镜头类别自身相似度值为S2,以初步的场景聚类结果为输入,重复本步骤上述操作,得到最终的场景聚类结果,其中S1和S2为用户设置的整数;
步骤六、场景图表示:
根据场景聚类结果,以场景为节点,以切换关系为边,以切换次数为边权重,使用弹簧模型绘制无向有权的场景图,并将各个场景的时间信息和场景图信息存储在一个XML文件中,以便于用户接口访问;当用户进行视频浏览时,根据XML文件中存储的场景图信息和场景时间信息建立场景图,选择特定的场景进行非线性浏览。
8.根据权利要求7所述的一种视频场景聚类及浏览方法,其特征在于,步骤一中的镜头边界检测方法为:
定义一种衡量视频帧之间的内容变化剧烈程度的相似度值,对于帧fi和帧fi+1,其相似度通过计算对应位置像素灰度值差的加权和得到,即:
d i = Σ m = 0 W Σ n = 0 H { k m , n * [ G ( f i ) m , n - G ( f i + 1 ) m , n ] }
其中,W和H表示关键帧的宽与高,km,n表示赋予(m,n)位置的权值,用于标定视频帧中各个位置的重要性;G(fi)m,n表示帧fi中(m,n)位置的灰度值;考虑到人类的视觉关注点集中在视频的中间部分,而边缘处在一定程度上则被忽略,本方法以3:5:3的黄金分割比率非均匀地对视频帧划分区域,最上方三个区域以及最下方三个区域的权值设定为1/14,中间两侧的权值设为1/7,中央区域的权值设置为2/7;对于一段视频,计算相似度后得到一个相似度序列:
Ω={d0,d1,d2,d3...dn-2}
对相似度序列进行高斯滤波得到:
Ω ′ = Ω · exp ( - x 2 2 · σ 2 ) , x ∈ ( - σ , σ )
对于切变镜头边界,根据滤波后的相似度序列,检测镜头切变:
hc(Ω′)表示平滑序列Ω′中的切变边界点组成的集合,T0、T1和T表示设定阈值,即当某处的变化量远大于前后两帧的变化量时,便将其标记为切变镜头边界;
对于镜头渐变边界,将相似度序列做差,其相似度的差值序列中超过某个阀值TdiffⅹDiffavg的点即为渐变镜头边界的待选位置,Tdiff为阀值的一个常值系数,Diffavg定义为上一个镜头渐变边界到当前位置所有差值的均值,对于在帧窗口M内存在N个待选位置的视频片段,选取位于中间位置的待选帧作为镜头渐变边界;根据所得镜头边界,将视频分割为多个独立的镜头。
9.根据权利要求8所述的一种视频场景聚类及浏览方法,其特征在于,在镜头边界检测方法中,取σ=27,T0=2,T1=2,T=5,Tdiff=4,M=20,N=8。
10.根据权利要求7所述的一种视频场景聚类及浏览方法,其特征在于,步骤二中的阈值Tflow=0.3;步骤三中的阈值Tnum=10;步骤五中Twin=4,S1=-4,S2=-6。
CN201310317750.7A 2013-07-26 2013-07-26 一种视频场景聚类及浏览方法 Expired - Fee Related CN103440640B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310317750.7A CN103440640B (zh) 2013-07-26 2013-07-26 一种视频场景聚类及浏览方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310317750.7A CN103440640B (zh) 2013-07-26 2013-07-26 一种视频场景聚类及浏览方法

Publications (2)

Publication Number Publication Date
CN103440640A CN103440640A (zh) 2013-12-11
CN103440640B true CN103440640B (zh) 2016-02-10

Family

ID=49694332

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310317750.7A Expired - Fee Related CN103440640B (zh) 2013-07-26 2013-07-26 一种视频场景聚类及浏览方法

Country Status (1)

Country Link
CN (1) CN103440640B (zh)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015146241A1 (ja) 2014-03-27 2015-10-01 Nkワークス株式会社 画像処理装置
CN104243769A (zh) * 2014-09-12 2014-12-24 刘鹏 基于自适应阈值的视频场景变化检测方法
CN104284241B (zh) * 2014-09-22 2019-01-22 北京奇艺世纪科技有限公司 一种视频剪辑方法和装置
CN104539942B (zh) * 2014-12-26 2017-07-18 江苏赞奇科技股份有限公司 基于帧差聚类的视频镜头切换检测方法及其装置
CN104967885B (zh) * 2015-03-27 2019-01-11 哈尔滨工业大学深圳研究生院 一种基于视频内容感知的广告推荐方法及系统
US9818032B2 (en) * 2015-10-28 2017-11-14 Intel Corporation Automatic video summarization
CN106504242A (zh) * 2016-10-25 2017-03-15 Tcl集团股份有限公司 目标检测方法及系统
CN106791274A (zh) * 2016-12-14 2017-05-31 天脉聚源(北京)科技有限公司 一种场景检测方法及装置
CN107066488B (zh) * 2016-12-27 2021-08-06 东方明珠新媒体股份有限公司 基于影视内容语义分析的影视桥段自动分割方法
CN109213895A (zh) * 2017-07-05 2019-01-15 合网络技术(北京)有限公司 一种视频摘要的生成方法及装置
US10795549B2 (en) 2018-03-12 2020-10-06 International Business Machines Corporation Generating a graphical user interface to navigate video content
CN108509917B (zh) * 2018-03-30 2020-03-03 北京影谱科技股份有限公司 基于镜头类相关性分析的视频场景分割方法和装置
CN108769458A (zh) * 2018-05-08 2018-11-06 东北师范大学 一种深度视频场景分析方法
CN109447022B (zh) * 2018-11-08 2021-04-09 北京奇艺世纪科技有限公司 一种镜头类型识别方法及装置
CN111327945B (zh) * 2018-12-14 2021-03-30 北京沃东天骏信息技术有限公司 用于分割视频的方法和装置
CN110781711A (zh) * 2019-01-21 2020-02-11 北京嘀嘀无限科技发展有限公司 目标对象识别方法、装置、电子设备及存储介质
CN110619284B (zh) * 2019-08-28 2023-09-05 腾讯科技(深圳)有限公司 一种视频场景划分方法、装置、设备及介质
CN110602552B (zh) * 2019-09-16 2022-02-22 广州酷狗计算机科技有限公司 视频合成的方法、装置、终端及计算机可读存储介质
CN111611868A (zh) * 2020-04-24 2020-09-01 上海大学 面向哑语体系的头部动作语义识别系统与方法
CN113014831B (zh) * 2021-03-05 2024-03-12 上海明略人工智能(集团)有限公司 用于对体育视频进行场景获取的方法及装置、设备
CN112804558B (zh) * 2021-04-14 2021-06-25 腾讯科技(深圳)有限公司 视频拆分方法、装置及设备
CN113613065B (zh) * 2021-08-02 2022-09-09 北京百度网讯科技有限公司 视频编辑方法、装置、电子设备以及存储介质
CN114782866B (zh) * 2022-04-20 2024-03-08 山东省计算中心(国家超级计算济南中心) 地理标记视频的相似度确定方法、装置、电子设备及介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7142600B1 (en) * 2003-01-11 2006-11-28 Neomagic Corp. Occlusion/disocclusion detection using K-means clustering near object boundary with comparison of average motion of clusters to object and background motions
CN101394522A (zh) * 2007-09-19 2009-03-25 中国科学院计算技术研究所 一种视频拷贝的检测方法和系统
CN101872346A (zh) * 2009-04-22 2010-10-27 中国科学院自动化研究所 一种自动生成视频导航系统的方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7142600B1 (en) * 2003-01-11 2006-11-28 Neomagic Corp. Occlusion/disocclusion detection using K-means clustering near object boundary with comparison of average motion of clusters to object and background motions
CN101394522A (zh) * 2007-09-19 2009-03-25 中国科学院计算技术研究所 一种视频拷贝的检测方法和系统
CN101872346A (zh) * 2009-04-22 2010-10-27 中国科学院自动化研究所 一种自动生成视频导航系统的方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
一种基于镜头聚类的视频场景分割方法;王学军等;《中国图象图形学报》;20071231;第12卷(第12期);第2127-2131页 *
一种新的视频镜头边界检测及关键帧提取方法;方勇等;《华南理工大学学报》;20041130;第32卷;第18-23页 *
基于镜头关键帧集的视频场景聚类的研究;蔡波等;《计算机工程与应用》;20031010(第28期);第32-35页 *
视频分割与场景聚类算法研究;侯冠华等;《中国传媒大学学报自然科学版》;20060630;第13卷(第2期);第32-37页 *

Also Published As

Publication number Publication date
CN103440640A (zh) 2013-12-11

Similar Documents

Publication Publication Date Title
CN103440640B (zh) 一种视频场景聚类及浏览方法
Cetinic et al. A deep learning perspective on beauty, sentiment, and remembrance of art
Chen et al. A matting method based on full feature coverage
CN103559196B (zh) 一种基于多核典型相关分析的视频检索方法
CN101872346B (zh) 一种自动生成视频导航系统的方法
CN106446015A (zh) 一种基于用户行为偏好的视频内容访问预测与推荐方法
CN101894125B (zh) 一种基于内容的视频分类方法
CN110765854B (zh) 一种视频动作识别方法
Ni et al. Learning to photograph: A compositional perspective
US8467611B2 (en) Video key-frame extraction using bi-level sparsity
CN103200463A (zh) 一种视频摘要生成方法和装置
CN102395984A (zh) 用于视频内容分析的关键帧提取
CN107562947A (zh) 一种移动时空感知下动态即时推荐服务模型建立方法
CN103631932A (zh) 一种对重复视频进行检测的方法
CN101577824B (zh) 基于邻近i帧dc图像相似度的压缩域关键帧提取方法
CN110334718A (zh) 一种基于长短期记忆的二维视频显著性检测方法
CN110457525B (zh) 一种短视频分类方法
Zhang et al. Retargeting semantically-rich photos
CN102236714A (zh) 一种基于xml的交互应用多媒体信息检索方法
CN102495887B (zh) 一种基于关键区域色彩矩阵的视频镜头分割方法及其应用方法
Pan et al. A bottom-up summarization algorithm for videos in the wild
CN102509119A (zh) 一种基于分类器的图像场景分层与对象遮挡处理方法
Yin et al. Event-based semantic image adaptation for user-centric mobile display devices
CN103226586B (zh) 基于能量分布最优策略的视频摘要方法
CN102314613B (zh) 一种基于信息理论与支持向量机的镜头边界检测算法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160210

Termination date: 20200726

CF01 Termination of patent right due to non-payment of annual fee