CN104683885A - 一种基于近邻保持重构的视频关键帧摘要提取方法 - Google Patents

一种基于近邻保持重构的视频关键帧摘要提取方法 Download PDF

Info

Publication number
CN104683885A
CN104683885A CN201510058003.5A CN201510058003A CN104683885A CN 104683885 A CN104683885 A CN 104683885A CN 201510058003 A CN201510058003 A CN 201510058003A CN 104683885 A CN104683885 A CN 104683885A
Authority
CN
China
Prior art keywords
video
frame
picture
key frame
neighbour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510058003.5A
Other languages
English (en)
Inventor
陈纯
何占盈
卜佳俊
高珊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201510058003.5A priority Critical patent/CN104683885A/zh
Publication of CN104683885A publication Critical patent/CN104683885A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8549Creating video summaries, e.g. movie trailer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/738Presentation of query results
    • G06F16/739Presentation of query results in form of a video summary, e.g. the video summary being a video sequence, a composite still image or having synthesized frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

基于近邻保持重构的视频关键帧摘要提取方法:从视频数据库中获取视频,作为待抽取关键帧摘要的目标视频;针对每个目标视频,抽取该视频中的每一张帧图片,作为该视频关键帧摘要的备选图片库;获取备选图片库中每张帧图片的全局特征和局部特征,并以此将每张帧图片表示为一个向量;计算帧图片之间的相似度,并以此得到帧图片之间的近邻关系;利用近邻保持重构算法,从备选图片库中挑选出既包含视频主要内容又具有最小冗余信息的最优关键帧图片;将挑选出来的关键帧图片提取出来,组成该目标视频的摘要。

Description

一种基于近邻保持重构的视频关键帧摘要提取方法
技术领域
本发明涉及视频关键帧摘要提取方法的技术领域,特别是基于近邻重构的视频关键帧摘要提取方法。
背景技术
随着数码相机和摄像机在日常生活中的普及,人们总是淹没在万维网成千上万的视频数据中。为了帮助用户管理和浏览这些数量庞大的视频,研究者们通过定义最重要和最适宜的内容来将整段的视频数据压缩成为视频摘要。一个简单而有效的基于内容的视频摘要方法是基于关键帧提取的视频摘要,该方法为视频索引、视频浏览和视频检索等应用提供了合适的抽象摘要。每个视频关键帧是一个能够表示视频无声内容的静态图片,所以后续可以被其他图片处理算法所分析利用。通过浏览几张最重要的关键帧,用户可以快速了解整个视频,从而可以花费较少的时间从成千上万个视频中找到自己感兴趣的那一个。尤其是在今天,各种在线电影都会为用户提供重点时刻的关键帧以方便用户播放影片时可以跳过不感兴趣的片段同时又不错过重要的内容,为用户提供了方便有效的播放导航功能。由于电影数据量太过庞大而使得人工标注变得过于费时且不切实际,所以自动关键帧提取成为了近年来的研究热门。
研究者们已经提出了一些基于关键帧提取的视频摘要方法。然而,他们都面临同样一个问题,那就是原本充满视频信息流、音频信息流甚至文本信息流的整个视频与几张静态关键帧图片之间的信息鸿沟问题。传统的基于关键正提取的视频摘要技术主要关注于关键帧之间的区别并且往往采用聚类的方式得到关键帧。据我们所知,只有很少的研究从数据重构的角度考虑视频摘要。而且,视频中的帧流信息能量(information energy)总是呈现波浪状。这是因为随着时间的推移,视频中的重要内容帧和过渡内容帧总是交替出现导致的。而线性重构则无法体现这一时间上的结构以及视频帧的局部聚集性,所以直接将线性重构应用于视频摘要无法有效地提取出高质量的关键帧摘要。我们提出了一种全新的方法,即近邻保持重构,该方法为原视频的每一帧构建一个能够保持其近邻结构重构模型,并通过最小化整个视频与重构模型之间的误差来找到最优的关键帧集合作为原视频的关键帧摘要。我们认为从一个视频中选择几个帧图片作为高质量的关键帧摘要的话,这些帧图片应该要能够最佳重构原视频。因此,原视频与重构模型之间的重构误差天然成为了衡量关键帧质量的标准,即重构误差越小,关键帧摘要质量越好。从空间的角度考虑,我们提出的近邻保持重构算法旨在选择出那些能够张成原视频帧空间内部的固有子空间的帧集合,因此这些帧也能够覆盖原视频的核心信息。
发明内容
本发明要克服现有技术的上述缺点,提出一种基于近邻保持重构的视频关键帧摘要提取方法,以帮助用户管理和浏览互联网上数量庞大的视频数据。
一种基于近邻保持重构的视频关键帧摘要提取方法,包括:
1)从视频数据库中获取视频,作为待抽取关键帧摘要的目标视频;
2)针对每个目标视频,抽取该视频中的每一张帧图片,作为该视频关键帧摘要的备选图片库;
3)获取备选图片库中每张帧图片的全局特征和局部特征,并以此将每张帧图片表示为一个向量;
4)计算帧图片之间的相似度,并以此得到帧图片之间的近邻关系;
5)利用近邻保持重构算法,从备选图片库中挑选出既包含视频主要内容又具有最小冗余信息的最优关键帧图片;
6)将挑选出来的关键帧图片提取出来,组成该目标视频的摘要。
步骤3)所述的获取备选图片库中每张帧图片的全局特征和局部特征,并以此将每张帧图片表示为一个向量,包括:
31)提取图片的颜色直方图,得到256维的全局特征;
32)提取图片的SIFT特征点,并聚类得到500维的局部特征;
33)将两种特征合并得到756维的图片特征向量。
步骤4)所述的计算帧图片之间的相似度,包括:
41)设第i张帧图片向量为vi,第j张帧图片向量为vj
42)这两张帧图片之间的相似度Wij为:
步骤4)所述的帧图片之间的近邻关系,包括:
43)针对第i张帧图片,找到与其相似度最高的另外40张帧图片作为它的近邻,并记录第i张帧图片与它的每个近邻的相似度的值;
44)遍历所有的帧图片,找到它们的近邻并记录相似度的值。
步骤5)所述的近邻保持重构算法,包括:
51)若目标视频包含n张帧图片,用{vi|i=1,2,...,n}表示,即;要提取的目标摘要包含m(m<n)张关键帧图片,用{xk|k=s1,s2,...,sm}表示,其中每张关键帧图片都来自目标视频的原有帧,即xk∈{vi|i=1,2,...n},{s1,s2,...,sm}是摘要关键帧xk∈X在原视频帧图片集合V中的编号;
52)设原视频帧图片vi经关键帧摘要图片集重构后为fi(X),其中矩阵X的每一行是一个xk,则最小化如下近邻保持函数可以保持原视频帧图片之间的近邻结构:
ij||fi(X)-fj(X)||2Wij
因为构成摘要的这些关键帧图片是从原视频帧图片中选出来的,即其中矩阵V的每一行是一个vi,所以当这些关键帧被选定时,这几张关键帧图片的重构尤其要精确;为了体现这一点,给定摘要关键帧xk时,设其对应的重构帧为fk(X),则近邻保持函数修改如下:
Σ ij | | f i ( X ) - f j ( X ) | | 2 W ij + λ Σ k = s 1 s m | | x k - f k ( X ) | | 2
其中λ是控制两个加法因子的权重变量;
根据近邻保持函数,则我们可以得到近邻保持重构的表达式如下:
F=λ(L+λM)-1MV
其中矩阵F的每一行是一个fi(X);并引入一个大小为n×n的对角矩阵M作为标识;当i∈{s1,s2,...,sm}时,M矩阵的第i个对角元素为1,其余元素都为0;这样的M矩阵可以用来标识第i个原视频帧图片是否被选择成为摘要关键帧;
经过数学上的等价转换,可以得到原视频V和近邻保持重构F之间的重构误差如下:
L ( V , F ; M ) = | | V - F | | F 2 = | | ( L + λM ) - 1 LV | | F 2 ;
53)最小化如上式所示的重构误差,得到最优的M,并根据M的非零对角线元素挑选出既包含视频主要内容又具有最小冗余信息的最优关键帧图片。
本发明的优点是:
附图说明
图1是本发明的方法流程图。
具体实施方式
参照附图,进一步说明本发明:
一种基于近邻保持重构的视频关键帧摘要提取方法,具体步骤包括:
1)从视频数据库中获取视频,作为待抽取关键帧摘要的目标视频;
2)针对每个目标视频,抽取该视频中的每一张帧图片,作为该视频关键帧摘要的备选图片库;
3)获取备选图片库中每张帧图片的全局特征和局部特征,并以此将每张帧图片表示为一个向量;
4)计算帧图片之间的相似度,并以此得到帧图片之间的近邻关系;
5)利用近邻保持重构算法,从备选图片库中挑选出既包含视频主要内容又具有最小冗余信息的最优关键帧图片;
6)将挑选出来的关键帧图片提取出来,组成该目标视频的摘要。
步骤3)所述的获取备选图片库中每张帧图片的全局特征和局部特征,并以此将每张帧图片表示为一个向量,具体包括:
31)提取图片的颜色直方图,得到256维的全局特征;
32)提取图片的SIFT特征点,并聚类得到500维的局部特征;
33)将两种特征合并得到756维的图片特征向量。
步骤4)所述的计算帧图片之间的相似度,具体包括:
31)设第i张帧图片向量为vi,第j张帧图片向量为vj
32)这两张帧图片之间的相似度Wij为:
步骤4)所述的帧图片之间的近邻关系,具体包括:
41)针对第i张帧图片,找到与其相似度最高的另外40张帧图片作为它的近邻,并记录第i张帧图片与它的每个近邻的相似度的值;
2)遍历所有的帧图片,找到它们的近邻并记录相似度的值。
步骤5)中所述的近邻保持重构算法:
51)若目标视频包含n张帧图片,用{vi|i=1,2,...,n}表示,即;要提取的目标摘要包含m(m<n)张关键帧图片,用{xk|k=s1,s2,...,sm}表示,其中每张关键帧图片都来自目标视频的原有帧,即xk∈{vi|i=1,2,...n},{s1,s2,...,sm}是摘要关键帧xk∈X在原视频帧图片集合V中的编号;
52)设原视频帧图片vi经关键帧摘要图片集重构后为fi(X),其中矩阵X的每一行是一个xk,则最小化如下近邻保持函数可以保持原视频帧图片之间的近邻结构:
ij||fi(X)-fj(X)||2Wij
因为构成摘要的这些关键帧图片是从原视频帧图片中选出来的,即其中矩阵V的每一行是一个vi,所以当这些关键帧被选定时,这几张关键帧图片的重构尤其要精确;为了体现这一点,给定摘要关键帧xk时,设其对应的重构帧为fk(X),则近邻保持函数修改如下:
Σ ij | | f i ( X ) - f j ( X ) | | 2 W ij + λ Σ k = s 1 s m | | x k - f k ( X ) | | 2
其中λ是控制两个加法因子的权重变量;
根据近邻保持函数,则我们可以得到近邻保持重构的表达式如下:
F=λ(L+λM)-1MV
其中矩阵F的每一行是一个fi(X);并引入一个大小为n×n的对角矩阵M作为标识;当i∈{s1,s2,...,sm}时,M矩阵的第i个对角元素为1,其余元素都为0;这样的M矩阵可以用来标识第i个原视频帧图片是否被选择成为摘要关键帧;
经过数学上的等价转换,可以得到原视频V和近邻保持重构F之间的重构误差如下:
L ( V , F ; M ) = | | V - F | | F 2 = | | ( L + λM ) - 1 LV | | F 2 ;
53)最小化如上式所示的重构误差,得到最优的M,并根据M的非零对角线元素挑选出既包含视频主要内容又具有最小冗余信息的最优关键帧图片。
本说明书实施例所述的内容仅仅是对发明构思的实现形式的列举,本发明的保护范围的不应当被视为仅限于实施例所陈述的具体形式,本发明的保护范围也及于本领域技术人员根据本发明构思所能够想到的等同技术手段。

Claims (5)

1.一种基于近邻保持重构的视频关键帧摘要提取方法,包括:
1)从视频数据库中获取视频,作为待抽取关键帧摘要的目标视频;
2)针对每个目标视频,抽取该视频中的每一张帧图片,作为该视频关键帧摘要的备选图片库;
3)获取备选图片库中每张帧图片的全局特征和局部特征,并以此将每张帧图片表示为一个向量;
4)计算帧图片之间的相似度,并以此得到帧图片之间的近邻关系;
5)利用近邻保持重构算法,从备选图片库中挑选出既包含视频主要内容又具有最小冗余信息的最优关键帧图片;
6)将挑选出来的关键帧图片提取出来,组成该目标视频的摘要。
2.如权利要求1所述的一种基于近邻保持重构的视频关键帧摘要提取方法,其特征在于:步骤3)所述的获取备选图片库中每张帧图片的全局特征和局部特征,并以此将每张帧图片表示为一个向量,包括:
31)提取图片的颜色直方图,得到256维的全局特征;
32)提取图片的SIFT特征点,并聚类得到500维的局部特征;
33)将两种特征合并得到756维的图片特征向量。
3.如权利要求1所述的的一种基于近邻保持重构的视频关键帧摘要提取方法,其特征在于:步骤4)所述的计算帧图片之间的相似度,包括:
41)设第i张帧图片向量为vi,第j张帧图片向量为vj
42)这两张帧图片之间的相似度Wij为:
4.如权利要求1所述的一种基于近邻保持重构的视频关键帧摘要提取方法,其特征在于:步骤4)中所述的帧图片之间的近邻关系,包括:
43)针对第i张帧图片,找到与其相似度最高的另外40张帧图片作为它的近邻,并记录第i张帧图片与它的每个近邻的相似度的值;
44)遍历所有的帧图片,找到它们的近邻并记录相似度的值。
5.如权利要求1所述的一种基于近邻保持重构的视频关键帧摘要提取方法,其特征在于:步骤5)中所述的近邻保持重构算法,包括:
51)若目标视频包含n张帧图片,用表示,即;要提取的目标摘要包含m(m<n)张关键帧图片,用{xk|k=s1,s2,…,sm}表示,其中每张关键帧图片都来自目标视频的原有帧,即{s1,s2,…,sm}是摘要关键帧xk∈X在原视频帧图片集合V中的编号;
52)设原视频帧图片vi经关键帧摘要图片集重构后为fi(X),其中矩阵X的每一行是一个xk,则最小化如下近邻保持函数可以保持原视频帧图片之间的近邻结构:
ij||fi(X)-fj(X)||2Wij
因为构成摘要的这些关键帧图片是从原视频帧图片中选出来的,即其中矩阵V的每一行是一个vi,所以当这些关键帧被选定时,这几张关键帧图片的重构尤其要精确;为了体现这一点,给定摘要关键帧xk时,设其对应的重构帧为fk(X),则近邻保持函数修改如下:
Σ ij | | f i ( X ) - f j ( X ) | | 2 W ij + λ Σ k = s 1 s m | | x k - f k ( X ) | | 2
其中λ是控制两个加法因子的权重变量;
根据近邻保持函数,则我们可以得到近邻保持重构的表达式如下:
F=λ(L+λM)-1MV
其中矩阵F的每一行是一个fi(X);并引入一个大小为n×n的对角矩阵M作为标识;当i∈{s1,s2,…,sm}时,M矩阵的第i个对角元素为1,其余元素都为0;这样的M矩阵可以用来标识第i个原视频帧图片是否被选择成为摘要关键帧;
经过数学上的等价转换,可以得到原视频V和近邻保持重构F之间的重构误差如下:
L ( V , F ; M ) = | | V - F | | F 2 = | | ( L + λM ) - 1 LV | | F 2 ;
53)最小化如上式所示的重构误差,得到最优的M,并根据M的非零对角线元素挑选出既包含视频主要内容又具有最小冗余信息的最优关键帧图片。
CN201510058003.5A 2015-02-04 2015-02-04 一种基于近邻保持重构的视频关键帧摘要提取方法 Pending CN104683885A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510058003.5A CN104683885A (zh) 2015-02-04 2015-02-04 一种基于近邻保持重构的视频关键帧摘要提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510058003.5A CN104683885A (zh) 2015-02-04 2015-02-04 一种基于近邻保持重构的视频关键帧摘要提取方法

Publications (1)

Publication Number Publication Date
CN104683885A true CN104683885A (zh) 2015-06-03

Family

ID=53318356

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510058003.5A Pending CN104683885A (zh) 2015-02-04 2015-02-04 一种基于近邻保持重构的视频关键帧摘要提取方法

Country Status (1)

Country Link
CN (1) CN104683885A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105677911A (zh) * 2016-02-29 2016-06-15 浙江大学 一种最佳内容重构的无障碍快速阅读方法
CN106610993A (zh) * 2015-10-23 2017-05-03 北京国双科技有限公司 视频预览的展示方法、装置
CN107027051A (zh) * 2016-07-26 2017-08-08 中国科学院自动化研究所 一种基于线性动态系统的视频关键帧提取方法
CN108881950A (zh) * 2018-05-30 2018-11-23 北京奇艺世纪科技有限公司 一种视频处理的方法和装置
CN109359048A (zh) * 2018-11-02 2019-02-19 北京奇虎科技有限公司 一种生成测试报告的方法、装置及电子设备
WO2019085941A1 (zh) * 2017-10-31 2019-05-09 腾讯科技(深圳)有限公司 一种关键帧提取方法、装置和存储介质
CN109889923A (zh) * 2019-02-28 2019-06-14 杭州一知智能科技有限公司 利用结合视频描述的分层自注意力网络总结视频的方法
CN110516689A (zh) * 2019-08-30 2019-11-29 北京达佳互联信息技术有限公司 图像处理方法、装置以及电子设备、存储介质
CN110650379A (zh) * 2019-09-26 2020-01-03 北京达佳互联信息技术有限公司 视频摘要生成方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050180730A1 (en) * 2004-02-18 2005-08-18 Samsung Electronics Co., Ltd. Method, medium, and apparatus for summarizing a plurality of frames
CN101398855A (zh) * 2008-10-24 2009-04-01 清华大学 一种视频关键帧提取方法和系统
CN101453649A (zh) * 2008-12-30 2009-06-10 浙江大学 压缩域视频流的关键帧提取方法
CN101464893A (zh) * 2008-12-31 2009-06-24 清华大学 一种提取视频摘要的方法及装置
CN104008174A (zh) * 2014-06-04 2014-08-27 北京工业大学 一种海量图像检索的隐私保护索引生成方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050180730A1 (en) * 2004-02-18 2005-08-18 Samsung Electronics Co., Ltd. Method, medium, and apparatus for summarizing a plurality of frames
CN101398855A (zh) * 2008-10-24 2009-04-01 清华大学 一种视频关键帧提取方法和系统
CN101453649A (zh) * 2008-12-30 2009-06-10 浙江大学 压缩域视频流的关键帧提取方法
CN101464893A (zh) * 2008-12-31 2009-06-24 清华大学 一种提取视频摘要的方法及装置
CN104008174A (zh) * 2014-06-04 2014-08-27 北京工业大学 一种海量图像检索的隐私保护索引生成方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZHANYING HE, CHUN CHEN, JIAJUN BU, CANWANG, LIJUN ZHANG: "Document Summarization Based on Data Reconstruction", 《THE TWENTY-SIXTH AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106610993A (zh) * 2015-10-23 2017-05-03 北京国双科技有限公司 视频预览的展示方法、装置
CN105677911A (zh) * 2016-02-29 2016-06-15 浙江大学 一种最佳内容重构的无障碍快速阅读方法
CN105677911B (zh) * 2016-02-29 2019-05-17 浙江大学 一种最佳内容重构的无障碍快速阅读方法
CN107027051A (zh) * 2016-07-26 2017-08-08 中国科学院自动化研究所 一种基于线性动态系统的视频关键帧提取方法
CN107027051B (zh) * 2016-07-26 2019-11-08 中国科学院自动化研究所 一种基于线性动态系统的视频关键帧提取方法
WO2019085941A1 (zh) * 2017-10-31 2019-05-09 腾讯科技(深圳)有限公司 一种关键帧提取方法、装置和存储介质
CN108881950A (zh) * 2018-05-30 2018-11-23 北京奇艺世纪科技有限公司 一种视频处理的方法和装置
CN109359048A (zh) * 2018-11-02 2019-02-19 北京奇虎科技有限公司 一种生成测试报告的方法、装置及电子设备
CN109889923A (zh) * 2019-02-28 2019-06-14 杭州一知智能科技有限公司 利用结合视频描述的分层自注意力网络总结视频的方法
CN109889923B (zh) * 2019-02-28 2021-03-26 杭州一知智能科技有限公司 利用结合视频描述的分层自注意力网络总结视频的方法
CN110516689A (zh) * 2019-08-30 2019-11-29 北京达佳互联信息技术有限公司 图像处理方法、装置以及电子设备、存储介质
CN110650379A (zh) * 2019-09-26 2020-01-03 北京达佳互联信息技术有限公司 视频摘要生成方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN104683885A (zh) 一种基于近邻保持重构的视频关键帧摘要提取方法
US8645123B2 (en) Image-based semantic distance
US11095594B2 (en) Location resolution of social media posts
CN112163122B (zh) 确定目标视频的标签的方法、装置、计算设备及存储介质
Roy et al. Towards cross-domain learning for social video popularity prediction
US11019017B2 (en) Social media influence of geographic locations
Kuanar et al. Video key frame extraction through dynamic Delaunay clustering with a structural constraint
Borth et al. Large-scale visual sentiment ontology and detectors using adjective noun pairs
US8452778B1 (en) Training of adapted classifiers for video categorization
Mei et al. Near-lossless semantic video summarization and its applications to video analysis
Sen et al. Video skimming: Taxonomy and comprehensive survey
Hidayati et al. Popularity meter: An influence-and aesthetics-aware social media popularity predictor
Guo et al. Spatial and temporal scoring for egocentric video summarization
Panda et al. Scalable video summarization using skeleton graph and random walk
Thepade et al. Novel visual content summarization in videos using keyframe extraction with Thepade's Sorted Ternary Block truncation Coding and Assorted similarity measures
Pan et al. A bottom-up summarization algorithm for videos in the wild
Otani et al. Video summarization using textual descriptions for authoring video blogs
Lin et al. Discovering multirelational structure in social media streams
Fei et al. Learning user interest with improved triplet deep ranking and web-image priors for topic-related video summarization
Huang et al. Tag refinement of micro-videos by learning from multiple data sources
Ma et al. Robust video summarization using collaborative representation of adjacent frames
Vrochidis et al. Utilizing implicit user feedback to improve interactive video retrieval
Baraldi et al. Scene-driven retrieval in edited videos using aesthetic and semantic deep features
Mandal et al. VDA: Deep learning based visual data analysis in integrated edge to cloud computing environment
Wu et al. DA-ResNet: dual-stream ResNet with attention mechanism for classroom video summary

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20150603

RJ01 Rejection of invention patent application after publication