CN102184221A - 一种基于用户偏好的实时视频摘要生成方法 - Google Patents

一种基于用户偏好的实时视频摘要生成方法 Download PDF

Info

Publication number
CN102184221A
CN102184221A CN2011101165949A CN201110116594A CN102184221A CN 102184221 A CN102184221 A CN 102184221A CN 2011101165949 A CN2011101165949 A CN 2011101165949A CN 201110116594 A CN201110116594 A CN 201110116594A CN 102184221 A CN102184221 A CN 102184221A
Authority
CN
China
Prior art keywords
frame
video
frames
value
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2011101165949A
Other languages
English (en)
Other versions
CN102184221B (zh
Inventor
牛建伟
霍达
童超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhen Rui Beijing Information Technology Co ltd
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN 201110116594 priority Critical patent/CN102184221B/zh
Publication of CN102184221A publication Critical patent/CN102184221A/zh
Application granted granted Critical
Publication of CN102184221B publication Critical patent/CN102184221B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提出了一种基于用户偏好的实时视频摘要生成方法,具体包括:步骤一:计算颜色直方图和像素值联合差异值;步骤二:判断相邻两帧的图像特征是否发生明显变化;步骤三:计算颜色直方图和像素值联合差异值;步骤四:得到潜在视频分段边界;步骤五:设置视频帧序列的关键帧;步骤六:利用最优帧更新关键帧;步骤七:建立高斯混合模型,得到关键帧作为实时视频摘要结果。本发明提出的一种基于用户偏好的实时视频摘要生成方法,建立高斯混合模型学习用户偏好,考虑不同用户对于关键帧的不同需求,优化更新策略,提高用户满意度。

Description

一种基于用户偏好的实时视频摘要生成方法
技术领域
本发明属于图像处理领域,具体涉及一种新型的基于用户偏好的实时视频摘要生成方法。
背景技术
随着移动设备性能的不断提升以及大量的视频分享网站的出现,越来越多的人们选择利用移动设备拍摄视频去与他人分享自己生活中的精彩片段。为了快速的查找和浏览视频片段,人们希望能够对于视频进行标记和摘要。尽管已经有一些工具可以索引和标记视频,例如iMovie,但是这些工具需要大量的,费时的人工参与。同时,当用户正在拍摄视频的同时去进行实时的视频摘要是非常具有挑战性的一项任务。对于用户拍摄的视频而言,由于用户拍摄的视频内容是无规则的,而且视频内容的结构也是没有办法预知的,因此针对这种视频的视频摘要是十分困难的。
这些年来,研究人员提出了许多的针对于家庭视频的视频摘要技术。如Zhai提出了一种利用马尔科夫链的统计学方法将家庭视频分割为不同的逻辑单元。Andreas提出了一种半自动的家庭视频摘要方法,这种方法通过分析家庭视频中所包含的不同类型的运动进行视频分割,然后用户手动的在每个分段中选择关键帧生成视频摘要。Mei提出了一种结合心理学的视频摘要方法,通过分析用户在视频拍摄中的不同意图帮助视频摘要的生成。Saman提出了一种交互的和多级的视频摘要框架,允许用户灵活的选择摘要策略和摘要长度。Takeuchi提出了一种用户自适应的视频摘要系统,该系统通过自动分析用户电脑上的图片库来获得用户的偏好,根据用户的偏好进行关键帧的提取。
尽管这个领域已经发展的很多年,但是大多数的视频摘要的研究都是针对于已经拍摄完成的视频文件在电脑上进行视频摘要,很少有针对于移动设备的研究。传统的视频摘要面临的最大问题就是如何生成用户最感兴趣的摘要。目前所存在的传统的视频摘要技术的工作方式都是在用户视频拍摄完成后,通过数据线将视频文件传输到电脑上,利用成熟的摘要算法进行视频摘要,之后再将摘要结果展现给用户。这样的操作复杂,用户体验差,效率低,浪费用户大量的时间。于此同时,成熟的摘要算法大部分只关注于已经拍摄完成的视频,用户需要等待视频拍摄完成后,方可进行视频摘要,用户对于这个视频摘要的过程也是完全不可见的,用户并不能参与到整个过程中。
发明内容
针对现有技术中存在的问题,本发明提出了一种基于用户偏好的实时视频摘要生成方法。
本发明提出的一种基于用户偏好的实时视频摘要生成方法,建立高斯混合模型学习用户偏好,考虑不同用户对于关键帧的不同需求,优化更新策略,提高用户满意度。
本发明提出的一种基于用户偏好的实时视频摘要生成方法,具体包括以下几个步骤:
步骤一:实时分析当前的视频帧序列S,S={fi|p≤i≤q},其中p和q分别表示视频帧序列S的第一帧和最后一帧,fi表示视频帧序列S中的第i帧;令i=p,从视频帧序列S中的第一帧开始,计算第i帧和第i+1帧的颜色直方图和像素值联合差异值;
步骤二:根据镜头渐变检测理论,设定阈值A,若第i帧和第i+1帧的的颜色直方图和像素值总体差异值大于阈值A,则进入步骤三;否则返回步骤一,并令i为i+1,重新计算第i帧和第i+1帧的颜色直方图和像素值联合差异值,直至获得相邻两帧的图像特征发生明显变化;
步骤三:(1)将视频帧序列S中图像特征发生明显变化的第i帧和第i+1帧之后的视频帧序列S′传送到监测缓存中,j为视频帧序列S′中的任意一帧;
(2)从j=1开始,计算该视频帧序列S′中相邻两帧即第j帧和第j+1帧的颜色直方图和像素值联合差异值;
(3)若该相邻两帧的像素值差异值小于设定阈值B,监测阶段结束,获得的视频帧子序列S″,定义第j+1帧fj+1为潜在视频分段边界,进入步骤四;否则返回步骤一,并令i为i+1,计算第i帧和第i+1帧的颜色直方图和像素值联合差异值;
步骤四:采用菱形运动向量算法,计算步骤三得到的视频帧子序列S″的累计运动向量,计算累计运动向量与视频帧子序列S″中第一帧和最后一帧之间的颜色直方图和像素值联合差异值之积,若该积大于设定阈值C,则潜在的视频分段边界fj+1帧为真实的视频边界;否则返回步骤一,并令i为i+1,重新计算视频帧序列S中第i帧和第i+1帧的颜色直方图和像素值联合差异值;
步骤五:提取fj+1为视频帧序列S的关键帧;
步骤六:将视频帧序列S在fj+1帧之后的所有帧序列进行缓存,得到缓存序列,计算该缓存序列中所有帧的信息富有度、熵值和亮度值,将信息富有度、熵值和亮度值进行归一化,得到均一化值,将最大的均一化值对应的帧作为最优帧,利用最优帧更新关键帧fj+1帧;
步骤七:实时将更新得到的关键帧传输给用户,并实时获得用户选择的关键帧,利用户选择的关键帧建立高斯混合模型 
Figure BDA0000059576520000021
分析用户对于关键帧的偏好;其中k是高斯模型组件N(μm,σm)的个数,μm为每个高斯分布的均值和σm为每个高斯分布的方差,N(μm,σm)表示高斯分布;αm是混合概率,Θ是建立的高斯混合模型的参数空间,RX表示分布函数,k表示高斯混合模型中高斯分布的总个数,m表示其中任意一个高斯分布;
采用期望最大值计算方法,通过高斯混合模型计算得到当前的视频帧序列S中所有的视频帧符合用户偏好的概率,利用符合用户偏好的概率进行关键帧的更新,最终的得到的关键 帧。
本发明的优点在于:
(1)本发明提出的一种基于用户偏好的实时视频摘要生成方法,建立高斯混合模型学习用户偏好,考虑不同用户对于关键帧的不同需求,优化更新策略,提高用户满意度。
(2)本发明提出了一种基于用户偏好的实时视频摘要生成方法,实时生成和呈现摘要结果,用户能够观察和控制整个过程,在节省时间的同时带来新颖的用户体验。
(3)本发明提出了一种基于用户偏好的实时视频摘要生成方法,动态更新实时提取的关键帧,保证关键帧的完整性和最优性。
附图说明
图1:本发明提出的一种基于用户偏好的实时视频摘要生成方法的流程图;
图2:本发明提出的一种基于用户偏好的实时视频摘要生成方法的性能检测图。
具体实施方式
下面将结合附图对本发明作进一步的详细说明。
本发明提出的一种基于用户偏好的实时视频摘要生成方法,如图1所示,具体包括以下几个步骤:
步骤一:实时分析当前的视频帧序列S,S={fi|p≤i≤q},其中p和q分别表示视频帧序列S的第一帧和最后一帧,fi表示视频帧序列S中的第i帧。分析当前视频序列中相邻第i帧和第i+1帧的图像特征,图像特征包括颜色直方图和像素值,令i=p,从视频帧序列S中的第一帧开始,计算第i帧和第i+1帧的颜色直方图和像素值联合差异值TDiffi
其中所述的颜色直方图和像素值联合差异值TDiffi的具体的计算过程为:
(1)第i帧和第i+1帧的颜色直方图差异采用分块方法进行计算,将第i帧和第i+1帧分为M×N块,第i帧和第i+1帧的之间的第k分块的颜色直方图差异HBDiff(fi,k,fi+1,k)为:
HBDiff ( f i , k , f i + 1 , k ) = Σ r = 0 255 | b i , k ( r ) - b i + 1 , k ( r ) | - - - ( 1 )
其中fi,k表示第i帧的第k分块,fi+1,k表示第i+1帧的第k分块,bi,k(r)表示第i帧的第k分块的色调值等于r的像素点的个数,bi+1,k(r)表示第i+1帧的第k分块的色调值等于r的像素点的个数,因此相邻两帧第i帧和第i+1帧的颜色直方图差异HDiff(fi,fi+1)为:
HDiff ( f i , f i + 1 ) = Σ k = 1 M × N HBDiff ( k ) - - - ( 2 )
其中fi表示第i帧,fi+1表示第i+1帧。
(2)按照公式(3)计算相邻两帧第i帧和第i+1帧的像素值差异PDiff(fi,fi+1):
PDiff ( f i , f i + 1 ) = Σ x = 1 , y = 1 w , h | P i ( x , y ) - P i + 1 ( x , y ) | - - - ( 3 )
其中,Pi+1(x,y)表示第i+1帧的像素值,Pi(x,y)表示第i帧像素值,(x,y)表示像素点的坐 标,w表示视频帧的宽度,h表示视频帧的高度。
(3)根据公式(2)和(3),得到第i帧和第i+1帧的颜色直方图和像素值联合差异值TDiffi为:
TDiffi=HDiff(fi-1,fi)×PDiff(fi-1,fi)       (4)
步骤二:根据镜头渐变检测理论,设定阈值A,阈值A优选为10~40,进一步优选为25.8,如果第i帧和第i+1帧的的颜色直方图和像素值总体差异值大于阈值A,说明该相邻两帧第i帧和第i+1帧的图像特征发生明显变化,执行步骤三;否则返回步骤一,并令i=i+1,重新计算第i帧和第i+1帧的颜色直方图和像素值联合差异值,直至获得相邻两帧的图像特征发生明显变化。
步骤三:(1)将视频帧序列S中图像特征发生明显变化的第i帧和第i+1帧之后的视频帧序列S′传送到监测缓存中,该视频帧序列S′具有有连续的N帧,其中N是大于1的自然数,该视频帧序列S′中的第一帧为原视频帧序列S中的第i+2帧,最后一帧为原视频帧序列S中的的最后一帧即第q帧,j为视频帧序列S′中的任意一帧。
(2)从j=1开始,计算该视频帧序列S′中相邻两帧即第j帧和第j+1帧的颜色直方图和像素值联合差异值TDiffj
(3)若该相邻两帧的像素值差异值HDiff小于设定阈值B,阈值B满足0<B≤10,优选为5≤B≤8,监测阶段结束,获得的视频帧子序列S″,视频帧子序列S″由视频帧序列S′中的第一帧至相邻两帧的像素值差异值HDiff小于设定阈值B的第j+1帧组成,定义第j+1帧fj+1为潜在视频分段边界,进入步骤四;否则返回步骤一,令i=i+1,计算第i帧和第i+1帧的颜色直方图和像素值联合差异值;
步骤四:采用菱形运动向量算法,计算步骤三得到的视频帧子序列S″的累计运动向量,按照公式(5)计算累计运动向量与视频帧子序列S″中第一帧和最后一帧之间的颜色直方图和像素值联合差异值TDiff(fi+1,fj+1)之积,若该积大于设定阈值C,阈值C优选为100≤C≤200,则潜在的视频分段边界fj+1帧为真实的视频边界;否则返回步骤一,令i=i+1,计算视频帧序列S中第i帧和第i+1帧的颜色直方图和像素值联合差异值;
Σ m = i + 1 j + 1 MV m × TDiff ( f i + 1 , f j + 1 ) > C - - - ( 5 )
其中 
Figure BDA0000059576520000042
代表视频帧子序列S″的累计运动向量。
步骤五:提取fj+1为视频帧序列S的关键帧。
步骤六:将视频帧序列S在fj+1帧之后的所有帧序列进行缓存,得到缓存序列,计算该缓存序列中所有帧的信息富有程度、熵值和亮度值,计算得到缓存序列中的最优帧。
所述的信息富有程度Gu计算公式为:
Gu=IEMu(W ,H)         (6)
其中,W代表视频帧的宽度,H代表视频帧的长度,IEMu表示信息富有程度函数。所述的熵值Eu的计算公式为:
E u = - Σ x = o 255 p u ( x ) log ( p u ( x ) ) - - - ( 7 )
pu(x)表示帧中第x个像素点的像素值。
所述的亮度值Lu的计算公式为:
L u = g ( Σ x = 1 , y = 1 W , H P u ( x , y ) W × H ) - - - ( 8 )
其中Pu(x,y)表示第i帧的像素值。
将信息富有程度、熵值和亮度值进行归一化,得到均一化值Su,均一化的方法为:
S u = a 1 G u + a 2 E u + a 3 L u a 1 + a 2 + a 3 = 1 - - - ( 9 )
其中,a1、a2、a3为均一化系数,将最大的均一化值对应的帧作为最优帧,利用最优帧更新关键帧fj+1帧。
步骤七:实时将更新得到的关键帧传输给用户,并实时获得用户选择的关键帧,利用户选择的关键帧建立高斯混合模型如公式(10),分析用户对于关键帧的偏好:
R X ( x | Θ ) = Σ m = 1 k α m N ( μ m , σ m ) - - - ( 10 )
其中k是高斯模型组件N(μm,σm)的个数,μm为每个高斯分布的均值和σm为每个高斯分布的方差,N(μm,σm)表示高斯分布;αm是混合概率,Θ是建立的高斯混合模型的参数空间,RX表示分布函数,k表示高斯混合模型中高斯分布的总个数,m表示其中任意一个高斯分布。
采用传统的期望最大值计算方法,通过公式(10)计算得到当前的视频帧序列S中所有的视频帧符合用户偏好的概率,利用符合用户偏好的概率进行关键帧的更新,最终的得到的关键帧即为本发明中实时视频摘要结果。
应用本发明提出的一种基于用户偏好的实时视频摘要生成方法,已经采用了Nokia Symbian 3的SDK,并在诺基N8手机上实现了原型系统,选择15名学生参与本次实验,他们分别被要求使用原型系统拍摄15分钟长度的视频去介绍自己的校园,要求他们在拍摄的过程中要记录自己感兴趣的关键点,分别使用含有用户偏好学习功能的原型系统和不包含用户偏好学习功能的原型系统进行拍摄。如图 2所示,横坐标表示参加测试的15名用户,纵坐标表示关键点的个数,三条曲线分别为用户在拍摄过程中选择的关键点个数、包含本发明提出的用户偏好的实时视频的原型系统最终选择出来的关键点与用户自主选择的关键点的重合个数、不包含用户偏好的实时视频的原型系统最终选择出来的关键点与用户自主选择的 关键点的重合个数。从图 2可以看出,包含用户偏好的实时视频的原型系统提取出的关键点的重合度要大于不包含用户偏好的实时视频的原型系统,因此本发明提出的基于用户偏好学习的实时视频摘要系统提取出的关键帧可以更好反应用户偏好和兴趣点。

Claims (10)

1.一种基于用户偏好的实时视频摘要生成方法,其特征在于:具体包括以下几个步骤:
步骤一:实时分析当前的视频帧序列S,S={fi|p≤i≤q},其中p和q分别表示视频帧序列S的第一帧和最后一帧,fi表示视频帧序列S中的第i帧;令i=p,从视频帧序列S中的第一帧开始,计算第i帧和第i+1帧的颜色直方图和像素值联合差异值;
步骤二:根据镜头渐变检测理论,设定阈值A,若第i帧和第i+1帧的的颜色直方图和像素值总体差异值大于阈值A,则进入步骤三;否则返回步骤一,并令i为i+1,重新计算第i帧和第i+1帧的颜色直方图和像素值联合差异值,直至获得相邻两帧的图像特征发生明显变化;
步骤三:(1)将视频帧序列S中图像特征发生明显变化的第i帧和第i+1帧之后的视频帧序列S′传送到监测缓存中,j为视频帧序列S′中的任意一帧;
(2)从j=1开始,计算该视频帧序列S′中相邻两帧即第j帧和第j+1帧的颜色直方图和像素值联合差异值;
(3)若该相邻两帧的像素值差异值小于设定阈值B,监测阶段结束,获得的视频帧子序列S″,定义第j+1帧fj+1为潜在视频分段边界,进入步骤四;否则返回步骤一,并令i为i+1,计算第i帧和第i+1帧的颜色直方图和像素值联合差异值;
步骤四:采用菱形运动向量算法,计算步骤三得到的视频帧子序列S″的累计运动向量,计算累计运动向量与视频帧子序列S″中第一帧和最后一帧之间的颜色直方图和像素值联合差异值之积,若该积大于设定阈值C,则潜在的视频分段边界fj+1帧为真实的视频边界;否则返回步骤一,并令i为i+1,重新计算视频帧序列S中第i帧和第i+1帧的颜色直方图和像素值联合差异值;
步骤五:提取fj+1为视频帧序列S的关键帧;
步骤六:将视频帧序列S在fj+1帧之后的所有帧序列进行缓存,得到缓存序列,计算该缓存序列中所有帧的信息富有程度Gu、熵值Eu和亮度值Lu,将信息富有程度、熵值和亮度值进行归一化,得到均一化值,将最大的均一化值对应的帧作为最优帧,利用最优帧更新关键帧fj+1帧;
步骤七:实时将更新得到的关键帧传输给用户,并实时获得用户选择的关键帧,利用户选择的关键帧建立高斯混合模型
Figure FDA0000059576510000011
分析用户对于关键帧的偏好;其中k是高斯模型组件N(μm,σm)的个数,μm为每个高斯分布的均值和σm为每个高斯分布的方差,N(μm,σm)表示高斯分布;αm是混合概率,Θ是建立的高斯混合模型的参数空间,RX表示分布函数,k表示高斯混合模型中高斯分布的总个数,m表示其中任意一个高斯分布;
采用期望最大值计算方法,通过高斯混合模型计算得到当前的视频帧序列S中所有的视频帧符合用户偏好的概率,利用符合用户偏好的概率进行关键帧的更新,最终的得到的关键帧。
2.根据权利要求1所述的一种基于用户偏好的实时视频摘要生成方法,其特征在于:所述的步骤一中计算第i帧和第i+1帧的颜色直方图和像素值联合差异值的具体过程为:
(1)第i帧和第i+1帧的颜色直方图差异采用分块方法进行计算,将第i帧和第i+1帧分为M×N块,第i帧和第i+1帧的之间的第k分块的颜色直方图差异HBDiff(fi,k,fi+1,k)为:
HBDiff ( f i , k , f i + 1 , k ) = Σ r = 0 255 | b i , k ( r ) - b i + 1 , k ( r ) |
其中fi,k表示第i帧的第k分块,fi+1,k表示第i+1帧的第k分块,bi,k(r)表示第i帧的第k分块的色调值等于r的像素点的个数,bi+1,k(r)表示第i+1帧的第k分块的色调值等于r的像素点的个数,因此相邻两帧第i帧和第i+1帧的颜色直方图差异HDiff(fi,fi+1)为:
HDiff ( f i , f i + 1 ) = Σ k = 1 M × N HBDiff ( k )
其中fi表示第i帧,fi+1表示第i+1帧;
(2)计算相邻两帧第i帧和第i+1帧的像素值差异PDiff(fi,fi+1):
PDiff ( f i , f i + 1 ) = Σ x = 1 , y = 1 w , h | P i ( x , y ) - P i + 1 ( x , y ) |
其中,Pi+1(x,y)表示第i+1帧的像素值,Pi(x,y)表示第i帧像素值,(x,y)表示像素点的坐标,w表示视频帧的宽度,h表示视频帧的高度;
(3)计算第i帧和第i+1帧的颜色直方图和像素值联合差异值TDiffi为:
TDiffi=HDiff(fi-1,fi)×PDiff(fi-1,fi)。
3.根据权利要求1所述的一种基于用户偏好的实时视频摘要生成方法,其特征在于:所述的步骤二中的阈值A为10~40。
4.根据权利要求1所述的一种基于用户偏好的实时视频摘要生成方法,其特征在于:所述的步骤二中的阈值B满足0<B≤10。
5.根据权利要求4所述的一种基于用户偏好的实时视频摘要生成方法,其特征在于:所述的步骤三中的阈值B满足5≤B≤8。
6.根据权利要求1所述的一种基于用户偏好的实时视频摘要生成方法,其特征在于:所述的步骤四中的阈值C满足100≤C≤200。
7.根据权利要求1所述的一种基于用户偏好的实时视频摘要生成方法,其特征在于:所述的步骤六中的信息富有程度Gu计算公式为Gu=IEMu(W,H),其中,W代表视频帧的宽度,H代表视频帧的长度,IEMu表示信息富有程度函数。
8.根据权利要求1所述的一种基于用户偏好的实时视频摘要生成方法,其特征在于:所述的步骤六中的熵值Eu的计算公式为
Figure FDA0000059576510000024
其中pu(x)表示帧中第x个像素点的像素值。
9.根据权利要求1所述的一种基于用户偏好的实时视频摘要生成方法,其特征在于:所述的步骤六中的亮度值Lu的计算公式为
L u = g ( Σ x = 1 , y = 1 W , H P u ( x , y ) W × H )
其中Pu(x,y)表示第i帧的像素值。
10.根据权利要求1所述的一种基于用户偏好的实时视频摘要生成方法,其特征在于:所述的步骤六中的信息富有度、熵值和亮度值进行归一化的方法具体为:
S u = a 1 G u + a 2 E u + a 3 L u a 1 + a 2 + a 3 = 1
其中,a1、a2、a3为均一化系数,Su为均一化值,Gu为信息富有程度,Eu为熵值,Lu为亮度值。
CN 201110116594 2011-05-06 2011-05-06 一种基于用户偏好的实时视频摘要生成方法 Expired - Fee Related CN102184221B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201110116594 CN102184221B (zh) 2011-05-06 2011-05-06 一种基于用户偏好的实时视频摘要生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201110116594 CN102184221B (zh) 2011-05-06 2011-05-06 一种基于用户偏好的实时视频摘要生成方法

Publications (2)

Publication Number Publication Date
CN102184221A true CN102184221A (zh) 2011-09-14
CN102184221B CN102184221B (zh) 2012-12-19

Family

ID=44570398

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201110116594 Expired - Fee Related CN102184221B (zh) 2011-05-06 2011-05-06 一种基于用户偏好的实时视频摘要生成方法

Country Status (1)

Country Link
CN (1) CN102184221B (zh)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103093458A (zh) * 2012-12-31 2013-05-08 清华大学 关键帧的检测方法及装置
CN103345764A (zh) * 2013-07-12 2013-10-09 西安电子科技大学 一种基于对象内容的双层监控视频摘要生成方法
CN105306960A (zh) * 2015-10-18 2016-02-03 北京航空航天大学 一种用于传输高质量在线课程视频的动态自适应流系统
CN105611430A (zh) * 2014-11-14 2016-05-25 索尼公司 用于处理视频内容的方法和系统
CN105744115A (zh) * 2014-12-24 2016-07-06 索尼公司 用于处理视频内容的方法和系统
CN106227759A (zh) * 2016-07-14 2016-12-14 中用科技有限公司 一种动态生成视频摘要的方法及装置
CN106576151A (zh) * 2014-10-16 2017-04-19 三星电子株式会社 视频处理装置和方法
CN106686403A (zh) * 2016-12-07 2017-05-17 腾讯科技(深圳)有限公司 一种视频预览图生成方法、装置、服务器以及系统
CN106713964A (zh) * 2016-12-05 2017-05-24 乐视控股(北京)有限公司 一种生成视频摘要视点图的方法及装置
CN106776860A (zh) * 2016-11-28 2017-05-31 北京三快在线科技有限公司 一种搜索摘要生成方法及装置
CN106888407A (zh) * 2017-03-28 2017-06-23 腾讯科技(深圳)有限公司 一种视频摘要生成方法及装置
CN107148781A (zh) * 2014-10-09 2017-09-08 图兹公司 产生描绘一或多个事件的定制高光序列
CN107529098A (zh) * 2014-09-04 2017-12-29 英特尔公司 实时视频摘要
CN107729809A (zh) * 2017-09-11 2018-02-23 汕头大学 一种自适应生成视频摘要的方法、装置及其可读存储介质
CN109257645A (zh) * 2018-09-11 2019-01-22 传线网络科技(上海)有限公司 视频封面生成方法及装置
CN109525901A (zh) * 2018-11-27 2019-03-26 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备及计算机可读介质
CN110198467A (zh) * 2018-02-27 2019-09-03 优酷网络技术(北京)有限公司 视频播放方法及装置
CN110366050A (zh) * 2018-04-10 2019-10-22 北京搜狗科技发展有限公司 视频数据的处理方法、装置、电子设备及存储介质
CN110418191A (zh) * 2019-06-24 2019-11-05 华为技术有限公司 一种短视频的生成方法及装置
CN110418156A (zh) * 2019-08-27 2019-11-05 上海掌门科技有限公司 信息处理方法和装置
CN111031390A (zh) * 2019-12-17 2020-04-17 南京航空航天大学 基于动态规划的输出大小固定序列行列式点过程视频概要方法
CN111405293A (zh) * 2020-03-20 2020-07-10 北京达佳互联信息技术有限公司 一种视频传输方法及装置
CN114697764A (zh) * 2022-06-01 2022-07-01 深圳比特微电子科技有限公司 一种生成视频摘要的方法、装置和可读存储介质
US11882345B2 (en) 2014-10-09 2024-01-23 Stats Llc Customized generation of highlights show with narrative component

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040085483A1 (en) * 2002-11-01 2004-05-06 Motorola, Inc. Method and apparatus for reduction of visual content
CN101013444A (zh) * 2007-02-13 2007-08-08 华为技术有限公司 一种自适应生成足球视频摘要的方法和装置
CN101072305A (zh) * 2007-06-08 2007-11-14 华为技术有限公司 镜头分类方法、场景提取方法、摘要生成方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040085483A1 (en) * 2002-11-01 2004-05-06 Motorola, Inc. Method and apparatus for reduction of visual content
CN101013444A (zh) * 2007-02-13 2007-08-08 华为技术有限公司 一种自适应生成足球视频摘要的方法和装置
CN101072305A (zh) * 2007-06-08 2007-11-14 华为技术有限公司 镜头分类方法、场景提取方法、摘要生成方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
卜庆凯等: "一种新的镜头边界检测和静态视频摘要提取方法", 《东南大学学报(自然科学版)》, vol. 37, no. 4, 31 July 2007 (2007-07-31) *

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103093458B (zh) * 2012-12-31 2015-11-25 清华大学 关键帧的检测方法及装置
CN103093458A (zh) * 2012-12-31 2013-05-08 清华大学 关键帧的检测方法及装置
CN103345764A (zh) * 2013-07-12 2013-10-09 西安电子科技大学 一种基于对象内容的双层监控视频摘要生成方法
CN103345764B (zh) * 2013-07-12 2016-02-10 西安电子科技大学 一种基于对象内容的双层监控视频摘要生成方法
CN107529098A (zh) * 2014-09-04 2017-12-29 英特尔公司 实时视频摘要
US10755105B2 (en) 2014-09-04 2020-08-25 Intel Corporation Real time video summarization
US11882345B2 (en) 2014-10-09 2024-01-23 Stats Llc Customized generation of highlights show with narrative component
CN107148781A (zh) * 2014-10-09 2017-09-08 图兹公司 产生描绘一或多个事件的定制高光序列
US11778287B2 (en) 2014-10-09 2023-10-03 Stats Llc Generating a customized highlight sequence depicting multiple events
CN106576151B (zh) * 2014-10-16 2021-06-15 三星电子株式会社 视频处理装置和方法
CN106576151A (zh) * 2014-10-16 2017-04-19 三星电子株式会社 视频处理装置和方法
CN105611430B (zh) * 2014-11-14 2018-10-12 索尼公司 用于处理视频内容的方法和系统
CN105611430A (zh) * 2014-11-14 2016-05-25 索尼公司 用于处理视频内容的方法和系统
CN105744115A (zh) * 2014-12-24 2016-07-06 索尼公司 用于处理视频内容的方法和系统
CN105306960B (zh) * 2015-10-18 2018-05-04 北京航空航天大学 一种用于传输高质量在线课程视频的动态自适应流系统
CN105306960A (zh) * 2015-10-18 2016-02-03 北京航空航天大学 一种用于传输高质量在线课程视频的动态自适应流系统
CN106227759A (zh) * 2016-07-14 2016-12-14 中用科技有限公司 一种动态生成视频摘要的方法及装置
CN106227759B (zh) * 2016-07-14 2019-09-13 中用科技有限公司 一种动态生成视频摘要的方法及装置
CN106776860A (zh) * 2016-11-28 2017-05-31 北京三快在线科技有限公司 一种搜索摘要生成方法及装置
CN106713964A (zh) * 2016-12-05 2017-05-24 乐视控股(北京)有限公司 一种生成视频摘要视点图的方法及装置
CN106686403A (zh) * 2016-12-07 2017-05-17 腾讯科技(深圳)有限公司 一种视频预览图生成方法、装置、服务器以及系统
CN106888407A (zh) * 2017-03-28 2017-06-23 腾讯科技(深圳)有限公司 一种视频摘要生成方法及装置
CN107729809A (zh) * 2017-09-11 2018-02-23 汕头大学 一种自适应生成视频摘要的方法、装置及其可读存储介质
CN107729809B (zh) * 2017-09-11 2021-06-08 汕头大学 一种自适应生成视频摘要的方法、装置及其可读存储介质
CN110198467A (zh) * 2018-02-27 2019-09-03 优酷网络技术(北京)有限公司 视频播放方法及装置
CN110366050A (zh) * 2018-04-10 2019-10-22 北京搜狗科技发展有限公司 视频数据的处理方法、装置、电子设备及存储介质
CN109257645B (zh) * 2018-09-11 2021-11-02 阿里巴巴(中国)有限公司 视频封面生成方法及装置
CN109257645A (zh) * 2018-09-11 2019-01-22 传线网络科技(上海)有限公司 视频封面生成方法及装置
US11601630B2 (en) 2018-11-27 2023-03-07 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Video processing method, electronic device, and non-transitory computer-readable medium
CN109525901A (zh) * 2018-11-27 2019-03-26 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备及计算机可读介质
CN110418191A (zh) * 2019-06-24 2019-11-05 华为技术有限公司 一种短视频的生成方法及装置
CN110418156A (zh) * 2019-08-27 2019-11-05 上海掌门科技有限公司 信息处理方法和装置
CN111031390A (zh) * 2019-12-17 2020-04-17 南京航空航天大学 基于动态规划的输出大小固定序列行列式点过程视频概要方法
CN111405293A (zh) * 2020-03-20 2020-07-10 北京达佳互联信息技术有限公司 一种视频传输方法及装置
CN114697764A (zh) * 2022-06-01 2022-07-01 深圳比特微电子科技有限公司 一种生成视频摘要的方法、装置和可读存储介质

Also Published As

Publication number Publication date
CN102184221B (zh) 2012-12-19

Similar Documents

Publication Publication Date Title
CN102184221B (zh) 一种基于用户偏好的实时视频摘要生成方法
CN110222722A (zh) 交互式图像风格化处理方法、系统、计算设备及存储介质
CN110176226A (zh) 一种语音识别、及语音识别模型训练方法及装置
CN109145766A (zh) 模型训练方法、装置、识别方法、电子设备及存储介质
CN109241834A (zh) 一种基于隐变量的嵌入的群体行为识别方法
CN110163954A (zh) 三维户型模型生成方法、装置、设备及存储介质
CN109934300B (zh) 模型压缩方法、装置、计算机设备及存储介质
CN106778852A (zh) 一种修正误判的图像内容识别方法
CN107102861B (zh) 一种获取开源代码库中函数的向量的方法和系统
CN116383639A (zh) 一种生成对抗网络的知识蒸馏方法、装置、设备及存储介质
CN112818958B (zh) 动作识别方法、装置及存储介质
CN113851113A (zh) 模型训练方法及装置、语音唤醒方法及装置
CN116701706B (zh) 一种基于人工智能的数据处理方法、装置、设备及介质
CN115953330B (zh) 虚拟场景图像的纹理优化方法、装置、设备和存储介质
CN106250873A (zh) 运动目标提取方法及装置
CN107295214A (zh) 插值帧定位方法及装置
CN115984400A (zh) 基于手绘草图的图像自动生成方法及系统
CN115936108A (zh) 基于知识蒸馏的面向多元时序预测图神经网络压缩方法
CN114663710A (zh) 轨迹识别方法、装置、设备及存储介质
CN110796150B (zh) 一种基于情感显著性区域检测的图片情感识别方法
CN114782738B (zh) 联邦学习安全检测方法、装置、电子设备及可读存储介质
CN109977777A (zh) 基于新型RF-Net模型的手势识别方法
Ding et al. Application Analysis of Image Enhancement Method in Deep Learning Image Recognition Scene
CN114898424B (zh) 一种基于双重标签分布的轻量化人脸美学预测方法
CN115249487B (zh) 一种回放边界负样例的增量式生成语音检测方法和系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20161124

Address after: North Fourth Ring Road 100191 Beijing City No. 238 Haidian District Bai Yan building 501C

Patentee after: Zhen Rui (Beijing) Information Technology Co.,Ltd.

Address before: 100191 Haidian District, Xueyuan Road, No. 37,

Patentee before: Beihang University

CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20121219