CN108804578A - 基于一致性片段生成的无监督视频摘要方法 - Google Patents
基于一致性片段生成的无监督视频摘要方法 Download PDFInfo
- Publication number
- CN108804578A CN108804578A CN201810506117.5A CN201810506117A CN108804578A CN 108804578 A CN108804578 A CN 108804578A CN 201810506117 A CN201810506117 A CN 201810506117A CN 108804578 A CN108804578 A CN 108804578A
- Authority
- CN
- China
- Prior art keywords
- segment
- frame
- score
- similarity
- consistency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于一致性片段生成的无监督视频摘要方法,包括以下步骤:原始视频的初始分割;一致性片段合并;通过爬山算法分两步分别优化静态一致性函数和动作一致性函数,迭代地调整每个片段的边界;利用多个图像兴趣度特征,计算每一帧的兴趣度分数,根据每个片段内所有帧的兴趣度分数估计该片段的重要性分数;将所有片段按重要性排序,选择重要性高且总时长接近指定长度的片段,按时间顺序连接,得到最终视频摘要。本发明生成的视频摘要与人类做出的最好视频摘要非常接近。
Description
技术领域
本发明涉及计算机视觉领域中视频摘要技术,具体涉及一种基于一致性片段生成的无监督视频摘要方法。
背景技术
随着科技的发展、智能手机和摄像设备的普及,人们拍摄、保存、分享视频变得越来越方便,这也导致了在巨大的视频数据中找到相关的视频和想要的内容变得非常困难。另外,由于普通用户拍摄技巧不佳,大多数视频通常有噪声、冗余的内容等,造成不好的观看体验。视频摘要技术产生包含原始视频中重要和精彩内容的简短视频,这一技术可以用于解决上述问题。同时,视频摘要技术可以应用于安防领域中大量使用视频监控的场景,如公安行业、交通行业、电力行业、大型展会等。
视频摘要技术有很大的挑战性,因为来自不同文化背景、有着不同经历的人对于哪部分是视频中的精彩内容可能有不一致的观点。另外,较长的视频往往有混乱的结构和许多连续的动作,给提取视频摘要带来较大困难。现有的视频摘要方法大多采用各种计算复杂的模型或需要大量手工标注数据集的训练模型。
发明内容
本发明的目的在于提供一种基于一致性片段生成的无监督视频摘要方法。
实现本发明目的的技术方案为:一种基于一致性片段生成的无监督视频摘要方法,该方法包括以下步骤:
步骤1,以预设的长度将原始视频均匀地分割为多个相同长度的片段;
步骤2,计算每个片段和下一个相邻片段之间的片段静态相似度分数和片段动作相似度分数,并确定对应的两个自适应阈值,判断每个片段是否满足合并条件,对于满足合并条件的片段,合并其与下一个相邻片段,重复这个过程直到没有满足合并条件的片段;所述合并条件为片段的两个相似度分数同时超过各自阈值;
步骤3,用爬山算法分别优化静态一致性函数和动作一致性函数,调整所有片段的边界;
步骤4,计算每个片段内所有帧的兴趣度分数,以此估计每个片段的重要性,基于重要性和时长要求,得到最终的视频摘要结果。
本发明与现有技术相比,其显著特点在于:本发明提出了一种基于一致性片段生成的无监督视频摘要方法,包括原始视频的初分割、一致性片段的合并、一致性片段边界的调整、片段重要性的估计四个过程,实验表明,依据本发明方法生成的视频摘要与人类做出的最好视频摘要非常接近。
附图说明
图1是本发明基于一致性片段生成的无监督视频摘要方法流程图。
图2(a)、图2(b)是基于一致性片段生成的无监督视频摘要方法效果图。
具体实施方式
一种基于一致性片段生成的无监督视频摘要方法,包括以下步骤:
步骤1,以预设的长度将原始视频均匀地分割为多个相同长度的片段;
步骤2,计算每个片段和相邻的下一个片段之间的片段静态相似度分数和片段动作相似度分数,并确定对应的两个自适应阈值,判断每个片段是否满足合并条件,对于满足合并条件的片段,合并其与相邻的下一个片段,重复这个过程直到没有满足合并条件的片段;所述合并条件为片段的两个相似度分数同时超过各自阈值;
步骤3,用爬山算法分别优化静态一致性函数和动作一致性函数,调整所有片段的边界;
步骤4,计算每个片段内所有帧的兴趣度分数,以此估计每个片段的重要性,基于重要性和时长要求,得到最终的视频摘要结果。
进一步的,步骤2中计算每个片段和相邻下一个片段之间的片段静态相似度分数和片段动作相似度分数,具体包括如下步骤:
步骤21,片段静态相似度分数计算如下:
其中,是两个相邻片段C1和C2中间帧和的图像相似度分数,计算如下:
SI(A,B)=α·S1(A,B)+β·S2(A,B)
其中,α和β是权重系数,相加为1;S1为图像轮廓相似度,S2为图像颜色分布相似度,图像轮廓相似度S1通过使用大津法确定阈值,将两幅原始图像A、B首先转换为二值图像Ar和Br,二值图像之间的差异间接反映了图像轮廓相似度:
其中,m和n分别是原始图像的宽和高,k=m*n;
采用直方图匹配的思想计算图像颜色相似度S2,基于原始图像归一化直方图的巴氏距离,计算如下:
其中,HA和HB是原始图像归一化的直方图;
步骤22,除了保证片段静态内容的一致性,还要考虑片段内动作的连续性,即若两个小片段的动作足够相似,在表达同一个动作内容,则应该合并为一个片段;以片段的中间帧作为中心,向前向后各取相同数量的帧,对这个更短的片段使用KLT追踪算法提取光流,基于相邻片段的光流的差异,估计片段动作相似度分数为:
进一步的,步骤2中,通过所有片段的静态相似度分数和动作相似度分数,计算两个自适应阈值:
δ1=max(c1·mean(SC_static),t1)
δ2=max(∈2·mean(SC_motion),t2)
其中,∈1和∈2是参数,取值范围为0~1,mean(·)表示所有片段相似度分数的平均值,t1和t2是两个阈值的下限;
只有当片段静态相似度分数超过阈值δ1,同时片段动作相似度分数超过阈值δ2时,才能合并片段。
进一步的,步骤3中使用爬山算法优化静态一致性函数Fs(Cj):
其中,|·|表示片段的长度,Pl是片段长度的概率,和分别是片段起始帧和结束帧的局部静态相似度分数;一个帧的局部静态相似度分数定义如下:
即该帧与离它最近的μ个帧的平均图像相似度。
进一步的,步骤3中使用爬山算法优化动作一致性函数Fm(Cj):
其中,和分别是片段起始帧和结束帧的局部动作相似度分数;一个帧的局部动作相似度分数是使用KLT追踪算法估计出的动作大小的倒数。
进一步的,步骤4计算每个片段内所有帧的兴趣度分数,具体包括如下步骤:
步骤41,根据图像特征曝光度u1、饱和度u2、色调u3、the rule of thirdsu4、u5、u6和对比度u7,计算每一帧的美学特征分数:
yaes=u1+(1-u2)+u3+u4+(1-u5)+u6+u7
步骤42,通过融合静态和动态视觉显著性,使用视觉注意力模型计算每一帧的注意力分数yatt;
步骤43,基于Tamura纹理特征,计算其方向属性u8和对比度属性u9,每一帧的纹理分数为:
ytex=u8+u9
步骤44,使用KLT追踪算法追踪视频中的特征点,用一帧中所有特征点平移距离的平均值作为光流特征yopt;
步骤45,计算每一帧的色彩特征ycol;
步骤46,依据在高质量的帧中边缘分布聚集在中心的思想,计算帧的空间边缘分布特征yspa:
通过对每个RGB通道分别执行3×3的拉普拉斯滤波,求得滤波后三个通道的平均值,将得到的平均拉普拉斯图像L缩放到100×100并归一化,然后根据上式得到每帧的空间边缘分布特征。
步骤47,计算每帧的兴趣度分数:
y=yaes+yatt+ytex+yopt+ycol+yspa
进一步的,步骤4中根据片段内所有帧的兴趣度分数,估计每个片段的重要性分数IC:
其中,tstart和tend分别代表片段开始帧和结束帧的索引。
进一步的,步骤4中,对每个片段重要性分数按降序排序,选择最重要且总时长接近指定视频摘要时长的片段,按时间顺序连接他们,作为视频摘要结果。
下面结合附图和实施例对本发明进行进一步详细的说明。
实施例
结合图1,一种基于一致性片段生成的无监督视频摘要方法,包括原始视频的初分割、一致性片段的合并、一致性片段边界的调整、片段重要性的估计四个过程;具体包括以下步骤:
步骤1),预先设定片段的初始长度,将原始视频均匀地分割为多个小片段,每个小片段的长度为预设长度。
步骤2),对于在步骤1)中得到的所有片段,计算每个片段和下一个相邻片段之间的片段静态相似度分数SC_static。
其中,是两个相邻片段C1和C2各自的中间帧和的图像相似度分数SI,基于图像轮廓相似度S1和图像颜色分布相似度S2计算如下:
SI(A,B)=α·S1(A,B)+β·S2(A,B)
其中,α和β是权重系数。图像轮廓相似度S1通过使用大津法确定阈值,将两幅原始图像首先转换为二值图像Ar和Br,二值图像之间的差异间接反映了图像轮廓相似度:
其中,m和n分别是原始图像的宽和高,k=m*n。
采用直方图匹配的思想计算图像颜色相似度S2,基于原始图像归一化直方图的巴氏距离计算如下:
其中,HA和HB分别是两幅原始图像归一化的直方图。
步骤3),对于在步骤1)中得到的所有片段,计算每个片段和下一个相邻片段之间的片段动作相似度分数SC_motion。
其中,分别是从两个相邻片段C1和C2中提取出的光流;通过以片段的中间帧作为中心,向前向后各取相同数量的帧,对这个更短的片段使用KLT追踪算法提取光流。
步骤4),以步骤2)和步骤3)得到的所有片段的静态相似度分数、动作相似度分数,计算两个自适应阈值,用于控制合并条件:。
δ1=maX(∈1·mean(SC_static),t1)
δ2=maX(∈2·mean(SC_motion),t2)
其中,∈1和∈2是参数,mean(·)表示所有片段相似度分数的平均值,t1和t2分别是两个阈值的下限。
步骤5),将每个片段的两个相似度分数与两个阈值比较,选出片段静态相似度分数大于等于δ1,同时片段动作相似度分数大于等于δ2的片段,若有,则合并其与其下一个相邻片段成为一个新片段,进入步骤6),若没有,则跳到步骤7)。
步骤6),重复步骤2)、步骤3)、步骤5)。
步骤7),为调整步骤5)中得到的所有一致性片段的边界,使用爬山算法优化静态一致性函数Fs(Cj):
其中,|·|表示片段的长度,Pl是片段长度的概率,和分别是片段起始帧和结束帧的局部静态相似度分数;一个帧的局部静态相似度分数定义如下:
即该帧与离它最近的μ个帧的平均图像相似度。
步骤8),对于步骤7)中得到的所有片段再一次调整边界,使用爬山算法优化动作一致性函数Fm(Cj):
其中,和分别是片段起始帧和结束帧的局部动作相似度分数;一个帧的局部动作相似度分数是使用KLT追踪算法估计出的动作大小的倒数。
步骤9),利用一组图像兴趣度特征,计算步骤8)中得到的每个片段的每一帧的各个特征分数,特征包括:
a、美学特征,根据图像曝光度u1、饱和度u2、色调u3、the rule of thirdsu4、u5、u6和对比度u7,计算美学特征分数:
yaes=u1+(1-u2)+u3+u4+(1-u5)+u6+u7
b、视觉注意力,通过融合静态和动态视觉显著性,使用视觉注意力模型计算每一帧的注意力分数yatt;
c、纹理特征,基于Tamura纹理特征,计算其方向属性u8和对比度属性u9,每一帧的纹理分数为:
ytex=u8+u9
d、光流特征,使用KLT追踪算法追踪视频中的特征点,用一帧中所有特征点平移距离的平均值作为光流特征yopt;
e、色彩特征ycol;
f、空间边缘分布特征,通过对每个RGB通道分别执行3×3的拉普拉斯滤波,求得滤波后三个通道的平均值,将得到的平均拉普拉斯图像L缩放到
100×100并归一化,然后计算:
步骤10),由步骤9)中得到的每一帧的各个特征分数,计算每一帧的兴趣度分数:
y=yaes+yatt+ytex+yopt+ycol+yspa
步骤11),由步骤10)得到的每一帧的兴趣度分数,估计每个片段的重要性分数:
其中,tstart和tend分别代表片段开始帧和结束帧的索引。
步骤12)、对每个片段重要性分数按降序排序,选择最重要且总时长接近指定视频摘要时长的片段,按时间顺序连接他们,作为视频摘要结果。
图2(a)、图2(b)是基于一致性片段生成的无监督视频摘要方法效果图,两个视频摘要样例,每个片段取一帧表示,Ours为视频摘要结果,Human为人类做出的最好视频摘要,从图中可看出,本发明的结果与人类做出的最好视频摘要非常接近。
Claims (8)
1.一种基于一致性片段生成的无监督视频摘要方法,其特征在于,包括以下步骤:
步骤1,以预设的长度将原始视频均匀地分割为多个相同长度的片段;
步骤2,计算每个片段和相邻的下一个片段之间的片段静态相似度分数和片段动作相似度分数,并确定对应的两个自适应阈值,判断每个片段是否满足合并条件,对于满足合并条件的片段,合并其与相邻的下一个片段,重复这个过程直到没有满足合并条件的片段;所述合并条件为片段的两个相似度分数同时超过各自阈值;
步骤3,用爬山算法分别优化静态一致性函数和动作一致性函数,调整所有片段的边界;
步骤4,计算每个片段内所有帧的兴趣度分数,以此估计每个片段的重要性,基于重要性和时长要求,得到最终的视频摘要结果。
2.根据权利要求1所述的基于一致性片段生成的无监督视频摘要方法,其特征在于,步骤2中计算每个片段和相邻下一个片段之间的片段静态相似度分数和片段动作相似度分数,具体包括如下步骤:
步骤21,片段静态相似度分数计算如下:
其中,是两个相邻片段C1和C2中间帧和的图像相似度分数,计算如下:
SI(A,B)=α·S1(A,B)+β·S2(A,B)
其中,α和β是权重系数,相加为1;S1为图像轮廓相似度,S2为图像颜色分布相似度,图像轮廓相似度S1通过使用大津法确定阈值,将两幅原始图像A、B首先转换为二值图像Ar和Br,二值图像之间的差异间接反映了图像轮廓相似度:
其中,m和n分别是原始图像的宽和高,k=m*n;
采用直方图匹配的思想计算图像颜色相似度S2,基于原始图像归一化直方图的巴氏距离,计算如下:
其中,HA和HB是原始图像归一化的直方图;
步骤22,以片段的中间帧作为中心,向前向后各取相同数量的帧,对这个更短的片段使用KLT追踪算法提取光流,基于相邻片段的光流的差异,估计片段动作相似度分数为:
3.根据权利要求1所述的基于一致性片段生成的无监督视频摘要方法,其特征在于,步骤2中,通过所有片段的静态相似度分数和动作相似度分数,计算两个自适应阈值:
δ1=max(∈1·mean(SC_static),t1)
δ2=max(∈2·mean(SC_motion),t2)
其中,∈1和∈2是参数,取值范围为0~1,mean(·)表示所有片段相似度分数的平均值,t1和t2是两个阈值的下限;
只有当片段静态相似度分数超过阈值δ1,同时片段动作相似度分数超过阈值δ2时,才能合并片段。
4.根据权利要求1所述的基于一致性片段生成的无监督视频摘要方法,其特征在于,步骤3中使用爬山算法优化静态一致性函数Fs(Cj):
其中,|·|表示片段的长度,Pl是片段长度的概率,和分别是片段起始帧和结束帧的局部静态相似度分数;一个帧的局部静态相似度分数定义如下:
即该帧与离它最近的μ个帧的平均图像相似度。
5.根据权利要求1所述的基于一致性片段生成的无监督视频摘要方法,其特征在于,步骤3中使用爬山算法优化动作一致性函数Fm(Cj):
其中,和分别是片段起始帧和结束帧的局部动作相似度分数;一个帧的局部动作相似度分数是使用KLT追踪算法估计出的动作大小的倒数。
6.根据权利要求1所述的基于一致性片段生成的无监督视频摘要方法,其特征在于,步骤4计算每个片段内所有帧的兴趣度分数,具体包括如下步骤:
步骤41,根据图像特征曝光度u1、饱和度u2、色调u3、the rule of thirds u4、u5、u6和对比度u7,计算每一帧的美学特征分数:
yaes=u1+(1-u2)+u3+u4+(1-u5)+u6+u7
步骤42,通过融合静态和动态视觉显著性,使用视觉注意力模型计算每一帧的注意力分数yatt;
步骤43,基于Tamura纹理特征,计算其方向属性u8和对比度属性u9,每一帧的纹理分数为:
ytex=u8+u9
步骤44,使用KLT追踪算法追踪视频中的特征点,用一帧中所有特征点平移距离的平均值作为光流特征yopt;
步骤45,计算每一帧的色彩特征ycol;
步骤46,依据在高质量的帧中边缘分布聚集在中心的思想,计算帧的空间边缘分布特征yspa:
通过对每个RGB通道分别执行3×3的拉普拉斯滤波,求得滤波后三个通道的平均值,将得到的平均拉普拉斯图像L缩放到100×100并归一化,然后根据上式得到每帧的空间边缘分布特征。
步骤47,计算每帧的兴趣度分数:
y=yaes+yatt+ytex+yopt+ycol+yspa。
7.根据权利要求1所述的基于一致性片段生成的无监督视频摘要方法,其特征在于,步骤4中根据片段内所有帧的兴趣度分数,估计每个片段的重要性分数IC:
其中,tstart和tend分别代表片段开始帧和结束帧的索引。
8.根据权利要求1所述的基于一致性片段生成的无监督视频摘要方法,其特征在于,步骤4中,对每个片段重要性分数按降序排序,选择最重要且总时长接近指定视频摘要时长的片段,按时间顺序连接他们,作为视频摘要结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810506117.5A CN108804578B (zh) | 2018-05-24 | 2018-05-24 | 基于一致性片段生成的无监督视频摘要方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810506117.5A CN108804578B (zh) | 2018-05-24 | 2018-05-24 | 基于一致性片段生成的无监督视频摘要方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108804578A true CN108804578A (zh) | 2018-11-13 |
CN108804578B CN108804578B (zh) | 2022-06-07 |
Family
ID=64091619
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810506117.5A Active CN108804578B (zh) | 2018-05-24 | 2018-05-24 | 基于一致性片段生成的无监督视频摘要方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108804578B (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109726765A (zh) * | 2019-01-02 | 2019-05-07 | 京东方科技集团股份有限公司 | 一种视频分类问题的样本提取方法及装置 |
CN109857906A (zh) * | 2019-01-10 | 2019-06-07 | 天津大学 | 基于查询的无监督深度学习的多视频摘要方法 |
CN109889923A (zh) * | 2019-02-28 | 2019-06-14 | 杭州一知智能科技有限公司 | 利用结合视频描述的分层自注意力网络总结视频的方法 |
CN109922373A (zh) * | 2019-03-14 | 2019-06-21 | 上海极链网络科技有限公司 | 视频处理方法、装置及存储介质 |
CN110059661A (zh) * | 2019-04-26 | 2019-07-26 | 腾讯科技(深圳)有限公司 | 动作识别方法、人机交互方法、装置及存储介质 |
CN110287938A (zh) * | 2019-07-02 | 2019-09-27 | 齐鲁工业大学 | 基于关键片段检测的事件识别方法、系统、设备及介质 |
CN110287374A (zh) * | 2019-06-14 | 2019-09-27 | 天津大学 | 一种基于分布一致性的自注意力视频摘要方法 |
CN110413838A (zh) * | 2019-07-15 | 2019-11-05 | 上海交通大学 | 一种无监督视频摘要模型及其建立方法 |
CN110472499A (zh) * | 2019-07-09 | 2019-11-19 | 平安科技(深圳)有限公司 | 一种行人重识别的方法及装置 |
CN110602552A (zh) * | 2019-09-16 | 2019-12-20 | 广州酷狗计算机科技有限公司 | 视频合成的方法、装置、终端及计算机可读存储介质 |
CN110996169A (zh) * | 2019-07-12 | 2020-04-10 | 北京达佳互联信息技术有限公司 | 剪辑视频的方法、装置、电子设备及计算机可读存储介质 |
CN111914119A (zh) * | 2020-08-12 | 2020-11-10 | 山东大学 | 一种基于动静态特征融合的视频摘要方法 |
CN113225488A (zh) * | 2020-02-05 | 2021-08-06 | 字节跳动有限公司 | 一种视频处理方法、装置、电子设备及存储介质 |
CN113225586A (zh) * | 2020-02-05 | 2021-08-06 | 字节跳动有限公司 | 视频处理方法、装置、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103150373A (zh) * | 2013-03-08 | 2013-06-12 | 北京理工大学 | 一种高满意度视频摘要生成方法 |
US20160299968A1 (en) * | 2015-04-09 | 2016-10-13 | Yahoo! Inc. | Topical based media content summarization system and method |
CN106851437A (zh) * | 2017-01-17 | 2017-06-13 | 南通同洲电子有限责任公司 | 一种提取视频摘要的方法 |
CN107222795A (zh) * | 2017-06-23 | 2017-09-29 | 南京理工大学 | 一种多特征融合的视频摘要生成方法 |
-
2018
- 2018-05-24 CN CN201810506117.5A patent/CN108804578B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103150373A (zh) * | 2013-03-08 | 2013-06-12 | 北京理工大学 | 一种高满意度视频摘要生成方法 |
US20160299968A1 (en) * | 2015-04-09 | 2016-10-13 | Yahoo! Inc. | Topical based media content summarization system and method |
CN106851437A (zh) * | 2017-01-17 | 2017-06-13 | 南通同洲电子有限责任公司 | 一种提取视频摘要的方法 |
CN107222795A (zh) * | 2017-06-23 | 2017-09-29 | 南京理工大学 | 一种多特征融合的视频摘要生成方法 |
Non-Patent Citations (1)
Title |
---|
李佳桐: "自适应视频摘要算法研究", 《中国优秀博硕士学位论文全文数据库(博士) 信息科技辑》 * |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109726765A (zh) * | 2019-01-02 | 2019-05-07 | 京东方科技集团股份有限公司 | 一种视频分类问题的样本提取方法及装置 |
CN109857906A (zh) * | 2019-01-10 | 2019-06-07 | 天津大学 | 基于查询的无监督深度学习的多视频摘要方法 |
CN109857906B (zh) * | 2019-01-10 | 2023-04-07 | 天津大学 | 基于查询的无监督深度学习的多视频摘要方法 |
CN109889923B (zh) * | 2019-02-28 | 2021-03-26 | 杭州一知智能科技有限公司 | 利用结合视频描述的分层自注意力网络总结视频的方法 |
CN109889923A (zh) * | 2019-02-28 | 2019-06-14 | 杭州一知智能科技有限公司 | 利用结合视频描述的分层自注意力网络总结视频的方法 |
CN109922373A (zh) * | 2019-03-14 | 2019-06-21 | 上海极链网络科技有限公司 | 视频处理方法、装置及存储介质 |
CN110059661B (zh) * | 2019-04-26 | 2022-11-22 | 腾讯科技(深圳)有限公司 | 动作识别方法、人机交互方法、装置及存储介质 |
CN110059661A (zh) * | 2019-04-26 | 2019-07-26 | 腾讯科技(深圳)有限公司 | 动作识别方法、人机交互方法、装置及存储介质 |
CN110287374A (zh) * | 2019-06-14 | 2019-09-27 | 天津大学 | 一种基于分布一致性的自注意力视频摘要方法 |
CN110287374B (zh) * | 2019-06-14 | 2023-01-03 | 天津大学 | 一种基于分布一致性的自注意力视频摘要方法 |
CN110287938A (zh) * | 2019-07-02 | 2019-09-27 | 齐鲁工业大学 | 基于关键片段检测的事件识别方法、系统、设备及介质 |
CN110287938B (zh) * | 2019-07-02 | 2021-06-04 | 齐鲁工业大学 | 基于关键片段检测的事件识别方法、系统、设备及介质 |
CN110472499A (zh) * | 2019-07-09 | 2019-11-19 | 平安科技(深圳)有限公司 | 一种行人重识别的方法及装置 |
CN110472499B (zh) * | 2019-07-09 | 2024-01-30 | 平安科技(深圳)有限公司 | 一种行人重识别的方法及装置 |
CN110996169A (zh) * | 2019-07-12 | 2020-04-10 | 北京达佳互联信息技术有限公司 | 剪辑视频的方法、装置、电子设备及计算机可读存储介质 |
CN110413838A (zh) * | 2019-07-15 | 2019-11-05 | 上海交通大学 | 一种无监督视频摘要模型及其建立方法 |
CN110602552A (zh) * | 2019-09-16 | 2019-12-20 | 广州酷狗计算机科技有限公司 | 视频合成的方法、装置、终端及计算机可读存储介质 |
CN110602552B (zh) * | 2019-09-16 | 2022-02-22 | 广州酷狗计算机科技有限公司 | 视频合成的方法、装置、终端及计算机可读存储介质 |
CN113225586A (zh) * | 2020-02-05 | 2021-08-06 | 字节跳动有限公司 | 视频处理方法、装置、电子设备及存储介质 |
CN113225586B (zh) * | 2020-02-05 | 2023-03-10 | 字节跳动有限公司 | 视频处理方法、装置、电子设备及存储介质 |
CN113225488A (zh) * | 2020-02-05 | 2021-08-06 | 字节跳动有限公司 | 一种视频处理方法、装置、电子设备及存储介质 |
CN113225488B (zh) * | 2020-02-05 | 2023-10-20 | 字节跳动有限公司 | 一种视频处理方法、装置、电子设备及存储介质 |
CN111914119B (zh) * | 2020-08-12 | 2022-03-18 | 山东大学 | 一种基于动静态特征融合的视频摘要方法 |
CN111914119A (zh) * | 2020-08-12 | 2020-11-10 | 山东大学 | 一种基于动静态特征融合的视频摘要方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108804578B (zh) | 2022-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108804578A (zh) | 基于一致性片段生成的无监督视频摘要方法 | |
Tang et al. | Content-based photo quality assessment | |
US8983152B2 (en) | Image masks for face-related selection and processing in images | |
Dhavalikar et al. | Face detection and facial expression recognition system | |
CN103186763B (zh) | 人脸识别系统及方法 | |
WO1999023600A1 (en) | Video signal face region detection | |
WO2018233205A1 (zh) | 使用高斯惩罚检测图像中行人的方法 | |
Karaman et al. | Human daily activities indexing in videos from wearable cameras for monitoring of patients with dementia diseases | |
Sun et al. | Content-aware rate control scheme for HEVC based on static and dynamic saliency detection | |
CN102665062A (zh) | 一种使视频中目标物体图像稳定的方法及装置 | |
WO2012162981A1 (zh) | 一种视频人物分割的方法及装置 | |
CN108446642A (zh) | 一种快速人脸识别系统 | |
Shaham et al. | Deformation aware image compression | |
Minaee et al. | Screen content image segmentation using sparse decomposition and total variation minimization | |
CN108334870A (zh) | Ar设备数据服务器状态的远程监控系统 | |
Rathgeb et al. | Effects of severe image compression on iris segmentation performance | |
Chai et al. | A Bayesian skin/non-skin color classifier using non-parametric density estimation | |
CN114187166A (zh) | 图像处理方法、智能终端及存储介质 | |
CN108446639A (zh) | 低功耗增强现实设备 | |
CN108491798A (zh) | 基于个性化特征的人脸识别方法 | |
Guan | Robust eye detection from facial image based on multi-cue facial information | |
Abdullah-Al-Wadud et al. | Region-of-interest selection for skin detection based applications | |
Zhang et al. | SID-NISM: A self-supervised low-light image enhancement framework | |
Drew et al. | Clustering of compressed illumination-invariant chromaticity signatures for efficient video summarization | |
Hu et al. | A Preprocessing Method of Facial Expression Image under Different Illumination |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |