CN107590442A - 一种基于卷积神经网络的视频语义场景分割方法 - Google Patents
一种基于卷积神经网络的视频语义场景分割方法 Download PDFInfo
- Publication number
- CN107590442A CN107590442A CN201710725996.6A CN201710725996A CN107590442A CN 107590442 A CN107590442 A CN 107590442A CN 201710725996 A CN201710725996 A CN 201710725996A CN 107590442 A CN107590442 A CN 107590442A
- Authority
- CN
- China
- Prior art keywords
- camera lens
- frame
- distance
- cluster
- feature vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于卷积神经网络的视频语义场景分割方法,主要分为两个部分,一部分是在镜头分割的基础上构建卷积神经网络,再利用构造好的卷积神经网络得到视频关键帧的语义特征向量;另一部分是根据语义特征向量,利用前后关键帧的时间连续性,计算两个镜头关键帧之间的语义特征向量的巴氏距离,通过衡量巴氏距离得到镜头关键帧的语义相似度。利用卷积神经网络输出不同语义的概率估计值作为该帧的语义特征向量。考虑到连续时间内场景划分的时序问题,结合两个镜头关键帧的语义特征以及镜头间的时序特征距离,比较镜头相似度,从而得到最后的场景分割结果。本发明方法具有一定的普适性,在训练集足够的情况下,有着较好的场景分割效果。
Description
技术领域
本发明属于图像处理和机器视觉中的视频场景分割技术领域,更具体地,涉及一种基于卷积神经网络的视频语义场景分割方法。
背景技术
通常情况下,人们并不从视频镜头层面上来理解视频内容,而更习惯从场景层次上去理解视频内容,这是因为镜头只是视频结构中的一个组成单元,不能完整的表达语义信息,容易造成信息的丢失。但场景是一个镜头类的集合,包含着大量的语义信息,因此更加符合人们的理解习惯,也使得视频场景分割的研究更具有现实意义。
将内容上有联系的一系列镜头结合起来,用来描述视频中含有某一语义信息的事件或者活动,我们称之为镜头聚类。得到的镜头簇也可称之为场景、事件、情节、故事单元等。显而易见,场景聚类具有时序相关的特性,按照摄像拍摄手法的不同可以分为三种形式:连续场景、交叉场景和混合场景。正是因为场景没有标准的定义,视频的类型又丰富多样,因此目前仍没有一个行之有效的场景分割方法。但研究者们提出的各种视频场景分割方法也给该问题提供了解决思路。
一般地,视频场景分割可以分为传统的场景分割和利用机器学习的场景分割两种。传统的视频场景分割不需要加入人工标记,主要采用视频关键帧底层图像特征,如基于谱聚类和基于分层聚类的视频场景分割方法。该类方法缺乏很好的可伸缩性,大多数情况下都需要人工的方式来完成关键帧特征的选取以及最终聚类数目的确定,对于聚类的效率和聚类质量有着直接影响。其次视频底层结构与高层结构之间还存在着语义鸿沟的问题。
目前大多数视频场景分割都是基于传统分割方法,首先提取镜头关键帧的单特征或者多特征,然后进行多特征融合,利用相似度比较方法进行聚类,最后得到场景分割结果。虽然算法结构简单,时间性能较好,但特征提取过程和融合的过程中容易造成信息的丢失,并且未考虑到视频场景分割的时序性问题,因此对于略为复杂的场景分类情形效果较差。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种基于卷积神经网络的视频语义场景分割方法,由此解决现有视频场景分割方法在特征提取过程和融合的过程中容易造成信息的丢失,并且未考虑到视频场景分割的时序性问题而导致的对场景分类效果较差的技术问题。
为实现上述目的,本发明提供了一种基于卷积神经网络的视频语义场景分割方法,包括:
对待分割视频进行镜头分割得到分割后的镜头,取每个镜头的中间帧作为镜头关键帧;
取待分割视频中的部分视频帧作为网络训练样本集,取镜头关键帧作为测试样本集,并对网络训练样本集中的图像以及测试样本集中的图像进行缩小;
基于缩小后的网络训练样本集以及缩小后的测试样本集对卷积神经网络进行训练,输出每个镜头关键帧的语义特征向量;
利用每个镜头关键帧的语义特征向量以及镜头时序特征,计算镜头之间的距离,然后逐一比较镜头之间的距离,将镜头距离小于预设阈值的镜头作为同一镜头簇,最后将每个镜头簇的末尾镜头的最后一帧作为场景边界,由此完成场景分割。
优选地,镜头关键帧的语义特征向量表示为:F=(F1,F2,…,Fi,…,Fn),其中,yi表示镜头关键帧的第i个特征,Fi表示镜头关键帧经标准化后的第i个特征,n表示语义特征向量的维数。
优选地,所述利用每个镜头关键帧的语义特征向量以及镜头时序特征,计算镜头之间的距离,包括:
由得到镜头p与镜头q之间的语义特征向量之间的距离d1,其中,Fp表示镜头p关键帧的语义特征向量,Fq表示镜头q关键帧的语义特征向量,Fp(j)表示镜头p关键帧的语义特征向量中的第j个特征,Fq(j)表示镜头q关键帧的语义特征向量中的第j个特征;
由得到镜头p与镜头q之间的时序特征距离,其中,mp表示镜头p的中间帧序号,mq表示镜头q的中间帧序号,l表示待分割视频总帧数;
由D=d1+αd2得到镜头p与镜头q之间的镜头距离,其中,α表示时序特征的加权系数。
优选地,所述逐一比较镜头之间的距离,将镜头距离小于预设阈值的镜头作为同一镜头簇,最后将每个镜头簇的末尾镜头的最后一帧作为场景边界,由此完成场景分割,包括:
(1)分别将每个镜头作为一个镜头簇;
(2)依次计算第一个镜头簇中的镜头与预设范围内的镜头簇中的镜头之间的镜头距离,将镜头距离小于预设阈值的镜头作为同一个目标镜头簇;
(3)以目标镜头簇内的最后一个镜头作为起点,依次计算该最后一个镜头与预设范围内的镜头簇中的镜头之间的镜头距离,将镜头距离小于预设阈值的镜头归为目标镜头簇;
(4)重复执行步骤(3),直至搜索不到满足镜头距离小于预设阈值的镜头;
(5)以目标镜头簇的下一个镜头作为起点,重复执行步骤(2)~步骤(4),直至搜索结束;
(6)将每个目标镜头簇的末尾镜头的最后一帧作为场景边界,以此完成场景分割。
优选地,所述预设范围为:其中,Stotal表示镜头总帧数,Smin表示最短的镜头帧数,Smax表示最长的镜头帧数,videorate表示帧率,m表示视频帧数。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,能够取得下列有益效果:
1、本发明利用卷积神经网络提取图像特征,既保证了镜头信息的完备性,又避免了特征选取不当以及多特征融合造成的信息丢失,本发明具有较高的特征提取准确率。
2、本发明提出了基于语义向量的镜头重叠链方法,更好的利用了关键帧的高层语义和视频流的时序关系,有利于视频场景分割正确率的提高。
附图说明
图1是本发明实施例提供的一种基于卷积神经网络的视频语义场景分割方法的流程示意图;
图2是本发明实施例提供的一种卷积神经网络结构示意图;
图3是本发明实施例提供的一种卷积神经网络中每一层的可视化结果示意图;
图4是本发明实施例提供的一种样例视频的场景分割效果图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
针对现有的视频场景分割方法中,特征提取或者融合过程导致的场景语义分类错误,聚类算法未考虑到场景的时序特性等不足之处,本发明提供了一种基于卷积神经网络的视频语义场景分割方法,能最大限度完善场景语义分类的不足以及提高聚类的准确率。
视频场景分割的目的在于得到一段视频流中场景的聚类结果,将一段视频线切分为多个相互独立的镜头,然后根据镜头相似性得到多个镜头簇也称为场景。其他的基于机器学习的视频场景分割方法,利用镜头的单特征或多特征融合的方式,对测试视频中的目标物体进行分类,通过比较两个镜头中目标物体的相似度从而判断是否属于同一场景。这种借助目标物体来区分是否属于同一场景的方式,容易出现较大的误差。本发明结合卷积神经网络提取图像特征,将镜头的特征表示为由场景相似度组成的语义概念矢量,这种表示形式既可以得到较为完善的图像特征,又可以获得初步的场景分类结果,对后续的场景聚类步骤有重要意义。
如图1所示为本发明实施例提供的一种基于卷积神经网络的视频语义场景分割方法的流程示意图,在图1所示的方法中,包括以下步骤:
S1:对待分割视频进行镜头分割得到分割后的镜头,取每个镜头的中间帧作为镜头关键帧;
其中,镜头分割可以采用以下方式实现:
为了便于对本发明实施例的理解,以Imagelab视频场景分割数据集RAI dataset中的第三部视频为例,数据集网址为:http://imagelab.ing.unimore.it/imagelab/researchActivity.asp?idActivity=19,在镜头分割过程中,提取视频每一帧的颜色直方图,其中颜色直方图是将图像的RGB三通道分别划分为32个灰度级。然后在进行镜头边界检测时,利用两帧之间的距离来表示两帧或相隔数帧之间是否发生了突变和渐变。假设给出一段视频的两个连续镜头,e表示前一个镜头的结束帧,s表示后一个镜头的起始帧。F表示颜色特征,计算两帧之间的差异公式如下:
其中,n=(e+s)/2表示两个镜头的帧间位置,d(F(n-w),F(n+w))为第i帧和第j帧的帧间距离,距离计算公式利用了卡方距离和欧氏距离的加权和:
根据实际设置w的初始值为0.5。同时为了纠正由于某些原因导致属于同一镜头的两帧间距离超过阈值这一误检。算法定义了一个误差峰值T,当两者之间的距离仍大于此峰值时,则认为镜头在此处确实发生了突变或渐变。通过计算各变化候选区域与相邻视频帧的差异极值,达到修正误检帧的效果。具体计算公式如下:
C={ti=(fi,li)}
其中,fi代表变化候选区域首帧所在的位置,li代表区域尾帧的位置。在检测渐变区域时,从变化区域的最后一帧开始至少要大于Ts帧后才进行变化检测。在Ts帧之外,重复上述的合并验证过程,当w=0.5时检测突变区域;检测突变区域时,不断增大w的值以寻找有显著性变化的位置从而确定最后的渐变镜头区域。具体过程如下:
Step1:初始化参数:帧间差异阈值为T=80,误检的峰值阈值为Tp=40,Ts=20,两帧中值w=0.5,最大帧中值为1.5,镜头候选变化集记为C,镜头变化集记为Tr;
Step2:当w=0.5时,检测的是镜头是否发生了突变;具体方法是:遍历整个视频流的视频帧,提取所有视频帧的RGB颜色直方图,利用卡方距离和欧式距离计算相邻两帧帧间差异值。若差异值大于阈值T,则认为该位置可能发生了镜头突变,并将该变化域放入到候选变化集中。由于在录制视频过程中可能会存在镜头剧烈抖动的情况,进而可能导致本来没有发生变化的两帧之间的差异值超过阈值T。故而,还要对候选变化集做一个误差检测,即计算差异峰值Peak。对候选变化集中的每一个变化域求取最大差异值max,然后计算候选变化域开始前的最后一帧与变化域的第一帧的差异值和候选变化域的最后一帧与变化域结束后的第一帧的差异值的较小值min,然后将最大差异值max减去min得到差异峰值Peak。若该值大于阈值Tp,则认为在此变化域处确实发生了突变,并将此变化域放入到镜头变化集Tr中。同时,在此变化域后面设置一个安全区域Ts,对于在此安全区域范围内的视频帧或者候选变化域不再进行镜头边界检测。直至遍历整个候选变化集,从而完成突变镜头边界检测。
Step3:完成突变检测后,逐步增加w的值,增加步长为0.5,从而进行渐变镜头边界检测,原理与突变检测基本一致,但是有几个细节地方在此做出说明:此处求取的是相隔2w帧的两帧帧间差异值;在计算峰值Peak时,求取min时,计算的是变化域开始前的倒数第2w帧与变化域的第一帧的差异值和变化域结束后的第2w帧与变化域的最后一帧的差异值的较小值;
Step4:在完成突变检测和渐变检测之后,按照镜头变化集,将部分合并起来,得到最终镜头分割结果。
在上述镜头分割之后,针对已分割好的镜头,取每个镜头中间帧作为镜头关键帧,选取方式见公式(1):
其中,frame表示每一个镜头的视频帧集合,Length表示该镜头的长度,Keyframe则代表该镜头的关键帧。
S2:取待分割视频中的部分视频帧作为网络训练样本集,取镜头关键帧作为测试样本集,并对网络训练样本集中的图像以及测试样本集中的图像进行缩小;
其中,在步骤S2中可以利用双三次插值算法对样本集图像进行缩小,原理如下:
对于每一个待求像素点x,其像素值可由其相邻左右各两个像素加权求得:
其中,对于不同的s值有三次插值基函数如下:
先利用公式(2)(3)可以对每个4×4窗口内每个纵列求临时插值像素点,然后对这四个临时像素点利用同样的原理求得最终的待求像素点像素,从而实现图像缩小。
S3:基于缩小后的网络训练样本集以及缩小后的测试样本集对卷积神经网络进行训练,输出每个镜头关键帧的语义特征向量;
其中,在步骤S3中主要包括卷积神经网络初始化、卷积神经网络前向传播、卷积神经网络反向传播以及语义向量获取。
卷积神经网络初始化:搭建好网络结构后,包含输入层、卷积层、池化层和输出层。对于输出层,先设置n维场景语义向量,训练集中样本属于哪个场景语义就将向量对应位置置1,反之置0。然后需要对权值参数进行初始化,即初始化卷积核。卷积核内权值参数全部随机初始化至内,其中ni和ni+1分别代表该层和下一层内卷积核内参数数量,而偏置参数则统一初始化为0。
卷积神经网络前向传播:卷积层的计算方式如下:
其中,*代表卷积操作,X(l,k)表示第l层第k组特征映射,X(l-1,p)表示第l-1层第p组特征映射,W(l,k,p)表示第l-1层中第p组特征映射到第l层中第k组特征映射中的卷积核,b(l ,k)表示第l层第k组偏置,nl-1表示第l-1层的特征映射个数。
池化层与卷积层不同之处在于,如果采用平均池化,则是取每个窗口内的平均值,并设置合适步长使每个窗口不重合,通过这种方式可以较好的保留图像背景信息。如果采用最大值池化,则需要对每个窗口取其窗口内最大值作为输出,通过这种方式可以较好地保留图像细节信息。对于其相邻卷积层每个m×m的池化区域有计算公式如下:
g_max(x)=xmax (7)
最后全连接层处的计算方式类似于卷积层的形式:
f(W,b,x)=a=f(∑wx+b) (8)
卷积神经网络的损失函数取均方误差:
其中y为真实样本标签,a为实际输出,m×m表示池化区域的尺寸,xk表示每个池化区域第k个像素点,xmax表示每个池化区域的最大像素点,W表示各层的权值矩阵,w表示权值矩阵W中的每一个权值,x表示输入样本。
卷积神经网络反向传播:反向传播是利用误差不断修正权值和偏置参数的过程。
(a)全连接层到池化层。
记z=∑wx+b,全连接层处的参数梯度求解如下:
其中,J(W,b,x,y)表示在输入为x,输出标签为y的情况下,现有的权值矩阵W和偏置b带来的均方误差。
(b)池化层到卷积层。
对于平均池化,其实质上是对于上一层特征映射采用全1矩阵进行卷积的过程,因此误差值应该是等值传递的,然后再除以均值化所计算用的窗口大小m2。另外,误差传递至池化层时,误差矩阵大小将与其池化层内每个特征映射大小一致,因此需要先将误差矩阵大小扩大。这里可以使用克罗内克积对误差矩阵进行扩展,计算方式如下:
此处A即为池化层处的大小为x×y的误差矩阵,B为m×m的全矩阵,由此可得卷积层输出处的误差传递矩阵
又由于卷积层处设有激励函数,因此此时卷积层l的误差传递矩阵变成了:
其中,Xl表示第l层的输入矩阵,Xl+1表示第l+1层的输入矩阵,即第l层的输出矩阵。
(c)卷积层到池化层/输入层。
从卷积层到池化层的误差传递矩阵将变成:
其中代表相关操作。因此卷积层出的权值和偏置梯度可以根据相邻两层的误差传递矩阵通过卷积求得,具体方式如下:
其中,rot180表示矩阵旋转180°,N为样本数,Wl和bl分别表示第l层的权值和偏置矩阵,最后对每个权值和偏置进行更新:
其中,μ表示权值更新速率。
语义向量获取:每个镜头关键帧在经过卷积神经网络后可得到一组n维特征向量y,然后通过如下公式即可得到镜头关键帧最终的语义特征向量F:F=(F1,F2,…,Fi,…,Fn),其中,
yi表示镜头关键帧的第i个特征,Fi表示镜头关键帧经标准后的第i个特征,n表示语义特征向量的维数。
S4:利用每个镜头关键帧的语义特征向量以及镜头时序特征,计算镜头之间的距离,然后逐一比较镜头之间的距离,将镜头距离小于预设阈值的镜头作为同一镜头簇,最后将每个镜头簇的末尾镜头的最后一帧作为场景边界,由此完成场景分割。
其中,在步骤S4中,利用每个镜头关键帧的语义特征向量以及镜头时序特征,计算镜头之间的距离,具体包括:
由得到镜头p与镜头q之间的语义特征向量之间的距离d1,其中,Fp表示镜头p关键帧的语义特征向量,Fq表示镜头q关键帧的语义特征向量,Fp(j)表示镜头p关键帧的语义特征向量中的第j个特征,Fq(j)表示镜头q关键帧的语义特征向量中的第j个特征;
由得到镜头p与镜头q之间的时序特征距离,其中,mp表示镜头p的中间帧序号,mq表示镜头q的中间帧序号,l表示待分割视频总帧数,且d2∈(0,1);
由D=d1+αd2得到镜头p与镜头q之间的镜头距离,其中,α表示时序特征的加权系数,可以由实际需要进行确定。
其中,在步骤S4中,逐一比较镜头之间的距离,将镜头距离小于预设阈值的镜头作为同一镜头簇,最后将每个镜头簇的末尾镜头的最后一帧作为场景边界,由此完成场景分割,包括:
(1)分别将每个镜头作为一个镜头簇;
(2)依次计算第一个镜头簇中的镜头与预设范围内的镜头簇中的镜头之间的镜头距离,将镜头距离小于预设阈值的镜头作为同一个目标镜头簇;
(3)以目标镜头簇内的最后一个镜头作为起点,依次计算该最后一个镜头与预设范围内的镜头簇中的镜头之间的镜头距离,将镜头距离小于预设阈值的镜头归为目标镜头簇;
(4)重复执行步骤(3),直至搜索不到满足镜头距离小于预设阈值的镜头;
(5)以目标镜头簇的下一个镜头作为起点,重复执行步骤(2)~步骤(4),直至搜索结束;
(6)将每个目标镜头簇的末尾镜头的最后一帧作为场景边界,以此完成场景分割。
其中,预设范围为:
其中,Stotal表示镜头总帧数,Smin表示最短的镜头帧数,Smax表示最长的镜头帧数,videorate表示帧率,m表示视频帧数。
为了便于对本发明提出的一种基于卷积神经网络的视频语义场景分割方法的理解,下面以一个具体的实施例对本发明方法进行验证。
在本发明实施例中,随机选取来自9个场景部分视频帧作为网络训练集,设定了9维语义向量。取每个镜头的关键帧灰度图像作为测试集,再利用双三次插值算法将样本集图像进行缩小至28×28,最后拉伸为一条长为784的一维向量。
卷积网络结构包含输入层、卷积层、池化层和输出层。对于输出层,先设置9维场景语义向量,训练集中样本属于哪个场景语义就将向量对应位置置1,反之置0。然后需要对权值参数进行初始化,即初始化卷积核。卷积核内权值参数全部随机初始化至内,其中ni和ni+1分别代表该层和下一层内卷积核内参数数量,而偏置参数则统一初始化为0。网络结构如图2所示,参数如下:
C1:6个5×5的卷积核,步长为1,采用sigmoid激励函数;
S1:2×2的滤波器,采用平均池化方式;
C2:12个5×5的卷积核,步长为1,采用sigmoid激励函数;
S2:2×2的滤波器,采用平均池化方式;
F1:全连接层,192个节点,也采用sigmoid激励函数。
卷积网络训练效果如图3所示。
利用每个镜头关键帧的语义特征向量以及镜头时序特征,计算镜头之间的距离,其中以卷积网络训练所输出的9维向量作为语义特征,两语义特征之间的距离用巴氏距离衡量:
其中,p和q分别表示两镜头的语义向量。另外,两镜头的时序特征距离计算如下:
其中m是镜头的中间帧序号,l是总帧数,d2∈(0,1)。
因此,镜头间距离D=d1+αd2。
α={0,5,10,15,20,25,30},优选30。
通过改进镜头重叠链的搜索方式,其具体搜索方式如下:
(1)先将每个镜头各自作为一个镜头簇,从第一个镜头簇开始逐一比较镜头之间的距离,若镜头簇距离小于阈值thresh(优选为1),则将其作为同一镜头簇;
(2)以该镜头簇内最后一个镜头作为起点进行下一轮比较;
(3)对于每一个镜头簇,每一轮仅与规定范围R内的镜头作比较,直至搜索完毕;
其中,Stotal指的是镜头总帧数,Smin指的是最短的镜头帧数,Smax指的是最长的镜头帧数,videorate则是帧率,n表示视频帧数。
(4)将每个镜头簇的末尾镜头的最后一帧作为场景边界,由此完成场景分割。
最终场景分割的结果如表1,而视频分割效果见图4。
表1
场景序号 | 起始时间(分秒) | 结束时间(分秒) |
1 | 00:00 | 00:24 |
2 | 00:25 | 00:39 |
3 | 00:40 | 00:53 |
4 | 00:54 | 01:12 |
5 | 01:13 | 01:34 |
6 | 01:35 | 01:48 |
7 | 01:49 | 02:16 |
8 | 02:17 | 02:40 |
9 | 02:41 | 03:17 |
10 | 03:18 | 04:22 |
11 | 04:23 | 04:41 |
12 | 04:42 | 05:10 |
13 | 05:11 | 05:37 |
14 | 05:38 | 06:21 |
15 | 06:22 | 07:37 |
16 | 07:38 | 09:30 |
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种基于卷积神经网络的视频语义场景分割方法,其特征在于,包括:
对待分割视频进行镜头分割得到分割后的镜头,取每个镜头的中间帧作为镜头关键帧;
取待分割视频中的部分视频帧作为网络训练样本集,取镜头关键帧作为测试样本集,并对网络训练样本集中的图像以及测试样本集中的图像进行缩小;
基于缩小后的网络训练样本集以及缩小后的测试样本集对卷积神经网络进行训练,输出每个镜头关键帧的语义特征向量;
利用每个镜头关键帧的语义特征向量以及镜头时序特征,计算镜头之间的距离,然后逐一比较镜头之间的距离,将镜头距离小于预设阈值的镜头作为同一镜头簇,最后将每个镜头簇的末尾镜头的最后一帧作为场景边界,由此完成场景分割。
2.根据权利要求1所述的方法,其特征在于,镜头关键帧的语义特征向量表示为:F=(F1,F2,...,Fi,...,Fn),其中,yi表示镜头关键帧的第i个特征,Fi表示镜头关键帧经标准化后的第i个特征,n表示语义特征向量的维数。
3.根据权利要求2所述的方法,其特征在于,所述利用每个镜头关键帧的语义特征向量以及镜头时序特征,计算镜头之间的距离,包括:
由得到镜头p与镜头q之间的语义特征向量之间的距离d1,其中,Fp表示镜头p关键帧的语义特征向量,Fq表示镜头q关键帧的语义特征向量,Fp(j)表示镜头p关键帧的语义特征向量中的第j个特征,Fq(j)表示镜头q关键帧的语义特征向量中的第j个特征;
由得到镜头p与镜头q之间的时序特征距离,其中,mp表示镜头p的中间帧序号,mq表示镜头q的中间帧序号,l表示待分割视频总帧数;
由D=d1+αd2得到镜头p与镜头q之间的镜头距离,其中,α表示时序特征的加权系数。
4.根据权利要求3所述的方法,其特征在于,所述逐一比较镜头之间的距离,将镜头距离小于预设阈值的镜头作为同一镜头簇,最后将每个镜头簇的末尾镜头的最后一帧作为场景边界,由此完成场景分割,包括:
(1)分别将每个镜头作为一个镜头簇;
(2)依次计算第一个镜头簇中的镜头与预设范围内的镜头簇中的镜头之间的镜头距离,将镜头距离小于预设阈值的镜头作为同一个目标镜头簇;
(3)以目标镜头簇内的最后一个镜头作为起点,依次计算该最后一个镜头与预设范围内的镜头簇中的镜头之间的镜头距离,将镜头距离小于预设阈值的镜头归为目标镜头簇;
(4)重复执行步骤(3),直至搜索不到满足镜头距离小于预设阈值的镜头;
(5)以目标镜头簇的下一个镜头作为起点,重复执行步骤(2)~步骤(4),直至搜索结束;
(6)将每个目标镜头簇的末尾镜头的最后一帧作为场景边界,以此完成场景分割。
5.根据权利要求4所述的方法,其特征在于,所述预设范围为:其中,Stotal表示镜头总帧数,Smin表示最短的镜头帧数,Smax表示最长的镜头帧数,videorate表示帧率,m表示视频帧数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710725996.6A CN107590442A (zh) | 2017-08-22 | 2017-08-22 | 一种基于卷积神经网络的视频语义场景分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710725996.6A CN107590442A (zh) | 2017-08-22 | 2017-08-22 | 一种基于卷积神经网络的视频语义场景分割方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107590442A true CN107590442A (zh) | 2018-01-16 |
Family
ID=61042743
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710725996.6A Pending CN107590442A (zh) | 2017-08-22 | 2017-08-22 | 一种基于卷积神经网络的视频语义场景分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107590442A (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108228915A (zh) * | 2018-03-29 | 2018-06-29 | 华南理工大学 | 一种基于深度学习的视频检索方法 |
CN108388836A (zh) * | 2018-01-25 | 2018-08-10 | 北京览科技有限公司 | 一种用于获取视频语义信息的方法与装置 |
CN108537134A (zh) * | 2018-03-16 | 2018-09-14 | 北京交通大学 | 一种视频语义场景分割及标注方法 |
CN108647641A (zh) * | 2018-05-10 | 2018-10-12 | 北京影谱科技股份有限公司 | 基于双路模型融合的视频行为分割方法和装置 |
CN108734095A (zh) * | 2018-04-10 | 2018-11-02 | 南京航空航天大学 | 一种基于3d卷积神经网络的动作检测方法 |
CN108921032A (zh) * | 2018-06-04 | 2018-11-30 | 四川创意信息技术股份有限公司 | 一种新的基于深度学习模型的视频语义提取方法 |
CN109344780A (zh) * | 2018-10-11 | 2019-02-15 | 上海极链网络科技有限公司 | 一种基于声音和视觉的多模态视频场景分割方法 |
CN109919044A (zh) * | 2019-02-18 | 2019-06-21 | 清华大学 | 基于预测进行特征传播的视频语义分割方法及装置 |
CN110381392A (zh) * | 2019-06-06 | 2019-10-25 | 五邑大学 | 一种视频摘要提取方法及其系统、装置、存储介质 |
CN110830734A (zh) * | 2019-10-30 | 2020-02-21 | 新华智云科技有限公司 | 一种突变和渐变镜头切换识别方法 |
CN110826491A (zh) * | 2019-11-07 | 2020-02-21 | 北京工业大学 | 级联手工特征与深度特征的视频关键帧检测方法 |
CN110879952A (zh) * | 2018-09-06 | 2020-03-13 | 阿里巴巴集团控股有限公司 | 一种视频帧序列的处理方法及装置 |
WO2020077999A1 (zh) * | 2018-10-19 | 2020-04-23 | 深圳市商汤科技有限公司 | 视频摘要生成方法和装置、电子设备、计算机存储介质 |
CN111416991A (zh) * | 2020-04-28 | 2020-07-14 | Oppo(重庆)智能科技有限公司 | 特效处理方法和设备,及存储介质 |
CN112613516A (zh) * | 2020-12-11 | 2021-04-06 | 北京影谱科技股份有限公司 | 用于航拍视频数据的语义分割方法 |
CN113269067A (zh) * | 2021-05-17 | 2021-08-17 | 中南大学 | 基于深度学习的周期性工业视频片段关键帧两阶段提取方法 |
CN115937742A (zh) * | 2022-11-28 | 2023-04-07 | 北京百度网讯科技有限公司 | 视频场景分割、视觉任务处理方法、装置、设备以及介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101257615A (zh) * | 2007-10-25 | 2008-09-03 | 复旦大学 | 基于视频分割技术的流媒体分发和用户vcr操作方法 |
CN101650728A (zh) * | 2009-08-26 | 2010-02-17 | 北京邮电大学 | 视频高层特征检索系统及其实现 |
CN101719144A (zh) * | 2009-11-04 | 2010-06-02 | 中国科学院声学研究所 | 一种联合字幕和视频图像信息进行场景分割和索引的方法 |
CN103646094A (zh) * | 2013-12-18 | 2014-03-19 | 上海紫竹数字创意港有限公司 | 实现视听类产品内容摘要自动提取生成的系统及方法 |
CN104036023A (zh) * | 2014-06-26 | 2014-09-10 | 福州大学 | 一种融合上下文的树形视频语义索引建立方法 |
CN104967885A (zh) * | 2015-03-27 | 2015-10-07 | 哈尔滨工业大学深圳研究生院 | 一种基于视频内容感知的广告推荐方法及系统 |
CN106658169A (zh) * | 2016-12-18 | 2017-05-10 | 北京工业大学 | 一种基于深度学习多层次分割新闻视频的通用方法 |
-
2017
- 2017-08-22 CN CN201710725996.6A patent/CN107590442A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101257615A (zh) * | 2007-10-25 | 2008-09-03 | 复旦大学 | 基于视频分割技术的流媒体分发和用户vcr操作方法 |
CN101650728A (zh) * | 2009-08-26 | 2010-02-17 | 北京邮电大学 | 视频高层特征检索系统及其实现 |
CN101719144A (zh) * | 2009-11-04 | 2010-06-02 | 中国科学院声学研究所 | 一种联合字幕和视频图像信息进行场景分割和索引的方法 |
CN103646094A (zh) * | 2013-12-18 | 2014-03-19 | 上海紫竹数字创意港有限公司 | 实现视听类产品内容摘要自动提取生成的系统及方法 |
CN104036023A (zh) * | 2014-06-26 | 2014-09-10 | 福州大学 | 一种融合上下文的树形视频语义索引建立方法 |
CN104967885A (zh) * | 2015-03-27 | 2015-10-07 | 哈尔滨工业大学深圳研究生院 | 一种基于视频内容感知的广告推荐方法及系统 |
CN106658169A (zh) * | 2016-12-18 | 2017-05-10 | 北京工业大学 | 一种基于深度学习多层次分割新闻视频的通用方法 |
Non-Patent Citations (2)
Title |
---|
ALAN HANJALIC 等: "Automated High-Level Movie Segmentation for Advanced Video-Retrieval Systems", 《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》 * |
曾强: "视频场景分割方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108388836A (zh) * | 2018-01-25 | 2018-08-10 | 北京览科技有限公司 | 一种用于获取视频语义信息的方法与装置 |
CN108537134A (zh) * | 2018-03-16 | 2018-09-14 | 北京交通大学 | 一种视频语义场景分割及标注方法 |
CN108537134B (zh) * | 2018-03-16 | 2020-06-30 | 北京交通大学 | 一种视频语义场景分割及标注方法 |
CN108228915A (zh) * | 2018-03-29 | 2018-06-29 | 华南理工大学 | 一种基于深度学习的视频检索方法 |
CN108734095A (zh) * | 2018-04-10 | 2018-11-02 | 南京航空航天大学 | 一种基于3d卷积神经网络的动作检测方法 |
CN108734095B (zh) * | 2018-04-10 | 2022-05-20 | 南京航空航天大学 | 一种基于3d卷积神经网络的动作检测方法 |
CN108647641A (zh) * | 2018-05-10 | 2018-10-12 | 北京影谱科技股份有限公司 | 基于双路模型融合的视频行为分割方法和装置 |
CN108921032A (zh) * | 2018-06-04 | 2018-11-30 | 四川创意信息技术股份有限公司 | 一种新的基于深度学习模型的视频语义提取方法 |
CN110879952A (zh) * | 2018-09-06 | 2020-03-13 | 阿里巴巴集团控股有限公司 | 一种视频帧序列的处理方法及装置 |
CN110879952B (zh) * | 2018-09-06 | 2023-06-16 | 阿里巴巴集团控股有限公司 | 一种视频帧序列的处理方法及装置 |
CN109344780A (zh) * | 2018-10-11 | 2019-02-15 | 上海极链网络科技有限公司 | 一种基于声音和视觉的多模态视频场景分割方法 |
WO2020077999A1 (zh) * | 2018-10-19 | 2020-04-23 | 深圳市商汤科技有限公司 | 视频摘要生成方法和装置、电子设备、计算机存储介质 |
CN109919044A (zh) * | 2019-02-18 | 2019-06-21 | 清华大学 | 基于预测进行特征传播的视频语义分割方法及装置 |
CN110381392A (zh) * | 2019-06-06 | 2019-10-25 | 五邑大学 | 一种视频摘要提取方法及其系统、装置、存储介质 |
CN110381392B (zh) * | 2019-06-06 | 2021-08-10 | 五邑大学 | 一种视频摘要提取方法及其系统、装置、存储介质 |
CN110830734B (zh) * | 2019-10-30 | 2022-03-18 | 新华智云科技有限公司 | 一种突变和渐变镜头切换识别方法及系统 |
CN110830734A (zh) * | 2019-10-30 | 2020-02-21 | 新华智云科技有限公司 | 一种突变和渐变镜头切换识别方法 |
CN110826491A (zh) * | 2019-11-07 | 2020-02-21 | 北京工业大学 | 级联手工特征与深度特征的视频关键帧检测方法 |
CN111416991A (zh) * | 2020-04-28 | 2020-07-14 | Oppo(重庆)智能科技有限公司 | 特效处理方法和设备,及存储介质 |
CN112613516A (zh) * | 2020-12-11 | 2021-04-06 | 北京影谱科技股份有限公司 | 用于航拍视频数据的语义分割方法 |
CN113269067A (zh) * | 2021-05-17 | 2021-08-17 | 中南大学 | 基于深度学习的周期性工业视频片段关键帧两阶段提取方法 |
CN115937742A (zh) * | 2022-11-28 | 2023-04-07 | 北京百度网讯科技有限公司 | 视频场景分割、视觉任务处理方法、装置、设备以及介质 |
CN115937742B (zh) * | 2022-11-28 | 2024-04-12 | 北京百度网讯科技有限公司 | 视频场景分割、视觉任务处理方法、装置、设备以及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107590442A (zh) | 一种基于卷积神经网络的视频语义场景分割方法 | |
CN110321813B (zh) | 基于行人分割的跨域行人重识别方法 | |
CN104361363B (zh) | 深度反卷积特征学习网络、生成方法及图像分类方法 | |
CN108021947B (zh) | 一种基于视觉的分层极限学习机目标识别方法 | |
KR102280414B1 (ko) | 고 정밀도로 이미지를 분석하기 위한 딥 러닝 네트워크를 사용하기 위해 트레이닝 이미지를 오토 라벨링하는 오토 라벨링 장치의 하이퍼파라미터를 최적화하는 방법 및 이를 이용한 최적화 장치 | |
CN113239784B (zh) | 一种基于空间序列特征学习的行人重识别系统及方法 | |
CN107657249A (zh) | 多尺度特征行人重识别的方法、装置、存储介质及处理器 | |
CN109443382A (zh) | 基于特征提取与降维神经网络的视觉slam闭环检测方法 | |
CN104217214A (zh) | 基于可配置卷积神经网络的rgb-d人物行为识别方法 | |
CN106022220A (zh) | 一种体育视频中对参赛运动员进行多人脸跟踪的方法 | |
CN110097178A (zh) | 一种基于熵注意的神经网络模型压缩与加速方法 | |
CN113160062B (zh) | 一种红外图像目标检测方法、装置、设备及存储介质 | |
CN113239801B (zh) | 基于多尺度特征学习和多级域对齐的跨域动作识别方法 | |
CN111709285A (zh) | 一种基于无人机的疫情防护监控方法、装置和存储介质 | |
CN107315795B (zh) | 联合特定人物和场景的视频实例检索方法及系统 | |
CN107240087B (zh) | 目标检测系统和方法 | |
CN109829449A (zh) | 一种基于超像素时空上下文的rgb-d室内场景标注方法 | |
CN109472191A (zh) | 一种基于时空上下文的行人重识别与追踪方法 | |
CN110009628A (zh) | 一种针对连续二维图像中多形态目标的自动检测方法 | |
CN107633226A (zh) | 一种人体动作跟踪识别方法及系统 | |
CN113393457B (zh) | 一种结合残差密集块与位置注意力的无锚框目标检测方法 | |
CN114863263B (zh) | 基于跨尺度分层特征融合对类内遮挡的乌鳢检测的方法 | |
CN112784779A (zh) | 一种基于特征金字塔多级特征融合的遥感影像场景分类方法 | |
CN109919246A (zh) | 基于自适应特征聚类和多重损失融合的行人重识别方法 | |
CN109165698A (zh) | 一种面向智慧交通的图像分类识别方法及其存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180116 |