CN106612457A - 视频序列对齐方法和系统 - Google Patents
视频序列对齐方法和系统 Download PDFInfo
- Publication number
- CN106612457A CN106612457A CN201610986953.9A CN201610986953A CN106612457A CN 106612457 A CN106612457 A CN 106612457A CN 201610986953 A CN201610986953 A CN 201610986953A CN 106612457 A CN106612457 A CN 106612457A
- Authority
- CN
- China
- Prior art keywords
- video
- sequence
- video segment
- scene type
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000002864 sequence alignment Methods 0.000 title claims abstract description 31
- 238000000034 method Methods 0.000 title abstract description 8
- 238000005192 partition Methods 0.000 claims description 8
- 238000000638 solvent extraction Methods 0.000 claims description 8
- 239000012634 fragment Substances 0.000 claims description 5
- 230000006870 function Effects 0.000 description 8
- 238000009825 accumulation Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44012—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种视频序列对齐方法和系统,方法包括以下步骤:从待对齐的视频序列中抓取无场景切换的视频片段;分别将所述视频片段中的各个视频帧划分为若干个子块,根据各个视频帧的子块生成视频片段序列;将所述视频片段序列输入至预先训练的场景类别分类器,分别计算所述视频片段序列属于各个场景类别的概率值,将概率值最大的场景类别设为所述视频片段所属的第一场景类别;将所述视频片段与预存的原始视频序列中属于所述第一场景类别的视频片段进行对齐。
Description
技术领域
本发明涉及信号检测技术领域,特别是涉及一种视频序列对齐方法和系统。
背景技术
显示设备是一种可输出图像或感触信息的设备。为了保证显示设备正常工作,通常需要对显示设备的一些性能参数进行检测。以电视机为例,电视机的主板灵敏度是电视机的一个重要性能性能参数。
现有的检测电视机主板灵敏度的方案是:利用原始的视频信号作为参考,将待检测的视频信号与原始视频信号进行对齐,将对齐后的视频信号的信号强度调整为经所述显示设备输出后无马赛克效应与出现马赛克效应之间的临界信号强度,并根据该信号强度确定所述显示设备的性能参数。
然而,这种方式需要花费较多的时间进行视频信号对齐,导致信号处理效率较低。
发明内容
基于此,有必要针对信号处理效率较低的问题,提供一种视频序列对齐方法和系统。
一种视频序列对齐方法,包括以下步骤:
从待对齐的视频序列中抓取无场景切换的视频片段;
分别将所述视频片段中的各个视频帧划分为若干个子块,根据各个视频帧的子块生成视频片段序列;
将所述视频片段序列输入至预先训练的场景类别分类器,分别计算所述视频片段序列属于各个场景类别的概率值,将概率值最大的场景类别设为所述视频片段所属的第一场景类别;
将所述视频片段与预存的原始视频序列中属于所述第一场景类别的视频片段进行对齐。
一种视频序列对齐系统,包括:
视频抓取模块,用于从待对齐的视频序列中抓取无场景切换的视频片段;
序列生成模块,用于分别将所述视频片段中的各个视频帧划分为若干个子块,根据各个视频帧的子块生成视频片段序列;
计算模块,用于将所述视频片段序列输入至预先训练的场景类别分类器,分别计算所述视频片段序列属于各个场景类别的概率值,将概率值最大的场景类别设为所述视频片段所属的第一场景类别;
对齐模块,用于将所述视频片段与预存的原始视频序列中属于所述第一场景类别的视频片段进行对齐。
上述视频序列对齐方法和系统,从待对齐的视频序列中抓取无场景切换的视频片段,分别将所述视频片段中的各个视频帧划分为若干个子块,根据各个视频帧的子块生成视频片段序列,分别计算所述视频片段序列属于各个场景类别的概率值,将概率值最大的场景类别设为所述视频片段所属的第一场景类别,将所述视频片段与预存的原始视频序列中属于所述第一场景类别的视频片段进行对齐,通过先进行粗对齐找到原始视频序列中属于所述第一场景类别的视频片段,再将待对齐的视频序列与所述第一场景类别的视频片段进行精对齐,能够有效减少视频对齐的时间,提高视频对齐的效率。
附图说明
图1为一个实施例的视频序列对齐方法流程图;
图2为一个实施例的原始视频序列按场景分类示意图;
图3为一个实施例的深度卷积网络结构示意图;
图4为一个实施例的视频序列对齐系统的结构示意图。
具体实施方式
下面结合附图对本发明的技术方案进行说明。
如图1所示,本发明提供一种视频序列对齐方法,可包括以下步骤:
S1,从待对齐的视频序列中抓取无场景切换的视频片段;
其中,所述视频序列的长度应满足一定的时间代价约束条件,所述时间代价约束条件用于表征视频序列对齐操作花费的时间。一般来说,视频序列的长度越长,对齐过程花费的时间越长。为了满足上述约束条件,一般抓取一段较短的视频片段(例如长度为1秒的视频片段)。通过设置时间代价约束条件,能够提高对齐结果的实时性,缩短用户等待时间,提高用户体验。
抓取视频片段后,需要对抓取的视频片段进行判断,若不符合条件,则重新抓取。判断的基本原理是:尽量保持获取的视频片段前后变化小,无场景切换等。可采用累积的帧间误差作为评判标准,累积的帧间误差为:
式中,f(zi)为第i个视频帧的特征(例如分区域的颜色直方图),f(zi-1)为第i-1个视频帧的特征,||·||为距离度量函数(例如,L2距离度量函数),T为预设的距离阈值,n为所述待对齐的视频序列中的视频片段的总数。
若不满足上述条件,则需要重新抓取视频片段。一般来说,1秒内的视频片段很容易满足上述条件,因此不会过多地重复采集。无场景切换表示视频内容基本一致,有利于分类。
S2,分别将所述视频片段中的各个视频帧划分为若干个子块,根据各个视频帧的子块生成视频片段序列;
假设步骤S1中抓取到的视频片段为Z=[z0,z1,...zn],其中,zi(i=1,2,…,n)为第i个视频帧,若每个视频帧中包括K个子块,在本步骤中,可以生成如下视频片段序列:
S3,将所述视频片段序列输入至预先训练的场景类别分类器,分别计算所述视频片段序列属于各个场景类别的概率值,将概率值最大的场景类别设为所述视频片段所属的第一场景类别;
其中,所述概率值可以根据如下公式计算:
式中,表示所述视频片段序列的第i个视频帧中的第k个子块,Yj表示所述原始视频序列中属于第j场景类别的视频片段,为所述视频片段序列中的子块属于第j场景类别的概率值,p(Yj/Z)为所述视频片段序列属于第j场景类别的概率值,K为所述视频片段序列的一个视频帧中子块的总数,∏表示乘法操作。
所述场景类别分类器可以在执行对齐操作之前预先训练。训练场景分类器的方式可包括以下步骤:
步骤1,获取视频序列样本,将所述视频序列样本按场景划分为多个场景类别;
视频序列中,若场景不进行切换,则相邻图像相似度极高。因此可以将视频序列样本按场景划分为较粗的类别,并保持时间先后关系。在粗定位时,只需确定当前视频片段与哪一个类别最为相似即可。具体分类描述如下:
设视频序列样本为Y=[y1,y2,...ym],m为视频序列样本中的视频帧的总数。按场景划分为多个类别,如图2所示。图2中,Yl为视频序列样本中的第l个视频片段,每个视频片段包括若干个视频帧。
可以预先在场景边界做标注,根据该标注信息进行场景划分(一般原始视频序列20-30分钟,标注量不大,并且是一次性工作),也可以采用典型的帧间累积误差自动进行场景分类:累积的帧间误差为:
其中,f(yi)表示第i个视频帧的特征表示(例如分区域的颜色直方图),||·||是距离度量函数。若d(Y)小于设置的阈值,则将当前相邻图像划分为同一个类别;后续未划分的序列则重复上述划分过程即可。
步骤2,分别将各个场景类别的视频序列样本划分为若干个样本子块;其中,所述视频序列样本中包括非重叠的样本子块;
针对每个场景类别中每个图像样本,进行非重叠的子块划分(也可以带重叠,但应包括非重叠划分的特例),构建立出更为精细的小图(例如256*256,若非重叠划分不能整除256时,可以在最右侧划分时采用重叠划分),进行训练深度卷积网络。一般学习策略,用的样本越多越好,非重叠下,采用的样本是最少的,不能再少了,并且它们之间没有重叠。而有重叠的划分,需要包括非重叠的特例,否则失去了一般性。这样做的好处有:1)样本数量增多,有利于深度卷积网络训练;2)样本图像尺寸变小,可以有效地减少深度神经网络中全连接层的数量,复杂度降低。例如:每个原始样本图像yi,经过子块划分后,可以得到K+1个子块图像
步骤3,根据所述样本子块及其所属的场景类别对深度卷积网络进行训练,得到场景类别分类器。
利用收集的场景类别样本图(即子块图像)及其标注(子块图像对应的场景类别),对深度卷积网络进行训练,得到分类器,如图3所示。本发明采用的深度卷积网络包括五个卷积层(Convolutional Layer),每个卷积层的输出都经过ReLU(Rectified LinearUnits)激活函数进行非线性变换,再经过池化层(Pooling Layer)进行池化,再接两个全连接层(Fully-Connected Layer),最后通过Softmax函数输出分类概率(输入子块图像属于某个场景类别的概率)。
S4,将所述视频片段与预存的原始视频序列中属于所述第一场景类别的视频片段进行对齐。
步骤S3已经粗略定位当前视频片段Z=[z0,z1,...zn]属于哪个类别YJ=[yu,yu+1,...yv]。本步骤即将在中精确地定位当前视频片段所属位置。为了防止边界问题,可以将YJ进行左右扩展为YJ=[yu-n,yu-n+1,...yv+n],则精确对齐的计算方式为:
其中,YJ=[yu-n,yu-n+1,...yv+n];
式中,Q表示所述视频片段与原始视频序列的最佳对齐位置,d(·)为距离度量函数,Z为所述视频片段,zi为Z中的第i个视频帧,Yj=[yu,yu+1,...yv]表示所述原始视频序列中属于第j场景类别的视频片段,yi为Yj中的第i个视频帧,yu-i(i=1,2,…,n)为y0前i时刻的视频帧,yv+i(i=1,2,…,n)为yn后i时刻的视频帧,n为正整数,q∈[u-n,v]。
上述视频序列对齐方法,采用由粗到精的搜索策略,通过先进行粗对齐找到原始视频序列中属于所述第一场景类别的视频片段,再将待对齐的视频序列与所述第一场景类别的视频片段进行精对齐,有效减少了视频对齐的时间,提高了视频对齐的效率。
如图2所示,本发明提供一种视频序列对齐系统,可包括:
视频抓取模块10,用于从待对齐的视频序列中抓取无场景切换的视频片段;
其中,所述视频序列的长度应满足一定的时间代价约束条件,所述时间代价约束条件用于表征视频序列对齐操作花费的时间。一般来说,视频序列的长度越长,对齐过程花费的时间越长。为了满足上述约束条件,一般抓取一段较短的视频片段(例如长度为1秒的视频片段)。通过设置时间代价约束条件,能够提高对齐结果的实时性,缩短用户等待时间,提高用户体验。
抓取视频片段后,需要对抓取的视频片段进行判断,若不符合条件,则重新抓取。判断的基本原理是:尽量保持获取的视频片段前后变化小,无场景切换等。可设置一判定模块,采用累积的帧间误差作为评判标准进行判断,累积的帧间误差为:
式中,f(zi)为第i个视频帧的特征(例如分区域的颜色直方图),f(zi-1)为第i-1个视频帧的特征,||·||为距离度量函数(例如,L2距离度量函数),T为预设的距离阈值,n为所述待对齐的视频序列中的视频片段的总数。无场景切换表示视频内容基本一致,有利于分类。
若不满足上述条件,则需要重新抓取视频片段。一般来说,1秒内的视频片段很容易满足上述条件,因此不会过多地重复采集。
序列生成模块20,用于分别将所述视频片段中的各个视频帧划分为若干个子块,根据各个视频帧的子块生成视频片段序列;
假设视频抓取模块10中抓取到的视频片段为Z=[z0,z1,...zn],其中,zi(i=1,2,…,n)为第i个视频帧,若每个视频帧中包括K个子块,在序列生成模块20中,可以生成如下视频片段序列:
计算模块30,用于将所述视频片段序列输入至预先训练的场景类别分类器,分别计算所述视频片段序列属于各个场景类别的概率值,将概率值最大的场景类别设为所述视频片段所属的第一场景类别;
其中,所述概率值可以根据如下公式计算:
式中,表示所述视频片段序列的第i个视频帧中的第k个子块,Yj表示所述原始视频序列中属于第j场景类别的视频片段,为所述视频片段序列中的子块属于第j场景类别的概率值,p(Yj/Z)为所述视频片段序列属于第j场景类别的概率值,K为所述视频片段序列的一个视频帧中子块的总数,∏表示乘法操作。
所述场景类别分类器可以在执行对齐操作之前预先训练。所述视频序列对齐系统还可包括:
分类模块,用于获取视频序列样本,将所述视频序列样本按场景划分为多个场景类别;
视频序列中,若场景不进行切换,则相邻图像相似度极高。因此可以将视频序列样本按场景划分为较粗的类别,并保持时间先后关系。在粗定位时,只需确定当前视频片段与哪一个类别最为相似即可。具体分类描述如下:
设视频序列样本为Y=[y1,y2,...ym],m为视频序列样本中的视频帧的总数。按场景划分为多个类别,如图2所示。图2中,Yl为视频序列样本中的第l个视频片段,每个视频片段包括若干个视频帧。
可以预先在场景边界做标注,根据该标注信息进行场景划分(一般原始视频序列20-30分钟,标注量不大,并且是一次性工作),也可以采用典型的帧间累积误差自动进行场景分类:累积的帧间误差为:
其中,f(yi)表示第i个视频帧的特征表示(例如分区域的颜色直方图),||·||是距离度量函数。若d(Y)小于设置的阈值,则将当前相邻图像划分为同一个类别;后续未划分的序列则重复上述划分过程即可。
子块划分模块,用于分别将各个场景类别的视频序列样本划分为若干个样本子块;其中,所述视频序列样本中包括非重叠的样本子块;
针对每个场景类别中每个图像样本,进行非重叠的子块划分(也可以带重叠,但应包括非重叠划分的特例),构建立出更为精细的小图(例如256*256,若非重叠划分不能整除256时,可以在最右侧划分时采用重叠划分),进行训练深度卷积网络。一般学习策略,用的样本越多越好,非重叠下,采用的样本是最少的,不能再少了,并且它们之间没有重叠。而有重叠的划分,需要包括非重叠的特例,否则失去了一般性。这样做的好处有:1)样本数量增多,有利于深度卷积网络训练;2)样本图像尺寸变小,可以有效地减少深度神经网络中全连接层的数量,复杂度降低。例如:每个原始样本图像yi,经过子块划分后,可以得到K+1个子块图像
训练模块,用于根据所述样本子块及其所属的场景类别对深度卷积网络进行训练,得到场景类别分类器。
利用收集的场景类别样本图(即子块图像)及其标注(子块图像对应的场景类别),对深度卷积网络进行训练,得到分类器,如图3所示。本发明采用的深度卷积网络包括五个卷积层(Convolutional Layer),每个卷积层的输出都经过ReLU(Rectified LinearUnits)激活函数进行非线性变换,再经过池化层(Pooling Layer)进行池化,再接两个全连接层(Fully-Connected Layer),最后通过Softmax函数输出分类概率(输入子块图像属于某个场景类别的概率)。
对齐模块40,用于将所述视频片段与预存的原始视频序列中属于所述第一场景类别的视频片段进行对齐。
计算模块30已经粗略定位当前视频片段Z=[z0,z1,...zn]属于哪个类别YJ=[yu,yu+1,...yv]。对齐模块40即将在中精确地定位当前视频片段所属位置。为了防止边界问题,可以将YJ进行左右扩展为YJ=[yu-n,yu-n+1,...yv+n],则精确对齐的计算方式为:
其中,YJ=[yu-n,yu-n+1,...yv+n];
式中,Q表示所述视频片段与原始视频序列的最佳对齐位置,d(·)为距离度量函数,Z为所述视频片段,zi为Z中的第i个视频帧,Yj=[yu,yu+1,...yv]表示所述原始视频序列中属于第j场景类别的视频片段,yi为Yj中的第i个视频帧,yu-i(i=1,2,…,n)为y0前i时刻的视频帧,yv+i(i=1,2,…,n)为yn后i时刻的视频帧,n为正整数,q∈[u-n,v]。
上述视频序列对齐系统,采用由粗到精的搜索策略,通过先进行粗对齐找到原始视频序列中属于所述第一场景类别的视频片段,再将待对齐的视频序列与所述第一场景类别的视频片段进行精对齐,有效减少了视频对齐的时间,提高了视频对齐的效率。
本发明的视频序列对齐系统与本发明的视频序列对齐方法一一对应,在上述视频序列对齐方法的实施例阐述的技术特征及其有益效果均适用于视频序列对齐系统的实施例中,特此声明。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种视频序列对齐方法,其特征在于,包括以下步骤:
从待对齐的视频序列中抓取无场景切换的视频片段;
分别将所述视频片段中的各个视频帧划分为若干个子块,根据各个视频帧的子块生成视频片段序列;
将所述视频片段序列输入至预先训练的场景类别分类器,分别计算所述视频片段序列属于各个场景类别的概率值,将概率值最大的场景类别设为所述视频片段所属的第一场景类别;
将所述视频片段与预存的原始视频序列中属于所述第一场景类别的视频片段进行对齐。
2.根据权利要求1所述的视频序列对齐方法,其特征在于,在将所述视频序列输入至预先训练的场景类别分类器之前,还包括以下步骤:
获取视频序列样本,将所述视频序列样本按场景划分为多个场景类别;
分别将各个场景类别的视频序列样本划分为若干个样本子块;其中,所述视频序列样本中包括非重叠的样本子块;
根据所述样本子块及其所属的场景类别对深度卷积网络进行训练,得到场景类别分类器。
3.根据权利要求1所述的视频序列对齐方法,其特征在于,还包括以下步骤:
若所述视频片段满足如下条件,判定所述视频片段无场景切换:
式中,f(zi)为第i个视频帧的特征,f(zi-1)为第i-1个视频帧的特征,||·||为距离度量函数,T为预设的距离阈值,n为所述待对齐的视频序列中的视频片段的总数。
4.根据权利要求1所述的视频序列对齐方法,其特征在于,分别计算所述视频片段序列属于各个场景类别的概率值的步骤包括:
根据如下公式计算所述视频片段序列属于各个场景类别的概率值:
式中,表示所述视频片段序列的第i个视频帧中的第k个子块,Yj表示所述原始视频序列中属于第j场景类别的视频片段,为所述视频片段序列中的子块属于第j场景类别的概率值,p(Yj/Z)为所述视频片段序列属于第j场景类别的概率值,K为所述视频片段序列的一个视频帧中子块的总数。
5.根据权利要求1所述的视频序列对齐方法,其特征在于,将所述视频片段与预存的原始视频序列中属于所述第一场景类别的视频片段进行对齐的步骤包括:
根据如下公式将所述视频片段与原始视频序列中属于所述第一场景类别的视频片段进行对齐:
其中,YJ=[yu-n,yu-n+1,...yv+n];
式中,Q表示所述视频片段与原始视频序列的最佳对齐位置,d(·)为距离度量函数,Z为所述视频片段,zi为Z中的第i个视频帧,Yj=[yu,yu+1,...yv]表示所述原始视频序列中属于第j场景类别的视频片段,yi为Yj中的第i个视频帧,yu-i(i=1,2,…,n)为y0前i时刻的视频帧,yv+i(i=1,2,…,n)为yn后i时刻的视频帧,n为正整数,q∈[u-n,v]。
6.一种视频序列对齐系统,其特征在于,包括:
视频抓取模块,用于从待对齐的视频序列中抓取无场景切换的视频片段;
序列生成模块,用于分别将所述视频片段中的各个视频帧划分为若干个子块,根据各个视频帧的子块生成视频片段序列;
计算模块,用于将所述视频片段序列输入至预先训练的场景类别分类器,分别计算所述视频片段序列属于各个场景类别的概率值,将概率值最大的场景类别设为所述视频片段所属的第一场景类别;
对齐模块,用于将所述视频片段与预存的原始视频序列中属于所述第一场景类别的视频片段进行对齐。
7.根据权利要求6所述的视频序列对齐系统,其特征在于,还包括:
分类模块,用于获取视频序列样本,将所述视频序列样本按场景划分为多个场景类别;
子块划分模块,用于分别将各个场景类别的视频序列样本划分为若干个样本子块;其中,所述视频序列样本中包括非重叠的样本子块;
训练模块,用于根据所述样本子块及其所属的场景类别对深度卷积网络进行训练,得到场景类别分类器。
8.根据权利要求6所述的视频序列对齐系统,其特征在于,还包括:
判定模块,用于若所述视频片段满足如下条件,判定所述视频片段无场景切换:
式中,f(zi)为第i个视频帧的特征,f(zi-1)为第i-1个视频帧的特征,||·||为距离度量函数,T为预设的距离阈值,n为所述待对齐的视频序列中的视频片段的总数。
9.根据权利要求6所述的视频序列对齐系统,其特征在于,所述计算模块进一步根据如下公式计算所述视频片段序列属于各个场景类别的概率值:
式中,表示所述视频片段序列的第i个视频帧中的第k个子块,Yj表示所述原始视频序列中属于第j场景类别的视频片段,为所述视频片段序列中的子块属于第j场景类别的概率值,p(Yj/Z)为所述视频片段序列属于第j场景类别的概率值,K为所述视频片段序列的一个视频帧中子块的总数。
10.根据权利要求6所述的视频序列对齐系统,其特征在于,所述对齐模块进一步根据如下公式将所述视频片段与原始视频序列中属于所述第一场景类别的视频片段进行对齐:
其中,YJ=[yu-n,yu-n+1,…yv+n];
式中,Q表示所述视频片段与原始视频序列的最佳对齐位置,d(·)为距离度量函数,Z为所述视频片段,zi为Z中的第i个视频帧,Yj=[yu,yu+1,...yv]表示所述原始视频序列中属于第j场景类别的视频片段,yi为Yj中的第i个视频帧,yu-i(i=1,2,…,n)为y0前i时刻的视频帧,yv+i(i=1,2,…,n)为yn后i时刻的视频帧,n为正整数,q∈[u-n,v]。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610986953.9A CN106612457B (zh) | 2016-11-09 | 2016-11-09 | 视频序列对齐方法和系统 |
PCT/CN2016/113542 WO2018086231A1 (zh) | 2016-11-09 | 2016-12-30 | 视频序列对齐方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610986953.9A CN106612457B (zh) | 2016-11-09 | 2016-11-09 | 视频序列对齐方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106612457A true CN106612457A (zh) | 2017-05-03 |
CN106612457B CN106612457B (zh) | 2019-09-03 |
Family
ID=58614979
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610986953.9A Active CN106612457B (zh) | 2016-11-09 | 2016-11-09 | 视频序列对齐方法和系统 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN106612457B (zh) |
WO (1) | WO2018086231A1 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107194419A (zh) * | 2017-05-10 | 2017-09-22 | 百度在线网络技术(北京)有限公司 | 视频分类方法及装置、计算机设备与可读介质 |
CN108537134A (zh) * | 2018-03-16 | 2018-09-14 | 北京交通大学 | 一种视频语义场景分割及标注方法 |
CN108682436A (zh) * | 2018-05-11 | 2018-10-19 | 北京海天瑞声科技股份有限公司 | 语音对齐方法及装置 |
CN110147700A (zh) * | 2018-05-18 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 视频分类方法、装置、存储介质以及设备 |
CN110347875A (zh) * | 2019-07-08 | 2019-10-18 | 北京字节跳动网络技术有限公司 | 一种视频场景分类方法、装置、移动终端及存储介质 |
CN111723617A (zh) * | 2019-03-20 | 2020-09-29 | 顺丰科技有限公司 | 动作识别的方法、装置、设备及存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114640852B (zh) * | 2022-03-21 | 2024-08-23 | 湖南快乐阳光互动娱乐传媒有限公司 | 视频帧对齐方法及装置 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090016616A1 (en) * | 2007-02-19 | 2009-01-15 | Seiko Epson Corporation | Category Classification Apparatus, Category Classification Method, and Storage Medium Storing a Program |
CN101692269A (zh) * | 2009-10-16 | 2010-04-07 | 北京中星微电子有限公司 | 一种处理视频节目的方法和装置 |
CN101814147A (zh) * | 2010-04-12 | 2010-08-25 | 中国科学院自动化研究所 | 一种实现场景图像的分类方法 |
US20110025859A1 (en) * | 2004-08-16 | 2011-02-03 | Tessera Technologies Ireland Limited | Foreground/Background Segmentation in Digital Images |
CN103366181A (zh) * | 2013-06-28 | 2013-10-23 | 安科智慧城市技术(中国)有限公司 | 多特征视觉码本融合的场景识别方法和装置 |
CN104881675A (zh) * | 2015-05-04 | 2015-09-02 | 北京奇艺世纪科技有限公司 | 一种视频场景的识别方法和装置 |
CN105227907A (zh) * | 2015-08-31 | 2016-01-06 | 电子科技大学 | 基于视频的无监督异常事件实时检测方法 |
CN105550699A (zh) * | 2015-12-08 | 2016-05-04 | 北京工业大学 | 一种基于cnn融合时空显著信息的视频识别分类方法 |
CN105704485A (zh) * | 2016-02-02 | 2016-06-22 | 广州视源电子科技股份有限公司 | 显示设备的性能参数检测方法和系统 |
CN105847964A (zh) * | 2016-03-28 | 2016-08-10 | 乐视控股(北京)有限公司 | 一种影视节目处理方法和系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8027542B2 (en) * | 2007-06-18 | 2011-09-27 | The Regents Of The University Of California | High speed video action recognition and localization |
CN105184271A (zh) * | 2015-09-18 | 2015-12-23 | 苏州派瑞雷尔智能科技有限公司 | 一种基于深度学习的车辆自动检测方法 |
-
2016
- 2016-11-09 CN CN201610986953.9A patent/CN106612457B/zh active Active
- 2016-12-30 WO PCT/CN2016/113542 patent/WO2018086231A1/zh active Application Filing
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110025859A1 (en) * | 2004-08-16 | 2011-02-03 | Tessera Technologies Ireland Limited | Foreground/Background Segmentation in Digital Images |
US20090016616A1 (en) * | 2007-02-19 | 2009-01-15 | Seiko Epson Corporation | Category Classification Apparatus, Category Classification Method, and Storage Medium Storing a Program |
CN101692269A (zh) * | 2009-10-16 | 2010-04-07 | 北京中星微电子有限公司 | 一种处理视频节目的方法和装置 |
CN101814147A (zh) * | 2010-04-12 | 2010-08-25 | 中国科学院自动化研究所 | 一种实现场景图像的分类方法 |
CN103366181A (zh) * | 2013-06-28 | 2013-10-23 | 安科智慧城市技术(中国)有限公司 | 多特征视觉码本融合的场景识别方法和装置 |
CN104881675A (zh) * | 2015-05-04 | 2015-09-02 | 北京奇艺世纪科技有限公司 | 一种视频场景的识别方法和装置 |
CN105227907A (zh) * | 2015-08-31 | 2016-01-06 | 电子科技大学 | 基于视频的无监督异常事件实时检测方法 |
CN105550699A (zh) * | 2015-12-08 | 2016-05-04 | 北京工业大学 | 一种基于cnn融合时空显著信息的视频识别分类方法 |
CN105704485A (zh) * | 2016-02-02 | 2016-06-22 | 广州视源电子科技股份有限公司 | 显示设备的性能参数检测方法和系统 |
CN105847964A (zh) * | 2016-03-28 | 2016-08-10 | 乐视控股(北京)有限公司 | 一种影视节目处理方法和系统 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107194419A (zh) * | 2017-05-10 | 2017-09-22 | 百度在线网络技术(北京)有限公司 | 视频分类方法及装置、计算机设备与可读介质 |
CN108537134A (zh) * | 2018-03-16 | 2018-09-14 | 北京交通大学 | 一种视频语义场景分割及标注方法 |
CN108537134B (zh) * | 2018-03-16 | 2020-06-30 | 北京交通大学 | 一种视频语义场景分割及标注方法 |
CN108682436A (zh) * | 2018-05-11 | 2018-10-19 | 北京海天瑞声科技股份有限公司 | 语音对齐方法及装置 |
CN110147700A (zh) * | 2018-05-18 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 视频分类方法、装置、存储介质以及设备 |
CN110147700B (zh) * | 2018-05-18 | 2023-06-27 | 腾讯科技(深圳)有限公司 | 视频分类方法、装置、存储介质以及设备 |
CN111723617A (zh) * | 2019-03-20 | 2020-09-29 | 顺丰科技有限公司 | 动作识别的方法、装置、设备及存储介质 |
CN111723617B (zh) * | 2019-03-20 | 2023-10-27 | 顺丰科技有限公司 | 动作识别的方法、装置、设备及存储介质 |
CN110347875A (zh) * | 2019-07-08 | 2019-10-18 | 北京字节跳动网络技术有限公司 | 一种视频场景分类方法、装置、移动终端及存储介质 |
CN110347875B (zh) * | 2019-07-08 | 2022-04-15 | 北京字节跳动网络技术有限公司 | 一种视频场景分类方法、装置、移动终端及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN106612457B (zh) | 2019-09-03 |
WO2018086231A1 (zh) | 2018-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106612457A (zh) | 视频序列对齐方法和系统 | |
CN102496001A (zh) | 一种视频监控目标自动检测的方法和系统 | |
CN108537134A (zh) | 一种视频语义场景分割及标注方法 | |
CN108564030A (zh) | 面向车载热成像行人检测的分类器训练方法和装置 | |
CN110517293A (zh) | 目标跟踪方法、装置、系统和计算机可读存储介质 | |
CN108549864A (zh) | 面向车载热成像行人检测的感兴趣区域过滤方法和装置 | |
CN104504365A (zh) | 视频序列中的笑脸识别系统及方法 | |
Ren et al. | A novel squeeze YOLO-based real-time people counting approach | |
CN106572387A (zh) | 视频序列对齐方法和系统 | |
CN108171196A (zh) | 一种人脸检测方法及装置 | |
CN111104903A (zh) | 一种深度感知交通场景多目标检测方法和系统 | |
CN103208008A (zh) | 基于机器视觉的交通视频监控目标检测快速适应方法 | |
CN104751136A (zh) | 一种基于人脸识别的多相机视频事件回溯追踪方法 | |
CN104778474A (zh) | 一种用于目标检测的分类器构建方法及目标检测方法 | |
CN108764269A (zh) | 一种基于时空约束增量学习的跨数据集行人再识别方法 | |
CN101216943B (zh) | 一种视频运动目标分割的方法 | |
CN106937120A (zh) | 基于对象的监控视频浓缩方法 | |
CN101908214B (zh) | 基于邻域相关的背景重构的运动目标检测方法 | |
CN103714181A (zh) | 一种层级化的特定人物检索方法 | |
CN108932509A (zh) | 一种基于视频跟踪的跨场景目标检索方法及装置 | |
CN107609509A (zh) | 一种基于运动显著性区域检测的动作识别方法 | |
CN109684986B (zh) | 一种基于车辆检测跟踪的车辆分析方法及系统 | |
CN109948725A (zh) | 基于地址-事件表达的神经网络目标检测装置 | |
CN111626357B (zh) | 一种基于神经网络模型的图像识别方法 | |
CN108986143A (zh) | 一种视频中目标检测跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |