CN106572387B - 视频序列对齐方法和系统 - Google Patents
视频序列对齐方法和系统 Download PDFInfo
- Publication number
- CN106572387B CN106572387B CN201610986952.4A CN201610986952A CN106572387B CN 106572387 B CN106572387 B CN 106572387B CN 201610986952 A CN201610986952 A CN 201610986952A CN 106572387 B CN106572387 B CN 106572387B
- Authority
- CN
- China
- Prior art keywords
- video
- video clip
- video sequence
- scene type
- clip
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000002864 sequence alignment Methods 0.000 title claims abstract description 31
- 238000000034 method Methods 0.000 title abstract description 13
- 238000009825 accumulation Methods 0.000 claims description 8
- 238000000638 solvent extraction Methods 0.000 claims description 8
- 239000000203 mixture Substances 0.000 abstract description 3
- 238000004364 calculation method Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000017105 transposition Effects 0.000 description 2
- 229910017435 S2 In Inorganic materials 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44012—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种视频序列对齐方法和系统,方法包括以下步骤:从待对齐的视频序列中抓取无场景切换的视频片段;将所述视频片段输入至预先训练的高斯混合模型,分别计算所述视频片段属于各个场景类别的概率值,将概率值最大的场景类别设为所述视频片段所属的第一场景类别;将所述视频片段与预存的原始视频序列中属于所述第一场景类别的视频片段进行对齐。所述方法和系统能够有效减少视频对齐的时间,提高视频对齐的效率。
Description
技术领域
本发明涉及信号检测技术领域,特别是涉及一种视频序列对齐方法和系统。
背景技术
显示设备是一种可输出图像或感触信息的设备。为了保证显示设备正常工作,通常需要对显示设备的一些性能参数进行检测。以电视机为例,电视机的主板灵敏度是电视机的一个重要性能性能参数。
现有的检测电视机主板灵敏度的方案是:利用原始的视频信号作为参考,将待检测的视频信号与原始视频信号进行对齐,将对齐后的视频信号的信号强度调整为经所述显示设备输出后无马赛克效应与出现马赛克效应之间的临界信号强度,并根据该信号强度确定所述显示设备的性能参数。
然而,当作为样本的原始视频序列较长时,传统视频对齐方法需要从一段较长的原始视频序列中定位待对齐的视频序列,导致信号处理效率较低。
发明内容
基于此,有必要针对信号处理效率较低的问题,提供一种视频序列对齐方法和系统。
一种视频序列对齐方法,包括以下步骤:
从待对齐的视频序列中抓取无场景切换的视频片段;
将所述视频片段输入至预先训练的高斯混合模型,分别计算所述视频片段属于各个场景类别的概率值,将概率值最大的场景类别设为所述视频片段所属的第一场景类别;
将所述视频片段与预存的原始视频序列中属于所述第一场景类别的视频片段进行对齐。
一种视频序列对齐系统,包括:
视频抓取模块,用于从待对齐的视频序列中抓取无场景切换的视频片段;
第一计算模块,用于将所述视频片段输入至预先训练的高斯混合模型,分别计算所述视频片段属于各个场景类别的概率值,将概率值最大的场景类别设为所述视频片段所属的第一场景类别;
对齐模块,用于将所述视频片段与预存的原始视频序列中属于所述第一场景类别的视频片段进行对齐。
上述视频序列对齐方法和系统,从待对齐的视频序列中抓取无场景切换的视频片段,将所述视频片段输入至预先训练的高斯混合模型,分别计算所述视频片段属于各个场景类别的概率值,将概率值最大的场景类别设为所述视频片段所属的第一场景类别,将所述视频片段与预存的原始视频序列中属于所述第一场景类别的视频片段进行对齐,通过先进行粗对齐找到原始视频序列中属于所述第一场景类别的视频片段,再将待对齐的视频序列与所述第一场景类别的视频片段进行精对齐,能够有效减少视频对齐的时间,提高视频对齐的效率。
附图说明
图1为一个实施例的视频序列对齐方法流程图;
图2为一个实施例的原始视频序列按场景分类示意图;
图3为一个实施例的视频序列对齐系统的结构示意图。
具体实施方式
下面结合附图对本发明的技术方案进行说明。
如图1所示,本发明提供一种视频序列对齐方法,可包括以下步骤:
S1,从待对齐的视频序列中抓取无场景切换的视频片段;
其中,所述视频序列的长度应满足一定的时间代价约束条件,所述时间代价约束条件用于表征视频序列对齐操作花费的时间。一般来说,视频序列的长度越长,对齐过程花费的时间越长。为了满足上述约束条件,一般抓取一段较短的视频片段(例如长度为1秒的视频片段)。
抓取视频片段后,需要对抓取的视频片段进行判断,若不符合条件,则重新抓取。判断的基本原理是:尽量保持获取的视频片段前后变化小,无场景切换等。可采用累积的帧间误差作为评判标准,累积的帧间误差为:
式中,f(zi)为第i个视频帧的特征(例如分区域的颜色直方图),f(zi-1)为第i-1个视频帧的特征,||·||为距离度量函数(例如,L2距离度量函数),T为预设的距离阈值,n为所述待对齐的视频序列中的视频片段的总数。
若不满足上述条件,则需要重新抓取视频片段。一般来说,1秒内的视频片段很容易满足上述条件,因此不会过多地重复采集。
S2,将所述视频片段输入至预先训练的高斯混合模型,分别计算所述视频片段属于各个场景类别的概率值,将概率值最大的场景类别设为所述视频片段所属的第一场景类别;
其中,所述概率值可以根据如下公式计算:
式中,p(Yj/Z)为所述视频片段序列属于第j场景类别的概率值,Z为所述视频片段,zi(i=1,2,…n)为Z中的第i个视频帧,Yj表示所述原始视频序列中属于第j场景类别的视频片段,p(zi/Yj)为视频帧zi属于第j场景类别的概率值。
所述高斯混合模型可以在执行对齐操作之前预先训练。训练方式可包括以下步骤:
步骤1,获取视频序列样本,将所述视频序列样本按场景划分为多个场景类别;
视频序列中,若场景不进行切换,则相邻图像相似度极高。因此可以将视频序列样本按场景划分为较粗的类别,并保持时间先后关系。在粗定位时,只需确定当前视频片段与哪一个类别最为相似即可。具体分类描述如下:
设视频序列样本为Y=[y1,y2,...ym],m为视频序列样本中的视频帧的总数。按场景划分为多个类别,如图2所示。图2中,Yl为视频序列样本中的第l个视频片段,每个视频片段包括若干个视频帧。
可以预先在场景边界做标注,根据该标注信息进行场景划分(一般原始视频序列20-30分钟,标注量不大,并且是一次性工作),也可以采用典型的帧间累积误差自动进行场景分类:累积的帧间误差为:
其中,f(yi)表示第i个视频帧的特征表示(例如分区域的颜色直方图),||·||是距离度量函数。若d(Y)小于设置的阈值,则将当前相邻图像划分为同一个类别;后续未划分的序列则重复上述划分过程即可。
步骤2,分别计算属于各个场景类别的视频片段样本的特征,将所述特征导入预先建立的高斯混合模型,获取所述高斯混合模型的权重、期望值与方差值的约束条件;
所述高斯混合模型是一种场景类别生成模型,其针对输入图像,能直接或间接得到该图像属于任何一个类别的概率。高斯混合模型的计算量较小,速度快,并且用较多的混合分量可以描述较为复杂类别。例如,对于类别Yl,其类条件概率函数为:
其中K是高斯分量个数,需要事先设置;ωj,μj,Cj分别表示该GMM(GaussianMixture Model,高斯混合模型)的第j个高斯分量的权重、均值和方差,T表示转置操作。在类别样本Yl=[yc,...ym]已知的情况下,可以采用任意的图像特征算法提取该类别下所有样本对应的特征。在后续粗定位中,特征获取算法应与此处使用的特征获取算法要保持一致。
步骤3,对所述约束条件进行迭代求解,获取所述权重、期望值与方差值。
例如,可以利用EM算法(Expectation Maximization Algorithm,期望最大化算法)迭代优化得到上述三个参数。
步骤4,可以根据所述权重、期望值与方差值获取所述高斯混合模型。
S3,将所述视频片段与预存的原始视频序列中属于所述第一场景类别的视频片段进行对齐。
步骤S2已经粗略定位当前视频片段Z=[z0,z1,...zn]属于哪个类别YJ=[yu,yu+1,...yv]。本步骤即将在中精确地定位当前视频片段所属位置。为了防止边界问题,可以将YJ进行左右扩展为YJ=[yu-n,yu-n+1,…yv+n],则精确对齐的计算方式为:
其中,YJ=[yu-n,yu-n+1,…yv+n];
式中,Q表示所述视频片段与原始视频序列的最佳对齐位置,d(·)为距离度量函数,Z为所述视频片段,zi为Z中的第i个视频帧,Yj=[yu,yu+1,…yv]表示所述原始视频序列中属于第j场景类别的视频片段,yi为Yj中的第i个视频帧,yu-i(i=1,2,…,n)为y0前i时刻的视频帧,yv+i(i=1,2,…,n)为yn后i时刻的视频帧,n为正整数,q∈[u-n,v]。
上述视频序列对齐方法,采用由粗到精的搜索策略,通过先进行粗对齐找到原始视频序列中属于所述第一场景类别的视频片段,再将待对齐的视频序列与所述第一场景类别的视频片段进行精对齐,有效减少了视频对齐的时间,提高了视频对齐的效率。
如图3所示,本发明提供一种视频序列对齐系统,可包括:
视频抓取模块10,用于从待对齐的视频序列中抓取无场景切换的视频片段;
其中,所述视频序列的长度应满足一定的时间代价约束条件,所述时间代价约束条件用于表征视频序列对齐操作花费的时间。一般来说,视频序列的长度越长,对齐过程花费的时间越长。为了满足上述约束条件,一般抓取一段较短的视频片段(例如长度为1秒的视频片段)。
抓取视频片段后,需要对抓取的视频片段进行判断,若不符合条件,则重新抓取。判断的基本原理是:尽量保持获取的视频片段前后变化小,无场景切换等。可设置一判定模块,采用累积的帧间误差作为评判标准,累积的帧间误差为:
式中,f(zi)为第i个视频帧的特征(例如分区域的颜色直方图),f(zi-1)为第i-1个视频帧的特征,||·||为距离度量函数(例如,L2距离度量函数),T为预设的距离阈值,n为所述待对齐的视频序列中的视频片段的总数。
若不满足上述条件,则需要重新抓取视频片段。一般来说,1秒内的视频片段很容易满足上述条件,因此不会过多地重复采集。
第一计算模块20,用于将所述视频片段输入至预先训练的高斯混合模型,分别计算所述视频片段属于各个场景类别的概率值,将概率值最大的场景类别设为所述视频片段所属的第一场景类别;
其中,所述概率值可以根据如下公式计算:
式中,p(Yj/Z)为所述视频片段序列属于第j场景类别的概率值,Z为所述视频片段,zi(i=1,2,…n)为Z中的第i个视频帧,Yj表示所述原始视频序列中属于第j场景类别的视频片段,p(zi/Yj)为视频帧zi属于第j场景类别的概率值。
所述高斯混合模型可以在执行对齐操作之前预先训练。所述视频序列对齐系统还可包括:
分类模块,用于获取视频序列样本,将所述视频序列样本按场景划分为多个场景类别;
视频序列中,若场景不进行切换,则相邻图像相似度极高。因此可以将视频序列样本按场景划分为较粗的类别,并保持时间先后关系。在粗定位时,只需确定当前视频片段与哪一个类别最为相似即可。具体分类描述如下:
设视频序列样本为Y=[y1,y2,...ym],m为视频序列样本中的视频帧的总数。按场景划分为多个类别,如图2所示。图2中,Yl为视频序列样本中的第l个视频片段,每个视频片段包括若干个视频帧。
可以预先在场景边界做标注,根据该标注信息进行场景划分(一般原始视频序列20-30分钟,标注量不大,并且是一次性工作),也可以采用典型的帧间累积误差自动进行场景分类:累积的帧间误差为:
其中,f(yi)表示第i个视频帧的特征表示(例如分区域的颜色直方图),||·||是距离度量函数。若d(Y)小于设置的阈值,则将当前相邻图像划分为同一个类别;后续未划分的序列则重复上述划分过程即可。
第二计算模块,用于分别计算属于各个场景类别的视频片段样本的特征,将所述特征导入预先建立的高斯混合模型,获取所述高斯混合模型的权重、期望值与方差值的约束条件;
所述高斯混合模型是一种场景类别生成模型,其针对输入图像,能直接或间接得到该图像属于任何一个类别的概率。高斯混合模型的计算量较小,速度快,并且用较多的混合分量可以描述较为复杂类别。例如,对于类别Yl,其类条件概率函数为:
其中K是高斯分量个数,需要事先设置;ωj,μj,Cj分别表示该GMM(GaussianMixture Model,高斯混合模型)的第j个高斯分量的权重、均值和方差,T表示转置操作。在类别样本Yl=[yc,...ym]已知的情况下,可以采用任意的图像特征算法提取该类别下所有样本对应的特征。在后续粗定位中,特征获取算法应与此处使用的特征获取算法要保持一致。
求解模块,用于对所述约束条件进行迭代求解,获取所述权重、期望值与方差值。
例如,可以利用EM算法(Expectation Maximization Algorithm,期望最大化算法)迭代优化得到上述三个参数。
模型获取模块,用于根据所述权重、期望值与方差值获取所述高斯混合模型。
对齐模块30,用于将所述视频片段与预存的原始视频序列中属于所述第一场景类别的视频片段进行对齐。
第一计算模块20已经粗略定位当前视频片段Z=[z0,z1,...zn]属于哪个类别YJ=[yu,yu+1,...yv]。对齐模块30即将在中精确地定位当前视频片段所属位置。为了防止边界问题,可以将YJ进行左右扩展为YJ=[yu-n,yu-n+1,...yv+n],则精确对齐的计算方式为:
其中,YJ=[yu-n,yu-n+1,…yv+n];
式中,Q表示所述视频片段与原始视频序列的最佳对齐位置,d(·)为距离度量函数,Z为所述视频片段,zi为Z中的第i个视频帧,Yj=[yu,yu+1,…yv]表示所述原始视频序列中属于第j场景类别的视频片段,yi为Yj中的第i个视频帧,yu-i(i=1,2,…,n)为y0前i时刻的视频帧,yv+i(i=1,2,…,n)为yn后i时刻的视频帧,n为正整数,q∈[u-n,v]。
上述视频序列对齐系统,采用由粗到精的搜索策略,通过先进行粗对齐找到原始视频序列中属于所述第一场景类别的视频片段,再将待对齐的视频序列与所述第一场景类别的视频片段进行精对齐,有效减少了视频对齐的时间,提高了视频对齐的效率。
本发明的视频序列对齐系统与本发明的视频序列对齐方法一一对应,在上述视频序列对齐方法的实施例阐述的技术特征及其有益效果均适用于视频序列对齐系统的实施例中,特此声明。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种视频序列对齐方法,其特征在于,包括以下步骤:
采用累积的帧间误差作为评判标准,从待对齐的视频序列中抓取无场景切换的视频片段;
将所述视频片段输入至预先训练的高斯混合模型,分别计算所述视频片段属于各个场景类别的概率值,将概率值最大的场景类别设为所述视频片段所属的第一场景类别,实现粗对齐;
将所述视频片段与预存的原始视频序列中属于所述第一场景类别的视频片段进行精对齐。
2.根据权利要求1所述的视频序列对齐方法,其特征在于,在将所述视频片段输入至预先训练的高斯混合模型之前,还包括以下步骤:
获取视频序列样本,将所述视频序列样本按场景划分为多个场景类别,得到若干个视频片段样本;
分别计算属于各个场景类别的视频片段样本的特征,将所述特征导入预先建立的高斯混合模型,获取所述高斯混合模型的权重、期望值与方差值的约束条件;
对所述约束条件进行迭代求解,获取所述权重、期望值与方差值;
根据所述权重、期望值与方差值获取所述高斯混合模型。
3.根据权利要求1所述的视频序列对齐方法,其特征在于,还包括以下步骤:
若所述视频片段满足如下条件,判定所述视频片段无场景切换:
式中,f(zi)为第i个视频帧的特征,f(zi-1)为第i-1个视频帧的特征,||g||为距离度量函数,T为预设的距离阈值,n为所述待对齐的视频序列中的视频片段的总数。
4.根据权利要求1所述的视频序列对齐方法,其特征在于,分别计算所述视频片段属于各个场景类别的概率值的步骤包括:
根据如下公式计算所述视频片段属于各个场景类别的概率值:
式中,p(Yj/Z)为所述视频片段序列属于第j场景类别的概率值,Z为所述视频片段,zi(i=1,2,L n)为Z中的第i个视频帧,Yj表示所述原始视频序列中属于第j场景类别的视频片段,p(zi/Yj)为视频帧zi属于第j场景类别的概率值。
5.根据权利要求1所述的视频序列对齐方法,其特征在于,将所述视频片段与预存的原始视频序列中属于所述第一场景类别的视频片段进行对齐的步骤包括:
根据如下公式将所述视频片段与原始视频序列中属于所述第一场景类别的视频片段进行对齐:
其中,YJ=[yu-n,yu-n+1,Kyv+n];
式中,Q表示所述视频片段与原始视频序列的最佳对齐位置,d(·)为距离度量函数,Z为所述视频片段,zi为Z中的第i个视频帧,YJ=[yu-n,yu-n+1,Kyv+n]表示所述原始视频序列中属于第j场景类别的视频片段,yi为Yj中的第i个视频帧,yu-i(i=1,2,L,n)为y0前i时刻的视频帧,yv+i(i=1,2,L,n)为yn后i时刻的视频帧,n为正整数,q∈[u-n,v]。
6.一种视频序列对齐系统,其特征在于,包括:
视频抓取模块,用于采用累积的帧间误差作为评判标准,从待对齐的视频序列中抓取无场景切换的视频片段;
第一计算模块,用于将所述视频片段输入至预先训练的高斯混合模型,分别计算所述视频片段属于各个场景类别的概率值,将概率值最大的场景类别设为所述视频片段所属的第一场景类别,实现粗对齐;
对齐模块,用于将所述视频片段与预存的原始视频序列中属于所述第一场景类别的视频片段进行精对齐。
7.根据权利要求6所述的视频序列对齐系统,其特征在于,还包括:
分类模块,用于获取视频序列样本,将所述视频序列样本按场景划分为多个场景类别,得到若干个视频片段样本;
第二计算模块,用于分别计算属于各个场景类别的视频片段样本的特征,将所述特征导入预先建立的高斯混合模型,获取所述高斯混合模型的权重、期望值与方差值的约束条件;
求解模块,用于对所述约束条件进行迭代求解,获取所述权重、期望值与方差值;
模型获取模块,用于根据所述权重、期望值与方差值获取所述高斯混合模型。
8.根据权利要求6所述的视频序列对齐系统,其特征在于,还包括:
判定模块,用于若所述视频片段满足如下条件,判定所述视频片段无场景切换:
式中,f(zi)为第i个视频帧的特征,f(zi-1)为第i-1个视频帧的特征,||g||为距离度量函数,T为预设的距离阈值,n为所述待对齐的视频序列中的视频片段的总数。
9.根据权利要求6所述的视频序列对齐系统,其特征在于,所述计算模块进一步根据如下公式计算所述视频片段属于各个场景类别的概率值:
式中,p(Yj/Z)为所述视频片段序列属于第j场景类别的概率值,Z为所述视频片段,zi(i=1,2,L n)为Z中的第i个视频帧,Yj表示所述原始视频序列中属于第j场景类别的视频片段,p(zi/Yj)为视频帧zi属于第j场景类别的概率值。
10.根据权利要求6所述的视频序列对齐系统,其特征在于,所述对齐模块进一步根据如下公式将所述视频片段与原始视频序列中属于所述第一场景类别的视频片段进行对齐:
其中,YJ=[yu-n,yu-n+1,Kyv+n];
式中,Q表示所述视频片段与原始视频序列的最佳对齐位置,d(·)为距离度量函数,Z为所述视频片段,zi为Z中的第i个视频帧,YJ=[yu-n,yu-n+1,Kyv+n]表示所述原始视频序列中属于第j场景类别的视频片段,yi为Yj中的第i个视频帧,yu-i(i=1,2,L,n)为y0前i时刻的视频帧,yv+i(i=1,2,L,n)为yn后i时刻的视频帧,n为正整数,q∈[u-n,v]。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610986952.4A CN106572387B (zh) | 2016-11-09 | 2016-11-09 | 视频序列对齐方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610986952.4A CN106572387B (zh) | 2016-11-09 | 2016-11-09 | 视频序列对齐方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106572387A CN106572387A (zh) | 2017-04-19 |
CN106572387B true CN106572387B (zh) | 2019-09-17 |
Family
ID=58540837
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610986952.4A Active CN106572387B (zh) | 2016-11-09 | 2016-11-09 | 视频序列对齐方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106572387B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108197566B (zh) * | 2017-12-29 | 2022-03-25 | 成都三零凯天通信实业有限公司 | 一种基于多路神经网络的监控视频行为检测方法 |
CN109743591B (zh) * | 2019-01-04 | 2022-01-25 | 广州虎牙信息科技有限公司 | 视频帧对齐的方法 |
CN109936762B (zh) * | 2019-01-12 | 2021-06-25 | 河南图灵实验室信息技术有限公司 | 相似音频或视频文件同步播放的方法以及电子设备 |
CN113453040B (zh) * | 2020-03-26 | 2023-03-10 | 华为技术有限公司 | 短视频的生成方法、装置、相关设备及介质 |
CN113497953A (zh) * | 2020-04-07 | 2021-10-12 | 北京达佳互联信息技术有限公司 | 音乐的场景识别方法、装置、服务器及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7200264B2 (en) * | 2002-04-10 | 2007-04-03 | Hewlett-Packard Development Company, L.P. | White point estimation using color by convolution |
CN101561932A (zh) * | 2009-05-12 | 2009-10-21 | 北京交通大学 | 一种动态复杂背景下的实时运动目标检测方法和装置 |
CN102831580A (zh) * | 2012-07-17 | 2012-12-19 | 西安电子科技大学 | 基于运动检测的手机拍摄图像修复方法 |
CN105227907A (zh) * | 2015-08-31 | 2016-01-06 | 电子科技大学 | 基于视频的无监督异常事件实时检测方法 |
CN105704485A (zh) * | 2016-02-02 | 2016-06-22 | 广州视源电子科技股份有限公司 | 显示设备的性能参数检测方法和系统 |
CN105847964A (zh) * | 2016-03-28 | 2016-08-10 | 乐视控股(北京)有限公司 | 一种影视节目处理方法和系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8264614B2 (en) * | 2008-01-17 | 2012-09-11 | Sharp Laboratories Of America, Inc. | Systems and methods for video processing based on motion-aligned spatio-temporal steering kernel regression |
-
2016
- 2016-11-09 CN CN201610986952.4A patent/CN106572387B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7200264B2 (en) * | 2002-04-10 | 2007-04-03 | Hewlett-Packard Development Company, L.P. | White point estimation using color by convolution |
CN101561932A (zh) * | 2009-05-12 | 2009-10-21 | 北京交通大学 | 一种动态复杂背景下的实时运动目标检测方法和装置 |
CN102831580A (zh) * | 2012-07-17 | 2012-12-19 | 西安电子科技大学 | 基于运动检测的手机拍摄图像修复方法 |
CN105227907A (zh) * | 2015-08-31 | 2016-01-06 | 电子科技大学 | 基于视频的无监督异常事件实时检测方法 |
CN105704485A (zh) * | 2016-02-02 | 2016-06-22 | 广州视源电子科技股份有限公司 | 显示设备的性能参数检测方法和系统 |
CN105847964A (zh) * | 2016-03-28 | 2016-08-10 | 乐视控股(北京)有限公司 | 一种影视节目处理方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN106572387A (zh) | 2017-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106572387B (zh) | 视频序列对齐方法和系统 | |
CN110363122B (zh) | 一种基于多层特征对齐的跨域目标检测方法 | |
CN106612457B (zh) | 视频序列对齐方法和系统 | |
WO2020098158A1 (zh) | 行人重识别方法、装置及计算机可读存储介质 | |
CN104112282B (zh) | 一种基于在线学习跟踪监控视频中多个运动目标的方法 | |
CN102542289B (zh) | 一种基于多高斯计数模型的人流量统计方法 | |
CN108876774A (zh) | 一种基于卷积神经网络的人群计数方法 | |
CN110929679B (zh) | 一种基于gan的无监督自适应行人重识别方法 | |
CN103854292B (zh) | 一种人数及人群运动方向的计算方法及装置 | |
CN110084165A (zh) | 基于边缘计算的电力领域开放场景下异常事件的智能识别与预警方法 | |
CN109657716A (zh) | 一种基于深度学习的车辆外观损伤识别方法 | |
CN104952073B (zh) | 基于深度学习的镜头边缘检测方法 | |
CN105608450A (zh) | 基于深度卷积神经网络的异质人脸识别方法 | |
CN111524164B (zh) | 一种目标跟踪方法、装置及电子设备 | |
CN102156985A (zh) | 基于虚拟卡口的行人及车辆数目计数方法 | |
CN108197669B (zh) | 卷积神经网络的特征训练方法及装置 | |
CN108647595A (zh) | 基于多属性深度特征的车辆重识别方法 | |
CN111353448A (zh) | 基于相关性聚类和时空约束的行人多目标跟踪方法 | |
CN108052887A (zh) | 一种融合slam/gnss信息的疑似违法用地自动识别系统及方法 | |
CN102609724A (zh) | 一种基于双摄像头的周围环境信息提示方法 | |
CN104599291B (zh) | 基于结构相似度和显著性分析的红外运动目标检测方法 | |
CN111191531A (zh) | 一种快速行人检测方法及系统 | |
CN109948725A (zh) | 基于地址-事件表达的神经网络目标检测装置 | |
CN104680193A (zh) | 基于快速相似性网络融合算法的在线目标分类方法与系统 | |
CN105868269A (zh) | 基于区域卷积神经网络的精确图像检索方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |