CN110363164A - 一种基于lstm时间一致性视频分析的统一方法 - Google Patents
一种基于lstm时间一致性视频分析的统一方法 Download PDFInfo
- Publication number
- CN110363164A CN110363164A CN201910649096.7A CN201910649096A CN110363164A CN 110363164 A CN110363164 A CN 110363164A CN 201910649096 A CN201910649096 A CN 201910649096A CN 110363164 A CN110363164 A CN 110363164A
- Authority
- CN
- China
- Prior art keywords
- video
- segment
- semantic
- appearance
- semanteme
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 41
- 238000013459 approach Methods 0.000 title claims abstract description 35
- 238000000034 method Methods 0.000 claims abstract description 35
- 238000013507 mapping Methods 0.000 claims abstract description 18
- 238000012360 testing method Methods 0.000 claims description 56
- 238000012549 training Methods 0.000 claims description 34
- 239000012634 fragment Substances 0.000 claims description 24
- 239000013598 vector Substances 0.000 claims description 19
- 230000014509 gene expression Effects 0.000 claims description 8
- 238000013527 convolutional neural network Methods 0.000 claims description 7
- 230000008901 benefit Effects 0.000 claims description 6
- 238000010219 correlation analysis Methods 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 6
- 230000001419 dependent effect Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 4
- 238000010561 standard procedure Methods 0.000 claims 1
- 238000012545 processing Methods 0.000 abstract description 4
- 238000000605 extraction Methods 0.000 abstract 1
- 238000001514 detection method Methods 0.000 description 8
- 230000018109 developmental process Effects 0.000 description 5
- 238000011161 development Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 244000045232 Canavalia ensiformis Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 240000005373 Panax quinquefolius Species 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 235000010617 Phaseolus lunatus Nutrition 0.000 description 1
- 244000046052 Phaseolus vulgaris Species 0.000 description 1
- 235000010627 Phaseolus vulgaris Nutrition 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于LSTM时间一致性视频分析的统一方法,包括:1)读取待分析的视频片段,并将其分割成一个时间片段序列;2)使用CNN编码视频内容;3)编码视频语义;4)编码视频及语义的联合映射(SVS);5)从语义外观一致性将目标视频语义与数据集语义相匹配;6)从时间一致性将目标视频与数据集语义进行匹配;7)进一步进行细化处理;8)使用LSTM预测语义动态,从而得到最准确的视频分析及摘要提取。本发明为计算机视觉和图像处理领域中一种基于视觉的视频分析的统一方法,能够准确、高效的分析理解视频,并能提取视频的有效信息。
Description
技术领域
本发明属于计算机视觉,数字图像处理等领域,尤其涉及一种基于LSTM的语义外观相似性以及时间一致性的视频分析统一方法。
背景技术
视频分析主要体现在视频分类,视频描述以及时间动作检测上,通过输入一段视频,能够对视频内容进行理解,一直以来都是计算机视觉上一个巨大的挑战。
随着时代的发展,海量视频的不断增长使得准确获取视频主要内容成为当前研究的热点与挑战,由此引出了视频摘要,这是一种对视频内容的简单概括,通过剔除冗余内容而将视频主要内容浓缩成简短的文字或视频图像序列的一种技术,是对视频内容的一种总结。
视频摘要在现代视频技术中应用非常广泛,例如,足球视频中人们关心的只是比赛的关键进球部分;交通监控视频中人们关心的则是事故突发时的所有情况;目标检测视频中人们关心的则是目标人物出现时刻的相关信息……而研究表明,人在盯着视频画面22分钟后将对视频画面里的95%以上的信息视而不见(参见:许彬,张海涛,胡豆豆.云计算平台中监控视频摘要任务调度方法研究.计算机应用与软件,34(7):7-10,2017.),因此,视频摘要技术显得尤为重要,它不仅能够减少人力物力还能够大大提高效率。
视频摘要技术则能够将视频的冗余内容剔除,将一段很长的视频中的有用信息进行筛选并提取出来,便捷而高效。视频摘要涉及通信、视频处理、心理感知、模式识别科学等邻域,具有很强的挑战性。田合雷等人提出了一种基于目标检测及跟踪的视频摘要技术(参见:[3]田合雷,丁胜,于长伟,周立.基于目标检测及跟踪的视频摘要技术研究.计算机科学,43(11):297-312,2016.),将视频背景建模再对运动目标进行检测得到前景运动目标,对目标采用分层关联的思想进行跟踪,最终重组成摘要视频;郝雪等人针对关键帧数目确定方法的灵活性及直观性不足的问题,提出一种基于SVD和稀疏子空间聚类的视频摘要算法(参见:郝雪,彭国华.基于SVD和稀疏子空间聚类的视频摘要.计算机辅助设计与图形学报,29(3):485-492,2017.),利用SVD将视频降维,再利用稀疏子空间聚类对视频帧进行聚类,最后选取关键帧生成摘要视频;冀中等人为了克服捕捉帧之间复杂关系的缺点,提出一种基于超图排序算法的视频摘要(参见:冀中,樊帅飞.基于超图排序算法的视频摘要.电子学报,5(45):1035-1043,2017.),通过构建视频超图模型将内在关联的视频帧连接,再基于超图排序将视频帧按内容分类,最后通过求解一种优化函数来生成静态视频摘要。
综合来看,目前的视频分析方法无法将视频分类、视频摘要以及动作检测很好的融合到一起并系统的理解视频,对于视频理解方面还有进一步的研究、发展空间。
发明内容
本发明所要解决的技术问题是基于背景技术所指出的当前的视频分析方法无法将视频分类、视频摘要以及动作检测很好地融合到一起并系统的理解视频,本发明提出了一种基于LSTM时间一致性视频分析的统一方法,提取出视频摘要,进行动作检测及预测。
本发明为解决上述技术问题采用如下技术方案:
本发明提出一种基于LSTM时间一致性视频分析的统一方法,包括以下步骤:
步骤1,读取待分析的测试视频片段C,将测试视频和参考视频基准分割成一个视频片段序列;
步骤2,编码视频内容:将视频片段序列表示成连续的帧Ii,i∈1,2,...,n,n表示片段序列的帧数;对于单帧Ii,使用卷积神经网络CNN来对其外观空间表示进行编码;对于多个帧,则用多个单帧合并获得视频片段的可视特征表示;
步骤3,编码视频语义:将视频的外观空间表示集用A表示,设用s描述一个视频片段C的文本语义,其中s是一个包含自然语言单词的字符串序列,将s中的单词序列映射到一个数字向量空间S(s1,...,sm),其中m是s中的单词数量,S即为视频语义集;
步骤4,将视频外观空间及语义映射到SVS联合空间:使用正则化相关分析CCA将所有片段的外观空间表示A和相关语义的数字向量空间S联合映射到SVS,其中CCA映射是通过对每一片段真实语义的训练完成的;该步骤的执行完成将视频片段的外观空间表示与相关语义映射到SVS的相邻两个点,继而实现:当查找一个视频片段的外观空间表示时,通过欧几里得距离就能找到相应的语义;
步骤5,视频外观与语义的一致性匹配:构建一个视频片段的训练(参考)数据集,包括视频片段的外观表示和相关语义;依据步骤2-4将测试视频片段处理为SVS空间的一个片段序列,在训练集中为每个测试片段选择最匹配的语义;
步骤6,从时间一致性将测试视频片段语义与训练集语义进行匹配:依据Markovian假设,测试视频片段i的语义仅仅取决于片段i的外观表示及其前一片段i-1的语义;将先验概率设为均匀分布,使用联合SVS表示的L2范数来定义后验概率,应用标准的维特比方法获得一个序列V,使得概率最大化;
步骤7,进一步细化匹配:使用受限维特比方法提供V*的赋值,选取概率值最大的语义;
步骤8,预测语义的动态:采用LSTM RNN网络完成模型训练并预测下一个视频片段的最准确语义。
进一步,本发明提出的一种基于LSTM时间一致性视频分析的统一方法,步骤1包括以下步骤:
读取待分析的测试视频片段C以及各类的参考视频基准,参考视频基准包括:
LSMDC’16基准,用于测试视频字幕,
SumMe和TVSum基准,用于测试视频摘要,
Thumos2014基准,用于测试时间动作,
Greatest Hits基准,用于测试声音;
然后将训练视频和测试视频分割成一个时间片段序列。
进一步,本发明提出的一种基于LSTM时间一致性视频分析的统一方法,步骤2包括以下步骤:
步骤2-1,对于一个给定的视频帧,用VGG-19CNN来编码视频片段的外观,使用这个网络的最后一层预测ImegeNet类标签,表示为单一编码;将这个网络当作一个功能转换函数f:I→a',并且从网络的倒数第二层为视频帧I返回4,096D的响应矢量;
步骤2-2,将每个单一帧编码后,使用RNN网络进行训练,通过给出(ai-k,…,ai-1)的编码,预测未来帧ai的特征编码。
进一步,本发明提出的一种基于LSTM时间一致性视频分析的统一方法,步骤3使用最近的混合高斯拉普拉斯混合模型的Fisher向量(FV-HGLMM)将数字向量序列映射到固定维度的向量上。
进一步,本发明提出的一种基于LSTM时间一致性视频分析的统一方法,步骤4包括如下步骤:
步骤4-1,对于每个片段,使用正则化典型相关分析CCA将片段外观表示A及其相关语义表示S投影到VA和VS,即联合映射到语义视频空间SVS;
步骤4-2,,使用每个基准提供真实语义来训练CCA映射,使得每个片段的外观及其相关语义映射到SVS的两个相邻点;
步骤4-3,给定一个测试视频片段的外观表示,使用标准的欧几里得距离在参考数据集中查询此片段的潜在语义分配。
进一步,本发明提出的一种基于LSTM时间一致性视频分析的统一方法,步骤5包括以下步骤:
步骤5-1,假设视频片段的训练数据集及其相关语义在SVS中获得的外观表示i∈M的连续索引值表示具有M个片段的测试视频中的连续片段;
步骤5-2,给定测试片段序列的外观表示寻找相应的一组参考语义这里j表示索引参考集中的N个片段,将每个测试片段通过以下公式与训练集片段相关联:
进一步,本发明提出的一种基于LSTM时间一致性视频分析的统一方法,步骤6包括以下步骤:
步骤6-1,假设分配给输入测试片段i的语义是依赖于片段i的外观以及其前面i-1片段的语义,则能够得到片段外观及其选定语义的联合分布的标准因式分解如下:
步骤6-2,设先验为均匀分布,将外观和语义映射到联合SVS,则可使用这些表示的L2范数来表示后验概率:
应用标准的维特比法获得一个序列V,使得概率最大化。
进一步,本发明提出的一种基于LSTM时间一致性视频分析的统一方法,步骤7包括以下内容:
考虑测试片段的外观空间表示,用维特比法提供一个赋值V*,并将赋值表示为实际上,是一个长尾分布,由于概率大于零而且接近于零,只有极少数元素能够足够接近任意一个采用两种措施限制维特比方法:第一种,只考虑半径为5,即r'=5的最近邻域语义特征;第二种,对数据项的概率设置一个阀值,并且不考虑语义相似性概率值低于阀值的情况,因此邻域半径取1~5。
进一步,本发明提出的一种基于LSTM时间一致性视频分析的统一方法,步骤8包括以下步骤:
步骤8-1,在参考视频足够多且连续的前提下,采用监督学习的方法,其中语义标签由视频片段相关联的语义随时间变化来设置,并通过LSTM模型预测的赋值
步骤8-2,使用LSTM RNN来训练视频片段的语义和外观表示,该网络可表示为如下函数:
在给定被测试片段的前一片段的语义表示和当前片段外观的前提下能够预测出时间i的语义表示训练数据中每一对先前片段的真实语义和当前片段的外观表示都提供了一个用于训练LSTM的样本,LSTM使用了两个隐藏层,每个隐藏层都有1000个LSTM细胞元。
本发明采用以上技术方案,与现有技术相比所具有的优点在于:
(1)本发明是一种视频分析的统一方法,该方法可更准确的理解视频的外观及语义。
(2)本发明通过LSTM RNN对大量的数据进行训练,可预测频视下一帧的语义动态。
附图说明
图1为本发明方法的基本流程图。
图2(a)、图2(b)为实验结果,图2(a)是使用LSTM来预测下一片段的最准确语义,其中包含了时间一致性和语义一致性,图2(b)显示的是视频摘要的结果,丢弃不重要的信息,保留了重要的信息。
具体实施方式
下面结合实施例对本发明作进一步说明,但本发明的保护范围不限于此:
本技术领域技术人员可以理解的是,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。
本方法根据视频片段的外观及语义,将测试视频分割成一个时间序列片段,最终通过外观相似性以及时间一致性来分析视频、理解视频。
本发明方法的流程图如图1所示,主要根据视频的外观及语义信息,将测试视频分割成一个时间片段序列,并同时考虑了语义外观相似性以及时间一致性,结果和真实外观及语义越相似则效果越好。
本实例的实验开发和运行环境是:英特尔酷睿i5-7200 2.50GHz四核CPU(处理器),NVIDIA GeForce GTX 760GPU(显卡),8G内存,软件环境Python 2.7(软件开发工具)和tensorflow 0.8(软件开发环境)。
本发明主要用于对视频的分析和理解,通过分割视频成为更多的片段,再将片段与视频基准集进行匹配,在外观语义相似性的同时考虑了时间一致性,对视频外观和语义同时分析,并且能够使用LSTM预测语义的动态变化。
实施例1:
本发明提出一种基于LSTM时间一致性视频分析的统一方法,包括以下步骤:
步骤1,读取待分析的测试视频片段C,将测试视频和训练视频(即参考视频基准)分割成一个视频片段序列;
步骤2,编码视频内容:将视频片段序列表示成连续的帧Ii,i∈1,2,...,n,n表示片段序列的帧数;对于单帧Ii,使用卷积神经网络CNN来对其外观空间表示进行编码;对于多个帧,则用多个单帧合并获得视频片段的可视特征表示;
步骤3,编码视频语义:将视频的外观空间表示集用A表示。由于视频中的文本信息包含大量的视频语义信息,所以用文本信息表达视频语义。设用s描述一个视频片段C的文本语义,其中s是一个包含自然语言单词的字符串序列,将s中的单词序列映射到一个数字向量空间S(s1,...,sm),其中m是s中的单词数量,S即为视频语义集;
步骤4,视频外观空间及语义映射到SVS联合空间:使用正则化相关分析CCA将所有片段的外观空间表示A和相关语义的数字向量空间S联合映射到SVS,其中CCA映射是通过对每一片段真实语义的训练完成的;该步骤的执行完成将视频片段的外观空间表示与相关语义映射到SVS的相邻两个点,继而实现:当查找一个视频片段的外观空间表示时,通过欧几里得距离很容易找到相应的语义;
步骤5,视频外观与语义的一致性匹配:构建一个视频片段的训练(参考)数据集,包括视频片段的外观表示和相关语义。依据步骤2-4将测试视频片段处理为SVS空间的一个片段序列,如表示第i个片段,这一步在训练集中为每个测试片段选择最匹配的语义;
步骤6,从时间一致性将测试视频片段语义与训练集语义进行匹配:依据Markovian假设,测试视频片段i的语义仅仅取决于片段i的外观表示及其前一片段i-1的语义;将先验概率设为均匀分布,使用联合SVS表示的L2范数来定义后验概率,应用标准的维特比方法获得一个序列V,使得概率最大化;
步骤7,进一步细化匹配:使用受限维特比方法提供V*的赋值,选取概率值最大的语义;
步骤8,预测语义的动态:维特比方法虽然有效且采用非监督学习方法,但是其平滑方法会导致恒常数语义。因此,在训练集充裕并来自连续的视频时,本发明采用监督学习方法,解决平滑度带来的问题。具体采用LSTM RNN网络完成模型训练并预测下一个视频片段的最准确语义。
采用本方案可以获得以下有益效果:
(1)本发明是一种视频分析的统一方法,该方法可更准确的理解视频的外观及语义。
(2)本发明通过LSTM RNN对大量的数据进行训练,可预测视频下一帧的语义动态并提取主要内容。时间和语义一致性的效果展示如图2(a)所示,视频摘要的效果展示如图2(b)所示。
实施例2:
如实施例1所述的一种基于LSTM时间一致性视频分析的统一方法,步骤1包括:
读取待分析的测试视频片段C以及各类的参考视频基准,参考视频基准包括:
LSMDC’16基准,用于测试视频字幕,
SumMe和TVSum基准,用于测试视频摘要,
Thumos2014基准,用于测试时间动作,
Greatest Hits基准,用于测试声音;
然后将训练视频和测试视频分割成一个时间片段序列。
实施例3:如实施例2所述的一种基于LSTM时间一致性视频分析的统一方法,步骤2包括:
步骤2-1,对于一个给定的视频帧,用VGG-19CNN来编码视频片段的外观,使用这个网络的最后一层预测ImegeNet类标签,表示为单一编码;将这个网络当作一个功能转换函数f:I→a',并且从网络的倒数第二层为视频帧I返回4,096D的响应矢量;
步骤2-2,将每个单一帧编码后,使用RNN网络进行训练,通过给出(ai-k,…,ai-1)的编码,预测未来帧ai的特征编码。
实施例4:如实施例3所述的一种基于LSTM时间一致性视频分析的统一方法,步骤3包括:
步骤3-1,视频的字幕中提供了丰富的信息源,而视频的相关语义又取决于当前的任务,因此,视频语义在很大程度上依赖于基于标签数据的单独语义。对于那些监督信号具有低维度的动作检测和视频摘要任务,标签的语义空间在每个片段中只有几个比特信息,并且在片段之间没有足够的区分能力,那么视频片段的语义空间VS和外观空间VA则几乎相同,这里将它们统一表示为A。假设用s描述一个视频片段C的文本语义,其中s是一个包含自然语言单词的字符串序列,使用word2vec将s中的单词序列映射到一个数字向量空间S(s1,...,sm),其中m是s中的单词数量,S即为视频语义集;
步骤3-2,使用混合高斯拉普拉斯混合模型的Fisher矢量(FV-HGLMM)将步骤3-1中的数字向量序列映射到固定维度的向量上。
实施例5:如实施例4所述的一种基于LSTM时间一致性视频分析的统一方法,步骤4包括:
步骤4-1,对于每个片段,使用正则化典型相关分析(CCA)将片段外观表示A及其相关语义表示S投影到VA和VS,即联合映射到语义视频空间(SVS);
步骤4-2,,使用每个基准提供真实语义来训练CCA映射,使得每个片段的外观及其相关语义映射到SVS的两个相邻点;
步骤4-3,给定一个测试视频片段的外观表示,使用标准的欧几里得距离在参考数据集中查询此片段的潜在语义分配。
实施例6:如实施例5所述的一种基于LSTM时间一致性视频分析的统一方法,步骤5包括:
步骤5-1,假设视频片段的训练数据集及其相关语义在SVS中获得的外观表示i∈M的连续索引值表示具有M个片段的测试视频中的连续片段;
步骤5-2,给定测试片段序列的外观表示寻找相应的一组参考语义这里j表示索引参考集中的N个片段,将每个测试片段通过以下公式与训练集片段相关联:
实施例7:如实施例6所述的一种基于LSTM时间一致性视频分析的统一方法,步骤6包括:
步骤6-1,假设分配给输入测试片段i的语义是依赖于片段i的外观以及其前面i-1片段的语义,则能够得到片段外观及其选定语义的联合分布的标准因式分解如下:
步骤6-2,设先验为均匀分布,将外观和语义映射到联合SVS,则可使用这些表示的L2范数来表示后验概率:
应用标准的维特比法获得一个序列V,使得概率最大化。
实施例8:如实施例7所述的一种基于LSTM时间一致性视频分析的统一方法,步骤7包括:
考虑测试片段的外观空间表示,用维特比法提供一个赋值V*,并将赋值表示为实际上,是一个长尾分布,由于概率大于零而且接近于零,只有极少数元素能够足够接近任意一个所以这里采用两种措施限制维特比方法:第一种,只考虑半径为5(r'=5)的最近邻域语义特征;第二种,对数据项的概率设置一个阀值,并且不考虑语义相似性概率值低于阀值的情况,因此邻域半径取1~5。
实施例9:如实施例8所述的一种基于LSTM时间一致性视频分析的统一方法,步骤8包括:
步骤8-1,在参考视频足够多且连续的前提下,提供一种确保平滑度的有效方法,具体采用监督学习的方法,其中语义标签由视频片段相关联的语义随时间变化来设置,并通过LSTM模型预测的赋值
步骤8-2,使用LSTM RNN来训练视频片段的语义和外观表示,该网络可表示为如下函数:
在给定被测试片段的前一片段的语义表示和当前片段外观的前提下能够预测出时间i的语义表示训练数据中每一对先前片段的真实语义和当前片段的外观表示都提供了一个用于训练LSTM的样本,LSTM使用了两个隐藏层,每个隐藏层都有1000个LSTM细胞元。
以上所述仅是本发明的部分实施方式,应当指出,在不脱离本发明原理的前提下,本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,这些补充和类似替代方案也应视为本发明的保护范围。
Claims (9)
1.一种基于LSTM时间一致性视频分析的统一方法,其特征在于,包括以下步骤:
步骤1,读取待分析的测试视频片段C,将测试视频和参考视频基准分割成一个视频片段序列;
步骤2,编码视频内容:将视频片段序列表示成连续的帧Ii,i∈1,2,...,n,n表示片段序列的帧数;对于单帧Ii,使用卷积神经网络CNN来对其外观空间表示进行编码;对于多个帧,则用多个单帧合并获得视频片段的可视特征表示;
步骤3,编码视频语义:将视频的外观空间表示集用A表示,设用s描述一个视频片段C的文本语义,其中s是一个包含自然语言单词的字符串序列,将s中的单词序列映射到一个数字向量空间S(s1,...,sm),其中m是s中的单词数量,S即为视频语义集;
步骤4,将视频外观空间及语义映射到SVS联合空间:使用正则化相关分析CCA将所有片段的外观空间表示A和相关语义的数字向量空间S联合映射到SVS,其中CCA映射是通过对每一片段真实语义的训练完成的;将视频片段的外观空间表示与相关语义映射到SVS的相邻两个点,继而实现:当查找一个视频片段的外观空间表示时,通过欧几里得距离就能找到相应的语义;
步骤5,视频外观与语义的一致性匹配:构建一个视频片段的训练数据集,包括视频片段的外观表示和相关语义;依据步骤2-4将测试视频片段处理为SVS空间的一个片段序列,在训练集中为每个测试片段选择最匹配的语义;
步骤6,从时间一致性将测试视频片段语义与训练集语义进行匹配:依据Markovian假设,测试视频片段i的语义仅仅取决于片段i的外观表示及其前一片段i-1的语义;将先验概率设为均匀分布,使用联合SVS表示的L2范数来定义后验概率,应用标准的维特比方法获得一个序列V,使得概率最大化;
步骤7,进一步细化匹配:使用受限维特比方法提供V*的赋值,选取概率值最大的语义;
步骤8,预测语义的动态:采用LSTM RNN网络完成模型训练并预测下一个视频片段的最准确语义。
2.根据权利要求1所述的一种基于LSTM时间一致性视频分析的统一方法,其特征在于,步骤1包括以下步骤:
读取待分析的测试视频片段C以及各类的参考视频基准,参考视频基准包括:
LSMDC’16基准,用于测试视频字幕,
SumMe和TVSum基准,用于测试视频摘要,
Thumos2014基准,用于测试时间动作,
Greatest Hits基准,用于测试声音;
然后将参考视频和测试视频分割成一个时间片段序列。
3.根据权利要求2所述的一种基于LSTM时间一致性视频分析的统一方法,其特征在于,步骤2包括以下步骤:
步骤2-1,对于一个给定的视频帧,用VGG-19 CNN来编码视频片段的外观,使用这个网络的最后一层预测ImegeNet类标签,表示为单一编码;把这个网络当作一个功能转换函数f:I→a',并且从网络的倒数第二层为视频帧I返回4,096D的响应矢量;
步骤2-2,将每个单一帧编码后,使用RNN网络进行训练,通过给出(ai-k,…,ai-1)的编码,预测未来帧ai的特征编码。
4.根据权利要求3所述的一种基于LSTM时间一致性视频分析的统一方法,其特征在于,步骤3使用最近的混合高斯拉普拉斯混合模型的Fisher向量将数字向量序列映射到固定维度的向量上。
5.根据权利要求4所述的一种基于LSTM时间一致性视频分析的统一方法,其特征在于,步骤4包括如下步骤:
步骤4-1,对于每个片段,使用正则化典型相关分析CCA将片段外观表示A及其相关语义表示S投影到VA和VS,即联合映射到语义视频空间SVS;
步骤4-2,,使用每个基准提供真实语义来训练CCA映射,使得每个片段的外观及其相关语义映射到SVS的两个相邻点;
步骤4-3,给定一个测试视频片段的外观表示,使用标准的欧几里得距离在参考数据集中查询此片段的潜在语义分配。
6.根据权利要求5所述的一种基于LSTM时间一致性视频分析的统一方法,其特征在于,步骤5包括以下步骤:
步骤5-1,假设视频片段的训练数据集及其相关语义在SVS中获得的外观表示i∈M的连续索引值表示具有M个片段的测试视频中的连续片段;
步骤5-2,给定测试片段序列的外观表示寻找相应的一组参考语义这里j表示索引参考集中的N个片段,将每个测试片段通过以下公式与训练集片段相关联:
7.根据权利要求6所述的一种基于LSTM时间一致性视频分析的统一方法,其特征在于,步骤6包括以下步骤:
步骤6-1,假设分配给输入测试片段i的语义是依赖于片段i的外观以及其前面i-1片段的语义,则能够得到片段外观及其选定语义的联合分布的标准因式分解如下:
步骤6-2,设先验为均匀分布,将外观和语义映射到联合SVS,则可使用这些表示的L2范数来表示后验概率:
应用标准的维特比法获得一个序列V,使得概率最大化。
8.根据权利要求7所述的一种基于LSTM时间一致性视频分析的统一方法,其特征在于,步骤7包括以下内容:
考虑测试片段的外观空间表示,用维特比法提供一个赋值V*,并将赋值表示为实际上,是一个长尾分布,由于概率大于零而且接近于零,只有极少数元素能够足够接近任意一个因此采用两种措施限制维特比方法:第一种,只考虑半径为5,即r'=5的最近邻域语义特征;第二种,对数据项的概率设置一个阀值,并且不考虑语义相似性概率值低于阀值的情况,因此邻域半径取1~5。
9.根据权利要求8所述的一种基于LSTM时间一致性视频分析的统一方法,其特征在于,步骤8包括以下步骤:
步骤8-1,在参考视频足够多且连续的前提下,采用监督学习的方法,其中语义标签由视频片段相关联的语义随时间变化来设置,并通过LSTM模型预测的赋值
步骤8-2,使用LSTM RNN来训练视频片段的语义和外观表示,该网络可表示为如下函数:
在给定被测试片段的前一片段的语义表示和当前片段外观的前提下能够预测出时间i的语义表示训练数据中每一对先前片段的真实语义和当前片段的外观表示都提供了一个用于训练LSTM的样本,LSTM使用了两个隐藏层,每个隐藏层都有1000个LSTM细胞元。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910649096.7A CN110363164A (zh) | 2019-07-18 | 2019-07-18 | 一种基于lstm时间一致性视频分析的统一方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910649096.7A CN110363164A (zh) | 2019-07-18 | 2019-07-18 | 一种基于lstm时间一致性视频分析的统一方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110363164A true CN110363164A (zh) | 2019-10-22 |
Family
ID=68220725
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910649096.7A Pending CN110363164A (zh) | 2019-07-18 | 2019-07-18 | 一种基于lstm时间一致性视频分析的统一方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110363164A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112597966A (zh) * | 2021-01-05 | 2021-04-02 | 武汉球之道科技有限公司 | 一种基于比赛视频的动作自动识别方法 |
TWI830604B (zh) * | 2023-02-21 | 2024-01-21 | 中華電信股份有限公司 | 視頻主題分析系統、方法及其電腦可讀媒介 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070055695A1 (en) * | 2005-08-24 | 2007-03-08 | International Business Machines Corporation | System and method for semantic video segmentation based on joint audiovisual and text analysis |
CN107038221A (zh) * | 2017-03-22 | 2017-08-11 | 杭州电子科技大学 | 一种基于语义信息引导的视频内容描述方法 |
CN108765383A (zh) * | 2018-03-22 | 2018-11-06 | 山西大学 | 基于深度迁移学习的视频描述方法 |
-
2019
- 2019-07-18 CN CN201910649096.7A patent/CN110363164A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070055695A1 (en) * | 2005-08-24 | 2007-03-08 | International Business Machines Corporation | System and method for semantic video segmentation based on joint audiovisual and text analysis |
CN107038221A (zh) * | 2017-03-22 | 2017-08-11 | 杭州电子科技大学 | 一种基于语义信息引导的视频内容描述方法 |
CN108765383A (zh) * | 2018-03-22 | 2018-11-06 | 山西大学 | 基于深度迁移学习的视频描述方法 |
Non-Patent Citations (2)
Title |
---|
DOTAN KAUFMAN: "Temporal Tessellation: A Unified Approach for Video Analysis" * |
易军凯等: "图像内容理解的深度学习方法", 《计算机工程与设计》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112597966A (zh) * | 2021-01-05 | 2021-04-02 | 武汉球之道科技有限公司 | 一种基于比赛视频的动作自动识别方法 |
CN112597966B (zh) * | 2021-01-05 | 2024-05-28 | 武汉球之道科技有限公司 | 一种基于比赛视频的动作自动识别方法 |
TWI830604B (zh) * | 2023-02-21 | 2024-01-21 | 中華電信股份有限公司 | 視頻主題分析系統、方法及其電腦可讀媒介 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hu et al. | Recognition of pornographic web pages by classifying texts and images | |
Gao et al. | Multi‐dimensional data modelling of video image action recognition and motion capture in deep learning framework | |
CN110097000A (zh) | 基于局部特征聚合描述符和时序关系网络的视频行为识别方法 | |
Yin et al. | Region search based on hybrid convolutional neural network in optical remote sensing images | |
Tang et al. | Weakly supervised learning of deformable part-based models for object detection via region proposals | |
Liu et al. | Subtler mixed attention network on fine-grained image classification | |
CN108520281A (zh) | 一种基于全局与局部保持的高光谱图像半监督降维方法 | |
CN108805102A (zh) | 一种基于深度学习的视频字幕检测与识别方法及系统 | |
Wang et al. | S 3 D: Scalable pedestrian detection via score scale surface discrimination | |
Dharani et al. | Content based image retrieval system using feature classification with modified KNN algorithm | |
Pan et al. | A bottom-up summarization algorithm for videos in the wild | |
CN110363164A (zh) | 一种基于lstm时间一致性视频分析的统一方法 | |
Zhang et al. | Semisupervised center loss for remote sensing image scene classification | |
CN109934852B (zh) | 一种基于对象属性关系图的视频描述方法 | |
Liu et al. | Analyzing periodicity and saliency for adult video detection | |
Pan et al. | Hybrid dilated faster RCNN for object detection | |
Sultana et al. | A study on food value estimation from images: taxonomies, datasets, and techniques | |
Wang et al. | Deep learning for scene-independent crowd analysis | |
Wang et al. | Action recognition using linear dynamic systems | |
Li et al. | An Object Co-occurrence Assisted Hierarchical Model for Scene Understanding. | |
Li et al. | Human interaction recognition fusing multiple features of depth sequences | |
CN106570124B (zh) | 基于对象级关联规则的遥感图像语义检索方法及系统 | |
Huang et al. | Age-puzzle facenet for cross-age face recognition | |
Wang et al. | SAFD: single shot anchor free face detector | |
Lu et al. | Superpixel level object recognition under local learning framework |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |