CN108780522B - 用于视频理解的使用基于运动的注意力的递归网络 - Google Patents
用于视频理解的使用基于运动的注意力的递归网络 Download PDFInfo
- Publication number
- CN108780522B CN108780522B CN201780015185.5A CN201780015185A CN108780522B CN 108780522 B CN108780522 B CN 108780522B CN 201780015185 A CN201780015185 A CN 201780015185A CN 108780522 B CN108780522 B CN 108780522B
- Authority
- CN
- China
- Prior art keywords
- video stream
- neural network
- recurrent neural
- current frame
- optical flow
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 title abstract description 24
- 230000003287 optical effect Effects 0.000 claims abstract description 65
- 230000009471 action Effects 0.000 claims abstract description 55
- 238000000034 method Methods 0.000 claims abstract description 45
- 238000013528 artificial neural network Methods 0.000 claims description 77
- 230000000306 recurrent effect Effects 0.000 claims description 57
- 230000015654 memory Effects 0.000 claims description 36
- 230000006403 short-term memory Effects 0.000 claims description 10
- 230000011218 segmentation Effects 0.000 claims description 6
- 210000002569 neuron Anatomy 0.000 description 37
- 238000012545 processing Methods 0.000 description 33
- 238000010586 diagram Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 14
- 238000013527 convolutional neural network Methods 0.000 description 11
- 239000013598 vector Substances 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 230000008901 benefit Effects 0.000 description 7
- 210000004027 cell Anatomy 0.000 description 6
- 238000004590 computer program Methods 0.000 description 6
- 230000001537 neural effect Effects 0.000 description 6
- 238000010606 normalization Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000011478 gradient descent method Methods 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 238000007477 logistic regression Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000005022 packaging material Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000002087 whitening effect Effects 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000009189 diving Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000023886 lateral inhibition Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 210000000653 nervous system Anatomy 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
一种预测视频流的动作标签的方法包括:接收该视频流以及计算该视频流的连贯帧的光流。从该视频流的当前帧和计算出的光流生成注意力图。基于光流、先前隐藏状态和注意力图来预测当前帧的动作标签。
Description
相关申请的交叉引用
本申请要求于2016年3月11日提交的题为“RECURRENT NETWORKS WITH MOTION-BASED ATTENTION FOR VIDEO UNDERSTANDING(用于视频理解的使用基于运动的注意力的递归网络)”的美国临时专利申请No.62/306,972的权益,其公开内容通过援引全部明确纳入于此。
背景
领域
本公开的某些方面一般涉及机器学习,尤其涉及改进用于预测视频流的标签的系统和方法。
背景技术
可以包括一群互连的人工神经元(例如,神经元模型)的人工神经网络是一种计算设备或者表示将由计算设备执行的方法。
卷积神经网络是一种前馈人工神经网络。卷积神经网络可以包括神经元集合,其中每个神经元具有感受野并且共同地拼出一输入空间。卷积神经网络(CNN)具有众多应用。具体而言,CNN已被广泛使用于模式识别和分类领域。
递归神经网络(RNN)是一类神经网络,其包括网络的节点或单元之间的循环连接。循环连接创建了可以用作使得RNN能够对动态系统进行建模的存储器的内部状态。也就是说,这些循环连接为RNN提供编码存储器的能力,并且如此,这些网络在被成功地训练的情况下适用于序列学习应用。
长短期记忆(LSTM)是微电路中的一种RNN,其由使用门控功能和乘法器来将值存储在存储器中的多个单元组成。LSTM能够将值保持在存储器中达任一时间长度。如此,LSTM在学习、分类系统(例如,手写和语音识别系统)和其他应用中可以是有用的。
概述
在本公开的一方面,给出了一种预测视频流的动作标签的方法。该方法包括接收视频流。该方法还包括计算视频流的当前帧和下一帧的光流。该方法另外包括从视频流的当前帧和计算出的光流生成注意力图。该方法进一步包括基于光流、先前隐藏状态和注意力图来预测当前帧的动作标签。
在本公开的另一方面,给出了一种用于预测视频流的动作标签的装置。该装置包括存储器以及耦合至该存储器的至少一个处理器。该一个或多个处理器被配置成接收视频流。(诸)处理器还被配置成计算视频流的当前帧和下一帧的光流。(诸)处理器被另外配置成从视频流的当前帧和计算出的光流生成注意力图。(诸)处理器被进一步配置成基于光流、先前隐藏状态和注意力图来预测当前帧的动作标签。
在本公开的又一方面,给出了一种用于预测视频流的动作标签的设备。该设备包括用于接收视频流的装置。该设备还包括用于计算视频流的当前帧和下一帧的光流的装置。该设备另外包括用于从视频流的当前帧和计算出的光流生成注意力图的装置。该设备进一步包括用于基于光流、先前隐藏状态和注意力图来预测当前帧的动作标签的装置。
根据本公开的再一方面,给出了一种非瞬态计算机可读介质。该非瞬态计算机可读介质其上编码有用于预测视频流的动作标签的程序代码。该程序代码由处理器执行,并且包括用于接收视频流的程序代码。该程序代码还包括用于计算视频流的当前帧和下一帧的光流的程序代码。该程序代码另外包括用于从视频流的当前帧和计算出的光流生成注意力图的程序代码。该程序代码进一步包括用于基于光流、先前隐藏状态和注意力图来预测当前帧的动作标签的程序代码。
本公开的附加特征和优点将在下文描述。本领域技术人员应当领会,本公开可容易地被用作修改或设计用于实施与本公开相同的目的的其他结构的基础。本领域技术人员还应认识到,这样的等效构造并不脱离所附权利要求中所阐述的本公开的教导。被认为是本公开的特性的新颖特征在其组织和操作方法两方面连同进一步的目的和优点在结合附图来考虑以下描述时将被更好地理解。然而,要清楚理解的是,提供每一幅附图均仅用于解说和描述目的,且无意作为对本公开的限定的定义。
附图简述
在结合附图理解下面阐述的详细描述时,本公开的特征、本质和优点将变得更加明显,在附图中,相同附图标记始终作相应标识。
图1解说了根据本公开的某些方面的使用片上系统(SOC)(包括通用处理器)来设计神经网络的示例实现。
图2解说了根据本公开的各方面的系统的示例实现。
图3A是解说根据本公开的各方面的神经网络的示图。
图3B是解说根据本公开的各方面的示例性深度卷积网络(DCN)的框图。
图4是解说根据本公开的各方面的递归神经网络(RNN)的示意图。
图5A是解说根据本公开的各方面的视频帧中要为其预测标签的图像的示图。
图5B是解说根据本公开的各方面的用于预测视频帧中的动作的示例性架构的示图。
图6是解说根据本公开的各方面的用于预测视频帧中的动作的示例性架构的示图。
图7解说了根据本公开的各方面的用于预测视频流中的标签的方法。
详细描述
以下结合附图阐述的详细描述旨在作为各种配置的描述,而无意表示可实践本文中所描述的概念的仅有配置。本详细描述包括具体细节以便提供对各种概念的透彻理解。然而,对于本领域技术人员将显而易见的是,没有这些具体细节也可实践这些概念。在一些实例中,以框图形式示出众所周知的结构和组件以避免湮没此类概念。
基于本教导,本领域技术人员应领会,本公开的范围旨在覆盖本公开的任何方面,不论其是与本公开的任何其他方面相独立地还是组合地实现的。例如,可以使用所阐述的任何数目的方面来实现装置或实践方法。另外,本公开的范围旨在覆盖使用作为所阐述的本公开的各个方面的补充或者与之不同的其他结构、功能性、或者结构及功能性来实践的此类装置或方法。应当理解,所披露的本公开的任何方面可由权利要求的一个或多个元素来实施。
措辞“示例性”在本文中用于表示“用作示例、实例、或解说”。本文中描述为“示例性”的任何方面不必被解释为优于或胜过其他方面。
尽管本文描述了特定方面,但这些方面的众多变体和置换落在本公开的范围之内。虽然提到了优选方面的一些益处和优点,但本公开的范围并非旨在被限定于特定益处、用途或目标。相反,本公开的各方面旨在能宽泛地应用于不同的技术、系统配置、网络和协议,其中一些作为示例在附图以及以下对优选方面的描述中解说。详细描述和附图仅仅解说本公开而非限定本公开,本公开的范围由所附权利要求及其等效技术方案来定义。
用于视频理解的使用注意力和运动的递归网络
对于使用密集轨迹的传统视频编码或更新近的双流深度卷积神经网络架构两者而言,运动信息在传统上已经是自动视频理解的重要组成部分。与针对图像的卷积神经网络不同,最初提出递归网络来对有序数据进行优雅地建模。一种递归网络的流行变型是长短期记忆(LSTM)架构。该模型可以处置消失的梯度,并且由此更适于对较长序列进行建模。因此,使用LSTM可能有益于对视频的顺序时间结构进行建模并且更好地理解视听内容。
常规LSTM架构在给定视频帧中的各个空间位置之间不进行区分。相反,常规LSTM架构同等地对待视频帧中的所有位置。然而,为了理解视频,考虑动作是由行动者执行的并且存在比其他区域更感兴趣或更相关的某些区域是有益的。一些常规办法已经提出了针对动作分类的注意力LSTM,其更注重与感兴趣的动作更相关的特定帧位置。这种注意力采用显著性图(例如,显著区域图)的形式,其指令LSTM网络在视频帧中在哪里聚焦。常规注意力LSTM使用帧t处的LSTM状态来生成针对帧t+1的注意力,从而有效地预测下一帧中的动作的位置。然而,常规注意力LSTM模型仅依赖于外观,而忽略有价值的运动信息。
相应地,本公开的各方面涉及人工神经网络(诸如递归神经网络(RNN)),其利用外观和运动信息来生成注意力显著性图。此外,本公开的各方面涉及基于所生成的注意力图来预测视频流的视频帧的动作标签(例如,感兴趣的对象的运动活动的标签)。
图1解说了根据本公开的某些方面的用于使用片上系统(SOC)100来预测视频流的动作标签的示例实现,SOC 100可以包括通用处理器(CPU)或多核通用处理器(CPU)102。变量(例如,神经信号和突触权重)、与计算设备相关联的系统参数(例如,带有权重的神经网络)、延迟、频率槽信息、以及任务信息可被存储在与神经处理单元(NPU)108相关联的存储器块、与CPU 102相关联的存储器块、与图形处理单元(GPU)104相关联的存储器块、与数字信号处理器(DSP)106相关联的存储器块、专用存储器块118中,或可跨多个块分布。在通用处理器102处执行的指令可从与CPU 102相关联的程序存储器加载或可从专用存储器块118加载。
SOC 100还可以包括为具体功能定制的附加处理块(诸如GPU 104、DSP 106、连通性块110(其可以包括第四代长期演进(4G LTE)连通性、无执照Wi-Fi连通性、USB连通性、蓝牙连通性等))以及例如可检测和识别姿势的多媒体处理器112。在一种实现中,NPU实现在CPU、DSP、和/或GPU中。SOC 100还可以包括传感器处理器114、图像信号处理器(ISP)、和/或导航120(其可以包括全球定位系统)。
SOC 100可基于ARM指令集。在本公开的一方面,加载到通用处理器102中的指令可以包括用于接收视频流的代码。被加载到通用处理器102中的指令还可以包括:用于计算视频流的当前帧和前一帧或者当前帧和下一帧的光流的代码。另外,被加载到通用处理器102中的指令可以包括:用于从视频流的当前帧和计算出的光流生成注意力图的代码。此外,被加载到通用处理器102中的指令可以包括:用于基于光流、先前隐藏状态和注意力图来预测当前帧的动作标签的代码。
图2解说了根据本公开的某些方面的系统200的示例实现。如图2中所解说的,系统200可具有可以执行本文中所描述的方法的各种操作的多个局部处理单元202。每个局部处理单元202可以包括局部状态存储器204和可存储神经网络的参数的局部参数存储器206。另外,局部处理单元202可具有用于存储局部模型程序的局部(神经元)模型程序(LMP)存储器208、用于存储局部学习程序的局部学习程序(LLP)存储器210、以及局部连接存储器212。此外,如图2中所解说的,每个局部处理单元202可与用于为该局部处理单元的各局部存储器提供配置的配置处理器单元214对接,并且与提供各局部处理单元202之间的路由的路由连接处理单元216对接。
神经网络可被设计成具有各种连通性模式。在前馈网络中,信息从较低层被传递到较高层,其中给定层中的每个神经元向更高层中的神经元进行传达。如上所述,可在前馈网络的相继层中构建阶层式表示。神经网络还可具有递归或反馈(也被称为自顶向下(top-down))连接。在递归连接中,来自给定层中的神经元的输出可被传达给相同层中的另一神经元。递归架构可有助于识别跨越不止一个按顺序递送给该神经网络的输入数据组块的模式。从给定层中的神经元到较低层中的神经元的连接被称为反馈(或自顶向下)连接。当高层级概念的识别可辅助辨别输入的特定低层级特征时,具有许多反馈连接的网络可能是有助益的。
参照图3A,神经网络的各层之间的连接可以是全连接的(302)或局部连接的(304)。在全连接网络302中,第一层中的神经元可将它的输出传达给第二层中的每个神经元,从而第二层中的每个神经元将从第一层中的每个神经元接收输入。替换地,在局部连接网络304中,第一层中的神经元可连接至第二层中有限数目的神经元。卷积网络306可以是局部连接的,并且被进一步配置成使得与针对第二层中每个神经元的输入相关联的连接强度被共享(例如,308)。更一般化地,网络的局部连接层可被配置成使得一层中的每个神经元将具有相同或相似的连通性模式,但其连接强度可具有不同的值(例如,310、312、314和316)。局部连接的连通性模式可能在更高层中产生空间上相异的感受野,这是由于给定区域中的更高层神经元可接收到通过训练被调谐为到网络的总输入的受限部分的性质的输入。
局部连接的神经网络可能非常适合于其中输入的空间位置有意义的问题。例如,被设计成识别来自车载摄像机的视觉特征的网络300可发展具有不同性质的高层神经元,这取决于它们与图像下部关联还是与图像上部关联。例如,与图像下部相关联的神经元可学习以识别车道标记,而与图像上部相关联的神经元可学习以识别交通信号灯、交通标志等。
深度卷积网络(DCN)可以用受监督式学习来训练。在训练期间,可向DCN呈递图像(诸如限速标志的经裁剪图像326),并且可随后计算“前向传递(forward pass)”以产生输出322。输出322可以是对应于特征(诸如“标志”、“60”、和“100”)的值向量。网络设计者可能希望DCN在输出特征向量中针对其中一些神经元输出高得分,例如与经训练网络300的输出322中所示的“标志”和“60”对应的那些神经元。在训练之前,DCN产生的输出很可能是不正确的,并且由此可计算实际输出与目标输出之间的误差。DCN的权重可随后被调整以使得DCN的输出得分与目标更紧密地对准。
为了调整权重,学习算法可为权重计算梯度向量。该梯度可指示在权重被略微调整情况下误差将增加或减少的量。在顶层,该梯度可直接对应于连接倒数第二层中的活化神经元与输出层中的神经元的权重的值。在较低层中,该梯度可取决于权重的值以及所计算出的较高层的误差梯度。权重可随后被调整以减小误差。这种调整权重的方式可被称为“后向传播”,因为其涉及在神经网络中的“后向传递(backward pass)”。
在实践中,权重的误差梯度可能是在少量示例上计算的,从而计算出的梯度近似于真实误差梯度。这种近似方法可被称为随机梯度下降法。随机梯度下降法可被重复,直到整个系统可达成的误差率已停止下降或直到误差率已达到目标水平。
在学习之后,DCN可被呈递新图像326并且在网络中的前向传递可产生输出322,其可被认为是该DCN的推断或预测。
深度卷积网络(DCN)是卷积网络的网络,其配置有附加的池化和归一化层。DCN已在许多任务上达成现有最先进的性能。DCN可使用受监督式学习来训练,其中输入和输出目标两者对于许多典范是已知的并被用于通过使用梯度下降法来修改网络的权重。
DCN可以是前馈网络。另外,如上所述,从DCN的第一层中的神经元到下一更高层中的神经元群的连接跨第一层中的神经元被共享。DCN的前馈和共享连接可被利用于进行快速处理。DCN的计算负担可比例如类似大小的包括递归或反馈连接的神经网络小得多。
卷积网络的每一层的处理可被认为是空间不变模版或基础投影。如果输入首先被分解成多个通道,诸如彩色图像的红色、绿色和蓝色通道,那么在该输入上训练的卷积网络可被认为是三维的,其具有沿着该图像的轴的两个空间维度以及捕捉颜色信息的第三维度。卷积连接的输出可被认为在后续层318和320中形成特征图,该特征图(例如,320)中的每个元素从先前层(例如,318)中一定范围的神经元以及从该多个通道中的每一个通道接收输入。特征图中的值可以用非线性(诸如矫正)max(0,x)进一步处理。来自毗邻神经元的值可被进一步池化(这对应于降采样)并可提供附加的局部不变性以及维度缩减。还可通过特征图中神经元之间的侧向抑制来应用归一化,其对应于白化。
图3B是解说示例性深度卷积网络350的框图。深度卷积网络350可以包括多个基于连通性和权重共享的不同类型的层。如图3B所示,该示例性深度卷积网络350包括多个卷积块(例如,C1和C2)。每个卷积块可配置有卷积(CONV)层、归一化(LNorm)层、和池化层。卷积层可以包括一个或多个卷积滤波器,其可被应用于输入数据以生成特征图。尽管仅示出了两个卷积块,但本公开不限于此,而是,根据设计偏好,任何数目的卷积块可被包括在深度卷积网络350中。归一化层可被用于对卷积滤波器的输出进行归一化。例如,归一化层可提供白化或侧向抑制。池化层可提供在空间上的降采样聚集以实现局部不变性和维度缩减。
例如,深度卷积网络的平行滤波器组可任选地基于ARM指令集被加载到SOC 100的CPU 102或GPU 104上以达成高性能和低功耗。在替换实施例中,平行滤波器组可被加载到SOC 100的DSP 106或ISP 116上。另外,DCN可访问其他可存在于SOC上的处理块,诸如专用于传感器114和导航120的处理块。
深度卷积网络350还可以包括一个或多个全连接层(例如,FC1和FC2)。深度卷积网络350可进一步包括逻辑回归(LR)层。深度卷积网络350的每一层之间是要被更新的权重(未示出)。每一层的输出可以用作深度卷积网络350中后续层的输入以从第一卷积块C1处提供的输入数据(例如,图像、音频、视频、传感器数据和/或其他输入数据)学习阶层式特征表示。
图4是解说递归神经网路(RNN)400的示意图。递归神经网路400包括输入层402、具有递归连接的隐藏层404、以及输出层406。给定具有多个输入向量xt的输入序列X(例如,X={x0,x1,x2…xT}),递归神经网络400将为输出序列Z(例如,Z={z0…zT})的每个输出向量zT预测分类标签yt。对于图4,且如图4中所示的,在输入层402和输出层406之间指定具有M个单元(例如,ho…ht)的隐藏层404。隐藏层404的M个单元存储关于输入序列X的先前值的信息。
该M个单元可以是计算节点(例如,神经元)。在一种配置中,递归神经网络400接收输入XT并且通过迭代以下等式来生成输出ZT的分类标签yt:
st=Whxxt+Whhht-1+bh (1)
ht=f(st) (2)
ot=Wyhht+by (3)
yt=g(ot) (4)
其中Whx、Whh和Wyh是权重矩阵,bh和by是偏差,及是分别给隐藏层404和输出层406的输入,而f和g是非线性函数。函数f可以包括矫正器线性单元(RELU),并且在一些方面,函数g可以包括线性函数和softmax(柔性最大)函数。另外,将隐藏层节点初始化为固定偏差bi,以使得在t=0时h0=bi。在一些方面,bi可被设为零(例如,bi=0)。具有单个训练对(x,y)的递归神经网络的目标函数C(θ)被定义为C(θ)=∑tLt(z,y(θ)),其中θ表示递归神经网络中的参数集(权重和偏置)。对于回归问题,Lt=‖(zt-yt)2‖,而对于多类分类问题,Lt=-∑jztjlog(ytj)。
图5A是解说来自帧序列(例如,视频)的要为其预测分类标签的帧(例如,图像)的示图。参照图5A,提供帧(It)504作为给神经网络(诸如递归神经网络)的输入。可以例如通过使用先前隐藏状态和作为给神经网络(例如,RNN)的输入的当前特征图(Xt)的多层感知来预测对应于帧504的注意力图(at)502。注意力图(at)502可以与从帧504生成的特征图(Xt)组合。例如,特征图可以从卷积神经网络的上卷积层(例如,图3B中的FC2)或者经由递归神经网络来生成。特征图可以是针对外观、光流、运动边界(例如,光流的梯度)、特征级的语义分割等的二维(2D)或三维(3D)特征图。
注意力图502提供了递归神经网络(RNN)或长短期记忆网络(LSTM),以及帧504中的动作的位置。该动作可以通过使用外观运动信息来确定。如图5A中所示,注意力图at和特征图Xt可以通过帧504中的所有空间位置上的加权和来组合以计算经加权的特征图xt(例如,)作为给RNN(或LSTM)的输入,其中指示特征图Xt中各个位置k处的特征向量(切片),而是该帧中其位置处的注意力图的权重。
图5B解说了用于预测帧中的动作的注意力递归神经网络的架构500的示例。示例性架构500可以包括递归神经网络,诸如长短期记忆(例如,注意力长短期记忆(LSTM)网络)。示例性架构500可以包括具有输入单元(例如,x1、x2、x3、……)的输入层、具有隐藏单元(例如,r1、r2、r3、……)的隐藏层、以及具有输出单元(例如,y1、y2、y3、……)和注意力图(例如,a1、a2、a3、……)的输出层。这些单元中的每一者可以例如包括人工神经元或神经单元。如图5B中所示,对于(例如,帧序列中的)第一帧,注意力图a1和特征图X1被提供并被用来计算给注意力递归神经网络的第一隐藏单元r1的第一输入x1。在一些方面,第一帧的特征图(X1)可以包括外观信息(例如,来自帧的内容的视觉信息)。
第一隐藏单元r1预测第一分类标签y1并输出用来生成第二帧的第二注意力图a2(例如,后续注意力图)的第一隐藏状态h1。分类标签可被称为标签、感兴趣的类别、或动作标签。此外,分类标签指示帧中和/或帧序列中的动作、对象、事件。第一隐藏单元r1还将第一隐藏状态h1输出到第二隐藏单元r2。一时间步处的隐藏状态是该时间步处的神经网络(例如,注意力RNN)的内部表示。
特征图X2和第二注意力图a2可被用来确定注意力RNN的第二输入x2,其被输入给第二隐藏单元r2(其生成第二隐藏状态h2)。第二隐藏单元r2的隐藏状态随后被用来预测第三注意力图a3和第二帧的第二分类标签y2(例如,动作)。
特征图X3和注意力图a3可被用来确定注意力RNN的输入x3,其被提供给第三隐藏单元r3。第三隐藏单元r3的隐藏状态被用来预测下一注意力图和第三帧的动作标签y3(例如,帧3的动作)。随后可以在每个后续时间步处针对每个后续帧重复该过程。
图6是解说根据本公开的各方面的用于预测帧和/或帧序列中的动作的示例性架构600的示图。示例性架构600可被配置为包括上层递归神经网络和下层递归神经网络的分层网络(例如,两层递归神经网络)。尽管架构600包括递归神经网络(LSTM),但这是示例性的,因为还考虑了其他神经网络架构。例如,上层可以是递归神经网络,而下层可以是卷积神经网络的上卷积层。在另一示例中,上层或下层可以包括递归神经网络,并且上层或下层可以包括多个堆叠式递归神经网络或长短期记忆层。
下层递归神经网络使用运动信息ft和来自前一帧的隐藏状态来生成当前帧t的注意力显著性图。运动信息ft可以从可以使用当前帧和下一帧估计的光流产生。运动信息ft可以经由CNN的上卷积层来产生。例如,下层递归神经网络单元rl2可以使用先前隐藏单元rl1的隐藏状态、上层递归神经网络单元rp1的隐藏状态hp1、以及运动信息f2来生成第二帧的注意力图a2。如此,下层递归神经网络可以为上层递归神经网络提供注意力图。这些层单元可以是人工神经元或神经单元。
所生成的当前帧的注意力图at可以与帧序列(例如,视频流)的当前帧的表示相组合。帧表示可以是帧特征图Xt,以为上层递归神经网络创建输入xt。进而,上层递归神经网络可被配置成输出当前帧t的分类标签yt。另外,上层递归神经网络rpt可以输出上层递归神经网络(RNN)单元的隐藏状态ht,其可被提供给下层递归神经网络的后续隐藏单元rlt,并被用来计算或推断后续帧的注意力图at+1。
在操作中,如图6中所示,对于第一帧(时间步t1),注意力图a1可以使用第一下隐藏单元rl1来预测,第一下隐藏单元rl1接收运动信息ft作为给分层网络的下层的输入。运动信息可以从可以使用第一帧和第二帧计算出的光流产生。在一种配置中,光流是使用两个毗邻的帧(例如,视频帧)来计算的。注意力图a1被提供给帧特征图X1以计算包括组合特征的输入x1。第一输入x1的组合特征被输出到第一上隐藏层rp1,其可以预测第一分类标签y1。例如,第一分类标签可以将帧标记为包括潜水员,如图5A的帧504中所示的。
另外,第一上层单元rp1输出其隐藏状态hp1作为给下一帧处的后续下隐藏单元rl2的输入。在该示例中,第二下隐藏单元rl2从第一下隐藏单元rl1接收下单元隐藏状态hl1。第一上隐藏单元rp1的隐藏状态还被提供给上层的第二上隐藏单元rp2。隐藏单元rl2还接收从光流产生的运动输入f2。光流输入可以是预测帧(例如,帧t)的像素将如何移动到下一帧(例如,帧t+1)处的像素的向量场。例如,如果光流向量是在x,y处表达为2,3的2D向量,则光流指示帧t的像素将在后续帧t+1中向右移动2个像素并向上移动3个像素。也就是说,光流跟踪像素中的动作并且考虑运动以预测视频帧或帧序列内的最显著的特征。
使用光流和来自先前隐藏单元rp1和rl1的隐藏状态(例如,hp1和hl1),可以经由隐藏层单元rl2推断出新注意力图a2。第二注意力图a2可以与第二帧的帧外观特征图X2一起使用以计算给第二上隐藏单元rp2的第二输入x2。与先前帧相比,可以包括运动信息(例如光流)的第二注意力图a2可以改进该帧中感兴趣的区域(例如,行动者)的标识。由此,第二注意力图可以改进标签预测。
第二上隐藏单元rp2随后可以预测推断第二分类标签y2的新隐藏状态hp2。第二上隐藏单元rp2的隐藏状态可被输出到第三下隐藏单元rl3,并且可以与第二下隐藏单元rl2的隐藏状态以及运动输入(例如,光流)f3一起使用以计算第三帧的第三注意力图a3。第三注意力图a3可以与第三帧的特征表示(例如,第三帧特征图X3)一起使用以计算第三上隐藏单元rp3的第三输入x3,其进而预测推断第三帧的分类标签的新隐藏状态。此后,可以重复该过程。
本公开的各方面并不限于图5B和6中所示的神经网络的示例性隐藏单元的数目。当然,也构想了更多或更少个神经网络的隐藏单元。
在一种配置中,机器学习模型被配置成用于接收视频流。该模型还被配置成用于计算视频流的当前帧和前一帧或者当前帧和下一帧的光流。另外,该模型被配置成用于从视频流的当前帧和计算出的光流生成注意力图。此外,该模型被配置成用于基于光流、先前隐藏状态和注意力图来预测当前帧的动作标签。该模型包括接收装置、用于计算光流的装置、用于生成注意力图的装置和/或用于预测动作标签的装置。在一个方面,接收装置、计算装置、生成装置和/或预测装置可以是配置成执行所叙述功能的通用处理器102、与通用处理器102相关联的程序存储器、存储器块118、局部处理单元202、和/或路由连接处理单元216。在另一配置中,前述装置可以是配置成执行由前述装置所叙述的功能的任何模块或任何装置。
根据本公开的某些方面,每个局部处理单元202可被配置成基于模型的一个或多个期望功能特征来确定模型的参数,以及随着所确定的参数被进一步适配、调谐和更新来使这一个或多个功能特征朝着期望的功能特征发展。
图7解说了预测视频流的动作标签的方法700。在框702,该过程接收视频流。例如,神经网络从帧序列(例如,视频)接收要为其预测分类标签的帧(例如,图像)。参照图5A,提供帧(It)504作为给神经网络(诸如递归神经网络)的输入。在框704,该过程计算光流。该光流可以针对视频流的当前帧和下一帧来计算。在一些方面,光流可以从视频流的连贯帧来计算。在框706,该过程从该视频流的当前帧和计算出的光流生成注意力图。例如,如在图5A中看见的,可以例如通过使用先前隐藏状态和作为给神经网络(例如,RNN)的输入的当前特征图(Xt)的多层感知来预测对应于帧504的注意力图(at)502。
可任选地,在框708,该过程可以从该视频流的该当前帧和该光流计算2D或3D特征图。例如,特征图可以从卷积神经网络的上卷积层(例如,图3B中的FC2)或者经由递归神经网络来生成。该2D或3D特征图可以基于帧外观、光流(例如,运动边界)、声谱图(音频)、语义分割(例如,对象标签)或其组合来确定。
此外,在框710,该过程基于视频帧、先前隐藏状态和注意力图来预测当前帧的动作标签。动作标签可以例如描述由视频流的一帧中感兴趣的对象执行的动作、运动或活动(例如,潜水、跑步)。在一些方面,递归神经网络(RNN)预测动作标签。在一些配置中,RNN可以包括长短期记忆网络。
该过程可以进一步在可任选框712预测第二动作标签。该第二动作标签是基于光流、先前隐藏状态、2D或3D特征图和注意力图针对下一帧来预测的。
在一些方面,方法700可由SOC 100(图1)或系统200(图2)来执行。即,举例而言但不作为限定,方法700的每个元素可由SOC 100或系统200、或者一个或多个处理器(例如,CPU 102和局部处理单元202)和/或其中所包括的其他组件来执行。
以上所描述的方法的各种操作可由能够执行相应功能的任何合适的装置来执行。这些装置可以包括各种硬件和/或(诸)软件组件和/或(诸)模块,包括但不限于电路、专用集成电路(ASIC)、或处理器。一般而言,在附图中有解说的操作的场合,那些操作可具有带相似编号的相应配对装置加功能组件。
如本文所使用的,术语“确定”涵盖各种各样的动作。例如,“确定”可以包括演算、计算、处理、推导、研究、查找(例如,在表、数据库或其他数据结构中查找)、探知及诸如此类。另外,“确定”可以包括接收(例如接收信息)、访问(例如访问存储器中的数据)、及类似动作。此外,“确定”可以包括解析、选择、选取、确立及类似动作。
如本文中所使用的,引述一列项目“中的至少一个”的短语是指这些项目的任何组合,包括单个成员。作为示例,“a、b或c中的至少一个”旨在涵盖:a、b、c、a-b、a-c、b-c、以及a-b-c。
结合本公开所描述的各种解说性逻辑框、模块、以及电路可用设计成执行本文中所描述的功能的通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列信号(FPGA)或其他可编程逻辑器件(PLD)、分立的门或晶体管逻辑、分立的硬件组件或其任何组合来实现或执行。通用处理器可以是微处理器,但在替换方案中,处理器可以是任何市售的处理器、控制器、微控制器、或状态机。处理器还可以被实现为计算设备的组合,例如,DSP与微处理器的组合、多个微处理器、与DSP核心协同的一个或多个微处理器、或任何其他此类配置。
结合本公开描述的方法或算法的步骤可直接在硬件中、在由处理器执行的软件模块中、或在这两者的组合中实施。软件模块可驻留在本领域所知的任何形式的存储介质中。可使用的存储介质的一些示例包括随机存取存储器(RAM)、只读存储器(ROM)、闪存、可擦除可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM)、寄存器、硬盘、可移动盘、CD-ROM,等等。软件模块可以包括单条指令、或许多条指令,且可分布在若干不同的代码段上,分布在不同的程序间以及跨多个存储介质分布。存储介质可被耦合至处理器以使得该处理器能从/向该存储介质读写信息。替换地,存储介质可以被整合到处理器。
本文中所公开的方法包括用于达成所描述的方法的一个或多个步骤或动作。这些方法步骤和/或动作可以彼此互换而不会脱离权利要求的范围。换言之,除非指定了步骤或动作的特定次序,否则具体步骤和/或动作的次序和/或使用可以改动而不会脱离权利要求的范围。
所描述的功能可在硬件、软件、固件或其任何组合中实现。如果以硬件实现,则示例硬件配置可以包括设备中的处理系统。处理系统可以用总线架构来实现。取决于处理系统的具体应用和整体设计约束,总线可以包括任何数目的互连总线和桥接器。总线可将包括处理器、机器可读介质、以及总线接口的各种电路链接在一起。总线接口可用于尤其将网络适配器等经由总线连接至处理系统。网络适配器可用于实现信号处理功能。对于某些方面,用户接口(例如,按键板、显示器、鼠标、操纵杆,等等)也可以被连接到总线。总线还可以链接各种其他电路,诸如定时源、外围设备、稳压器、功率管理电路以及类似电路,它们在本领域中是众所周知的,因此将不再进一步描述。
处理器可负责管理总线和一般处理,包括执行存储在机器可读介质上的软件。处理器可用一个或多个通用和/或专用处理器来实现。示例包括微处理器、微控制器、DSP处理器、以及其他能执行软件的电路系统。软件应当被宽泛地解释成意指指令、数据、或其任何组合,无论是被称作软件、固件、中间件、微代码、硬件描述语言、或其他。作为示例,机器可读介质可以包括随机存取存储器(RAM)、闪存存储器、只读存储器(ROM)、可编程只读存储器(PROM)、可擦式可编程只读存储器(EPROM)、电可擦式可编程只读存储器(EEPROM)、寄存器、磁盘、光盘、硬驱动器、或者任何其他合适的存储介质、或其任何组合。机器可读介质可被实施在计算机程序产品中。该计算机程序产品可以包括包装材料。
在硬件实现中,机器可读介质可以是处理系统中与处理器分开的一部分。然而,如本领域技术人员将容易领会的,机器可读介质或其任何部分可在处理系统外部。作为示例,机器可读介质可以包括传输线、由数据调制的载波、和/或与设备分开的计算机产品,所有这些都可由处理器通过总线接口来访问。替换地或补充地,机器可读介质或其任何部分可被集成到处理器中,诸如高速缓存和/或通用寄存器文件可能就是这种情形。虽然所讨论的各种组件可被描述为具有特定位置,诸如局部组件,但它们也可按各种方式来配置,诸如某些组件被配置成分布式计算系统的一部分。
处理系统可以被配置为通用处理系统,该通用处理系统具有一个或多个提供处理器功能性的微处理器、以及提供机器可读介质中的至少一部分的外部存储器,它们都通过外部总线架构与其他支持电路系统链接在一起。替换地,该处理系统可以包括一个或多个神经元形态处理器以用于实现本文中所描述的神经元模型和神经系统模型。作为另一替换方案,处理系统可以用带有集成在单块芯片中的处理器、总线接口、用户接口、支持电路系统、和至少一部分机器可读介质的专用集成电路(ASIC)来实现,或者用一个或多个现场可编程门阵列(FPGA)、可编程逻辑器件(PLD)、控制器、状态机、门控逻辑、分立硬件组件、或者任何其他合适的电路系统、或者能执行本公开通篇所描述的各种功能性的电路的任何组合来实现。取决于具体应用和加诸于整体系统上的总设计约束,本领域技术人员将认识到如何最佳地实现关于处理系统所描述的功能性。
机器可读介质可以包括数个软件模块。这些软件模块包括当由处理器执行时使处理系统执行各种功能的指令。这些软件模块可以包括传送模块和接收模块。每个软件模块可以驻留在单个存储设备中或者跨多个存储设备分布。作为示例,当触发事件发生时,可以从硬驱动器中将软件模块加载到RAM中。在软件模块执行期间,处理器可以将一些指令加载到高速缓存中以提高访问速度。可随后将一个或多个高速缓存行加载到通用寄存器文件中以供处理器执行。在以下述及软件模块的功能性时,将理解此类功能性是在处理器执行来自该软件模块的指令时由该处理器来实现的。此外,应领会,本公开的各方面产生对处理器、计算机、机器或实现此类方面的其它系统的机能的改进。
如果以软件实现,则各功能可作为一条或多条指令或代码存储在计算机可读介质上或藉其进行传送。计算机可读介质包括计算机存储介质和通信介质两者,这些介质包括促成计算机程序从一地向另一地转移的任何介质。存储介质可以是能被计算机访问的任何可用介质。作为示例而非限定,此类计算机可读介质可包括RAM、ROM、EEPROM、CD-ROM或其他光盘存储、磁盘存储或其他磁存储设备、或能用于携带或存储指令或数据结构形式的期望程序代码且能被计算机访问的任何其他介质。另外,任何连接也被正当地称为计算机可读介质。例如,如果软件是使用同轴电缆、光纤电缆、双绞线、数字订户线(DSL)、或无线技术(诸如红外(IR)、无线电、以及微波)从web网站、服务器、或其他远程源传送而来,则该同轴电缆、光纤电缆、双绞线、DSL或无线技术(诸如红外、无线电、以及微波)就被包括在介质的定义之中。如本文中所使用的盘(disk)和碟(disc)包括压缩碟(CD)、激光碟、光碟、数字多用碟(DVD)、软盘、和碟,其中盘(disk)常常磁性地再现数据,而碟(disc)用激光来光学地再现数据。因此,在一些方面,计算机可读介质可以包括非瞬态计算机可读介质(例如,有形介质)。另外,对于其他方面,计算机可读介质可以包括瞬态计算机可读介质(例如,信号)。上述的组合应当也被包括在计算机可读介质的范围内。
因此,某些方面可以包括用于执行本文中给出的操作的计算机程序产品。例如,此类计算机程序产品可以包括其上存储(和/或编码)有指令的计算机可读介质,这些指令能由一个或多个处理器执行以执行本文中所描述的操作。对于某些方面,计算机程序产品可包括包装材料。
此外,应当领会,用于执行本文中所描述的方法和技术的模块和/或其它恰适装置能由用户终端和/或基站在适用的场合下载和/或以其他方式获得。例如,此类设备能被耦合至服务器以促成用于执行本文中所描述的方法的装置的转移。替换地,本文中所描述的各种方法能经由存储装置(例如,RAM、ROM、诸如压缩碟(CD)或软盘等物理存储介质等)来提供,以使得一旦将该存储装置耦合至或提供给用户终端和/或基站,该设备就能获得各种方法。此外,可利用适于向设备提供本文中所描述的方法和技术的任何其他合适的技术。
将理解,权利要求并不被限于以上所解说的精确配置和组件。可在以上所描述的方法和装置的布局、操作和细节上作出各种改动、更换和变形而不会脱离权利要求的范围。
Claims (20)
1.一种预测视频流的动作标签的方法,包括:
接收所述视频流;
计算所述视频流的当前帧和下一帧的光流;
使用分层网络的下层递归神经网络来从来自所述下层递归神经网络的第一先前隐藏状态、来自所述分层网络的上层递归神经网络的第二先前隐藏状态和计算出的光流生成所述视频流的所述当前帧的注意力图;以及
使用所述上层递归神经网络来从所述光流、所述第二先前隐藏状态和应用于所述当前帧的特征图的所述注意力图预测所述当前帧的动作标签。
2.如权利要求1所述的方法,其特征在于,进一步包括:
从所述视频流的所述当前帧和所述注意力图计算二维(2D)或三维(3D)特征图;以及
基于所述光流、所述第二先前隐藏状态、所述2D或3D特征图和所述注意力图来预测所述下一帧的第二动作标签。
3.如权利要求2所述的方法,其特征在于,所述2D或3D特征图基于帧外观、所述光流、声谱图、或语义分割中的一者或多者。
4.如权利要求1所述的方法,其特征在于,进一步包括使用递归神经网络(RNN)来预测所述动作标签。
5.如权利要求4所述的方法,其特征在于,所述RNN包括长短期记忆(LSTM)网络。
6.一种用于预测视频流的动作标签的装置,包括:
存储器;以及
耦合至所述存储器的至少一个处理器,所述至少一个处理器被配置成:
接收所述视频流;
计算所述视频流的当前帧和下一帧的光流;
使用分层网络的下层递归神经网络来从来自所述下层递归神经网络的第一先前隐藏状态、来自所述分层网络的上层递归神经网络的第二先前隐藏状态和计算出的光流生成所述视频流的所述当前帧的注意力图;以及
使用所述上层递归神经网络来从所述光流、所述第二先前隐藏状态和应用于所述当前帧的特征图的所述注意力图预测所述当前帧的动作标签。
7.如权利要求6所述的装置,其特征在于,所述至少一个处理器被进一步配置成:
从所述视频流的所述当前帧和所述注意力图计算二维(2D)或三维(3D)特征图;以及
基于所述光流、所述第二先前隐藏状态、所述2D或3D特征图和所述注意力图来预测所述下一帧的第二动作标签。
8.如权利要求7所述的装置,其特征在于,所述2D或3D特征图基于帧外观、所述光流、声谱图、或语义分割中的一者或多者。
9.如权利要求6所述的装置,其特征在于,所述至少一个处理器被进一步被配置成使用递归神经网络(RNN)来预测所述动作标签。
10.如权利要求9所述的装置,其特征在于,所述RNN包括长短期记忆(LSTM)网络。
11.一种用于预测视频流的动作标签的设备,包括:
用于接收所述视频流的装置;
用于计算所述视频流的当前帧和下一帧的光流的装置;
用于使用分层网络的下层递归神经网络来从来自所述下层递归神经网络的第一先前隐藏状态、来自所述分层网络的上层递归神经网络的第二先前隐藏状态和计算出的光流生成所述视频流的所述当前帧的注意力图的装置;以及
用于使用所述上层递归神经网络来从所述光流、所述第二先前隐藏状态和应用于所述当前帧的特征图的所述注意力图预测所述当前帧的动作标签的装置。
12.如权利要求11所述的设备,其特征在于,进一步包括:
用于从所述视频流的所述当前帧和所述注意力图计算二维(2D)或三维(3D)特征图的装置;以及
用于基于所述光流、所述第二先前隐藏状态、所述2D或3D特征图和所述注意力图来预测所述下一帧的第二动作标签的装置。
13.如权利要求12所述的设备,其特征在于,所述2D或3D特征图基于帧外观、所述光流、声谱图、或语义分割中的一者或多者。
14.如权利要求11所述的设备,其特征在于,进一步包括用于使用递归神经网络(RNN)来预测所述动作标签的装置。
15.如权利要求14所述的设备,其特征在于,所述RNN包括长短期记忆(LSTM)网络。
16.一种其上记录有用于预测视频流的动作标签的程序代码的非瞬态计算机可读介质,所述程序代码由处理器执行以:
接收所述视频流;
计算所述视频流的当前帧和下一帧的光流;
使分层网络的下层递归神经网络从来自所述下层递归神经网络的第一先前隐藏状态、来自所述分层网络的上层递归神经网络的第二先前隐藏状态和计算出的光流生成所述视频流的所述当前帧的注意力图;以及
使所述上层递归神经网络从所述光流、所述第二先前隐藏状态和应用于所述当前帧的特征图的所述注意力图预测所述当前帧的动作标签。
17.如权利要求16所述的非瞬态计算机可读介质,其特征在于,所述程序代码进一步由处理器执行以:
从所述视频流的所述当前帧和所述注意力图计算二维(2D)或三维(3D)特征图;以及
基于所述光流、所述第二先前隐藏状态、所述2D或3D特征图和所述注意力图来预测所述下一帧的第二动作标签。
18.如权利要求17所述的非瞬态计算机可读介质,其特征在于,所述2D或3D特征图基于帧外观、所述光流、声谱图、或语义分割中的一者或多者。
19.如权利要求16所述的非瞬态计算机可读介质,其特征在于,所述程序代码进一步由处理器执行以使用递归神经网络(RNN)来预测所述动作标签。
20.如权利要求19所述的非瞬态计算机可读介质,其特征在于,所述RNN包括长短期记忆(LSTM)网络。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662306972P | 2016-03-11 | 2016-03-11 | |
US62/306,972 | 2016-03-11 | ||
US15/267,621 US10049279B2 (en) | 2016-03-11 | 2016-09-16 | Recurrent networks with motion-based attention for video understanding |
US15/267,621 | 2016-09-16 | ||
PCT/US2017/017192 WO2017155663A1 (en) | 2016-03-11 | 2017-02-09 | Recurrent networks with motion-based attention for video understanding |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108780522A CN108780522A (zh) | 2018-11-09 |
CN108780522B true CN108780522B (zh) | 2020-04-17 |
Family
ID=59786876
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780015185.5A Active CN108780522B (zh) | 2016-03-11 | 2017-02-09 | 用于视频理解的使用基于运动的注意力的递归网络 |
Country Status (8)
Country | Link |
---|---|
US (1) | US10049279B2 (zh) |
EP (1) | EP3427194B1 (zh) |
JP (1) | JP6530147B2 (zh) |
KR (1) | KR102001798B1 (zh) |
CN (1) | CN108780522B (zh) |
BR (1) | BR112018068300B1 (zh) |
CA (1) | CA3014632C (zh) |
WO (1) | WO2017155663A1 (zh) |
Families Citing this family (50)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108701210B (zh) * | 2016-02-02 | 2021-08-17 | 北京市商汤科技开发有限公司 | 用于cnn网络适配和对象在线追踪的方法和系统 |
EP3398119B1 (en) * | 2016-02-05 | 2022-06-22 | Deepmind Technologies Limited | Generative neural networks for generating images using a hidden canvas |
US10281885B1 (en) * | 2016-05-20 | 2019-05-07 | Google Llc | Recurrent neural networks for online sequence generation |
US10546575B2 (en) | 2016-12-14 | 2020-01-28 | International Business Machines Corporation | Using recurrent neural network for partitioning of audio data into segments that each correspond to a speech feature cluster identifier |
US10706547B2 (en) * | 2017-06-02 | 2020-07-07 | Htc Corporation | Image segmentation method and apparatus |
US10832440B2 (en) * | 2017-08-31 | 2020-11-10 | Nec Corporation | Temporal multi-scale clockwork memory networks for object detection in videos |
US10691962B2 (en) * | 2017-09-22 | 2020-06-23 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for rear signal identification using machine learning |
US10089743B1 (en) * | 2017-10-05 | 2018-10-02 | StradVision, Inc. | Method for segmenting an image and device using the same |
JP2019070934A (ja) * | 2017-10-06 | 2019-05-09 | 東芝デジタルソリューションズ株式会社 | 映像処理装置、映像処理方法およびプログラム |
US10776628B2 (en) * | 2017-10-06 | 2020-09-15 | Qualcomm Incorporated | Video action localization from proposal-attention |
JP7047087B2 (ja) | 2017-10-27 | 2022-04-04 | 株式会社ソニー・インタラクティブエンタテインメント | ビデオコンテンツを特徴付けるための深層強化学習フレームワーク |
US10733714B2 (en) | 2017-11-09 | 2020-08-04 | Samsung Electronics Co., Ltd | Method and apparatus for video super resolution using convolutional neural network with two-stage motion compensation |
KR102008290B1 (ko) * | 2017-11-14 | 2019-08-07 | 고려대학교 산학협력단 | 영상에서 객체의 행동을 인식하는 방법 및 그 장치 |
US10783611B2 (en) * | 2018-01-02 | 2020-09-22 | Google Llc | Frame-recurrent video super-resolution |
EP3537345A1 (en) * | 2018-03-06 | 2019-09-11 | Hybris AG | Computer-implemented method, system and computer program product for providing a conversational application interface |
JP7118697B2 (ja) * | 2018-03-30 | 2022-08-16 | 株式会社Preferred Networks | 注視点推定処理装置、注視点推定モデル生成装置、注視点推定処理システム、注視点推定処理方法、プログラム、および注視点推定モデル |
CN108875603B (zh) * | 2018-05-31 | 2021-06-04 | 上海商汤智能科技有限公司 | 基于车道线的智能驾驶控制方法和装置、电子设备 |
KR20200010640A (ko) * | 2018-06-27 | 2020-01-31 | 삼성전자주식회사 | 모션 인식 모델을 이용한 자체 운동 추정 장치 및 방법, 모션 인식 모델 트레이닝 장치 및 방법 |
CN110751162B (zh) * | 2018-07-24 | 2023-04-07 | 杭州海康威视数字技术股份有限公司 | 一种图像识别方法、装置和计算机设备 |
US10713491B2 (en) * | 2018-07-27 | 2020-07-14 | Google Llc | Object detection using spatio-temporal feature maps |
CN109635721B (zh) * | 2018-12-10 | 2020-06-30 | 山东大学 | 基于轨迹加权深度卷积次序池化描述子的视频人体跌倒检测方法及系统 |
CN111325068B (zh) * | 2018-12-14 | 2023-11-07 | 北京京东尚科信息技术有限公司 | 基于卷积神经网络的视频描述方法及装置 |
US10798386B2 (en) | 2019-01-25 | 2020-10-06 | At&T Intellectual Property I, L.P. | Video compression with generative models |
CN109816611B (zh) | 2019-01-31 | 2021-02-12 | 北京市商汤科技开发有限公司 | 视频修复方法及装置、电子设备和存储介质 |
CN110111340B (zh) * | 2019-04-28 | 2021-05-14 | 南开大学 | 基于多路割的弱监督实例分割方法 |
CN110060264B (zh) * | 2019-04-30 | 2021-03-23 | 北京市商汤科技开发有限公司 | 神经网络训练方法、视频帧处理方法、装置及系统 |
CN110210604B (zh) * | 2019-05-21 | 2021-06-04 | 北京邮电大学 | 一种终端设备移动轨迹预测方法及装置 |
JP7048540B2 (ja) * | 2019-05-22 | 2022-04-05 | 株式会社東芝 | 認識装置、認識方法及びプログラム |
CN110246160B (zh) * | 2019-06-20 | 2022-12-06 | 腾讯科技(深圳)有限公司 | 视频目标的检测方法、装置、设备及介质 |
KR102189373B1 (ko) * | 2019-08-14 | 2020-12-11 | 민 정 고 | 이미지 및 텍스트를 생성하는 장치 및 방법 |
CN110758382B (zh) * | 2019-10-21 | 2021-04-20 | 南京航空航天大学 | 一种基于驾驶意图的周围车辆运动状态预测系统及方法 |
US11373407B2 (en) * | 2019-10-25 | 2022-06-28 | International Business Machines Corporation | Attention generation |
SG10201913744SA (en) * | 2019-12-30 | 2020-12-30 | Sensetime Int Pte Ltd | Image processing method and apparatus, electronic device, and storage medium |
CN111310764B (zh) * | 2020-01-20 | 2024-03-26 | 上海商汤智能科技有限公司 | 网络训练、图像处理方法及装置、电子设备和存储介质 |
CN111462479A (zh) * | 2020-02-26 | 2020-07-28 | 南京新一代人工智能研究院有限公司 | 一种基于傅里叶-递归神经网络的交通流预测方法 |
KR102624927B1 (ko) * | 2020-03-12 | 2024-01-15 | (주)씽크포비엘 | 가축의 설사 탐지 및 설사 위험도 예측 시스템 및 그 이용 방법 |
WO2021182695A1 (ko) * | 2020-03-12 | 2021-09-16 | (주)씽크포비엘 | 가축의 설사 탐지 및 설사 위험도 예측 시스템 및 그 이용 방법 |
JP7293157B2 (ja) * | 2020-03-17 | 2023-06-19 | 株式会社東芝 | 画像処理装置 |
KR102541685B1 (ko) * | 2020-04-13 | 2023-06-09 | 한국과학기술원 | 재귀 구조를 이용한 예측을 위한 전자 장치 및 그의 동작 방법 |
KR20210145490A (ko) | 2020-05-25 | 2021-12-02 | 삼성전자주식회사 | 어텐션 기반 시퀀스 투 시퀀스 모델의 성능 향상 방법 및 장치 |
CN112215912B (zh) * | 2020-10-13 | 2021-06-22 | 中国科学院自动化研究所 | 基于动态视觉传感器的显著性图生成系统、方法和装置 |
CN112330711B (zh) * | 2020-11-26 | 2023-12-05 | 北京奇艺世纪科技有限公司 | 模型生成方法、信息提取方法、装置及电子设备 |
CN112488111B (zh) * | 2020-12-18 | 2022-06-14 | 贵州大学 | 一种基于多层级表达引导注意力网络的指示表达理解方法 |
CN114913565B (zh) | 2021-01-28 | 2023-11-17 | 腾讯科技(深圳)有限公司 | 人脸图像检测方法、模型训练方法、装置及存储介质 |
US11989939B2 (en) * | 2021-03-17 | 2024-05-21 | Samsung Electronics Co., Ltd. | System and method for enhancing machine learning model for audio/video understanding using gated multi-level attention and temporal adversarial training |
CN113038176B (zh) * | 2021-03-19 | 2022-12-13 | 北京字跳网络技术有限公司 | 视频抽帧方法、装置和电子设备 |
CN113099228B (zh) * | 2021-04-30 | 2024-04-05 | 中南大学 | 一种视频编解码方法及系统 |
JP7216176B1 (ja) | 2021-11-22 | 2023-01-31 | 株式会社Albert | 画像解析システム、画像解析方法およびプログラム |
KR102683444B1 (ko) * | 2021-12-16 | 2024-07-10 | 숭실대학교 산학협력단 | Cgam을 이용한 스포츠 동영상 내 활동 인식 장치 및 그 방법 |
WO2024013936A1 (ja) * | 2022-07-14 | 2024-01-18 | 日本電気株式会社 | 映像処理システム、映像処理装置及び映像処理方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7116716B2 (en) * | 2002-11-01 | 2006-10-03 | Microsoft Corporation | Systems and methods for generating a motion attention model |
EP1793344A1 (en) | 2005-11-30 | 2007-06-06 | THOMSON Licensing | Method of emendation for attention trajectory in video content analysis |
US8442328B2 (en) | 2008-10-03 | 2013-05-14 | 3M Innovative Properties Company | Systems and methods for evaluating robustness of saliency predictions of regions in a scene |
EP2256667B1 (en) * | 2009-05-28 | 2012-06-27 | Honda Research Institute Europe GmbH | Driver assistance system or robot with dynamic attention module |
EP2580738A4 (en) | 2010-08-10 | 2018-01-03 | LG Electronics Inc. | Region of interest based video synopsis |
JP2013120465A (ja) * | 2011-12-07 | 2013-06-17 | Sony Corp | 情報処理装置、情報処理方法、及び、プログラム |
EP3192273A4 (en) | 2014-09-08 | 2018-05-23 | Google LLC | Selecting and presenting representative frames for video previews |
-
2016
- 2016-09-16 US US15/267,621 patent/US10049279B2/en active Active
-
2017
- 2017-02-09 CA CA3014632A patent/CA3014632C/en active Active
- 2017-02-09 CN CN201780015185.5A patent/CN108780522B/zh active Active
- 2017-02-09 WO PCT/US2017/017192 patent/WO2017155663A1/en active Application Filing
- 2017-02-09 EP EP17706096.9A patent/EP3427194B1/en active Active
- 2017-02-09 JP JP2018547259A patent/JP6530147B2/ja active Active
- 2017-02-09 KR KR1020187025920A patent/KR102001798B1/ko active IP Right Grant
- 2017-02-09 BR BR112018068300-0A patent/BR112018068300B1/pt active IP Right Grant
Non-Patent Citations (2)
Title |
---|
Enhancing human action recognition with region proposals;FAHIMEH REZAZADEGAN ET AL;《AUSTRALASIAN CONFERENCE ON ROBOTICS AND AUTOMATION》;20151231;第1和3部分 * |
Long-term recurrent convolutional networks for visual recognition and description;DONAHUE JEFF ET AL;《IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》;20150607;第2625-2634页,第2-4部分 * |
Also Published As
Publication number | Publication date |
---|---|
CN108780522A (zh) | 2018-11-09 |
JP6530147B2 (ja) | 2019-06-12 |
CA3014632A1 (en) | 2017-09-14 |
JP2019509566A (ja) | 2019-04-04 |
WO2017155663A1 (en) | 2017-09-14 |
BR112018068300A2 (pt) | 2019-01-15 |
US20170262705A1 (en) | 2017-09-14 |
EP3427194C0 (en) | 2023-11-15 |
EP3427194B1 (en) | 2023-11-15 |
EP3427194A1 (en) | 2019-01-16 |
BR112018068300B1 (pt) | 2024-01-16 |
CA3014632C (en) | 2020-10-27 |
KR102001798B1 (ko) | 2019-07-18 |
US10049279B2 (en) | 2018-08-14 |
KR20180111959A (ko) | 2018-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108780522B (zh) | 用于视频理解的使用基于运动的注意力的递归网络 | |
US9830709B2 (en) | Video analysis with convolutional attention recurrent neural networks | |
US20170262996A1 (en) | Action localization in sequential data with attention proposals from a recurrent network | |
US10510146B2 (en) | Neural network for image processing | |
US11308350B2 (en) | Deep cross-correlation learning for object tracking | |
CN107209873B (zh) | 用于深度卷积网络的超参数选择 | |
KR102570706B1 (ko) | 분류를 위한 강제된 희소성 | |
CN106796580B (zh) | 用于处理多个异步事件驱动的样本的方法、装置和介质 | |
US20180129742A1 (en) | Natural language object tracking | |
TW201706918A (zh) | 作爲供神經網路的訓練準則的濾波器特異性 | |
US20160283864A1 (en) | Sequential image sampling and storage of fine-tuned features | |
US11443514B2 (en) | Recognizing minutes-long activities in videos | |
TW201633181A (zh) | 用於經非同步脈衝調制的取樣信號的事件驅動型時間迴旋 | |
WO2018084941A1 (en) | Temporal difference estimation in an artificial neural network | |
WO2022198437A1 (en) | State change detection for resuming classification of sequential sensor data on embedded systems | |
JP2024509862A (ja) | ビデオ処理における改善された時間的一貫性のための効率的なテスト時間適応 | |
CN116997907A (zh) | 用于个性化神经网络模型的分布外检测 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |