CN108280443A - 一种基于深特征提取异步融合网络的动作识别方法 - Google Patents
一种基于深特征提取异步融合网络的动作识别方法 Download PDFInfo
- Publication number
- CN108280443A CN108280443A CN201810155147.6A CN201810155147A CN108280443A CN 108280443 A CN108280443 A CN 108280443A CN 201810155147 A CN201810155147 A CN 201810155147A CN 108280443 A CN108280443 A CN 108280443A
- Authority
- CN
- China
- Prior art keywords
- action
- network
- class
- feature
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本发明中提出的一种基于深特征提取异步融合网络的动作识别方法,其主要内容包括:粗粒度到细粒度网络、异步融合网络、深特征提取异步融合网络。其过程为,先将输入视频外观流的每个空间帧和运动流的每个短期光流堆栈输入到粗粒度到细粒度网络,集成多个动作类粒度的深度特征,并创建了一个更精确的特征表示,然后将提取出的特征输入集成不同时间点信息流特征的异步融合网络,获得一个动作类预测结果,最后深特征提取异步融合网络组合不同的动作预测结果,确定输入视频的最终动作类标签。本发明能从多个动作类粒度中提取并集成深层特征,获得更精确的动作表示,同时异步融合能更好地利用多个信息流中的互补信息,提高动作识别的准确度。
Description
技术领域
本发明涉及计算机视觉分析领域,尤其是涉及了一种基于深特征提取异步融合网络的动作识别方法。
背景技术
动作识别,旨在识别输入动作视频的动作类标签。由于它在许多应用中的重要性,动作识别已经引起了很多研究人员的关注,并成为计算机视觉分析领域的热点方向。动作识别技术可以满足智能视频监控、基于内容的视频分析等任务对自动分析以及智能化的需求,推动社会发展进步。动作识别技术可以应用在智能监护上,提高监护质量,节约大量人力资源;还可以运用在智能家居中,实时监测人体动作,对危险动作做出预计,避免意外造成的伤害;动作识别技术还可以协助监控社会治安,如对打架斗殴动作、偷窃动作等进行检测和识别,阻断社会恶性事件的进一步发展,对维护社会安全和降低犯罪率有着巨大的实用价值。然而由于视频场景的变化巨大以及与视频主题无关的嘈杂内容的干扰,卷积网络自动习得特征技术在动作识别上取得的进步相对较少;且大多数人关注的是如何学习特征以直接描述动作类的行为、如何引入更多的信息流或加强流之间的相关性,因此,现有的技术在区分动作类的模糊性方面有着局限性。
本发明提出了一种基于深特征提取异步融合网络的动作识别方法,先将输入视频外观流的每个空间帧和运动流的每个短期光流堆栈输入到粗粒度到细粒度网络,集成多个动作类粒度的深度特征,并创建了一个更精确的特征表示,然后将提取出的特征输入集成不同时间点信息流特征的异步融合网络,获得一个动作类预测结果,最后深特征提取异步融合网络组合不同的动作预测结果,确定输入视频的最终动作类标签。本发明能从多个动作类粒度中提取并集成深层特征,获得更精确的动作表示,同时异步融合能更好地利用多个信息流中的互补信息,提高动作识别的准确度。
发明内容
针对区分动作类模糊性方面存在局限性的问题,本发明的目的在于提供一种基于深特征提取异步融合网络的动作识别方法,先将输入视频外观流的每个空间帧和运动流的每个短期光流堆栈输入到粗粒度到细粒度网络,集成多个动作类粒度的深度特征,并创建了一个更精确的特征表示,然后将提取出的特征输入集成不同时间点信息流特征的异步融合网络,获得一个动作类预测结果,最后深特征提取异步融合网络组合不同的动作预测结果,确定输入视频的最终动作类标签。
为解决上述问题,本发明提供一种基于深特征提取异步融合网络的动作识别方法,其主要内容包括:
(一)粗粒度到细粒度网络;
(二)异步融合网络;
(三)深特征提取异步融合网络;
其中,所述的粗粒度到细粒度网络,主要由特征提取模块、自适应类群形成模块和粗粒度到细粒度集成模块这三个模块组成;特征提取模块应用于一个卷积网络上,用于从不同的动作类粒度中提取深度特征;自适应类群形成模块用于保证特征提取模块中适当的特征提取;粗粒度到细粒度集成模块用于逐步集成从粗粒度到细粒度的特征,并为输入帧/光学流堆栈输出一个精确的特征。
进一步地,所述的特征提取模块,从VGG-16卷积网络的第3、4和5级的最后一个卷积层分别获取侧输出映射,分别切割这三个侧输出映射,并连接到三个特定标度的侧映射组,其中每个侧映射组对应一个动作类粒度,同时为了确保不同级的输出映射具有相同的大小,在映射连接之前,将超采样层应用于侧输出映射,最后,特定标度的侧映射组分别被输入到一个完全连接(FC)层,以获得三个动作类粒度的特征。
进一步地,所述的自适应类群形成模块,首先利用一个较小的卷积网络事先预测输入的动作类标签/光学流栈帧的动作类标签,然后分别使用第五、第三和第一个动作类预测结果形成三个动作类粒度的动作类组,然后通过交叉熵损失函数指导特征提取过程,这迫使特征提取模块尽可能生成能在多个粒度描述构造好的动作类组的共同特征:
其中,W是为多粒度特征提取模块设立的参数,N是动作类的总数,Gk是构建的第k个动作类粒度组,αk是衡量第k个动作类粒度相对重要性的权重,是第k个动作类粒度特征预测到第n个动作类的概率,同时为了得到动作预测结果在训练阶段的多粒度特征提取模块的特征输出层中额外添加了两个完全连接层。
进一步地,所述的较小的卷积网络,是在同一数据集上预先训练,且为了创建稳定的动作类群,这个卷积网络在训练过程中是固定的;在形成动作类组时,如果一个输入帧/光流堆栈的标签不在这个卷积网络预测结果的前几级动作类组中,标签会被强制性地添加进去,避免网络给输入帧/光流堆栈生成无关的特征。
进一步地,所述的粗粒度到细粒度集成模块,使用一个三单元的长短时记忆模型(LSTM),其中每个单元都从一个动作类粒度中获取特征Xt,并创建隐藏的状态输出ht,以影响下一个单元,最后一个单元的隐藏状态输出将是输入帧/光学流堆栈的最终集成特征,整个过程可描述为:
其中,Xt和ht(t=1,2,3)是第t个LSTM单元的输入特征和隐藏状态输出,Φt={Mt,bt}是第t个单元的参数,是对第t个单元的动作,以创建隐藏状态输出;同样在训练阶段,可以利用以下的损失函数训练LSTM以获取期望的结果:
其中,Φ1,Φ2,Φ3是LSTM的三个单元的参数,β是衡量LSTM的相对重要性的权重,ng是一个输入示例的参考动作类标签,N是动作类的总数,是第t个单元预测到参考动作类的概率;而为了得到动作预测概率训练阶段在每个LSTM单元的输出中额外增加一个完全连接层。
其中,所述的异步融合网络,先使用沿着信息流方向的特征融合模块融合来自不同流的两个输入特征;然后使用异步集成模块集成不同时间点的输出特征,并为一个周期的输入创建动作类预测结果,整个异步融合网络可以用以下公式训练:
其中,ng是一个输入示例的参考动作类标签,N是动作类的总数,T=5是LSTM的单元和单层卷积网络的总数,Φt和Kt分别是第t个LSTM单元和单层卷积网络的参数,ΨA={Φ1,..,ΦT,K1,..,KT}和γ分别是整个异步融合网络参数和权重,是第t个单元预测到参考动作类的概率。
进一步地,所述的沿信息流方向的特征融合模块,用5个1层的卷积来融合沿着信息流方向的特征,将一个流中的输入特征与来自另一个流的5个输入特征融合在一起;融合的5个输入特征也有Δ(Δ=5)的时间间隔,这使模块能够捕获信息流之间较长期的异步模式。
进一步地,所述的异步集成模块,利用了一个五单元的LSTM按顺序集成不同时间点的输出特征,并为一个周期的输入特征创建一个动作预测结果。
其中,所述的深特征提取异步融合网络(三),将粗粒度到细粒度网络和异步融合网络集成为一个框架并通过以下公式表示:
其中,和分别是第一和第二个信息流的参数和分别是粗粒度到细粒度网络和异步融合网络的损失函数,T=5是第一个流中的输入总数;由于第一个流中的五个粗粒度到细粒度网络是一样的权重,所以使用相同的参数集来计算每个输入的损失,t是1到5的整数;需要注意的是实际上需要构建两个独立的模型,其中一个模型将一个外观流输入与多个动作流输入融合在一起,另一个模型将一个动作流输入与多个外观流输入融合在一起,两个模型和不同时间段的动作预测结果被组合在一起来决定输入视频的最终标签,利用主流的双流方法来组合动作预测结果,将不同模型不同周期的动作预测结果结合在一起,并选择具有最大总体预测分数的动作类作为最终结果。
附图说明
图1是本发明一种基于深特征提取异步融合网络的动作识别方法的系统框架图。
图2是本发明一种基于深特征提取异步融合网络的动作识别方法的不同动作类粒度和异步模式。
图3是本发明一种基于深特征提取异步融合网络的动作识别方法的粗粒度到细粒度网络。
图4是本发明一种基于深特征提取异步融合网络的动作识别方法的异步融合网络的结构及其与粗粒度到细粒度网络的关系。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互结合,下面结合附图和具体实施例对本发明作进一步详细说明。
图1是本发明一种基于深特征提取异步融合网络的动作识别方法的系统框架图。主要包括粗粒度到细粒度网络、异步融合网络、深特征提取异步融合网络。先将输入视频外观流的每个空间帧和运动流的每个短期光流堆栈输入到粗粒度到细粒度网络,集成多个动作类粒度的深度特征,并创建一个更精确的特征表示,然后将提取出的特征输入集成不同时间点信息流特征的异步融合网络,获得一个动作类预测结果,最后,深特征提取异步融合网络组合不同的动作预测结果,确定输入视频的最终动作类标签。
图2是本发明一种基于深特征提取异步融合网络的动作识别方法的不同动作类粒度和异步模式。主要包括不同动作类粒度的说明、信息流之间异步模式的说明。图(a)从同一个输入视频提取了粗粒度、中等粒度、细粒度三种粒度的共享特征,经过集成模块后形成更具识别力的深层特征。图(b)是同一个视频片段的外观信息流和运动信息流,外观流最具识别力的是最后一个时刻,而运动流则是第三个时刻,通过异步融合网络可以充分利用两股信息流中分别最具识别力的信息,提高动作识别的准确度。
图3是本发明一种基于深特征提取异步融合网络的动作识别方法的粗粒度到细粒度网络。主要包括特征提取模块、自适应类群形成模块和粗粒度到细粒度集成模块这三个模块;特征提取模块应用于一个卷积网络上,用于从不同的动作类粒度中提取深度特征;自适应类群形成模块用于保证特征提取模块中适当的特征提取;粗粒度到细粒度集成模块用于逐步集成从粗粒度到细粒度的特征,并为输入帧/光学流堆栈输出一个精确的特征。
特征提取模块从VGG-16卷积网络的第3、4和5级的最后一个卷积层分别获取侧输出映射,分别切割这三个侧输出映射,并连接到三个特定标度的侧映射组,其中每个侧映射组对应一个动作类粒度,同时为了确保不同级的输出映射具有相同的大小,在映射连接之前,将超采样层应用于侧输出映射,最后,特定标度的侧映射组分别被输入到一个完全连接(FC)层,以获得三个动作类粒度的特征。
自适应类群形成模块首先利用一个较小的卷积网络事先预测输入的动作类标签/光学流栈帧的动作类标签,然后分别使用第五、第三和第一个动作类预测结果形成三个动作类粒度的动作类组,然后通过交叉熵损失函数指导特征提取过程,这迫使特征提取模块尽可能生成能在多个粒度描述构造好的动作类组的共同特征:
其中,W是为多粒度特征提取模块设立的参数,N是动作类的总数,Gk是构建的第k个动作类粒度组,αk是衡量第k个动作类粒度相对重要性的权重,是第k个动作类粒度特征预测到第n个动作类的概率,同时为了得到动作预测结果在训练阶段的多粒度特征提取模块的特征输出层中额外添加了两个完全连接层。
其中较小的卷积网络是在同一数据集上预先训练的,且为了创建稳定的动作类群,这个卷积网络在训练过程中是固定的;在形成动作类组时,如果一个输入帧/光流堆栈的标签不在这个卷积网络预测结果的前几级动作类组中,标签会被强制性地添加进去,避免网络给输入帧/光流堆栈生成无关的特征。
粗粒度到细粒度集成模块使用一个三单元的长短时记忆模型(LSTM),其中每个单元都从一个动作类粒度中获取特征Xt,并创建隐藏的状态输出ht,以影响下一个单元,最后一个单元的隐藏状态输出将是输入帧/光学流堆栈的最终集成特征,整个过程可描述为:
其中,Xt和ht(t=1,2,3)是第t个LSTM单元的输入特征和隐藏状态输出,Φt={Mt,bt}是第t个单元的参数,是对第t个单元的动作,以创建隐藏状态输出;同样在训练阶段,可以利用以下的损失函数训练LSTM以获取期望的结果:
其中,Φ1,Φ2,Φ3是LSTM的三个单元的参数,β是衡量LSTM的相对重要性的权重,ng是一个输入示例的参考动作类标签,N是动作类的总数,是第t个单元预测到参考动作类的概率;而为了得到动作预测概率训练阶段在每个LSTM单元的输出中额外增加一个完全连接层。
图4是本发明一种基于深特征提取异步融合网络的动作识别方法的异步融合网络的结构及其与粗粒度到细粒度网络的关系。
主要包括异步融合网络和深特征提取异步融合网络。
异步融合网络先使用沿着信息流方向的特征融合模块融合来自不同流的两个输入特征,然后使用异步集成模块集成不同时间点的输出特征,并为一个周期的输入创建动作类预测结果,整个异步融合网络可以用以下公式训练:
其中,ng是一个输入示例的参考动作类标签,N是动作类的总数,T=5是LSTM的单元和单层卷积网络的总数,Φt和Kt分别是第t个LSTM单元和单层卷积网络的参数,ΨA={Φ1,..,ΦT,K1,..,KT}和γ分别是整个异步融合网络参数和权重,是第t个单元预测到参考动作类的概率。
沿信息流方向的特征融合模块用5个1层的卷积来融合沿着信息流方向的特征,将一个流中的输入特征与来自另一个流的5个输入特征融合在一起,因此,融合的5个输入特征也有Δ(Δ=5)的时间间隔,这使模块能够捕获信息流之间较长期的异步模式。
异步集成模块利用了一个五单元的LSTM按顺序集成不同时间点的输出特征,并为一个周期的输入特征创建一个动作预测结果。
深特征提取异步融合网络将粗粒度到细粒度网络和异步融合网络集成为一个框架并通过以下公式表示:
其中,和分别是第一和第二个信息流的参数和分别是粗粒度到细粒度网络和异步融合网络的损失函数,T=5是第一个流中的输入总数;由于第一个流中的五个粗粒度到细粒度网络是一样的权重,所以使用相同的参数集来计算每个输入的损失,t是1到5的整数;需要注意的是实际上需要构建两个独立的模型,其中一个模型将一个外观流输入与多个动作流输入融合在一起,另一个模型将一个动作流输入与多个外观流输入融合在一起,两个模型和不同时间段的动作预测结果被组合在一起来决定输入视频的最终标签,利用主流的双流方法来组合动作预测结果,将不同模型不同周期的动作预测结果结合在一起,并选择具有最大总体预测分数的动作类作为最终结果。
对于本领域技术人员,本发明不限制于上述实施例的细节,在不背离本发明的精神和范围的情况下,能够以其他具体形式实现本发明。此外,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围,这些改进和变型也应视为本发明的保护范围。因此,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
Claims (10)
1.一种基于深特征提取异步融合网络的动作识别方法,其特征在于,粗粒度到细粒度网络(一);异步融合网络(二);深特征提取异步融合网络(三)。
2.基于权利要求书1所述的粗粒度到细粒度网络(一),其特征在于,主要由特征提取模块、自适应类群形成模块和粗粒度到细粒度集成模块这三个模块组成;特征提取模块应用于一个卷积网络上,用于从不同的动作类粒度中提取深度特征;自适应类群形成模块用于保证特征提取模块中适当的特征提取;粗粒度到细粒度集成模块用于逐步集成从粗粒度到细粒度的特征,并为输入帧/光学流堆栈输出一个精确的特征。
3.基于权利要求书2所述的特征提取模块,其特征在于,从VGG-16卷积网络的第3、4和5级的最后一个卷积层分别获取侧输出映射,分别切割这三个侧输出映射,并连接到三个特定标度的侧映射组,其中每个侧映射组对应一个动作类粒度,同时为了确保不同级的输出映射具有相同的大小,在映射连接之前,将超采样层应用于侧输出映射,最后,特定标度的侧映射组分别被输入到一个完全连接(FC)层,以获得三个动作类粒度的特征。
4.基于权利要求书2所述的自适应类群形成模块,其特征在于,首先利用一个较小的卷积网络事先预测输入的动作类标签/光学流栈帧的动作类标签,然后分别使用第五、第三和第一个动作类预测结果形成三个动作类粒度的动作类组,然后通过交叉熵损失函数指导特征提取过程,这迫使特征提取模块尽可能生成能在多个粒度描述构造好的动作类组的共同特征:
其中,W是为多粒度特征提取模块设立的参数,N是动作类的总数,Gk是构建的第k个动作类粒度组,αk是衡量第k个动作类粒度相对重要性的权重,是第k个动作类粒度特征预测到第n个动作类的概率,同时为了得到动作预测结果在训练阶段的多粒度特征提取模块的特征输出层中额外添加了两个完全连接层。
5.基于权利要求书4所述的较小的卷积网络,其特征在于,这个卷积网络是在同一数据集上预先训练的,且为了创建稳定的动作类群,这个卷积网络在训练过程中是固定的;在形成动作类组时,如果一个输入帧/光流堆栈的标签不在这个卷积网络预测结果的前几级动作类组中,标签会被强制性地添加进去,避免网络给输入帧/光流堆栈生成无关的特征。
6.基于权利要求书2所述的粗粒度到细粒度集成模块,其特征在于,使用一个三单元的长短时记忆模型(LSTM),其中每个单元都从一个动作类粒度中获取特征Xt,并创建隐藏的状态输出ht,以影响下一个单元,最后一个单元的隐藏状态输出将是输入帧/光学流堆栈的最终集成特征,整个过程可描述为:
其中,Xt和ht(t=1,2,3)是第t个LSTM单元的输入特征和隐藏状态输出,Φt={Mt,bt}是第t个单元的参数,是对第t个单元的动作,以创建隐藏状态输出;同样在训练阶段,可以利用以下的损失函数训练LSTM以获取期望的结果:
其中,Φ1,Φ2,Φ3是LSTM的三个单元的参数,β是衡量LSTM的相对重要性的权重,ng是一个输入示例的参考动作类标签,N是动作类的总数,是第t个单元预测到参考动作类的概率;而为了得到动作预测概率训练阶段在每个LSTM单元的输出中额外增加一个完全连接层。
7.基于权利要求书1所述的异步融合网络(二),其特征在于,先使用沿着信息流方向的特征融合模块融合来自不同流的两个输入特征;然后使用异步集成模块集成不同时间点的输出特征,并为一个周期的输入创建动作类预测结果,整个异步融合网络可以用以下公式训练:
其中,ng是一个输入示例的参考动作类标签,N是动作类的总数,T=5是LSTM的单元和单层卷积网络的总数,Φt和Kt分别是第t个LSTM单元和单层卷积网络的参数,ΨA={Φ1,..,ΦT,K1,..,KT}和γ分别是整个异步融合网络参数和权重,是第t个单元预测到参考动作类的概率。
8.基于权利要求书7所述的沿信息流方向的特征融合模块,其特征在于,一个流中的输入特征与来自另一个流的5个输入特征融合在一起,因此,用5个1层的卷积来融合沿着信息流方向的特征;融合的5个输入特征也有Δ(Δ=5)的时间间隔,这使模块能够捕获信息流之间较长期的异步模式。
9.基于权利要求书7所述的异步集成模块,其特征在于,利用了一个五单元的LSTM按顺序集成不同时间点的输出特征,并为一个周期的输入特征创建一个动作预测结果。
10.基于权利要求书1所述的深特征提取异步融合网络(三),其特征在于,将粗粒度到细粒度网络和异步融合网络集成为一个框架并通过以下公式表示:
其中,和分别是第一和第二个信息流的参数和分别是粗粒度到细粒度网络和异步融合网络的损失函数,T=5是第一个流中的输入总数;由于第一个流中的五个粗粒度到细粒度网络是一样的权重,所以使用相同的参数集来计算每个输入的损失,t是1到5的整数;需要注意的是实际上需要构建两个独立的模型,其中一个模型将一个外观流输入与多个动作流输入融合在一起,另一个模型将一个动作流输入与多个外观流输入融合在一起,两个模型和不同时间段的动作预测结果被组合在一起来决定输入视频的最终标签,利用主流的双流方法来组合动作预测结果,将不同模型不同周期的动作预测结果结合在一起,并选择具有最大总体预测分数的动作类作为最终结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810155147.6A CN108280443A (zh) | 2018-02-23 | 2018-02-23 | 一种基于深特征提取异步融合网络的动作识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810155147.6A CN108280443A (zh) | 2018-02-23 | 2018-02-23 | 一种基于深特征提取异步融合网络的动作识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108280443A true CN108280443A (zh) | 2018-07-13 |
Family
ID=62808514
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810155147.6A Withdrawn CN108280443A (zh) | 2018-02-23 | 2018-02-23 | 一种基于深特征提取异步融合网络的动作识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108280443A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109858407A (zh) * | 2019-01-17 | 2019-06-07 | 西北大学 | 一种基于多种信息流特征和异步融合的视频行为识别方法 |
CN111507471A (zh) * | 2020-03-03 | 2020-08-07 | 上海喜马拉雅科技有限公司 | 一种模型训练方法、装置、设备及存储介质 |
CN111863276A (zh) * | 2020-07-21 | 2020-10-30 | 集美大学 | 利用细粒度数据的手足口病预测方法、电子设备及介质 |
CN112867022A (zh) * | 2020-12-25 | 2021-05-28 | 北京理工大学 | 一种基于融合无线网络的云边协同环境感知方法及系统 |
CN113139467A (zh) * | 2021-04-23 | 2021-07-20 | 西安交通大学 | 基于分级式结构的细粒度视频动作识别方法 |
CN114120077A (zh) * | 2022-01-27 | 2022-03-01 | 山东融瓴科技集团有限公司 | 一种基于无人机航拍大数据下的防控风险预警方法 |
CN115906002A (zh) * | 2022-11-30 | 2023-04-04 | 华中师范大学 | 一种基于多粒度数据融合的学习投入状态评估方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8175374B2 (en) * | 2007-04-20 | 2012-05-08 | Softkinetic Software | Volume recognition method and system |
CN103197968A (zh) * | 2013-03-18 | 2013-07-10 | 焦点科技股份有限公司 | 一种融合同步异步特点的线程池处理方法及系统 |
-
2018
- 2018-02-23 CN CN201810155147.6A patent/CN108280443A/zh not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8175374B2 (en) * | 2007-04-20 | 2012-05-08 | Softkinetic Software | Volume recognition method and system |
CN103197968A (zh) * | 2013-03-18 | 2013-07-10 | 焦点科技股份有限公司 | 一种融合同步异步特点的线程池处理方法及系统 |
Non-Patent Citations (1)
Title |
---|
WEIYAO LIN ET AL: ""Action Recognition with Coarse-to-Fine Deep Feature Integration and Asynchronous Fusion"", 《HTTPS://ARXIV.ORG/ABS/1711.07430》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109858407A (zh) * | 2019-01-17 | 2019-06-07 | 西北大学 | 一种基于多种信息流特征和异步融合的视频行为识别方法 |
CN109858407B (zh) * | 2019-01-17 | 2023-11-10 | 西北大学 | 一种基于多种信息流特征和异步融合的视频行为识别方法 |
CN111507471A (zh) * | 2020-03-03 | 2020-08-07 | 上海喜马拉雅科技有限公司 | 一种模型训练方法、装置、设备及存储介质 |
CN111507471B (zh) * | 2020-03-03 | 2023-11-17 | 上海喜马拉雅科技有限公司 | 一种模型训练方法、装置、设备及存储介质 |
CN111863276A (zh) * | 2020-07-21 | 2020-10-30 | 集美大学 | 利用细粒度数据的手足口病预测方法、电子设备及介质 |
CN111863276B (zh) * | 2020-07-21 | 2023-02-14 | 集美大学 | 利用细粒度数据的手足口病预测方法、电子设备及介质 |
CN112867022A (zh) * | 2020-12-25 | 2021-05-28 | 北京理工大学 | 一种基于融合无线网络的云边协同环境感知方法及系统 |
CN112867022B (zh) * | 2020-12-25 | 2022-04-15 | 北京理工大学 | 一种基于融合无线网络的云边协同环境感知方法及系统 |
CN113139467A (zh) * | 2021-04-23 | 2021-07-20 | 西安交通大学 | 基于分级式结构的细粒度视频动作识别方法 |
CN114120077A (zh) * | 2022-01-27 | 2022-03-01 | 山东融瓴科技集团有限公司 | 一种基于无人机航拍大数据下的防控风险预警方法 |
CN115906002A (zh) * | 2022-11-30 | 2023-04-04 | 华中师范大学 | 一种基于多粒度数据融合的学习投入状态评估方法 |
CN115906002B (zh) * | 2022-11-30 | 2024-01-16 | 华中师范大学 | 一种基于多粒度数据融合的学习投入状态评估方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108280443A (zh) | 一种基于深特征提取异步融合网络的动作识别方法 | |
Jalal et al. | A Triaxial acceleration-based human motion detection for ambient smart home system | |
Liao et al. | Deep facial spatiotemporal network for engagement prediction in online learning | |
Zhu et al. | Efficient human activity recognition solving the confusing activities via deep ensemble learning | |
Wang et al. | Sensorygans: An effective generative adversarial framework for sensor-based human activity recognition | |
Lillo et al. | Sparse composition of body poses and atomic actions for human activity recognition in RGB-D videos | |
CN109902546A (zh) | 人脸识别方法、装置及计算机可读介质 | |
CN108062562A (zh) | 一种物体重识别方法及装置 | |
CN110569795A (zh) | 一种图像识别方法、装置以及相关设备 | |
CN107506712A (zh) | 一种基于3d深度卷积网络的人类行为识别的方法 | |
CN106919951A (zh) | 一种基于点击与视觉融合的弱监督双线性深度学习方法 | |
CN109543602A (zh) | 一种基于多视角图像特征分解的行人再识别方法 | |
Li et al. | Improved generative adversarial networks with reconstruction loss | |
CN113569732B (zh) | 基于并行共享多任务网络的人脸属性识别方法及系统 | |
CN113239801B (zh) | 基于多尺度特征学习和多级域对齐的跨域动作识别方法 | |
CN110457984A (zh) | 监控场景下基于ResNet-50的行人属性识别方法 | |
CN104391879B (zh) | 层次聚类的方法及装置 | |
CN109492589A (zh) | 通过二进制特征与联合层叠结构融合的人脸识别工作方法以及智能芯片 | |
CN108830185A (zh) | 基于多任务联合学习的行为识别及定位方法 | |
CN109271912A (zh) | 视频分类方法、装置、电子设备及存储介质 | |
CN108875519A (zh) | 对象检测方法、装置和系统及存储介质 | |
CN110097029A (zh) | 基于Highway网络多视角步态识别的身份认证方法 | |
CN110188449A (zh) | 基于属性的可解释的服装信息推荐方法、系统、介质及设备 | |
CN109508677A (zh) | 一种基于改进cnn网络的空中手写动作识别 | |
Shah et al. | Detection of different types of blood cells: A comparative analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20180713 |
|
WW01 | Invention patent application withdrawn after publication |