CN111160170B - 一种自学习的人体行为识别与异常检测方法 - Google Patents
一种自学习的人体行为识别与异常检测方法 Download PDFInfo
- Publication number
- CN111160170B CN111160170B CN201911314011.6A CN201911314011A CN111160170B CN 111160170 B CN111160170 B CN 111160170B CN 201911314011 A CN201911314011 A CN 201911314011A CN 111160170 B CN111160170 B CN 111160170B
- Authority
- CN
- China
- Prior art keywords
- value
- action
- network
- current
- equal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种自学习的人体行为识别与异常检测方法,包括如下步骤:生成监控视频中的显著区域向量,并定时自学习更新显著区域;对同一显著区域,根据当前帧人体行为状态计算当前帧的状态特征向量和动作值,以及转移到下一帧后的人体行为状态预测值、奖励值,以及该状态下的动作;执行当前目标网络,计算当前的人体行为动作价值,更新目标动作网络和目标价值网络;网络参数收敛或满足最大迭代次数后,统计T时间内当前动作网络的反馈奖励值和目标价值网络的人体行为动作价值的加权和,得出行为异常级别。本发明所公开的方法复杂度低,具备实时性,检测效率高,检测准确度高。
Description
技术领域
本发明属于视频图像识别与检测技术领域,特别涉及一种自学习的人体行为识别与异常检测方法。
背景技术
目前,在RGB图像和姿态估计上的人体行为识别算法很多,其中,RGB视频的算法主要是从视频帧/光流中提取时空特征,主要有,
Dense trajectories and motionboundary descriptors for actionrecognition[J].Heng Wang,AlexanderCordelia Schmid,Cheng-LinLiu.International Journal of Computer Vision,Springer Verlag,2013,103(1),pp.60-79.
Action Recognition with Trajectory-Pooled Deep-ConvolutionalDescriptors[J].Limin Wang,Yu Qiao,Xiaoou Tang,CVPR2015,2015,4305-4314.
这类做法的问题是提取到的视频特征存在背景环境、光照变化以及外观变化的干扰。
为了减少背景环境的干扰,论文Tube Convolutional Neural Network(T-CNN)for Action Detectionin Videos[J].Rui Hou,Chen Chen,Mubarak Shah,CRCV,2017.中采用了Region Proposal策略进行区域的筛选。将Region Proposal的思路结合RGB视频系列,可以大大缩小背景环境的干扰,这种预处理需要逐视频帧的进行目标框标注(一帧图像中可能存在N个目标,复杂度为5*N,其中5为(x,y,widht,height,class)),虽然提高了人体行为识别与异常检测的准确度,却大大牺牲了时效性,增加了标注成本。
姿态估计是人体主要关节点的骨架数据,能够避免色彩信息干扰,提供高效的人体姿态信息,例如,
Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields[J].Zhe Cao,Tomas Simon Shih-En Wei,Yaser Sheikh,CVPR2015,2013,7291-7299.
这类做法同样存在需要标注大量的人体关节点样本和行为分类标签,且当检测到不同人员的相邻关节点时,易发生关节点的错误连接,导致姿态估计错误。基于姿态估计的人体行为识别属于两阶段检测法:
1-step为人体姿态估计,2-step为基于姿态估计的行为识别,一旦发生姿态估计错误,就会影响到人体行为的判识,且姿态估计本身无法满足实时性检测的要求。
综上所述,无论是提取RGB视频帧特征还是提取人体姿态,存在以下缺陷:
(1)需要对大量的视频帧样本逐帧进行目标人体行为标注,姿态估计还需要人体关节点标注,标注要求和复杂度高,时间周期长;
(2)为提高精度要求,研究方法中往往要牺牲在实际应用中最重要的实时性要,或对硬件计算资源要求高;
(3)一旦出现有别于训练库中样本,或添加新的人体行为时,就需要重新进行标注操作,代价高,属于导师式的监督学习算法,无法完成自学习过程。
由此可见,现有的人体行为识别与异常检测方法存在一定的缺陷。
发明内容
为解决上述技术问题,本发明提供了一种自学习的人体行为识别与异常检测方法,以达到高效准确地进行自学习的人体行为识别与异常检测。
为达到上述目的,本发明的技术方案如下:
一种自学习的人体行为识别与异常检测方法,包括如下步骤:
步骤一:生成监控视频中的显著区域向量,并定时自学习更新显著区域;
步骤二:对同一显著区域,根据当前帧人体行为状态计算当前帧的状态特征向量和动作值,以及转移到下一帧后的人体行为状态预测值、奖励值,以及该状态下的动作;
步骤三:执行当前目标网络,计算当前的人体行为动作价值,更新目标动作网络和目标价值网络,保证每一帧视频图像不仅具有预测下一帧视频图像的动作功能,并且具有历史邻近数据的记忆功能;
步骤四:网络参数收敛或满足最大迭代次数后,统计T时间内当前动作网络的反馈奖励值和目标价值网络的人体行为动作价值的加权和,得出行为异常级别。
上述方案中,所述步骤一的具体方法如下:
(1)设一个连续时间段ti={t1,t2,...ta,tA},其中ta为某一时间点,A为选择的多个离散时间点数量,1≤a≤A,A≥10,统计ti时间段内的所有图像并组成图像序列,表示为V={v1,v2,...,vn,...,vN},N为ti时间段内的图像数量,1≤n≤N;
遍历整幅图像位置,完成所有像素的K模式高斯分布;
其中,μk,m为均值,δk,m为方差;
如满足上述公式,则判断为属于后景,否则不属于;
(8)根据模式总数为K的高斯模型统计ti时间段内的视频前景框,并进行非极大值抑制,令T={t1,t2,...,ti...,tI}时,遍历T集合,按照步骤(1)~(7)统计所有时间段ti内的视频前景框,1≤i≤I,I为集合T中包含的时间段的数量,I≥100;合并具有连通性质的前景框,最终得到相互独立的D个前景区域,又称为显著区域,表示成向量R={R1,R2,...,Rd,...,RD},d=1,2,...,D;
(9)当出现摄像机的人为移动,或定义间隔时间Γ时,按照上述方式重新自学习更新显著区域R。
上述方案中,所述步骤二的具体方法如下:
(1)执行动作当前网络Acurrent,根据当前的人体行为状态Sst定义其特征向量为φ(Sst)={sst,1,sst,2,...sst,p,...,sst,P},1≤p≤P,P为特征向量的维度,得到候选动作值集合A={A1,A2,...,Ac,...,AC},1≤c≤C,C为候选的动作值集合中动作值的数量;
设预测当前最优动作值为Ast,且Ast∈A,设在最优动作值为Ast的下一个人体行为状态S′st,反馈奖励值Rst,其中,奖励值Rst根据异常级别等级Le={le1,le2,...,leb,...leB},1≤b≤B,定义为:
其中,Ast=πθ(φ(Sst))+ξ,β为0.5~1之间的奖励系数,通过动作策略函数与随机噪声ξ来选择最优动作值Ast,表达为:
Q(φ(Sst))为当前动作网络价值,ε为0.001;在进行网络参数更新收敛过程中,增加样本的随机性,在得到的人体行为动作值Ast后随机增加噪声信息ξ,πθ(φ(Sst))为动作的选择策略函数,简称策略函数,并通过动作目标函数J(θ)对θ求解梯度,进行Acurrent网络参数更新;
J(θ)对θ求导公式表达为:
(2)将{φ(Sst),Ast,Rst,φ(S′st),is_end}存入经验回放池集合D中,其中,is_end表示一个动作序列是否为终止,如果is_end=1,说明动作终止,否则is_end=0。
上述方案中,所述步骤三的具体方法如下:
(1)执行当前目标网络Ccurrent,根据步骤二中更新的经验回放池集合D,采样q个样本,{φ(Sj),Aj,Rj,φ(S'j),is_endj},j=1,2,...,q,计算当前的人体行为动作价值yj:
其中,Q′(φ(S′j),πθ′(φ(S′j)),ω′)为目标价值网络Ctarget的人体行为动作价值,γ为衰减系数,并通过价值目标函数J(ω)对ω求解梯度,进行当前目标网络Ccurrent的网络参数ω的更新,其中,价值目标函数为:
(2)更新目标动作网络Atarget和目标价值网络Ctarget,为保证每一帧视频图像不仅具有预测下一帧视频图像动作功能,并且具有历史邻近数据的记忆功能,采用的参数更新策略为:
θ'←τω+(1-τ)θ',
ω'←τω+(1-τ)ω',其中,τ为0.1或0.01。
上述方案中,所述步骤四的具体方法如下:
网络参数收敛或满足最大迭代次数后,统计T时间内当前动作网络Acurrent的反馈奖励值Rt和目标价值网络的人体行为动作价值Q′t的加权和,根据如下公式判断行为异常级别:
通过上述技术方案,本发明提供的一种自学习的人体行为识别与异常检测方法具有以下优点:
(1)无需进行高复杂度的人体目标框标注,同一视频帧标注的复杂度可由5*N降低到1,即只需给出异常级别界定即可,复杂度低,效果好;
(2)属于自学习的行为识别与异常检测方法,当出现新的行为样本时,无需监督学习,只需进行异常级别界定就可自行学习获得更好的识别和检测效果;
(3)在保证当前精度的前提下,具备实时性,常见硬件资源即可运行。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1为本发明实施例所公开的一种自学习的人体行为识别与异常检测方法流程示意图;
图2为本实施例中生成的显著区域R的序列图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
本发明提供了一种自学习的人体行为识别与异常检测方法,如图1所示,具体实施例如下:
步骤一:生成监控视频中的显著区域向量,并定时自学习更新显著区域;
(1)设一个连续时间段ti={t1,t2,...ta,tA},其中ta为某一时间点,A为选择的多个离散时间点数量,1≤a≤A,A≥10,统计ti时间段内的所有图像并组成图像序列,表示为V={v1,v2,...,vn,...,vN},N为ti时间段内的图像数量,1≤n≤N;
遍历整幅图像位置,完成所有像素的K模式高斯分布;
其中,μk,m为均值,δk,m为方差;
如满足上述公式,则判断为属于后景,否则不属于;
(8)根据模式总数为K的高斯模型统计ti时间段内的视频前景框,并进行非极大值抑制,令T={t1,t2,...,ti...,tI}时,遍历T集合,按照步骤(1)~(7)统计所有时间段ti内的视频前景框,1≤i≤I,I为集合T中包含的时间段的数量,I≥100;合并具有连通性质的前景框,最终得到相互独立的D个前景区域,又称为显著区域,表示成向量R={R1,R2,...,Rd,...,RD},d=1,2,...,D;
(9)当出现摄像机的人为移动,或定义间隔时间Γ时,按照上述方式重新自学习更新显著区域R。本实施例中生成的显著区域R的序列图如图2所示。
步骤二:对同一显著区域,根据当前帧人体行为状态计算当前帧的状态特征向量和动作值,以及转移到下一帧后的人体行为状态预测值、奖励值,以及该状态下的动作;
(1)执行动作当前网络Acurrent,根据当前的人体行为状态Sst定义其特征向量为φ(Sst)={sst,1,sst,2,...sst,p,...,sst,P},1≤p≤P,P为特征向量的维度,得到候选动作值集合A={A1,A2,...,Ac,...,AC},1≤c≤C,C为候选的动作值集合中动作值的数量;
设预测当前最优动作值为Ast,且Ast∈A,设在最优动作值为Ast的下一个人体行为状态Ss't,反馈奖励值Rst,其中,奖励值Rst根据异常级别等级Le={le1,le2,...,leb,...leB},1≤b≤B,定义为:
其中,Ast=πθ(φ(Sst))+ξ,β为0.5~1之间的奖励系数,通过动作策略函数与随机噪声ξ来选择最优动作值Ast,表达为:
Q(φ(Sst))为当前动作网络价值,ε为0.001;在进行网络参数更新收敛过程中,增加样本的随机性,在得到的人体行为动作值Ast后随机增加噪声信息ξ,πθ(φ(Sst))为动作的选择策略函数,简称策略函数,并通过动作目标函数J(θ)对θ求解梯度,进行Acurrent网络参数更新;
J(θ)对θ求导公式表达为:
(2)将{φ(Sst),Ast,Rst,φ(S′st),is_end}存入经验回放池集合D中,其中,is_end表示一个动作序列是否为终止,如果is_end=1,说明动作终止,否则is_end=0。
步骤三:执行当前目标网络,计算当前的人体行为动作价值,更新目标动作网络和目标价值网络,保证每一帧视频图像不仅具有预测下一帧视频图像的动作功能,并且具有历史邻近数据的记忆功能;
(1)执行当前目标网络Ccurrent,根据步骤二中更新的经验回放池集合D,采样q个样本,{φ(Sj),Aj,Rj,φ(S'j),is_endj},j=1,2,...,q,计算当前的人体行为动作价值yj:
其中,Q′(φ(S′j),πθ′(φ(S′j)),ω′)为目标价值网络Ctarget的人体行为动作价值,γ为衰减系数,并通过价值目标函数J(ω)对ω求解梯度,进行当前目标网络Ccurrent的网络参数ω的更新,其中,价值目标函数为:
(2)更新目标动作网络Atarget和目标价值网络Ctarget,为保证每一帧视频图像不仅具有预测下一帧视频图像动作功能,并且具有历史邻近数据的记忆功能,采用的参数更新策略为:
θ'←τω+(1-τ)θ',
ω'←τω+(1-τ)ω',其中,τ为0.1或0.01。
步骤四:网络参数收敛或满足最大迭代次数后,统计T时间内当前动作网络的反馈奖励值和目标价值网络的人体行为动作价值的加权和,得出行为异常级别。
网络参数收敛或满足最大迭代次数后,统计T时间内当前动作网络Acurrent的反馈奖励值Rt和目标价值网络的人体行为动作价值Q′t的加权和,根据如下公式判断行为异常级别:
本发明还对各种算法的复杂度进行了比较,结果见表1。
表1各类算法复杂度影响因素比较
本发明还对各种算法在不同检测场景下的误检率/漏检率进行了比较,结果见表2。
表2各类算法的误检率/漏检率比较
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (1)
1.一种自学习的人体行为识别与异常检测方法,其特征在于,包括如下步骤:
步骤一:生成监控视频中的显著区域向量,并定时自学习更新显著区域;
步骤二:对同一显著区域,根据当前帧人体行为状态计算当前帧的状态特征向量和动作值,以及转移到下一帧后的人体行为状态预测值、奖励值,以及该状态下的动作;
步骤三:执行当前目标网络,计算当前的人体行为动作价值,更新目标动作网络和目标价值网络,保证每一帧视频图像不仅具有预测下一帧视频图像的动作功能,并且具有历史邻近数据的记忆功能;
步骤四:网络参数收敛或满足最大迭代次数后,统计T时间内当前动作网络的反馈奖励值和目标价值网络的人体行为动作价值的加权和,得出行为异常级别;
所述步骤一的具体方法如下:
(1)设一个连续时间段ti={t1,t2,...ta,tA},其中ta为某一时间点,A为选择的多个离散时间点数量,1≤a≤A,A≥10,统计ti时间段内的所有图像并组成图像序列,表示为V={v1,v2,...,vn,...,vN},N为ti时间段内的图像数量,1≤n≤N;
遍历整幅图像位置,完成所有像素的K模式高斯分布;
其中,μk,m为均值,δk,m为方差;
如满足上述公式,则判断为属于后景,否则不属于;
(8)根据模式总数为K的高斯模型统计ti时间段内的视频前景框,并进行非极大值抑制,令T={t1,t2,...,ti...,tI}时,遍历T集合,按照步骤(1)~(7)统计所有时间段ti内的视频前景框,1≤i≤I,I为集合T中包含的时间段的数量,I≥100;合并具有连通性质的前景框,最终得到相互独立的D个前景区域,又称为显著区域,表示成向量R={R1,R2,...,Rd,...,RD},d=1,2,...,D;
(9)当出现摄像机的人为移动,或定义间隔时间Γ时,按照上述方式重新自学习更新显著区域R;
所述步骤二的具体方法如下:
(1)执行当前动作网络Acurren,根据当前的人体行为状态Sst定义其特征向量为φ(Sst)={sst,1,sst,2,...sst,p,...,sst,P},1≤p≤P,P为特征向量的维度,得到候选动作值集合A={A1,A2,...,Ac,...,AC},1≤c≤C,C为候选的动作值集合中动作值的数量;
设预测当前最优动作值为Ast,且Ast∈A,设在最优动作值为Ast的下一个人体行为状态Ss't,反馈奖励值Rst,其中,奖励值Rst根据异常级别等级Le={le1,le2,...,leb,...leB},1≤b≤B,定义为:
其中,Ast=πθ(φ(Sst))+ξ,β为0.5~1之间的奖励系数,通过动作策略函数与随机噪声ξ来选择最优动作值Ast,表达为:
Q(φ(Sst))为当前动作网络价值,ε为0.001;在进行网络参数更新收敛过程中,增加样本的随机性,在得到的人体行为动作值Ast后随机增加噪声信息ξ,πθ(φ(Sst))为动作的选择策略函数,简称策略函数,并通过动作目标函数J(θ)对θ求解梯度,进行Acurrent网络参数更新;
J(θ)对θ求导公式表达为:
(2)将{φ(Sst),Ast,Rst,φ(S′st),is_end}存入经验回放池集合D中,其中,is_end表示一个动作序列是否为终止,如果is_end=1,说明动作终止,否则is_end=0;
所述步骤三的具体方法如下:
(1)执行当前目标网络Ccurrent,根据步骤二中更新的经验回放池集合D,采样q个样本,{φ(Sj),Aj,Rj,φ(S'j),is_endj},j=1,2,...,q,计算当前的人体行为动作价值yj:
其中,Q′(φ(S′j),πθ′(φ(S′j)),ω′)为目标价值网络Ctarget的人体行为动作价值,γ为衰减系数,并通过价值目标函数J(ω)对ω求解梯度,进行当前目标网络Ccurrent的网络参数ω的更新,其中,价值目标函数为:
(2)更新目标动作网络Atarget和目标价值网络Ctarget,为保证每一帧视频图像不仅具有预测下一帧视频图像动作功能,并且具有历史邻近数据的记忆功能,采用的参数更新策略为:
θ'←τω+(1-τ)θ',
ω'←τω+(1-τ)ω',其中,τ为0.1或0.01;
所述步骤四的具体方法如下:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911314011.6A CN111160170B (zh) | 2019-12-19 | 2019-12-19 | 一种自学习的人体行为识别与异常检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911314011.6A CN111160170B (zh) | 2019-12-19 | 2019-12-19 | 一种自学习的人体行为识别与异常检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111160170A CN111160170A (zh) | 2020-05-15 |
CN111160170B true CN111160170B (zh) | 2023-04-21 |
Family
ID=70557310
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911314011.6A Active CN111160170B (zh) | 2019-12-19 | 2019-12-19 | 一种自学习的人体行为识别与异常检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111160170B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112289044B (zh) * | 2020-11-02 | 2021-09-07 | 南京信息工程大学 | 基于深度强化学习的高速公路道路协同控制系统及方法 |
CN112578726A (zh) * | 2021-01-06 | 2021-03-30 | 常州百芝龙智慧科技有限公司 | 一种自主学习人体行为习惯的人体异常监控设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107832716A (zh) * | 2017-11-15 | 2018-03-23 | 中国科学技术大学 | 基于主动被动高斯在线学习的异常检测方法 |
CN108108688A (zh) * | 2017-12-18 | 2018-06-01 | 青岛联合创智科技有限公司 | 一种基于低维时空特征提取与主题建模的肢体冲突行为检测方法 |
CN110135319A (zh) * | 2019-05-09 | 2019-08-16 | 广州大学 | 一种异常行为检测方法及其系统 |
CN110188637A (zh) * | 2019-05-17 | 2019-08-30 | 西安电子科技大学 | 一种基于深度学习的行为识别技术方法 |
EP3579154A1 (en) * | 2018-06-05 | 2019-12-11 | Nokia Technologies Oy | Reinforcement learning for user behaviour |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9852329B2 (en) * | 2015-07-24 | 2017-12-26 | International Business Machines Corporation | Calculation of a characteristic of a hotspot in an event |
-
2019
- 2019-12-19 CN CN201911314011.6A patent/CN111160170B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107832716A (zh) * | 2017-11-15 | 2018-03-23 | 中国科学技术大学 | 基于主动被动高斯在线学习的异常检测方法 |
CN108108688A (zh) * | 2017-12-18 | 2018-06-01 | 青岛联合创智科技有限公司 | 一种基于低维时空特征提取与主题建模的肢体冲突行为检测方法 |
EP3579154A1 (en) * | 2018-06-05 | 2019-12-11 | Nokia Technologies Oy | Reinforcement learning for user behaviour |
CN110135319A (zh) * | 2019-05-09 | 2019-08-16 | 广州大学 | 一种异常行为检测方法及其系统 |
CN110188637A (zh) * | 2019-05-17 | 2019-08-30 | 西安电子科技大学 | 一种基于深度学习的行为识别技术方法 |
Non-Patent Citations (2)
Title |
---|
基于视觉的目标检测与跟踪综述;尹宏鹏 陈波 柴毅 刘兆栋;《自动化学报》;全文 * |
基于视频图像的人体异常行为识别技术研究;王建东;《中国优秀硕士学位论文全文数据库》;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111160170A (zh) | 2020-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yang et al. | Self-supervised video object segmentation by motion grouping | |
Molchanov et al. | Online detection and classification of dynamic hand gestures with recurrent 3d convolutional neural network | |
Seo et al. | Reinforcement learning with action-free pre-training from videos | |
CN108960086B (zh) | 基于生成对抗网络正样本增强的多姿态人体目标跟踪方法 | |
CN107609460B (zh) | 一种融合时空双重网络流和attention机制的人体行为识别方法 | |
Chaabouni et al. | Transfer learning with deep networks for saliency prediction in natural video | |
CN111161315B (zh) | 一种基于图神经网络的多目标跟踪方法和系统 | |
CN107590432A (zh) | 一种基于循环三维卷积神经网络的手势识别方法 | |
CN107179077B (zh) | 一种基于elm-lrf的自适应视觉导航方法 | |
CN112052948B (zh) | 一种网络模型压缩方法、装置、存储介质和电子设备 | |
Gupta et al. | Online detection and classification of dynamic hand gestures with recurrent 3d convolutional neural networks | |
CN109508686B (zh) | 一种基于层次化特征子空间学习的人体行为识别方法 | |
Kim et al. | Temporally smooth online action detection using cycle-consistent future anticipation | |
CN111160170B (zh) | 一种自学习的人体行为识别与异常检测方法 | |
Passalis et al. | Deep reinforcement learning for controlling frontal person close-up shooting | |
Pavel et al. | Object class segmentation of RGB-D video using recurrent convolutional neural networks | |
CN111931654A (zh) | 一种人员跟踪智能监测方法、系统和装置 | |
Liang et al. | Deep background subtraction with guided learning | |
Zhu et al. | Random temporal skipping for multirate video analysis | |
CN107341471B (zh) | 一种基于双层条件随机场的人体行为识别方法 | |
Yang et al. | Robust real-time visual object tracking via multi-scale fully convolutional Siamese networks | |
Zhao et al. | Interpretable deep feature propagation for early action recognition | |
CN109949336A (zh) | 一种连续视频帧中目标快速跟踪方法及装置 | |
Kolahdouzi et al. | Face trees for expression recognition | |
Wan et al. | Modeling noisy annotations for point-wise supervision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |