CN111160170B - 一种自学习的人体行为识别与异常检测方法 - Google Patents

一种自学习的人体行为识别与异常检测方法 Download PDF

Info

Publication number
CN111160170B
CN111160170B CN201911314011.6A CN201911314011A CN111160170B CN 111160170 B CN111160170 B CN 111160170B CN 201911314011 A CN201911314011 A CN 201911314011A CN 111160170 B CN111160170 B CN 111160170B
Authority
CN
China
Prior art keywords
value
action
network
current
equal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911314011.6A
Other languages
English (en)
Other versions
CN111160170A (zh
Inventor
纪刚
周萌萌
周粉粉
周亚敏
商胜楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Lianhe Chuangzhi Technology Co ltd
Original Assignee
Qingdao Lianhe Chuangzhi Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Lianhe Chuangzhi Technology Co ltd filed Critical Qingdao Lianhe Chuangzhi Technology Co ltd
Priority to CN201911314011.6A priority Critical patent/CN111160170B/zh
Publication of CN111160170A publication Critical patent/CN111160170A/zh
Application granted granted Critical
Publication of CN111160170B publication Critical patent/CN111160170B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种自学习的人体行为识别与异常检测方法,包括如下步骤:生成监控视频中的显著区域向量,并定时自学习更新显著区域;对同一显著区域,根据当前帧人体行为状态计算当前帧的状态特征向量和动作值,以及转移到下一帧后的人体行为状态预测值、奖励值,以及该状态下的动作;执行当前目标网络,计算当前的人体行为动作价值,更新目标动作网络和目标价值网络;网络参数收敛或满足最大迭代次数后,统计T时间内当前动作网络的反馈奖励值和目标价值网络的人体行为动作价值的加权和,得出行为异常级别。本发明所公开的方法复杂度低,具备实时性,检测效率高,检测准确度高。

Description

一种自学习的人体行为识别与异常检测方法
技术领域
本发明属于视频图像识别与检测技术领域,特别涉及一种自学习的人体行为识别与异常检测方法。
背景技术
目前,在RGB图像和姿态估计上的人体行为识别算法很多,其中,RGB视频的算法主要是从视频帧/光流中提取时空特征,主要有,
Dense trajectories and motionboundary descriptors for actionrecognition[J].Heng Wang,Alexander
Figure BDA0002325317740000011
Cordelia Schmid,Cheng-LinLiu.International Journal of Computer Vision,Springer Verlag,2013,103(1),pp.60-79.
Action Recognition with Trajectory-Pooled Deep-ConvolutionalDescriptors[J].Limin Wang,Yu Qiao,Xiaoou Tang,CVPR2015,2015,4305-4314.
这类做法的问题是提取到的视频特征存在背景环境、光照变化以及外观变化的干扰。
为了减少背景环境的干扰,论文Tube Convolutional Neural Network(T-CNN)for Action Detectionin Videos[J].Rui Hou,Chen Chen,Mubarak Shah,CRCV,2017.中采用了Region Proposal策略进行区域的筛选。将Region Proposal的思路结合RGB视频系列,可以大大缩小背景环境的干扰,这种预处理需要逐视频帧的进行目标框标注(一帧图像中可能存在N个目标,复杂度为5*N,其中5为(x,y,widht,height,class)),虽然提高了人体行为识别与异常检测的准确度,却大大牺牲了时效性,增加了标注成本。
姿态估计是人体主要关节点的骨架数据,能够避免色彩信息干扰,提供高效的人体姿态信息,例如,
Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields[J].Zhe Cao,Tomas Simon Shih-En Wei,Yaser Sheikh,CVPR2015,2013,7291-7299.
这类做法同样存在需要标注大量的人体关节点样本和行为分类标签,且当检测到不同人员的相邻关节点时,易发生关节点的错误连接,导致姿态估计错误。基于姿态估计的人体行为识别属于两阶段检测法:
1-step为人体姿态估计,2-step为基于姿态估计的行为识别,一旦发生姿态估计错误,就会影响到人体行为的判识,且姿态估计本身无法满足实时性检测的要求。
综上所述,无论是提取RGB视频帧特征还是提取人体姿态,存在以下缺陷:
(1)需要对大量的视频帧样本逐帧进行目标人体行为标注,姿态估计还需要人体关节点标注,标注要求和复杂度高,时间周期长;
(2)为提高精度要求,研究方法中往往要牺牲在实际应用中最重要的实时性要,或对硬件计算资源要求高;
(3)一旦出现有别于训练库中样本,或添加新的人体行为时,就需要重新进行标注操作,代价高,属于导师式的监督学习算法,无法完成自学习过程。
由此可见,现有的人体行为识别与异常检测方法存在一定的缺陷。
发明内容
为解决上述技术问题,本发明提供了一种自学习的人体行为识别与异常检测方法,以达到高效准确地进行自学习的人体行为识别与异常检测。
为达到上述目的,本发明的技术方案如下:
一种自学习的人体行为识别与异常检测方法,包括如下步骤:
步骤一:生成监控视频中的显著区域向量,并定时自学习更新显著区域;
步骤二:对同一显著区域,根据当前帧人体行为状态计算当前帧的状态特征向量和动作值,以及转移到下一帧后的人体行为状态预测值、奖励值,以及该状态下的动作;
步骤三:执行当前目标网络,计算当前的人体行为动作价值,更新目标动作网络和目标价值网络,保证每一帧视频图像不仅具有预测下一帧视频图像的动作功能,并且具有历史邻近数据的记忆功能;
步骤四:网络参数收敛或满足最大迭代次数后,统计T时间内当前动作网络的反馈奖励值和目标价值网络的人体行为动作价值的加权和,得出行为异常级别。
上述方案中,所述步骤一的具体方法如下:
(1)设一个连续时间段ti={t1,t2,...ta,tA},其中ta为某一时间点,A为选择的多个离散时间点数量,1≤a≤A,A≥10,统计ti时间段内的所有图像并组成图像序列,表示为V={v1,v2,...,vn,...,vN},N为ti时间段内的图像数量,1≤n≤N;
(2)对V中的图像vn中的像素表示成集合
Figure BDA0002325317740000031
形式:
Figure BDA0002325317740000032
其中,
Figure BDA0002325317740000033
为vn在二维图像矩阵中点m(x,y)位置的像素,M为图像vn的像素总数,1≤m≤M,
Figure BDA0002325317740000034
也称为随机变量;
(3)遍历集合
Figure BDA0002325317740000035
统计在图像序列V中位置为m(x,y)的像素的集合表示为:
Figure BDA0002325317740000036
(4)定义集合xm的高斯模型概率密度函数为:
Figure BDA0002325317740000037
其中,K为模型数量,1≤k≤K,η(xmk,mk,m)为第k个高斯分布,表示为:
Figure BDA0002325317740000038
Figure BDA0002325317740000039
μk,m为均值,τk,m为协方差矩阵,δk,m为方差,I为单位阵,ωk,n为xm的高斯分布权重;
遍历整幅图像位置,完成所有像素的K模式高斯分布;
(5)在完成ti时间段内N帧图像的模式为K的高斯分布建模后,对第N+1帧的图像在点m(x,y)位置的像素
Figure BDA00023253177400000310
进行高斯模型后景匹配,计算公式为:
Figure BDA00023253177400000311
其中,μk,m为均值,δk,m为方差;
如满足上述公式,则判断为属于后景,否则不属于;
(6)根据步骤(5)中的公式判断
Figure BDA00023253177400000312
是否属于后景,并进行高斯模型参数更新:
Figure BDA00023253177400000313
Figure BDA00023253177400000314
if属于后景;
Figure BDA00023253177400000315
if属于后景;
Figure BDA00023253177400000316
if属于后景;
其中,α为学习速率,ωk,N+1和ωk,N为更新前后的权重参数,ρ为更新μk,m和δk,m的参数计算,
Figure BDA0002325317740000041
为第k个高斯分布;
(7)在随机变量
Figure BDA0002325317740000042
不匹配所有模式K的情况下,则将
Figure BDA0002325317740000043
作为μk,m,重建新的高斯分布代替K个模式的模型中概率最小,权重最低的分布;
(8)根据模式总数为K的高斯模型统计ti时间段内的视频前景框,并进行非极大值抑制,令T={t1,t2,...,ti...,tI}时,遍历T集合,按照步骤(1)~(7)统计所有时间段ti内的视频前景框,1≤i≤I,I为集合T中包含的时间段的数量,I≥100;合并具有连通性质的前景框,最终得到相互独立的D个前景区域,又称为显著区域,表示成向量R={R1,R2,...,Rd,...,RD},d=1,2,...,D;
(9)当出现摄像机的人为移动,或定义间隔时间Γ时,按照上述方式重新自学习更新显著区域R。
上述方案中,所述步骤二的具体方法如下:
(1)执行动作当前网络Acurrent,根据当前的人体行为状态Sst定义其特征向量为φ(Sst)={sst,1,sst,2,...sst,p,...,sst,P},1≤p≤P,P为特征向量的维度,得到候选动作值集合A={A1,A2,...,Ac,...,AC},1≤c≤C,C为候选的动作值集合中动作值的数量;
设预测当前最优动作值为Ast,且Ast∈A,设在最优动作值为Ast的下一个人体行为状态S′st,反馈奖励值Rst,其中,奖励值Rst根据异常级别等级Le={le1,le2,...,leb,...leB},1≤b≤B,定义为:
Figure BDA0002325317740000044
其中,Ast=πθ(φ(Sst))+ξ,β为0.5~1之间的奖励系数,通过动作策略函数与随机噪声ξ来选择最优动作值Ast,表达为:
Figure BDA0002325317740000045
Q(φ(Sst))为当前动作网络价值,ε为0.001;在进行网络参数更新收敛过程中,增加样本的随机性,在得到的人体行为动作值Ast后随机增加噪声信息ξ,πθ(φ(Sst))为动作的选择策略函数,简称策略函数,并通过动作目标函数J(θ)对θ求解梯度,进行Acurrent网络参数更新;
J(θ)对θ求导公式表达为:
Figure BDA0002325317740000051
(2)将{φ(Sst),Ast,Rst,φ(S′st),is_end}存入经验回放池集合D中,其中,is_end表示一个动作序列是否为终止,如果is_end=1,说明动作终止,否则is_end=0。
上述方案中,所述步骤三的具体方法如下:
(1)执行当前目标网络Ccurrent,根据步骤二中更新的经验回放池集合D,采样q个样本,{φ(Sj),Aj,Rj,φ(S'j),is_endj},j=1,2,...,q,计算当前的人体行为动作价值yj
Figure BDA0002325317740000052
其中,Q′(φ(S′j),πθ′(φ(S′j)),ω′)为目标价值网络Ctarget的人体行为动作价值,γ为衰减系数,并通过价值目标函数J(ω)对ω求解梯度,进行当前目标网络Ccurrent的网络参数ω的更新,其中,价值目标函数为:
Figure BDA0002325317740000053
Figure BDA0002325317740000054
(2)更新目标动作网络Atarget和目标价值网络Ctarget,为保证每一帧视频图像不仅具有预测下一帧视频图像动作功能,并且具有历史邻近数据的记忆功能,采用的参数更新策略为:
θ'←τω+(1-τ)θ',
ω'←τω+(1-τ)ω',其中,τ为0.1或0.01。
上述方案中,所述步骤四的具体方法如下:
网络参数收敛或满足最大迭代次数后,统计T时间内当前动作网络Acurrent的反馈奖励值Rt和目标价值网络的人体行为动作价值Q′t的加权和,根据如下公式判断行为异常级别:
Figure BDA0002325317740000061
其中,α为0.5。
通过上述技术方案,本发明提供的一种自学习的人体行为识别与异常检测方法具有以下优点:
(1)无需进行高复杂度的人体目标框标注,同一视频帧标注的复杂度可由5*N降低到1,即只需给出异常级别界定即可,复杂度低,效果好;
(2)属于自学习的行为识别与异常检测方法,当出现新的行为样本时,无需监督学习,只需进行异常级别界定就可自行学习获得更好的识别和检测效果;
(3)在保证当前精度的前提下,具备实时性,常见硬件资源即可运行。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1为本发明实施例所公开的一种自学习的人体行为识别与异常检测方法流程示意图;
图2为本实施例中生成的显著区域R的序列图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
本发明提供了一种自学习的人体行为识别与异常检测方法,如图1所示,具体实施例如下:
步骤一:生成监控视频中的显著区域向量,并定时自学习更新显著区域;
(1)设一个连续时间段ti={t1,t2,...ta,tA},其中ta为某一时间点,A为选择的多个离散时间点数量,1≤a≤A,A≥10,统计ti时间段内的所有图像并组成图像序列,表示为V={v1,v2,...,vn,...,vN},N为ti时间段内的图像数量,1≤n≤N;
(2)对V中的图像vn中的像素表示成集合
Figure BDA0002325317740000062
形式:
Figure BDA0002325317740000063
其中,
Figure BDA0002325317740000064
为vn在二维图像矩阵中点m(x,y)位置的像素,M为图像vn的像素总数,1≤m≤M,
Figure BDA0002325317740000071
也称为随机变量;
(3)遍历集合
Figure BDA0002325317740000072
统计在图像序列V中位置为m(x,y)的像素的集合表示为:
Figure BDA0002325317740000073
(4)定义集合xm的高斯模型概率密度函数为:
Figure BDA0002325317740000074
其中,K为模型数量,1≤k≤K,η(xmk,mk,m)为第k个高斯分布,表示为:
Figure BDA0002325317740000075
Figure BDA0002325317740000076
μk,m为均值,τk,m为协方差矩阵,δk,m为方差,I为单位阵,ωk,n为xm的高斯分布权重;
遍历整幅图像位置,完成所有像素的K模式高斯分布;
(5)在完成ti时间段内N帧图像的模式为K的高斯分布建模后,对第N+1帧的图像在点m(x,y)位置的像素
Figure BDA0002325317740000077
进行高斯模型后景匹配,计算公式为:
Figure BDA0002325317740000078
其中,μk,m为均值,δk,m为方差;
如满足上述公式,则判断为属于后景,否则不属于;
(6)根据步骤(5)中的公式判断
Figure BDA0002325317740000079
是否属于后景,并进行高斯模型参数更新:
Figure BDA00023253177400000710
Figure BDA00023253177400000711
if属于后景;
Figure BDA00023253177400000712
if属于后景;
Figure BDA00023253177400000713
if属于后景;
其中,α为学习速率,ωk,N+1和ωk,N为更新前后的权重参数,ρ为更新μk,m和δk,m的参数计算,
Figure BDA00023253177400000714
为第k个高斯分布;
(7)在随机变量
Figure BDA0002325317740000081
不匹配所有模式K的情况下,则将
Figure BDA0002325317740000082
作为μk,m,重建新的高斯分布代替K个模式的模型中概率最小,权重最低的分布;
(8)根据模式总数为K的高斯模型统计ti时间段内的视频前景框,并进行非极大值抑制,令T={t1,t2,...,ti...,tI}时,遍历T集合,按照步骤(1)~(7)统计所有时间段ti内的视频前景框,1≤i≤I,I为集合T中包含的时间段的数量,I≥100;合并具有连通性质的前景框,最终得到相互独立的D个前景区域,又称为显著区域,表示成向量R={R1,R2,...,Rd,...,RD},d=1,2,...,D;
(9)当出现摄像机的人为移动,或定义间隔时间Γ时,按照上述方式重新自学习更新显著区域R。本实施例中生成的显著区域R的序列图如图2所示。
步骤二:对同一显著区域,根据当前帧人体行为状态计算当前帧的状态特征向量和动作值,以及转移到下一帧后的人体行为状态预测值、奖励值,以及该状态下的动作;
(1)执行动作当前网络Acurrent,根据当前的人体行为状态Sst定义其特征向量为φ(Sst)={sst,1,sst,2,...sst,p,...,sst,P},1≤p≤P,P为特征向量的维度,得到候选动作值集合A={A1,A2,...,Ac,...,AC},1≤c≤C,C为候选的动作值集合中动作值的数量;
设预测当前最优动作值为Ast,且Ast∈A,设在最优动作值为Ast的下一个人体行为状态Ss't,反馈奖励值Rst,其中,奖励值Rst根据异常级别等级Le={le1,le2,...,leb,...leB},1≤b≤B,定义为:
Figure BDA0002325317740000083
其中,Ast=πθ(φ(Sst))+ξ,β为0.5~1之间的奖励系数,通过动作策略函数与随机噪声ξ来选择最优动作值Ast,表达为:
Figure BDA0002325317740000084
Q(φ(Sst))为当前动作网络价值,ε为0.001;在进行网络参数更新收敛过程中,增加样本的随机性,在得到的人体行为动作值Ast后随机增加噪声信息ξ,πθ(φ(Sst))为动作的选择策略函数,简称策略函数,并通过动作目标函数J(θ)对θ求解梯度,进行Acurrent网络参数更新;
J(θ)对θ求导公式表达为:
Figure BDA0002325317740000091
(2)将{φ(Sst),Ast,Rst,φ(S′st),is_end}存入经验回放池集合D中,其中,is_end表示一个动作序列是否为终止,如果is_end=1,说明动作终止,否则is_end=0。
步骤三:执行当前目标网络,计算当前的人体行为动作价值,更新目标动作网络和目标价值网络,保证每一帧视频图像不仅具有预测下一帧视频图像的动作功能,并且具有历史邻近数据的记忆功能;
(1)执行当前目标网络Ccurrent,根据步骤二中更新的经验回放池集合D,采样q个样本,{φ(Sj),Aj,Rj,φ(S'j),is_endj},j=1,2,...,q,计算当前的人体行为动作价值yj
Figure BDA0002325317740000092
其中,Q′(φ(S′j),πθ′(φ(S′j)),ω′)为目标价值网络Ctarget的人体行为动作价值,γ为衰减系数,并通过价值目标函数J(ω)对ω求解梯度,进行当前目标网络Ccurrent的网络参数ω的更新,其中,价值目标函数为:
Figure BDA0002325317740000093
Figure BDA0002325317740000094
(2)更新目标动作网络Atarget和目标价值网络Ctarget,为保证每一帧视频图像不仅具有预测下一帧视频图像动作功能,并且具有历史邻近数据的记忆功能,采用的参数更新策略为:
θ'←τω+(1-τ)θ',
ω'←τω+(1-τ)ω',其中,τ为0.1或0.01。
步骤四:网络参数收敛或满足最大迭代次数后,统计T时间内当前动作网络的反馈奖励值和目标价值网络的人体行为动作价值的加权和,得出行为异常级别。
网络参数收敛或满足最大迭代次数后,统计T时间内当前动作网络Acurrent的反馈奖励值Rt和目标价值网络的人体行为动作价值Q′t的加权和,根据如下公式判断行为异常级别:
Figure BDA0002325317740000101
其中,α为0.5。
本发明还对各种算法的复杂度进行了比较,结果见表1。
表1各类算法复杂度影响因素比较
Figure BDA0002325317740000102
本发明还对各种算法在不同检测场景下的误检率/漏检率进行了比较,结果见表2。
表2各类算法的误检率/漏检率比较
Figure BDA0002325317740000103
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (1)

1.一种自学习的人体行为识别与异常检测方法,其特征在于,包括如下步骤:
步骤一:生成监控视频中的显著区域向量,并定时自学习更新显著区域;
步骤二:对同一显著区域,根据当前帧人体行为状态计算当前帧的状态特征向量和动作值,以及转移到下一帧后的人体行为状态预测值、奖励值,以及该状态下的动作;
步骤三:执行当前目标网络,计算当前的人体行为动作价值,更新目标动作网络和目标价值网络,保证每一帧视频图像不仅具有预测下一帧视频图像的动作功能,并且具有历史邻近数据的记忆功能;
步骤四:网络参数收敛或满足最大迭代次数后,统计T时间内当前动作网络的反馈奖励值和目标价值网络的人体行为动作价值的加权和,得出行为异常级别;
所述步骤一的具体方法如下:
(1)设一个连续时间段ti={t1,t2,...ta,tA},其中ta为某一时间点,A为选择的多个离散时间点数量,1≤a≤A,A≥10,统计ti时间段内的所有图像并组成图像序列,表示为V={v1,v2,...,vn,...,vN},N为ti时间段内的图像数量,1≤n≤N;
(2)对V中的图像vn中的像素表示成集合
Figure FDA0004123578680000011
形式:
Figure FDA0004123578680000012
其中,
Figure FDA0004123578680000013
为vn在二维图像矩阵中点m(x,y)位置的像素,M为图像vn的像素总数,1≤m≤M,
Figure FDA0004123578680000014
也称为随机变量;
(3)遍历集合
Figure FDA0004123578680000015
统计在图像序列V中位置为m(x,y)的像素的集合表示为:
Figure FDA0004123578680000016
(4)定义集合xm的高斯模型概率密度函数为:
Figure FDA0004123578680000017
其中,K为模型数量,1≤k≤K,η(xmk,mk,m)为第k个高斯分布,表示为:
Figure FDA0004123578680000018
Figure FDA0004123578680000019
μk,m为均值,τk,m为协方差矩阵,δk,m为方差,I为单位阵,ωk,n为xm的高斯分布权重;
遍历整幅图像位置,完成所有像素的K模式高斯分布;
(5)在完成ti时间段内N帧图像的模式为K的高斯分布建模后,对第N+1帧的图像在点m(x,y)位置的像素
Figure FDA0004123578680000021
进行高斯模型后景匹配,计算公式为:
Figure FDA0004123578680000022
其中,μk,m为均值,δk,m为方差;
如满足上述公式,则判断为属于后景,否则不属于;
(6)根据步骤(5)中的公式判断
Figure FDA0004123578680000023
是否属于后景,并进行高斯模型参数更新:
Figure FDA0004123578680000024
Figure FDA0004123578680000025
if属于后景;
Figure FDA0004123578680000026
if属于后景;
Figure FDA0004123578680000027
if属于后景;
其中,α为学习速率,ωk,N+1和ωk,N为更新前后的权重参数,ρ为更新μk,m和δk,m的参数计算,
Figure FDA0004123578680000028
为第k个高斯分布;
(7)在随机变量
Figure FDA0004123578680000029
不匹配所有模式K的情况下,则将
Figure FDA00041235786800000210
作为μk,m,重建新的高斯分布代替K个模式的模型中概率最小,权重最低的分布;
(8)根据模式总数为K的高斯模型统计ti时间段内的视频前景框,并进行非极大值抑制,令T={t1,t2,...,ti...,tI}时,遍历T集合,按照步骤(1)~(7)统计所有时间段ti内的视频前景框,1≤i≤I,I为集合T中包含的时间段的数量,I≥100;合并具有连通性质的前景框,最终得到相互独立的D个前景区域,又称为显著区域,表示成向量R={R1,R2,...,Rd,...,RD},d=1,2,...,D;
(9)当出现摄像机的人为移动,或定义间隔时间Γ时,按照上述方式重新自学习更新显著区域R;
所述步骤二的具体方法如下:
(1)执行当前动作网络Acurren,根据当前的人体行为状态Sst定义其特征向量为φ(Sst)={sst,1,sst,2,...sst,p,...,sst,P},1≤p≤P,P为特征向量的维度,得到候选动作值集合A={A1,A2,...,Ac,...,AC},1≤c≤C,C为候选的动作值集合中动作值的数量;
设预测当前最优动作值为Ast,且Ast∈A,设在最优动作值为Ast的下一个人体行为状态Ss't,反馈奖励值Rst,其中,奖励值Rst根据异常级别等级Le={le1,le2,...,leb,...leB},1≤b≤B,定义为:
Figure FDA0004123578680000031
其中,Ast=πθ(φ(Sst))+ξ,β为0.5~1之间的奖励系数,通过动作策略函数与随机噪声ξ来选择最优动作值Ast,表达为:
Figure FDA0004123578680000032
Q(φ(Sst))为当前动作网络价值,ε为0.001;在进行网络参数更新收敛过程中,增加样本的随机性,在得到的人体行为动作值Ast后随机增加噪声信息ξ,πθ(φ(Sst))为动作的选择策略函数,简称策略函数,并通过动作目标函数J(θ)对θ求解梯度,进行Acurrent网络参数更新;
J(θ)对θ求导公式表达为:
Figure FDA0004123578680000033
(2)将{φ(Sst),Ast,Rst,φ(S′st),is_end}存入经验回放池集合D中,其中,is_end表示一个动作序列是否为终止,如果is_end=1,说明动作终止,否则is_end=0;
所述步骤三的具体方法如下:
(1)执行当前目标网络Ccurrent,根据步骤二中更新的经验回放池集合D,采样q个样本,{φ(Sj),Aj,Rj,φ(S'j),is_endj},j=1,2,...,q,计算当前的人体行为动作价值yj
Figure FDA0004123578680000034
其中,Q′(φ(S′j),πθ′(φ(S′j)),ω′)为目标价值网络Ctarget的人体行为动作价值,γ为衰减系数,并通过价值目标函数J(ω)对ω求解梯度,进行当前目标网络Ccurrent的网络参数ω的更新,其中,价值目标函数为:
Figure FDA0004123578680000041
Figure FDA0004123578680000042
(2)更新目标动作网络Atarget和目标价值网络Ctarget,为保证每一帧视频图像不仅具有预测下一帧视频图像动作功能,并且具有历史邻近数据的记忆功能,采用的参数更新策略为:
θ'←τω+(1-τ)θ',
ω'←τω+(1-τ)ω',其中,τ为0.1或0.01;
所述步骤四的具体方法如下:
网络参数收敛或满足最大迭代次数后,统计T时间内当前动作网络Acurrent的反馈奖励值Rt和目标价值网络的人体行为动作价值Q′t的加权和,根据如下公式判断行为异常级别:
Figure FDA0004123578680000043
其中,α为0.5。
CN201911314011.6A 2019-12-19 2019-12-19 一种自学习的人体行为识别与异常检测方法 Active CN111160170B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911314011.6A CN111160170B (zh) 2019-12-19 2019-12-19 一种自学习的人体行为识别与异常检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911314011.6A CN111160170B (zh) 2019-12-19 2019-12-19 一种自学习的人体行为识别与异常检测方法

Publications (2)

Publication Number Publication Date
CN111160170A CN111160170A (zh) 2020-05-15
CN111160170B true CN111160170B (zh) 2023-04-21

Family

ID=70557310

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911314011.6A Active CN111160170B (zh) 2019-12-19 2019-12-19 一种自学习的人体行为识别与异常检测方法

Country Status (1)

Country Link
CN (1) CN111160170B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112289044B (zh) * 2020-11-02 2021-09-07 南京信息工程大学 基于深度强化学习的高速公路道路协同控制系统及方法
CN112578726A (zh) * 2021-01-06 2021-03-30 常州百芝龙智慧科技有限公司 一种自主学习人体行为习惯的人体异常监控设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107832716A (zh) * 2017-11-15 2018-03-23 中国科学技术大学 基于主动被动高斯在线学习的异常检测方法
CN108108688A (zh) * 2017-12-18 2018-06-01 青岛联合创智科技有限公司 一种基于低维时空特征提取与主题建模的肢体冲突行为检测方法
CN110135319A (zh) * 2019-05-09 2019-08-16 广州大学 一种异常行为检测方法及其系统
CN110188637A (zh) * 2019-05-17 2019-08-30 西安电子科技大学 一种基于深度学习的行为识别技术方法
EP3579154A1 (en) * 2018-06-05 2019-12-11 Nokia Technologies Oy Reinforcement learning for user behaviour

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9852329B2 (en) * 2015-07-24 2017-12-26 International Business Machines Corporation Calculation of a characteristic of a hotspot in an event

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107832716A (zh) * 2017-11-15 2018-03-23 中国科学技术大学 基于主动被动高斯在线学习的异常检测方法
CN108108688A (zh) * 2017-12-18 2018-06-01 青岛联合创智科技有限公司 一种基于低维时空特征提取与主题建模的肢体冲突行为检测方法
EP3579154A1 (en) * 2018-06-05 2019-12-11 Nokia Technologies Oy Reinforcement learning for user behaviour
CN110135319A (zh) * 2019-05-09 2019-08-16 广州大学 一种异常行为检测方法及其系统
CN110188637A (zh) * 2019-05-17 2019-08-30 西安电子科技大学 一种基于深度学习的行为识别技术方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于视觉的目标检测与跟踪综述;尹宏鹏 陈波 柴毅 刘兆栋;《自动化学报》;全文 *
基于视频图像的人体异常行为识别技术研究;王建东;《中国优秀硕士学位论文全文数据库》;全文 *

Also Published As

Publication number Publication date
CN111160170A (zh) 2020-05-15

Similar Documents

Publication Publication Date Title
Yang et al. Self-supervised video object segmentation by motion grouping
Molchanov et al. Online detection and classification of dynamic hand gestures with recurrent 3d convolutional neural network
Seo et al. Reinforcement learning with action-free pre-training from videos
CN108960086B (zh) 基于生成对抗网络正样本增强的多姿态人体目标跟踪方法
CN107609460B (zh) 一种融合时空双重网络流和attention机制的人体行为识别方法
Chaabouni et al. Transfer learning with deep networks for saliency prediction in natural video
CN111161315B (zh) 一种基于图神经网络的多目标跟踪方法和系统
CN107590432A (zh) 一种基于循环三维卷积神经网络的手势识别方法
CN107179077B (zh) 一种基于elm-lrf的自适应视觉导航方法
CN112052948B (zh) 一种网络模型压缩方法、装置、存储介质和电子设备
Gupta et al. Online detection and classification of dynamic hand gestures with recurrent 3d convolutional neural networks
CN109508686B (zh) 一种基于层次化特征子空间学习的人体行为识别方法
Kim et al. Temporally smooth online action detection using cycle-consistent future anticipation
CN111160170B (zh) 一种自学习的人体行为识别与异常检测方法
Passalis et al. Deep reinforcement learning for controlling frontal person close-up shooting
Pavel et al. Object class segmentation of RGB-D video using recurrent convolutional neural networks
CN111931654A (zh) 一种人员跟踪智能监测方法、系统和装置
Liang et al. Deep background subtraction with guided learning
Zhu et al. Random temporal skipping for multirate video analysis
CN107341471B (zh) 一种基于双层条件随机场的人体行为识别方法
Yang et al. Robust real-time visual object tracking via multi-scale fully convolutional Siamese networks
Zhao et al. Interpretable deep feature propagation for early action recognition
CN109949336A (zh) 一种连续视频帧中目标快速跟踪方法及装置
Kolahdouzi et al. Face trees for expression recognition
Wan et al. Modeling noisy annotations for point-wise supervision

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant