CN111160170A - 一种自学习的人体行为识别与异常检测方法 - Google Patents

一种自学习的人体行为识别与异常检测方法 Download PDF

Info

Publication number
CN111160170A
CN111160170A CN201911314011.6A CN201911314011A CN111160170A CN 111160170 A CN111160170 A CN 111160170A CN 201911314011 A CN201911314011 A CN 201911314011A CN 111160170 A CN111160170 A CN 111160170A
Authority
CN
China
Prior art keywords
action
value
network
current
equal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911314011.6A
Other languages
English (en)
Other versions
CN111160170B (zh
Inventor
纪刚
周萌萌
周粉粉
周亚敏
商胜楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Lianhe Chuangzhi Technology Co ltd
Original Assignee
Qingdao Lianhe Chuangzhi Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Lianhe Chuangzhi Technology Co ltd filed Critical Qingdao Lianhe Chuangzhi Technology Co ltd
Priority to CN201911314011.6A priority Critical patent/CN111160170B/zh
Publication of CN111160170A publication Critical patent/CN111160170A/zh
Application granted granted Critical
Publication of CN111160170B publication Critical patent/CN111160170B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Psychiatry (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种自学习的人体行为识别与异常检测方法,包括如下步骤:生成监控视频中的显著区域向量,并定时自学习更新显著区域;对同一显著区域,根据当前帧人体行为状态计算当前帧的状态特征向量和动作值,以及转移到下一帧后的人体行为状态预测值、奖励值,以及该状态下的动作;执行当前目标网络,计算当前的人体行为动作价值,更新目标动作网络和目标价值网络;网络参数收敛或满足最大迭代次数后,统计T时间内当前动作网络的反馈奖励值和目标价值网络的人体行为动作价值的加权和,得出行为异常级别。本发明所公开的方法复杂度低,具备实时性,检测效率高,检测准确度高。

Description

一种自学习的人体行为识别与异常检测方法
技术领域
本发明属于视频图像识别与检测技术领域,特别涉及一种自学习的人体行为识别与异常检测方法。
背景技术
目前,在RGB图像和姿态估计上的人体行为识别算法很多,其中,RGB视频的算法主要是从视频帧/光流中提取时空特征,主要有,
Dense trajectories and motionboundary descriptors for actionrecognition[J].Heng Wang,Alexander
Figure BDA0002325317740000011
Cordelia Schmid,Cheng-LinLiu.International Journal of Computer Vision,Springer Verlag,2013,103(1),pp.60-79.
Action Recognition with Trajectory-Pooled Deep-ConvolutionalDescriptors[J].Limin Wang,Yu Qiao,Xiaoou Tang,CVPR2015,2015,4305-4314.
这类做法的问题是提取到的视频特征存在背景环境、光照变化以及外观变化的干扰。
为了减少背景环境的干扰,论文Tube Convolutional Neural Network(T-CNN)for Action Detectionin Videos[J].Rui Hou,Chen Chen,Mubarak Shah,CRCV,2017.中采用了Region Proposal策略进行区域的筛选。将Region Proposal的思路结合RGB视频系列,可以大大缩小背景环境的干扰,这种预处理需要逐视频帧的进行目标框标注(一帧图像中可能存在N个目标,复杂度为5*N,其中5为(x,y,widht,height,class)),虽然提高了人体行为识别与异常检测的准确度,却大大牺牲了时效性,增加了标注成本。
姿态估计是人体主要关节点的骨架数据,能够避免色彩信息干扰,提供高效的人体姿态信息,例如,
Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields[J].Zhe Cao,Tomas Simon Shih-En Wei,Yaser Sheikh,CVPR2015,2013,7291-7299.
这类做法同样存在需要标注大量的人体关节点样本和行为分类标签,且当检测到不同人员的相邻关节点时,易发生关节点的错误连接,导致姿态估计错误。基于姿态估计的人体行为识别属于两阶段检测法:
1-step为人体姿态估计,2-step为基于姿态估计的行为识别,一旦发生姿态估计错误,就会影响到人体行为的判识,且姿态估计本身无法满足实时性检测的要求。
综上所述,无论是提取RGB视频帧特征还是提取人体姿态,存在以下缺陷:
(1)需要对大量的视频帧样本逐帧进行目标人体行为标注,姿态估计还需要人体关节点标注,标注要求和复杂度高,时间周期长;
(2)为提高精度要求,研究方法中往往要牺牲在实际应用中最重要的实时性要,或对硬件计算资源要求高;
(3)一旦出现有别于训练库中样本,或添加新的人体行为时,就需要重新进行标注操作,代价高,属于导师式的监督学习算法,无法完成自学习过程。
由此可见,现有的人体行为识别与异常检测方法存在一定的缺陷。
发明内容
为解决上述技术问题,本发明提供了一种自学习的人体行为识别与异常检测方法,以达到高效准确地进行自学习的人体行为识别与异常检测。
为达到上述目的,本发明的技术方案如下:
一种自学习的人体行为识别与异常检测方法,包括如下步骤:
步骤一:生成监控视频中的显著区域向量,并定时自学习更新显著区域;
步骤二:对同一显著区域,根据当前帧人体行为状态计算当前帧的状态特征向量和动作值,以及转移到下一帧后的人体行为状态预测值、奖励值,以及该状态下的动作;
步骤三:执行当前目标网络,计算当前的人体行为动作价值,更新目标动作网络和目标价值网络,保证每一帧视频图像不仅具有预测下一帧视频图像的动作功能,并且具有历史邻近数据的记忆功能;
步骤四:网络参数收敛或满足最大迭代次数后,统计T时间内当前动作网络的反馈奖励值和目标价值网络的人体行为动作价值的加权和,得出行为异常级别。
上述方案中,所述步骤一的具体方法如下:
(1)设一个连续时间段ti={t1,t2,...ta,tA},其中ta为某一时间点,A为选择的多个离散时间点数量,1≤a≤A,A≥10,统计ti时间段内的所有图像并组成图像序列,表示为V={v1,v2,...,vn,...,vN},N为ti时间段内的图像数量,1≤n≤N;
(2)对V中的图像vn中的像素表示成集合
Figure BDA0002325317740000031
形式:
Figure BDA0002325317740000032
其中,
Figure BDA0002325317740000033
为vn在二维图像矩阵中点m(x,y)位置的像素,M为图像vn的像素总数,1≤m≤M,
Figure BDA0002325317740000034
也称为随机变量;
(3)遍历集合
Figure BDA0002325317740000035
统计在图像序列V中位置为m(x,y)的像素的集合表示为:
Figure BDA0002325317740000036
(4)定义集合xm的高斯模型概率密度函数为:
Figure BDA0002325317740000037
其中,K为模型数量,1≤k≤K,η(xmk,mk,m)为第k个高斯分布,表示为:
Figure BDA0002325317740000038
Figure BDA0002325317740000039
μk,m为均值,τk,m为协方差矩阵,δk,m为方差,I为单位阵,ωk,n为xm的高斯分布权重;
遍历整幅图像位置,完成所有像素的K模式高斯分布;
(5)在完成ti时间段内N帧图像的模式为K的高斯分布建模后,对第N+1帧的图像在点m(x,y)位置的像素
Figure BDA00023253177400000310
进行高斯模型后景匹配,计算公式为:
Figure BDA00023253177400000311
其中,μk,m为均值,δk,m为方差;
如满足上述公式,则判断为属于后景,否则不属于;
(6)根据步骤(5)中的公式判断
Figure BDA00023253177400000312
是否属于后景,并进行高斯模型参数更新:
Figure BDA00023253177400000313
Figure BDA00023253177400000314
if属于后景;
Figure BDA00023253177400000315
if属于后景;
Figure BDA00023253177400000316
if属于后景;
其中,α为学习速率,ωk,N+1和ωk,N为更新前后的权重参数,ρ为更新μk,m和δk,m的参数计算,
Figure BDA0002325317740000041
为第k个高斯分布;
(7)在随机变量
Figure BDA0002325317740000042
不匹配所有模式K的情况下,则将
Figure BDA0002325317740000043
作为μk,m,重建新的高斯分布代替K个模式的模型中概率最小,权重最低的分布;
(8)根据模式总数为K的高斯模型统计ti时间段内的视频前景框,并进行非极大值抑制,令T={t1,t2,...,ti...,tI}时,遍历T集合,按照步骤(1)~(7)统计所有时间段ti内的视频前景框,1≤i≤I,I为集合T中包含的时间段的数量,I≥100;合并具有连通性质的前景框,最终得到相互独立的D个前景区域,又称为显著区域,表示成向量R={R1,R2,...,Rd,...,RD},d=1,2,...,D;
(9)当出现摄像机的人为移动,或定义间隔时间Γ时,按照上述方式重新自学习更新显著区域R。
上述方案中,所述步骤二的具体方法如下:
(1)执行动作当前网络Acurrent,根据当前的人体行为状态Sst定义其特征向量为φ(Sst)={sst,1,sst,2,...sst,p,...,sst,P},1≤p≤P,P为特征向量的维度,得到候选动作值集合A={A1,A2,...,Ac,...,AC},1≤c≤C,C为候选的动作值集合中动作值的数量;
设预测当前最优动作值为Ast,且Ast∈A,设在最优动作值为Ast的下一个人体行为状态S′st,反馈奖励值Rst,其中,奖励值Rst根据异常级别等级Le={le1,le2,...,leb,...leB},1≤b≤B,定义为:
Figure BDA0002325317740000044
其中,Ast=πθ(φ(Sst))+ξ,β为0.5~1之间的奖励系数,通过动作策略函数与随机噪声ξ来选择最优动作值Ast,表达为:
Figure BDA0002325317740000045
Q(φ(Sst))为当前动作网络价值,ε为0.001;在进行网络参数更新收敛过程中,增加样本的随机性,在得到的人体行为动作值Ast后随机增加噪声信息ξ,πθ(φ(Sst))为动作的选择策略函数,简称策略函数,并通过动作目标函数J(θ)对θ求解梯度,进行Acurrent网络参数更新;
J(θ)对θ求导公式表达为:
Figure BDA0002325317740000051
(2)将{φ(Sst),Ast,Rst,φ(S′st),is_end}存入经验回放池集合D中,其中,is_end表示一个动作序列是否为终止,如果is_end=1,说明动作终止,否则is_end=0。
上述方案中,所述步骤三的具体方法如下:
(1)执行当前目标网络Ccurrent,根据步骤二中更新的经验回放池集合D,采样q个样本,{φ(Sj),Aj,Rj,φ(S'j),is_endj},j=1,2,...,q,计算当前的人体行为动作价值yj
Figure BDA0002325317740000052
其中,Q′(φ(S′j),πθ′(φ(S′j)),ω′)为目标价值网络Ctarget的人体行为动作价值,γ为衰减系数,并通过价值目标函数J(ω)对ω求解梯度,进行当前目标网络Ccurrent的网络参数ω的更新,其中,价值目标函数为:
Figure BDA0002325317740000053
Figure BDA0002325317740000054
(2)更新目标动作网络Atarget和目标价值网络Ctarget,为保证每一帧视频图像不仅具有预测下一帧视频图像动作功能,并且具有历史邻近数据的记忆功能,采用的参数更新策略为:
θ'←τω+(1-τ)θ',
ω'←τω+(1-τ)ω',其中,τ为0.1或0.01。
上述方案中,所述步骤四的具体方法如下:
网络参数收敛或满足最大迭代次数后,统计T时间内当前动作网络Acurrent的反馈奖励值Rt和目标价值网络的人体行为动作价值Q′t的加权和,根据如下公式判断行为异常级别:
Figure BDA0002325317740000061
其中,α为0.5。
通过上述技术方案,本发明提供的一种自学习的人体行为识别与异常检测方法具有以下优点:
(1)无需进行高复杂度的人体目标框标注,同一视频帧标注的复杂度可由5*N降低到1,即只需给出异常级别界定即可,复杂度低,效果好;
(2)属于自学习的行为识别与异常检测方法,当出现新的行为样本时,无需监督学习,只需进行异常级别界定就可自行学习获得更好的识别和检测效果;
(3)在保证当前精度的前提下,具备实时性,常见硬件资源即可运行。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1为本发明实施例所公开的一种自学习的人体行为识别与异常检测方法流程示意图;
图2为本实施例中生成的显著区域R的序列图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
本发明提供了一种自学习的人体行为识别与异常检测方法,如图1所示,具体实施例如下:
步骤一:生成监控视频中的显著区域向量,并定时自学习更新显著区域;
(1)设一个连续时间段ti={t1,t2,...ta,tA},其中ta为某一时间点,A为选择的多个离散时间点数量,1≤a≤A,A≥10,统计ti时间段内的所有图像并组成图像序列,表示为V={v1,v2,...,vn,...,vN},N为ti时间段内的图像数量,1≤n≤N;
(2)对V中的图像vn中的像素表示成集合
Figure BDA0002325317740000062
形式:
Figure BDA0002325317740000063
其中,
Figure BDA0002325317740000064
为vn在二维图像矩阵中点m(x,y)位置的像素,M为图像vn的像素总数,1≤m≤M,
Figure BDA0002325317740000071
也称为随机变量;
(3)遍历集合
Figure BDA0002325317740000072
统计在图像序列V中位置为m(x,y)的像素的集合表示为:
Figure BDA0002325317740000073
(4)定义集合xm的高斯模型概率密度函数为:
Figure BDA0002325317740000074
其中,K为模型数量,1≤k≤K,η(xmk,mk,m)为第k个高斯分布,表示为:
Figure BDA0002325317740000075
Figure BDA0002325317740000076
μk,m为均值,τk,m为协方差矩阵,δk,m为方差,I为单位阵,ωk,n为xm的高斯分布权重;
遍历整幅图像位置,完成所有像素的K模式高斯分布;
(5)在完成ti时间段内N帧图像的模式为K的高斯分布建模后,对第N+1帧的图像在点m(x,y)位置的像素
Figure BDA0002325317740000077
进行高斯模型后景匹配,计算公式为:
Figure BDA0002325317740000078
其中,μk,m为均值,δk,m为方差;
如满足上述公式,则判断为属于后景,否则不属于;
(6)根据步骤(5)中的公式判断
Figure BDA0002325317740000079
是否属于后景,并进行高斯模型参数更新:
Figure BDA00023253177400000710
Figure BDA00023253177400000711
if属于后景;
Figure BDA00023253177400000712
if属于后景;
Figure BDA00023253177400000713
if属于后景;
其中,α为学习速率,ωk,N+1和ωk,N为更新前后的权重参数,ρ为更新μk,m和δk,m的参数计算,
Figure BDA00023253177400000714
为第k个高斯分布;
(7)在随机变量
Figure BDA0002325317740000081
不匹配所有模式K的情况下,则将
Figure BDA0002325317740000082
作为μk,m,重建新的高斯分布代替K个模式的模型中概率最小,权重最低的分布;
(8)根据模式总数为K的高斯模型统计ti时间段内的视频前景框,并进行非极大值抑制,令T={t1,t2,...,ti...,tI}时,遍历T集合,按照步骤(1)~(7)统计所有时间段ti内的视频前景框,1≤i≤I,I为集合T中包含的时间段的数量,I≥100;合并具有连通性质的前景框,最终得到相互独立的D个前景区域,又称为显著区域,表示成向量R={R1,R2,...,Rd,...,RD},d=1,2,...,D;
(9)当出现摄像机的人为移动,或定义间隔时间Γ时,按照上述方式重新自学习更新显著区域R。本实施例中生成的显著区域R的序列图如图2所示。
步骤二:对同一显著区域,根据当前帧人体行为状态计算当前帧的状态特征向量和动作值,以及转移到下一帧后的人体行为状态预测值、奖励值,以及该状态下的动作;
(1)执行动作当前网络Acurrent,根据当前的人体行为状态Sst定义其特征向量为φ(Sst)={sst,1,sst,2,...sst,p,...,sst,P},1≤p≤P,P为特征向量的维度,得到候选动作值集合A={A1,A2,...,Ac,...,AC},1≤c≤C,C为候选的动作值集合中动作值的数量;
设预测当前最优动作值为Ast,且Ast∈A,设在最优动作值为Ast的下一个人体行为状态Ss't,反馈奖励值Rst,其中,奖励值Rst根据异常级别等级Le={le1,le2,...,leb,...leB},1≤b≤B,定义为:
Figure BDA0002325317740000083
其中,Ast=πθ(φ(Sst))+ξ,β为0.5~1之间的奖励系数,通过动作策略函数与随机噪声ξ来选择最优动作值Ast,表达为:
Figure BDA0002325317740000084
Q(φ(Sst))为当前动作网络价值,ε为0.001;在进行网络参数更新收敛过程中,增加样本的随机性,在得到的人体行为动作值Ast后随机增加噪声信息ξ,πθ(φ(Sst))为动作的选择策略函数,简称策略函数,并通过动作目标函数J(θ)对θ求解梯度,进行Acurrent网络参数更新;
J(θ)对θ求导公式表达为:
Figure BDA0002325317740000091
(2)将{φ(Sst),Ast,Rst,φ(S′st),is_end}存入经验回放池集合D中,其中,is_end表示一个动作序列是否为终止,如果is_end=1,说明动作终止,否则is_end=0。
步骤三:执行当前目标网络,计算当前的人体行为动作价值,更新目标动作网络和目标价值网络,保证每一帧视频图像不仅具有预测下一帧视频图像的动作功能,并且具有历史邻近数据的记忆功能;
(1)执行当前目标网络Ccurrent,根据步骤二中更新的经验回放池集合D,采样q个样本,{φ(Sj),Aj,Rj,φ(S'j),is_endj},j=1,2,...,q,计算当前的人体行为动作价值yj
Figure BDA0002325317740000092
其中,Q′(φ(S′j),πθ′(φ(S′j)),ω′)为目标价值网络Ctarget的人体行为动作价值,γ为衰减系数,并通过价值目标函数J(ω)对ω求解梯度,进行当前目标网络Ccurrent的网络参数ω的更新,其中,价值目标函数为:
Figure BDA0002325317740000093
Figure BDA0002325317740000094
(2)更新目标动作网络Atarget和目标价值网络Ctarget,为保证每一帧视频图像不仅具有预测下一帧视频图像动作功能,并且具有历史邻近数据的记忆功能,采用的参数更新策略为:
θ'←τω+(1-τ)θ',
ω'←τω+(1-τ)ω',其中,τ为0.1或0.01。
步骤四:网络参数收敛或满足最大迭代次数后,统计T时间内当前动作网络的反馈奖励值和目标价值网络的人体行为动作价值的加权和,得出行为异常级别。
网络参数收敛或满足最大迭代次数后,统计T时间内当前动作网络Acurrent的反馈奖励值Rt和目标价值网络的人体行为动作价值Q′t的加权和,根据如下公式判断行为异常级别:
Figure BDA0002325317740000101
其中,α为0.5。
本发明还对各种算法的复杂度进行了比较,结果见表1。
表1各类算法复杂度影响因素比较
Figure BDA0002325317740000102
本发明还对各种算法在不同检测场景下的误检率/漏检率进行了比较,结果见表2。
表2各类算法的误检率/漏检率比较
Figure BDA0002325317740000103
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (5)

1.一种自学习的人体行为识别与异常检测方法,其特征在于,包括如下步骤:
步骤一:生成监控视频中的显著区域向量,并定时自学习更新显著区域;
步骤二:对同一显著区域,根据当前帧人体行为状态计算当前帧的状态特征向量和动作值,以及转移到下一帧后的人体行为状态预测值、奖励值,以及该状态下的动作;
步骤三:执行当前目标网络,计算当前的人体行为动作价值,更新目标动作网络和目标价值网络,保证每一帧视频图像不仅具有预测下一帧视频图像的动作功能,并且具有历史邻近数据的记忆功能;
步骤四:网络参数收敛或满足最大迭代次数后,统计T时间内当前动作网络的反馈奖励值和目标价值网络的人体行为动作价值的加权和,得出行为异常级别。
2.根据权利要求1所述的一种自学习的人体行为识别与异常检测方法,其特征在于,所述步骤一的具体方法如下:
(1)设一个连续时间段ti={t1,t2,...ta,tA},其中ta为某一时间点,A为选择的多个离散时间点数量,1≤a≤A,A≥10,统计ti时间段内的所有图像并组成图像序列,表示为V={v1,v2,...,vn,...,vN},N为ti时间段内的图像数量,1≤n≤N;
(2)对V中的图像vn中的像素表示成集合
Figure FDA0002325317730000011
形式:
Figure FDA0002325317730000012
其中,
Figure FDA0002325317730000013
为vn在二维图像矩阵中点m(x,y)位置的像素,M为图像vn的像素总数,1≤m≤M,
Figure FDA0002325317730000014
也称为随机变量;
(3)遍历集合
Figure FDA0002325317730000015
统计在图像序列V中位置为m(x,y)的像素的集合表示为:
Figure FDA0002325317730000016
(4)定义集合xm的高斯模型概率密度函数为:
Figure FDA0002325317730000017
其中,K为模型数量,1≤k≤K,η(xmk,mk,m)为第k个高斯分布,表示为:
Figure FDA0002325317730000018
Figure FDA0002325317730000021
μk,m为均值,τk,m为协方差矩阵,δk,m为方差,I为单位阵,ωk,n为xm的高斯分布权重;
遍历整幅图像位置,完成所有像素的K模式高斯分布;
(5)在完成ti时间段内N帧图像的模式为K的高斯分布建模后,对第N+1帧的图像在点m(x,y)位置的像素
Figure FDA0002325317730000022
进行高斯模型后景匹配,计算公式为:
Figure FDA0002325317730000023
其中,μk,m为均值,δk,m为方差;
如满足上述公式,则判断为属于后景,否则不属于;
(6)根据步骤(5)中的公式判断
Figure FDA0002325317730000024
是否属于后景,并进行高斯模型参数更新:
Figure FDA0002325317730000025
Figure FDA0002325317730000026
if属于后景;
Figure FDA0002325317730000027
if属于后景;
Figure FDA0002325317730000028
if属于后景;
其中,α为学习速率,ωk,N+1和ωk,N为更新前后的权重参数,ρ为更新μk,m和δk,m的参数计算,
Figure FDA0002325317730000029
为第k个高斯分布;
(7)在随机变量
Figure FDA00023253177300000210
不匹配所有模式K的情况下,则将
Figure FDA00023253177300000211
作为μk,m,重建新的高斯分布代替K个模式的模型中概率最小,权重最低的分布;
(8)根据模式总数为K的高斯模型统计ti时间段内的视频前景框,并进行非极大值抑制,令T={t1,t2,...,ti...,tI}时,遍历T集合,按照步骤(1)~(7)统计所有时间段ti内的视频前景框,1≤i≤I,I为集合T中包含的时间段的数量,I≥100;合并具有连通性质的前景框,最终得到相互独立的D个前景区域,又称为显著区域,表示成向量R={R1,R2,...,Rd,...,RD},d=1,2,...,D;
(9)当出现摄像机的人为移动,或定义间隔时间Γ时,按照上述方式重新自学习更新显著区域R。
3.根据权利要求2所述的一种自学习的人体行为识别与异常检测方法,其特征在于,所述步骤二的具体方法如下:
(1)执行动作当前网络Acurrent,根据当前的人体行为状态Sst定义其特征向量为φ(Sst)={sst,1,sst,2,...sst,p,...,sst,P},1≤p≤P,P为特征向量的维度,得到候选动作值集合A={A1,A2,...,Ac,...,AC},1≤c≤C,C为候选的动作值集合中动作值的数量;
设预测当前最优动作值为Ast,且Ast∈A,设在最优动作值为Ast的下一个人体行为状态S′st,反馈奖励值Rst,其中,奖励值Rst根据异常级别等级Le={le1,le2,...,leb,...leB},1≤b≤B,定义为:
Figure FDA0002325317730000031
其中,Ast=πθ(φ(Sst))+ξ,β为0.5~1之间的奖励系数,通过动作策略函数与随机噪声ξ来选择最优动作值Ast,表达为:
Figure FDA0002325317730000032
Q(φ(Sst))为当前动作网络价值,ε为0.001;在进行网络参数更新收敛过程中,增加样本的随机性,在得到的人体行为动作值Ast后随机增加噪声信息ξ,πθ(φ(Sst))为动作的选择策略函数,简称策略函数,并通过动作目标函数J(θ)对θ求解梯度,进行Acurrent网络参数更新;
J(θ)对θ求导公式表达为:
Figure FDA0002325317730000033
(2)将{φ(Sst),Ast,Rst,φ(S′st),is_end}存入经验回放池集合D中,其中,is_end表示一个动作序列是否为终止,如果is_end=1,说明动作终止,否则is_end=0。
4.根据权利要求3所述的一种自学习的人体行为识别与异常检测方法,其特征在于,所述步骤三的具体方法如下:
(1)执行当前目标网络Ccurrent,根据步骤二中更新的经验回放池集合D,采样q个样本,{φ(Sj),Aj,Rj,φ(S'j),is_endj},j=1,2,...,q,计算当前的人体行为动作价值yj
Figure FDA0002325317730000041
其中,Q′(φ(S′j),πθ′(φ(S′j)),ω′)为目标价值网络Ctarget的人体行为动作价值,γ为衰减系数,并通过价值目标函数J(ω)对ω求解梯度,进行当前目标网络Ccurrent的网络参数ω的更新,其中,价值目标函数为:
Figure FDA0002325317730000042
Figure FDA0002325317730000043
(2)更新目标动作网络Atarget和目标价值网络Ctarget,为保证每一帧视频图像不仅具有预测下一帧视频图像动作功能,并且具有历史邻近数据的记忆功能,采用的参数更新策略为:
θ'←τω+(1-τ)θ',
ω'←τω+(1-τ)ω',其中,τ为0.1或0.01。
5.根据权利要求4所述的一种自学习的人体行为识别与异常检测方法,其特征在于,所述步骤四的具体方法如下:
网络参数收敛或满足最大迭代次数后,统计T时间内当前动作网络Acurrent的反馈奖励值Rt和目标价值网络的人体行为动作价值Qt′的加权和,根据如下公式判断行为异常级别:
Figure FDA0002325317730000044
其中,α为0.5。
CN201911314011.6A 2019-12-19 2019-12-19 一种自学习的人体行为识别与异常检测方法 Active CN111160170B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911314011.6A CN111160170B (zh) 2019-12-19 2019-12-19 一种自学习的人体行为识别与异常检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911314011.6A CN111160170B (zh) 2019-12-19 2019-12-19 一种自学习的人体行为识别与异常检测方法

Publications (2)

Publication Number Publication Date
CN111160170A true CN111160170A (zh) 2020-05-15
CN111160170B CN111160170B (zh) 2023-04-21

Family

ID=70557310

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911314011.6A Active CN111160170B (zh) 2019-12-19 2019-12-19 一种自学习的人体行为识别与异常检测方法

Country Status (1)

Country Link
CN (1) CN111160170B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112289044A (zh) * 2020-11-02 2021-01-29 南京信息工程大学 基于深度强化学习的高速公路道路协同控制系统及方法
CN112578726A (zh) * 2021-01-06 2021-03-30 常州百芝龙智慧科技有限公司 一种自主学习人体行为习惯的人体异常监控设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170024609A1 (en) * 2015-07-24 2017-01-26 International Business Machines Corporation Calculation of a characteristic of a hotspot in an event
CN107832716A (zh) * 2017-11-15 2018-03-23 中国科学技术大学 基于主动被动高斯在线学习的异常检测方法
CN108108688A (zh) * 2017-12-18 2018-06-01 青岛联合创智科技有限公司 一种基于低维时空特征提取与主题建模的肢体冲突行为检测方法
CN110135319A (zh) * 2019-05-09 2019-08-16 广州大学 一种异常行为检测方法及其系统
CN110188637A (zh) * 2019-05-17 2019-08-30 西安电子科技大学 一种基于深度学习的行为识别技术方法
EP3579154A1 (en) * 2018-06-05 2019-12-11 Nokia Technologies Oy Reinforcement learning for user behaviour

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170024609A1 (en) * 2015-07-24 2017-01-26 International Business Machines Corporation Calculation of a characteristic of a hotspot in an event
CN107832716A (zh) * 2017-11-15 2018-03-23 中国科学技术大学 基于主动被动高斯在线学习的异常检测方法
CN108108688A (zh) * 2017-12-18 2018-06-01 青岛联合创智科技有限公司 一种基于低维时空特征提取与主题建模的肢体冲突行为检测方法
EP3579154A1 (en) * 2018-06-05 2019-12-11 Nokia Technologies Oy Reinforcement learning for user behaviour
CN110135319A (zh) * 2019-05-09 2019-08-16 广州大学 一种异常行为检测方法及其系统
CN110188637A (zh) * 2019-05-17 2019-08-30 西安电子科技大学 一种基于深度学习的行为识别技术方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
尹宏鹏 陈波 柴毅 刘兆栋: "基于视觉的目标检测与跟踪综述", 《自动化学报》 *
王建东: "基于视频图像的人体异常行为识别技术研究", 《中国优秀硕士学位论文全文数据库》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112289044A (zh) * 2020-11-02 2021-01-29 南京信息工程大学 基于深度强化学习的高速公路道路协同控制系统及方法
CN112289044B (zh) * 2020-11-02 2021-09-07 南京信息工程大学 基于深度强化学习的高速公路道路协同控制系统及方法
CN112578726A (zh) * 2021-01-06 2021-03-30 常州百芝龙智慧科技有限公司 一种自主学习人体行为习惯的人体异常监控设备

Also Published As

Publication number Publication date
CN111160170B (zh) 2023-04-21

Similar Documents

Publication Publication Date Title
Yang et al. Self-supervised video object segmentation by motion grouping
Li et al. Contour knowledge transfer for salient object detection
Yuan et al. Robust visual tracking with correlation filters and metric learning
Villegas et al. Learning to generate long-term future via hierarchical prediction
US11100373B1 (en) Autonomous and continuously self-improving learning system
Molchanov et al. Online detection and classification of dynamic hand gestures with recurrent 3d convolutional neural network
Kae et al. Augmenting CRFs with Boltzmann machine shape priors for image labeling
CN107403426B (zh) 一种目标物体检测方法及设备
Yang et al. SiamAtt: Siamese attention network for visual tracking
Chen et al. Learning linear regression via single-convolutional layer for visual object tracking
US20210326638A1 (en) Video panoptic segmentation
CN113657560B (zh) 基于节点分类的弱监督图像语义分割方法及系统
Gupta et al. Online detection and classification of dynamic hand gestures with recurrent 3d convolutional neural networks
CN109919032A (zh) 一种基于动作预测的视频异常行为检测方法
Pavel et al. Object class segmentation of RGB-D video using recurrent convolutional neural networks
Yao et al. Unsupervised transfer learning for spatiotemporal predictive networks
Kim et al. Temporally smooth online action detection using cycle-consistent future anticipation
Huang et al. Non-local weighted regularization for optical flow estimation
CN116740384B (zh) 洗地机的智能控制方法及系统
Liu et al. Robust salient object detection for RGB images
CN111052128A (zh) 用于检测和定位视频中的对象的描述符学习方法
CN111160170B (zh) 一种自学习的人体行为识别与异常检测方法
Yan et al. A lightweight weakly supervised learning segmentation algorithm for imbalanced image based on rotation density peaks
CN107491735B (zh) 人类行为识别的标签和交互关系联合学习方法
Yang et al. Robust real-time visual object tracking via multi-scale fully convolutional Siamese networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant