CN102043967B - 一种有效的运动目标行为建模与识别方法 - Google Patents

一种有效的运动目标行为建模与识别方法 Download PDF

Info

Publication number
CN102043967B
CN102043967B CN 201010592894 CN201010592894A CN102043967B CN 102043967 B CN102043967 B CN 102043967B CN 201010592894 CN201010592894 CN 201010592894 CN 201010592894 A CN201010592894 A CN 201010592894A CN 102043967 B CN102043967 B CN 102043967B
Authority
CN
China
Prior art keywords
feature
moving target
behavior
target behavior
cube
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN 201010592894
Other languages
English (en)
Other versions
CN102043967A (zh
Inventor
胡卫明
朱鹏飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hiscene Information Technology Co Ltd
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN 201010592894 priority Critical patent/CN102043967B/zh
Publication of CN102043967A publication Critical patent/CN102043967A/zh
Application granted granted Critical
Publication of CN102043967B publication Critical patent/CN102043967B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明是一种有效的运动目标行为建模与识别方法,包括步骤1:用特征提取模块提取运动目标行为的局部特征,再提取运动目标行为的运动特征;步骤2:采用子空间学习的方法,用特征融合模块对提取的局部特征和运动特征进行融合,并对特征空间进行降维;步骤3:采用原型学习算法和测度学习算法相结合,用行为识别模块对运动目标行为进行识别,对识别的运动目标行为做出评判。本发明对局部特征和运动特征进行特征融合处理,降低了特征空间的维度,提高了特征表达的鲁棒性,具有低存储和低计算复杂度的特点,同时具有较好的分类识别性能。本发明可以用来对公共安全领域的异常行为进行智能监控,一旦发现异常行为发生,立刻报警。

Description

一种有效的运动目标行为建模与识别方法
技术领域
本发明涉及计算机应用技术领域,特别涉及运动目标行为建模与识别方法。
背景技术
国内近几年在城市的重要位置安装了监控摄像头,在多起犯罪案件中,视频监控录像都提供了很重要的破案线索。但是目前公共场所装有的摄像头大都只能记录当时的场景,作为事后调查的依据,而不能做到实时自动报警。运动目标行为建模与识别正可以满足智能监控中自动实时报警的迫切需求。
近几年由于公共安全的需要,智能监控方面的需求迅速增加。1997年美国国防高级研究项目署设立了以卡内基梅隆大学为首、麻省理工学院等高校参与的视觉监控重大项目VSAM(visualsurveillance and monitoring),主要研究用于战场及普通民用场景监控的自动视频理解技术。马里兰大学的W4系统不仅能够定位和分割出人的身体部分,而且通过建立外观模型能实现对多人的跟踪,同时可以检测人是否携带物体等简单行为。最近,欧洲的VISONTRAIN计划将人的行为分析与理解作为一个很重要的方面进行研究。英国伦敦大学(University of London)的Queen Mary视觉实验室的项目INSIGHT(Video Analysis and Selective Zooming using SemanticModels of Human Presence and Activity),旨在对公共场合下,人的异常行为以及侵略性行为的检测与识别问题进行研究。美国中佛罗里达大学(University of central Florida)、澳大利亚Curtin科技大学(Curtin University of Technology)等对室内环境下人的行为进行了分析和识别。新加坡信息通信研究所(Institute for InfocommResearch)、英国伦敦大学等对人的户外行为进行了分析与识别。
发明内容
为了解决现有技术方案只能记录当时的场景,而不能做到实时自动报警的技术问题,本发明的目的是提供一种有效的运动目标行为建模与识别方法,亦可用来对公共场所异常行为进行监控。
为实现本发明的目的,本发明提出有效的运动目标行为建模与识别方法的技术方案包括步骤如下:
步骤S1:由计算机中的特征提取模块提取运动目标行为的局部特征,再提取运动目标行为的运动特征;
步骤S2:采用子空间学习的方法,由计算机中的特征融合模块对提取的局部特征和运动特征进行融合,并对特征空间进行降维;
步骤S3:采用原型学习算法和测度学习算法相结合,由计算机中的行为识别模块对运动目标行为进行识别,对识别的运动目标行为做出评判。
其中,所述特征提取模块提取运动目标行为的运动特征的步骤包括:
步骤S11:对运动序列图像检测,获得时空兴趣点,将时空兴趣点形成立方体特征,并用协方差描述子对立方体特征进行描述,统计成直方图作为运动目标行为的局部特征;
步骤S12:利用前后帧的差分图像,对运动序列图像形成运动历史图像;对历史图像进行分块,分别统计灰度直方图,形成运动目标行为的运动特征。
其中,所述特征融合模块对局部特征和运动特征进行融合是把局部特征和运动特征表示成一个新的特征矩阵,对这一新矩阵进行子空间学习,形成融合后的特征表达。
其中,所述对运动目标行为进行识别是利用测度学习形成距离矩阵,用原型学习算法结合学习出的距离测度对运动目标行为进行检测。
本发明的有益效果:本发明采用多特征融合的思想,充分利用运动图像序列中局部信息和运动信息,并采用机器学习方法来进行运动目标行为的识别,增加了运动目标行为的识别速度和可靠性。本发明可以用来对公共区域的异常行为进行识别。本发明形成的监控系统可以提高公共区域的安全性。
附图说明
图1为本发明系统结构框图。
具体实施方式
下面将结合附图对本发明加以详细说明,应指出的是,所描述的实施例仅旨在便于对本发明的理解,而对其不起任何限定作用。
本发明的执行环境是由计算机实现以下三个模块组构成:一、特征提取模块,该模块的功能是提取运动目标的局部特征和运动特征。二、特征融合模块,该模块的功能是将局部特征和运动特征相融合,同时起到降低维度空间的作用。三、行为识别模块,该模块的功能是对待识别行为进行分类决策。本发明的整体框架见图1。
下面详细给出本发明技术方案中所涉及的各个步骤细节问题的说明。
步骤一:运动目标行为的特征提取,此步骤首先由计算机中的特征提取模块提取运动目标行为的局部特征,然后再提取运动目标行为的运动特征。将视频序列f中的每一帧用二维坐标到像素点亮度的映射
Figure BSA00000389063500031
其中,R表示空间,fsp表示空间映射。使用空域中的高斯核函数gsp将视频序列f中的每一帧变换到空间,得到其中Lsp表示高斯映射,R,R+均表示空间。具体的,有Lsp(x,y,σ2)*fsp(x,y),其中:
g sp ( x , y ; σ 2 ) = 1 2 πσ 2 exp ( - ( x 2 + y 2 ) / 2 σ 2 ) - - - ( 1 )
其中gsp表示高斯核函数,σ表示方差,x,y分别表示点的横坐标和纵坐标。接下来,对经过高斯平滑的视频序列
Figure BSA00000389063500034
沿着f的时间轴方向,对每一列元素进行选定窗口的一维Gabor滤波,其具体运算过程如下式:
I = ( f * ( - cos ( 2 πtω ) e - t 2 / τ 2 ) ) 2 + ( f * ( - sin ( 2 πtω ) e - t 2 / τ 2 ) ) 2 - - - ( 2 )
其中τ2表示滤波器在时域上的尺度,ω为Gabor窗口大小的1/8。I即为该像素点的强度,计算视频序列f中每一点的空间值,然后选定观测窗口的大小对I进行极大值滤波,就可以得到时空兴趣点的位置。
当把视频中兴趣点的位置找到以后,在每一个兴趣点位置提取出包含时空窗像素值的立方体。立方体的尺寸按照在兴趣点附近有助于脉冲函数取得最大体积得到。得到立方体特征后,要对立方体内的点进行描述。
下面将从立方体中提取底层特征。假设s是立方体中的一个像素值,立方体内所有的点形成一个点集S={si},这里i=1,2,…,N,N表示点的个数。立方体内对于每个点si表示成一个8维向量li={x,y,t,fx,fy,ft,vx,vy},其中x,y,t表示的是位置和时间信息,fx,fy,ft表示梯度信息,而vx,vy表达的是光流分量。这样,立方体就可以表示成L={l1,l2,…,lN}这样一个8×N的矩阵,lN表示一个8维的列向量。
下面对这一矩阵提取协方差矩阵来描述原始矩阵C,如下式所示:
C = 1 N - 1 Σ i = 1 N ( I i - u ) ( I i - u ) T - - - ( 3 )
这里u表示L中向量的均值,T表示矩阵的转置,Ii表示矩阵C的列向量。
这样一段视频就可以由多个立方体的协方差矩阵表示了。接下来要对所有的立方体聚类形成若个类,每个类表示一个词(Word),这样所有的视频特征就用“词袋”模型(Bag of Words)来表达。统计每个视频中词出现的频率,形成一个直方图,这也就是行为的局部特征。
对于运动特征,先计算两个相邻帧的像素值的差分,得到差分图像D(a,b,t),对其累加后形成运动历史图像Hλ(a,b,t)表示如下:
Figure BSA00000389063500042
这里t表示运动处于的时刻,λ表示行为持续的时间,(a,b)表示图像中点的位置坐标。
把得到的运动历史图像分成4×4的子块,分别计算每一个子块的灰度直方图,把每个子块的直方图连接起来,就得到了行为的运动特征。
步骤二:由计算机中的特征融合模块对运动目标行为的局部特征和运动目标行为的运动特征进行融合,此步骤采用子空间学习的方法对上一步提取的两种特征进行融合,并对特征空间进行降维。
给定数据集
Figure BSA00000389063500051
每个数据有类标号li∈L,其中L={l1,l2,…,lc}一共表示有c类,lc表示第c类的数据样本。用上一步特征提取方法得到n个特征集合
Figure BSA00000389063500052
i=1,2,…,n。另一方面,可以当作这种特征集合,
Figure BSA00000389063500053
k=1,2。其中当k=1时表示局部特征集,k=2时表示运动特征集。这样,特征空间可以用一个特征矩阵来表示,这个矩阵不管按行还是按列可以看作两个特征集合分别表示为
Figure BSA00000389063500054
Figure BSA00000389063500055
这里用典型相关关系来衡量两个特征集合的相似度。假定F1和F2表示由两个特征集合分别形成的两个特征矩阵,矩阵是由特征集中的特征向量按列形成的。定义两个正交基矩阵
Figure BSA00000389063500056
Figure BSA00000389063500057
Figure BSA00000389063500058
表示空间,D0×d1,D0×d2表示空间的维度,所以有
Figure BSA000003890635000510
这里Λ1和Λ2分别表示相应特征值形成的对角阵。这两个子空间选择相同维度d0
Figure BSA000003890635000511
Figure BSA000003890635000512
并且有
Figure BSA000003890635000513
其中d0×d0表示空间的维度,Q12,Q21表示旋转矩阵。两个特征集合的相似度如下式:
S ( F 1 , F 2 ) = max Tr ( Q 12 T P 1 T P 2 Q 21 ) - - - ( 5 )
基中Tr表示迹算子。
通过求解下面优化问题来找到特征空间的子空间P:
P = arg max P ( J 1 + J 2 ) = arg max P ( Σ k 1 = 1 2 Σ k 2 = 1 2 S P ( F k 1 ( 2 ) , F k 2 ( 2 ) ) + Σ i 1 = 1 n Σ l i 2 = l i 1 S P ( F i 1 ( 1 ) , F i 2 ( 1 ) , L ) ) - - - ( 6 )
其中
S P ( F k 1 ( 2 ) , F k 2 ( 2 ) ) = max Tr ( Q k 1 k 2 T P k 1 T PP T P k 2 Q k 2 k 1 ) - - - ( 7 )
S P ( F i 1 ( 2 ) , F i 2 ( 2 ) , L ) = max Tr ( Q i 1 i 2 T P i 1 T PP T P i 2 Q i 2 i 1 ) - - - ( 8 )
上面J1,J2,SP均表示集合的相似度矩阵,L表示类标号,而J1和J2可以重新写为
J1=Tr(PTAP),J2=Tr(PTBP)    (9)
这里
A = Σ k 1 = 1 2 Σ k 2 = 1 2 ( P k 1 Q k 1 k 2 - P k 2 Q k 2 k 1 ) ( P k 1 Q k 1 k 2 - P k 2 Q k 2 k 1 ) T ,
B = Σ i 1 = 1 n Σ l i 2 = l i 1 ( P i 1 Q i 1 i 2 - P i 2 Q i 2 i 1 ) ( P i 1 Q i 1 i 2 - P i 2 Q i 2 i 1 ) T ,
其中A,B分别表示J1,J2的子空间。
矩阵P=[p1p2…pd]通过求解下面的特征分解问题解决:
(A+B)p=λp                   (10)
这里{pr},r=1,2,…,d表示对应d个最大的特征值的特征向量,λ表示特征值,pr表示特征向量。
通过上述运算就可以把运动目标行为的局部特征和运动目标行为的运动特征进行融合处理。
步骤三:由计算机中的行为识别模块对运动目标行为进行识别,此步骤采用原型学习算法与测度学习算法相结合的方法,对待识别行为做出评判。
首先要学习下式所示的这种测度:
d ( x , y ) = d A ( x , y ) = | | x - y | | A = ( x - y ) T A ( x - y ) - - - ( 11 )
学习准则采用让同一类中的每对数据之间的平方距离和最小,即
Figure BSA00000389063500064
同时还需要加一个约束:以确保A不会让数据集收缩到一个单一的点。这样,测度学习问题变成了上述的优化问题,上面式子中(xi,yj)∈S,(xi,yj)∈D分别表示两个点属于同类集合S和不同类集合D。
下面把学习得到的距离矩阵A作为原型学习中的距离测度来对原始行为模型进行学习。
学习算法流程如下:
1.从模式池中选择模式un
2.找到离un最近的正类原型向量mki和最近的负类原型向量mrj
3.利用下式所示的梯度下降法来迭代更新原型向量:
m ki = m ki - 2 η ( t ) ∂ φ ( u n ) ∂ g ki ( u n - m ki ) - - - ( 12 )
m rj = m rj - 2 η ( t ) ∂ φ ( u n ) ∂ g rj ( u n - m rj ) - - - ( 13 )
上两式中,η(t)表示第t次迭代的学习率,φ(un)表示损失函数。
4.重复1-3直至收敛。
经过学习后,原始每一类样本都可以用各自的原型来表达,识别过程则是把待识别行为识别成与其最近邻的原型类所表示的这一类行为。
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的包含范围之内,因此,本发明的保护范围应该以权利要求书的保护范围为准。

Claims (3)

1.一种有效的运动目标行为建模与识别方法,其特征在于,包括步骤:
步骤S1:由计算机中的特征提取模块提取运动目标行为的局部特征,再提取运动目标行为的运动特征;
步骤S2:采用子空间学习的方法,由计算机中的特征融合模块对提取的局部特征和运动特征进行融合,并对特征空间进行降维;
步骤S3:采用原型学习算法和测度学习算法相结合,由计算机中的行为识别模块对运动目标行为进行识别,对识别的运动目标行为做出评判;
所述特征提取模块提取运动目标行为的运动特征的步骤包括:
步骤S11:对运动序列图像检测,获得时空兴趣点,将时空兴趣点形成立方体特征,并用协方差描述子对立方体特征进行描述,统计成直方图作为运动目标行为的局部特征;
步骤S12:利用前后帧的差分图像,对运动序列图像形成运动历史图像;对历史图像进行分块,分别统计灰度直方图,形成运动目标行为的运动特征;
所述步骤S11进一步包括以下步骤:
步骤S111,使用空域中的高斯核函数gsp将运动序列图像f中的每一帧变换到空间,得到
Figure FDA00003081936500011
其中,Lsp表示高斯映射,R,R+均表示空间,所述高斯核函数表示为:
g sp ( x , y ; σ 2 ) = 1 2 πσ 2 exp ( - ( x 2 + y 2 ) / 2 σ 2 ) ,
其中,gsp表示高斯核函数,σ表示方差,x,y分别表示点的横坐标和纵坐标;
步骤S112,对经过高斯平滑的运动序列图像,沿着其时间轴方向,对每一列元素进行选定窗口的一维Gabor滤波:
I = ( f * ( - cos ( 2 πtω ) e - t 2 / τ 2 ) ) 2 + ( f * ( - sin ( 2 πtω ) e - t 2 / τ 2 ) ) 2 ,
其中,f为经过高斯平滑的运动序列图像,τ2表示滤波器在时域上的尺度,ω为Gabor窗口大小的1/8;I为某像素点的强度;
步骤S113,计算运动序列图像f中每一点的空间值,然后选定观测窗口的大小对经过一维Gabor滤波的运动序列图像中每个像素点的强度进行极大值滤波,得到时空兴趣点的位置;
步骤S114,在每一个兴趣点位置提取出包含时空窗像素值的立方体,所述立方体的尺寸根据在兴趣点附近有助于脉冲函数取得最大体积这一考虑来确定;
步骤S115,假设s是立方体中的一个像素值,立方体内所有的点形成一个点集S={si},这里,i=1,2,…,N,N表示点的个数;立方体内的每个点si表示成一个8维向量li={x,y,t,fx,fy,ft,vx,vy},其中,x,y,t表示位置和时间信息,fx,fy,ft表示梯度信息,vx,vy表示光流分量,这样立方体就表示成8×N矩阵:L={l1,l2,…,lN},lN表示一个8维的列向量;对矩阵L提取协方差矩阵C来描述原始矩阵,协方差矩阵C表示为:
C = 1 N - 1 Σ i = 1 N ( I i - u ) ( I i - u ) T ,
其中,u表示L中向量的均值,T表示矩阵的转置,Ii表示矩阵C的列向量;
步骤S116,对所有的立方体聚类形成若干个类,每个类表示一个词,统计每个视频中词出现的频率,形成一个直方图,即运动目标行为的局部特征。
2.根据权利要求1所述的方法,其特征在于,所述特征融合模块对局部特征和运动特征进行融合是把局部特征和运动特征表示成一个新的特征矩阵,对这一新矩阵进行子空间学习,形成融合后的特征表达。
3.根据权利要求1所述的方法,其特征在于,所述对运动目标行为进行识别是利用测度学习形成距离矩阵,用原型学习算法结合学习出的距离测度对运动目标行为进行检测。
CN 201010592894 2010-12-08 2010-12-08 一种有效的运动目标行为建模与识别方法 Active CN102043967B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201010592894 CN102043967B (zh) 2010-12-08 2010-12-08 一种有效的运动目标行为建模与识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201010592894 CN102043967B (zh) 2010-12-08 2010-12-08 一种有效的运动目标行为建模与识别方法

Publications (2)

Publication Number Publication Date
CN102043967A CN102043967A (zh) 2011-05-04
CN102043967B true CN102043967B (zh) 2013-09-25

Family

ID=43910092

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201010592894 Active CN102043967B (zh) 2010-12-08 2010-12-08 一种有效的运动目标行为建模与识别方法

Country Status (1)

Country Link
CN (1) CN102043967B (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102163290B (zh) * 2011-05-16 2012-08-01 天津大学 基于时空关联信息的多视角视频监控中异常事件建模方法
CN102289685B (zh) * 2011-08-04 2013-02-06 中山大学 一种基于正则回归的秩-1张量投影的行为识别方法
CN103150579A (zh) * 2013-02-25 2013-06-12 东华大学 一种基于视频序列的人体异常行为检测方法
CN103226713B (zh) * 2013-05-16 2016-04-13 中国科学院自动化研究所 一种多视角行为识别方法
CN103886293B (zh) * 2014-03-21 2017-04-26 浙江大学 一种基于运动历史图与r变换的人体行为识别方法
CN103854016B (zh) * 2014-03-27 2017-03-01 北京大学深圳研究生院 基于方向性共同发生特征的人体行为分类识别方法及系统
CN104598889B (zh) * 2015-01-30 2018-02-09 北京信息科技大学 人体行为识别的方法和装置
CN105426813B (zh) * 2015-10-27 2018-09-25 杭州电子科技大学 一种视频异常行为检测方法
CN105956604B (zh) * 2016-04-20 2019-12-24 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于两层时空邻域特征的动作识别方法
CN106874838B (zh) * 2016-12-30 2020-04-07 中国科学院自动化研究所 融合互补特征的视觉人体行为识别方法
CN107194359B (zh) * 2017-05-26 2021-01-22 深圳大学 一种视频图像序列的尺度空间构造方法及装置
CN107330924A (zh) * 2017-07-07 2017-11-07 郑州仁峰软件开发有限公司 一种基于单目摄像头识别运动物体的方法
CN108629316A (zh) * 2018-05-08 2018-10-09 东北师范大学人文学院 一种多视角的视频异常事件检测方法
CN109978013B (zh) * 2019-03-06 2021-01-19 华南理工大学 一种用于人物动作识别的深度聚类方法
CN110135369A (zh) * 2019-05-20 2019-08-16 威创集团股份有限公司 一种行为识别方法、系统、设备及计算机可读存储介质
CN110348399B (zh) * 2019-07-15 2020-09-29 中国人民解放军国防科技大学 基于原型学习机制和多维残差网络的高光谱智能分类方法
CN110598599A (zh) * 2019-08-30 2019-12-20 北京工商大学 基于Gabor原子分解的人体异常步态检测方法和装置
CN110705412A (zh) * 2019-09-24 2020-01-17 北京工商大学 一种基于运动历史图像的视频目标检测方法
CN111520615B (zh) * 2020-04-28 2021-03-16 清华大学 基于线谱对和三次插值搜索的管网漏损识别与定位方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Yun Fu,LiangLiang Cao等.Multiple Feature Fusion by Subspace Learning.《CIVR’08》.2008,127-134. *
朱鹏飞等.Prototype Learning using Metric Learning based Behavior Recognition.《2010 International Conference on Pattern Recognition》.2010,2064-2067. *

Also Published As

Publication number Publication date
CN102043967A (zh) 2011-05-04

Similar Documents

Publication Publication Date Title
CN102043967B (zh) 一种有效的运动目标行为建模与识别方法
CN102799873B (zh) 一种人体异常行为识别方法
CN101894276B (zh) 人体动作识别的训练方法和识别方法
CN102163290B (zh) 基于时空关联信息的多视角视频监控中异常事件建模方法
CN101464952A (zh) 基于轮廓的异常行为识别方法
CN100589117C (zh) 一种基于步态的性别识别方法
Avgerinakis et al. Recognition of activities of daily living for smart home environments
CN102136066B (zh) 一种视频序列中人体动作的识别方法
CN102214359B (zh) 基于层级式特征匹配的目标跟踪装置
Ullah et al. Dominant motion analysis in regular and irregular crowd scenes
CN104063719A (zh) 基于深度卷积网络的行人检测方法及装置
CN103258193A (zh) 一种基于kod能量特征的群体异常行为识别方法
CN103150579A (zh) 一种基于视频序列的人体异常行为检测方法
CN105787472A (zh) 一种基于时空拉普拉斯特征映射学习的异常行为检测方法
Wang et al. Human action recognition based on pyramid histogram of oriented gradients
CN102289685B (zh) 一种基于正则回归的秩-1张量投影的行为识别方法
CN106096528B (zh) 一种基于二维耦合边距Fisher分析的跨视角步态识别方法
Liu et al. Human action recognition based on 3D SIFT and LDA model
Zhang et al. Anomaly detection and localization in crowded scenes by motion-field shape description and similarity-based statistical learning
ALDHAMARI et al. Abnormal behavior detection using sparse representations through sequentialgeneralization of k-means
Han et al. Unsupervised discovery of crowd activities by saliency-based clustering
Ni et al. Integrating multi-stage depth-induced contextual information for human action recognition and localization
Leyva et al. Video anomaly detection based on wake motion descriptors and perspective grids
Ionescu et al. Detecting abnormal events in video using narrowed motion clusters
Umakanthan et al. Multiple instance dictionary learning for activity representation

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20170915

Address after: 200120 China (Shanghai) free trade test zone, No. 570, midsummer Road, room 1109

Patentee after: HISCENE INFORMATION TECHNOLOGY Co.,Ltd.

Address before: 100190 Zhongguancun East Road, Beijing, No. 95, No.

Patentee before: Institute of Automation, Chinese Academy of Sciences

PE01 Entry into force of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: An effective method for modeling and recognizing the behavior of moving objects

Effective date of registration: 20221008

Granted publication date: 20130925

Pledgee: Industrial Bank Co.,Ltd. Shanghai Xuhui sub branch

Pledgor: HISCENE INFORMATION TECHNOLOGY Co.,Ltd.

Registration number: Y2022310000277

CP02 Change in the address of a patent holder
CP02 Change in the address of a patent holder

Address after: 201210 7th Floor, No. 1, Lane 5005, Shenjiang Road, China (Shanghai) Pilot Free Trade Zone, Pudong New Area, Shanghai

Patentee after: HISCENE INFORMATION TECHNOLOGY Co.,Ltd.

Address before: Room 1109, 570 Shengxia Road, China (Shanghai) Pilot Free Trade Zone, 200120

Patentee before: HISCENE INFORMATION TECHNOLOGY Co.,Ltd.

PC01 Cancellation of the registration of the contract for pledge of patent right
PC01 Cancellation of the registration of the contract for pledge of patent right

Date of cancellation: 20230906

Granted publication date: 20130925

Pledgee: Industrial Bank Co.,Ltd. Shanghai Xuhui sub branch

Pledgor: HISCENE INFORMATION TECHNOLOGY Co.,Ltd.

Registration number: Y2022310000277

EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20110504

Assignee: SHANGHAI LILITH TECHNOLOGY Corp.

Assignor: HISCENE INFORMATION TECHNOLOGY Co.,Ltd.

Contract record no.: X2024980002950

Denomination of invention: An Effective Method for Modeling and Identifying Moving Target Behavior

Granted publication date: 20130925

License type: Common License

Record date: 20240319