CN104268851A - 一种基于深度信息的atm自助营业厅行为分析方法 - Google Patents

一种基于深度信息的atm自助营业厅行为分析方法 Download PDF

Info

Publication number
CN104268851A
CN104268851A CN201410452648.2A CN201410452648A CN104268851A CN 104268851 A CN104268851 A CN 104268851A CN 201410452648 A CN201410452648 A CN 201410452648A CN 104268851 A CN104268851 A CN 104268851A
Authority
CN
China
Prior art keywords
pixel
gauss
sigma
depth map
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201410452648.2A
Other languages
English (en)
Inventor
尚凌辉
高勇
王弘玥
刘家佳
余天明
施展
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZHEJIANG ICARE VISION TECHNOLOGY Co Ltd
Original Assignee
ZHEJIANG ICARE VISION TECHNOLOGY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZHEJIANG ICARE VISION TECHNOLOGY Co Ltd filed Critical ZHEJIANG ICARE VISION TECHNOLOGY Co Ltd
Priority to CN201410452648.2A priority Critical patent/CN104268851A/zh
Publication of CN104268851A publication Critical patent/CN104268851A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/507Depth or shape recovery from shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于深度信息的ATM自助营业厅行为分析方法。现有技术是基于普通二维摄像头的行为分析,存在目标无法准确定位的情况。本发明首先采用双目相机作为深度信息的获取设备,对深度图进行背景建模,学习更新每个像素的混合高斯模型,确定背景分布。其次对每帧新深度图中的每个像素,求其概率值,对前景深度图,利用DENCLUE算法进行聚类分割。最后对每个相机中的每个人体区域中的像素,进行到地面上的投影,利用多相机偏移标定,进行投影后目标的关联,从而在全局坐标系上实现多相机下的目标检测。本发明使用了深度信息,并结合RGB信息的背景建模,使得目标检测的稳定性大为提高,为后续行为分析提供了良好的基础。

Description

一种基于深度信息的ATM自助营业厅行为分析方法
技术领域
本发明属于视频智能监控技术领域,涉及一种基于深度信息的ATM自助营业厅行为分析方法。
背景技术
目前,基于视频智能分析的技术已经逐步应用到金融安防领域,特别是对于ATM自助营业厅,由于全国各地抢劫案件频发,基于视频行为分析的实时预警和主动报警已经成为很多地区科技强警,科技安防的重要手段。
基于视频的行为分析算法,主要提供了“取款尾随”,“打斗”,“打砸ATM机”,“倒地”,“徘徊”,“驻留”等检测功能,但在现阶段,这些功能都是基于银行原有安装的普通摄像头来实现的。而基于普通二维摄像头的行为分析算法,在整个学术界虽是研究热点,但成熟度不高,其主要原因就是二维相机下的目标检测本身就不成熟,而在目标无法准确定位的情况下,行为分析就缺乏一个稳定的基础。
所以现在很多应用了行为分析产品的银行,均有反映算法检测率低,或者误检率高的问题,有时甚至会影响到银行原有的安保监控业务。
发明内容
本发明是以多个吸顶安装,垂直朝地面拍摄的双目相机为采集硬件,在深度信息和彩色信息的基础上,采用了背景建模,目标分割,运动分析等方法,实现了对人体行为分析的各个功能。
另外,由于吸顶安装相机的可视范围,严格受到安装高度的影响,为了保证营业厅中所有ATM机的全覆盖,本发明还采用了目标投影,多相机目标关联等方法,来对多个双目相机进行拼接,从而保证了整个营业厅ATM机区域的完全覆盖。
本发明解决技术问题所采取的技术方案为:
步骤1:采用双目相机作为深度信息的获取设备,输出为帧率25FPS的CIF分辨率的深度图,深度图中,每个像素的取值范围为0-255,值越大表示该像素所代表的目标距离镜头越近。
步骤2:对深度图进行背景建模,并随着场景的变化,学习更新每个像素的混合高斯模型,确定背景分布,具体是:
首先对深度图进行背景建模,用由K个高斯成分组成的混合高斯模型表示像素在时间域上的概率分布模型,即深度图中像素j在t时刻取值为xj的概率为:
P ( x j ) = Σ i = 1 K ω j , t i · η ( x j ; μ j , t i , Σ j , t i )
其中表示在t时刻像素j的混合高斯模型中的第i个高斯成分的权重,表示第i个高斯成分的均值,表示第i个高斯成分的协方差,η表示高斯概率密度函数:
η ( x j ; μ j , t i , Σ j , t i ) = 1 ( 2 π ) d / 2 | Σ j , t i | 1 / 2 exp [ - 1 2 ( x j - μ j , t i ) T ( Σ j , t i ) - 1 ( x j - μ j , t i ) ]
其中d为xj的维数;
然后随着场景的变化,学习更新每个像素的混合高斯模型;
最后像素j的混合高斯模型描述了其特征值xj在时间域上的概率分布,为了确定像素的混合高斯模型里哪些高斯成分是由背景产生的,根据每个高斯成分的权重与其标准差之比排序后,取前Bj个高斯成分作为背景的分布,Bj根据下式计算:
B j = arg min b ( Σ i = 1 b ω j , t + 1 i > M )
阈值M度量了背景高斯成分在像素的整个概率分布中所占得最小比例。
步骤3:利用深度图背景模型,进行前景目标检测,即对每帧新深度图中的每个像素,求其在每个背景混合高斯模型中的概率值:
P ( x j ) = Σ i = 1 K ω j , t i · η ( x j ; μ j , t i , Σ j , t i )
若概率最大值小于阈值,则认为当前像素为前景点,说明可能有人体。
步骤4:对前景深度图,利用DENCLUE算法进行聚类分割,将原本联通的深度图分割成若干个区域,每个区域代表一个目标。
步骤5:对每个相机中的每个人体区域中的像素,利用其深度信息进行到地面上的投影,然后利用多相机偏移标定,进行投影后目标的关联,从而在全局坐标系上实现多相机下的目标检测。
步骤6:对于每个相机每帧深度图,重复步骤2-5的处理,每帧都会得到一组全局坐标系下的目标检测结果,再利用光流预测和面积匹配的方法进行帧间关联,从而得到每个目标在全局坐标系的跟踪轨迹。
步骤7:结合ATM区域规则和跟踪轨迹,实现“取款尾随”、“徘徊”或“驻留”的行为分析。
步骤8:对每个目标进行光流场的计算,评价其光流场的混乱程度和速度,实现“打斗”和“打砸ATM”的行为分析。
步骤9:对每个目标的历史高度进行统计,形成以时间为x轴,以高度为y轴的波形,在对其进行滤波后,检测波形中是否存在一个下降沿,实现对“倒地”的行为分析。
本发明有益效果:
1、使用了深度信息,并结合RGB信息的背景建模,使得目标检测的稳定性大为提高,为后续行为分析提供了良好的基础。
2、采用吸顶安装,垂直朝地面拍摄的相机安装方式,有效解决了目标遮挡问题。同时利用深度信息,对目标进行地面投影,从而实现多相机下的目标关联,解决了由于吸顶安装引起的可视范围小的问题。
3、利用深度信息,可以对目标的高度,肢体动作进行更准确的分析,从而更好的实现“倒地”,“打斗”,“打砸ATM机”等功能。
附图说明
图1为本发明方法流程图;
图2为双目相机架设示意图;
图3为双目相机与ATM机作用范围示意图;
图4为投影后目标的关联示意图。
具体实施方式
以下结合实施例对本发明作进一步说明:
如图1所示,1、本发明采用了双目相机作为深度信息的获取设备,输出为帧率25FPS的CIF分辨率的深度图,深度图中,每个像素的取值范围为0-255,值越大表示该像素所代表的目标距离镜头越近。
如图2所示,设定双目相机架设高度:3米左右,架设角度:垂直90度,架设位置:靠近ATM机的天花板。当架设高度为2.8m时,假设人体最高为1.8m,单台双目相机覆盖范围为2m*2m左右;而根据测算,一台ATM机的宽度大约在0.8-1m左右,因此一台双目相机基本可以覆盖2台ATM机前的范围,以一个拥有4台ATM机,面积为3m*5m的中型营业厅为例,架设两台双目相机基本就能满足需求,参见图3。
2、对深度图进行背景建模,用由K个高斯成分组成的混合高斯模型表示像素在时间域上的概率分布模型,即深度图中像素j在t时刻取值为xj的概率为:
P ( x j ) = Σ i = 1 K ω j , t i · η ( x j ; μ j , t i , Σ j , t i )
其中表示在t时刻像素j的混合高斯模型中的第i个高斯成分的权重,表示第i个高斯成分的均值,表示第i个高斯成分的协方差,η表示高斯概率密度函数:
η ( x j ; μ j , t i , Σ j , t i ) = 1 ( 2 π ) d / 2 | Σ j , t i | 1 / 2 exp [ - 1 2 ( x j - μ j , t i ) T ( Σ j , t i ) - 1 ( x j - μ j , t i ) ]
其中d为xi的维数。
随着场景的变化,每个像素的混合高斯模型都需要不断地学习更新,方法是将混合高斯模型中的K个高斯成分按照由大到小排序,然后用像素的当前值xj与其混合高斯模型中的K个高斯成分逐一比较,若xj与第i个高斯成分的均值之间的差小于δ倍的该高斯成分的标准差则该高斯成分被xj更新,其余高斯成分保持不变,更新方程如下:
ω j , t + 1 i = ( 1 - α ) ω j , t i - α · ( M j , t i )
μ j , t + 1 i = ( 1 - ρ ) μ j , t i - ρ · x j
( σ j , t + 1 i ) 2 = ( 1 - ρ ) ( σ j , t i ) 2 - ρ ( x j - μ j , t i ) T ( x j - μ j , t i )
ρ = α ω j , t i
其中α是模型的学习率,当第i个高斯成分与xj匹配时,为1,否则为0;如果xj与像素j的混合高斯模型中的K个高斯成分都不匹配,则该像素混合高斯模型中排在最后的高斯成分被新的高斯成分取代,新的高斯成分均值为xj,初始标准差及权重设为σinit和ωinit;在更新完成后,各高斯成分的权重被归一化,以使 Σ i = 1 K ω j , t + 1 i = 1 .
像素j的混合高斯模型描述了其特征值xj在时间域上的概率分布,为了确定像素的混合高斯模型里哪些高斯成分是由背景产生的,根据每个高斯成分的权重与其标准差之比排序后,取前Bj个高斯成分作为背景的分布,Bj根据下式计算:
B j = arg min b ( Σ i = 1 b ω j , t + 1 i > M )
阈值M度量了背景高斯成分在像素的整个概率分布中所占得最小比例,当M取值较小时,背景用单模分布表示,当M取值较大时,可以表示多模分布的背景,b表示背景模型个数。
3、利用深度图背景模型,进行前景目标检测,即对每帧新深度图中的每个像素,求其在每个背景混合高斯模型中的概率值:
P ( x j ) = Σ i = 1 K ω j , t i · η ( x j ; μ j , t i , Σ j , t i )
若概率最大值小于阈值,则认为当前像素为前景点,说明可能有人体。
4、对前景深度图,利用DENCLUE算法进行聚类分割
已知空间Ω∈Rd中包含n个对象的数据集D={x1,x2,…,xn},DENCLUE算法的基本思想可以形式化描述为:
全局密度函数的核估计:空间任一点x的概率密度可估计为其中,K(x)为核函数。在这里,我们采用的是高斯核函数。
密度吸引子和密度吸引:已知全局密度函数的局部极大值点x*,对任意的x∈Ω,如果存在点集{x0,x1,…,xk},使得x0=x,xk=x*且xi位于xi-1的梯度方向上,则称x被x*密度吸引,而称x*为x的密度吸引。如果核函数K(x)在空间中的每一点都连续、可微,密度吸引子可以采用梯度方向指引的爬山法来搜索。
基于中心的聚类:已知密度吸引子x*,如果存在自己使得x都被x*密度吸引且fD(x*)≥ξ(ξ为预设的密度门限值),则称C为以x*为中心的聚类。
显然,算法中存在两个重要参数:窗宽σ和密度门限值ξ。σ的选取直接会影响全局密度的估计结果,从而影响聚类数目;ξ用于过滤噪声产生的影响。
一般情况下,σ的取值应和实际目标的大小一致,由于本发明应用在拍摄角度垂直向下的客流统计场景,所以人体目标在深度图中的大小,是可以根据人体的高度估计出来的,所以这里的取值为估计人体宽度的一半。而密度门限值ξ的取值就更为简单,在相机高度已确定的情况下,可以计算出需要关注的人体高度所对应的深度图灰度值,只要按此阈值来设置ξ,即可把不要的噪声过滤。在聚类分割完成后,本方法就将原本联通的深度图分割成若干个区域,每个区域代表一个目标。
5、对每个相机中的每个人体区域中的像素,利用其深度信息进行到地面上的投影,然后利用事先做好的多相机偏移(dx,dy)标定,进行投影后目标的关联,从而在全局坐标系上实现多相机下的目标检测。
如图4所示,有一定高度的目标处在两个相机的公共区域。设相机高度为z0,目标二维平面坐标为(x,y),高度为z,左相机目标的全局坐标为:
{ ( w - 1 2 - x ) z z 0 + x , ( H - 1 2 - y ) z z 0 + y } ,
考虑相机偏移(dx,dy),右相机目标的全局坐标为:
{ { ( w - 1 2 - x ) z z 0 + x + dx , ( H - 1 2 - y ) z z 0 + y + dy } .
一般情况下人体区域包含多个像素,由于相机安装角度不同,同一目标的前景点分布有所不同,投影到地面后分布也会不同,因此通过对目标的所有点做MeanShift聚类得到的投影中心点来代表该目标。通过比较相邻相机下所有投影中心点的距离,并设定阈值Td,距离小于Td的目标认为是同一目标,从而达到区域目标关联的目的。
6:对于每个相机每帧深度图,都进行上述2-5步的处理,每帧都会得到一组全局坐标系下的目标检测结果,再利用光流预测和面积匹配的方法进行帧间关联,从而得到每个目标在全局坐标系的跟踪轨迹。
7:结合ATM区域和跟踪轨迹,实现“取款尾随”,“徘徊”和“驻留”等行为分析功能。
8:对每个目标进行光流场的计算,评价其光流场的混乱程度和速度,实现“打斗”和“打砸ATM”等行为分析功能。
9:对每个目标的历史高度进行统计,形成以时间为x轴,以高度为y轴的波形,在对其进行滤波等预处理后,检测波形中是否存在一个下降沿,从而实现对“倒地”等行为分析功能。
以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围,应带理解,本发明并不限于这里所描述的实现方案,这些实现方案描述的目的在于帮助本领域中的技术人员实践本发明。

Claims (3)

1.一种基于深度信息的ATM自助营业厅行为分析方法,以多个吸顶安装、垂直朝地面拍摄的双目相机为采集硬件,在深度信息和彩色信息的基础上,采用了背景建模,目标分割,运动分析,实现对监控区域内人体行为的分析,其特征在于该方法具体包括以下步骤:
步骤1:采用双目相机作为深度信息的获取设备,输出为帧率25FPS的CIF分辨率的深度图,深度图中,每个像素的取值范围为0-255,值越大表示该像素所代表的目标距离镜头越近;
步骤2:对深度图进行背景建模,并随着场景的变化,学习更新每个像素的混合高斯模型,确定背景分布,具体是:
首先对深度图进行背景建模,用由K个高斯成分组成的混合高斯模型表示像素在时间域上的概率分布模型,即深度图中像素j在t时刻取值为xj的概率为:
P ( x j ) = Σ i = 1 K ω j , t i · η ( x j ; μ j , t i , Σ j , t i )
其中表示在t时刻像素j的混合高斯模型中的第i个高斯成分的权重,表示第i个高斯成分的均值,表示第i个高斯成分的协方差,η表示高斯概率密度函数:
η ( x j ; μ j , t i , Σ j , t i ) = 1 ( 2 π ) d / 2 | Σ j , t i | 1 / 2 exp [ - 1 2 ( x j - μ j , t i ) T ( Σ j , t i ) - 1 ( x j - μ j , t i ) ]
其中d为xj的维数;
然后随着场景的变化,学习更新每个像素的混合高斯模型;
最后像素j的混合高斯模型描述了其特征值xj在时间域上的概率分布,为了确定像素的混合高斯模型里哪些高斯成分是由背景产生的,根据每个高斯成分的权重与其标准差之比排序后,取前Bj个高斯成分作为背景的分布,Bj根据下式计算
B j = arg min b ( Σ i = 1 b ω j , t + 1 i > M )
阈值M度量了背景高斯成分在像素的整个概率分布中所占得最小比例;
步骤3:利用深度图背景模型,进行前景目标检测,即对每帧新深度图中的每个像素,求其在每个背景混合高斯模型中的概率值:
P ( x j ) = Σ i = 1 K ω j , t i · η ( x j ; μ j , t i , Σ j , t i )
若概率最大值小于阈值,则认为当前像素为前景点,说明可能有人体;
步骤4:对前景深度图,利用DENCLUE算法进行聚类分割,将原本联通的深度图分割成若干个区域,每个区域代表一个目标;
步骤5:对每个相机中的每个人体区域中的像素,利用其深度信息进行到地面上的投影,然后利用多相机偏移标定,进行投影后目标的关联,从而在全局坐标系上实现多相机下的目标检测;
步骤6:对于每个相机每帧深度图,重复步骤2-5的处理,每帧都会得到一组全局坐标系下的目标检测结果,再利用光流预测和面积匹配的方法进行帧间关联,从而得到每个目标在全局坐标系的跟踪轨迹;
步骤7:结合ATM区域和跟踪轨迹,实现“取款尾随”、“徘徊”或“驻留”的行为分析;
步骤8:对每个目标进行光流场的计算,评价其光流场的混乱程度和速度,实现“打斗”和“打砸ATM”的行为分析;
步骤9:对每个目标的历史高度进行统计,形成以时间为x轴,以高度为y轴的波形,在对其进行滤波后,检测波形中是否存在一个下降沿,实现对“倒地”的行为分析。
2.根据权利要求1所述的一种基于深度信息的ATM自助营业厅行为分析方法,其特征在于:步骤2中的学习更新是:将混合高斯模型中的K个高斯成分按照由大到小排序,然后用像素的当前值xj与其混合高斯模型中的K个高斯成分逐一比较,若xj与第i个高斯成分的均值之间的差小于δ倍的该高斯成分的标准差则该高斯成分被xj更新,其余高斯成分保持不变,更新方程如下:
ω j , t + 1 i = ( 1 - α ) ω j , t i - α · ( M j , t i )
μ j , t + 1 i = ( 1 - ρ ) μ j , t i - ρ · x j
( σ j , t + 1 i ) 2 = ( 1 - ρ ) ( σ j , t i ) 2 - ρ ( x j - μ j , t i ) T ( x j - μ j , t i )
ρ = α ω j , t i
其中α是模型的学习率,当第i个高斯成分与xj匹配时,为1,否则为0;如果xj与像素j的混合高斯模型中的K个高斯成分都不匹配,则该像素混合高斯模型中排在最后的高斯成分被新的高斯成分取代,新的高斯成分均值为xj,初始标准差及权重设为σinit和ωinit;在更新完成后,各高斯成分的权重被归一化,以使 Σ i = 1 K ω j , t + 1 i = 1 .
3.根据权利要求1所述的一种基于深度信息的ATM自助营业厅行为分析方法,其特征在于:步骤4的DENCLUE算法中存在两个重要参数:窗宽σ和密度门限值ξ;σ的选取直接会影响全局密度的估计结果,从而影响聚类数目;ξ用于过滤噪声产生的影响;σ的取值为人体宽度的一半;密度门限值ξ的取值为需要关注的人体高度所对应的深度图灰度值。
CN201410452648.2A 2014-09-05 2014-09-05 一种基于深度信息的atm自助营业厅行为分析方法 Pending CN104268851A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410452648.2A CN104268851A (zh) 2014-09-05 2014-09-05 一种基于深度信息的atm自助营业厅行为分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410452648.2A CN104268851A (zh) 2014-09-05 2014-09-05 一种基于深度信息的atm自助营业厅行为分析方法

Publications (1)

Publication Number Publication Date
CN104268851A true CN104268851A (zh) 2015-01-07

Family

ID=52160370

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410452648.2A Pending CN104268851A (zh) 2014-09-05 2014-09-05 一种基于深度信息的atm自助营业厅行为分析方法

Country Status (1)

Country Link
CN (1) CN104268851A (zh)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104657993A (zh) * 2015-02-12 2015-05-27 北京格灵深瞳信息技术有限公司 一种镜头遮挡检测方法及装置
CN104715480A (zh) * 2015-03-11 2015-06-17 南京邮电大学 一种基于统计背景模型的目标检测方法
CN104809720A (zh) * 2015-04-08 2015-07-29 西北工业大学 基于小交叉视场的两相机目标关联方法
CN105516688A (zh) * 2016-01-20 2016-04-20 北京航空航天大学 一种可分辨率变换的仿鹰眼视觉成像装置及其成像方法
CN106340032A (zh) * 2016-08-27 2017-01-18 浙江捷尚视觉科技股份有限公司 一种基于光流场聚类的运动目标检测方法
CN107071339A (zh) * 2016-12-01 2017-08-18 合肥大多数信息科技有限公司 一种基于深度摄像监测的智能坐席系统及其实现方法
CN107111764A (zh) * 2015-01-16 2017-08-29 高通股份有限公司 由对象在成像装置的视野中的深度触发的事件
CN108427940A (zh) * 2018-04-04 2018-08-21 浙江安精智能科技有限公司 基于深度相机的饮水机出水智能控制装置及其控制方法
CN109117756A (zh) * 2018-07-25 2019-01-01 钱文浩 打斗程度计算机解析方法
CN109472814A (zh) * 2018-12-05 2019-03-15 湖南大学 一种基于Kinect的多个四旋翼飞行器室内跟踪定位方法
CN109711334A (zh) * 2018-12-26 2019-05-03 浙江捷尚视觉科技股份有限公司 一种基于时空光流场的atm尾随事件检测方法
CN110602476A (zh) * 2019-08-08 2019-12-20 南京航空航天大学 一种基于深度信息辅助的高斯混合模型的空洞填补方法
CN110930411A (zh) * 2019-11-20 2020-03-27 杭州光珀智能科技有限公司 一种基于深度相机的人体分割方法及系统
CN111144231A (zh) * 2019-12-09 2020-05-12 深圳市鸿逸达科技有限公司 一种基于深度图像的自助通道防尾随检测方法和系统
CN111372043A (zh) * 2020-02-06 2020-07-03 浙江大华技术股份有限公司 异常检测方法以及相关设备、装置
CN115147868A (zh) * 2022-06-29 2022-10-04 珠海视熙科技有限公司 客流相机的人体检测方法、客流相机、装置及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101141633A (zh) * 2007-08-28 2008-03-12 湖南大学 一种复杂场景中的运动目标检测与跟踪方法
CN102663452A (zh) * 2012-04-14 2012-09-12 中国人民解放军国防科学技术大学 基于视频分析的可疑行为检测方法
CN102867175A (zh) * 2012-08-31 2013-01-09 浙江捷尚视觉科技有限公司 一种基于立体视觉的atm机行为分析方法
CN103116959A (zh) * 2013-01-25 2013-05-22 上海博超科技有限公司 一种智能视频中异常行为的分析识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101141633A (zh) * 2007-08-28 2008-03-12 湖南大学 一种复杂场景中的运动目标检测与跟踪方法
CN102663452A (zh) * 2012-04-14 2012-09-12 中国人民解放军国防科学技术大学 基于视频分析的可疑行为检测方法
CN102867175A (zh) * 2012-08-31 2013-01-09 浙江捷尚视觉科技有限公司 一种基于立体视觉的atm机行为分析方法
CN103116959A (zh) * 2013-01-25 2013-05-22 上海博超科技有限公司 一种智能视频中异常行为的分析识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
王鸿遥 等: "基于DENCLUE聚类算法的交通事故多发点鉴别方法", 《交通运输工程与信息学报》 *
黄永鑫: "基于视觉的运动人体行为分析技术研究", 《黑龙江科技信息》 *

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107111764A (zh) * 2015-01-16 2017-08-29 高通股份有限公司 由对象在成像装置的视野中的深度触发的事件
CN104657993A (zh) * 2015-02-12 2015-05-27 北京格灵深瞳信息技术有限公司 一种镜头遮挡检测方法及装置
CN104657993B (zh) * 2015-02-12 2018-04-17 北京格灵深瞳信息技术有限公司 一种镜头遮挡检测方法及装置
CN104715480A (zh) * 2015-03-11 2015-06-17 南京邮电大学 一种基于统计背景模型的目标检测方法
CN104715480B (zh) * 2015-03-11 2018-07-17 南京邮电大学 一种基于统计背景模型的目标检测方法
CN104809720A (zh) * 2015-04-08 2015-07-29 西北工业大学 基于小交叉视场的两相机目标关联方法
CN104809720B (zh) * 2015-04-08 2017-07-14 西北工业大学 基于小交叉视场的两相机目标关联方法
CN105516688A (zh) * 2016-01-20 2016-04-20 北京航空航天大学 一种可分辨率变换的仿鹰眼视觉成像装置及其成像方法
CN106340032A (zh) * 2016-08-27 2017-01-18 浙江捷尚视觉科技股份有限公司 一种基于光流场聚类的运动目标检测方法
CN106340032B (zh) * 2016-08-27 2019-03-15 浙江捷尚视觉科技股份有限公司 一种基于光流场聚类的运动目标检测方法
CN107071339A (zh) * 2016-12-01 2017-08-18 合肥大多数信息科技有限公司 一种基于深度摄像监测的智能坐席系统及其实现方法
CN108427940A (zh) * 2018-04-04 2018-08-21 浙江安精智能科技有限公司 基于深度相机的饮水机出水智能控制装置及其控制方法
CN108427940B (zh) * 2018-04-04 2023-11-17 徐育 基于深度相机的饮水机出水智能控制装置及其控制方法
CN109117756A (zh) * 2018-07-25 2019-01-01 钱文浩 打斗程度计算机解析方法
CN109472814A (zh) * 2018-12-05 2019-03-15 湖南大学 一种基于Kinect的多个四旋翼飞行器室内跟踪定位方法
CN109711334B (zh) * 2018-12-26 2021-02-05 浙江捷尚视觉科技股份有限公司 一种基于时空光流场的atm尾随事件检测方法
CN109711334A (zh) * 2018-12-26 2019-05-03 浙江捷尚视觉科技股份有限公司 一种基于时空光流场的atm尾随事件检测方法
CN110602476A (zh) * 2019-08-08 2019-12-20 南京航空航天大学 一种基于深度信息辅助的高斯混合模型的空洞填补方法
CN110602476B (zh) * 2019-08-08 2021-08-06 南京航空航天大学 一种基于深度信息辅助的高斯混合模型的空洞填补方法
CN110930411A (zh) * 2019-11-20 2020-03-27 杭州光珀智能科技有限公司 一种基于深度相机的人体分割方法及系统
CN110930411B (zh) * 2019-11-20 2023-04-28 浙江光珀智能科技有限公司 一种基于深度相机的人体分割方法及系统
CN111144231A (zh) * 2019-12-09 2020-05-12 深圳市鸿逸达科技有限公司 一种基于深度图像的自助通道防尾随检测方法和系统
CN111144231B (zh) * 2019-12-09 2022-04-15 深圳市鸿逸达科技有限公司 一种基于深度图像的自助通道防尾随检测方法和系统
CN111372043A (zh) * 2020-02-06 2020-07-03 浙江大华技术股份有限公司 异常检测方法以及相关设备、装置
CN111372043B (zh) * 2020-02-06 2021-05-11 浙江大华技术股份有限公司 异常检测方法以及相关设备、装置
CN115147868A (zh) * 2022-06-29 2022-10-04 珠海视熙科技有限公司 客流相机的人体检测方法、客流相机、装置及存储介质

Similar Documents

Publication Publication Date Title
CN104268851A (zh) 一种基于深度信息的atm自助营业厅行为分析方法
CN102867175B (zh) 一种基于立体视觉的atm机行为分析方法
CN110175576A (zh) 一种结合激光点云数据的行驶车辆视觉检测方法
EP2736018B1 (en) Determining pushback direction
CN102073846B (zh) 基于航拍图像的交通信息获取方法
CN110379168B (zh) 一种基于Mask R-CNN的交通车辆信息获取方法
CN103824070A (zh) 一种基于计算机视觉的快速行人检测方法
US20120070034A1 (en) Method and apparatus for detecting and tracking vehicles
CN105373135A (zh) 一种基于机器视觉的飞机入坞引导和机型识别的方法及系统
CN104378582A (zh) 一种基于ptz摄像机巡航的智能视频分析系统及方法
CN104008371A (zh) 一种基于多摄像机的区域可疑目标跟踪与识别方法
CN104866823A (zh) 一种基于单目视觉的车辆检测与跟踪方法
CN106570490B (zh) 一种基于快速聚类的行人实时跟踪方法
CN102289686A (zh) 一种基于迁移学习的运动目标分类识别方法
CN103077423A (zh) 基于视频流的人群数量估计、局部人群聚集状态以及人群跑动状态检测方法
Stahlschmidt et al. Applications for a people detection and tracking algorithm using a time-of-flight camera
CN103426179A (zh) 一种基于均值偏移多特征融合的目标跟踪方法及装置
CN102254394A (zh) 一种基于视频差异分析的输电线路杆塔防盗监控方法
De Bruin et al. Drone-based traffic flow estimation and tracking using computer vision: transportation engineering
CN104463121A (zh) 人群密度信息获取方法
CN104217442B (zh) 基于多模型估计的航拍视频运动目标检测方法
Meissner et al. Real-time detection and tracking of pedestrians at intersections using a network of laserscanners
CN110443830A (zh) 一种基于混合高斯背景模型的降水云团检测方法
CN108520528B (zh) 基于改进差分阈值和位移匹配模型的移动车辆跟踪方法
CN105469427A (zh) 一种用于视频中目标跟踪方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20150107

RJ01 Rejection of invention patent application after publication