CN107992795A - 基于人口信息库与实名通话记录的团伙及其头目识别方法 - Google Patents
基于人口信息库与实名通话记录的团伙及其头目识别方法 Download PDFInfo
- Publication number
- CN107992795A CN107992795A CN201711029582.6A CN201711029582A CN107992795A CN 107992795 A CN107992795 A CN 107992795A CN 201711029582 A CN201711029582 A CN 201711029582A CN 107992795 A CN107992795 A CN 107992795A
- Authority
- CN
- China
- Prior art keywords
- mrow
- group
- msub
- msubsup
- msup
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 11
- 238000001514 detection method Methods 0.000 claims abstract description 24
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 20
- 238000012544 monitoring process Methods 0.000 claims abstract description 20
- 238000004891 communication Methods 0.000 claims abstract description 17
- 230000002159 abnormal effect Effects 0.000 claims abstract description 14
- 230000011218 segmentation Effects 0.000 claims abstract description 10
- 230000003068 static effect Effects 0.000 claims abstract description 10
- 238000013135 deep learning Methods 0.000 claims abstract description 5
- 238000006073 displacement reaction Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 9
- 230000033001 locomotion Effects 0.000 claims description 6
- 239000000203 mixture Substances 0.000 claims description 5
- 238000005259 measurement Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000012163 sequencing technique Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于人口信息库与实名通话记录的团伙及团伙头目的识别方法,该方法包括:(1)对监控中的人群场景分析,监控视频中移动的行人和静止人群进行小群体(团伙)分割,确定团伙群体目标;对团伙群体目标进行人脸检测;(2)分别通过确定团伙成员之间的跟随关系、确定人脸方向持续时间进行基于视频信息的团伙头目检测;(3)基于人口信息库,通过深度学习卷积神经网络算法实现人像比对,确定团伙成员身份信息;(4)结合通讯数据库,确定团伙内部实名通话时间及次数记录,以及团伙与外部异常通话时间、次数记录,实现基于通话记录的团伙头目检测;(5)综合分析视频信息及通话记录关系,实现犯罪团伙头目和成员的识别。
Description
技术领域
本发明属于监控视频中人脸识别、移动通信数据挖掘、犯罪地理学技术领域,具体设计是对监控视频人脸识别和实名通话记录数据分析对团伙及团伙头目精确识别的方法。
背景技术
在当前城市犯罪的案情报告中,团伙性质作案的数目和比例呈现逐年递增趋势,犯罪形势严峻。团伙化犯罪其人数规模大、组织形式多样、危害程度高、团伙抓捕难度大等特点越来越多的构成了对社会公共安全、平安城市的较大威胁。对充分把握破案的主动权,完善犯罪团伙的分析需求不断上升。
现阶段,随着监控视频系统的普及,移动通信技术的发展,深度学习卷积神经网络算法在人脸识别等图像处理领域优秀计算能力,大量的监控视频卡口数据、行人轨迹、人口信息数据库、实名通讯数据库等大数据为及时快速的判断犯罪团伙规模、定位和识别犯罪团伙提供了技术契机。
发明内容
针对现有技术中存在的(1)理论性强,缺少实际场景的应用;(2)容易造成团伙犯罪的部分团伙成员漏网;(3)未考虑团伙成员频繁联系的潜在犯罪分子;(4)未充分利用人口信息库以及实名通话记录数据库等问题,本发明提出了一种针对实际应用监控视频场景下,运用人口信息数据库和通讯数据库等大数据,对团伙及团伙头目进行人脸识别。和现有技术相比,本发明根据人口信息库与深度学习卷积神经网络算法识别出来的团伙个人信息,结合通讯数据库的实名通话记录分析,确定团伙关联活动网络,进而实现对犯罪团伙及团伙头目团伙和外部异常成员的精确识别和打击。
基于人口信息库与实名通话记录的团伙及团伙头目的识别,其特征包括以下步骤:
步骤1:对监控中的人群场景分析,监控视频中移动的行人和静止人群进行小群体(团伙)分割,确定团伙群体目标;针对以上两种情况对监控视频的群体进行人脸检测。
步骤2:分别通过确定监控视频中移动团伙成员之间的跟随关系、监控视频中静止小群体团伙人脸方向持续时间,进行基于视频信息的团伙头目检测。
步骤3:基于人口信息库,通过深度学习卷积神经网络算法实现人像比对,确定团伙成员身份信息。
步骤4:结合通讯数据库,确定团伙内部实名通话时间及次数记录,以及团伙与外部异常通话时间、次数记录,实现基于通话记录的团伙头目检测。
步骤5:综合分析视频信息及通话记录关系,实现犯罪团伙头目和成员和团伙外部异常成员的识别。
进一步地,步骤1包括以下步骤:
步骤:1.1:运动小群体KLT特征点:采用Kanade-Lucas-Tomasi(KLT)算法,获得运动小群体特征点的位置,小群体特征点跟踪得到运动轨迹;t时刻对应的某一帧图像F(x,y,t),t+τ时刻对应的图像为G(x,y,t+τ),灰度值平方差和(sum of squared differences,SSD)最小化d:
d=∫∫w·[G(x+d)-F(x)]2dx (1-1)
其中,F(x)、G(x+d)代表相邻两帧的关系,w为权值。位移量为每一帧的特征点在空间上的位移
步骤1.2:小群体前景提取:使用M个混合高斯模型表征图像的像素点的特征,在下一帧中更新混合高斯模型。通过对比前后两帧像素点和混合高斯模型的匹配度,匹配背景像素点和前景像素点。前景像素点为二进制掩膜,连通区域为Uk,帧图像F由小群体前景块构成的集合UF={U1,U2,U3,…,Uk},表示帧图像F包含的连通的小群体前景块。
步骤1.3:按照空间位置对静止小群体划分:通过连通的小群体前景块的边界位置,由其坐标值划分矩形区域,同时获得边界坐标。根据特征点是否在小群体前景块划分特征点位置,在空间上相近的个体划分为同一个小群体。
步骤1.4:按照时间顺序在运动小群体划分:特征点运动方向与x轴的夹角α
其中,为特征点在x、y轴上的位移;将夹角12等分,确定12个方向,为Ddirc赋值:
通过计算帧与帧图像之间特征点的运动关系Ddirc,将小群体块UF再次划分为特征点集UF={V},其中V={C1,C2,C3,…,Ck}。此时运动方向一致的特征点被标记为一个群体即分割团伙目标。
步骤1.5:使用已训练的基于Haar-like特征的Adaboost人脸检测器模型对小群体(团伙)分割后的行人进行人脸检测。
进一步地,步骤2包括以下步骤:
步骤2.1:确定运动团伙成员之间的跟随关系:
其中,归一化因子dab为团伙成员轨迹上的欧氏距离。
步骤2.2:确定静止团伙成员之间的头目-成员关系:
其中,n个人中第i个团伙成员面朝目标团伙头目j的最大时间为ti,j。
进一步地,上述步骤3包括以下步骤:
步骤3.1:将检测到的小群体目标人脸图像和人口信息数据库中图像逐一输入到已训练好的GoogLenet卷积神经网络模型中,通过反向传播迭代产生更新后的卷积神经网络特征;
步骤3.2:获取GoogLenet卷积神经网络模型提取的4096维特征,输入到softmax损失层,其中网络中有Loss1、Loss2、Loss3共三个softmax损失函数,假设函数:
其中x(i)∈Rn+1,θ为训练好的模型参数,能够最小化代价函数:
步骤3.3:采用余弦距离度量方式对特征进行匹配,逐一计算目标图像和人口信息数据库中图像特征之间的余弦距离,将距离从小到大排序,选择排序靠前的一组图像作为识别结果,得到包括小群体团伙头目及团伙成员的个人信息。
进一步地,上述步骤4包括以下步骤:
步骤4.1:团伙内部实名通话时间及通话次数:根据人口信息库和基于CNN的人像比对获得团伙内部成员身份信息,根据通讯数据库,统计团伙内部头目和成员之间通话时间表示:
其中,ti,j为n个小群体团伙中第i个团伙成员和团伙头目j的通话时间,
为所有团伙成员和团伙头目通话总时间;为团伙头目所有通话总时间。
团伙内部头目和成员之间通话次数,公式如下:
其中,n为群体团伙成员总人数;ci,j为第i个团伙成员和团伙头目j的通话次数,为团伙成员和团伙头目通话总次数;为团伙头目所有通话总次数。
综合分析团伙内部通话时间、通话次数记录:
gi=max[mt+μ·mc] (4-3)
其中,μ为团伙内部通话次数的阈值。
步骤4.2:团伙同外部成员通话时间及通话次数:对于团伙中每一个成员n,其联系人列表为n1,…,nq,在τ时间节点上的通话时间:
其中,n为团伙内部成员总人数,p为团伙外部成员人数;tτ,e,n为第e个团伙外部成员和团伙成员n在τ时间节点上的通话时间;为团伙成员与团伙外部成员在τ时间节点上的通话总时间;为团伙成员和其所有联系人在τ时间节点上的通话总时间。
团伙内部成员和团伙外部成员之间在τ时间节点上的通话次数:
其中,cτ,e,n为第n个团伙成员和第e个团伙外部成员在τ时间节点上的通话次数,为团伙成员n和总数为p的团伙外部成员在τ时间节点上的通话总次数;为团伙成员n在τ时间节点上所有通话总次数。
综合分析团伙内部成员和团伙外部成员通话时间、通话次数记录:
eo=max[et+ω·ec] (4-6)
其中,ω为团伙内部成员和团伙外部成员在τ时间节点上通话次数的阈值;结合人口信息库和通讯数据库确定团伙外部异常成员名单和个人信息。
进一步地,上述步骤5所述包括以下步骤:结合视频信息的团伙头目检测和基于通话时间、通话次数的团伙及团伙头目和外部成员检测分析,确定团伙头目、团伙成员及团伙外部异常成员名单和个人信息,实现对整个团伙的精确识别:
p=α(gi+eo)+β(f+dt) (4-7)。
附图说明
图1为本发明的流程图;
图2为小群体分割示意图;
图3为GoogLenet卷积神经网络结构图;
图4为团伙成员和团伙头目、团伙成员和团伙外部异常成员在τ时间节点上通话记录网络图。
具体实施方式
下面结合附图对本发明作进一步说明。
如图1-4所示,本发明的基于人口信息库与实名通话记录的团伙及团伙头目的识别方法,包括如下步骤:
步骤1:对监控中的人群场景分析,监控视频中移动的行人和静止人群进行小群体(团伙)分割,确定团伙群体目标;针对以上两种情况对监控视频的群体进行人脸检测。
子步骤如下:
步骤1.1:对监控视频中移动的行人进行提取运动小群体KLT特征点:采用Kanade-Lucas-Tomasi(KLT)算法,获得运动小群体特征点的位置,小群体特征点跟踪得到运动轨迹;t时刻对应的某一帧图像F(x,y,t),t+τ时刻对应的图像为G(x,y,t+τ),灰度值平方差和(sum of squared differences,SSD)最小化d:
d=∫∫w·[G(x+d)-F(x)]2dx (1-1)
其中,F(x)、G(x+d)代表相邻两帧的关系,w为权值。位移量为每一帧的特征点在空间上的位移。
步骤1.2:根据群体团伙的时间和空间运动区域一致性和邻近性,通过时空信息约束算法,分别针对运动小群体(团伙)分割和静止小群体(团伙)分割确定团伙目标,通过构建混合高斯模型来确定前景点和背景点,确定连通斑块获得前景集合UF={U1,U2,U3,…,Uk}。目的是把前景集合从视频图像中分离出来。
使用M个混合高斯模型表征图像的像素点的特征,在下一帧中更新混合高斯模型。通过对比前后两帧像素点和混合高斯模型的匹配度,可以匹配为背景像素点,否则为前景像素点。前景像素点为二进制掩膜,连通区域为Uk,帧图像F由小群体前景块构成的集合UF={U1,U2,U3,…,Uk},表示帧图像F包含的连通的小群体前景块。
步骤1.3:按照空间位置对静止小群体划分,在空间位置上,将分离出来的所有前景聚类划分为小群体。通过连通的小群体前景块的边界位置,由其坐标值划分矩形区域,同时获得边界坐标。根据特征点是否在小群体前景块划分特征点位置,在空间上相近的个体划分为同一个小群体。
步骤1.4:按照时间顺序在运动小群体划分:特征点运动方向与x轴的夹角α:
其中,为特征点在x、y轴上的位移;将夹角12等分,确定12个方向,为Ddirc赋值:
通过帧与帧之间的运动关系确定方向聚类划分小群体,进一步完成小群体分割。将小群体块UF再次划分为特征点集UF={V},其中V={C1,C2,C3,…,Ck}。此时运动方向一致的特征点被标记为一个群体即确定团伙目标。
步骤1.5:使用已训练的基于Haar-like特征的Adaboost人脸检测器模型对小群体(团伙)分割后的行人进行人脸检测。
步骤2.1:分析团伙运动轨迹和运动方向,采用时空滞后法确定团伙成员之间的跟随关系:
其中,归一化因子dab为团伙成员轨迹上的欧氏距离。
步骤2.2:确定静止团伙成员之间的头目-成员关系:
其中,n个人中第i个团伙成员面朝目标团伙头目j的最大时间为ti,j。
步骤3.1:将团伙头目及成员的识别问题转化为目标人群人口信息数据库检索问题,从而能够利用GoogLenet卷积神经网络强大的分类能力,将检测到的目标图像和人口信息数据库中图像逐一输入到已训练好的GoogLenet卷积神经网络模型中,通过反向传播迭代产生更新后的卷积神经网络特征。GoogLenet卷积神经网络是22层的深度卷积神经网络结构,分别包括inception结构分别为1×1,3×3,5×5的卷积核用来处理多姿态多尺度人脸识别的问题。
步骤3.2:获取隐藏层最后输出的4096维特征,输入到softmax层,其中网络中有Loss1、Loss2、Loss3共三个softmax损失函数,Loss1和Loss2加快了网络收敛速度,增加了特征多样性。假设函数:
其中x(i)∈Rn+1,θ为训练好的模型参数,能够最小化代价函数:
步骤3.3:采用余弦距离度量方式对特征进行匹配,逐一计算目标图像和人口信息数据库中图像特征之间的余弦距离,将距离从小到大排序,选择排序靠前的一组图像作为识别结果,得到小群体团伙头目及团伙成员的个人信息。
步骤4:结合通讯数据库,确定团伙内部实名通话时间及次数记录,以及团伙与外部异常通话时间、次数记录,实现基于通话记录的团伙头目检测,子步骤如下:
步骤4.1:团伙内部实名通话时间及通话次数:根据人口信息库和基于CNN的人像比对获得团伙内部成员身份信息,根据通讯数据库,统计团伙内部头目和成员之间通话时间表示:
其中,ti,j为n个小群体团伙中第i个团伙成员和团伙头目j的通话时间,为所有团伙成员和团伙头目通话总时间;为团伙头目所有通话总时间。
统计分析团伙内部头目和成员之间通话次数:
其中,n为群体团伙成员总人数;ci,j为第i个团伙成员和团伙头目j的通话次数,为团伙成员和团伙头目通话总次数;为团伙头目所有通话总次数。
综合分析团伙内部通话时间、通话次数记录:
gi=max[mt+μ·mc] (4-3)
其中,μ为团伙内部通话次数的阈值。
步骤4.2:团伙同外部成员通话时间及通话次数:对于团伙中每一个成员n,其联系人列表为n1,…,nq,在τ时间节点上的通话时间:
其中,n为团伙内部成员总人数,p为团伙外部成员人数;tτ,e,n为第e个团伙外部成员和团伙成员n在τ时间节点上的通话时间;为团伙成员与团伙外部成员在τ时间节点上的通话总时间;为团伙成员和其所有联系人在τ时间节点上的通话总时间。
团伙内部成员和团伙外部成员之间在τ时间节点上的通话次数:
其中,cτ,e,n为第n个团伙成员和第e个团伙外部成员在τ时间节点上的通话次数,为团伙成员n和总数为p的团伙外部成员在τ时间节点上的通话总次数;为团伙成员n在τ时间节点上所有通话总次数。
综合分析团伙内部成员和团伙外部成员通话时间、通话次数记录:
eo=max[et+ω·ec] (4-6)
其中,ω为团伙内部成员和团伙外部成员在τ时间节点上通话次数的阈值;结合人口信息库和通讯数据库确定团伙外部异常成员名单和个人信息。
步骤5.1:结合视频信息的团伙头目检测和基于通话时间、通话次数的团伙及团伙头目和外部成员检测分析,确定团伙头目、团伙成员及团伙外部异常成员名单和个人信息,实现对整个团伙的精确识别:
p=α(gi+eo)+β(f+dt) (4-7)
α、β分别为基于通话记录的团伙检测、视频信息的团伙检测在团伙头目及成员检测中的权重系数。
Claims (6)
1.基于人口信息库与实名通话记录的团伙及团伙头目的识别,其特征包括以下步骤:
步骤1:对监控中的人群场景分析,监控视频中移动的行人和静止人群进行小群体团伙分割,确定团伙群体目标;针对以上两种情况对监控视频的群体进行人脸检测;
步骤2:分别通过确定监控视频中移动团伙成员之间的跟随关系、监控视频中静止小群体团伙人脸方向持续时间,进行基于视频信息的团伙头目检测;
步骤3:基于人口信息库,通过深度学习卷积神经网络算法实现人像比对,确定团伙成员身份信息;
步骤4:结合通讯数据库,确定团伙内部实名通话时间及次数记录,以及团伙与外部异常通话时间、次数记录,实现基于通话记录的团伙头目检测;
步骤5:综合分析视频信息及通话记录关系,实现犯罪团伙头目和成员和团伙外部异常成员的识别。
2.根据权利要求1所述的基于人口信息库与实名通话记录的团伙及团伙头目的识别,其特征在于:上述步骤1中具体步骤如下:
步骤:1.1:运动小群体KLT特征点:采用Kanade-Lucas-Tomasi(KLT)算法,获得运动小群体特征点的位置,小群体特征点跟踪得到运动轨迹;t时刻对应的某一帧图像F(x,y,t),t+τ时刻对应的图像为G(x,y,t+τ),灰度值平方差和(sum of squared differences,SSD)最小化d:
d=∫∫w·[G(x+d)-F(x)]2dx (1-1)
其中,F(x)、G(x+d)代表相邻两帧的关系,w为权值。位移量为每一帧的特征点在空间上的位移;
步骤1.2:小群体前景提取:使用M个混合高斯模型表征图像的像素点的特征,在下一帧中更新混合高斯模型;通过对比前后两帧像素点和混合高斯模型的匹配度,匹配背景像素点和前景像素点;前景像素点为二进制掩膜,连通区域为Uk,帧图像F由小群体前景块构成的集合UF={U1,U2,U3,…,Uk},表示帧图像F包含的连通的小群体前景块;
步骤1.3:按照空间位置对静止小群体划分:通过连通的小群体前景块的边界位置,由其坐标值划分矩形区域,同时获得边界坐标;根据特征点是否在小群体前景块划分特征点位置,在空间上相近的个体划分为同一个小群体;
步骤1.4:按照时间顺序在运动小群体划分:特征点运动方向与x轴的夹角α
<mrow>
<mi>&alpha;</mi>
<mo>=</mo>
<mi>a</mi>
<mi>r</mi>
<mi>c</mi>
<mi>c</mi>
<mi>o</mi>
<mi>s</mi>
<mfrac>
<mrow>
<mi>&Delta;</mi>
<mi>x</mi>
</mrow>
<msqrt>
<mrow>
<mo>(</mo>
<msup>
<mi>&Delta;x</mi>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mi>&Delta;y</mi>
<mn>2</mn>
</msup>
<mo>)</mo>
</mrow>
</msqrt>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,为特征点在x、y轴上的位移;将夹角12等分,确定12个方向,为Ddirc赋值:
<mrow>
<msub>
<mi>D</mi>
<mrow>
<mi>d</mi>
<mi>i</mi>
<mi>r</mi>
<mi>c</mi>
</mrow>
</msub>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>D</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<mn>0</mn>
<mo>&le;</mo>
<mi>&alpha;</mi>
<mo><</mo>
<mi>&pi;</mi>
<mo>/</mo>
<mn>6</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>D</mi>
<mn>2</mn>
</msub>
<mo>,</mo>
<mi>&pi;</mi>
<mo>/</mo>
<mn>6</mn>
<mo>&le;</mo>
<mi>&alpha;</mi>
<mo><</mo>
<mi>&pi;</mi>
<mo>/</mo>
<mn>3</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>D</mi>
<mn>3</mn>
</msub>
<mo>,</mo>
<mi>&pi;</mi>
<mo>/</mo>
<mn>3</mn>
<mo>&le;</mo>
<mi>&alpha;</mi>
<mo><</mo>
<mi>&pi;</mi>
<mo>/</mo>
<mn>2</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>...</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>D</mi>
<mn>12</mn>
</msub>
<mo>,</mo>
<mn>11</mn>
<mi>&pi;</mi>
<mo>/</mo>
<mn>6</mn>
<mo>&le;</mo>
<mi>&alpha;</mi>
<mo><</mo>
<mi>&pi;</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<mn>3</mn>
<mo>)</mo>
</mrow>
</mrow>
通过计算帧与帧图像之间特征点的运动关系Ddirc,将小群体块UF再次划分为特征点集UF={V},其中V={C1,C2,C3,…,Ck}。此时运动方向一致的特征点被标记为一个群体即分割团伙目标;
步骤1.5:使用已训练的基于Haar-like特征的Adaboost人脸检测器模型对小群体(团伙)分割后的行人进行人脸检测。
3.根据权利要求1所述的基于人口信息库与实名通话记录的团伙及团伙头目的识别,其特征在于:上述步骤2中具体步骤如下:
步骤2.1:确定运动团伙成员之间的跟随关系:
<mrow>
<mi>f</mi>
<mo>=</mo>
<mfrac>
<mrow>
<msubsup>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mo>-</mo>
<mi>k</mi>
</mrow>
<mi>k</mi>
</msubsup>
<mfrac>
<mn>1</mn>
<mrow>
<msub>
<mi>d</mi>
<mrow>
<mi>a</mi>
<mi>b</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>&CenterDot;</mo>
<mi>i</mi>
</mrow>
<mi>s</mi>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,归一化因子dab为团伙成员轨迹上的欧氏距离;
步骤2.2:确定静止团伙成员之间的头目-成员关系:
<mrow>
<msub>
<mi>d</mi>
<mi>t</mi>
</msub>
<mo>=</mo>
<munder>
<mrow>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
</mrow>
<mi>j</mi>
</munder>
<munderover>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
</munder>
<mrow>
<mi>i</mi>
<mo>&NotEqual;</mo>
<mi>j</mi>
</mrow>
<mi>n</mi>
</munderover>
<msub>
<mi>t</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>-</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,n个人中第i个团伙成员面朝目标团伙头目j的最大时间为ti,j。
4.根据权利要求1所述的基于人口信息库与实名通话记录的团伙及团伙头目的识别,其特征在于:上述步骤3中具体步骤如下:
步骤3.1:将检测到的小群体目标人脸图像和人口信息数据库中图像逐一输入到已训练好的GoogLenet卷积神经网络模型中,通过反向传播迭代产生更新后的卷积神经网络特征;
步骤3.2:获取GoogLenet卷积神经网络模型提取的4096维特征,输入到softmax损失层,其中网络中有Loss1、Loss2、Loss3共三个softmax损失函数,假设函数:
<mrow>
<msub>
<mi>h</mi>
<mi>&theta;</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mrow>
<msup>
<mi>e</mi>
<mrow>
<msubsup>
<mi>e</mi>
<mn>1</mn>
<mi>T</mi>
</msubsup>
<msup>
<mi>x</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
</msup>
</mrow>
</msup>
<mo>+</mo>
<msup>
<mi>e</mi>
<mrow>
<msubsup>
<mi>e</mi>
<mn>2</mn>
<mi>T</mi>
</msubsup>
<msup>
<mi>x</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
</msup>
</mrow>
</msup>
</mrow>
</mfrac>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msup>
<mi>e</mi>
<mrow>
<msubsup>
<mi>e</mi>
<mn>1</mn>
<mi>T</mi>
</msubsup>
<mi>x</mi>
</mrow>
</msup>
</mtd>
</mtr>
<mtr>
<mtd>
<msup>
<mi>e</mi>
<mrow>
<msubsup>
<mi>e</mi>
<mn>2</mn>
<mi>T</mi>
</msubsup>
<mi>x</mi>
</mrow>
</msup>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>3</mn>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
其中x(i)∈Rn+1,θ为训练好的模型参数,能够最小化代价函数:
<mrow>
<mi>J</mi>
<mrow>
<mo>(</mo>
<mi>&theta;</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mo>-</mo>
<mfrac>
<mn>1</mn>
<mi>m</mi>
</mfrac>
<mo>&lsqb;</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</munderover>
<msup>
<mi>y</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
</msup>
<msub>
<mi>logh</mi>
<mi>&theta;</mi>
</msub>
<mrow>
<mo>(</mo>
<msup>
<mi>x</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
</msup>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<msup>
<mi>y</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
</msup>
<mo>)</mo>
</mrow>
<mi>l</mi>
<mi>o</mi>
<mi>g</mi>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<msub>
<mi>h</mi>
<mi>&theta;</mi>
</msub>
<mo>(</mo>
<msup>
<mi>x</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
</msup>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>3</mn>
<mo>-</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
步骤3.3:采用余弦距离度量方式对特征进行匹配,逐一计算目标图像和人口信息数据库中图像特征之间的余弦距离,将距离从小到大排序,选择排序靠前的一组图像作为识别结果,得到包括小群体团伙头目及团伙成员的个人信息。
5.根据权利要求1所述的基于人口信息库与实名通话记录的团伙及团伙头目的识别,其特征在于:上述步骤4中具体步骤如下:
步骤4.1:团伙内部实名通话时间及通话次数:根据人口信息库和基于CNN的人像比对获得团伙内部成员身份信息,根据通讯数据库,统计团伙内部头目和成员之间通话时间表示:
<mrow>
<msub>
<mi>m</mi>
<mi>t</mi>
</msub>
<mo>=</mo>
<munder>
<mrow>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
</mrow>
<mi>j</mi>
</munder>
<mfrac>
<mrow>
<msubsup>
<mo>&Sigma;</mo>
<munder>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mrow>
<mi>i</mi>
<mo>&NotEqual;</mo>
<mi>j</mi>
</mrow>
</munder>
<mi>n</mi>
</msubsup>
<msub>
<mi>t</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
</mrow>
<mrow>
<msubsup>
<mo>&Sigma;</mo>
<mrow>
<mi>m</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>M</mi>
</msubsup>
<msub>
<mi>t</mi>
<mrow>
<mi>m</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>4</mn>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,ti,j为n个小群体团伙中第i个团伙成员和团伙头目j的通话时间,为所有团伙成员和团伙头目通话总时间;为团伙头目所有通话总时间;
团伙内部头目和成员之间通话次数,公式如下:
<mrow>
<msub>
<mi>m</mi>
<mi>c</mi>
</msub>
<mo>=</mo>
<munder>
<mrow>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
</mrow>
<mi>j</mi>
</munder>
<mfrac>
<mrow>
<msubsup>
<mo>&Sigma;</mo>
<munder>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mrow>
<mi>i</mi>
<mo>&NotEqual;</mo>
<mi>j</mi>
</mrow>
</munder>
<mi>n</mi>
</msubsup>
<msub>
<mi>c</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
</mrow>
<mrow>
<msubsup>
<mo>&Sigma;</mo>
<mrow>
<mi>m</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>M</mi>
</msubsup>
<msub>
<mi>c</mi>
<mrow>
<mi>m</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>4</mn>
<mo>-</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,n为群体团伙成员总人数;ci,j为第i个团伙成员和团伙头目j的通话次数,为团伙成员和团伙头目通话总次数;为团伙头目所有通话总次数;
综合分析团伙内部通话时间、通话次数记录:
gi=max[mt+μ·mc] (4-3)
其中,μ为团伙内部通话次数的阈值。
步骤4.2:团伙同外部成员通话时间及通话次数:对于团伙中每一个成员n,其联系人列表为n1,…,nq,在τ时间节点上的通话时间:
<mrow>
<msub>
<mi>e</mi>
<mi>t</mi>
</msub>
<mo>=</mo>
<munder>
<mrow>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
</mrow>
<mi>n</mi>
</munder>
<mfrac>
<mrow>
<msubsup>
<mo>&Sigma;</mo>
<munder>
<mrow>
<mi>e</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mrow>
<mi>e</mi>
<mo>&NotEqual;</mo>
<mi>n</mi>
</mrow>
</munder>
<mi>p</mi>
</msubsup>
<msub>
<mi>t</mi>
<mrow>
<mi>&tau;</mi>
<mo>,</mo>
<mi>e</mi>
<mo>,</mo>
<mi>n</mi>
</mrow>
</msub>
</mrow>
<mrow>
<msubsup>
<mo>&Sigma;</mo>
<mrow>
<mi>q</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>Q</mi>
</msubsup>
<msub>
<mi>t</mi>
<mrow>
<mi>&tau;</mi>
<mo>,</mo>
<mi>q</mi>
<mo>,</mo>
<mi>n</mi>
</mrow>
</msub>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>4</mn>
<mo>-</mo>
<mn>4</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,n为团伙内部成员总人数,p为团伙外部成员人数;tτ,e,n为第e个团伙外部成员和团伙成员n在τ时间节点上的通话时间;为团伙成员与团伙外部成员在τ时间节点上的通话总时间;为团伙成员和其所有联系人在τ时间节点上的通话总时间;
团伙内部成员和团伙外部成员之间在τ时间节点上的通话次数:
<mrow>
<msub>
<mi>e</mi>
<mi>c</mi>
</msub>
<mo>=</mo>
<munder>
<mrow>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
</mrow>
<mi>n</mi>
</munder>
<mfrac>
<mrow>
<msubsup>
<mo>&Sigma;</mo>
<munder>
<mrow>
<mi>e</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mrow>
<mi>e</mi>
<mo>&NotEqual;</mo>
<mi>n</mi>
</mrow>
</munder>
<mi>p</mi>
</msubsup>
<msub>
<mi>c</mi>
<mrow>
<mi>&tau;</mi>
<mo>,</mo>
<mi>e</mi>
<mo>,</mo>
<mi>n</mi>
</mrow>
</msub>
</mrow>
<mrow>
<msubsup>
<mo>&Sigma;</mo>
<mrow>
<mi>q</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>Q</mi>
</msubsup>
<msub>
<mi>c</mi>
<mrow>
<mi>&tau;</mi>
<mo>,</mo>
<mi>q</mi>
<mo>,</mo>
<mi>n</mi>
</mrow>
</msub>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>4</mn>
<mo>-</mo>
<mn>5</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,cτ,e,n为第n个团伙成员和第e个团伙外部成员在τ时间节点上的通话次数,为团伙成员n和总数为p的团伙外部成员在τ时间节点上的通话总次数;为团伙成员n在τ时间节点上所有通话总次数;
综合分析团伙内部成员和团伙外部成员通话时间、通话次数记录:
eo=max[et+ω·ec] (4-6)
其中,ω为团伙内部成员和团伙外部成员在τ时间节点上通话次数的阈值;结合人口信息库和通讯数据库确定团伙外部异常成员名单和个人信息。
6.根据权利要求5所述的基于人口信息库与实名通话记录的团伙及团伙头目的识别,其特征在于:上述步骤5,结合视频信息的团伙头目检测和基于通话时间、通话次数的团伙及团伙头目和外部成员检测分析,确定团伙头目、团伙成员及团伙外部异常成员名单和个人信息,实现对整个团伙的精确识别:
p=α(gi+eo)+β(f+dt) (4-7)
α、β分别为基于通话记录的团伙检测、视频信息的团伙检测在团伙头目及成员检测中的权重系数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711029582.6A CN107992795B (zh) | 2017-10-27 | 2017-10-27 | 基于人口信息库与实名通话记录的团伙及其头目识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711029582.6A CN107992795B (zh) | 2017-10-27 | 2017-10-27 | 基于人口信息库与实名通话记录的团伙及其头目识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107992795A true CN107992795A (zh) | 2018-05-04 |
CN107992795B CN107992795B (zh) | 2021-08-31 |
Family
ID=62030109
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711029582.6A Active CN107992795B (zh) | 2017-10-27 | 2017-10-27 | 基于人口信息库与实名通话记录的团伙及其头目识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107992795B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109670470A (zh) * | 2018-12-27 | 2019-04-23 | 恒睿(重庆)人工智能技术研究院有限公司 | 行人关系识别方法、装置、系统及电子设备 |
CN109784525A (zh) * | 2018-11-13 | 2019-05-21 | 北京码牛科技有限公司 | 基于天空地一体化数据的预警方法及装置 |
CN110781742A (zh) * | 2019-09-23 | 2020-02-11 | 中国地质大学(武汉) | 一种人流智能识别出行管理系统 |
CN111310780A (zh) * | 2019-12-18 | 2020-06-19 | 北京明略软件系统有限公司 | 警务业务处理方法和装置 |
CN111414496A (zh) * | 2020-03-27 | 2020-07-14 | 腾讯科技(深圳)有限公司 | 基于人工智能的多媒体文件的检测方法和装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103514447A (zh) * | 2013-10-18 | 2014-01-15 | 陕西高新实业有限公司 | 基于智能手机人脸识别系统 |
CN104933726A (zh) * | 2015-07-02 | 2015-09-23 | 中国科学院上海高等研究院 | 一种基于时空信息约束的密集群体分割方法 |
US20160350610A1 (en) * | 2014-03-18 | 2016-12-01 | Samsung Electronics Co., Ltd. | User recognition method and device |
CN106203458A (zh) * | 2015-04-29 | 2016-12-07 | 杭州海康威视数字技术股份有限公司 | 人群视频分析方法及系统 |
CN106815566A (zh) * | 2016-12-29 | 2017-06-09 | 天津中科智能识别产业技术研究院有限公司 | 一种基于多任务卷积神经网络的人脸检索方法 |
CN106845330A (zh) * | 2016-11-17 | 2017-06-13 | 北京品恩科技股份有限公司 | 一种基于深度卷积神经网络的二维人脸识别模型的训练方法 |
-
2017
- 2017-10-27 CN CN201711029582.6A patent/CN107992795B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103514447A (zh) * | 2013-10-18 | 2014-01-15 | 陕西高新实业有限公司 | 基于智能手机人脸识别系统 |
US20160350610A1 (en) * | 2014-03-18 | 2016-12-01 | Samsung Electronics Co., Ltd. | User recognition method and device |
CN106203458A (zh) * | 2015-04-29 | 2016-12-07 | 杭州海康威视数字技术股份有限公司 | 人群视频分析方法及系统 |
CN104933726A (zh) * | 2015-07-02 | 2015-09-23 | 中国科学院上海高等研究院 | 一种基于时空信息约束的密集群体分割方法 |
CN106845330A (zh) * | 2016-11-17 | 2017-06-13 | 北京品恩科技股份有限公司 | 一种基于深度卷积神经网络的二维人脸识别模型的训练方法 |
CN106815566A (zh) * | 2016-12-29 | 2017-06-09 | 天津中科智能识别产业技术研究院有限公司 | 一种基于多任务卷积神经网络的人脸检索方法 |
Non-Patent Citations (2)
Title |
---|
佘玺: "通过查看电子信箱调查犯罪团伙头目", 《图形科普》 * |
章东平等: "基于结构化学习的小群体主导者检测方法", 《中国计量大学学报》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109784525A (zh) * | 2018-11-13 | 2019-05-21 | 北京码牛科技有限公司 | 基于天空地一体化数据的预警方法及装置 |
CN109670470A (zh) * | 2018-12-27 | 2019-04-23 | 恒睿(重庆)人工智能技术研究院有限公司 | 行人关系识别方法、装置、系统及电子设备 |
CN110781742A (zh) * | 2019-09-23 | 2020-02-11 | 中国地质大学(武汉) | 一种人流智能识别出行管理系统 |
CN111310780A (zh) * | 2019-12-18 | 2020-06-19 | 北京明略软件系统有限公司 | 警务业务处理方法和装置 |
CN111414496A (zh) * | 2020-03-27 | 2020-07-14 | 腾讯科技(深圳)有限公司 | 基于人工智能的多媒体文件的检测方法和装置 |
CN111414496B (zh) * | 2020-03-27 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 基于人工智能的多媒体文件的检测方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN107992795B (zh) | 2021-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107992795B (zh) | 基于人口信息库与实名通话记录的团伙及其头目识别方法 | |
Zou et al. | Occupancy detection in the office by analyzing surveillance videos and its application to building energy conservation | |
CN107657226B (zh) | 一种基于深度学习的人数估计方法 | |
CN107491749B (zh) | 一种人群场景中全局和局部异常行为检测方法 | |
CN114842028A (zh) | 一种跨视频目标跟踪方法、系统、电子设备以及存储介质 | |
Avgerinakis et al. | Recognition of activities of daily living for smart home environments | |
WO2019080881A1 (zh) | 行人流量漏斗生成方法及装置、存储介质、电子设备 | |
TWI441096B (zh) | 適用複雜場景的移動偵測方法 | |
CN107563349A (zh) | 一种基于VGGNet的人数估计方法 | |
Szwoch | Extraction of stable foreground image regions for unattended luggage detection | |
CN111353338B (zh) | 一种基于营业厅视频监控的能效改进方法 | |
CN109101944A (zh) | 一种识别向河道内抛投垃圾的实时视频监控算法 | |
Ratre et al. | Tucker tensor decomposition‐based tracking and Gaussian mixture model for anomaly localisation and detection in surveillance videos | |
Khosravi et al. | Crowd emotion prediction for human-vehicle interaction through modified transfer learning and fuzzy logic ranking | |
CN113808166B (zh) | 基于聚类差分和深度孪生卷积神经网络的单目标跟踪方法 | |
Aziz et al. | Automated solutions for crowd size estimation | |
CN114842553A (zh) | 基于残差收缩结构和非局部注意力的行为检测方法 | |
Yang et al. | A method of pedestrians counting based on deep learning | |
Inaba et al. | Conversational group detection based on social context using graph clustering algorithm | |
CN115880529A (zh) | 基于注意力和解耦知识蒸馏的鸟类细粒度分类方法及系统 | |
CN113793362B (zh) | 基于多镜头视频的行人轨迹提取方法和装置 | |
CN114038011A (zh) | 一种室内场景下人体异常行为的检测方法 | |
CN117953009A (zh) | 一种基于时空特征的群体性人员轨迹预测方法 | |
Khel et al. | Realtime Crowd Monitoring—Estimating Count, Speed and Direction of People Using Hybridized YOLOv4 | |
CN115147921B (zh) | 基于多域信息融合的重点区域目标异常行为检测与定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |