CN107992795B - 基于人口信息库与实名通话记录的团伙及其头目识别方法 - Google Patents

基于人口信息库与实名通话记录的团伙及其头目识别方法 Download PDF

Info

Publication number
CN107992795B
CN107992795B CN201711029582.6A CN201711029582A CN107992795B CN 107992795 B CN107992795 B CN 107992795B CN 201711029582 A CN201711029582 A CN 201711029582A CN 107992795 B CN107992795 B CN 107992795B
Authority
CN
China
Prior art keywords
group
time
members
head
small
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711029582.6A
Other languages
English (en)
Other versions
CN107992795A (zh
Inventor
章东平
井长兴
倪佩青
杨力
肖刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangxi Gosun Guard Security Service Technology Co ltd
Original Assignee
Jiangxi Gosun Guard Security Service Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangxi Gosun Guard Security Service Technology Co ltd filed Critical Jiangxi Gosun Guard Security Service Technology Co ltd
Priority to CN201711029582.6A priority Critical patent/CN107992795B/zh
Publication of CN107992795A publication Critical patent/CN107992795A/zh
Application granted granted Critical
Publication of CN107992795B publication Critical patent/CN107992795B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于人口信息库与实名通话记录的团伙及团伙头目的识别方法,该方法包括:(1)对监控中的人群场景分析,监控视频中移动的行人和静止人群进行小群体(团伙)分割,确定团伙群体目标;对团伙群体目标进行人脸检测;(2)分别通过确定团伙成员之间的跟随关系、确定人脸方向持续时间进行基于视频信息的团伙头目检测;(3)基于人口信息库,通过深度学习卷积神经网络算法实现人像比对,确定团伙成员身份信息;(4)结合通讯数据库,确定团伙内部实名通话时间及次数记录,以及团伙与外部异常通话时间、次数记录,实现基于通话记录的团伙头目检测;(5)综合分析视频信息及通话记录关系,实现犯罪团伙头目和成员的识别。

Description

基于人口信息库与实名通话记录的团伙及其头目识别方法
技术领域
本发明属于监控视频中人脸识别、移动通信数据挖掘、犯罪地理学技术领域,具体设计是对监控视频人脸识别和实名通话记录数据分析对团伙及团伙头目精确识别的方法。
背景技术
在当前城市犯罪的案情报告中,团伙性质作案的数目和比例呈现逐年递增趋势,犯罪形势严峻。团伙化犯罪其人数规模大、组织形式多样、危害程度高、团伙抓捕难度大等特点越来越多的构成了对社会公共安全、平安城市的较大威胁。对充分把握破案的主动权,完善犯罪团伙的分析需求不断上升。
现阶段,随着监控视频系统的普及,移动通信技术的发展,深度学习卷积神经网络算法在人脸识别等图像处理领域优秀计算能力,大量的监控视频卡口数据、行人轨迹、人口信息数据库、实名通讯数据库等大数据为及时快速的判断犯罪团伙规模、定位和识别犯罪团伙提供了技术契机。
发明内容
针对现有技术中存在的(1)理论性强,缺少实际场景的应用;(2)容易造成团伙犯罪的部分团伙成员漏网;(3)未考虑团伙成员频繁联系的潜在犯罪分子;(4)未充分利用人口信息库以及实名通话记录数据库等问题,本发明提出了一种针对实际应用监控视频场景下,运用人口信息数据库和通讯数据库等大数据,对团伙及团伙头目进行人脸识别。和现有技术相比,本发明根据人口信息库与深度学习卷积神经网络算法识别出来的团伙个人信息,结合通讯数据库的实名通话记录分析,确定团伙关联活动网络,进而实现对犯罪团伙及团伙头目团伙和外部异常成员的精确识别和打击。
基于人口信息库与实名通话记录的团伙及团伙头目的识别,其特征包括以下步骤:
步骤1:对监控中的人群场景分析,监控视频中移动的行人和静止人群进行小群体(团伙)分割,确定团伙群体目标;针对以上两种情况对监控视频的群体进行人脸检测。
步骤2:分别通过确定监控视频中移动团伙成员之间的跟随关系、监控视频中静止小群体团伙人脸方向持续时间,进行基于视频信息的团伙头目检测。
步骤3:基于人口信息库,通过深度学习卷积神经网络算法实现人像比对,确定团伙成员身份信息。
步骤4:结合通讯数据库,确定团伙内部实名通话时间及次数记录,以及团伙与外部异常通话时间、次数记录,实现基于通话记录的团伙头目检测。
步骤5:综合分析视频信息及通话记录关系,实现犯罪团伙头目和成员和团伙外部异常成员的识别。
进一步地,步骤1包括以下步骤:
步骤:1.1:运动小群体KLT特征点:采用Kanade-Lucas-Tomasi(KLT)算法,获得运动小群体特征点的位置,小群体特征点跟踪得到运动轨迹;t时刻对应的某一帧图像F(x,y,t),t+τ时刻对应的图像为G(x,y,t+τ),灰度值平方差和(sum of squared differences,SSD)最小化d:
d=∫∫w·[G(x+d)-F(x)]2dx (1-1)
其中,F(x)、G(x+d)代表相邻两帧的关系,w为权值。位移量
Figure BDA0001448510480000021
为每一帧的特征点在空间上的位移
步骤1.2:小群体前景提取:使用M个混合高斯模型表征图像的像素点的特征,在下一帧中更新混合高斯模型。通过对比前后两帧像素点和混合高斯模型的匹配度,匹配背景像素点和前景像素点。前景像素点为二进制掩膜,连通区域为Uk,帧图像F由小群体前景块构成的集合UF={U1,U2,U3,…,Uk},表示帧图像F包含的连通的小群体前景块。
步骤1.3:按照空间位置对静止小群体划分:通过连通的小群体前景块的边界位置,由其坐标值划分矩形区域,同时获得边界坐标。根据特征点是否在小群体前景块划分特征点位置,在空间上相近的个体划分为同一个小群体。
步骤1.4:按照时间顺序在运动小群体划分:特征点运动方向与x轴的夹角α
Figure BDA0001448510480000022
其中,
Figure BDA0001448510480000023
为特征点在x、y轴上的位移;将夹角12等分,确定12个方向,为Ddirc赋值:
Figure BDA0001448510480000031
通过计算帧与帧图像之间特征点的运动关系Ddirc,将小群体块UF再次划分为特征点集UF={V},其中V={C1,C2,C3,…,Ck}。此时运动方向一致的特征点被标记为一个群体即分割团伙目标。
步骤1.5:使用已训练的基于Haar-like特征的Adaboost人脸检测器模型对小群体(团伙)分割后的行人进行人脸检测。
进一步地,步骤2包括以下步骤:
步骤2.1:确定运动团伙成员之间的跟随关系:
Figure BDA0001448510480000032
其中,归一化因子
Figure BDA0001448510480000033
dab为团伙成员轨迹上的欧氏距离。
步骤2.2:确定静止团伙成员之间的头目-成员关系:
Figure BDA0001448510480000034
其中,n个人中第i个团伙成员面朝目标团伙头目j的最大时间为ti,j
进一步地,上述步骤3包括以下步骤:
步骤3.1:将检测到的小群体目标人脸图像和人口信息数据库中图像逐一输入到已训练好的GoogLenet卷积神经网络模型中,通过反向传播迭代产生更新后的卷积神经网络特征;
步骤3.2:获取GoogLenet卷积神经网络模型提取的4096维特征,输入到softmax损失层,其中网络中有Loss1、Loss2、Loss3共三个softmax损失函数,假设函数:
Figure BDA0001448510480000035
其中x(i)∈Rn+1,θ为训练好的模型参数,能够最小化代价函数:
Figure BDA0001448510480000041
步骤3.3:采用余弦距离度量方式对特征进行匹配,逐一计算目标图像和人口信息数据库中图像特征之间的余弦距离,将距离从小到大排序,选择排序靠前的一组图像作为识别结果,得到包括小群体团伙头目及团伙成员的个人信息。
进一步地,上述步骤4包括以下步骤:
步骤4.1:团伙内部实名通话时间及通话次数:根据人口信息库和基于CNN的人像比对获得团伙内部成员身份信息,根据通讯数据库,统计团伙内部头目和成员之间通话时间表示:
Figure BDA0001448510480000042
其中,ti,j为n个小群体团伙中第i个团伙成员和团伙头目j的通话时间,
Figure BDA0001448510480000043
为所有团伙成员和团伙头目通话总时间;
Figure BDA0001448510480000044
为团伙头目所有通话总时间。
团伙内部头目和成员之间通话次数,公式如下:
Figure BDA0001448510480000045
其中,n为群体团伙成员总人数;ci,j为第i个团伙成员和团伙头目j的通话次数,
Figure BDA0001448510480000046
为团伙成员和团伙头目通话总次数;
Figure BDA0001448510480000047
为团伙头目所有通话总次数。
综合分析团伙内部通话时间、通话次数记录:
gi=max[mt+μ·mc] (4-3)
其中,μ为团伙内部通话次数的阈值。
步骤4.2:团伙同外部成员通话时间及通话次数:对于团伙中每一个成员n,其联系人列表为n1,…,nq,在τ时间节点上的通话时间:
Figure BDA0001448510480000048
其中,n为团伙内部成员总人数,p为团伙外部成员人数;tτ,e,n为第e个团伙外部成员和团伙成员n在τ时间节点上的通话时间;
Figure BDA0001448510480000051
为团伙成员与团伙外部成员在τ时间节点上的通话总时间;
Figure BDA0001448510480000052
为团伙成员和其所有联系人在τ时间节点上的通话总时间。
团伙内部成员和团伙外部成员之间在τ时间节点上的通话次数:
Figure BDA0001448510480000053
其中,cτ,e,n为第n个团伙成员和第e个团伙外部成员在τ时间节点上的通话次数,
Figure BDA0001448510480000054
为团伙成员n和总数为p的团伙外部成员在τ时间节点上的通话总次数;
Figure BDA0001448510480000055
为团伙成员n在τ时间节点上所有通话总次数。
综合分析团伙内部成员和团伙外部成员通话时间、通话次数记录:
eo=max[et+ω·ec] (4-6)
其中,ω为团伙内部成员和团伙外部成员在τ时间节点上通话次数的阈值;结合人口信息库和通讯数据库确定团伙外部异常成员名单和个人信息。
进一步地,上述步骤5所述包括以下步骤:结合视频信息的团伙头目检测和基于通话时间、通话次数的团伙及团伙头目和外部成员检测分析,确定团伙头目、团伙成员及团伙外部异常成员名单和个人信息,实现对整个团伙的精确识别:
p=α(gi+eo)+β(f+dt) (4-7)。
附图说明
图1为本发明的流程图;
图2为小群体分割示意图;
图3为GoogLenet卷积神经网络结构图;
图4为团伙成员和团伙头目、团伙成员和团伙外部异常成员在τ时间节点上通话记录网络图。
具体实施方式
下面结合附图对本发明作进一步说明。
如图1-4所示,本发明的基于人口信息库与实名通话记录的团伙及团伙头目的识别方法,包括如下步骤:
步骤1:对监控中的人群场景分析,监控视频中移动的行人和静止人群进行小群体(团伙)分割,确定团伙群体目标;针对以上两种情况对监控视频的群体进行人脸检测。
子步骤如下:
步骤1.1:对监控视频中移动的行人进行提取运动小群体KLT特征点:采用Kanade-Lucas-Tomasi(KLT)算法,获得运动小群体特征点的位置,小群体特征点跟踪得到运动轨迹;t时刻对应的某一帧图像F(x,y,t),t+τ时刻对应的图像为G(x,y,t+τ),灰度值平方差和(sum of squared differences,SSD)最小化d:
d=∫∫w·[G(x+d)-F(x)]2dx (1-1)
其中,F(x)、G(x+d)代表相邻两帧的关系,w为权值。位移量
Figure BDA0001448510480000061
为每一帧的特征点在空间上的位移。
步骤1.2:根据群体团伙的时间和空间运动区域一致性和邻近性,通过时空信息约束算法,分别针对运动小群体(团伙)分割和静止小群体(团伙)分割确定团伙目标,通过构建混合高斯模型来确定前景点和背景点,确定连通斑块获得前景集合UF={U1,U2,U3,…,Uk}。目的是把前景集合从视频图像中分离出来。
使用M个混合高斯模型表征图像的像素点的特征,在下一帧中更新混合高斯模型。通过对比前后两帧像素点和混合高斯模型的匹配度,可以匹配为背景像素点,否则为前景像素点。前景像素点为二进制掩膜,连通区域为Uk,帧图像F由小群体前景块构成的集合UF={U1,U2,U3,…,Uk},表示帧图像F包含的连通的小群体前景块。
步骤1.3:按照空间位置对静止小群体划分,在空间位置上,将分离出来的所有前景聚类划分为小群体。通过连通的小群体前景块的边界位置,由其坐标值划分矩形区域,同时获得边界坐标。根据特征点是否在小群体前景块划分特征点位置,在空间上相近的个体划分为同一个小群体。
步骤1.4:按照时间顺序在运动小群体划分:特征点运动方向与x轴的夹角α:
Figure BDA0001448510480000071
其中,
Figure BDA0001448510480000072
为特征点在x、y轴上的位移;将夹角12等分,确定12个方向,为Ddirc赋值:
Figure BDA0001448510480000073
通过帧与帧之间的运动关系确定方向聚类划分小群体,进一步完成小群体分割。将小群体块UF再次划分为特征点集UF={V},其中V={C1,C2,C3,…,Ck}。此时运动方向一致的特征点被标记为一个群体即确定团伙目标。
步骤1.5:使用已训练的基于Haar-like特征的Adaboost人脸检测器模型对小群体(团伙)分割后的行人进行人脸检测。
步骤2.1:分析团伙运动轨迹和运动方向,采用时空滞后法确定团伙成员之间的跟随关系:
Figure BDA0001448510480000074
其中,归一化因子
Figure BDA0001448510480000075
dab为团伙成员轨迹上的欧氏距离。
步骤2.2:确定静止团伙成员之间的头目-成员关系:
Figure BDA0001448510480000076
其中,n个人中第i个团伙成员面朝目标团伙头目j的最大时间为ti,j
步骤3.1:将团伙头目及成员的识别问题转化为目标人群人口信息数据库检索问题,从而能够利用GoogLenet卷积神经网络强大的分类能力,将检测到的目标图像和人口信息数据库中图像逐一输入到已训练好的GoogLenet卷积神经网络模型中,通过反向传播迭代产生更新后的卷积神经网络特征。GoogLenet卷积神经网络是22层的深度卷积神经网络结构,分别包括inception结构分别为1×1,3×3,5×5的卷积核用来处理多姿态多尺度人脸识别的问题。
步骤3.2:获取隐藏层最后输出的4096维特征,输入到softmax层,其中网络中有Loss1、Loss2、Loss3共三个softmax损失函数,Loss1和Loss2加快了网络收敛速度,增加了特征多样性。假设函数:
Figure BDA0001448510480000081
其中x(i)∈Rn+1,θ为训练好的模型参数,能够最小化代价函数:
Figure BDA0001448510480000082
步骤3.3:采用余弦距离度量方式对特征进行匹配,逐一计算目标图像和人口信息数据库中图像特征之间的余弦距离,将距离从小到大排序,选择排序靠前的一组图像作为识别结果,得到小群体团伙头目及团伙成员的个人信息。
步骤4:结合通讯数据库,确定团伙内部实名通话时间及次数记录,以及团伙与外部异常通话时间、次数记录,实现基于通话记录的团伙头目检测,子步骤如下:
步骤4.1:团伙内部实名通话时间及通话次数:根据人口信息库和基于CNN的人像比对获得团伙内部成员身份信息,根据通讯数据库,统计团伙内部头目和成员之间通话时间表示:
Figure BDA0001448510480000083
其中,ti,j为n个小群体团伙中第i个团伙成员和团伙头目j的通话时间,
Figure BDA0001448510480000084
为所有团伙成员和团伙头目通话总时间;
Figure BDA0001448510480000085
为团伙头目所有通话总时间。
统计分析团伙内部头目和成员之间通话次数:
Figure BDA0001448510480000086
其中,n为群体团伙成员总人数;ci,j为第i个团伙成员和团伙头目j的通话次数,
Figure BDA0001448510480000087
为团伙成员和团伙头目通话总次数;
Figure BDA0001448510480000088
为团伙头目所有通话总次数。
综合分析团伙内部通话时间、通话次数记录:
gi=max[mt+μ·mc] (4-3)
其中,μ为团伙内部通话次数的阈值。
步骤4.2:团伙同外部成员通话时间及通话次数:对于团伙中每一个成员n,其联系人列表为n1,…,nq,在τ时间节点上的通话时间:
Figure BDA0001448510480000091
其中,n为团伙内部成员总人数,p为团伙外部成员人数;tτ,e,n为第e个团伙外部成员和团伙成员n在τ时间节点上的通话时间;
Figure BDA0001448510480000092
为团伙成员与团伙外部成员在τ时间节点上的通话总时间;
Figure BDA0001448510480000093
为团伙成员和其所有联系人在τ时间节点上的通话总时间。
团伙内部成员和团伙外部成员之间在τ时间节点上的通话次数:
Figure BDA0001448510480000094
其中,cτ,e,n为第n个团伙成员和第e个团伙外部成员在τ时间节点上的通话次数,
Figure BDA0001448510480000095
为团伙成员n和总数为p的团伙外部成员在τ时间节点上的通话总次数;
Figure BDA0001448510480000096
为团伙成员n在τ时间节点上所有通话总次数。
综合分析团伙内部成员和团伙外部成员通话时间、通话次数记录:
eo=max[et+ω·ec] (4-6)
其中,ω为团伙内部成员和团伙外部成员在τ时间节点上通话次数的阈值;结合人口信息库和通讯数据库确定团伙外部异常成员名单和个人信息。
步骤5.1:结合视频信息的团伙头目检测和基于通话时间、通话次数的团伙及团伙头目和外部成员检测分析,确定团伙头目、团伙成员及团伙外部异常成员名单和个人信息,实现对整个团伙的精确识别:
p=α(gi+eo)+β(f+dt) (4-7)
α、β分别为基于通话记录的团伙检测、视频信息的团伙检测在团伙头目及成员检测中的权重系数。

Claims (5)

1.基于人口信息库与实名通话记录的团伙及团伙头目的识别,其特征包括以下步骤:
步骤1:对监控中的人群场景分析,监控视频中移动的行人和静止人群进行小群体团伙分割,确定团伙群体目标;针对以上两种情况对监控视频的群体进行人脸检测;
步骤2:分别通过确定监控视频中移动团伙成员之间的跟随关系、监控视频中静止小群体团伙人脸方向持续时间,进行基于视频信息的团伙头目检测;
步骤3:基于人口信息库,通过深度学习卷积神经网络算法实现人像比对,确定团伙成员身份信息;
步骤4:结合通讯数据库,确定团伙实名通话时间及次数记录,以及团伙与外部异常通话时间、次数记录,实现基于通话记录的团伙头目检测;
步骤5:综合分析视频信息及通话记录关系,实现犯罪团伙头目和成员和团伙外部异常成员的识别;
上述步骤4中具体步骤如下:
步骤4.1:团伙实名通话时间及通话次数:根据人口信息库和基于CNN的人像比对获得团伙成员身份信息,根据通讯数据库,统计团伙头目和成员之间通话时间表示:
Figure FDA0003166592270000011
其中,ti,j为r个小群体团伙中第i个团伙成员和团伙头目j的通话时间,
Figure FDA0003166592270000012
为所有团伙成员和团伙头目通话总时间;
Figure FDA0003166592270000013
为团伙头目所有通话总时间;
团伙头目和成员之间通话次数,公式如下:
Figure FDA0003166592270000014
其中,n为团伙成员总人数;ci,j为第i个团伙成员和团伙头目j的通话次数,
Figure FDA0003166592270000015
为团伙成员和团伙头目通话总次数;
Figure FDA0003166592270000016
为团伙头目所有通话总次数;
综合分析团伙内部通话时间、通话次数记录:
gi=max[mt+μ·mc] (4-3)
其中,μ为团伙内部通话次数的阈值;
步骤4.2:团伙同外部成员通话时间及通话次数:对于团伙中每一个成员n,其联系人列表为n1,…,nq,在τ时间节点上的通话时间:
Figure FDA0003166592270000021
其中,n为团伙成员总人数,p为团伙外部成员人数;tτ,e,n为第e个团伙外部成员和团伙成员n在τ时间节点上的通话时间;
Figure FDA0003166592270000022
为团伙成员与团伙外部成员在τ时间节点上的通话总时间;
Figure FDA0003166592270000023
为团伙成员和其所有联系人在τ时间节点上的通话总时间;
团伙成员和团伙外部成员之间在τ时间节点上的通话次数:
Figure FDA0003166592270000024
其中,cτ,e,n为第n个团伙成员和第e个团伙外部成员在τ时间节点上的通话次数,
Figure FDA0003166592270000025
为团伙成员n和总数为p的团伙外部成员在τ时间节点上的通话总次数;
Figure FDA0003166592270000026
为团伙成员n在τ时间节点上所有通话总次数;
综合分析团伙成员和团伙外部成员通话时间、通话次数记录:
eo=max[et+ω·ec] (4-6)
其中,ω为团伙成员和团伙外部成员在τ时间节点上通话次数的阈值;结合人口信息库和通讯数据库确定团伙外部异常成员名单和个人信息。
2.根据权利要求1所述的基于人口信息库与实名通话记录的团伙及团伙头目的识别,其特征在于:上述步骤1中具体步骤如下:
步骤:1.1:运动小群体KLT特征点:采用Kanade-Lucas-Tomasi(KLT)算法,获得运动小群体特征点的位置,小群体特征点跟踪得到运动轨迹;t时刻对应的某一帧图像F(x,y,t),t+τ时刻对应的图像为G(x,y,t+τ),灰度值平方差和(sum of squared differences,SSD)最小化d:
d=∫∫w·[G(x+d)-F(x)]2dx (1-1)
其中,F(x)、G(x+d)代表相邻两帧的关系,w为权值;位移量
Figure FDA0003166592270000031
为每一帧的特征点在空间上的位移;
步骤1.2:小群体前景提取:使用M个混合高斯模型表征图像的像素点的特征,在下一帧中更新混合高斯模型;通过对比前后两帧像素点和混合高斯模型的匹配度,匹配背景像素点和前景像素点;前景像素点为二进制掩膜,连通区域为Uk,帧图像F由小群体前景块构成的集合UF={U1,U2,U3,…,Uk},表示帧图像F包含的连通的小群体前景块;
步骤1.3:按照空间位置对静止小群体划分:通过连通的小群体前景块的边界位置,由其坐标值划分矩形区域,同时获得边界坐标;根据特征点是否在小群体前景块划分特征点位置,在空间上相近的个体划分为同一个小群体;
步骤1.4:按照时间顺序在运动小群体划分:特征点运动方向与x轴的夹角α
Figure FDA0003166592270000032
其中,
Figure FDA0003166592270000033
为特征点在x、y轴上的位移;将夹角12等分,确定12个方向,为Ddirc赋值:
Figure FDA0003166592270000034
通过计算帧与帧图像之间特征点的运动关系Ddirc,将小群体块UF再次划分为特征点集UF={V},其中V={C1,C2,C3,…,Ck};此时运动方向一致的特征点被标记为一个群体即分割团伙目标;
步骤1.5:使用已训练的基于Haar-like特征的Adaboost人脸检测器模型对小群体团伙分割后的行人进行人脸检测。
3.根据权利要求1所述的基于人口信息库与实名通话记录的团伙及团伙头目的识别,其特征在于:上述步骤2中具体步骤如下:
步骤2.1:确定运动团伙成员之间的跟随关系:
Figure FDA0003166592270000041
其中,归一化因子
Figure FDA0003166592270000042
dab为团伙成员轨迹上的欧氏距离;
步骤2.2:确定静止团伙成员之间的头目-成员关系:
Figure FDA0003166592270000043
其中,n个人中第i个团伙成员面朝目标团伙头目j的最大时间为ti,j
4.根据权利要求1所述的基于人口信息库与实名通话记录的团伙及团伙头目的识别,其特征在于:上述步骤3中具体步骤如下:
步骤3.1:将检测到的小群体目标人脸图像和人口信息数据库中图像逐一输入到已训练好的GoogLenet卷积神经网络模型中,通过反向传播迭代产生更新后的卷积神经网络特征;
步骤3.2:获取GoogLenet卷积神经网络模型提取的4096维特征,输入到softmax损失层,其中网络中有Loss1、Loss2、Loss3共三个softmax损失函数,假设函数:
Figure FDA0003166592270000044
其中x(i)∈Rn+1,θ为训练好的模型参数,能够最小化代价函数:
Figure FDA0003166592270000045
步骤3.3:采用余弦距离度量方式对特征进行匹配,逐一计算目标图像和人口信息数据库中图像特征之间的余弦距离,将距离从小到大排序,选择排序靠前的一组图像作为识别结果,得到包括小群体团伙头目及团伙成员的个人信息。
5.根据权利要求3所述的基于人口信息库与实名通话记录的团伙及团伙头目的识别,其特征在于:上述步骤5,结合视频信息的团伙头目检测和基于通话时间、通话次数的团伙及团伙头目和外部成员检测分析,确定团伙头目、团伙成员及团伙外部异常成员名单和个人信息,实现对整个团伙的精确识别:
p=α(gi+eo)+β(f+dt) (4-7)
α、β分别为基于通话记录的团伙检测、视频信息的团伙检测在团伙头目及成员检测中的权重系数。
CN201711029582.6A 2017-10-27 2017-10-27 基于人口信息库与实名通话记录的团伙及其头目识别方法 Active CN107992795B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711029582.6A CN107992795B (zh) 2017-10-27 2017-10-27 基于人口信息库与实名通话记录的团伙及其头目识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711029582.6A CN107992795B (zh) 2017-10-27 2017-10-27 基于人口信息库与实名通话记录的团伙及其头目识别方法

Publications (2)

Publication Number Publication Date
CN107992795A CN107992795A (zh) 2018-05-04
CN107992795B true CN107992795B (zh) 2021-08-31

Family

ID=62030109

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711029582.6A Active CN107992795B (zh) 2017-10-27 2017-10-27 基于人口信息库与实名通话记录的团伙及其头目识别方法

Country Status (1)

Country Link
CN (1) CN107992795B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109784525A (zh) * 2018-11-13 2019-05-21 北京码牛科技有限公司 基于天空地一体化数据的预警方法及装置
CN109670470B (zh) * 2018-12-27 2020-12-01 恒睿(重庆)人工智能技术研究院有限公司 行人关系识别方法、装置、系统及电子设备
CN110781742B (zh) * 2019-09-23 2020-10-30 中国地质大学(武汉) 一种人流智能识别出行管理系统
CN111310780A (zh) * 2019-12-18 2020-06-19 北京明略软件系统有限公司 警务业务处理方法和装置
CN111414496B (zh) * 2020-03-27 2023-04-07 腾讯科技(深圳)有限公司 基于人工智能的多媒体文件的检测方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103514447A (zh) * 2013-10-18 2014-01-15 陕西高新实业有限公司 基于智能手机人脸识别系统
CN104933726A (zh) * 2015-07-02 2015-09-23 中国科学院上海高等研究院 一种基于时空信息约束的密集群体分割方法
CN106203458A (zh) * 2015-04-29 2016-12-07 杭州海康威视数字技术股份有限公司 人群视频分析方法及系统
CN106815566A (zh) * 2016-12-29 2017-06-09 天津中科智能识别产业技术研究院有限公司 一种基于多任务卷积神经网络的人脸检索方法
CN106845330A (zh) * 2016-11-17 2017-06-13 北京品恩科技股份有限公司 一种基于深度卷积神经网络的二维人脸识别模型的训练方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102222318B1 (ko) * 2014-03-18 2021-03-03 삼성전자주식회사 사용자 인식 방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103514447A (zh) * 2013-10-18 2014-01-15 陕西高新实业有限公司 基于智能手机人脸识别系统
CN106203458A (zh) * 2015-04-29 2016-12-07 杭州海康威视数字技术股份有限公司 人群视频分析方法及系统
CN104933726A (zh) * 2015-07-02 2015-09-23 中国科学院上海高等研究院 一种基于时空信息约束的密集群体分割方法
CN106845330A (zh) * 2016-11-17 2017-06-13 北京品恩科技股份有限公司 一种基于深度卷积神经网络的二维人脸识别模型的训练方法
CN106815566A (zh) * 2016-12-29 2017-06-09 天津中科智能识别产业技术研究院有限公司 一种基于多任务卷积神经网络的人脸检索方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于结构化学习的小群体主导者检测方法;章东平等;《中国计量大学学报》;20170331;第28卷(第1期);第57-59页 *
通过查看电子信箱调查犯罪团伙头目;佘玺;《图形科普》;20031231;第2页 *

Also Published As

Publication number Publication date
CN107992795A (zh) 2018-05-04

Similar Documents

Publication Publication Date Title
CN107992795B (zh) 基于人口信息库与实名通话记录的团伙及其头目识别方法
Zou et al. Occupancy detection in the office by analyzing surveillance videos and its application to building energy conservation
CN108416250B (zh) 人数统计方法及装置
CN107491749B (zh) 一种人群场景中全局和局部异常行为检测方法
CN114842028A (zh) 一种跨视频目标跟踪方法、系统、电子设备以及存储介质
Szwoch Extraction of stable foreground image regions for unattended luggage detection
TWI441096B (zh) 適用複雜場景的移動偵測方法
CN111353338B (zh) 一种基于营业厅视频监控的能效改进方法
CN109101944A (zh) 一种识别向河道内抛投垃圾的实时视频监控算法
Ratre et al. Tucker tensor decomposition‐based tracking and Gaussian mixture model for anomaly localisation and detection in surveillance videos
CN113808166B (zh) 基于聚类差分和深度孪生卷积神经网络的单目标跟踪方法
Aziz et al. Automated solutions for crowd size estimation
CN114842553A (zh) 基于残差收缩结构和非局部注意力的行为检测方法
Yang et al. A method of pedestrians counting based on deep learning
CN115690564A (zh) 基于Recursive BIFPN网络的室外火灾烟雾图像检测方法
Choe et al. Traffic analysis with low frame rate camera networks
CN115050044B (zh) 一种基于MLP-Mixer的跨模态行人重识别方法
CN115147921B (zh) 基于多域信息融合的重点区域目标异常行为检测与定位方法
CN117011774A (zh) 基于场景知识元的集群行为理解系统
Gad et al. Crowd density estimation using multiple features categories and multiple regression models
CN115359568A (zh) 行人智能体运动与应急疏散的仿真方法及计算机设备
CN114943873A (zh) 一种工地人员异常行为分类方法及装置
Cao et al. Robust crowd counting based on refined density map
Ukyo et al. Pedestrian tracking using 3d lidars–case for proximity scenario
Khel et al. Realtime Crowd Monitoring—Estimating Count, Speed and Direction of People Using Hybridized YOLOv4

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant