CN111695511B - 基于城市社区的对象管理方法、装置、可读介质及设备 - Google Patents
基于城市社区的对象管理方法、装置、可读介质及设备 Download PDFInfo
- Publication number
- CN111695511B CN111695511B CN202010536601.XA CN202010536601A CN111695511B CN 111695511 B CN111695511 B CN 111695511B CN 202010536601 A CN202010536601 A CN 202010536601A CN 111695511 B CN111695511 B CN 111695511B
- Authority
- CN
- China
- Prior art keywords
- track
- management
- tracks
- matched
- similarity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000007726 management method Methods 0.000 title claims abstract description 209
- 230000004927 fusion Effects 0.000 claims abstract description 49
- 230000008447 perception Effects 0.000 claims abstract description 21
- 230000003068 static effect Effects 0.000 claims abstract description 18
- 239000013598 vector Substances 0.000 claims description 36
- 238000004891 communication Methods 0.000 claims description 30
- 238000000034 method Methods 0.000 claims description 26
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 6
- 230000008520 organization Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 description 12
- 239000000523 sample Substances 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000006399 behavior Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000002068 genetic effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/16—Real estate
- G06Q50/163—Real estate management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Tourism & Hospitality (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于城市社区的对象管理方法,包括:获取管理对象在管理区域中的关联轨迹;对待匹配轨迹进行匹配,得到匹配轨迹;对所述匹配轨迹和所述关联轨迹进行融合,得到融合轨迹;基于所述融合轨迹确定不同管理对象间的关系。本发明通过多维的风险感知数据例如动态风险感知数据,静态风险感知数据进行关联,提供了融合轨迹的密度和精度。通过确定管理对象的同行人员,减少了应急管理的风险。
Description
技术领域
本发明属于安防技术领域,具体涉及一种基于城市社区的对象管理方法、装置、机器可读介质及设备。
背景技术
社区是城市的基本单元,人员流动性高、密度大,生活系统分布密集,应急管理工作难度大,面对各类社会安全风险时表现出高脆弱性,因此,针对社会安全的风险防范是社区安全治理的重要环节。
现有的社会安全风险监测系统仍有以下不足:
受制于采集机制,单维的风险感知数据难以完整、清晰地刻画人的轨迹,如:摄像机在光照和角度不理想时难以抓拍到清晰的人脸;手机探针和车辆GPS信息难以关联人员信息。已有的社会安全风险监测系统对不同数据源之间的融合多基于信息系统中存储的关联信息(如:身份证与车牌号、身份证与手机号、身份证与房屋号),但上述关联信息难以及时同步中的外来人口流动、一人多手机、更换手机、更换住房、车辆非车主驾驶等情况,导致仅通过上述关联信息获取的融合轨迹的密度和精度不足;
特定人员以及与特定人员存在关联的人员极有可能诱发社会安全风险,而的应急管理力量出现在上述风险源附近时则会降低这种风险,已有的社会安全风险监测系统大多仅关注特定人口库中已存在的人员,忽视了经常与特定人员同行的非特定人员和的应急管理角色对风险的增加和削弱作用。
发明内容
鉴于以上所述现有技术的缺点,本发明的目的在于提供一种基于城市社区的对象管理方法、装置、机器可读介质及设备,用于解决现有技术存在的问题。
为实现上述目的及其他相关目的,本发明提供一种基于城市社区的对象管理方法,包括:
获取管理对象在管理区域中的关联轨迹;
对待匹配轨迹进行匹配,得到匹配轨迹;
对所述匹配轨迹和所述关联轨迹进行融合,得到融合轨迹;
基于所述融合轨迹确定不同管理对象间的关系。
可选地,获取所述管理对象在管理区域中的关联轨迹,包括关联已知关联关系的动态风险数据和静态风险数据,得到关联轨迹。
可选地,所述动态风险数据包括人脸抓拍数据、通信端感知数据、车辆卡口抓拍数据。
可选地,所述静态风险数据包括身份信息、通信端唯一标识符、车辆信息。
可选地,所述未知身份的轨迹包括多种类型的轨迹。
可选地,所述多种类型的轨迹包括未知身份的通信端轨迹、未知身份的车辆轨迹、人脸/ 人体轨迹。
可选地,对待匹配轨迹进行匹配,包括:
获取待匹配轨迹间的相似度;
根据所述相似度对所述待匹配轨迹进行匹配。
可选地,当所述相似度超过相似度阈值,则认为匹配成功。
可选地,获取设定时间段内待匹配轨迹间的多个相似度;对多个所述相似度进行加和得到累积相似度;根据所述累积相似度对所述待匹配轨迹进行匹配。
可选地,基于词向量的轨迹相似度计算方法获取待匹配轨迹间的相似度。
可选地,所述基于词向量的轨迹相似度计算方法获取待匹配轨迹间的相似度,包括:
将待匹配轨迹转换成词向量;
获取表示待匹配轨迹的词向量间的相似度以得到待匹配轨迹的相似度。
可选地,通过word2vec、VAE、WAE、Auto-Encoders或SEQ-GAN将所述待匹配轨迹转换成词向量。
可选地,在获取待匹配轨迹间的相似度前还包括:
对所述管理区域进行网格化,得到区域网格;
将所述待匹配轨迹映射至所述区域网格,得到轨迹网格;
对所述轨迹网格进行聚类,得到聚类轨迹;
对所述聚类轨迹按设定时间间隔进行切分,得到多个聚类子轨迹;
对所述多个聚类子轨迹中的轨迹点进行选择,得到待匹配轨迹。
可选地,选择所述多个聚类子轨迹中的轨迹点的方法,包括:
获取在所述时间段内感知到所述管理对象的感知设备的数量以及感知到所述管理对象的时间;若在所述时间间隔内有多个感知设备先后感知到所述管理对象,则选择最后感知到所述管理对象的感知设备确定的轨迹点作为待匹配轨迹的轨迹点;若所有感知设备在同一时间点感知到所述管理对象,则随机选择一个感知设备确定的轨迹点作为待匹配轨迹的轨迹点。
可选地,基于所述融合轨迹确定不同管理对象间的关系,包括:
获取包含若干条融合轨迹的信息的融合轨迹表;
对所述融合轨迹表中不同管理对象的融合轨迹作自连接,得到交点表;
基于所述交点表确定不同管理对象间的关系。
可选地,基于所述交点表确定不同管理对象间的关系,包括:
获取所述交点表中两个管理对象总交点数、总地点数、每日交点数、每日地点数和交点天数;
若两个管理对象的总交点数、交点天数超过设定阈值,则认为两个管理对象是同组织关系。
若两个管理对象的总交点数、总地点数、某天最大交点和最大地点数超过阈值,则认为两个管理对象具有密切同行关系。
为实现上述目的及其他相关目的,本发明提供一种基于城市社区的对象管理装置,包括:
关联轨迹获取模块,用于获取管理对象在管理区域中的关联轨迹;
轨迹匹配模块,用于对待匹配轨迹进行匹配,得到匹配轨迹;
轨迹融合模块,用于对所述匹配轨迹和所述关联轨迹进行融合,得到融合轨迹;
关系确定模块,基于所述融合轨迹确定不同管理对象间的关系。
可选地,获取所述管理对象在管理区域中的关联轨迹,包括关联已知关联关系的动态风险数据和静态风险数据,得到关联轨迹。
可选地,所述动态风险数据包括人脸抓拍数据、通信端感知数据、车辆卡口抓拍数据。
可选地,所述静态风险数据包括身份信息、通信端唯一标识符、车辆信息。
可选地,所述未知身份的轨迹包括多种类型的轨迹。
可选地,所述多种类型的轨迹包括未知身份的通信端轨迹、未知身份的车辆轨迹、人脸/ 人体轨迹。
可选地,所述轨迹匹配模块包括:
相似度获取子模块,用于获取待匹配轨迹间的相似度;
匹配子模块,用于根据所述相似度对所述待匹配轨迹进行匹配。
可选地,当所述相似度超过相似度阈值,则认为匹配成功。
可选地,获取设定时间段内待匹配轨迹间的多个相似度;对多个所述相似度进行加和得到累积相似度;根据所述累积相似度对所述待匹配轨迹进行匹配。
可选地,基于词向量的轨迹相似度计算方法获取待匹配轨迹间的相似度。
可选地,所述基于词向量的轨迹相似度计算方法获取待匹配轨迹间的相似度,包括:
将待匹配轨迹转换成词向量;
获取表示待匹配轨迹的词向量间的相似度以得到待匹配轨迹的相似度。
可选地,通过word2vec、VAE、WAE、Auto-Encoders或SEQ-GAN将所述待匹配轨迹转换成词向量。
可选地,在获取待匹配轨迹间的相似度前还包括:
对所述管理区域进行网格化,得到区域网格;
将所述待匹配轨迹映射至所述区域网格,得到轨迹网格;
对所述轨迹网格进行聚类,得到聚类轨迹;
对所述聚类轨迹按设定时间间隔进行切分,得到多个聚类子轨迹;
对所述多个聚类子轨迹中的轨迹点进行选择,得到待匹配轨迹。
可选地,选择所述多个聚类子轨迹中的轨迹点的方法,包括:
获取在所述时间段内感知到所述管理对象的感知设备的数量以及感知到所述管理对象的时间;若在所述时间间隔内有多个感知设备先后感知到所述管理对象,则选择最后感知到所述管理对象的感知设备确定的轨迹点作为待匹配轨迹的轨迹点;若所有感知设备在同一时间点感知到所述管理对象,则随机选择一个感知设备确定的轨迹点作为待匹配轨迹的轨迹点。
可选地,所述关系确定模块包括:
融合轨迹表获取子模块,用于获取包含若干条融合轨迹的信息的融合轨迹表;
连接子模块,用于对所述融合轨迹表中不同管理对象的融合轨迹作自连接,得到交点表;
关系确定子模块,用于基于所述交点表确定不同管理对象间的关系。
可选地,基于所述交点表确定不同管理对象间的关系,包括:
获取所述交点表中两个管理对象总交点数、总地点数、每日交点数、每日地点数和交点天数;
若两个管理对象的总交点数、交点天数超过设定阈值,则认为两个管理对象是同组织关系。
若两个管理对象的总交点数、总地点数、某天最大交点和最大地点数超过阈值,则认为两个管理对象具有密切同行关系。
为实现上述目的及其他相关目的,本发明提供一种设备,包括:
一个或多个处理器;和
其上存储有指令的一个或多个机器可读介质,当所述一个或多个处理器执行时,使得所述设备执行前述的一个或多个所述的方法。
为实现上述目的及其他相关目的,本发明提供一个或多个机器可读介质,其上存储有指令,当由一个或多个处理器执行时,使得设备执行前述的一个或多个所述的方法。
如上所述,本发明提供的一种基于城市社区的对象管理方法、装置、机器可读介质及设备,具有以下有益效果:
本发明提供一种基于城市社区的对象管理方法,包括:获取管理对象在管理区域中的关联轨迹;对待匹配轨迹进行匹配,得到匹配轨迹;对所述匹配轨迹和所述关联轨迹进行融合,得到融合轨迹;基于所述融合轨迹确定不同管理对象间的关系。本发明通过多维的风险感知数据例如动态风险感知数据,静态风险感知数据进行关联,提供了融合轨迹的密度和精度。通过确定管理对象的同行人员,减少了应急管理的风险。
附图说明
图1为一实施例提供的一种基于城市社区的对象管理方法的流程图;
图2为一实施例提供的在获取待匹配轨迹间的相似度前对数据处理的流程图;
图3为一实施例提供的基于所述融合轨迹确定不同管理对象间的关系的流程图;
图4为一实施例提供的融合轨迹表与交点表的关系图;
图5为一实施例提供的一种基于城市社区的对象管理装置的硬件结构示意图;
图6为一实施例提供的终端设备的硬件结构示意图;
图7为另一实施例提供的终端设备的硬件结构示意图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
如图1所示,本实施例提供一种基于城市社区的对象管理方法,包括:
S11获取管理对象在管理区域中的关联轨迹;
其中,所述管理区域包括社区、公共区域。
S12对待匹配轨迹进行匹配,得到匹配轨迹;
S13对所述匹配轨迹和所述关联轨迹进行融合,得到融合轨迹;
S14基于所述融合轨迹确定不同管理对象间的关系。
在一实施例中,获取所述管理对象在管理区域中的关联轨迹,包括:关联已知关联关系的动态风险数据和静态风险数据,得到关联轨迹。其中,所述动态风险数据包括人脸抓拍数据、通信端感知数据、车辆卡口抓拍数据。所述静态风险数据包括身份信息、通信端唯一标识符、车辆信息;其中,所述待匹配轨迹包括多种类型的轨迹,所述多种类型的轨迹包括未知身份的通信端轨迹、未知身份的车辆轨迹、人脸/人体轨迹。
需要说明的是,在本实施例中,通信端可以是手机,其具有唯一标识符,如IMSI(国际移动用户识别码,International Mobile Subscriber Identity)、MAC地址,后文中都用手机进行详细描述。可以理解的是,通过人的身份信息(主要是身份证号)可以确定人脸数据,例如人脸图片,通过人脸数据可以确定人脸/人体轨迹,通过人的身份信息还可以确定与人的身份信息相对应的手机信息,通过手机信息则可以得到手机的轨迹;通过人的身份信息还可以确定与身份信息相对应的车辆信息(主要是车牌信息),通过车辆信息则可以得到车辆的轨迹。
其中,所述人脸/人体轨迹可以通过安装在人脸卡口和电梯等位置的摄像机抓拍的数据来确定。所述手机的轨迹可以通过手机探针感知的数据来确定。手机探针用于采集MAC地址或 IMSI,MAC地址或IMSI就可以确定手机的位置,从而得到手机的轨迹。所述车辆轨迹可以通过安装在车辆卡口的摄像机抓拍的数据来确定。需要注意的是,手机探针应安装在摄像机附近50m以内,以及摄像机抓拍条件不佳的位置,如室内和光照条件较差的场所。
关联已知关联关系的动态风险数据和静态风险数据,即通过静态风险数据,人的身份信息、手机信息、车辆信息,可以得到动态风险数据,即人脸/人体轨迹、手机轨迹、车辆轨迹。则将人脸/人体轨迹、手机轨迹、车辆轨迹关联在一起组成某个管理对象的关联轨迹。所述的关联轨迹即是将人脸/人体轨迹、手机轨迹、车辆轨迹是同一个标识标记。例如,轨迹A、轨迹B、轨迹C都用标识1标记,则可以认为这三个轨迹都属于同一个管理对象的轨迹。
在一实施例中,所述的待匹配轨迹主要是指未知身份的手机轨迹和未知身份的车辆轨迹。未知身份的手机是指不能确定手机的拥有者,而未知身份的车辆指的是不能确定驾驶车辆的人是否是车辆的拥有者。
由于待匹配轨迹包括多种类型的轨迹,对待匹配轨迹进行匹配主要是指对未知身份的车辆轨迹和未知身份的手机轨迹进行匹配、对未知身份的手机轨迹与人脸/人体轨迹进行匹配。
具体地,例如,当摄像机抓拍某一管理对象时,可通过人脸识别可以确定该管理对象的身份,同时手机探针抓拍到该管理对象的手机的IMSI或MAC地址,则认为该管理对象拥有该手机。基于此,该手机的轨迹可以和该管理对象的人脸/人体轨迹进行匹配,若匹配成功,可以认为该手机的轨迹与该管理对象的轨迹属于同一个管理对象的轨迹。通过人脸识别则可以识别该管理对象的身份,识别该管理对象的身份后就可以将该手机轨迹关联到人的轨迹。同样地,可以将一管理对象的手机轨迹与车辆的轨迹进行匹配,若匹配成功,则认为该手机轨迹与该车辆轨迹属于同一个管理对象的轨迹,通过识别车牌号可以确定相应的管理对象的身份,识别该管理对象的身份后就可以将该手机轨迹或车辆轨迹关联到人的轨迹。
在一实施例中,对待匹配轨迹进行匹配,包括:
获取待匹配轨迹间的相似度;
根据所述相似度对所述待匹配轨迹进行匹配。
其中,轨迹间的相似度可以通过两轨迹间的距离来体现,而轨迹间的距离可以是余弦距离。
在一实施例中,基于词向量的轨迹相似度计算方法获取待匹配轨迹间的相似度,具体包括:
将待匹配轨迹转换成词向量;
获取表示待匹配轨迹的词向量间的相似度以得到待匹配轨迹的相似度。
其中,可以通过word2vec、VAE(变分自编码器)、WAE(Wasserstein)、Auto-Encoders (自编码器)或SEQ-GAN(Sequence Generative Adversarial Nets)将所述待匹配轨迹转换成词向量。
例如,基于谷歌开源的word2vec模型,将一天内的轨迹处理成词向量,如:M条轨迹的词向量轨迹数据表示为如下的M*480的矩阵:
其中,矩阵每一行表示一天内的一条轨迹的词向量轨迹数据。
计算两轨迹间的相似度,即计算两词向量间的余弦距离。当所述相似度超过相似度阈值,则认为匹配成功。
在上述实施例中,获取的是一天内待匹配轨迹的相似度。一般来说,可以获取设定时间段内(比如7天)所述待匹配轨迹的相似度;对多个所述相似度进行加和得到累积相似度;根据所述累积相似度得到匹配轨迹。则当累积相似度超过设定阈值时,认为匹配成功,得到匹配轨迹。
在一实施例中,对所述匹配轨迹和所述关联轨迹进行融合,得到融合轨迹。其中对两个轨迹融合的过程也就是采用同一个标记对两个轨迹进行标识,例如采用标识1来对多个轨迹进行标识,也就是说前述的轨迹A、轨迹B、轨迹C与匹配轨迹都可以认为是同一个管理对象的轨迹。
在一实施例中,为了提高计算的精度,如图2所示,在获取待匹配轨迹间的相似度前还包括:
S21对所述管理区域进行网格化,得到区域网格;
S22将所述待匹配轨迹映射至所述区域网格,得到轨迹网格;
S23对所述轨迹网格进行聚类,得到聚类轨迹;
S24对所述聚类轨迹按设定时间间隔进行切分,得到多个聚类子轨迹;
S25对所述多个聚类子轨迹中的轨迹点进行选择,得到待匹配轨迹。
其中,在步骤S21中,对所述管理区域进行网格化,具体为:每个网格的大小为50米*50 米,计算公式如下:
式中,xi和yi分别表示第i个感知设备的网格横坐标和网格纵坐标,x_lng_i和x_lat_i分别表示第i个感知设备的经度和纬度,x_lng_0和x_lat_0分别表示管理区域最左下角的经纬度, x_lng_final和x_lat_final分别表示管理区域最右上角的经纬度,DISTANCE_LNG和 DISTANCE_LAT分别表示每一个网格的经度和纬度的距离,NUM_LAT和NUM_LNG分别表示管理区域横坐标和纵坐标被划分的网格数量,至此,得到了区域网格。
在步骤S23中,根据划分后的区域网格进行密度聚类(距离度量采用曼哈顿距离,最小样本数为2,领域距离为2),并用唯一聚类标识号来表示每个簇和离群点。
在步骤S24中,可以每3分钟作为时间间隔,对聚类轨迹进行划分,得到多个聚类子轨迹。例如,一个小时的轨迹可以被划分为20个子轨迹。
在步骤S25中,对所述多个聚类子轨迹中的轨迹点进行选择,得到待匹配轨迹,具体包括:获取在所述时间段内感知到所述管理对象的感知设备的数量以及感知到所述管理对象的时间;若在所述时间间隔内有多个感知设备先后感知到所述管理对象,则选择最后感知到所述管理对象的感知设备确定的轨迹点作为待融合轨迹的轨迹点;若所有感知设备在同一时间点感知到所述管理对象,则随机选择一个感知设备确定的轨迹点作为待融合轨迹的轨迹点。例如,3分钟内被多个感知设备感知到时,则选择最后感知到所述管理对象的感知设备确定的轨迹点作为待融合轨迹的轨迹点,若时间相同,则随机选取一个设备,每个设备采用步骤S30中的唯一聚类标识号表示。在选择出轨迹点后,就可以利用这些轨迹点得到待匹配轨迹。
在一实施例中,如图3所示,基于所述融合轨迹确定不同管理对象间的关系,包括:
S31获取包含若干条融合轨迹的信息的融合轨迹表;
S32对所述融合轨迹表中不同管理对象的融合轨迹作自连接,得到交点表;
S33基于所述交点表确定不同管理对象间的关系。
具体地,基于所述交点表确定不同管理对象间的关系,包括:
获取所述交点表中两个管理对象总交点数、总地点数、每日交点数、每日地点数和交点天数;
若两个管理对象的总交点数、交点天数超过设定阈值,则认为两个管理对象是同组织关系。
若两个管理对象的总交点数、总地点数、某天最大交点和最大地点数超过阈值,则认为两个管理对象具有密切同行行为。
其中,所述的交点为同一个时间戳级别内,两个管理对象距离在一定范围内,则计一个交点;所述的地点是出现在同一个网格或被同一个感知设备所感知的点。
其中,所述融合轨迹表如表1所示,交点如表2所示,表1与表2的关系如图4所示。
表1
身份唯一标识号 | 分钟级时间戳 | 经度网格 | 纬度网格 |
A | 1 | 1 | 1 |
A | 2 | 2 | 2 |
B | 1 | 1 | 1 |
B | 2 | 2 | 2 |
B | 3 | 3 | 3 |
表2
匹配对 | 分钟级时间戳 | 经度网格 | 纬度网格 |
A-B | 1 | 1 | 1 |
A-B | 2 | 2 | 2 |
在一实施例中,判断两个管理对象的关系可以将融合轨迹表中的车辆轨迹删除。
如图5所示,本实施例提供一种基于城市社区的对象管理装置,包括:
关联轨迹获取模块51,用于获取管理对象在管理区域中的关联轨迹;
其中,所述管理区域包括社区、公共区域。
轨迹匹配模块52,用于对待匹配轨迹进行匹配,得到匹配轨迹;
轨迹融合模块53,用于对所述匹配轨迹和所述关联轨迹进行融合,得到融合轨迹;
关系确定模块54,基于所述融合轨迹确定不同管理对象间的关系。
在一实施例中,获取所述管理对象在管理区域中的关联轨迹,包括:关联已知关联关系的动态风险数据和静态风险数据,得到关联轨迹。其中,所述动态风险数据包括人脸抓拍数据、通信端感知数据、车辆卡口抓拍数据。所述静态风险数据包括身份信息、通信端唯一标识符、车辆信息;其中,所述待匹配轨迹包括多种类型的轨迹,所述多种类型的轨迹包括未知身份的通信端轨迹、未知身份的车辆轨迹、人脸/人体轨迹。
需要说明的是,在本实施例中,通信端可以是手机,其具有唯一标识符,如IMSI(国际移动用户识别码,International Mobile Subscriber Identity)、MAC地址,后文中都用手机进行详细描述。可以理解的是,通过人的身份信息(主要是身份证号)可以确定人脸数据,例如人脸图片,通过人脸数据可以确定人脸/人体轨迹,通过人的身份信息还可以确定与人的身份信息相对应的手机信息,通过手机信息则可以得到手机的轨迹;通过人的身份信息还可以确定与身份信息相对应的车辆信息(主要是车牌信息),通过车辆信息则可以得到车辆的轨迹。
其中,所述人脸/人体轨迹可以通过安装在人脸卡口和电梯等位置的摄像机抓拍的数据来确定。所述手机的轨迹可以通过手机探针感知的数据来确定。手机探针用于采集MAC地址或 IMSI,MAC地址或IMSI就可以确定手机的位置,从而得到手机的轨迹。所述车辆轨迹可以通过安装在车辆卡口的摄像机抓拍的数据来确定。需要注意的是,手机探针应安装在摄像机附近50m以内,以及摄像机抓拍条件不佳的位置,如室内和光照条件较差的场所。
关联已知关联关系的动态风险数据和静态风险数据,即通过静态风险数据,人的身份信息、手机信息、车辆信息,可以得到动态风险数据,即人脸/人体轨迹、手机轨迹、车辆轨迹。则将人脸/人体轨迹、手机轨迹、车辆轨迹关联在一起组成某个管理对象的关联轨迹。所述的关联轨迹即是将人脸/人体轨迹、手机轨迹、车辆轨迹是同一个标识标记。例如,轨迹A、轨迹B、轨迹C都用标识1标记,则可以认为这三个轨迹都属于同一个管理对象的轨迹。
在一实施例中,所述的待匹配轨迹主要是指未知身份的手机轨迹和未知身份的车辆轨迹。未知身份的手机是指不能确定手机的拥有者,而未知身份的车辆指的是不能确定驾驶车辆的人是否是车辆的拥有者。
由于待匹配轨迹包括多种类型的轨迹,对待匹配轨迹进行匹配主要是指对未知身份的车辆轨迹和未知身份的手机轨迹进行匹配、对未知身份的手机轨迹与人脸/人体轨迹进行匹配。
具体地,例如,当摄像机抓拍某一管理对象时,可通过人脸识别可以确定该管理对象的身份,同时手机探针抓拍到该管理对象的手机的IMSI或MAC地址,则认为该管理对象拥有该手机。基于此,该手机的轨迹可以和该管理对象的人脸/人体轨迹进行匹配,若匹配成功,可以认为该手机的轨迹与该管理对象的轨迹属于同一个管理对象的轨迹。通过人脸识别则可以识别该管理对象的身份,识别该管理对象的身份后就可以将该手机轨迹关联到人的轨迹。同样地,可以将一管理对象的手机轨迹与车辆的轨迹进行匹配,若匹配成功,则认为该手机轨迹与该车辆轨迹属于同一个管理对象的轨迹,通过识别车牌号可以确定相应的管理对象的身份,识别该管理对象的身份后就可以将该手机轨迹或车辆轨迹关联到人的轨迹。
在一实施例中,所述轨迹匹配模块包括:
相似度获取子模块,用于获取待匹配轨迹间的相似度;
匹配子模块,用于根据所述相似度对所述待匹配轨迹进行匹配。
其中,轨迹间的相似度可以通过两轨迹间的距离来体现,而轨迹间的距离可以是余弦距离。
在一实施例中,基于词向量的轨迹相似度计算方法获取待匹配轨迹间的相似度,具体包括:
将待匹配轨迹转换成词向量;
获取表示待匹配轨迹的词向量间的相似度以得到待匹配轨迹的相似度。
其中,可以通过word2vec、VAE(变分自编码器)、WAE(Wasserstein)、Auto-Encoders (自编码器)或SEQ-GAN(Sequence Generative Adversarial Nets)将所述待匹配轨迹转换成词向量。
例如,基于谷歌开源的word2vec模型,将一天内的轨迹处理成词向量,如:M条轨迹的词向量轨迹数据表示为如下的M*480的矩阵:
其中,矩阵每一行表示一天内的一条轨迹的词向量轨迹数据。
计算两轨迹间的相似度,即计算两词向量间的余弦距离。当所述相似度超过相似度阈值,则认为匹配成功。
在上述实施例中,获取的是一天内待匹配轨迹的相似度。一般来说,可以获取设定时间段内(比如7天)所述待匹配轨迹的相似度;对多个所述相似度进行加和得到累积相似度;根据所述累积相似度得到匹配轨迹。则当累积相似度超过设定阈值时,认为匹配成功,得到匹配轨迹。
在一实施例中,对所述匹配轨迹和所述关联轨迹进行融合,得到融合轨迹。其中对两个轨迹融合的过程也就是采用同一个标记对两个轨迹进行标识,例如采用标识1来对多个轨迹进行标识,也就是说前述的轨迹A、轨迹B、轨迹C与匹配轨迹都可以认为是同一个管理对象的轨迹。
在一实施例中,为了提高计算的精度,如图2所示,在获取待匹配轨迹间的相似度前还包括:
S21对所述管理区域进行网格化,得到区域网格;
S22将所述待匹配轨迹映射至所述区域网格,得到轨迹网格;
S23对所述轨迹网格进行聚类,得到聚类轨迹;
S24对所述聚类轨迹按设定时间间隔进行切分,得到多个聚类子轨迹;
S25对所述多个聚类子轨迹中的轨迹点进行选择,得到待匹配轨迹。
其中,在步骤S21中,对所述管理区域进行网格化,具体为:每个网格的大小为50米*50 米,计算公式如下:
式中,xi和yi分别表示第i个感知设备的网格横坐标和网格纵坐标,x_lng_i和x_lat_i分别表示第i个感知设备的经度和纬度,x_lng_0和x_lat_0分别表示管理区域最左下角的经纬度,x_lng_final和x_lat_final分别表示管理区域最右上角的经纬度,DISTANCE_LNG和 DISTANCE_LAT分别表示每一个网格的经度和纬度的距离,NUM_LAT和NUM_LNG分别表示管理区域横坐标和纵坐标被划分的网格数量,至此,得到了区域网格。在步骤S23中,根据划分后的区域网格进行密度聚类(距离度量采用曼哈顿距离,最小样本数为2,领域距离为2),并用唯一聚类标识号来表示每个簇和离群点。
在步骤S24中,可以每3分钟作为时间间隔,对聚类轨迹进行划分,得到多个聚类子轨迹。例如,一个小时的轨迹可以被划分为20个子轨迹。
在步骤S25中,对所述多个聚类子轨迹中的轨迹点进行选择,得到待匹配轨迹,具体包括:获取在所述时间段内感知到所述管理对象的感知设备的数量以及感知到所述管理对象的时间;若在所述时间间隔内有多个感知设备先后感知到所述管理对象,则选择最后感知到所述管理对象的感知设备确定的轨迹点作为待融合轨迹的轨迹点;若所有感知设备在同一时间点感知到所述管理对象,则随机选择一个感知设备确定的轨迹点作为待融合轨迹的轨迹点。例如,3分钟内被多个感知设备感知到时,则选择最后感知到所述管理对象的感知设备确定的轨迹点作为待融合轨迹的轨迹点,若时间相同,则随机选取一个设备,每个设备采用步骤S30中的唯一聚类标识号表示。在选择出轨迹点后,就可以利用这些轨迹点得到待匹配轨迹。
在一实施例中,所述关系确定模块包括:
融合轨迹表获取子模块,用于获取包含若干条融合轨迹的信息的融合轨迹表;
连接子模块,用于对所述融合轨迹表中不同管理对象的融合轨迹作自连接,得到交点表;
关系确定子模块,用于基于所述交点表确定不同管理对象间的关系。
具体地,基于所述交点表确定不同管理对象间的关系,包括:
获取所述交点表中两个管理对象总交点数、总地点数、每日交点数、每日地点数和交点天数;
若两个管理对象的总交点数、交点天数超过设定阈值,则认为两个管理对象是同组织关系。
若两个管理对象的总交点数、总地点数、某天最大交点和最大地点数超过阈值,则认为两个管理对象具有密切同行行为。
其中,所述的交点为同一个时间戳级别内,两个管理对象距离在一定范围内,则计一个交点;所述的地点是出现在同一个网格或被同一个感知设备所感知的点。
其中,所述融合轨迹表如表1所示,交点如表2所示,表1与表2的关系如图4所示。
表1
身份唯一标识号 | 分钟级时间戳 | 经度网格 | 纬度网格 |
A | 1 | 1 | 1 |
A | 2 | 2 | 2 |
B | 1 | 1 | 1 |
B | 2 | 2 | 2 |
B | 3 | 3 | 3 |
表2
匹配对 | 分钟级时间戳 | 经度网格 | 纬度网格 |
A-B | 1 | 1 | 1 |
A-B | 2 | 2 | 2 |
在一实施例中,判断两个管理对象的关系可以将融合轨迹表中的车辆轨迹删除。
本申请实施例还提供了一种设备,该设备可以包括:一个或多个处理器;和其上存储有指令的一个或多个机器可读介质,当由所述一个或多个处理器执行时,使得所述设备执行图1 所述的方法。在实际应用中,该设备可以作为终端设备,也可以作为服务器,终端设备的例子可以包括:智能手机、平板电脑、电子书阅读器、MP3(动态影像专家压缩标准语音层面3, Moving Picture Experts Group Audio Layer III)播放器、MP4(动态影像专家压缩标准语音层面4, Moving Picture Experts Group Audio Layer IV)播放器、膝上型便携计算机、车载电脑、台式计算机、机顶盒、智能电视机、可穿戴设备等等,本申请实施例对于具体的设备不加以限制。
本申请实施例还提供了一种非易失性可读存储介质,该存储介质中存储有一个或多个模块 (programs),该一个或多个模块被应用在设备时,可以使得该设备执行本申请实施例的图1中方法所包含步骤的指令(instructions)。
图6为本申请一实施例提供的终端设备的硬件结构示意图。如图所示,该终端设备可以包括:输入设备1100、第一处理器1101、输出设备1102、第一存储器1103和至少一个通信总线 1104。通信总线1104用于实现元件之间的通信连接。第一存储器1103可能包含高速RAM存储器,也可能还包括非易失性存储NVM,例如至少一个磁盘存储器,第一存储器1103中可以存储各种程序,用于完成各种处理功能以及实现本实施例的方法步骤。
可选的,上述第一处理器1101例如可以为中央处理器(Central ProcessingUnit,简称CPU)、应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,该第一处理器1101通过有线或无线连接耦合到上述输入设备1100和输出设备1102。
可选的,上述输入设备1100可以包括多种输入设备,例如可以包括面向用户的用户接口、面向设备的设备接口、软件的可编程接口、摄像头、传感器中至少一种。可选的,该面向设备的设备接口可以是用于设备与设备之间进行数据传输的有线接口、还可以是用于设备与设备之间进行数据传输的硬件插入接口(例如USB接口、串口等);可选的,该面向用户的用户接口例如可以是面向用户的控制按键、用于接收语音输入的语音输入设备以及用户接收用户触摸输入的触摸感知设备(例如具有触摸感应功能的触摸屏、触控板等);可选的,上述软件的可编程接口例如可以是供用户编辑或者修改程序的入口,例如芯片的输入引脚接口或者输入接口等;输出设备1102可以包括显示器、音响等输出设备。
在本实施例中,该终端设备的处理器包括用于执行各设备中各模块的功能,具体功能和技术效果参照上述实施例即可,此处不再赘述。
图7为本申请的一个实施例提供的终端设备的硬件结构示意图。图7是对图6在实现过程中的一个具体的实施例。如图所示,本实施例的终端设备可以包括第二处理器1201以及第二存储器1202。
第二处理器1201执行第二存储器1202所存放的计算机程序代码,实现上述实施例中图1 所述方法。
第二存储器1202被配置为存储各种类型的数据以支持在终端设备的操作。这些数据的示例包括用于在终端设备上操作的任何应用程序或方法的指令,例如消息,图片,视频等。第二存储器1202可能包含随机存取存储器(random access memory,简称RAM),也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
可选地,第二处理器1201设置在处理组件1200中。该终端设备还可以包括:通信组件 1203,电源组件1204,多媒体组件1205,语音组件1206,输入/输出接口1207和/或传感器组件1208。终端设备具体所包含的组件等依据实际需求设定,本实施例对此不作限定。
处理组件1200通常控制终端设备的整体操作。处理组件1200可以包括一个或多个第二处理器1201来执行指令,以完成上述数据处理方法中的全部或部分步骤。此外,处理组件1200 可以包括一个或多个模块,便于处理组件1200和其他组件之间的交互。例如,处理组件1200 可以包括多媒体模块,以方便多媒体组件1205和处理组件1200之间的交互。
电源组件1204为终端设备的各种组件提供电力。电源组件1204可以包括电源管理系统,一个或多个电源,及其他与为终端设备生成、管理和分配电力相关联的组件。
多媒体组件1205包括在终端设备和用户之间的提供一个输出接口的显示屏。在一些实施例中,显示屏可以包括液晶显示器(LCD)和触摸面板(TP)。如果显示屏包括触摸面板,显示屏可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。
语音组件1206被配置为输出和/或输入语音信号。例如,语音组件1206包括一个麦克风 (MIC),当终端设备处于操作模式,如语音识别模式时,麦克风被配置为接收外部语音信号。所接收的语音信号可以被进一步存储在第二存储器1202或经由通信组件1203发送。在一些实施例中,语音组件1206还包括一个扬声器,用于输出语音信号。
输入/输出接口1207为处理组件1200和外围接口模块之间提供接口,上述外围接口模块可以是点击轮,按钮等。这些按钮可包括但不限于:音量按钮、启动按钮和锁定按钮。
传感器组件1208包括一个或多个传感器,用于为终端设备提供各个方面的状态评估。例如,传感器组件1208可以检测到终端设备的打开/关闭状态,组件的相对定位,用户与终端设备接触的存在或不存在。传感器组件1208可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在,包括检测用户与终端设备间的距离。在一些实施例中,该传感器组件1208还可以包括摄像头等。
通信组件1203被配置为便于终端设备和其他设备之间有线或无线方式的通信。终端设备可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个实施例中,该终端设备中可以包括SIM卡插槽,该SIM卡插槽用于插入SIM卡,使得终端设备可以登录 GPRS网络,通过互联网与服务器建立通信。
由上可知,在图7实施例中所涉及的通信组件1203、语音组件1206以及输入/输出接口 1207、传感器组件1208均可以作为图6实施例中的输入设备的实现方式。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。
Claims (18)
1.一种基于城市社区的对象管理方法,其特征在于,包括:
获取管理对象在管理区域中的关联轨迹;
对所述管理区域进行网格化,得到区域网格;
将待匹配轨迹映射至所述区域网格,得到轨迹网格;
对所述轨迹网格进行聚类,得到聚类轨迹;
对所述聚类轨迹按设定时间间隔进行切分,得到多个聚类子轨迹;
对所述多个聚类子轨迹中的轨迹点进行选择,得到处理后的待匹配轨迹;
其中,选择所述多个聚类子轨迹中的轨迹点的方法,包括:
获取在时间间隔内感知到所述管理对象的感知设备的数量以及感知到所述管理对象的时间;若在所述时间间隔内有多个感知设备先后感知到所述管理对象,则选择最后感知到所述管理对象的感知设备确定的轨迹点作为处理后的待匹配轨迹的轨迹点;若所有感知设备在同一时间点感知到所述管理对象,则随机选择一个感知设备确定的轨迹点作为处理后的待匹配轨迹的轨迹点;
对待匹配轨迹进行匹配,得到匹配轨迹;
所述待匹配轨迹包括多种类型的轨迹;所述多种类型的轨迹包括未知身份的通信端轨迹、未知身份的车辆轨迹、人脸/人体轨迹;
其中,对待匹配轨迹进行匹配,包括:
基于词向量的轨迹相似度计算方法获取待匹配轨迹间的相似度;
根据所述相似度对所述待匹配轨迹进行匹配;
对所述匹配轨迹和所述关联轨迹进行融合,得到融合轨迹;
基于所述融合轨迹确定不同管理对象间的关系;
基于所述融合轨迹确定不同管理对象间的关系,包括:
获取包含若干条融合轨迹的信息的融合轨迹表;
对所述融合轨迹表中不同管理对象的融合轨迹作自连接,得到交点表;
基于所述交点表确定不同管理对象间的关系;
基于所述交点表确定不同管理对象间的关系,包括:
获取所述交点表中两个管理对象总交点数、总地点数、每日交点数、每日地点数和交点天数;
若两个管理对象的总交点数、交点天数超过设定阈值,则认为两个管理对象是同组织关系;
若两个管理对象的总交点数、总地点数、某天最大交点和最大地点数超过阈值,则认为两个管理对象具有密切同行关系。
2.根据权利要求1所述的基于城市社区的对象管理方法,其特征在于,获取所述管理对象在管理区域中的关联轨迹,包括关联已知关联关系的动态风险数据和静态风险数据,得到关联轨迹。
3.根据权利要求2所述的基于城市社区的对象管理方法,其特征在于,所述动态风险数据包括人脸抓拍数据、通信端感知数据、车辆卡口抓拍数据。
4.根据权利要求2所述的基于城市社区的对象管理方法,其特征在于,所述静态风险数据包括身份信息、通信端唯一标识符、车辆信息。
5.根据权利要求1所述的基于城市社区的对象管理方法,其特征在于,当所述相似度超过相似度阈值,则认为匹配成功。
6.根据权利要求1所述的基于城市社区的对象管理方法,其特征在于,获取设定时间段内待匹配轨迹间的多个相似度;对多个所述相似度进行加和得到累积相似度;根据所述累积相似度对所述待匹配轨迹进行匹配。
7.根据权利要求1所述的基于城市社区的对象管理方法,其特征在于,所述基于词向量的轨迹相似度计算方法获取待匹配轨迹间的相似度,包括:
将待匹配轨迹转换成词向量;
获取表示待匹配轨迹的词向量间的相似度以得到待匹配轨迹的相似度。
8.根据权利要求7所述的基于城市社区的对象管理方法,其特征在于,通过word2vec、VAE、WAE、Auto-Encoders或SEQ-GAN将所述待匹配轨迹转换成词向量。
9.一种基于城市社区的对象管理装置,其特征在于,包括:
关联轨迹获取模块,用于获取管理对象在管理区域中的关联轨迹;
对所述管理区域进行网格化,得到区域网格;
将待匹配轨迹映射至所述区域网格,得到轨迹网格;
对所述轨迹网格进行聚类,得到聚类轨迹;
对所述聚类轨迹按设定时间间隔进行切分,得到多个聚类子轨迹;
对所述多个聚类子轨迹中的轨迹点进行选择,得到处理后的待匹配轨迹;
轨迹匹配模块,用于对待匹配轨迹进行匹配,得到匹配轨迹;
选择所述多个聚类子轨迹中的轨迹点的方法,包括:
获取在时间间隔内感知到所述管理对象的感知设备的数量以及感知到所述管理对象的时间;若在所述时间间隔内有多个感知设备先后感知到所述管理对象,则选择最后感知到所述管理对象的感知设备确定的轨迹点作为处理后的待匹配轨迹的轨迹点;若所有感知设备在同一时间点感知到所述管理对象,则随机选择一个感知设备确定的轨迹点作为处理后的待匹配轨迹的轨迹点;
所述轨迹匹配模块包括相似度获取子模块和匹配子模块;
相似度获取子模块,用于基于词向量的轨迹相似度计算方法获取待匹配轨迹间的相似度;
匹配子模块,用于根据所述相似度对所述待匹配轨迹进行匹配;
所述待匹配轨迹包括多种类型的轨迹;所述多种类型的轨迹包括未知身份的通信端轨迹、未知身份的车辆轨迹、人脸/人体轨迹;
轨迹融合模块,用于对所述匹配轨迹和所述关联轨迹进行融合,得到融合轨迹;
关系确定模块,基于所述融合轨迹确定不同管理对象间的关系;
所述关系确定模块包括:
融合轨迹表获取子模块,用于获取包含若干条融合轨迹的信息的融合轨迹表;
连接子模块,用于对所述融合轨迹表中不同管理对象的融合轨迹作自连接,得到交点表;
关系确定子模块,用于基于所述交点表确定不同管理对象间的关系;
基于所述交点表确定不同管理对象间的关系,包括:
获取所述交点表中两个管理对象总交点数、总地点数、每日交点数、每日地点数和交点天数;
若两个管理对象的总交点数、交点天数超过设定阈值,则认为两个管理对象是同组织关系;
若两个管理对象的总交点数、总地点数、某天最大交点和最大地点数超过阈值,则认为两个管理对象具有密切同行关系。
10.根据权利要求9所述的基于城市社区的对象管理装置,其特征在于,获取所述管理对象在管理区域中的关联轨迹,包括关联已知关联关系的动态风险数据和静态风险数据,得到关联轨迹。
11.根据权利要求10所述的基于城市社区的对象管理装置,其特征在于,所述动态风险数据包括人脸抓拍数据、通信端感知数据、车辆卡口抓拍数据。
12.根据权利要求10所述的基于城市社区的对象管理装置,其特征在于,所述静态风险数据包括身份信息、通信端唯一标识符、车辆信息。
13.根据权利要求9所述的基于城市社区的对象管理装置,其特征在于,当所述相似度超过相似度阈值,则认为匹配成功。
14.根据权利要求9所述的基于城市社区的对象管理装置,其特征在于,获取设定时间段内待匹配轨迹间的多个相似度;对多个所述相似度进行加和得到累积相似度;根据所述累积相似度对所述待匹配轨迹进行匹配。
15.根据权利要求9所述的基于城市社区的对象管理装置,其特征在于,所述基于词向量的轨迹相似度计算方法获取待匹配轨迹间的相似度,包括:
将待匹配轨迹转换成词向量;
获取表示待匹配轨迹的词向量间的相似度以得到待匹配轨迹的相似度。
16.根据权利要求15所述的基于城市社区的对象管理装置,其特征在于,通过word2vec、VAE、WAE、Auto-Encoders或SEQ-GAN将所述待匹配轨迹转换成词向量。
17.一种设备,其特征在于,包括:
一个或多个处理器;和
其上存储有指令的一个或多个机器可读介质,当所述一个或多个处理器执行时,使得所述设备执行如权利要求1-8所述的一个或多个所述的方法。
18.一个或多个机器可读介质,其特征在于,其上存储有指令,当由一个或多个处理器执行时,使得设备执行如权利要求1-8所述的一个或多个所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010536601.XA CN111695511B (zh) | 2020-06-12 | 2020-06-12 | 基于城市社区的对象管理方法、装置、可读介质及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010536601.XA CN111695511B (zh) | 2020-06-12 | 2020-06-12 | 基于城市社区的对象管理方法、装置、可读介质及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111695511A CN111695511A (zh) | 2020-09-22 |
CN111695511B true CN111695511B (zh) | 2021-04-16 |
Family
ID=72480780
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010536601.XA Active CN111695511B (zh) | 2020-06-12 | 2020-06-12 | 基于城市社区的对象管理方法、装置、可读介质及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111695511B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117726883B (zh) * | 2024-02-07 | 2024-05-24 | 深圳前海中电慧安科技有限公司 | 一种区域人口分析方法、装置、设备和存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104462395A (zh) * | 2014-12-11 | 2015-03-25 | 南威软件股份有限公司 | 一种同行车辆分析方法 |
CN106874347A (zh) * | 2016-12-26 | 2017-06-20 | 深圳市深网视界科技有限公司 | 一种匹配人体特征与mac地址的方法及系统 |
CN110334111A (zh) * | 2019-06-13 | 2019-10-15 | 武汉市公安局视频侦查支队 | 一种多维轨迹分析方法及装置 |
CN110895879A (zh) * | 2019-11-26 | 2020-03-20 | 浙江大华技术股份有限公司 | 同行车的检测方法及装置、存储介质、电子装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2687819A1 (de) * | 2012-07-19 | 2014-01-22 | Deutsche Post AG | Aufbereitung von ortsbezogenen Daten |
US9165477B2 (en) * | 2013-12-06 | 2015-10-20 | Vehicle Data Science Corporation | Systems and methods for building road models, driver models, and vehicle models and making predictions therefrom |
CN106297292A (zh) * | 2016-08-29 | 2017-01-04 | 苏州金螳螂怡和科技有限公司 | 基于高速公路卡口及综合监控的轨迹系统 |
US20190147226A1 (en) * | 2017-11-13 | 2019-05-16 | Canon Kabushiki Kaisha | Method, system and apparatus for matching a person in a first image to a person in a second image |
CN109657547B (zh) * | 2018-11-13 | 2020-07-07 | 成都四方伟业软件股份有限公司 | 一种基于伴随模型的异常轨迹分析方法 |
CN109543312B (zh) * | 2018-11-27 | 2023-04-07 | 珠海市新德汇信息技术有限公司 | 一种时空侦查分析方法及系统 |
-
2020
- 2020-06-12 CN CN202010536601.XA patent/CN111695511B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104462395A (zh) * | 2014-12-11 | 2015-03-25 | 南威软件股份有限公司 | 一种同行车辆分析方法 |
CN106874347A (zh) * | 2016-12-26 | 2017-06-20 | 深圳市深网视界科技有限公司 | 一种匹配人体特征与mac地址的方法及系统 |
CN110334111A (zh) * | 2019-06-13 | 2019-10-15 | 武汉市公安局视频侦查支队 | 一种多维轨迹分析方法及装置 |
CN110895879A (zh) * | 2019-11-26 | 2020-03-20 | 浙江大华技术股份有限公司 | 同行车的检测方法及装置、存储介质、电子装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111695511A (zh) | 2020-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103209211B (zh) | 一种计量表读数识别的方法、计量表自助抄表系统及其抄表方法 | |
CN108540755B (zh) | 身份识别方法和装置 | |
CN107483416A (zh) | 身份验证的方法及装置 | |
CN109656973B (zh) | 一种目标对象关联分析方法及装置 | |
CN103621131A (zh) | 用于使用视听信息对设备进行空间准确定位的方法 | |
CN107798541B (zh) | 一种用于在线业务的监控方法及系统 | |
CN103502999A (zh) | 用于使用可视数据流标记和增强地理特定位置的系统 | |
CN110232104B (zh) | 一种数据显示方法、装置、存储介质及计算机设备 | |
CN109559336B (zh) | 对象追踪方法、装置及存储介质 | |
CN107730375B (zh) | 一种税务地图管理的方法、系统及终端设备 | |
CN113052079B (zh) | 一种基于人脸聚类的区域客流统计方法、系统、设备和介质 | |
CN111563671A (zh) | 一种区域人员管理方法、系统、机器可读介质及设备 | |
CN111797295B (zh) | 一种多维时空轨迹融合方法、装置、机器可读介质及设备 | |
CN111582693A (zh) | 一种人口管理方法、系统、机器可读介质及设备 | |
CN111340848A (zh) | 对目标区域的对象跟踪方法、系统、设备及介质 | |
CN111695511B (zh) | 基于城市社区的对象管理方法、装置、可读介质及设备 | |
CN111291638A (zh) | 一种对象比对方法、系统、设备及介质 | |
CN111339943A (zh) | 一种对象管理方法、系统、平台、设备及介质 | |
CN111178455B (zh) | 图像聚类方法、系统、设备及介质 | |
CN107172068A (zh) | 信息发送控制方法、服务器、系统、装置及存储介质 | |
TWM599429U (zh) | 結合消費熱度的地理資訊系統 | |
CN108228839A (zh) | 一种高校录取考生交友系统及计算机介质 | |
CN115661994A (zh) | 一种基于uwb技术的门禁控制方法、装置及终端设备 | |
CN107256151A (zh) | 页面渲染的处理方法、装置及终端 | |
CN114373209A (zh) | 基于视频的人脸识别方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |