CN115578756A - 基于精准定位和视频联动的人员精细化管理方法及系统 - Google Patents
基于精准定位和视频联动的人员精细化管理方法及系统 Download PDFInfo
- Publication number
- CN115578756A CN115578756A CN202211392216.8A CN202211392216A CN115578756A CN 115578756 A CN115578756 A CN 115578756A CN 202211392216 A CN202211392216 A CN 202211392216A CN 115578756 A CN115578756 A CN 115578756A
- Authority
- CN
- China
- Prior art keywords
- control object
- positioning
- monitoring
- correction
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000007726 management method Methods 0.000 title claims abstract description 76
- 238000012544 monitoring process Methods 0.000 claims abstract description 132
- 238000000034 method Methods 0.000 claims abstract description 46
- 230000008569 process Effects 0.000 claims abstract description 12
- 238000012937 correction Methods 0.000 claims description 118
- 238000012806 monitoring device Methods 0.000 claims description 56
- 238000004364 calculation method Methods 0.000 claims description 15
- 230000004913 activation Effects 0.000 claims description 14
- 238000001914 filtration Methods 0.000 claims description 9
- 238000003909 pattern recognition Methods 0.000 claims description 6
- 241000135164 Timea Species 0.000 claims description 4
- 230000003213 activating effect Effects 0.000 claims description 4
- 238000009434 installation Methods 0.000 claims description 4
- 238000004891 communication Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 21
- 230000004044 response Effects 0.000 abstract description 16
- 238000012795 verification Methods 0.000 abstract description 7
- 239000000725 suspension Substances 0.000 abstract description 3
- 238000001514 detection method Methods 0.000 description 10
- 230000006399 behavior Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 3
- 230000001276 controlling effect Effects 0.000 description 3
- 238000009432 framing Methods 0.000 description 3
- 230000001105 regulatory effect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002028 premature Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于精准定位和视频联动的人员精细化管理方法及系统,属于人员管控技术领域。本发明以“精准定位+视频联动”的方式实现了对精准定位到的管控对象的监控画面切换的秒级甚至毫秒级响应;并在对管控对象进行精准定位过程中通过探测佩戴在其身上的电子标签的方式快速且精准的识别管控对象身份,且在需要对管控对象身份进行二次验证时,以眼纹悬空点像素距离为身份识别的细节特征,在二验对象人数较多时能够在确保身份验证准确性的同时,兼顾二验效率;另外在精准定位过程中根据预设的活动限制条件判断管控对象当前活动是否违规,实现了对管控对象活动范围的精准监控。
Description
技术领域
本发明涉及人员管理技术领域,具体涉及一种基于精准定位和视频联动的人员精细化管理方法及系统。
背景技术
目前对于人员的管控通常要解决以下三个问题:识别出管控对象身份;识别出管控对象的当前所处位置;识别出管控对象的当前行为或所处位置是否违规。现有技术方案中,识别管控对象身份、当前所处位置、当前行为或所处位置是否违规的过程都是孤立无联动的,例如,识别管控对象身份通常通过常规的人脸、指纹、虹膜识别等方式识别出管控对象的唯一身份特征。但是当需要被管控的对象过多时,常规的将每个管控对象的身份特征与身份特征库中的特征进行一一比对需要耗费大量时间,识别效率很低。
而识别管控对象的当前所处位置,现有方案中通常采用监控或定位的方式,比如某个安装在监舍的监控装置监控到某个管控对象时,即可确定该监控对象当前在监舍内;或者安装在管控对象身上的定位装置定位到的位置为监舍,即判定该管控对象当前在监舍内。但常规的利用监控装置识别管控对象当前所处位置的方法存在以下缺陷:
监控对象从某个监控区域进入另一个监控区域,由于监控画面切换需要一定时间,容易出现短暂时间内监控画面丢失的问题,难以做到对监控对象的持续不间断的目标跟踪。
而常规的利用定位装置识别管控对象当前所处位置的方法则存在以下缺陷:
定位装置可能存在定位误差,根据定位装置判断管控对象当前所处位置的判定结果可能并不准确,且相比较监控装置以可视化方式来表征定位结果不够直观。
而需要了解管控对象现在所处位置是否违规,现有方案通常采用设置电子围栏的方式,当定位到管控对象在电子围栏以外时,即判定其当前行动区域违规,或当需要知道管控对象现在的身体状况如何时,通过采集安装在管控对象身上的身体状况指标值,即可大致了解管控对象的身体状况。
但现有技术中,上述采用的常规身份识别方法,采用监控或定位装置识别管控对象所处位置的方法,采用电子围栏、身体状况指标值获取等方式判断管控对象当前行为或所处位置是否违规的方法,相互间都是孤立的,而非联动的,无法实现根据定位结果联动控制视频监控行为,进而当每个管控对象从一个监控区域进入到另一个监控区域时,能够实现监控画面切换的秒级甚至毫秒级响应,不丢失画面,从而真正实现对每个管控对象24小时连续不中断的目标跟踪。且以定位结果联动控制视频监控画面切换中,若对管控对象的定位结果不够精准,会对视频监控画面切换的联动响应及时性产生影响,可能会出现响应不及时或响应过于及时导致目标跟踪画面丢失的问题,因此,实现对每个管控对象的精准定位在实现监控画面切换毫秒级响应中至关重要,但现有的定位方案难以做到能够匹配视频画面切换秒级甚至毫秒级响应的要求。另外,管理方还希望,能够在定位过程中实时获取被定位对象的身份信息,常规的人脸识别、虹膜识别等方式需要定位对象的配合,并非是无感的,识别过程比较麻烦,这也是在“精准定位+视频联动”中需要解决的技术问题。
发明内容
本发明以“电子标签身份探测+精准定位+视频联动”四者联动方式,实现对管控对象的精准定位、目标跟踪的秒级甚至毫秒级视频画面切换为目的,提供了一种基于精准定位和视频联动的人员精细化管理方法及系统。
为达此目的,本发明采用以下技术方案:
提供一种基于精准定位和视频联动的人员精细化管理方法,包括步骤:
S1,将封闭空间或在途空间离散为若干个离散区域;
S2,实时获取处于各所述离散区域内的各管控对象的定位信息,包括定位位置、定位时间、行走速度、行走方向和身份信息;
S3,根据关联每个所述管控对象的所述定位信息,计算对每个所述管控对象进行定位校正的校正量;
S4,根据所述校正量对每个所述管控对象进行定位校正;
S5,根据定位校正结果和实时获取的所述行走速度、所述行走方向判断对应的所述管控对象拟进入的所述离散区域以及进入所述离散区域的所需时长;
S6,判断所需时长是否小于预设的时长阈值,
若是,则转入步骤S7;
若否,则返回步骤S2;
S7,激活用于监控拟进入的所述离散区域的监控设备,并判断等待所述所需时长后,所述监控设备是否跟踪到所述管控对象,
若是,则将针对所述管控对象的监控画面切换到所述监控设备;
若否,则释放所述监控设备,并返回步骤S2。
作为优选,步骤S3中,对处于所述封闭空间内的各所述管控对象计算用于定位校正的第一校正量的方法包括步骤:
A1,将所述封闭空间离散为至少3个作为所述离散区域的网格区域后,用于监控对应的所述网格区域的各所述监控设备实时探测与佩戴在每个所述管控对象身上的电子标签的距离,以实现对每个所述管控对象的定位,并获取相应的定位坐标;
若否,则转入步骤B4;
若否,则转入步骤B5;
若否,则转入步骤B6;
作为优选,步骤S3中,对处于从起始地前往目的地的在途空间的各所述管控对象计算用于定位校正的第二校正量的方法包括步骤:
C1,将所述在途空间离散为作为所述离散区域的若干个区域网格后,用于监控对
应的所述区域网格的各监控设备实时探测与佩戴在管控对象身上的电子标签的第三距
离,记为,以及通过参照定位器探测与所述管控对象上的所述电子标签的第四距离,记
为;
C4,对每个所述管控对象对应的各所述差值进行求和,得到求和值,对对应的各
所述第二差值绝对值进行求和平均计算,得到第二求和平均值,并将所述第二求和平均值
作为拟对各所述管控对象的位置进行偏移校正的第二校正量;
C5,判断所述求和值是否大于“0”,
作为优选,所述参照定位器的设置位置需满足以下条件:
所述参照定位器与具有固定安装位置的用于监控对应的所述区域网格的每个所述监控设备的直线距离的和值平均值处于预设的长度阈值区间且所述和值平均值最小。
作为优选,步骤S3中还包括对所述管控对象进行二次身份验证的流程,具体步骤包括:
D1,读取佩戴在所述管控对象身上的电子标签的唯一编码,以获取所述管控对象的第一身份信息;
D2,采集所述管控对象的眼纹图像并以矩形框选方式框选出所述眼纹图像中的眼纹区域;
D3,将眼纹区域图像离散为若干个矩形块,并过滤掉未携带眼纹信息以及满载眼纹信息的各所述矩形块;
D4,计算过滤剩余的每个所述矩形块中的眼纹信息的悬空像素点到矩形块中心位点的距离的第一和值,并对每个所述矩形块对应的所述第一和值进行加权求和,得到第二和值;
D5,从所述管控对象对应的标准眼纹区域图像中提取出与步骤D4过滤剩余的各所述矩形块具有对应关系的标准矩形块,然后计算每个所述标准矩形块中的眼纹信息的悬空像素点到标准矩形块的中心位点的距离的第三和值,并对每个所述标准矩形块对应的所述第三和值进行加权求和,得到第四和值;
D6,判断所述第二和值与所述第四和值的差值绝对值是否小于差值阈值,
若是,则判定眼纹识别成功,获得所述标准眼纹区域图像对应的第二身份信息;
若否,则判定眼纹识别失败并报警;
D7,判断所述第一身份信息与所述第二身份信息是否一致,若是,则判定二次身份验证成功;
若否,则判定二次身份验证失败并报警。
本发明还提供了一种基于精准定位和视频联动的人员精细化管理系统,可实现所述的人员精细化管理方法,所述人员精细化管理系统包括人员管理平台、用于监控对应离散区域的监控设备和佩戴在管控对象身上的电子标签,至少一个所述监控设备监控对应的所述离散区域,各所述监控设备通信连接所述人员管理平台;
每个所述监控设备将跟踪到的各所述管控对象的定位信息发送给所述人员管理平台;
所述人员管理平台根据各所述监控设备发送的所述定位信息以及所述电子标签探测到的所述距离信息对每个所述管控对象进行定位校正,并根据定位校正结果和所述定位信息确定所述管控对象拟进入的所述离散区域以及进入所述离散区域的所需时长,并判定所述所需时长小于预设的时长阈值时,激活用于监控拟进入的所述离散区域的所述监控设备,并在等待所述所需时长后,判定用于监控拟进入的所述离散区域的所述监控设备未跟踪到所述管控对象时,控制释放所述监控设备。
作为优选,所述监控设备包括:
定位模块,用于实时获取处于对应的所述离散区域内的各所述管控对象的所述定位信息,包括定位位置、定位时间、行走速度、行走方向和身份信息;
目标跟踪模块,用于对进入监控范围内的各所述管控对象进行持续目标跟踪并将跟踪到的目标的所述身份信息发送给所述人员管理平台;
定位信息发送模块,连接所述定位模块,用于将实时获取的所述定位信息发送给所述人员管理平台。
作为优选,所述人员管理平台中包括:
定位校正量计算模块,用于根据各所述监控设备发送的关联每个所述管控对象的所述定位信息,计算对每个所述管控对象进行定位校正的校正量;
定位校正模块,连接所述定位校正量计算模块,用于根据所计算的所述校正量对对应的所述管控对象进行定位校正;
拟进入离散区域及进入所需时长判断模块,连接所述定位校正模块,用于根据定位校正结果和实时获取的所述行走速度、所述行走方向判断对应的所述管控对象拟进入的所述离散区域以及进入所述离散区域的所需时长;
时长判断模块,连接拟进入离散区域及进入所需时长判断模块,用于判断所述所需时长是否小于预设的时长阈值,
若是,则生成监控设备激活信号并输出给用于监控拟进入的所述离散区域的所述监控设备,所述监控设备接收到所述激活信号后被激活进入监控模式;
若否,则不生成所述监控设备激活信号;
监控画面切换模块,用于判断等待所述所需时长后,用于监控拟进入的所述离散区域的所述监控设备是否跟踪到所述管控对象,
若是,则将针对所述管控对象的监控画面切换到用于监控拟进入的所述离散区域的所述监控设备;
若否,则生成监控设备释放信号,用于监控拟进入的所述离散区域的所述监控设备接收到所述释放信号后退出监控模式。
本发明具有以下有益效果:
1、当管控对象处于封闭空间时,将封闭空间离散为至少3个网格区域后,通过用于监控每个网格区域的内含有定位装置和目标跟踪装置的每个监控设备获取每个管控对象的定位坐标,并根据定位坐标计算管控对象两两间的第一距离,并通过佩戴在每个管控对象身上的电子标签去计算两两管控对象间的第二距离,然后根据关联每个管控对象的第一距离和第二距离去计算对其进行位置偏移校正的第一校正量,然后按照预设策略以第一校正量完成对该管控对象的定位校正,通过实时位置更新校正,实现了对每个处于封闭空间的管控对象的精准定位,有利于提升后续视频画面切换根据定位结果进行联动响应的及时性。
2、当管控对象处于从起始地前往目的地的在途空间时,将在途空间离散为若干个
区域网格并为每个区域网格配置专用的内含有定位装置和目标跟踪装置的监控设备后,首
先,通过监控设备实时探测与当前处于监控的区域网格中的每个管控对象距离,记为,
以及通过参照定位器探测与该管控对象的距离,记为,然后以、为拟合函数的第
一自变量和第二自变量,求解记为的函数值,这个函数值为预测的参照定位器与监控
设备的距离,由于监控设备的安装位置是固定不变的,因此可以根据与其对应的真值的误差来判断监控设备对管控对象的定位误差。然后根据每个管控对象对应的值和值对应的真值来计算对每个管控对象进行位置偏移校正的第二校正
量,最后以第二校正量对每个管控对象进行位置更新校正,从而实现了对处于在途空间的
每个管控对象的精准定位,有利于提升后续视频监控画面切换根据定位结果进行联动响应
的及时性。
3、参照定位器的设置位置以与用于监控对应的网格区域的每个监控设备的直线距离的和值平均值处于预设的长度阈值区间且和值平均值最小为条件,通过寻优方式设置在最优距离,有利于在确保探测精度的同时提升距离探测的效率。
4、以“精准定位”为基础,当判定管控对象行走到行走方向对应的网格区域的边界的所需时长小于预设的时长阈值时,提前激活用于监控即将进入的网格区域或区域网格的监控设备,并在等待所需时长后,若激活的该监控设备跟踪到该监控对象,则直接切换为该监控设备监控到的画面,由此通过“精准定位+视频联动”的方式,实现了对每个管控对象进行目标跟踪的秒级甚至毫秒级响应。
5、以电子标签唯一编码作为每个管控对象的唯一身份特征,监控设备、参照定位器在探测佩戴在管控对象身上的电子标签时,顺带通过识别电子标签的唯一编码能够实时识别被定位对象的身份,实现了“精准定位+视频联动”与“身份识别”三者间的联动。
6、以眼纹悬空像素点为眼纹细节特征,通过提取管控对象的眼纹图像中的眼纹细节特征,在进行眼纹身份比对时,仅比对眼纹细节特征,在确保身份比对准确率的同时大幅提升了比对速度,特别适用于需同时对大量管控对象进行二次身份验证的场景。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例中所需要使用的附图作简单地介绍。显而易见地,下面所描述的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明对处于室内或室外封闭空间内的管控对象进行定位校正的示意图;
图2是本发明对处于从起始地到目的地的在途空间内的管控对象进行定位校正的示意图;
图3是计算眼纹区域图像中的矩形块对应的第一和值的示意图;
图4是进行眼纹细节特征匹配的示意图;
图5是通过两个定位装置对管控对象进行定位的示意图;
图6是本发明一实施例提供的基于精准定位和视频联动的人员精细化管理方法的实现步骤图;
图7是本发明一实施例提供的基于精准定位和视频联动的人员精细化管理系统的结构示意图。
具体实施方式
下面结合附图并通过具体实施方式来进一步说明本发明的技术方案。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本专利的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若出现术语“上”、“下”、“左”、“右”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
在本发明的描述中,除非另有明确的规定和限定,若出现术语“连接”等指示部件之间的连接关系,该术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个部件内部的连通或两个部件的相互作用关系。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
本发明提供的基于精准定位和视频联动的人员精细化管理方法,围绕“精准定位+视频联动”这一技术核心,以对每个管控对象的精准定位结果去联动控制相应的监控视频持续不间断的跟踪每个管控对象,实现了视频画面切换的秒级甚至毫秒级响应;并在对每个管控对象进行精准定位的同时,通过探测佩戴在其身上的电子标签的唯一编码的方式,实现了对管控对象身份快速且精准的识别;同时在精准定位过程中根据预设的活动限制条件判断管控对象当前活动是否违规并在异常时在监控画面中告警,最终通过可视化的监控画面直观且快速、精准的实现了对每个管控对象的身份识别、精准定位以及行为是否违规的判断。
以下以监狱为应用场景为例,对本发明实施例提供的基于精准定位和视频联动的人员精细化管理方法如何具体实现进行详细说明:
如图6所示,本实施例提供的基于精准定位和视频联动的人员精细化管理方法包括步骤:
S1,将封闭空间或在途空间(在途空间比如为从监舍前往食堂的走廊中的空间,或者从食堂前往操场的走廊中的空间等)离散为若干个离散区域;
S2,实时获取对管控对象的定位信息,包括定位位置、定位时间、行走速度、行走方向和管控对象的人员信息;
在监狱应用场景,管控对象包括被收监的管控人员、在监狱的工作人员和临时进入监狱的临时人员。每个管控对象在监狱内具有每日的活动事件,比如对于A监区的每个被收监的管控人员,通常其每日的活动事件按时间轴顺序比如记录为:6:20起床点名-7:00早饭-8:30出工-11:30收工-12:00午饭-14:00出工-17:00收工-18:00晚饭-19:00集体看新闻-21:30熄灯,对应这个时间轴,该管控人员的活动限制时间轴链条可以记录为:链节点1(活动限制条件为6:20-7:00在监舍、或在从监舍前往食堂的途中、或在食堂)-链节点2(活动限制条件为7:00-8:30在食堂或在从食堂前往出工地的途中)-链节点3(活动限制条件为8:30-11:30在出工场地)-链节点4(活动限制条件为11:30-12:00在出工地,或在从出工地前往食堂的途中,或在食堂)-链节点5(活动限制条件为12:00-14:00在食堂,或在食堂前往监舍的途中,或在监舍)-链节点6(活动限制条件为14:00-17:00在从监舍前往出工地的途中,或在出工地)-链节点7(活动限制条件为17:00-18:00在出工地到食堂的途中,或在食堂)-链节点8(活动限制条件为18:00-19:00在食堂,或从食堂前往观影室的途中)-链节点9(活动限制条件为19:00-20:30在观影室、或从观影室到监舍的途中,或在监舍)-链节点10(活动限制条件为20:30-次日6:20在监舍)。相同或不同监区的管控对象可能具有相同或不同的活动限制时间轴链条。
为了实现视频监控画面切换的秒级甚至毫秒级响应,当管控对象处于室内或室外的封闭空间时,比如处于监舍内、食堂内或者处于室外的具有活动区域范围限制的操场中时,对每个管控对象进行定位校正的方法包括以下步骤:
A1,将如图1所示为监舍的封闭空间离散为至少3个网格区域100后,用于监控对应的网格区域的各监控设备实时探测与佩戴在每个管控对象身上的电子标签的距离,以实现对每个管控对象的定位,并获取相应的定位坐标;
每个网格区域中安装有至少一个专用的监控设备2,监控设备2用于监控对应的网格区域,每个监控设备2包括用于对管控对象进行厘米级定位的定位装置(能够实现厘米级定位的现有定位装置有许多,因此关于所采用的定位设备的具体品牌、型号不作说明)和用于对管控对象进行持续目标跟踪的目标跟踪装置(优选为高清摄像头);
这里需要说明的是,将封闭空间离散为至少3个网格区域100有利于提高对管控对象定位的精准程度。如图5所示,通过距离定位的方式,两个定位设备101探测到的处于A点和B点的管控对象的距离是相同的,在这种情况下,难以根据探测距离判断管控对象到底是处于A点还是B点,因此通过安装在不同网格区域的至少3个定位装置探测与管控对象的距离,能够解决上述问题,使得定位更加精准。
监控设备探测与电子标签的距离的原理为:
每个监控设备中的定位装置同时向同个电子标签发送距离探测信号,电子标签接收到该距离探测信号后进行信号反馈,每个定位装置接收到反馈信号后可以根据反馈时间计算出与佩戴有该电子标签的管控对象的距离,至少3个距离被确定后,可以转换为该管控对象在物理坐标系下的定位坐标。
电子标签的唯一编码与佩戴者的身份相关联,在对管控对象进行定位时,同时获取电子标签的唯一编码,并基于预先录入的电子标签唯一编码与管控对象身份的关联关系,即可快速获知被定位的人员的身份。为了可视化该身份,可以在对该管控对象的监控画面中显示其身份信息,比如“姓名:XXX,性别:男,A监区C监舍”。
当封闭空间较大而定位装置布设数量不够多时,长距离对管控对象进行定位探测容易产生误差,这种误差会影响以定位结果联动切换视频画面的响应及时性。为了解决这个问题,本发明每次在对每个管控对象进行定位探测时,都对定位结果进行校正,以尽可能的减少这种误差,采取的方案即以下的步骤A2-A4:
A2,根据关联每个管控对象的定位坐标,计算管控对象和两两间的第一距离,记
为;这里的管控对象、不限于同处于图1中所示的同个网格区域,只要在同个时间处于
同个封闭空间内即可。当然,当处于同个封闭空间内比如操场内的管控对象数量过多时,为
了降低定位校正的复杂度,可以选择处于同个网格区域内的管控对象作为计算第一校正量
的对象,而排除处于非同个网格区域内的管控对象为第一校正量的计算对象。
电子标签具有自定位功能,可以探测与其他电子标签的距离。具有自定位功能的现有的电子标签有许多,因此,有关本发明使用的带自定位功能的电子标签的具体品牌、型号在此不做说明。
这里需要说明的是,本发明是对封闭空间内的每个管控对象的定位位置进行同时校正的。一条表征距离的直线包含两个管控对象所在的位点,如果直接以第一求和平均值对这两个位点进行偏移量校正,在两个位点都以第一求和平均值为向外拓展的量来延长该条直线或都以第一求和平均值向内收缩来减短该条直线进行校正时会出现校正过度的问题。因此,为了解决这个问题,本发明通过对第一求和平均值除“2”,以尽量避免校正过度的问题。
还需说明的是,当与的第一差值绝对值很小时,说明固定安装的定位设备对
管控对象的定位结果是相对准确度,若还对该管控对象进行定位校正,反而会出现校正
错误。为了解决这个问题,本发明设置了第一差值绝对值阈值,即将步骤A4分解为如下步
骤:
A42,过滤掉小于预设的第一差值绝对值阈值的各第一差值绝对值;
定位校正的方向是360度可选的,计算到第一校正量后,确定往哪个方向对每个管
控对象进行定位偏移校正成为保证校正结果准确的关键。为了解决这个问题,步骤S4中,对
每个处于封闭空间内的管控对象进行定位校正的方法具体包括步骤:
若否,则转入步骤B4;
若否,则转入步骤B5;
若否,则转入步骤B6;
步骤A1-A4提供的定位校正方法适于封闭空间面积较小且管控对象行走速度较慢的场景。将该定位校正方案应用于面积不确定且管控对象行走速度较快的室外场景时,实验发现,该方案定位还不够精准且不够快速,难以实现与视频联动的秒级甚至毫秒级画面切换响应。为了解决这个问题,针对面积不确定且管控对象行走速度较快的室外场景,本发明另外提供了一种定位校正方法,具体而言,对处于从起始地前往目的地的在途空间(比如从监舍前往食堂)的各管控对象计算用于定位校正的第二校正量的方法包括步骤:
C1,将在途空间离散为若干个如图2中所示的区域网格10后,用于监控对应的区域
网格的各监控设备实时探测与佩戴在管控对象身上的电子标签的第三距离,记为,以
及通过参照定位器探测与管控对象上的电子标签的第四距离,记为;
每个监控设备20包括用于探测与佩戴在管控对象身上的电子标签的距离的定位装置以及对管控对象进行目标跟踪的目标跟踪装置(优选为高清摄像头);
C4,对每个区域网格对应的各差值和各第二差值绝对值分别进行求和以及求和平均计算,分别得到求和值和第二求和平均值,并将第二求和平均值作为拟对管控对象的位置进行偏移校正的第二校正量。
这里需要说明的是,当与的第二差值绝对值很小时,说明固定安装的
监控设备与参照定位器对管控对象的定位结果是相对准确度,若还对该管控对象进行定
位校正,反而会出现校正错误。为了解决这个问题,本发明设置了第二差值绝对值阈值,即
将步骤C4分解为如下步骤:
C41,过滤掉小于预设的第二差值绝对值阈值的各第二差值绝对值;
C42,对过滤剩余的每个第二差值绝对值进行求和平均计算,并将得到将第二求和平均值作为拟对管控对象的位置进行偏移校正的第二校正量。
C5,判断求和值是否大于“0”,
若是,则将步骤C1探测到的每个管控对象所在的坐标位点以远离参照定位器30的
方向对直线延伸第二校正量(延伸后的位点如图2中的附图标记“40”表示),并将校正后
的定位坐标作为对应的管控对象的定位位置;
以下对步骤C1-C5提供的方案对管控对象的定位校正的技术原理进行总结:
参照定位器的设置位置和用于监控每个区域网格的自带定位功能的监控设备的
设置位置是固定的,因此,参照定位器与每个监控设备间的直线距离(即真值)也是
固定的。本发明以参照定位器与管控对象的探测距离和管控对象与监控设备的探测距离通
过拟合函数去预测监控设备与参照定位器的距离,当与其对应的真值的
第二差值绝对值大于预设的第二差值绝对值阈值时,便判定对该管控对象的定位结果的误
差是不可被接受的,需要进行校正。本发明利用对的预测误差大小侧面判断对管控对
象的定位误差是否可被接受,通过设置第二差值绝对值阈值来表征定位误差可被接受的程
度,这个第二差值绝对值阈值是经过反复实验总结而得的,在这个第二差值绝对值阈值下,
不会影响监控视频根据定位结果进行秒级甚至毫秒级联动响应的及时性。
另外需要说明的是,参照定位器的设置位置对于定位速度和定位校正的速度具有直接影响。理想情况下,希望参照定位器与图2中的每个区域网格的距离之和越小越好,因为探测距离越短,定位响应越快。但由于本发明采用拟合函数的预测值与对应的真值间的误差去判断对管控对象的定位误差是否可被接受,当参照定位器与管控对象间的距离过小,即探测距离过短时,拟合函数的预测误差会变大,因此,为了解决这个问题,本发明对参照定位器的设置位置作了限制,限制条件如下:
参照定位器与具有固定安装位置的用于监控对应区域网格的每个监控设备的直线距离的和值平均值处于预设的长度阈值区间且和值平均值最小。由于寻找参照定位器的最优设置位置的方法并非本发明要求权利保护的范围,因此有关寻找参照定位器最优位置的方法在此不做具体说明。
以下对本发明得到拟合函数的方法进行简要说明:
本发明采用的拟合函数的表达式如下式(1)所示:
以关联每个管控对象的-数据对和对应的为拟合点,将各拟合点拟合为
一条曲线,然后根据该拟合曲线反推得到拟合函数中的、、分别对应的取值,然后对拟合
函数的预测性能进行评价,当预测误差未达到理想时,通过相应的校正方法校正、、,当
预测误差达到理想时,输出最终的拟合函数。由于求解、、的具体过程以及校正、、的
具体过程并非本发明要求权利保护的范围,因此不做具体说明。
通过上述方案,实现对每个管控对象的精准定位后,如图6所示,本实施例提供的基于精准定位和视频联动的人员精细化管理方法转入步骤:
S3,根据关联每个管控对象的定位信息,计算对每个管控对象进行定位校正的校正量;步骤S3具体包括如下步骤:
S31,从关联管控对象的活动限制时间轴链条中获取定位时间对应的链节点,并解析出该链节点对应的活动限制条件,同时保持定位位置落入的第一网格区域(包括网格区域或区域网格)对应的第一监控装置(包括监控装置和监控设备)对该监控对象的目标持续跟踪;
S32,判断第一网格区域是否处于活动限制条件中记载的限制活动区域范围内,
若是,则转入步骤S33;
若否,则生成异常提示信息发送给平台进行告警并形成告警记录;
S33,根据关联每个管控对象的定位信息,计算对每个管控对象进行定位校正的校正量;
S4,根据步骤S3计算的校正量对每个对应的管控对象进行定位校正;
校正量的计算方法以及定位校正的方法在上述的步骤A1-A4、B1-B6、C1-C5中做了详细阐述,在此不再赘述。
S5,根据行走速度计算管控对象行走到行走方向对应的第二网格区域的边界的所需时长;
此处举例而言,管控对象的行走方向若为从图1中的A区域向B区域行走,A区域作为第一网格区域,B区域作为第二网格区域,A区域和B区域的边界为图1中的“s1”,对管控对象的实时定位位置和边界“s1”的位置是已知的,因此可以计算出管控对象的定位位置与边界“s1”的实时距离,然后根据获取到的行走速度,即可计算出按当前行走方向行走到边界所需的时长。
管控对象的行走速度和行走方向可以分别通过设置在电子标签中的速度传感器和陀螺仪实时测量而得,为常规的技术手段,因此关于获取管控对象的实时行走速度和行走方向的方法在此不做具体说明。
S6,判断所需时长是否小于预设的时长阈值,
若是,则转入步骤S7;
若否,则返回步骤S2;
步骤S6的目的是避免过早激活用于监控第二网格区域的第二监控装置,造成监控资源浪费。管控对象在网格区域内的行走方向是动态变化的,当前时间点可能往第二网格区域行走,下个时间点可能就改变方向了,因此过早激活第二网格区域的第二监控装置,当管控对象改变行走方向最终未进入第二网格区域时,这个激活动作便是多余的,当针对不同管控对象同时执行的这种激活动作过多时,监控无效响应会增加,会对具有真实的视频联动需求的监控装置产生不良影响。因此,本发明通过设置时长阈值的方式解决了这个问题。
S7,激活第二网格区域对应的第二监控装置,并判断等待所述时长后,第二监控装置是否跟踪到该管控对象,
若是,则将针对该管控对象的监控画面切换到第二监控装置并释放第一监控装置;
若否,则释放第二监控装置,然后返回步骤S2。
通过电子标签中携带的唯一编码去识别管控对象身份可能存在造假,比如将佩戴的电子标签与其他管控对象进行调换,这样便会导致电子标签指代的对象与真实对象不一致,为了解决这个问题,当链节点对应的活动限制条件包括身份二次验证时,比如在20:30分以后回到监舍时,需要对每个管控对象进行身份二次验证,验证方法为:
当识别到针对管控对象提取的活动限制条件中包括身份二次验证时,首先生成身份二次验证消息并推送给佩戴在管控对象身上的电子标签,以提示管控对象自主进行二次身份验证,然后通过以下方法步骤完成二次身份验证:
D1,读取佩戴在管控对象身上的电子标签的唯一编码,并基于电子标签唯一编码与对应身份信息的绑定关系,获取对应的第一身份信息;
D2,采集管控对象的眼纹图像并以矩形框选方式框选出眼纹图像中的眼纹区域;
D3,对眼纹区域图像的宽和高以等间隔方式分别等分为若干段;
D4,从每个等分点出发以垂直于出发点所在边的方式向相对边的相对等分点上连线以将眼纹区域图像离散为若干个矩形块,然后以在眼纹区域图像的左顶角处的矩形块为标序起点,按照从左往右、自上而下的标序方式对每个矩形块进行标序(排序结果如图4中的a所示);
D5,过滤掉眼纹区域图像中未携带眼纹信息以及满载眼纹信息的各矩形块;例如图4的a中的标序号为1、2、4、6、7、12等矩形块未携带眼纹信息,标序号为8的矩形块满载眼纹信息,满载的含义为:眼纹触及了矩形块的每条边;
D6,对经步骤D5过滤剩余的每个矩形块,计算对应的第一和值,计算方法具体为:
E1,提取矩形块中的眼纹信息的悬空像素点;
E2,计算每个悬空像素点与所在的矩形块的中心位点的距离;
E3,对每个悬空像素点对应的距离进行求和,得到矩形块对应的第一和值。
以图4中的5号矩形块为例,首先提取出标记为P1、P2、P3的悬空像素点,然后分别计算悬空像素点P1、P2、P3与该矩形块的中心位点O的距离,最后对每个悬空像素点对应的距离进行求和,即得到该矩形块对应的第一和值。
D7,对每个矩形块对应的各第一和值进行加权求和,得到第二和值;眼纹细节特征越多,识别身份的能出越强,因此,赋予眼纹细节特征较多的矩形块更大的权重;
D8,提取出管控对象对应的标准眼纹区域图像所对应的离散图(如图4中的b所示)中与步骤C5过滤剩余的每个所述矩形块具有排序号对应关系的标准矩形块(比如,图4中的a和b中排序号均为“1”的矩形块和标准矩形块具有位置对应关系),然后计算每个标准矩形块对应的第三和值(第三和值的计算方法与第一和值的计算方法一致,在此不再赘述)的加权求和值,得到第四和值;
D9,判断第二和值与第四和值的差值绝对值是否小于差值阈值
若是,则判定眼纹识别成功,获得眼纹识别对应的第二身份信息;
若否,则判定眼纹识别失败并告警;
D10,判断所述第一身份信息和所述第二身份信息是否一致,
若是,则判定二次身份验证成功;
若否,则判定二次身份验证失败并报警。
本发明考虑眼纹像素悬空点表达的眼纹细节特征作为身份识别的依据,在需要同时进行眼纹识别的管控对象数量庞大时,能够在确保眼纹识别准确性的同时大幅提升眼纹识别的速度。且通过眼纹识别结果与电子标签唯一编码指代的身份识别结果进行比对,能够有效防止拆卸替换电子标签进行身份作假等行为,提高了管控效果。
综上,本发明以“精准定位+视频联动”的方式实现了对精准定位到的管控对象的监控画面切换的秒级甚至毫秒级的视频监控响应;并在对管控对象进行定位过程中通过探测佩戴在其身上的电子标签的方式快速且精准的识别管控对象身份,且在需要对管控对象身份进行二次验证时,以眼纹悬空点像素距离为身份识别的细节特征,在二验对象人数较多时能够在确保身份验证准确性的同时,兼顾二验效率;另外在精准定位过程中根据预设的活动限制条件判断管控对象当前活动是否违规实现了对管控对象活动范围的精准监控。
本发明还提供了一种基于精准定位和视频联动的人员精细化管理系统,可实现的人员精细化管理方法,如图7所示,该人员精细化管理系统包括人员管理平台、用于监控对应离散区域的监控设备和佩戴在管控对象身上的电子标签,至少一个监控设备监控对应的离散区域,各监控设备通信连接人员管理平台;
每个监控设备将跟踪到的各管控对象的定位信息发送给人员管理平台;
人员管理平台根据各监控设备发送的定位信息以及电子标签探测到的距离信息对每个管控对象进行定位校正,并根据定位校正结果和定位信息确定管控对象拟进入的离散区域以及进入离散区域的所需时长,并判定所需时长小于预设的时长阈值时,激活用于监控拟进入的离散区域的监控设备,并在等待所需时长后,判定用于监控拟进入的离散区域的监控设备未跟踪到管控对象时,控制释放该监控设备。
监控设备中具体包括:
定位模块,用于实时获取处于对应的离散区域内的各管控对象的定位信息,包括定位位置、定位时间、行走速度、行走方向和身份信息;
目标跟踪模块,用于对进入监控范围内的各管控对象进行持续目标跟踪并将跟踪到的目标的身份信息发送给人员管理平台;
定位信息发送模块,连接定位模块,用于将实时获取的定位信息发送给人员管理平台。
人员管理平台中具体包括:
定位校正量计算模块,用于根据各监控设备发送的关联每个管控对象的定位信息,计算对每个管控对象进行定位校正的校正量;
定位校正模块,连接定位校正量计算模块,用于根据所计算的校正量对对应的管控对象进行定位校正;
拟进入离散区域及进入所需时长判断模块,连接定位校正模块,用于根据定位校正结果和实时获取的行走速度、行走方向判断对应的管控对象拟进入的离散区域以及进入离散区域的所需时长;
时长判断模块,连接拟进入离散区域及进入所需时长判断模块,用于判断所需时长是否小于预设的时长阈值,
若是,则生成监控设备激活信号并输出给用于监控拟进入的离散区域的监控设备,监控设备接收到激活信号后被激活进入监控模式;
若否,则不生成监控设备激活信号;
监控画面切换模块,用于判断等待所需时长后,用于监控拟进入的离散区域的监控设备是否跟踪到管控对象,
若是,则将针对管控对象的监控画面切换到用于监控拟进入的离散区域的监控设备;
若否,则生成监控设备释放信号,用于监控拟进入的离散区域的监控设备接收到释放信号后退出监控模式。
需要声明的是,上述具体实施方式仅仅为本发明的较佳实施例及所运用技术原理。本领域技术人员应该明白,还可以对本发明做各种修改、等同替换、变化等等。但是,这些变换只要未背离本发明的精神,都应在本发明的保护范围之内。另外,本申请说明书和权利要求书所使用的一些术语并不是限制,仅仅是为了便于描述。
Claims (9)
1.一种基于精准定位和视频联动的人员精细化管理方法,其特征在于,包括步骤:
S1,将封闭空间或在途空间离散为若干个离散区域;
S2,实时获取处于各所述离散区域内的各管控对象的定位信息,包括定位位置、定位时间、行走速度、行走方向和身份信息;
S3,根据关联每个所述管控对象的所述定位信息,计算对每个所述管控对象进行定位校正的校正量;
S4,根据所述校正量对每个所述管控对象进行定位校正;
S5,根据定位校正结果和实时获取的所述行走速度、所述行走方向判断对应的所述管控对象拟进入的所述离散区域以及进入所述离散区域的所需时长;
S6,判断所需时长是否小于预设的时长阈值,
若是,则转入步骤S7;
若否,则返回步骤S2;
S7,激活用于监控拟进入的所述离散区域的监控设备,并判断等待所述所需时长后,所述监控设备是否跟踪到所述管控对象,
若是,则将针对所述管控对象的监控画面切换到所述监控设备;
若否,则释放所述监控设备,并返回步骤S2。
2.根据权利要求1所述的基于精准定位和视频联动的人员精细化管理方法,其特征在于,步骤S3中,对处于所述封闭空间内的各所述管控对象计算用于定位校正的第一校正量的方法包括步骤:
A1,将所述封闭空间离散为至少3个作为所述离散区域的网格区域后,用于监控对应的所述网格区域的各所述监控设备实时探测与佩戴在每个所述管控对象身上的电子标签的距离,以实现对每个所述管控对象的定位,并获取相应的定位坐标;
若否,则转入步骤B4;
若否,则转入步骤B5;
若否,则转入步骤B6;
4.根据权利要求1所述的基于精准定位和视频联动的人员精细化管理方法,其特征在于,步骤S3中,对处于从起始地前往目的地的在途空间的各所述管控对象计算用于定位校正的第二校正量的方法包括步骤:
C1,将所述在途空间离散为作为所述离散区域的若干个区域网格后,用于监控对应的
所述区域网格的各监控设备实时探测与佩戴在管控对象身上的电子标签的第三距离,记
为,以及通过参照定位器探测与所述管控对象上的所述电子标签的第四距离,记为
;
C4,对每个所述管控对象对应的各所述差值进行求和,得到求和值,对对应的各所述第
二差值绝对值进行求和平均计算,得到第二求和平均值,并将所述第二求和平均值作为拟
对各所述管控对象的位置进行偏移校正的第二校正量;
C5,判断所述求和值是否大于“0”,
5.根据权利要求4所述的基于精准定位和视频联动的人员精细化管理方法,其特征在于,所述参照定位器的设置位置需满足以下条件:
所述参照定位器与具有固定安装位置的用于监控对应的所述区域网格的每个所述监控设备的直线距离的和值平均值处于预设的长度阈值区间且所述和值平均值最小。
6.根据权利要求1所述的基于精准定位和视频联动的人员精细化管理方法,其特征在于,步骤S3中还包括对所述管控对象进行二次身份验证的流程,具体步骤包括:
D1,读取佩戴在所述管控对象身上的电子标签的唯一编码,以获取所述管控对象的第一身份信息;
D2,采集所述管控对象的眼纹图像并以矩形框选方式框选出所述眼纹图像中的眼纹区域;
D3,将眼纹区域图像离散为若干个矩形块,并过滤掉未携带眼纹信息以及满载眼纹信息的各所述矩形块;
D4,计算过滤剩余的每个所述矩形块中的眼纹信息的悬空像素点到矩形块中心位点的距离的第一和值,并对每个所述矩形块对应的所述第一和值进行加权求和,得到第二和值;
D5,从所述管控对象对应的标准眼纹区域图像中提取出与步骤D4过滤剩余的各所述矩形块具有对应关系的标准矩形块,然后计算每个所述标准矩形块中的眼纹信息的悬空像素点到标准矩形块的中心位点的距离的第三和值,并对每个所述标准矩形块对应的所述第三和值进行加权求和,得到第四和值;
D6,判断所述第二和值与所述第四和值的差值绝对值是否小于差值阈值,
若是,则判定眼纹识别成功,获得所述标准眼纹区域图像对应的第二身份信息;
若否,则判定眼纹识别失败并报警;
D7,判断所述第一身份信息与所述第二身份信息是否一致,若是,则判定二次身份验证成功;
若否,则判定二次身份验证失败并报警。
7.一种基于精准定位和视频联动的人员精细化管理系统,可实现如权利要求1-6任意一项所述的人员精细化管理方法,其特征在于,所述人员精细化管理系统包括人员管理平台、用于监控对应离散区域的监控设备和佩戴在管控对象身上的电子标签,至少一个所述监控设备监控对应的所述离散区域,各所述监控设备通信连接所述人员管理平台;
每个所述监控设备将跟踪到的各所述管控对象的定位信息发送给所述人员管理平台;
所述人员管理平台根据各所述监控设备发送的所述定位信息以及所述电子标签探测到的所述距离信息对每个所述管控对象进行定位校正,并根据定位校正结果和所述定位信息确定所述管控对象拟进入的所述离散区域以及进入所述离散区域的所需时长,并判定所述所需时长小于预设的时长阈值时,激活用于监控拟进入的所述离散区域的所述监控设备,并在等待所述所需时长后,判定用于监控拟进入的所述离散区域的所述监控设备未跟踪到所述管控对象时,控制释放所述监控设备。
8.根据权利要求7所述的基于精准定位和视频联动的人员精细化管理系统,其特征在于:所述监控设备包括:
定位模块,用于实时获取处于对应的所述离散区域内的各所述管控对象的所述定位信息,包括定位位置、定位时间、行走速度、行走方向和身份信息;
目标跟踪模块,用于对进入监控范围内的各所述管控对象进行持续目标跟踪并将跟踪到的目标的所述身份信息发送给所述人员管理平台;
定位信息发送模块,连接所述定位模块,用于将实时获取的所述定位信息发送给所述人员管理平台。
9.根据权利要求8所述的基于精准定位和视频联动的人员精细化管理系统,其特征在于,所述人员管理平台中包括:
定位校正量计算模块,用于根据各所述监控设备发送的关联每个所述管控对象的所述定位信息,计算对每个所述管控对象进行定位校正的校正量;
定位校正模块,连接所述定位校正量计算模块,用于根据所计算的所述校正量对对应的所述管控对象进行定位校正;
拟进入离散区域及进入所需时长判断模块,连接所述定位校正模块,用于根据定位校正结果和实时获取的所述行走速度、所述行走方向判断对应的所述管控对象拟进入的所述离散区域以及进入所述离散区域的所需时长;
时长判断模块,连接拟进入离散区域及进入所需时长判断模块,用于判断所述所需时长是否小于预设的时长阈值,
若是,则生成监控设备激活信号并输出给用于监控拟进入的所述离散区域的所述监控设备,所述监控设备接收到所述激活信号后被激活进入监控模式;
若否,则不生成所述监控设备激活信号;
监控画面切换模块,用于判断等待所述所需时长后,用于监控拟进入的所述离散区域的所述监控设备是否跟踪到所述管控对象,
若是,则将针对所述管控对象的监控画面切换到用于监控拟进入的所述离散区域的所述监控设备;
若否,则生成监控设备释放信号,用于监控拟进入的所述离散区域的所述监控设备接收到所述释放信号后退出监控模式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211392216.8A CN115578756B (zh) | 2022-11-08 | 2022-11-08 | 基于精准定位和视频联动的人员精细化管理方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211392216.8A CN115578756B (zh) | 2022-11-08 | 2022-11-08 | 基于精准定位和视频联动的人员精细化管理方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115578756A true CN115578756A (zh) | 2023-01-06 |
CN115578756B CN115578756B (zh) | 2023-04-14 |
Family
ID=84589736
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211392216.8A Active CN115578756B (zh) | 2022-11-08 | 2022-11-08 | 基于精准定位和视频联动的人员精细化管理方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115578756B (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104077623A (zh) * | 2014-07-22 | 2014-10-01 | 余启汉 | 基于rfid技术实现的服装款式监控管理系统及实现方法 |
CN106303420A (zh) * | 2016-08-15 | 2017-01-04 | 深圳市校联宝科技有限公司 | 一种应用于运动目标的监控方法及监控系统 |
CN107529221A (zh) * | 2017-08-22 | 2017-12-29 | 上海兴容信息技术有限公司 | 一种结合视频监控和Wi‑Fi定位的追踪分析系统及方法 |
CN108960352A (zh) * | 2017-05-18 | 2018-12-07 | 中兴通讯股份有限公司 | 一种安全监护的方法、装置、系统及存储介质 |
CN110348348A (zh) * | 2019-06-30 | 2019-10-18 | 华中科技大学 | 一种参建人员进场身份快速识别方法及预警系统 |
WO2020003334A1 (en) * | 2018-06-27 | 2020-01-02 | Alma Mater Studiorum - Universita' Di Bologna | System for locating at least one rfid tag in space, in particular in an indoor environment, and method thereof |
CN113223046A (zh) * | 2020-07-10 | 2021-08-06 | 浙江大华技术股份有限公司 | 一种监狱人员行为识别的方法和系统 |
CN113255542A (zh) * | 2021-06-02 | 2021-08-13 | 北京容联易通信息技术有限公司 | 一种基于违规行为识别的违规对象身份识别方法 |
WO2021196294A1 (zh) * | 2020-04-03 | 2021-10-07 | 中国科学院深圳先进技术研究院 | 一种跨视频人员定位追踪方法、系统及设备 |
CN113705376A (zh) * | 2021-08-11 | 2021-11-26 | 中国科学院信息工程研究所 | 一种基于rfid和摄像机的人员定位方法及系统 |
CN113988228A (zh) * | 2021-09-14 | 2022-01-28 | 中国科学院信息工程研究所 | 一种基于rfid和视觉融合的室内监控方法及系统 |
CN114205562A (zh) * | 2021-12-16 | 2022-03-18 | 国网浙江省电力有限公司绍兴供电公司 | 分布式视频指挥中心、平台、智能终端、系统及其工作方法 |
-
2022
- 2022-11-08 CN CN202211392216.8A patent/CN115578756B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104077623A (zh) * | 2014-07-22 | 2014-10-01 | 余启汉 | 基于rfid技术实现的服装款式监控管理系统及实现方法 |
CN106303420A (zh) * | 2016-08-15 | 2017-01-04 | 深圳市校联宝科技有限公司 | 一种应用于运动目标的监控方法及监控系统 |
CN108960352A (zh) * | 2017-05-18 | 2018-12-07 | 中兴通讯股份有限公司 | 一种安全监护的方法、装置、系统及存储介质 |
CN107529221A (zh) * | 2017-08-22 | 2017-12-29 | 上海兴容信息技术有限公司 | 一种结合视频监控和Wi‑Fi定位的追踪分析系统及方法 |
WO2020003334A1 (en) * | 2018-06-27 | 2020-01-02 | Alma Mater Studiorum - Universita' Di Bologna | System for locating at least one rfid tag in space, in particular in an indoor environment, and method thereof |
CN110348348A (zh) * | 2019-06-30 | 2019-10-18 | 华中科技大学 | 一种参建人员进场身份快速识别方法及预警系统 |
WO2021196294A1 (zh) * | 2020-04-03 | 2021-10-07 | 中国科学院深圳先进技术研究院 | 一种跨视频人员定位追踪方法、系统及设备 |
CN113223046A (zh) * | 2020-07-10 | 2021-08-06 | 浙江大华技术股份有限公司 | 一种监狱人员行为识别的方法和系统 |
CN113255542A (zh) * | 2021-06-02 | 2021-08-13 | 北京容联易通信息技术有限公司 | 一种基于违规行为识别的违规对象身份识别方法 |
CN113705376A (zh) * | 2021-08-11 | 2021-11-26 | 中国科学院信息工程研究所 | 一种基于rfid和摄像机的人员定位方法及系统 |
CN113988228A (zh) * | 2021-09-14 | 2022-01-28 | 中国科学院信息工程研究所 | 一种基于rfid和视觉融合的室内监控方法及系统 |
CN114205562A (zh) * | 2021-12-16 | 2022-03-18 | 国网浙江省电力有限公司绍兴供电公司 | 分布式视频指挥中心、平台、智能终端、系统及其工作方法 |
Non-Patent Citations (2)
Title |
---|
ZHANG Z 等: "IP-based video lab monitor system" * |
谈宇奇;王雪;刘长;: "物联网室内运动目标协作信息融合跟踪方法" * |
Also Published As
Publication number | Publication date |
---|---|
CN115578756B (zh) | 2023-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20180240327A1 (en) | Methods and systems for reducing false alarms in a robotic device by sensor fusion | |
TWI382762B (zh) | 移動物體的追蹤方法 | |
CN102656532B (zh) | 用于移动机器人位置识别的地图的生成及更新方法 | |
US20160224840A1 (en) | Motion-validating remote monitoring system | |
US20110115909A1 (en) | Method for tracking an object through an environment across multiple cameras | |
JP5180733B2 (ja) | 移動物体追跡装置 | |
Stepan et al. | Robust data fusion with occupancy grid | |
US20120114176A1 (en) | Image processing apparatus and image processing method | |
US11917333B2 (en) | Systems and methods for personnel location at a drilling site | |
US8504317B2 (en) | Position calibration information collecting apparatus, position calibration information collecting method, and position calibration information collecting program | |
JP3814779B2 (ja) | 侵入者自動追尾方法および装置並びに画像処理装置 | |
CN108876822A (zh) | 一种行为危险度评估方法及家庭安防看护系统 | |
KR102174784B1 (ko) | 딥 러닝과 멀티 에이전트를 활용한 대규모 개체 식별 및 추적 방법 | |
CN109800715B (zh) | 一种基于物联网的出入园区监控方法及系统 | |
WO2017199840A1 (ja) | オブジェクト追跡装置、オブジェクト追跡方法および記録媒体 | |
Snidaro et al. | Quality-based fusion of multiple video sensors for video surveillance | |
CN111461080A (zh) | 一种基于图像的智能围栏搭建和识别方法 | |
CN103914821B (zh) | 多角度图像对象融合方法及系统 | |
CN115578756B (zh) | 基于精准定位和视频联动的人员精细化管理方法及系统 | |
CN113044694A (zh) | 基于深度神经网络的工地电梯人数统计系统及方法 | |
CN116338579B (zh) | 针对人员管理的定位纠偏方法 | |
JP2007104223A (ja) | システム用カメラ、監視システム及び監視方法 | |
Bahadori et al. | Real-time people localization and tracking through fixed stereo vision | |
CN114937060A (zh) | 一种地图语义引导的单目行人室内定位预测方法 | |
CN114125274A (zh) | 一种无人值守机房报警方法、系统、存储介质及智能终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right |
Denomination of invention: A refined personnel management method and system based on precise positioning and video linkage Effective date of registration: 20230928 Granted publication date: 20230414 Pledgee: Guotou Taikang Trust Co.,Ltd. Pledgor: Hangzhou Haoheng Technology Co.,Ltd. Registration number: Y2023980059623 |