CN115578756A - 基于精准定位和视频联动的人员精细化管理方法及系统 - Google Patents

基于精准定位和视频联动的人员精细化管理方法及系统 Download PDF

Info

Publication number
CN115578756A
CN115578756A CN202211392216.8A CN202211392216A CN115578756A CN 115578756 A CN115578756 A CN 115578756A CN 202211392216 A CN202211392216 A CN 202211392216A CN 115578756 A CN115578756 A CN 115578756A
Authority
CN
China
Prior art keywords
control object
positioning
monitoring
correction
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211392216.8A
Other languages
English (en)
Other versions
CN115578756B (zh
Inventor
杨国祥
赵明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Haoheng Technology Co ltd
Original Assignee
Hangzhou Haoheng Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Haoheng Technology Co ltd filed Critical Hangzhou Haoheng Technology Co ltd
Priority to CN202211392216.8A priority Critical patent/CN115578756B/zh
Publication of CN115578756A publication Critical patent/CN115578756A/zh
Application granted granted Critical
Publication of CN115578756B publication Critical patent/CN115578756B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于精准定位和视频联动的人员精细化管理方法及系统,属于人员管控技术领域。本发明以“精准定位+视频联动”的方式实现了对精准定位到的管控对象的监控画面切换的秒级甚至毫秒级响应;并在对管控对象进行精准定位过程中通过探测佩戴在其身上的电子标签的方式快速且精准的识别管控对象身份,且在需要对管控对象身份进行二次验证时,以眼纹悬空点像素距离为身份识别的细节特征,在二验对象人数较多时能够在确保身份验证准确性的同时,兼顾二验效率;另外在精准定位过程中根据预设的活动限制条件判断管控对象当前活动是否违规,实现了对管控对象活动范围的精准监控。

Description

基于精准定位和视频联动的人员精细化管理方法及系统
技术领域
本发明涉及人员管理技术领域,具体涉及一种基于精准定位和视频联动的人员精细化管理方法及系统。
背景技术
目前对于人员的管控通常要解决以下三个问题:识别出管控对象身份;识别出管控对象的当前所处位置;识别出管控对象的当前行为或所处位置是否违规。现有技术方案中,识别管控对象身份、当前所处位置、当前行为或所处位置是否违规的过程都是孤立无联动的,例如,识别管控对象身份通常通过常规的人脸、指纹、虹膜识别等方式识别出管控对象的唯一身份特征。但是当需要被管控的对象过多时,常规的将每个管控对象的身份特征与身份特征库中的特征进行一一比对需要耗费大量时间,识别效率很低。
而识别管控对象的当前所处位置,现有方案中通常采用监控或定位的方式,比如某个安装在监舍的监控装置监控到某个管控对象时,即可确定该监控对象当前在监舍内;或者安装在管控对象身上的定位装置定位到的位置为监舍,即判定该管控对象当前在监舍内。但常规的利用监控装置识别管控对象当前所处位置的方法存在以下缺陷:
监控对象从某个监控区域进入另一个监控区域,由于监控画面切换需要一定时间,容易出现短暂时间内监控画面丢失的问题,难以做到对监控对象的持续不间断的目标跟踪。
而常规的利用定位装置识别管控对象当前所处位置的方法则存在以下缺陷:
定位装置可能存在定位误差,根据定位装置判断管控对象当前所处位置的判定结果可能并不准确,且相比较监控装置以可视化方式来表征定位结果不够直观。
而需要了解管控对象现在所处位置是否违规,现有方案通常采用设置电子围栏的方式,当定位到管控对象在电子围栏以外时,即判定其当前行动区域违规,或当需要知道管控对象现在的身体状况如何时,通过采集安装在管控对象身上的身体状况指标值,即可大致了解管控对象的身体状况。
但现有技术中,上述采用的常规身份识别方法,采用监控或定位装置识别管控对象所处位置的方法,采用电子围栏、身体状况指标值获取等方式判断管控对象当前行为或所处位置是否违规的方法,相互间都是孤立的,而非联动的,无法实现根据定位结果联动控制视频监控行为,进而当每个管控对象从一个监控区域进入到另一个监控区域时,能够实现监控画面切换的秒级甚至毫秒级响应,不丢失画面,从而真正实现对每个管控对象24小时连续不中断的目标跟踪。且以定位结果联动控制视频监控画面切换中,若对管控对象的定位结果不够精准,会对视频监控画面切换的联动响应及时性产生影响,可能会出现响应不及时或响应过于及时导致目标跟踪画面丢失的问题,因此,实现对每个管控对象的精准定位在实现监控画面切换毫秒级响应中至关重要,但现有的定位方案难以做到能够匹配视频画面切换秒级甚至毫秒级响应的要求。另外,管理方还希望,能够在定位过程中实时获取被定位对象的身份信息,常规的人脸识别、虹膜识别等方式需要定位对象的配合,并非是无感的,识别过程比较麻烦,这也是在“精准定位+视频联动”中需要解决的技术问题。
发明内容
本发明以“电子标签身份探测+精准定位+视频联动”四者联动方式,实现对管控对象的精准定位、目标跟踪的秒级甚至毫秒级视频画面切换为目的,提供了一种基于精准定位和视频联动的人员精细化管理方法及系统。
为达此目的,本发明采用以下技术方案:
提供一种基于精准定位和视频联动的人员精细化管理方法,包括步骤:
S1,将封闭空间或在途空间离散为若干个离散区域;
S2,实时获取处于各所述离散区域内的各管控对象的定位信息,包括定位位置、定位时间、行走速度、行走方向和身份信息;
S3,根据关联每个所述管控对象的所述定位信息,计算对每个所述管控对象进行定位校正的校正量;
S4,根据所述校正量对每个所述管控对象进行定位校正;
S5,根据定位校正结果和实时获取的所述行走速度、所述行走方向判断对应的所述管控对象拟进入的所述离散区域以及进入所述离散区域的所需时长;
S6,判断所需时长是否小于预设的时长阈值,
若是,则转入步骤S7;
若否,则返回步骤S2;
S7,激活用于监控拟进入的所述离散区域的监控设备,并判断等待所述所需时长后,所述监控设备是否跟踪到所述管控对象,
若是,则将针对所述管控对象的监控画面切换到所述监控设备;
若否,则释放所述监控设备,并返回步骤S2。
作为优选,步骤S3中,对处于所述封闭空间内的各所述管控对象计算用于定位校正的第一校正量的方法包括步骤:
A1,将所述封闭空间离散为至少3个作为所述离散区域的网格区域后,用于监控对应的所述网格区域的各所述监控设备实时探测与佩戴在每个所述管控对象身上的电子标签的距离,以实现对每个所述管控对象的定位,并获取相应的定位坐标;
A2,根据关联每个所述管控对象的所述定位坐标,计算管控对象
Figure 188076DEST_PATH_IMAGE001
和管控对象
Figure 17404DEST_PATH_IMAGE002
两 两间的第一距离,记为
Figure 278489DEST_PATH_IMAGE003
A3,佩戴在所述管控对象
Figure 695564DEST_PATH_IMAGE001
上的第一电子标签实时探测与佩戴在所述管控对象
Figure 880558DEST_PATH_IMAGE002
上 的第二电子标签的第二距离,记为
Figure 106003DEST_PATH_IMAGE004
A4,计算
Figure 616619DEST_PATH_IMAGE003
Figure 317727DEST_PATH_IMAGE004
的第一差值绝对值,并对关联所述管控对象
Figure 244095DEST_PATH_IMAGE001
的每个所述第一差 值绝对值进行求和平均,所得的第一求和平均值与2的除值作为拟对所述管控对象
Figure 442821DEST_PATH_IMAGE001
的位置 进行偏移校正的第一校正量。
作为优选,步骤S4中,对每个所述管控对象
Figure 858759DEST_PATH_IMAGE001
进行定位校正的方法具体包括步骤:
B1,以安装在所述封闭空间内且距离所述管控对象
Figure 984847DEST_PATH_IMAGE001
最远的所述监控装置为圆心, 以所述圆心与所述管控对象
Figure 714905DEST_PATH_IMAGE001
的当前所处位置的直线距离为半径作圆;
B2,提取步骤A3中探测到的与所述管控对象
Figure 773997DEST_PATH_IMAGE001
的直线距离最短的两条
Figure 564098DEST_PATH_IMAGE004
,分别记为
Figure 974220DEST_PATH_IMAGE005
Figure 242390DEST_PATH_IMAGE006
,并提取步骤A2计算得到的
Figure 421568DEST_PATH_IMAGE005
Figure 179308DEST_PATH_IMAGE006
分别对应的第一距离
Figure 420934DEST_PATH_IMAGE007
Figure 623288DEST_PATH_IMAGE008
B3,判断是否
Figure 594655DEST_PATH_IMAGE009
Figure 788876DEST_PATH_IMAGE010
若是,则将所述管控对象
Figure 48956DEST_PATH_IMAGE001
所在的位点
Figure 455667DEST_PATH_IMAGE001
以其所在的所述圆的半径方向延伸所述第 一校正量至圆外;
若否,则转入步骤B4;
B4,判断是否
Figure 343857DEST_PATH_IMAGE011
Figure 381083DEST_PATH_IMAGE010
若是,则将所述位点
Figure 925197DEST_PATH_IMAGE001
以靠近
Figure 463495DEST_PATH_IMAGE005
对应的管控对象
Figure 81558DEST_PATH_IMAGE012
所在的位点
Figure 228635DEST_PATH_IMAGE012
而远离管控对象
Figure 994466DEST_PATH_IMAGE013
所在的位点
Figure 867613DEST_PATH_IMAGE013
的方向在所述圆的圆弧上移动所述第一校正量;
若否,则转入步骤B5;
B5,判断是否
Figure 136920DEST_PATH_IMAGE009
Figure 640582DEST_PATH_IMAGE014
若是,则将所述位点
Figure 96972DEST_PATH_IMAGE001
以远离所述位点
Figure 977072DEST_PATH_IMAGE012
而靠近所述位点
Figure 835306DEST_PATH_IMAGE013
的方向在所述圆的圆弧 上移动所述第一校正量;
若否,则转入步骤B6;
B6,判断是否
Figure 572187DEST_PATH_IMAGE011
Figure 781452DEST_PATH_IMAGE014
若是,则将所述位点
Figure 205523DEST_PATH_IMAGE001
沿所述圆心方向移动所述第一校正量。
作为优选,步骤S3中,对处于从起始地前往目的地的在途空间的各所述管控对象计算用于定位校正的第二校正量的方法包括步骤:
C1,将所述在途空间离散为作为所述离散区域的若干个区域网格后,用于监控对 应的所述区域网格的各监控设备实时探测与佩戴在管控对象
Figure 715002DEST_PATH_IMAGE001
身上的电子标签的第三距 离,记为
Figure 498150DEST_PATH_IMAGE015
,以及通过参照定位器探测与所述管控对象
Figure 116082DEST_PATH_IMAGE001
上的所述电子标签的第四距离,记 为
Figure 541247DEST_PATH_IMAGE016
C2,以
Figure 170811DEST_PATH_IMAGE015
Figure 124861DEST_PATH_IMAGE016
分别为拟合函数的第一自变量和第二自变量,求解所述拟合函数得 到函数值,记为
Figure 167772DEST_PATH_IMAGE017
C3,计算
Figure 390769DEST_PATH_IMAGE017
与对应的真值
Figure 78102DEST_PATH_IMAGE018
的差值和第二差值绝对值;
C4,对每个所述管控对象
Figure 734211DEST_PATH_IMAGE001
对应的各所述差值进行求和,得到求和值,对对应的各 所述第二差值绝对值进行求和平均计算,得到第二求和平均值,并将所述第二求和平均值 作为拟对各所述管控对象
Figure 61156DEST_PATH_IMAGE001
的位置进行偏移校正的第二校正量;
C5,判断所述求和值是否大于“0”,
若是,则将步骤C1探测到的每个所述管控对象
Figure 765807DEST_PATH_IMAGE001
所在的位点
Figure 697860DEST_PATH_IMAGE001
以远离所述参照定位 器的方向对直线
Figure 931395DEST_PATH_IMAGE016
延伸所述第二校正量;
若否,则将步骤C1探测到的所述位点
Figure 948899DEST_PATH_IMAGE001
以靠近所述参照定位器的方向对直线
Figure 926082DEST_PATH_IMAGE016
收 缩所述第二校正量。
作为优选,所述参照定位器的设置位置需满足以下条件:
所述参照定位器与具有固定安装位置的用于监控对应的所述区域网格的每个所述监控设备的直线距离的和值平均值处于预设的长度阈值区间且所述和值平均值最小。
作为优选,步骤S3中还包括对所述管控对象进行二次身份验证的流程,具体步骤包括:
D1,读取佩戴在所述管控对象身上的电子标签的唯一编码,以获取所述管控对象的第一身份信息;
D2,采集所述管控对象的眼纹图像并以矩形框选方式框选出所述眼纹图像中的眼纹区域;
D3,将眼纹区域图像离散为若干个矩形块,并过滤掉未携带眼纹信息以及满载眼纹信息的各所述矩形块;
D4,计算过滤剩余的每个所述矩形块中的眼纹信息的悬空像素点到矩形块中心位点的距离的第一和值,并对每个所述矩形块对应的所述第一和值进行加权求和,得到第二和值;
D5,从所述管控对象对应的标准眼纹区域图像中提取出与步骤D4过滤剩余的各所述矩形块具有对应关系的标准矩形块,然后计算每个所述标准矩形块中的眼纹信息的悬空像素点到标准矩形块的中心位点的距离的第三和值,并对每个所述标准矩形块对应的所述第三和值进行加权求和,得到第四和值;
D6,判断所述第二和值与所述第四和值的差值绝对值是否小于差值阈值,
若是,则判定眼纹识别成功,获得所述标准眼纹区域图像对应的第二身份信息;
若否,则判定眼纹识别失败并报警;
D7,判断所述第一身份信息与所述第二身份信息是否一致,若是,则判定二次身份验证成功;
若否,则判定二次身份验证失败并报警。
本发明还提供了一种基于精准定位和视频联动的人员精细化管理系统,可实现所述的人员精细化管理方法,所述人员精细化管理系统包括人员管理平台、用于监控对应离散区域的监控设备和佩戴在管控对象身上的电子标签,至少一个所述监控设备监控对应的所述离散区域,各所述监控设备通信连接所述人员管理平台;
每个所述监控设备将跟踪到的各所述管控对象的定位信息发送给所述人员管理平台;
佩戴在管控对象
Figure 712641DEST_PATH_IMAGE001
上的第一电子标签实时探测与佩戴在管控对象
Figure 388516DEST_PATH_IMAGE002
上的第二电子标 签的距离,并将探测到的距离信息发送给所述人员管理平台;
所述人员管理平台根据各所述监控设备发送的所述定位信息以及所述电子标签探测到的所述距离信息对每个所述管控对象进行定位校正,并根据定位校正结果和所述定位信息确定所述管控对象拟进入的所述离散区域以及进入所述离散区域的所需时长,并判定所述所需时长小于预设的时长阈值时,激活用于监控拟进入的所述离散区域的所述监控设备,并在等待所述所需时长后,判定用于监控拟进入的所述离散区域的所述监控设备未跟踪到所述管控对象时,控制释放所述监控设备。
作为优选,所述监控设备包括:
定位模块,用于实时获取处于对应的所述离散区域内的各所述管控对象的所述定位信息,包括定位位置、定位时间、行走速度、行走方向和身份信息;
目标跟踪模块,用于对进入监控范围内的各所述管控对象进行持续目标跟踪并将跟踪到的目标的所述身份信息发送给所述人员管理平台;
定位信息发送模块,连接所述定位模块,用于将实时获取的所述定位信息发送给所述人员管理平台。
作为优选,所述人员管理平台中包括:
定位校正量计算模块,用于根据各所述监控设备发送的关联每个所述管控对象的所述定位信息,计算对每个所述管控对象进行定位校正的校正量;
定位校正模块,连接所述定位校正量计算模块,用于根据所计算的所述校正量对对应的所述管控对象进行定位校正;
拟进入离散区域及进入所需时长判断模块,连接所述定位校正模块,用于根据定位校正结果和实时获取的所述行走速度、所述行走方向判断对应的所述管控对象拟进入的所述离散区域以及进入所述离散区域的所需时长;
时长判断模块,连接拟进入离散区域及进入所需时长判断模块,用于判断所述所需时长是否小于预设的时长阈值,
若是,则生成监控设备激活信号并输出给用于监控拟进入的所述离散区域的所述监控设备,所述监控设备接收到所述激活信号后被激活进入监控模式;
若否,则不生成所述监控设备激活信号;
监控画面切换模块,用于判断等待所述所需时长后,用于监控拟进入的所述离散区域的所述监控设备是否跟踪到所述管控对象,
若是,则将针对所述管控对象的监控画面切换到用于监控拟进入的所述离散区域的所述监控设备;
若否,则生成监控设备释放信号,用于监控拟进入的所述离散区域的所述监控设备接收到所述释放信号后退出监控模式。
本发明具有以下有益效果:
1、当管控对象处于封闭空间时,将封闭空间离散为至少3个网格区域后,通过用于监控每个网格区域的内含有定位装置和目标跟踪装置的每个监控设备获取每个管控对象的定位坐标,并根据定位坐标计算管控对象两两间的第一距离,并通过佩戴在每个管控对象身上的电子标签去计算两两管控对象间的第二距离,然后根据关联每个管控对象的第一距离和第二距离去计算对其进行位置偏移校正的第一校正量,然后按照预设策略以第一校正量完成对该管控对象的定位校正,通过实时位置更新校正,实现了对每个处于封闭空间的管控对象的精准定位,有利于提升后续视频画面切换根据定位结果进行联动响应的及时性。
2、当管控对象处于从起始地前往目的地的在途空间时,将在途空间离散为若干个 区域网格并为每个区域网格配置专用的内含有定位装置和目标跟踪装置的监控设备后,首 先,通过监控设备实时探测与当前处于监控的区域网格中的每个管控对象距离,记为
Figure 627737DEST_PATH_IMAGE015
, 以及通过参照定位器探测与该管控对象的距离,记为
Figure 143032DEST_PATH_IMAGE016
,然后以
Figure 784097DEST_PATH_IMAGE015
Figure 421752DEST_PATH_IMAGE016
为拟合函数的第 一自变量和第二自变量,求解记为
Figure 351531DEST_PATH_IMAGE017
的函数值,这个函数值为预测的参照定位器与监控 设备的距离,由于监控设备的安装位置是固定不变的,因此可以根据
Figure 936096DEST_PATH_IMAGE017
与其对应的真值
Figure 900510DEST_PATH_IMAGE018
的误差来判断监控设备对管控对象的定位误差。然后根据每个管控对象对应的
Figure 36962DEST_PATH_IMAGE017
值和
Figure 860561DEST_PATH_IMAGE017
值对应的真值
Figure 656609DEST_PATH_IMAGE018
来计算对每个管控对象进行位置偏移校正的第二校正 量,最后以第二校正量对每个管控对象进行位置更新校正,从而实现了对处于在途空间的 每个管控对象的精准定位,有利于提升后续视频监控画面切换根据定位结果进行联动响应 的及时性。
3、参照定位器的设置位置以与用于监控对应的网格区域的每个监控设备的直线距离的和值平均值处于预设的长度阈值区间且和值平均值最小为条件,通过寻优方式设置在最优距离,有利于在确保探测精度的同时提升距离探测的效率。
4、以“精准定位”为基础,当判定管控对象行走到行走方向对应的网格区域的边界的所需时长小于预设的时长阈值时,提前激活用于监控即将进入的网格区域或区域网格的监控设备,并在等待所需时长后,若激活的该监控设备跟踪到该监控对象,则直接切换为该监控设备监控到的画面,由此通过“精准定位+视频联动”的方式,实现了对每个管控对象进行目标跟踪的秒级甚至毫秒级响应。
5、以电子标签唯一编码作为每个管控对象的唯一身份特征,监控设备、参照定位器在探测佩戴在管控对象身上的电子标签时,顺带通过识别电子标签的唯一编码能够实时识别被定位对象的身份,实现了“精准定位+视频联动”与“身份识别”三者间的联动。
6、以眼纹悬空像素点为眼纹细节特征,通过提取管控对象的眼纹图像中的眼纹细节特征,在进行眼纹身份比对时,仅比对眼纹细节特征,在确保身份比对准确率的同时大幅提升了比对速度,特别适用于需同时对大量管控对象进行二次身份验证的场景。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例中所需要使用的附图作简单地介绍。显而易见地,下面所描述的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明对处于室内或室外封闭空间内的管控对象进行定位校正的示意图;
图2是本发明对处于从起始地到目的地的在途空间内的管控对象进行定位校正的示意图;
图3是计算眼纹区域图像中的矩形块对应的第一和值的示意图;
图4是进行眼纹细节特征匹配的示意图;
图5是通过两个定位装置对管控对象进行定位的示意图;
图6是本发明一实施例提供的基于精准定位和视频联动的人员精细化管理方法的实现步骤图;
图7是本发明一实施例提供的基于精准定位和视频联动的人员精细化管理系统的结构示意图。
具体实施方式
下面结合附图并通过具体实施方式来进一步说明本发明的技术方案。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本专利的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若出现术语“上”、“下”、“左”、“右”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
在本发明的描述中,除非另有明确的规定和限定,若出现术语“连接”等指示部件之间的连接关系,该术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个部件内部的连通或两个部件的相互作用关系。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
本发明提供的基于精准定位和视频联动的人员精细化管理方法,围绕“精准定位+视频联动”这一技术核心,以对每个管控对象的精准定位结果去联动控制相应的监控视频持续不间断的跟踪每个管控对象,实现了视频画面切换的秒级甚至毫秒级响应;并在对每个管控对象进行精准定位的同时,通过探测佩戴在其身上的电子标签的唯一编码的方式,实现了对管控对象身份快速且精准的识别;同时在精准定位过程中根据预设的活动限制条件判断管控对象当前活动是否违规并在异常时在监控画面中告警,最终通过可视化的监控画面直观且快速、精准的实现了对每个管控对象的身份识别、精准定位以及行为是否违规的判断。
以下以监狱为应用场景为例,对本发明实施例提供的基于精准定位和视频联动的人员精细化管理方法如何具体实现进行详细说明:
如图6所示,本实施例提供的基于精准定位和视频联动的人员精细化管理方法包括步骤:
S1,将封闭空间或在途空间(在途空间比如为从监舍前往食堂的走廊中的空间,或者从食堂前往操场的走廊中的空间等)离散为若干个离散区域;
S2,实时获取对管控对象的定位信息,包括定位位置、定位时间、行走速度、行走方向和管控对象的人员信息;
在监狱应用场景,管控对象包括被收监的管控人员、在监狱的工作人员和临时进入监狱的临时人员。每个管控对象在监狱内具有每日的活动事件,比如对于A监区的每个被收监的管控人员,通常其每日的活动事件按时间轴顺序比如记录为:6:20起床点名-7:00早饭-8:30出工-11:30收工-12:00午饭-14:00出工-17:00收工-18:00晚饭-19:00集体看新闻-21:30熄灯,对应这个时间轴,该管控人员的活动限制时间轴链条可以记录为:链节点1(活动限制条件为6:20-7:00在监舍、或在从监舍前往食堂的途中、或在食堂)-链节点2(活动限制条件为7:00-8:30在食堂或在从食堂前往出工地的途中)-链节点3(活动限制条件为8:30-11:30在出工场地)-链节点4(活动限制条件为11:30-12:00在出工地,或在从出工地前往食堂的途中,或在食堂)-链节点5(活动限制条件为12:00-14:00在食堂,或在食堂前往监舍的途中,或在监舍)-链节点6(活动限制条件为14:00-17:00在从监舍前往出工地的途中,或在出工地)-链节点7(活动限制条件为17:00-18:00在出工地到食堂的途中,或在食堂)-链节点8(活动限制条件为18:00-19:00在食堂,或从食堂前往观影室的途中)-链节点9(活动限制条件为19:00-20:30在观影室、或从观影室到监舍的途中,或在监舍)-链节点10(活动限制条件为20:30-次日6:20在监舍)。相同或不同监区的管控对象可能具有相同或不同的活动限制时间轴链条。
为了实现视频监控画面切换的秒级甚至毫秒级响应,当管控对象处于室内或室外的封闭空间时,比如处于监舍内、食堂内或者处于室外的具有活动区域范围限制的操场中时,对每个管控对象进行定位校正的方法包括以下步骤:
A1,将如图1所示为监舍的封闭空间离散为至少3个网格区域100后,用于监控对应的网格区域的各监控设备实时探测与佩戴在每个管控对象身上的电子标签的距离,以实现对每个管控对象的定位,并获取相应的定位坐标;
每个网格区域中安装有至少一个专用的监控设备2,监控设备2用于监控对应的网格区域,每个监控设备2包括用于对管控对象进行厘米级定位的定位装置(能够实现厘米级定位的现有定位装置有许多,因此关于所采用的定位设备的具体品牌、型号不作说明)和用于对管控对象进行持续目标跟踪的目标跟踪装置(优选为高清摄像头);
这里需要说明的是,将封闭空间离散为至少3个网格区域100有利于提高对管控对象定位的精准程度。如图5所示,通过距离定位的方式,两个定位设备101探测到的处于A点和B点的管控对象的距离是相同的,在这种情况下,难以根据探测距离判断管控对象到底是处于A点还是B点,因此通过安装在不同网格区域的至少3个定位装置探测与管控对象的距离,能够解决上述问题,使得定位更加精准。
监控设备探测与电子标签的距离的原理为:
每个监控设备中的定位装置同时向同个电子标签发送距离探测信号,电子标签接收到该距离探测信号后进行信号反馈,每个定位装置接收到反馈信号后可以根据反馈时间计算出与佩戴有该电子标签的管控对象的距离,至少3个距离被确定后,可以转换为该管控对象在物理坐标系下的定位坐标。
电子标签的唯一编码与佩戴者的身份相关联,在对管控对象进行定位时,同时获取电子标签的唯一编码,并基于预先录入的电子标签唯一编码与管控对象身份的关联关系,即可快速获知被定位的人员的身份。为了可视化该身份,可以在对该管控对象的监控画面中显示其身份信息,比如“姓名:XXX,性别:男,A监区C监舍”。
当封闭空间较大而定位装置布设数量不够多时,长距离对管控对象进行定位探测容易产生误差,这种误差会影响以定位结果联动切换视频画面的响应及时性。为了解决这个问题,本发明每次在对每个管控对象进行定位探测时,都对定位结果进行校正,以尽可能的减少这种误差,采取的方案即以下的步骤A2-A4:
A2,根据关联每个管控对象的定位坐标,计算管控对象
Figure 616474DEST_PATH_IMAGE001
Figure 392669DEST_PATH_IMAGE002
两两间的第一距离,记 为
Figure 93778DEST_PATH_IMAGE003
;这里的管控对象
Figure 20146DEST_PATH_IMAGE001
Figure 490310DEST_PATH_IMAGE002
不限于同处于图1中所示的同个网格区域,只要在同个时间处于 同个封闭空间内即可。当然,当处于同个封闭空间内比如操场内的管控对象数量过多时,为 了降低定位校正的复杂度,可以选择处于同个网格区域内的管控对象作为计算第一校正量 的对象,而排除处于非同个网格区域内的管控对象为第一校正量的计算对象。
Figure 109510DEST_PATH_IMAGE003
的计算方法为:
假定管控对象
Figure 235598DEST_PATH_IMAGE001
的定位坐标为
Figure 90291DEST_PATH_IMAGE019
,管控对象
Figure 290328DEST_PATH_IMAGE002
的定位坐标为
Figure 945343DEST_PATH_IMAGE020
,则
Figure 965252DEST_PATH_IMAGE021
A3,佩戴在管控对象
Figure 358056DEST_PATH_IMAGE001
上的第一电子标签实时探测与佩戴在管控对象
Figure 271654DEST_PATH_IMAGE002
上的第二电 子标签的第二距离,记为
Figure 967078DEST_PATH_IMAGE004
电子标签具有自定位功能,可以探测与其他电子标签的距离。具有自定位功能的现有的电子标签有许多,因此,有关本发明使用的带自定位功能的电子标签的具体品牌、型号在此不做说明。
A4,计算
Figure 395654DEST_PATH_IMAGE003
Figure 654466DEST_PATH_IMAGE004
的第一差值绝对值,并对关联管控对象
Figure 219308DEST_PATH_IMAGE001
的每个第一差值绝对值 进行求和平均,所得的第一求和平均值与2的除值作为拟对管控对象
Figure 266724DEST_PATH_IMAGE001
的位置进行偏移校正 的第一校正量;
这里需要说明的是,本发明是对封闭空间内的每个管控对象的定位位置进行同时校正的。一条表征距离的直线包含两个管控对象所在的位点,如果直接以第一求和平均值对这两个位点进行偏移量校正,在两个位点都以第一求和平均值为向外拓展的量来延长该条直线或都以第一求和平均值向内收缩来减短该条直线进行校正时会出现校正过度的问题。因此,为了解决这个问题,本发明通过对第一求和平均值除“2”,以尽量避免校正过度的问题。
还需说明的是,当
Figure 917017DEST_PATH_IMAGE003
Figure 792569DEST_PATH_IMAGE004
的第一差值绝对值很小时,说明固定安装的定位设备对 管控对象
Figure 946339DEST_PATH_IMAGE001
的定位结果是相对准确度,若还对该管控对象
Figure 717986DEST_PATH_IMAGE001
进行定位校正,反而会出现校正 错误。为了解决这个问题,本发明设置了第一差值绝对值阈值,即将步骤A4分解为如下步 骤:
A41,计算
Figure 855575DEST_PATH_IMAGE003
Figure 3660DEST_PATH_IMAGE004
的第一差值绝对值;
A42,过滤掉小于预设的第一差值绝对值阈值的各第一差值绝对值;
A43,对过滤剩余的各第一差值绝对值进行求和平均,所得的第一求和平均值与2 的除值作为拟对过滤剩余的所述管控对象
Figure 277515DEST_PATH_IMAGE001
的位置进行偏移校正的第一校正量。
定位校正的方向是360度可选的,计算到第一校正量后,确定往哪个方向对每个管 控对象进行定位偏移校正成为保证校正结果准确的关键。为了解决这个问题,步骤S4中,对 每个处于封闭空间内的管控对象
Figure 485643DEST_PATH_IMAGE001
进行定位校正的方法具体包括步骤:
B1,以安装在封闭空间内且距离管控对象
Figure 585229DEST_PATH_IMAGE001
最远的监控装置为圆心,以该圆心与管 控对象
Figure 537004DEST_PATH_IMAGE001
的当前所处位置的直线距离为半径作圆,
Figure 665366DEST_PATH_IMAGE001
在圆弧上的示意请参照图1,图1中,管控 对象
Figure 903449DEST_PATH_IMAGE001
在所作圆的圆弧200上;
B2,提取步骤A3中探测到的与管控对象
Figure 953314DEST_PATH_IMAGE001
的直线距离最短的两条
Figure 443201DEST_PATH_IMAGE004
,假设这个
Figure 426069DEST_PATH_IMAGE002
为 图1中所示的管控对象
Figure 241579DEST_PATH_IMAGE012
Figure 44318DEST_PATH_IMAGE013
,则提取的两条
Figure 400213DEST_PATH_IMAGE004
分别记为
Figure 130533DEST_PATH_IMAGE005
Figure 241577DEST_PATH_IMAGE006
,并提取步骤A2计算得到 的
Figure 406979DEST_PATH_IMAGE005
Figure 628882DEST_PATH_IMAGE006
分别对应的
Figure 196130DEST_PATH_IMAGE007
Figure 478075DEST_PATH_IMAGE008
B3,判断是否
Figure 130773DEST_PATH_IMAGE009
Figure 156367DEST_PATH_IMAGE010
若是,则将管控对象
Figure 843700DEST_PATH_IMAGE001
的定位坐标的位点
Figure 296547DEST_PATH_IMAGE001
以其所在的圆的半径方向延伸第一校正 量至圆外(延伸后的位点如图1中的附图标记“300”所示);
若否,则转入步骤B4;
B4,判断是否
Figure 233279DEST_PATH_IMAGE011
Figure 678210DEST_PATH_IMAGE010
若是,则将管控对象
Figure 344684DEST_PATH_IMAGE001
的定位坐标的位点
Figure 578219DEST_PATH_IMAGE001
以靠近
Figure 330143DEST_PATH_IMAGE005
对应的管控对象
Figure 572906DEST_PATH_IMAGE012
的定位坐标 的位点
Figure 31569DEST_PATH_IMAGE012
而远离管控对象
Figure 826218DEST_PATH_IMAGE013
的定位坐标的位点
Figure 3122DEST_PATH_IMAGE013
的方向在所作圆的圆弧上移动校正量(移动 后的位点如图1中的附图标记“400”所示);
若否,则转入步骤B5;
B5,判断是否
Figure 315155DEST_PATH_IMAGE009
Figure 956220DEST_PATH_IMAGE014
若是,则将位点
Figure 384753DEST_PATH_IMAGE001
以远离
Figure 235904DEST_PATH_IMAGE005
对应的位点
Figure 820469DEST_PATH_IMAGE012
而靠近位点
Figure 988145DEST_PATH_IMAGE013
的方向移动在所作圆的圆弧 上移动第一校正量(移动后的位点如图1中的附图标记“500”所示);
若否,则转入步骤B6;
B6,判断是否
Figure 921335DEST_PATH_IMAGE011
Figure 276093DEST_PATH_IMAGE014
若是,则将位点
Figure 523403DEST_PATH_IMAGE001
沿圆心方向移动第一校正量(移动后的位点如图1中的附图标记 “600”所示)。
步骤A1-A4提供的定位校正方法适于封闭空间面积较小且管控对象行走速度较慢的场景。将该定位校正方案应用于面积不确定且管控对象行走速度较快的室外场景时,实验发现,该方案定位还不够精准且不够快速,难以实现与视频联动的秒级甚至毫秒级画面切换响应。为了解决这个问题,针对面积不确定且管控对象行走速度较快的室外场景,本发明另外提供了一种定位校正方法,具体而言,对处于从起始地前往目的地的在途空间(比如从监舍前往食堂)的各管控对象计算用于定位校正的第二校正量的方法包括步骤:
C1,将在途空间离散为若干个如图2中所示的区域网格10后,用于监控对应的区域 网格的各监控设备实时探测与佩戴在管控对象
Figure 342323DEST_PATH_IMAGE001
身上的电子标签的第三距离,记为
Figure 530903DEST_PATH_IMAGE015
,以 及通过参照定位器探测与管控对象
Figure 232011DEST_PATH_IMAGE001
上的电子标签的第四距离,记为
Figure 892800DEST_PATH_IMAGE016
每个监控设备20包括用于探测与佩戴在管控对象身上的电子标签的距离的定位装置以及对管控对象进行目标跟踪的目标跟踪装置(优选为高清摄像头);
C2,以
Figure 362964DEST_PATH_IMAGE015
Figure 513323DEST_PATH_IMAGE016
分别为拟合函数的第一自变量和第二自变量,求解拟合函数,得到 函数值,记为
Figure 45935DEST_PATH_IMAGE017
C3,计算
Figure 900628DEST_PATH_IMAGE017
与对应的真值
Figure 100665DEST_PATH_IMAGE018
的差值和第二差值绝对值;
C4,对每个区域网格对应的各差值和各第二差值绝对值分别进行求和以及求和平均计算,分别得到求和值和第二求和平均值,并将第二求和平均值作为拟对管控对象的位置进行偏移校正的第二校正量。
这里需要说明的是,当
Figure 749821DEST_PATH_IMAGE017
Figure 35309DEST_PATH_IMAGE018
的第二差值绝对值很小时,说明固定安装的 监控设备与参照定位器对管控对象
Figure 693692DEST_PATH_IMAGE001
的定位结果是相对准确度,若还对该管控对象
Figure 765814DEST_PATH_IMAGE001
进行定 位校正,反而会出现校正错误。为了解决这个问题,本发明设置了第二差值绝对值阈值,即 将步骤C4分解为如下步骤:
C41,过滤掉小于预设的第二差值绝对值阈值的各第二差值绝对值;
C42,对过滤剩余的每个第二差值绝对值进行求和平均计算,并将得到将第二求和平均值作为拟对管控对象的位置进行偏移校正的第二校正量。
C5,判断求和值是否大于“0”,
若是,则将步骤C1探测到的每个管控对象所在的坐标位点以远离参照定位器30的 方向对直线
Figure 585871DEST_PATH_IMAGE016
延伸第二校正量(延伸后的位点如图2中的附图标记“40”表示),并将校正后 的定位坐标作为对应的管控对象的定位位置;
若否,则将步骤C1探测到的每个管控对象所在的坐标位点以靠近参照定位器的方 向对直线
Figure 358655DEST_PATH_IMAGE016
收缩第二校正量(收缩后的位点如图2中的附图标记“50表示”),并将校正后的 定位坐标作为对应的管控对象的定位位置。
以下对步骤C1-C5提供的方案对管控对象的定位校正的技术原理进行总结:
参照定位器的设置位置和用于监控每个区域网格的自带定位功能的监控设备的 设置位置是固定的,因此,参照定位器与每个监控设备间的直线距离(即真值
Figure 227254DEST_PATH_IMAGE018
)也是 固定的。本发明以参照定位器与管控对象的探测距离和管控对象与监控设备的探测距离通 过拟合函数去预测监控设备与参照定位器的距离
Figure 995359DEST_PATH_IMAGE017
,当
Figure 924000DEST_PATH_IMAGE017
与其对应的真值
Figure 246397DEST_PATH_IMAGE018
的 第二差值绝对值大于预设的第二差值绝对值阈值时,便判定对该管控对象的定位结果的误 差是不可被接受的,需要进行校正。本发明利用对
Figure 918687DEST_PATH_IMAGE017
的预测误差大小侧面判断对管控对 象的定位误差是否可被接受,通过设置第二差值绝对值阈值来表征定位误差可被接受的程 度,这个第二差值绝对值阈值是经过反复实验总结而得的,在这个第二差值绝对值阈值下, 不会影响监控视频根据定位结果进行秒级甚至毫秒级联动响应的及时性。
另外需要说明的是,参照定位器的设置位置对于定位速度和定位校正的速度具有直接影响。理想情况下,希望参照定位器与图2中的每个区域网格的距离之和越小越好,因为探测距离越短,定位响应越快。但由于本发明采用拟合函数的预测值与对应的真值间的误差去判断对管控对象的定位误差是否可被接受,当参照定位器与管控对象间的距离过小,即探测距离过短时,拟合函数的预测误差会变大,因此,为了解决这个问题,本发明对参照定位器的设置位置作了限制,限制条件如下:
参照定位器与具有固定安装位置的用于监控对应区域网格的每个监控设备的直线距离的和值平均值处于预设的长度阈值区间且和值平均值最小。由于寻找参照定位器的最优设置位置的方法并非本发明要求权利保护的范围,因此有关寻找参照定位器最优位置的方法在此不做具体说明。
以下对本发明得到拟合函数的方法进行简要说明:
本发明采用的拟合函数的表达式如下式(1)所示:
Figure 682244DEST_PATH_IMAGE022
公式(1)中,
Figure 844104DEST_PATH_IMAGE023
表示拟合函数;
Figure 325901DEST_PATH_IMAGE024
Figure 536302DEST_PATH_IMAGE025
分别表示第一自变量和第二自变量;
Figure 753700DEST_PATH_IMAGE026
Figure 24144DEST_PATH_IMAGE027
Figure 321133DEST_PATH_IMAGE028
分别为
Figure 663122DEST_PATH_IMAGE029
的项系数、
Figure 401271DEST_PATH_IMAGE030
的项系数和常数项。
拟合函数
Figure 842616DEST_PATH_IMAGE023
的预测性能与
Figure 423639DEST_PATH_IMAGE026
Figure 913527DEST_PATH_IMAGE027
Figure 896395DEST_PATH_IMAGE028
的取值是否准确有直接关系,为了得到准确的
Figure 446325DEST_PATH_IMAGE026
Figure 186748DEST_PATH_IMAGE027
Figure 864680DEST_PATH_IMAGE028
取值,本发明优选采用拉格朗日插值多项式的插值方法求解
Figure 577421DEST_PATH_IMAGE026
Figure 688465DEST_PATH_IMAGE027
Figure 181763DEST_PATH_IMAGE028
,求解方法简述如下:
以关联每个管控对象的
Figure 75770DEST_PATH_IMAGE015
-
Figure 705334DEST_PATH_IMAGE016
数据对和对应的
Figure 252859DEST_PATH_IMAGE017
为拟合点,将各拟合点拟合为 一条曲线,然后根据该拟合曲线反推得到拟合函数中的
Figure 702295DEST_PATH_IMAGE026
Figure 399993DEST_PATH_IMAGE027
Figure 217819DEST_PATH_IMAGE028
分别对应的取值,然后对拟合 函数的预测性能进行评价,当预测误差未达到理想时,通过相应的校正方法校正
Figure 264141DEST_PATH_IMAGE026
Figure 794349DEST_PATH_IMAGE027
Figure 499000DEST_PATH_IMAGE028
,当 预测误差达到理想时,输出最终的拟合函数。由于求解
Figure 899894DEST_PATH_IMAGE026
Figure 258063DEST_PATH_IMAGE027
Figure 885353DEST_PATH_IMAGE028
的具体过程以及校正
Figure 252750DEST_PATH_IMAGE026
Figure 994570DEST_PATH_IMAGE027
Figure 930165DEST_PATH_IMAGE028
的 具体过程并非本发明要求权利保护的范围,因此不做具体说明。
通过上述方案,实现对每个管控对象的精准定位后,如图6所示,本实施例提供的基于精准定位和视频联动的人员精细化管理方法转入步骤:
S3,根据关联每个管控对象的定位信息,计算对每个管控对象进行定位校正的校正量;步骤S3具体包括如下步骤:
S31,从关联管控对象的活动限制时间轴链条中获取定位时间对应的链节点,并解析出该链节点对应的活动限制条件,同时保持定位位置落入的第一网格区域(包括网格区域或区域网格)对应的第一监控装置(包括监控装置和监控设备)对该监控对象的目标持续跟踪;
S32,判断第一网格区域是否处于活动限制条件中记载的限制活动区域范围内,
若是,则转入步骤S33;
若否,则生成异常提示信息发送给平台进行告警并形成告警记录;
S33,根据关联每个管控对象的定位信息,计算对每个管控对象进行定位校正的校正量;
S4,根据步骤S3计算的校正量对每个对应的管控对象进行定位校正;
校正量的计算方法以及定位校正的方法在上述的步骤A1-A4、B1-B6、C1-C5中做了详细阐述,在此不再赘述。
S5,根据行走速度计算管控对象行走到行走方向对应的第二网格区域的边界的所需时长;
此处举例而言,管控对象的行走方向若为从图1中的A区域向B区域行走,A区域作为第一网格区域,B区域作为第二网格区域,A区域和B区域的边界为图1中的“s1”,对管控对象的实时定位位置和边界“s1”的位置是已知的,因此可以计算出管控对象的定位位置与边界“s1”的实时距离,然后根据获取到的行走速度,即可计算出按当前行走方向行走到边界所需的时长。
管控对象的行走速度和行走方向可以分别通过设置在电子标签中的速度传感器和陀螺仪实时测量而得,为常规的技术手段,因此关于获取管控对象的实时行走速度和行走方向的方法在此不做具体说明。
S6,判断所需时长是否小于预设的时长阈值,
若是,则转入步骤S7;
若否,则返回步骤S2;
步骤S6的目的是避免过早激活用于监控第二网格区域的第二监控装置,造成监控资源浪费。管控对象在网格区域内的行走方向是动态变化的,当前时间点可能往第二网格区域行走,下个时间点可能就改变方向了,因此过早激活第二网格区域的第二监控装置,当管控对象改变行走方向最终未进入第二网格区域时,这个激活动作便是多余的,当针对不同管控对象同时执行的这种激活动作过多时,监控无效响应会增加,会对具有真实的视频联动需求的监控装置产生不良影响。因此,本发明通过设置时长阈值的方式解决了这个问题。
S7,激活第二网格区域对应的第二监控装置,并判断等待所述时长后,第二监控装置是否跟踪到该管控对象,
若是,则将针对该管控对象的监控画面切换到第二监控装置并释放第一监控装置;
若否,则释放第二监控装置,然后返回步骤S2。
通过电子标签中携带的唯一编码去识别管控对象身份可能存在造假,比如将佩戴的电子标签与其他管控对象进行调换,这样便会导致电子标签指代的对象与真实对象不一致,为了解决这个问题,当链节点对应的活动限制条件包括身份二次验证时,比如在20:30分以后回到监舍时,需要对每个管控对象进行身份二次验证,验证方法为:
当识别到针对管控对象提取的活动限制条件中包括身份二次验证时,首先生成身份二次验证消息并推送给佩戴在管控对象身上的电子标签,以提示管控对象自主进行二次身份验证,然后通过以下方法步骤完成二次身份验证:
D1,读取佩戴在管控对象身上的电子标签的唯一编码,并基于电子标签唯一编码与对应身份信息的绑定关系,获取对应的第一身份信息;
D2,采集管控对象的眼纹图像并以矩形框选方式框选出眼纹图像中的眼纹区域;
D3,对眼纹区域图像的宽和高以等间隔方式分别等分为若干段;
D4,从每个等分点出发以垂直于出发点所在边的方式向相对边的相对等分点上连线以将眼纹区域图像离散为若干个矩形块,然后以在眼纹区域图像的左顶角处的矩形块为标序起点,按照从左往右、自上而下的标序方式对每个矩形块进行标序(排序结果如图4中的a所示);
D5,过滤掉眼纹区域图像中未携带眼纹信息以及满载眼纹信息的各矩形块;例如图4的a中的标序号为1、2、4、6、7、12等矩形块未携带眼纹信息,标序号为8的矩形块满载眼纹信息,满载的含义为:眼纹触及了矩形块的每条边;
D6,对经步骤D5过滤剩余的每个矩形块,计算对应的第一和值,计算方法具体为:
E1,提取矩形块中的眼纹信息的悬空像素点;
E2,计算每个悬空像素点与所在的矩形块的中心位点的距离;
E3,对每个悬空像素点对应的距离进行求和,得到矩形块对应的第一和值。
以图4中的5号矩形块为例,首先提取出标记为P1、P2、P3的悬空像素点,然后分别计算悬空像素点P1、P2、P3与该矩形块的中心位点O的距离,最后对每个悬空像素点对应的距离进行求和,即得到该矩形块对应的第一和值。
D7,对每个矩形块对应的各第一和值进行加权求和,得到第二和值;眼纹细节特征越多,识别身份的能出越强,因此,赋予眼纹细节特征较多的矩形块更大的权重;
D8,提取出管控对象对应的标准眼纹区域图像所对应的离散图(如图4中的b所示)中与步骤C5过滤剩余的每个所述矩形块具有排序号对应关系的标准矩形块(比如,图4中的a和b中排序号均为“1”的矩形块和标准矩形块具有位置对应关系),然后计算每个标准矩形块对应的第三和值(第三和值的计算方法与第一和值的计算方法一致,在此不再赘述)的加权求和值,得到第四和值;
D9,判断第二和值与第四和值的差值绝对值是否小于差值阈值
若是,则判定眼纹识别成功,获得眼纹识别对应的第二身份信息;
若否,则判定眼纹识别失败并告警;
D10,判断所述第一身份信息和所述第二身份信息是否一致,
若是,则判定二次身份验证成功;
若否,则判定二次身份验证失败并报警。
本发明考虑眼纹像素悬空点表达的眼纹细节特征作为身份识别的依据,在需要同时进行眼纹识别的管控对象数量庞大时,能够在确保眼纹识别准确性的同时大幅提升眼纹识别的速度。且通过眼纹识别结果与电子标签唯一编码指代的身份识别结果进行比对,能够有效防止拆卸替换电子标签进行身份作假等行为,提高了管控效果。
综上,本发明以“精准定位+视频联动”的方式实现了对精准定位到的管控对象的监控画面切换的秒级甚至毫秒级的视频监控响应;并在对管控对象进行定位过程中通过探测佩戴在其身上的电子标签的方式快速且精准的识别管控对象身份,且在需要对管控对象身份进行二次验证时,以眼纹悬空点像素距离为身份识别的细节特征,在二验对象人数较多时能够在确保身份验证准确性的同时,兼顾二验效率;另外在精准定位过程中根据预设的活动限制条件判断管控对象当前活动是否违规实现了对管控对象活动范围的精准监控。
本发明还提供了一种基于精准定位和视频联动的人员精细化管理系统,可实现的人员精细化管理方法,如图7所示,该人员精细化管理系统包括人员管理平台、用于监控对应离散区域的监控设备和佩戴在管控对象身上的电子标签,至少一个监控设备监控对应的离散区域,各监控设备通信连接人员管理平台;
每个监控设备将跟踪到的各管控对象的定位信息发送给人员管理平台;
佩戴在管控对象
Figure 169385DEST_PATH_IMAGE001
上的第一电子标签实时探测与佩戴在管控对象
Figure 543735DEST_PATH_IMAGE002
上的第二电子标 签的距离,并将探测到的距离信息发送给人员管理平台;
人员管理平台根据各监控设备发送的定位信息以及电子标签探测到的距离信息对每个管控对象进行定位校正,并根据定位校正结果和定位信息确定管控对象拟进入的离散区域以及进入离散区域的所需时长,并判定所需时长小于预设的时长阈值时,激活用于监控拟进入的离散区域的监控设备,并在等待所需时长后,判定用于监控拟进入的离散区域的监控设备未跟踪到管控对象时,控制释放该监控设备。
监控设备中具体包括:
定位模块,用于实时获取处于对应的离散区域内的各管控对象的定位信息,包括定位位置、定位时间、行走速度、行走方向和身份信息;
目标跟踪模块,用于对进入监控范围内的各管控对象进行持续目标跟踪并将跟踪到的目标的身份信息发送给人员管理平台;
定位信息发送模块,连接定位模块,用于将实时获取的定位信息发送给人员管理平台。
人员管理平台中具体包括:
定位校正量计算模块,用于根据各监控设备发送的关联每个管控对象的定位信息,计算对每个管控对象进行定位校正的校正量;
定位校正模块,连接定位校正量计算模块,用于根据所计算的校正量对对应的管控对象进行定位校正;
拟进入离散区域及进入所需时长判断模块,连接定位校正模块,用于根据定位校正结果和实时获取的行走速度、行走方向判断对应的管控对象拟进入的离散区域以及进入离散区域的所需时长;
时长判断模块,连接拟进入离散区域及进入所需时长判断模块,用于判断所需时长是否小于预设的时长阈值,
若是,则生成监控设备激活信号并输出给用于监控拟进入的离散区域的监控设备,监控设备接收到激活信号后被激活进入监控模式;
若否,则不生成监控设备激活信号;
监控画面切换模块,用于判断等待所需时长后,用于监控拟进入的离散区域的监控设备是否跟踪到管控对象,
若是,则将针对管控对象的监控画面切换到用于监控拟进入的离散区域的监控设备;
若否,则生成监控设备释放信号,用于监控拟进入的离散区域的监控设备接收到释放信号后退出监控模式。
需要声明的是,上述具体实施方式仅仅为本发明的较佳实施例及所运用技术原理。本领域技术人员应该明白,还可以对本发明做各种修改、等同替换、变化等等。但是,这些变换只要未背离本发明的精神,都应在本发明的保护范围之内。另外,本申请说明书和权利要求书所使用的一些术语并不是限制,仅仅是为了便于描述。

Claims (9)

1.一种基于精准定位和视频联动的人员精细化管理方法,其特征在于,包括步骤:
S1,将封闭空间或在途空间离散为若干个离散区域;
S2,实时获取处于各所述离散区域内的各管控对象的定位信息,包括定位位置、定位时间、行走速度、行走方向和身份信息;
S3,根据关联每个所述管控对象的所述定位信息,计算对每个所述管控对象进行定位校正的校正量;
S4,根据所述校正量对每个所述管控对象进行定位校正;
S5,根据定位校正结果和实时获取的所述行走速度、所述行走方向判断对应的所述管控对象拟进入的所述离散区域以及进入所述离散区域的所需时长;
S6,判断所需时长是否小于预设的时长阈值,
若是,则转入步骤S7;
若否,则返回步骤S2;
S7,激活用于监控拟进入的所述离散区域的监控设备,并判断等待所述所需时长后,所述监控设备是否跟踪到所述管控对象,
若是,则将针对所述管控对象的监控画面切换到所述监控设备;
若否,则释放所述监控设备,并返回步骤S2。
2.根据权利要求1所述的基于精准定位和视频联动的人员精细化管理方法,其特征在于,步骤S3中,对处于所述封闭空间内的各所述管控对象计算用于定位校正的第一校正量的方法包括步骤:
A1,将所述封闭空间离散为至少3个作为所述离散区域的网格区域后,用于监控对应的所述网格区域的各所述监控设备实时探测与佩戴在每个所述管控对象身上的电子标签的距离,以实现对每个所述管控对象的定位,并获取相应的定位坐标;
A2,根据关联每个所述管控对象的所述定位坐标,计算管控对象
Figure 934963DEST_PATH_IMAGE001
和管控对象
Figure 196312DEST_PATH_IMAGE002
两两间的 第一距离,记为
Figure 320257DEST_PATH_IMAGE003
A3,佩戴在所述管控对象
Figure 36236DEST_PATH_IMAGE001
上的第一电子标签实时探测与佩戴在所述管控对象
Figure 194816DEST_PATH_IMAGE002
上的第 二电子标签的第二距离,记为
Figure 361486DEST_PATH_IMAGE004
A4,计算
Figure 707148DEST_PATH_IMAGE003
Figure 46994DEST_PATH_IMAGE004
的第一差值绝对值,并对关联所述管控对象
Figure 60080DEST_PATH_IMAGE001
的每个所述第一差值绝 对值进行求和平均,所得的第一求和平均值与2的除值作为拟对所述管控对象
Figure 397652DEST_PATH_IMAGE001
的位置进行 偏移校正的第一校正量。
3.根据权利要求2所述的基于精准定位和视频联动的人员精细化管理方法,其特征在 于,步骤S4中,对每个所述管控对象
Figure 230610DEST_PATH_IMAGE001
进行定位校正的方法具体包括步骤:
B1,以安装在所述封闭空间内且距离所述管控对象
Figure 311829DEST_PATH_IMAGE001
最远的所述监控装置为圆心,以所 述圆心与所述管控对象
Figure 976160DEST_PATH_IMAGE001
的当前所处位置的直线距离为半径作圆;
B2,提取步骤A3中探测到的与所述管控对象
Figure 484633DEST_PATH_IMAGE001
的直线距离最短的两条
Figure 336045DEST_PATH_IMAGE004
,分别记为
Figure 689797DEST_PATH_IMAGE005
Figure 474214DEST_PATH_IMAGE006
,并提取步骤A2计算得到的
Figure 966637DEST_PATH_IMAGE005
Figure 508608DEST_PATH_IMAGE006
分别对应的第一距离
Figure 666051DEST_PATH_IMAGE007
Figure 508236DEST_PATH_IMAGE008
B3,判断是否
Figure 92933DEST_PATH_IMAGE009
Figure 387779DEST_PATH_IMAGE010
若是,则将所述管控对象
Figure 958700DEST_PATH_IMAGE001
所在的位点
Figure 452129DEST_PATH_IMAGE001
以其所在的所述圆的半径方向延伸所述第一校 正量至圆外;
若否,则转入步骤B4;
B4,判断是否
Figure 410989DEST_PATH_IMAGE011
Figure 966752DEST_PATH_IMAGE010
若是,则将所述位点
Figure 138101DEST_PATH_IMAGE001
以靠近
Figure 174453DEST_PATH_IMAGE005
对应的管控对象
Figure 366531DEST_PATH_IMAGE012
所在的位点
Figure 839232DEST_PATH_IMAGE012
而远离管控对象
Figure 814272DEST_PATH_IMAGE013
所在 的位点
Figure 626501DEST_PATH_IMAGE013
的方向在所述圆的圆弧上移动所述第一校正量;
若否,则转入步骤B5;
B5,判断是否
Figure 520639DEST_PATH_IMAGE009
Figure 11794DEST_PATH_IMAGE014
若是,则将所述位点
Figure 321684DEST_PATH_IMAGE001
以远离所述位点
Figure 113054DEST_PATH_IMAGE012
而靠近所述位点
Figure 584617DEST_PATH_IMAGE013
的方向在所述圆的圆弧上移 动所述第一校正量;
若否,则转入步骤B6;
B6,判断是否
Figure 907277DEST_PATH_IMAGE011
Figure 600951DEST_PATH_IMAGE014
若是,则将所述位点
Figure 777985DEST_PATH_IMAGE001
沿所述圆心方向移动所述第一校正量。
4.根据权利要求1所述的基于精准定位和视频联动的人员精细化管理方法,其特征在于,步骤S3中,对处于从起始地前往目的地的在途空间的各所述管控对象计算用于定位校正的第二校正量的方法包括步骤:
C1,将所述在途空间离散为作为所述离散区域的若干个区域网格后,用于监控对应的 所述区域网格的各监控设备实时探测与佩戴在管控对象
Figure 459330DEST_PATH_IMAGE001
身上的电子标签的第三距离,记 为
Figure 659498DEST_PATH_IMAGE015
,以及通过参照定位器探测与所述管控对象
Figure 780032DEST_PATH_IMAGE001
上的所述电子标签的第四距离,记为
Figure 421360DEST_PATH_IMAGE016
C2,以
Figure 500306DEST_PATH_IMAGE015
Figure 922191DEST_PATH_IMAGE016
分别为拟合函数的第一自变量和第二自变量,求解所述拟合函数得到函 数值,记为
Figure 439891DEST_PATH_IMAGE017
C3,计算
Figure 201305DEST_PATH_IMAGE017
与对应的真值
Figure 779048DEST_PATH_IMAGE018
的差值和第二差值绝对值;
C4,对每个所述管控对象
Figure 94754DEST_PATH_IMAGE001
对应的各所述差值进行求和,得到求和值,对对应的各所述第 二差值绝对值进行求和平均计算,得到第二求和平均值,并将所述第二求和平均值作为拟 对各所述管控对象
Figure 884986DEST_PATH_IMAGE001
的位置进行偏移校正的第二校正量;
C5,判断所述求和值是否大于“0”,
若是,则将步骤C1探测到的每个所述管控对象
Figure 359961DEST_PATH_IMAGE001
所在的位点
Figure 249551DEST_PATH_IMAGE001
以远离所述参照定位器的 方向对直线
Figure 646028DEST_PATH_IMAGE016
延伸所述第二校正量;
若否,则将步骤C1探测到的所述位点
Figure 177635DEST_PATH_IMAGE001
以靠近所述参照定位器的方向对直线
Figure 444799DEST_PATH_IMAGE016
收缩所 述第二校正量。
5.根据权利要求4所述的基于精准定位和视频联动的人员精细化管理方法,其特征在于,所述参照定位器的设置位置需满足以下条件:
所述参照定位器与具有固定安装位置的用于监控对应的所述区域网格的每个所述监控设备的直线距离的和值平均值处于预设的长度阈值区间且所述和值平均值最小。
6.根据权利要求1所述的基于精准定位和视频联动的人员精细化管理方法,其特征在于,步骤S3中还包括对所述管控对象进行二次身份验证的流程,具体步骤包括:
D1,读取佩戴在所述管控对象身上的电子标签的唯一编码,以获取所述管控对象的第一身份信息;
D2,采集所述管控对象的眼纹图像并以矩形框选方式框选出所述眼纹图像中的眼纹区域;
D3,将眼纹区域图像离散为若干个矩形块,并过滤掉未携带眼纹信息以及满载眼纹信息的各所述矩形块;
D4,计算过滤剩余的每个所述矩形块中的眼纹信息的悬空像素点到矩形块中心位点的距离的第一和值,并对每个所述矩形块对应的所述第一和值进行加权求和,得到第二和值;
D5,从所述管控对象对应的标准眼纹区域图像中提取出与步骤D4过滤剩余的各所述矩形块具有对应关系的标准矩形块,然后计算每个所述标准矩形块中的眼纹信息的悬空像素点到标准矩形块的中心位点的距离的第三和值,并对每个所述标准矩形块对应的所述第三和值进行加权求和,得到第四和值;
D6,判断所述第二和值与所述第四和值的差值绝对值是否小于差值阈值,
若是,则判定眼纹识别成功,获得所述标准眼纹区域图像对应的第二身份信息;
若否,则判定眼纹识别失败并报警;
D7,判断所述第一身份信息与所述第二身份信息是否一致,若是,则判定二次身份验证成功;
若否,则判定二次身份验证失败并报警。
7.一种基于精准定位和视频联动的人员精细化管理系统,可实现如权利要求1-6任意一项所述的人员精细化管理方法,其特征在于,所述人员精细化管理系统包括人员管理平台、用于监控对应离散区域的监控设备和佩戴在管控对象身上的电子标签,至少一个所述监控设备监控对应的所述离散区域,各所述监控设备通信连接所述人员管理平台;
每个所述监控设备将跟踪到的各所述管控对象的定位信息发送给所述人员管理平台;
佩戴在管控对象
Figure 98765DEST_PATH_IMAGE001
上的第一电子标签实时探测与佩戴在管控对象
Figure 44856DEST_PATH_IMAGE002
上的第二电子标签的 距离,并将探测到的距离信息发送给所述人员管理平台;
所述人员管理平台根据各所述监控设备发送的所述定位信息以及所述电子标签探测到的所述距离信息对每个所述管控对象进行定位校正,并根据定位校正结果和所述定位信息确定所述管控对象拟进入的所述离散区域以及进入所述离散区域的所需时长,并判定所述所需时长小于预设的时长阈值时,激活用于监控拟进入的所述离散区域的所述监控设备,并在等待所述所需时长后,判定用于监控拟进入的所述离散区域的所述监控设备未跟踪到所述管控对象时,控制释放所述监控设备。
8.根据权利要求7所述的基于精准定位和视频联动的人员精细化管理系统,其特征在于:所述监控设备包括:
定位模块,用于实时获取处于对应的所述离散区域内的各所述管控对象的所述定位信息,包括定位位置、定位时间、行走速度、行走方向和身份信息;
目标跟踪模块,用于对进入监控范围内的各所述管控对象进行持续目标跟踪并将跟踪到的目标的所述身份信息发送给所述人员管理平台;
定位信息发送模块,连接所述定位模块,用于将实时获取的所述定位信息发送给所述人员管理平台。
9.根据权利要求8所述的基于精准定位和视频联动的人员精细化管理系统,其特征在于,所述人员管理平台中包括:
定位校正量计算模块,用于根据各所述监控设备发送的关联每个所述管控对象的所述定位信息,计算对每个所述管控对象进行定位校正的校正量;
定位校正模块,连接所述定位校正量计算模块,用于根据所计算的所述校正量对对应的所述管控对象进行定位校正;
拟进入离散区域及进入所需时长判断模块,连接所述定位校正模块,用于根据定位校正结果和实时获取的所述行走速度、所述行走方向判断对应的所述管控对象拟进入的所述离散区域以及进入所述离散区域的所需时长;
时长判断模块,连接拟进入离散区域及进入所需时长判断模块,用于判断所述所需时长是否小于预设的时长阈值,
若是,则生成监控设备激活信号并输出给用于监控拟进入的所述离散区域的所述监控设备,所述监控设备接收到所述激活信号后被激活进入监控模式;
若否,则不生成所述监控设备激活信号;
监控画面切换模块,用于判断等待所述所需时长后,用于监控拟进入的所述离散区域的所述监控设备是否跟踪到所述管控对象,
若是,则将针对所述管控对象的监控画面切换到用于监控拟进入的所述离散区域的所述监控设备;
若否,则生成监控设备释放信号,用于监控拟进入的所述离散区域的所述监控设备接收到所述释放信号后退出监控模式。
CN202211392216.8A 2022-11-08 2022-11-08 基于精准定位和视频联动的人员精细化管理方法及系统 Active CN115578756B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211392216.8A CN115578756B (zh) 2022-11-08 2022-11-08 基于精准定位和视频联动的人员精细化管理方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211392216.8A CN115578756B (zh) 2022-11-08 2022-11-08 基于精准定位和视频联动的人员精细化管理方法及系统

Publications (2)

Publication Number Publication Date
CN115578756A true CN115578756A (zh) 2023-01-06
CN115578756B CN115578756B (zh) 2023-04-14

Family

ID=84589736

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211392216.8A Active CN115578756B (zh) 2022-11-08 2022-11-08 基于精准定位和视频联动的人员精细化管理方法及系统

Country Status (1)

Country Link
CN (1) CN115578756B (zh)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104077623A (zh) * 2014-07-22 2014-10-01 余启汉 基于rfid技术实现的服装款式监控管理系统及实现方法
CN106303420A (zh) * 2016-08-15 2017-01-04 深圳市校联宝科技有限公司 一种应用于运动目标的监控方法及监控系统
CN107529221A (zh) * 2017-08-22 2017-12-29 上海兴容信息技术有限公司 一种结合视频监控和Wi‑Fi定位的追踪分析系统及方法
CN108960352A (zh) * 2017-05-18 2018-12-07 中兴通讯股份有限公司 一种安全监护的方法、装置、系统及存储介质
CN110348348A (zh) * 2019-06-30 2019-10-18 华中科技大学 一种参建人员进场身份快速识别方法及预警系统
WO2020003334A1 (en) * 2018-06-27 2020-01-02 Alma Mater Studiorum - Universita' Di Bologna System for locating at least one rfid tag in space, in particular in an indoor environment, and method thereof
CN113223046A (zh) * 2020-07-10 2021-08-06 浙江大华技术股份有限公司 一种监狱人员行为识别的方法和系统
CN113255542A (zh) * 2021-06-02 2021-08-13 北京容联易通信息技术有限公司 一种基于违规行为识别的违规对象身份识别方法
WO2021196294A1 (zh) * 2020-04-03 2021-10-07 中国科学院深圳先进技术研究院 一种跨视频人员定位追踪方法、系统及设备
CN113705376A (zh) * 2021-08-11 2021-11-26 中国科学院信息工程研究所 一种基于rfid和摄像机的人员定位方法及系统
CN113988228A (zh) * 2021-09-14 2022-01-28 中国科学院信息工程研究所 一种基于rfid和视觉融合的室内监控方法及系统
CN114205562A (zh) * 2021-12-16 2022-03-18 国网浙江省电力有限公司绍兴供电公司 分布式视频指挥中心、平台、智能终端、系统及其工作方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104077623A (zh) * 2014-07-22 2014-10-01 余启汉 基于rfid技术实现的服装款式监控管理系统及实现方法
CN106303420A (zh) * 2016-08-15 2017-01-04 深圳市校联宝科技有限公司 一种应用于运动目标的监控方法及监控系统
CN108960352A (zh) * 2017-05-18 2018-12-07 中兴通讯股份有限公司 一种安全监护的方法、装置、系统及存储介质
CN107529221A (zh) * 2017-08-22 2017-12-29 上海兴容信息技术有限公司 一种结合视频监控和Wi‑Fi定位的追踪分析系统及方法
WO2020003334A1 (en) * 2018-06-27 2020-01-02 Alma Mater Studiorum - Universita' Di Bologna System for locating at least one rfid tag in space, in particular in an indoor environment, and method thereof
CN110348348A (zh) * 2019-06-30 2019-10-18 华中科技大学 一种参建人员进场身份快速识别方法及预警系统
WO2021196294A1 (zh) * 2020-04-03 2021-10-07 中国科学院深圳先进技术研究院 一种跨视频人员定位追踪方法、系统及设备
CN113223046A (zh) * 2020-07-10 2021-08-06 浙江大华技术股份有限公司 一种监狱人员行为识别的方法和系统
CN113255542A (zh) * 2021-06-02 2021-08-13 北京容联易通信息技术有限公司 一种基于违规行为识别的违规对象身份识别方法
CN113705376A (zh) * 2021-08-11 2021-11-26 中国科学院信息工程研究所 一种基于rfid和摄像机的人员定位方法及系统
CN113988228A (zh) * 2021-09-14 2022-01-28 中国科学院信息工程研究所 一种基于rfid和视觉融合的室内监控方法及系统
CN114205562A (zh) * 2021-12-16 2022-03-18 国网浙江省电力有限公司绍兴供电公司 分布式视频指挥中心、平台、智能终端、系统及其工作方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ZHANG Z 等: "IP-based video lab monitor system" *
谈宇奇;王雪;刘长;: "物联网室内运动目标协作信息融合跟踪方法" *

Also Published As

Publication number Publication date
CN115578756B (zh) 2023-04-14

Similar Documents

Publication Publication Date Title
US20180240327A1 (en) Methods and systems for reducing false alarms in a robotic device by sensor fusion
TWI382762B (zh) 移動物體的追蹤方法
CN102656532B (zh) 用于移动机器人位置识别的地图的生成及更新方法
US20160224840A1 (en) Motion-validating remote monitoring system
US20110115909A1 (en) Method for tracking an object through an environment across multiple cameras
JP5180733B2 (ja) 移動物体追跡装置
Stepan et al. Robust data fusion with occupancy grid
US20120114176A1 (en) Image processing apparatus and image processing method
US11917333B2 (en) Systems and methods for personnel location at a drilling site
US8504317B2 (en) Position calibration information collecting apparatus, position calibration information collecting method, and position calibration information collecting program
JP3814779B2 (ja) 侵入者自動追尾方法および装置並びに画像処理装置
CN108876822A (zh) 一种行为危险度评估方法及家庭安防看护系统
KR102174784B1 (ko) 딥 러닝과 멀티 에이전트를 활용한 대규모 개체 식별 및 추적 방법
CN109800715B (zh) 一种基于物联网的出入园区监控方法及系统
WO2017199840A1 (ja) オブジェクト追跡装置、オブジェクト追跡方法および記録媒体
Snidaro et al. Quality-based fusion of multiple video sensors for video surveillance
CN111461080A (zh) 一种基于图像的智能围栏搭建和识别方法
CN103914821B (zh) 多角度图像对象融合方法及系统
CN115578756B (zh) 基于精准定位和视频联动的人员精细化管理方法及系统
CN113044694A (zh) 基于深度神经网络的工地电梯人数统计系统及方法
CN116338579B (zh) 针对人员管理的定位纠偏方法
JP2007104223A (ja) システム用カメラ、監視システム及び監視方法
Bahadori et al. Real-time people localization and tracking through fixed stereo vision
CN114937060A (zh) 一种地图语义引导的单目行人室内定位预测方法
CN114125274A (zh) 一种无人值守机房报警方法、系统、存储介质及智能终端

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: A refined personnel management method and system based on precise positioning and video linkage

Effective date of registration: 20230928

Granted publication date: 20230414

Pledgee: Guotou Taikang Trust Co.,Ltd.

Pledgor: Hangzhou Haoheng Technology Co.,Ltd.

Registration number: Y2023980059623