CN112733657A - 一种基于标准地址和poi信息点的跨境追踪检测方法和系统 - Google Patents
一种基于标准地址和poi信息点的跨境追踪检测方法和系统 Download PDFInfo
- Publication number
- CN112733657A CN112733657A CN202011619383.2A CN202011619383A CN112733657A CN 112733657 A CN112733657 A CN 112733657A CN 202011619383 A CN202011619383 A CN 202011619383A CN 112733657 A CN112733657 A CN 112733657A
- Authority
- CN
- China
- Prior art keywords
- target
- information
- standard address
- track
- pedestrian
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 22
- 238000000034 method Methods 0.000 claims abstract description 33
- 238000012163 sequencing technique Methods 0.000 claims abstract description 14
- 238000006243 chemical reaction Methods 0.000 claims abstract description 10
- 238000012544 monitoring process Methods 0.000 claims description 16
- 238000004422 calculation algorithm Methods 0.000 claims description 13
- 238000011835 investigation Methods 0.000 claims description 13
- 238000012790 confirmation Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 5
- 238000004891 communication Methods 0.000 claims description 2
- 230000037361 pathway Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 15
- 230000000694 effects Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 229920003987 resole Polymers 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Remote Sensing (AREA)
- Navigation (AREA)
Abstract
本申请公开一种基于标准地址和POI信息点的跨境追踪检测方法和系统。包括提取目标和设备信息的经纬度进行标准地址转换,获得含有目标点位的标准地址信息的标准地址网格,结合POI信息点构建地理标准地址网格;利用目标的步行时间并结合现场实际情况,获得目标在固定时间阈值内所能到达的地理标准地址网格的步长边界;以及下载步长边界到目标点位的所有视频信息,利用Re‑ID比对确性度和行人途经置信度,获得目标的时空信息排序轨迹。解决利用追踪半径、追踪角度、追踪方向和追踪时长的方式存在一定的人工误差和操作比对误差,同时存在运行时间长和工作量大等技术问题。
Description
技术领域
本申请实施例涉及视频智能分析技术领域,具体涉及一种基于标准地址和POI信息点的跨境追踪检测方法和系统。
背景技术
人脸识别技术虽然准确度高,但是,只能覆盖30%左右的监控点,基于成本因素,70%的监控为非卡口点位,无法拍摄到清晰人脸,只能拍摄到人体。人体识别最大的难点在于行人是非刚体结构,当人在走动时,手和脚都在摆动,同时,还往往伴随有其他动作。因此不同于车辆等刚体结构,任意角度都是同一个型态。传统的算法无论是将目标对齐或者进行切分,都无法消除非刚体结构对算法的干扰。
跨镜追踪或者视频接力追踪是指通过视频结构化技术,对目标可能出现的视频进行结构化分析,将视频画面中提取到的行人、车辆和骑行等目标结果快照存储进数据库,再以目标图片源为输入,通过以图搜图的比对方式在数据库中进行检索比对,检索到目标图片在不同场景下出现的结果快照。结合监控点位自带的位置属性和视频自带的时间属性,能够在地图上形成目标的活动轨迹。
高精度Re-ID跨镜追踪人形结构化算法主躯干网络不要求躯干位置的标注,模型能够从浅层视觉到高层语义的不同空间内自动捕捉关键区域,挖掘多尺度的注意力特征,自动实现行人肢体,如面部、上身及下身的特征融合,对于姿态改变以及空间变化有着很好的鲁棒性,高效地完成行人形结构化和人形追踪搜索。
目前大部分的跨镜追踪Re-ID人形比对搜索只是简单的根据时间和设备选择进行人形比对搜索进行追踪,利用设置追踪半径、追踪角度、追踪方向和追踪时长的方式存在一定的人工误差和操作比对误差,体现在时间和空间选择范围过小,导致搜索追踪工作量比较大,运行时间长,此外,还可以导致比对命中的人形误差过大,增加追踪锁定的工作量。
发明内容
本申请实施例的目的在于提出了一种基于标准地址和POI信息点的跨境追踪检测方法和系统,解决利用追踪半径、追踪角度、追踪方向和追踪时长的方式进行追踪检测存在一定的人工误差和操作比对误差,同时运行时间长,工作量大等技术问题。
第一方面,本申请实施例提供了一种基于标准地址和POI信息点的跨境追踪检测方法,该方法包括:
S1:提取目标和设备信息的经纬度进行标准地址转换,获得含有目标点位的标准地址信息的标准地址网格,结合POI信息点构建地理标准地址网格;
S2:利用目标的步行时间并结合现场实际情况,获得目标在固定时间阈值内所能到达的地理标准地址网格的步长边界;以及
S3:下载步长边界到目标点位的所有视频信息,利用Re-ID比对确性度和行人途经置信度,获得目标的时空信息排序轨迹。
在该方法中,基于GIS地图中POI信息点以及“一标三实”数据中标准地址,通过图谱和时空关联关系,可突破传统的跨镜追踪视频图像人形结构化检索与目标检索强相关的瓶颈,为人形轨迹拟合提供新的搜索和追踪方法,解决了现有技术中利用追踪半径、追踪角度、追踪方向和追踪时长的方式进行追踪检测存在一定的人工误差和操作比对误差,同时存在运行时间长和工作量大等技术问题。
在一些实施例中,方法S3步骤包括以下子步骤:
S31:下载步长边界到目标点位之间的路径和POI信息点的所有视频信息,并对筛选过滤后的视频进行人形图像提取和结构化处理,获得待比对人形图像;
S32:利用待比对人形图像与目标的人形图形进行比对检索,获得目标的Re-ID比对确性度Yt,根据以往行人轨迹分布,结合地理标准地址网格,获得行人途经置信度Xt;
S33:利用Re-ID比对确性度Yt和行人途经置信度Xt的乘积,获得目标在各个排查监控点出现的初始时空信息排序,直至形成目标的初始轨迹Rt。
在该方法中,通过目标点位之间的路径和POI信息点的所有视频信息的获得待比对人形图像,并利用Re-ID比对确性度Yt和行人途经置信度Xt的乘积,获得目标的初始轨迹Rt,便于后续对新的行人途经置信度Xt′进行反复更新推算,获得更加优化精准的目标的最终轨迹Rt′。
在一些实施例中,在S33步骤后还包括,通过初始轨迹Rt进行半监督学习算法,并对初始轨迹Rt在某时空轨迹的确认结果Rto对应的新的行人途经置信度Xt′进行反复更新推算,结合目标的Re-ID比对确性度Yt,获得目标在各个排查监控点出现的最终时空信息排序,直至形成目标的最终轨迹Rt′。
在该方法中,通过半监督学习算法,对新的行人途经置信度Xt′进行反复更新推算,提高目标的最终轨迹R′t的精准度。
在一些实施例中,确认结果Rto通过局部特征识别、关键路径点和关键POI信息点确定,利用多个确认结果,获得行人途经置信度Xt和新的行人途经置信度Xt′的误差r0趋于稳定阈值。
在一些实施例中,行人途经置信度Xt和新的行人途经置信度Xt′的误差r0的计算公式如下:
在该方法中,设置行人途经置信度Xt和新的行人途经置信度Xt′的误差r0,便于最终得到最精确的轨迹时空点排序。
第二方面,本申请实施例提供了一种基于标准地址和POI信息点的跨境追踪检测系统,该系统包括:
地理标准地址网格模块,配置用于提取目标和设备信息的经纬度进行标准地址转换,获得含有目标点位的标准地址信息的标准地址网格,结合POI信息点构建地理标准地址网格。
步长边界模块,配置用于利用目标的步行时间并结合现场实际情况,获得目标在固定时间阈值内所能到达的地理标准地址网格的步长边界。
时空信息排序轨迹模块,配置用于下载步长边界到目标点位的所有视频信息,利用Re-ID比对确性度和行人途经置信度,获得目标的时空信息排序轨迹。
在一些实施例中,时空信息排序轨迹模块具体包括:
下载步长边界到目标点位之间的路径和POI信息点的所有视频信息,并对筛选过滤后的视频进行人形图像提取和结构化处理,获得待比对人形图像。
利用待比对人形图像与目标的人形图形进行比对检索,获得目标的Re-ID比对确性度Yt,根据以往行人轨迹分布,结合地理标准地址网格,获得行人途经置信度Xt。
利用Re-ID比对确性度Yt和行人途经置信度Xt的乘积,获得目标在各个排查监控点出现的初始时空信息排序,直至形成目标的初始轨迹Rt。
在一些实施例中,时空信息排序轨迹模块还包括通过初始轨迹Rt进行半监督学习算法,并对初始轨迹Rt在某时空轨迹的确认结果Rto对应的新的行人途经置信度Xt′进行反复更新推算,结合目标的Re-ID比对确性度Yt,获得目标在各个排查监控点出现的最终时空信息排序,直至形成目标的最终轨迹Rt′。
第三方面,本申请实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本申请实施例提供的一种基于标准地址和POI信息点的跨境追踪检测方法和系统,基于GIS地图中POI信息点以及“一标三实”数据中标准地址,通过图谱和时空关联关系,可突破传统的跨镜追踪视频图像人形结构化检索与目标检索强相关的瓶颈,为人形轨迹拟合提供新的搜索和追踪方法,解决了现有技术中利用追踪半径、追踪角度、追踪方向和追踪时长的方式进行追踪检测存在一定的人工误差和操作比对误差,同时存在运行时间长和工作量大等技术问题。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是根据本申请的一种基于标准地址和POI信息点的跨境追踪检测方法的一个实施例的流程图;
图2是根据本申请的一种基于标准地址和POI信息点的跨境追踪检测方法的标准带地址和POI信息点的规划方式示意图;
图3是根据传统的中心半径方法的效果示意图;
图4是根据本申请的一种基于标准地址和POI信息点的跨境追踪检测方法的效果示意图;
图5是根据本申请的一种基于标准地址和POI信息点的跨境追踪检测系统的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
继续参考图1,其示出了根据本申请的一种基于标准地址和POI信息点的跨境追踪检测方法的一个实施例的流程图100。该方法包括以下步骤:
步骤101,提取目标和设备信息的经纬度进行标准地址转换,获得含有目标点位的标准地址信息的标准地址网格,结合POI信息点构建地理标准地址网格。
在本实施例中,首先,以目标出现的点位为中心点经纬度坐标进行标准地址转换,解析出目标出现的精准标准地址信息,例如厦门市集关区诚毅大道9号。其次,绘制标准地址网格,实现对标准地址和POI网格空间信息和属性信息的关联。最后,从一机一档数据库中提取设备标识码和经纬度进行标准地址信息、POI信息点进行地址比对,且通过自然语言语义解析算法(Natural Language Processing,NLP)进行关联等手段建立地理关联,获得含有POI点信息的地理标准地址网格。
在一些具体的实施例中,地址与网格匹配是指根据目标出现的地址信息,返回该地址对应地理实体所属的街道、社区小区、辖区。利用“一标三实”将经纬度信息转化为标准地址信息,“一标三实”表示为标准地址,实有人口、实有房屋和实有单位,标准地址相对于当前各地统一的和标准的地址信息,公安及政府部门明确新的地址标准由“行政区划+乡镇街道+街路巷+门牌号+小区(组)+楼排号+单元号+户室”等要素组成;POI信息点(point ofinformation OR point of interest,POI)表示地图上任何非地理意义的有意义的点,如商店、银行和加油站等。
步骤102,利用目标的步行时间并结合现场实际情况,获得目标在固定时间阈值内所能到达的地理标准地址网格的步长边界。
在本实施例中,根据目标步行时间结合交通规则、基础地图数据、道路信息和路况情况等现场实际情况的相应信息,计算固定时间阈值范围内目标所能到达的网格、街道和社区小区,同时,计算地理标准地址网格区域内边界的任意点坐标到目标点位所在的中心点两点之间所有通行路径以及途径的所有POI信息点,如便利店、酒店和网吧等。
在一些具体的实施例中,参考图2,图2示出了根据本申请的一种基于标准地址和POI信息点的跨境追踪检测方法的标准带地址和POI信息点的规划方式示意图,如图2所示,首先按照标准地址+POI规划方式,如[行政区划]+[道路名]+[门牌号]+[POI]+[楼栋]+[单元],根据图2状态为1→2→3→5→9→11→13→14→15制定标准地址,标准地址示例“**省|**市|**区|***路街道|**路|141号|**花园|1栋|1单元”。其次,根据路径所经街道POI信息点,筛选POI信息点中门口朝路面的便利店、网吧、酒店和超市等,人员大概率会途径的POI场所。
步骤103,下载步长边界到目标点位的所有视频信息,利用Re-ID比对确性度和行人途经置信度,获得目标的时空信息排序轨迹。
在具体的实施例中,步骤103包括以下子步骤:
S1031:下载步长边界到目标点位之间的路径和POI信息点的所有视频信息,并对筛选过滤后的视频进行人形图像提取和结构化处理,获得待比对人形图像;
S1032:利用待比对人形图像与目标的人形图形进行比对检索,获得目标的Re-ID比对确性度Yt,根据以往行人轨迹分布,结合地理标准地址网格,获得行人途经置信度Xt;
S1033:利用Re-ID比对确性度Yt和行人途经置信度Xt的乘积,获得目标在各个排查监控点出现的初始时空信息排序,直至形成目标的初始轨迹Rt。
在一些具体的实施例中,在S1033后还包括根据确认结果Rto反馈神经网络推算出新的行人途经置信度Xt′,并结合Re-ID比对确性度Yt,获得目标在各个排查监控点出现的最终时空信息排序,直至形成目标的最终轨迹Rt′。
在本实施例中,自动对路径和POI信息范围内视频根据行人行走速度预估进行2-3分钟误差进行下载分析,对以上筛选过滤后的录像进行人形图像提取和结构化,根据目标出现点到POI点的步行时间估算,调取门口感知设备的图片和视频录像进行结构化分析。根据目标人形图片进行以上人形图像的比对检索,目标Re-ID比对确性度Yt,利用以往行人轨迹分布设置标准地址和POI信息点行人途经置信度Xt,利用Rt=Xt*Yt进行计算获取嫌疑人在各个排查监控点出现的时空信息排序,直至形成目标初始轨迹。通过初始轨迹Rt进行半监督学习算法,并对初始轨迹Rt在某时空轨迹的确认结果Rto对应的新的行人途经置信度Xt′进行反复更新推算,重新计算Rt′=Xt′*Yt,获取目标在各个排查监控点出现的时空信息排序,形成新的更加准确的最终目标轨迹,根据最终获取的Rt′的时空坐标绘制出目标在标准地址地图上的轨迹。
在一些具体的实施例中,确认结果Rto通过局部特征识别、关键路径点和关键POI信息点确定,利用多个确认结果,获得行人途经置信度Xt和新的行人途经置信度Xt′的误差r0趋于稳定阈值。经过几次的关键路径点和POI点Rt0,Rt1,Rt2…调整计算当误差r0趋于一个比较稳定数值区间,其稳定数值区间一般小于0.05,最终得到最精确的轨迹时空点Rt′排序。
进一步优选的实施例中,行人途经置信度Xt和新的行人途经置信度Xt′的误差r0的计算公式如下:
在一些具体的实施例中,继续参考图3和图4,图3示出了根据传统的中心半径方法的效果示意图,图4示出了根据本申请的一种基于标准地址和POI信息点的跨境追踪检测方法的效果示意图。如图3和图4所示,根据本申请的基于GIS地图中POI信息点以及“一标三实”数据中标准地址通过图谱和时空关联关系,使得获得的目标最终轨迹更加符合实际人形轨迹,可突破传统的跨镜追踪视频图像人形结构化检索与目标检索强相关的瓶颈,为人形轨迹拟合提供新的搜索和追踪方法。
继续参考图5,其示出了根据本申请的一种基于标准地址和POI信息点的跨境追踪检测系统的一个实施例的结构示意图,如图5所示,跨境追踪检测系统500包括以下单元。
地理标准地址网格模块501,配置用于提取目标和设备信息的经纬度进行标准地址转换,获得含有目标点位的标准地址信息的标准地址网格,结合POI信息点构建地理标准地址网格。
步长边界模块502,配置用于利用目标的步行时间并结合现场实际情况,获得目标在固定时间阈值内所能到达的地理标准地址网格的步长边界。
时空信息排序轨迹模块503,配置用于下载步长边界到目标点位的所有视频信息,利用Re-ID比对确性度和行人途经置信度,获得目标的时空信息排序轨迹。
在一些具体的实施例中,时空信息排序轨迹模块503具体包括:
下载步长边界到目标点位之间的路径和POI信息点的所有视频信息,并对筛选过滤后的视频进行人形图像提取和结构化处理,获得待比对人形图像。
利用待比对人形图像与目标的人形图形进行比对检索,获得目标的Re-ID比对确性度Yt,根据以往行人轨迹分布,结合地理标准地址网格,获得行人途经置信度Xt。
利用Re-ID比对确性度Yt和行人途经置信度Xt的乘积,获得目标在各个排查监控点出现的初始时空信息排序,直至形成目标的初始轨迹Rt。
在一些具体的实施例中,时空信息排序轨迹模块503还包括通过目标的初始轨迹Rt进行半监督学习算法,并对初始轨迹Rt在某时空轨迹的确认结果Rto对应的新的行人途经置信度Xt′进行反复更新推算,结合目标的Re-ID比对确性度Yt,获得目标在各个排查监控点出现的最终时空信息排序,直至形成目标的最终轨迹Rt′。
下面参考图6,其示出了适于用来实现本申请实施例的电子设备的计算机系统600的结构示意图。图6示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可根据存储在只读存储器(ROM)601中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中存储系统600操作所需的各种程序和数据。CPU601、ROM 601以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括输入部分606、输出部分607、存储部分608、通信部分609、驱动器610、可拆卸介质611。驱动器610可根据需要连接至I/O接口605,可拆卸介质611根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可被实现为计算机软件程序。可以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码。程序代码可完全地在训练者计算机上执行、部分地在训练者计算机上执行、作为一个独立的软件包执行、部分在训练者计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)一连接到训练者计算机,或者可连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的模块可通过软件的方式实现,也可通过硬件的方式来实现。所描述的模块也可设置在处理器中,例如,可描述为:一种处理器包括地理标准地址网格模块、步长边界模块和时空信息排序轨迹模块。其中,这些模块的名称在某种情况下并不构成对该单元本身的限定,例如,地理标准地址网格模块还可被描述为“提取目标和设备信息的经纬度进行标准地址转换,获得含有目标点位的标准地址信息的标准地址网格,结合POI信息点构建地理标准地址网格”。
作为另一方面,本申请还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:提取目标和设备信息的经纬度进行标准地址转换,获得含有目标点位的标准地址信息的标准地址网格,结合POI信息点构建地理标准地址网格;利用目标的步行时间并结合现场实际情况,获得目标在固定时间阈值内所能到达的地理标准地址网格的步长边界;以及下载步长边界到目标点位的所有视频信息,利用Re-ID比对确性度和行人途经置信度,获得目标的时空信息排序轨迹。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (10)
1.一种基于标准地址和POI信息点的跨境追踪检测方法,其特征在于,所述方法包括:
S1:提取目标和设备信息的经纬度进行标准地址转换,获得含有目标点位的标准地址信息的标准地址网格,结合POI信息点构建地理标准地址网格;
S2:利用所述目标的步行时间并结合现场实际情况,获得所述目标在固定时间阈值内所能到达的所述地理标准地址网格的步长边界;以及
S3:下载所述步长边界到所述目标点位的所有视频信息,利用Re-ID比对确性度和行人途经置信度,获得所述目标的时空信息排序轨迹。
2.根据权利要求1所述的方法,其特征在于,所述方法S3步骤包括以下子步骤:
S31:下载所述步长边界到所述目标点位之间的路径和所述POI信息点的所有视频信息,并对筛选过滤后的视频进行人形图像提取和结构化处理,获得待比对人形图像;
S32:利用所述待比对人形图像与所述目标的人形图形进行比对检索,获得所述目标的Re-ID比对确性度Yt,根据以往行人轨迹分布,结合所述地理标准地址网格,获得行人途经置信度Xt;
S33:利用所述Re-ID比对确性度Yt和所述行人途经置信度Xt的乘积,获得所述目标在各个排查监控点出现的初始时空信息排序,直至形成所述目标的初始轨迹Rt。
3.根据权利要求2所述的方法,其特征在于,在所述S33步骤后还包括,通过所述初始轨迹Rt进行半监督学习算法,并对所述初始轨迹Rt在某时空轨迹的确认结果Rto对应的新的行人途经置信度Xt′进行反复更新推算,结合所述目标的Re-ID比对确性度Yt,获得所述目标在各个排查监控点出现的最终时空信息排序,直至形成所述目标的最终轨迹Rt′。
4.根据权利要求3所述的方法,其特征在于,所述确认结果Rto通过局部特征识别、关键路径点和关键POI信息点确定,利用多个确认结果,获得行人途经置信度Xt和新的行人途经置信度Xt′的误差r0趋于稳定阈值。
6.一种基于标准地址和POI信息点的跨境追踪检测系统,其特征在于,所述系统包括:
地理标准地址网格模块,配置用于提取目标和设备信息的经纬度进行标准地址转换,获得含有目标点位的标准地址信息的标准地址网格,结合POI信息点构建地理标准地址网格;
步长边界模块,配置用于利用所述目标的步行时间并结合现场实际情况,获得所述目标在固定时间阈值内所能到达的所述地理标准地址网格的步长边界;
时空信息排序轨迹模块,配置用于下载所述步长边界到所述目标点位的所有视频信息,利用Re-ID比对确性度和行人途经置信度,获得所述目标的时空信息排序轨迹。
7.根据权利要求6所述的系统,其特征在于,所述时空信息排序轨迹模块具体包括:
下载所述步长边界到所述目标点位之间的路径和所述POI信息点的所有视频信息,并对筛选过滤后的视频进行人形图像提取和结构化处理,获得待比对人形图像;
利用所述待比对人形图像与所述目标的人形图形进行比对检索,获得所述目标的Re-ID比对确性度Yt,根据以往行人轨迹分布,结合所述地理标准地址网格,获得行人途经置信度Xt;
利用所述Re-ID比对确性度Yt和所述行人途经置信度Xt的乘积,获得所述目标在各个排查监控点出现的初始时空信息排序,直至形成所述目标的初始轨迹Rt。
8.根据权利要求7所述的系统,其特征在于,所述时空信息排序轨迹模块还包括通过所述初始轨迹Rt进行半监督学习算法,并对所述初始轨迹Rt在某时空轨迹的确认结果Rto对应的新的行人途经置信度Xt′进行反复更新推算,结合所述目标的Re-ID比对确性度Yt,获得所述目标在各个排查监控点出现的最终时空信息排序,直至形成所述目标的最终轨迹Rt′。
9.一种电子设备,包括:
一个或多个处理器;
存储系统,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-5中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011619383.2A CN112733657A (zh) | 2020-12-31 | 2020-12-31 | 一种基于标准地址和poi信息点的跨境追踪检测方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011619383.2A CN112733657A (zh) | 2020-12-31 | 2020-12-31 | 一种基于标准地址和poi信息点的跨境追踪检测方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112733657A true CN112733657A (zh) | 2021-04-30 |
Family
ID=75608495
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011619383.2A Pending CN112733657A (zh) | 2020-12-31 | 2020-12-31 | 一种基于标准地址和poi信息点的跨境追踪检测方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112733657A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114095566A (zh) * | 2021-10-08 | 2022-02-25 | 深圳市易售科技有限公司 | 一种设备位置数据追踪方法、系统、电子设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060215880A1 (en) * | 2005-03-18 | 2006-09-28 | Rikard Berthilsson | Method for tracking objects in a scene |
CN110674746A (zh) * | 2019-09-24 | 2020-01-10 | 视云融聚(广州)科技有限公司 | 一种应用视频空间关系辅助实现高精度跨镜追踪的方法、装置、计算机设备以及存储介质 |
CN111462200A (zh) * | 2020-04-03 | 2020-07-28 | 中国科学院深圳先进技术研究院 | 一种跨视频行人定位追踪方法、系统及设备 |
CN111739053A (zh) * | 2019-03-21 | 2020-10-02 | 四川大学 | 一种复杂场景下的在线多行人检测跟踪方法 |
-
2020
- 2020-12-31 CN CN202011619383.2A patent/CN112733657A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060215880A1 (en) * | 2005-03-18 | 2006-09-28 | Rikard Berthilsson | Method for tracking objects in a scene |
CN111739053A (zh) * | 2019-03-21 | 2020-10-02 | 四川大学 | 一种复杂场景下的在线多行人检测跟踪方法 |
CN110674746A (zh) * | 2019-09-24 | 2020-01-10 | 视云融聚(广州)科技有限公司 | 一种应用视频空间关系辅助实现高精度跨镜追踪的方法、装置、计算机设备以及存储介质 |
CN111462200A (zh) * | 2020-04-03 | 2020-07-28 | 中国科学院深圳先进技术研究院 | 一种跨视频行人定位追踪方法、系统及设备 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114095566A (zh) * | 2021-10-08 | 2022-02-25 | 深圳市易售科技有限公司 | 一种设备位置数据追踪方法、系统、电子设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108629978B (zh) | 一种基于高维路网和循环神经网络的交通轨迹预测方法 | |
US20200401617A1 (en) | Visual positioning system | |
Badino et al. | Visual topometric localization | |
Hu et al. | GeoAI at ACM SIGSPATIAL: progress, challenges, and future directions | |
EP4239614A2 (en) | Systems and methods for image-based location determination and parking monitoring | |
Minetto et al. | Measuring human and economic activity from satellite imagery to support city-scale decision-making during covid-19 pandemic | |
CN107690840B (zh) | 无人机视觉辅助导航方法及系统 | |
Sun et al. | Vehicle reidentification using multidetector fusion | |
Ding et al. | Towards generating network of bikeways from Mapillary data | |
CN111666860A (zh) | 一种车牌信息与车辆特征融合的车辆轨迹跟踪方法 | |
Elhamshary et al. | Justwalk: A crowdsourcing approach for the automatic construction of indoor floorplans | |
Chen et al. | UVLens: Urban village boundary identification and population estimation leveraging open government data | |
Yang et al. | Road intersection identification from crowdsourced big trace data using Mask‐RCNN | |
Xiao et al. | Geo-spatial aerial video processing for scene understanding and object tracking | |
CN116340563A (zh) | 图形匹配的城市场景地理位置定位方法 | |
CN110636248A (zh) | 目标跟踪方法与装置 | |
Jabbar et al. | Smart Urban Computing Applications | |
CN112015937B (zh) | 一种图片地理定位方法及系统 | |
CN112733657A (zh) | 一种基于标准地址和poi信息点的跨境追踪检测方法和系统 | |
CN115311867B (zh) | 隧道场景的定位方法、装置、计算机设备、存储介质 | |
Mohedano et al. | Camera localization usingtrajectories and maps | |
Liu et al. | 3D point cloud segmentation using GIS | |
CN115563652A (zh) | 轨迹嵌入预防泄露方法及系统 | |
Chen et al. | Deep learning with satellite images and volunteered geographic information | |
Fang et al. | Data-driven city: an innovative approach to urban area delineation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |