CN110674711A - 城市监控视频动态目标的标定方法及系统 - Google Patents
城市监控视频动态目标的标定方法及系统 Download PDFInfo
- Publication number
- CN110674711A CN110674711A CN201910853639.7A CN201910853639A CN110674711A CN 110674711 A CN110674711 A CN 110674711A CN 201910853639 A CN201910853639 A CN 201910853639A CN 110674711 A CN110674711 A CN 110674711A
- Authority
- CN
- China
- Prior art keywords
- dynamic target
- video
- information
- dynamic
- monitoring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 135
- 238000000034 method Methods 0.000 title claims abstract description 36
- 239000013598 vector Substances 0.000 claims abstract description 88
- 238000013507 mapping Methods 0.000 claims abstract description 24
- 238000004458 analytical method Methods 0.000 claims abstract description 11
- 230000003068 static effect Effects 0.000 claims description 17
- 230000033001 locomotion Effects 0.000 claims description 15
- 238000006243 chemical reaction Methods 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 8
- 230000001815 facial effect Effects 0.000 claims description 4
- 230000037237 body shape Effects 0.000 claims description 3
- 238000013523 data management Methods 0.000 abstract description 2
- 238000012806 monitoring device Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/73—Querying
- G06F16/738—Presentation of query results
- G06F16/739—Presentation of query results in form of a video summary, e.g. the video summary being a video sequence, a composite still image or having synthesized frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/787—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Library & Information Science (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及视频分析技术领域,具体涉及一种城市监控视频动态目标的标定方法及系统。标定方法包括:对监控视频进行分析,分别提取动态目标的摘要信息和矢量信息;根据动态目标的矢量信息,在监控视频中形成动态目标的矢量轨迹;将动态目标的矢量轨迹映射至地理空间,生成动态目标在地理空间的移动轨迹,将移动轨迹和摘要信息进行关联。本发明的城市监控视频动态目标的标定方法及系统,在监控视频中提取每个动态目标的摘要信息和矢量信息,根据矢量信息在监控视频中形成动态目标的矢量轨迹,将该矢量轨迹映射至地理空间坐标系中,并将动态目标的上述各信息进行了关联,为后续进行动态目标的查询、定位和分析提供了基础,也便于用户进行数据管理。
Description
技术领域
本发明涉及视频分析技术领域,具体涉及一种城市监控视频动态目标的标定方法及系统。
背景技术
当前,城市监控视频来源广泛、分布密集,每天产生庞大的监控视频数据量,却难以做到有效的统一管理,更无法达到城市监控视频的初衷:事前预防、事中响应、事后取证。当前,城市监控视频逐步走向智能化,可以对所监控的视频图像进行智能分析。
现有技术中常见的监控视频智能分析主要是逐帧对视频图像执行分析,但是需要分析的视频数据量大、淘汰率高,常规监控视频在存储一定周期后被删除;且分析后的结果只作直观呈现,无法实现长期有效的存储和实时高效的查询。
鉴于此,克服以上现有技术中的缺陷,提供一种新的城市监控视频动态目标的标定方法及系统成为本领域亟待解决的技术问题。
发明内容
本发明的目的在于针对现有技术的上述缺陷,提供一种城市监控视频动态目标的标定方法及系统。
本发明提供了一种城市监控视频动态目标的标定方法,所述标定方法包括:
对监控视频进行分析,分别提取动态目标的摘要信息和矢量信息;
根据动态目标的所述矢量信息,在监控视频中形成动态目标的矢量轨迹,将所述摘要信息和所述矢量轨迹进行关联;
根据监控视频的视频坐标系和地理空间坐标系的映射关系,将动态目标的矢量轨迹映射至地理空间,生成动态目标在地理空间的移动轨迹,将所述移动轨迹和所述摘要信息进行关联。
优选地,所述标定方法还包括:
根据各动态目标的摘要信息、矢量信息和移动轨迹建立索引;
和/或,将各动态目标的摘要信息、矢量信息和矢量轨迹与监控视频的背景模型进行融合,以生成对应监控视频摘要。
优选地,对监控视频进行分析,提取动态目标的摘要信息,包括:
对监控视频中的动态目标进行目标识别,以生成所述动态目标的静态属性信息;
根据所述静态属性信息在监控视频中对所述动态目标进行定位分析,以生成所述动态目标的动态属性信息;
将所述静态属性信息和所述动态属性信息合并存储为动态目标的摘要信息。
优选地,当动态目标为人时,所述静态属性信息包括服饰颜色、体形特征和/或面部特征中的至少一个,所述动态属性信息包括移动速度和运动事件,所述运动事件为静止、步行、骑行、跑步或驾驶;当动态目标为车辆时,所述静态属性信息包括车牌号、车辆种类和/或车辆颜色中的至少一个,所述动态属性信息包括行驶速度。
优选地,对监控视频进行分析,提取动态目标的矢量信息,包括:
在监控视频的每一帧中,对所述动态目标的边缘轮廓进行特征提取,以获得特征点;
获取动态目标的特征点的像素坐标,将所述特征点的像素坐标与所述动态目标在视频坐标系的位置坐标进行关联,以获得每一帧的矢量信息;
将每一帧的矢量信息进行逐帧叠加,形成动态目标的矢量信息。
优选地,所述标定方法还包括:
对视频监控设备进行测绘,以获取所述视频监控设备的地理空间坐标;
根据所述视频监控设备的监控范围,建立所述视频监控设备的二维视频坐标系。
优选地,所述标定方法还包括:
将至少两个已知特征点的经纬度坐标和在视频坐标系的位置坐标输入至四参数模型;
根据输入的已知特征点的经纬度坐标和在视频坐标系的位置坐标计算从视频监控设备的监控范围所在平面投影到地理空间平面的转换参数;
根据所述四参数模型和所述转换参数建立监控视频的视频坐标系和地理空间坐标系的映射关系。
优选地,所述标定方法还包括:
根据视频监控设备的设备信息和视频监控设备的地理空间坐标建立索引;
和/或,根据视频监控设备的地理空间坐标将所述视频监控设备加载至地理空间场景中。
本发明还提供了一种城市监控视频动态目标的标定系统,所述标定系统包括:
信息提取模块,用于对监控视频进行分析,提取动态目标的摘要信息和矢量信息;
矢量化模块,用于根据动态目标的所述矢量信息,在监控视频中形成动态目标的矢量轨迹,将所述摘要信息和所述矢量轨迹进行关联;
转换模块,用于根据监控视频的视频坐标系和地理空间坐标系的映射关系,将动态目标的矢量轨迹映射至地理空间,生成动态目标在地理空间的移动轨迹,将所述移动轨迹和所述摘要信息进行关联。
优选地,所述标定系统还包括:
数据库,用于存储各动态目标的摘要信息、矢量信息、矢量轨迹和移动轨迹,以及各视频监控设备的设备信息和地理空间坐标;
索引模块,用于根据各动态目标的摘要信息、矢量信息和移动轨迹建立索引,以及根据视频监控设备的设备信息和视频监控设备的地理空间坐标建立索引。
本发明的城市监控视频动态目标的标定方法及系统,在监控视频中提取每个动态目标的摘要信息和矢量信息,根据矢量信息在监控视频中形成动态目标的矢量轨迹,将该矢量轨迹映射至地理空间坐标系中,并将动态目标的上述各信息进行了关联,为后续进行动态目标的查询、定位和分析提供了基础,也便于用户进行数据管理。
附图说明
图1是本发明第一实施例的城市监控视频动态目标的标定方法的流程图。
图2是两个高斯平面的已知特征点的投影关系图。
图3是本发明第二实施例的城市监控视频动态目标的标定方法的流程图。
图4是本发明第三实施例的城市监控视频动态目标的标定系统的结构框图。
图5是视频监控设备的监控范围示意图。
图6是监控视频范围与地理空间二维平面的已知特征点对应图。
图7是监控视频和地理空间的矢量化效果图。
图8是基于监控视频特征与空间逻辑的双向查询原理示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,下面结合附图和具体实施例对本发明作进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
为了使本揭示内容的叙述更加详尽与完备,下文针对本发明的实施方式与具体实施例提出了说明性的描述;但这并非实施或运用本发明具体实施例的唯一形式。实施方式中涵盖了多个具体实施例的特征以及用以建构与操作这些具体实施例的方法步骤与其顺序。然而,亦可利用其它具体实施例来达成相同或均等的功能与步骤顺序。
应当理解,尽管在本申请实施例可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,此外,所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
本发明第一实施例提供了一种城市监控视频动态目标的标定方法,请参阅图1所示,所述标定方法包括:
S101,对监控视频进行分析,分别提取动态目标的摘要信息、矢量信息、和坐标系信息。
S102,根据该动态目标的矢量信息生成矢量轨迹。
S103,根据该坐标系信息,将该动态目标的矢量轨迹映射至地理空间,生成动态目标在地理空间的移动轨迹,将该移动轨迹和该动态目标的摘要信息进行关联。
在步骤S101中,对当前监控视频中的待标定的每一个动态目标进行特征信息提取,以获取动态目标的摘要信息、矢量信息和坐标系信息。
其中,摘要信息为动态目标的属性信息,包括静态属性信息和动态属性信息。优选地,动态目标为人或车辆或动物,当动态目标为人时,该静态属性信息包括服饰颜色、体形特征和/或面部特征中的至少一个,该动态属性信息包括移动速度和运动事件,该运动事件为静止、步行、骑行、跑步或驾驶;当动态目标为车辆时,该静态属性信息包括车牌号、车辆种类和/或车辆颜色中的至少一个,该动态属性信息包括行驶速度。进一步地,摘要信息还包括视频特征信息,该视频特征信息包括拍摄该监控视频的监控设备的设备信息、拍摄时间(动态目标出现的时间点或时间段)、拍摄地点(视频监控设备的安装地点及周围环境信息),该设备信息至少包括设备编号。
在一个优选实施方式中,对监控视频进行分析,提取动态目标的摘要信息,包括如下步骤:对监控视频中的动态目标进行目标识别,以生成该动态目标的静态属性信息;根据该静态属性信息在监控视频中对该动态目标进行定位分析,以生成该动态目标的动态属性信息;将该静态属性信息和该动态属性信息合并存储为动态目标的摘要信息。
其中,矢量信息包括动态目标在监控视频每一帧中的位置矢量信息。
在一个优选实施方式中,对监控视频进行分析,提取动态目标的矢量信息,包括如下步骤:在监控视频的每一帧中,对该动态目标的边缘轮廓进行特征提取,以获得特征点;获取动态目标的特征点的像素坐标,将该特征点的像素坐标与该动态目标在视频坐标系的位置坐标进行关联,以获得每一帧的矢量信息;将每一帧的矢量信息进行逐帧叠加,形成动态目标的矢量信息。
具体地,在监控视频的每一帧中,对动态目标进行边缘检测,提取动态目标的边缘轮廓的多个特征点,获取每个特征点的像素坐标,按照顺时针或逆时针的顺序对多个特征点进行记录,形成了动态目标在当前帧的矢量坐标串,将当前帧中动态目标在视频坐标系的位置坐标与多个特征点的像素坐标关联,该位置坐标可以为上述其中一个边缘轮廓特征点的像素坐标,也可以为动态目标其他特征点的像素坐标,得到动态目标在当前帧的矢量信息。将动态目标在每一帧的矢量信息进行叠加,得到动态目标的矢量坐标串序列,即为动态目标在监控视频的矢量信息。
其中,动态目标的坐标系信息包括该动态目标在监控视频的每一帧中的地理空间坐标,具体地,首先,建立监控视频的视频坐标系和地理空间坐标系的映射关系;然后,在监控视频的每一帧中,获取该动态目标的位置坐标(视频坐标系),根据监控视频的视频坐标系和地理空间坐标系的映射关系,将位置坐标转换为地理空间坐标。
其中,建立监控视频的视频坐标系和地理空间坐标系的映射关系,包括如下步骤:首先,对视频监控设备进行测绘,以获取该视频监控设备的地理空间坐标;然后,根据该视频监控设备的监控范围,建立该视频监控设备的二维视频坐标系,其中,该二维视频坐标系可以以视频监控设备为原点;然后,将至少两个已知特征点的经纬度坐标和在视频坐标系的位置坐标输入至四参数模型,其中,已知特征点的经纬度坐标通过测绘的方式获取;根据输入的已知特征点的经纬度坐标和在视频坐标系的位置坐标计算从视频监控设备的监控范围所在平面投影到地理空间平面的转换参数;根据该四参数模型和该转换参数建立监控视频的视频坐标系和地理空间坐标系的映射关系。
具体地,选择一处交通繁忙的交叉路口为实验环境,在路口旁的写字楼上安装一台固定式摄像机(视频监控设备),监控范围可以覆盖整个路口与路口一侧的小广场,如图5所示,使用GIS手持测绘仪等测绘仪器,分别测量本摄像机的三维空间坐标位置信息、拍摄角度。
在映射关系计算中,将监控视频的监控范围所在平面和地理空间平面作为两个不同的高斯投影平面,请参阅图2所示,下面进行详细说明。
其中,四参数模型如式(1)所示:
其中,x1,y1为转换前坐标,x2,y2为转换后的坐标,Δx,Δy为平移参数,m为尺度变换因子,α为旋转角度。当α很小时,有cosα=1,sinα=0,则有:
误差方程为:
进而由间接平差法得出可以计算出四参数的公式:
X0=(BTPB)-1BTPL (4)
利用平均分布的两个或两个以上已知特征点,如图2所示,采用最小二乘原理,根据(3)、(4)可求出四个转换参数:Δx,Δy,m,α。利用求取的四个转换参数信息:x方向平移量、y方向平移量、旋转角度、尺度变换因子,即可进行从视频坐标系到地理空间坐标系的转换,将矢量轨迹中的多个点投影到地理空间坐标系中,得到对应投影点在地理空间的二维坐标(经纬度坐标)。进一步地,地理空间为3DGIS空间,于是,监控视频中动态目标的高程值以实时抽取3DGIS中的DEM值求取,从而得到监控视频动态目标的在地理空间的三维坐标x、y、z所有值,实现路径动态标绘。
一般地,固定位置的视频监控设备(例如,摄像机)的监控范围比较小,将场景抽象为一个高斯平面,使用测量学四参数模型进行平面约束解算,精度上以可以满足基本的应用需求为准。根据不同高斯平面坐标转换原理:摄像机架设的越高、拍摄方向与地平面之间的角度越小、监控画面视野越窄,监控画面形变越小,转换出的坐标精度会越高。
具体地,对于监控视频来说,内外参是确定的。为了将视频图像像元识别坐标映射转换出的地理坐标更好的集成到地理信息系统中,可以将摄影测量学的相机模型中的内外参数代入计算机视觉的相机模型,相关模型如下:
式中,f,u0=x0ph;υ0=Hpic-y0ph;x0ph为摄影测量像主点横坐标,y0ph为摄影测量像主点纵坐标,Hpic为图像高度,都以像素为单位。
在本实验案例中,将摄像机视频的监控范围看作为一个高斯平面,在摄像机视频监控范围内均匀选取4个已知特征点,如图6所示,在外业使用手持GIS测绘仪分别测得各已知特征点的地理空间坐标(经纬度坐标),通过视频画面取得各已知特征点在视频坐标的像素坐标信息,参见表1,使用3.3测绘四参数模型转换方法,求取监控视频监控范围所在平面到实际地理平面(3DGIS平台2D平面)的四个参数信息,参见表2。
表1已知特征点数据
点号 | 纬度B | 经度L | 视频画面坐标X | 视频画面坐标Y |
1 | 22.5396022 | 114.056113 | 1006 | 824 |
2 | 22.5393942 | 114.055943 | 349 | 792 |
3 | 22.5394656 | 114.055788 | 339 | 550 |
4 | 22.539615 | 114.055792 | 571 | 466 |
表2通过表1计算出的四参数信息
△<sub>x0</sub> | △<sub>y0</sub> | α | b |
22.539512 | 114.05547 | 0.693104064 | 0.000000506258 |
使用上述求取的四参数信息,将监控视频传递的动态目标在监控视频每一帧的位置坐标进行映射转换,从而得出动态目标在地理空间平面内的经纬度坐标信息,根据平面经纬度信息,执行定点DEM查询获取当前点位的高程信息,得到动态目标的三维地理空间坐标信息。
在步骤S102中,根据步骤S101所得的动态目标在监控视频的矢量信息在监控视频上绘制动态目标的矢量轨迹。进一步地,将各动态目标的摘要信息、矢量信息和矢量轨迹与监控视频的背景模型进行融合,以生成对应监控视频摘要。对监控视频摘要进行存储,无需存储监控视频。其中,监控视频的背景模型为去除动态目标数据流之后的环境背景画面。
在步骤S103中,根据该动态目标的坐标系信息,将动态目标在监控视频每一帧中的地理空间坐标所在点进行连线,以将该动态目标的矢量轨迹映射至地理空间,在地理空间坐标系内绘制动态目标的移动轨迹;在地理空间坐标系内,完成多个监控视频的多个动态目标的移动轨迹绘制,以绘制视频地图。
更进一步地,得到动态目标在监控视频的每一帧中的三维地理空间坐标信息之后,将动态目标的三维地理空间坐标信息在3DGIS平台中实时标定出来,并对每个标定点进行实时动态连线,标绘形成独立的动态目标的移动轨迹。
上述过程以实验人员手机GPS定位为校验手段,共进行3*3人/组*10次规模之数据采样及处理分析(分为红、橙、黄三组),将视频数据分别以关键帧、目标特征数据、点线矢量等格式存入Video-GIS云数据库并最终绘制成三维视频地图。如图7所示,左上为路口处人流监控局部实景,右上为3D地图中根据该视频数据多维分解所形成的点状位置与线状轨迹,左下、右下为3D地图中多摄像机合成的监控范围内人流分布及轨迹。
在本实施例中,按照步骤S101至步骤S103,对每个监控视频中的至少一个动态目标进行标定。同一个动态目标可能会出现在多个监控视频中,在进行标定时,对不同监控视频中的同一动态目标均进行了标定,还可以根据两个或多个摘要信息中静态属性信息之间的匹配程度确定是否为同一动态目标,于是,本实施例的标定方法还包括如下步骤:S104,对该静态属性信息进行聚类。
本发明第二实施例提供了一种城市监控视频动态目标的标定方法,请参阅图3所示,所述标定方法包括:
S201,对监控视频进行分析,分别提取动态目标的摘要信息、矢量信息、和坐标系信息。
S202,根据该动态目标的矢量信息生成矢量轨迹。
S203,根据该坐标系信息,将该动态目标的矢量轨迹映射至地理空间,生成动态目标在地理空间的移动轨迹,将该移动轨迹和该动态目标的摘要信息进行关联。
S204,根据各动态目标的摘要信息、矢量信息和移动轨迹建立索引。
S205,根据视频监控设备的地理空间坐标将该视频监控设备加载至地理空间场景中。
S206,将各动态目标的摘要信息、矢量信息和移动轨迹与对应视频监控设备的设备信息进行关联,根据视频监控设备的设备信息和视频监控设备的地理空间坐标建立索引。
步骤S201至步骤S203请参阅第一实施例的步骤S101至步骤S103。
在步骤S204中,通过对动态目标的摘要信息、矢量信息和移动轨迹建立索引,可以实现对动态目标的搜索,以获得不同视频监控设备拍摄的该动态目标的移动轨迹,进一步地,对动态目标的搜索可以包括如下步骤:
S2041,接收查询关键词,根据该查询关键词对动态目标的摘要信息、矢量信息和移动轨迹执行精准查询,以识别动态目标。
在步骤S2041中,接收到查询关键词后,将查询关键词与所有动态目标的摘要信息、矢量信息和移动轨迹进行匹配,根据匹配结果关联对应的动态目标,例如,该查询关键词跟某一条摘要信息匹配上,获取该摘要信息对应的动态目标,作为精准查询的识别结果。
S2042,根据精准查询结果从检索结果数据中获取含有动态目标的所有移动轨迹。
在步骤S2042中,根据动态目标与移动轨迹的关联关系,获取多个与识别出的动态目标关联的移动轨迹。
S2043,将该移动轨迹按照时间顺序进行拼接,生成该动态目标的活动轨迹信息。
在步骤S2043中,将获取的多个移动轨迹按照从早到晚的时间顺序进行排序,将相邻的两个移动轨迹进行拼接,即得到了该动态目标的时序性的活动轨迹信息。
更进一步地,在上述步骤S2041中,还可以对查询关键词执行模糊查询,获取该查询关键词的同义词、上位词和相关词,并设置优先级顺序为查询关键词、同义词、上位词和相关词;根据该查询关键词、同义词、上位词和相关词在摘要信息、矢量信息和移动轨迹中进行模糊检索,以生成检索结果;将该检索结果按照对应的该优先级顺序进行排序,并作为对精准查询的补充。
在步骤S206中,将动态目标的各项信息与对应视频监控设备进行关联,可以通过视频监控设备的设备信息实现对动态目标的查询,例如,已知待确定的动态目标于a时段在地点A出现,b时段在地点B出现,c时段在地点C出现,可以首先通过匹配地点A、地点B和地点C附近的视频监控设备,再匹配时段信息,找出所有符合条件的潜在动态目标,以实现根据环境信息(时间,地点)对动态目标进行查询。
具体地,开展基于视频特征的搜索定位与行为分析,一方面根据摘要信息中的脸谱、服装及运动特征,查询动态目标对象的位置与轨迹(如步骤S2041至步骤S2043),另一方面通过空间逻辑搜索动态目标对象,确定某时段出现在某摄像机群监控范围内之特定目标(如下述步骤S207至S208)等。在步骤S206之后,还包括如下步骤:
S207,获取各视频监控设备的监控范围,根据所述监控范围对应的地理空间位置范围将视频监控设备的监控范围加载至地理空间场景中;将各动态目标的摘要信息、矢量信息和移动轨迹与对应视频监控设备的监控范围信息进行关联,根据视频监控设备的监控范围信息建立索引。
S208,接收空间逻辑关键词,根据空间逻辑关键词在视频监控设备的地理空间位置和监控范围信息执行精准查询或模糊查询,得到空间逻辑关键词的识别结果,所述空间逻辑关键词包括至少一组时间特征和空间位置特征。
在步骤S208中,具体地,针对每一组时间特征和空间位置特征,根据空间位置特征搜索匹配的监控范围,进而匹配与监控范围关联的视频监控设备,根据时间特征在该视频监控设备关联的所有动态目标中匹配至少一个动态目标,作为该组特征的识别结果;再根据各组的识别结果确定关联动态目标,将关联动态目标作为空间逻辑关键词的识别结果,该关联动态目标为同时出现在每组特征的识别结果中的动态目标。
如图8所示,左图根据人群外貌及行为特征,划分红、黄、蓝组,进行视频特征目标查询、识别与跨摄像机定位追踪,右图为上述分析结果3D地图展现。
基于同一发明构思,本发明实施例中还提供了一种城市监控视频动态目标的标定系统,如下面的实施例。由于城市监控视频动态目标的标定系统解决问题的原理与城市监控视频动态目标的标定方法相似,因此城市监控视频动态目标的标定系统的实施可以参见城市监控视频动态目标的标定方法的实施,重复之处不再赘述。以下所使用的,术语“单元”或者“子模块”或者“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的系统较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
本发明第三实施例提供了一种城市监控视频动态目标的标定系统,请参阅图4所示,所述标定系统包括:信息提取模块10、矢量化模块20、转换模块30、数据库40和索引模块50,其中,信息提取模块10,用于对监控视频进行分析,分别提取动态目标的摘要信息、矢量信息、和坐标系信息;矢量化模块20,用于根据该动态目标的矢量信息生成矢量轨迹;转换模块30,用于根据该坐标系信息,将该动态目标的矢量轨迹映射至地理空间,生成动态目标在地理空间的移动轨迹,将该移动轨迹和该动态目标的摘要信息进行关联;数据库40,用于存储各动态目标的摘要信息、矢量信息、矢量轨迹和移动轨迹,以及各视频监控设备的设备信息和地理空间坐标;索引模块50,用于根据各动态目标的摘要信息、矢量信息和移动轨迹建立索引,以及根据视频监控设备的设备信息和视频监控设备的地理空间坐标建立索引。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种城市监控视频动态目标的标定方法,其特征在于,所述标定方法包括:
对监控视频进行分析,分别提取动态目标的摘要信息、矢量信息、和坐标系信息;
根据所述动态目标的矢量信息生成矢量轨迹;
根据所述坐标系信息,将所述动态目标的矢量轨迹映射至地理空间,生成动态目标在地理空间的移动轨迹,将所述移动轨迹和所述动态目标的摘要信息进行关联。
2.根据权利要求1所述的城市监控视频动态目标的标定方法,其特征在于,所述标定方法还包括:
根据各动态目标的摘要信息、矢量信息和移动轨迹建立索引;和/或
将各动态目标的摘要信息、矢量信息和矢量轨迹与监控视频的背景模型进行融合,以生成对应监控视频摘要。
3.根据权利要求1所述的城市监控视频动态目标的标定方法,其特征在于,对监控视频进行分析,提取动态目标的摘要信息,包括:
读取监控视频中的动态目标;
对所述动态目标进行目标识别,生成所述动态目标的静态属性信息;
对所述动态目标进行定位分析,生成所述动态目标的动态属性信息;
将所述静态属性信息和所述动态属性信息合并存储为动态目标的摘要信息。
4.根据权利要求3所述的城市监控视频动态目标的标定方法,其特征在于,具体包括:
判断所述动态目标是否为人;
当所述动态目标为人时,所述静态属性信息包括性别、面部特征、年龄段、体形特征、和/或服饰颜色中的至少一个,所述动态属性信息包括移动速度和运动事件,所述运动事件为静止、步行、骑行或跑步;
当动态目标为车辆时,所述静态属性信息包括车牌号、车辆种类和/或车辆颜色中的至少一个,所述动态属性信息包括行驶速度。
5.根据权利要求1或3所述的城市监控视频动态目标的标定方法,其特征在于,对监控视频进行分析,提取动态目标的矢量信息,包括:
在监控视频的每一帧中,对所述动态目标的边缘轮廓进行特征提取,以获得特征点;
获取动态目标的特征点的像素坐标,将所述特征点的像素坐标与所述动态目标在视频坐标系的位置坐标进行关联,以获得每一帧的矢量信息;
将每一帧的矢量信息进行逐帧叠加,形成动态目标的矢量信息。
6.根据权利要求1所述的城市监控视频动态目标的标定方法,其特征在于,对监控视频进行分析,提取动态目标的坐标系信息,包括:
对监控视频的监控设备进行测绘,以获取所述视频监控设备的地理空间坐标;
根据所述视频监控设备的监控范围,建立所述视频监控设备的二维视频坐标系;
根据监控视频的视频坐标系和地理空间坐标系的映射关系,生成所述动态目标的坐标系信息。
7.根据权利要求6所述的城市监控视频动态目标的标定方法,其特征在于,所述标定方法还包括:
将至少两个已知特征点的经纬度坐标和在视频坐标系的位置坐标输入至四参数模型;
根据输入的已知特征点的经纬度坐标和在视频坐标系的位置坐标计算从视频监控设备的监控范围所在平面投影到地理空间平面的转换参数;
根据所述四参数模型和所述转换参数建立监控视频的视频坐标系和地理空间坐标系的映射关系。
8.根据权利要求6所述的城市监控视频动态目标的标定方法,其特征在于,所述标定方法还包括:
根据视频监控设备的设备信息和视频监控设备的地理空间坐标建立索引;和/或
根据视频监控设备的地理空间坐标将所述视频监控设备加载至地理空间场景中。
9.一种城市监控视频动态目标的标定系统,其特征在于,所述标定系统包括:
信息提取模块,用于对监控视频进行分析,分别提取动态目标的摘要信息、矢量信息、和坐标系信息;
矢量化模块,用于根据所述动态目标的矢量信息生成矢量轨迹;
转换模块,用于根据所述坐标系信息,将所述动态目标的矢量轨迹映射至地理空间,生成动态目标在地理空间的移动轨迹,将所述移动轨迹和所述动态目标的摘要信息进行关联。
10.根据权利要求9所述的城市监控视频动态目标的标定系统,其特征在于,所述标定系统还包括:
数据库,用于存储各动态目标的摘要信息、矢量信息、矢量轨迹和移动轨迹,以及各视频监控设备的设备信息和地理空间坐标;
索引模块,用于根据各动态目标的摘要信息、矢量信息和移动轨迹建立索引,以及根据视频监控设备的设备信息和视频监控设备的地理空间坐标建立索引。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910853639.7A CN110674711A (zh) | 2019-09-10 | 2019-09-10 | 城市监控视频动态目标的标定方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910853639.7A CN110674711A (zh) | 2019-09-10 | 2019-09-10 | 城市监控视频动态目标的标定方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110674711A true CN110674711A (zh) | 2020-01-10 |
Family
ID=69077662
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910853639.7A Pending CN110674711A (zh) | 2019-09-10 | 2019-09-10 | 城市监控视频动态目标的标定方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110674711A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111680662A (zh) * | 2020-06-19 | 2020-09-18 | 苏州数字地图信息科技股份有限公司 | 一种轨迹确定方法、系统、设备及计算机可读存储介质 |
CN111683221A (zh) * | 2020-05-21 | 2020-09-18 | 武汉大学 | 嵌入矢量红线数据的自然资源实时视频监测方法及系统 |
CN112033284A (zh) * | 2020-08-28 | 2020-12-04 | 北京睿呈时代信息科技有限公司 | 存储器、基于监控视频的交互测量方法、系统和设备 |
CN112380901A (zh) * | 2020-10-10 | 2021-02-19 | 杭州翔毅科技有限公司 | 行为轨迹生成方法、设备、存储介质及装置 |
CN117152666A (zh) * | 2023-10-18 | 2023-12-01 | 北京精英智通科技股份有限公司 | 一种机动车特征的分析校正识别方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102930061A (zh) * | 2012-11-28 | 2013-02-13 | 安徽水天信息科技有限公司 | 一种基于运动目标检测的视频摘要方法及系统 |
CN103679730A (zh) * | 2013-12-17 | 2014-03-26 | 深圳先进技术研究院 | 基于gis的视频摘要生成方法 |
CN104484814A (zh) * | 2014-12-18 | 2015-04-01 | 深圳先进技术研究院 | 一种基于视频地图的广告方法及系统 |
CN104486584A (zh) * | 2014-12-18 | 2015-04-01 | 深圳先进技术研究院 | 一种基于增强现实的城市视频地图方法 |
CN108765943A (zh) * | 2018-05-30 | 2018-11-06 | 深圳市城市公共安全技术研究院有限公司 | 车辆智能监控方法、监控系统及服务器 |
-
2019
- 2019-09-10 CN CN201910853639.7A patent/CN110674711A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102930061A (zh) * | 2012-11-28 | 2013-02-13 | 安徽水天信息科技有限公司 | 一种基于运动目标检测的视频摘要方法及系统 |
CN103679730A (zh) * | 2013-12-17 | 2014-03-26 | 深圳先进技术研究院 | 基于gis的视频摘要生成方法 |
CN104484814A (zh) * | 2014-12-18 | 2015-04-01 | 深圳先进技术研究院 | 一种基于视频地图的广告方法及系统 |
CN104486584A (zh) * | 2014-12-18 | 2015-04-01 | 深圳先进技术研究院 | 一种基于增强现实的城市视频地图方法 |
CN108765943A (zh) * | 2018-05-30 | 2018-11-06 | 深圳市城市公共安全技术研究院有限公司 | 车辆智能监控方法、监控系统及服务器 |
Non-Patent Citations (1)
Title |
---|
安卫等: ""一种平面四参数法坐标转换方法的实现"", 《北京测绘》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111683221A (zh) * | 2020-05-21 | 2020-09-18 | 武汉大学 | 嵌入矢量红线数据的自然资源实时视频监测方法及系统 |
CN111680662A (zh) * | 2020-06-19 | 2020-09-18 | 苏州数字地图信息科技股份有限公司 | 一种轨迹确定方法、系统、设备及计算机可读存储介质 |
CN111680662B (zh) * | 2020-06-19 | 2024-03-12 | 苏州数字地图信息科技股份有限公司 | 一种轨迹确定方法、系统、设备及计算机可读存储介质 |
CN112033284A (zh) * | 2020-08-28 | 2020-12-04 | 北京睿呈时代信息科技有限公司 | 存储器、基于监控视频的交互测量方法、系统和设备 |
CN112033284B (zh) * | 2020-08-28 | 2022-05-17 | 北京睿呈时代信息科技有限公司 | 存储器、基于监控视频的交互测量方法、系统和设备 |
CN112380901A (zh) * | 2020-10-10 | 2021-02-19 | 杭州翔毅科技有限公司 | 行为轨迹生成方法、设备、存储介质及装置 |
CN117152666A (zh) * | 2023-10-18 | 2023-12-01 | 北京精英智通科技股份有限公司 | 一种机动车特征的分析校正识别方法及系统 |
CN117152666B (zh) * | 2023-10-18 | 2024-02-09 | 北京精英智通科技股份有限公司 | 一种机动车特征的分析校正识别方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10592780B2 (en) | Neural network training system | |
CN110674711A (zh) | 城市监控视频动态目标的标定方法及系统 | |
US20200401617A1 (en) | Visual positioning system | |
US10043097B2 (en) | Image abstraction system | |
CN107833280B (zh) | 一种基于地理网格与图像识别相结合的户外移动增强现实方法 | |
Qiu et al. | RGB-DI images and full convolution neural network-based outdoor scene understanding for mobile robots | |
CN111028358B (zh) | 室内环境的增强现实显示方法、装置及终端设备 | |
CN110866079A (zh) | 一种智慧景区实景语义地图的生成与辅助定位方法 | |
CN104484814B (zh) | 一种基于视频地图的广告方法及系统 | |
Vishal et al. | Accurate localization by fusing images and GPS signals | |
Huang et al. | A coarse-to-fine algorithm for registration in 3D street-view cross-source point clouds | |
Bauer et al. | UASOL, a large-scale high-resolution outdoor stereo dataset | |
CN112634368A (zh) | 场景目标的空间与或图模型生成方法、装置及电子设备 | |
CN113340312A (zh) | 一种ar室内实景导航方法及系统 | |
Jiang et al. | Learned local features for structure from motion of uav images: A comparative evaluation | |
Mithun et al. | Cross-View Visual Geo-Localization for Outdoor Augmented Reality | |
GB2523776A (en) | Methods for 3D object recognition and registration | |
Sun et al. | Cross-view object geo-localization in a local region with satellite imagery | |
Wei et al. | Object clustering with Dirichlet process mixture model for data association in monocular SLAM | |
Li et al. | Road-network-based fast geolocalization | |
Sinha et al. | Image retrieval using landmark indexing for indoor navigation | |
Khan et al. | A review of benchmark datasets and training loss functions in neural depth estimation | |
CN107193965B (zh) | 一种基于BoVW算法的快速室内定位方法 | |
CN115905442A (zh) | 基于认知图谱的无人驾驶航空器地貌勘测方法、系统和介质 | |
Venable | Improving Real World Performance for Vision Navigation in a Flight Environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200110 |
|
RJ01 | Rejection of invention patent application after publication |