CN113096135A - 一种多摄像机与gis协同的群体目标空间化方法 - Google Patents

一种多摄像机与gis协同的群体目标空间化方法 Download PDF

Info

Publication number
CN113096135A
CN113096135A CN202110323885.9A CN202110323885A CN113096135A CN 113096135 A CN113096135 A CN 113096135A CN 202110323885 A CN202110323885 A CN 202110323885A CN 113096135 A CN113096135 A CN 113096135A
Authority
CN
China
Prior art keywords
area
group
targets
camera
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110323885.9A
Other languages
English (en)
Other versions
CN113096135B (zh
Inventor
张兴国
孙银萍
罗霄月
石新雨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xinyang Normal University
Original Assignee
Xinyang Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xinyang Normal University filed Critical Xinyang Normal University
Priority to CN202110323885.9A priority Critical patent/CN113096135B/zh
Publication of CN113096135A publication Critical patent/CN113096135A/zh
Application granted granted Critical
Publication of CN113096135B publication Critical patent/CN113096135B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Abstract

本发明公开了一种多摄像机与GIS协同的群体目标空间化方法。其具体步骤为:(1)基于自定义群体语义分割数据集和已有语义分割模型,训练群体语义分割模型;(2)根据各摄像机视频,结合高清遥感底图,解算各摄像机的单应矩阵;(3)语义分割各视频帧图像,将各类别区块映射至二维地图,并对重叠区块进行融合;(4)顾及深度图,将监控区域划分为远、中、近三大子区域,计算各子区域内各类别单位面积的目标个数;(5)基于以上模型和参数,实现监控区内群体目标实时计数;(6)在二维地图中,用目标点符号填充的区块多边形对群体目标进行地图可视化。本发明解决了大型聚集场所中群体目标难以精准计数、难以地图可视化的问题。

Description

一种多摄像机与GIS协同的群体目标空间化方法
技术领域
本发明涉及一种多摄像机与GIS协同的群体目标空间化方法,属于视频与地理信息科学交叉融合的技术领域。
背景技术
随着科学技术的快速发展,视频监控技术与GIS技术在智慧城市、公共场所安保等领域均得到了广泛使用。视频监控网络具有实时和高清的优势,并且可基于多个摄像机对群体目标区域进行无死角监控。GIS借助其独有的空间分析功能和可视化表达,可进行各种辅助决策。通过视频监控技术与GIS技术的融合,可以增强传统视频监控系统的空间位置感,同时也可为视频监控系统提供大量的、连续的和实时的场景信息,对于交通部门的执法及监管工作有着重要的意义。
近年来,由于商业区和居民区等建筑用地集中分布,商场、车站、学校、办公楼和居民区等人类活动较为频繁的大型场所便成为了群体目标密集分布区。如果可以实时掌握监控区域内群体目标的数量,就能有效避免人群踩踏等一系列事故的发生。目前,在该研究领域多采用图像纹理回归统计、目标检测和目标跟踪等方法,但由于群体目标大量聚集且各目标之间严重遮挡,很难根据这些传统的方法清楚地统计这些密集分布区内群体目标的个数。
发明内容
针对现有方法存在的易漏检、易叠加、难直观可视化等缺点,本发明基于深度学习的图像语义分割技术,提供了一种多摄像机与GIS协同的群体目标空间化方法,以解决群体目标难以精准计数、难以地图可视化的问题。
本发明的技术思路为:训练适合群体目标场景的自定义群体语义分割模型,结合各摄像机的单应矩阵将语义分割类别结果映射至二维地图,并进行重叠区块进行融合,分别计算各子区域内各类别单位面积的目标个数,在二维地图中实时计算各区块目标个数及监控区目标总个数,并将结果进行地图可视化。
本发明采用的技术方案如下:
一种多摄像机与GIS协同的群体目标空间化方法,包括如下步骤:
步骤1,基于已有的语义分割模型和采集的群体目标语义分割数据集,训练适用于群体目标场景的自定义语义分割模型;
步骤2,针对每一个摄像机视频,结合相应的高清遥感影像,分别选取同名点解算各摄像机的单应矩阵;
步骤3,使用所述自定义语义分割模型对视频帧图像进行语义分割,根据各摄像机的单应矩阵,将语义分割类别结果映射至二维地图,并基于各摄像机中心与重叠区域的空间关系对重叠区块进行融合;
步骤4,顾及深度图,将监控区域划分为远、中、近三大子区域,分别计算各子区域内映射后的各类别区块总面积和总个数,然后计算各子区域内各类别单位面积的目标个数;
步骤5,基于以上步骤得到的结果,在二维地图中实时计算各类别区块目标个数及监控区目标总个数,实现监控区域内群体目标实时计数;
步骤6,在二维地图中,用目标点符号填充的区块多边形对群体目标进行地图可视化,多边形内填充点的个数为该区块所代表群体的目标总数。
进一步地,所述步骤1中,根据采集的数据集训练所述自定义语义分割模型时,可适当调整原始图像和像素标签图像的大小。
进一步地,所述步骤2中,选择同名点时,同名点数量应≥4,且均匀分布于整个图像上。
进一步地,所述步骤3中,在重叠区块进行融合时,针对同时出现在两个及以上摄像机视域内的群体目标,将群体目标至摄像机的距离、群体目标-摄像机中心连线与主光轴的夹角这两个因素作为优选条件,最终选择一个摄像机的视频帧图像参与实时计数。
进一步地,最终选择均值Uave最大的群体目标所在的摄像机:
Uave=(Ud+Ua)/2
其中,Ud为群体目标至摄像机的距离的可用度,Ua为群体目标-摄像机中心连线与主光轴的夹角的可用度。
进一步地,所述步骤4中,根据同名点解算的单应矩阵,以及视频帧图像所对应的在线遥感影像地图,将语义分割后得到的各类别区块实时映射至二维地图,计算映射后二维地图中各类别区块对应多边形的面积与目标个数。
进一步地,所述步骤6中,填充区块多边形时,目标点符号均匀分布。
本发明的方法与现有技术相比,具有以下技术效果:
(1)针对大型聚集场所中目标大量聚集,群体目标之间相互遮挡,现有技术难以精准计数的问题,本发明基于深度学习时代的图像语义分割技术,将多摄像机监控的视频帧图像语义分割类别结果映射至二维空间,解决了群体目标因错检、漏检而造成计数不精确等问题。
(2)在多摄像机监控下,针对现有技术对重叠视域目标重复分析、数据冗余的问题,本发明基于各摄像机中心与重叠区域的空间关系对重叠区块进行融合,将群体目标距摄像机距离远近、群体目标与摄像机视域中心线夹角大小两个因素作为优选条件,最终选择一个摄像机的视频帧图像参与实时计数,以减少数据冗余。
(3)在摄像机成像时,监控区域内远近物体成像的精度有所差异,针对现有技术对远处群体目标成像不清晰、计数不准确的问题,本发明通过将摄像机视域划分远、中、近三大子区域,先分别计算各子区域内各类别单位面积的目标个数,然后计算监控区域内各子区域的各类别区块总面积,最终得到监控区域群体目标总数,提高群体目标计数精度。
(4)针对现有技术对群体目标难以直观可视化的问题,本发明将群体目标映射在二维地图上,用目标点符号填充的区块多边形实现对群体目标的可视化表达。
附图说明
图1是本发明方法的流程框图;
图2是多摄像机监控群体目标区域的示意图;
图3是重叠区块融合的示意图;
图4是摄像机三大子区域的示意图;
图5是多摄像机监控视频映射至二维地图的示意图;
图6是群体目标地图可视化的示意图。
具体实施方式
下面结合说明书附图对本发明的具体实施方式作进一步详细的说明。
在群体目标密集分布区,面向视频监控系统中群体目标各类别数目难以统计的迫切需求,考虑群体目标难以精准计数、难以地图可视化的问题,本实施例提供一种多摄像机与GIS协同的群体目标空间化方法,其步骤如下:首先,根据已有的语义分割模型,采集训练语义分割所适用的数据集,基于两者训练适合自己的语义分割模型;然后,对每一个摄像机视频,结合高清遥感底图,分别选取4个及以上同名点解算各摄像机的单应矩阵;其次,使用自定义群体语义分割模型对视频帧图像进行语义分割,根据得到的各摄像机单应矩阵将语义分割类别结果映射至二维地图,并且基于各摄像机中心与重叠区域的空间关系对重叠区块进行融合;下一步,将监控区域划分为远、中、近三大子区域,计算各子区域内各类别单位面积的目标个数;最后,对监控区域群体目标实时计数,并将结果进行地图可视化表达。
本实施例的方法在具体的实际应用过程中,针对各摄像机视频,具体步骤如下:
步骤1.首先,采集训练语义分割模型所适用的视频帧图像数据集,其中应包含大面积的车群、密集的人群等群体目标数据,并将60%的图像用于训练,20%的图像用于验证,20%的图像用于测试。然后,标注数据集中视频图像的各个类别,将数据集中所有图像的相同类别用同种颜色标注,为验证标注结果的准确性,需将像素标签图像以RGB的形式显示。下一步,为缩短训练时间,引入动量的随机梯度下降(SGDM)算法,根据系统中GPU内存量适当调整图像和像素标签图像的大小。最后,结合已有的语义分割模型,指定数据扩充参数,开始训练自定义的语义分割模型,并在测试图像上运行和评估其准确性。所述的自定义语义分割模型在进行群体目标分类时,能较精准的识别图像中人群、车群等不同群体目标,对图像中的每个像素逐一进行分类,然后将不同类别以不同的颜色表示,很大程度上避免了图像的分类错误,提高了图像的分割的精度。
步骤2.在一个摄像机视频中选取多个控制点pn(xn,yn),在高清遥感底图中选取其相应的同名点p′n(x′n,y′n),然后计算该摄像机映射至地理空间的单应矩阵H,如式(1)所示。
Figure BDA0002993823680000041
其中,矩阵
Figure BDA0002993823680000042
即为一个3×3的单应矩阵H。特别地,在各视频帧图像和高清遥感底图上选择同名点时,需选择4对及以上相应的p和p′的点对,方可计算得到摄像机的单应矩阵H。对于多个摄像机所监控的群体目标密集分布区,空间场景下多个摄像机分别对应多个空间视角,每个视角中的群体目标映射至地图上均需对应不同的单应矩阵,因此需分别计算各摄像机的单应矩阵Hk
步骤3.对于多摄像机监控的群体目标密集分布区,先使用自定义的语义分割模型对实时视频图像进行语义分割,该方式是从像素的角度出发,对各视频帧图像中的每个像素都进行标注,使得视频图像中不同类别能以不同颜色清晰地显示。然后,确定语义分割后群体目标点坐标,根据各摄像机的单应矩阵,计算其相应的地理坐标,将群体目标语义分割图像的各类别区块映射至二维地图,在映射至地理空间的过程中,会出现一对多的映射现象,如图2操场中的部分人群是在摄像机C1和摄像机C2的共同视域内,则对于该人群优选出其中一个摄像机的视频图像参与应用即可。因此,在地理空间下,需基于各摄像机中心与重叠区域的空间关系对重叠区块进行融合,将群体目标至摄像机的距离(d)、群体目标-摄像机中心连线与主光轴的夹角(a)两个因素作为优选条件,对多摄像机监控下重复映射的群体目标进行唯一选择,最终选择一个摄像机的视频帧图像参与实时计数。
在重叠区块进行融合时,需计算d的可用度(Ud)、a的可用度(Ua),并求均值(Uave),Uave最大的群体目标所在的摄像机即为优选的摄像机。图3是重叠区块融合的示意图,由于重叠区块为不规则的多边形,则需先确定不规则多边形的几何中心点的坐标R(Xr,Yr,Zr),再基于已知的摄像机中心坐标C(Xc,Ycr,Zc),得到群体目标至摄像机的距离d,可用度Ud,如式(2)和式(3)所示。
Figure BDA0002993823680000051
Ud=1-d/20 (3)
在计算群体目标-摄像机中心连线与主光轴的夹角(a)时,设点c(x,y,0)为主光轴与地面的交点坐标,则a即为
Figure BDA0002993823680000052
Figure BDA0002993823680000053
的夹角,Ua为其可用度,如式(4)和式(5)所示。
Figure BDA0002993823680000054
Ua=1-a/90 (5)
根据Ud和Ua即可计算Uave,如式(6)所示。
Uave=(Ud+Ua)/2 (6)
步骤4.摄像机成像时,在针孔模型的作用下,受成像平面大小的影响,视频传感器能感知到的范围在三维空间中表现为一个棱锥,且只有在这个棱锥体内的物体才能被视频传感器感知成像。由于摄像机监控区域内各目标距离摄像机的远近不同,距离摄像机过远的物体无法被拍摄到,从而产生一个远平面;距离摄像机过近的物体则会遮挡镜头而成无意义的影像,从而产生一个近平面,最终视锥体在二维平面中投影为一个梯形。由于监控区域内远近物体成像的精度有所差异,因此将摄像机的监控区域划分为远、中、近三大子区域,如图4所示,在摄像机梯形视域内,0-5m的范围内为近区、5-10m为中区、10-15m为远区。
在计算各子区域内各类别单位面积的目标个数时,首先,将视频帧图像语义分割后得到的各类别区块映射至高清遥感底图上,计算各子区域内映射后的各类别区块多边形的总面积Sir,计算各子区域内映射后的各类别区块总个数Nir,其中i表示近区、中区、远区,r表示人群、车群等群体目标;然后,根据Sir和Nir,得到摄像机视域内三大子区域各类别单位面积的目标个数
Figure BDA0002993823680000055
步骤5.根据得到的群体目标语义分割模型、多视频帧图像、各摄像机单应矩阵、以及重叠区块融合等一系列模型和参数,可实现群体目标在二维空间中的实时映射。对于一个具体的群体目标区域,先进行多摄像机的实时监控,采集和分解各摄像机视频,得到各视频帧图像;然后对于重叠区块进行融合处理;最后进行群体目标的二维映射,图5是多摄像机监控视频映射至二维地图的示意图。
要实现监控区域群体目标的实时计数,应顾及深度图,计算监控区内各子区域映射后的各类别区块多边形的总面积S′ir。根据步骤4中预先实验得到的子区域内各类别单位面积的目标个数Cir,计算监控区各区块目标个数N′ir=S′ir×Cir,得到监控区各类别目标总个数N′总r=N′近r+N′中r+N′远r。基于以上步骤,可实现在二维地图中实时计算各区块目标个数及监控区目标总个数。
步骤6.在二维地图中,用目标点符号填充的区块多边形对群体目标进行地图可视化,多边形填充点的个数为该区块所代表群体的目标总数。如图6所示,在摄像机监控区域内,存在着三大群体目标块,每个目标块内的单个目标以目标点符号
Figure BDA0002993823680000061
表示,且各目标点符号
Figure BDA0002993823680000062
均匀分布于每个区块多边形中。通过这种目标点符号填充的方式,可实现群体目标在二维地图中的实时可视化。

Claims (7)

1.一种多摄像机与GIS协同的群体目标空间化方法,其特征在于,包括如下步骤:
步骤1,基于已有的语义分割模型和采集的群体目标语义分割数据集,训练适用于群体目标场景的自定义语义分割模型;
步骤2,针对每一个摄像机视频,结合相应的高清遥感影像,分别选取同名点解算各摄像机的单应矩阵;
步骤3,使用所述自定义语义分割模型对视频帧图像进行语义分割,根据各摄像机的单应矩阵,将语义分割类别结果映射至二维地图,并基于各摄像机中心与重叠区域的空间关系对重叠区块进行融合;
步骤4,顾及深度图,将监控区域划分为远、中、近三大子区域,分别计算各子区域内映射后的各类别区块总面积和总个数,然后计算各子区域内各类别单位面积的目标个数;
步骤5,基于以上步骤得到的结果,在二维地图中实时计算各类别区块目标个数及监控区目标总个数,实现监控区域内群体目标实时计数;
步骤6,在二维地图中,用目标点符号填充的区块多边形对群体目标进行地图可视化,多边形内填充点的个数为该区块所代表群体的目标总数。
2.根据权利要求1所述的一种多摄像机与GIS协同的群体目标空间化方法,其特征在于,所述步骤1中,根据采集的数据集训练所述自定义语义分割模型时,可适当调整原始图像和像素标签图像的大小。
3.根据权利要求1所述的一种多摄像机与GIS协同的群体目标空间化方法,其特征在于,所述步骤2中,选择同名点时,同名点数量应≥4,且均匀分布于整个图像上。
4.根据权利要求1所述的一种多摄像机与GIS协同的群体目标空间化方法,其特征在于,所述步骤3中,在重叠区块进行融合时,针对同时出现在两个及以上摄像机视域内的群体目标,将群体目标至摄像机的距离、群体目标-摄像机中心连线与主光轴的夹角这两个因素作为优选条件,最终选择一个摄像机的视频帧图像参与实时计数。
5.根据权利要求4所述的一种多摄像机与GIS协同的群体目标空间化方法,其特征在于,最终选择均值Uave最大的群体目标所在的摄像机:
Uave=(Ud+Ua)/2
其中,Ud为群体目标至摄像机的距离的可用度,Ua为群体目标-摄像机中心连线与主光轴的夹角的可用度。
6.根据权利要求1所述的一种多摄像机与GIS协同的群体目标空间化方法,其特征在于,所述步骤4中,根据同名点解算的单应矩阵,以及视频帧图像所对应的在线遥感影像地图,将语义分割后得到的各类别区块实时映射至二维地图,计算映射后二维地图中各类别区块对应多边形的面积与目标个数。
7.根据权利要求1所述的一种多摄像机与GIS协同的群体目标空间化方法,其特征在于,所述步骤6中,填充区块多边形时,目标点符号均匀分布。
CN202110323885.9A 2021-03-26 2021-03-26 一种多摄像机与gis协同的群体目标空间化方法 Active CN113096135B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110323885.9A CN113096135B (zh) 2021-03-26 2021-03-26 一种多摄像机与gis协同的群体目标空间化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110323885.9A CN113096135B (zh) 2021-03-26 2021-03-26 一种多摄像机与gis协同的群体目标空间化方法

Publications (2)

Publication Number Publication Date
CN113096135A true CN113096135A (zh) 2021-07-09
CN113096135B CN113096135B (zh) 2022-10-28

Family

ID=76670039

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110323885.9A Active CN113096135B (zh) 2021-03-26 2021-03-26 一种多摄像机与gis协同的群体目标空间化方法

Country Status (1)

Country Link
CN (1) CN113096135B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114494598A (zh) * 2022-01-25 2022-05-13 南京师范大学 一种城市三维可视空间比指标的优化方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170039765A1 (en) * 2014-05-05 2017-02-09 Avigilon Fortress Corporation System and method for real-time overlay of map features onto a video feed
CN110660023A (zh) * 2019-09-12 2020-01-07 中国测绘科学研究院 一种基于图像语义分割的视频拼接方法
CN111143504A (zh) * 2019-12-31 2020-05-12 信阳师范学院 一种多摄像机室内视频地图构建方法
CN112040265A (zh) * 2020-09-09 2020-12-04 河南省科学院地理研究所 一种多摄像机协同的地理视频直播流生成方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170039765A1 (en) * 2014-05-05 2017-02-09 Avigilon Fortress Corporation System and method for real-time overlay of map features onto a video feed
CN110660023A (zh) * 2019-09-12 2020-01-07 中国测绘科学研究院 一种基于图像语义分割的视频拼接方法
CN111143504A (zh) * 2019-12-31 2020-05-12 信阳师范学院 一种多摄像机室内视频地图构建方法
CN112040265A (zh) * 2020-09-09 2020-12-04 河南省科学院地理研究所 一种多摄像机协同的地理视频直播流生成方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HONGQUAN SONG ET AL.: "Real-Time Monitoring for Crowd Counting Using Video Surveillance and GIS", 《2012 2ND INTERNATIONAL CONFERENCE ON REMOTE SENSING, ENVIRONMENT AND TRANSPORTATION ENGINEERING》 *
ZHENFENG SHAO ET AL.: "An Accurate Matching Method for Projecting Vector Data into Surveillance Video to Monitor and Protect Cultivated Land", 《INTERNATIONAL JOURNAL OF GEO-INFORMATION》 *
解愉嘉: "地理场景中监控视频浓缩方法研究", 《中国博士学位论文全文数据库基础科学辑》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114494598A (zh) * 2022-01-25 2022-05-13 南京师范大学 一种城市三维可视空间比指标的优化方法
CN114494598B (zh) * 2022-01-25 2023-03-21 南京师范大学 一种城市三维可视空间比指标的优化方法

Also Published As

Publication number Publication date
CN113096135B (zh) 2022-10-28

Similar Documents

Publication Publication Date Title
CN103226838A (zh) 地理场景中移动监控目标的实时空间定位方法
CN110400352A (zh) 利用特征识别的摄像机校准
RU2696548C1 (ru) Способ построения системы видеонаблюдения для поиска и отслеживания объектов
CN104361603B (zh) 枪机图像目标标定方法及其系统
CN107295230A (zh) 一种基于红外热像仪的微型目标物移动侦测装置及方法
CN106846375A (zh) 一种应用于自主灭火机器人的火焰检测方法
CN111143504B (zh) 一种多摄像机室内视频地图构建方法
CN109685855A (zh) 一种道路云监控平台下的摄像机标定优化方法
CN110766170B (zh) 基于图像处理的多传感器融合和人员定位的方法
CN107066975B (zh) 基于深度传感器的视频识别与跟踪系统及其方法
CN108225334A (zh) 一种基于三维实景数据的定位方法及装置
CN103986905B (zh) 一种三维环境下基于线路特征的视频空间实时漫游方法
Song et al. Real-time monitoring for crowd counting using video surveillance and GIS
CN109727314A (zh) 一种增强现实场景融合及其展示方法
CN108257182A (zh) 一种立体摄像头模组的标定方法及装置
CN112950717A (zh) 一种空间标定方法和系统
CN116883610A (zh) 基于车辆识别与轨迹映射的数字孪生路口构建方法和系统
CN112562005A (zh) 一种空间标定方法和系统
CN113096135B (zh) 一种多摄像机与gis协同的群体目标空间化方法
CN111996883A (zh) 一种检测公路路面宽度的方法
CN112581402A (zh) 一种基于机器视觉技术的路桥病害自动检测方法
CN111783690A (zh) 基于车辆密度感知的城市可行驶区域cim信息处理方法
CN108388995A (zh) 一种道路资产管理系统的建立方法及建立系统
CN107633537A (zh) 一种基于投影的摄像头标定方法
CN113469949B (zh) 一种基于地理信息的输电通道内隐患测距的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant