CN112040265A - 一种多摄像机协同的地理视频直播流生成方法 - Google Patents
一种多摄像机协同的地理视频直播流生成方法 Download PDFInfo
- Publication number
- CN112040265A CN112040265A CN202010941373.4A CN202010941373A CN112040265A CN 112040265 A CN112040265 A CN 112040265A CN 202010941373 A CN202010941373 A CN 202010941373A CN 112040265 A CN112040265 A CN 112040265A
- Authority
- CN
- China
- Prior art keywords
- camera
- live broadcast
- video
- grid
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/21805—Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种多摄像机协同的地理视频直播流生成方法。其具体步骤为:(1)根据各摄像机视频,结合高清遥感底图,选取同名点解算各摄像机的单应矩阵及视域;(2)在二维地图上确定直播区域及区域内的摄像机集合;(3)对直播区域进行格网剖分,并根据单应矩阵的逆变换,计算各格网中心点相应的图像坐标和像素值;(4)根据单应矩阵,计算各个像素点的投射面积和长度变形比;(5)基于优选条件,对重叠视域内的像素点进行加权优选;(6)根据网络带宽情况,采取自适应的视频图像流生成方法进行直播。本发明解决了2D WebGIS下多摄像机地理视频直播效率低、重叠视域内像素重复映射、视频流数据量大、输出质量和速度受网络带宽限制大的问题。
Description
技术领域
本发明涉及一种多摄像机协同的地理视频直播流生成方法,属于地理信息技术领域。
背景技术
随着科学技术的发展,视频监控网络和地理信息系统在智慧城市、自然资源监管、公共场所安保等领域均得到了广泛使用。视频监控网络具有高清、真实、实时的优势,地理信息系统具有可定位、可量测、可分析与模拟的特征,两者的集成可提供大场景实时的状态信息,使监管与安保工作能在统一的视图下完成,极大地降低了工作的难度。
当前,监控区域的各摄像机,在地图中多以点状符号表示摄像机位置,以圆弧或多边形表示摄像机视域,用户通过点击各个点查看各摄像机的视频画面,这种集成方式表达了摄像机的位置、朝向或视域,从一定程度上实现了两者的集成。然而,各个摄像机仍是独立的,为了了解整体状况或某一事件,仍需要逐个摄像机查看,并人工综合研判。如果能将各视频中的人、车、人群、车群、视频图像等统一映射到地图中,将会使综合分析变得便捷、降低人脑的负担。目前,该研究领域主要集中在单个摄像机视频图像及智能分析结果的地图映射方面,并且主要面向单机版或内网C/S架构的应用情景,无法在WebGIS或公网中应用。
发明内容
针对现有方法存在图像空间与地理空间位置不吻合、多个摄像机视频缺乏智能化融合、网络传输模式单一、数据量大等缺点,本发明提供了一种多摄像机协同的地理视频直播流生成方法,实现视频直播流输出速度和质量的提升。
本发明的技术思路为:基于各摄像机视频,结合高清遥感底图,综合考虑各摄像机视频图像各个像素点的投射面积、形变两大因素,优选重复像素点,实时生成与2D地图吻合的地理视频地图;根据网络带宽情况,采取自适应的视频图像流生成方法进行直播。
本发明采用的技术方案如下:
一种多摄像机协同的地理视频直播流生成方法,包括如下步骤:
步骤1,针对每一个摄像机视频,结合相应的高清遥感影像,分别选取同名点解算各摄像机的单应矩阵Hk,并根据单应矩阵Hk,计算各摄像机的视域Vk;
步骤2,在二维地图上确定直播区域R后,对摄像机的视域Vk与直播区域R几何求交,得到直播区域R内的摄像机集合Cs;
步骤3,对直播区域R进行格网剖分(m,n),计算剖分后各格网的中心点坐标Geoij,并根据单应矩阵的逆变换矩阵,计算各格网中心点坐标对应各摄像机的图像坐标Pick(i,j)及像素值Pix-ValSk(m,n),得到落在直播区域R内的所有像素点;
步骤4,对每个摄像机的每个视频图像,设图像上每个像素点为中心的八邻域顺时针依次连接组成的闭合图形为S,像素点水平方向相邻接的两点连线为h1,垂直方向相邻接的两点连线为V1,根据单应矩阵Hk,计算图形S投影到地图上的图形S′的面积Sgeo,以及连线h1和V1投影在地图上对应的线段h1′、V1′的长度l1′和l2′,设长度变形比为t,则t=l2′/l1′;
步骤5,对直播区域R内摄像机重复检测的像素点,根据其投射图形S′的面积值及长度变形比t,基于优选条件,综合加权进行优选,以确定最终直播的视频图像;
步骤6,根据网络带宽情况,动态调整剖分格网的大小,自适应输出不同数据量及不同分辨率的视频图像。
进一步地,所述步骤1中,同名点的选取数量≥4。
进一步地,所述步骤3中,在格网剖分后,对无法找到图像相应坐标点的格网点,视为非覆盖区域。
进一步地,所述步骤4中,针对图像上任一个正方形格网中心表示的像素点Pick(i,j),顺时针依次连接以像素点Pick(i,j)为中心,在水平、垂直及对角方向上相邻接的8个邻域像素点组成的闭合图形S都为一个3×3格网的正方形,则该像素点水平方向上相邻接的两点连接组成的线段和在垂直方向上相邻接的两点连接组成的线段长度相等,长度比值为1。
进一步地,所述步骤5中,进行优选的条件为:(1)投影在地图上面积较小的检测结果较准确,(2)长度变形比越接近于1的检测结果较准确;因此,Wm表示投射面积在优选中所占的权重,Wn表示长度变形比在优选中所占的权重;基于优选条件,面积Sgeo越小,权重越大;长度变形比t越接近1,权重越大;得到总权重Wk=Wm+Wn,Wk表示各个映射影响因素的加权之和,Wk值最大的摄像机对应的像素值应作为该格网点的最终值。
进一步地,所述步骤6中,根据网络带宽,动态调整格网大小,格网越大,生成的图像分辨率越低,数据量越小,适合于网络带宽较小的情况,反之图像越清晰,适合于网络带宽较大的情况;若网络带宽过小,低分辨率图像也无法直播时,则采取前景子图、目标轨迹、目标位置或以上几种组合的实时数据进行直播。
本发明的方法与现有技术相比,具有以下技术效果:
(1)面向2D WebGIS提供与地图位置完全吻合的地理视频直播流。基于二维地图或GIS对多摄像机的实时视频图像进行融合,并转化为网络地图兼容的视频流,满足WebGIS对实时地理视频图像层的需求。
(2)面对现有多摄像机有重叠视域的问题,提出面积变形、长度变形两个优选因素。当前技术主要存在重叠视域重复映射、数据冗余导致难以融合的问题,本发明依据面积变形、长度变形等多种因素综合考虑,实现多摄像机下重复视域中的像素映射优选,使重复映射的视频内容得到最优结果并唯一显示。
(3)考虑不同场景下不同因素的影响不同,本发明基于优选条件,分别对各因素的不同影响设置不同的权重,综合加权优选,从而保证融合地理视频图像的适用性、灵活性。
(4)考虑当前地理视频直播流输出的数据量大、输出速度和质量受网络带宽限制较大的问题,本发明根据网络带宽情况,可以自适应输出不同数据量的视频直播流,即动态调整剖分格网的大小:格网越大,生成的图像分辨率越低,数据量越小,适合于网络带宽较小的情况,反之图像越清晰,适合于网络带宽较大的情况。若网络带宽过小,低分辨率图像也无法直播时,则采取目标实时点坐标或轨迹坐标串进行直播,从而达到稳定、准确的可视化效果,可以满足WebGIS对地理视频直播的多样化需求。
附图说明
图1是本发明方法的流程框图;
图2是确定直播区域内的摄像机集合的示意图;
图3是格网剖分求解格网中心点图像坐标和像素值的示意图;
图4是图像上像素点的八邻域像素示意图;
图5是视频内容映射优选因素面积变形及长度变形的示意图;
图6是采取网络带宽自适应生成直播视频图像的示意图。
具体实施方式
下面结合说明书附图对本发明的具体实施方式作进一步详细的说明。
面向WebGIS对多摄像机协同的地理视频流服务的迫切需求,考虑地理场景中各个摄像机场景视角差异大、多摄像机下视频内容重叠地图映射、视频直播流的输出速度和质量受网络带宽限制较大的问题,本发明提供一种多摄像机协同的地理视频直播流生成方法。
本实施例的多摄像机协同的地理视频直播流生成方法,整体的技术思路为:首先,对每一个摄像机视频,结合高清遥感底图,分别选取4个及以上同名点解算各摄像机的单应矩阵,并根据单应矩阵,计算各摄像机的视域;然后,在二维地图上设定直播区域,对各摄像机的视域和直播区域作几何求交,得到直播区域内的摄像机集合;下一步,对直播区域进行格网剖分(m,n),计算各个格网中心点的地理坐标,并根据单应矩阵的逆矩阵,解算出各格网的中心点坐标对应的各摄像机的图像坐标及像素值。基于各个像素的投射面积、长度变形比优选重叠区域的像素值,将直播区域内经过优选后的所有像素点构成一幅视频图像,其与地图中相应位置完全吻合。由于不同因素的影响不同,为保证优选结果的准确性,基于优选条件,对各影响因素综合加权优选。最后,为了适合于不同的网络条件,自适应输出不同数据量的视频直播流,即(a)设定直播区域格网大小形成的不同图像分辨率的直播流;(b)直播前景子图的直播流;(c)直播目标轨迹的直播流;(d)直播目标位置的直播流;(e)上述(a)、(b)、(c)、(d)几种优化组合的直播流。
本实施例的多摄像机协同的地理视频流生成方法,以二维地图空间为载体,将多个摄像机图像实时映射至地图空间,结合投射面积、长度变形比多个因素进行优选,从而构建出直播区域内与地图吻合的实时视频图像。首先,基于已有二维地图平台(含高清遥感底图图层),求解各个摄像机的单应矩阵并计算视域,绘制直播区域;基于在二维地图上设定的直播区域,选取直播区域内的摄像机子集;然后,对直播区域进行格网剖分,获取的视频图像右上角和左下角地理坐标,设置一定的格网大小,根据单应矩阵的逆矩阵,求解各格网中心点地理坐标对应各摄像机的图像坐标,得到落在直播区域内的所有像素点;然后结合投射面积、长度变形等多个影响因素加权优选,形成无重复、与地理位置完全吻合的地理视频图层;最后,根据网络带宽情况,动态调整格网大小,自适应输出的不同数据量的视频直播流。
本实施例的方法在具体的实际应用过程中,针对各摄像机视频,具体步骤如下:
步骤1.针对各个监控摄像机下的视频,结合相应的高清遥感底图,识别并选取至少四个同名点,解算各摄像机的单应矩阵;设地理坐标点P(X,Y),图像坐标p(x,y),则两点之间的映射矩阵为H,即在选择同名点时,先在视频图像上选择,然后到高清遥感底图上选取相应的点,选择4对及以上即可解算。然后,根据单应矩阵,及各个摄像机图像4个角点的图像坐标,计算其相应的地理坐标,由新生成的4个地理坐标点构成的多边形即为摄像机的视域。最后,对在二维地图上设定的直播区域和各摄像机的视域几何求交,此处是多边形与多边形相交的判断,具体实施中可以直接采用一些GIS SDK提供的函数进行,也可以底层实现多边形相交的算法,得到直播区域内的摄像机集合,如图2所示,视域与直播区域有交集的摄像机,即选定为直播摄像机。
步骤2.对直播区域进行格网剖分(m,n),首先,得到整个格网所组成的矩形的左下角、右上角的经纬度坐标(如果精度要求高,经纬度坐标可以换为投影后的平面直角坐标)和格网大小,再由右上角与左下角经度之差除以格网大小计算出列数n,右上角与左下角纬度之差除以格网大小计算出行数m。根据左下角和右上角的经纬度坐标,并遵循一定的规律确定各格网中心点的地理坐标。若格网从左至右、从下至上,从0行0列开始,共m-1行n-1列,则
各格网中心点的经度=右下角经度+(0.5+格网所在列数)*格网大小,
各格网中心点的纬度=右下角纬度+(0.5+格网所在行数)*格网大小;
此格网生成方法,具体实施中可以采用ArcGIS渔网(fishnet)工具,也可以从底层实现该方法。最后,根据所求的单应矩阵的逆矩阵(可以底层实现或者OpenCV相关库实现),求解出各格网中心点地理坐标对应各摄像机的图像坐标及相应的像素值,图3为任一格网中心点对应的地理坐标到图像坐标及像素值的转换示意图。
步骤3.对一区域内多摄像机协同直播的重复视域,结合投射面积、长度变形等多个因素,进行视频图像的像素映射优选,达到唯一格网唯一像素映射的效果。针对每个摄像机的每个视频图像,图像上每一个正方形格网中心表示的像素点P,顺时针依次连接以像素点P为中心的八邻域顺时针依次连接组成的闭合图形S,如图4所示的正方形;该像素点8邻域在水平方向相邻接的两点连线h1、垂直方向相邻接的两点连线V1长度相等;根据单应矩阵,计算图像上每一个正方形格网中心表示的像素点Pick(i,j)及其八邻域像素点投影变换后对应的地理坐标,求解S投影在地图上的图形S′面积Sgeo(投射至地图中的多边形面积计算,可以借助所使用的GIS SDK库来计算,如ArcEngine的面积计算函数,也可以底层来实现),以及h1、V1投影在地图上对应的线段h1′、V1′长度为l1′、l2′,设长度变形比为t,则t=l2′/l1′;如图5所示,对直播区域内摄像机重复检测的像素点,根据其S′值及变形比t,基于优选条件,综合加权进行优选,选取唯一且最优显示的像素点,以确定最终直播的视频图像。权重选择,面积越小权重约大,长度变形越接近于1,权重越大。
对任一像素点P,以像素点P为中心的八邻域像素点从左上角起,顺时针依次表示为P1、P2、P3、P4、P5、P6、P7、P8,坐标依次为(u1,v1,0)、(u2,v2,0)、…、(u8,v8,0);像素点P在水平方向上的相邻接的两个像素点为P2、P6,像素点P在垂直方向上的相邻接的两个像素点为P4、P8;根据单应矩阵,图像上的八邻域像素点投影到地图上对应的点表示为P1′、P2′、P3′、P4′、P5′、P6′、P7′、P8′,坐标依次为(x1,y1,z1)、(x2,y2,z2)、…、(x8,y8,z8);α表示与的夹角,β表示与摄像机的夹角;l1表示图像上像素点P在水平方向上相邻接的两点连接组成的线段h1的长度,l2表示图像上像素点P在垂直方向上相邻接的两点连接组成的线段V1的长度,l1′表示h1投影后对应在地图上的线段h1′的长度,l2′表示V1投影后对应在地图上的线段V1′的长度。因此,
l1、l2在地图上对应的长度l1′、l2′:
长度变形比t:
S投影在地图上的图形S′面积Sgeo:
步骤4.针对优选后的各个视频图像,根据网络带宽情况,采取自适应的视频图像流生成方法进行直播,如图6所示,动态调整剖分格网的大小,适应于不同的网络状态。网络带宽较小时,格网越大,生成的图像分辨率越低,数据量越小。反之,图像越清晰,数据量越大,适合于网络带宽较大的情况。若网络带宽过小,低分辨率图像也无法直播时,则采取目标子图、目标实时点坐标或轨迹坐标串进行直播。具体实施中,对视频图像进行动态检测、目标检测、目标跟踪处理,并从图像空间映射至地理空间进行融合处理,最终形成地理空间下的目标子图、目标轨迹、目标位置信息。根据网络带宽情况,灵活选择一种或者多种融合的直播形式。具体而言,对于视频全覆盖直播流采用Web Socket实时推送包含摄像机编号、格网尺寸和视频帧信息的Base 64字符串流的方式;对于前景子图的直播流采用WebSocket实时推送包含子图编码和子图图像信息的Base 64字符串流的方式;对于目标轨迹的直播流采用Web Socket实时推送包含目标ID、轨迹字符串(位置+时间序列点集)的Base64字符串流的方式;对于目标位置的直播流采用Web Socket实时推送包含目标ID、实时位置的Base 64字符串流的方式。
Claims (6)
1.一种多摄像机协同的地理视频直播流生成方法,其特征在于,包括如下步骤:
步骤1,针对每一个摄像机视频,结合相应的高清遥感影像,分别选取同名点解算各摄像机的单应矩阵Hk,并根据单应矩阵Hk,计算各摄像机的视域Vk;
步骤2,在二维地图上确定直播区域R后,对摄像机的视域Vk与直播区域R几何求交,得到直播区域R内的摄像机集合Cs;
步骤3,对直播区域R进行格网剖分(m,n),计算剖分后各格网的中心点坐标Geoij,并根据单应矩阵的逆变换矩阵,计算各格网中心点坐标对应各摄像机的图像坐标Pick(i,j)及像素值Pix-ValSk(m,n),得到落在直播区域R内的所有像素点;
步骤4,对每个摄像机的每个视频图像,设图像上每个像素点为中心的八邻域顺时针依次连接组成的闭合图形为S,像素点水平方向相邻接的两点连线为h1,垂直方向相邻接的两点连线为V1,根据单应矩阵Hk,计算图形S投影到地图上的图形S′的面积Sgeo,以及连线h1和V1投影在地图上对应的线段h1′、V1′的长度l1′和l2′,设长度变形比为t,则t=l2′/l1′;
步骤5,对直播区域R内摄像机重复检测的像素点,根据其投射图形S′的面积值及长度变形比t,基于优选条件,综合加权进行优选,以确定最终直播的视频图像;
步骤6,根据网络带宽情况,动态调整剖分格网的大小,自适应输出不同数据量及不同分辨率的视频图像。
2.根据权利要求1所述的一种多摄像机协同的地理视频直播流生成方法,其特征在于,所述步骤1中,同名点的选取数量≥4。
3.根据权利要求1所述的一种多摄像机协同的地理视频直播流生成方法,其特征在于,所述步骤3中,在格网剖分后,对无法找到图像相应坐标点的格网点,视为非覆盖区域。
4.根据权利要求1所述的一种多摄像机协同的地理视频直播流生成方法,其特征在于,所述步骤4中,针对图像上任一个正方形格网中心表示的像素点Pick(i,j),顺时针依次连接以像素点Pick(i,j)为中心,在水平、垂直及对角方向上相邻接的8个邻域像素点组成的闭合图形S都为一个3×3格网的正方形,则该像素点水平方向上相邻接的两点连接组成的线段和在垂直方向上相邻接的两点连接组成的线段长度相等,长度比值为1。
5.根据权利要求1所述的一种多摄像机协同的地理视频直播流生成方法,其特征在于,所述步骤5中,进行优选的条件为:(1)投影在地图上面积较小的检测结果较准确,(2)长度变形比越接近于1的检测结果较准确;因此,Wm表示投射面积在优选中所占的权重,Wn表示长度变形比在优选中所占的权重;基于优选条件,面积Sgeo越小,权重越大;长度变形比t越接近1,权重越大;得到总权重Wk=Wm+Wn,Wk表示各个映射影响因素的加权之和,Wk值最大的摄像机对应的像素值应作为该格网点的最终值。
6.根据权利要求1所述的一种多摄像机协同的地理视频直播流生成方法,其特征在于,所述步骤6中,根据网络带宽,动态调整格网大小,格网越大,生成的图像分辨率越低,数据量越小,适合于网络带宽较小的情况,反之图像越清晰,适合于网络带宽较大的情况;若网络带宽过小,低分辨率图像也无法直播时,则采取前景子图、目标轨迹、目标位置或以上几种组合的实时数据进行直播。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010941373.4A CN112040265B (zh) | 2020-09-09 | 2020-09-09 | 一种多摄像机协同的地理视频直播流生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010941373.4A CN112040265B (zh) | 2020-09-09 | 2020-09-09 | 一种多摄像机协同的地理视频直播流生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112040265A true CN112040265A (zh) | 2020-12-04 |
CN112040265B CN112040265B (zh) | 2022-08-09 |
Family
ID=73583918
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010941373.4A Active CN112040265B (zh) | 2020-09-09 | 2020-09-09 | 一种多摄像机协同的地理视频直播流生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112040265B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113096135A (zh) * | 2021-03-26 | 2021-07-09 | 信阳师范学院 | 一种多摄像机与gis协同的群体目标空间化方法 |
US20230097584A1 (en) * | 2021-09-27 | 2023-03-30 | Ford Global Technologies, Llc | Object pose estimation |
US11997337B2 (en) | 2022-05-12 | 2024-05-28 | Wipro Limited | Method and system for optimizing video content acquisition and delivery during events |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060279630A1 (en) * | 2004-07-28 | 2006-12-14 | Manoj Aggarwal | Method and apparatus for total situational awareness and monitoring |
CN110245199A (zh) * | 2019-04-28 | 2019-09-17 | 浙江省自然资源监测中心 | 一种大倾角视频与2d地图的融合方法 |
CN110516014A (zh) * | 2019-01-18 | 2019-11-29 | 南京泛在地理信息产业研究院有限公司 | 一种面向城市道路监控视频映射到二维地图的方法 |
CN111143504A (zh) * | 2019-12-31 | 2020-05-12 | 信阳师范学院 | 一种多摄像机室内视频地图构建方法 |
-
2020
- 2020-09-09 CN CN202010941373.4A patent/CN112040265B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060279630A1 (en) * | 2004-07-28 | 2006-12-14 | Manoj Aggarwal | Method and apparatus for total situational awareness and monitoring |
CN110516014A (zh) * | 2019-01-18 | 2019-11-29 | 南京泛在地理信息产业研究院有限公司 | 一种面向城市道路监控视频映射到二维地图的方法 |
CN110245199A (zh) * | 2019-04-28 | 2019-09-17 | 浙江省自然资源监测中心 | 一种大倾角视频与2d地图的融合方法 |
CN111143504A (zh) * | 2019-12-31 | 2020-05-12 | 信阳师范学院 | 一种多摄像机室内视频地图构建方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113096135A (zh) * | 2021-03-26 | 2021-07-09 | 信阳师范学院 | 一种多摄像机与gis协同的群体目标空间化方法 |
CN113096135B (zh) * | 2021-03-26 | 2022-10-28 | 信阳师范学院 | 一种多摄像机与gis协同的群体目标空间化方法 |
US20230097584A1 (en) * | 2021-09-27 | 2023-03-30 | Ford Global Technologies, Llc | Object pose estimation |
US11997337B2 (en) | 2022-05-12 | 2024-05-28 | Wipro Limited | Method and system for optimizing video content acquisition and delivery during events |
Also Published As
Publication number | Publication date |
---|---|
CN112040265B (zh) | 2022-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112040265B (zh) | 一种多摄像机协同的地理视频直播流生成方法 | |
CN110516014B (zh) | 一种面向城市道路监控视频映射到二维地图的方法 | |
CN112053446A (zh) | 一种基于三维gis的实时监控视频与三维场景融合方法 | |
US8400451B2 (en) | Close-packed, uniformly adjacent multiresolutional, overlapping spatial data ordering | |
CN107067447B (zh) | 一种大空间区域的整体化视频监控方法 | |
CN111415416A (zh) | 一种监控实时视频与场景三维模型融合方法及系统 | |
CN108304593B (zh) | 纸质地图与电子地图互动显示的方法 | |
EP0930585A1 (en) | Image processing apparatus | |
CN111143504B (zh) | 一种多摄像机室内视频地图构建方法 | |
CN116883610A (zh) | 基于车辆识别与轨迹映射的数字孪生路口构建方法和系统 | |
US20230056036A1 (en) | Method and device for generating a panoramic image | |
CN115375779B (zh) | 相机ar实景标注的方法及系统 | |
CN111949817A (zh) | 基于遥感影像的农作物信息展示系统、方法、设备及介质 | |
CN112530009A (zh) | 一种三维地形图绘制方法及系统 | |
CN115375868B (zh) | 地图显示和遥感地图显示方法、计算设备以及存储介质 | |
CN111683221B (zh) | 嵌入矢量红线数据的自然资源实时视频监测方法及系统 | |
Ghadirian et al. | Composition of augmented reality and GIS to visualize environmental changes | |
TW202215007A (zh) | 預測道路屬性之方法、資料處理系統及電腦可執行代碼 | |
CN111726535A (zh) | 基于车辆感知的智慧城市cim视频大数据画质控制方法 | |
CN106600691A (zh) | 多路二维视频图像在三维地理空间中融合校正方法、系统 | |
CN114758087B (zh) | 一种城市信息模型的构建方法及装置 | |
CN113096135B (zh) | 一种多摄像机与gis协同的群体目标空间化方法 | |
CN114445726A (zh) | 一种基于深度学习的样本库建立方法和装置 | |
TW202209193A (zh) | 用於產生地圖資料之方法及裝置 | |
CN112929605B (zh) | 一种顾及语义的ptz摄像机智能巡航方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |