CN116309884B - 一种三维空间区域视频盲区识别方法 - Google Patents
一种三维空间区域视频盲区识别方法 Download PDFInfo
- Publication number
- CN116309884B CN116309884B CN202310586616.0A CN202310586616A CN116309884B CN 116309884 B CN116309884 B CN 116309884B CN 202310586616 A CN202310586616 A CN 202310586616A CN 116309884 B CN116309884 B CN 116309884B
- Authority
- CN
- China
- Prior art keywords
- camera
- coordinate
- dimensional space
- visual
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000000007 visual effect Effects 0.000 claims abstract description 78
- 238000004364 calculation method Methods 0.000 claims description 17
- 238000009434 installation Methods 0.000 claims description 8
- 238000009877 rendering Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 3
- 238000007499 fusion processing Methods 0.000 claims description 2
- 238000013461 design Methods 0.000 abstract description 3
- 238000012544 monitoring process Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 3
- 238000011835 investigation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本申请公开了一种三维空间区域视频盲区识别方法,该方法包括:进行三维空间区域建模,获得三维空间区域模型;获取三维空间区域模型中的多个摄像头的信息;根据每个摄像头的信息,计算出单个摄像头的视野能覆盖的区域,即可视域;计算得到所有摄像头的可视域重叠区域;将三维空间区域减去可视域重叠区域,得到三维空间区域中摄像头未覆盖的视频盲区,本申请通过三维空间建模的方法,计算并绘制每个摄像头的可视区域,在三维空间区域减去所有摄像头的可视区域,得到摄像头未覆盖的视野盲区,方便工作人员在规划、设计阶段有效评估该空间区域摄像头布设总体情况,以及后续对摄像头布局的进行改进和优化。
Description
技术领域
本发明涉及一种三维空间区域视频盲区识别方法。
背景技术
公共的空间区域对视频监控系统的部署需要满足消防、安防和反恐规定的要求,要求监控视频能够更广的覆盖监控区域,并保障无死角监控公共区域,以面对各类突发情况,通常视频监控工程在设计时多根据现场图纸及人工现场勘测来进行监控点位设计,现场勘测多根据个人经验通 过肉眼观察来判断,后续增加视频摄像头也是如此,然而现有的部署方法存在以下缺陷:
1、现有的视频监控部署方法在进行监控布局时未结合摄像设备的实际参数进行视频盲区分析,存在实际安装后整个监控系统存在视野盲区的问题;
2、部署后投入运行的视频监控设备若存在遮挡、重点区域未覆盖情况时,需通过多次增改删减视频监控设备以获得最佳监控点位,多次试错存在效率低下、设备调改增成本高等问题。
发明内容
为解决上述背景技术中提出的问题,本发明提供一种三维空间区域视频盲区识别方法以解决现有部署方法中无法精准定位监控布设中的不可视区域,导致实际安装后整个监控系统存在视野盲区的问题,以及增改删减投入运行的视频监控设备时需进行多次试错调整,存在效率低下的问题。
为实现上述目的,本发明提供如下技术方案:
一种三维空间区域视频盲区识别方法,该方法包括:
S1:获取需要进行视频盲区分析三维空间区域的三维地理信息数据,将三维地理信息数据融合处理后,进行三维空间区域建模,获得三维空间区域模型;
S2:获取三维空间区域模型中已有的多个摄像头的信息,摄像头信息包括安装位置、安装高度、摄像头焦距、水平和垂直视角;
S3:根据每个摄像头的信息,计算出单个摄像头在三维空间区域模型中视野能覆盖的区域,即可视域;
S4:循环运行S3,得到多个可视域,进行多个可视域的重叠,得到三维空间区域模型中所有摄像头的可视域重叠区域;
S5:将S1中的三维空间区域模型结合三维空间裁剪方法,减去S4中可视域重叠区域,得到三维空间区域中摄像头未覆盖的视频盲区。
优选地,S3的可视域具体计算过程如下:
S3.1:通过摄像头的信息计算得到摄像头的可视角度、朝向和有效观察距离数据,其中摄像头视角范围为α~β,0°≤α<β≤180°,摄像头朝向为θ,α≤θ≤β;
S3.2:以摄像头的位置为视点位置,根据摄像头的可视距离计算摄像头旋转α-θ角度得到左边线终点坐标和旋转β-θ得到右边线终点坐标,其中计算坐标公式如下:
对任意点a,绕一个坐标点o逆时针旋转angle角度后的新的坐标点b,有公式:
b.x = ( a.x - o.x)*cos(angle) - (a.y - o.y)*sin(angle) + o.x;
b.y = (a.x - o.x)*sin(angle) + (a.y - o.y)*cos(angle) + o.y;
其中,x为水平方向的坐标值,y为垂直方向的坐标值;
S3.3:根据S3.2的计算方法将摄像头位置坐标代入a计算出摄像头旋转θ角度后的左边线终点坐标和右边线终点坐标,然后建立以o为摄像头位置,左边线终点坐标和右边线终点坐标为边界点的坐标系,对该坐标系进行投影转换,从墨卡托投影坐标转换为经纬度地理坐标,最后转为可视范围内的笛卡尔空间直角坐标展示可视区,构建可视范围扇区,根据可视范围扇区的两条边界线绘制左边线和右边线;
S3.4:计算可视范围扇区内的弧线上每隔1°的视野终点坐标,即采样点,根据S3.2依次循环遍历获得每个角度下的视野终点坐标;
S3.5:计算每个视野终点坐标和摄像头坐标点连成的直线段与地形或建筑的交点,并绘制可视线,计算视野终点坐标和摄像头坐标点连线的方向,建立射线,计算和三维空间区域模型的相交点;
S3.6:比较相交点距离摄像头坐标与视野终点坐标距离摄像头坐标的位置关系,如果相交点距离摄像头坐标的距离更近,则为该相交点为不可视点,若没有相交点或者相交点距离摄像头坐标的距离更远,则为该相交点为可视点;
S3.7:循环S3.4至S3.6,得到可视范围扇区内各个角度的视野终点坐标,根据左边线和右边线、摄像头位置构建可视范围面polygon数据;
S3.8:可视范围面展示,将可视点和不可视点设置为不同格式的属性,渲染的过程中按照视线扫描成圆的走向,一层层依次渲染,最终构建成可视域。
优选地,S4中可视域重叠区域的具体计算步骤如下:
S4.1:可视域相邻的面与面之间执行合并分析,计算交叉点;
S4.2:交叉点形成结点和链,构建合并后的可视域的面的坐标串信息;
S4.3:根据坐标串信息建立拓扑和新对象,生成面对象;
S4.4:去除面对像中的碎多边形,融合相似多边形;
S4.5:重复S4.1至S4.4,得到所有可视域的可视域重叠区域。
与现有技术相比,本发明的有益效果是:
本申请通过三维空间建模的方法,计算并绘制每个摄像头在三维空间区域模型中的可视区域,最后使用三维空间裁剪方法,在三维空间区域减去所有摄像头的可视区域,得到摄像头未覆盖的视野盲区,实现了:
1、在视频监控布局的规划、设计阶段有效评估该空间区域摄像头布设总体情况,可精准定位视野盲区,及时调整摄像头布局,直至消除视野盲区;
2、已部署多个视频监控设备的区域仍存在视野盲区时,可根据三维空间模型对盲区进行精准定位,再根据视野盲区进行摄像头的针对性添加,减少试错次数,节约运维费用、提高工作效率。
附图说明
图1为可视域的计算原理示意图;
图2为可视域叠加形成可视域重叠区域的原理示意图;
图3为本申请在具体场景中的实施示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
如图1所示,一种三维空间区域视频盲区识别方法,该方法包括:
S1:获取需要进行视频盲区分析三维空间区域的三维地理信息数据,将三维地理信息数据融合处理后,进行三维空间区域建模,获得三维空间区域模型,三维空间区域模型中的3D模型的数据主要来源于传统3D建模的精模转换数据,表面模型数据主要来源于倾斜摄影数据,而建筑模型数据主要来源于BIM数据;
S2:获取三维空间区域模型中已有的多个摄像头的信息,摄像头信息包括安装位置、安装高度、摄像头焦距、水平和垂直视角;
S3:根据每个摄像头的信息,计算出单个摄像头在三维空间区域模型中视野能覆盖的区域,即可视域;
S4:循环运行S3,得到多个可视域,进行多个可视域的重叠,得到三维空间区域模型中所有摄像头的可视域重叠区域;
S5:将S1中的三维空间区域模型结合三维空间裁剪方法,减去S4中可视域重叠区域,得到三维空间区域中摄像头未覆盖的视频盲区。
在本实施例中,本申请通过三维空间建模的方法,计算并绘制每个摄像头在三维空间区域模型中的可视区域,最后使用三维空间裁剪方法,在三维空间区域减去所有摄像头的可视区域,得到摄像头未覆盖的视野盲区,方便工作人员在安装摄像头之前对摄像头布局进行计算和调整,也可在后续增加摄像头时根据视野盲区进行针对性添加。
实施例 2
本实施例与实施例1的区别在于:如图1、图3所示,S3的可视域具体计算过程如下:
S3.1:通过摄像头的信息计算得到摄像头的可视角度、朝向和有效观察距离数据,其中摄像头视角范围为α~β,0°≤α<β≤180°,摄像头朝向为θ,α≤θ≤β;
S3.2:以摄像头的位置为视点位置,根据摄像头的可视距离计算摄像头旋转α-θ角度得到左边线终点坐标和旋转β-θ得到右边线终点坐标,其中计算坐标公式如下:
对任意点a,绕一个坐标点o逆时针旋转angle角度后的新的坐标点b,有公式:
b.x = ( a.x - o.x)*cos(angle) - (a.y - o.y)*sin(angle) + o.x;
b.y = (a.x - o.x)*sin(angle) + (a.y - o.y)*cos(angle) + o.y;
其中,x为水平方向的坐标值,y为垂直方向的坐标值;
S3.3:根据S3.2的计算方法将摄像头位置坐标代入a计算出摄像头旋转θ角度后的左边线终点坐标和右边线终点坐标,然后建立以o为摄像头位置,左边线终点坐标和右边线终点坐标为边界点的坐标系,对该坐标系进行投影转换,从墨卡托投影坐标转换为经纬度地理坐标,最后转为可视范围内的笛卡尔空间直角坐标展示可视区,构建可视范围扇区,根据可视范围扇区的两条边界线绘制左边线和右边线;
S3.4:计算可视范围扇区内的弧线上每隔1°的视野终点坐标,即采样点,根据S3.2依次循环遍历获得每个角度下的视野终点坐标;
S3.5:计算每个视野终点坐标和摄像头坐标点连成的直线段与地形或建筑的交点,并绘制可视线,计算视野终点坐标和摄像头坐标点连线的方向,建立射线,计算和三维空间区域模型的相交点;
S3.6:比较相交点距离摄像头坐标与视野终点坐标距离摄像头坐标的位置关系,如果相交点距离摄像头坐标的距离更近,则为该相交点为不可视点,若没有相交点或者相交点距离摄像头坐标的距离更远,则为该相交点为可视点;
S3.7:循环S3.4至S3.6,得到可视范围扇区内各个角度的视野终点坐标,根据左边线和右边线、摄像头位置构建可视范围面polygon数据;
S3.8:可视范围面展示,将可视点和不可视点设置为不同格式的属性,渲染的过程中按照视线扫描成圆的走向,一层层依次渲染,最终构建成可视域。
在本实施例中,如图3所示,图中的扇形面的直角处为摄像头的具体位置,设该摄像头的坐标为(116.44709549549813,39.90716231955402),该摄像头角度为45.1595295144056°,该摄像头的可视距离为109.568米,该摄像头视角范围为15.1595295144056°~75.1595295144056°;
根据该摄像头最远视距可得出朝向最远的距离终点坐标(116.44800633533065,39.906467497369064);
根据本实施例的计算方法可得出左边线终点坐标为:(116.44833720143694,39.906909934245846);
右边线终点坐标为:
(116.44743141042679,39.90621123657181);
在图3中,扇形区域为该摄像头的视频监控范围,灰度高的区域为可视域,灰度低的区域为被地物遮挡的区域。
实施例3
本实施例与实施例1的区别在于,如图2所示,S4中可视域重叠区域的具体计算步骤如下:
S4.1:可视域相邻的面与面之间执行合并分析,计算交叉点;
S4.2:交叉点形成结点和链,构建合并后的可视域的面的坐标串信息;
S4.3:根据坐标串信息建立拓扑和新对象,生成面对象;
S4.4:去除面对像中的碎多边形,融合相似多边形;
S4.5:重复S4.1至S4.4,得到所有可视域的可视域重叠区域。
在本实施例中,可视域合并形成可视域重叠区域也可使用“联合”工具进行,如ArcMap等软件。
Claims (1)
1.一种三维空间区域视频盲区识别方法,其特征在于,该方法包括:
S1:获取需要进行视频盲区分析三维空间区域的三维地理信息数据,将三维地理信息数据融合处理后,进行三维空间区域建模,获得三维空间区域模型;
S2:获取三维空间区域模型中已有的多个摄像头的信息,摄像头信息包括安装位置、安装高度、摄像头焦距、水平和垂直视角;
S3:根据每个摄像头的信息,计算出单个摄像头在三维空间区域模型中视野能覆盖的区域,即可视域;
S4:循环运行S3,得到多个可视域,进行多个可视域的重叠,得到三维空间区域模型中所有摄像头的可视域重叠区域;
S5:将S1中的三维空间区域模型结合三维空间裁剪方法,减去S4中可视域重叠区域,得到三维空间区域中摄像头未覆盖的视频盲区;
S3的可视域具体计算过程如下:
S3.1:通过摄像头的信息计算得到摄像头的可视角度、朝向和有效观察距离数据,其中摄像头视角范围为α~β,0°≤α<β≤180°,摄像头朝向为θ,α≤θ≤β;
S3.2:以摄像头的位置为视点位置,根据摄像头的可视距离计算摄像头旋转α-θ角度得到左边线终点坐标和旋转β-θ得到右边线终点坐标,其中计算坐标公式如下:
对任意点a,绕一个坐标点o逆时针旋转angle角度后的新的坐标点b,有公式:
b.x = ( a.x - o.x)*cos(angle) - (a.y - o.y)*sin(angle) + o.x;
b.y = (a.x - o.x)*sin(angle) + (a.y - o.y)*cos(angle) + o.y;
其中,x为水平方向的坐标值,y为垂直方向的坐标值;
S3.3:根据S3.2的计算方法将摄像头位置坐标代入a计算出摄像头旋转θ角度后的左边线终点坐标和右边线终点坐标,然后建立以o为摄像头位置,左边线终点坐标和右边线终点坐标为边界点的坐标系,对该坐标系进行投影转换,从墨卡托投影坐标转换为经纬度地理坐标,最后转为可视范围内的笛卡尔空间直角坐标展示可视区,构建可视范围扇区,根据可视范围扇区的两条边界线绘制左边线和右边线;
S3.4:计算可视范围扇区内的弧线上每隔1°的视野终点坐标,即采样点,根据S3.2依次循环遍历获得每个角度下的视野终点坐标;
S3.5:计算每个视野终点坐标和摄像头坐标点连成的直线段与地形或建筑的交点,并绘制可视线,计算视野终点坐标和摄像头坐标点连线的方向,建立射线,计算和三维空间区域模型的相交点;
S3.6:比较相交点距离摄像头坐标与视野终点坐标距离摄像头坐标的位置关系,如果相交点距离摄像头坐标的距离更近,则为该相交点为不可视点,若没有相交点或者相交点距离摄像头坐标的距离更远,则为该相交点为可视点;
S3.7:循环S3.4至S3.6,得到可视范围扇区内各个角度的视野终点坐标,根据左边线和右边线、摄像头位置构建可视范围面polygon数据;
S3.8:可视范围面展示,将可视点和不可视点设置为不同格式的属性,渲染的过程中按照视线扫描成圆的走向,一层层依次渲染,最终构建成可视域;
S4中可视域重叠区域的具体计算步骤如下:
S4.1:可视域相邻的面与面之间执行合并分析,计算交叉点;
S4.2:交叉点形成结点和链,构建合并后的可视域的面的坐标串信息;
S4.3:根据坐标串信息建立拓扑和新对象,生成面对象;
S4.4:去除面对像中的碎多边形,融合相似多边形;
S4.5:重复S4.1至S4.4,得到所有可视域的可视域重叠区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310586616.0A CN116309884B (zh) | 2023-05-24 | 2023-05-24 | 一种三维空间区域视频盲区识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310586616.0A CN116309884B (zh) | 2023-05-24 | 2023-05-24 | 一种三维空间区域视频盲区识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116309884A CN116309884A (zh) | 2023-06-23 |
CN116309884B true CN116309884B (zh) | 2023-08-01 |
Family
ID=86829127
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310586616.0A Active CN116309884B (zh) | 2023-05-24 | 2023-05-24 | 一种三维空间区域视频盲区识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116309884B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104052960A (zh) * | 2013-03-15 | 2014-09-17 | 杭州海康威视系统技术有限公司 | 基于电子地图的摄像机可视区域展示方法及系统 |
CN107368656A (zh) * | 2017-07-24 | 2017-11-21 | 北京芘苜信息技术有限公司 | 基于bim+安防监控模拟及盲区分析的方法 |
CN111240617A (zh) * | 2019-12-31 | 2020-06-05 | 飞燕航空遥感技术有限公司 | 基于三维地图的视频投放方法、系统和环境监控方法、系统 |
CN112365397A (zh) * | 2020-11-20 | 2021-02-12 | 天津七所精密机电技术有限公司 | 一种二维视频信息与三维地理信息融合的方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102867086B (zh) * | 2012-09-10 | 2014-06-25 | 安科智慧城市技术(中国)有限公司 | 一种监控摄像机的自动部署方法、系统及电子设备 |
WO2019026348A1 (ja) * | 2017-07-31 | 2019-02-07 | 株式会社Jvcケンウッド | 表示制御装置、表示制御システム、表示制御方法およびプログラム |
CN110362923B (zh) * | 2019-07-16 | 2021-06-01 | 成都奥伦达科技有限公司 | 基于三维可视域分析的三维监控覆盖率方法及监控安装方法和监控系统 |
CN114693877A (zh) * | 2020-12-30 | 2022-07-01 | 浙江宇视科技有限公司 | 一种空中路网的构建方法、装置、电子设备和存储介质 |
CN113194280B (zh) * | 2021-01-25 | 2023-04-18 | 深圳市奔凯安全技术股份有限公司 | 安防区域的安防等级生成方法、装置、存储设备及电子设备 |
CN114399606A (zh) * | 2021-12-24 | 2022-04-26 | 中国科学院自动化研究所 | 基于立体可视化的交互展示系统、方法、设备 |
CN115643585B (zh) * | 2022-09-15 | 2023-07-18 | 广东宜通衡睿科技有限公司 | 一种移动网络信号覆盖盲区计算方法、装置、设备及介质 |
-
2023
- 2023-05-24 CN CN202310586616.0A patent/CN116309884B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104052960A (zh) * | 2013-03-15 | 2014-09-17 | 杭州海康威视系统技术有限公司 | 基于电子地图的摄像机可视区域展示方法及系统 |
CN107368656A (zh) * | 2017-07-24 | 2017-11-21 | 北京芘苜信息技术有限公司 | 基于bim+安防监控模拟及盲区分析的方法 |
CN111240617A (zh) * | 2019-12-31 | 2020-06-05 | 飞燕航空遥感技术有限公司 | 基于三维地图的视频投放方法、系统和环境监控方法、系统 |
CN112365397A (zh) * | 2020-11-20 | 2021-02-12 | 天津七所精密机电技术有限公司 | 一种二维视频信息与三维地理信息融合的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116309884A (zh) | 2023-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11915368B2 (en) | Systems and methods for modeling structures using point clouds derived from stereoscopic image pairs | |
US7133551B2 (en) | Semi-automatic reconstruction method of 3-D building models using building outline segments | |
EP2913796B1 (en) | Method of generating panorama views on a mobile mapping system | |
Cheng et al. | Integration of LiDAR data and optical multi-view images for 3D reconstruction of building roofs | |
CN110348138B (zh) | 一种实时生成真实井下巷道模型的方法、装置及存储介质 | |
Brenner et al. | Fast production of virtual reality city models | |
CN104463899A (zh) | 一种目标对象检测、监控方法及其装置 | |
CN109559381B (zh) | 一种基于ar空间测量技术的变电站验收方法 | |
CN109191533B (zh) | 基于装配式建筑的塔吊高空施工方法 | |
Sepasgozar et al. | Utilisation of a new terrestrial scanner for reconstruction of as-built models: A comparative study | |
CN116030208A (zh) | 一种真实无人机虚拟仿真输电线路场景搭建方法及系统 | |
CN116468869A (zh) | 一种基于遥感卫星影像的实景三维建模方法、设备及介质 | |
CN116309884B (zh) | 一种三维空间区域视频盲区识别方法 | |
US11348321B2 (en) | Augmented viewing of a scenery and subsurface infrastructure | |
CN106023066A (zh) | 4路钻孔孔壁视频的柱面全景图生成方法及装置 | |
Fang et al. | A framework of power pylon detection for UAV-based power line inspection | |
He et al. | Construction of 3D Model of Tunnel Based on 3D Laser and Tilt Photography. | |
Paterson et al. | Building inspection: can computer vision help? | |
Lin et al. | 3-D descriptions of buildings from an oblique view aerial image | |
Pahwa et al. | Feature-less stitching of cylindrical tunnel | |
CN115049975A (zh) | 一种动态展示施工场地安全活动要素的方法和系统 | |
Kim et al. | Automatic 3D city modeling using a digital map and panoramic images from a mobile mapping system | |
CN116758269B (zh) | 一种位置校验方法 | |
Blankenbach | Building surveying for as-built modeling | |
KR102590975B1 (ko) | 3d 포인트 클라우드를 활용한 입체적 형태의 구조물 실감 입면정사영상 자동 생성 및 cad 기반 도면과의 자동 중첩 매칭 시스템과 그 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right |
Denomination of invention: A method for identifying blind spots in three-dimensional spatial region videos Effective date of registration: 20231219 Granted publication date: 20230801 Pledgee: Chengdu Rural Commercial Bank Co.,Ltd. Tianfu New Area Branch Pledgor: Chengdu Lutuo Information Technology Co.,Ltd. Registration number: Y2023980072312 |