CN116958485A - 一种可视域分析方法及装置 - Google Patents
一种可视域分析方法及装置 Download PDFInfo
- Publication number
- CN116958485A CN116958485A CN202311090879.9A CN202311090879A CN116958485A CN 116958485 A CN116958485 A CN 116958485A CN 202311090879 A CN202311090879 A CN 202311090879A CN 116958485 A CN116958485 A CN 116958485A
- Authority
- CN
- China
- Prior art keywords
- dimensional
- target
- visual field
- data
- observation point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 140
- 238000004458 analytical method Methods 0.000 title claims abstract description 51
- 238000000034 method Methods 0.000 claims abstract description 34
- 238000009877 rendering Methods 0.000 claims abstract description 23
- 238000010586 diagram Methods 0.000 claims abstract description 12
- 238000012545 processing Methods 0.000 claims description 21
- 238000007405 data analysis Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 8
- 238000007906 compression Methods 0.000 claims description 6
- 238000009499 grossing Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 238000005192 partition Methods 0.000 claims description 6
- 230000006835 compression Effects 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 abstract description 12
- 230000000694 effects Effects 0.000 abstract description 8
- 238000005516 engineering process Methods 0.000 abstract description 6
- 238000005070 sampling Methods 0.000 description 47
- 238000004422 calculation algorithm Methods 0.000 description 9
- 230000011218 segmentation Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000005457 optimization Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 3
- 238000012800 visualization Methods 0.000 description 3
- 230000004888 barrier function Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000013075 data extraction Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
- G06T17/205—Re-meshing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
Abstract
本公开涉及一种可视域分析方法及装置。该方法及装置基于目标场景的多视角影像数据构建其三维场景模型,基于对该三维场景模型进行空间分割得到的各个网格区域进行可视性判断,得到网格区域之间的可视关系,通过查询该可视关系,快速准确地确定在目标观测点对应的网格区域处可以看到的若干可视网格区域,得到该目标观测点的可视域数据。通过空间分割减轻可视性判断的计算量,提高计算效率;且基于网格区域的可视关系进行查询,可以得到任意目标观测点的可视域数据,提高可视域分析的效率和精度。本公开实施例还通过视域树存储、查询可视关系,进一步提高分析效率;通过三维渲染技术得到三维渲染效果图,更直观的展示目标观测点的可视域分析结果。
Description
技术领域
本公开涉及测绘技术领域,具体涉及一种可视域分析方法及装置。
背景技术
可视域分析是研究观测点所能观测到的空间范围,在地理信息系统、城市规划、视频监控、通讯等不同领域有着广泛的应用需求。现有可视域分析技术在对复杂场景进行可视域分析时,往往存在精度差、效率低等问题,难以满足不同场景的可视域分析需求。
发明内容
本公开实施例的目的是提供一种可视域分析方法及装置,以准确快速地实现不同场景的可视域分析需求。
第一方面,本公开实施例提供了一种可视域分析方法,包括:
获取目标场景的多视角影像数据;
根据所述多视角影像数据建立所述目标场景的三维场景模型;
将所述三维场景模型分割为多个网格区域;
确定所述多个网格区域之间的可视关系;
获取目标观测点,并根据所述可视关系确定所述目标观测点对应的可视域数据。
一个可选的实施方式中,所述根据所述多视角影像数据建立所述目标场景的三维场景模型,包括:
对所述多视角影像数据进行特征匹配,确定不同视角影像数据中相对应的特征组;
根据匹配得到的所述特征组计算所述多视角影像数据中像素的深度信息;
根据所述多视角影像数据和深度信息生成所述目标场景的三维点云;
根据所述三维点云生成所述三维场景模型。
一个可选的实施方式中,所述根据所述三维点云生成所述三维场景模型,包括:
对所述三维点云进行预设处理操作;
根据经过所述预设处理操作的三维点云构建所述三维场景模型;
对所述三维场景模型进行优化;
其中,所述预设处理操作包括以下至少一种:点云滤波、点云分类、点云压缩;
所述对所述三维场景模型进行优化,包括以下至少一项:
根据所述多视角影像数据对所述三维场景模型进行纹理映射;
对所述三维场景模型进行平滑处理;
对所述三维场景模型进行简化处理。
一个可选的实施方式中,所述确定所述多个网格区域之间的可视关系,包括:
获取至少一个预设观测点,并将所述预设观测点对应的网格区域作为观测区域,将所述观测区域之外的至少一个其他网格区域作为被观测区域;
判断所述观测区域与被观测区域之间是否可视,并根据判断结果生成所述预设观测点对应的视域树;
所述根据所述可视关系确定所述目标观测点对应的可视域数据,包括:
从所述至少一个预设观测点对应的视域树中确定所述目标观测点对应的目标视域树;
查询所述目标视域树,得到所述目标观测点对应的可视域数据。
一个可选的实施方式中,所述判断所述观测区域与被观测区域之间是否可视,包括:
提取所述目标场景的场景数据;所述场景数据包括障碍物数据;
根据所述场景数据判断所述观测区域和所述被观测区域之间的直线路径上是否存在障碍物;
若所述直线路径上存在障碍物,则确定所述观测区域和所述被观测区域之间不可视;反之,若所述直线路径上不存在障碍物,则确定所述观测区域和所述被观测区域之间可视。
一个可选的实施方式中,所述视域树的数据结构包括以下至少一种:二叉空间分区树、四叉树、八叉树。
一个可选的实施方式中,所述方法还包括:
根据所述目标观测点对应的可视域数据,对所述目标场景对应的三维场景模型进行三维渲染,得到所述目标观测点对应的可视域渲染图。
第二方面,本公开实施例提供了一种可视域分析装置,包括:
三维建模模块,用于获取目标场景的多视角影像数据,并根据所述多视角影像数据建立所述目标场景的三维场景模型;
数据分析模块,用于将所述三维场景模型分割为多个网格区域,并确定所述多个网格区域之间的可视关系;
结果生成模块,用于获取目标观测点,并根据所述可视关系确定所述目标观测点对应的可视域数据。
一个可选的实施方式中,三维建模模块用于根据所述多视角影像数据建立所述目标场景的三维场景模型,具体可以包括:三维建模模块用于,对所述多视角影像数据进行特征匹配,确定不同视角影像数据中相对应的特征组;根据匹配得到的所述特征组计算所述多视角影像数据中像素的深度信息;根据所述多视角影像数据和深度信息生成所述目标场景的三维点云;并根据所述三维点云生成所述三维场景模型。
本公开一个可选的实施方式中,三维建模模块用于根据所述三维点云生成所述三维场景模型,具体可以包括:三维建模模块用于,对所述三维点云进行预设处理操作;根据经过所述预设处理操作的三维点云构建所述三维场景模型;并对所述三维场景模型进行优化。
本公开一个可选的实施方式中,所述预设处理操作包括以下至少一种:点云滤波、点云分类、点云压缩。
本公开一个可选的实施方式中,三维建模模块用于对所述三维场景模型进行优化,包括三维建模模块用于执行以下至少一项:
根据所述多视角影像数据对所述三维场景模型进行纹理映射;
对所述三维场景模型进行平滑处理;
对所述三维场景模型进行简化处理。
本公开一个可选的实施方式中,数据分析模块用于确定所述多个网格区域之间的可视关系,具体可以包括,数据分析模块用于执行以下操作:
获取至少一个预设观测点,并将所述预设观测点对应的网格区域作为观测区域,将所述观测区域之外的至少一个其他网格区域作为被观测区域;
判断所述观测区域与被观测区域之间是否可视,并根据判断结果生成所述预设观测点对应的视域树;
所述根据所述可视关系确定所述目标观测点对应的可视域数据,包括:
从所述至少一个预设观测点对应的视域树中确定所述目标观测点对应的目标视域树;
查询所述目标视域树,得到所述目标观测点对应的可视域数据。
本公开一个可选的实施方式中,数据分析模块用于判断所述观测区域与被观测区域之间是否可视,具体可以包括,数据分析模块用于执行以下操作:
提取所述目标场景的场景数据;所述场景数据包括障碍物数据;
根据所述场景数据判断所述观测区域和所述被观测区域之间的直线路径上是否存在障碍物;
若所述直线路径上存在障碍物,则确定所述观测区域和所述被观测区域之间不可视;反之,若所述直线路径上不存在障碍物,则确定所述观测区域和所述被观测区域之间可视。
在本公开一个可选的实施方式中,所述视域树的数据结构包括以下至少一种:二叉空间分区树、四叉树、八叉树。
本公开一个可选的实施方式中,上述装置还包括:
三维渲染模块,用于根据所述目标观测点对应的可视域数据,对所述目标场景对应的三维场景模型进行三维渲染,得到所述目标观测点对应的可视域渲染图。
第三方面,本公开实施例提供了一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如上述第一方面所述的方法的步骤。
第四方面,本公开实施例提供了一种计算设备,包括:
存储器,用于存储计算机程序产品;
处理器,用于执行所述存储器中存储的计算机程序产品,且所述计算机程序产品被执行时,实现如上述第一方面所述的方法的步骤。
在本公开实施例中,通过获取目标场景的多视角影像数据来构建其三维场景模型,并对该三维场景模型进行空间分割,基于分割得到的各个网格区域进行可视性判断,得到网格区域之间的可视关系,从而通过查询该可视关系,即可快速并准确确定从目标观测点所在的网格区域处观测,可以看到的若干可视网格区域,也就得到该目标观测点的可视域数据。
基于本公开实施例,对于任意复杂场景,都可以通过空间分割,将其划分为多个数据量较小的网格区域,计算其相互之间的可视关系,减轻可视性判断的计算量,提高计算效率;且对于任意目标观测点,都可以基于预先计算得到的网格区域的可视关系进行可视化查询,得到该目标观测点的可视域数据,提高可视域分析的效率和精度。
本公开实施例通过视域树结构来存储网格区域之间的可视关系,提高存储和查询效率,从而进一步提高可视域分析效率。
另外,本公开实施例中,还通过三维渲染技术,将目标观测点对应的可视域表示在目标场景的三维场景模型中,得到相应的三维渲染效果图,可以使相关人员更直观地了解该目标观测点的在各个方向上的可视情况。
附图说明
图1示出了本公开的实施例提供的可视域分析方法流程图;
图2示出了本公开的实施例提供的可视域分析结果的渲染效果图;
图3示出了本公开的实施例提供的可视域分析装置的结构示意图;
图4示出了本公开的实施例提供的一种计算设备的结构示意图。
具体实施方式
下面通过附图和实施例对本申请进一步详细说明。通过这些说明,本申请的特点和优点将变得更为清楚明确。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
此外,下面所描述的本申请不同实施方式中涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
下面结合附图,通过具体的实施例及其应用场景对本公开实施例提供的可视域分析方法及装置进行详细说明。
图1是本公开实施例提供的可视域分析方法流程图,参见图1,该方法可以包括以下步骤:
步骤101,获取目标场景的多视角影像数据;
本公开实施例中,多视角影像数据可以包括在多个不同视角下采集到的目标场景的遥感影像数据、地面影像数据等。多视角影像数据可以提供目标场景中更多的立体信息,以保证后续三维建模的准确度。
步骤102,根据所述多视角影像数据建立所述目标场景的三维场景模型;
可选的,本公开实施例可以利用公开的数字孪生模型构建目标场景的三维场景模型。例如,通过将所述多视角影像数据导入数字孪生模型,利用数字孪生模型中已训练好的数据处理算法对所述多视角影像数据进行处理,识别出所述目标场景中的地形、建筑、植被等元素,并构建各个元素在三维虚拟空间中对应的元素模型,最终得到所述目标场景在三维虚拟空间中的三维场景模型。
步骤103,将所述三维场景模型分割为多个网格区域;
可选的,可以将目标场景的三维场景模型整体视为一个较大的方体,按照三维阵列形式对其进行空间分割,可以得到m*n*k个小的方体。其中,m、n、k均为正整数,其取值可以根据实际应用需求设置。当然,根据实际应用需求,还可以采样其他空间分割方式,得到其他形状的三维网格区域,本实施例不再一一阐述。
步骤104,确定所述多个网格区域之间的可视关系;
对于分割得到的多个网格区域,可以根据实际应用需求,将其中部分或全部网格区域分别作为观测区域,然后针对每个观测区域,判断其与其他每个网格区域之间是否可视,即得到该观测区域与其他网格区域的可视关系。
步骤105,获取目标观测点,并根据所述可视关系确定所述目标观测点对应的可视域数据。
基于前述步骤对三维场景模型的分割,目标观测点也将对应至少一个网格区域,为便于描述,以下称为目标观测区域,通过查询前述步骤得到的可视关系,就可以确定在目标观测区域处哪些网格区域可以被看到,哪些网格区域不可以被看到,其中,可以被看到的一个或多个可视网格区域构成该目标观测点的可视域,不可以被看到的一个或多个不可视网格区域构成该目标观测点的不可视域。
由以上步骤可知,本公开实施例通过获取目标场景的多视角影像数据来构建其三维场景模型,并对该三维场景模型进行空间分割,基于分割得到的各个网格区域进行可视性判断,得到网格区域之间的可视关系,从而通过查询该可视关系,即可快速并准确地确定从目标观测点所在的网格区域处观测,可以看到的若干可视网格区域,也就得到该目标观测点的可视域数据。基于本公开实施例,对于任意复杂场景,都可以通过空间分割,将其划分为多个数据量较小的网格区域,计算其相互之间的可视关系,减轻可视性判断的计算量,提高计算效率;且对于任意目标观测点,都可以基于预先计算得到的网格区域的可视关系进行可视化查询,得到该目标观测点的可视域数据,提高可视域分析的效率和精度。
本公开一个可选的实施方式中,上述可视域分析方法在步骤105得到目标观测点对应的可视域数据之后,还可以包括:
步骤106,根据所述目标观测点对应的可视域数据,对所述目标场景对应的三维场景模型进行三维渲染,得到所述目标观测点对应的可视域渲染图。
本公开实施例中,通过三维渲染,将目标观测点对应的可视域通过填充预设颜色等方式表示在目标场景的三维场景模型中,得到相应的三维渲染效果图。
图2为基于本公开实施例提供的可视域分析方法得到的渲染效果图,该图2中展示了目标观测点201的可视域。可见,相对于传统技术中通过数据表格、二维图像等方式展示分析结果,本公开实施例不仅可以准确快速得到可视域分析结果,还可以三维渲染图使相关人员更直观地了解该目标观测点的在各个方向上的可视情况。
本公开一可选的实施例中,上述步骤102中,根据所述多视角影像数据建立所述目标场景的三维场景模型,具体可以包括:
步骤1021,对所述多视角影像数据进行特征匹配,确定不同视角影像数据中相对应的特征组;
目标场景在不同视角下的影像数据中可能包含一个或多个相同的特征,例如两个不同视角下的影像S1和S2中,都包含同一个具有尖锐顶部的建筑物,则该建筑物的尖锐顶部可以作为一个特征,该特征在影像S1中识别为特征点P1,在影像S2中识别为特征点P2,则P1和P2可以形成一个特征组,该特征组中还可以包含从其他影像中识别出的“尖锐顶部”这一特征对应的特征点。
本公开实施例将不同影像数据中的特征进行匹配,即可确定不同影像数据之间的对应关系,从而在后续建模过程中可以对这些不同视角下的影像数据进行融合,得到目标场景的更详细更完整的立体信息,从而保证建模精度。
可选的,本公开实施例可以通过SIFT(即Scale-invariant feature transform,尺度不变特征转换)、SURF(即Speeded Up Robust Features,加速稳健特征)或ORB(即Oriented FAST and Rotated BRIEF features,定向快速和旋转的简要特征)等算法对所述多视角影像数据进行特征匹配。
本公开一可选的实施例中,为保证建模精度,在通过步骤1021进行特征匹配之前,还可以对多视角影像数据进行如下至少一项预处理操作:
(11)辐射校正,以纠正各个影像中可能存在的辐射畸变;
(12)几何校正,即通过坐标已知的地面控制点,纠正各个影像中可能存在的几何畸变;
(13)影像配准,即将多个影像进行匹配、叠加,使多个影像中在同一区域内的特征相互对齐,以便于通过步骤1021中的特征匹配,找到更多的特征组。
步骤1022,根据匹配得到的所述特征组计算所述多视角影像数据中像素的深度信息;
像素的深度信息,即该像素在影像所在三维坐标系中Z轴坐标(影像所在二维平面为X轴和Y轴组成的平面,Z轴与该平面垂直)。本公开实施例中,可以基于摄影测量原理计算像素的深度信息。摄影测量,即利用摄影机获取的影像,经过处理计算以获取被摄物体的形状、大小、位置、特性及其相互关系等信息的技术。利用摄影测量原理,可以先计算前述步骤1021匹配得到的多个特征组中各个特征点在各自的影像中的深度信息,继而可以根据位置关系等信息计算各个特征点之外的其他像素的深度信息。由于同一特征组中的各个特征点是同一特征在不同影像中对应的一个或相邻的多个像素,可以更准确的确定该特征对应的像素与影像图中其他像素之间的相互关系,进而保证计算得到的深度信息更准确。
步骤1023,根据所述多视角影像数据和深度信息生成所述目标场景的三维点云;
点云(Point Cloud)是指目标物体表面点的集合。目标场景的三维点云,即目标场景中各个物体(如建筑物、植被、山脊等)表面点的集合;基于摄影测量原理,三维点云中每个点包含数据可以包括该点的三维坐标(X,Y,Z)、颜色等。
步骤1024,根据所述三维点云生成所述三维场景模型。
由于三维点云中记录了各个点的三维坐标,故可以依此构建目标场景的三维场景模型。
本公开一可选的实施例中,为提高三维场景模型的精度,上述步骤1024中,根据所述三维点云生成所述三维场景模型,具体可以包括:
步骤10241,对所述三维点云进行预设处理操作;
可选的,本公开实施例中,对三维电压的预设处理操作包括以下至少一种:
(21)点云滤波,即去除三维点云中的噪声数据;
(22)点云分类,即将点云按照其对应的物体分为不同的类别,如地面、建筑物、植被等;
(23)点云压缩,以使点云轻量化,提高计算、传输和存储效率等;另外,在压缩过程中,还可以通过控制压缩比和误差范围等方式,来保障压缩后的点云的数据质量,在保证点云的数据准确性和可靠性的前提下,实现点云轻量化。
步骤10242,根据经过所述预设处理操作的三维点云构建所述三维场景模型;
本公开实施例中,可以使用三角化等方法来根据处理后的三维点云生成三维场景模型。
步骤10243,对所述三维场景模型进行优化;
基于三维点云生成的初始的三维场景模型可能比较粗糙,可视化效果差,因此,本公开实施例中还对其进行优化,具体可以包括以下至少一项优化步骤:
(31)根据所述多视角影像数据对所述三维场景模型进行纹理映射;
由于三维点云中还记录了各点的颜色信息,因此,可以将这些颜色信息映射到初始的三维场景模型上,使得模型中的各个物体具有与实际物体相似的纹理,提升模型的真实性和可视化效果。
(32)对所述三维场景模型进行平滑处理;
对初始的三维场景模型进行平滑处理,可以消除模型中可能存在的高斯噪声、锯齿等影像模型质量的因素,使得处理后的模型更加接近真实的目标场景。
(33)对所述三维场景模型进行简化处理。
模型简化的方式有多种,如将非线性模型简化为线性模型、将高阶模型简化为低阶模型、将时变参数模型简化为非时变参数模型等,具体可以根据目标场景的特性及实际应用需求进行模型简化,以在保证满足可视域分析需求的前提下,减少模型的复杂度,便于后续可能的实时渲染、在线浏览等应用需求。
以上详细阐述了步骤102中构建三维场景模型的具体实施方式,可知,本公开实施例,通过对原始的多视角影像数据进行预处理、对基于多视角影像数据生成的三维点云进行处理,以及,对基于三维点云构建的初始模型进行优化,可以得到高精度三维场景模型,保证后续基于该三维场景模型进行可视域分析的精度。
本公开一可选的实施例中,上述步骤104中,确定所述多个网格区域之间的可视关系,具体可以包括以下步骤:
步骤1041,获取至少一个预设观测点,并将所述预设观测点对应的网格区域作为观测区域,将所述观测区域之外的至少一个其他网格区域作为被观测区域;
本公开实施例中,对于通过步骤103中空间分割得到的每个网格区域都可以作为观测区域,其他网格区域作为被观测区域,并分别判断两两之间是否可视。由于在实际应用中,目标场景中的大部分区域可能不会作为观测点,其对应的可视关系可能属于非必要数据,故为减少计算量,可以预先设定目标场景中一个或多个关键点作为预设观测点,先基于本实施例步骤1041~1043等计算这些预设观测点所在的网格区域与其他区域的可视关系。
步骤1042,判断所述观测区域与被观测区域之间是否可视;
步骤1043,根据步骤1042得到的判断结果生成所述预设观测点对应的视域树;
本公开实施例中,以视域树的形式来表征网格区域之间的可视关系。具体的,可以先为预设观测点或其对应的观测区域A建立一个节点,作为视域树的根节点;若根据步骤1042判断得到该观测区域A与一个被观测区域B之间可视,则为被观测区域B也创建一个节点,作为一个子节点,并为该子节点创建一条与根节点连接的边;若根据步骤1042判断得到该观测区域A与另一个被观测区域C之间不可视,则不需要为该被观测区域C创建对应的子节点和边。依此规则遍历每一个被观测区域,即可得到该观测区域A对应的视域树,该视域树中包含A、B等节点,以及边AB,但不包含节点C,也不包含边AC。因此,在后续应用中,通过查新该视域树,即可得到与观测区域A可视的被观测区域有哪些,相应的也可以得知与观测区域A不可视的被观测区域有哪些,不再需要重复计算。
可选的,本公开实施例中,可以通过视域树结构可以存储多种信息,视域树中的每个节点分别代表目标场景中的一个点或区域,连接节点的边表示两个节点对应的目标场景中的两个点或区域之间可视;除此之外,视域树中还可以存储各个节点对应的网格区域的位置、大小等信息,还可以根据应用需求存储各个节点对应的网格区域的颜色、纹理、光照信息等,以便后续对目标场景及可视域的渲染可视化。
可选的,本公开实施例中所述视域树,具体可以采样以下至少一种数据结构:二叉空间分区树(Binary Space Partioning Tree,BSP)、四叉树(Quad Tree)、八叉树(Octree)。
本公开一可选的实施例中,上述步骤1042中,判断所述观测区域与被观测区域之间是否可视,具体可以包括:
步骤10421,获取所述目标场景的场景数据;
本公开实施例中,所述场景数据至少包括目标场景中的障碍物数据。目标空间中的各个实体元素,如建筑物、围墙、植被、山脊、谷地等,都可能称为阻挡视线的障碍物,因此,有必要获取其位置、高度、面积、体积等数据,即所述场景数据,用于可视性判断。
可选的,本公开实施例中,可以在对目标场景进行建模、空间分割的过程中,即执行步骤101~步骤103,同时根据预设的提取算法来提取目标场景的场景数据,从而在需要判断可视性时,通过步骤10421直接读取预先提取到的场景数据,以提高可视域分析的计算效率。当然,在本公开其他实施例中,也可以在步骤10421根据预设提前算法实时提取目标场景的场景数据。
步骤10422,根据所述场景数据判断所述观测区域和所述被观测区域之间的直线路径上是否存在障碍物;
步骤10423,若所述直线路径上存在障碍物,则确定所述观测区域和所述被观测区域之间不可视;反之,若所述直线路径上不存在障碍物,则确定所述观测区域和所述被观测区域之间可视。
下面以观测区域A和被观测区域D为例,阐述上述步骤10422~步骤10423中根据场景数据判断二者可视性的具体方式。
要判断观测区域A和被观测区域D之间的可视性,即判断二者之间是否存在障碍物。有鉴于此,首先,可以在观测区域A和被观测区域D之间创建直线路径A-D,该直线路径A-D即观测区域A和被观测区域D之间的连线,也相当于从观测区域A看向被观测区域D的视线;然后,在该直线路径A-D上采样,获得每个采样点的三维坐标;然后,分别将每个采样点的三维坐标与场景数据中各个障碍物的位置、高度等数据进行比对,即可判断各个采样点上是否存在障碍物。如果该直线路径A-D上的至少一个采样点上存在障碍物,则可确定观测区域A和被观测区域D之间存在障碍物,即观测区域A和被观测区域D之间不可视;如果该直线路径A-D上的每一个采样点上都不存在障碍物,则可确定观测区域A和被观测区域D之间不存在障碍物,即观测区域A和被观测区域D之间可视。
本公开一可选的实施例中,为提高步骤1042中可视性判断效率,还可以对某些步骤进行优化,包括但不限于以下两种优化方式。
(41)可视性判断优化方式一:多级采样
上述步骤10422中,通过在观测区域和被观测区域之间的直线路径上进行采样,分别判断每个采样点上是否存在障碍物,进而确定观测区域和被观测区域之间的直线路径(即视线或连线)上是否存在障碍物。为提高判断效率,可以采用多级采样方式,即:
先对上述直线路径进行粗略采样,获取少量的采样点,只要判断这些少量的采样点中有一个采样点上存在障碍物,即可停止对该直线路径的采样判断,确定对应的观测区域和被观测区域之间不可视,不需再对其他采样点进行判断,减少整体判断次数,提高判断效率;
若判断得到这些少量的采样点上都不存在障碍物,则进一步对该直线路径进行细致采样,得到相对于前述粗略采样更多的采样点,在判断这些细致采样得到的采样点上是否存在障碍物;
依此原则,采样级数可以为两级、三级或更多,具体可以依据实际应用需求,如目标场景中障碍物的大小、障碍物之间的最小或最大间隔,以及对计算效率的要求等因素,来确定采用几级采样。
例如,假设该直线路径总长度为500米,则可以先以100米为间隔进行第一级采样,得到4个采样点T1~T4;若这4个采样点T1~T4上都不存在障碍物,有可能障碍物恰好避开了这4个采样点,故不能完全排除该执行路径上存在障碍物的可能,有必要进行细致采样,因此可以重新以50米为间隔进行第二级采样,得到8个采样点:包括上述4个采样点T1~T4和新的4个采样点T5~T8;若仍需更细致的采样,则可以重新以20米为间隔进行第三级采样,得到更多的采样点,直至采样精度满足实际应用需求。
(42)可视性判断优化方式二:先验信息利用
本公开实施例中,可以在建模、空间分割过程中同步执行提取目标场景的场景数据的操作,即在步骤104之前就可以提取得到该场景数据。根据该场景数据中各个障碍物的位置,通过简单的统计方法,即可得知表征障碍物在目标场景中的分布规律的先验信息,如该目标场景中哪些区域没有障碍物、哪些区域中障碍物分布稀疏、某个区域中障碍物的最小尺寸等。根据这些先验信息即可确定效率最高的采样间隔、采样级数、采样顺序等等,以尽量减少判断次数,提高判断效率。
例如,观测区域和被观测区域之间的直线路径L先后经过一个障碍物分布较密集的空间G1和一个障碍物分布稀疏的空间G2,将该直线路径L分为两个区段L1和L2,即L=L1+L2,其中,L1在上述空间G1范围内,L2在上述空间G2范围内。显然,由于G1内障碍物分布密集,故该直线路径L在区段L1上存在障碍物的概率更高,因此可以先在区段L1上进行采样,包括采用前述多级采样方式,并判断是否存在障碍物;若对L1的采样精度达到最高采样精度的情况下,各个采样点上仍均不存在障碍物,则可以根据实际应用需求确定是否需要继续对L2进行采样及判断。由于该直线路径L的区段L1位于障碍物分布密集的空间内,故在L1上存在障碍物的概率很高,因此,只要判断得到在L1上存在障碍物,则不需要再对L2进行采样判断,从而可以大大减少采样及判断工作量,提高采样及判断效率。
由以上阐述可知,本公开实施例通过采样判断、结合多种优化方式,在保证准确判断观测区域和被观察区域之间的可视性的前提下,减少数据计算量,提高判断效率,从而可以满足对不同复杂度的目标场景的可视域分析需求。
本公开一可选的实施例中,在步骤10421中,或者在执行步骤10421之前任意时刻,可以采用以下任一种提取算法来提取目标场景的场景数据:
(51)点云分割算法
基于前述步骤1023得到的三维点云,可以通过点云分割算法来识别并分类目标场景中的各种实体元素,如建筑物、植被等。
具体的,可以采用具有噪声的基于密度的空间聚类算法(Density-Based SpatialClustering of Applications with Noise,DBSCAN)对上述三维点云进行分割,将三维点云中距离较小的点所构成的连续的物体或结构划分别划分为独立的分群;然后,对于每个分群,计算其几何和拓扑特性,如面积、高度、体积等;最后,基于这些特性,识别出各个分群分别对应哪种实体元素,例如,将具有长方体形状的分群识别为建筑物。
(52)基于数字高程模型分析
本公开实施例中,可以将多视角影像数据导入数字高程模型中,获得目标场景中各点的高程信息,结合地形曲率、斜率等数据计算,可以识别出不同的地形特征,如山脊、谷地等,从而得到目标场景的场景数据。
(53)障碍物识别
基于前述步骤102得到的三维场景模型,可以采用计算机视觉或图像处理等技术来识别其中的固定结构,如建筑物、围墙等,这些固定结构即对应目标场景中的实体元素。
具体的,先采用边缘检测和轮廓检测等技术来识别上述三维场景模型中物体的边界;基于识别出的边界信息,采用形状匹配技术识别出这些边界搜围成的固定结构的类型,得到所需的场景数据。
本公开实施例中,可以根据实际应用需求,选择合适的提取算法来提取目标场景的场景数据,在保证数据提取精度的同时,提高数据提取效率,达到提高对目标场景的可视域分析效率的目的。
本公开一可选的实施例中,基于以上实施例步骤1042得到的视域树,步骤105中根据所述可视关系确定所述目标观测点对应的可视域数据,具体可以包括:
步骤1051,从所述至少一个预设观测点对应的视域树中确定所述目标观测点对应的目标视域树;
步骤1052,查询所述目标视域树,得到所述目标观测点对应的可视域数据。
可见,本公开实施例通过查询视域树来确定目标场景中目标观测点对应的可视域数据,相对于实时判断目标观测点相对于各个被观测点的可视性,本公开实施例可以在保证可视域分析精度的前提下,大大提高分析效率,满足复杂场景的可视域分析需求。
本公开实施例中,前述步骤104中可以仅确定有限的几个预设观测点对应的视域树,由于预设观测点的选择可以是根据具体的目标场景预先设定的最有必要进行可视域分析的关键点,因此最终需要进行可视域分析的目标观测点将在很大概率上是预设观测点中一个。
另外,对于目标观测点不属于预设观测点的特殊情况,在一个可选的实施方式中,可以依据本公开实施例中步骤1042所述的观测区域与被观测区域之间的可视性判断步骤,实时判断目标观测点之外的被观测区域,对该目标观测点所在的观测区域的可视性,从而确定该目标观测点的可视域数据。在另一可选的实施方式中,可以基于与该目标观测点接近的一个或多个预设观测点的视域树查询该目标观测点的可视域数据,为提高可视域分析精度,还可以同时基于步骤1042所述的可视性判断步骤,对前述基于预设观测点查询得到的可视域数据进行修正,得到更精确的可视域分析结果。
可选的,为提高视域树的查询效率,可以基于空间分割、边裁剪等技术对其进行优化,如基于空间分割技术,将视域树中对应于同一子空间的各个节点作为一组,在查询某个被观测区域是否对观测区域可视时,可以根据该被观测区域所在的子空间快速定位到该观测区域对应视域树中的分组中,同查询该分组中是否存在该被观测区域对应的节点,即可得知该被观测区域是否对观测区域可视。相对于在观测区域的视域树中遍历每个节点以确定是否存在该被观测区域对应的节点,本公开实施例可以大大提高查询效率。
可选的,对于大型三维场景,为了提高数据检索和查询效率,可以在前述步骤构建视域树的同时,为目标场景建立空间索引结构。
具体的,可以使用八叉树或K维树(k-Dimensional Tree,k-D Tree)等数据结构,将目标场景分割成多个小空间单元;对于每个空间单元,存储该空间单元内所包含的物体和特性信息,包括该空间单元中各个网格区域对应的视域树。
利用八叉树等形式的空间索引结构,当需要对目标观测点进行可视域分析时,利用该空间索引结构可以快速定位到该目标观测点和各个被观测区域所在的空间单元,并检索其对应的视域树中的信息,确定与视线相交的障碍物,从而得到该目标观察点对应的可视域和不可视域。
上述所有可选技术方案,可以任意结合,形成本公开的可选实施例,在此不再一一赘述。
基于同一构思,本发明实施例还提供一种可视域分析装置。由于该装置所解决问题的原理与前述方法相似,因此该装置的实施可以参见前述方法的实施,重复之处不再赘述。图3是该装置的结构示意图,参见图3,该可视域分析装置300包括:
三维建模模块301,用于获取目标场景的多视角影像数据,并根据所述多视角影像数据建立所述目标场景的三维场景模型;
数据分析模块302,用于将所述三维场景模型分割为多个网格区域,并确定所述多个网格区域之间的可视关系;
结果生成模块303,用于获取目标观测点,并根据所述可视关系确定所述目标观测点对应的可视域数据。
在本公开一个可选的实施方式中,三维建模模块301用于根据所述多视角影像数据建立所述目标场景的三维场景模型,具体可以包括:三维建模模块301用于,对所述多视角影像数据进行特征匹配,确定不同视角影像数据中相对应的特征组;根据匹配得到的所述特征组计算所述多视角影像数据中像素的深度信息;根据所述多视角影像数据和深度信息生成所述目标场景的三维点云;并根据所述三维点云生成所述三维场景模型。
在本公开一个可选的实施方式中,三维建模模块301用于根据所述三维点云生成所述三维场景模型,具体可以包括:三维建模模块301用于,对所述三维点云进行预设处理操作;根据经过所述预设处理操作的三维点云构建所述三维场景模型;并对所述三维场景模型进行优化。
在本公开一个可选的实施方式中,所述预设处理操作包括以下至少一种:点云滤波、点云分类、点云压缩。
在本公开一个可选的实施方式中,三维建模模块301用于对所述三维场景模型进行优化,包括三维建模模块301用于执行以下至少一项:
根据所述多视角影像数据对所述三维场景模型进行纹理映射;
对所述三维场景模型进行平滑处理;
对所述三维场景模型进行简化处理。
在本公开一个可选的实施方式中,数据分析模块302用于确定所述多个网格区域之间的可视关系,具体可以包括,数据分析模块302用于执行以下操作:
获取至少一个预设观测点,并将所述预设观测点对应的网格区域作为观测区域,将所述观测区域之外的至少一个其他网格区域作为被观测区域;
判断所述观测区域与被观测区域之间是否可视,并根据判断结果生成所述预设观测点对应的视域树;
所述根据所述可视关系确定所述目标观测点对应的可视域数据,包括:
从所述至少一个预设观测点对应的视域树中确定所述目标观测点对应的目标视域树;
查询所述目标视域树,得到所述目标观测点对应的可视域数据。
在本公开一个可选的实施方式中,数据分析模块302用于判断所述观测区域与被观测区域之间是否可视,具体可以包括,数据分析模块302用于执行以下操作:
提取所述目标场景的场景数据;所述场景数据包括障碍物数据;
根据所述场景数据判断所述观测区域和所述被观测区域之间的直线路径上是否存在障碍物;
若所述直线路径上存在障碍物,则确定所述观测区域和所述被观测区域之间不可视;反之,若所述直线路径上不存在障碍物,则确定所述观测区域和所述被观测区域之间可视。
在本公开一个可选的实施方式中,所述视域树的数据结构包括以下至少一种:二叉空间分区树、四叉树、八叉树。
在本公开一个可选的实施方式中,上述装置300还包括:
三维渲染模块,用于根据所述目标观测点对应的可视域数据,对所述目标场景对应的三维场景模型进行三维渲染,得到所述目标观测点对应的可视域渲染图。
需要说明的是,上述三维建模模块301、数据分析模块302和结果生成模块303对数据的具体处理方式可以参照前文方法实施例所述,此处不再赘述。
本公开实施例还提供一种计算设备。图4为本公开实施例提供的一种计算设备的结构框图。如图4所示,该计算设备400可以包括处理器401和存储器402;存储器402可以耦合到处理器401中。值得注意的是,该图4是示例性的;还可以使用其他类型的结构,来补充或代替该结构,以实现电信功能或其他功能。可选的,该计算设备400可以是服务器或本地计算设备,从而可以实现在云端或本地进行对目标场景的可视域分析。
一种可能的实现方式中,可视域分析装置300的功能可以被集成到处理器401中。其中,处理器401可以被配置为执行如下操作:
获取目标场景的多视角影像数据;
根据所述多视角影像数据建立所述目标场景的三维场景模型;
将所述三维场景模型分割为多个网格区域;
确定所述多个网格区域之间的可视关系;
获取目标观测点,并根据所述可视关系确定所述目标观测点对应的可视域数据。
在另一种可能的实现方式中,可视域分析装置300可以与处理器401分开配置,例如可以将可视域分析装置300配置为与处理器401连接的芯片,通过处理器401的控制来实现前文实施例所述的可视域分析方法。
此外,在一些可选的实现方式中,该计算设备400还可以包括:通信模块、输入单元、音频处理器、显示器、电源等。值得注意的是,计算设备400也并不是必须要包括图4中所示的所有部件;此外,计算设备400还可以包括图4中没有示出的部件,可以参考现有技术。
在一些可选的实现方式中,处理器401有时也称为控制器或操作控件,可以包括微处理器或其他处理器装置和/或逻辑装置,该处理器401接收输入并控制计算设备400的各个部件的操作。
其中,存储器402,例如可以是缓存器、闪存、硬驱、可移动介质、易失性存储器、非易失性存储器或其它合适装置中的一种或更多种。可储存上述与可视域分析装置300有关的信息,此外还可存储执行有关信息的程序。并且处理器401可执行该存储器402存储的该程序,以实现信息存储或处理等。
输入单元可以向处理器401提供输入。该输入单元例如为按键或触摸输入装置。电源可以用于向计算设备400提供电力。显示器可以用于进行图像和文字等显示对象的显示。该显示器例如可为LCD显示器,但并不限于此。
存储器402可以是固态存储器,例如,只读存储器(ROM)、随机存取存储器(RAM)、SIM卡等。还可以是这样的存储器,其即使在断电时也保存信息,可被选择性地擦除且设有更多数据,该存储器的示例有时被称为EPROM等。存储器402还可以是某种其它类型的装置。存储器402包括缓冲存储器(有时被称为缓冲器)。存储器402可以包括应用/功能存储部,该应用/功能存储部用于存储应用程序和功能程序或用于通过处理器401执行计算设备400的操作的流程。
存储器402还可以包括数据存储部,该数据存储部用于存储数据,例如联系人、数字数据、图片、声音和/或任何其他由计算设备使用的数据。存储器402的驱动程序存储部可以包括计算机设备的用于通信功能和/或用于执行计算机设备的其他功能(如消息传送应用、通讯录应用等)的各种驱动程序。
通信模块即为经由天线发送和接收信号的发送机/接收机。通信模块(发送机/接收机)耦合到处理器401,以提供输入信号和接收输出信号,这可以和常规移动通信终端的情况相同。
本公开实施例还提供一种计算机可读存储介质,其上存储有计算机程序,在该程序被处理器执行时实现上述可视域分析方法实施例的各个过程,且能达到相同的技术效果,为避免重复,此处不再赘述。
其中,上述可读存储介质,包括计算机可读存储介质,如计算机只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置和系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
虽然本说明书一个或多个实施例提供了如实施例或流程图所述的方法操作步骤,但基于常规或者无创造性的劳动可以包括更多或者更少的操作步骤。实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的装置或客户端产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境)。
在本申请的描述中,需要说明的是,术语“上”、“下”、“内”、“外”、“前”、“后”、“左”、“右”等指示的方位或位置关系为基于本申请工作状态下的方位或位置关系,仅是为了便于描述本申请和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本申请的限制。
在本申请的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”“相连”“连接”应作广义理解。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本申请中的具体含义。
以上结合了优选的实施方式对本申请进行了说明,不过这些实施方式仅是范例性的,仅起到说明性的作用。在此基础上,可以对本申请进行多种替换和改进,这些均落入本申请的保护范围内。
Claims (10)
1.一种可视域分析方法,其特征在于,包括:
获取目标场景的多视角影像数据;
根据所述多视角影像数据建立所述目标场景的三维场景模型;
将所述三维场景模型分割为多个网格区域;
确定所述多个网格区域之间的可视关系;
获取目标观测点,并根据所述可视关系确定所述目标观测点对应的可视域数据。
2.根据权利要求1所述的方法,其特征在于,所述根据所述多视角影像数据建立所述目标场景的三维场景模型,包括:
对所述多视角影像数据进行特征匹配,确定不同视角影像数据中相对应的特征组;
根据匹配得到的所述特征组计算所述多视角影像数据中像素的深度信息;
根据所述多视角影像数据和深度信息生成所述目标场景的三维点云;
根据所述三维点云生成所述三维场景模型。
3.根据权利要求2所述的方法,其特征在于,所述根据所述三维点云生成所述三维场景模型,包括:
对所述三维点云进行预设处理操作;
根据经过所述预设处理操作的三维点云构建所述三维场景模型;
对所述三维场景模型进行优化;
其中,所述预设处理操作包括以下至少一种:点云滤波、点云分类、点云压缩;
所述对所述三维场景模型进行优化,包括以下至少一项:
根据所述多视角影像数据对所述三维场景模型进行纹理映射;
对所述三维场景模型进行平滑处理;
对所述三维场景模型进行简化处理。
4.根据权利要求1所述的方法,其特征在于,所述确定所述多个网格区域之间的可视关系,包括:
获取至少一个预设观测点,并将所述预设观测点对应的网格区域作为观测区域,将所述观测区域之外的至少一个其他网格区域作为被观测区域;
判断所述观测区域与被观测区域之间是否可视,并根据判断结果生成所述预设观测点对应的视域树;
所述根据所述可视关系确定所述目标观测点对应的可视域数据,包括:
从所述至少一个预设观测点对应的视域树中确定所述目标观测点对应的目标视域树;
查询所述目标视域树,得到所述目标观测点对应的可视域数据。
5.根据权利要求4所述的方法,其特征在于,所述判断所述观测区域与被观测区域之间是否可视,包括:
提取所述目标场景的场景数据;所述场景数据包括障碍物数据;
根据所述场景数据判断所述观测区域和所述被观测区域之间的直线路径上是否存在障碍物;
若所述直线路径上存在障碍物,则确定所述观测区域和所述被观测区域之间不可视;反之,若所述直线路径上不存在障碍物,则确定所述观测区域和所述被观测区域之间可视。
6.根据权利要求4所述的方法,其特征在于,所述视域树的数据结构包括以下至少一种:二叉空间分区树、四叉树、八叉树。
7.根据权利要求1所述的方法,其特征在于,还包括:
根据所述目标观测点对应的可视域数据,对所述目标场景对应的三维场景模型进行三维渲染,得到所述目标观测点对应的可视域渲染图。
8.一种可视域分析装置,其特征在于,包括:
三维建模模块,用于获取目标场景的多视角影像数据,并根据所述多视角影像数据建立所述目标场景的三维场景模型;
数据分析模块,用于将所述三维场景模型分割为多个网格区域,并确定所述多个网格区域之间的可视关系;
结果生成模块,用于获取目标观测点,并根据所述可视关系确定所述目标观测点对应的可视域数据。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1~7中任一项所述的方法。
10.一种计算设备,其特征在于,包括:
存储器,用于存储计算机程序产品;
处理器,用于执行所述存储器中存储的计算机程序产品,且所述计算机程序产品被执行时,实现上述权利要求1~7中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311090879.9A CN116958485A (zh) | 2023-08-28 | 2023-08-28 | 一种可视域分析方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311090879.9A CN116958485A (zh) | 2023-08-28 | 2023-08-28 | 一种可视域分析方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116958485A true CN116958485A (zh) | 2023-10-27 |
Family
ID=88449323
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311090879.9A Pending CN116958485A (zh) | 2023-08-28 | 2023-08-28 | 一种可视域分析方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116958485A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117557711A (zh) * | 2024-01-12 | 2024-02-13 | 中科图新(苏州)科技有限公司 | 可视域的确定方法、装置、计算机设备、存储介质 |
-
2023
- 2023-08-28 CN CN202311090879.9A patent/CN116958485A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117557711A (zh) * | 2024-01-12 | 2024-02-13 | 中科图新(苏州)科技有限公司 | 可视域的确定方法、装置、计算机设备、存储介质 |
CN117557711B (zh) * | 2024-01-12 | 2024-04-09 | 中科图新(苏州)科技有限公司 | 可视域的确定方法、装置、计算机设备、存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Pound et al. | Automated recovery of three-dimensional models of plant shoots from multiple color images | |
CN111462275B (zh) | 一种基于激光点云的地图生产方法和装置 | |
CN109584302B (zh) | 相机位姿优化方法、装置、电子设备和计算机可读介质 | |
CN116310192A (zh) | 一种基于点云的城市级建筑物三维模型单体重建方法 | |
CN110795978B (zh) | 路面点云数据提取方法、装置、存储介质及电子设备 | |
Holzmann et al. | Semantically aware urban 3d reconstruction with plane-based regularization | |
CN110930503B (zh) | 一种服装三维模型建立方法、系统、存储介质及电子设备 | |
Pound et al. | A patch-based approach to 3D plant shoot phenotyping | |
CN113378756B (zh) | 一种三维人体语义分割方法、终端设备及存储介质 | |
CN114332134B (zh) | 一种基于密集点云的建筑物立面提取方法和装置 | |
CN103198473A (zh) | 一种深度图生成方法及装置 | |
CN116958485A (zh) | 一种可视域分析方法及装置 | |
CN115330940B (zh) | 一种三维重建方法、装置、设备和介质 | |
CN114463396B (zh) | 一种利用平面形状和拓扑图投票的点云配准方法 | |
CN113592015B (zh) | 定位以及训练特征匹配网络的方法和装置 | |
Belton et al. | Automating post-processing of terrestrial laser scanning point clouds for road feature surveys | |
CN114677435A (zh) | 一种点云全景融合要素提取方法和系统 | |
CN113345072A (zh) | 一种多视角遥感地形影像点云重建方法及系统 | |
CN116051980B (zh) | 基于倾斜摄影的建筑识别方法、系统、电子设备及介质 | |
CN113763438A (zh) | 一种点云配准方法、装置、设备及存储介质 | |
CN116188660A (zh) | 一种基于流式渲染的点云数据处理方法及相关装置 | |
Namouchi et al. | Piecewise horizontal 3d roof reconstruction from aerial lidar | |
CN114820931A (zh) | 基于虚拟现实的智慧城市cim可视化实时成像方法 | |
CN112802175B (zh) | 大规模场景遮挡剔除方法、装置、设备及存储介质 | |
Xia et al. | A novel approach for computing exact visual hull from silhouettes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |