CN106127853B - 一种无人机探测范围分析方法 - Google Patents
一种无人机探测范围分析方法 Download PDFInfo
- Publication number
- CN106127853B CN106127853B CN201610440155.6A CN201610440155A CN106127853B CN 106127853 B CN106127853 B CN 106127853B CN 201610440155 A CN201610440155 A CN 201610440155A CN 106127853 B CN106127853 B CN 106127853B
- Authority
- CN
- China
- Prior art keywords
- grid
- area
- pixel
- dimensional
- unmanned plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/55—Radiosity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种无人机探测分析方法,包含以下步骤:S1,将目标区域划分成网格,计算出每个网格对应的三维地形的面积;S2,构建虚拟相机视锥体,通过GPU自动裁剪对所述虚拟相机视锥体与三维地形进行求交运算,计算无人机波束的探测范围,得到无人机一次扫描波束所探测的实际区域面积,同时记录所述边界线以内所有网格被照射的时长与距离;S3,对整个探测过程中,统计每次扫描波所探测的实际区域面积,以及在所述边界线以内所有网格被照射的时长与距离,根据网格被照射的面积、时长与距离对网格进行着色。本发明的无人机探测分析方法通过对探测地形进行预处理,并通过硬件剪裁,可以快速计算探测范围,并利用色温图显示探测信息,信息量大,效果直观。
Description
技术领域
本发明涉及无人机地形探测技术领域,具体涉及一种无人机探测范围分析方法。
背景技术
随着UAV(Unmanned aerial vehicle)技术的快速发展,无人机在军事、民用等领域发挥着越来越重要的作用,如航空搜救、地形分析、高空摄影、交通疏导等。由于无人机的遥控指挥、飞行高度高、飞行速度快等特点,其实际飞行效果很难通过人眼或其他手段直接可视化观察。为了更好的展示出无人机在执行任务过程中的各项数据,往往借助于图形化的方式来展示其探测数据。其中覆盖图可视化的描述了传感器对热点区域的探测数据,主要包括任务过程中遍历的区域、传感器每个侦照区域的停留时间、载体与地面之间的椎体范围。覆盖范围广泛的应用于各种类型的事务分析,如事后重演评估、路线规划、关键点识别等。
地形探测分析中,关键的技术是地形求交,传统的软件数学求交方法求交速度较慢,对CPU计算性能要求高。
发明内容
本发明的目的是提供一种无人机探测范围分析方法,以解决或至少减轻背景技术中所存在的至少一处的问题。
本发明采用的技术方案是:提供一种无人机探测范围分析方法,包含以下步骤:
S1,将目标区域划分成网格,并计算出每个网格所占的面积及每个网格的位置信息,然后计算出每个网格对应的三维地形的面积;
S2,构建虚拟相机视锥体,通过GPU自动裁剪对所述虚拟相机视锥体与三维地形进行求交运算,计算无人机波束的探测范围,将所述虚拟相机视锥体与三维地形相交的边界线以内的所有网格面积相加,得到无人机一次扫描波束所探测的实际区域面积,同时记录所述边界线以内所有网格被照射的时长与距离;
S3,对整个探测过程中,统计每次扫描波所探测的实际区域面积,以及在所述边界线以内所有网格被照射的时长与距离,根据网格被照射的面积、时长与距离对网格进行着色。
优选地,所述目标区域的划分根据所述目标区域的经度与纬度划分,并计算出每个网格四个顶点的经度纬度坐标,同时计算出每个网格的面积。
优选地,所述目标区域网格的划分对边距离为25米至80米,对于同一个区域,网格划分精度越高,则划分的网格数越多,相应地,每个网格的面积越小;反之,网格划分精度越低,则划分的网格数减少,相应地,每个网格的面积增大。
优选地,所述三维地形的面积具体算法为,分别求出每个网格的四个顶点投影到三维地形上的对应交点,连接每个网格在三维地形上的四个投影点形成四边形,利用该四边形的面积代替相应三维地形的实际面积。
优选地,所述四边形的面积具体求解方法为,将所述四边形分成两个三角形,利用两个三角形的面积和代替所述三维地形的实际面积。
优选地,所述虚拟相机视锥体的构建参数与所述无人机的探测波束信息相同,所述构建参数包含虚拟相机的内部参数和外部参数,所述内部参数包含虚拟相机的视场角和成像宽高比,所述外部参数包含虚拟相机的位置和朝向。
优选地,所述虚拟相机视锥体与三维地形的求交具体为,利用所述虚拟相机视锥体,将场景渲染到一个隐藏的屏幕空间,借助图形绘制管线自带的视锥体剪裁功能,计算相交区域,具体步骤如下:
SS1,创建一个二维网格平面,所述二维网格平面对应于被探测地形的二维平面,在所述二维网格平面内创建二维坐标系,水平X轴,竖直为Y轴,根据平面上各点的(X,Y)坐标,获取实际地形中该点对应的高程值;
SS2,利用虚拟相机视锥体,在隐藏的屏幕空间渲染所述二维网格平面;
SS3,利用像素着色器,在渲染阶段,获取每个像素对应的二维坐标,再利用该二维坐标,结合二维网格平面,求取该坐标对应的高程值,每个像素对应的经纬度、高度分别记为PixelLng、PixelLat、PixelAlt,继而获得对应的三维交点的世界坐标Pixelx、Pixely、Pixelz,计算过程如下:
Pixelx=(WorldRaidius+PixelAlt)*cos(PixelLat)*cos(PixelLng);
Pixely=(WorldRaidius+PixelAlt)*cos(PixelLat)*sin(PixelLng);
Pixelz=(WorldRaidius+PixelAlt)*sin(PixelLat);
上述各公式中WorldRadius为地球半径;
S4,依次遍历屏幕上每个像素的世界坐标并进行排序,从而得出一个合法的矩形区域,该区域即为当前视椎体的可见区域。
优选地,所述步骤SS1中获取高程值的步骤为,
SS11,将X、Y坐标转换为与数字地球对应的经纬度坐标Lng、Lat;
SS12,获取当前该地区的高程精度值,以Precision表示;
SS13,根据Lng、Lat、Precision获取高程值,单位为米。
优选地,所述步骤SS2中利用虚拟相机视锥体,在隐藏的屏幕空间渲染所述二维网格平面的步骤为,
SS21,创建一张大小为N*N像素的纹理,其中N的值根据网格的大小设定;
SS22,将所述纹理设置为三维设备的渲染表面;
SS23,将所述二维网格渲染到纹理上。
优选地,所述步骤S3中网格的着色包含照射距离色温图和照射时长色温图;着色原则采用CIE色度空间中的一条线段作为标准进行变化,对于照射时长色温图,按照每个网格被照射的时长从小到大映射到所述CIE色度空间中的一条线段上,每个网格在渲染时渲染的颜色就是对应线段上相应的颜色;同理,对于照射距离色温图,按照每个网格被照射的距离从小到大映射到所述CIE色度空间中的一条线段上,每个网格在渲染时渲染的颜色就是对应线段上相应的颜色。
本发明的有益效果在于:本发明的无人机探测范围分析方法通过对目标区域进行预处理,为虚拟相机视锥体与三维地形的求交运算提供了良好的计算支撑,可以提高求交速度。
本发明通过色温图的方式展示探测数据,信息量大,效果直观。
利用所述虚拟相机视锥体,将场景渲染到一个隐藏的屏幕空间,借助图形绘制管线自带的视锥体剪裁功能,通过GPU自动裁剪计算相交区域。基于硬件的地形求交算法效率高。
附图说明
图1是本发明一实施例的无人机探测范围分析方法的流程图。
图2是本发明的目标区域网格划分示意图。
图3是图2所示的网格在三维地形上的投影示意图。
图4是本发明虚拟相机视锥体的构建示意图。
图5是本发明图形预处理的探测区域的最大矩形边界的投影示意图。
图6是本发明的探测波束与三维地形的交点示意图。
图7是本发明的实际探测范围示意图。
图8是本发明的CIE色度图。
具体实施方式
为使本发明实施的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行更加详细的描述。在附图中,自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。所描述的实施例是本发明一部分实施例,而不是全部的实施例。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。下面结合附图对本发明的实施例进行详细说明。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明保护范围的限制。
如图1至图8所示,一种无人机探测范围分析方法,包含以下步骤:S1,将目标区域划分成网格(如图2所示),并计算出每个网格所占的面积及每个网格的位置信息,然后计算出每个网格对应的三维地形的面积;S2,构建虚拟相机视锥体,通过GPU自动裁剪对虚拟相机视锥体与三维地形进行求交运算,计算无人机波束的探测范围,将虚拟相机视锥体与三维地形相交的边界线以内的所有网格面积相加,得到无人机一次扫描波束所探测的实际区域面积(如图7所示),同时记录所述边界线以内所有网格被照射的时长与距离;S3,对整个探测过程中,统计每次扫描波所探测的实际区域面积,以及在所述边界线以内所有网格被照射的时长与距离,根据网格被照射的面积、时长与距离对网格进行着色。
在本实施例中,目标区域的划分根据目标区域的经度与纬度划分,并计算出每个网格四个顶点的经度纬度坐标,网格四个顶点的经度纬度坐标确定好后,根据纬度的每个度之间的距离计算网格的一个边长,经度的每个度的距离为111千米乘以纬度的余弦,然后确定网格另一个边的边长,计算出每个网格的面积。
可以理解的是,所述目标区域网格的划分对边距离为25米至80米,对于同一个区域,网格划分精度越高,则划分的网格数越多,相应地,每个网格的面积越小;反之,网格划分精度越低,则划分的网格数减少,相应地,每个网格的面积增大。
在本实施例中,所述目标区域网格的划分对边距离为50米,其优点在于,将网格的对边距离划分为50米进行计算,能在性能与效果间达到较好的平衡。
可以理解的是,所述目标区域网格的划分对边距离可以在25米至80米之间任意设定。例如,在一个备选实施例中,所述目标区域网格的划分对边距离设置为40米;在另一个备选实施例中,所述目标区域网格的划分对边距离设置为60米。其优点在于,在保证计算精度的前提下,能够提高计算速度。
在本实施例中,如图3所示,上部为三维地形,下部为投影网格,三维地形的面积具体算法为,分别求出每个网格的四个顶点投影到三维地形上的对应交点,连接每个网格在三维地形上的四个投影点形成四边形,利用该四边形的面积代替相应三维地形的实际面积。
可以理解的是,一般实际三维地形是有起有伏(如图3、图6所示),图6为探测波束与实际地形的交点示意图,由于实际三维地形的起伏,这将导致四边形的四个顶点并不一定会在一个平面上。为了更好的精确求解实际三维地形的面积,在本实施例中,四边形的面积具体求解方法为,将四边形分成两个三角形,每个三角形的三个顶点必然是在同一平面的,利用两个三角形的面积和代替所述三维地形的实际面积。可以理解的是,通过提高划分网格的精度,还可以进一步减小面积计算误差。
如图4所示为虚拟相机视锥体的构建示意图,在本实施例中,虚拟相机视锥体的构建参数与无人机的探测波束信息相同,所述构建参数包含虚拟相机的内部参数和外部参数,内部参数包含虚拟相机的视场角和成像宽高比,外部参数包含虚拟相机的位置和朝向。
虚拟相机视锥体的构建具体为,设置好相机参数中的透视投影变换矩阵,观察坐标矩阵以及世界坐标矩阵后再根据无人机扫描锥体设置相机视口参数,适口参数包括如下参数:
X:左上角x坐标;
Y:左上角y坐标;
Width:视区宽度;
Height:视区高度;
MinZ:视区最小深度(0.0f~1.0f);
MaxZ:视区最大深度(0.0f~1.0f);
上述参数中需要将当前相机视口的视区宽度Width和视区高度Height换成无人机扫描锥体的宽度和高度,当前相机的视点位置换成无人机当前所在位置。设置好上述参数后通过GPU自动裁剪后得到的交点就得到无人机扫描锥体与三维地形的交点。由于是利用图形硬件实现视锥体和地形的裁剪计算,所以能够极大地提高算法的实时性。
计算机屏幕中显示的三维场景是通过对模型进行局部到世界的坐标变换、光照、投影、裁剪等操作后再光栅化显示出来的。屏幕中的三维场景对应了一个相机,屏幕中所显示的场景就是相机中所能观察到的场景。相机能观察到的范围是一个视锥体,屏幕中显示的永远是靠近近裁剪面的点,后面的的点被遮挡了是不会被渲染的,因为深度缓存中始终存放着与屏幕中每个像素点所对应的深度值。通过读取屏幕每个像素点的深度值可以得到一个坐标(x,y,z)其中x,y分别代表像素点二维屏幕坐标,z则是像素点(x,y)对应的深度值,将坐标点(x,y,z)乘上投影变换矩阵的逆矩阵(即逆投影变换矩阵,D3D中可以直接调用函数D3DXVec3Unproject()进行计算)就能计算出屏幕像素点(x,y)处所对应的三维点的世界空间坐标值。例如:在没有无人机波束时,比如屏幕中显示的是一整块三维地形,可以读取屏幕四周一圈的像素点的深度值组成对应的坐标点(x,y,z)(x,y)为屏幕四周一圈的像素点的二维坐标,z为该点处的深度值,将(x,y,z)乘上逆投影矩阵就能得到屏幕四周一圈像素点所对应三维点的世界空间坐标。
无人机的探测波束与虚拟相机的视椎体是相同的模型,所以可以再创建一个虚拟的相机来模拟无人机探测波束,将这个虚拟相机的参数设置来和无人机探测波束参数一致之后,虚拟相机中所能观察到的场景就是无人机探测波束所能探测到的范围。将虚拟相机中的场景(即无人机探测波束所侦照到的场景)渲染到隐藏的屏幕空间(不直接渲染到当前屏幕),也会对应存在一个深度缓存存放着隐藏屏幕像素对应的深度值。不同的是,这个隐藏的屏幕中渲染的不是前文说的整个三维地形了,而只有无人机探测波束所能照射到的三维地形了,因为虚拟相机参数是按照无人机探测波束的参数来设置的了。此时再按前文说的那样读取隐藏屏幕周围一圈的像素点坐标加上对应的深度值组成坐标(x,y,z)乘上逆投影变换矩阵就得出隐藏屏幕四周一圈像素点所对应的三维点的世界空间坐标了,此时的隐藏屏幕的周围一圈的点就正好是无人机探测波束与三维地形的交界点。因此无人机探测波束的探测范围就可以由这一圈交点来确定了。
在本实施例中,虚拟相机视锥体与三维地形的求交具体为,利用所述虚拟相机视锥体,将场景渲染到一个隐藏的屏幕空间,借助图形绘制管线自带的视锥体剪裁功能,计算相交区域,具体步骤如下:
SS1,创建一个二维网格平面,所述二维网格平面对应于被探测地形的二维平面,在所述二维网格平面内创建二维坐标系,水平X轴,竖直为Y轴,根据平面上各点的(X,Y)坐标,获取实际地形中该点对应的高程值;
SS2,利用虚拟相机视锥体,在隐藏的屏幕空间渲染所述二维网格平面;
SS3,利用像素着色器,在渲染阶段,获取每个像素对应的二维坐标,再利用该二维坐标,结合二维网格平面,求取该坐标对应的高程值(利用二维纹理查找功能实现),每个像素对应的经纬度、高度分别记为PixelLng、PixelLat、PixelAlt,继而获得对应的三维交点的世界坐标Pixelx、Pixely、Pixelz,计算过程如下:
Pixelx=(WorldRaidius+PixelAlt)*cos(PixelLat)*cos(PixelLng);
Pixely=(WorldRaidius+PixelAlt)*cos(PixelLat)*sin(PixelLng);
Pixelz=(WorldRaidius+PixelAlt)*sin(PixelLat);
上述各公式中WorldRadius为地球半径;
在三维渲染过程中,底层引擎自动的在两个顶点之间进行插值,从而实现了两点之间所有像素的高程取值。
S4,依次遍历屏幕上每个像素的世界坐标并进行排序,从而得出一个合法的矩形区域(如图5所示),该区域即为当前视椎体的可见区域。附图5是本发明图形预处理下探测区域的最大矩形边界的投影示意图,其中,矩形的边界表示投影边界像素,内部网格为二维地形网格投影范围。
在本实施例中,步骤SS1中获取高程值的步骤为,
SS11,将X、Y坐标转换为与数字地球对应的经纬度坐标Lng、Lat;
SS12,获取当前该地区的高程精度值,以Precision表示;
SS13,根据Lng、Lat、Precision获取高程值,单位为米。
在本实施例中,步骤SS2中利用虚拟相机视锥体,在隐藏的屏幕空间渲染所述二维网格平面的步骤为,
SS21,创建一张大小为N*N像素的纹理,其中N的值根据网格的大小设定;
SS22,将所述纹理设置为三维设备的渲染表面;
SS23,将所述二维网格渲染到纹理上。
在本实施例中,步骤S3中网格的着色包含照射距离色温图和照射时长色温图;着色原则采用CIE色度空间中的一条线段作为标准进行变化,对于照射时长色温图,按照每个网格被照射的时长从小到大映射到所述CIE色度空间中的一条线段上,每个网格在渲染时渲染的颜色就是对应线段上相应的颜色;同理,对于照射距离色温图,按照每个网格被照射的距离从小到大映射到所述CIE色度空间中的一条线段上,每个网格在渲染时渲染的颜色就是对应线段上相应的颜色。
在本实施例中,步骤S2中对边界线以内的网格进行统计时,网格查找采用了多边形扫描填充算法,更确切地说是多边形扫描填充算法中的point-in-polygon(点在多边形内)算法。判断点是否在多边形中也就是判断网格是否在扫描椎体与三维地形相交形成的多边形中,从而得到每帧被照射的网格。扫描线填充算法的基本思想是:用水平扫描线从上到下(或从下到上)扫描由多条首尾相连的线段构成的多边形,每根扫描线与多边形的某些边产生一系列交点。将这些交点按照x坐标排序,将排序后的点两两成对,作为线段的两个端点,以所填的颜色画水平直线。多边形被扫描完毕后,颜色填充也就完成了,被填充了颜色的部分则是在多边形内部的网格。算法可以归纳为以下4个步骤:
(1)求交点。即扫描线和多边形的交点。
(2)交点排序。
(3)对排序后的点两两匹配。
(4)更新扫描线,判断是否完成多边形扫描。
在本实施例中,采用图8中所示色度空间的优点在于,CIE色度空间中颜色的变化可以一段线段间平滑的变化,既能够保证色彩的丰富性又能保证线性变化。这与照射时长,距离、范围色温图的渲染要求十分吻合。
CIE色度空间和RGB色彩空间可以相互转换,类似于RGB色彩空间CIE色度空间可以用X,Y,Z表示。为了更直观的使用,将三维的XYZ颜色空间的颜色锥体投影到X+Y+Z=1的平面就得到了图8所示的xyY颜色空间,该空间由x,y,z表示。图8中每一点颜色都对应一个x,y坐标,再确定一个亮度值Y就可以得到XYZ颜色空间中的颜色值,XYZ到xyY的转换公式如下所示:
xyz到XYZ的转换公式如下式所示:
XYZ到RGB空间的相互转换公式则如下式所示:
将网格被照射时长以及照射距离的变化情况映射到xyz颜色空间中的一段线段上在通过上述公式转换最终得到每个网格渲染时的RGB颜色值就能渲染得到相应的色温图。
最后需要指出的是:以上实施例仅用以说明本发明的技术方案,而非对其限制。尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (9)
1.一种无人机探测范围分析方法,其特征在于,包含以下步骤:
S1,将目标区域划分成网格,并计算出每个网格所占的面积及每个网格的位置信息,然后计算出每个网格对应的三维地形的面积;
S2,构建虚拟相机视锥体,通过GPU自动裁剪对所述虚拟相机视锥体与三维地形进行求交运算,计算无人机波束的探测范围,将所述虚拟相机视锥体与三维地形相交的边界线以内的所有网格面积相加,得到无人机一次扫描波束所探测的实际区域面积,同时记录所述边界线以内所有网格被照射的时长与距离;
S3,对整个探测过程中,统计每次扫描波所探测的实际区域面积,以及在所述边界线以内所有网格被照射的时长与距离,根据网格被照射的面积、时长与距离对网格进行着色;
所述虚拟相机视锥体与三维地形的求交具体为,利用所述虚拟相机视锥体,将场景渲染到一个隐藏的屏幕空间,借助图形绘制管线自带的视锥体剪裁功能,计算相交区域,具体步骤如下:
SS1,创建一个二维网格平面,所述二维网格平面对应于被探测地形的二维平面,在所述二维网格平面内创建二维坐标系,水平X轴,竖直为Y轴,根据平面上各点的(X,Y)坐标,获取实际地形中该点对应的高程值;
SS2,利用虚拟相机视锥体,在隐藏的屏幕空间渲染所述二维网格平面;
SS3,利用像素着色器,在渲染阶段,获取每个像素对应的二维坐标,再利用该二维坐标,结合二维网格平面,求取该坐标对应的高程值,每个像素对应的经纬度、高度分别记为PixelLng、PixelLat、PixelAlt,继而获得对应的三维交点的世界坐标Pixelx、Pixely、Pixelz,计算过程如下:
Pixelx=(WorldRaidius+PixelAlt)*cos(PixelLat)*cos(PixelLng);
Pixely=(WorldRaidius+PixelAlt)*cos(PixelLat)*sin(PixelLng);
Pixelz=(WorldRaidius+PixelAlt)*sin(PixelLat);
上述各公式中WorldRadius为地球半径;
S4,依次遍历屏幕上每个像素的世界坐标并进行排序,从而得出一个合法的矩形区域,该区域即为当前视椎体的可见区域。
2.如权利要求1所述的无人机探测范围分析方法,其特征在于:所述目标区域的划分根据所述目标区域的经度与纬度划分,并计算出每个网格四个顶点的经度纬度坐标,同时计算出每个网格的面积。
3.如权利要求2所述的无人机探测范围分析方法,其特征在于:所述目标区域网格的划分对边距离为25米至80米,对于同一个区域,网格划分精度越高,则划分的网格数越多,相应地,每个网格的面积越小;反之,网格划分精度越低,则划分的网格数减少,相应地,每个网格的面积增大。
4.如权利要求3所述的无人机探测范围分析方法,其特征在于:所述三维地形的面积具体算法为,分别求出每个网格的四个顶点投影到三维地形上的对应交点,连接每个网格在三维地形上的四个投影点形成四边形,利用该四边形的面积代替相应三维地形的实际面积。
5.如权利要求4所述的无人机探测范围分析方法,其特征在于:所述四边形的面积具体求解方法为,将所述四边形分成两个三角形,利用两个三角形的面积和代替所述三维地形的实际面积。
6.如权利要求1所述的无人机探测范围分析方法,其特征在于:所述虚拟相机视锥体的构建参数与所述无人机的探测波束信息相同,所述构建参数包含虚拟相机的内部参数和外部参数,所述内部参数包含虚拟相机的视场角和成像宽高比,所述外部参数包含虚拟相机的位置和朝向。
7.如权利要求1所述的无人机探测范围分析方法,其特征在于:所述步骤SS1中获取高程值的步骤为,
SS11,将X、Y坐标转换为与数字地球对应的经纬度坐标Lng、Lat;
SS12,获取当前该地区的高程精度值,以Precision表示;
SS13,根据Lng、Lat、Precision获取高程值,单位为米。
8.如权利要求1所述的无人机探测范围分析方法,其特征在于:所述步骤SS2中利用虚拟相机视锥体,在隐藏的屏幕空间渲染所述二维网格平面的步骤为,
SS21,创建一张大小为N*N像素的纹理,其中N的值根据网格的大小设定;
SS22,将所述纹理设置为三维设备的渲染表面;
SS23,将所述二维网格渲染到纹理上。
9.如权利要求1所述的无人机探测范围分析方法,其特征在于:所述步骤S3中网格的着色包含照射距离色温图和照射时长色温图;着色原则采用CIE色度空间中的一条线段作为标准进行变化,对于照射时长色温图,按照每个网格被照射的时长从小到大映射到所述CIE色度空间中的一条线段上,每个网格在渲染时渲染的颜色就是对应线段上相应的颜色;同理,对于照射距离色温图,按照每个网格被照射的距离从小到大映射到所述CIE色度空间中的一条线段上,每个网格在渲染时渲染的颜色就是对应线段上相应的颜色。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610440155.6A CN106127853B (zh) | 2016-06-17 | 2016-06-17 | 一种无人机探测范围分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610440155.6A CN106127853B (zh) | 2016-06-17 | 2016-06-17 | 一种无人机探测范围分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106127853A CN106127853A (zh) | 2016-11-16 |
CN106127853B true CN106127853B (zh) | 2019-02-05 |
Family
ID=57470118
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610440155.6A Active CN106127853B (zh) | 2016-06-17 | 2016-06-17 | 一种无人机探测范围分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106127853B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106681336B (zh) * | 2016-12-29 | 2019-07-26 | 湖北三江航天红峰控制有限公司 | 基于容错处理的无人飞行器高度测量控制系统及控制方法 |
US11164392B2 (en) * | 2017-09-08 | 2021-11-02 | Bentley Systems, Incorporated | Infrastructure design using 3D reality data |
CN107833269B (zh) * | 2017-09-19 | 2021-04-16 | 浙江科澜信息技术有限公司 | 一种三维场景中实现地形透明的方法 |
CN110221621B (zh) * | 2019-05-30 | 2021-11-09 | 深圳市道通智能航空技术股份有限公司 | 一种无人机及其飞行区域的规划方法、装置、存储介质 |
CN110717280B (zh) * | 2019-10-21 | 2023-02-28 | 上海原能细胞生物低温设备有限公司 | 一种平面空间内通过离散点计算最佳网格的方法 |
CN111445535A (zh) * | 2020-04-16 | 2020-07-24 | 浙江科澜信息技术有限公司 | 一种相机标定方法、装置及设备 |
CN113532434B (zh) * | 2020-04-21 | 2023-06-30 | 北京三快在线科技有限公司 | 航空区域构建方法、装置、存储介质和电子设备 |
CN111738119B (zh) * | 2020-06-12 | 2024-02-09 | 云南电网有限责任公司电力科学研究院 | 一种基于modis卫星监测的森林山火面积估算方法及装置 |
CN113189562B (zh) * | 2021-07-02 | 2021-09-07 | 成都众享天地网络科技有限公司 | 一种基于高程的地形探测算法 |
CN113724392B (zh) * | 2021-07-22 | 2024-06-28 | 中国电子科技集团公司第二十八研究所 | 一种无人机侦查载荷三维模拟扫描区域计算方法 |
CN113778130B (zh) * | 2021-09-24 | 2022-04-15 | 南京航空航天大学 | 一种基于三维模型的无人机覆盖路径规划方法 |
CN115103134B (zh) * | 2022-06-17 | 2023-02-17 | 北京中科深智科技有限公司 | 一种led虚拟拍摄切割合成方法 |
CN115205485B (zh) * | 2022-06-30 | 2023-03-24 | 广州极点三维信息科技有限公司 | 基于包围盒的三维空间探测扩充方法、系统、装置及介质 |
CN116362425B (zh) * | 2023-06-01 | 2023-09-01 | 北京云航科技有限公司 | 一种基于人工影响天气机载探测资料分析可播区的方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1847896A1 (en) * | 2006-04-20 | 2007-10-24 | Saab Ab | Termination map for an aircraft |
CN103106687A (zh) * | 2013-02-01 | 2013-05-15 | 中国科学院自动化研究所 | 自适应视域范围内三维海洋网格的计算机生成方法及其装置 |
CN104075717A (zh) * | 2014-01-21 | 2014-10-01 | 武汉吉嘉伟业科技发展有限公司 | 一种基于改进a*算法的无人机航线规划算法 |
CN105427371A (zh) * | 2015-12-22 | 2016-03-23 | 中国电子科技集团公司第二十八研究所 | 一种三维透视投影场景中保持图形对象等像素面积显示的方法 |
-
2016
- 2016-06-17 CN CN201610440155.6A patent/CN106127853B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1847896A1 (en) * | 2006-04-20 | 2007-10-24 | Saab Ab | Termination map for an aircraft |
CN103106687A (zh) * | 2013-02-01 | 2013-05-15 | 中国科学院自动化研究所 | 自适应视域范围内三维海洋网格的计算机生成方法及其装置 |
CN104075717A (zh) * | 2014-01-21 | 2014-10-01 | 武汉吉嘉伟业科技发展有限公司 | 一种基于改进a*算法的无人机航线规划算法 |
CN105427371A (zh) * | 2015-12-22 | 2016-03-23 | 中国电子科技集团公司第二十八研究所 | 一种三维透视投影场景中保持图形对象等像素面积显示的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106127853A (zh) | 2016-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106127853B (zh) | 一种无人机探测范围分析方法 | |
CN106327573B (zh) | 一种针对城市建筑的实景三维建模方法 | |
US9430871B2 (en) | Method of generating three-dimensional (3D) models using ground based oblique imagery | |
CN107202982B (zh) | 一种基于无人机位姿计算的信标布置及图像处理方法 | |
US8243065B2 (en) | Image presentation method and apparatus for 3D navigation and mobile device including the apparatus | |
CN110111414A (zh) | 一种基于三维激光点云的正射影像生成方法 | |
US9330504B2 (en) | 3D building model construction tools | |
CN110135453A (zh) | 一种激光点云数据标注方法及装置 | |
CN104268145B (zh) | 一种复杂矢量数据的地图快速绘制方法 | |
US20090231327A1 (en) | Method for visualization of point cloud data | |
CN107329116B (zh) | 机载雷达三维运动场景显示方法 | |
CN110148217A (zh) | 一种实时三维重建方法、装置及设备 | |
CN104318605B (zh) | 矢量实线与三维地形的并行贴合渲染方法 | |
CN110516014A (zh) | 一种面向城市道路监控视频映射到二维地图的方法 | |
CN105006021A (zh) | 一种适用于快速点云三维重建的颜色映射方法及装置 | |
CN107247926B (zh) | 一种人体检测方法及装置 | |
CN102722349B (zh) | 一种基于地理信息系统的图像数据处理方法和系统 | |
CN110852952B (zh) | 一种基于gpu的大规模地形实时绘制方法 | |
CN104457735A (zh) | 基于World Wind的4D航迹显示方法 | |
CN109186552A (zh) | 一种图像采集装置的布点规范的方法和系统 | |
CN112132945B (zh) | 一种高清云渲染方法 | |
CN111681315A (zh) | 一种基于三维gis地图的高空与剖面标绘定位方法 | |
US20160098859A1 (en) | 3d map display system | |
RU2562368C1 (ru) | Способ трёхмерного (3d) картографирования | |
CN105427371B (zh) | 一种三维透视投影场景中保持图形对象等像素面积显示的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |