CN112414373A - 一种基于无人机、vr技术的自动解译方法 - Google Patents
一种基于无人机、vr技术的自动解译方法 Download PDFInfo
- Publication number
- CN112414373A CN112414373A CN202011333363.9A CN202011333363A CN112414373A CN 112414373 A CN112414373 A CN 112414373A CN 202011333363 A CN202011333363 A CN 202011333363A CN 112414373 A CN112414373 A CN 112414373A
- Authority
- CN
- China
- Prior art keywords
- image
- aerial vehicle
- unmanned aerial
- interpretation
- control point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
Abstract
本发明涉及一种基于无人机、VR技术的自动解译方法,包括下列步骤:步骤一、像控点布设、选刺与测量:步骤101、像控点布设;步骤102、像控点选刺;步骤103、像控点测量;步骤二、无人机图像采集:步骤201、正射用图像采集;步骤202、VR用图像采集;步骤三、无人机数据处理:步骤301、空三加密;步骤302、DEM、正射影像生成;步骤303、DOM色彩调整;步骤304、VR全景生成;步骤四、无人机航测影像解译:步骤401、影像分割;步骤402、影像分类;步骤403、解译结果修改;步骤404、合并;步骤五、环境变化量化提取:步骤501、提取数据;步骤502、计算。本方法步骤简单、实现方便、可操作性强,大幅度提高了影像解译效率,节约了成本,确保满足工程项目要求的解译精度。
Description
技术领域
本发明涉及一种自动解译方法,具体涉及无人机图像采集、VR全景图制作和影像自动解译。
背景技术
工程勘察阶段是高山峡谷区长距离带状组合建筑物设计中一项事关全局的总体性工作。随着我国长距离带状建筑物设计方法的发展与进步,工程地形地地貌勘察手法已经呈现多样化,勘察手段也在不断更新。
现如今,常见的解译方法主要有人工目视解译、人机交互解译、基于像元的遥感影像解译、面向对象的遥感影像解译等。在实际运用过程中,上述现有解译方法所存在的缺点分析如下:
第一、人工目视解译:专业人员在遥感图像中凭借个人经验,双目观察或者利用判读仪器辅助,进行指定目标地物类型信息的提取的过程,但是这种方法作业量大且耗费人力;
第二、人机交互解译:适用于地形较为复杂、地面物类之间破碎度较大的区域,它对影像质量要求比计算机自动解译低。但是这种方法作业效率较低,并且对属性和位置精度高、现势性强的辅助数据有依赖性,基于此提高人机交互解译的正确率;
第三、基于像元的遥感影像解译:此方法虽然能够利用先验知识来提高图像解译的效果,但没有办法能彻底的解决影像中“同物异谱、异物同谱”的现象,使得解译精度明显降低;
第四、面向对象的遥感影像解译:此方法充分利用已有的属性信息,帮助判別影像分类,减少了人工工作量以及对作业人员的经验依赖程度,有利于缩短工期。但该方法由于遥感影像的地物光谱特征一般比较复杂,分割方法与分类方法多,需要进行研究选择适当的方法,否则自动分类很难达到令人满意的判读精度。
综上,目前影像解译的方法很多,但各种方式都存在耗费人力物力等不同的缺陷。
发明内容
本发明所要解决的技术问题在于针对上述解译方法存在的缺陷,提供一种基于无人机、VR技术的自动解译方法,其方法可应用于工程全生命周期内对工程范围地物信息变化的量化提取,步骤简单、实现方便、可操作性强,大幅度提高了影像解译效率,节约了成本,而且能确保满足工程项目要求的解译精度。
步骤一、像控点布设、选刺与测量:
具体的处理过程如下:
步骤101、像控点布设:起降场地的高程以及位置坐标在实地得到,相邻航向上,平面以及高程控制点的间隔基线数由下式进行估算,航向跨度估算公式:
公式1:
公式2:
其中,mh为连接点的高程中误差,mq为单位权中误差,b为像片的基线长度,H为无人机相对航高,ms为其平面中误差,K为像片放大的倍数,n为航线方向相邻平面控制点的间隔基线数。
旁向的相邻平面控制点,参照规范选取航线跨度值,并且尽量不超过该值。
高程控制点在航线的两个端点、以及按照航线逐条均匀布设。
步骤102、像控点选刺:按照相邻的相片能够联测的标准,选择小于0.2mm的影像中的点状地物或清晰带状地物的交点的中心,其中高程点标记为G,平高点标记为P。如有像控点选刺位置与地面高度不一样的情况,则还要量测其与地面之间的比高。
步骤103、像控点测量:在测区范围内进行GPS-RTK动态观测,每一个像控点采集3次,取平均值,当出现误差较大的采集点时,需重新采集。
步骤二、无人机图像采集:
具体的处理过程如下:
步骤201、正射用图像采集:使用无人机飞控软件进行航线的设置。正射影像的无人机图像采集过程中需保证航向重叠度最佳在80%以上,最低不低于60%;旁向重叠度最佳在60%以上,最低不低于15%,以保证后期相片拼接能够满足要求,航向重叠度()与旁向重叠度(Py%)可通过公式1、公式2进行计算;航拍过程需保证云台始终垂直向下。
公式3:
公式4:
其中,ly、lx为相幅的边长,py、px为各重叠影像部分的边长。
步骤202、VR用图像采集:正射影像的无人机图像拍摄完成后,再沿原航线,进行VR全景的无人机图像采集。在地面上方50-100米定位水平悬停,水平方向以及向下方向环绕进行拍摄,最后垂直俯拍一张,拍摄过程中需保证图像重叠率最佳在25%以上。
步骤三、无人机数据处理:
具体的处理过程如下:
步骤301、空三加密:采用PhotoScan,设置POS参数,进行空中三角加密测量,加入像控点坐标,进行绝对定向,生成控制点精度后,进行适当调整,以保证精度达到要求。
步骤302、DEM、正射影像生成:利用Python的pyodm库,启动docker,连接Node,使用create_task函数新建任务生成DEM、DOM数据。
步骤303、DOM色彩调整:采用Photoshop对正射图像的亮度、对比度、色相饱和度、曲线、色阶等进行处理。
步骤304、VR全景生成:具体过程如下:
步骤3041、全景图制作:使用openCV的Stitcher_create()函数,利用python3.5编写代码,使图片自动进行图像迅速拼接。
步骤3042、导航图制作:使用Pano2VR进行导航图的制作,导入所有的全景图,利用之前做航线规划的图片,按照航线顺序在影像上对应位置添加节点标记,漫游节点按顺序选择对应的全景图。
步骤四、无人机航测影像解译:
具体的处理过程如下:
步骤401、影像分割:采用multiresolution segmentation算法,各波段层的权重均设置为1,结合具体要求,确定尺度值、形状权重,紧致度权重的最优值。
步骤402、影像分类:结合具体情况和具体要求,和指标的调查、量化难易程度,并由此将土地类型分为本工程建筑、交通道路、植被、耕地、正常水体、居民地、污染水体以及其他。经过波段加权以增强植被信息,利用MNDWI分离水体,修正卡尔森指数分离富营养化水体,公式5~7所示。
公式5:
Green=(1-a)×Bandnir+a×Bandgreen
公式6:
公式7:
TSIM(chla)=10*(2.46+ln(chla)/ln 2.5)
其中,a取0~1,为权重值。TSIM(chla)为修正卡尔松指数,chla为叶绿素a浓度。选择必要的分类特征,若没有则自己定义,地类设置不同的参数阈值进行区别。具有高程分布特点的地物,加入DEM值辅助分类。创建地物类别,选用分类器进行分类,手动选择相应样本,进行解译。
步骤403、解译结果修改:修改自动分类产生的混分、错分的地方,对于在影像上分辨不清(例如较细、浑浊的河流、林地类型较为模糊等)、需要野外核查的地方,使用制作好的VR全景图,通过导航图上选择坐标控制点查看当地全景图,对照进行分类结果核查校正。
步骤404、合并:合并分类结果并导出。
步骤五、环境变化量化提取:
具体的处理过程如下:
步骤501、提取数据:将不同时间所获取的区域范围内的自动解译结果中各类别所占面积提取为CSV格式。
步骤502、计算:利用python编码,提取csv文件中的时间、类别以及面积,进行环境变化量化计算,具体公式如下:
公式8:
其中,i为第i时期自动解译结果,j为自动解译结果的类别,S为解译结果面积。
上述一种基于无人机、VR技术的自动解译方法:
步骤三:运用Python快速进行多张VR全景图的生成;
步骤四:通过运用VR技术,充分利用了无人机数据成果,降低野外成果校正的成本,极大提高了解译结果核查校正效率;
步骤五:利用python快速获得工程区域环境变化情况。
本发明与现有技术相比具有以下优点:
1、成本低、安全性高、运用无人机代替作业人员长时间野外实地测绘,提高工作效率。
2、无人机数据可生成DEM、DOM以及VR全景,数据成果运用程度高。
3、采用VR全景图进行解译成果校正,解译结果更具有可靠性。
4、相比购买商业卫星数据,运用无人机生成正射影像,节约了成本。
5、针对带状建筑物全生命周期的环境影响分析进行解译类型分类,对环境影响的实际发生情况与预测成果进行复核,用来检验环保设计是否合理具有重要意义。
综上所述,本发明方法步骤简单、实现方便、可操作性强,大幅度提高了无人机影像解译效率,节约了成本,而且能确保满足工程解译精度要求。
附图说明
图1为本发明的总体方案示意图。
图2为本发明进行无人机航摄像控点布置图。
图3为本发明所需保证的重叠度计算示意图。
图4为本发明进行无人机VR全景图拍摄示意图。
图5为本发明实现过程中DEM数据模型样例。
图6为本发明实现过程中VR全景图样例。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
一种基于无人机、VR技术的自动解译方法,总体示意图如图1所示,主要包括以下步骤:
步骤一、工程勘测区域像控点布设、选刺与测量:在实地获取起降场地的位置坐标以及高程,相邻航向的平面以及高程控制点、旁向的相邻平面控制点参考公式1、2及表1进行设置如图2所示,高程控制点在航线的两个端点、以及按照航线逐条均匀布设。在测区范围内进行GPS-RTK动态观测,每一个像控点采集3次,取平均值,当出现误差较大的采集点时,需重新采集。
步骤二、无人机航摄图像采集:结合图3,采集过程中航向重叠度为80%,旁向重叠度为60%。航向重叠度指的是航摄时,无人机飞行过程中沿航线方向拍得的图像之间重叠区域所占图片大小的比例;旁向重叠度指的是航摄过程中,两航线之间所拍摄的图像之间的重叠区域所占单张图片大小的比例。无人机的航线规划,首先要设置飞行高度,需要的航摄范围在地图中进行标记,无人机会根据重叠度要求按照设定的航线进行图像采集。图像采集过程中应保证航摄像机镜头保持90°朝下,与航线相垂直。飞行高度为以起飞点位置为基点,飞机飞行位置与基点的垂直距离;航摄区域是指包含工程区域、监测布控点在内的区域,本实施例中,无人机飞行高度为50m。结合图4,正射影像的无人机图像拍摄完成后,再沿原航线,进行VR全景的无人机图像采集,在地面上方50-120米定位水平悬停,水平方向以及向下30°、60°方向环绕拍摄各8张,垂直俯拍一张,共25张影像。拍摄过程中保证图像重叠率在25%。
步骤三、无人机数据处理:结合图5,进行空中三角加密测量,对所有原始像片进行相对定向,加入像控点坐标,进行绝对定向,生成控制点精度后,人工进行调整以保证精度达到要求。利用Python的pyodm库,启动docker,连接Node,使用create_task函数新建任务生成DEM、DOM数据。采用Photoshop对正射图像的亮度、对比度、色相饱和度、曲线、色阶等进行处理。
结合图6,使用openCV的Stitcher_create()函数在python上进行图像拼接,使用Pano2VR进行导航图的制作,导入所有的全景图,利用之前做航线规划的图片,按照航线顺序在影像上对应位置添加节点标记,漫游节点按顺序选择对应的全景图。
步骤四、无人机航测影像解译:采用multiresolution segmentation算法,各波段层的权重均设置为1,通过多次实验后作业人员的主观经验,确定scale为120、shapeweight为0.3,compactness weight为0.5。创建地物类别本工程建筑、交通道路、植被、耕地、正常水体、居民地、污染水体、其他等,选择分类参数,用分类器进行分类,设置相应训练样本,进行计算机解译。使用VR全景图,对解译成果手动修改自动分类产生的混分、错分的地方,在影像上分辨不清、需要野外核查的地方,通过导航图上选择坐标控制点查看当地全景图,对照进行分类结果核查校正。
步骤五、环境变化量化提取:提取不同时期解译结果生成CSV文件,在python进行环境变化值的计算。
以上所述的仅是本发明的较佳实施例(由于本发明的技术方案涉及数值范围,故实施例不能穷举,本发明所记载的保护范围以本发明的数值范围和其他技术要点范围为准),方案中公知的具体内容或常识在此未作过多描述。应当指出,上述实施例不以任何方式限制本发明,对于本领域的技术人员来说,凡是采用等同替换或等效变换的方式获得的技术方案均落在本发明的保护范围内。本申请要求的保护范围应当以其权利要求的内容为准,说明书中的具体实施方式等记载可以用于解释权利要求的内容。
Claims (10)
1.一种基于无人机、VR技术的自动解译方法,其特征在于,包括下列步骤:
步骤一、像控点布设、选刺与测量:步骤101、像控点布设;步骤102、像控点选刺;步骤103、像控点测量;
步骤二、无人机图像采集:步骤201、正射用图像采集;步骤202、VR用图像采集;
步骤三、无人机数据处理:步骤301、空三加密;步骤302、DEM、正射影像生成;步骤303、DOM色彩调整;步骤304、VR全景生成;
步骤四、无人机航测影像解译:步骤401、影像分割;步骤402、影像分类;步骤403、解译结果修改;步骤404、合并;
步骤五、环境变化量化提取:步骤501、提取数据;步骤502、计算。
2.根据权利要求1所述的基于无人机、VR技术的自动解译方法,其特征在于,步骤三、无人机数据处理步骤包括多张VR全景图的生成。
4.根据权利要求1所述的基于无人机、VR技术的自动解译方法,其特征在于,步骤一、像控点布设、选刺与测量:包括以下具体的处理过程如下:
步骤102、像控点选刺:按照相邻的相片能够联测的标准,选择小于0.2mm的影像中的点状地物或清晰带状地物的交点的中心,其中高程点标记为G,平高点标记为P;如有像控点选刺位置与地面高度不一样的情况,则还要量测其与地面之间的比高;
步骤103、像控点测量:在测区范围内进行GPS-RTK动态观测,每一个像控点采集3次,取平均值。
5.根据权利要求1所述的基于无人机、VR技术的自动解译方法,其特征在于,步骤二、无人机图像采集:包括以下具体的处理过程如下:
步骤201、正射用图像采集:使用无人机飞控软件进行航线的设置;
正射影像的无人机图像采集过程中保证航向重叠度最低不低于60%;旁向重叠度最低不低于15%;
航向重叠度()与旁向重叠度(Py%)通过公式1、公式2进行计算;航拍过程需保证云台始终垂直向下;
公式3:
公式4:
其中,ly、lx为相幅的边长,py、px为各重叠影像部分的边长;
步骤202、VR用图像采集:正射影像的无人机图像拍摄完成后,再沿原航线,进行VR全景的无人机图像采集;在地面上方50-100米定位水平悬停,水平方向以及向下方向环绕进行拍摄,最后垂直俯拍一张,拍摄过程中保证图像重叠率最佳在25%以上。
6.根据权利要求1所述的基于无人机、VR技术的自动解译方法,其特征在于,步骤二、无人机图像采集:包括以下具体的处理过程如下:
正射影像的无人机图像采集过程中保证航向重叠度在80%以上;旁向重叠度在60%以上。
7.根据权利要求1所述的基于无人机、VR技术的自动解译方法,其特征在于,步骤三、无人机数据处理:包括以下具体的处理过程如下:
步骤301、空三加密:采用PhotoScan,设置POS参数,进行空中三角加密测量,加入像控点坐标,进行绝对定向,生成控制点精度后,进行适当调整,以保证精度达到要求;
步骤302、DEM、正射影像生成:利用Python的pyodm库,启动docker,连接Node,使用create_task函数新建任务生成DEM、DOM数据;
步骤303、DOM色彩调整:采用Photoshop对正射图像的亮度、对比度、色相饱和度、曲线、色阶等进行处理;
步骤304、VR全景生成。
8.根据权利要求7所述的基于无人机、VR技术的自动解译方法,其特征在于,步骤三、无人机数据处理:步骤304、VR全景生成:包括以下具体过程如下:
步骤3041、全景图制作:使用openCV的Stitcher_create()函数,利用python3.5编写代码,使图片自动进行图像迅速拼接;
步骤3042、导航图制作:使用Pano2VR进行导航图的制作,导入所有的全景图,利用之前做航线规划的图片,按照航线顺序在影像上对应位置添加节点标记,漫游节点按顺序选择对应的全景图。
9.根据权利要求1所述的基于无人机、VR技术的自动解译方法,其特征在于,步骤四、无人机航测影像解译:包括以下具体的处理过程如下:
步骤401、影像分割:采用multiresolution segmentation算法,各波段层的权重均设置为1,结合具体要求,确定尺度值、形状权重,紧致度权重的最优值;
步骤402、影像分类:结合具体情况和具体要求,和指标的调查、量化难易程度,并由此将土地类型分为本工程建筑、交通道路、植被、耕地、正常水体、居民地、污染水体以及其他;经过波段加权以增强植被信息,利用MNDWI分离水体,修正卡尔森指数分离富营养化水体,公式5~7所示:
公式5:
Green=(1-a)×Bandnir+a×Bandgreen
公式6:
公式7:
TSIM(chla)=10*(2.46+ln(chla)/ln2.5)
其中,a取0~1,为权重值;TSIM(chla)为修正卡尔松指数,chla为叶绿素a浓度;选择必要的分类特征,若没有则自己定义,地类设置不同的参数阈值进行区别;具有高程分布特点的地物,加入DEM值辅助分类;创建地物类别,选用分类器进行分类,手动选择相应样本,进行解译;
步骤403、解译结果修改:修改自动分类产生的混分、错分的地方,对于在影像上分辨不清、需要野外核查的地方,使用制作好的VR全景图,通过导航图上选择坐标控制点查看当地全景图,对照进行分类结果核查校正;
步骤404、合并:合并分类结果并导出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011333363.9A CN112414373A (zh) | 2020-11-24 | 2020-11-24 | 一种基于无人机、vr技术的自动解译方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011333363.9A CN112414373A (zh) | 2020-11-24 | 2020-11-24 | 一种基于无人机、vr技术的自动解译方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112414373A true CN112414373A (zh) | 2021-02-26 |
Family
ID=74778811
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011333363.9A Pending CN112414373A (zh) | 2020-11-24 | 2020-11-24 | 一种基于无人机、vr技术的自动解译方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112414373A (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103196838A (zh) * | 2013-03-15 | 2013-07-10 | 辽宁师范大学 | 一种海岸河口富营养化高光谱遥感监测方法 |
CN103793907A (zh) * | 2013-12-12 | 2014-05-14 | 中国科学院深圳先进技术研究院 | 一种水体信息的提取方法及装置 |
CN105282438A (zh) * | 2015-09-18 | 2016-01-27 | 贵州省第二测绘院 | 一种辅助地理国情解译与核查的全景照片采集方法 |
CN106488139A (zh) * | 2016-12-27 | 2017-03-08 | 深圳市道通智能航空技术有限公司 | 一种无人机拍摄的图像补偿方法、装置及无人机 |
CN107990877A (zh) * | 2017-12-06 | 2018-05-04 | 华中师范大学 | 一种基于互联网的无人机遥感解译外业调查系统及方法 |
CN108764205A (zh) * | 2018-06-07 | 2018-11-06 | 青岛捷利达地理信息集团有限公司 | 基于无人机低空航摄系统进行城市市政普查的方法 |
CN109697475A (zh) * | 2019-01-17 | 2019-04-30 | 中国地质大学(北京) | 一种湿地植被信息分析方法、遥感监测组件及监测方法 |
CN109829425A (zh) * | 2019-01-31 | 2019-05-31 | 沈阳农业大学 | 一种农田景观小尺度地物分类方法及系统 |
CN209879453U (zh) * | 2019-05-23 | 2019-12-31 | 马鞍山市雷铭网络科技有限公司 | 一种三维全景vr无人机采集数据管理系统 |
CN110949682A (zh) * | 2019-12-13 | 2020-04-03 | 集美大学 | 一种室内建模无人机和基于vr摄影的室内建模方法 |
AU2020101435A4 (en) * | 2020-07-21 | 2020-08-27 | Southwest University | A panoramic vision system based on the uav platform |
-
2020
- 2020-11-24 CN CN202011333363.9A patent/CN112414373A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103196838A (zh) * | 2013-03-15 | 2013-07-10 | 辽宁师范大学 | 一种海岸河口富营养化高光谱遥感监测方法 |
CN103793907A (zh) * | 2013-12-12 | 2014-05-14 | 中国科学院深圳先进技术研究院 | 一种水体信息的提取方法及装置 |
CN105282438A (zh) * | 2015-09-18 | 2016-01-27 | 贵州省第二测绘院 | 一种辅助地理国情解译与核查的全景照片采集方法 |
CN106488139A (zh) * | 2016-12-27 | 2017-03-08 | 深圳市道通智能航空技术有限公司 | 一种无人机拍摄的图像补偿方法、装置及无人机 |
CN107990877A (zh) * | 2017-12-06 | 2018-05-04 | 华中师范大学 | 一种基于互联网的无人机遥感解译外业调查系统及方法 |
CN108764205A (zh) * | 2018-06-07 | 2018-11-06 | 青岛捷利达地理信息集团有限公司 | 基于无人机低空航摄系统进行城市市政普查的方法 |
CN109697475A (zh) * | 2019-01-17 | 2019-04-30 | 中国地质大学(北京) | 一种湿地植被信息分析方法、遥感监测组件及监测方法 |
CN109829425A (zh) * | 2019-01-31 | 2019-05-31 | 沈阳农业大学 | 一种农田景观小尺度地物分类方法及系统 |
CN209879453U (zh) * | 2019-05-23 | 2019-12-31 | 马鞍山市雷铭网络科技有限公司 | 一种三维全景vr无人机采集数据管理系统 |
CN110949682A (zh) * | 2019-12-13 | 2020-04-03 | 集美大学 | 一种室内建模无人机和基于vr摄影的室内建模方法 |
AU2020101435A4 (en) * | 2020-07-21 | 2020-08-27 | Southwest University | A panoramic vision system based on the uav platform |
Non-Patent Citations (6)
Title |
---|
吴国青: "DPGRID处理无人机数据的生产实践", 《科技视界》 * |
张伟: "基于植被指数的多光谱影像真彩色合成方法", 《测绘与空间地理信息》 * |
梁礼绘 等: "基于无人机的自动解译和地学分析技术研究", 《地下空间与工程学报》 * |
王彩艳 等: "基于面向对象的海岸带土地利用信息提取研究", 《自然资源学报》 * |
王征强: "利用QuickBird红外波段影像交替式植被信息增强的方法", 《测绘技术装备》 * |
竞霞 等: "采用IRS-P6遥感数据监测密云水库水质及评价营养状况", 《农业工程学报》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111540048B (zh) | 一种基于空地融合的精细化实景三维建模方法 | |
Gini et al. | Aerial images from an UAV system: 3D modeling and tree species classification in a park area | |
CN111597666B (zh) | 一种将bim应用到变电站建设过程的方法 | |
CN110689563A (zh) | 一种用于提取遥感图像中违法建筑信息的数据处理方法 | |
CN109556569B (zh) | 地形图测绘方法及装置 | |
Raczynski | Accuracy analysis of products obtained from UAV-borne photogrammetry influenced by various flight parameters | |
CN106403904A (zh) | 一种基于无人机的景观尺度植被覆盖度的计算方法及系统 | |
CN112833861A (zh) | 一种基于倾斜摄影大比例尺地形图的测绘方法和测绘系统 | |
CN104933223A (zh) | 一种输电线路通道数字化测绘方法 | |
JP3776591B2 (ja) | 地図情報更新方法および装置 | |
Zietara | Creating Digital Elevation Model (DEM) based on ground points extracted from classified aerial images obtained from Unmanned Aerial Vehicle (UAV) | |
CN117557931B (zh) | 一种基于三维场景的表计最优巡检点的规划方法 | |
CN113610040B (zh) | 一种基于改进BiSeNetV2分割网络的水稻田杂草密度实时统计方法 | |
CN108195359A (zh) | 空间数据的采集方法及系统 | |
CN112414373A (zh) | 一种基于无人机、vr技术的自动解译方法 | |
CN115760885A (zh) | 基于消费级无人机影像的高郁闭度湿地森林参数提取方法 | |
Çömert et al. | Detection of collapsed building from unmanned aerial vehicle data with object based image classification | |
CN113418510A (zh) | 一种基于多旋翼无人机的高标准农田验收方法 | |
Klapa et al. | Charting topographic maps based on UAV data using the image classification method | |
CN115830474A (zh) | 一种识别野生藏药独一味及其分布并计算其产量的方法与系统 | |
CN113762931A (zh) | 一种基于dsm和dom的监测违法建筑的方法 | |
CN115700777A (zh) | 一种基于无人机和数字地表模型的公路施工阶段预测方法 | |
CN113378700A (zh) | 基于无人机航拍影像的草原鼠害动态监测方法 | |
Gu et al. | Surveying and mapping of large-scale 3D digital topographic map based on oblique photography technology | |
Santillan et al. | Effects of flight plan parameters on the quality and usability of low-cost UAS photogrammetry data products for tree crown delineation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210226 |