CN110097498B - 基于无人机航迹约束的多航带图像拼接与定位方法 - Google Patents
基于无人机航迹约束的多航带图像拼接与定位方法 Download PDFInfo
- Publication number
- CN110097498B CN110097498B CN201910072182.6A CN201910072182A CN110097498B CN 110097498 B CN110097498 B CN 110097498B CN 201910072182 A CN201910072182 A CN 201910072182A CN 110097498 B CN110097498 B CN 110097498B
- Authority
- CN
- China
- Prior art keywords
- image
- splicing
- flight
- images
- key frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4038—Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明涉及计算机图像处理与地图测绘领域,具体为一种基于多旋翼无人机航迹约束的多航带视频图像拼接与定位方法,主要用于提高航带间图像的拼接质量和全景图的定位精度;本发明首先对航拍视频中所有图像的GPS信息进行处理,得到航迹信息,然后对待拼接图像进行一系列图像处理操作,求得单应性矩阵,利用该矩阵将待拼接图像映射到拼接图中,最后利用图像与GPS信息一一对应的关系,实现GPS定位功能。该发明能有效改善多条航带平行情况下的图像拼接效果,得到的拼接结果能真实反映出无人机飞行过程中拍摄过的所有景物信息,另外,结合飞行过程中采集的GPS信息,该发明能定位出拼接结果中每个像素点的GPS坐标,定位误差不超过10m。
Description
技术领域
本发明涉及计算机图像处理与地图测绘领域,具体为基于多旋翼无人机航迹约束的多航带视频图像拼接与定位方法,主要用于提高航带间图像的拼接质量和全景图的定位精度。
背景技术
多旋翼无人机凭借其机动灵活的起降方式、低空循迹的自主飞行特点以及快速响应和稳定飞行的能力已被广泛应用于抗灾救灾、军事侦察、农作物病害检测、环境保护等测绘技术领域。其中大多数需求都直接表现为得到飞行作业区全景图及图中各点的GPS信息。
目前无人机航拍图像拼接方法主要为基于图像特征的拼接方法,该方法对单航带图像的拼接效果比较理想,但多航带拼接时常出现两条甚至多条航带相互交叉,重叠等情况;传统的无人机图像定位方法主要通过一帧图像的中心点GPS,利用地面分辨率与比例尺递推出该帧图像中其他各点的GPS信息,但这种方法计算每帧图像的分辨率、比例尺时会出现误差,而且整体误差会随拼接过程逐渐累积。
如何提高多条航带拼接图像的质量和全景图的定位精度是亟需解决的难题。
发明内容
本发明所要解决的技术问题是,提供一种能够提高航带间图像拼接质量和全景图定位精度的方法,该方法适用于多旋翼无人机航带平行的飞行任务。
为实现上述目的,本发明采用的技术方案为:
基于无人机航迹约束的多航带图像拼接与定位方法,其特征在于,包括以下步骤:
步骤1、数据预处理
读取视频中所有图像的GPS坐标信息,将其转换为UTM坐标之后存入数据容器utmDat a,从第1帧图像开始,计算前后两帧图像的UTM坐标差值,依次为U1,U2,...,UK-1,并令 UK=UK-1,并将所有坐标差值存入数据容器utmDelta中;K为视频中图像总帧数;
对utmDelta中的数据做二值化处理:令悬停处的UTM坐标差值为0,进而将视频中所有图像划分为M条航带;
步骤2、第1条航带拼接
步骤2-1、图像预处理,对每帧视频图像进行灰度化,
步骤2-2、对预处理后图像进行关键帧筛选,得到K1个关键帧图像;
步骤2-3、图像特征提取
对步骤2-1中得到的每个关键帧图像用SURF算子检测图像特征得到特征点集,并采用B RISK特征描述子对特征点计算生成特征描述向量;
步骤2-4、图像特征匹配
1)对第1条航带的第k-1个关键帧f1,k-1与第1条航带的第k个关键帧f1,k的特征描述向量进行BF匹配得到初始匹配结果,
2)找到初始匹配结果中相似距离的最小值Tmin,据其设置阈值4*Tmin,将匹配结果ma tches中相似距离大于该阈值的匹配对剔除;得到最佳匹配点对集;
3)根据最佳匹配点对集,采用Opencv函数计算得透视变换单应性矩阵H1,k-1:
步骤2-5、图像拼接
计算第1条航带的第k个关键帧相对于第一帧的单应性矩阵H1,k=H1,k-1*H1,k-2*,...,*H1,0;
将第1条航带的第k个关键帧图像的四个角点的坐标通过矩阵H1,k变换为新坐标,然后将待拼接图像f1,k更新到全景图的对应位置;并将已拼接图像的像素中心在拼接图像中的位置信息存入数据容器pixelData中,并将该帧图像于数据容器utmData中的UTM坐标值存入数据容器utmInfo;
步骤3、第m,m=2,...,M条航带拼接
步骤3-1、按照步骤2-1到步骤2-4相同处理过程,得到第m条航带的第k个关键帧的透视变换单应性矩阵Hm,k-1;并利用Hm,k-1得到待拼接图像fm,k的像素中心点位(x,y);
步骤3-2、计算第1条航带的斜率,定义为r;从pixelData容器中取出最后一个位置的坐标点作为第m条航带的起始点,定义为(x0,y0),由如下公式计算(x,y)与目标航迹间水平方向的差值x_dst:
再利用x_dst与r可以计算出偏移向量ΔS:
步骤3-4、图像拼接
将第m条航带的第k个关键帧的四个角点的坐标通过Hm,k变换为新坐标,然后将待拼接图像fm,k更新到全景图的对应位置;并将已拼接图像的像素中心在拼接图像中的位置信息存入数据容器pixelData中,并将该帧图像于数据容器utmData中的UTM坐标值存入数据容器ut mInfo;
步骤4、全景图任意点GPS定位
拼接完成后,为了提高定位精度,回避了成像的空间几何过程,直接对图像变形进行数学模拟,具体步骤如下:
步骤4-1、数据容器utmInfo中的坐标点与数据容器pixelData中的像素点为一一对应关系,构成匹配点对,利用Opencv函数estimateRigidTransform计算出容器间的映射矩阵;
步骤4-2、已拼接完成全景图中任意点的像素点坐标根据步骤4-1中的映射矩阵计算得到对应的UTM坐标,再转换为GPS坐标,进而实现GPS定位。
本发明的有益效果在于:
本发明提供一种基于无人机航迹约束的多航带图像拼接与定位方法,本发明将无人机航迹作为约束提高了航带间图像的拼接质量,通过航带平行关系约束第m(m>1)条航带的拼接进程,降低了仅靠图像特征拼接带来的累积误差;另外通过求出图像中心点坐标与对应GPS之间的映射关系提高了全景图的定位精度;本发明有效提高了多条平行航带之间图像的拼接质量和全景图的定位精度。
附图说明
图1为本发明实施例中UTM坐标差值信息。
图2为本发明实施例中处理后差值信息及悬停点。
图3为本发明实施例中仅依赖图像特征的拼接结果图。
图4为本发明实施例中航迹约束的拼接结果图。
具体实施方式
下面结合附图和实施例对本发明做进一步详细说明。
本实施例提供一种基于无人机航迹约束的多航带图像拼接与定位方法,能够提高航带间图像的拼接质量和全景图的定位精度,包括图像预处理,关键帧选取、图像特征提取,图像特征匹配,航迹约束,全景图任意点GPS定位六个步骤;具体步骤如下:
步骤1、数据预处理
首先在开始拼接之前,读取视频中所有图像的GPS坐标信息,将其转换为UTM坐标之后存入数据容器utmData,从第1帧图像开始,计算前后两帧图像的UTM坐标差值,依次为U1,U2,...,UK-1,并令UK=UK-1(保持数量与视频总帧数相等,使坐标差值与视频帧一一对应),并将所有坐标差值存入数据容器utmDelta中;K为视频中图像总帧数;
对utmDelta中的数据做二值化处理:令悬停处的UTM坐标差值为0,其他为max=25,结果如图2所示,并将UTM坐标差值为0所对应的帧编号存储至数据容器susPos,如图2所示,进而将长段不为0的区间定义为第m,m=1,2,...,M条航带,其中,M为飞行期间的总航带数;
步骤2、第1条航带拼接
步骤2-1、图像预处理
灰度化:将彩色图像的RGB三个分量以对应的权值进行加权平均,本实施例中,按下式对RGB三分量进行加权平均能得到较合理的灰度图像:
f(i,j)=0.30R(i,j)+0.59G(i,j)+0.11B(i,j);
步骤2-2、关键帧选取
利用帧平均法去除内容重复度高的视频帧,保留重复度满足预设阈值的关键帧;具体实现如下:
利用距离的二范数公式来判断待拼接图像帧,保留满足阈值T的关键帧,定义为f1,k表示第1条航带中第k个关键帧,k=1,2,...,K1,K1为第1条航带中关键帧的总数,作为下一步骤的输入,公式如下:
步骤2-3、图像特征提取
SURF采用近似Hessian矩阵检测特征点,并使用积分图像进行卷积运算,减少运算从而提高特征提取速度;BRISK二进制描述符通过特征点周围像素点对简单的强度对比直接产生二进制比特串,计算特征点之间的相似距离简单有效,占用内存少。
本步骤主要借助开源的计算机视觉库Opencv,利用该库封装好的surf特征点检测算子,将关键帧f1,k-1作为输入,输出得到该帧图像所包含的特征点集,定义为keypoints_last;同样利用该库中的brisk特征点描述符,将该图的特征点集keypoints_last作为输入,输出得到对所有特征点的描述向量,定义为descriptors_last;读取下一个关键帧f1,k作为输入,重复上述过程,得到特征点集和相应的特征描述向量,分别定义为keypoints_cur和descriptors_cur;至此,我们计算出了前一帧图像与后一帧图像各自的特征点集与特征描述向量,为下一步的图像特征匹配做准备;
步骤2-4、图像特征匹配
通过以下步骤进行匹配,并对匹配结果计算得到单应性矩阵:
1)BRISK描述符是1和0组成的二进制比特串,这里采用汉明距离(异或操作)可以实现其高速的匹配,效率突出:对步骤3中得到的前后帧特征描述向量进行BF匹配得到初始匹配结果,即利用Opencv函数BFMatcher,将步骤3的结果descriptors_last与descriptors_cur 作为输入,计算得到匹配点对,定义为matches,该变量包含匹配点对之间的相似距离;
2)找到初始匹配结果matches中相似距离的最小值Tmin,据其设置阈值4*Tmin,将匹配点对的相似距离大于该阈值的匹配对剔除;通过该方法可以删除步骤4-1中初始匹配结果中的异常匹配值,获得稳定的、精度高的最佳匹配点对集,定义为matches_good;
3)将步骤4-2的最终匹配结果中特征描述向量对应的特征点集matches_good作为输入,利用Opencv函数estimateRigidTransform求出透视变换单应性矩阵H1,k-1,其中的参数表示如下:
步骤2-5、图像拼接
根据如下公式计算出第k帧相对于第一帧的单应性矩阵H1,k=H1,k-1*H1,k-2*,...,*H1,0;
将第k帧的四个角点的坐标通过单应性矩阵H1,k变换为新坐标,然后将待拼接图像f1,k更新到全景图的对应位置;并将已拼接图像的像素中心在拼接图像中的位置信息存入数据容器 pixelData中,并将该帧图像于数据容器utmData中的UTM坐标值存入数据容器utmInfo;
步骤3、第m,m=2,...,M条航带拼接
本发明中约定悬停过程中不进行航迹约束,当拼接完第一条航带后,通过第1条航带的运动轨迹对第m,m=2,...,M条航带拼接过程进行约束,针对第m条航带,具体步骤如下:
步骤3-1、按照步骤2-1到步骤2-4相同处理过程,得到第m条航带的第k个关键帧的透视变换单应性矩阵Hm,k-1;并利用Hm,k-1得到待拼接图像fm,k的像素中心点位(x,y);
步骤3-2、计算第1条航带的斜率,定义为r;从pixelData容器中取出最后一个位置的坐标点作为第m条航带的起始点,定义为(x0,y0),由如下公式计算(x,y)与目标航迹间水平方向的差值x_dst:
再利用x_dst与r可以计算出偏移向量ΔS:
步骤3-4、图像拼接
将第m条航带的第k个关键帧的四个角点的坐标通过Hm,k变换为新坐标,然后将待拼接图像fm,k更新到全景图的对应位置;并将已拼接图像的像素中心在拼接图像中的位置信息存入数据容器pixelData中,并将该帧图像于数据容器utmData中的UTM坐标值存入数据容器ut mInfo;
步骤4、全景图任意点GPS定位
拼接完成后,为了提高定位精度,回避了成像的空间几何过程,直接对图像变形进行数学模拟,具体步骤如下:
步骤4-1、数据容器utmInfo中的坐标点与数据容器pixelData中的像素点为一一对应,构成匹配点对,利用Opencv函数estimateRigidTransform计算出容器间的映射矩阵;
步骤4-2、已拼接完成全景图中任意点的像素点坐标根据步骤4-1中的映射矩阵计算得到对应的UTM坐标,再转换为GPS坐标,进而实现GPS定位。
以上所述,仅为本发明的具体实施方式,本说明书中所公开的任一特征,除非特别叙述,均可被其他等效或具有类似目的的替代特征加以替换;所公开的所有特征、或所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以任何方式组合。
Claims (1)
1.基于无人机航迹约束的多航带图像拼接与定位方法,其特征在于,包括以下步骤:
步骤1、数据预处理
读取视频中所有图像的GPS坐标信息,将其转换为UTM坐标之后存入数据容器utmData,从第1帧图像开始,计算前后两帧图像的UTM坐标差值,依次为U1,U2,...,UK-1,并令UK=UK-1,并将所有坐标差值存入数据容器utmDelta中;K为视频中图像总帧数;
对utmDelta中的数据做二值化处理:令悬停处的UTM坐标差值为0,进而将视频中所有图像划分为M条航带;
步骤2、第1条航带拼接
步骤2-1、图像预处理,对每帧视频图像进行灰度化,
步骤2-2、对预处理后图像进行关键帧筛选,得到K1个关键帧图像;
步骤2-3、图像特征提取,对步骤2-1中得到的每个关键帧图像用SURF算子检测图像特征得到特征点集,并采用BRISK特征描述子对特征点计算生成特征描述向量;
步骤2-4、对第1条航带的第k-1个关键帧f1,k-1与第1条航带的第k个关键帧f1,k的特征描述向量进行图像特征匹配,并对匹配结果计算得到透视变换单应性矩阵H1,k-1;具体为:
1)对第1条航带的第k-1个关键帧f1,k-1与第1条航带的第k个关键帧f1,k的特征描述向量进行BF匹配得到初始匹配结果,
2)找到初始匹配结果中相似距离的最小值Tmin,据其设置阈值4*Tmin,将匹配结果matches中相似距离大于该阈值的匹配对剔除;得到最佳匹配点对集;
3)根据最佳匹配点对集,采用Opencv函数计算得透视变换单应性矩阵H1,k-1;
步骤2-5、图像拼接
计算第1条航带的第k个关键帧相对于第一帧的单应性矩阵H1,k=H1,k-1*H1,k-2*,...,*H1,0;
将第1条航带的第k个关键帧图像的四个角点的坐标通过矩阵H1,k变换为新坐标,然后将待拼接图像f1,k更新到全景图的对应位置;并将已拼接图像的像素中心在拼接图像中的位置信息存入数据容器pixelData中,并将该帧图像于数据容器utmData中的UTM坐标值存入数据容器utmInfo;
步骤3、第m,m=2,...,M条航带拼接
步骤3-1、按照步骤2-1到步骤2-4相同处理过程,得到第m条航带的第k个关键帧的透视变换单应性矩阵Hm,k-1;并利用Hm,k-1得到待拼接图像fm,k的像素中心点位(x,y);
步骤3-2、计算第1条航带的斜率,定义为r;从pixelData容器中取出最后一个位置的坐标点作为第m条航带的起始点,定义为(x0,y0),由如下公式计算(x,y)与目标航迹间水平方向的差值x_dst:
再利用x_dst与r可以计算出偏移向量ΔS:
步骤3-4、图像拼接
将第m条航带的第k个关键帧的四个角点的坐标通过Hm,k变换为新坐标,然后将待拼接图像fm,k更新到全景图的对应位置;并将已拼接图像的像素中心在拼接图像中的位置信息存入数据容器pixelData中,并将该帧图像于数据容器utmData中的UTM坐标值存入数据容器utmInfo;
步骤4、全景图任意点GPS定位
拼接完成后,为了提高定位精度,回避了成像的空间几何过程,直接对图像变形进行数学模拟,具体步骤如下:
步骤4-1、数据容器utmInfo中的坐标点与数据容器pixelData中的像素点为一一对应,构成匹配点对,利用Opencv函数estimateRigidTransform计算出容器间的映射矩阵;
步骤4-2、已拼接完成全景图中任意点的像素点坐标根据步骤4-1中的映射矩阵计算得到对应的UTM坐标,再转换为GPS坐标,进而实现GPS定位。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910072182.6A CN110097498B (zh) | 2019-01-25 | 2019-01-25 | 基于无人机航迹约束的多航带图像拼接与定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910072182.6A CN110097498B (zh) | 2019-01-25 | 2019-01-25 | 基于无人机航迹约束的多航带图像拼接与定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110097498A CN110097498A (zh) | 2019-08-06 |
CN110097498B true CN110097498B (zh) | 2023-03-31 |
Family
ID=67443758
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910072182.6A Active CN110097498B (zh) | 2019-01-25 | 2019-01-25 | 基于无人机航迹约束的多航带图像拼接与定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110097498B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110648283B (zh) * | 2019-11-27 | 2020-03-20 | 成都纵横大鹏无人机科技有限公司 | 图像拼接方法、装置、电子设备和计算机可读存储介质 |
CN111582022B (zh) * | 2020-03-26 | 2023-08-29 | 深圳大学 | 一种移动视频与地理场景的融合方法、系统及电子设备 |
CN111461986B (zh) * | 2020-04-01 | 2023-11-03 | 深圳市科卫泰实业发展有限公司 | 一种无人机夜间实时二维图像拼接方法 |
CN111507901B (zh) * | 2020-04-15 | 2023-08-15 | 中国电子科技集团公司第五十四研究所 | 基于航带gps及尺度不变约束的航拍图像拼接定位方法 |
CN112949736B (zh) * | 2021-03-15 | 2023-07-21 | 浙江中控技术股份有限公司 | 一种特征匹配方法及相关设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2996088A1 (en) * | 2014-09-10 | 2016-03-16 | My Virtual Reality Software AS | Method for visualising surface data together with panorama image data of the same surrounding |
CN107507132A (zh) * | 2017-09-12 | 2017-12-22 | 成都纵横自动化技术有限公司 | 一种无人机航摄影像的实时拼接方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008150153A1 (en) * | 2007-06-08 | 2008-12-11 | Tele Atlas B.V. | Method of and apparatus for producing a multi-viewpoint panorama |
CN102201115B (zh) * | 2011-04-07 | 2013-12-11 | 湖南天幕智能科技有限公司 | 无人机航拍视频实时全景图拼接方法 |
US9330484B2 (en) * | 2012-08-02 | 2016-05-03 | Here Global B.V. | Plane panorama location correction in three-dimensional mapping |
CN104574347B (zh) * | 2013-10-24 | 2019-01-11 | 南京理工大学 | 基于多源遥感数据的在轨卫星图像几何定位精度评价方法 |
CN104007440B (zh) * | 2014-06-03 | 2016-05-18 | 西安电子科技大学 | 一种加速分解后向投影聚束合成孔径雷达成像方法 |
KR102328020B1 (ko) * | 2015-04-03 | 2021-11-17 | 한국전자통신연구원 | 하나의 룩업 테이블을 이용한 파노라마 영상 출력 시스템 및 방법 |
CN104881869A (zh) * | 2015-05-15 | 2015-09-02 | 浙江大学 | 一种移动平台上的实时全景跟踪与拼接方法 |
US9569874B2 (en) * | 2015-06-05 | 2017-02-14 | International Business Machines Corporation | System and method for perspective preserving stitching and summarizing views |
CN106485655A (zh) * | 2015-09-01 | 2017-03-08 | 张长隆 | 一种基于四旋翼飞行器航拍地图生成系统及方法 |
CN105761257B (zh) * | 2016-02-05 | 2018-08-10 | 中测新图(北京)遥感技术有限责任公司 | 交叉航带上无人机影像匹配中粗差的剔除方法和装置 |
CN107545538B (zh) * | 2016-06-24 | 2020-06-02 | 清华大学深圳研究生院 | 一种基于无人机的全景图像拼接方法及装置 |
GB2561329A (en) * | 2016-12-05 | 2018-10-17 | Gaist Solutions Ltd | Method and system for creating images |
CN106940876A (zh) * | 2017-02-21 | 2017-07-11 | 华东师范大学 | 一种基于surf的快速无人机航拍图像拼接算法 |
CN106645205A (zh) * | 2017-02-24 | 2017-05-10 | 武汉大学 | 一种无人机桥梁底面裂纹检测方法及系统 |
CN107480303A (zh) * | 2017-09-07 | 2017-12-15 | 成都瑞开科技有限公司 | 一种地理信息采集方法及装置 |
CN107808362A (zh) * | 2017-11-15 | 2018-03-16 | 北京工业大学 | 一种基于无人机pos信息与图像surf特征结合的图像拼接方法 |
CN108154471A (zh) * | 2017-11-15 | 2018-06-12 | 北京海致网聚信息技术有限公司 | 一种用于遥感影像拼接的方法与装置 |
-
2019
- 2019-01-25 CN CN201910072182.6A patent/CN110097498B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2996088A1 (en) * | 2014-09-10 | 2016-03-16 | My Virtual Reality Software AS | Method for visualising surface data together with panorama image data of the same surrounding |
CN107507132A (zh) * | 2017-09-12 | 2017-12-22 | 成都纵横自动化技术有限公司 | 一种无人机航摄影像的实时拼接方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110097498A (zh) | 2019-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110097498B (zh) | 基于无人机航迹约束的多航带图像拼接与定位方法 | |
US20210390329A1 (en) | Image processing method, device, movable platform, unmanned aerial vehicle, and storage medium | |
CN107480727B (zh) | 一种sift和orb相结合的无人机影像快速匹配方法 | |
CN109829398B (zh) | 一种基于三维卷积网络的视频中的目标检测方法 | |
Fraundorfer et al. | Visual odometry: Part ii: Matching, robustness, optimization, and applications | |
CN111507901B (zh) | 基于航带gps及尺度不变约束的航拍图像拼接定位方法 | |
EP0492512A2 (en) | Scene recognition system and method employing low and high level feature processing | |
CN110807828B (zh) | 一种倾斜摄影三维重建匹配方法 | |
CN112381890B (zh) | 一种基于点线特征的rgb-d视觉slam方法 | |
CN110084743B (zh) | 基于多航带起始航迹约束的图像拼接与定位方法 | |
CN112883850A (zh) | 一种基于卷积神经网络的多视角空天遥感图像匹配方法 | |
Ribera et al. | Estimating phenotypic traits from UAV based RGB imagery | |
CN109543634B (zh) | 定位过程中的数据处理方法、装置、电子设备和存储介质 | |
CN114238675A (zh) | 一种基于异源图像匹配的无人机地面目标定位方法 | |
CN117218201A (zh) | Gnss拒止条件下无人机影像定位精度提升方法及系统 | |
CN104992433B (zh) | 基于线段匹配的多光谱图像配准的方法及装置 | |
CN113012084A (zh) | 无人机影像实时拼接方法、装置及终端设备 | |
CN105184736B (zh) | 一种窄重叠双视场高光谱成像仪的图像配准的方法 | |
US10896519B2 (en) | Systems and methods for stereoscopic imaging | |
Abdel-Wahab et al. | Efficient reconstruction of large unordered image datasets for high accuracy photogrammetric applications | |
US11373382B2 (en) | Augmented reality implementation method | |
CN115018926A (zh) | 车载相机的俯仰角确定方法、装置、设备和存储介质 | |
US10373004B1 (en) | Method and device for detecting lane elements to plan the drive path of autonomous vehicle by using a horizontal filter mask, wherein the lane elements are unit regions including pixels of lanes in an input image | |
CN113379738A (zh) | 一种基于图像的疫木检测与定位方法及系统 | |
US10553022B2 (en) | Method of processing full motion video data for photogrammetric reconstruction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |