CN110223233A - 一种基于图像拼接的无人机航拍建图方法 - Google Patents
一种基于图像拼接的无人机航拍建图方法 Download PDFInfo
- Publication number
- CN110223233A CN110223233A CN201910504126.5A CN201910504126A CN110223233A CN 110223233 A CN110223233 A CN 110223233A CN 201910504126 A CN201910504126 A CN 201910504126A CN 110223233 A CN110223233 A CN 110223233A
- Authority
- CN
- China
- Prior art keywords
- map
- unmanned plane
- angle
- camera
- latitude
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 239000013598 vector Substances 0.000 claims abstract description 44
- 230000003287 optical effect Effects 0.000 claims abstract description 5
- 230000002380 cytological effect Effects 0.000 claims description 34
- 238000003384 imaging method Methods 0.000 claims description 4
- 101150064138 MAP1 gene Proteins 0.000 claims description 3
- 238000012886 linear function Methods 0.000 claims description 3
- 101150077939 mapA gene Proteins 0.000 claims description 3
- 235000013399 edible fruits Nutrition 0.000 claims description 2
- 239000000284 extract Substances 0.000 description 2
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000000571 coke Substances 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/32—Indexing scheme for image data processing or generation, in general involving image mosaicing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明涉及一种基于图像拼接的无人机航拍建图方法,一是通过无人机拍摄的视频图像,结合飞行数据中的前向速度和俯仰角等参数,并结合相机参数中的分辨率和帧率等参数生成一幅大的地图;二是根据飞行数据中的高度、经纬度、偏航角等参数,并结合相机参数中的焦距计算上一步得到的地图上每一个像素点的地理坐标。本发明采用图像直接拼接的方法,即无人机以折返的方式覆盖整个任务区域,飞行过程中相机光轴垂直于无人机所在平面指向地面拍摄视频,取视频里每帧图像垂直于飞行方向的中间若干行,相当于无人机“扫描”了整个任务区域;然后将这些“若干行”拼接起来得到整个任务场景的地图,最后结合经纬度信息构建矢量地图。
Description
技术领域
本发明属于信息融合领域,具体内容是通过无人机扫描某区域采集视频数据并记录飞行数据,根据这些数据再结合相机参数,构建该区域的矢量地图。
背景技术
车辆在城市区域行驶可以通过现有卫星地图进行导航,但在偏远地区,卫星地图的分辨率往往很低,难以实现导航定位精度要求较高的任务。为了满足导航定位的精度需求,可采用搭载高分辨率相机的无人机对任务区域进行扫描,并通过一些方法得到任务区域的矢量地图。
现有的航拍建图方法主要分为两类:第一类方法是通过图像特征提取和立体匹配进行三维重建,视觉SLAM也可以归为此类,这种方法可以得到点云地图。该方法相对来说技术难度大,对设备要求较高;视觉SLAM技术尚处于研究阶段,受光照影响很大,尤其是针对户外的真实环境该方法鲁棒性很低。而且,在很多特定的任务场景中只需要获得平面地图,三维地图是不必要的。第二种方法是图像拼接,包括两大主要过程:图像配准和图像融合。这种方法也是现在主流的航拍建图方法,文献“大区域无人机航拍图像拼接算法研究”中具体介绍了这种方法,通过文中提出的迭代全局配准算法和最小割最大流原理能得到较好的结果。但这种方法适用于大区域航拍建图,随着无人机飞行高度的降低图像拼接会出现严重的拼接缝和“鬼影”现象。而且,以上两种方法都很难将图像信息和飞行数据较好的融合在一起,
发明内容
要解决的技术问题
为了避免现有技术的不足之处,针对无人机低空航拍小区域本发明提出了一种基于图像直接拼接的无人机航拍建图方法。
技术方案
一种基于图像拼接的无人机航拍建图方法,其特征在于步骤如下:
步骤1:对无人机搭载的摄像头进行标定,获取相机的内参数,所述的内参数包括焦距和畸变参数;并设置相机包括帧率和分辨率c×d;
步骤2:从无人机采集的视频数据中提取每一帧图像,假设一共有m帧图像,根据标定结果对m帧图像进行去畸变处理;
步骤3:接收无人机的飞行数据,其中包括飞行高度、经纬度以及无人机本体坐标系下的前向飞行速度和三个姿态角;所述无人机本体坐标系的X轴为无人机前进方向,z轴垂直无人机平面向下,坐标系符合右手建系准则;绕x轴为滚转角roll,绕y轴为俯仰角pitch,绕z轴为偏航角yaw;
步骤4:由前向飞行速度确定每帧图像中应提取的行数:
ni=ki·vi,i=1,2,…,m (1)
式中,vi为每帧图相对应的前向飞行速度;比例系数ki为行速比,由下面公式确定:
式中,hi为飞行高度,fps为相机帧率,ξ为相机视场角;由于ni为小数,所以对其取整:
nzi=floor(ni),i=1,2,…,m (3)
式中,floor为向下取整函数,定义行数余量为:
eni=ni-nzi,i=1,2,…,m (4)
定义动态累积误差:
si=si-1+eni,i=1,2,…,m (5)
动态累积误差的初值s0为零,当si大于等于1时,nzi自增1,同时si自减1;当si小于1时,nzi与si保持不变;
步骤5:假设从第i帧图像的第gi行开始取,取到第gi+nzi-1行组成细胞图;将gi近似看成俯仰角的线性函数:
式中,l为作行俯比,由分辨率决定:
l=2·c·(1±30%) (7)
步骤6:引入滚转角对细胞图进行修正:
上式表示对第i个细胞图整体向右移动个像素,以使其与相邻细胞图对齐;修正参数kp与相机的分辨率和视场角ξ有关:
步骤7:假设平面α是成像平面,平面β是地面,O是摄像机光心,A是无人机在地面上的投影点,C是细胞图的像素中心点,D是细胞图中的某一像素点,B是点D在地面的投影点;根据相机小孔成像模型可知,三角形OAB和三角形OCD是相似三角形;设OA=h,h是无人机的飞行高度;OC=f,f是无人机上搭载的相机的焦距;DC是两个像素点之间的欧式距离,式中(xC,yC),(xD,yD)分别为C、D两点的像素坐标;于是可通过相似比得到AB之间的距离,记AB=a,则有:
假设点A对应的经纬度是(pA,qA),射线AB与A点所在的纬线的夹角是η,由下面公式求得:
η=ω+ζ (11)
公式中ω为细胞图对应的偏航角,ζ是DC与无人机坐标系y轴的夹角,
则AB在经线和纬线上的投影分别是:
ax=asinη,ay=acosη (12)
纬度1°对应的距离是lo=1.11×106m,经度1°对应的距离是la=locosqA;记点B相对于点A的经纬度差是(δy,δx),则:
于是得到点B的经纬度:
(pB,qB)=(pA,qA)+(δy,δx) (14)
利用上述方法得到细胞图上每一个像素点的经纬度坐标,从而得到了矢量细胞图;
步骤8:将矢量细胞图依次连接生成矢量地图,该地图的分辨率为n×d,其中n为:
n=nz1+nz2+…+nzm,i=1,2,…,m (15)
步骤9:无人机直线飞行时,可通过步骤4~7生成矢量地图;无人机经过r次转弯,能得到r+1个这样的矢量地图;第j次转弯的相邻两个矢量地图之间的夹角如下:
δωj=ωj+1-ωj,j=1,2,…,r (16)
式中,ωj为第j个矢量地图的偏航角,将无人机第j次转弯时在相邻两个矢量地图上的投影点设为不动点,记为Oj,将相邻两个图上的Oj重合,夹角为δωj,至此完成了相邻两个矢量地图的拼接,依次将r+1个矢量地图拼在一起可得到整个任务场景的地图。
有益效果
本发明提出的一种基于图像拼接的无人机航拍建图方法,填补了中小区域航拍建图的空白。实施步骤十分简单易行,而且使用灵活,可在任意时间段在任何非禁飞区域执行航拍建图任务。本发明方法的鲁邦性能好,不受光照变化、气温等条件的影响;算法复杂度低,可做到实时建图。
附图说明
图1是本发明中使用的无人机坐标系的建系方式。
图2是本发明中无人机搭载的相机的成像模型,上述步骤7中有本图的详细说明。
图3拍摄的原图像和去畸变之后的图像示例。
图4-10无人机的飞行高度、经纬度以及无人机本体坐标系下的前向飞行速度和三个姿态角(分别为θroll、θpitch和ω)。起飞的海拔高度为424.2米。
图11是每帧图像中应提取的行数。
图12是动态累积误差。
图13是每帧图像中实际提取的行数。
图14是细胞图提取的位置。
图15是利用滚转角对细胞图修正的修正量。
图16是将修正后的细胞图连接得到的结果。
具体实施方式
现结合实施例、附图对本发明作进一步描述:
本发明的任务场景是无人机飞行高度200米以下、直径三公里以内的任何无人机非禁飞区域。本发明目的是通过无人机航拍采集的视频数据和飞行数据,结合相机参数构建任务区域的矢量地图,用于其他设备的导航和定位。所谓矢量地图就是把图像数据和地理坐标相结合,矢量地图中每一个像素点都包括像素坐标和实际位置坐标两部分。
本发明针对无人机低空航拍小区域提出了一种构建矢量地图的方法。该方法主要分为两个部分:一是通过无人机拍摄的视频图像,结合飞行数据中的前向速度和俯仰角等参数,并结合相机参数中的分辨率和帧率等参数生成一幅大的地图;二是根据飞行数据中的高度、经纬度、偏航角等参数,并结合相机参数中的焦距计算上一步得到的地图上每一个像素点的地理坐标。本发明采用图像直接拼接的方法,即无人机以折返的方式覆盖整个任务区域,飞行过程中相机光轴垂直于无人机所在平面指向地面拍摄视频,取视频里每帧图像垂直于飞行方向的中间若干行,相当于无人机“扫描”了整个任务区域;然后将这些“若干行”(以下称作细胞图)拼接起来得到整个任务场景的地图,最后结合经纬度信息构建矢量地图。实施的具体步骤如下:
步骤一、对无人机搭载的摄像头进行标定,获取相机的内参数。内参数主要包括焦距和畸变参数。
并设置相机其他参数,包括帧率和分辨率(c×d)。
步骤二、从无人机采集的视频数据中提取每一帧图像,假设一共有m幅图像,根据标定结果对m帧图像进行去畸变处理。
步骤三、接收无人机的飞行数据,其中包括飞行时间、飞行高度、经纬度以及无人机本体坐标系下的三轴飞行速度和三个姿态角等。无人机本体坐标系如图1所示。X轴定为无人机前进方向,z轴垂直无人机平面向下,坐标系符合右手建系准则。绕x轴为滚转角roll,绕y轴为俯仰角pitch,绕z轴为偏航角yaw。
步骤四、由前向飞行速度确定每帧图像中应提取的行数:
ni=ki·vi,i=1,2,…,m (1)
vi为每帧图相对应的前向飞行速度。在本发明中,称比例系数ki为行速比,经过理论推导和实验分析,ki可由下面公式确定:
公式(2)中,hi为飞行高度,fps为相机帧率,ξ为相机视场角。由于ni为小数,所以对其取整:
nzi=floor(vi),i=1,2,…,m (3)
上式中floor为向下取整函数。定义行数余量为:
eni=vi-nzi,i=1,2,…,m (4)
本发明提出设置动态累积误差的方法,将行数余量累加起来对nzi进行修正,以避免地图会出现被压缩或被拉伸的情况。定义动态累积误差:
si=si-1+eni,i=1,2,…,m (5)
动态累积误差的初值s0为零。当si大于等于一时,nzi自增一,同时si自减一。当si小于一时,nzi与si保持不变。
步骤五、步骤四解决了每帧图像应抽取多少行的问题,假设从第i幅图像的第gi行开始取,取到第gi+nzi-1行。本步骤需要解决的问题即如何确定gi。由于无人机飞行过程中俯仰角θpitch随时间变化,而相机固连在无人机下方,所以图像中间行像素显示的实际位置并不在无人机正下方。由于俯仰角不会太大,所以gi近似看成俯仰角的线性函数:
本发明中把比例系数l称作行俯比,主要由分辨率决定:
l=2·c·(1±30%) (7)
步骤六、无人机飞行过程中飞行控制系统会不断对自身姿态进行调整,这势必会导致无人机倾侧,使得相邻细胞图之间出现错位。本发明中引入滚转角对细胞图进行修正:
上式表示对第i个细胞图整体向右移动个像素,以使其与相邻细胞图对齐。修正参数kp主要与相机的分辨率和视场角有关:
至此,m帧图像中每帧取几行,从哪里开始取的问题已经解决,下面介绍如何将经纬度信息融进细胞图,构建矢量细胞图。
步骤七、图2中,平面α是成像平面,平面β是地面,O是摄像机光心,A是无人机在地面上的投影点,C是细胞图的像素中心点,D是细胞图中的某一像素点,B是点D在地面的投影点。根据相机小孔成像模型可知,三角形OAB和三角形OCD是相似三角形。设OA=h,h是无人机的飞行高度;OC=f,f是无人机上搭载的相机的焦距。DC是两个像素点之间的欧式距离,式中(xC,yC),(xD,yD)分别为C、D两点的像素坐标。于是可通过相似比得到AB之间的距离,记AB=a,则有:
假设点A对应的经纬度是(pA,qA),射线AB与A点所在的纬线的夹角是η,由下面公式求得:
η=ω+ζ (11)
公式中ω为细胞图对应的偏航角,ζ是DC与无人机坐标系y轴的夹角,
则AB在经线和纬线上的投影分别是:
ax=asinη,ay=acosη (12)
纬度1°对应的距离是lo=1.11×106m,经度1°对应的距离是la=locosqA。记点B相对于点A的经纬度差是(δy,δx),则:
于是得到点B的经纬度:
(pB,qB)=(pA,qA)+(δy,δx) (14)
利用这个方法得到细胞图上每一个像素点的经纬度坐标,从而实现了矢量细胞图的构建。下面介绍如何根据矢量细胞图构建矢量地图,进而将多个矢量地图结合得到整个任务场景的地图。
步骤八、将矢量细胞图依次连接生成矢量地图,该地图的分辨率为n×d,其中n为:
n=nz1+nz2+…+nzm,i=1,2,…,m (15)
步骤九、无人机直线飞行时,可通过步骤四至步骤七生成矢量地图。无人机经过r次转弯,能得到r+1个这样的矢量地图。本发明提出设置不动点,来连接这r+1个矢量地图。第j次转弯的相邻两个矢量地图之间的夹角如下:
δωj=ωj+1-ωj,j=1,2,…,r (16)
式中ωj为第j个矢量地图的偏航角。将无人机第j次转弯时在相邻两个矢量地图上的投影点设为不动点,记为Oj,将相邻两个图上的Oj重合,夹角为δωj。至此完成了相邻两个矢量地图的拼接,依次将r+1个矢量地图拼在一起可得到整个任务场景的地图。
实施例1:
步骤一、实验中使用的摄像头为全瑞视讯的720P2CAM,相机视场角为90度,帧率设置为25,分辨率设置为480×640。利用MATLAB标定工具箱进行相机标定,相机焦距为2.1毫米,畸变向量为[-0.5172,0.5749,0,0,0]。
步骤二、从无人机采集的视频数据时长17秒,共提取了m=425幅图像,根据标定结果对这些图像进行去畸变处理,效果如图3所示。
步骤三、接收无人机的飞行数据,包括飞行高度、经纬度以及无人机本体坐标系下的前向飞行速度和三个姿态角,如图4-10所示。
步骤四、由前向飞行速度确定每帧图像中应提取的行数:
ni=ki·vi,i=1,2,…,425
结果如图11所示。根据公式2行速比ki取为1.1。对ni取整:
nzi=floor(vi),i=1,2,…,425
行数余量为:
eni=vi-nzi,i=1,2,…,425
动态累积误差:
si=si-1+eni,i=1,2,…,425
动态累积误差和最终实取行数如图12-13所示。
步骤五、由俯仰角确定gi:
行俯比l取700。结果如图14所示。
步骤六、利用滚转角对细胞图进行修正:
修正参数kp取150,结果如图15所示。
步骤七、将细胞图依次连接生成大地图,该地图的分辨率为1676×640,结果如图16所示。
本发明使用灵活,可随时执行任务;且操作简单,方便快捷,具有非常广阔的应用前景。另外,弥补了中小区域航拍矢量建图领域的空白。
Claims (1)
1.一种基于图像拼接的无人机航拍建图方法,其特征在于步骤如下:
步骤1:对无人机搭载的摄像头进行标定,获取相机的内参数,所述的内参数包括焦距和畸变参数;并设置相机包括帧率和分辨率c×d;
步骤2:从无人机采集的视频数据中提取每一帧图像,假设一共有m帧图像,根据标定结果对m帧图像进行去畸变处理;
步骤3:接收无人机的飞行数据,其中包括飞行高度、经纬度以及无人机本体坐标系下的前向飞行速度和三个姿态角;所述无人机本体坐标系的X轴为无人机前进方向,z轴垂直无人机平面向下,坐标系符合右手建系准则;绕x轴为滚转角roll,绕y轴为俯仰角pitch,绕z轴为偏航角yaw;
步骤4:由前向飞行速度确定每帧图像中应提取的行数:
ni=ki·vi,i=1,2,…,m (1)
式中,vi为每帧图相对应的前向飞行速度;比例系数ki为行速比,由下面公式确定:
式中,hi为飞行高度,fps为相机帧率,ξ为相机视场角;由于ni为小数,所以对其取整:
nzi=floor(ni),i=1,2,…,m (3)
式中,floor为向下取整函数,定义行数余量为:
eni=ni-nzi,i=1,2,…,m (4)
定义动态累积误差:
si=si-1+eni,i=1,2,…,m (5)
动态累积误差的初值s0为零,当si大于等于1时,nzi自增1,同时si自减1;当si小于1时,nzi与si保持不变;
步骤5:假设从第i帧图像的第gi行开始取,取到第gi+nzi-1行组成细胞图;将gi近似看成俯仰角的线性函数:
式中,l为作行俯比,由分辨率决定:
l=2·c·(1±30%) (7)
步骤6:引入滚转角对细胞图进行修正:
上式表示对第i个细胞图整体向右移动个像素,以使其与相邻细胞图对齐;修正参数kp与相机的分辨率和视场角ξ有关:
步骤7:假设平面α是成像平面,平面β是地面,O是摄像机光心,A是无人机在地面上的投影点,C是细胞图的像素中心点,D是细胞图中的某一像素点,B是点D在地面的投影点;根据相机小孔成像模型可知,三角形OAB和三角形OCD是相似三角形;设OA=h,h是无人机的飞行高度;OC=f,f是无人机上搭载的相机的焦距;DC是两个像素点之间的欧式距离,式中(xC,yC),(xD,yD)分别为C、D两点的像素坐标;于是可通过相似比得到AB之间的距离,记AB=a,则有:
假设点A对应的经纬度是(pA,qA),射线AB与A点所在的纬线的夹角是η,由下面公式求得:
η=ω+ζ (11)
公式中ω为细胞图对应的偏航角,ζ是DC与无人机坐标系y轴的夹角,
则AB在经线和纬线上的投影分别是:
ax=asinη,ay=acosη (12)
纬度1°对应的距离是lo=1.11×106m,经度1°对应的距离是la=locosqA;记点B相对于点A的经纬度差是(δy,δx),则:
于是得到点B的经纬度:
(pB,qB)=(pA,qA)+(δy,δx) (14)
利用上述方法得到细胞图上每一个像素点的经纬度坐标,从而得到了矢量细胞图;
步骤8:将矢量细胞图依次连接生成矢量地图,该地图的分辨率为n×d,其中n为:
n=nz1+nz2+…+nzm,i=1,2,…,m (15)
步骤9:无人机直线飞行时,可通过步骤4~7生成矢量地图;无人机经过r次转弯,能得到r+1个这样的矢量地图;第j次转弯的相邻两个矢量地图之间的夹角如下:
δωj=ωj+1-ωj,j=1,2,…,r (16)
式中,ωj为第j个矢量地图的偏航角,将无人机第j次转弯时在相邻两个矢量地图上的投影点设为不动点,记为Oj,将相邻两个图上的Oj重合,夹角为δωj,至此完成了相邻两个矢量地图的拼接,依次将r+1个矢量地图拼在一起可得到整个任务场景的地图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910504126.5A CN110223233B (zh) | 2019-06-11 | 2019-06-11 | 一种基于图像拼接的无人机航拍建图方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910504126.5A CN110223233B (zh) | 2019-06-11 | 2019-06-11 | 一种基于图像拼接的无人机航拍建图方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110223233A true CN110223233A (zh) | 2019-09-10 |
CN110223233B CN110223233B (zh) | 2022-04-05 |
Family
ID=67816484
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910504126.5A Active CN110223233B (zh) | 2019-06-11 | 2019-06-11 | 一种基于图像拼接的无人机航拍建图方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110223233B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110823233A (zh) * | 2019-11-28 | 2020-02-21 | 广东电网有限责任公司 | 一种基于坐标变换的地图模型构建方法及系统 |
CN114201633A (zh) * | 2022-02-17 | 2022-03-18 | 四川腾盾科技有限公司 | 一种用于无人机视觉定位的自适应卫星图像生成方法 |
CN114972019A (zh) * | 2021-04-14 | 2022-08-30 | 华东师范大学 | 基于tof相机的深度图像拼接方法、装置及计算机设备 |
CN114972019B (zh) * | 2021-04-14 | 2024-05-24 | 华东师范大学 | 基于tof相机的深度图像拼接方法、装置及计算机设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002342754A (ja) * | 2001-05-21 | 2002-11-29 | Nippon Telegr & Teleph Corp <Ntt> | モザイク画像合成方法、モザイク画像合成装置、モザイク画像合成プログラム及びこのプログラムを記録した記録媒体 |
CN106204507A (zh) * | 2015-05-28 | 2016-12-07 | 长沙维纳斯克信息技术有限公司 | 一种无人机图像拼接方法 |
CN106485655A (zh) * | 2015-09-01 | 2017-03-08 | 张长隆 | 一种基于四旋翼飞行器航拍地图生成系统及方法 |
CN107079104A (zh) * | 2016-08-24 | 2017-08-18 | 深圳市大疆灵眸科技有限公司 | 广角照片拍摄方法、装置、云台、无人飞行器及机器人 |
CN107808362A (zh) * | 2017-11-15 | 2018-03-16 | 北京工业大学 | 一种基于无人机pos信息与图像surf特征结合的图像拼接方法 |
-
2019
- 2019-06-11 CN CN201910504126.5A patent/CN110223233B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002342754A (ja) * | 2001-05-21 | 2002-11-29 | Nippon Telegr & Teleph Corp <Ntt> | モザイク画像合成方法、モザイク画像合成装置、モザイク画像合成プログラム及びこのプログラムを記録した記録媒体 |
CN106204507A (zh) * | 2015-05-28 | 2016-12-07 | 长沙维纳斯克信息技术有限公司 | 一种无人机图像拼接方法 |
CN106485655A (zh) * | 2015-09-01 | 2017-03-08 | 张长隆 | 一种基于四旋翼飞行器航拍地图生成系统及方法 |
CN107079104A (zh) * | 2016-08-24 | 2017-08-18 | 深圳市大疆灵眸科技有限公司 | 广角照片拍摄方法、装置、云台、无人飞行器及机器人 |
CN107808362A (zh) * | 2017-11-15 | 2018-03-16 | 北京工业大学 | 一种基于无人机pos信息与图像surf特征结合的图像拼接方法 |
Non-Patent Citations (3)
Title |
---|
EMINA HADROVIĆ等: "Aerial image mosaicing approach based on feature matching", 《IEEE XPLORE》 * |
周行: "大区域无人机航拍图像拼接算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
杨杨: "无人机航拍视频图像实时拼接软件系统的设计与开发", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110823233A (zh) * | 2019-11-28 | 2020-02-21 | 广东电网有限责任公司 | 一种基于坐标变换的地图模型构建方法及系统 |
CN114972019A (zh) * | 2021-04-14 | 2022-08-30 | 华东师范大学 | 基于tof相机的深度图像拼接方法、装置及计算机设备 |
CN114972019B (zh) * | 2021-04-14 | 2024-05-24 | 华东师范大学 | 基于tof相机的深度图像拼接方法、装置及计算机设备 |
CN114201633A (zh) * | 2022-02-17 | 2022-03-18 | 四川腾盾科技有限公司 | 一种用于无人机视觉定位的自适应卫星图像生成方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110223233B (zh) | 2022-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105627991A (zh) | 一种无人机影像实时全景拼接方法及系统 | |
CN110310248B (zh) | 一种无人机遥感影像实时拼接方法及系统 | |
CN107492069B (zh) | 基于多镜头传感器的图像融合方法 | |
JP2008304260A (ja) | 画像処理装置 | |
CN106871927A (zh) | 一种无人机光电吊舱安装误差标校方法 | |
KR101550780B1 (ko) | 무인 항공기를 이용한 영상 데이터 수집 시스템 및 방법 | |
CN108614273A (zh) | 一种机载双波段光电广域侦察与跟踪装置及方法 | |
CN106373159A (zh) | 一种简化的无人机多目标定位方法 | |
US9210403B2 (en) | System for space-based imaging in three dimensions | |
CN104897159B (zh) | 基于序列图像匹配的飞行器全程导航方法 | |
CN104764443A (zh) | 一种光学遥感卫星严密成像几何模型构建方法 | |
CN109739254A (zh) | 一种电力巡检中采用视觉图像定位的无人机及其定位方法 | |
CN109828291A (zh) | 一种有人机应急遥感监测的方法及装置 | |
CN110223233A (zh) | 一种基于图像拼接的无人机航拍建图方法 | |
CN102279001B (zh) | 一种星载相机的相移补偿方法 | |
CN107798668B (zh) | 基于rgb影像的无人机成像高光谱几何校正的方法及系统 | |
CN113177918A (zh) | 一种无人机对电力杆塔的智能精准巡检方法及系统 | |
CN106289156B (zh) | 一种卫星以任意姿态成像时获取摄影点太阳高度角的方法 | |
CN112461204A (zh) | 卫星对动态飞行目标多视角成像联合计算航行高度的方法 | |
CN107635096B (zh) | 一种增加照相重叠率的全景航空相机倾斜成像方法 | |
CN107063191B (zh) | 一种摄影测量区域网整体相对定向的方法 | |
JP2016223934A (ja) | 位置補正システム、位置補正方法、および位置補正プログラム | |
Kikuya et al. | Attitude determination algorithm using Earth sensor images and image recognition | |
CN112985398A (zh) | 目标定位方法及系统 | |
CN112577463B (zh) | 姿态参数修正的航天器单目视觉测距方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |