CN108759788A - 无人机影像定位定姿方法及无人机 - Google Patents

无人机影像定位定姿方法及无人机 Download PDF

Info

Publication number
CN108759788A
CN108759788A CN201810223815.4A CN201810223815A CN108759788A CN 108759788 A CN108759788 A CN 108759788A CN 201810223815 A CN201810223815 A CN 201810223815A CN 108759788 A CN108759788 A CN 108759788A
Authority
CN
China
Prior art keywords
image
point
feature
internal reference
subgraph
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810223815.4A
Other languages
English (en)
Other versions
CN108759788B (zh
Inventor
高广
王邦松
支晓栋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Pegasus Robotics Co ltd
Original Assignee
Shenzhen Science And Technology Ltd Of Flying Horse Robot
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Science And Technology Ltd Of Flying Horse Robot filed Critical Shenzhen Science And Technology Ltd Of Flying Horse Robot
Priority to CN201810223815.4A priority Critical patent/CN108759788B/zh
Publication of CN108759788A publication Critical patent/CN108759788A/zh
Application granted granted Critical
Publication of CN108759788B publication Critical patent/CN108759788B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Manufacturing & Machinery (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本申请实施例公开了一种无人机影像定位定姿方法和无人机,涉及无人机技术领域。该方法包括:获取相机内参以及包括影像和机载POS数据,根据相机内参对影像进行畸变纠正得到无畸变影像,提取无畸变影像中的特征点和特征描述,利用机载POS数据进行约束完成特征粗匹配,再进行相对定向得到影像间的本质矩阵,提取无畸变影像中的特征点和特征描述,以粗匹配中的本质矩阵为核线约束进行快速的高精度匹配,计算影像之间的相关性,通过区域增长方式得到子图,在子图内部进行增量式重建后进行全局优化重建,在全局优化重建过程中加入相机内参,最终得到无人机影像的精确位置和姿态。上述方法和无人机可用于提高无人机影像定位定姿的准确性。

Description

无人机影像定位定姿方法及无人机
技术领域
本发明涉及无人机技术领域,尤其涉及一种无人机影像定位定姿方法及无人机。
背景技术
利用无人机快速获取感兴趣区域的影像已逐渐成为当前航空摄影测量发展的一个重要分支。与传统航空摄影测量影像相比,无人机获取的影像具有高空间分辨率、高时间分辨率等优点。
但是,受限于无人机系统的安全性及负载能力,无人机上通常搭载的是较廉价的非量测型相机,该类型相机具有如下特点:(1)像幅小,一般不超过一亿像素,因此影像数量特别巨大;(2)畸变量大,影像边缘处的畸变量可达200个像素以上,需要高次方程才能很好的表达;(3)一致性差,同型号的不同相机的畸变规律不同,难以用一套参数来适配同一个型号的所有相机。为此,海量无人机影像处理往往存在效率低下,畸变难以正确改正及处理结果不稳定等问题。
发明内容
有鉴于此,本申请实施例提供一种无人机影像定位定姿方法及无人机,优化现有检校算法,减少操作员的干预,增强检校结果的可靠性。
本申请实施例第一方面提供了一种无人机影像定位定姿方法,包括:
获取影像和机载定姿定位系统数据;
使用相机内参对所述影像进行畸变纠正,得到无畸变影像,所述相机内参经过预置的检校方式进行高精度检校得到;
通过第一特征检测算法,提取所述无畸变影像的第一特征点及第一特征点的特征描述;
以所述机载定姿定位系统数据为空间约束,对所述第一特征点和所述第一特征点的特征描述进行基于距离的匹配,得到第一影像和第二影像的的第一同名点信息;
根据所述第一同名点信息和所述相机内参,利用随机抽样一致算法计算出所述第一影像和所述第二影像的相对位置和姿态;
通过角点检测算法提取所述无畸变影像高精度的角点,并将提取的角点作为第二特征点,利用第二特征检测算法提取每个所述第二特征点的特征描述;
以所述第一影像和所述第二影像的相对位置和姿态为核线约束,对所述第二特征点和所述第二特征点的特征描述进行基于距离的匹配,得到所述第一影像和所述第二影像的第二同名点的信息;
利用所述影像和所述机载定姿定位系统数据构建德洛内三角网,获取所述德洛内三角网中所述第一影像和所述第二影像之间的边的权值,以得到所述第一影像和所述第二影像的相关性,其中,所述德洛内三角网的每个顶点为每张所述影像,顶点坐标为所述机载定姿定位系统数据的经纬度值,每条边具有唯一的权值;
将所述德洛内三角网,通过预设方式的区域增长分割为多个子图;
将每个所述子图进行增量式重建,得到所述影像的位置、姿态和稀疏的三维点云;
将影像的外方位元素及稀疏的三维点云、相机内参加入,进行全局式重建优化,得到影像的最终位置和姿态。
本申请实施例第二方面提供了一种无人机,包括:
相机、存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现本申请实施例第一方面提供的无人机影像定位定姿方法。
本申请各实施例,通过相机的高精度检校来解决非测量型相机畸变大且不同相机间差异大的问题,由于未知变量的减少有效地降低了处理过程的计算量,同时提高了处理结果的精度和稳定性,以及采取从粗到精和核线约束的匹配策略,使得海量无人机影像匹配的效率达到了实时的处理要求,通过相关性的子图分割,确保小规模问题求解的效率,同时先增量重建再全局优化重建的策略进一步提高了处理结果的精度,从而提高了无人机获取影像的位置和姿态的准确性。
附图说明
图1为本申请实施例提供的无人机影像定位定姿方法的流程图;
图2为本申请实施例提供的无人机的硬件结构示意图;
图3为本申请实施例提供的无人机影像定位定姿装置的结构示意图。
具体实施方式
为更进一步阐述本申请为实现预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本申请的具体实施方式、结构、特征及其功效,详细说明如后。
请参阅图1,图1为本发明提供的无人机影像定位定姿方法的流程示意图。该方法包括:
S101、对无人机搭载的相机进行高精度检校,得到相机内参;
无人机在出厂前需对其搭载的相机按照预设的检校方式进行高精度检校,得到精确的相机内参,包括焦距、像主点和畸变参数。
具体地,对该相机进行高精度检校,得到相机内参可包括:
设置如下畸变模型公式:
Δx=(x-x0)(k1r2+k2r4+k3r6)+p1|r2+2(x-x0)2]+2p2(x-x0)(y-y0)+α(x-x0)+β(y-y0)Δy=(y-y0)(k1r2+k2r4+k3r6)+p2|r2+2(y-y0)2]+2p1(x-x0)(y-y0)
其中:Δx,Δy为像点改正值;x,y为像方坐标系下的像点坐标;x0,y0为像主点,k1、k2、k3、p1、p2、a、b为畸变参数。
进一步地,设置如下共线方程:
其中,f为焦距,x0,y0为像主点,a1、a2、a3、b1、b2、b3、c1、c2、c3为旋转矩阵中的元素,Xs、Ys、Zs为线元素,X、Y、Z为已知物方点的三维坐标,x、y为对应的像方点坐标;
其中,s为自然数。
进一步地,相机的高精度检校需要在已经测量控制点坐标的实验场内进行,控制点坐标是人工实测的,具有非常高的测量精度,因此可以保证该相机内参是精确的。根据共线方程列出误差方程,通过最小二乘法计算出相机的精确的相机内参,该相机内参包括焦距、像主点和畸变参数。
具体地,令控制点为{P1…Pn},控制点对应的像点则为{p1…pn},其中P i=(Xi,Yi,Zi),pi=(xi,yi);其中,n和i均为自然数。
将相机的标称焦距作为f的初值,像主点x0,y0和畸变参数k1、k2、k3、p1、p2、a、b初始化为零;
根据前述共线方程列出每个控制点的方程,由于像主点和畸变参数均为零,共线方程可简化为如下:
利用直接线性变换(DLT,Direct Linear Transformation)算法计算出旋转矩阵中的元素a1、a2、a3、b1、b2、b3、c1、c2、c3及线元素Xs、Ys、Zs。其中,i和s均为自然数。
列出每个控制点误差方程如下:
其中,Δxi,Δyi为xi和yi对应的像点改正值。
高精度检校过程即寻找最小化目标函数的参数,如下所示:
利用最小二乘法对上述最小化目标函数进行求解,先将DLT算法计算得到的结果作为最小二乘法的初值,再迭代计算得到相机的精确的内参。
另外,当相机曝光数量每达到10万次或使用过程中有剧烈碰撞时,均需要返厂进行高精度检校。
S102、获取影像和机载定姿定位系统数据;
无人机进行正常作业,获取影像和机载定姿定位系统数据(POS,Positioning andOrientation System),影像和机载POS数据统称为飞行数据。
其中每张影像对应一个机载POS数据,此机载POS数据为无人机上的传感器记录的摄影时相机在空中的位置和姿态,其中位置即为经纬度。
需要说明的是,受限于传感器的测量精度,此位置和姿态精度一般都很差,不能直接使用。
S103、使用该相机内参对该影像进行畸变纠正,得到无畸变影像;
利用步骤S101中的精确的相机内参对飞行数据中的影像进行畸变纠正,得到无畸变影像。
具体地,针对飞行数据中的每张影像,可以得到拍摄该影像的相机所对应的精确的相机内参,包括焦距、像主点和畸变参数,相机内参作为已知量,可以根据根据步骤S101中的该畸变模型公式得到Δx、Δy,Δx和Δy分别是x、y的像点改正值;
令(x,y)和(xu,yu)分别表示畸变纠正前后对应的像素坐标,则
畸变纠正是从(xu,yu)计算出对应的(x,y)的过程,根据无畸变影像的每个像素位置(行列)计算对应的原始影像上的像素位置。对上述公式进行调整,得到改正公式:
其中(Δxu,Δyu)为(xu,yu)对应的像点改正值,基于步骤S101中的该畸变模型公式计算得到;其中,u为自然数。
进一步地,利用上述改正公式,可以得到无畸变影像上每个(xu,yu)对应的(x,y),一般情况下(x,y)为非整数值,采用双线性内插计算出对应的颜色值,该颜色值为RGB(即RGB颜色模式中红、绿、蓝通道)值,从而得到无畸变影像。
S104、通过第一特征检测算法,提取该无畸变影像的第一特征点及第一特征点的特征描述;
第一特征检测算优选ORB(Oriented FAST and Rotated BRIEF)算法,ORB算法可快速提取无畸变影像特征点及其特征描述。ORB算法分为两部分,分别是特征点提取和特征点描述。特征提取是由FAST(Features from Accelerated Segment Test)算法发展来的,特征点描述是根据BRIEF(Binary Robust IndependentElementary Features)特征描述算法改进的。ORB特征是将FAST特征点的检测方法与BRIEF特征描述子结合起来,并在它们原来的基础上做了改进与优化。
S105、以机载定姿定位系统数据为空间约束,对提取的第一特征点和第一特征点的特征描述进行基于距离的匹配,得到第一影像和第二影像的第一同名点信息;
以步骤S102中的机载POS数据为空间约束,对步骤S104中提取的第一特征点及第一特征点的特征描述进行基于距离的匹配,得到两两影像间的第一同名点信息,此步骤为粗匹配过程。
同名点是地面上同一个点在不同影像上成的像点。
具体地,对所有影像构建德洛内(Delaunay)三角网,Delaunay三角网的每个顶点对应一张影像,顶点坐标为对应影像的机载POS数据的经纬度值,两张影像的图距离定义为通过两张影像对应的顶点的最少边数。
进一步地,令匹配影像为A,待匹配的影像集合为B,集合B为{b1,b2,...bn},其中集合B中的影像与A的图距离均小于预设距离,该预设距离例如20,且已根据图距离排序;
匹配失败次数用Nfail表示,令Nfail=0,逐一将A与集合B中的影像bi进行匹配,如果A与bi的同名点数大于24,则将Nfail置为零,否则将Nfail加一,即执行Nfail=Nfail+1,当Nfail大于预设数值时,例如12,匹配影像A的匹配过程结束,得到两两影像间的第一同名点的信息。
S106、根据该第一同名点信息和该相机内参,利用随机抽样一致算法计算出该第一影像和第二影像的相对位置和姿态;
利用两两影像间的同名点信息及精确的相机内参,通过随机抽样一致(RANSAC,Random Sample Consensus)算法计算出两两影像的相对位置和姿态,也即本质矩阵(Essential Matrix),此步骤为相对定向过程。
S107、通过角点检测算法提取该无畸变影像高精度的角点,并将提取的角点作为第二特征点,利用第二特征检测算法获取每个第二特征点的特征描述;
具体地,利用Harris算法提取该无畸变影像的角点,将提取的各角点作为特征点,提取的角点可以达到子像素级,相对于步骤S104中的ORB算法提取的特征点精度更高。再利用SURF(Speeded Up Robust Features)算法计算每个角点作为的特征点的特征描述。
S108、以第一影像和第二影像的相对位置和姿态为核线约束,对第二特征点和第二特征点的特征描述进行基于距离的匹配,得到第一影像和第二影像的第二同名点的信息;
即,以该本质矩阵为核线约束,对步骤S107中提取的第二特征点和第二特征点的特征描述进行基于距离的匹配,得到两两影像间的第二同名点的信息,此步骤为高精度匹配过程。
具体地,如果影像A和影像B在粗匹配过程中有同名点,则对影像A和影像B进行精匹配,令影像A和影像B的特征点分别为{f0…fi…fn}和{g0…gj…gm},该特征点对应的特征描述分别为{a0…ai…an}和{b0…bj…bm},其中fi和gj为2维向量,ai和bj为256位的二进制串,fi与ai一一对应,gj与bj一一对应;
进一步地,利用该本质矩阵对特征点{f0…fi…fn}和{g0…gj…gm}进行核线对齐,对齐后的特征点为{f'0…f'i…f'n}和{g'0…g'j…g'm},从对齐后的第一影像特征点{f'0…f'i…f'n}中,任取第一影像的特征点一个特征描述ai,计算与其y方向差异小于预设数量像素,例如5个像素的所有特征描述子{bu…bv…bw}的海明距离,假设海明距离最小的两个特征描述为bu和bv,对应的海明距离为du和dv(du≤dv),如果du/dv小于预设比例,例如du/dv<0.8,则称gu为fi的最佳匹配特征;
进一步地,将影像A和影像B互换,重复上述精匹配过程,具体地,从对齐后的第二影像特征点{g'0…g'j…g'm}中,任取第二影像的特征点的一个特征描述bi,计算与其y方向差异小于预设数量像素的所有特征描述子{bu…bv…bw}的海明距离,假设海明距离最小的两个特征描述为bu和bv,对应的海明距离分别为du和dv,其中,du≤dv,若du/dv小于所述预设比例,则称第一影像中的特征点gi为第二影像中的特征点fu的最佳匹配特征;先通过y方向约束,即在y方向计算选取范围,再对范围内的数据进行海明距离判断,可以提高特征的匹配速度。需要说明的是,前述核线对齐后的特征点是用于实现上述y方向约束的快速匹配的,匹配关系与该本质矩阵对特征点是一致的,最终的结果还是需要得到该本质矩阵对特征点的匹配关系。
如果fi与gj互为最佳匹配特征,则fi与gj为同名点,fi与gj的同名点信息为第二同名点信息。
其中,i、n、j、m均为自然数,并且,i<n;j<m;u、v、w均为自然数,并且,u<v<w。
S109、利用影像和机载定姿定位系统数据构建德洛内三角网,获取该德洛内三角网中第一影像和第二影像之间的边的权值,以得到第一影像和第二影像的相关性;
利用机载POS数据构建Delaunay三角网,Delaunay三角网的每个顶点代表每张影像,顶点坐标为对应影像的机载POS数据的经纬度值,每条边具有唯一的权值,该权值为此边的两个端点对应的两张影像的相关性R。
具体计算方式为:待计算相关性的影像为第一影像A和第二影像B,步骤S108中精匹配得到的同名点集合为{a0…ai…an}和{b0…bi…bn},其中ai和bi分别为第一影像A和第二影像B对应的同名点,第一影像A和第二影像B的本质矩阵为E,根据本质矩阵E和精匹配得到的该同名点坐标,也即该第二同名点的信息,通过前方交会法计算出该同名点的交会角。统计所有范围在预设角度范围内,例如(15°,75°)以内的该交会角数量Nangle,则第一影像A和第二影像B的相关性R定义如下:
其中,e为自然常数e。
S110、从该德洛内三角网中,通过预设方式的区域增长得到各个子图;
设子图的最多顶点数为Nmaxv,以贪心准则进行区域增长,当区域增长的子图顶点数量达到Nmaxv时,则将该子图保存,然后开始新的区域增长,直到每个顶点都属于唯一子图。
具体地,遍历该Delaunay三角网中的每个三角形,每个三角形的权值为对应三条边的权值之和。选取权值最高的三角形作为起点,将该三角形加入到当前子图V中,采用贪心准则进行区域增长,即每次将权重最高的邻接三角形加入到当前子图V中,直到子图V的顶点数量到达Nmaxv或三角网T中所有三角形均已处理完毕。进一步,将子图V从三角网T中剔除,如果三角网T不为空,则继续执行上述步骤,即选取权值最高的三角形为起点,将该三角形加入到当前子图V中,采用贪心准则进行区域增长,即每次将权重最高的邻接三角形加入到当前子图V中,直到该德洛内三角网为空,则子图分割完毕。
S111、针对每个子图进行增量式重建,得到影像的位置、姿态和稀疏的三维点云;
针对每个分割后的子图,进行增量式重建(Incremental Structure FromMotion),此过程不对相机的内参进行优化,只是得到影像的外方位元素和稀疏的三维点云,其中,外方位元素包括影像的位置和姿态,稀疏的三维点云为步骤S101中共线方程的X、Y、Z构成的,稀疏的三维点云与位置和姿态是相关的,在优化位置和姿态的同时,稀疏三维点云也会随之进行调整。
S112、按照预置方式合并子图,将影像的外方位元素及稀疏的三维点云、相机内参加入,进行全局式重建优化,得到影像的最终位置和姿态。
按照预置方式对子图进行合并,具体是将子图与邻近的顶点数量最少的子图合并,例如,令{V0,…Vi…Vn}为分割后的子图,如果一个子图Vi的顶点数量小于预设顶点数量,例如当前子图的顶点数量小于32,则将子图与邻近的顶点数量最少的子图合并。
进行全局式重建(Global Optimization Structure From Motion),此过程先优化影像的外方位元素(即位置和姿态)及稀疏的三维点云,再将相机的内参加入到重建过程中一起优化,进而得到影像的准确的位置和姿态。
本发明实施例中,通过相机的高精度检校来解决非测量型相机畸变大且不同相机间差异大的问题,由于未知变量的减少有效地降低了处理过程的计算量,同时提高了处理结果的精度和稳定性,以及采取从粗到精和核线约束的匹配策略,使得海量无人机影像匹配的效率达到了实时的处理要求,通过相关性的子图分割,确保小规模问题求解的效率,同时先增量重建再全局优化重建的策略进一步提高了处理结果的精度,从而提高了无人机获取影像的位置和姿态的准确性。
图2为本申请实施例提供的无人机硬件结构示意图。该无人机包括:相机201、存储器202、处理器203及存储在存储器202上并可在处理器203上运行的计算机程序,处理器203执行该计算机程序时,实现前述图1所示实施例中描述的无人机影像定位定姿方法。
上述相机201、存储器202、处理器203,通过总线204连接。
存储器202可以是高速随机存取记忆体(RAM,Random Access Memory)存储器,也可为非不稳定的存储器(non-volatile memory),例如磁盘存储器。存储器202用于存储一组可执行程序代码,处理器203与存储器202耦合。
进一步地,本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质可以是设置于上述各实施例中的无人机中。该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现前述图1所示实施例中描述的无人机影像定位定姿方法。进一步地,该计算机可存储介质还可以是U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
图3为本申请实施例提供的无人机影像定位定姿装置的结构示意图。本实施例提供的无人机影像定位定姿装置是上述图1所示实施例中的无人机影像定位定姿方法的执行主体,可运行于无人机中。该无人机影像定位定姿装置主要包括:
获取模块301,用于获取影像和机载定姿定位系统数据;
畸变纠正模块302,用于使用相机内参对该影像进行畸变纠正,得到无畸变影像,该相机内参经过预置的检校方式进行高精度检校得到;
第一提取模块303,用于通过第一特征检测算法,提取该无畸变影像的第一特征点及第一特征点的特征描述;
第一匹配模块304,用于以该机载定姿定位系统数据为空间约束,对该第一特征点和该第一特征点的特征描述进行基于距离的匹配,得到第一影像和第二影像的的第一同名点信息;
计算模块305,用于根据该第一同名点信息和该相机内参,利用随机抽样一致算法计算出该第一影像和该第二影像的相对位置和姿态;
第二提取模块306,用于通过角点检测算法提取该无畸变影像高精度的角点,并将提取的角点作为第二特征点,利用第二特征检测算法提取每个该第二特征点的特征描述;
第二匹配模块307,用于以该第一影像和该第二影像的相对位置和姿态为核线约束,对该第二特征点和该第二特征点的特征描述进行基于距离的匹配,得到该第一影像和该第二影像的第二同名点的信息;
相关性确认模块308,用于利用该影像和该机载定姿定位系统数据构建德洛内三角网,获取该德洛内三角网中该第一影像和该第二影像之间的边的权值,以得到该第一影像和该第二影像的相关性,其中,该德洛内三角网的每个顶点为每张该影像,顶点坐标为该机载定姿定位系统数据的经纬度值,每条边具有唯一的权值;
分割模块309,用于将该德洛内三角网,通过预设方式的区域增长分割为多个子图;
第一重建模块310,用于将每个该子图进行增量式重建,得到该影像的位置、姿态和稀疏的三维点云;
合并模块311,用于按照预置方式合并各该子图;
第二重建模块312,用于将影像的外方位元素及稀疏的三维点云、相机内参加入,进行全局式重建优化,得到影像的最终位置和姿态。
进一步地,畸变纠正模块302,还具体用于从每张该影像,得到该相机内参,该相机内参包括焦距、像主点和畸变参数;
根据该相机内参,调整该影像畸变纠正前后的坐标改正公式;
根据该影像进行畸变纠正前的坐标和该改正公式,计算得到该影像的畸变纠正后的坐标,并采用双线性内插计算出该畸变纠正后的坐标对应的颜色值,以得到该影像对应的无畸变影像。
第一匹配模块304,还具体用于对所有影像构建德洛内三角网,该德洛内三角网的每个顶点对应一张影像,顶点坐标为对应影像的机载定姿定位系统数据的经纬度值,两张影像的图距离定义为通过两张影像对应的顶点的最少边数;
令匹配影像为A,待匹配的影像集合为B,集合B为{b1,b2,...bn},其中集合B中的影像与A的图距离均小于预设距离,且已根据图距离排序;u为自然数
匹配失败的次数用Nfail表示,令Nfail=0,逐一将A与集合B中的影像bi进行匹配,若A与bi的同名点数大于预设数量,则将Nfail置为零,若A与bi的同名点数小于等于该预设数量,则将Nfail加一;i为自然数,且i<n。
当Nfail大于预设数值时,匹配结束,得到该第一影像和该第二影像间的第一同名点的信息。
第二匹配模块307,还具体用于令该第一影像的特征点为{f0…fi…fn},对应的特征点的特征描述为{a0…ai…an},该第二影像的特征点为{g0…gj…gm},对应的特征描述为{b0…bj…bm},其中,fi和gj为2维向量,ai和bj为256位的二进制串,fi与ai一一对应,gj与bj一一对应;i、n、j、m为自然数,i<n,j<m。
利用该第一影像和该第二影像的相对位置和姿态,对该第一影像的特征点和第二影像的特征点进行核线对齐,对齐后的该第一影像的特征点为{f'0…f'i…f'n},对齐后的该第二影像的特征点为{g'0…g'j…g'm};
从对齐后的第一影像特征点{f'0…f'i…f'n}中,任取该第一影像的特征点的一个特征描述ai,计算与其y方向差异小于预设数量像素的所有特征描述子{bu…bv…bw}的海明距离,假设海明距离最小的两个特征描述为bu和bv,对应的海明距离分别为du和dv其中,du≤dv,若du/dv小于预设比例,则称该第二影像中的特征点gu为该第一影像中的特征点fi的最佳匹配特征;
从对齐后的第二影像特征点{g'0…g'j…g'm}中,任取该第二影像的特征点的一个特征描述bi,计算与其y方向差异小于该预设数量像素的所有特征描述子{bu…bv…bw}的海明距离,假设海明距离最小的两个特征描述为bu和bv,对应的海明距离分别为du和dv其中,du≤dv,若du/dv小于该预设比例,则称该第一影像中的特征点gi为该第二影像中的特征点fu的最佳匹配特征;
确认互为最佳匹配特征的第一影像中的特征点fi和该第二影像中的特征点gj为同名点,对应的同名点信息为该第二同名点信息。
其中,i、n、j、m均为自然数,并且,i<n;j<m;u、v、w均为自然数,并且,u<v<w。
相关性确认模块308,还具体用于令待计算相关性的第一影像的同名点集合为{a0…ai…an},第二影像的同名点集合为{b0…bi…bn},其中,其中ai和bi分别为第一影像和第二影像对应的同名点;
根据该第一影像和该第二影像的相对位置和姿态,以及该第一影像和该第二影像对应的同名点坐标,通过前方交会法计算出该同名点的交会角;
统计所有在预设角度范围之内的该交会角的数量Nangle,则该第一影像和该第二影像的相关性R的计算公式如下:
其中,e为自然常数e。
分割模块309,还具体用于遍历该德洛内三角网中的每个三角形,每个三角形的权值为对应三条边的权值之和;选取权值最高的三角形作为起点,将该权值最高的三角形加入到当前子图中,采用贪心准则进行区域增长,将每次将权重最高的邻接三角形加入到当前子图中,直到当前子图的顶点数量到达预设的最高数量或所有三角形均已处理完毕;将当前子图从该德洛内三角网中剔除,如果该德洛内三角网不为空,则继续执行该选取权值最高的三角形作为起点,将该权值最高的三角形加入到当前子图中,采用贪心准则进行区域增长,将每次将权重最高的邻接三角形加入到当前子图中,直到当前子图的顶点数量到达预设的最高数量或所有三角形均已处理完毕的步骤,即选取权值最高的三角形为起点,将该三角形加入到当前子图中,采用贪心准则进行区域增长,将每次将权重最高的邻接三角形加入到当前子图中,直到该德洛内三角网为空,则该子图分割完毕。
合并模块311,具体用于将该当前子图与该当前子图邻近的顶点数量最少的子图合并,还具体用于若当前子图的顶点数量小于预设顶点数量,则将该当前子图与该当前子图邻近的顶点数量最少的子图合并。
本发明实施例中未尽细节,参见前述无人机影像定位定姿方法的实施例的描述,此处不再赘述。
本发明实施例中,通过相机的高精度检校来解决非测量型相机畸变大且不同相机间差异大的问题,由于未知变量的减少有效地降低了处理过程的计算量,同时提高了处理结果的精度和稳定性,以及采取从粗到精和核线约束的匹配策略,使得海量无人机影像匹配的效率达到了实时的处理要求,通过相关性的子图分割,确保小规模问题求解的效率,同时先增量重建再全局优化重建的策略进一步提高了处理结果的精度,从而提高了无人机获取影像的位置和姿态的准确性。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者装置中还存在另外的相同要素。
本领域技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁带,磁盘或光盘等。

Claims (10)

1.一种无人机影像定位定姿方法,其特征在于,所述方法包括:
获取影像和机载定姿定位系统数据;
使用相机内参对所述影像进行畸变纠正,得到无畸变影像,所述相机内参经过预置的检校方式进行高精度检校得到;
通过第一特征检测算法,提取所述无畸变影像的第一特征点及第一特征点的特征描述;
以所述机载定姿定位系统数据为空间约束,对所述第一特征点和所述第一特征点的特征描述进行基于距离的匹配,得到第一影像和第二影像的的第一同名点信息;
根据所述第一同名点信息和所述相机内参,利用随机抽样一致算法计算出所述第一影像和所述第二影像的相对位置和姿态;
通过角点检测算法提取所述无畸变影像高精度的角点,并将提取的角点作为第二特征点,利用第二特征检测算法提取每个所述第二特征点的特征描述;
以所述第一影像和所述第二影像的相对位置和姿态为核线约束,对所述第二特征点和所述第二特征点的特征描述进行基于距离的匹配,得到所述第一影像和所述第二影像的第二同名点的信息;
利用所述影像和所述机载定姿定位系统数据构建德洛内三角网,获取所述德洛内三角网中所述第一影像和所述第二影像之间的边的权值,以得到所述第一影像和所述第二影像的相关性,其中,所述德洛内三角网的每个顶点为每张所述影像,顶点坐标为所述机载定姿定位系统数据的经纬度值,每条边具有唯一的权值;
将所述德洛内三角网,通过预设方式的区域增长分割为多个子图;
将每个所述子图进行增量式重建,得到所述影像的位置、姿态和稀疏的三维点云;
按照预置方式合并各所述子图,将影像的外方位元素及稀疏的三维点云、相机内参加入,进行全局式重建优化,得到影像的最终位置和姿态。
2.如权利要求1所述的方法,其特征在于,所述使用相机内参对所述影像进行畸变纠正,得到无畸变影像之前包括:
对无人机搭载的相机进行高精度检校,得到所述相机内参,所述相机内参包括焦距、像主点和畸变参数。
3.如权利要求2所述的方法,其特征在于,所述对无人机搭载的相机进行高精度检校,得到所述相机内参包括:
设置畸变模型公式以及共线方程,并根据所述共线方程列出误差方程,通过最小二乘法计算出所述相机内参;
其中,畸变模型公式如下:
Δx=(x-x0)(k1r2+k2r4+k3r6)+
p1[r2+2(x-x0)2]+2p2(x-x0)(y-y0)+α(x-x0)+β(y-y0)
Δy=(y-y0)(k1r2+k2r4+k3r6)+p2[r2+2(y-y0)2]+2p1(x-x0)(y-y0)
其中:Δx,Δy为像点改正值;x,y为像方坐标系下的像点坐标;x0,y0为像主点,k1、k2、k3、p1、p2、a、b为畸变参数;
共线方程如下:
其中,f为焦距,x0,y0为像主点,a1、a2、a3、b1、b2、b3、c1、c2、c3为旋转矩阵中的元素,Xs、Ys、Zs为线元素,X、Y、Z为已知物方点的三维坐标,x、y为对应的像方点坐标;
令经过实测的控制点为{P1…Pn},控制点对应的像点则为{p1…pn},其中Pi=(Xi,Yi,Zi),pi=(xi,yi);
将相机的标称焦距作为f的初值,像主点x0,y0和畸变参数k1、k2、k3、p1、p2、a、b初始化为零;
则根据所述共线方程列出每个所述控制点的方程,所述共线方程可简化为如下:
利用直接线性变换算法计算出所述旋转矩阵中的元素a1、a2、a3、b1、b2、b3、c1、c2、c3及线元素Xs、Ys、Zs
列出每个控制点误差方程如下:
其中,Δxi,Δyi为xi和yi对应的像点改正值;
将所述直接线性变换算法计算出所述旋转矩阵中的元素a1、a2、a3、b1、b2、b3、c1、c2、c3及线元素Xs、Ys、Zs的值作为最小二乘法的初值,利用最小二乘法对最小化目标函数求解,得到所述相机内参;
其中,最小化目标函数为:
4.如权利要求3所述的方法,其特征在于,所述使用相机内参对所述影像进行畸变纠正,得到无畸变影像包括:
从每张所述影像,得到所述相机内参,所述相机内参包括焦距、像主点和畸变参数;
根据所述相机内参,调整所述影像畸变纠正前后的坐标改正公式;
根据所述影像进行畸变纠正前的坐标和所述改正公式,计算得到所述影像的畸变纠正后的坐标,并采用双线性内插计算出所述畸变纠正后的坐标对应的颜色值,以得到所述影像对应的无畸变影像。
5.如权利要求1所述的方法,其特征在于,所述以所述机载定姿定位系统数据为空间约束,对所述第一特征点和所述第一特征点的特征描述进行基于距离的匹配,得到第一影像和第二影像的的第一同名点信息包括:
对所有影像构建德洛内三角网,所述德洛内三角网的每个顶点对应一张影像,顶点坐标为对应影像的机载定姿定位系统数据的经纬度值,两张影像的图距离定义为通过两张影像对应的顶点的最少边数;
令匹配影像为A,待匹配的影像集合为B,集合B为{b1,b2,...bn},其中集合B中的影像与A的图距离均小于预设距离,且已根据图距离排序;
匹配失败的次数用Nfail表示,令Nfail=0,逐一将A与集合B中的影像bi进行匹配,若A与bi的同名点数大于预设数量,则将Nfail置为零,若A与bi的同名点数小于等于所述预设数量,则将Nfail加一;
当Nfail大于预设数值时,匹配结束,得到所述第一影像和所述第二影像间的第一同名点的信息。
6.如权利要求5所述的方法,其特征在于,所述以所述第一影像和所述第二影像的相对位置和姿态为核线约束,对所述第二特征点和所述第二特征点的特征描述进行基于距离的匹配,得到所述第一影像和所述第二影像的第二同名点的信息包括:
令所述第一影像的特征点为{f0…fi…fn},对应的特征点的特征描述为{a0…ai…an},所述第二影像的特征点为{g0…gj…gm},对应的特征描述为{b0…bj…bm},其中,fi和gj为2维向量,ai和bj为256位的二进制串,fi与ai一一对应,gj与bj一一对应;
利用所述第一影像和所述第二影像的相对位置和姿态,对所述第一影像的特征点和第二影像的特征点进行核线对齐,对齐后的所述第一影像的特征点为{f'0…f'i…f'n},对齐后的所述第二影像的特征点为{g'0…g'j…g'm};
从对齐后的所述第一影像特征点中,任取所述第一影像的特征点的一个特征描述ai,计算与其y方向差异小于预设数量像素的所有特征描述子{bu…bv…bw}的海明距离,假设海明距离最小的两个特征描述为bu和bv,对应的海明距离分别为du和dv其中,du≤dv,若du/dv小于预设比例,则称所述第二影像中的特征点gu为所述第一影像中的特征点fi的最佳匹配特征;
从对齐后的所述第二影像特征点中,任取所述第二影像的特征点的一个特征描述bi,计算与其y方向差异小于所述预设数量像素的所有特征描述子{bu…bv…bw}的海明距离,假设海明距离最小的两个特征描述为bu和bv,对应的海明距离分别为du和dv其中,du≤dv,若du/dv小于所述预设比例,则称所述第一影像中的特征点gi为所述第二影像中的特征点fu的最佳匹配特征;
确认互为最佳匹配特征的第一影像中的特征点fi和所述第二影像中的特征点gj为同名点,对应的同名点信息为所述第二同名点信息。
7.如权利要求6所述的方法,其特征在于,所述利用所述影像和所述机载定姿定位系统数据构建德洛内三角网,获取所述德洛内三角网中所述第一影像和所述第二影像之间的边的权值,以得到所述第一影像和所述第二影像的相关性包括:
令待计算相关性的第一影像的同名点集合为{a0…ai…an},第二影像的同名点集合为{b0…bi…bn},其中,其中ai和bi分别为第一影像和第二影像对应的同名点;
根据所述第一影像和所述第二影像的相对位置和姿态,以及所述第一影像和所述第二影像对应的同名点坐标,通过前方交会法计算出所述同名点的交会角;
统计所有在预设角度范围之内的所述交会角的数量Nangle,则所述第一影像和所述第二影像的相关性R的计算公式如下:
8.如权利要求7所述的方法,其特征在于,所述将所述德洛内三角网,通过预设方式的区域增长分割为多个子图包括:
遍历所述德洛内三角网中的每个三角形,每个三角形的权值为对应三条边的权值之和;
选取权值最高的三角形作为起点,将所述权值最高的三角形加入到当前子图中,采用贪心准则进行区域增长,将每次将权重最高的邻接三角形加入到当前子图中,直到当前子图的顶点数量到达预设的最高数量或所有三角形均已处理完毕;
将当前子图从所述德洛内三角网中剔除,如果所述德洛内三角网不为空,则继续执行所述选取权值最高的三角形作为起点,将所述权值最高的三角形加入到当前子图中,采用贪心准则进行区域增长,将每次将权重最高的邻接三角形加入到当前子图中,直到当前子图的顶点数量到达预设的最高数量或所有三角形均已处理完毕的步骤,即选取权值最高的三角形为起点,将该三角形加入到当前子图中,采用贪心准则进行区域增长,将每次将权重最高的邻接三角形加入到当前子图中,直到所述德洛内三角网为空,则所述子图分割完毕。
9.如权利要求8所述的方法,其特征在于,所述按照预置方式合并各所述子图包括:
将所述当前子图与所述当前子图邻近的顶点数量最少的子图合并。
10.一种无人机,包括:相机、存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时,实现权利要求1至9中的任意一项所述无人机影像定位定姿方法。
CN201810223815.4A 2018-03-19 2018-03-19 无人机影像定位定姿方法及无人机 Active CN108759788B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810223815.4A CN108759788B (zh) 2018-03-19 2018-03-19 无人机影像定位定姿方法及无人机

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810223815.4A CN108759788B (zh) 2018-03-19 2018-03-19 无人机影像定位定姿方法及无人机

Publications (2)

Publication Number Publication Date
CN108759788A true CN108759788A (zh) 2018-11-06
CN108759788B CN108759788B (zh) 2020-11-24

Family

ID=63980482

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810223815.4A Active CN108759788B (zh) 2018-03-19 2018-03-19 无人机影像定位定姿方法及无人机

Country Status (1)

Country Link
CN (1) CN108759788B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109949357A (zh) * 2019-02-27 2019-06-28 武汉大学 一种立体影像对相对姿态恢复方法
CN109974688A (zh) * 2019-03-06 2019-07-05 深圳飞马机器人科技有限公司 通过无人机定位的方法及终端
CN110135455A (zh) * 2019-04-08 2019-08-16 平安科技(深圳)有限公司 影像匹配方法、装置及计算机可读存储介质
CN112365541A (zh) * 2020-11-24 2021-02-12 北京航空航天大学青岛研究院 一种基于相似变换的大场景相机姿态注册方法
CN113790711A (zh) * 2021-09-10 2021-12-14 同济大学 一种无人机低空飞行位姿无控多视测量方法及存储介质
CN114782525A (zh) * 2022-06-22 2022-07-22 中国地质大学(武汉) 基于全局几何约束的无人机影像定位定向方法及设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010129907A3 (en) * 2009-05-08 2011-01-06 Scientific Systems Company Inc. Method and system for visual collision detection and estimation
CN103925919A (zh) * 2014-01-10 2014-07-16 北京航天飞行控制中心 一种基于鱼眼相机的行星车探测点定位方法
CN105761257A (zh) * 2016-02-05 2016-07-13 中测新图(北京)遥感技术有限责任公司 交叉航带上无人机影像匹配中粗差的剔除方法和装置
CN105783879A (zh) * 2016-03-03 2016-07-20 中国测绘科学研究院 一种条带约束下的同轨卫星连续景影像定位方法
CN106529495A (zh) * 2016-11-24 2017-03-22 腾讯科技(深圳)有限公司 一种飞行器的障碍物检测方法和装置
CN107192375A (zh) * 2017-04-28 2017-09-22 北京航空航天大学 一种基于航拍姿态的无人机多帧图像自适应定位校正方法
CN107564111A (zh) * 2017-05-31 2018-01-09 武汉圆桌智慧科技有限公司 基于计算机视觉的电力线空间安全分析方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010129907A3 (en) * 2009-05-08 2011-01-06 Scientific Systems Company Inc. Method and system for visual collision detection and estimation
CN103925919A (zh) * 2014-01-10 2014-07-16 北京航天飞行控制中心 一种基于鱼眼相机的行星车探测点定位方法
CN105761257A (zh) * 2016-02-05 2016-07-13 中测新图(北京)遥感技术有限责任公司 交叉航带上无人机影像匹配中粗差的剔除方法和装置
CN105783879A (zh) * 2016-03-03 2016-07-20 中国测绘科学研究院 一种条带约束下的同轨卫星连续景影像定位方法
CN106529495A (zh) * 2016-11-24 2017-03-22 腾讯科技(深圳)有限公司 一种飞行器的障碍物检测方法和装置
CN107192375A (zh) * 2017-04-28 2017-09-22 北京航空航天大学 一种基于航拍姿态的无人机多帧图像自适应定位校正方法
CN107564111A (zh) * 2017-05-31 2018-01-09 武汉圆桌智慧科技有限公司 基于计算机视觉的电力线空间安全分析方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109949357A (zh) * 2019-02-27 2019-06-28 武汉大学 一种立体影像对相对姿态恢复方法
CN109949357B (zh) * 2019-02-27 2022-07-05 武汉大学 一种立体影像对相对姿态恢复方法
CN109974688A (zh) * 2019-03-06 2019-07-05 深圳飞马机器人科技有限公司 通过无人机定位的方法及终端
CN110135455A (zh) * 2019-04-08 2019-08-16 平安科技(深圳)有限公司 影像匹配方法、装置及计算机可读存储介质
WO2020206903A1 (zh) * 2019-04-08 2020-10-15 平安科技(深圳)有限公司 影像匹配方法、装置及计算机可读存储介质
CN110135455B (zh) * 2019-04-08 2024-04-12 平安科技(深圳)有限公司 影像匹配方法、装置及计算机可读存储介质
CN112365541A (zh) * 2020-11-24 2021-02-12 北京航空航天大学青岛研究院 一种基于相似变换的大场景相机姿态注册方法
CN112365541B (zh) * 2020-11-24 2022-09-02 北京航空航天大学青岛研究院 一种基于相似变换的大场景相机姿态注册方法
CN113790711A (zh) * 2021-09-10 2021-12-14 同济大学 一种无人机低空飞行位姿无控多视测量方法及存储介质
CN114782525A (zh) * 2022-06-22 2022-07-22 中国地质大学(武汉) 基于全局几何约束的无人机影像定位定向方法及设备
CN114782525B (zh) * 2022-06-22 2022-09-20 中国地质大学(武汉) 基于全局几何约束的无人机影像定位定向方法及设备

Also Published As

Publication number Publication date
CN108759788B (zh) 2020-11-24

Similar Documents

Publication Publication Date Title
CN108759788A (zh) 无人机影像定位定姿方法及无人机
CN112102458B (zh) 基于激光雷达点云数据辅助的单镜头三维图像重构方法
US20210141378A1 (en) Imaging method and device, and unmanned aerial vehicle
CN108470370B (zh) 三维激光扫描仪外置相机联合获取三维彩色点云的方法
CN110211043B (zh) 一种用于全景图像拼接的基于网格优化的配准方法
CN114936971A (zh) 一种面向水域的无人机遥感多光谱图像拼接方法及系统
CN106485690A (zh) 基于点特征的点云数据与光学影像的自动配准融合方法
CN110223389B (zh) 融合图像与激光数据的场景建模方法、系统、装置
CN105354841B (zh) 一种快速遥感影像匹配方法及系统
Guo et al. Mapping crop status from an unmanned aerial vehicle for precision agriculture applications
CN104616247B (zh) 一种用于基于超像素sift航拍地图拼接的方法
Schönberger et al. Structure-from-motion for MAV image sequence analysis with photogrammetric applications
CN114529615B (zh) 雷达标定方法、装置及存储介质
CN110781903A (zh) 基于网格优化和全局相似性约束的无人机图像拼接方法
CN117197333A (zh) 基于多目视觉的空间目标重构与位姿估计方法及系统
Ribera et al. Estimating phenotypic traits from UAV based RGB imagery
CN116758223A (zh) 基于双角度多光谱图像的三维多光谱点云重建方法、系统及设备
CN117218201A (zh) Gnss拒止条件下无人机影像定位精度提升方法及系统
CN105787464A (zh) 一种大量图片在三维场景中的视点标定方法
CN110458945B (zh) 通过空中倾斜摄影结合视频数据的自动建模方法及系统
CN115631317A (zh) 隧道衬砌正射影像生成方法及装置、存储介质、终端
Remondino et al. Evaluating hand-crafted and learning-based features for photogrammetric applications
Jiang et al. Learned local features for structure from motion of uav images: A comparative evaluation
CN117315146A (zh) 基于跨尺度多源数据的三维模型的重建方法及存储方法
CN114972645A (zh) 一种三维重建方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: UAV image positioning and attitude determination method and UAV

Effective date of registration: 20210719

Granted publication date: 20201124

Pledgee: Shenzhen small and medium sized small loan Co.,Ltd.

Pledgor: SHENZHEN FEIMA ROBOTICS Co.,Ltd.

Registration number: Y2021980006430

CP03 Change of name, title or address
CP03 Change of name, title or address

Address after: 518000, 1st Floor, 16th Building, Zhiheng Industrial Park, Nantou Street, Nanshan District, Shenzhen City, Guangdong Province

Patentee after: Shenzhen Pegasus Robotics Co.,Ltd.

Address before: 518000, 1st Floor, 16th Building, Zhiheng Industrial Park, Nantou Street, Nanshan District, Shenzhen City, Guangdong Province

Patentee before: SHENZHEN FEIMA ROBOTICS Co.,Ltd.

CP03 Change of name, title or address
CP03 Change of name, title or address

Address after: 518000, 13th Floor, Building A4, Nanshan Zhiyuan, No. 1001 Xueyuan Avenue, Changyuan Community, Taoyuan Street, Nanshan District, Shenzhen, Guangdong Province

Patentee after: Shenzhen Pegasus Robotics Co.,Ltd.

Country or region after: China

Address before: 518000, 1st Floor, 16th Building, Zhiheng Industrial Park, Nantou Street, Nanshan District, Shenzhen City, Guangdong Province

Patentee before: Shenzhen Pegasus Robotics Co.,Ltd.

Country or region before: China