CN105389819B - 一种鲁棒的半标定下视图像极线校正方法及系统 - Google Patents
一种鲁棒的半标定下视图像极线校正方法及系统 Download PDFInfo
- Publication number
- CN105389819B CN105389819B CN201510776198.7A CN201510776198A CN105389819B CN 105389819 B CN105389819 B CN 105389819B CN 201510776198 A CN201510776198 A CN 201510776198A CN 105389819 B CN105389819 B CN 105389819B
- Authority
- CN
- China
- Prior art keywords
- image
- characteristic point
- matrix
- angle
- unmanned vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 239000011159 matrix material Substances 0.000 claims abstract description 52
- 238000012937 correction Methods 0.000 claims abstract description 28
- 238000003384 imaging method Methods 0.000 claims abstract description 25
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000004422 calculation algorithm Methods 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 8
- 238000010276 construction Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 230000001419 dependent effect Effects 0.000 description 2
- 230000002542 deteriorative effect Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- PIXJURSCCVBKRF-UHFFFAOYSA-N 2-amino-3-(5-tert-butyl-3-oxo-4-isoxazolyl)propanoic acid Chemical compound CC(C)(C)C=1ONC(=O)C=1CC([NH3+])C([O-])=O PIXJURSCCVBKRF-UHFFFAOYSA-N 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种鲁棒的半标定下视图像极线校正方法及系统,该方法包括以下步骤:S1、获取无人飞行器每一成像时刻下视相机拍摄的图像,相机的内参数矩阵,以及无人飞行器的惯导系统提供的姿态参数,构建平行于地平面的虚拟成像环境;S2、对不同成像时刻的图像分别提取特征点,构建初始特征点对应集合;并根据该集合得到变换后的特征点对应集合;S3、构建概率表达模型,计算无人飞行器的航向与正北方向的夹角;S4、计算单应变换矩阵,并根据该矩阵,对每一成像时刻的图像进行极线校正。本发明能够快速的完成校正,并且能够得到精度较高的校正图像,对于无人机辅助导航等应用领域具有重要的指导意义。
Description
技术领域
本发明涉及计算机视觉和遥感技术交叉领域,尤其涉及一种鲁棒的半标定下视图像极线校正方法及系统。
背景技术
近年来,无人飞行器(Unmanned Aerial Vehicles,UAV)在军用和民用领域的应用都越来越广。机载相机属于被动传感器,它利用可见光或红外线这种自然信息,满足无人飞行器的测速、测高、定位、定姿、地图创建等自主导航需求。无人飞行器背景下的机载光学成像平台按照安放位置可以分为前视、下视、旁视几种。本发明针对的主要是机载下视光学成像平台,通过无人飞行器在运动过程中获取的下视图像对或图像序列,来感知场景三维信息。对于低空和超低空无人飞行器,地形起伏引起的视差结合惯导数据,则可以反应地形变化、无人飞行器的飞行高度以及飞行速度,因此可以通过下视序列图像之间的视差信息来完成量测、地形匹配、自主导航等任务。在运动视觉系统中,图像对的极线校正是非常重要一环。本发明解决的极线校正问题是在一种半标定的情形下,即部分参数已知,部分参数未知的情形。这在装有精密陀螺仪或重力传感器的光学成像平台下很常见,平台的姿态可以精确的得到,而其具体位置难以准确获取。
对于半标定的极线校正,由于缺乏相机的全部参数,一般当作未标定的极线校正问题处理。即仅仅依赖于基础矩阵,或者其他的极线几何表达来确定校正变换形式。1988年Ayache在国际会议《International Conference on Pattern Recognition》上发表的论文“Rectification of images for binocular and trinocular stereovision”导出了理想相机对的必要约束,根据相机平面来决定相机矩阵的行向量,解决了世界坐标原点选择的问题,新坐标原点选择靠近两个主轴的点,在校正前,相机矩阵在新坐标系下重新计算,此时,理想相机的主轴在原相机主轴的中间,如果投影到垂直于基线的平面,新的主轴在原主轴的中间,这反映了将相机改变的越小越好。1999年Hartley 在International Journalof Computer Vision》上发表的论文“Theory and practice of projectiverectification”提出了基于基础矩阵的极线校正方法。该算法对两幅图像分别搜索校正单应,先将第一幅图中的极点映射到无穷远处,该单应应该满足这样的条件,即对于给定的图像点,如图像的中心点,其邻域的变换尽可能的为刚体变换。然后将一个映射作用于第二幅图像上面,使得图像互相匹配。2000年Fusiello在Machine Vision and Applications》上发表的论文“Rectification of images for binocular and trinocular stereovision”采用的约束和Ayache一致,增加了一个主平面选择的思路。该方法需要保证坐标系统的正交性,并将主点设为图像坐标系的原点,将主轴定位于由基线和第一个主轴确定的平面上,且垂直于基线。2008年Fusiello 在国际会议《International Conference on PatternRecognition》上发表的论文“Quasi-Euclidean Uncalibrated Epipolar Rectification”利用图像对间的同名点关系求解相机未标定的极线校正。这类方法的校正精度很大程度上依赖于基础矩阵的求解精度,而基础矩阵的求解依赖于稀疏同名点匹配的精度,以及稀疏同名点的分布。如果在生成图像对的过程中,相机的运动为纯平移运动,则不会遇到所有的三维点共面时所产生的退化结构。
发明内容
本发明要解决的技术问题在于针对现有技术中半标定情况下图像极线校正的方法不够准确的缺陷,提供一种能够在无人飞行器机载相机成像过程中部分参数未知的情况下完成不同时刻图像间的极线校正的鲁棒的半标定下视图像极线校正方法及系统。
本发明解决其技术问题所采用的技术方案是:
本发明提供一种鲁棒的半标定下视图像极线校正方法,包括以下步骤:
S1、获取无人飞行器每一成像时刻下视相机拍摄的图像,相机的内参数矩阵,以及无人飞行器的惯导系统提供的姿态参数,利用这些参数构建平行于地平面的虚拟成像环境;
S2、对不同成像时刻的图像分别提取特征点,构建初始特征点对应集合;并根据该集合变换到平行于地平面的虚拟成像环境,得到变换后的特征点对应集合;
S3、根据变换后的特点对应集合构建概率表达模型,并使用最大期望算法,计算无人飞行器的航向与正北方向的夹角;
S4、根据姿态参数、内参数矩阵和航向与正北方向的夹角,计算单应变换矩阵,并根据该矩阵,对每一成像时刻的图像进行极线校正。
步骤S1中构建平行于地平面的虚拟成像环境的公式为:
其中:
θ,γ,ω三个参数分别表示无人飞行器姿态信息中的俯仰角、侧滚角和偏航角,K为相机的内参数矩阵;
通过公式x’=H1x可以将图像中的每一点映射到与地平面平行的像平面上,其中,x和x’图像点为变换前后的齐次表达。
步骤S2中计算变换后的特征点对应集合的公式为:
m1≌H1m
其中,(m,m1)分别为初始特征点对应集合和变换后的特征点对应集合的齐次表达。
步骤S3中概率表达模型的计算公式为:
其中,S为变换后的特征点对应集合,ε=(H2m1′)TF(H2m1), F=[(1,0,0)T]x为校正图像对应的基础矩阵表达,H2=KR2K-1,m1′为m1对应的特征点,N为特征点匹配的个数,i为对第i对特征点对,a为图像面积,所需要估计得参数κ为无人飞行器的航向与正北方向的夹角,σ为高斯分布的标准差,γ为正确匹配与错误匹配的比例参数,且R2为:
步骤S4中单应变换矩阵的计算公式为:
本发明提供一种鲁棒的半标定下视图像极线校正系统,包括:
虚拟成像环境构建单元,用于获取无人飞行器每一成像时刻下视相机拍摄的图像,相机的内参数矩阵,以及无人飞行器的惯导系统提供的姿态参数,利用这些参数构建平行于地平面的虚拟成像环境;
特征点集合变换单元,用于对不同成像时刻的图像分别提取特征点,构建初始特征点对应集合;并根据该集合变换到平行于地平面的虚拟成像环境,得到变换后的特征点对应集合;
夹角计算单元,用于根据变换后的特点对应集合构建概率表达模型,并使用最大期望算法,计算无人飞行器的航向与正北方向的夹角;
极线校正单元,用于根据姿态参数、内参数矩阵和航向与正北方向的夹角,计算单应变换矩阵,并根据该矩阵,对每一成像时刻的图像进行极线校正。
本发明产生的有益效果是:本发明的鲁棒的半标定下视图像极线校正方法,首先根据相机内参数和姿态参数,将相机运动变换为纯平移运动的情形,避免退化结构下基础矩阵的估计不唯一的情形,然后对初始匹配加权,得到一个加权的最小二乘问题,并通过期望最大化算法迭代的估计每个匹配点的权重以及相应的参数,以完成最后图像对的极线校正;本方法能够快速的完成校正,并且能够得到精度较高的校正图像,对于无人机辅助导航等应用领域具有重要的指导意义。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明实施例的鲁棒的半标定下视图像极线校正方法的流程图;
图2是本发明实施例的鲁棒的半标定下视图像极线校正系统的框图;
图3是本发明实施例的鲁棒的半标定下视图像极线校正方法的整体流程图;
图4是本发明实施例的鲁棒的半标定下视图像极线校正方法的T1时刻图像;
图5是本发明实施例的鲁棒的半标定下视图像极线校正方法的T2时刻图像;
图6是本发明实施例的鲁棒的半标定下视图像极线校正方法提取的特征点对;
图7是本发明实施例的鲁棒的半标定下视图像极线校正方法校正结果图像。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
如图1所示,本发明实施例的鲁棒的半标定下视图像极线校正方法,包括以下步骤:
S1、获取无人飞行器每一成像时刻下视相机拍摄的图像,相机的内参数矩阵,以及无人飞行器的惯导系统提供的姿态参数,利用这些参数构建平行于地平面的虚拟成像环境;构建平行于地平面的虚拟成像环境的公式为:
其中:
θ,γ,ω三个参数分别表示无人飞行器姿态信息中的俯仰角、侧滚角和偏航角,K为相机的内参数矩阵;
通过公式x’=H1x可以将图像中的每一点映射到与地平面平行的像平面上,其中,x和x’图像点为变换前后的齐次表达。
S2、对不同成像时刻的图像分别提取特征点,构建初始特征点对应集合;并根据该集合变换到平行于地平面的虚拟成像环境,得到变换后的特征点对应集合;计算变换后的特征点对应集合的公式为:
m1≌H1m
其中,(m,m1)分别为初始特征点对应集合和变换后的特征点对应集合的齐次表达。
S3、根据变换后的特点对应集合构建概率表达模型,并使用最大期望算法,计算无人飞行器的航向与正北方向的夹角;概率表达模型的计算公式为:
其中,S为变换后的特征点对应集合,ε=(H2m1′)TF(H2m1), F=[(1,0,0)T]x为校正图像对应的基础矩阵表达,H2=KR2K-1,m1′为m1对应的特征点,N为特征点匹配的个数,i为对第i对特征点对,a为图像面积,所需要估计得参数κ为无人飞行器的航向与正北方向的夹角,σ为高斯分布的标准差,γ为正确匹配与错误匹配的比例参数,且R2为:
S4、根据姿态参数、内参数矩阵和航向与正北方向的夹角,计算单应变换矩阵,并根据该矩阵,对每一成像时刻的图像进行极线校正;单应变换矩阵的计算公式为:
如图2所示,本发明实施例的鲁棒的半标定下视图像极线校正系统用于实现本发明实施例的鲁棒的半标定下视图像极线校正方法,包括:
虚拟成像环境构建单元,用于获取无人飞行器每一成像时刻下视相机拍摄的图像,相机的内参数矩阵,以及无人飞行器的惯导系统提供的姿态参数,利用这些参数构建平行于地平面的虚拟成像环境;
特征点集合变换单元,用于对不同成像时刻的图像分别提取特征点,构建初始特征点对应集合;并根据该集合变换到平行于地平面的虚拟成像环境,得到变换后的特征点对应集合;
夹角计算单元,用于根据变换后的特点对应集合构建概率表达模型,并使用最大期望算法,计算无人飞行器的航向与正北方向的夹角;
极线校正单元,用于根据姿态参数、内参数矩阵和航向与正北方向的夹角,计算单应变换矩阵,并根据该矩阵,对每一成像时刻的图像进行极线校正。
如图3所示,本发明的另一个实施例中,半标定下视图像极线校正方法包括以下步骤:
S1、根据无人飞行器每一成像时刻,惯导系统给出的姿态参数(θ,γ,ω)和相机的内参数矩阵K,由公式H1≌KR-1K-1得到相应的单应变换矩阵H1,其中,θ,γ,ω三个参数分别表示无人飞行器的俯仰角、侧滚角和偏航角,且:
通过公式x’=H1x可以将图像中的每一点映射到与地平面平行的像平面上,其中,x和x’图像点为变换前后的齐次表达。
本实例中,实验影像由挂载在无人飞行器上的实验图像由挂载在无人飞行器上的NIKON D300拍摄,图像大小为2848×4288。
图4为T1时刻拍摄的图像,图5为T2时刻拍摄的图像。实验中,相机的内参数已标定,且:
飞行器在两相邻成像时刻惯性导航系统给出的无人机飞行姿态信息θ,γ,ω分别为(2.989,-0.749,83.774)和(3.019,-0.743,83.709)。
S2、对不同时刻的图像分别提取特征点,并构建初始特征点对应集合,如图6所示,特征点的提取可以采用SIFT算子加速鲁棒特征子、ORB算子等等;
S3、通过S1步得到的每幅影像的单应变换矩阵(H1,H1′),根据公式 m1≌H1m,将初始特征点对应集合中的同名点对(m,m′)变换到点(m1,m1′);
S4、通过S3步得到的新的特征点集合构建极线几何约束的混合概率模型。假设正确同名点对存在高斯噪声,则对于正确的匹配点对,有 (H2m1′)TF(H2m1)=ε,其中,ε~N(0,σ2),F=[(1,0,0)T]x为校正图像对的基础矩阵表达,H2=KR2K-1,m1′为m1对应的特征点,这里有:
假设错误匹配点为均匀分布1/a,其中a为常量,这里初始化为图像面积。假设γ为正确匹配与错误匹配的比例参数。特征点匹配个数为N的同名点集S 的似然函数为两者的混合模型,其表达式为:
S5、构建带有从而可以构建带有隐变量的对数似然函数:
其中,pn=P(zn=1|sn,(κ,σ2,γ)old),表示正确匹配对的可信度。
EM算法的迭代过程如下:
E步:根据同名点对sn和当前的参数估计(κ,σ2,γ)old估计隐变量zn的后验分布可以得到每对同名点的权重,其表达式为:
M步:求Q((κ,σ2,γ),(κ,σ2,γ)old)的极大值,即更新模型函数:
其中:
1、通过公式更新参数σ2;
2、通过公式更新参数γ;
3、通过最小化P1/2Ax的范数来更新参数κ,其中:
A中的Δun=un-un′,Δvn=vn-vn′,(u,v,1)T为点m的齐次表达,值为 ATPA的最小特征值对应的单位特征向量,也称为最小二乘解。具体的解法即首先得到P1/2A=UDVT,则ATPA=VD2V-1,这里V的最后一列对应的是ATPA 的最小特征值对应的特征向量,求得向量x后,即可得到参数κ。
S6、综合S1中的惯导系统提供的姿态参数θ,γ,ω,内参数矩阵K和S5中无人飞行器的航向与正北方向的夹角κ,求得单应变换矩阵并根据该矩阵,将每一成像时刻的影像进行极线校正,最后校正结果如图7所示。
将本发明的方法在不同分辨率的机载图像中进行试验,结果显示,本发明能得到精准的校正图像对,对无人机景象辅助导航等应用有重要的指导意义。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。
Claims (3)
1.一种鲁棒的半标定下视图像极线校正方法,其特征在于,包括以下步骤:
S1、获取无人飞行器每一成像时刻下视相机拍摄的图像,相机的内参数矩阵,以及无人飞行器的惯导系统提供的姿态参数,利用这些参数构建平行于地平面的虚拟成像环境;
构建平行于地平面的虚拟成像环境的公式为:
其中:
θ,γ,ω三个参数分别表示无人飞行器姿态信息中的俯仰角、侧滚角和偏航角,K为相机的内参数矩阵;
通过公式x’=H1x可以将图像中的每一点映射到与地平面平行的像平面上,其中,x和x’图像点为变换前后的齐次表达;
S2、对不同成像时刻的图像分别提取特征点,构建初始特征点对应集合;并根据该集合变换到平行于地平面的虚拟成像环境,得到变换后的特征点对应集合;
计算变换后的特征点对应集合的公式为:
其中,(m,m1)分别为初始特征点对应集合和变换后的特征点对应集合的齐次表达;
S3、根据变换后的特点对应集合构建概率表达模型,并使用最大期望算法,计算无人飞行器的航向与正北方向的夹角;
概率表达模型的计算公式为:
其中,S为变换后的特征点对应集合,ε=(H2 m1 ′ )TF(H2m1),F=[(1,0,0)T]×为校正图像对应的基础矩阵表达,H2=KR2K-1,m1′为m1对应的特征点,N为特征点匹配的个数,i为对第i对特征点对,a为图像面积,所需要估计得参数κ为无人飞行器的航向与正北方向的夹角,σ为高斯分布的标准差,τ为正确匹配与错误匹配的比例参数,且R2为:
S4、根据姿态参数、内参数矩阵和航向与正北方向的夹角,计算单应变换矩阵,并根据该矩阵,对每一成像时刻的图像进行极线校正。
2.根据权利要求1所述的鲁棒的半标定下视图像极线校正方法,其特征在于,步骤S4中单应变换矩阵的计算公式为:
。
3.一种鲁棒的半标定下视图像极线校正系统,其特征在于,包括:
虚拟成像环境构建单元,用于获取无人飞行器每一成像时刻下视相机拍摄的图像,相机的内参数矩阵,以及无人飞行器的惯导系统提供的姿态参数,利用这些参数构建平行于地平面的虚拟成像环境;
构建平行于地平面的虚拟成像环境的公式为:
其中:
θ,γ,ω三个参数分别表示无人飞行器姿态信息中的俯仰角、侧滚角和偏航角,K为相机的内参数矩阵;
通过公式x’=H1x可以将图像中的每一点映射到与地平面平行的像平面上,其中,x和x’图像点为变换前后的齐次表达;
特征点集合变换单元,用于对不同成像时刻的图像分别提取特征点,构建初始特征点对应集合;并根据该集合变换到平行于地平面的虚拟成像环境,得到变换后的特征点对应集合;
计算变换后的特征点对应集合的公式为:
其中,(m,m1)分别为初始特征点对应集合和变换后的特征点对应集合的齐次表达;
夹角计算单元,用于根据变换后的特点对应集合构建概率表达模型,并使用最大期望算法,计算无人飞行器的航向与正北方向的夹角;
概率表达模型的计算公式为:
其中,S为变换后的特征点对应集合,ε=(H2 m1 ′)TF(H2m1),F=[(1,0,0)T]×为校正图像对应的基础矩阵表达,H2=KR2K-1,m1′为m1对应的特征点,N为特征点匹配的个数,i为对第i对特征点对,a为图像面积,所需要估计得参数κ为无人飞行器的航向与正北方向的夹角,σ为高斯分布的标准差,τ为正确匹配与错误匹配的比例参数,且R2为:
极线校正单元,用于根据姿态参数、内参数矩阵和航向与正北方向的夹角,计算单应变换矩阵,并根据该矩阵,对每一成像时刻的图像进行极线校正。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510776198.7A CN105389819B (zh) | 2015-11-13 | 2015-11-13 | 一种鲁棒的半标定下视图像极线校正方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510776198.7A CN105389819B (zh) | 2015-11-13 | 2015-11-13 | 一种鲁棒的半标定下视图像极线校正方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105389819A CN105389819A (zh) | 2016-03-09 |
CN105389819B true CN105389819B (zh) | 2019-02-01 |
Family
ID=55422068
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510776198.7A Expired - Fee Related CN105389819B (zh) | 2015-11-13 | 2015-11-13 | 一种鲁棒的半标定下视图像极线校正方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105389819B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113487676B (zh) * | 2018-03-19 | 2023-06-20 | 百度在线网络技术(北京)有限公司 | 确定安装于采集实体的相机之间相对姿态角的方法和装置 |
CN211668521U (zh) * | 2018-05-31 | 2020-10-13 | 上海快仓智能科技有限公司 | 用于图像采集的自动引导车、以及图像采集和处理系统 |
CN108830811A (zh) * | 2018-06-12 | 2018-11-16 | 西安微电子技术研究所 | 一种飞行参数与相机内参相结合的航空影像实时校正方法 |
CN111833404B (zh) * | 2019-04-23 | 2023-10-31 | 富联精密电子(天津)有限公司 | 摄像机校正系统及摄像机校正方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103426165A (zh) * | 2013-06-28 | 2013-12-04 | 吴立新 | 一种地面激光点云与无人机影像重建点云的精配准方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100792172B1 (ko) * | 2006-06-30 | 2008-01-07 | 중앙대학교 산학협력단 | 강건한 대응점을 이용한 기본행렬 추정 장치 및 그 방법 |
-
2015
- 2015-11-13 CN CN201510776198.7A patent/CN105389819B/zh not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103426165A (zh) * | 2013-06-28 | 2013-12-04 | 吴立新 | 一种地面激光点云与无人机影像重建点云的精配准方法 |
Non-Patent Citations (1)
Title |
---|
"机载平台下半标定的下视图像极线校正方法";周华兵等;《华中科技大学学报(自然科学版)》;20120930;第40卷(第9期);论文第21-24页 |
Also Published As
Publication number | Publication date |
---|---|
CN105389819A (zh) | 2016-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106708066B (zh) | 基于视觉/惯导的无人机自主着陆方法 | |
CN106989744A (zh) | 一种融合机载多传感器的旋翼无人机自主定位方法 | |
CN105389819B (zh) | 一种鲁棒的半标定下视图像极线校正方法及系统 | |
CN107390704B (zh) | 一种基于imu姿态补偿的多旋翼无人机光流悬停方法 | |
CN110274588A (zh) | 基于无人机集群信息的双层嵌套因子图多源融合导航方法 | |
CN108665499B (zh) | 一种基于视差法的近距飞机位姿测量方法 | |
CN108534782A (zh) | 一种基于双目视觉系统的地标地图车辆即时定位方法 | |
CN108845335A (zh) | 一种基于图像和导航信息的无人机地面目标定位方法 | |
CN105474033A (zh) | 智能机姿态测定、全景影像生成及目标识别方法 | |
CN110081875B (zh) | 一种仿鸽子智能的无人机自主导航系统及方法 | |
CN108965651A (zh) | 一种无人机高度测量方法以及无人机 | |
CN113551668B (zh) | 一种航天器惯性/恒星星光矢量/星光折射组合导航方法 | |
CN109425348A (zh) | 一种同时定位与建图的方法和装置 | |
CN111024072A (zh) | 一种基于深度学习的卫星地图辅助导航定位方法 | |
Lee et al. | Vision-based terrain referenced navigation for unmanned aerial vehicles using homography relationship | |
CN109341686A (zh) | 一种基于视觉-惯性紧耦合的飞行器着陆位姿估计方法 | |
CN106352897B (zh) | 一种基于单目视觉传感器的硅mems陀螺误差估计与校正方法 | |
CN115560760A (zh) | 一种面向无人机的视觉/激光测距高空导航方法 | |
CN111504323A (zh) | 基于异源图像匹配与惯性导航融合的无人机自主定位方法 | |
CN108594255B (zh) | 一种激光测距辅助光学影像联合平差方法及系统 | |
Delaune et al. | Visual–inertial navigation for pinpoint planetary landing using scale-based landmark matching | |
CN106959051B (zh) | 基于空间感知定位技术的武器瞄准系统的自动化校准方法 | |
CN106595600B (zh) | 立体测绘卫星姿态测定系统低频误差补偿方法及系统 | |
CN117455960B (zh) | 时变观测噪声条件下机载光电系统对地无源定位滤波方法 | |
CN111462241A (zh) | 一种基于单目视觉的目标定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190201 Termination date: 20211113 |