CN105389819A - 一种鲁棒的半标定下视图像极线校正方法及系统 - Google Patents

一种鲁棒的半标定下视图像极线校正方法及系统 Download PDF

Info

Publication number
CN105389819A
CN105389819A CN201510776198.7A CN201510776198A CN105389819A CN 105389819 A CN105389819 A CN 105389819A CN 201510776198 A CN201510776198 A CN 201510776198A CN 105389819 A CN105389819 A CN 105389819A
Authority
CN
China
Prior art keywords
image
matrix
gamma
sin
unmanned vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510776198.7A
Other languages
English (en)
Other versions
CN105389819B (zh
Inventor
周华兵
王燕燕
马佳义
张彦铎
陈灯
李晓林
鲁统伟
闵锋
卢涛
余宝成
李迅
朱锐
朱国家
任世强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Institute of Technology
Original Assignee
Wuhan Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Institute of Technology filed Critical Wuhan Institute of Technology
Priority to CN201510776198.7A priority Critical patent/CN105389819B/zh
Publication of CN105389819A publication Critical patent/CN105389819A/zh
Application granted granted Critical
Publication of CN105389819B publication Critical patent/CN105389819B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种鲁棒的半标定下视图像极线校正方法及系统,该方法包括以下步骤:S1、获取无人飞行器每一成像时刻下视相机拍摄的图像,相机的内参数矩阵,以及无人飞行器的惯导系统提供的姿态参数,构建平行于地平面的虚拟成像环境;S2、对不同成像时刻的图像分别提取特征点,构建初始特征点对应集合;并根据该集合得到变换后的特征点对应集合;S3、构建概率表达模型,计算无人飞行器的航向与正北方向的夹角;S4、计算单应变换矩阵,并根据该矩阵,对每一成像时刻的图像进行极线校正。本发明能够快速的完成校正,并且能够得到精度较高的校正图像,对于无人机辅助导航等应用领域具有重要的指导意义。

Description

一种鲁棒的半标定下视图像极线校正方法及系统
技术领域
本发明涉及计算机视觉和遥感技术交叉领域,尤其涉及一种鲁棒的半标定下视图像极线校正方法及系统。
背景技术
近年来,无人飞行器(UnmannedAerialVehicles,UAV)在军用和民用领域的应用都越来越广。机载相机属于被动传感器,它利用可见光或红外线这种自然信息,满足无人飞行器的测速、测高、定位、定姿、地图创建等自主导航需求。无人飞行器背景下的机载光学成像平台按照安放位置可以分为前视、下视、旁视几种。本发明针对的主要是机载下视光学成像平台,通过无人飞行器在运动过程中获取的下视图像对或图像序列,来感知场景三维信息。对于低空和超低空无人飞行器,地形起伏引起的视差结合惯导数据,则可以反应地形变化、无人飞行器的飞行高度以及飞行速度,因此可以通过下视序列图像之间的视差信息来完成量测、地形匹配、自主导航等任务。在运动视觉系统中,图像对的极线校正是非常重要一环。本发明解决的极线校正问题是在一种半标定的情形下,即部分参数已知,部分参数未知的情形。这在装有精密陀螺仪或重力传感器的光学成像平台下很常见,平台的姿态可以精确的得到,而其具体位置难以准确获取。
对于半标定的极线校正,由于缺乏相机的全部参数,一般当作未标定的极线校正问题处理。即仅仅依赖于基础矩阵,或者其他的极线几何表达来确定校正变换形式。1988年Ayache在国际会议《InternationalConferenceonPatternRecognition》上发表的论文“Rectificationofimagesforbinocularandtrinocularstereovision”导出了理想相机对的必要约束,根据相机平面来决定相机矩阵的行向量,解决了世界坐标原点选择的问题,新坐标原点选择靠近两个主轴的点,在校正前,相机矩阵在新坐标系下重新计算,此时,理想相机的主轴在原相机主轴的中间,如果投影到垂直于基线的平面,新的主轴在原主轴的中间,这反映了将相机改变的越小越好。1999年Hartley在InternationalJournalofComputerVision》上发表的论文“Theoryandpracticeofprojectiverectification”提出了基于基础矩阵的极线校正方法。该算法对两幅图像分别搜索校正单应,先将第一幅图中的极点映射到无穷远处,该单应应该满足这样的条件,即对于给定的图像点,如图像的中心点,其邻域的变换尽可能的为刚体变换。然后将一个映射作用于第二幅图像上面,使得图像互相匹配。2000年Fusiello在MachineVisionandApplications》上发表的论文“Rectificationofimagesforbinocularandtrinocularstereovision”采用的约束和Ayache一致,增加了一个主平面选择的思路。该方法需要保证坐标系统的正交性,并将主点设为图像坐标系的原点,将主轴定位于由基线和第一个主轴确定的平面上,且垂直于基线。2008年Fusiello在国际会议《InternationalConferenceonPatternRecognition》上发表的论文“Quasi-EuclideanUncalibratedEpipolarRectification”利用图像对间的同名点关系求解相机未标定的极线校正。这类方法的校正精度很大程度上依赖于基础矩阵的求解精度,而基础矩阵的求解依赖于稀疏同名点匹配的精度,以及稀疏同名点的分布。如果在生成图像对的过程中,相机的运动为纯平移运动,则不会遇到所有的三维点共面时所产生的退化结构。
发明内容
本发明要解决的技术问题在于针对现有技术中半标定情况下图像极线校正的方法不够准确的缺陷,提供一种能够在无人飞行器机载相机成像过程中部分参数未知的情况下完成不同时刻图像间的极线校正的鲁棒的半标定下视图像极线校正方法及系统。
本发明解决其技术问题所采用的技术方案是:
本发明提供一种鲁棒的半标定下视图像极线校正方法,包括以下步骤:
S1、获取无人飞行器每一成像时刻下视相机拍摄的图像,相机的内参数矩阵,以及无人飞行器的惯导系统提供的姿态参数,利用这些参数构建平行于地平面的虚拟成像环境;
S2、对不同成像时刻的图像分别提取特征点,构建初始特征点对应集合;并根据该集合变换到平行于地平面的虚拟成像环境,得到变换后的特征点对应集合;
S3、根据变换后的特点对应集合构建概率表达模型,并使用最大期望算法,计算无人飞行器的航向与正北方向的夹角;
S4、根据姿态参数、内参数矩阵和航向与正北方向的夹角,计算单应变换矩阵,并根据该矩阵,对每一成像时刻的图像进行极线校正。
步骤S1中构建平行于地平面的虚拟成像环境的公式为:
H 1 ≅ KR 1 - 1 K - 1
其中:
R 1 = R x ( - γ ) R y ( - θ ) R z ( - ω ) = 1 0 0 0 cos γ - sin γ 0 sin γ cos γ cos θ 0 sin θ 0 1 0 - sin θ 0 cos θ cos ω - sin ω 0 sin ω cos ω 0 0 0 1
θ,γ,ω三个参数分别表示无人飞行器姿态信息中的俯仰角、侧滚角和偏航角,K为相机的内参数矩阵;
通过公式x’=H1x可以将图像中的每一点映射到与地平面平行的像平面上,其中,x和x’图像点为变换前后的齐次表达。
步骤S2中计算变换后的特征点对应集合的公式为:
m1≌H1m
其中,(m,m1)分别为初始特征点对应集合和变换后的特征点对应集合的齐次表达。
步骤S3中概率表达模型的计算公式为:
P ( S | κ , σ 2 , γ ) = Π i = 1 N ( γ 2 πσ 2 e ϵ i 2 2 σ 2 + ( 1 - γ ) a )
其中,S为变换后的特征点对应集合,∈=(H2m1′)TF(H2m1),F=[(1,0,0)T]x为校正图像对应的基础矩阵表达,H2=KR2K-1,m1′为m1对应的特征点,N为特征点匹配的个数,i为对第i对特征点对,a为图像面积,所需要估计得参数κ为无人飞行器的航向与正北方向的夹角,σ为高斯分布的标准差,γ为正确匹配与错误匹配的比例参数,且R2为:
R 2 = R z ( - κ ) = c o s κ - sin κ 0 sin κ cos κ 0 0 0 1
步骤S4中单应变换矩阵的计算公式为:
H = H 2 H 1 = KR 2 R 1 - 1 K - 1
本发明提供一种鲁棒的半标定下视图像极线校正系统,包括:
虚拟成像环境构建单元,用于获取无人飞行器每一成像时刻下视相机拍摄的图像,相机的内参数矩阵,以及无人飞行器的惯导系统提供的姿态参数,利用这些参数构建平行于地平面的虚拟成像环境;
特征点集合变换单元,用于对不同成像时刻的图像分别提取特征点,构建初始特征点对应集合;并根据该集合变换到平行于地平面的虚拟成像环境,得到变换后的特征点对应集合;
夹角计算单元,用于根据变换后的特点对应集合构建概率表达模型,并使用最大期望算法,计算无人飞行器的航向与正北方向的夹角;
极线校正单元,用于根据姿态参数、内参数矩阵和航向与正北方向的夹角,计算单应变换矩阵,并根据该矩阵,对每一成像时刻的图像进行极线校正。
本发明产生的有益效果是:本发明的鲁棒的半标定下视图像极线校正方法,首先根据相机内参数和姿态参数,将相机运动变换为纯平移运动的情形,避免退化结构下基础矩阵的估计不唯一的情形,然后对初始匹配加权,得到一个加权的最小二乘问题,并通过期望最大化算法迭代的估计每个匹配点的权重以及相应的参数,以完成最后图像对的极线校正;本方法能够快速的完成校正,并且能够得到精度较高的校正图像,对于无人机辅助导航等应用领域具有重要的指导意义。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明实施例的鲁棒的半标定下视图像极线校正方法的流程图;
图2是本发明实施例的鲁棒的半标定下视图像极线校正系统的框图;
图3是本发明实施例的鲁棒的半标定下视图像极线校正方法的整体流程图;
图4是本发明实施例的鲁棒的半标定下视图像极线校正方法的T1时刻图像;
图5是本发明实施例的鲁棒的半标定下视图像极线校正方法的T2时刻图像;
图6是本发明实施例的鲁棒的半标定下视图像极线校正方法提取的特征点对;
图7是本发明实施例的鲁棒的半标定下视图像极线校正方法校正结果图像。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
如图1所示,本发明实施例的鲁棒的半标定下视图像极线校正方法,包括以下步骤:
S1、获取无人飞行器每一成像时刻下视相机拍摄的图像,相机的内参数矩阵,以及无人飞行器的惯导系统提供的姿态参数,利用这些参数构建平行于地平面的虚拟成像环境;构建平行于地平面的虚拟成像环境的公式为:
H 1 ≅ KR 1 - 1 K - 1
其中:
R 1 = R x ( - γ ) R y ( - θ ) R z ( - ω ) = 1 0 0 0 cos γ - sin γ 0 sin γ cos γ cos θ 0 sin θ 0 1 0 - sin θ 0 cos θ cos ω - sin ω 0 sin ω cos ω 0 0 0 1
θ,γ,ω三个参数分别表示无人飞行器姿态信息中的俯仰角、侧滚角和偏航角,K为相机的内参数矩阵;
通过公式x’=H1x可以将图像中的每一点映射到与地平面平行的像平面上,其中,x和x’图像点为变换前后的齐次表达。
S2、对不同成像时刻的图像分别提取特征点,构建初始特征点对应集合;并根据该集合变换到平行于地平面的虚拟成像环境,得到变换后的特征点对应集合;计算变换后的特征点对应集合的公式为:
m1≌H1m
其中,(m,m1)分别为初始特征点对应集合和变换后的特征点对应集合的齐次表达。
S3、根据变换后的特点对应集合构建概率表达模型,并使用最大期望算法,计算无人飞行器的航向与正北方向的夹角;概率表达模型的计算公式为:
P ( S | κ , σ 2 , γ ) = Π i = 1 N ( γ 2 πσ 2 e ϵ i 2 2 σ 2 + ( 1 - γ ) a )
其中,S为变换后的特征点对应集合,∈=(H2m1′)TF(H2m1),F=[(1,0,0)T]x为校正图像对应的基础矩阵表达,H2=KR2K-1,m1′为m1对应的特征点,N为特征点匹配的个数,i为对第i对特征点对,a为图像面积,所需要估计得参数κ为无人飞行器的航向与正北方向的夹角,σ为高斯分布的标准差,γ为正确匹配与错误匹配的比例参数,且R2为:
R 2 = R z ( - κ ) = c o s κ - sin κ 0 sin κ cos κ 0 0 0 1
S4、根据姿态参数、内参数矩阵和航向与正北方向的夹角,计算单应变换矩阵,并根据该矩阵,对每一成像时刻的图像进行极线校正;单应变换矩阵的计算公式为:
H = H 2 H 1 = KR 2 R 1 - 1 K - 1
如图2所示,本发明实施例的鲁棒的半标定下视图像极线校正系统用于实现本发明实施例的鲁棒的半标定下视图像极线校正方法,包括:
虚拟成像环境构建单元,用于获取无人飞行器每一成像时刻下视相机拍摄的图像,相机的内参数矩阵,以及无人飞行器的惯导系统提供的姿态参数,利用这些参数构建平行于地平面的虚拟成像环境;
特征点集合变换单元,用于对不同成像时刻的图像分别提取特征点,构建初始特征点对应集合;并根据该集合变换到平行于地平面的虚拟成像环境,得到变换后的特征点对应集合;
夹角计算单元,用于根据变换后的特点对应集合构建概率表达模型,并使用最大期望算法,计算无人飞行器的航向与正北方向的夹角;
极线校正单元,用于根据姿态参数、内参数矩阵和航向与正北方向的夹角,计算单应变换矩阵,并根据该矩阵,对每一成像时刻的图像进行极线校正。
如图3所示,本发明的另一个实施例中,半标定下视图像极线校正方法包括以下步骤:
S1、根据无人飞行器每一成像时刻,惯导系统给出的姿态参数(θ,γ,ω)和相机的内参数矩阵K,由公式H1≌KR-1K-1得到相应的单应变换矩阵H1,其中,θ,γ,ω三个参数分别表示无人飞行器的俯仰角、侧滚角和偏航角,且:
R 1 = R x ( - γ ) R y ( - θ ) R z ( - ω ) = 1 0 0 0 cos γ - sin γ 0 sin γ cos γ cos θ 0 sin θ 0 1 0 - sin θ 0 cos θ cos ω - sin ω 0 sin ω cos ω 0 0 0 1
通过公式x’=H1x可以将图像中的每一点映射到与地平面平行的像平面上,其中,x和x’图像点为变换前后的齐次表达。
本实例中,实验影像由挂载在无人飞行器上的实验图像由挂载在无人飞行器上的NIKOND300拍摄,图像大小为2848×4288。
图4为T1时刻拍摄的图像,图5为T2时刻拍摄的图像。实验中,相机的内参数已标定,且:
K = 5087.4576 0 1424 0 5087.4576 2144 0 0 1
飞行器在两相邻成像时刻惯性导航系统给出的无人机飞行姿态信息θ,γ,ω分别为(2.989,-0.749,83.774)和(3.019,-0.743,83.709)。
S2、对不同时刻的图像分别提取特征点,并构建初始特征点对应集合,如图6所示,特征点的提取可以采用SIFT算子加速鲁棒特征子、ORB算子等等;
S3、通过S1步得到的每幅影像的单应变换矩阵(H1,H1′),根据公式m1≌H1m,将初始特征点对应集合中的同名点对(m,m′)变换到点(m1,m1′);
S4、通过S3步得到的新的特征点集合构建极线几何约束的混合概率模型。假设正确同名点对存在高斯噪声,则对于正确的匹配点对,有(H2m1′)TF(H2m1)=∈,其中,∈~N(0,σ2),F=[(1,0,0)T]x为校正图像对的基础矩阵表达,H2=KR2K-1,m1′为m1对应的特征点,这里有:
R 2 = R z ( - κ ) = c o s κ - sin κ 0 sin κ cos κ 0 0 0 1
假设错误匹配点为均匀分布1/a,其中a为常量,这里初始化为图像面积。假设γ为正确匹配与错误匹配的比例参数。特征点匹配个数为N的同名点集S的似然函数为两者的混合模型,其表达式为:
P ( S | κ , σ 2 , γ ) = Π i = 1 N ( γ 2 πσ 2 e ϵ i 2 2 σ 2 + ( 1 - γ ) a )
S5、构建带有从而可以构建带有隐变量的对数似然函数:
Q ( ( κ , σ 2 , γ ) , ( κ , σ 2 , γ ) o l d ) = - 1 2 σ 2 Σ n = 1 N p n ∈ n 2 - lnσ 2 Σ n = 1 N p n + ln γ Σ n = 1 N p n + ln ( 1 - γ ) Σ n = 1 N ( 1 - p n )
其中,pn=P(zn=1|sn,(κ,σ2,γ)old),表示正确匹配对的可信度。
EM算法的迭代过程如下:
E步:根据同名点对sn和当前的参数估计(κ,σ2,γ)old估计隐变量zn的后验分布可以得到每对同名点的权重,其表达式为:
p n = γ exp ( - ∈ n 2 / 2 σ 2 ) / ( γ exp ( - ∈ n 2 / 2 σ 2 ) + 2 πσ 2 ( 1 - γ ) / a )
M步:求Q((κ,σ2,γ),(κ,σ2,γ)old)的极大值,即更新模型函数:
( κ , σ 2 , γ ) o l d = arg max κ , σ 2 , γ Q ( ( κ , σ 2 , γ ) , ( κ , σ 2 , γ ) o l d )
其中:
1、通过公式 σ 2 = Σ n = 1 N p n ∈ n 2 / Σ n = 1 N p n 更新参数σ2
2、通过公式更新参数γ;
3、通过最小化P1/2Ax的范数来更新参数κ,其中:
A中的Δun=un-un′,Δvn=vn-vn′,(u,v,1)T为点m的齐次表达,值为ATPA的最小特征值对应的单位特征向量,也称为最小二乘解。具体的解法即首先得到P1/2A=UDVT,则ATPA=VD2V-1,这里V的最后一列对应的是ATPA的最小特征值对应的特征向量,求得向量x后,即可得到参数κ。
S6、综合S1中的惯导系统提供的姿态参数θ,γ,ω,内参数矩阵K和S5中无人飞行器的航向与正北方向的夹角κ,求得单应变换矩阵并根据该矩阵,将每一成像时刻的影像进行极线校正,最后校正结果如图7所示。
将本发明的方法在不同分辨率的机载图像中进行试验,结果显示,本发明能得到精准的校正图像对,对无人机景象辅助导航等应用有重要的指导意义。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。

Claims (6)

1.一种鲁棒的半标定下视图像极线校正方法,其特征在于,包括以下步骤:
S1、获取无人飞行器每一成像时刻下视相机拍摄的图像,相机的内参数矩阵,以及无人飞行器的惯导系统提供的姿态参数,利用这些参数构建平行于地平面的虚拟成像环境;
S2、对不同成像时刻的图像分别提取特征点,构建初始特征点对应集合;并根据该集合变换到平行于地平面的虚拟成像环境,得到变换后的特征点对应集合;
S3、根据变换后的特点对应集合构建概率表达模型,并使用最大期望算法,计算无人飞行器的航向与正北方向的夹角;
S4、根据姿态参数、内参数矩阵和航向与正北方向的夹角,计算单应变换矩阵,并根据该矩阵,对每一成像时刻的图像进行极线校正。
2.根据权利要求1所述的鲁棒的半标定下视图像极线校正方法,其特征在于,步骤S1中构建平行于地平面的虚拟成像环境的公式为:
H 1 ≅ KR 1 - 1 K - 1
其中:
R 1 = R x ( - γ ) R y ( - θ ) R z ( - ω ) =
1 0 0 0 c o s γ - sin γ 0 sin γ c o s γ c o s θ 0 sin θ 0 1 0 - sin θ 0 c o s θ c o s ω - sin ω 0 sin ω c o s ω 0 0 0 1
θ,γ,ω三个参数分别表示无人飞行器姿态信息中的俯仰角、侧滚角和偏航角,K为相机的内参数矩阵;
通过公式x’=H1x可以将图像中的每一点映射到与地平面平行的像平面上,其中,x和x’图像点为变换前后的齐次表达。
3.根据权利要求2所述的鲁棒的半标定下视图像极线校正方法,其特征在于,步骤S2中计算变换后的特征点对应集合的公式为:
m 1 ≅ H 1 m
其中,(m,m1)分别为初始特征点对应集合和变换后的特征点对应集合的齐次表达。
4.根据权利要求3所述的鲁棒的半标定下视图像极线校正方法,其特征在于,步骤S3中概率表达模型的计算公式为:
P ( S | κ , σ 2 , γ ) = Π i = 1 N ( γ 2 πσ 2 e ϵ i 2 2 σ 2 + ( 1 - γ ) a )
其中,S为变换后的特征点对应集合,∈=(H2m1′)TF(H2m1),F=[(1,0,0)T]×为校正图像对应的基础矩阵表达,H2=KR2K-1,m1′为m1对应的特征点,N为特征点匹配的个数,i为对第i对特征点对,a为图像面积,所需要估计得参数κ为无人飞行器的航向与正北方向的夹角,σ为高斯分布的标准差,γ为正确匹配与错误匹配的比例参数,且R2为:
R 2 = R z ( - κ ) = c o s κ - sin κ 0 sin κ cos κ 0 0 0 1
5.根据权利要求4所述的鲁棒的半标定下视图像极线校正方法,其特征在于,步骤S4中单应变换矩阵的计算公式为:
H = H 2 H 1 = KR 2 R 1 - 1 K - 1
6.一种鲁棒的半标定下视图像极线校正系统,其特征在于,包括:
虚拟成像环境构建单元,用于获取无人飞行器每一成像时刻下视相机拍摄的图像,相机的内参数矩阵,以及无人飞行器的惯导系统提供的姿态参数,利用这些参数构建平行于地平面的虚拟成像环境;
特征点集合变换单元,用于对不同成像时刻的图像分别提取特征点,构建初始特征点对应集合;并根据该集合变换到平行于地平面的虚拟成像环境,得到变换后的特征点对应集合;
夹角计算单元,用于根据变换后的特点对应集合构建概率表达模型,并使用最大期望算法,计算无人飞行器的航向与正北方向的夹角;
极线校正单元,用于根据姿态参数、内参数矩阵和航向与正北方向的夹角,计算单应变换矩阵,并根据该矩阵,对每一成像时刻的图像进行极线校正。
CN201510776198.7A 2015-11-13 2015-11-13 一种鲁棒的半标定下视图像极线校正方法及系统 Expired - Fee Related CN105389819B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510776198.7A CN105389819B (zh) 2015-11-13 2015-11-13 一种鲁棒的半标定下视图像极线校正方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510776198.7A CN105389819B (zh) 2015-11-13 2015-11-13 一种鲁棒的半标定下视图像极线校正方法及系统

Publications (2)

Publication Number Publication Date
CN105389819A true CN105389819A (zh) 2016-03-09
CN105389819B CN105389819B (zh) 2019-02-01

Family

ID=55422068

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510776198.7A Expired - Fee Related CN105389819B (zh) 2015-11-13 2015-11-13 一种鲁棒的半标定下视图像极线校正方法及系统

Country Status (1)

Country Link
CN (1) CN105389819B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108830811A (zh) * 2018-06-12 2018-11-16 西安微电子技术研究所 一种飞行参数与相机内参相结合的航空影像实时校正方法
CN110006420A (zh) * 2018-05-31 2019-07-12 上海快仓智能科技有限公司 建图方法、图像采集和处理系统和定位方法
CN111833404A (zh) * 2019-04-23 2020-10-27 鸿富锦精密电子(天津)有限公司 摄像机校正系统及摄像机校正方法
CN113487676A (zh) * 2018-03-19 2021-10-08 百度在线网络技术(北京)有限公司 用于确定安装于采集实体的相机之间的相对姿态角的方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100792172B1 (ko) * 2006-06-30 2008-01-07 중앙대학교 산학협력단 강건한 대응점을 이용한 기본행렬 추정 장치 및 그 방법
CN103426165A (zh) * 2013-06-28 2013-12-04 吴立新 一种地面激光点云与无人机影像重建点云的精配准方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100792172B1 (ko) * 2006-06-30 2008-01-07 중앙대학교 산학협력단 강건한 대응점을 이용한 기본행렬 추정 장치 및 그 방법
CN103426165A (zh) * 2013-06-28 2013-12-04 吴立新 一种地面激光点云与无人机影像重建点云的精配准方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
周华兵等: ""机载平台下半标定的下视图像极线校正方法"", 《华中科技大学学报(自然科学版)》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113487676A (zh) * 2018-03-19 2021-10-08 百度在线网络技术(北京)有限公司 用于确定安装于采集实体的相机之间的相对姿态角的方法和装置
CN110006420A (zh) * 2018-05-31 2019-07-12 上海快仓智能科技有限公司 建图方法、图像采集和处理系统和定位方法
CN110006420B (zh) * 2018-05-31 2024-04-23 上海快仓智能科技有限公司 建图方法、图像采集和处理系统和定位方法
CN108830811A (zh) * 2018-06-12 2018-11-16 西安微电子技术研究所 一种飞行参数与相机内参相结合的航空影像实时校正方法
CN111833404A (zh) * 2019-04-23 2020-10-27 鸿富锦精密电子(天津)有限公司 摄像机校正系统及摄像机校正方法
CN111833404B (zh) * 2019-04-23 2023-10-31 富联精密电子(天津)有限公司 摄像机校正系统及摄像机校正方法

Also Published As

Publication number Publication date
CN105389819B (zh) 2019-02-01

Similar Documents

Publication Publication Date Title
CN103411609B (zh) 一种基于在线构图的飞行器返航路线规划方法
CN109945856A (zh) 基于惯性/雷达的无人机自主定位与建图方法
CN103954283B (zh) 基于景象匹配/视觉里程的惯性组合导航方法
CN104268935A (zh) 一种基于特征的机载激光点云与影像数据融合系统及方法
CN104655135B (zh) 一种基于地标识别的飞行器视觉导航方法
CN104281148A (zh) 基于双目立体视觉的移动机器人自主导航方法
CN109425348A (zh) 一种同时定位与建图的方法和装置
CN107144278B (zh) 一种基于多源特征的着陆器视觉导航方法
CN114719848B (zh) 基于视觉与惯性导航信息融合神经网络的无人机高度估算方法
CN105389819A (zh) 一种鲁棒的半标定下视图像极线校正方法及系统
CN103093459A (zh) 利用机载LiDAR点云数据辅助影像匹配的方法
CN102506867A (zh) 基于Harris角点匹配的SINS/SMANS组合导航方法及系统
CN105004337A (zh) 基于直线匹配的农用无人机自主导航方法
Lee et al. Vision-based terrain referenced navigation for unmanned aerial vehicles using homography relationship
CN110929402A (zh) 一种基于不确定分析的概率地形估计方法
CN115560760A (zh) 一种面向无人机的视觉/激光测距高空导航方法
CN104567801A (zh) 一种基于立体视觉的高精度激光测量方法
CN107463871A (zh) 一种基于角特征加权的点云匹配方法
CN110160503A (zh) 一种顾及高程的无人机景观匹配定位方法
CN110286371A (zh) 基于雷达点阵数据的小天体着陆器相对位姿确定方法
CN113740864A (zh) 基于激光三维点云的探测器软着陆末段自主位姿估计方法
CN109341685B (zh) 一种基于单应变换的固定翼飞机视觉辅助着陆导航方法
RU2694786C1 (ru) Навигационная комбинированная оптическая система
CN111089580B (zh) 一种基于协方差交叉的无人战车同时定位与地图构建方法
CN115830116A (zh) 一种鲁棒视觉里程计方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190201

Termination date: 20211113