CN101692283B - 无人旋翼机仿生着陆系统的摄像机外参数在线自标定方法 - Google Patents
无人旋翼机仿生着陆系统的摄像机外参数在线自标定方法 Download PDFInfo
- Publication number
- CN101692283B CN101692283B CN2009101971859A CN200910197185A CN101692283B CN 101692283 B CN101692283 B CN 101692283B CN 2009101971859 A CN2009101971859 A CN 2009101971859A CN 200910197185 A CN200910197185 A CN 200910197185A CN 101692283 B CN101692283 B CN 101692283B
- Authority
- CN
- China
- Prior art keywords
- image
- cameras
- calibration
- coordinate
- unmanned gyroplane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明涉及一种无人旋翼机仿生着陆系统的摄像机外参数在线自标定方法。该方法解决旋翼机下降过程中立体视觉的盲区问题,提高无人旋翼机的着陆精度,其实现操作步骤为:(1)内参数标定;(2)外参基线标定;(3)外参数在线自标定。该方法对无人旋翼机机载上双摄像机外参数进行在线自标定,实时地获取摄像机的光轴夹角信息及高度信息,能够有效地解决双目立体视觉的盲区问题,从而保障了无人旋翼机着陆的自主进行,提高了系统的安全性。
Description
技术领域
本发明涉及一种用于无人旋翼机仿生双目视觉辅助着陆系统中,旋翼机机载上的摄像机外参数自标定方法。
背景技术
在研究无人旋翼机自主着陆中,为解决下降过程中立体视觉的盲区问题,采用了模仿人体双眼异向运动的方法,改变双目视觉系统的视轴夹角以减少盲区区域。然而随着视轴夹角的改变,摄像机的外参数也随之发生变化。现研究的标定,无论是哪种类型,也都只能处于离线标定的状态,得到某一时刻的外参数,并不能对摄像机不断变化的参数实现在线实时的标定。如何在线实时标定来获得旋翼机下降过程中的高度信息及摄像机光轴的夹角信息显得尤为重要。
发明内容
本发明的目的在于针对已有技术存在的缺陷,提供一种无人旋翼机仿生着陆系统的摄像机外参数在线自标定方法,实现当摄像机视轴夹角发生改变时,系统能准确地对摄像机外参数进行在线标定,获得无人旋翼机下降过程中的实时高度信息及夹角信息。
本发明的构思是:
根据无人旋翼机着陆的基本情况进行机械结构的仿制,建立摄像机成像的几何模型,如图1所示。取左摄像机光心为世界坐标系原点(0,0,0),给出了两个摄像机中心连线所在平面(XWZW平面),两摄像机光心之间的距离为B,摄像机光轴在XWZW平面内与ZW轴的夹角为θ(未知)。图1中Image1和Image2为两图像平面,图像坐标yL,yR轴垂直于XWZW平面向里,(x1,y1)和(x2,y2)分别是两图像平面对应的图像点对坐标。(XW,YW,ZW)是P点的世界坐标,坐标轴YW垂直于XWZW平面向里。图1中未标出y1、y2坐标,可参见图5和图6。
从点P(XW,YW,ZW)分别向两摄像机坐标轴做垂线,则这两垂线与X轴的夹角都是θ,由两个坐标所围成的三角形关系得到下列关系:
由关系式(2)、(3)可得:
将式(4)代入关系式(1)中可得到:
上述公式变换涉及到几个摄像机参数:世界坐标ZW(即飞机距离地面的高度),摄像机光轴的旋转角θ,两个摄像机的图像坐标XR、XL,两摄像机光心间的距离B以及摄像机的内参数焦距f。在式(5)中,光心距离B属于立体视觉外参标定,焦距f则是内参标定,均可事先离线标定得到,因此只需要知道同一场景下不同图像中对应点的图像坐标XR和XL,便可确定出坐标ZW的值,即无人旋翼机自主着陆的高度信息。一旦确定了ZW,根据式(1)即可确定视轴夹角θ,可为视觉系统提供参数信息,也就为着陆控制提供了保证。
另外,需要考虑三个方面问题:
(1)摄像机内参数标定。
考虑摄像机可能出现的各种畸变,即径向畸变、切向畸变、偏心畸变和仿射畸变等,我们采用5参数内参数阵,即
其中,如图6所示,ku为焦距f与像素点在图像坐标u方向宽度的比值;kv为焦距f与像素点在图像坐标v方向宽度的比值;s为图像平面不垂直光轴产生的畸变因子;pu=pv为光轴与图像平面交点坐标。
内参数的标定,可以利用空间中三个特殊关系点的对应成像点,直接列出方程组,求解出摄像机的内参数。具体的标定方法如下:
令 为图像坐标的齐次坐标; 为世界坐标系的齐次坐标;将摄像机固定在导轨上,空间点由摄像机前的平板上的网格交点代替,用三坐标测量及测得网格交点的世界坐标。所取三点需满足的坐标关系为:x0=x1,y0≠y1,x0≠x2,y0=y2,z0=z1=z2(见图5)。由三点的实际成像点,测得它们对应的图像坐标。利用三点在世界坐标系中的坐标值和实际成像点的图像坐标,根据图6的摄像机成像模型有下列计算公式(公式(7)-(11)),可计算出摄像机的5个内参数ku,kv,pu,pv,s。
其中,(u0z,v0z),(u1z,v1z),(u2z,v2z)分别为点A0、A1、A2对应的图像坐标。
(2)外参基线B的标定。
在对基线B标定时,我们可以使得两摄像机处于光轴共面并垂直于Y轴的位置,两者的相对位置仅仅是相差一个平移矩阵。两副图像上点对应的基本几何约束关系为:
式中,UR和UL是空间点在左、右图像上对应的二维图像坐标,F是基本矩阵, (S为反对称矩阵,它由平移矢量所定义),它实际上包括了双目立体视觉系统的所有参数,即两个摄像机内部参数AL、AR和视觉系统的结构参数R、T。根据上文分析的模型,可将 变换成:
其中,θ为摄像机转过的视轴夹角。通过左右摄像机拍摄的左右两幅图像上的对应点的图像坐标(XR,YR),(XL,YL),带入(1)中所求的内参,就可以求出反映两摄像机相对位置的基线距离B(总共拍摄八个点)。
因此,利用约束方程和本质矩阵F就可以完成对基线B的标定,同时应注意的是对基线的标定也是离线,标定好后不再变化。
(3)外参在线自标定
在每次下降的过程中,每个阶段摄像机都处于不断循环的三种状态(如图2所示):
①阶段初始状态:摄像机处于初始位置或已完成一次在线外参数自标定的位置(即摄像机处于图1的状态);
②中间状态:经过阶段初始状态后,旋翼机下降了一个所要求得的高度,但摄像机光轴位置仍保持不变;
③阶段最终状态:控制双目立体视觉系统改变光轴角度,使得系统满足着陆目标位于图像中心的要求。
为了使得每一时刻都满足公式适用条件,必须分析每个时刻在这三种状态下各个左右图像对的变化情况。以从时刻0到时刻1为例:
①对两个摄像机的图像进行采集,包括对采集图像的预处理,并进行特征点提取。
②从阶段初始状态至中间状态中,图像将产生偏移,其原因是由于高度的下降及由它引起的图像膨胀所致。通过对所引起的膨胀进行估算,得出仅仅由高度下降所导致的特征点图像偏移量Δx。
③利用在中间状态下所采集的左右图像对,进行补偿偏移处理。处理后的图像与阶段最终状态所要获得的左右图像对是一致的。此时,着陆目标图像位于图像的中心区域,重新满足图1的模型要求,根据式(1)、(5)计算出高度信息ZW1及夹角信息θ1
④将视轴夹角信息输入无人旋翼机的控制系统,控制云台上摄像机的转动,确保着陆目标始终处于左右两个摄像机的图像中心,以保证进行下一次的图像采集。
当从时刻1到时刻2,时刻2到时刻3,……时刻i-1到时刻i时重复上述步骤,就可实时地获取各个时刻的高度信息ZW1,ZW2,…,ZWi及云台夹角信息θ1,θ2,…,θi。
根据上述发明构思,本发明采用下述技术方案:
一种无人旋翼机仿生着陆系统的摄像机外参数在线自标定方法,其特征在于解决旋翼机下降过程中立体视觉的盲区问题,提高无人旋翼机的着陆精度,其实现操作步骤如下:
1)内参数标定:对标定图像进行拍摄,获取图像,计算出标定图像的图像坐标,带入计算公式获取内部参数,内部参数一旦标定将不再改变;
2)外参基线标定:在得到内部参数后,将两个摄像机固定到旋翼机机载,离线标定出两个摄像机光心之间的距离B;
3)外参数在线自标定:无人旋翼机着陆过程中,PC机采集卡对两个摄像机的图像进行采集,提取特征点,计算其特征点图像的偏移量,并对此偏移量补偿后,获取此时的高度信息和云台夹角信息;当无人机继续下降,重复以上步骤,实现无人旋翼机自主着陆的实时控制。
上述步骤1)内参数标定(内参标定1)采用下列三个步骤:
①拍摄标定图像,其标定图像的空间点分布必须符合图5所示。
②将图像坐标代入内参计算公式。在获取到标定图像后,可以得到标定图像上三个点在左右两个摄像机中的图像坐标,将这些图像坐标代入上述的内参计算公式(7)-(11)中,得到五个内参:焦距f与像素点在图像坐标u方向宽度的比值ku、焦距f与像素点在图像坐标v方向宽度的比值kv、图像平面不垂直光轴产生的畸变因子s、光轴与图像平面交点坐标pu和pv。
③获取内部参数,左右摄像机的内参相同,且一旦确定就将不再改变,包括了左右摄像机的焦距f。
上述步骤2)外参基线标定(外参基线标定2)的具体操作步骤如下:
①将两个摄像机固定到旋翼机机载上,拍摄标定块。为了便于计算,标定图像可以选取张正友的棋盘标定块。
②匹配左右图像的对应点。将左右摄像机拍摄到的两个图像进行匹配,找到相对应的点。
③选取八个对应点,计算八个对应点在左右摄像机上的图像坐标。
④利用基线约束方程及所求的八个坐标点的图像坐标计算出基线。在得到八个对应点的图像坐标后,连同内参数一起代入公式(12)中,可以得到一个方程组。解这个方程组,便可得到两个摄像机光心之间的距离,即基线B。
上述步骤3)外参数在线自标定(外参数在线自标定3)采用以下步骤实现:
①通过PC机采集卡对左右摄像机所拍摄到的着陆目标图像进行采集。在无人旋翼机开始进行着陆时,PC机中的采集卡就开始对两个摄像机拍摄到的着陆目标图像进行采集,得到阶段初始状态的数据图像。
②对所采集到的着陆目标图像进行预处理。由于拍摄到的图像受光线、噪声等影响,需要进行预处理,对图像除噪,排除干扰,便于特征点的提取。
③提取左右图像中相应的特征点。将左右摄像机拍摄到的着陆目标图像进行预处理后,可以分别对两副图像中的特征点进行提取(主要是着陆目标上的特征点),匹配得到相对应特征点的图像坐标。
④计算特征点图像的偏移量。由于高度的下降,加上由它引起的图像膨胀,图像将产生偏移。通过对所引起的膨胀进行估算,得出仅仅由高度下降所导致的特征点图像偏移量Δx,得到中间状态的图像数据。
⑤对特征点图像的偏移量进行补偿。根据上一步得到的偏移量Δx对图像进行相应的补偿,使得着陆目标位于图像中心,此时处于阶段最终状态,满足公式推导的模型要求。
⑥实时提取左右两个摄像机的高度信息与夹角信息。将摄像机在阶段最终状态所采集到的图像坐标信息及摄像机内参数代入模型公式(1)、(5),获得此时的高度信息及视轴夹角。
⑦控制云台转动,摄像机的视轴仿双眼变化。将视轴夹角信息输入无人旋翼机的控制系统,控制云台上摄像机的转动,确保着陆目标始终处于左右两个摄像机的图像中心,即位于摄像机的阶段初始状态,以保证进行下一次的图像采集。
⑧无人旋翼机继续下降,重复①-⑦的步骤,即可获得实时的夹角信息及高度信息。
本发明与现有技术相比较,具有如下显而易见的特点和优点:本发明很好地解决了摄像机视轴夹角发生改变时,对摄像机外参数的在线标定问题。在无人旋翼机着陆过程中,能够实时得到摄像机视轴夹角及旋翼机的高度信息,提供给控制系统,补偿平台自身的运动,保证降落目标处于监控图像的中心,消除盲区现象,提高降落的安全性。
附图说明
图1双目立体视觉模型图
图2无人旋翼机自主着陆过程中双摄像机的状态示意图
图3实例的系统示意图
图4总的系统框图
图5内参标定图像空间点的选取
图6摄像机的成像模型图
具体实施方式
本发明的一个优选实施例结合附图详述如下:参见图3,本无人旋翼机仿生着陆系统的摄像机在线外参数自标定方法所采用的整个系统,包括地面控制系统1(PC机)、机载控制系统2、无人旋翼机3及着陆目标4。其中机载上摄像机选用的型号为Canon VC-C50iR,焦距可变。
参见图4,本无人旋翼机仿生着陆系统的摄像机在线外参数自标定方法,采用的操作步骤如下:
(1)内参数标定(内参标定1):
①拍摄标定图像,其标定图像的空间点分布必须符合图5所示。
②将图像坐标代入内参计算公式。在获取到标定图像后,可以得到标定图像上三个点在左右两个摄像机中的图像坐标,将这些图像坐标代入上述的内参计算公式(7)-(11)中,得到五个内参:焦距f与像素点在图像坐标u方向宽度的比值ku、焦距f与像素点在图像坐标v方向宽度的比值kv、图像平面不垂直光轴产生的畸变因子s、光轴与图像平面交点坐标pu和pv。
③获取内部参数,左右摄像机的内参相同,且一旦确定就将不再改变,包括了左右摄像机的焦距f。
(2)外参基线标定(外参基线标定2):
①将两个摄像机固定到旋翼机机载上,拍摄标定块。为了便于计算,标定图像可以选取张正友的棋盘标定块。
②匹配左右图像的对应点。将左右摄像机拍摄到的两个图像进行匹配,找到相对应的点。
③选取八个对应点,计算八个对应点在左右摄像机上的图像坐标。
④利用基线约束方程及所求的八个坐标点的图像坐标计算出基线。在得到八个对应点的图像坐标后,连同内参数一起代入公式(12)中,可以得到一个方程组。解这个方程组,便可得到两个摄像机光心之间的距离,即基线B。
(3)外参数在线自标定(外参数在线自标定3):
①通过PC机采集卡对左右摄像机所拍摄到的着陆目标图像进行采集。在无人旋翼机开始进行着陆时,PC机中的采集卡就开始对两个摄像机拍摄到的着陆目标图像进行采集,得到阶段初始状态的数据图像。为保证整个着陆过程中系统的安全性,验证算法的稳定性和标定精确度,设定在着陆初期,每隔10s采集一次着陆目标,随着高度下降至1.5米后,采集频率提高至5s,当高度下降至0.5米后,采集频率提高至2s。
②对所采集到的着陆目标图像进行预处理。由于拍摄到的图像受光线、噪声等影响,需要进行预处理,对图像除噪,排除干扰,便于特征点的提取。
③提取左右图像中相应的特征点。将左右摄像机拍摄到的着陆目标图像进行预处理后,可以分别对两副图像中的特征点进行提取(主要是着陆目标上的特征点),匹配得到相对应特征点的图像坐标。
④计算特征点图像的偏移量。由于高度的下降,加上由它引起的图像膨胀,图像将产生偏移。通过对所引起的膨胀进行估算,得出仅仅由高度下降所导致的特征点图像偏移量Δx,得到中间状态的图像数据。
⑤对特征点图像的偏移量进行补偿。根据上一步得到的偏移量Δx对图像进行相应的补偿,使得着陆目标位于图像中心,此时处于阶段最终状态,满足公式推导的模型要求。
⑥实时提取左右两个摄像机的高度信息与夹角信息。将阶段最终状态所采集到的图像坐标信息及摄像机内参数代入模型公式(1)、(5),获得此时的高度信息及视轴夹角。
⑦控制云台转动,摄像机的视轴仿双眼变化。将视轴夹角信息输入无人旋翼机的控制系统,控制云台上摄像机的转动,确保着陆目标始终处于左右两个摄像机的图像中心,即位于摄像机的阶段初始状态,以保证进行下一次的图像采集。
⑧无人旋翼机继续下降,重复①-⑦的步骤,即可获得实时的夹角信息及高度信息。
本发明方法用于无人旋翼机野外定点自主着陆过程中机载上双摄像机的实时外参数自标定,效果良好。当旋翼机接近地面时,仍可清晰地获得定位点区域的信息,有效地解决了双目立体视觉中的盲区问题,提高了旋翼机着陆系统的安全性。
Claims (1)
1.一种无人旋翼机仿生着陆系统的摄像机外参数在线自标定方法,其特征在于解决旋翼机下降过程中立体视觉的盲区问题,提高无人旋翼机的着陆精度,其实现操作步骤如下:
1)内参数标定:对标定图像进行拍摄,获取图像,计算出标定图像的图像坐标,带入计算公式获取内部参数,内部参数一旦标定将不再改变;
2)外参基线标定:在得到内部参数后,将两个摄像机固定到旋翼机机载,离线标定出两个摄像机光心之间的距离B;
3)外参数在线自标定:无人旋翼机着陆过程中,PC机采集卡对两个摄像机的图像进行采集,提取特征点,计算其特征点图像的偏移量,并对此偏移量补偿后,获取此时的高度信息和云台夹角信息;当无人机继续下降,重复以上步骤,实现无人旋翼机自主着陆的实时控制;
所述步骤1)内部参数标定采用下列三个具体步骤:
(1)拍摄标定图像;
(2)将图像坐标代入五个内部参数计算公式:
其中五个内部参数为焦距f与像素点在图像坐标u方向宽度的比值ku、焦距f与像素点在图像坐标v方向宽度的比值kv、图像平面不垂直光轴产生的畸变因子s、光轴与图像平面交点坐标pu和pv,其中(u0z,v0z),(u1z,v1z),(u2z,v2z)分别为点A0、A1、A2对应的图像坐标,A0、A1、A2三点为三个平板网格交点;
(3)获取内部参数,左右摄像机的内部参数相同,且一旦确定就将不再改变;
所述步骤2)外参基线标定的具体操作步骤如下:
(1)将两个摄像机固定到旋翼机机载上,拍摄标定块;
(2)匹配左右图像的对应点;
(3)选取八个对应点,计算八个对应点在左右摄像机上的图像坐标;
(4)利用基线约束方程及所求的八个坐标点的图像坐标计算出基线;所述的基线约束方程为:
其中,θ为摄像机转过的视轴夹角,(XR,YR),(XL,YL)是左右两幅图像上的对应点的图像坐标,(s,ku,kv,pu,pv)为摄像机的内部参数;B为两摄像机光心间的距离,
所述步骤3)外参数在线自标定采用以下操作步骤实现:
(1)通过PC机采集卡对左右摄像机所拍摄到的着陆目标图像进行采集;
(2)对所采集到的着陆目标图像进行预处理;
(3)提取左右图像中相应的特征点;
(4)计算特征点图像的偏移量;
(5)对特征点图像的偏移量进行补偿;
(6)实时提取左右两个摄像机的高度信息与夹角信息;
(7)控制云台转动,摄像机的视轴仿双眼变化;
(8)无人旋翼机继续下降,重复(1)-(7)中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009101971859A CN101692283B (zh) | 2009-10-15 | 2009-10-15 | 无人旋翼机仿生着陆系统的摄像机外参数在线自标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009101971859A CN101692283B (zh) | 2009-10-15 | 2009-10-15 | 无人旋翼机仿生着陆系统的摄像机外参数在线自标定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101692283A CN101692283A (zh) | 2010-04-07 |
CN101692283B true CN101692283B (zh) | 2012-05-23 |
Family
ID=42080966
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2009101971859A Expired - Fee Related CN101692283B (zh) | 2009-10-15 | 2009-10-15 | 无人旋翼机仿生着陆系统的摄像机外参数在线自标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101692283B (zh) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101876532B (zh) * | 2010-05-25 | 2012-05-23 | 大连理工大学 | 测量系统中的摄像机现场标定方法 |
CN102137215B (zh) * | 2011-03-29 | 2012-10-31 | 段连飞 | 基于双缓冲机制的无人机航空像片立体判读仪 |
CN102211670A (zh) * | 2011-05-17 | 2011-10-12 | 云南电网公司普洱供电局 | 固定翼无人机定点拍摄系统及其排查输电线路故障的方法 |
CN102592285B (zh) * | 2012-03-05 | 2014-03-19 | 上海海事大学 | 一种无人水面艇的视觉系统在线标定方法 |
CN103587708B (zh) * | 2013-11-14 | 2016-05-25 | 上海大学 | 超小型无人旋翼飞行器野外定点零盲区自主软着陆方法 |
CN105096290B (zh) * | 2014-04-18 | 2018-01-16 | 株式会社理光 | 在空间的平面图中标定至少一个立体相机的方法和装置 |
EP3195076B1 (en) | 2015-06-26 | 2021-01-20 | SZ DJI Technology Co., Ltd. | System and method for selecting an operation mode of a mobile platform |
CN107430407B (zh) * | 2015-08-25 | 2019-08-02 | 深圳市大疆灵眸科技有限公司 | 模式控制系统及方法,及使用其的手持云台、可移动平台 |
CN105204515B (zh) * | 2015-08-27 | 2018-04-10 | 泉州装备制造研究所 | 无人机自主着陆的测量解析及控制方法和装置 |
CN105335733B (zh) * | 2015-11-23 | 2023-08-11 | 西安韦德沃德航空科技有限公司 | 一种无人机自主着陆视觉定位方法及系统 |
CN105701827B (zh) * | 2016-01-15 | 2019-04-02 | 中林信达(北京)科技信息有限责任公司 | 可见光相机与红外相机的参数联合标定方法及装置 |
CN105929837B (zh) * | 2016-04-23 | 2019-04-02 | 上海大学 | 小型无人旋翼机自主着陆位姿估计方法 |
CN106203439B (zh) * | 2016-06-27 | 2019-05-31 | 南京邮电大学 | 基于标志物多特征融合的无人机自动寻的着陆方法 |
CN106530239B (zh) * | 2016-09-24 | 2019-10-11 | 上海大学 | 基于大视场仿生鱼眼的小型无人旋翼机移动目标低空跟踪方法 |
CN106989697A (zh) * | 2017-05-24 | 2017-07-28 | 深圳天珑无线科技有限公司 | 一种光轴夹角的获取方法及装置 |
CN109270953B (zh) * | 2018-10-10 | 2021-03-26 | 大连理工大学 | 一种基于同心圆视觉标识的多旋翼无人机自主降落方法 |
CN110231829B (zh) * | 2019-06-20 | 2022-01-07 | 上海大学 | 基于数据增融的强化学习小型无人旋翼机自主着陆方法 |
CN110487249A (zh) * | 2019-07-17 | 2019-11-22 | 广东工业大学 | 一种用于结构三维振动测量的无人机标定方法 |
CN111176323A (zh) * | 2019-12-30 | 2020-05-19 | 湖南华诺星空电子技术有限公司 | 一种雷达与红外融合的无人机降落控制方法及装置 |
CN112198891B (zh) * | 2020-04-22 | 2021-12-07 | 北京理工大学 | 多旋翼机自主回收方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1928747A (zh) * | 2006-09-21 | 2007-03-14 | 上海大学 | 基于视动反射的运动载体上电视摄像系统图像稳定的方法 |
CN101420530A (zh) * | 2008-11-26 | 2009-04-29 | 上海大学 | 运动平台上双摄像机监控系统减小盲区的方法 |
-
2009
- 2009-10-15 CN CN2009101971859A patent/CN101692283B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1928747A (zh) * | 2006-09-21 | 2007-03-14 | 上海大学 | 基于视动反射的运动载体上电视摄像系统图像稳定的方法 |
CN101420530A (zh) * | 2008-11-26 | 2009-04-29 | 上海大学 | 运动平台上双摄像机监控系统减小盲区的方法 |
Non-Patent Citations (1)
Title |
---|
JP特开2007-192832A 2007.08.02 |
Also Published As
Publication number | Publication date |
---|---|
CN101692283A (zh) | 2010-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101692283B (zh) | 无人旋翼机仿生着陆系统的摄像机外参数在线自标定方法 | |
CN109741405B (zh) | 一种基于对偶结构光rgb-d相机的深度信息采集系统 | |
CN106289106B (zh) | 一种线阵相机和面阵相机相结合的立体视觉传感器及标定方法 | |
CN101887589B (zh) | 一种基于立体视觉的实拍低纹理图像重建方法 | |
CN108489496A (zh) | 基于多源信息融合的非合作目标相对导航运动估计方法及系统 | |
CN102364299B (zh) | 一种多个结构光投影三维型面测量头的标定技术 | |
CN102538763B (zh) | 一种河工模型试验三维地形的量测方法 | |
CN105046746A (zh) | 一种数字散斑人体三维快速扫描方法 | |
CN104240262B (zh) | 一种用于摄影测量的相机外参数标定装置及标定方法 | |
CN107884767A (zh) | 一种双目视觉系统测量船舶距离与高度的方法 | |
CN106846415A (zh) | 一种多路鱼眼相机双目标定装置及方法 | |
CN104539928B (zh) | 一种光栅立体印刷图像合成方法 | |
CN109658457A (zh) | 一种激光与相机任意相对位姿关系的标定方法 | |
CN105913410A (zh) | 一种基于机器视觉的远距离运动物体高度测量的装置与方法 | |
CN103245322A (zh) | 一种基于双目立体视觉的测距方法及系统 | |
KR101150510B1 (ko) | 3차원 고해상도 정규화식생지수 도시 모델 생성방법 | |
CN109596059A (zh) | 一种基于平行线结构光的飞机蒙皮间隙与阶差测量方法 | |
CN103776390A (zh) | 三维自然纹理数据扫描机及多视场数据拼接方法 | |
CN111091076B (zh) | 基于立体视觉的隧道限界数据测量方法 | |
CN102831601A (zh) | 基于联合相似性测度和自适应支持权重的立体匹配方法 | |
CN107105147A (zh) | 一种仿生超分辨成像传感器及成像方法 | |
CN108520537A (zh) | 一种基于光度视差的双目深度获取方法 | |
CN101487702A (zh) | 基于双目视觉的交通事故现场摄影测量方法 | |
CN106340045A (zh) | 三维人脸重建中基于双目立体视觉的标定优化方法 | |
CN107481290A (zh) | 基于三坐标测量机的相机高精度标定及畸变补偿方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20120523 Termination date: 20141015 |
|
EXPY | Termination of patent right or utility model |