CN105405126B - 一种基于单目视觉系统的多尺度空‑地参数自动标定方法 - Google Patents
一种基于单目视觉系统的多尺度空‑地参数自动标定方法 Download PDFInfo
- Publication number
- CN105405126B CN105405126B CN201510712752.5A CN201510712752A CN105405126B CN 105405126 B CN105405126 B CN 105405126B CN 201510712752 A CN201510712752 A CN 201510712752A CN 105405126 B CN105405126 B CN 105405126B
- Authority
- CN
- China
- Prior art keywords
- mrow
- rectangle
- scaling board
- profile
- msub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 12
- 239000000463 material Substances 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 8
- 239000011087 paperboard Substances 0.000 abstract description 2
- 238000001914 filtration Methods 0.000 abstract 1
- 230000004927 fusion Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000002203 pretreatment Methods 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种基于单目视觉的小型飞行器多尺度空‑地参数自动标定方法。本发明以自制的由深色纸板拼接成的标定板为标定工具,经过二值化、边缘提取、轮廓查找、轮廓最小外接矩形计算、噪声过滤等一系列处理算法,从采集的图像数据中提取出属于标定板的特征点,得到实际距离与像素个数的比值,并结合气压计测得的飞机飞行高度,用光滑的曲线将这些点连接起来,最终得到空‑地多参数关系的函数曲线。本发明创新点在于采用深色卡纸作为标定设备,可快速实现飞行器飞行高度、地面物体几何参数、图像分辨率三个相互关联的空‑地参数的在线标定,为多传感器信息融合奠定基础。
Description
技术领域
本发明属于无人机自主环境感知技术领域,涉及到一种小型飞行器基于机载单目视觉系统的多尺度空-地参数自动标定方法。
背景技术
视觉传感器是无人机实现环境感知的主要设备之一,其具有实时采集图像功能。无人机基于机载单目视觉可实现航拍、目标检测、跟踪以及场景理解等功能,实现无人机上述功能,必须首先完成基于单目视觉的多尺度空-地参数的自动标定。文献(Wang I H,Dobrokhodov V N,Kaminer I I,et al.“On vision-based target tracking and rangeestimation for small UAVs”.Proceedings of AIAA Guidance,Navigation andControl Conference.2005)提出了一种小型飞行器基于单目视觉的地面移动目标实时检测与跟踪算法,为了给出被跟踪地面目标的运动轨迹,该系统假设飞机与地面目标的相对距离为事先给定的规定值。但如果无人飞行高度是实时变化的,那么该系统将不能计算出地面目标的运动信息。实际飞行中的无人机高度总处于不断变化中,为了在这种工作条件下仍能完成地面目标参数的估计,文献(毛昭军,汪德虎,姿态测量/激光测距的无人机目标定位模型,火力与指挥控制,2003年05期)通过激光传感器以某一固定脉冲间隔对目标连续测距,并将测距数据与无人机的位姿信息(航向角、倾斜角、俯仰角)相融合来建立定位数学模型,从而完成对地面目标的精准定位。但由于并未提供可行的标定方法来提供飞行高度、目标几何参数以及图像分辨率三者之间的具体对应关系,因此无法用于地面目标参数的在线估计。为了获取地面物体的尺寸信息,文献(Stefanik K V,GassawayJ C,KochersbergerK,et al.“UAV-based stereo vision for rapid aerial terrain mapping.”GIScience&Remote Sensing,2011,48(1):24-49.)采用基于视差原理的双目视觉系统来获取被测物体的双目视觉图像,并通过计算图像对应点间的位置偏差来估计地面物体的三维几何信息。该方法可以准确提取目标物体的空间参数,但由于双目视觉系统质量大且性价比低,并不适用于载荷有限的近地面小型飞行器。
无人机要准确计算地面物体(例如车辆、树木)的空间参数或地面环境参数(如道路、河道宽度),必须要解决对地面特定目标信息的在线估计问题。该问题的本质是提供一种可行的标定方法来获得飞行器飞行高度、地面物体几何参数、图像分辨率三者之间的关系。为了实现这一功能,本发明提出了一种基于单目视觉的小型飞行器多尺度空-地参数自动标定方法,从而为无人机基于单目视觉的目标检测、在线跟踪及场景理解提供技术保障。
发明内容
为解决现有技术的不足,本发明提供一种基于单目视觉的小型飞行器多尺度空-地参数标定方法。本发明以小型飞行器作为运动载体,以单目视觉传感器以及气压传感器作为测量装置,以机载计算机作为数据收集及处理平台,完成飞行器飞行高度、地面物体几何参数、图像分辨率三个相互关联的空-地参数的在线标定。
本发明的技术方案为:
采用自制的标定板为标定工具,视觉传感器在空中对地面环境进行图像采集得到序列图像,微型计算机根据接收到的图像数据,对图像数据进行二值化、边缘提取和查找轮廓、计算最小外接矩形等预处理;以预处理后的图像为基础,进行去噪处理,提取出属于标定板的特征点,识别出标定板后,得到标定板的内外矩形长度和宽度的像素个数;微型计算机接受飞行器上气压传感器测得的飞行高度数据,在图像中描绘出像素个数与实际距离的比值和飞机飞行高度的 关系曲线,由曲线便可以得到地面物体几何参数数据,完成小型飞行器多尺度空-地参数自动标定,其中图像分辨率能够影响地面物体几何参数数据。
技术方案具体包括以下步骤:
第一步,制作标定板,对图像进行数据采集
针对视觉传感器图像采集特性,选用深色材料,自主设计回形标定板,标定板的内外边框的长宽比相同,便于后续标定板角点的识别,标定板样式如图1所示;通过小型飞行器上的单目视觉传感器采集标定板及标定板附近图像信息,每一个图像像素对应一个灰度值,用整型数字0到255表示,系统通过图像处理,可识别出标定板上内外边缘的八条线段,保证了算法的鲁棒性和结果的准确性。
第二步,通过机载单目视觉传感器采集图像信息,对图像信息进行预处理
2.1对采集的图像信息按公式(1)进行二值化预处理,将标定板突显出来,得到二值化图像
其中,g′i为二值化后的像素灰度值,是单幅图像所有像素点的灰度均值,kg为灰度调节阈值。图2为采集到的图像数据示意图,图3为该图像数据二值化后的结果。
2.2利用Canny算子对二值化图像进行边缘提取
由于使用Canny算子时会检测到图像真实边缘,伪边缘基本会被排除掉。通过Canny算子提取的图像边缘准确,对边缘不会造成双重检测。
首先,利用环形二维高斯函数对图像进行平滑处理,令f(x,y)表示待处理图像,G(x,y)表示高斯函数,用G(x,y)和f(x,y)的卷积形成一幅平滑 后的图像fs(x,y):
fs(x,y)=G(x,y)*f(x,y) (3)
最后,计算梯度值和方向角:
其中,x表示沿横坐标方向的像素位置:y表示沿纵坐标方向的像素位置;
M(x,y)表示梯度值;α(x,y)表示方向角。
对方向角和梯度值设定阈值进行边缘提取,得到二值化图像若干边缘轮廓。为了保留局部梯度最大的点,需要抑制非极大值,设置双阈值对边缘进行检测连接。图3为提取轮廓后的示意图。
2.3查找轮廓,计算最小外接矩形
对第二步2.2得到的若干边缘轮廓进行轮廓的查找,用如下算法实现:先查找轮廓上两个最远的点,然后将两个点连成一个线段,接着查找轮廓上到线段距离最远的点,将查找到的最远的点与之前的两个点相连,得到新轮廓,算法反复迭代,不断将最远的点添加到轮廓中,直到所有的点到多边形的最短距离小于某一特定值(特定值为具体人为设定的像素个数),得到轮廓上若干个点。步骤如图4所示。
将查找到的轮廓上的若干个点两两组合,将每个组合中的两个点连接起来,保留连线可以把其余点分成两边的组合,接着分别查找两边距连线最远的点,且保证由这四个点围成的外接矩形可包围轮廓上所有的点。筛选出满足上述条件的多个矩形,接着查找面积最小的矩形,即轮廓的最小外接矩形。图5为框选出最小外接矩形后的示意图。
第三步,标定板识别
对第二步2.3得到多个轮廓的最小外接矩形,把这些矩形轮廓信息存储起来,根据被保留的最小外接矩形的长宽比、矩形的周长比、矩形的中心点关系进行筛选。
根据所述矩形长宽比m:n设置长宽比阈值区间(m+k):n到m:(n-k),k的取值区间为对矩形的长宽比进行筛选;接着将筛选出的矩形轮廓两两组合,根据所述矩形周长比a:b设置周长比阈值区间(a+c):b到a:(b-c),c的取值区间为对矩形的周长比进行筛选;最后以两个矩形的中心点关系进行筛选,即因为标定板的内外矩形的中心点是相同的,分别计算两个矩形的中心点,并将两个中心点距离为d个像素之内的矩形组合保留下来,d的取值区间为[5,10]。当满足条件的矩形组合有且只有一组时,记录为一组有效数据,完成标定板的识别,得到标定板的内外矩形长度宽度的像素个数。根据标定板的矩形轮廓的有效数据计算出图像数据中像素个数与实际距离的比值。图6即最后将标定板框选出来的结果。
第四步,小型飞行器多尺度空-地参数标定
用光滑的曲线将飞行高度数据和第三步得到的像素个数与实际距离的比值结合,以高度为横坐标,以像素个数与实际距离的比值为纵坐标,并将离散数据通过光滑的曲线连接起来,由曲线得到地面物体几何参数数据,完成小型飞行器多尺度空-地参数自动标定。
通过机载微型计算机,使气压传感器与视觉传感器在同一时刻采集数据,然后将视觉传感器采集的图像与气压传感器采集的高度一一匹配,每组数据包括:通过气压传感器采集的高度数据,经过图像处理算法计算得出的标定板中心点位置,像素个数与实际距离的比值。由于视觉传感器的光学元件是凸透镜, 存在近大远小的现象,参数标定的结果会因为标定板位于图像中的位置产生不同的偏差,把图像信息分成多个区域,根据单目视觉传感器到所分区域平均距离不同将区域划分成不同类型,判断标定板的中心点位于所分区域中的哪一个。所分区域类型如图7所示,即图8的示意图,中心点位于第4类区域。由于分辨率越高的视觉传感器测得的像素个数与实际距离的比值越大,通过对像素个数与实际距离比值的分析,便可以对图像分辨率数据进行整合,进而完成了飞行器飞行高度、地面物体几何参数、图像分辨率三个相互关联的空-地参数的在线标定。
本发明使用的硬件系统是由单目视觉传感器、机载云台以及微型工控机组成,微型工控机体积小、重量轻,方便无人机携带。视觉传感器拍摄方向与地面保持垂直,每采集一帧图像,需要记录当前采集图像的时刻。机载云台保证小型飞行器上的视觉传感器在抖动状态下采集清晰图像。微型工控机完成实时数据处理。
本发明解决了小型飞行器领域中,之前无法实时对地面目标参数进行在线估计的难题。通过寻找不同飞行高度下的图像中像素个数与实际距离的关系,完成飞行器飞行高度、地面物体几何参数、图像分辨率三个相互关联的空-地参数的在线标定,准确地完成了对地面物体的空间参数、地面环境参数的在线测量。对小型飞行器智能自主地完成目标检测、目标跟踪、场景理解打下了坚实的基础。
附图说明
图1为实验所需的标定板。
图2为无人机视觉系统采集的图像示意图。
图3为图像处理算法中二值化的结果示意图。
图4为图像处理算法中边缘提取的结果示意图。
图5为查找轮廓上的点的步骤示意图。
图6为在图像数据中查找出来的外接矩形示意图。
图7为最后框选出来的标定板。
图8为分割好区域的示意图。
图9为最后确定标定板中心点位置的示意图。
图10为标定板位于图像区域1的二次曲线。
图11为标定板位于图像区域2的二次曲线。
图12为标定板位于图像区域3的二次曲线。
图13为标定板位于图像区域4的二次曲线。
具体实施方式
以下结合技术方案和附图详细叙述本发明的具体实施方式。
首先选取黑色卡纸作为材料,制作“回”型标定板,标定板的外矩形长2米宽1.5米,内矩形长1米宽0.75米。接着需要选取室外的实验场地,场地的选取无太多限制,能够保证无人机在高空中稳定飞行即可。视觉传感器采用FL3-U3-32S2C-CS型单目视觉传感器,其分辨率为320万像素,帧率为60赫兹、接口为USB3.0、镜头横向视场为62.3°(小型飞行器在十米高空时,拍摄的视场为100平方米)。将小型飞行器放置在选好的场地,对设备进行通电,飞控系统初始化后,飞行器解锁进行启动。小型飞行器从地面缓慢起飞在标定板上空10米至30米之间做不规则运动。通过机载微型计算机,使气压传感器与视觉传感器在同一时刻采集数据,并使其每二百毫秒采集一组数据,将视觉传感器采集的图像与气压传感器采集的高度一一匹配。
首先对图像进行二值化处理,处理后的结果如图1所示,接着利用Canny 算子对二值化图像进行边缘提取,处理后的结果如图2所示。基于提取出的边缘,进行轮廓查找,计算出每一个轮廓的最小外接矩形,并把这些矩形标记出来,如图3所示。通过最小外接矩形的长宽比、矩形的周长比、矩形的中心点关系进行标定板的识别。可以设置最小外接矩形的长宽比值阈值为[1.13,1.51]、设置矩形的周长阈值比值为[1.42,2.4]、设置两个中心点距离的阈值为[0,6]个像素,也可以最小外接矩形的长宽比值阈值为[1.05,1.6]、设置矩形的周长阈值比值为[1.11,2.8]、设置两个中心点距离的阈值为[0,8]个像素。将满足以上三个条件的矩形组合圈选出来,即符合条件的标定板,结果如图4所示,通过气压计可以得到该帧图像采集高度为30.1米,像素个数与实际距离的比值51.2(即实际距离为一米,在图像中由51个像素构成)。将采集的图像分为四类区域,具体划分类型如图5所示,识别标定板中心点所在区域,并将同区域的图像归为同一类。分别基于四类区域用光滑的曲线将横坐标为飞行高度,纵坐标为像素个数与实际距离的比值的数据点连接起来,由曲线得到地面物体几何参数数据,完成小型飞行器多尺度空-地参数自动标定工作。具体曲线如图9、图10、图11、图12所示。
Claims (3)
1.一种基于单目视觉系统的多尺度空-地参数自动标定方法,其特征在于,包括以下步骤:
第一步,制作回形标定板;
第二步,通过机载单目视觉传感器采集标定板及标定板附近图像信息,对图像信息进行预处理;
2.1对图像信息按公式(1)进行二值化预处理,突显出标定板,得到二值化图像;
<mrow>
<msubsup>
<mi>g</mi>
<mi>i</mi>
<mo>&prime;</mo>
</msubsup>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mn>255</mn>
</mtd>
<mtd>
<mrow>
<msub>
<mi>g</mi>
<mi>i</mi>
</msub>
<mo>></mo>
<msub>
<mi>k</mi>
<mi>g</mi>
</msub>
<mover>
<mi>g</mi>
<mo>&OverBar;</mo>
</mover>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mrow>
<msub>
<mi>g</mi>
<mi>i</mi>
</msub>
<mo>></mo>
<msub>
<mi>k</mi>
<mi>g</mi>
</msub>
<mover>
<mi>g</mi>
<mo>&OverBar;</mo>
</mover>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,g′i为二值化后的像素灰度值,是单幅图像所有像素点的灰度均值,kg为灰度调节阈值;
2.2利用Canny算子对二值化图像进行边缘提取;
利用环形二维高斯函数对二值化图像进行平滑处理,令f(x,y)表示待处理图像,G(x,y)表示高斯函数,G(x,y)和f(x,y)的卷积得到平滑后的图像fs(x,y):
<mrow>
<mi>G</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msup>
<mi>e</mi>
<mfrac>
<mrow>
<msup>
<mi>x</mi>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mi>y</mi>
<mn>2</mn>
</msup>
</mrow>
<mrow>
<mn>2</mn>
<msup>
<mi>&sigma;</mi>
<mn>2</mn>
</msup>
</mrow>
</mfrac>
</msup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
fs(x,y)=G(x,y)*f(x,y) (3)
由公式(4)和公式(5)计算梯度值和方向角,对梯度值和方向角设定阈值进行边缘提取,得到二值化图像若干边缘轮廓;
<mrow>
<mi>M</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msqrt>
<mrow>
<msubsup>
<mi>g</mi>
<mi>x</mi>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<msubsup>
<mi>g</mi>
<mi>y</mi>
<mn>2</mn>
</msubsup>
</mrow>
</msqrt>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>4</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>&alpha;</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>arctan</mi>
<mo>&lsqb;</mo>
<mfrac>
<msub>
<mi>g</mi>
<mi>y</mi>
</msub>
<msub>
<mi>g</mi>
<mi>x</mi>
</msub>
</mfrac>
<mo>&rsqb;</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>5</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,x表示沿横坐标方向的像素位置:y表示沿纵坐标方向的像素位置;
M(x,y)表示梯度值;α(x,y)表示方向角;
2.3查找轮廓,计算最小外接矩形;
对第二步2.2得到的若干边缘轮廓进行轮廓查找:查找轮廓上两个距离最远的点,将两个点连成线段;查找轮廓上到该线段距离最远的点,将查找到的最远的点与之前的两个点相连,得到新轮廓;算法反复迭代,不断将最远的点添加到轮廓中,直到所有的点到多边形的最短距离小于某一特定值,得到轮廓上若干个点,其中特定值为人为设定的像素个数;
将查找到的轮廓上的若干个点两两组合,将每个组合中的两个点连接起来,保留连线可以把其余点分成两边的组合;分别查找两边距连线最远的点,这四个点围成的外接矩形可包围轮廓上所有的点;筛选出满足上述条件的多个矩形,查找面积最小的矩形,即轮廓的最小外接矩形;
第三步,标定板识别
由最小外接矩形的长宽比、矩形的周长比、矩形的中心点关系对第二步2.3得到多个轮廓的最小外接矩形进行筛选;
首先,对矩形的长宽比进行筛选,所述矩形长宽比m:n,设置长宽比阈值区间(m+k):n到m:(n-k),其中k的取值区间为 其次,对矩形的周长比进行筛选,将筛选出的矩形轮廓两两组合,所述矩形周长比a:b,设置周长比阈值区间(a+c):b到a:(b-c),其中c的取值区间为最后,以两个矩形的中心点关系进行筛选,分别计算两个矩形的中心点,将两个中心点距离为d个像素之内的矩形组合保留下来,d的取值区间为[5,10];当满足条件的矩形组合有且只有一组时,记录为一组有效数据,完成标定板的识别,得到标定板内外矩形长度、宽度的像素个数,计算图像数据中像素个数与实际距离的比值;
第四步,小型飞行器多尺度空-地参数标定
将所述图像信息划分为不同区域,根据单目视觉传感器到所分区域平均距离不同将各个区域划分为不同类型,计算标定板的中心点所在区域类型;通过机载气压传感器得到飞行高度数据,以飞行高度数据为横坐标,以像素个数与实际距离的比值为纵坐标,得到飞行高度数据、像素个数与实际距离比值两者的关系曲线图,由曲线得到地面物体几何参数数据,完成小型飞行器多尺度空-地参数自动标定。
2.根据权利要求1所述的一种基于单目视觉系统的多尺度空-地参数自动标定方法,其特征在于,所述标定板为深色材料。
3.根据权利要求1或2所述的一种基于单目视觉系统的多尺度空-地参数自动标定方法,其特征在于,所述标定板的内外边框的长宽比相同。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510712752.5A CN105405126B (zh) | 2015-10-27 | 2015-10-27 | 一种基于单目视觉系统的多尺度空‑地参数自动标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510712752.5A CN105405126B (zh) | 2015-10-27 | 2015-10-27 | 一种基于单目视觉系统的多尺度空‑地参数自动标定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105405126A CN105405126A (zh) | 2016-03-16 |
CN105405126B true CN105405126B (zh) | 2017-11-07 |
Family
ID=55470593
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510712752.5A Active CN105405126B (zh) | 2015-10-27 | 2015-10-27 | 一种基于单目视觉系统的多尺度空‑地参数自动标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105405126B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107945237B (zh) * | 2017-12-27 | 2020-06-23 | 苏州多比特软件科技有限公司 | 多尺度标定板 |
CN109461173B (zh) * | 2018-10-25 | 2022-03-04 | 天津师范大学 | 一种用于时域视觉传感器信号处理的快速角点检测方法 |
CN110017816A (zh) * | 2019-04-28 | 2019-07-16 | 新疆师范大学 | 一种适用于中低空飞行器航拍测量的图像矫正装置 |
CN110288655B (zh) * | 2019-06-28 | 2021-06-15 | 深圳市同为数码科技股份有限公司 | 一种自动识别chart图片中测试图案位置的方法及装置 |
CN110378912B (zh) * | 2019-07-12 | 2021-11-16 | 深圳码隆科技有限公司 | 包裹检测方法、装置、计算机可读存储介质和计算机设备 |
CN112562004B (zh) * | 2019-09-25 | 2024-07-09 | 西门子(中国)有限公司 | 图像映射参数生成方法、装置和计算机可读介质 |
CN111623776B (zh) * | 2020-06-08 | 2022-12-02 | 昆山星际舟智能科技有限公司 | 使用近红外视觉传感器和陀螺仪进行目标测距的方法 |
CN112530010B (zh) * | 2020-12-07 | 2024-06-28 | 阳光新能源开发股份有限公司 | 数据获取方法和系统 |
CN112926503B (zh) * | 2021-03-23 | 2023-07-18 | 上海大学 | 一种基于矩形拟合的抓取数据集自动生成方法 |
CN112801232A (zh) * | 2021-04-09 | 2021-05-14 | 苏州艾隆科技股份有限公司 | 一种应用于处方录入的扫描识别方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2237223A1 (en) * | 2009-03-31 | 2010-10-06 | Aisin Seiki Kabushiki Kaisha | Calibrating apparatus for on-board camera of vehicle |
CN103075998A (zh) * | 2012-12-31 | 2013-05-01 | 华中科技大学 | 一种单目空间目标测距测角方法 |
CN104166854A (zh) * | 2014-08-03 | 2014-11-26 | 浙江大学 | 针对小型无人机自主降落的视觉分级地标定位识别方法 |
-
2015
- 2015-10-27 CN CN201510712752.5A patent/CN105405126B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2237223A1 (en) * | 2009-03-31 | 2010-10-06 | Aisin Seiki Kabushiki Kaisha | Calibrating apparatus for on-board camera of vehicle |
CN103075998A (zh) * | 2012-12-31 | 2013-05-01 | 华中科技大学 | 一种单目空间目标测距测角方法 |
CN104166854A (zh) * | 2014-08-03 | 2014-11-26 | 浙江大学 | 针对小型无人机自主降落的视觉分级地标定位识别方法 |
Non-Patent Citations (2)
Title |
---|
Vision-Based Tracking and Motion Estimation for Moving targets using Small UAVs;Vladimir N. Dobrokhodov等;《Proceedings of the 2006 American Control Conference》;20060616;第1428-1433页 * |
姿态测量/激光测距的无人机目标定位模型;毛昭军 等;《火力与指挥控制》;20031031;第28卷(第5期);第14-17页 * |
Also Published As
Publication number | Publication date |
---|---|
CN105405126A (zh) | 2016-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105405126B (zh) | 一种基于单目视觉系统的多尺度空‑地参数自动标定方法 | |
US20210012520A1 (en) | Distance measuring method and device | |
CN106774431B (zh) | 一种测绘无人机航线规划方法及装置 | |
CN109324337B (zh) | 无人飞行器的航线生成及定位方法、装置及无人飞行器 | |
CN103149939B (zh) | 一种基于视觉的无人机动态目标跟踪与定位方法 | |
WO2017080102A1 (zh) | 飞行装置、飞行控制系统及方法 | |
Kong et al. | Autonomous landing of an UAV with a ground-based actuated infrared stereo vision system | |
EP3158731B1 (en) | System and method for adjusting a baseline of an imaging system with microlens array | |
Strydom et al. | Visual odometry: autonomous uav navigation using optic flow and stereo | |
RU2613735C2 (ru) | Способ обнаружения положения и местонахождения посредством виртуальных опорных изображений | |
US20130027555A1 (en) | Method and Apparatus for Processing Aerial Imagery with Camera Location and Orientation for Simulating Smooth Video Flyby | |
CN107741234A (zh) | 一种基于视觉的离线地图构建及定位方法 | |
CN104808685A (zh) | 用于无人机自主降落的视觉辅助装置及视觉辅助方法 | |
EP3586314A1 (en) | Improved forest surveying | |
US20200357141A1 (en) | Systems and methods for calibrating an optical system of a movable object | |
WO2018046617A1 (en) | Method and system for calibrating multiple cameras | |
CN104700414A (zh) | 一种基于车载双目相机的前方道路行人快速测距方法 | |
CN104215239A (zh) | 基于视觉的无人机自主着陆导引装置及导引方法 | |
CN108919811A (zh) | 一种基于tag标签的室内移动机器人SLAM方法 | |
US20170372120A1 (en) | Cloud feature detection | |
Krishnan et al. | Cross-calibration of rgb and thermal cameras with a lidar for rgb-depth-thermal mapping | |
US10210389B2 (en) | Detecting and ranging cloud features | |
Hartley et al. | Using roads for autonomous air vehicle guidance | |
CN113155126B (zh) | 一种基于视觉导航的多机协同目标高精度定位系统及方法 | |
Baker et al. | Using shorelines for autonomous air vehicle guidance |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |