CN106771329B - 一种无人机减速过程中运行速度的检测方法 - Google Patents
一种无人机减速过程中运行速度的检测方法 Download PDFInfo
- Publication number
- CN106771329B CN106771329B CN201611229805.9A CN201611229805A CN106771329B CN 106771329 B CN106771329 B CN 106771329B CN 201611229805 A CN201611229805 A CN 201611229805A CN 106771329 B CN106771329 B CN 106771329B
- Authority
- CN
- China
- Prior art keywords
- detected
- image
- value
- edge
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000001514 detection method Methods 0.000 claims abstract description 58
- 238000004364 calculation method Methods 0.000 claims abstract description 21
- 238000006073 displacement reaction Methods 0.000 claims abstract description 4
- 230000005484 gravity Effects 0.000 claims description 15
- 238000003708 edge detection Methods 0.000 claims description 7
- 230000002093 peripheral effect Effects 0.000 claims description 2
- 230000007423 decrease Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01P—MEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
- G01P3/00—Measuring linear or angular speed; Measuring differences of linear or angular speeds
- G01P3/64—Devices characterised by the determination of the time taken to traverse a fixed distance
- G01P3/68—Devices characterised by the determination of the time taken to traverse a fixed distance using optical means, i.e. using infrared, visible, or ultraviolet light
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种无人机减速过程中运行速度的检测方法,所述方法包括:在无人机减速过程中利用无人机上的摄像头采集当前一帧图像;获取当前一帧图像的边缘图像,并在当前一帧图像中选取待检测目标区域;按照预设频率采集下一帧图像,并寻找待检测目标区域在下一帧图像中的估计位置;根据待检测目标区域在相邻两帧间的相对位移和帧间时间,计算出无人机的飞行速度;若无人机在连续特定帧数中的飞行速度都小于设定的速度阈值,则认为无人机已经完全停下,停止采集图像;否则,继续采集下一帧图像,并继续计算无人机的飞行速度。该方法能够提高无人机悬停的精准度,无需额外增加硬件设备,检测方法简单,计算量小,计算速度快,且计算准确率较高。
Description
技术领域
本发明涉及无人机速度测试技术领域,特别涉及一种无人机减速过程中运行速度的检测方法。
背景技术
飞行速度和方向是无人机导航的一个重要参数,特别是对室内运行的无人机,在GPS精度不高的情况下,检测出无人机悬停前的减速过程中准确的运行速度和方向对无人机的精确悬停尤为重要。现有的无人机一般都会配备摄像机,因此利用摄像机拍摄的图像进行测速,可以不用增加额外的硬件设备。另外,由于无人机上配备的摄像机的处理能力不是太高,现有的检测方法在实际应用过程中会出现运行速度慢、检测效率不高的情况,因此设计一种能运用于现有无人机系统的快速检测算法尤为重要。
发明内容
鉴于上述问题,本发明提供了一种无人机减速过程中运行速度的检测方法,以解决现有无人机减速过程中运行速度的检测方法运行速度慢、检测效率不高的问题。
为达到上述目的,本发明的技术方案是这样实现的:
本发明提供一种无人机减速过程中运行速度的检测方法,所述方法包括:
在所述无人机减速过程中利用所述无人机上的摄像头采集当前一帧图像;
对所述当前一帧图像进行图像边缘检测获取边缘图像;
根据所述边缘图像,在所述当前一帧图像中选取待检测目标区域,并记录所述待检测目标区域的特征;
所述摄像头按照预设频率采集下一帧图像,并根据所述待检测目标区域在所述当前一帧图像中的位置,寻找所述待检测目标区域在所述下一帧图像中的估计位置;
根据所述待检测目标区域在相邻两帧间的相对位移和帧间时间,计算出所述无人机的飞行速度。
本发明的有益效果是:本发明提供一种无人机减速过程中运行速度的检测方法,通过无人机上的摄像头拍摄的连续帧图像,根据选取的图像中的待检测目标区域在连续两帧图像之间的位置变化,来计算待检测目标区域的帧间运动速度,作为无人机在减速过程中的飞行速度,能够提高无人机悬停的精准度。该方法无需额外增加硬件设备,检测方法简单,计算量小,计算速度快,且计算准确率较高。
附图说明
图1是本发明实施例的无人机减速过程中运行速度的检测方法的流程图;
图2是本发明实施例的无人机减速过程中运行速度的检测方法的逻辑框图;
图3是本发明实施例的无人机减速过程中运行速度的检测方法中选取第一检测区域和第二检测区域的示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
本发明实施例提供一种无人机减速过程中运行速度的检测方法,如图1和图2共同所示,所述方法包括:
步骤S110:在所述无人机减速过程中利用所述无人机上的摄像头采集当前一帧图像;
步骤S120:对所述当前一帧图像进行图像边缘检测获取边缘图像;
步骤S130:根据所述边缘图像,在所述当前一帧图像中选取待检测目标区域,并记录所述待检测目标区域的特征;
步骤S140:所述摄像头按照预设频率采集下一帧图像,并根据所述待检测目标区域在所述当前一帧图像中的位置,寻找所述待检测目标区域在所述下一帧图像中的估计位置;
步骤S150:根据所述待检测目标区域在相邻两帧间的相对位移和帧间时间,计算出所述无人机的飞行速度;
在本发明的一个实施例中,若所述无人机在连续特定帧数中的飞行速度都小于设定的速度阈值,则认为所述无人机已经完全停止下,减速过程停止,停止采集图像;否则,继续采集下一帧图像,并继续计算所述无人机的飞行速度。
在本发明的实施例中,步骤S120中的所述对所述当前一帧图像进行图像边缘检测获取边缘图像包括:
假定f(x,y)为当前一帧图像,为x方向的梯度检测算子,则x方向的梯度为Gx=g1(x,y)*f(x,y);其中*为卷积算法;为y方向的梯度检测算子,则y方向的梯度为Gy=g2(x,y)*f(x,y);其中*为卷积算法;则梯度值当前一帧图像的边缘图像为其中T值为预设的阈值。
在本发明实施例的优选实施方案中,步骤S120中所述对所述当前一帧图像进行图像边缘检测获取边缘图像还包括:
对上述已经计算出的边缘图像S(x,y)的每一点计算其周围m*m区域内的非零边缘点总数,其中m为自然数;非零边缘点指的是边缘值不为零的点;并计算出所有所述非零边缘点总数的最大值;本发明实施例根据经验选定m的值为10,当然也可根据具体情况设定为其他值。
若所述非零边缘点总数的最大值大于第一预设值a,则将所述预设阈值T值加上经验值T0,得到修订后的T值;本发明实施例根据经验选定a的值为75,T0的值为10,当然也可根据具体情况设定为其他值。
若所述非零边缘点总数的最大值小于第二预设值b,其中a>b,则将所述预设阈值T值减去经验值T0,得到修订后的T值;本发明实施例根据经验选定b的值为25,当然也可根据具体情况设定为其他值。
根据所述修订后的T值重新计算所述边缘图像S(x,y),得到修订后的边缘图像;
对所述修订后的边缘图像,根据上述方法不断重复修订所述T值,直至得到的修订后的边缘图像中所有点的周围m*m区域内的非零边缘点总数的最大值在所述第一预设值a和第二预设值b范围内时,停止修订所述T值。
本发明实施例使用自适应阈值T的方法不断修订所述T阈值,若所述非零边缘点总数的最大值大于第一预设值a,将所述预设阈值T值加上经验值T0后,重新计算边缘图像得到的修订后的边缘图像中,被判定为边缘点的点个数必然会减少,相应地,每一点周围m*m区域内的非零边缘点总数也必然会减少。同样地,若所述非零边缘点总数的最大值小于第一预设值a,将所述预设阈值T值减去经验值T0后,重新计算边缘图像得到的修订后的边缘图像中,被判定为边缘点的点个数必然会增加,相应地,每一点周围m*m区域内的非零边缘点总数也必然会增加。这种自适应阈值T的方法不仅可以突出图像中灰度值变化最显著的区域,而且每一点周围m*m区域内的非零边缘点总数在25到75之间,避免区域中非零边缘点过多或过少而造成后续选取待检测目标区域的不准确性。
在本发明实施例中,步骤S130中的所述根据所述边缘图像,在当前一帧图像中选取待检测目标区域包括:
分别计算所述边缘图像中每一个边缘点周围m*m区域内的非零边缘点总数E,并获取所有所述非零边缘点总数E的最大值Emax,并将所述最大值Emax乘以预设的加权系数k得到经验阈值,其中0<k<1;在本发明实施例中根据经验将加权系数k选定为0.6。
找出其周围m*m区域内的非零边缘点总数E满足E>k*Emax的所有边缘点,分别根据下述计算公式计算其周围m*m区域内所有边缘点梯度角度θ的方差Sθ:
选取方差Sθ最大的前N个m*m区域作为当前一帧图像的N个待检测目标区域。
选择方差最大的前N个区域作为待检测目标区域的目的是,一方面非零边缘点总数反应了区域中灰度值的显著性,另一方面梯度角度方差反应了区域中梯度方向的不均匀性,可以最大程度的选择图像中带角点的区域作为待检测目标区域,充分利用图像中的显著区域,为在后续帧图像中计算待检测目标区域的估计位置的准确性奠定基础。
在本发明实施例中,根据经验将N的值选定为3,提高后续计算结果的准确度。
在本发明实施例中,步骤S130中的所述记录所述待检测目标区域的特征包括:
…,
其中,xi1,yi1、xi2,yi2、…xiN,yiN分别为N个所述待测目标区域内的非零边缘点在自身待测目标区域内的横坐标、纵坐标,i1、i2、iN分别为N个所述待测目标区域内非零边缘点的总个数。
需要说明的是,这里的xi1,yi1、xi2,yi2、…xiN,yiN是在待测目标区域内的坐标,即是相对于待检测目标区域而言的坐标,并不是对应在整幅图像的中的坐标,因此重心坐标也是相对于待检测目标区域而言的坐标。在实际运动过程中,待检测目标区域重心的相对位置不会发生变化,重心坐标可做为后续计算待检测目标区域估计位置的一个判定条件。
在本发明实施例中,步骤S140中的所述根据所述待检测目标区域在所述当前一帧图像中的位置,寻找所述待检测目标区域在所述下一帧图像中的估计位置包括:
分别根据所述N个待检测目标区域在所述当前一帧图像中的位置,在所述下一帧图像中分别以所述N个待检测目标区域的中心点为中心圈定N个2m*2m的第一检测区域;
分别以所述N个2m*2m的第一检测区域内的每一个点为中心圈定4m2个m*m的第二检测区域;
分别计算所述N个第一检测区域对应的所述4m2个m*m第二检测区域的重心
…、
其中1≤i≤4m2。
下面将以其中的1个待检测目标区域为例具体说明,为便于说明,将m的值暂取为10。
如图3所示,图3中标号为1的区域为其中一个10*10的待检测目标区域,标号为2的区域为以该10*10的待检测目标区域的中心点为中心圈定的一个20*20的第一检测区域,标号为3的区域为以该20*20的第一检测区域内的每一个点为中心圈定的400个10*10的第二检测区域(图3中仅标出8个),然后分别计算标号为3的400个10*10的第二检测区域的重心。
根据下述计算公式分别计算所述N个第一检测区域对应的4m2个m*m第二检测区域的重心与所述第一检测区域对应的待检测目标区域重心之间的距离Y1i、Y2i、…YNi为:
…、
以图3为例,即分别求标号为3的400个10*10的第二检测区域的重心与标号为1的10*10的待检测目标区域的重心的距离。
分别计算N个2m*2m的第一检测区域中所有所述距离的最小值Y1min、Y2min、…YNmin;
在所述N个第一检测区域中分别找出满足Y1i≤(Y1min+Y0)、Y2i≤(Y1min+Y0)、、…YNi≤(YNmin+Y0)的第二检测区域,分别作为所述N个待检测目标的第一匹配区域,其中Y0为经验值,在本发明实施例中选定为2。
需要说明的是,因为从理论上说,当前一帧图像和下一帧图像中待检测目标区域的重心应该在该区域的同一位置,但是在实际运动过程中,由于前后两帧边缘点的变动,例如减少或者增多,可能导致计算出的重心有所偏移或者有多个第二检测区域与待检测目标区域的重心在相同位置,但是与目标模板重心的距离越小,说明与所要找的待检测目标区域越接近,即作为第一匹配区域。
在本发明实施例中,步骤S140中的所述根据所述待检测目标区域在所述当前一帧图像中的位置,寻找所述待检测目标区域在所述下一帧图像中的估计位置还包括:
分别将所述N个待检测目标区域的第一匹配区域中的每一个点与该待检测目标区域中每一个点的边缘值比对并作差得到差值,并分别计算每一个所述第一匹配区域中所有点的所述边缘值差值之和的绝对值;
假定其中一个所述待检测目标区域的第一匹配区域中每一个点的边缘值分别为p21,p22,…p2n,该第一检测区域对应的待检测目标区域的每一个点的边缘值为p11,p12,…p1n,1≤n≤m2,其中,p21,p22,…p2n对应的点在所述第一匹配区域中的相对位置分别与p11,p12,…p1n对应的点在所述待检测目标区域中的相对位置相同;则所述边缘值的差值之和的绝对值的计算公式为:
Pi=||(p21-p11)+(p22-p12)+…(p2n-p1n)||;
分别对所述N个第一匹配区域获取所述Pi的最小值P1min、P2min、…PNmin,对所述N个第一匹配区域分别找到所述差值之和的绝对值满足小于(P1min+P0),小于(P2min+P0),…小于(PNmin+P0)的所有第一匹配区域,分别作为所述N个待检测目标区域的第二匹配区域,其中P0为经验值,在本发明实施例中选定为10。
以图3为例,第一匹配区域是标号为3的第二检测区域中的某几个,假设其中一个第一匹配区域中每一点的边缘值分别为p21,p22,…p2n,标号为1的待检测目标区域中每一个点的边缘值为p11,p12,…p1n,分别计算每一个标号为3的第一匹配区域和标号为1的待检测目标区域的边缘值的差值之和的绝对值,绝对值越小,说明该第一匹配区域与待检测目标区域的边缘图像越接近,那么它是待检测目标区域在该帧图像中估计位置的可能性就越大。这作为判定条件二。
在本发明实施例中,步骤S140中的所述根据所述待检测目标区域在所述当前一帧图像中的位置,寻找所述待检测目标区域在所述下一帧图像中的估计位置还包括:
分别将所述N个待检测目标的第二匹配区域中每一个点与对应的待检测目标区域中每一个点的灰度值比对并作差得到差值,并分别计算每一个所述第二匹配区域中所有点的所述灰度值的差值之和的绝对值;
假定其中一个所述待检测目标区域的第二匹配区域中每一个点的灰度值分别为g21,g22,…g2n,该待检测目标区域的每一个点的灰度值为g11,g12,…g1n,1≤n≤m2,其中,g21,g22,…g2n对应的点在所述第二匹配区域中的相对位置分别与g11,g12,…g1n对应的点在所述待检测目标区域中的相对位置相同;则所述灰度值的差值之和的绝对值的计算公式为:
Di=||(g21-g11)+(g22-g12)+…(g2n-g1n)||;
分别获取所述N个Di最小的第二匹配区域,作为所述N个第一检测区域对应的待检测目标区域在下一帧图像中的估计位置。
以图3为例,第二匹配区域是标号为3的第二检测区域中的某几个,假设其中一个第二匹配区域中每一点的灰度值分别为g21,g22,…g2n,标号为1的待检测目标区域中每一个点的灰度值为g11,g12,…g1n,分别计算每一个标号为3的第二匹配区域中每一点与标号为1的待检测目标区域中每一点的灰度值的差值之和的绝对值,绝对值越小,说明该第二匹配区域与待检测目标区域的灰度值越接近,那么它是待检测目标区域在该帧图像中估计位置的可能性就越大,这作为判定条件三,那么就将绝对值最小的第二匹配区域作为其对应的待检测目标区域在该帧图像中的估计位置。
需要说明的是,最后判定出的待检测目标区域在该帧图像中的估计位置是需要共同满足判定条件一和判定条件二,在试验中存在共同满足判定条件一的和判定条件二的区域的概率在98%以上,而对于剩下2%的概率找不到共同满足这两个条件的区域,就放弃计算对应待检测目标区域的估计位置。这也是选择N个待检测目标区域的原因之一,试验中基本上不会出现N个待检测目标区域都被放弃的情况。判定条件三放在最后,是因为灰度值最能准确反映待检测目标区域的真实特征。
还需要说明的是,上述根据当前一帧图像中待检测目标区域的位置计算其在下一帧帧图像中的估计位置,是基于无人机在减速过程中运行速度不是太快的条件,如果无人机在加速或运行速度过快,那么在下一帧图像中可能无法找到待检测目标区域的估计位置,也就无法计算无人机的运行速度。
在本发明实施例中,步骤S150中的所述待检测目标区域由所述当前一帧图像至所述下一帧图像的位移,以及所述当前一帧图像和所述下一帧图像的拍摄时间差,计算出所述待检测目标区域由所述当前一帧图像至所述下一帧图像的速度包括:
分别根据所述N个待检测目标区域在所述当前一帧图像中的位置获取其中心点的坐标(lx1,ly1)、(lx2,ly2)、…(lxN,lyN),分别根据所述N个待检测区域在下一帧图像中的估计位置获取其中心点的坐标(wx1,wy1)、(wx1,wy2)、…(wxN,wyN),则所述待检测目前区域由所述当前一帧图像至所述下一帧图像的速度为
其中,t为所述当前一帧图像与所述下一帧图像之间的拍摄时间差。
需要说明的是,为了避免在计算待检测目标区域估计位置的过程中可能出现的错误,因此利用同一时刻无人机运动方向的一致性,对得到的N个速度加权平均,并把平均值作为最终的帧间运动速度。计算出的帧间运动速度包括方向和大小,依据已知的速度方向和大小可大大提高悬停的精准度。
综上所述,本发明实施例提供的一种无人机减速过程中运行速度的检测方法,通过无人机上的摄像头拍摄的连续帧图像,根据选取的图像中的待检测目标区域在连续两帧图像之间的位置变化,来计算待检测目标区域的帧间运动速度,作为无人机在减速过程中的飞行速度,能够提高无人机悬停的精准度。该方法无需额外增加硬件设备,检测方法简单,计算量小,计算速度快,且计算准确率较高。
以上所述,仅为本发明的具体实施方式,在本发明的上述教导下,本领域技术人员可以在上述实施例的基础上进行其他的改进或变形。本领域技术人员应该明白,上述的具体描述只是更好的解释本发明的目的,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种无人机减速过程中运行速度的检测方法,其特征在于,所述方法包括:
在所述无人机减速过程中利用所述无人机上的摄像头采集当前一帧图像;
对所述当前一帧图像进行图像边缘检测获取边缘图像,所述边缘图像为二值图像;
根据所述边缘图像中每一个边缘点m*m区域内的非零边缘点总数和所述m*m区域内所有边缘点梯度角度,在所述当前一帧图像中选取待检测目标区域,并记录所述待检测目标区域的特征,所述特征包括所述待检测目标区域中的每一点的灰度值和每一点的边缘值,以及所述待检测目标区域的重心;其中m为自然数;
所述摄像头按照预设频率采集下一帧图像,根据所述待检测目标区域在所述当前一帧图像中的位置,以及根据所述待检测目标区域中 的每一点的灰度值、每一点的边缘值和所述待检测目标区域的重心,寻找所述待检测目标区域在所述下一帧图像中的估计位置;
根据所述待检测目标区域在相邻两帧间的相对位移和帧间时间,计算出所述无人机的飞行速度。
3.根据权利要求2所述的检测方法,其特征在于,对所述当前一帧图像进行图像边缘检测获取边缘图像还包括:
对所述边缘图像S(x,y)的每一点计算其周围m*m区域内的非零边缘点总数;并计算出所有所述非零边缘点总数的最大值;
若所述非零边缘点总数的最大值大于第一预设值a,则将预设的阈值T加上经验值T0,得到修订后的T值;
若所述非零边缘点总数的最大值小于第二预设值b,其中a>b,则将预设的阈值T减去经验值T0,得到修订后的T值;
根据所述修订后的T值重新计算所述边缘图像S(x,y),得到修订后的边缘图像;
对所述修订后的边缘图像,根据上述方法不断重复修订所述T值,直至得到的修订后的边缘图像中所有点的周围m*m区域内的非零边缘点总数的最大值在所述第一预设值a和第二预设值b范围内时,停止修订所述T值。
6.根据权利要求5所述的检测方法,其特征在于,根据所述待检测目标区域在所述当前一帧图像中的位置,寻找所述待检测目标区域在所述下一帧图像中的估计位置包括:
分别根据所述N个待检测目标区域在所述当前一帧图像中的位置,在所述下一帧图像中分别以所述N个待检测目标区域的中心点为中心圈定N个2m*2m的第一检测区域;
分别以所述N个2m*2m的第一检测区域内的每一个点为中心圈定4m2个m*m的第二检测区域;
分别计算所述N个第一检测区域中对应的4m2个m*m第二检测区域的重心
…、
其中1≤i≤4m2;
分别根据下述计算公式计算所述N个第一检测区域对应的所述第二检测区域的重心与对应的待检测目标区域重心之间的距离Y1i、Y2i、…YNi为:
…、
分别计算N个2m*2m的第一检测区域中所有所述距离的最小值Y1min、Y2min、…YNmin;
在所述N个第一检测区域对应的第二检测区域中分别找出满足Y1i≤(Y1min+Y0)、Y2i≤(Y2min+Y0)、…YNi≤(YNmin+Y0)的区域,分别作为所述N个待检测目标区域的第一匹配区域,其中Y0为经验值。
7.根据权利要求6所述的检测方法,其特征在于,根据所述待检测目标区域在所述当前一帧图像中的位置,寻找所述待检测目标区域在所述下一帧图像中的估计位置还包括:
分别将所述N个待检测目标区域的第一匹配区域中每一个点与对应的待检测目标区域中每一个点的边缘值比对并作差得到差值,并分别计算每一个所述第一匹配区域中所有点的所述边缘值的差值之和的绝对值;
假定其中一个待检测目标区域的第一匹配区域中每一个点的边缘值分别为p21,p22,…p2n,该第一检测区域对应的待检测目标区域的每一个点的边缘值为p11,p12,…p1n,1≤n≤m2,其中,p21,p22,…p2n对应的点在所述第一匹配区域中的相对位置分别与p11,p12,…p1n对应的点在所述待检测目标区域中的相对位置相同;
则所述边缘值的差值之和的绝对值的计算公式为:
Pi=||(p21-p11)+(p22-p12)+…(p2n-p1n)||;
分别对所述N个第一匹配区域获取所述Pi的最小值P1min、P2min…PNmin,对所述N个第一匹配区域分别找到所述差值之和的绝对值满足小于(P1min+P0),小于(P2min+P0),…小于(PNmin+P0)的所有第一匹配区域,分别作为所述N个待检测目标区域的第二匹配区域,其中P0为经验值。
8.根据权利要求7所述的检测方法,其特征在于,根据所述待检测目标区域在所述当前一帧图像中的位置,寻找所述待检测目标区域在所述下一帧图像中的估计位置还包括:
分别将所述N个待检测目标区域第二匹配区域中每一个点与该第一检测区域对应的待检测目标区域中每一个点的灰度值比对并作差得到差值,并分别计算每一个所述第二匹配区域中所有点的所述灰度值的差值之和的绝对值;
假定其中一个所述待检测目标区域的一个所述第二匹配区域中每一个点的灰度值分别为g21,g22,…g2n,该第一检测区域对应的待检测目标区域的每一个点的灰度值为g11,g12,…g1n,1≤n≤m2,其中,g21,g22,…g2n对应的点在所述第二匹配区域中的相对位置分别与g11,g12,…g1n对应的点在所述待检测目标区域中的相对位置相同;则所述灰度值的差值之和的绝对值的计算公式为:
Di=||(g21-g11)+(g22-g12)+…(g2n-g1n)||;
分别获取N个所述Di最小的第二匹配区域,作为所述N个第一检测区域对应的待检测目标区域在下一帧图像中的估计位置。
9.根据权利要求8所述的检测方法,其特征在于,所述待检测目标区域由所述当前一帧图像至所述下一帧图像的位移,以及所述当前一帧图像和所述下一帧图像的拍摄时间差,计算出所述待检测目标区域由所述当前一帧图像至所述下一帧图像的速度包括:
分别根据所述N个待检测目标区域在所述当前一帧图像中的位置获取其中心点的坐标(lx1,ly1)、(lx2,ly2)、…(lxN,lyN),分别根据所述N个待检测区域在下一帧图像中的估计位置获取其中心点的坐标(wx1,wy1)、(wx1,wy2)、…(wxN,wyN),则所述待检测目标区域由所述当前一帧图像至所述下一帧图像的速度为
其中,t为所述当前一帧图像与所述下一帧图像之间的拍摄时间差。
10.根据权利要求1-9任一项所述的检测方法,其特征在于,
若所述无人机在连续特定帧数中的飞行速度都小于设定的速度阈值,则认为所述无人机已经完全停下,减速过程停止,停止采集图像;否则,继续采集下一帧图像,并继续计算所述无人机的飞行速度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611229805.9A CN106771329B (zh) | 2016-12-27 | 2016-12-27 | 一种无人机减速过程中运行速度的检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611229805.9A CN106771329B (zh) | 2016-12-27 | 2016-12-27 | 一种无人机减速过程中运行速度的检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106771329A CN106771329A (zh) | 2017-05-31 |
CN106771329B true CN106771329B (zh) | 2020-06-05 |
Family
ID=58922383
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611229805.9A Active CN106771329B (zh) | 2016-12-27 | 2016-12-27 | 一种无人机减速过程中运行速度的检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106771329B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109425754A (zh) * | 2017-08-22 | 2019-03-05 | 成都飞机工业(集团)有限责任公司 | 一种判断无人机减速异常的方法 |
WO2019061083A1 (en) * | 2017-09-27 | 2019-04-04 | Sz Dji Technology Co. , Ltd. | SYSTEM AND METHOD FOR DETERMINING AERODYNAMIC SPEED |
CN108053446A (zh) * | 2017-12-11 | 2018-05-18 | 北京奇虎科技有限公司 | 基于点云的定位方法、装置及电子设备 |
CN109782014A (zh) * | 2019-03-11 | 2019-05-21 | 南京理工大学泰州科技学院 | 一种无人机速度确定方法及装置 |
CN115580173A (zh) * | 2022-10-25 | 2023-01-06 | 亿航智能设备(广州)有限公司 | 一种电机控制方法、装置、设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4701225B2 (ja) * | 2007-03-06 | 2011-06-15 | 池上通信機株式会社 | 速度計測方法 |
CN105447853A (zh) * | 2015-11-13 | 2016-03-30 | 深圳市道通智能航空技术有限公司 | 飞行装置、飞行控制系统及方法 |
CN105957106A (zh) * | 2016-04-26 | 2016-09-21 | 湖南拓视觉信息技术有限公司 | 三维目标跟踪的方法和装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105225241B (zh) * | 2015-09-25 | 2017-09-15 | 广州极飞科技有限公司 | 无人机深度图像的获取方法及无人机 |
CN106199039B (zh) * | 2016-07-06 | 2019-04-26 | 深圳市高巨创新科技开发有限公司 | 一种无人机速度监测方法及系统 |
-
2016
- 2016-12-27 CN CN201611229805.9A patent/CN106771329B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4701225B2 (ja) * | 2007-03-06 | 2011-06-15 | 池上通信機株式会社 | 速度計測方法 |
CN105447853A (zh) * | 2015-11-13 | 2016-03-30 | 深圳市道通智能航空技术有限公司 | 飞行装置、飞行控制系统及方法 |
CN105957106A (zh) * | 2016-04-26 | 2016-09-21 | 湖南拓视觉信息技术有限公司 | 三维目标跟踪的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN106771329A (zh) | 2017-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106771329B (zh) | 一种无人机减速过程中运行速度的检测方法 | |
CN109345588B (zh) | 一种基于Tag的六自由度姿态估计方法 | |
CN109682382B (zh) | 基于自适应蒙特卡洛和特征匹配的全局融合定位方法 | |
CN109275093B (zh) | 基于uwb定位与激光地图匹配的定位方法和移动终端 | |
US10339389B2 (en) | Methods and systems for vision-based motion estimation | |
US8625903B2 (en) | Pose estimation | |
CN106529587B (zh) | 基于目标点识别的视觉航向识别方法 | |
CN106056643B (zh) | 一种基于点云的室内动态场景slam方法及系统 | |
CN111144213B (zh) | 一种对象检测方法和相关设备 | |
CN109215129B (zh) | 一种基于三维点云的局部特征描述方法 | |
CN112484746B (zh) | 一种基于地平面的单目视觉辅助激光雷达里程计方法 | |
CN102722887A (zh) | 一种图像配准方法及装置 | |
CN109087323A (zh) | 一种基于精细cad模型的图像车辆三维姿态估计方法 | |
CN107025657A (zh) | 一种基于视频图像的车辆行为轨迹检测方法 | |
CN108022254A (zh) | 一种基于征点辅助的时空上下文目标跟踪方法 | |
CN106023183A (zh) | 一种实时的直线段匹配方法 | |
CN112767456A (zh) | 一种三维激光点云快速重定位方法 | |
CN116468786B (zh) | 一种面向动态环境的基于点线联合的语义slam方法 | |
CN112070832A (zh) | 基于点云dca特征的非合作目标位姿跟踪方法及装置 | |
CN103714550A (zh) | 一种基于匹配曲线特征评估的图像配准自动优化算法 | |
CN116245921A (zh) | 引入平面约束的低重叠率弱特征三维测量点云精配准方法 | |
CN106447662A (zh) | 一种基于组合距离的fcm图像分割算法 | |
CN112001973A (zh) | 基于数字散斑相关的快速三维人头测量方法 | |
CN108596947A (zh) | 一种适用于rgb-d相机的快速目标跟踪方法 | |
CN107817491B (zh) | 一种图像的生成方法、装置及图像生成设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |