CN105700551A - 无人机降落区域确定方法、无人机降落方法及相关装置 - Google Patents
无人机降落区域确定方法、无人机降落方法及相关装置 Download PDFInfo
- Publication number
- CN105700551A CN105700551A CN201610054914.5A CN201610054914A CN105700551A CN 105700551 A CN105700551 A CN 105700551A CN 201610054914 A CN201610054914 A CN 201610054914A CN 105700551 A CN105700551 A CN 105700551A
- Authority
- CN
- China
- Prior art keywords
- shooting
- unmanned plane
- picture
- stereo
- overlapping region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 68
- 238000012545 processing Methods 0.000 claims description 28
- 230000008569 process Effects 0.000 claims description 25
- 238000010276 construction Methods 0.000 claims description 21
- 230000004888 barrier function Effects 0.000 claims description 17
- 238000010586 diagram Methods 0.000 description 9
- 238000004590 computer program Methods 0.000 description 7
- 230000006399 behavior Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000009966 trimming Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种无人机降落区域确定方法、无人机降落方法及相关装置,用以在无需增设专门用于确定降落位置的元器件的情况下实现避障降落。该方法为:无人机获取待降落区域的位置信息,根据所述位置信息对所述待降落区域进行至少两次拍摄,获得至少两张拍摄图像,每次拍摄时所述无人机所在的位置不同;所述无人机确定所述至少两张拍摄图像的重叠区域,根据所述重叠区域构建立体图像;所述无人机根据所述立体图像确定降落区域。
Description
技术领域
本发明涉及无人机技术领域,尤其涉及一种无人机降落区域确定方法、无人机降落方法及相关装置。
背景技术
无人机降落时需要获知地面是否有障碍物,例如地面是否有突起物、台阶等。目前,无人机降落主要是通过景深测量传感器测量物体深度的方式确定地面是否平坦。常见的景深测量传感器主要是利用飞行时间技术(TimeofFlight,TOF)、超声波等。
其中,TOF技术是指:传感器发出经调制的近红外光,遇物体后反射,传感器通过计算光线发射和反射时间差或相位差,来换算被拍摄景物的距离,以产生深度信息,此外再结合传统的相机拍摄,就能将物体的三维轮廓以不同颜色代表不同距离的地形图方式呈现出来。
在无人机上配置景深测量传感器会增加无人机的功耗和载重,降低无人机的续航能力,并且还会增加元器件数量以及增加成本。另外,为了避免遮挡感应信号,还需要限制器件的结构外形,对结构设计造成限制。
鉴于此,需要寻求一种新的无人机降落位置确定方法,以在无需增设专门用于确定降落位置的元器件的情况下实现避障降落。
发明内容
本发明实施例提供一种无人机降落区域确定方法、无人机降落方法及相关装置,用以在无需增设专门用于确定降落位置的元器件的情况下实现避障降落。
本发明实施例提供的具体技术方案如下:
第一方面,本发明实施例提供了一种无人机降落区域确定方法,包括:
无人机获取待降落区域的位置信息,根据所述位置信息对所述待降落区域进行至少两次拍摄,获得至少两张拍摄图像,每次拍摄时所述无人机所在的位置不同;
所述无人机确定所述至少两张拍摄图像的重叠区域,根据所述重叠区域构建立体图像;
所述无人机根据所述立体图像确定降落区域。
较佳地,每次拍摄时所述无人机的拍摄角度不相同。
较佳地,所述无人机根据所述重叠区域中构建立体图像,包括:
所述无人机每次从所述至少两张拍摄图像中选择两张拍摄图像,根据选择的两张拍摄图像在拍摄时所述无人机所在的位置,以及选择的两张拍摄图像的所述重叠区域,确定选择的两张拍摄图像构建的立体图像,其中每次选择不同的拍摄图像;
所述无人机根据构建的多个立体图像确定所述至少两张拍摄图像对应的立体图像。
较佳地,所述无人机根据选择的两张拍摄图像在拍摄时所述无人机所在的位置,以及选择的两张拍摄图像的所述重叠区域,确定选择的两张拍摄图像构建的立体图像,包括:
所述无人机根据选择的两张拍摄图像在拍摄时所述无人机所在的位置,以及选择的两张拍摄图像的所述重叠区域中包含的像素的坐标,确定选择的两张拍摄图像构建的立体图像。
较佳地,所述无人机根据选择的两张拍摄图像在拍摄时所述无人机所在的位置,以及选择的两张拍摄图像的所述重叠区域中包含的像素的坐标,确定选择的两张拍摄图像构建的立体图像,包括:
所述无人机根据选择的两张拍摄图像在拍摄时所述无人机所在的位置确定两次拍摄对应的基线距,确定所述重叠区域中的像素点分别在选择的两张拍摄图像中的坐标,根据所述基线距以及所述重叠区域中的像素点在选择的两张拍摄图像中的坐标,确定所述重叠区域中的像素点在立体图像中的三维坐标。
较佳地,所述重叠区域中包含的像素的坐标为:
所述重叠区域中的每个像素的坐标,或者,所述重叠区域中以设定大小的像素块为间隔选取的部分像素的坐标。
较佳地,所述降落区域为不存在障碍物并且面积足以能够让无人机降落的区域。
较佳地,所述无人机根据所述立体图像确定降落区域,包括:
所述无人机根据所述立体图像在所述重叠区域中确定降落区域。
较佳地,所述无人机根据所述立体图像在所述重叠区域中确定降落区域,包括:
所述无人机根据所述立体图像中不存在障碍物的区域的位置和大小,判断所述重叠区域中是否存在降落区域。
第二方面,本发明实施例提供了一种无人机降落方法,包括以上任一项所述的降落区域确定方法。
较佳地,还包括:
所述无人机确定构建立体图像的次数不大于预设值时,更新待降落区域的位置信息后,执行以上所述的降落区域确定过程。
较佳地,还包括:
所述无人机确定构建立体图像的次数大于预设值时,按照默认方式降落。
第三方面,本发明实施例提供了一种无人机降落区域确定装置,包括:
第一处理模块,用于获取待降落区域的位置信息,根据所述位置信息对所述待降落区域进行至少两次拍摄,获得至少两张拍摄图像,每次拍摄时所述无人机所在的位置不同;
第二处理模块,用于确定所述至少两张拍摄图像的重叠区域,根据所述重叠区域构建立体图像;
第三处理模块,用于根据所述立体图像确定降落区域。
较佳地,每次拍摄时所述无人机的拍摄角度不相同。
较佳地,所述第二处理模块具体用于:
每次从所述至少两张拍摄图像中选择两张拍摄图像,根据选择的两张拍摄图像在拍摄时所述无人机所在的位置,以及选择的两张拍摄图像的所述重叠区域,确定选择的两张拍摄图像构建的立体图像,其中每次选择不同的拍摄图像;
根据构建的多个立体图像确定所述至少两张拍摄图像对应的立体图像。
较佳地,所述第二处理模块具体用于:
根据选择的两张拍摄图像在拍摄时所述无人机所在的位置,以及选择的两张拍摄图像的所述重叠区域中包含的像素的坐标,确定选择的两张拍摄图像构建的立体图像。
较佳地,所述第二处理模块具体用于:
根据选择的两张拍摄图像在拍摄时所述无人机所在的位置确定两次拍摄对应的基线距,确定所述重叠区域中的像素点分别在选择的两张拍摄图像中的坐标,根据所述基线距以及所述重叠区域中的像素点在选择的两张拍摄图像中的坐标,确定所述重叠区域中的像素点在立体图像中的三维坐标。
较佳地,所述重叠区域中包含的像素的坐标为:
所述重叠区域中的每个像素的坐标,或者,所述重叠区域中以设定大小的像素块为间隔选取的部分像素的坐标。
较佳地,所述降落区域为不存在障碍物并且面积足以能够让无人机降落的区域。
较佳地,所述第三处理模块具体用于:
根据所述立体图像在所述重叠区域中确定降落区域。
较佳地,所述第三处理模块具体用于:
根据所述立体图像中不存在障碍物的区域的位置和大小,判断所述重叠区域中是否存在降落区域。
第四方面,本发明实施例提供了一种无人机,包括以上任一项所述的无人机降落区域确定装置。
基于上述技术方案,本发明实施例中,无人机根据待降落区域的位置信息,根据该位置信息至少两次拍摄该待降落区域,获得至少两张拍摄图像,根据多次拍摄获得的拍摄图像的重叠区域构建立体图像,根据该立体图像确定降落区域,从而实现了在无需增设专门用于确定降落位置的元器件的情况下实现避障降落。
附图说明
图1为本发明实施例中无人机降落区域确定方法流程示意图;
图2为本发明实施例中两次拍摄过程示意图;
图3为本发明实施例中立体图像构建示意图;
图4为本发明实施例中无人机降落的过程示意图;
图5为本发明实施例中无人机降落区域确定装置的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
本发明实施例中的无人机是指多旋翼无人机,即能够停留在空中并通过摄像机进行拍照的无人机。
本发明实施例中,如图1所示,无人机降落区域确定的详细方法流程如下:
步骤101:无人机获取待降落区域的位置信息,根据该位置信息对该待降落区域进行至少两次拍摄,获得至少两张拍摄图像,每次拍摄时该无人机所在的位置不同。
较佳地,每次拍摄时无人机的拍摄角度不相同。
例如,以两次拍摄为例,假设无人机第一次拍摄时所在的位置坐标为(x1,y1,z1),以拍摄角度A拍摄降落平面,拍摄角度A的取值与降落平面本身的斜度有关系,以水平降落平面为例,A的取值范围为-90度到90度之间,拍摄角度的取值原则为摄像头拍摄到的图像中包含了无人机的待降落区域即可。无人机在第二次拍摄时所在的位置坐标为(x2,y2,z2),以拍摄角度B拍摄降落平面,拍摄角度B的取值主要是保证本次拍摄的图像和第一次所拍摄的图像尽量重叠,或者至少有一部分重叠,如图2所示为两次拍摄过程示意图,图2中的阴影部分为两次拍摄的重叠区域。
具体地,无人机获取待降落区域的位置信息,有多种实现方式,包括但不限于以下几种实现方式:
第一,无人机获取该无人机正下方的位置信息,将该位置信息作为待降落区域的位置信息;
第二,无人机获取摄像头当前对准的位置信息,将该位置信息作为待降落区域的位置信息;
第三,无人机获取摄像头拍摄的图像的指定区域对应的位置信息,将该位置信息作为待降落区域的位置信息。
步骤102:无人机确定至少两张拍摄图像的重叠区域,根据该重叠区域构建立体图像。
具体实施中,利用立体成像原理构建立体图像。
具体地,根据立体成像原理,只要能够从两个拍摄角度拍摄同一个特征点,即可获得该特征点的三维坐标信息,如果用大于两个拍摄角度拍摄同一特征点,可通过多次计算确定该特征点的三维坐标信息,并提高该特征点的三维坐标的准确性。鉴于此,通过两次不同拍摄角度的拍摄,可大致构建立体图像,通过多次不同角度的拍摄,可提高构建的立体图像的精确度。需要说明的是,本发明实施例中所描述的仅为立体成像的基础算法,对于基于多角度拍摄的图像的立体成像算法的优化算法也可以应用于本发明,也就是说本发明并不限制基于多角度拍摄的图像构建立体图像的具体算法,只要是能够基于多角度拍摄的图像构建立体图像的算法都可以应用到本发明实施例中。
实施中,无人机根据至少两张拍摄图像的重叠区域构建立体图像,具体为:
无人机每次从至少两张拍摄图像中选择两张拍摄图像,根据选择的两张拍摄图像在拍摄时所述无人机所在的位置,以及选择的两张拍摄图像的重叠区域,确定选择的两张拍摄图像构建的立体图像,其中每次选择不同的拍摄图像;无人机根据构建的多个立体图像确定该至少两张拍摄图像对应的立体图像。
优选地,无人机根据选择的两张拍摄图像在拍摄时所述无人机所在的位置,以及选择的两张拍摄图像的所述重叠区域中包含的像素的坐标,确定选择的两张拍摄图像构建的立体图像。
具体地,无人机计算同一特征点在多个立体图像中的三维坐标的平均值,根据计算得到的每个特征点的三维坐标的平均值确定该至少两张拍摄图像对应的立体图像,即确定最终用于确定降落区域的立体图像。或者,无人机可以计算同一特征点在多个立体图像中的三维坐标中除边界值之外的其余三维坐标的平均值,根据计算得到的每个特征点的三维坐标中除边界值之外的其余三维坐标的平均值,确定该至少两张拍摄图像对应的立体图像,即确定最终用于确定降落区域的立体图像。或者,无人机选择同一特征点在多个立体图像中的三维坐标中的中间值,根据选择的每个特征点在多个立体图像中的三维坐标中的中间值,确定该至少两张拍摄图像对应的立体图像,即确定最终用于确定降落区域的立体图像。需要说明的是,以上仅为举例说明,本发明的保护范围并不以此为限制。
实施中,以两张拍摄图像构建立体图像为例,构建立体图像的过程为:无人机根据两张拍摄图像在拍摄时无人机所在的位置确定两次拍摄对应的基线距,确定两张拍摄图像的重叠区域中的像素点分别在该两张拍摄图像中的坐标,根据该基线距以及该重叠区域中的像素点在该两张拍摄图像中的坐标,确定该重叠区域中的像素点在立体图像中的三维坐标。按照该过程确定重叠区域中的全部或部分像素点在立体图像中的三维坐标,从而构建得到立体图像。
其中,重叠区域中的像素点对应空间物体的一个特征点。
其中,重叠区域中包含的像素的坐标可以为重叠区域中的每个像素的坐标,或者,可以为重叠区域中以设定大小的像素块为间隔选取的部分像素的坐标。
具体地,如图3所示,基线距H等于一台摄像机在两个位置点的投影中心连线的距离,即一台摄像机的两个位置点的水平距离,假设相机焦距为f,该相机焦距为摄像机的固有参数,为已知值;假设空间物体的特征点表示为P(xc,yc,zc),也表示为P,定义摄像机位于“左眼”的位置点获取的图像为左图像,定义摄像机位于“右眼”的位置点获取的图像为右图像,该特征点P左图像中图像坐标为pleft=(Xleft,Yleft),该特征点P右图像中的图像坐标为pright=(Xright,Yright),假设该两个位置点在同一个水平面上,则Yleft=Yright=Y,则由三角几何关系得到公式(1):
定义视差为:Disparity=Xleft-Xright,则根据公式(1)可计算出特征点P的摄像机坐标系下的三维坐标为公式(2)所示:
该过程中左图像和右图像分别为无人机两次以不同的拍摄角度获得的图像,根据该过程可确定两个图像的重叠区域中每个像素点的三维坐标,从而构建得到立体图像。
实施中,在构建立体图像中,可以采用拍摄图像中重叠区域中的每个像素点的坐标,为了提高效率,也可以是采用拍摄图像中重叠区域中的部分像素点的坐标,例如,假设设置最小分辨率为2×2,则在重叠区域中每间隔两个像素点选择一个像素点用于构建立体图像。或者,对重叠区域进行网格划分后,选择网格的交点位置处的像素的坐标用于构建立体图像。其中,最小分辨率以及网格的大小取决于需要识别的最小障碍物的尺寸。
步骤103:无人机根据该立体图像确定降落区域。
其中,降落区域为不存在障碍物,并且面积足以能够让无人机降落的区域。
实施中,无人机根据立体图像在重叠区域中确定降落区域。具体地,无人机根据立体图像中不存在障碍物的区域的位置和大小,判断该重叠区域中是否存在降落区域。
具体地,如图2所示,立体图像中障碍物区域所指的是平面像素点的三维坐标中的Y坐标值与周边的其它大部分像素的Y坐标值有较大差异的像素区域,非障碍物区域是指三维坐标中的Y坐标值与周边其它大部分像素的Y坐标值的差值在一定范围内的像素区域,如果足够大区域内各像素的三维坐标的Y坐标值的差值均在一定范围内,且该足够大区域可以用于无人机降落,则确定该立体图像中存在降落区域。
基于同一发明构思,本发明实施例中还提供了一种无人机降落方法,包括上述步骤101至步骤103所描述的降落区域确定方法。
实施中,无人机若根据步骤101至步骤103所描述的降落区域确定过程未找到合适的降落区域,并且确认构建立体图像的次数不大于预设值时,更新待降落区域的位置信息后,执行步骤101至步骤103所描述的降落区域确定过程。
实施中,无人机若根据步骤101至步骤103所描述的降落区域确定过程未找到合适的降落区域,并且确认构建立体图像的次数大于预设值时,按照默认方式降落。
具体地,无人机按照默认方式降落有多种具体实施方式,本发明并不限制默认方式的具体实施方式。例如,一种实施方式为无人机报警并直接垂直降落,即确定垂直降落对应的区域为降落区域;另一种实施方式为无人机报警并等待操作者的指示,根据操作者的指示进行降落,即手动降落;另一种实施方式为人机确定电量不足时,报警并直接垂直降落,以避免坠机。
一个完整实施例如图4所示,无人机降落的过程为:
第一步,无人机位于空间位置1,以拍摄角度A拍摄待降落区域1;
第二步,无人机位于空间位置2,以拍摄角度B拍摄待降落区域1;
第三步,无人机根据在空间位置1和空间位置2拍摄获得的图像的重叠区域,构建立体图像;
第四步,无人机判断第三步构建的立体图像中是否存在降落区域,若不存在,则执行可选流程;若存在,则执行第五步;
可选流程为:
无人机在空间位置3,以拍摄角度C拍摄待降落区域2;在空间位置4,以拍摄角度D拍摄待降落区域2;根据在空间位置3和空间位置4拍摄获得的图像的重叠区域,构建立体图像;判断该立体图像中是否存在降落区域,若存在,执行第五步,否则,执行第六步;
第五步,无人机将立体图像中的降落区域作为目标降落区域,调整姿态向该目标降落区域降落;
第六步,无人机执行默认操作。
基于同一发明构思,本发明实施例中还提供了一种无人机降落区域确定装置,该装置的具体实施可参见上述方法实施例部分的描述,重复之处不再赘述,如图5所示,该装置主要包括:
第一处理模块501,用于获取待降落区域的位置信息,根据所述位置信息对所述待降落区域进行至少两次拍摄,获得至少两张拍摄图像,每次拍摄时所述无人机所在的位置不同;
第二处理模块502,用于确定所述至少两张拍摄图像的重叠区域,根据所述重叠区域构建立体图像;
第三处理模块503,用于根据所述立体图像确定降落区域。
较佳地,每次拍摄时无人机的拍摄角度不相同。
较佳地,所述第二处理模块具体用于:
每次从所述至少两张拍摄图像中选择两张拍摄图像,根据选择的两张拍摄图像在拍摄时无人机所在的位置,以及选择的两张拍摄图像的所述重叠区域,确定选择的两张拍摄图像构建的立体图像,其中每次选择不同的拍摄图像;
根据构建的多个立体图像确定所述至少两张拍摄图像对应的立体图像。
较佳地,第二处理模块具体用于:
根据选择的两张拍摄图像在拍摄时所述无人机所在的位置,以及选择的两张拍摄图像的所述重叠区域中包含的像素的坐标,确定选择的两张拍摄图像构建的立体图像。
较佳地,第二处理模块具体用于:
根据选择的两张拍摄图像在拍摄时所述无人机所在的位置确定两次拍摄对应的基线距,确定所述重叠区域中的像素点分别在选择的两张拍摄图像中的坐标,根据所述基线距以及所述重叠区域中的像素点在选择的两张拍摄图像中的坐标,确定所述重叠区域中的像素点在立体图像中的三维坐标。
较佳地,重叠区域中包含的像素的坐标为:
所述重叠区域中的每个像素的坐标,或者,所述重叠区域中以设定大小的像素块为间隔选取的部分像素的坐标。
较佳地,降落区域为不存在障碍物并且面积足以能够让无人机降落的区域。
较佳地,所述第三处理模块具体用于:
根据所述立体图像在所述重叠区域中确定降落区域。
较佳地,所述第三处理模块具体用于:
根据所述立体图像中不存在障碍物的区域的位置和大小,判断所述重叠区域中是否存在降落区域。
基于同一发明构思,本发明还提供了一种无人机,该无人机包括上述的无人机降落区域确定装置,具体实施可参见上述方法部分的描述,重复之处不再赘述。
基于上述技术方案,本发明实施例中,无人机根据待降落区域的位置信息,根据该位置信息至少两次拍摄该待降落区域,获得至少两张拍摄图像,根据多次拍摄获得的拍摄图像的重叠区域构建立体图像,根据该立体图像确定降落区域,从而实现了在无需增设专门用于确定降落位置的元器件的情况下实现避障降落。
由于本发明实施例提供的降落区域确定方式无需增加3D传感器、双目摄像头等器件,而是直接采用无人机自带的任意航拍摄像机,实现了零成本增加,并且,根据多角度拍摄的多个图像的重叠区域构建静态的三维立体图像,而非构建实时立体视频,对处理器的运算能力要求较低,可以配置中低端的处理器,可移植性强。另外,根据立体图像寻找足够大的平整降落区域,保证无人机不会因为降落平面有障碍物而倾倒,提高了降落安全性。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (22)
1.一种无人机降落区域确定方法,其特征在于,包括:
无人机获取待降落区域的位置信息,根据所述位置信息对所述待降落区域进行至少两次拍摄,获得至少两张拍摄图像,每次拍摄时所述无人机所在的位置不同;
所述无人机确定所述至少两张拍摄图像的重叠区域,根据所述重叠区域构建立体图像;
所述无人机根据所述立体图像确定降落区域。
2.如权利要求1所述的方法,其特征在于,每次拍摄时所述无人机的拍摄角度不相同。
3.如权利要求1或2所述的方法,其特征在于,所述无人机根据所述重叠区域构建立体图像,包括:
所述无人机每次从所述至少两张拍摄图像中选择两张拍摄图像,根据选择的两张拍摄图像在拍摄时所述无人机所在的位置,以及选择的两张拍摄图像的所述重叠区域,确定选择的两张拍摄图像构建的立体图像,其中每次选择不同的拍摄图像;
所述无人机根据构建的多个立体图像确定所述至少两张拍摄图像对应的立体图像。
4.如权利要求3所述的方法,其特征在于,所述无人机根据选择的两张拍摄图像在拍摄时所述无人机所在的位置,以及选择的两张拍摄图像的所述重叠区域,确定选择的两张拍摄图像构建的立体图像,包括:
所述无人机根据选择的两张拍摄图像在拍摄时所述无人机所在的位置,以及选择的两张拍摄图像的所述重叠区域中包含的像素的坐标,确定选择的两张拍摄图像构建的立体图像。
5.如权利要求4所述的方法,其特征在于,所述无人机根据选择的两张拍摄图像在拍摄时所述无人机所在的位置,以及选择的两张拍摄图像的所述重叠区域中包含的像素的坐标,确定选择的两张拍摄图像构建的立体图像,包括:
所述无人机根据选择的两张拍摄图像在拍摄时所述无人机所在的位置确定两次拍摄对应的基线距,确定所述重叠区域中的像素点分别在选择的两张拍摄图像中的坐标,根据所述基线距以及所述重叠区域中的像素点在选择的两张拍摄图像中的坐标,确定所述重叠区域中的像素点在立体图像中的三维坐标。
6.如权利要求4或5所述的方法,其特征在于,所述重叠区域中包含的像素的坐标为:
所述重叠区域中的每个像素的坐标,或者,所述重叠区域中以设定大小的像素块为间隔选取的部分像素的坐标。
7.如权利要求1所述的方法,其特征在于,所述降落区域为不存在障碍物并且面积足以能够让无人机降落的区域。
8.如权利要求7所述的方法,其特征在于,所述无人机根据所述立体图像确定降落区域,包括:
所述无人机根据所述立体图像在所述重叠区域中确定降落区域。
9.如权利要求8所述的方法,其特征在于,所述无人机根据所述立体图像在所述重叠区域中确定降落区域,包括:
所述无人机根据所述立体图像中不存在障碍物的区域的位置和大小,判断所述重叠区域中是否存在降落区域。
10.一种无人机降落方法,其特征在于,包括权利要求1-9任一项所述的降落区域确定方法。
11.如权利要求10所述的方法,其特征在于,还包括:
所述无人机确定构建立体图像的次数不大于预设值时,更新待降落区域的位置信息后,执行权利要求1所述的过程。
12.如权利要求11所述的方法,其特征在于,还包括:
所述无人机确定构建立体图像的次数大于预设值时,按照默认方式降落。
13.一种无人机降落区域确定装置,其特征在于,包括:
第一处理模块,用于获取待降落区域的位置信息,根据所述位置信息对所述待降落区域进行至少两次拍摄,获得至少两张拍摄图像,每次拍摄时所述无人机所在的位置不同;
第二处理模块,用于确定所述至少两张拍摄图像的重叠区域,根据所述重叠区域构建立体图像;
第三处理模块,用于根据所述立体图像确定降落区域。
14.如权利要求13所述的装置,其特征在于,每次拍摄时无人机的拍摄角度不相同。
15.如权利要求13或14所述的装置,其特征在于,所述第二处理模块具体用于:
每次从所述至少两张拍摄图像中选择两张拍摄图像,根据选择的两张拍摄图像在拍摄时无人机所在的位置,以及选择的两张拍摄图像的所述重叠区域,确定选择的两张拍摄图像构建的立体图像,其中每次选择不同的拍摄图像;
根据构建的多个立体图像确定所述至少两张拍摄图像对应的立体图像。
16.如权利要求15所述的装置,其特征在于,所述第二处理模块具体用于:
根据选择的两张拍摄图像在拍摄时所述无人机所在的位置,以及选择的两张拍摄图像的所述重叠区域中包含的像素的坐标,确定选择的两张拍摄图像构建的立体图像。
17.如权利要求16所述的装置,其特征在于,所述第二处理模块具体用于:
根据选择的两张拍摄图像在拍摄时所述无人机所在的位置确定两次拍摄对应的基线距,确定所述重叠区域中的像素点分别在选择的两张拍摄图像中的坐标,根据所述基线距以及所述重叠区域中的像素点在选择的两张拍摄图像中的坐标,确定所述重叠区域中的像素点在立体图像中的三维坐标。
18.如权利要求16或17所述的装置,其特征在于,所述重叠区域中包含的像素的坐标为:
所述重叠区域中的每个像素的坐标,或者,所述重叠区域中以设定大小的像素块为间隔选取的部分像素的坐标。
19.如权利要求13所述的装置,其特征在于,所述降落区域为不存在障碍物并且面积足以能够让无人机降落的区域。
20.如权利要求19所述的装置,其特征在于,所述第三处理模块具体用于:
根据所述立体图像在所述重叠区域中确定降落区域。
21.如权利要求20所述的装置,其特征在于,所述第三处理模块具体用于:
根据所述立体图像中不存在障碍物的区域的位置和大小,判断所述重叠区域中是否存在降落区域。
22.一种无人机,其特征在于,包括权利要求13-21任一项所述的装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610054914.5A CN105700551A (zh) | 2016-01-27 | 2016-01-27 | 无人机降落区域确定方法、无人机降落方法及相关装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610054914.5A CN105700551A (zh) | 2016-01-27 | 2016-01-27 | 无人机降落区域确定方法、无人机降落方法及相关装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105700551A true CN105700551A (zh) | 2016-06-22 |
Family
ID=56229553
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610054914.5A Pending CN105700551A (zh) | 2016-01-27 | 2016-01-27 | 无人机降落区域确定方法、无人机降落方法及相关装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105700551A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107616742A (zh) * | 2016-07-14 | 2018-01-23 | 南京海益开电子科技有限公司 | 一种幕墙无人清洁主机控制系统 |
CN109573029A (zh) * | 2018-12-17 | 2019-04-05 | 江苏蒲公英无人机有限公司 | 一种植保无人机返航降落避障的方法 |
CN110197489A (zh) * | 2019-04-11 | 2019-09-03 | 中国电子科技集团公司电子科学研究院 | 一种无人机降落区域的选择方法和装置 |
CN110825101A (zh) * | 2019-12-26 | 2020-02-21 | 电子科技大学 | 一种基于深度卷积神经网络的无人机自主降落方法 |
WO2020125725A1 (zh) * | 2018-12-20 | 2020-06-25 | 深圳市道通智能航空技术有限公司 | 一种无人机降落避障方法、装置及无人机 |
CN112306083A (zh) * | 2019-07-30 | 2021-02-02 | 广州极飞科技有限公司 | 无人机降落区域的确定方法、装置、无人机和存储介质 |
CN112666969A (zh) * | 2016-09-26 | 2021-04-16 | 深圳市大疆创新科技有限公司 | 无人机及其控制方法 |
CN113428371A (zh) * | 2021-07-23 | 2021-09-24 | 中国科学院地理科学与资源研究所 | 一种能够进行应急处理的无人机和无人机应急处理方法 |
CN114485613A (zh) * | 2021-12-31 | 2022-05-13 | 海南浙江大学研究院 | 一种多信息融合水下机器人定位方法 |
WO2024114454A1 (zh) * | 2022-11-28 | 2024-06-06 | 中国科学院深圳先进技术研究院 | 一种无人车与集群无人机协同作业方法和相关装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101498889A (zh) * | 2009-03-03 | 2009-08-05 | 北京微视新纪元科技有限公司 | 一种多目立体摄像方法及装置 |
CN102506830A (zh) * | 2011-11-21 | 2012-06-20 | 奇瑞汽车股份有限公司 | 视觉定位方法及装置 |
CN104049641A (zh) * | 2014-05-29 | 2014-09-17 | 深圳市大疆创新科技有限公司 | 一种自动降落方法、装置及飞行器 |
KR20150113586A (ko) * | 2014-03-31 | 2015-10-08 | 세종대학교산학협력단 | 비전센서가 결합된 다중회전익 무인비행체 및 다중회전익 무인비행체의 자율비행 제어방법, 그 방법을 수행하기 위한 프로그램이 기록된 기록매체 |
CN105045279A (zh) * | 2015-08-03 | 2015-11-11 | 余江 | 一种利用无人飞行器航拍自动生成全景照片的系统及方法 |
CN105160663A (zh) * | 2015-08-24 | 2015-12-16 | 深圳奥比中光科技有限公司 | 获取深度图像的方法和系统 |
CN105204515A (zh) * | 2015-08-27 | 2015-12-30 | 泉州装备制造研究所 | 无人机自主着陆的测量解析及控制方法和装置 |
-
2016
- 2016-01-27 CN CN201610054914.5A patent/CN105700551A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101498889A (zh) * | 2009-03-03 | 2009-08-05 | 北京微视新纪元科技有限公司 | 一种多目立体摄像方法及装置 |
CN102506830A (zh) * | 2011-11-21 | 2012-06-20 | 奇瑞汽车股份有限公司 | 视觉定位方法及装置 |
KR20150113586A (ko) * | 2014-03-31 | 2015-10-08 | 세종대학교산학협력단 | 비전센서가 결합된 다중회전익 무인비행체 및 다중회전익 무인비행체의 자율비행 제어방법, 그 방법을 수행하기 위한 프로그램이 기록된 기록매체 |
CN104049641A (zh) * | 2014-05-29 | 2014-09-17 | 深圳市大疆创新科技有限公司 | 一种自动降落方法、装置及飞行器 |
CN105045279A (zh) * | 2015-08-03 | 2015-11-11 | 余江 | 一种利用无人飞行器航拍自动生成全景照片的系统及方法 |
CN105160663A (zh) * | 2015-08-24 | 2015-12-16 | 深圳奥比中光科技有限公司 | 获取深度图像的方法和系统 |
CN105204515A (zh) * | 2015-08-27 | 2015-12-30 | 泉州装备制造研究所 | 无人机自主着陆的测量解析及控制方法和装置 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107616742A (zh) * | 2016-07-14 | 2018-01-23 | 南京海益开电子科技有限公司 | 一种幕墙无人清洁主机控制系统 |
CN112666969A (zh) * | 2016-09-26 | 2021-04-16 | 深圳市大疆创新科技有限公司 | 无人机及其控制方法 |
CN109573029A (zh) * | 2018-12-17 | 2019-04-05 | 江苏蒲公英无人机有限公司 | 一种植保无人机返航降落避障的方法 |
WO2020125725A1 (zh) * | 2018-12-20 | 2020-06-25 | 深圳市道通智能航空技术有限公司 | 一种无人机降落避障方法、装置及无人机 |
CN110197489B (zh) * | 2019-04-11 | 2021-11-16 | 中国电子科技集团公司电子科学研究院 | 一种无人机降落区域的选择方法和装置 |
CN110197489A (zh) * | 2019-04-11 | 2019-09-03 | 中国电子科技集团公司电子科学研究院 | 一种无人机降落区域的选择方法和装置 |
CN112306083A (zh) * | 2019-07-30 | 2021-02-02 | 广州极飞科技有限公司 | 无人机降落区域的确定方法、装置、无人机和存储介质 |
CN112306083B (zh) * | 2019-07-30 | 2023-12-05 | 广州极飞科技股份有限公司 | 无人机降落区域的确定方法、装置、无人机和存储介质 |
CN110825101A (zh) * | 2019-12-26 | 2020-02-21 | 电子科技大学 | 一种基于深度卷积神经网络的无人机自主降落方法 |
CN110825101B (zh) * | 2019-12-26 | 2021-10-22 | 电子科技大学 | 一种基于深度卷积神经网络的无人机自主降落方法 |
CN113428371A (zh) * | 2021-07-23 | 2021-09-24 | 中国科学院地理科学与资源研究所 | 一种能够进行应急处理的无人机和无人机应急处理方法 |
CN114485613A (zh) * | 2021-12-31 | 2022-05-13 | 海南浙江大学研究院 | 一种多信息融合水下机器人定位方法 |
CN114485613B (zh) * | 2021-12-31 | 2024-05-17 | 浙江大学海南研究院 | 一种多信息融合水下机器人定位方法 |
WO2024114454A1 (zh) * | 2022-11-28 | 2024-06-06 | 中国科学院深圳先进技术研究院 | 一种无人车与集群无人机协同作业方法和相关装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105700551A (zh) | 无人机降落区域确定方法、无人机降落方法及相关装置 | |
US9824490B1 (en) | Augmentation of a dynamic terrain surface | |
CN107329490B (zh) | 无人机避障方法及无人机 | |
US10086955B2 (en) | Pattern-based camera pose estimation system | |
US20200074657A1 (en) | Methods and systems for processing an image | |
KR102029895B1 (ko) | 구조물 손상 정보가 매핑된 3차원 모델 생성 방법 및 이를 실행시키는 프로그램이 기록된 기록 매체 | |
US10451403B2 (en) | Structure-based camera pose estimation system | |
CN104330074A (zh) | 一种智能测绘平台及其实现方法 | |
CN109816730A (zh) | 工件抓取方法、装置、计算机设备和存储介质 | |
US9858669B2 (en) | Optimized camera pose estimation system | |
CN109299662A (zh) | 深度数据计算设备与方法及人脸识别设备 | |
JP2011039968A (ja) | 車両可動領域検出装置 | |
CN106156696A (zh) | 一种信息处理方法及电子设备 | |
CN104469170A (zh) | 双目摄像装置、图像处理方法及装置 | |
CN103544344A (zh) | 一种整车电磁仿真逆向建模方法 | |
US11107271B2 (en) | Three-dimensional point data based on stereo reconstruction using structured light | |
US20240179416A1 (en) | Systems and methods for capturing and generating panoramic three-dimensional models and images | |
KR20130130943A (ko) | 어라운드 뷰 모니터링용 카메라의 위치 자동 조정 시스템 및 그 방법 | |
JP7138856B2 (ja) | 俯瞰映像提示システム | |
CN111609854A (zh) | 基于多个深度相机的三维地图构建方法及扫地机器人 | |
CN111583338B (zh) | 用于无人设备的定位方法、装置、介质及无人设备 | |
CN110191284B (zh) | 对房屋进行数据采集的方法、装置、电子设备和存储介质 | |
TWI502162B (zh) | 雙影像導引追瞄之射擊系統與方法 | |
CN114640800B (zh) | 摄像头布置的方法及系统 | |
CN112304250B (zh) | 一种移动物体之间的三维匹配设备及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C41 | Transfer of patent application or patent right or utility model | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20170110 Address after: Hangzhou City, Zhejiang province Binjiang District 310053 shore road 1199 D11 Applicant after: Zhejiang Hua Fei Intelligent Technology Co., Ltd. Address before: Hangzhou City, Zhejiang province Binjiang District 310053 shore road 1187 Applicant before: Zhejiang Dahua Technology Co., Ltd. |
|
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160622 |
|
RJ01 | Rejection of invention patent application after publication |