CN112154390A - 飞行器的降落方法、无人飞行器及计算机可读存储介质 - Google Patents
飞行器的降落方法、无人飞行器及计算机可读存储介质 Download PDFInfo
- Publication number
- CN112154390A CN112154390A CN201980033547.2A CN201980033547A CN112154390A CN 112154390 A CN112154390 A CN 112154390A CN 201980033547 A CN201980033547 A CN 201980033547A CN 112154390 A CN112154390 A CN 112154390A
- Authority
- CN
- China
- Prior art keywords
- aerial vehicle
- unmanned aerial
- palm
- distance data
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/08—Control of attitude, i.e. control of roll, pitch, or yaw
- G05D1/0808—Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/08—Control of attitude, i.e. control of roll, pitch, or yaw
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/10—Simultaneous control of position or course in three dimensions
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
一种飞行器的降落方法,包括:在无人飞行器处于悬停状态时,获取距离数据,并获取无人飞行器下方的图像(S210);确定距离数据的变化是否满足预设的距离减小条件,并根据图像确定无人飞行器下方是否出现手掌(S220);当二者均满足时,控制无人飞行器降落在手掌上(S230)。还公开了一种无人飞行器及一种计算机可读存储介质。
Description
技术领域
本申请涉及飞行器控制技术领域,尤其涉及一种飞行器的降落方法、无人飞行器及计算机可读存储介质。
背景技术
当无人飞行器尤其是小型无人飞行器在电量不足或执行任务完毕时,通常需要用户操作控制终端来控制无人飞行器降落至离用户一段距离的平整地面上。
然而,小型无人飞行器的体积通常较小,脚架比较矮且底盘很低。当采用控制终端控制无人飞行器进行降落时,难以实现精准控制,而且对降落区域要求较高,无人飞行器需要降落在比较平整的地面上。此外,用户在例如沙石、田野、山丘等地方,通常难以找到平整的地面控制无人飞行器降落,致使无人飞行器降落时容易翻倒或刮伤无人飞行器底部的传感器,降低了无人飞行器降落的安全性。而采用控制终端控制无人飞行器降落时,交互过于复杂,需要用户具备较为丰富的操作经验,对于普通用户操作体验并不友好。因此,如何提供一种安全简便的降落方式是亟待解决的问题。
发明内容
基于此,本申请提供了一种飞行器的降落方法、无人飞行器及计算机可读存储介质,旨在提高无人飞行器降落的安全性和便利性。
第一方面,本申请提供了一种飞行器的降落方法,包括:
在无人飞行器处于悬停状态时,获取所述无人飞行器与所述无人飞行器下方的参考目标之间的距离数据,并获取所述无人飞行器下方的图像;
确定所述距离数据的变化是否满足预设的距离减小条件,并根据所述图像确定所述无人飞行器下方是否出现手掌;
当确定所述距离数据的变化满足预设的距离减小条件且所述无人飞行器下方出现手掌,控制所述无人飞行器降落在所述手掌上。
第二方面,本申请提供了一种无人飞行器,包括存储器和处理器;
所述存储器用于存储计算机程序;
所述处理器,用于执行所述计算机程序并在执行所述计算机程序时,实现如下步骤:
在无人飞行器处于悬停状态时,获取所述无人飞行器与所述无人飞行器下方的参考目标之间的距离数据,并获取所述无人飞行器下方的图像;
确定所述距离数据的变化是否满足预设的距离减小条件,并根据所述图像确定所述无人飞行器下方是否出现手掌;
当确定所述距离数据的变化满足预设的距离减小条件且所述无人飞行器下方出现手掌,控制所述无人飞行器降落在所述手掌上。
第三方面,本申请提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现上述的飞行器的降落方法。
本申请实施例提供了一种飞行器的降落方法、无人飞行器及计算机可读存储介质,在无人飞行器处于悬停状态时,获取所述无人飞行器与所述无人飞行器下方的参考目标之间的距离数据,并获取所述无人飞行器下方的图像;当确定所述距离数据的变化满足预设的距离减小条件且所述无人飞行器下方出现手掌,控制所述无人飞行器降落在所述手掌上。这种降落方法能够直接降落在用户的手掌上,有效降低现有技术中无人飞行器对降落条件的要求,提高了无人飞行器降落的安全性;同时无需使用控制终端例如遥控器或手机控制无人飞行器的降落,降落操作简单,提高了降落的便利性,能够使普通用户快速上手使用,提高了用户的体验度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
为了更清楚地说明本申请实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一实施例提供的一种无人飞行系统的示意性框图;
图2是本申请一实施例提供的一种飞行器的降落方法的流程示意图;
图3是本申请一实施例提供的无人飞行器下方出现手掌时的示意图;
图4是本申请一实施例提供的无人飞行器下方未出现手掌时的示意图;
图5是本申请一实施例提供的一种飞行器的降落方法的流程示意图;
图6是本申请一实施例提供的无人飞行器的示意性框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
附图中所示的流程图仅是示例说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解、组合或部分合并,因此实际执行的顺序有可能根据实际情况改变。
下面结合附图,对本申请的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
本申请的实施例提供了一种飞行器的降落方法可以应用于无人飞行器中,用于控制无人飞行器的降落过程。其中,无人飞行器可以为旋翼型无人飞行器,例如单旋翼飞行器、双旋翼飞行器、三旋翼飞行器、四旋翼飞行器、六旋翼飞行器、八旋翼飞行器、十旋翼飞行器、十二旋翼飞行器等。当然,无人飞行器也可以是其他类型的无人飞行器或可移动装置,本申请实施例不限于此。
请参阅图1,图1是本申请一实施例提供的一种无人飞行系统的示意性框图。本实施例以旋翼型无人飞行器为例。
如图1所示,无人飞行系统100可以包括无人飞行器110和控制终端120。
在一实施方式中,无人飞行器110包括控制装置111、距离测量装置112和云台113。
控制装置111用于控制无人飞行器的飞行。可以理解的,控制装置可以按照预先编好的程序指令对无人飞行器进行控制,也可以通过响应控制终端120的一个或多个控制指令对无人飞行器进行控制。其中,所述控制装置111可以包括飞行控制器。
所述距离测量装置112搭载于无人飞行器的下方,用于测量所述无人飞行器与所述无人飞行器下方的参考目标的距离,其中,可以理解的是,所述参考目标可以是任何位于无人飞行器下方且在距离测量装置12的感测范围之内的任何物体。当用户将手放置在无人飞行器下方时,用户的手掌会进入距离测量装置的感测范围,此时,所述参考目标即为用户的手掌。控制装置11可以获取距离测量装置112输出的传感数据并根据所述传感数据确定与所述无人飞行器下方的参考目标之间的距离数据。该距离测量装置包括如下至少一种:飞行时间(Time of Flight,TOF)测距探测设备、雷达、超声波探测设备、激光探测设备和视觉探测设备等。
云台113可以包括电子调速器(简称电调)1131和电机1132。云台用于携带拍摄装置1133。控制装置可以通过电调和电机控制云台的运动。当然,云台还可以包括控制器,通过该控制器控制电调和电机实现控制云台的运动。可以理解的,云台可以独立于无人飞行器,也可以为无人飞行器的一部分。可以理解的,电机可以是直流电机,也可以是交流电机。此外,电机可以是无刷电机,也可以是有刷电机,本申请实施例不限于此。
拍摄装置1133与控制装置通信,并在控制装置的控制下进行拍摄视频。该拍摄视频包含多帧实时图像,通过分析实时图像判断用户的手掌位置。拍摄装置1131可以为任何能够获取图像信息的设备,例如RGB相机、单目摄像头、双目摄像头、飞行时间(Time ofFlight,TOF)相机等,图像信息可以为RGB图像、灰度图像、深度图像等。
可以理解的,拍摄装置1133也可以设于无人飞行器的其他适宜位置,例如无人飞行器的机头,本申请实施例不限于此。
控制终端120位于无人飞行系统的地面端,可以通过无线方式与无人飞行器进行通信,用于对飞行器进行远程操纵。控制终端可以包括遥控器和安装于控制无人飞行器的应用程序的用户终端中的至少一种。该用户终端可以是智能手机、平板电脑、笔记本电脑、台式电脑、个人数字助理、穿戴式设备等控制终端。本实施例中,通过控制终端接收用户输入的飞行控制指令,可以指通过遥控器上的摇杆、拨轮、按键、按钮等输入装置或者用户终端上的用户界面(UI)对无人飞行器进行操控。
可以理解的,上述对于无人飞行系统各部件的命名仅仅出于标识的目的,并不因此对本申请实施例进行限制。
请参阅图2,图2是本申请一实施例提供的一种飞行器的降落方法的流程示意图。该飞行器的降落方法可以由无人飞行器执行,具体地,可以由无人飞行器的控制装置执行,进一步地,所述无人飞行器的控制装置可以为如图1的控制装置111。为了方便对本申请的实施例作详细阐述,以所述无人飞行器的控制装置执行所述方法为例来进行示意性说明。
如图2所示,本实施例的飞行器的降落方法包括步骤S210至步骤S230。
S210、在无人飞行器处于悬停状态时,获取所述无人飞行器与所述无人飞行器下方的参考目标之间的距离数据,并获取所述无人飞行器下方的图像。
具体的,控制装置对无人飞行器的飞行状态进行检测,当确定无人飞行器的飞行状态处于悬停状态时,通过控制搭载在无人飞行器的下方的距离测量装置测量无人飞行器与该无人飞行器下方的参考目标之间的距离数据,并通过控制无人飞行器上的拍摄装置拍摄从而获取无人飞行器下方的图像。
需要说明的是,无人飞行器的飞行状态可以包括:运动状态、悬停状态和无人飞行器停留在地面状态。其中,运动状态进一步包括爬升状态、下降状态、水平飞行状态等。
S220、确定所述距离数据的变化是否满足预设的距离减小条件,并根据所述图像确定所述无人飞行器下方是否出现手掌。
具体的,在获取到无人飞行器与该无人飞行器下方的参考目标之间的距离数据后,控制装置确定该距离数据的变化是否满足预设的距离减小条件,并根据所述图像确定所述无人飞行器下方是否出现手掌。
需要说明的是,所述确定所述距离数据的变化是否满足预设的距离减小条件步骤可以在所述确定所述距离数据的变化是否满足预设的距离减小条件步骤之前或之后执行,当然所述确定所述距离数据的变化是否满足预设的距离减小条件步骤和所述确定所述距离数据的变化是否满足预设的距离减小条件步骤也可以同时执行,本申请实施例不限于此。
其中,预设的距离减小条件可以根据实际需求进行设置。在一些实施方式中,所述距离数据包括当前时刻的距离数据和多个历史时刻的距离数据。所述确定所述距离数据的变化是否满足预设的距离减小条件,即步骤S220具体包括子步骤S221至S223。
S221、获取所述多个历史时刻的距离数据的中位值或者平均值。
具体的,获取在预设个时刻内的多个距离数据,该距离数据为通过距离测量设备测量所述无人飞行器与所述无人飞行器下方的参考目标之间的距离数据。其中,预设个时刻可以根据实际需求进行设置。该预设个时刻内的距离数据包括当前时刻的距离数据和多个历史时刻的距离数据。在一些实施方式中,对多个历史时刻的距离数据按从小到大进行升序排列或从大到小进行降序排列得到数据序列,将位于该数据序列的正中位置的距离数据作为多个历史时刻的距离数据的中位值。
比如,多个历史时刻的距离数据包括5.0,5.2,5.4,5.6四个数据,则多个历史时刻的距离数据的中位值为(5.2+5.4)/2=5.3。又如,多个历史时刻的距离数据包括5.0,5.2,5.4,5.6,5.8五个数据,则多个历史时刻的距离数据的中位值为5.4。
在另一些实施方式中,也可以对各历史时刻的距离数据进行算数平均,即将所有历史时刻的距离数据之和除以历史时刻的距离数据的个数,从而获取所述多个历史时刻的距离数据的平均值。
S222、确定当前时刻的距离数据与所述中位值或者平均值之间的差值。
其中,在获取所述多个历史时刻的距离数据的中位值或者平均值后,将当前时刻的距离数据与该中位值作差,或将当前时刻的距离数据与该平均值作差,从而确定当前时刻的距离数据与所述中位值或者平均值之间的差值。
在一些实施方式中,所述确定当前时刻的距离数据与所述中位值或者平均值之间的差值,具体包括:基于距离减小公式,确定当前时刻的距离数据与所述中位值或者平均值之间的差值。其中,距离减小公式为:
其中,ΔH为所述差值;HToF(t)为采用飞行时间测距探测设备测量无人飞行器与所述无人飞行器下方的参考目标在t时刻的距离数据,即当前时刻的距离数据;HToF(i)为采用飞行时间测距探测设备测量无人飞行器与所述无人飞行器下方的参考目标在i时刻的距离数据,即历史时刻的距离数据;m为正整数且m≤t。
示例性的,m=5。当然,m也可以为任意其他合适的数值,本申请实施例不限于此。
S223、当所述差值大于或等于预设的距离阈值时,确定满足预设的距离减小条件。
具体的,在确定当前时刻的距离数据与所述中位值或者平均值之间的差值后,判断所述差值是否满足预设的距离减小条件。当所述差值大于或等于预设的距离阈值时,确定所述距离数据的变化满足距离减小条件。当所述差值小于预设的距离阈值时,确定所述距离数据的变化不满足距离减小条件。
可以理解的,预设的距离阈值可以根据实际应用进行设计,本申请实施例不限于此。
如图3所示,用户的手掌位于无人飞行器的下方时,距离测量装置测量到的距离数据是无人飞行器110距离用户手掌20的高度H2,H3是用户手掌20距离地面30的高度。如图4所示,用户将手从无人飞行器的下方收回后,距离测量装置检测到的距离数据是无人飞行器110距离地面的高度H1,即在用户将手掌从无人飞行器的下方收回的这一时刻,距离测量装置检测到距离数据发生了变化,变化的大小为H3,当变化的大小大于预设的距离阈值时,确定所述距离数据的变化满足距离减小条件。当确定所述距离数据的变化满足预设的距离减小条件且所述无人飞行器下方出现手掌时,控制装置控制无人飞行器降落至用户的手掌上。
S230、当确定所述距离数据的变化满足预设的距离减小条件且所述无人飞行器下方出现手掌,控制所述无人飞行器降落在所述手掌上。
具体的,在确定所述距离数据的变化是否满足预设的距离减小条件以及根据所述图像确定所述无人飞行器下方是否出现手掌后,若确定所述距离数据的变化满足预设的距离减小条件且所述无人飞行器下方出现手掌,则控制无人飞行器降落至该手掌上,从而有效降低了现有技术中无人飞行器对降落条件的要求,提高了无人飞行器降落的安全性;同时无需使用控制终端例如遥控器或手机控制无人飞行器的降落,降落操作简单易用,提高了降落的便利性,能够使普通用户快速上手使用,提高了用户的体验度。
在一些实施方式中,该飞行器的降落方法还包括:
S201、确定所述手掌在所述图像中的位置,根据所述手掌在所述图像中的位置确定所述手掌在空间中的位置。
其中,所述控制所述无人飞行器降落在所述手掌上,具体:包括根据所述手掌在空间中的位置控制无人飞行器降落在手掌上。无人飞行器根据所述手掌在空间中的位置调整降落方向,以使无人飞行器精准地降落在用户的手掌上,保证降落安全,同时方便用户抓取。具体的,在控制所述无人飞行器降落在所述手掌上之前,先确定所述手掌在所述图像中的位置,根据所述手掌在所述图像中的位置确定所述手掌在空间中的位置。
其中,在一可行的实施方式中,所述手掌在所述图像中的位置可以采用所述手掌在图像坐标系中的图像坐标来表示。示例性的,可以将所述图像的左上角作为原点(0,0),该图像的长和宽均用像素数为表示,基于此可以确定所述手掌在该图像中的像素坐标。其中,在获取拍摄装置拍摄的图像后,可以通过已经训练好的能够识别手掌的神经网络来识别手掌,具体地,神经网络可以返回手掌在图像的位置。在某些情况中,神经网络可以返回图像中手掌对应的图像区域左上角和右下角的坐标。
所述根据所述手掌在所述图像中的位置确定所述手掌在空间中的位置,具体包括:
S2011、获取预设的相机内参矩阵、旋转矩阵和位移矩阵,所述相机内参矩阵包括相机的内部参数值,所述旋转矩阵包括所述图像坐标系相对于空间坐标系原点的旋转参数值,所述位移矩阵包括所述图像坐标系相对于所述空间坐标系原点的位移参数值;S2012、根据所述相机内参矩阵、旋转矩阵和位移矩阵,将所述手掌在所述图像坐标系中的图像坐标进行坐标系转化,以得到所述手掌在所述空间坐标系中的空间坐标,从而确定所述手掌在空间中的位置。
其中,坐标系转化的具体过程,即步骤S2012具体包括:基于坐标转化公式,根据所述相机内参矩阵、旋转矩阵和位移矩阵,将手掌在所述图像坐标系中的图像坐标进行坐标系转化,以得到所述手掌在所述空间坐标系中的空间坐标。
具体的,所述坐标转化公式为:
其中,[u,v,1]T为所述手掌在图像坐标系中的图像坐标,[xw,yw,zw]T为手掌在空间坐标系中的空间坐标,h为所述无人飞行器与所述无人飞行器下方的参考目标的距离,K为所述相机内参矩阵,R为图像坐标系相对于空间坐标系原点的旋转矩阵,T为图像坐标系相对于空间坐标系原点的位移矩阵。
具体的,所述其中αx=fmx,αy=fmy,f为焦距(focal length),mx为x方向上单位距离的像素数(scale factors),my为y方向上单位距离的像素数,γ为x、y轴之间的畸变参数(skew parameters,CCD相机,像素不为正方形)。cx、cy为光心位置(principal point)。
需要说明的是,空间坐标系可以为世界坐标系,当然也可以为其他任意合适的坐标系统,本申请实施例不限于此。
在一些实施方式中,所述飞行器的降落方法还包括:确定所述手掌在所述图像中的面积。
具体地,控制装置可以将图像输入预先训练好的神经网络模型,神经网络模型可以输出图像中被确定为手掌对应的像素的在图像中的位置,根据所述位置便可以确定手掌对应的像素的数量,所述数量即可以表示手掌在图像中的面积。
在一些实施方式中,所述当确定所述距离数据的变化满足预设的距离减小条件且所述无人飞行器下方出现手掌,控制所述无人飞行器降落在所述手掌上,包括:当确定所述距离数据的变化满足预设的距离减小条件、所述无人飞行器下方出现手掌且所述手掌在图像中的面积大于或等于预设面积阈值时,控制所述无人飞行器降落在所述手掌上。
具体的,当所述距离数据的变化满足预设的距离减小条件、所述无人飞行器下方出现手掌以及所述手掌在图像中的面积大于或等于预设面积阈值三者同时满足时,控制无人飞行器降落至所述手掌上。若所述距离数据的变化满足预设的距离减小条件、所述无人飞行器下方出现手掌以及所述手掌在图像中的面积大于或等于预设面积阈值中存在任一个条件不满足时,控制无人飞行器继续悬停,或者检测无人飞行器的飞行状态以确定所述无人飞行器是否处于悬停状态。这种方式能够保证有足够面积的手掌供无人飞行器降落,保证无人飞行器能够安全平稳的降落在手掌上。其中,预设面积阈值可以根据实际应用进行设计,本申请实施例不限于此。
具体的,所述方法还包括:根据所述无人飞行器与所述无人飞行器下方的参考目标之间的距离数据确定所述预设面积阈值。
具体地,所述手掌所述预设面积阈值是根据所述手掌与所述无人飞行器之间的距离数据确定的,即所述距离数据不同,预设面积阈值也不相同。可以理解的是,当无人飞行器下方出现手掌时,所述参考目标即是手掌。此时,手掌与无人飞行器的距离越小,所述预设面积阈值应该越大,手掌与无人飞行器的距离越大,所述预设面积阈值应该越小。因此,可以根据所述无人飞行器与所述无人飞行器下方的参考目标之间的距离数据确定所述预设面积阈值。
进一步地,在某些实施方式中,预设面积阈值S计算公式为:
其中,f为相机的焦距,h为所述无人飞行器与所述无人飞行器下方的参考目标的距离数据,whand为预设的人类手掌统计均值(例如8cm、9cm或10cm等),cx和cy为相机镜头的光心。
本申请实施例提供的飞行器的降落方法,在无人飞行器处于悬停状态时,获取所述无人飞行器与所述无人飞行器下方的参考目标之间的距离数据,并获取所述无人飞行器下方的图像;当确定所述距离数据的变化满足预设的距离减小条件且所述无人飞行器下方出现手掌,控制所述无人飞行器降落在所述手掌上,这样能够有效降低现有技术中无人飞行器对降落条件的要求,提高了无人飞行器降落的安全性,而且不会弄脏无人飞行器;同时无需使用控制终端例如遥控器或手机控制无人飞行器的降落,降落操作简单易用,提高了降落的便利性,能够使普通用户快速上手使用,提高了用户的体验度。
请参阅图5,图5是本申请一实施例提供的一种飞行器的降落方法的流程示意图。
如图5所示,在前述实施例的基础上,本实施例的飞行器的降落方法包括步骤S310至步骤S340。
S310、在无人飞行器处于悬停状态时,获取所述无人飞行器与所述无人飞行器下方的参考目标之间的距离数据,并获取所述无人飞行器下方的图像。
具体的,无人飞行器在准备降落时,需要对无人飞行器的飞行状态进行检测,通过控制搭载在无人飞行器的下方的距离测量装置测量无人飞行器与该无人飞行器下方的参考目标之间的距离数据,并通过控制无人飞行器上的拍摄装置获取所述无人飞行器下方的图像。
其中,可以设置几种检测触发条件触发检测无人飞行器的飞行状态。在一些实施方式中,当接收到控制终端发送的手掌降落指令时,检测无人飞行器的飞行状态。具体的,在需要进行降落时,用户可以通过控制终端向无人飞行器发送进入降落模式的指令,在接收到该指令后,无人飞行器的传感系统采集数据信息,无人飞行器的飞行控制系统可以根据所采集到的数据信息对无人飞行器的飞行状态进行检测。
其中,传感系统用于测量无人飞行器的姿态信息,即无人飞行器在空间的位置信息和状态信息,例如三维位置、三维角度、三维速度、三维加速度等信息。传感系统例如可以包括陀螺仪、电子罗盘、IMU(Inertial Measurement Unit,惯性测量单元)、全球导航卫星系统、视觉传感器中的至少一种。该控制终端可以为例如图1中的控制终端,当然也可以与该控制终端不同,本申请实施例不限于此。
在另一些实施方式中,获取图像传感器的图像信息。当根据所述图像信息确定检测到用户时,检测无人飞行器的飞行状态。具体的,无人飞行器上可以搭载图像传感器。该图像传感器可以安装在无人飞行器的机头,或者安装在无人飞行器的云台上。本实施方式中以图像传感器位于无人飞行器的机头进行示意说明。
图像传感器可以实时采集飞行空间中的图像信息,当用户处于图像传感器的采集范围时,图像传感器即可以获取包括用户信息的图像信息,无人飞行器的控制装置可以获取包含用户信息的图像数据,并根据所述图像数据确定检测到的用户,例如确定用户位于无人飞行器的前方。当确定检测到用户时,既可以开始检测无人飞行器的飞行状态。
其中,图像传感器可以为任意能够获取图像信息的设备,例如RGB相机、单目摄像头、双目摄像头、飞行时间(Time of Flight,TOF)相机等,图像信息可以为RGB图像、灰度图像、深度图像等。图像传感器与上述拍摄装置相同或不同。
在一些实施方式中,所述检测无人飞行器的飞行状态包括:获取所述无人飞行器的飞行速度;根据所述飞行速度,确定所述无人飞行器的飞行状态。
具体的,若所述飞行状态小于预设的速度阈值,确定所述无人飞行器的飞行状态为悬停状态。若所述飞行状态大于或等于所述速度阈值,确定所述无人飞行器的飞行状态为非悬停状态。其中,非悬停状态包括运动状态和无人飞行器停留在地面状态。可以理解的,预设的速度阈值可以根据实际应用场景进行设计,本申请实施例不限于此。
S320、根据所述图像确定所述无人飞行器的下方是否存在水面。
具体的,在获取所述无人飞行器下方的图像后,可以根据该图像确定无人飞行器的下方是否存在水面,从而确定无人飞行器降落环境是否安全。在一些实施方式中,所述根据所述图像确定所述无人飞行器的下方是否存在水面具体包括:将所述图像输入第一神经网络模型以确定所述无人飞行器下方是否存在水面。
具体的,在获取所述无人飞行器下方的图像后,将该图像输入预先训练好的第一神经网络模型,从而确定所述无人飞行器下方是否存在水面。第一神经网络模型可以返回所述无人飞行器下方存在水面的结果或返回所述无人飞行器下方不存在水面的结果。
其中,第一神经网络模型为基于初始神经网络对大量包含水面的样本图像进行模型训练所得到的模型。其中,初始神经网络可以为卷积神经网络(Convolutional neuralnetworks,CNN)、循环神经网络(Recurrent neural networks,RNN)、长短期记忆(Long/short term memory,LSTM)网络等,本申请实施例不限于此。
S330、当确定所述无人飞行器的下方不存在水面时,确定所述距离数据的变化是否满足预设的距离减小条件,并根据所述图像确定所述无人飞行器下方是否出现手掌。
其中,预设的距离减小条件可以根据实际需求进行设置。在一些实施方式中,所述距离数据包括当前时刻的距离数据和多个历史时刻的距离数据。当确定所述无人飞行器的下方不存在水面时,确定所述距离数据的变化是否满足预设的距离减小条件,即获取所述多个历史时刻的距离数据的中位值或者平均值;确定当前时刻的距离数据与所述中位值或者平均值之间的差值;当所述差值大于或等于预设的距离阈值时,确定满足预设的距离减小条件。
在一些实施方式中,所述根据所述图像确定所述无人飞行器下方是否出现手掌,包括:当确定所述距离数据的变化满足预设的距离减小条件时,将所述图像输入第二神经网络模型以确定所述无人飞行器下方是否出现手掌。
具体的,当获取所述无人飞行器下方的图像且确定所述距离数据的变化满足预设的距离减小条件时,将该图像输入预先训练好的第二神经网络模型,从而确定所述无人飞行器下方是否出现手掌。第二神经网络模型可以返回所述无人飞行器下方出现手掌的结果或返回所述无人飞行器下方未出现手掌的结果。
其中,第二神经网络模型为基于预设神经网络对大量包含手掌的样本图像进行模型训练所得到的模型。初始神经网络可以为卷积神经网络(Convolutional neuralnetworks,CNN)、循环神经网络(Recurrent neural networks,RNN)、长短期记忆(Long/short term memory,LSTM)网络等,本申请实施例不限于此。该第二神经网络模型可以与上述手掌面积模型相同或不同。
当确定所述距离数据的变化不满足预设的距离减小条件时,控制无人飞行器继续悬停,或者检测无人飞行器的飞行状态以确定所述无人飞行器是否处于悬停状态。
需要说明的是,在其他实施方式中,所述确定所述距离数据的变化是否满足预设的距离减小条件步骤也可以在所述确定所述距离数据的变化是否满足预设的距离减小条件步骤之后执行,或者两个步骤同时执行,本申请实施例不限于此。
S340、当确定所述距离数据的变化满足预设的距离减小条件、所述无人飞行器下方出现手掌且所述无人飞行器的下方不存在水面时,控制所述无人飞行器降落在所述手掌上。
具体的,在确定所述距离数据的变化是否满足预设的距离减小条件、所述无人飞行器下方是否出现手掌以及所述无人飞行器下方是否存在水面后,若确定所述距离数据的变化满足预设的距离减小条件、所述无人飞行器下方出现手掌且所述无人飞行器的下方不存在水面时,则控制无人飞行器降落至该手掌上。
当确定所述距离数据的变化满足预设的距离减小条件、所述无人飞行器下方出现手掌且所述无人飞行器的下方不存在水面三个条件中有任一个不满足时,控制无人飞行器继续悬停,或者检测无人飞行器的飞行状态以确定所述无人飞行器是否处于悬停状态。
在一些实施方式中,当确定所述无人飞行器的下方存在水面时,控制所述无人飞行器继续悬停,即不控制无人飞行器降落;并生成提示信息,用于提示无人飞行器或用户当前区域不适合降落。在某些实施方式中,控制装置将该提示信息发送给控制终端,以提示用户当前区域不适合降落。用户根据该提示信息,通过控制终端发送飞行控制指令至控制装置,从而使无人飞行器执行所述飞行控制指令对应的飞行任务,例如启动飞行模式,从而飞行飞离水面区域。
在一些实施方式中,当确定无人飞行器下方出现手掌时,在控制所述无人飞行器向手掌降落的过程中,实时确定所述手掌在所述图像中的位置,根据所述手掌在所述图像中的位置控制无人飞行器跟随所述手掌,以实现降落至所述手掌上。若在控制所述无人飞行器向手掌降落的过程中,确定所述无人飞行器下方未出现手掌,例如用户突然将手掌缩回,则控制所述无人飞行器继续悬停。
在一些实施方式中,所述控制所述无人飞行器降落在所述手掌上,包括:在控制所述无人飞行器向手掌降落的过程中,确定是否接收到控制终端发送的飞行控制指令;当确定未接收到所述飞行控制指令时,控制所述无人飞行器继续向所述手掌降落。
具体的,控制终端根据实际需求生成飞行控制指令,飞行控制指令中包括用于通知无人飞行器需要执行飞行任务的信息。在控制所述无人飞行器向手掌降落的过程中,确定是否接收到控制终端发送的飞行控制指令。若未接受到飞行控制指令,则控制无人飞行器继续想所述手掌降落。若确定接收到所述飞行控制指令时,执行所述飞行控制指令对应的飞行任务。
本申请实施例提供的飞行器的降落方法,当确定所述距离数据的变化满足预设的距离减小条件、所述无人飞行器下方出现手掌且所述无人飞行器的下方不存在水面时,控制所述无人飞行器降落在所述手掌上。从而能够避免无人飞行器在水面环境下降落,并能够有效降低现有技术中无人飞行器对降落条件的要求,提高了无人飞行器降落的安全性,而且不会弄脏无人飞行器;同时无需使用控制终端例如遥控器或手机控制无人飞行器的降落,降落操作简单易用,提高了降落的便利性,能够使普通用户快速上手使用,提高了用户的体验度。
请参阅图6,图6是本申请一实施例提供的无人飞行器400的示意性框图。该无人飞行器400包括处理器401和存储器402,处理器401和存储器402通过总线403连接,该总线403比如为I2C(Inter-integrated Circuit)总线。
具体地,处理器401可以是微控制单元(Micro-controller Unit,MCU)、中央处理单元(Central Processing Unit,CPU)或数字信号处理器(Digital Signal Processor,DSP)等。
具体地,存储器402可以是Flash芯片、只读存储器(ROM,Read-Only Memory)磁盘、光盘、U盘或移动硬盘等。
其中,所述处理器401用于运行存储在存储器402中的计算机程序,并在执行所述计算机程序时实现前述的飞行器的降落方法。
示例性的,所述处理器401用于执行存储在存储器402中的计算机程序,并在执行所述计算机程序时实现如下步骤:
在无人飞行器处于悬停状态时,获取所述无人飞行器与所述无人飞行器下方的参考目标之间的距离数据,并获取所述无人飞行器下方的图像;
确定所述距离数据的变化是否满足预设的距离减小条件,并根据所述图像确定所述无人飞行器下方是否出现手掌;
当确定所述距离数据的变化满足预设的距离减小条件且所述无人飞行器下方出现手掌,控制所述无人飞行器降落在所述手掌上。
在一些实施例中,所述处理器401还用于实现:确定所述手掌在所述图像中的位置,根据所述手掌在所述图像中的位置确定所述手掌在空间中的位置。
所述处理器401在实现所述控制所述无人飞行器降落在所述手掌上时,用于实现:根据所述手掌在空间中的位置控制无人飞行器降落在所述手掌上。
在一些实施例中,所述处理器401还用于实现:确定所述手掌在所述图像中的面积。
所述处理器401在实现所述当确定所述距离数据的变化满足预设的距离减小条件且所述无人飞行器下方出现手掌,控制所述无人飞行器降落在所述手掌上时,用于实现:当确定所述距离数据的变化满足预设的距离减小条件、所述无人飞行器下方出现手掌且所述手掌在图像中的面积大于或等于预设面积阈值时,控制所述无人飞行器降落在所述手掌上。
在一些实施例中,所述处理器401还用于实现:根据所述图像确定所述无人飞行器的下方是否存在水面。
所述处理器401在实现所述当确定所述距离数据的变化满足预设的距离减小条件且所述无人飞行器下方出现手掌,控制所述无人飞行器降落在所述手掌上时,用于实现:当确定所述距离数据的变化满足预设的距离减小条件、所述无人飞行器下方出现手掌且所述无人飞行器的下方不存在水面时,控制所述无人飞行器降落在所述手掌上。
在一些实施例中,所述处理器401还用于实现:当确定所述无人飞行器的下方存在水面时,控制所述无人飞行器继续悬停。
在一些实施例中,所述处理器401在实现所述确定所述距离数据的变化是否满足预设的距离减小条件时,用于实现:当确定所述无人飞行器的下方不存在水面时,确定所述距离数据的变化是否满足预设的距离减小条件。
在一些实施例中,所述处理器401在实现所述根据所述图像确定所述无人飞行器的下方是否存在水面时,用于实现:将所述图像输入第一神经网络模型以确定所述无人飞行器下方是否存在水面。
所述处理器401在实现所述根据所述图像确定所述无人飞行器下方是否出现手掌时,用于实现:当确定所述距离数据的变化满足预设的距离减小条件时,将所述图像输入第二神经网络模型以确定所述无人飞行器下方是否出现手掌。
在一些实施例中,所述处理器401在实现所述控制所述无人飞行器降落在所述手掌上时,用于实现:在控制所述无人飞行器向手掌降落的过程中,确定是否接收到控制终端发送的飞行控制指令;当确定未接收到所述飞行控制指令时,控制所述无人飞行器继续向所述手掌降落。
在一些实施例中,所述处理器401还用于实现:当确定接收到所述飞行控制指令时,执行所述飞行控制指令对应的飞行任务。
在一些实施例中,所述距离数据包括当前时刻的距离数据和多个历史时刻的距离数据,所述处理器401在实现所述确定所述距离数据的变化是否满足预设的距离减小条件时,用于实现:获取所述多个历史时刻的距离数据的中位值或者平均值;确定当前时刻的距离数据与所述中位值或者平均值之间的差值;当所述差值大于或等于预设的距离阈值时,确定满足预设的距离减小条件。
本申请实施例提供的无人飞行器,在无人飞行器处于悬停状态时,获取所述无人飞行器与所述无人飞行器下方的参考目标之间的距离数据,并获取所述无人飞行器下方的图像;当确定所述距离数据的变化满足预设的距离减小条件且所述无人飞行器下方出现手掌,控制所述无人飞行器降落在所述手掌上。这种降落方法能够直接降落在用户的手掌上,有效降低现有技术中无人飞行器对降落条件的要求,提高了无人飞行器降落的安全性;同时无需使用控制终端例如遥控器或手机控制无人飞行器的降落,降落操作简单易用,提高了降落的便利性,能够使普通用户快速上手使用,提高了用户的体验度。
本申请的实施例中还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序中包括程序指令,所述处理器执行所述程序指令,实现上述实施例提供的飞行器的降落方法的步骤。
其中,所述计算机可读存储介质可以是前述任一实施例所述的无人飞行器的内部存储单元,例如所述无人飞行器的硬盘或内存。所述计算机可读存储介质也可以是所述无人飞行器的外部存储设备,例如所述无人飞行器上配备的插接式硬盘,智能存储卡(SmartMedia Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (21)
1.一种飞行器的降落方法,其特征在于,包括:
在无人飞行器处于悬停状态时,获取所述无人飞行器与所述无人飞行器下方的参考目标之间的距离数据,并获取所述无人飞行器下方的图像;
确定所述距离数据的变化是否满足预设的距离减小条件,并根据所述图像确定所述无人飞行器下方是否出现手掌;
当确定所述距离数据的变化满足预设的距离减小条件且所述无人飞行器下方出现手掌,控制所述无人飞行器降落在所述手掌上。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:确定所述手掌在所述图像中的位置,根据所述手掌在所述图像中的位置确定所述手掌在空间中的位置;
所述控制所述无人飞行器降落在所述手掌上,包括:
根据所述手掌在空间中的位置控制无人飞行器降落在所述手掌上。
3.根据权利要求1或2所述的方法,其特征在于,所述方法还包括:确定所述手掌在所述图像中的面积;
所述当确定所述距离数据的变化满足预设的距离减小条件且所述无人飞行器下方出现手掌,控制所述无人飞行器降落在所述手掌上,包括:
当确定所述距离数据的变化满足预设的距离减小条件、所述无人飞行器下方出现手掌且所述手掌在图像中的面积大于或等于预设面积阈值时,控制所述无人飞行器降落在所述手掌上。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述方法还包括:根据所述图像确定所述无人飞行器的下方是否存在水面;
所述当确定所述距离数据的变化满足预设的距离减小条件且所述无人飞行器下方出现手掌,控制所述无人飞行器降落在所述手掌上,包括:
当确定所述距离数据的变化满足预设的距离减小条件、所述无人飞行器下方出现手掌且所述无人飞行器的下方不存在水面时,控制所述无人飞行器降落在所述手掌上。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:当确定所述无人飞行器的下方存在水面时,控制所述无人飞行器继续悬停。
6.根据权利要求4或5所述的方法,其特征在于,所述确定所述距离数据的变化是否满足预设的距离减小条件,包括:
当确定所述无人飞行器的下方不存在水面时,确定所述距离数据的变化是否满足预设的距离减小条件。
7.根据权利要求6所述的方法,其特征在于,所述根据所述图像确定所述无人飞行器的下方是否存在水面,包括:
将所述图像输入第一神经网络模型以确定所述无人飞行器下方是否存在水面;
所述根据所述图像确定所述无人飞行器下方是否出现手掌,包括:
当确定所述距离数据的变化满足预设的距离减小条件时,将所述图像输入第二神经网络模型以确定所述无人飞行器下方是否出现手掌。
8.根据权利要求1-7任一项所述的方法,其特征在于,所述控制所述无人飞行器降落在所述手掌上,包括:
在控制所述无人飞行器向手掌降落的过程中,确定是否接收到控制终端发送的飞行控制指令;
当确定未接收到所述飞行控制指令时,控制所述无人飞行器继续向所述手掌降落。
9.根据权利要求8所述的方法,其特征在于,所述方法还包括:当确定接收到所述飞行控制指令时,执行所述飞行控制指令对应的飞行任务。
10.根据权利要求1-9任一项所述的方法,其特征在于,所述距离数据包括当前时刻的距离数据和多个历史时刻的距离数据,所述确定所述距离数据的变化是否满足预设的距离减小条件,包括:
获取所述多个历史时刻的距离数据的中位值或者平均值;
确定当前时刻的距离数据与所述中位值或者平均值之间的差值;
当所述差值大于或等于预设的距离阈值时,确定满足预设的距离减小条件。
11.一种无人飞行器,其特征在于,所述无人飞行器包括存储器和处理器;
所述存储器,用于存储计算机程序;
所述处理器,用于执行所述计算机程序并在执行所述计算机程序时,实现如下步骤:
在无人飞行器处于悬停状态时,获取所述无人飞行器与所述无人飞行器下方的参考目标之间的距离数据,并获取所述无人飞行器下方的图像;
确定所述距离数据的变化是否满足预设的距离减小条件,并根据所述图像确定所述无人飞行器下方是否出现手掌;
当确定所述距离数据的变化满足预设的距离减小条件且所述无人飞行器下方出现手掌,控制所述无人飞行器降落在所述手掌上。
12.根据权利要求11所述的无人飞行器,其特征在于,所述处理器还用于实现:
确定所述手掌在所述图像中的位置,根据所述手掌在所述图像中的位置确定所述手掌在空间中的位置;
所述处理器在实现所述控制所述无人飞行器降落在所述手掌上时,用于实现:
根据所述手掌在空间中的位置控制无人飞行器降落在所述手掌上。
13.根据权利要求11或12所述的无人飞行器,其特征在于,所述处理器还用于实现:
确定所述手掌在所述图像中的面积;
所述处理器在实现所述当确定所述距离数据的变化满足预设的距离减小条件且所述无人飞行器下方出现手掌,控制所述无人飞行器降落在所述手掌上时,用于实现:
当确定所述距离数据的变化满足预设的距离减小条件、所述无人飞行器下方出现手掌且所述手掌在图像中的面积大于或等于预设面积阈值时,控制所述无人飞行器降落在所述手掌上。
14.根据权利要求11-13任一项所述的无人飞行器,其特征在于,所述处理器还用于实现:
根据所述图像确定所述无人飞行器的下方是否存在水面;
所述处理器在实现所述当确定所述距离数据的变化满足预设的距离减小条件且所述无人飞行器下方出现手掌,控制所述无人飞行器降落在所述手掌上时,用于实现:
当确定所述距离数据的变化满足预设的距离减小条件、所述无人飞行器下方出现手掌且所述无人飞行器的下方不存在水面时,控制所述无人飞行器降落在所述手掌上。
15.根据权利要求14所述的无人飞行器,其特征在于,所述处理器还用于实现:
当确定所述无人飞行器的下方存在水面时,控制所述无人飞行器继续悬停。
16.根据权利要求14或15所述的无人飞行器,其特征在于,所述处理器在实现所述确定所述距离数据的变化是否满足预设的距离减小条件时,用于实现:
当确定所述无人飞行器的下方不存在水面时,确定所述距离数据的变化是否满足预设的距离减小条件。
17.根据权利要求16所述的无人飞行器,其特征在于,所述处理器在实现所述根据所述图像确定所述无人飞行器的下方是否存在水面时,用于实现:
将所述图像输入第一神经网络模型以确定所述无人飞行器下方是否存在水面;
所述处理器在实现所述根据所述图像确定所述无人飞行器下方是否出现手掌时,用于实现:
当确定所述距离数据的变化满足预设的距离减小条件时,将所述图像输入第二神经网络模型以确定所述无人飞行器下方是否出现手掌。
18.根据权利要求11-17任一项所述的无人飞行器,其特征在于,所述处理器在实现所述控制所述无人飞行器降落在所述手掌上时,用于实现:
在控制所述无人飞行器向手掌降落的过程中,确定是否接收到控制终端发送的飞行控制指令;
当确定未接收到所述飞行控制指令时,控制所述无人飞行器继续向所述手掌降落。
19.根据权利要求18所述的无人飞行器,其特征在于,所述处理器还用于实现:
当确定接收到所述飞行控制指令时,执行所述飞行控制指令对应的飞行任务。
20.根据权利要求11-19任一项所述的无人飞行器,其特征在于,所述距离数据包括当前时刻的距离数据和多个历史时刻的距离数据,所述处理器在实现所述确定所述距离数据的变化是否满足预设的距离减小条件时,用于实现:
获取所述多个历史时刻的距离数据的中位值或者平均值;
确定当前时刻的距离数据与所述中位值或者平均值之间的差值;
当所述差值大于或等于预设的距离阈值时,确定满足预设的距离减小条件。
21.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时使所述处理器实现如权利要求1-10中任一项所述的飞行器的降落方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2019/098411 WO2021016875A1 (zh) | 2019-07-30 | 2019-07-30 | 飞行器的降落方法、无人飞行器及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112154390A true CN112154390A (zh) | 2020-12-29 |
Family
ID=73891960
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980033547.2A Pending CN112154390A (zh) | 2019-07-30 | 2019-07-30 | 飞行器的降落方法、无人飞行器及计算机可读存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112154390A (zh) |
WO (1) | WO2021016875A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019051638A1 (zh) * | 2017-09-12 | 2019-03-21 | 深圳市大疆创新科技有限公司 | 可移动设备以及其作业方法 |
WO2023211690A1 (en) * | 2022-04-27 | 2023-11-02 | Snap Inc. | Landing an autonomous drone with gestures |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170045894A1 (en) * | 2015-08-12 | 2017-02-16 | Qualcomm Incorporated | Autonomous Landing and Control |
CN106672216A (zh) * | 2016-12-13 | 2017-05-17 | 深圳市元征科技股份有限公司 | 一种控制无人机降落的方法及无人机 |
CN107636550A (zh) * | 2016-11-10 | 2018-01-26 | 深圳市大疆创新科技有限公司 | 飞行控制方法、装置及飞行器 |
CN108121350A (zh) * | 2016-11-29 | 2018-06-05 | 腾讯科技(深圳)有限公司 | 一种控制飞行器降落的方法以及相关装置 |
CN108475070A (zh) * | 2017-04-28 | 2018-08-31 | 深圳市大疆创新科技有限公司 | 一种无人机手掌降落的控制方法、控制设备及无人机 |
CN109074168A (zh) * | 2018-01-23 | 2018-12-21 | 深圳市大疆创新科技有限公司 | 无人机的控制方法、设备和无人机 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103744429B (zh) * | 2013-02-07 | 2016-05-25 | 山东英特力光通信开发有限公司 | 一种小型无人直升机飞行控制系统 |
CN105867405A (zh) * | 2016-05-23 | 2016-08-17 | 零度智控(北京)智能科技有限公司 | 无人机、无人机降落控制装置及方法 |
-
2019
- 2019-07-30 WO PCT/CN2019/098411 patent/WO2021016875A1/zh active Application Filing
- 2019-07-30 CN CN201980033547.2A patent/CN112154390A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170045894A1 (en) * | 2015-08-12 | 2017-02-16 | Qualcomm Incorporated | Autonomous Landing and Control |
CN107636550A (zh) * | 2016-11-10 | 2018-01-26 | 深圳市大疆创新科技有限公司 | 飞行控制方法、装置及飞行器 |
CN108121350A (zh) * | 2016-11-29 | 2018-06-05 | 腾讯科技(深圳)有限公司 | 一种控制飞行器降落的方法以及相关装置 |
CN106672216A (zh) * | 2016-12-13 | 2017-05-17 | 深圳市元征科技股份有限公司 | 一种控制无人机降落的方法及无人机 |
CN108475070A (zh) * | 2017-04-28 | 2018-08-31 | 深圳市大疆创新科技有限公司 | 一种无人机手掌降落的控制方法、控制设备及无人机 |
CN109074168A (zh) * | 2018-01-23 | 2018-12-21 | 深圳市大疆创新科技有限公司 | 无人机的控制方法、设备和无人机 |
Also Published As
Publication number | Publication date |
---|---|
WO2021016875A1 (zh) | 2021-02-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200346753A1 (en) | Uav control method, device and uav | |
US11760484B2 (en) | Detecting optical discrepancies in captured images | |
CN111683193B (zh) | 图像处理装置 | |
WO2018157286A1 (zh) | 一种识别方法、设备以及可移动平台 | |
WO2021078165A1 (zh) | 一种无人机的飞行控制方法、装置、无人机和存储介质 | |
US20210103299A1 (en) | Obstacle avoidance method and device and movable platform | |
CN110785993A (zh) | 拍摄设备的控制方法、装置、设备及存储介质 | |
CN109154815B (zh) | 最高温度点跟踪方法、装置和无人机 | |
US11449076B2 (en) | Method for controlling palm landing of unmanned aerial vehicle, control device, and unmanned aerial vehicle | |
CN112154649A (zh) | 航测方法、拍摄控制方法、飞行器、终端、系统及存储介质 | |
US11320269B2 (en) | Information processing apparatus, information processing method, and information processing program | |
JP2016045874A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN113012219A (zh) | 信息处理装置、信息处理方法及计算机可读介质 | |
CN113228103A (zh) | 目标跟踪方法、装置、无人机、系统及可读存储介质 | |
CN112154390A (zh) | 飞行器的降落方法、无人飞行器及计算机可读存储介质 | |
US20200366844A1 (en) | Image stabilization control method, photographing device and mobile platform | |
US20210181769A1 (en) | Movable platform control method, movable platform, terminal device, and system | |
CN113039550A (zh) | 手势识别方法、vr视角控制方法以及vr系统 | |
CN112955712A (zh) | 目标跟踪方法、设备及存储介质 | |
WO2022021028A1 (zh) | 目标检测方法、装置、无人机及计算机可读存储介质 | |
WO2022082440A1 (zh) | 确定目标跟随策略的方法、装置、系统、设备及存储介质 | |
CN111433819A (zh) | 目标场景三维重建方法、系统及无人机 | |
CN111158489B (zh) | 一种基于摄像头的手势交互方法及手势交互系统 | |
US20210256732A1 (en) | Image processing method and unmanned aerial vehicle | |
EP3610358B1 (en) | Depth information based pose determination for mobile platforms, and associated systems and methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |