CN109309709A - 一种可远端控制无人装置的控制方法 - Google Patents

一种可远端控制无人装置的控制方法 Download PDF

Info

Publication number
CN109309709A
CN109309709A CN201810962161.7A CN201810962161A CN109309709A CN 109309709 A CN109309709 A CN 109309709A CN 201810962161 A CN201810962161 A CN 201810962161A CN 109309709 A CN109309709 A CN 109309709A
Authority
CN
China
Prior art keywords
unmanned device
unmanned
display
image
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810962161.7A
Other languages
English (en)
Other versions
CN109309709B (zh
Inventor
不公告发明人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhendi Technology Co., Ltd
Original Assignee
Beijing PowerVision Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing PowerVision Technology Co Ltd filed Critical Beijing PowerVision Technology Co Ltd
Priority to CN201810962161.7A priority Critical patent/CN109309709B/zh
Publication of CN109309709A publication Critical patent/CN109309709A/zh
Application granted granted Critical
Publication of CN109309709B publication Critical patent/CN109309709B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/14Session management
    • H04L67/141Setup of application sessions

Abstract

本发明实施例提供一种可远端控制无人装置的控制方法,包括:拍摄该无人装置的影像,并显示该影像在显示接口;判断该无人装置在该影像的显示位置;侦测至少一传感器的感测值;根据该显示位置与该感测值计算该无人装置的相对位置;计算该显示位置与预设显示位置的显示位移值;根据该显示位移值与该相对位置计算目标位置;发送控制指令给无人装置,该控制指令包含该目标位置。本发明实施例在无人装置在电子装置的目前显示位置未满足预设显示条件时,发送位置移动指令给该无人装置,以指示该无人装置移动到所述目标位置信息对应的目标位置,通过此过程,本发明实施例能够简单方便地实现视界内对无人机的控制、定位。

Description

一种可远端控制无人装置的控制方法
技术领域
本发明涉及无人机技术领域,尤其涉及一种可远端控制无人装置的控制方法。
背景技术
无人机是利用无线电遥控设备和自备的程序控制装置操纵的不载人飞机,且无人机已经被应用于多种技术领域,因此对无人机的控制需要更加精准,最好能够实现视界内定位及控制。其中,视界内定位及控制,是指以可视化的形式实现无人机的定位及控制。
现有无人机主要使用的传感器有:GPS、气压计、光流传感器、超声探头。其中GPS+气压计+超声探头可以实现定高,GPS+光流传感器可以实现水平方向定位。但目前GPS定位并不精确且室内难于稳定使用,气压计高度方向分辨率低且数据波动易受环境影响,超声探头测高度也容易受地面杂物干扰,光流传感器需要根据地面纹理状态调整参数,甚至在多数地面状态下不能使用。
通过上述传感器实现视界内定位及控制,需要以上传感器数据融合后由飞控程序和飞控人员实现,对飞控人员要求很高,较为困难。
发明内容
有鉴于此,本发明实施例提供一种可远端控制无人装置的控制方法,用以实现对无人机的视界内定位及控制,操作简单、精确。
第一方面,本发明实施例提供一种用以在电子装置显示与操作无人装置的操作方法,包括:
与该无人装置通信连接;
获取包含该无人装置的影像;
在显示窗口显示包含该无人装置的影像;
判断该无人装置在该影像中的目前显示位置是否满足预设显示条件;和
当该目前显示位置不满足该预设显示条件时,发送位置移动指令给该无人装置,该位置移动指令包括该无人装置的目标位置信息。
在一种可能的实现方式中,所述操作方法还包括:
接收来自该无人装置的第一信号;
根据该第一信号获得该无人装置与该电子装置的相对距离信息;
根据该无人装置在该影像的目前显示位置获得该无人装置与该电子装置的相对方向信息;和
记录该相对距离信息和该相对方向信息。
在一种可能的实现方式中,
其中接收来自该无人装置的该第一信号的步骤还包括:发送提示指令给该无人装置,该提示指令包括该第一信号的发送时间信息;以及
其中根据该第一信号获得该无人装置与该电子装置的相对位置信息的步骤包括:根据该第一信号的发送时间信息和传递速度计算该无人装置与该电子装置的相对距离信息。
在一种可能的实现方式中,所述操作方法还包括:
根据该预设显示条件与该相对距离信息和/或该相对方向信息获得该目标位置信息。
在一种可能的实现方式中,所述操作方法还包括:
获得该电子装置至少一个传感器的感测数值;
根据该感测数值获得该电子装置的第一方位信息;
根据该第一方位信息获得该无人装置与该电子装置的相对方向信息;和
记录该相对方向信息;
其中该传感器为加速传感器、陀螺仪传感器和指南针传感器的任何一者或任意组合。
在一种可能的实现方式中,所述操作方法还包括:
根据该无人装置在该影像的目前显示位置和该第一方位信息获得该无人装置与该电子装置的相对方向信息。
在一种可能的实现方式中,所述操作方法还包括:
从该使用者接口接收一第一使用者输入,该第一使用者输入对应于该显示窗口的第二显示位置;
判断目前显示位置与该第二显示位置的相对位移信息;和
根据该相对位移信息,发送第二位置移动指令给该无人装置。
在一种可能的实现方式中,所述操作方法还包括:
从使用者接口接收一第二使用者输入,该第二使用者输入包含该无人装置的移动距离信息;
根据该移动距离信息获得目标位置信息;和
根据该目标位置信息,发送第三位置移动指令给该无人装置。
在一种可能的实现方式中,所述操作方法还包括:
接收一第三使用者输入,该第三使用者输入包含该电子装置的移动方向信息;
根据该移动方向信息获得该目标位置信息;和
根据该目标位置信息,发送第三位置移动指令给该无人装置。
在一种可能的实现方式中,
其中接收该第三使用者输入的步骤包括:侦测该电子装置的传感器的感测变化量;
其中根据该移动方向信息获得该目标位置信息的步骤包括:根据该感测变化量决定相对位移角度;和
其中根据该移动方向信息获得该目标位置信息的步骤包括:根据相对位移角度决定该目标位置信息;
其中该传感器可以是加速传感器,陀螺仪传感器和指南针传感器的任何一者或任意组合。
在一种可能的实现方式中,其中与该无人装置通信连接的步骤包括:
利用无线传输协议进行通信连接,该无线传输协议是蓝牙(Bluetooth),Wi-Fi,Zig-Bee,蜂窝通信(cellular)中的任何一种。
在一种可能的实现方式中,其中该预设显示条件为该目前显示位置落在指定显示区域;
其中该指定显示区域是预设显示区域或是根据使用者选择。
第二方面,本发明实施例还提供一种可远端控制无人装置的控制方法,包括:
拍摄该无人装置的影像,并显示该影像在显示接口;
判断该无人装置在该影像的目前显示位置;
侦测至少一传感器的感测数值;
根据该目前显示位置与该感测数值计算该无人装置的相对位置;
计算该目前显示位置与预设显示位置的显示位移值;
根据该显示位移值与该相对位置计算目标位置;和
发送控制指令给无人装置,该控制指令包含该目标位置。
结合第二方面,在第一种可能的实现方式中,其中与该电子装置通信连接的步骤还包括:
发送提示指令给该无人装置,该提示命令包含发送时间信息;
接收该无人装置发出的第一信号,该第一信号对应于该提示指令;
根据该第一信号的发送时间信息和传递速度计算该无人装置与该电子装置的相对距离。
结合第二方面第一种可能的实现方式,在第二种可能的实现方式中,其中根据该目前显示位置与该感测数值计算该无人装置的相对位置的步骤还包括:
根据该目前显示位置,该感测数值与该相对距离计算该无人装置的相对位置。
结合第二方面,在第三种可能的实现方式中,其中根据该目前显示位置与该感测数值计算该无人装置的相对位置的步骤还包括:
计算该感测数值与参考方位值的方位差值;和
根据该方位差值与该目前显示位置计算该相对位置。
结合第二方面第三种可能的实现方式,在第四种可能的实现方式中,其中根据该显示位移值与该相对位置计算目标位置的步骤还包括:
根据该显示位移值与该方位差值计算相对位移值;和
根据该相对位移值和该相对位置计算该目标位置。
结合第二方面第三种可能的实现方式,在第五种可能的实现方式中,其中计算该感测数值与参考方位值的方位差值的步骤还包括计算该感测器在各轴向的该感测数值与地球轴向的差值。
结合第二方面,在第六种可能的实现方式中,其中该传感器可以是加速传感器,陀螺仪传感器和指南针传感器的任何一者或任意组合。
结合第二方面,在第七种可能的实现方式中,其中与该电子装置通信连接的步骤还包括:
利用无线传输协议与该无人装置进行通信连接,该无线传输协议可以是蓝牙(Bluetooth),Wi-Fi,Zig-Bee,蜂窝通信(cellular)中的任何一种。
结合第二方面,其中判断该无人装置在该影像的显示位置的步骤还包括:当该显示位置没有居中显示时,自动调整该影像居中显示。
结合第二方面,其中拍摄该无人装置的影像,并显示该影像在显示接口的步骤还包括:聚焦于该无人装置的预设聚焦位置;拍摄该无人装置的影像,并显示该影像在显示接口。
另外,本发明实施例提供一种电子设备,包括处理器和存储器,所述存储器用于存储一条或多条计算机指令,其中,所述一条或多条计算机指令被所述处理器执行时实现上述第一方面或第二方面中任一方法。该电子设备还可以包括通信接口,用于与其他设备或通信网络通信。
本发明实施例提供了一种计算机存储介质,用于储存存储计算机程序,所述计算机程序使计算机执行时实现上述第一方面或第二方面中任一方法。
通过上述可知,本发明实施例在无人装置在电子装置的目前显示位置未满足预设显示条件时,发送位置移动指令给该无人装置,以指示该无人装置移动到所述目标位置信息对应的目标位置,通过此过程,本发明实施例能够简单方便地实现视界内对无人机的控制、定位。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明某些实施例提供的用以在电子装置显示与操作无人装置的操作方法的流程图;
图2-1为本发明其他某些实施例提供的用以在电子装置显示与操作无人装置的操作方法的流程图;
图2-2为本发明实施例提供的无人装置位置坐标示意图;
图3为本发明某些实施例提供的第一场景下用以在电子装置显示与操作无人装置的操作方法的流程图;
图4为本发明某些实施例提供的第二场景下用以在电子装置显示与操作无人装置的操作方法的流程图;
图5为本发明某些实施例提供的第三场景下用以在电子装置显示与操作无人装置的操作方法的流程图;
图6为本发明实施例提供的电子装置的结构示意图;
图7为本发明实施例提供的电子装置界面示意图;
图8为本发明实施例提供的可远端控制无人装置的控制方法的流程示意图;
图9为本发明实施例提供的电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义,“多种”一般包含至少两种,但是不排除包含至少一种的情况。
应当理解,本文中使用的术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
应当理解,尽管在本发明实施例中可能采用术语第一、第二、第三等来描述……,但这些……不应限于这些术语。这些术语仅用来将……区分开。例如,在不脱离本发明实施例范围的情况下,第一……也可以被称为第二……,类似地,第二……也可以被称为第一……。
取决于语境,如在此所使用的词语“如果”、“若”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。类似地,取决于语境,短语“如果确定”或“如果检测(陈述的条件或事件)”可以被解释成为“当确定时”或“响应于确定”或“当检测(陈述的条件或事件)时”或“响应于检测(陈述的条件或事件)”。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的商品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种商品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的商品或者系统中还存在另外的相同要素。
另外,下述各方法实施例中的步骤时序仅为一种举例,而非严格限定。
目前实现视界内定位及控制的方式,需要传感器数据融合后由飞控程序和飞控人员实现,对飞控人员要求很高,较为困难,因此本发明提出了一种解决方案,以能够简单方便地实现视界内对无人机的控制、定位。在这里,视界内控制指在可视范围内进行控制。
本发明实施例的目的在于利用电子装置(例如智能手机)触控屏的GUI输入或传感器输入,使无人装置(例如无人机)维持在电子装置显示画面的特定位置或预设位置,并且与电子装置/操作者之间维持特定距离,借此方式来操控无人装置(移动运行位置,为达到上述目的,电子装置和无人装置可利用超声(或声音)与摄像头来量测彼此间的相对位置。
当电子装置和无人装置连接上后,在显示控制模式下,电子装置会拍摄并显示无人装置,为了便利使用者观看无人装置的状态,可设定将无人装置显示在电子装置的预设显示位置例如中心位置,例如通过点击电子装置GUI的中心点。电子装置可利用摄像头拍摄的影像推算无人装置与电子装置间的相对角度,而无人装置可发送声音信号(超声波或声波)给电子装置,进而电子装置计算二者的相对距离。若无人装置不在电子装置GUI画面的中心位置时,电子装置可根据无人装置在画面的当下位置与画面的中心位置之间的偏移量来推算无人装置需要移动的距离和/或方向。当使用者以任意方式电子装置,使得无人装置离开画面的中心点时,电子装置可利用自身的传感器变化量加上无人装置在画面的偏移量来推算无人装置需要移动的距离、方向,借此方式无人装置可维持显示电子装置画面的中心位置,并且与电子装置保持固定的距离。
或者,使用者可以点击电子装置GUI上面其他任意点作为无人装置显示位置,电子装置可根据摄像头的影像来推算无人装置移动到新的位置所需移动的角度移动量,使无人装置沿该方向移动,当无人装置移动到新的位置后,指示无人装置停止移动。
电子装置的GUI还可提供使用者调整与无人装置之间距离的操作界面,使用者可滑动控制条的位置来拉近或拉远二者间的距离,但保持在固定方向。当使用者滑动控制条时,电子装置可提供对应的位置信息给无人装置,无人装置收到指令后,可根据位置信息移动到对应的目标位置。
在室内或是在户外多遮蔽物的场景中,因为信号屏蔽,无人装置可能无法接收到GPS信号或是精确度过低,而利用其他无线信号强度,如Wi-Fi,来实现测距或定位可能会有过多干扰,无法正确辨识信号来源。在这些情况下,利用声纳和影像识别可以达到较佳的测距和定位效果。
本发明实施例提供一种用以在电子装置显示与操作无人装置的操作方法,该电子装置具有拍摄装置和触敏显示器,例如可以为智能手机、带有摄像头和触敏显示器的遥控器等,无人装置可以是无人机。此外,无人装置安装有超声发射头和光学图像识别标记,相应的,电子装置具有超声接收装置,其中,超声发射头和超声接收装置用于测定电子装置与无人装置的距离,光学图像识别标记用于跟踪定位电子装置与无人装置的相对角度。请参阅图1,所述用以在电子装置显示与操作无人装置的操作方法包括以下步骤。
步骤101、电子装置与无人装置通信连接。
在实施例中,电子装置利用无线传输协议与无人装置进行通信连接,无线传输协议可以是蓝牙(Bluetooth),Wi-Fi,Zig-Bee或蜂窝通信(cellular),还可以是RF sub-1GHz、或Sigfox等。
步骤102、电子装置获取包含该无人装置的影像。
在实施例中,电子装置通过自身的拍摄装置对无人装置进行实时拍摄,以获取无人装置的影像。可选的,获取的影像中应当尽量具有光学图像识别标记,以便跟踪定位电子装置与无人装置的相对角度。
步骤103、电子装置获取到无人装置的影像后,则向电子装置的触敏显示器输出所述包含该无人装置的影像,从而在触敏显示器的显示窗口显示包含该无人装置的影像。
步骤104、电子装置判断该无人装置在该影像中的目前显示位置是否满足预设显示条件。
其中,所述预设显示条件可以是目前显示位置落在指定显示区域。指定显示区域可以是预设显示区域,预设显示区域可以是电子装置的出厂默认设置。指定显示区域还可以是自定义显示区域,自定义显示区域可以是电子装置根据使用者选择设置的显示区域。
步骤105、当目前显示位置不满足预设显示条件时,发送位置移动指令给无人装置,位置移动指令包括无人装置的目标位置信息。
在实施例中,当目前显示位置未位于指定显示区域时,则发送位置移动指令给无人装置,位置移动指令包括无人装置的目标位置信息,以指示无人装置移动到目标位置信息对应的目标位置。
若目前显示位置未落在指定显示区域,则认为电子装置与无人装置之间的相对位置发生了改变,而该相对位置的改变可以是电子装置与无人装置之间的相对距离信息、和/或电子装置与无人装置之间的相对方向信息发生了改变。
那么,目标位置信息则可以根据电子装置与无人装置之间的相对距离信息、和/或电子装置与无人装置之间的相对方向信息获得。
请参阅图2-1,在实施例中,上述相对距离信息、相对方向信息可以通过以下方式获取。
步骤200、接收来自无人装置的第一信号。
在实施例中,首先进行电子装置与无人装置的时间同步。可选的,在步骤200之前还可以发送提示指令给无人装置,提示指令包括第一信号的发送时间信息。无人装置接收到提示指令后,在t时刻发送第一信号。
然后再获取无人装置发送所述第一信号的发送时间信息:t时刻。其中,第一信号可以是超声脉冲。
步骤201、根据第一信号获得无人装置与电子装置的相对距离信息。具体的,步骤201根据第一信号的发送时间信息和传递速度计算无人装置与电子装置的相对距离信息。
当接收到无人装置发送的第一信号时,记录接收到第一信号的接收时间信息:t+Δt时刻。
根据第一信号的发送时间信息与接收时间信息的时间差Δt、第一信号的传递速度Vs,确定相对距离信息:L=Δt*Vs。
步骤202、根据无人装置在影像的目前显示位置获得无人装置与电子装置的相对位置信息。
在实施例中,相对位置信息可以具体通过如下过程获取。
首先,本实施例选取电子装置中拍摄装置(例如摄像头)的中心点为坐标系原点O(0,0,0),利用电子装置内置的姿态传感器,获得电子装置至少一个传感器的感测数值,从而获取各个轴上的坐标值。传感器为电子装置内置的姿态传感器,可以为加速传感器、陀螺仪传感器和指南针传感器的任何一者或任意组合。
获取感测数值后,根据感测数值获得电子装置的第一方位信息(α,β,γ),其中γ为与水平面的夹角,由陀螺仪传感器在z轴的分量计算得出。α,β由指南针传感器确定(以地磁南北极指向为y轴),也可以取拍摄装置正对方向为y轴(α=90°,β=0°)。
然后,再根据第一方位信息(α,β,γ)获得无人装置与电子装置的相对位置信息(X,Y,Z),具体根据无人装置在影像的目前显示位置和第一方位信息(α,β,γ)获得无人装置与电子装置的相对位置信息。
步骤203、记录相对距离信息L和相对位置信息(X,Y,Z)。无人装置位置坐标示意图可以如图2-2所示。
其中:
X=L*cos(γ)*cos(α);
Y=L*cos(γ)*cos(β);
Z=L*sin(γ)。
电子装置与无人装置之间的相对位置发生改变有可能是:场景一、使用者通过触敏显示器点击其他显示位置,其中某些显示位置并不落在指定显示区域;场景二、使用者通过显示界面中的滑动控制条控制电子装置与无人装置之间的相对距离信息;场景三、使用者通过改变电子装置的姿态从而改变电子装置与无人装置之间的相对位置。
场景一、使用者通过触敏显示器点击其他显示位置
请参阅图3,本实施例提供一种用以在电子装置显示与操作无人装置的操作方法。
步骤301、电子装置与无人装置通信连接。
在实施例中,电子装置利用无线传输协议与无人装置进行通信连接,无线传输协议可以是蓝牙(Bluetooth),Wi-Fi,Zig-Bee或蜂窝通信(cellular),还可以是RF sub-1GHz、或Sigfox等。
步骤302、电子装置获取包含无人装置的影像。
在实施例中,电子装置通过自身的拍摄装置对无人装置进行实时拍摄,以获取无人装置的影像。可选的,获取的影像中应当尽量具有光学图像识别标记,以便跟踪定位电子装置与无人装置的相对角度。
步骤303、电子装置获取到无人装置的影像后,则向电子装置的触敏显示器输出所述包含无人装置的影像,从而在触敏显示器的显示窗口显示包含无人装置的影像。
步骤304、电子装置判断无人装置在影像中的目前显示位置是否满足预设显示条件。
其中,预设显示条件可以是目前显示位置落在指定显示区域。指定显示区域可以是预设显示区域,预设显示区域可以是电子装置的出厂默认设置。指定显示区域还可以是自定义显示区域,自定义显示区域可以是电子装置根据使用者选择设置的显示区域。
步骤305、通过使用者接口接收到使用者点击第二显示位置的点击指令,当第二显示位置不满足预设显示条件时,确定无人装置的目标位置信息,发送位置移动指令。具体过程如下。
从电子装置的使用者接口,例如触敏显示器,接收第一使用者输入,第一使用者输入对应于显示窗口的第二显示位置;获取无人装置对应于第二显示位置的第二相对位置(X1,Y1,Z1)。
首先判断目前显示位置与第二显示位置的相对位移差(Δα,Δβ,Δγ),可藉由目前显示位置与第二显示位置间的差值以及相对距离信息L求得第二相对位移信息(α1,β1,γ1),
α1=α+Δα;
β1=β+Δβ;
γ1=γ+Δγ。
根据第二相对位移信息(α1,β1,γ1),计算第二相对位置(X1,Y1,Z1)。其中,
X1=L*cos(γ1)*cos(α1);
Y1=L*cos(γ1)*cos(β1);
Z1=L*sin(γ1)
无人装置在接收到第二位置移动指令后,按照(X1,Y1,Z1)运行,到达第二显示位置对应的目标位置。
在其他实施例中,第二位置移动指令可以仅包括相对位移信息(ΔX,ΔY,ΔZ)。其中,
ΔX=L*cos(γ1)*cos(α1)-L*cos(γ)*cos(α);
ΔY=L*cos(γ1)*cos(β1)-L*cos(γ)*cos(β);
ΔZ=L*sin(γ1)-L*sin(γ)。
场景二、使用者通过滑动控制条控制相对距离信息
请参阅图4,本实施例提供一种用以在电子装置显示与操作无人装置的操作方法。
步骤401、电子装置与无人装置通信连接。
在实施例中,电子装置利用无线传输协议与无人装置进行通信连接,该无线传输协议可以是蓝牙(Bluetooth),Wi-Fi,Zig-Bee或蜂窝通信(cellular),还可以是RF sub-1GHz、或Sigfox等。
步骤402、电子装置获取包含无人装置的影像。
在实施例中,电子装置通过自身的拍摄装置对无人装置进行实时拍摄,以获取无人装置的影像。可选的,获取的影像中应当尽量具有光学图像识别标记,以便跟踪定位电子装置与无人装置的相对角度。
步骤403、电子装置获取到无人装置的影像后,则向电子装置的触敏显示器输出所述包含无人装置的影像,从而在触敏显示器的显示窗口显示包含无人装置的影像。
步骤404、电子装置判断无人装置在影像中的目前显示位置是否满足预设显示条件。
其中,预设显示条件可以是目前显示位置落在指定显示区域。指定显示区域可以是预设显示区域,预设显示区域可以是电子装置的出厂默认设置。指定显示区域还可以是自定义显示区域,自定义显示区域可以是电子装置根据使用者选择设置的显示区域。
步骤405、通过使用者接口,例如显示在触敏显示器的使用者图形界面,接收到包含无人装置的移动距离信息的指令,无人机的最终显示位置不满足预设显示条件,确定无人装置的目标位置信息,发送位置移动指令。具体过程如下。
从电子装置的使用者接口(例如使用者图形界面上的滑动控制条——滑动距离控制条)接收第二使用者输入,第二使用者输入包含无人装置的移动距离信息ΔL。
根据移动距离信息获得目标位置信息(Xs,Ys,Zs);其中,
Xs=(ΔL+L)*cos(γ)*cos(α);
Ys=(ΔL+L)*cos(γ)*cos(β);
Zs=(ΔL+L)*sin(γ)。
根据目标位置信息(Xs,Ys,Zs),发送包含目标位置信息(Xs,Ys,Zs)的第三位置移动指令给无人装置。无人装置接收到位置移动指令后,根据第三位置移动指令运行到目标位置信息(Xs,Ys,Zs)对应的目标位置。
场景三、使用者改变电子装置的当前姿态
请参阅图5,本实施例提供一种用以在电子装置显示与操作无人装置的操作方法。步骤501、电子装置与无人装置通信连接。
在实施例中,电子装置利用无线传输协议与无人装置进行通信连接,无线传输协议可以是蓝牙(Bluetooth),Wi-Fi,Zig-Bee或蜂窝通信(cellular),还可以是RF sub-1GHz、或Sigfox等。
步骤502、电子装置获取包含无人装置的影像。
在实施例中,电子装置通过自身的拍摄装置对无人装置进行实时拍摄,以获取无人装置的影像。可选的,获取的影像中应当尽量具有光学图像识别标记,以便跟踪定位电子装置与无人装置的相对角度。
步骤503、电子装置获取到无人装置的影像后,则向电子装置的触敏显示器输出所述包含无人装置的影像,从而在触敏显示器的显示窗口显示包含无人装置的影像。
步骤504、电子装置判断无人装置在影像中的目前显示位置是否满足预设显示条件。
其中,预设显示条件可以是目前显示位置落在指定显示区域。指定显示区域可以是预设显示区域,预设显示区域可以是电子装置的出厂默认设置。指定显示区域还可以是自定义显示区域,自定义显示区域可以是电子装置根据使用者选择设置的显示区域。
步骤505、当检测到电子装置的当前姿态发生改变时,根据改变后的电子装置的姿态确定无人机的最终显示位置,当无人机的最终显示位置不满足预设显示条件时,确定无人装置的目标位置信息,发送位置移动指令。具体过程如下。
接收第三使用者输入,具体的,侦测到电子装置的传感器的感测变化量,则确定电子装置的当前姿态发生改变,获取电子装置的姿态改变后的最终姿态角(αS,βS,γS),也即相对位移角度(αS,βS,γS)。
根据移动方向信息获得目标位置信息,具体的,根据感测变化量决定相对位移角度,根据相对位移角度决定目标位置信息(Xs,Ys,Zs)。
Xs=L*cos(γS)*cos(αS);
Ys=L*cos(γS)*cos(βS);
Zs=L*sin(γS)
根据目标位置信息(Xs,Ys,Zs),发送包含目标位置信息(Xs,Ys,Zs)的第三位置移动指令给无人装置。无人装置接收到位置移动指令后,根据第三位置移动指令运行到目标位置信息(Xs,Ys,Zs)对应的目标位置。
在其他实施例中,第二位置移动指令可以仅包括相对位移信息(ΔX,ΔY,ΔZ)。其中,
ΔX=L*cos(γS)*cos(αS)-L*cos(γ)*cos(α);
ΔY=L*cos(γS)*cos(βS)-L*cos(γ)*cos(β);
ΔZ=L*sin(γS)-L*sin(γ)。
本发明实施例在无人装置在电子装置的目前显示位置未满足预设显示条件时,发送位置移动指令给无人装置,以指示无人装置移动到所述目标位置信息对应的目标位置,通过此过程,本发明实施例能够简单方便地实现视界内对无人机的控制、定位。
本发明实施例还提供一种可远端控制无人装置的控制方法,应用于电子装置,请参阅图6,电子装置包括处理器以及均与所述处理器通信连接的拍摄装置、触敏显示器、传输单元、声呐接收装置、至少一内置的传感器,传感器为电子装置内置的姿态传感器,可以为加速传感器、陀螺仪传感器和指南针传感器的任何一者或任意组合。拍摄装置可以是相机单元,处理器可以包括影像处理单元、位置处理单元。在实施例中,电子装置可以为智能手机、带有摄像头/相机和触敏显示器的遥控器等,无人装置可以是无人机,无人船或是其他可自主移动或是远端遥控的电子装置。此外,无人装置可安装有声呐发射装置和光学图像识别标记,其中,声呐发射装置可以是超声发射头,相应的,声呐接收装置为超声接收装置,超声发射头和超声接收装置用于测定电子装置与无人装置的距离,光学图像识别标记用于跟踪定位电子装置与无人装置的相对角度。请参阅图7,本发明实施例提供的一种可远端控制无人装置的控制方法包括如下步骤。
步骤700、电子装置与无人装置通信连接。
在实施例中,电子装置利用无线传输协议与无人装置进行通信连接,无线传输协议可以是蓝牙(Bluetooth),Wi-Fi,Zig-Bee或蜂窝通信(cellular),还可以是RF sub-1GHz、或Sigfox等。
在一种可能的实现方式中,步骤700具体通过如下过程实现。
电子装置的处理器通过传输单元发送提示指令给该无人装置,提示命令包含第一信号的发送时间信息:t时刻。无人装置接收到提示指令后,在t时刻发送第一信号。
电子装置的声呐接收装置接收无人装置发出的第一信号,第一信号对应于提示指令。电子装置当接收到所述无人装置发送的第一信号时,记录接收到第一信号的接收时间信息:t+Δt时刻。
电子装置处理器的位置处理单元根据第一信号的发送时间信息t时刻和传递速度Vs计算无人装置与电子装置的相对距离。具体的,根据第一信号的发送时间信息与接收时间信息的时间差Δt、第一信号的传递速度Vs,确定相对距离:L=Δt*Vs。
步骤701、电子装置的拍摄装置(例如相机)拍摄无人装置的影像,并显示该影像在显示接口。相机聚焦于无人装置的预设聚焦位置,例如无人机上设置的十字叉或同心圆环给出的瞄准位置;拍摄无人装置的影像,并显示该影像在显示接口。
步骤702、电子装置处理器的影像处理单元判断无人装置在该影像的目前显示位置。当显示位置没有居中显示时,自动调整该影像居中显示。
步骤703、电子装置的传感器侦测至少一传感器的感测数值,并将感测数值传输至处理器。
本实施例选取电子装置中拍摄装置(例如摄像头)的中心点为坐标系原点O(0,0,0),利用电子装置内置的姿态传感器,获得电子装置至少一个传感器的感测数值,从而获取各个轴上的坐标值。传感器为电子装置内置的姿态传感器,可以为加速传感器、陀螺仪传感器和指南针传感器的任何一者或任意组合。例如:指南针传感器侦测到x轴、y轴方向的分量α,β,陀螺仪传感器侦测到z轴方向的分量γ。
获取感测数值α,β,γ后,根据感测数值获得电子装置的目前显示位置(α,β,γ),其中γ为与水平面的夹角,由陀螺仪传感器在z轴的分量计算得出。α,β由指南针传感器确定(以地磁南北极指向为y轴),也可以取拍摄装置正对方向为y轴(α=90°,β=0°)。
步骤704、电子装置处理器的位置处理单元根据目前显示位置与感测数值计算无人装置的相对位置。
在实施例中,步骤704根据目前显示位置与感测数值计算无人装置的相对位置的步骤还包括:根据目前显示位置(α,β,γ)、感测数值α,β,γ与相对距离L计算该无人装置的相对位置(X,Y,Z)。
在一种可能的实现方式中,电子装置处理器的位置处理单元根据目前显示位置(α,β,γ)、感测数值α,β,γ计算该无人装置的相对位置(X,Y,Z)的步骤具体如下。
步骤7041、计算感测数值(α,β,γ)与参考方位值的方位差值,具体计算感测器在各轴向的感测数值(α,β,γ)与地球轴向的差值。
其中:
X=L*cos(γ)*cos(α);
Y=L*cos(γ)*cos(β);
Z=L*sin(γ)。
步骤7042、根据方位差值与目前显示位置计算相对位置(X,Y,Z)。
步骤705、电子装置处理器的位置处理单元计算目前显示位置与预设显示位置的显示位移值△L。
步骤706、电子装置处理器的位置处理单元根据显示位移值与相对位置计算目标位置,并向传输单元发送包含目标位置的控制指令。
在一种可能的实现方式中,其中根据显示位移值△L与相对位置计算目标位置的步骤还包括:
根据显示位移值△L与方位差值计算相对位移值(ΔX,ΔY,ΔZ);其中:
ΔX=△L*cos(γ)*cos(α);
ΔY=△L*cos(γ)*cos(β);
ΔZ=△L*sin(γ)。
根据相对位移值(ΔX,ΔY,ΔZ)和相对位置(X,Y,Z)计算目标位置(Xs,Ys,Zs)。其中,
Xs=(△L+L)*cos(γ)*cos(α);
Ys=(△L+L)*cos(γ)*cos(β);
Zs=(△L+L)*sin(γ)
步骤707、传输单元发送控制指令给无人装置,控制指令包含目标位置,以控制无人装置移动到目标位置。
请参阅图8,为本发明实施例提供的图形用户界面示意图。本实施例以电子装置为智能手机,无人装置为无人机为例进行说明。本实施例中,智能手机具有拍摄装置和手机显示屏100,该手机显示屏100为触敏显示器。手机显示屏100显示图形用户界面,界面的左侧界面显示无人机及无人机的运动情况,右侧界面显示界面组件——滑动控制条102。
为了利用光学图像识别标记,拍摄装置用于对无人机进行实时拍摄,其中,拍摄出来的图像中应当尽量具有光学图像识别标记,以便跟踪定位无人机与智能手机的相对角度。
智能手机接收到拍摄装置传输过来的无人机图像后,可以在手机显示屏100上显示,如图8所示,无人机实时图像200在左侧界面的右下显示,其中,超声发射头及图像识别标记202显示在无人机实时图像200中。
当智能手机检测到滑动控制条102被移动时,智能手机检测到滑动控制条102触发的位置移动指令,智能手机可以通过前述步骤401-405实现,在此不再赘述。此时,经过计算确定出来的目标位置线103同样可以显示在手机显示屏100上。
目标位置线103的确定方式可以是如下:
设定无人机的目标位置后,以地理坐标系为参考坐标系,确定当前位置与目标位置的相对位置,即相对角度和相对距离。
在显示界面上对应无人机实时图像200上的某个像素点,以该点为起始点,绘制起始点相对位置的横纵坐标,将横纵坐标作为目标角度的目标位置线103。当无人机运动到达目标位置后,无人机机体上的图像识别标记的参考点(中心点)与目标位置线103的原点重合。图示运动方向可以理解为以无人机机体上的图像识别标记为参考点在显示界面上的运动方向。
另外,当智能手机检测自身角度变化时时,智能手机检测到角度触发的位置移动指令,智能手机可以通过前述步骤501-505实现,在此不再赘述。此时,经过计算出来的目标位置线103同样可以显示在手机显示屏100上。目标位置线103的确定方式如上文所示,在此不再赘述。
以上描述了无人机控制装置的内部功能和结构,在一个可能的设计中,无人机控制装置的结构可实现为一电子设备,如图9所示,该电子设备可以包括:处理器91和存储器92。其中,所述存储器92用于存储支持电子装置执行上述图1至图7所示实施例中提供的方法的程序,所述处理器91被配置为用于执行所述存储器92中存储的程序。
所述程序包括一条或多条计算机指令,其中,所述一条或多条计算机指令被处理器91执行时能够实现如下步骤:
与无人装置通信连接;
获取包含无人装置的影像;
在显示窗口显示包含无人装置的影像;
判断无人装置在影像中的目前显示位置是否满足预设显示条件;和
当目前显示位置不满足预设显示条件时,发送位置移动指令给无人装置,位置移动指令包括无人装置的目标位置信息;
拍摄无人装置的影像,并显示影像在显示接口;
判断无人装置在影像的目前显示位置;
侦测至少一传感器的感测数值;
根据目前显示位置与感测数值计算无人装置的相对位置;
计算目前显示位置与预设显示位置的显示位移值;
根据显示位移值与相对位置计算目标位置;和
发送控制指令给无人装置,控制指令包含目标位置。
可选地,处理器91还用于执行前述图1至图7所示实施例中的全部或部分步骤。
其中,所述电子设备的结构中还可以包括通信接口93,用于与其他设备或通信网络通信。
另外,本发明实施例提供了一种计算机存储介质,用于储存电子装置所用的计算机软件指令,其包含用于执行上述图1至图7所示方法实施例中方法所涉及的程序。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种可远端控制无人装置的控制方法,其特征在于包括:
拍摄该无人装置的影像,并显示该影像在显示接口;
判断该无人装置在该影像的显示位置;
侦测至少一传感器的感测值;
根据该显示位置与该感测值计算该无人装置的相对位置;
计算该显示位置与预设显示位置的显示位移值;
根据该显示位移值与该相对位置计算目标位置;和
发送控制指令给无人装置,该控制指令包含该目标位置。
2.如权利要求1所述的方法,其特征在于:其中与该电子装置通信连接的步骤还包括:
发送提示指令给该无人装置,该提示命令包含发送时间信息;
接收该无人装置发出的第一信号,该第一信号对应于该提示指令;
根据该第一信号的发送时间信息和传递速度计算该无人装置与该电子装置的相对距离。
3.如权利要求2所述的方法,其特征在于:其中根据该显示位置与该感测值计算该无人装置的相对位置的步骤还包括:
根据该显示位置,该感测值与该相对距离计算该无人装置的相对位置。
4.如权利要求1所述的方法,其特征在于:其中根据该显示位置与该感测值计算该无人装置的相对位置的步骤还包括:
计算该感测值与参考方位值的方位差值;和
根据该方位差值与该显示位置计算该相对位置。
5.如权利要求4所述的方法,其特征在于:其中根据该显示位移值与该相对位置计算目标位置的步骤还包括:
根据该显示位移值与该方位差值计算相对位移值;和
根据该相对位移值和该相对位置计算该目标位置。
6.如权利要求4所述的方法,其特征在于:其中计算该感测值与参考方位值的方位差值的步骤还包括:
计算该传感器在各轴向的该感测值与地球轴向的差值。
7.如权利要求1所述的方法,其特征在于:
其中该传感器是加速传感器、陀螺仪传感器和指南针传感器的任何一者或任意组合。
8.如权利要求1所述的方法,其特征在于:其中与该电子装置通信连接的步骤还包括:
利用无线传输协议与该无人装置进行通信连接,该无线传输协议是蓝牙、Wi-Fi,Zig-Bee、蜂窝通信的任何一者或任意组合。
9.如权利要求1所述的方法,其特征在于:其中判断该无人装置在该影像的显示位置的步骤还包括:
当该显示位置没有居中显示时,自动调整该影像居中显示。
10.如权利要求1所述的方法,其特征在于:其中拍摄该无人装置的影像,并显示该影像在显示接口的步骤还包括:
聚焦于该无人装置的预设聚焦位置;
拍摄该无人装置的影像,并显示该影像在显示接口。
CN201810962161.7A 2018-08-22 2018-08-22 一种可远端控制无人装置的控制方法 Active CN109309709B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810962161.7A CN109309709B (zh) 2018-08-22 2018-08-22 一种可远端控制无人装置的控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810962161.7A CN109309709B (zh) 2018-08-22 2018-08-22 一种可远端控制无人装置的控制方法

Publications (2)

Publication Number Publication Date
CN109309709A true CN109309709A (zh) 2019-02-05
CN109309709B CN109309709B (zh) 2021-08-10

Family

ID=65223906

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810962161.7A Active CN109309709B (zh) 2018-08-22 2018-08-22 一种可远端控制无人装置的控制方法

Country Status (1)

Country Link
CN (1) CN109309709B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113874805A (zh) * 2019-12-31 2021-12-31 深圳市大疆创新科技有限公司 可移动设备控制方法、电子设备、控制系统及计算机可读存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104898699A (zh) * 2015-05-28 2015-09-09 小米科技有限责任公司 飞行控制方法及装置、电子设备
CN105549497A (zh) * 2016-02-26 2016-05-04 暨南大学 支持pc控制的多旋翼无人飞行器控制系统
CN105955292A (zh) * 2016-05-20 2016-09-21 腾讯科技(深圳)有限公司 一种控制飞行器飞行的方法、移动终端、飞行器及系统
CN106444805A (zh) * 2016-09-19 2017-02-22 高域(北京)智能科技研究院有限公司 用于控制无人飞行器的控制终端、控制方法及其控制系统
CN107807347A (zh) * 2016-09-08 2018-03-16 博泰科技有限公司 飞行器的定位控制方法
WO2018053824A1 (zh) * 2016-09-26 2018-03-29 深圳市大疆创新科技有限公司 无人机控制方法、头戴式显示眼镜及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104898699A (zh) * 2015-05-28 2015-09-09 小米科技有限责任公司 飞行控制方法及装置、电子设备
CN105549497A (zh) * 2016-02-26 2016-05-04 暨南大学 支持pc控制的多旋翼无人飞行器控制系统
CN105955292A (zh) * 2016-05-20 2016-09-21 腾讯科技(深圳)有限公司 一种控制飞行器飞行的方法、移动终端、飞行器及系统
CN107807347A (zh) * 2016-09-08 2018-03-16 博泰科技有限公司 飞行器的定位控制方法
CN106444805A (zh) * 2016-09-19 2017-02-22 高域(北京)智能科技研究院有限公司 用于控制无人飞行器的控制终端、控制方法及其控制系统
WO2018053824A1 (zh) * 2016-09-26 2018-03-29 深圳市大疆创新科技有限公司 无人机控制方法、头戴式显示眼镜及系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113874805A (zh) * 2019-12-31 2021-12-31 深圳市大疆创新科技有限公司 可移动设备控制方法、电子设备、控制系统及计算机可读存储介质

Also Published As

Publication number Publication date
CN109309709B (zh) 2021-08-10

Similar Documents

Publication Publication Date Title
US11869234B2 (en) Subject tracking systems for a movable imaging system
CN110770678B (zh) 对象全息增强
US20210012520A1 (en) Distance measuring method and device
US10636150B2 (en) Subject tracking systems for a movable imaging system
CA3107374C (en) Systems and methods for autonomous machine tracking and localization of mobile objects
CN109596118B (zh) 一种用于获取目标对象的空间位置信息的方法与设备
US11300650B2 (en) Apparatus and method for automatically orienting a camera at a target
EP3299925B1 (en) Method, apparatus and system for controlling unmanned aerial vehicle
KR20180075191A (ko) 무인 이동체를 제어하기 위한 방법 및 전자 장치
EP3273318B1 (fr) Système autonome de prise de vues animées par un drone avec poursuite de cible et localisation améliorée de la cible
JP6943988B2 (ja) 移動可能物体の制御方法、機器およびシステム
CN111338383B (zh) 基于gaas的自主飞行方法及系统、存储介质
WO2020014987A1 (zh) 移动机器人的控制方法、装置、设备及存储介质
US10532814B2 (en) Augmented reality travel route planning
CN107918397A (zh) 带目标跟踪和拍摄角保持的无人机移动图像自主拍摄系统
US11611700B2 (en) Unmanned aerial vehicle with virtual un-zoomed imaging
JP2017220227A (ja) 飛翔体の追随遠隔操作方法
CN105182319A (zh) 一种基于射频和双目视觉的目标定位系统及方法
WO2022077296A1 (zh) 三维重建方法、云台负载、可移动平台以及计算机可读存储介质
CN110139038A (zh) 一种自主环绕拍摄方法、装置以及无人机
CN110730934A (zh) 轨迹切换的方法和装置
CN109309709A (zh) 一种可远端控制无人装置的控制方法
WO2018227345A1 (zh) 控制方法和无人机
CN109343561A (zh) 用以在电子装置显示与操作无人装置的操作方法
KR20180106178A (ko) 무인 비행체, 전자 장치 및 그에 대한 제어 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address
CP03 Change of name, title or address

Address after: 264200 Zone E, blue venture Valley, No. 40, Yangguang Road, Nanhai new area, Weihai City, Shandong Province

Patentee after: Zhendi Technology Co., Ltd

Address before: Unit 301, unit a, 9 Fulin Road, Chaoyang District, Beijing 100107

Patentee before: POWERVISION TECH Inc.