CN116126024A - 移动机器人的控制方法、装置、设备及存储介质 - Google Patents

移动机器人的控制方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN116126024A
CN116126024A CN202310158597.1A CN202310158597A CN116126024A CN 116126024 A CN116126024 A CN 116126024A CN 202310158597 A CN202310158597 A CN 202310158597A CN 116126024 A CN116126024 A CN 116126024A
Authority
CN
China
Prior art keywords
target object
target
position information
aerial vehicle
unmanned aerial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310158597.1A
Other languages
English (en)
Inventor
李劲松
周游
刘洁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to CN202310158597.1A priority Critical patent/CN116126024A/zh
Publication of CN116126024A publication Critical patent/CN116126024A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/08Control of attitude, i.e. control of roll, pitch, or yaw
    • G05D1/0808Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/0202Control of position or course in two dimensions specially adapted to aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

一种移动机器人的控制方法、装置、设备及存储介质,该方法包括:获取目标对象的指示信息(S101);根据指示信息确定目标对象的位置信息(S102);根据目标对象的位置信息控制移动机器人环绕目标对象移动(S103)。该方法通过获取拍摄装置拍摄的目标对象在该拍摄装置输出的参考图像中的位置信息,确定该目标对象的位置信息,并根据该目标对象的位置信息控制移动机器人环绕该目标对象移动,使得移动机器人不需要移动到环绕中心去记录环绕中心的位置,即可实现该移动机器人环绕该目标对象移动,简化了移动机器人实现对目标对象环绕移动的过程,同时提高了移动机器人的操作安全性。

Description

移动机器人的控制方法、装置、设备及存储介质
技术领域
本发明实施例涉及控制领域,尤其涉及一种移动机器人的控制方法、装置、设备及存储介质。
背景技术
现有技术中,移动机器人(例如无人机或无人地面机器人)搭载有拍摄装置,在移动机器人移动的过程中,该拍摄装置可对目标对象进行拍摄。
围绕目标对象进行的环绕拍摄是现有技术中的一种拍摄方式。具体地,以无人机为例,无人机需要飞行到该目标对象的正上方,在该目标对象的正上方设置环绕中心,用户需要通过控制终端指示无人机记录环绕中心的位置(例如记录环绕中心的GPS位置),进一步该无人机飞离该环绕中心到达预设位置,以该环绕中心为圆心、以该无人机相对于该环绕中心的距离为半径进行环绕飞行。现有技术中实现环绕目标对象移动的操作过程较为繁琐,另外,移动机器人移动至环绕中心的过程中可能存在一定的危险或干扰,导致该移动机器人容易出现安全事故。
发明内容
本发明实施例提供一种移动机器人的控制方法、装置、设备及存储介质,以简化移动机器人实现环绕目标对象移动的操作过程,同时提高移动机器人的操作安全性。
本发明实施例的第一方面是提供一种移动机器人的控制方法,应用于移动机器人,其中,所述移动机器人包括拍摄装置,所述方法包括:
获取目标对象的指示信息,其中,所述指示信息包括目标对象在拍摄装置输出的参考图像中的位置信息;
根据所述指示信息确定所述目标对象的位置信息;
根据所述目标对象的位置信息控制所述移动机器人环绕所述目标对象移动。
本发明实施例的第二方面是提供一种移动机器人的控制装置,包括:存储器和处理器;
所述存储器用于存储程序代码;
所述处理器,调用所述程序代码,当程序代码被执行时,用于执行以下操作:
获取目标对象的指示信息,其中,所述指示信息包括目标对象在拍摄装置输出的参考图像中的位置信息;
根据所述指示信息确定所述目标对象的位置信息;
根据所述目标对象的位置信息控制所述移动机器人环绕所述目标对象移动。
本发明实施例的第三方面是提供一种移动机器人,包括:
机身;
动力系统,安装在所述机身,用于提供动力;
拍摄装置;
以及如第二方面所述的控制装置。
本发明实施例的第四方面是提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行以实现如第一方面所述的方法。
本实施例提供的移动机器人的控制方法、装置、设备及存储介质,通过获取拍摄装置拍摄的目标对象在该拍摄装置输出的参考图像中的位置信息,确定该目标对象的位置信息,并根据该目标对象的位置信息控制移动机器人环绕该目标对象移动,使得移动机器人不需要移动到环绕中心去记录环绕中心的位置,即可实现该移动机器人环绕该目标对象移动,简化了移动机器人实现对目标对象环绕移动的过程,同时提高了移动机器人的操作安全性。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的移动机器人的控制方法的流程图;
图2为本发明实施例提供的一种应用场景的示意图;
图3为本发明实施例提供的参考图像的示意图;
图4为本发明另一实施例提供的移动机器人的控制方法的流程图;
图5为本发明实施例提供的无人机对参考对象进行环绕飞行的示意图;
图6为本发明另一实施例提供的移动机器人的控制方法的流程图;
图7为本发明实施例提供的特征点跟踪的示意图;
图8为本发明实施例提供的三维坐标和像素坐标对应关系的示意图;
图9为本发明实施例提供的无人机对参考对象进行环绕飞行的示意图;
图10为本发明实施例提供的无人机对目标对象进行环绕飞行的示意图;
图11为本发明另一实施例提供的移动机器人的控制方法的流程图;
图12为本发明实施例提供的特征点跟踪的示意图;
图13为本发明实施例提供的移动机器人的控制装置的结构图;
图14为本发明实施例提供的无人机的结构图。
附图标记:
20:无人机;          21:拍摄装置;        22:云台;
23:无线通讯接口;    24:控制终端;        31:目标对象;
32:点;              33:点;              34:区域;
35:启动控制按键;    50:参考对象;        51:机头;
53:环形轨迹;        30:参考图像;        71:第一目标图像;
72:第一目标图像;    73:第一目标图像;
80:目标对象;        81:第一目标图像;    82:第一目标图像;
83:第一目标图像;    91:目标轨迹;        121:第二目标图像;
130:控制装置;       131:存储器;         132:处理器;
133:通讯接口;       140:无人机;         141:电机;
142:螺旋桨;         143:电子调速器;     144:拍摄装置;
145:传感系统;       146:通信系统;       147:支撑设备;
148:控制装置。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,当组件被称为“固定于”另一个组件,它可以直接在另一个组件上或者也可以存在居中的组件。当一个组件被认为是“连接”另一个组件,它可以是直接连接到另一个组件或者可能同时存在居中组件。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。本文所使用的术语“及/或”包括一个或多个相关的所列项目的任意的和所有的组合。
下面结合附图,对本发明的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
本发明实施例提供一种移动机器人的控制方法。图1为本发明实施例提供的移动机器人的控制方法的流程图。本实施例所述的移动机器人的控制方法可应用于移动机器人,该应用于移动机器人包括拍摄装置。如图1所示,本实施例中的方法,可以包括:
步骤S101、获取目标对象的指示信息,其中,所述指示信息包括目标对象在拍摄装置输出的参考图像中的位置信息。
可选的,本实施例所述的移动机器人具体可以是无人机、无人地面机器人、无人船等。这里为了方便解释,以移动机器人为无人机来进行示意性说明。可以理解的是,本文中的无人机可以被同等地替代成移动机器人。如图2所示,无人机20搭载有拍摄装置21,拍摄装置21具体可以是相机、摄像机等。具体的,拍摄装置21可通过云台22搭载在无人机20上,或者,拍摄装置21通过其他固定装置固定在无人机20上。该拍摄装置21可实时拍摄获得视频数据或图像数据,并将该视频数据或图像数据通过无人机20的无线通讯接口23发送给控制终端24,该控制终端24具体可以是无人机20对应的遥控器,也可以是用户终端例如智能手机、平板电脑等。另外,该无人机20还可以包括控制装置,该控制装置可以包括通用或者专用的处理器,此处只是示意性说明,并不限定该无人机的具体结构。
可选的,拍摄装置21拍摄的图像中包括如图2所示的目标对象31,此处,将拍摄装置21输出的某一帧图像记为参考图像,该无人机20的处理器可获取该目标对象的指示信息,该指示信息包括该目标对象在该参考图像中的位置信息。
作为一种可能的方式,所述获取目标对象的指示信息,包括:接收控制终端发送的指示信息,其中,所述指示信息是所述控制终端检测用户在显示所述参考图像的交互界面上的目标对象选择操作确定的。
具体的,拍摄装置21输出该参考图像后,通过无线通讯接口23将该参考图像发送给控制终端24,控制终端24将该参考图像显示在交互界面中,使得用户可以在该交互界面中对该参考图像中的目标对象进行选择。如图3所示,30表示该交互界面中显示的参考图像,参考图像30中包括目标对象31,用户在该交互界面中对目标对象31进行选择的一种可能方式是:用户选择点32,并从点32开始滑动到点33,此处只是示意性说明,本实施例不限定具体的选择操作。控制终端24可根据用户在该交互界面中的选择操作,确定出用户在该交互界面中框选的区域34,并确定出区域34在该参考图像30中的位置信息,例如,控制终端24可确定出该区域34的左上角即点32在该参考图像30中的位置信息和该区域34的大小例如长、宽,或者,控制终端24可确定该区域34的左上角即点32在该参考图像30中的位置信息和该区域34的右下角即点33在该参考图像30中的位置信息。进一步,控制终端24可将该区域34在该参考图像30中的位置信息作为该目标对象31在该参考图像30中的位置信息即该目标对象31的指示信息发送给无人机20。
作为另一种可能的方式,所述获取目标对象的指示信息,包括:对参考图像中的目标对象进行识别以获取目标对象的指示信息。
具体地,无人机的处理器可以对拍摄装置21输出的参考图像中的目标对象进行识别,通过识别获取目标对象的指示信息。进一步地,无人机的处理器可以将参考图像输入到已经训练好的神经网络模型,并获取所述神经网络模型输出的目标对象的指示信息。
步骤S102、根据所述指示信息确定所述目标对象的位置信息。
具体地,在获取到目标对象的指示信息之后,无人机可以根据所述指示信息确定目标对象的位置信息,其中,所述目标对象的位置信息可以为三维位置信息或者二维位置信息;所述目标对象的位置信息可以为基于世界坐标系中的位置信息;另外,所述目标对象的位置信息也可以为基于全局坐标系中的位置信息,所述位置信息可以至少包括经度和纬度;此外,所述目标对象的位置信息还可以为基于无人机的机体坐标系中的位置信息。
作为一种可实现方式,所述根据所述指示信息确定所述目标对象的位置信息包括:根据所述指示信息确定目标对象相对于移动机器人的朝向,根据所述朝向和移动机器人与目标对象之间的水平距离或者移动机器人的对地高度值确定目标对象的位置信息。
具体地,本实施例可根据目标对象31在该参考图像30中的位置信息、承载拍摄装置21的云台的姿态确定目标对象31相对于无人机20的朝向;再根据所述朝向、目标对象31与无人机20之间的水平距离确定目标对象31的位置信息。其中,拍摄装置21具有的视场角(FOV)是已知的,根据目标对象31在参考图像中的位置信息可以确定目标对象31相对于拍摄装置21的光轴的角度,例如:若目标对象31在参考图像的正中心,则说明目标对象31相对于拍摄装置的光轴的角度为0,若拍摄装置21的FOV在水平方向为20度,若目标对象31在参考图像的最左边,则说明目标对象31相对于拍摄装置21的光轴的水平角度为10度,垂直方向上也类似,此处不再赘述;另外,拍摄装置21的云台22的姿态也决定了拍摄装置21的光轴的朝向,结合目标对象31相对于拍摄装置21的光轴的角度以及光轴的朝向,可以获得目标对象31相对于无人机20的朝向。进一步,根据目标对象31相对于无人机20的朝向、目标对象31与无人机20之间的水平距离确定目标对象31的位置信息。在某些实施例中,根据目标对象31相对于无人机20的朝向、目标对象31与无人机20之间的水平距离或者无人机20的对地高度值确定目标对象31的位置信息。
继续参考图2,根据目标对象31相对于无人机20的朝向可确定目标对象31相对于无人机20在俯仰方向上的角度,例如图2所示的α角,然后,可以获取无人机20上配置的距离传感器测量的无人机的对地高度值,例如图2所示的h,根据所述α角和对地高度值即可以确定目标对象相对于无人机在垂直方向上的位置信息,另外,根据目标对象31相对于无人机20的朝向还可确定目标对象31相对于无人机20在偏航方向上的角度例如β角,根据β角和目标对象31与无人机20之间的水平距离L即可以确定目标对象相对于无人机在水平方向上的位置信息;根据目标对象相对于无人机在垂直方向上的位置信息和目标对象相对于无人机在水平方向上的位置信息即可确定出目标对象相对于无人机的位置信息,进一步,根据目标对象相对于无人机的位置信息和无人机的位置信息可确定出目标对象的位置信息,该目标对象的位置信息可以是该目标对象在世界坐标系中的位置,也可以是该目标对象在全局坐标系中的位置。
另外,在某些实施例,也可以根据目标对象31与无人机20之间的水平距离L和所述α角确定目标对象相对于无人机在垂直方向上的位置信息。其中,目标对象的指示信息可以指示目标对象在参考图像中对应的图像区域的大小,所述目标对象31与无人机20之间的水平距离可以根据所述图像区域的大小确定。
步骤S103、根据所述目标对象的位置信息控制所述移动机器人环绕所述目标对象移动。
具体的,当无人机20的处理器确定出目标对象31的位置信息后,以该目标对象31为中心,根据无人机20与目标对象31之间的位置关系生成环绕轨迹,并控制无人机20在该环绕轨迹上移动,即控制无人机20在该环绕轨迹上飞行,实现环绕目标对象31飞行。在无人机20环绕该目标对象31飞行的过程中,拍摄装置21可实时拍摄目标对象31,并将拍摄获得的图像数据或视频数据通过无线通讯接口23发送给控制终端24,以便用户浏览观看。
本实施例通过获取拍摄装置拍摄的目标对象在该拍摄装置输出的参考图像中的位置信息,确定该目标对象的位置信息,并根据该目标对象的位置信息控制移动机器人环绕该目标对象移动,使得移动机器人不需要移动到环绕中心去记录环绕中心的位置,即可实现该移动机器人环绕该目标对象移动,简化了移动机器人实现对目标对象环绕移动的过程,同时提高了移动机器人的操作安全性。
本发明实施例提供一种移动机器人的控制方法。图4为本发明另一实施例提供的移动机器人的控制方法的流程图。如图4所示,在图1所示实施例的基础上,本实施例提供了根据所述指示信息确定所述目标对象的位置信息的另一种可实现方式,具体的,根据所述指示信息确定所述目标对象的位置信息,可以包括如下步骤:
步骤S401、控制所述移动机器人对参考对象进行环绕移动。
在本实施例中,可在无人机的正前方预设距离处取一个点为参考对象,该参考对象具体为虚拟目标点,控制无人机对该参考对象进行环绕飞行。如图5所示,50表示无人机正前方预设距离处的参考对象,51表示无人机的机头,无人机内的处理器具体可控制该无人机对参考对象50进行环绕飞行。
作为一种可能的方式,所述控制所述移动机器人对参考对象进行环绕移动,包括:根据预设的环绕半径确定参考对象,控制所述移动机器人对参考对象进行环绕移动。
具体的,控制该无人机以参考对象50为环绕中心,以预设的环绕半径例如500米为半径,生成一条环形轨迹,如图5所示的环形轨迹53,并控制该无人机在该环形轨迹53上对参考对象50进行环绕飞行。可选的,该无人机可沿着逆时针方向在该环形轨迹53上飞行,也可以沿着顺时针方向在该环形轨迹53上飞行。可选的,当无人机内的处理器接收到控制终端发送的目标对象的指示信息后,即可根据该预设的环绕半径确定参考对象,并控制该无人机对参考对象进行环绕飞行。也就是说,当用户在参考图像中框选出目标对象后,无人机即可对参考对象进行环绕飞行。
作为另一种可能的方式,所述控制所述移动机器人对参考对象进行环绕移动,包括:在接收到所述控制终端发送的启动控制指令后,控制所述移动机器人对参考对象进行环绕移动。
具体的,如图3所示,当用户框选目标对象31后,该交互界面中可显示启动控制按键35,该启动控制按键35具体可以是该交互界面中的一个图标,也就是说,当用户框选目标对象31后,无人机并不立即对参考对象进行环绕飞行,而是等到用户在该交互界面中点击该启动控制按键35后,该无人机才开始对参考对象进行环绕飞行。具体的,当用户在该交互界面中点击该启动控制按键35时,控制终端根据用户的点击操作生成启动控制指令,并将该启动控制指令发送给无人机,当无人机内的处理器接收到该启动控制指令后,控制无人机对参考对象进行环绕飞行,具体的环绕控制方式可以是如图5所示的方式,此处不再赘述。
步骤S402、在所述移动机器人环绕参考对象移动的过程中,获取所述拍摄装置输出的多帧第一目标图像,其中,所述第一目标图像中包括所述目标对象。
如图5所示,以该无人机沿着顺时针方向在该环形轨迹53上飞行为例,当该无人机在对参考对象50进行环绕飞行的过程中,该无人机的拍摄装置还可以对目标对象31进行拍摄,并输出包括该目标对象31的目标图像,本实施例将该无人机在对参考对象50进行环绕飞行的过程中拍摄的目标图像记为第一目标图像,且该无人机的拍摄装置输出的第一目标图像可以是多帧。具体的,该无人机在对参考对象50进行环绕飞行的过程中,该无人机的处理器可获取到拍摄装置输出的多帧第一目标图像,该第一目标图像中包括目标对象31。此处不限定目标对象31相对于拍摄装置的光轴偏移的角度,只要保证目标对象31在拍摄装置的拍摄画面中即可。
步骤S403、根据所述目标对象的指示信息和所述多帧第一目标图像确定所述目标对象的位置信息。
该无人机的处理器可根据上述实施例中获取到的目标对象31的指示信息,以及上述步骤中获取到的多帧第一目标图像确定目标对象31的位置信息。
可选的,所述根据所述目标对象的指示信息和所述多帧第一目标图像确定所述目标对象的位置信息,可以包括如图6所示的如下步骤:
步骤S601、获取所述参考图像的目标区域中的特征点,其中,所述目标区域为所述参考图像中所述指示信息指示的图像区域。
当无人机接收到控制终端发送的目标对象的指示信息后,可根据该目标对象的指示信息确定出该参考图像的目标区域,该目标区域具体为该指示信息指示的图像区域。例如图3所示,无人机接收到控制终端发送的区域34在该参考图像30中的位置信息或者通过识别获取区域34在该参考图像30中的位置信息后,该无人机的处理器可在该参考图像30中确定出目标区域,该目标区域具体可以是区域34,也就是说,无人机可以将用户在交互界面中框选的区域作为该目标区域。进一步,该无人机的处理器可获取该目标区域中的特征点,可选的,该处理器可根据预设的特征点提取算法确定出该目标区域中的特征点,该特征点提取算法包括如下至少一种:Harris角点检测算法、尺度不变特征变换(Scale-invariantfeature transform,SIFT)、加速稳健特征(Speeded Up Robust Features,SURT)算法、快速特征点提取和描述的算法(Oriented FAST and Rotated BRIEF,ORB)等。可选的,本实施例采用Harris角点检测算法提取该目标区域中的特征点。
步骤S602、基于所述参考图像的目标区域中的特征点利用跟踪算法获取每一帧第一目标图像的特征点。
在获取到该目标区域中的特征点后,利用跟踪算法对该目标区域中的特征点进行跟踪,即利用跟踪算法确定该目标区域中的特征点在每一帧第一目标图像中的位置。该跟踪算法具体可以是(Kanade-Lucas-Tomasi Feature Tracker,KLT)特征跟踪算法。
如图7所示,A、B、C、D、E、F、G分别表示参考图像30的目标区域即区域34中的特征点,特征点A、B、C、D、E、F、G也是目标对象31的特征点。71、72、73分别表示在该无人机环绕参考对象飞行的过程中,拍摄装置依次输出的第一目标图像。根据KLT特征跟踪算法可确定出参考图像30中目标对象31的特征点例如A、B、C、D、E、F、G分别在第一目标图像71、第一目标图像72、第一目标图像73中的位置。例如,拍照装置先输出参考图像30,后续依次输出第一目标图像71、第一目标图像72、第一目标图像73;参考图像30、第一目标图像71、第一目标图像72、第一目标图像73可以是相邻图像,也可以是非相邻图像。
如图5所示,在该无人机环绕参考对象50飞行的过程中,目标对象31相对于该无人机的位置不断变化,导致目标对象31在拍摄装置依次输出的第一目标图像中的位置不断变化,从而使得第一目标图像71、第一目标图像72、第一目标图像73中目标对象31对应的特征点在对应的第一目标图像中的位置不断变化。此处只是示意性说明,并不限定区域34中特征点的个数,也不限定第一目标图像的个数,以及区域34中的特征点在每一帧第一目标图像中的位置。
步骤S603、根据每一帧第一目标图像的特征点在对应的第一目标图像中的位置信息确定目标对象的位置信息。
例如,根据第一目标图像71、第一目标图像72、第一目标图像73中目标对象31对应的特征点在对应的第一目标图像中的位置信息确定目标对象31的位置信息,确定出的该目标对象31的位置信息具体为目标对象31在三维空间中的三维坐标。此处,将根据第一目标图像71、第一目标图像72、第一目标图像73中目标对象31对应的特征点在对应的第一目标图像中的位置信息确定出的目标对象31的位置信息记为第一位置信息。
可以理解,在拍摄装置输出第一目标图像73之后还会输出新的第一目标图像,根据KLT特征跟踪算法可确定出目标对象31的特征点在该新的第一目标图像中的位置;进一步根据第一目标图像71、第一目标图像72、第一目标图像73、新的第一目标图像中目标对象31对应的特征点在对应的第一目标图像中的位置信息可确定出又一个目标对象31的位置信息,此处,将该目标对象31的位置信息记为第二位置信息。上述的第一位置信息和此处的第二位置信息可能相同,也可能不同,但可以理解的是,随着拍摄装置不断输出新的第一目标图像,根据第一目标图像71、第一目标图像72、第一目标图像73、以及拍摄装置后续不断输出的第一目标图像中目标对象31对应的特征点在对应的第一目标图像中的位置信息确定出的目标对象31的位置信息的精准度不断提高。一种可能的方式是,拍摄装置每输出一帧新的第一目标图像,无人机的处理器即可确定出该目标对象31的一个新的位置信息。
可选的,所述根据每一帧第一目标图像的特征点在对应的第一目标图像中的位置信息确定目标对象的位置信息,包括:基于每一帧第一目标图像的特征点在对应的第一目标图像中的位置信息利用拟合算法确定所述目标对象的位置信息。
如图8所示,80表示目标对象,81、82、83表示拍摄装置环绕目标对象80按照箭头所示的方向移动的过程中,拍摄装置先后输出的第一目标图像,可以理解,目标对象80上的三维点可映射到第一目标图像81、82、83中,该三维点在第一目标图像81、82、83中的映射点具体可以是第一目标图像81、82、83中的特征点,从第一目标图像81到第一目标图像83的过程中,可跟踪到的特征点的个数在减少。
例如,点A、点B和点C分别为目标对象80上的三维点,点a1、点b1和点c1表示第一目标图像81中的特征点,点a1与点A对应,点b1与点B对应,点c1和点C对应;点a2、点b2和点c2表示第一目标图像82中的特征点,点a2与点A对应,点b2与点B对应,点c2和点C对应;点a3和点b3表示第一目标图像83中的特征点,点a3与点A对应,点b3与点B对应。此处只是示意性说明,并不限定目标对象80、目标对象80上的三维点、以及目标对象80上的三维点在第一目标图像中的映射点。可以理解的是,目标对象80在不同第一目标图像中的位置不同,目标对象80上的同一个三维点在不同第一目标图像中的映射点在对应的第一目标图像中的位置也不同。
根据世界坐标系和像素平面坐标系的转换关系,可得到目标对象80上的三维点在世界坐标系中的三维坐标(xw,yw,zw)与该三维点在第一目标图像中的映射点在该第一目标图像中的位置信息例如像素坐标(μ,υ)的关系,该关系具体如下公式(1)所示:
Figure BDA0004093385980000111
其中,zc表示该三维点在相机坐标系Z轴上的坐标,K表示相机的内参,R表示相机的旋转矩阵,T表示相机的平移矩阵。在本实施例中,(μ,υ)、K、R、T为已知量,zc和(xw,yw,zw)为未知量。在拍摄装置拍摄不同的第一目标图像时,K是不变的,R、T可以是变化的。
具体的,根据点a1在第一目标图像81中的像素坐标、以及该拍摄装置拍摄第一目标图像81时对应的R、T,可建立一个如公式(1)所示的方程,根据点a2在第一目标图像82中的像素坐标、以及该拍摄装置拍摄第一目标图像82时对应的R、T,可建立另一个如公式(1)所示的方程,根据点a3在第一目标图像83中的像素坐标、以及该拍摄装置拍摄第一目标图像83时对应的R、T,可建立再一个如公式(1)所示的方程,随着该拍摄装置不断输出新的第一目标图像,建立的如公式(1)所示的方程逐渐增加,可以理解,当方程组中方程的个数大于未知量的个数时,可求解出相应的未知量。也就是说,利用拟合算法对这些方程进行求解即可计算出三维点A在世界坐标系中的三维坐标。同理,可计算出三维点B和三维点C在世界坐标系中的三维坐标,此处不再赘述。可以理解,该拍摄装置输出的第一目标图像越多,基于该多帧第一目标图像中的特征点的像素坐标利用拟合算法得到的三维点在世界坐标系中的三维坐标越精确。当确定出目标对象80上的多个三维点例如三维点A、B、C在世界坐标系中的三维坐标后,根据三维点A、B、C在世界坐标系中的三维坐标可确定出目标对象80在世界坐标系中的三维坐标。无人机可以根据目标对象80在世界坐标系中的三维坐标获取目标对象的位置信息。例如,当目标对象31的位置信息为基于全局坐标系中的位置时,可以根据无人机的位置信息和目标对象80在世界坐标系中的三维坐标确定目标对象31的位置信息。当目标对象31的位置信息为基于无人机的机体坐标系中的位置时,可以将目标对象80在世界坐标系中的三维坐标转换到机体坐标系以获取基于所述机体坐标系的位置信息。
另外,所述方法还包括:在获取每一帧第一目标图像的特征点之后,从每一帧第一目标图像的特征点中确定满足预设要求的目标特征点;相应的,所述根据每一帧第一目标图像的特征点在对应的第一目标图像中的位置信息确定目标对象的位置信息,包括:根据每一帧第一目标图像的目标特征点在对应的第一目标图像中的位置信息确定所述目标对象的位置信息。
如图7所示,在获取到第一目标图像71、第一目标图像72、第一目标图像73中的特征点例如A、B、C、D、E、F、G之后,从第一目标图像71、第一目标图像72、第一目标图像73的特征点中确定满足预设要求的目标特征点,例如,每个特征点在第一目标图像71和参考图像30之间的偏移量可能是不同的,假设特征点A在第一目标图像71和参考图像30之间的偏移量记为h1、特征点B在第一目标图像71和参考图像30之间的偏移量记为h2、依次类推,特征点G在第一目标图像71和参考图像30之间的偏移量记为h7,计算h1、h2、…h7的平均值和方差,平均值记为u,方差记为δ2,根据高斯分布选取偏移量在[u-3δ,u+3δ]内的特征点为目标特征点,假设h1在[u-3δ,u+3δ]外,则将第一目标图像71中的特征点A删除,保留第一目标图像71中的特征点B、C、D、E、F、G,将第一目标图像71中的特征点B、C、D、E、F、G作为第一目标图像71的目标特征点。同理,可计算出第一目标图像72和第一目标图像73中的目标特征点,此处不再赘述。
在其他实施例中,根据每个特征点在第一目标图像71和参考图像30之间的偏移量例如h1、h2、…h7,计算出h1、h2、…h7的平均值和方差后,根据高斯分布选取偏移量在[u-3δ,u+3δ]内的特征点为有效点,例如,h1在[u-3δ,u+3δ]外,则将第一目标图像71中的特征点A删除,将第一目标图像71中的特征点B、C、D、E、F、G作为有效点,进一步从该有效点中确定出目标特征点,从该有效点中确定出目标特征点的一种可能的方式是,计算有效点对应的偏移量的平均值,即计算h2、…h7的平均值记为u1。此处将区域34在参考图像30中的位置信息记为ROI0,根据ROI0和u1可确定出区域34在第一目标图像71中的位置信息记为ROI1,具体的,ROI1=ROI0+u1,进一步根据区域34在第一目标图像71中的位置信息ROI1,以及有效点B、C、D、E、F、G在第一目标图像71中的位置信息,确定出有效点B、C、D、E、F、G中哪些点在该区域34内,哪些点不在该区域34内,将有效点B、C、D、E、F、G中不在该区域34内的点进一步剔除掉,剩余的有效点作为该第一目标图像71的目标特征点,同理,可计算出第一目标图像72和第一目标图像73中的目标特征点,此处不再赘述。
通过上述方法确定出第一目标图像71、第一目标图像72和第一目标图像73中的目标特征点后,根据目标特征点在对应的第一目标图像中的位置信息确定目标对象31在世界坐标系中的三维坐标,具体原理与图8所示的原理一致,此处不再赘述。
本实施例通过控制无人机对参考对象进行环绕飞行,在无人机环绕参考对象飞行的过程中获取拍摄装置输出的多帧第一目标图像,根据目标对象的指示信息和多帧第一目标图像确定该目标对象的位置信息,在拍摄装置不断输出第一目标图像时,根据目标对象的指示信息和拍摄装置不断输出的第一目标图像可不断的确定出该目标对象的位置信息,且该目标对象的位置信息的准确度不断提高;另外,在获取到拍摄装置输出的每一帧第一目标图像的特征点之后,从每一帧第一目标图像的特征点中确定满足预设要求的目标特征点,在根据每一帧第一目标图像的目标特征点在对应的第一目标图像中的位置信息确定该目标对象的位置信息时,可提高该目标对象的位置信息的精确度,同时去除不满足该预设要求的特征点,还可降低相应的计算量。
本发明实施例提供一种移动机器人的控制方法。在上述实施例的基础上,所述方法还包括:根据每一帧第一目标图像的特征点在对应的第一目标图像中的位置信息确定所述移动机器人在环绕参考对象移动过程中所述拍摄装置相对于目标对象的视差;相应的,所述根据所述目标对象的位置信息控制所述移动机器人环绕所述目标对象移动,包括:当所述视差大于第一预设视差阈值时,根据所述确定出的所述目标对象的位置信息确定所述移动机器人对所述目标对象进行环绕移动的环绕轨迹,并控制所述移动机器人在所述环绕轨迹上移动。
如图7所示,在获取到第一目标图像71、第一目标图像72、第一目标图像73中的特征点例如A、B、C、D、E、F、G之后,根据特征点A、B、C、D、E、F、G分别在第一目标图像71、第一目标图像72、第一目标图像73中的位置信息,可确定出如图5所示的无人机在环绕参考对象50飞行过程中,该无人机的拍摄装置相对于目标对象31的视差,例如,第一目标图像71是无人机在m1位置时拍摄装置拍摄的图像,第一目标图像72是无人机在m2位置时拍摄装置拍摄的图像,第一目标图像73是无人机在m3位置时拍摄装置拍摄的图像。根据特征点A、B、C、D、E、F、G分别在第一目标图像71、第一目标图像72中的位置信息,可确定出无人机从m1位置到m2位置的过程中,该无人机的拍摄装置相对于目标对象31的视差;具体的,将特征点A在第一目标图像71中的像素坐标记为(μ11),将特征点A在第一目标图像72中的像素坐标记为(μ22),根据如下公式(2)可计算出特征点A的视差,特征点A的视差记为parallaxA:
Figure BDA0004093385980000141
其中,R21表示相机在拍摄第一目标图像72时的姿态相对于相机在拍摄第一目标图像71时的姿态在旋转方向上的变化。cx和cy表示相机光心位置,可以理解,该相机光心在第一目标图像71和第一目标图像72中的位置相同。f表示该相机的焦距。同理,可计算出特征点B、C、D、E、F、G的视差,对特征点A、B、C、D、E、F、G的视差取平均值,该平均值为第一目标图像72的视差,第一目标图像72的视差为无人机从m1位置到m2位置的过程中,该无人机的拍摄装置相对于目标对象31的视差。
同理,根据特征点A、B、C、D、E、F、G分别在第一目标图像71、第一目标图像73中的位置信息,可确定出第一目标图像73的视差,该第一目标图像73的视差为无人机从m1位置到m3位置的过程中,该无人机的拍摄装置相对于目标对象31的视差。可以理解,随着无人机沿着环形轨迹53飞行的过程中,该无人机的拍摄装置相对于目标对象31的视差不断变大,利用拟合算法不断的确定目标对象31的三维坐标,所述视差越大,确定出的目标对象的三维坐标的准确度越高,当该无人机的拍摄装置相对于目标对象31的视差大于第一预设视差阈值时,停止拟合算法,获取最新确定出的目标对象31的三维坐标,即目标对象31的精准三维坐标,并根据最新确定出的目标对象31的三维坐标确定无人机对该目标对象31进行环绕飞行的环绕轨迹,该环绕轨迹不同于无人机对参考对象50的环绕轨迹53。
如图9所示,假设无人机沿环绕轨迹53飞行到m3位置时,该无人机的拍摄装置相对于目标对象31的视差大于第一预设视差阈值,则根据最新确定出的目标对象31的三维坐标和预设环绕参数例如环绕半径确定无人机对该目标对象31进行环绕飞行的目标轨迹91,并控制无人机沿着目标轨迹91飞行。
另外,所述方法还包括:确定所述视差的变化速度;根据所述视差的变化速度调节所述移动机器人环绕参考对象移动的速度。
可选的,所述确定所述视差的变化速度,包括:根据多帧第一目标图像中相邻的两帧第一目标图像的特征点在对应的第一目标图像中的位置信息确定所述视差的变化速度。
例如,第一目标图像71和第一目标图像72是拍摄装置拍摄的多帧第一目标图像中相邻的两帧第一目标图像,将第一目标图像71的视差记为PAi-1,第一目标图像72的视差记为PAi,视差的变化速度记为parallax_speed,parallax_speed=(PAi-PAi-1)/t,t表示第一目标图像71和第一目标图像72之间的时间间隔,如果拍摄装置拍摄第一目标图像的频率是固定的例如30HZ,则parallax_speed还可以表示为parallax_speed=(PAi-PAi-1),即在图像频率固定的情况下,衡量(PAi-PAi-1)/t的大小与衡量PAi-PAi-1的大小其意义是一致的。
具体的,当无人机沿着环形轨迹53开始飞行时,该无人机可按照预设的较小的速度例如2m/s飞行,但是,如果目标对象31距离无人机较远,当无人机沿着环形轨迹53飞了较长时间后,目标对象31在拍摄装置拍摄的第一目标图像中的位置可能变化较小,或者几乎没变化,在这种情况下,可以根据视差的变化速度,调整无人机沿着环形轨迹53飞行的飞行速度。例如,第一预设视差阈值记为T1,假设T1=20,无人机从开始沿着环形轨迹53飞行需要在例如t=2秒内确定出目标对象31的三维坐标,也就是说,需要该无人机的拍摄装置相对于目标对象31的视差在t=2秒内达到第一预设视差阈值T1,则期望的视差的变化速度为T1/t=10,假设根据parallax_speed=(PAi-PAi-1)计算出当前的parallax_speed为2.5,则需要提高无人机的飞行速度,无人机需要达到的飞行速度=无人机当前的飞行速度*(期望的视差的变化速度/当前的parallax_speed即2m/s*(10/2.5)=8m/s,也就是说,需要将无人机的飞行速度提高到8m/s。
此外,所述方法还包括:当所述视差大于第二预设视差阈值时,根据所述确定出的所述目标对象的位置信息调整所述移动机器人对参考对象进行环绕移动的半径,其中,所述第一预设视差阈值大于所述第二预设视差阈值。
如图9所示,如果无人机沿环绕轨迹53飞行到m3位置时,该无人机的拍摄装置相对于目标对象31的视差大于第一预设视差阈值,则可根据最新确定出的目标对象31的三维坐标确定无人机对该目标对象31进行环绕飞行的目标轨迹91,但是此时无人机距离该目标轨迹91可能较远,无人机需要从当前位置例如m3位置飞行到目标轨迹91上的一点再开始沿着目标轨迹91飞行。
作为一种可替换方式,如图10所示,假设无人机沿环绕轨迹53飞行到m2位置时,该无人机的拍摄装置相对于目标对象31的视差大于第二预设视差阈值,该第二预设视差阈值小于第一预设视差阈值。此时,利用拟合算法已经可以确定出目标对象31的三维坐标,即目标对象31的粗略三维坐标,并根据该目标对象31的三维坐标和预设环绕参数例如环绕半径确定出无人机对该目标对象31进行环绕飞行的目标轨迹91,即粗略的目标轨迹91,则从m2位置开始,可以不断调整无人机对参考对象50进行环绕飞行的半径,例如不断减小无人机对参考对象50进行环绕飞行的半径,在该无人机以不断减小的环绕半径对参考对象50进行环绕飞行的过程中,该无人机的拍摄装置相对于目标对象31的视差还在不断变化。当该无人机的拍摄装置相对于目标对象31的视差大于第一预设视差阈值时,无人机可能会到达目标轨迹91(准确的目标轨迹)上一点例如m4,或者无人机可能会到达距离目标轨迹91较近的一点,使得无人机可以从该点平滑过渡到目标轨迹91上。
本实施例通过每一帧第一目标图像的特征点在对应的第一目标图像中的位置信息确定无人机在环绕参考对象飞行过程中该拍摄装置相对于目标对象的视差,根据该视差的变化速度调节无人机环绕参考对象飞行的飞行速度,使得无人机可以在较短的时间内确定出目标对象的三维坐标,尤其是当目标对象距离无人机较远、无人机环绕参考对象飞行的飞行速度较小时,通过该视差的变化速度可提高该无人机的飞行速度,提高计算目标对象的三维坐标的效率;另外,通过设置至少两个视差阈值例如第一预设视差阈值和第二预设视差阈值,第一预设视差阈值大于第二预设视差阈值,当该视差大于第二预设视差阈值时,通过调整该无人机对参考对象进行环绕飞行的半径,可使得当该视差大于第一预设视差阈值时,无人机到达对目标对象进行环绕飞行的环绕轨迹上,或者到达距离该环绕轨迹较近的位置,从而使得无人机可以从对参考对象进行环绕飞行的环绕轨迹上平滑过渡到对目标对象进行环绕飞行的环绕轨迹上。
本发明实施例提供一种移动机器人的控制方法。图11为本发明另一实施例提供的移动机器人的控制方法的流程图。如图11所示,在上述实施例的基础上,所述方法还包括:在获取到所述指示信息之后,根据所述指示信息控制拍摄装置的拍摄姿态以使所述目标对象处于所述拍摄装置的拍摄画面中心。
如图3所示,当用户在参考图像30中框选出目标对象31时,目标对象31可能不在拍摄装置的拍摄画面中心,在本实施例中,当无人机获取到目标对象31的指示信息,例如接收到控制终端24发送的区域34在该参考图像30中的位置信息后,根据区域34在该参考图像30中的位置信息可确定出目标对象31相对于拍摄装置21的光轴的角度,根据该角度可调整无人机的姿态和/或云台的姿态来控制拍摄装置的拍摄姿态,以使目标对象31相对于拍摄装置的光轴的角度为0,即目标对象31处于所述拍摄装置的拍摄画面中心。
在一些实施例中,当用户框选目标对象31后,无人机即可对参考对象进行环绕飞行;因此,当无人机获取到目标对象31的指示信息后即可调整无人机的姿态和/或云台的姿态,以使目标对象31处于所述拍摄装置的拍摄画面中心,也就是说,在无人机对参考对象进行环绕飞行的过程中调整无人机的姿态和/或云台的姿态,以使目标对象31处于所述拍摄装置的拍摄画面中心,直到该无人机确定出目标对象31的三维坐标。
在另外一些实施例中,当用户框选目标对象31后,无人机并不立即对参考对象进行环绕飞行,而是等到用户在该交互界面中点击该启动控制按键35后,该无人机才开始对参考对象进行环绕飞行。例如,无人机在t1时刻获取到该目标对象的指示信息,用户在t1时刻之后的t2时刻点击了启动控制按键35即无人机从t2时刻开始对参考对象进行环绕飞行,无人机在t2时刻之后的t3时刻确定出了目标对象31的三维坐标。
具体的,无人机可以在t1时刻到t2时刻之间调整无人机的姿态和/或云台的姿态,以使目标对象31处于所述拍摄装置的拍摄画面中心,因为在t1时刻到t2时刻之间无人机可能并没有动,但是目标对象31发生了移动,导致目标对象31在所述拍摄装置的拍摄画面中的位置发生了变化。或者,无人机还可以在t2时刻到t3时刻之间调整无人机的姿态和/或云台的姿态,以使目标对象31处于所述拍摄装置的拍摄画面中心。再或者,无人机还可以在t1时刻到t3时刻之间调整无人机的姿态和/或云台的姿态,以使目标对象31处于所述拍摄装置的拍摄画面中心。
另外,所述方法还包括:在获取到所述指示信息之后,获取所述拍摄装置输出的多帧第二目标图像,其中,所述第二目标图像中包括目标对象。
例如,当用户框选目标对象31后即无人机获取到目标对象31的指示信息后,无人机即可对参考对象进行环绕飞行,在无人机对象进行环绕飞行时获取拍摄装置输出的多帧第二目标图像,则此时的所述多帧第二目标图像包括所述多帧第一目标图像。
再例如,当用户框选目标对象31后,无人机并不立即对参考对象进行环绕飞行,而是等到用户在该交互界面中点击该启动控制按键35后,该无人机才开始对参考对象进行环绕飞行,则无人机获取到目标对象31的指示信息后,拍摄装置输出的多帧第二目标图像可能是拍摄装置在t1时刻到t2时刻之间拍摄的,也有可能是在t2时刻到t3时刻之间拍摄的,还有可能是在t1时刻到t3时刻之间拍摄的。也就是说,多帧第二目标图像至少包括多帧第一目标图像。
相应的,所述根据所述指示信息控制拍摄装置的拍摄姿态,包括如下步骤:
步骤S1101、基于所述参考图像的目标区域中的特征点利用跟踪算法获取每一帧第二目标图像的特征点。
具体的,利用跟踪算法计算该目标区域中的每个特征点在相邻目标图像例如第二目标图像之间的偏移量,如果该特征点在前一帧目标图像相对于后一帧目标图像的偏移量和该特征点在后一帧目标图像相对于前一帧目标图像的偏移量大小相等、方向相反,即可确定该特征点是跟踪正确的特征点。
如图12所示,A、B、C、D、E、F、G分别表示参考图像30的目标区域即区域34中的特征点,特征点A、B、C、D、E、F、G也是目标对象31的特征点。121表示无人机在获取到所述指示信息之后,拍摄装置输出的多帧第二目标图像中的一个第二目标图像,此处只是示意性说明。根据KLT特征跟踪算法可确定出参考图像30中目标对象31的特征点例如A、B、C、D、E、F、G分别在第二目标图像121中的位置。
步骤S1102、根据每一帧第二目标图像的特征点确定目标对象在对应第二目标图像的位置信息。
根据特征点例如A、B、C、D、E、F、G分别在第二目标图像121中的位置,可确定出目标对象31在第二目标图像121中的位置信息,例如目标对象31的中心点N1在第二目标图像121中的位置信息。
步骤S1103、根据所述目标对象在对应第二目标图像的位置信息控制拍摄装置的拍摄姿态。
根据目标对象31的中心点N1在第二目标图像121中的位置信息以及第二目标图像121的中心点N的位置信息,可确定出目标对象31的中心点N1相对于第二目标图像121的中心点N在水平方向上的距离Δμ,以及目标对象31的中心点N1相对于第二目标图像121的中心点N在垂直方向上的距离Δυ,进一步,根据Δμ和拍摄装置在水平方向上的FOV,可确定出目标对象31相对于拍摄装置的光轴在水平方向上偏移的角度,根据Δυ和拍摄装置在垂直方向上的FOV,可确定出目标对象31相对于拍摄装置的光轴在垂直方向上偏移的角度。根据目标对象31相对于拍摄装置的光轴在水平方向和垂直方向上偏移的角度,通过调整无人机和/云台的姿态来调整该拍摄装置的拍摄姿态,以使拍摄装置的光轴对准目标对象31,目标对象31位于第二目标图像121的画面中心。
在其他实施例中,可以不限于将目标对象31调整在第一目标图像或第二目标图像的画面中心,还可以将目标对象31调整在第一目标图像或第二目标图像中的预设区域,也就是说,通过调整无人机和/云台的姿态,使得目标对象31相对于拍摄装置的光轴在水平方向和垂直方向上偏移的角度均为非0的预设角度。
本实施例通过控制拍摄装置的拍摄姿态以使目标对象处于所述拍摄装置的拍摄画面中心,可避免无人机在对参考对象进行环绕飞行时该目标对象移动到该拍摄装置的拍摄画面外而导致无法正常确定目标对象的三维坐标;另外,也可以防止目标对象在移动过程中从拍摄装置的拍摄画面中消失。
本发明实施例提供一种移动机器人的控制装置。图13为本发明实施例提供的移动机器人的控制装置的结构图,所述移动机器人包括拍摄装置。如图13所示,移动机器人的控制装置130包括:存储器131和处理器132;其中,存储器131用于存储程序代码;处理器132调用所述程序代码,当程序代码被执行时,用于执行以下操作:获取目标对象的指示信息,其中,所述指示信息包括目标对象在拍摄装置输出的参考图像中的位置信息;根据所述指示信息确定所述目标对象的位置信息;根据所述目标对象的位置信息控制所述移动机器人环绕所述目标对象移动。
可选的,控制装置130还包括:通讯接口133,通讯接口133与处理器132连接;处理器132获取目标对象的指示信息时,具体用于:通过所述通讯接口接收控制终端发送的指示信息,其中,所述指示信息是所述控制终端检测用户在显示所述参考图像的交互界面上的目标对象选择操作确定的。
可选的,处理器132根据所述指示信息确定所述目标对象的位置信息时,具体用于:控制所述移动机器人对参考对象进行环绕移动;在所述移动机器人环绕参考对象移动的过程中,获取所述拍摄装置输出的多帧第一目标图像,其中,所述第一目标图像中包括所述目标对象;根据所述目标对象的指示信息和所述多帧第一目标图像确定所述目标对象的位置信息。
可选的,处理器132根据所述目标对象的指示信息和所述多帧第一目标图像确定所述目标对象的位置信息时,具体用于:获取所述参考图像的目标区域中的特征点,其中,所述目标区域为所述参考图像中所述指示信息指示的图像区域;基于所述参考图像的目标区域中的特征点利用跟踪算法获取每一帧第一目标图像的特征点;根据每一帧第一目标图像的特征点在对应的第一目标图像中的位置信息确定目标对象的位置信息。
可选的,处理器132根据每一帧第一目标图像的特征点在对应的第一目标图像中的位置信息确定目标对象的位置信息时,具体用于:基于每一帧第一目标图像的特征点在对应的第一目标图像中的位置信息利用拟合算法确定所述目标对象的位置信息。
可选的,处理器132还用于:在获取每一帧第一目标图像的特征点之后,从每一帧第一目标图像的特征点中确定满足预设要求的目标特征点;处理器132根据每一帧第一目标图像的特征点在对应的第一目标图像中的位置信息确定目标对象的位置信息时,具体用于:根据每一帧第一目标图像的目标特征点在对应的第一目标图像中的位置信息确定所述目标对象的位置信息。
可选的,处理器132还用于:根据每一帧第一目标图像的特征点在对应的第一目标图像中的位置信息确定所述移动机器人在环绕参考对象移动过程中所述拍摄装置相对于目标对象的视差;处理器132根据所述目标对象的位置信息控制所述移动机器人环绕所述目标对象移动时,具体用于:当所述视差大于第一预设视差阈值时,根据所述确定出的所述目标对象的位置信息确定所述移动机器人对所述目标对象进行环绕移动的环绕轨迹,并控制所述移动机器人在所述环绕轨迹上移动。
可选的,处理器132还用于:确定所述视差的变化速度;根据所述视差的变化速度调节所述移动机器人环绕参考对象移动的速度。
可选的,处理器132确定所述视差的变化速度时,具体用于:根据多帧第一目标图像中相邻的两帧第一目标图像的特征点在对应的第一目标图像中的位置信息确定所述视差的变化速度。
可选的,处理器132还用于:当所述视差大于第二预设视差阈值时,根据所述确定出的所述目标对象的位置信息调整所述移动机器人对参考对象进行环绕移动的半径,其中,所述第一预设视差阈值大于所述第二预设视差阈值。
可选的,处理器132控制所述移动机器人对参考对象进行环绕移动时,具体用于:根据预设的环绕半径确定参考对象,控制所述移动机器人对参考对象进行环绕移动。
可选的,处理器132控制所述移动机器人对参考对象进行环绕移动时,具体用于:在接收到所述控制终端发送的启动控制指令后,控制所述移动机器人对参考对象进行环绕移动。
可选的,处理器132还用于:在获取到所述指示信息之后,根据所述指示信息控制拍摄装置的拍摄姿态以使所述目标对象处于所述拍摄装置的拍摄画面中心。
可选的,处理器132还用于:在获取到所述指示信息之后,获取所述拍摄装置输出的多帧第二目标图像,其中,所述第二目标图像中包括目标对象;处理器132根据所述指示信息控制拍摄装置的拍摄姿态时,具体用于:基于所述参考图像的目标区域中的特征点利用跟踪算法获取每一帧第二目标图像的特征点;根据每一帧第二目标图像的特征点确定目标对象在对应第二目标图像的位置信息;根据所述目标对象在对应第二目标图像的位置信息控制拍摄装置的拍摄姿态。
可选的,所述多帧第二目标图像包括所述多帧第一目标图像。
本发明实施例提供的移动机器人的控制装置的具体原理和实现方式均与上述实施例类似,此处不再赘述。
本实施例通过获取拍摄装置拍摄的目标对象在该拍摄装置输出的参考图像中的位置信息,确定该目标对象的位置信息,并根据该目标对象的位置信息控制移动机器人环绕该目标对象移动,使得移动机器人不需要移动到环绕中心去记录环绕中心的位置,即可实现该移动机器人环绕该目标对象移动,简化了移动机器人实现对目标对象环绕移动的过程,同时提高了移动机器人的操作安全性。
本发明实施例提供一种移动机器人,该移动机器人具体可以是无人机。图14为本发明实施例提供的无人机的结构图,如图14所示,无人机140包括:机身、动力系统、拍摄装置144和控制装置148,所述动力系统包括如下至少一种:电机141、螺旋桨142和电子调速器143,动力系统安装在所述机身,用于提供动力;控制装置148的具体原理和实现方式均与上述实施例类似,此处不再赘述。
另外,如图14所示,无人机140还包括:传感系统145、通信系统146、支撑设备147,其中,支撑设备147具体可以是云台,拍摄装置144通过支撑设备147搭载在无人机140上。
在一些实施例中,控制装置148具体可以是无人机140的飞行控制器。
本实施例通过获取拍摄装置拍摄的目标对象在该拍摄装置输出的参考图像中的位置信息,确定该目标对象的位置信息,并根据该目标对象的位置信息控制移动机器人环绕该目标对象移动,使得移动机器人不需要移动到环绕中心去记录环绕中心的位置,即可实现该移动机器人环绕该目标对象移动,简化了移动机器人实现对目标对象环绕移动的过程,同时提高了移动机器人的操作安全性。
本发明实施例还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行以实现如上所述的移动机器人的控制方法。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。上述描述的装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (10)

1.一种无人机的控制方法,其中,所述无人机包括拍摄装置,其特征在于,包括:
接收控制终端发送的指示信息,其中,所述指示信息包括目标对象在拍摄装置输出的参考图像中的位置信息,所述指示信息是所述控制终端检测用户在显示所述参考图像的交互界面上的目标对象选择操作确定的;
根据所述指示信息确定所述目标对象的三维位置信息;
根据所述目标对象的三维位置信息确定所述无人机对所述目标对象进行环绕飞行的环绕轨迹,并控制所述无人机在所述环绕轨迹上飞行;
所述根据所述指示信息确定所述目标对象的三维位置信息,包括:
控制所述无人机对参考对象进行环绕飞行;
在所述无人机环绕参考对象飞行的过程中,获取所述拍摄装置输出的多帧第一目标图像,其中,所述第一目标图像中包括所述目标对象;
根据所述目标对象的指示信息和所述多帧第一目标图像确定所述目标对象的三维位置信息;
其中,所述无人机从对参考对象进行环绕飞行的环绕轨迹上平滑过渡到对所述目标对象进行环绕飞行的环绕轨迹上。
2.根据权利要求1所述的方法,其特征在于,所述根据所述目标对象的指示信息和所述多帧第一目标图像确定所述目标对象的三维位置信息,包括:
获取所述参考图像的目标区域中的特征点,其中,所述目标区域为所述参考图像中所述指示信息指示的图像区域;
基于所述参考图像的目标区域中的特征点利用跟踪算法获取每一帧第一目标图像的特征点;
根据每一帧第一目标图像的特征点在对应的第一目标图像中的位置信息确定目标对象的三维位置信息。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
根据每一帧第一目标图像的特征点在对应的第一目标图像中的位置信息确定所述无人机在环绕参考对象飞行过程中所述拍摄装置相对于目标对象的视差;
所述根据所述目标对象的三维位置信息确定所述无人机对所述目标对象进行环绕飞行的环绕轨迹,包括:
当所述视差大于第一预设视差阈值时,根据所述目标对象的三维位置信息确定所述无人机对所述目标对象进行环绕飞行的环绕轨迹。
4.根据权利要求3所述的方法,其特征在于,所述方法还包括:
确定所述视差的变化速度;
根据所述视差的变化速度调节所述无人机环绕参考对象飞行的速度。
5.根据权利要求3或4所述的方法,其特征在于,所述方法还包括:
当所述视差大于第二预设视差阈值时,根据所述确定出的所述目标对象的三维位置信息调整所述无人机对参考对象进行环绕飞行的半径,其中,所述第一预设视差阈值大于所述第二预设视差阈值。
6.根据权利要求1所述的方法,其特征在于,所述目标对象的三维位置信息是基于世界坐标系中的位置信息;或者,所述目标对象的三维位置信息是基于全局坐标系中的位置信息;或者,所述目标对象的三维位置信息是基于无人机的机体坐标系中的位置信息。
7.一种移动机器人的控制方法,应用于移动机器人,其中,所述移动机器人包括拍摄装置,其特征在于,包括:
接收控制终端发送的指示信息,其中,所述指示信息包括目标对象在拍摄装置输出的参考图像中的位置信息,所述指示信息是所述控制终端检测用户在显示所述参考图像的交互界面上的目标对象选择操作确定的;
根据所述指示信息确定所述目标对象的三维位置信息;
根据所述目标对象的三维位置信息控制所述移动机器人环绕所述目标对象移动;
所述根据所述指示信息确定所述目标对象的三维位置信息,包括:
控制所述移动机器人对参考对象进行环绕移动;
在所述移动机器人环绕参考对象移动的过程中,获取所述拍摄装置输出的多帧第一目标图像,其中,所述第一目标图像中包括所述目标对象;
获取所述参考图像的目标区域中的特征点,其中,所述目标区域为所述参考图像中所述指示信息指示的图像区域;
基于所述参考图像的目标区域中的特征点利用跟踪算法获取每一帧第一目标图像的特征点;
根据每一帧第一目标图像的特征点在对应的第一目标图像中的位置信息确定目标对象的三维位置信息。
所述方法还包括:根据每一帧第一目标图像的特征点在对应的第一目标图像中的位置信息确定所述移动机器人在环绕参考对象移动过程中所述拍摄装置相对于目标对象的视差;
所述根据所述目标对象的位置信息控制所述移动机器人环绕所述目标对象移动,包括:
当所述视差大于第一预设视差阈值时,根据所述确定出的所述目标对象的三维位置信息确定所述移动机器人对所述目标对象进行环绕移动的环绕轨迹,并控制所述移动机器人在所述环绕轨迹上移动。
8.根据权利要求7所述的方法,其特征在于,所述移动机器人为无人机,所述无人机从对参考对象进行环绕飞行的环绕轨迹上平滑过渡到对所述目标对象进行环绕飞行的环绕轨迹上。
9.一种无人机的控制装置,所述无人机包括拍摄装置,其特征在于,所述控制装置包括:存储器、处理器;
所述存储器用于存储程序代码;
所述处理器,调用所述程序代码,当程序代码被执行时,用于执行以下操作:
接收控制终端发送的指示信息,其中,所述指示信息包括目标对象在拍摄装置输出的参考图像中的位置信息,所述指示信息是所述控制终端检测用户在显示所述参考图像的交互界面上的目标对象选择操作确定的;
根据所述指示信息确定所述目标对象的三维位置信息;
根据所述目标对象的三维位置信息确定所述无人机对所述目标对象进行环绕飞行的环绕轨迹,并控制所述无人机在所述环绕轨迹上飞行;
所述处理器根据所述指示信息确定所述目标对象的三维位置信息时,具体用于:
控制所述无人机对参考对象进行环绕飞行;
在所述无人机环绕参考对象飞行的过程中,获取所述拍摄装置输出的多帧第一目标图像,其中,所述第一目标图像中包括所述目标对象;
根据所述目标对象的指示信息和所述多帧第一目标图像确定所述目标对象的三维位置信息;
其中,所述无人机从对参考对象进行环绕飞行的环绕轨迹上平滑过渡到对所述目标对象进行环绕飞行的环绕轨迹上。
10.一种移动机器人的控制装置,所述移动机器人包括拍摄装置,其特征在于,所述控制装置包括:存储器、处理器;
所述存储器用于存储程序代码;
所述处理器,调用所述程序代码,当程序代码被执行时,用于执行以下操作:
接收控制终端发送的指示信息,其中,所述指示信息包括目标对象在拍摄装置输出的参考图像中的位置信息,所述指示信息是所述控制终端检测用户在显示所述参考图像的交互界面上的目标对象选择操作确定的;
根据所述指示信息确定所述目标对象的三维位置信息;
根据所述目标对象的三维位置信息控制所述移动机器人环绕所述目标对象移动;
所述处理器根据所述指示信息确定所述目标对象的三维位置信息时,具体用于:
控制所述移动机器人对参考对象进行环绕移动;
在所述移动机器人环绕参考对象移动的过程中,获取所述拍摄装置输出的多帧第一目标图像,其中,所述第一目标图像中包括所述目标对象;
获取所述参考图像的目标区域中的特征点,其中,所述目标区域为所述参考图像中所述指示信息指示的图像区域;
基于所述参考图像的目标区域中的特征点利用跟踪算法获取每一帧第一目标图像的特征点;
根据每一帧第一目标图像的特征点在对应的第一目标图像中的位置信息确定目标对象的三维位置信息。
所述处理器还用于:根据每一帧第一目标图像的特征点在对应的第一目标图像中的位置信息确定所述移动机器人在环绕参考对象移动过程中所述拍摄装置相对于目标对象的视差;
所述处理器根据所述目标对象的位置信息控制所述移动机器人环绕所述目标对象移动时,具体用于:
当所述视差大于第一预设视差阈值时,根据所述确定出的所述目标对象的三维位置信息确定所述移动机器人对所述目标对象进行环绕移动的环绕轨迹,并控制所述移动机器人在所述环绕轨迹上移动。
CN202310158597.1A 2018-07-20 2018-07-20 移动机器人的控制方法、装置、设备及存储介质 Pending CN116126024A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310158597.1A CN116126024A (zh) 2018-07-20 2018-07-20 移动机器人的控制方法、装置、设备及存储介质

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202310158597.1A CN116126024A (zh) 2018-07-20 2018-07-20 移动机器人的控制方法、装置、设备及存储介质
PCT/CN2018/096534 WO2020014987A1 (zh) 2018-07-20 2018-07-20 移动机器人的控制方法、装置、设备及存储介质
CN201880042301.7A CN110892714A (zh) 2018-07-20 2018-07-20 移动机器人的控制方法、装置、设备及存储介质

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201880042301.7A Division CN110892714A (zh) 2018-07-20 2018-07-20 移动机器人的控制方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN116126024A true CN116126024A (zh) 2023-05-16

Family

ID=69164932

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201880042301.7A Pending CN110892714A (zh) 2018-07-20 2018-07-20 移动机器人的控制方法、装置、设备及存储介质
CN202310158597.1A Pending CN116126024A (zh) 2018-07-20 2018-07-20 移动机器人的控制方法、装置、设备及存储介质

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201880042301.7A Pending CN110892714A (zh) 2018-07-20 2018-07-20 移动机器人的控制方法、装置、设备及存储介质

Country Status (3)

Country Link
US (1) US11789464B2 (zh)
CN (2) CN110892714A (zh)
WO (1) WO2020014987A1 (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018086133A1 (en) * 2016-11-14 2018-05-17 SZ DJI Technology Co., Ltd. Methods and systems for selective sensor fusion
CN111432195A (zh) * 2020-03-30 2020-07-17 维沃移动通信(杭州)有限公司 一种图像拍摄方法及电子设备
WO2021195944A1 (zh) * 2020-03-31 2021-10-07 深圳市大疆创新科技有限公司 可移动平台的控制方法、装置、可移动平台及存储介质
CN113853559A (zh) * 2020-04-28 2021-12-28 深圳市大疆创新科技有限公司 可移动平台的控制方法、装置、设备及存储介质
US11808578B2 (en) * 2020-05-29 2023-11-07 Aurora Flight Sciences Corporation Global positioning denied navigation
CN112415990B (zh) * 2020-11-20 2024-07-05 广州极飞科技股份有限公司 作业设备的控制方法及装置、作业设备
CN114029952A (zh) * 2021-11-12 2022-02-11 珠海格力电器股份有限公司 机器人操作控制方法、装置和系统
WO2023201574A1 (zh) * 2022-04-20 2023-10-26 深圳市大疆创新科技有限公司 无人机的控制方法、图像显示方法、无人机及控制终端
CN115519542B (zh) * 2022-09-23 2024-07-12 五邑大学 基于哈里斯鹰化算法的多机协作焊接轨迹规划方法及装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006082774A (ja) * 2004-09-17 2006-03-30 Hiroboo Kk 無人飛行体及び無人飛行体制御方法
RU2460187C2 (ru) * 2008-02-01 2012-08-27 Рокстек Аб Переходная рама с встроенным прижимным устройством
CN102937443A (zh) * 2012-01-13 2013-02-20 唐粮 一种基于无人机的目标快速定位系统及方法
US20170244937A1 (en) * 2014-06-03 2017-08-24 Gopro, Inc. Apparatus and methods for aerial video acquisition
CN105578034A (zh) * 2015-12-10 2016-05-11 深圳市道通智能航空技术有限公司 一种对目标进行跟踪拍摄的控制方法、控制装置及系统
KR102663615B1 (ko) * 2016-12-09 2024-05-08 삼성전자 주식회사 무인 비행 장치 및 전자 장치를 이용한 무인 비행 장치의 지오 펜스 영역의 재설정 방법
CN106909172A (zh) * 2017-03-06 2017-06-30 重庆零度智控智能科技有限公司 环绕跟踪方法、装置和无人机
CN107168362A (zh) * 2017-05-26 2017-09-15 昊翔电能运动科技(昆山)有限公司 一种监控方法、系统及飞行机器人
CN107885096B (zh) * 2017-10-16 2021-07-27 中国电力科学研究院 一种无人机巡检航迹三维仿真监控系统
CN107703970B (zh) * 2017-11-03 2018-08-21 中国人民解放军陆军工程大学 无人机集群环绕追踪方法

Also Published As

Publication number Publication date
WO2020014987A1 (zh) 2020-01-23
US11789464B2 (en) 2023-10-17
CN110892714A (zh) 2020-03-17
US20210103293A1 (en) 2021-04-08

Similar Documents

Publication Publication Date Title
CN116126024A (zh) 移动机器人的控制方法、装置、设备及存储介质
CN112567201B (zh) 距离测量方法以及设备
CN105959625B (zh) 控制无人机追踪拍摄的方法及装置
US20200346750A1 (en) Method for generating flight path, control device, and unmanned aerial vehicle
JP6943988B2 (ja) 移動可能物体の制御方法、機器およびシステム
CN111344644B (zh) 用于基于运动的自动图像捕获的技术
KR102680675B1 (ko) 비행 제어 방법 및 이를 지원하는 전자 장치
US20190356936A9 (en) System for georeferenced, geo-oriented realtime video streams
CN110799921A (zh) 拍摄方法、装置和无人机
CN113038023A (zh) 拍摄控制方法及装置
CN110785993A (zh) 拍摄设备的控制方法、装置、设备及存储介质
CN109196551B (zh) 图像处理方法、设备及无人机
WO2018205104A1 (zh) 无人机拍摄控制方法、无人机拍摄方法、控制终端、无人机控制装置和无人机
KR102122755B1 (ko) 화면 터치 방식을 이용하는 짐벌 제어 방법
CN110139038B (zh) 一种自主环绕拍摄方法、装置以及无人机
CN106289180A (zh) 运动轨迹的计算方法及装置、终端
CN112672133A (zh) 基于无人机的立体成像方法和装置、计算机可读存储介质
WO2019183789A1 (zh) 无人机的控制方法、装置和无人机
CN110730934A (zh) 轨迹切换的方法和装置
CN111699453A (zh) 可移动平台的控制方法、装置、设备及存储介质
CN110741625B (zh) 运动估计方法及摄影器材
CN110800023A (zh) 图像处理方法和设备、摄像装置以及无人机
CN113853559A (zh) 可移动平台的控制方法、装置、设备及存储介质
EP3430591A1 (en) System for georeferenced, geo-oriented real time video streams
KR20180106178A (ko) 무인 비행체, 전자 장치 및 그에 대한 제어 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination