CN108496141B - 控制可移动设备跟随的方法、控制设备和跟随系统 - Google Patents
控制可移动设备跟随的方法、控制设备和跟随系统 Download PDFInfo
- Publication number
- CN108496141B CN108496141B CN201780004419.6A CN201780004419A CN108496141B CN 108496141 B CN108496141 B CN 108496141B CN 201780004419 A CN201780004419 A CN 201780004419A CN 108496141 B CN108496141 B CN 108496141B
- Authority
- CN
- China
- Prior art keywords
- target
- following
- control device
- action
- swinging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 230000009471 action Effects 0.000 claims abstract description 147
- 230000033001 locomotion Effects 0.000 claims description 70
- 241001465754 Metazoa Species 0.000 claims description 30
- 230000001133 acceleration Effects 0.000 claims description 14
- 238000013459 approach Methods 0.000 claims description 12
- 238000006073 displacement reaction Methods 0.000 claims description 11
- 238000004088 simulation Methods 0.000 claims description 11
- 230000008859 change Effects 0.000 claims description 5
- 230000002159 abnormal effect Effects 0.000 claims description 4
- 230000001276 controlling effect Effects 0.000 description 31
- 238000004590 computer program Methods 0.000 description 16
- 230000000875 corresponding effect Effects 0.000 description 16
- 230000006870 function Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000005856 abnormality Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000011084 recovery Methods 0.000 description 3
- 238000000926 separation method Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000029305 taxis Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0016—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- Mathematical Physics (AREA)
- Automation & Control Theory (AREA)
- Computing Systems (AREA)
- Human Computer Interaction (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Toys (AREA)
Abstract
一种控制可移动设备(230)跟随的方法、相应的控制设备(220)、控制系统以及计算机可读存储介质。控制可移动设备(230)跟随的方法包括:识别目标(210)的动作(S101);判断所述目标(210)的动作是否为第一预设动作(S102);以及当目标(210)的动作为第一预设动作时,向可移动设备(230)发出跟随命令(S103)。
Description
版权申明
本专利文件披露的内容包含受版权保护的材料。该版权为版权所有人所有。版权所有人不反对任何人复制专利与商标局的官方记录和档案中所存在的该专利文件或者专利披露。
技术领域
本公开涉及远程控制领域,更具体地涉及控制可移动设备跟随的方法、控制设备和跟随系统。
背景技术
无人驾驶飞行器(UAV),一般也被称作“无人驾驶飞行系统(UAS)”、“无人机”或若干其他名称,是一种其上没有人类飞行员的飞行器。无人机跟随目标时,可以实现跟踪拍摄或者跟踪目标移动位置等功能,跟随(Tracking)一般通过遥控器或者在智能终端上通过安装相应软件方式来控制:例如,通过遥控器手动控制无人机跟随、通过手机上安装的应用软件(App)然后在手机界面上进行操控进行跟随。
在使用遥控器进行跟随控制时,不时需要手动操作遥控器按键来控制跟随动作。尤其是,在进行跟踪拍摄时,如果操控者是跟随目标自身,往往需要分心操作,使跟踪拍摄不自然。在使用App进行跟随控制时,操作方式也需要不停地手动操作智能终端。
在上述情况下,如何简化和优化无人机的跟随控制,使跟随效果更自然,就成为了亟待解决的问题。
发明内容
根据本公开的第一方面,提供一种控制可移动设备跟随的方法,包括:
识别目标的动作;
判断所述目标的动作是否为第一预设动作;以及
当所述目标的动作为所述第一预设动作时,向可移动设备发出跟随命令。
根据本公开的第二方面,提供一种控制设备,用于控制可移动设备进行跟随,包括:
存储器,用于存储指令;
处理器,用于执行所述指令,所述指令在由所述处理器执行时使得所述处理器:
识别目标的动作;
判断所述目标的动作是否为第一预设动作;以及
当目标的动作为第一预设动作时,向可移动设备发出跟随命令。
根据本公开的第三方面,提供一种跟随系统,包括:
控制设备,用于识别目标的动作,以及当目标的动作为第一预设动作时,向可移动设备发出跟随命令;
可移动设备,用于接收所述跟随命令,并根据跟随命令进行跟随操作。
根据本公开的第四方面,提供一种存储指令的计算机可读存储介质,所述指令在由处理器执行时使得所述处理器执行第一方面所述的方法。
附图说明
为了更完整地理解本公开实施例及其优势,现在将参考结合附图的以下描述,其中:
图1示出了根据本公开实施例的控制可移动设备跟随的方法流程图。
图2示出了根据本公开实施例的控制可移动设备跟随的方法应用场景。
图3示出了根据本公开另一实施例的控制可移动设备跟随的方法流程图。
图4示出了本公开的控制设备启动阶段的应用场景。
图5示出了本公开的控制设备与可移动设备之间信号能够满足可启动跟随条件时的应用场景。
图6示出了控制设备提示跟随对象作出第二预设动作的应用场景。
图7示出了本公开的可移动设备识别跟随对象并进入跟随的应用场景。
图8示出了本公开实施例的控制可移动设备跟随异常的第一场景。
图9示出了本公开实施例的控制可移动设备跟随异常的第二场景。
图10示出了本公开实施例的控制可移动设备跟随异常的第三场景。
图11示出了本公开实施例的控制可移动设备跟随异常的第四场景。
图12示出了本公开实施例的控制设备的硬件示意图。
图13示出了本公开实施例的跟随系统的硬件示意图。
此外,各附图并不一定按比例来绘制,而是仅以不影响读者理解的示意性方式示出。
具体实施方式
根据结合附图对本公开示例性实施例的以下详细描述,本公开的其它方面、优势和突出特征对于本领域技术人员将变得显而易见。
在本公开中,下述用于描述本公开原理的各种实施例只是说明,不应该以任何方式解释为限制公开的范围。参照附图的下述描述用于帮助全面理解由权利要求及其等同物限定的本公开的示例性实施例。下述描述包括多种具体细节来帮助理解,但这些细节应认为仅仅是示例性的。因此,本领域普通技术人员应认识到,在不脱离本公开的范围和精神的情况下,可以对本文中描述的实施例进行多种改变和修改。此外,为了清楚和简洁起见,省略了公知功能和结构的描述。此外,贯穿附图,相同附图标记用于相同或相似的功能和操作。此外,尽管可能在不同实施例中描述了具有不同特征的方案,但是本领域技术人员应当意识到:在不引起冲突的前提下,可以将不同实施例的全部或部分特征相结合,以形成不脱离本公开的精神和范围的新的实施例。
在本公开中,术语“包括”和“含有”及其派生词意为包括而非限制。
本公开所描述的技术可以应用在可移动设备上,如空中的可移动设备(例如,固定翼飞行器,例如飞机、滑行机,旋翼飞行器,如直升飞机,或者其它的飞行器,如软式飞艇、气球),水中的可移动设备(例如,潜艇,小船,轮船),陆地上的可移动设备(例如,机动车,如轿车、摩托车、公共汽车、卡车、运货车;或杆子,例如鱼竿或其它类型的可移动的支持物或者框架;以及火车、地铁等),太空中的可移动设备(如,卫星、空间站、宇宙飞船)。可移动设备可以在一个环境中(如陆地上、水中、空中、太空)自由移动,或者沿着预设的路径、轨道、或者以约定的方式移动。该可移动设备可以一维、二维或者三维的移动。可移动设备可以响应信号自动移动,而不用手动移动。某些实施例中,所述可移动设备可以是运输工具,如空中的运输工具、陆地上的运输工具、水中的运输工具、太空中的运输工具,或者他们的结合。运输工具可以在一个或者多个指定的环境中自由移动,或者沿着轨道或者固定的路径移动。运输工具可包括动力系统。所述动力系统利用电动机、引擎、电子元件、磁性机构、重力、风力、燃烧、和/或者其它的动力机构。在某些实施例中,手动动力系统、人力动力系统、或者借助于其它生物体的动力系统也可以应用在可移动设备上,例如,运输工具。在某些实施例中,所述可移动设备可以是旋翼飞行器,该旋翼飞行器可以通过一个或者多个叶片的旋转驱动或者控制。所述可移动设备可借助一个或者多个旋转叶片、螺旋桨、轮子、磁铁、轨道、或者其它机构,被驱动或者重新定位。在某些实施例中,所述可移动设备是无人运输工具,如无人飞行器(Unmanned Aerial Vehicle,UAV),也可称为无人机。无人飞行器能够悬停、调整方向、和/或者跟随。
可移动设备可以被远程控制而不需要有人在可移动设备内或者可移动设备之上。可移动设备可通过终端被远程操纵。可替换地,也可以有人在可移动设备内或者可移动设备之上,以协助控制该可移动设备。该可移动设备可用于承载载荷。在某些实施例中,由所述可移动设备承载的载荷可包括负载和/或载体,该载体能够使得负载相对可移动设备移动。
本公开中的目标是指能够被识别做出动作的可动物,目标可以是具有肢体和头部的动物、移动机器人、动物仿真机器人(包括但不限于机器狗)或者人,在肢体、躯干或者头部的运动时,相应动作可以被识别;目标还可以是能做出动作形成运动轨迹的移动物,形成相应运动轨迹的动作也可被识别。
本公开中的跟随对象是可移动设备进行跟随时的被跟随物体、动物或者人,在跟随状态下,可移动设备对准跟随对象,与跟随对象保持同步或者近似同步运动。跟随对象可以是与上述目标相同的人、物体或者动物,也可以不同。
本公开所使用的序数例如“第一”、“第二”等用词,以用以修饰不同类型的预设动作、设定方式、场景或震动频率等,其本身并不包含及代表相应预设动作、设定方式、场景或震动频率等有任何之前的序数,也不代表某一预设动作、设定方式、场景或震动频率与另一预设动作、设定方式、场景或震动频率等前后的顺序或是操作上的顺序,这些序数的使用仅用来使具有某命名的一预设动作、设定方式、场景或震动频率等得以和另一具有相同命名的预设动作、设定方式、场景或震动频率等能作出清楚区分。
请注意:尽管以下实施例以无人机作为可移动设备、手表作为控制设备、用户作为目标来进行详细描述,然而本公开不限于此。事实上,可移动设备可以是以上所述的任意形式。此外,控制设备也可以是各种可穿戴设备,包括但不限于手环、眼镜、头盔、智能鞋、智能服装、书包、拐杖或者配饰等可以识别目标的动作的设备。而且,目标也可以是上述的其他类型。
在正式描述本公开的一些实施例之前,首先将描述在本文中将要使用的部分术语。
第一人称主视角(First Person View,简称FPV):它是一种基于无人机加装影像摄录装置(例如无线摄像头回传设备),即在遥控端看到无人机的视角。所能达到的效果是可以身临其境的以无人机的视角观察跟随对象或跟随对象周边的环境,并且能够更准确的进行控制。
跟随(Tracking):是指在拍摄过程中移动影像摄录装置对准跟随对象,使得跟随对象移动时仍然在摄录装置的镜头视野下。
全球定位系统(Global Positioning System,简称GPS):利用GPS定位卫星,在全球范围内实时进行定位、导航的系统,称为全球卫星定位系统,简称GPS。GPS能为全球用户提供低成本、高精度的三维位置、速度和精确定时等导航信息,是卫星通信技术在导航领域的应用典范,它极大地提高了地球社会的信息化水平,有力地推动了数字经济的发展,例如能提供控制设备的位置信息。
如前所述,需要简单易采用的无人机控制跟随方式。在常见的无人机跟随操控方式中,通常通过手持遥控器或者手持智能终端(如手机)来进行操纵。例如,可以通过操控遥控器上按键或者通过触控手机界面实现操控,但是同时手部和眼睛都关注在控制端,存在不能快捷启动跟随等问题。
举例来说,用户在使用遥控器操控无人机跟随自己拍摄时,视线需要对准遥控器,使在启动跟随以及跟随过程中,拍摄效果不佳,面部表情等不自然;还可举例来说,用户通过安装App,使用手机进行操控时,也许视线对准显示屏,手指还需进行相应的触控,操作方式不够简便。可以看出,现有技术的这些方案中,存在以下问题:跟随启动时需要视线对准控制设备,且需通过手指触控等方式触控控制设备的按键或者屏幕,操控方式复杂且不便。
为了至少部分解决或减轻上述问题,提出了根据本公开实施例的跟随系统。此系统能够识别目标的动作,当为特定的动作时启动无人机跟随,减少操作提高跟随效果。通过此系统的简单跟随方式,可以可穿戴设备等控制设备识别目标的动作并向可移动设备发送跟随命令,实现相应控制。
接下来,将结合图1~2来详细描述根据本公开实施例的通过控制设备(例如手表)控制可移动设备(例如,无人机)进行跟随的过程。
图1示出了根据本公开实施例的控制可移动设备跟随的方法流程图。图2示出了根据本公开实施例的控制可移动设备跟随的方法应用场景。如图1所示,通过控制设备控制控制可移动设备跟随的方法包括:
S101:识别目标的动作;
S102:判断所述目标的动作是否为第一预设动作;
S103:如果目标的动作为第一预设动作,向可移动设备发出跟随命令。
步骤S101中目标的动作,如图2所示,示例性的选取人作为目标210,但本公开不限于此。目标210也可以具有其他形式,可以是具有肢体和头部的动物、移动机器人、动物仿真机器人(包括但不限于机器狗)或者人,在肢体、躯干或者头部的运动时,相应动作可以被识别;目标还可以是能做出动作形成运动轨迹的移动物(包括但不限于汽车、火车或者轮船),形成相应运动轨迹的动作也可被识别。图2中,目标210的手臂可作出动作(参见图2中箭头所示方向,手臂可以来回摆动),佩戴于手臂上的控制设备220可以对所作出的动作进行识别。
其中,识别目标210的方式可以为:与目标210的特定部位运动同步,感测目标的特定部位的加速度、角速度和/或位移变化量;以及与目标210整体运动同步,感测目标整体的加速度、角速度和/或位移变化量。该识别可通过目标穿戴本公开的控制设备220实现,且控制设备中包含相应的检测上述加速度、角速度和/或位移变化量的配套功能单元。
在本公开实施例中,对于步骤S103中的第一预设动作可包括第一预设动作包括以下至少一项:目标为动物、移动机器人、动物仿真机器人或人时,按照第一设定方式摆动肢体、躯干或头部;以及目标为移动物时,按照第二设定方式作出运动轨迹,但本公开并不限于此。应当理解的,第一预设动作可以是摆动肢体、躯干、头部或任意组合,或者通过特定的标识物,如带有特定图案的标识牌、特定形状的标识物体等,但是优选的采用能够有区分度且简单易行的动作,以提高操控效率。
一些实施例中,按照第一设定方式摆动肢体、躯干或头部包括以下至少一项:
按设定频率摆动肢体、躯干或头部(例如按照每秒3个来回的频率摆动手臂);按设定角速度摆动肢体、躯干或头部(例如按每秒1圈的速度旋转手臂);按设定图形摆动肢体、躯干或头部(比如手臂按顺时针摆动出半圆形);以及按设定角度范围摆动肢体、躯干或头部(比如手臂摆动角度为160-180°)。
一些实施例中,按照第二设定方式作出运动轨迹及包括以下至少一项:按设定频率摆动自身(例如汽车按照每10钟摆动2-3次);按设定角速度摆动自身(例如汽车按每10秒1圈的速度转动);按设定图形移动(例如汽车走出8字形);以及按设定角度范围移动(例如汽车摆动角度为手臂摆动角度为160-180°)。
在一些实施例中,还可以是目标210的其它部分作出动作,包括但不限定为脚、腰部、头部或者是目标整体,或者是上述任意种类动作的组合。相应的,在一些实施例中,为提高识别的精度和准确度,作出动作的部位携带有控制设备220。
在一些实施例中,控制设备220还可以是除手表外的其它可穿戴设备,例如手环、眼镜、头盔、智能鞋、智能服装、书包、拐杖或者配饰,本公开不限于此。
步骤S103中,对于一些实施例,向可移动设备230发出跟随命令包括:发送参考坐标、发送命令使可移动设备按照设定移动参数靠近参考坐标以及使可移动设备中的图像捕捉装置对准参考坐标周围。请注意:在本文中,由于参考坐标即为控制设备的坐标,因此除非另有声明,否则以下将不区分参考坐标和控制设备的坐标。换言之,除非另有声明,否则下文中“参考坐标”和“第一设备的坐标”可以互换使用。发出跟随命令为根据目标的动作判断结果自动发出。
一般来说,在一些实施例中,如果判断所述目标的动作不是第一预设动作,则继续进行步骤S101,继续识别目标的动作。
接下来,将结合图3~11来详细描述根据本公开实施例的通过控制设备(例如手表)控制可移动设备(例如,无人机)进行跟随的一些相关性过程以及出现的异常过程。
图3示出了本公开另一实施例的控制可移动设备跟随的方法流程图。其中步骤S303与步骤S101相同,步骤S304与S102相同,步骤S305与步骤S103相同,此处不予赘述。应理解的是,图3中除步骤S303、S304和S305是必须的外,其它步骤可以任意选取以组合形成根据本公开的实施例的多个技术方案。
在一些实施例中,在步骤S303之前,控制可移动设备跟随的方法还可包括步骤S301:启动控制设备(例如手表),与可移动设备对频连接。进一步的,具体的实施例中,如图3所示,步骤S301中还可包括向目标展示可移动设备的第一人称视角信息:高度、距离、可移动设备230的电量、拍摄模式、GPS和/或控制设备和可移动设备之间的信号强度,上述信息仅是示例性说明,本公开并不以此为限。
图4示出了本公开的控制设备420启动阶段的应用场景。图中左上为控制设备420界面显示内容,右下为具体场景。如图4所示,显示了基本的第一人称视角信息(包括但不限于高度、距离、可移动设备230的电量、拍摄模式、GPS和/或控制设备和可移动设备之间的信号强度的任意组合),由于还未进入跟随,所以,拍摄模式并未开启。该场景中,目标410能够获知可移动设备430的第一人称视角的相关信息。
图5示出了本公开的控制设备与可移动设备之间信号能够满足可启动跟随条件时的应用场景。图中左上为控制设备520界面显示内容,右下为具体场景。在一些实施例中,如图3所示,在步骤S303识别目标的动作之前,还可包括步骤S302:提示目标510作出第一预设动作。例如,在控制设备520界面上出现动态图,展示第一预设动作,此时可移动设备530仍然处于等待状态,并未移动靠近控制设备520。
该状态下,目标510可以按照所述动态图作出相应的第一预设动作(例如摇动手臂),以使控制设备520识别,当识别为第一预设动作后,则向可移动设备530发出跟随命令。一些实施例中,发出跟随命令包括:发送参考坐标、发送命令使可移动设备按照设定移动参数靠近参考坐标以及使可移动设备中的图像捕捉装置对准参考坐标周围。可移动设备530接收跟随命令后,以预设移动参数靠近控制设备520并将影像摄录装置对准控制设备520。
在一些实施例中,上述提示目标作出第一预设动作中的提示方式包括以下至少一种:通过控制设备520向目标510发出语音提示、或者通过控制设备520向目标510展示第一预设动作图形(例如动图或者图片)、通过震动方式提示目标510(例如以第一震动频率震动)以及向目标发出提示信号(当目标510为可移动物时,并且目标能够以无线或者有线方式接收控制设备520发送的信号)。
图6示出了控制设备提示跟随对象作出第二预设动作的应用场景。图中左上为控制设备620界面显示内容,右下为具体场景。在一些实施例中,在步骤S305向可移动设备发出跟随命令之后,还可包括步骤S306:提示跟随对象640作出第二预设动作。提示方式参照上述的第一预设动作的提示方式进行设置,在此不予赘述。应当注意的是,此处的目标610和跟随对象640可以相同,也可以不同,由于可移动设备630的影像摄录装置631对准控制设备620,控制设备620所处区域内(影像摄录装置631镜头内)(图6中虚线范围内)的移动人或物都可以成为跟随对象640,包括但不限于可移动的人、物体或者动物。图6中所示例的跟随对象640和目标610为不同的人,当然也可以是跟随对象640和目标610相同。作出第二预设动作的提示方式可以与第一预设动作的提示方式不同或相同,优选的为不同提示方式(例如在控制设备620上展示不同的动图),提示方式上存在差别,能避免不同的提示类型之间出现混淆。
一些实施例中,第二预设动作包括以下至少一项:跟随对象为动物、移动机器人、动物仿真机器人或人时,按照第三设定方式摆动肢体、躯干或头部;以及跟随对象为移动物时,按照第四设定方式作出运动轨迹。
进一步的实施例中,按照第三设定方式摆动肢体、躯干或头部包括以下至少一项:按设定频率摆动肢体、躯干或头部;按设定角速度摆动肢体、躯干或头部;按设定图形摆动肢体、躯干或头部;以及按设定角度范围摆动肢体、躯干或头部。
进一步的实施例中,按照第四设定方式作出运动轨迹及包括以下至少一项:按设定频率摆动自身;按设定角速度摆动自身;按设定图形移动;以及按设定角度范围移动。
应当注意的是,由于被不同的客体识别(第一预设动作被控制设备识别,第二预设动作被可移动设备识别),第二预设动作和第一预设动作可以相同也可以不同。
该种状态下,跟随对象640可以按照图6左上显示动态图作出相应的第二预设动作(例如挥舞双臂),以使可移动设备630识别,当识别为第二预设动作后,则识别出跟随对象640,对跟随对象640进行跟随。一些实施例中,发出跟随命令包括:发送参考坐标、发送命令使可移动设备按照设定移动参数靠近参考坐标以及使可移动设备中的图像捕捉装置对准参考坐标周围。可移动设备630接收跟随命令后,以预设移动参数靠近控制设备620并将影像摄录装置对准控制设备520。
图7示出了本公开的可移动设备识别跟随对象并进入跟随的应用场景。图中左上为控制设备界面显示内容,右下为具体场景。在一些实施例中,如图3所示,在步骤S306提示跟随对象作出第二预设动作之后,还可以包括步骤S307:提示跟随对象740或者目标,已经识别跟随对象,可移动设备730正在对跟随对象进行跟随。
该状态下,控制设备可以对跟随对象提示或者对跟目标进行提示,提示方式包括以下至少一种:通过控制设备向目标或者跟随对象740发出语音提示、或者通过控制设备向目标或者跟随对象740展示跟随状态图形(例如动图或者图片)、通过震动方式提示目标或者跟随对象740(例如以第二震动频率震动)以及向目标或者跟随对象发出提示信号(当目标或跟随对象为可移动物时,并且能够以无线或者有线方式接收控制设备发送的信号)。
以上介绍了控制设备进行跟随控制时的一些应用方式,但不仅限于此,可根据实际需求添加或者删除部分应用方式。以下将结合附图8-11介绍跟随异常的几个应用场景。
图8示出了本公开实施例的控制可移动设备跟随异常的第一场景。一些实施例中,可能由于目标810携带的控制设备820与可移动设备830之间间隔太远或者之间具有信号屏蔽物,或者控制设备820所处地理环境GPS信号差,无法向可移动设备830发出跟随命令,不能进行通信。
该种状态下,控制设备820可以向目标810提示无法启动跟随,目标810可根据实际地理状况,调整自身位置、调整控制设备的位置和/或可移动设备830的位置,重新启动跟随。
图9示出了本公开实施例的控制可移动设备跟随异常的第二场景。一些实施例中,当可移动设备930对跟随对象940进行跟随时,可能会出现跟随异常(例如可移动设备930速度快于跟随对象940,两者之间距离过近;控制设备820与可移动设备830之间间隔太远;跟随对象940不在影像摄录装置631的镜头范围内;可移动设备930与跟随对象940之间有障碍物(例如树))。
该种状态下,控制设备可以向目标或者跟随对象940提示跟随异常,目标或跟随对象940可根据上述实际情况,调整自身位置、调整控制设备的位置和/或可移动设备930的位置,重新启动跟随。
图10示出了本公开实施例的控制可移动设备跟随异常的第三场景。一些实施例中,当可移动设备1030对跟随对象1040进行跟随时,由于出现特殊异常,例如可移动设备1030能源不足、可移动设备1030和跟随对象1040距离过远,则会跟随丢失。
该种状态下,控制设备可以向目标或者跟随对象1040提示跟随异常,无法找回丢失目标,需要重新开始。
图11示出了本公开实施例的控制可移动设备跟随异常的第四场景。当出现图9所示异常时,控制设备1120可以向目标或者跟随对象1140提示是否确定找回,跟随对象1140或目标根据实际情况进行选择是或者否(例如,可移动设备1130已经出现在附近,则选择是,如无法找回丢失的可移动设备,则需要重新开始)。
以下将结合上述附图并结合附图12,介绍本公开的控制设备的具体功能和组成。
图12示出了本公开实施例的控制设备的硬件示意图。如图12所示的一种控制设备,用于控制可移动设备进行跟随,包括:存储器,用于存储指令;处理器,用于执行所述指令,所述指令在由所述处理器执行时使得所述处理器:识别目标的动作;如目标的动作为第一预设动作,向可移动设备发出跟随命令。
控制设备可包括处理器1206(例如,中央处理器(CPU)、数字信号处理器(DSP)、微控制器单元(MCU)等)。处理器1206可以是用于执行本文描述的流程的不同动作的单一处理单元或者是多个处理单元。控制设备还可以包括用于从其他实体接收信号的输入单元1202、以及用于向其他实体提供信号的输出单元1204。输入单元1202和输出单元1204可以被布置为单一实体或者是分离的实体。
此外,控制设备可以包括具有非易失性或易失性存储器形式的至少一个可读存储介质1208,例如是电可擦除可编程只读存储器(EEPROM)、闪存、和/或硬盘驱动器。可读存储介质1208包括计算机程序指令1210,该计算机程序指令1210包括代码/计算机可读指令,其在由控制设备中的处理器1206执行时使得控制设备可以执行以下方法:
识别目标的动作;
如目标的动作为第一预设动作,向可移动设备发出跟随命令。
上述目标的动作,如图2所示,示例性的选取人作为目标210,但本公开不限于此。目标210也可以具有其他形式,可以是具有肢体和头部的动物、移动机器人、动物仿真机器人(包括但不限于机器狗)或者人,在肢体、躯干或者头部的运动时,相应动作可以被识别;目标还可以是能做出动作形成运动轨迹的移动物(包括但不限于汽车、火车或者轮船),形成相应运动轨迹的动作也可被识别。图2中,目标210的手臂可作出动作(参见图2中箭头所示方向,手臂可以来回摆动),佩戴于手臂上的控制设备220可以对所作出的动作进行识别。
其中,识别目标210的方式可以为:与目标210的特定部位运动同步,感测目标的特定部位的加速度、角速度和/或位移变化量;以及与目标210整体运动同步,感测目标整体的加速度、角速度和/或位移变化量。该识别可通过目标穿戴本公开的控制设备220实现,且控制设备中包含相应的检测上述加速度、角速度和/或位移变化量的配套功能单元。
在本公开实施例中,对于第一预设动作可包括第一预设动作包括以下至少一项:目标为动物、移动机器人、动物仿真机器人或人时,按照第一设定方式摆动肢体、躯干或头部;以及目标为移动物时,按照第二设定方式作出运动轨迹,但本公开并不限于此。应当理解的,第一预设动作可以是摆动肢体、躯干或头部的三种任意组合,但是优选的采用能够有区分度且简单易行的动作,以提高操控效率。
一些实施例中,按照第一设定方式摆动肢体、躯干或头部包括以下至少一项:
按设定频率摆动肢体、躯干或头部(例如按照每秒3个来回的频率摆动手臂);按设定角速度摆动肢体、躯干或头部(例如按每秒1圈的速度旋转手臂);按设定图形摆动肢体、躯干或头部(比如手臂按顺时针摆动出半圆形);以及按设定角度范围摆动肢体、躯干或头部(比如手臂摆动角度为160-180°)。
一些实施例中,按照第二设定方式作出运动轨迹及包括以下至少一项:按设定频率摆动自身(例如汽车按照每10钟摆动2-3次);按设定角速度摆动自身(例如汽车按每10秒1圈的速度转动);按设定图形移动(例如汽车走出8字形);以及按设定角度范围移动(例如汽车摆动角度为手臂摆动角度为160-180°)。
在一些实施例中,还可以是目标210的其它部分作出动作,包括但不限定为脚、腰部、头部或者是目标整体,或者是上述任意种类动作的组合。相应的,在一些实施例中,为提高识别的精度和准确度,作出动作的部位携带有控制设备220。
在一些实施例中,控制设备220还可以是除手表外的其它可穿戴设备,例如手环、眼镜、头盔、智能鞋、智能服装、书包、拐杖或者配饰,本公开不限于此。
对于一些实施例,向可移动设备230发出跟随命令包括:发送参考坐标、发送命令使可移动设备按照设定移动参数靠近参考坐标以及使可移动设备中的图像捕捉装置对准参考坐标周围。请注意:在本文中,由于参考坐标即为控制设备的坐标,因此除非另有声明,否则以下将不区分参考坐标和控制设备的坐标。换言之,除非另有声明,否则下文中“参考坐标”和“第一设备的坐标”可以互换使用。发出跟随命令为根据目标的动作判断结果自动发出。
接下来,将结合图3~11来详细描述根据本公开实施例的控制设备所执行的与跟随相关的其它指令。
在一些实施例中,当所述处理器执行计算机程序指令1210时,还可以:启动控制设备(例如手表),与可移动设备对频连接。图4示出了本公开的控制设备420启动阶段的应用场景。图中左上为控制设备420界面显示内容,右下为具体场景。图4所示,显示了基本的第一人称视角信息(包括但不限于高度、距离、可移动设备230电量、拍摄模式、GPS和/或控制设备和可移动设备之间的信号强度的任意组合),由于还未进入跟随,所以,拍摄模式并未开启。该场景中,目标410能够获知可移动设备430的第一人称视角的相关信息。
在一些实施例中,当所述处理器执行计算机程序指令1210时,还可以:在识别目标的动作之前,还可提示目标510作出第一预设动作。图5示出了本公开的控制设备与可移动设备之间信号能够满足可启动跟随条件时的应用场景。图中左上为控制设备520界面显示内容,右下为具体场景。例如,在控制设备520界面上出现动态图,展示第一预设动作,此时可移动设备530仍然处于等待状态,并未移动靠近控制设备520。
该状态下,目标510可以按照所述动态图作出相应的第一预设动作(例如摇动手臂),以使控制设备520识别,当识别为第一预设动作后,则向可移动设备530发出跟随命令。一些实施例中,发出跟随命令包括:发送参考坐标、发送命令使可移动设备按照设定移动参数靠近参考坐标以及使可移动设备中的图像捕捉装置对准参考坐标周围。可移动设备530接收跟随命令后,以预设移动参数靠近控制设备520并将影像摄录装置对准控制设备520。
在一些实施例中,上述提示目标作出第一预设动作中的提示方式包括以下至少一种:通过控制设备520向目标510发出语音提示、或者通过控制设备520向目标510展示第一预设动作图形(例如动图或者图片)、通过震动方式提示目标510(例如以第一震动频率震动)以及向目标发出提示信号(当目标510为可移动物时,并且目标能够以无线或者有线方式接收控制设备520发送的信号)。
在一些实施例中,当所述处理器执行计算机程序指令1210时,还可以:在向可移动设备发出跟随命令之后,还提示跟随对象作出第二预设动。图6示出了控制设备提示跟随对象作出第二预设动作的应用场景。图中左上为控制设备620界面显示内容,右下为具体场景。提示方式参照上述的第一预设动作的提示方式进行设置,在此不予赘述。应当注意的是,此处的目标610和跟随对象640可以相同,也可以不同,由于可移动设备630的影像摄录装置631对准控制设备620,控制设备620所处区域内(影像摄录装置631镜头内)(图6中虚线范围内)的移动人或物都可以成为跟随对象640,包括但不限于可移动的人、物体或者动物。图6中所例示的跟随对象640和目标610为不同的人,当然也可以是跟随对象640和目标610相同。作出第二预设动作的提示方式可以与第一预设动作的提示方式不同或相同,优选的为不同提示方式(例如在控制设备620上展示不同的动图),提示方式上存在差别,能避免不同的提示类型之间出现混淆。
一些实施例中,第二预设动作包括以下至少一项:跟随对象为动物、移动机器人、动物仿真机器人或人时,按照第三设定方式摆动肢体、躯干或头部;以及跟随对象为移动物时,按照第四设定方式作出运动轨迹。
进一步的实施例中,按照第三设定方式摆动肢体、躯干或头部包括以下至少一项:按设定频率摆动肢体、躯干或头部;按设定角速度摆动肢体、躯干或头部;按设定图形摆动肢体、躯干或头部;以及按设定角度范围摆动肢体、躯干或头部。
进一步的实施例中,按照第四设定方式作出运动轨迹及包括以下至少一项:按设定频率摆动自身;按设定角速度摆动自身;按设定图形移动;以及按设定角度范围移动。
应当注意的是,由于他们是被不同的客体识别(第一预设动作被控制设备识别,第二预设动作被可移动设备识别),第二预设动作和第一预设动作可以相同也可以不同。
该种状态下,跟随对象640可以按照图6坐上显示动态图作出相应的第二预设动作(例如挥舞双臂),以使可移动设备520识别,当识别为第二预设动作后,则识别出跟随对象640,对跟随对象640进行跟随。一些实施例中,发出跟随命令包括:发送参考坐标、发送命令使可移动设备按照设定移动参数靠近参考坐标以及使可移动设备中的图像捕捉装置对准参考坐标周围。可移动设备530接收跟随命令后,以预设移动参数靠近控制设备520并将影像摄录装置对准控制设备520。
在一些实施例中,当所述处理器执行计算机程序指令1210时,还可以:在提示跟随对象作出第二预设动作之后,还可以提示跟随对象或者目标在向可移动设备发出跟随命令。图7示出了本公开的可移动设备识别跟随对象并进入跟随的应用场景。图中左上为控制设备界面显示内容,右下为具体场景。
该状态下,控制设备可以对跟随对象提示或者对跟对象进行提示740,提示方式包括以下至少一种:通过控制设备向目标或者跟随对象740发出语音提示、或者通过控制设备向目标或者跟随对象740展示跟随状态图形(例如动图或者图片)、通过震动方式提示目标或者跟随对象740(例如以第二震动频率震动)以及向目标或者跟随对象发出提示信号(当目标或跟随对象为可移动物时,并且能够以无线或者有线方式接收控制设备发送的信号)。
以上介绍了控制设备所执行的与跟随相关的计算机程序指令1210,但不仅限于此,可根据实际需求添加或者删除部分指令。以下将结合附图8-11介绍跟随异常的相关计算机程序指令1210。
在一些实施例中,计算机程序指令1210还可包括与跟随异常相关的指令。图8示出了本公开实施例的控制可移动设备跟随异常的第一场景。一些实施例中,可能由于目标810携带的控制设备820与可移动设备830之间间隔太远或者之间具有信号屏蔽物,或者控制设备820所处地理环境GPS信号差,无法向可移动设备830发出跟随命令,不能进行通信。
该种状态下,控制设备820的处理器可以执行指令一向目标810提示无法启动跟随,目标810可根据实际地理状况,调整自身位置、调整控制设备的位置和/或可移动设备830的位置,重新启动跟随。
图9示出了本公开实施例的控制可移动设备跟随异常的第二场景。一些实施例中,当可移动设备930对跟随对象940进行跟随时,可能会出现跟随异常(例如可移动设备930速度快于跟随对象940,两者之间距离过近;控制设备820与可移动设备830之间间隔太远;跟随对象940不在影像摄录装置631的镜头范围内;可移动设备930与跟随对象940之间有障碍物(例如树))。
该种状态下,控制设备的处理器可以执行指令向目标或者跟随对象940提示跟随异常,目标910或跟随对象940可根据上述实际情况,调整自身位置、调整控制设备的位置和/或可移动设备930的位置,重新启动跟随。
图10示出了本公开实施例的控制可移动设备跟随异常的第三场景。一些实施例中,当可移动设备1030对跟随对象1040进行跟随时,由于出现特殊异常,例如可移动设备1030能源不足、可移动设备1030和跟随对象1040距离过远,则会跟随丢失。
该种状态下,控制设备的处理器可以执行指令向目标或者跟随对象1040提示跟随异常,无法找回丢失目标,需要重新开始。
图11示出了本公开实施例的控制可移动设备跟随异常的第四场景。当出现图9所示异常时,控制设备的处理器可以执行指令向目标或者跟随对象1140提示是否确定找回,跟随对象1140或目标实际情况进行选择是或者否(例如,可移动设备1130已经出现在附近,则选择是,如无法找回丢失的可移动设备,则需要重新开始)。
在一些实施例中,控制设备还包括动作识别单元1212,包括以下至少一种:加速度传感器,用于识别目标的动作的加速度变化量;角速度传感器,用于识别目标的动作的角速度变化量;以及位移传感器,用于识别目标的位移变化。
在一些实施例中,控制设备还包括动作定位单元1214,用于向可移动设备发送控制设备的位置信息。定位单元1214可以包括但不限于GPS。
处理器可以是单个CPU(中央处理单元),但也可以包括两个或更多个处理单元。例如,处理器可以包括通用微处理器、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC))。处理器还可以包括用于缓存用途的板载存储器。计算机程序指令可以由连接到处理器的计算机程序指令产品来承载。计算机程序指令产品可以包括其上存储有计算机程序指令的计算机可读介质。例如,计算机程序指令产品可以是闪存、随机存取存储器(RAM)、只读存储器(ROM)、EEPROM,且上述计算机程序指令模块在备选实施例中可以用UE内的存储器的形式被分布到不同计算机程序指令产品中。
需要注意的是,在本文中被描述为通过纯硬件、纯软件和/或固件来实现的功能,也可以通过专用硬件、通用硬件与软件的结合等方式来实现。例如,被描述为通过专用硬件(例如,现场可编程门阵列(FPGA)、专用集成电路(ASIC)等)来实现的功能,可以由通用硬件(例如,中央处理单元(CPU)、数字信号处理器(DSP))与软件的结合的方式来实现,反之亦然。
接下来,将结合附图13以及上述应用场景的附图,介绍本公开的跟随系统。
图13示出了本公开实施例的跟随系统的硬件示意图。该跟随系统1300包括控制设备1310和可移动设备1320,其中控制设备1310的介绍在上文已经描述,此处着重对被控制端的可移动设备1320进行介绍。
图13所示的一种跟随系统,包括控制设备1310,用于识别目标的动作,如目标的动作为第一预设动作,向可移动设备发出跟随命令;还包括可移动设备1320,用于接收所述跟随命令,以预设移动参数靠近所述控制设备,可移动设备1320还包括影像摄录装置1323,用于在以预设移动参数靠近所述控制设备后将影像摄录装置对准控制设备。
在一些实施例中,影像摄录装置1323可以为摄像机,但也可以是相机,本公开并不以此为限,凡能够记录影像的设备都包括于此。
在一些实施例中,可移动设备1320还包括云台,可用于调整所述影像摄录装置的对准角度;具体的说,在控制设备1310向可移动设备1320发送跟随命令后,可移动设备1320移动至按设定移动参数靠近可移动装备1320后,可移动设备1320开始通过云台对影像摄录装置的俯仰角等参数进行调整,使摄录取景范围对准可移动装备1320附近。
在一些实施例中,预设移动参数包括以下至少一项:与控制设备的相对位置、与地面高度以及影像摄录装置的对准角度。
在一些实施例中,可移动设备1320还用于识别跟随对象的动作,如为第二预设动作,确认跟随对象进行跟随。其中,第二预设动作包括以下至少一项:跟随对象为动物、移动机器人、动物仿真机器人或人时,按照第三设定方式摆动肢体、躯干或头部;以及跟随对象为移动物时,按照第四设定方式作出运动轨迹。进一步的实施例中,按照第三设定方式摆动肢体、躯干或头部包括以下至少一项:按设定频率摆动肢体、躯干或头部;按设定角速度摆动肢体、躯干或头部;按设定图形摆动肢体、躯干或头部;以及按设定角度范围摆动肢体、躯干或头部。为实现上述功能,可移动设备1320中包含识别单元1324,用于识别第二预设动作。
在一些实施例中,可移动设备1320还包括输入单元1325,用于接收控制设备发出的跟随命令、结束跟随命令。
在一些实施例中,可移动设备1320还包括输出单元1322,1325将影像摄录装置采集的影像数据发送至控制设备。
在一些实施例中,可移动设备1320还用于识别跟随对象的动作,如为第三设定动作,结束跟随。第三动作的设定以及识别方式看考第二设定动作,但第二设定动作和第三设定动作不应完全相同。此时,识别单元1324还用于识别该第三设定动作。
上述单元均连接至可移动设备1320的处理器1321,处理器1321在执行指令时对输入单元1325、输出单元1322、影像摄录装置1323、识别单元1324以及云台进行控制。
尽管已经参照本公开的特定示例性实施例示出并描述了本公开,但是本领域技术人员应该理解,在不背离所附权利要求及其等同物限定的本公开的精神和范围的情况下,可以对本公开进行形式和细节上的多种改变。因此,本公开的范围不应该限于上述实施例,而是应该不仅由所附权利要求来进行确定,还由所附权利要求的等同物来进行限定。
尽管已经参照本发明的特定示例性实施例示出并描述了本发明,但是本领域技术人员应该理解,在不背离所附权利要求及其等同物限定的本发明的精神和范围的情况下,可以对本发明进行形式和细节上的多种改变。因此,本发明的范围不应该限于上述实施例,而是应该不仅由所附权利要求来进行确定,还由所附权利要求的等同物来进行限定。
Claims (41)
1.一种控制可移动设备跟随的方法,包括:
识别目标的动作;
判断所述目标的动作是否为第一预设动作;和
当所述目标的动作为所述第一预设动作时,向可移动设备发出跟随命令;
所述方法还包括:在向可移动设备发出跟随命令之后,提示跟随对象作出第二预设动作,使可移动设备识别第二预设动作以确认跟随对象,所述跟随对象与所述目标为不同的对象。
2.根据权利要求1所述的方法,其特征在于,所述第一预设动作包括以下至少一项:
目标为动物、移动机器人、动物仿真机器人或人时,按照第一设定方式摆动肢体、躯干或头部;以及
目标为移动物时,按照第二设定方式作出运动轨迹。
3.根据权利要求2所述的方法,其特征在于,按照第一设定方式摆动肢体、躯干或头部包括以下至少一项:
按设定频率摆动肢体、躯干或头部;
按设定角速度摆动肢体、躯干或头部;
按设定图形摆动肢体、躯干或头部;以及
按设定角度范围摆动肢体、躯干或头部。
4.根据权利要求2所述的方法,其特征在于,按照第二设定方式作出运动轨迹及包括以下至少一项:
按设定频率摆动自身;
按设定角速度摆动自身;
按设定图形移动;以及
按设定角度范围移动。
5.根据权利要求1-4中任一项所述的方法,其特征在于,识别目标的动作包括以下至少一项:
与目标的特定部位运动同步,感测目标的特定部位的加速度、角速度和/或变化量;以及
与目标整体运动同步,感测目标整体的加速度、角速度和/或位移变化量。
6.根据权利要求1-4中任一项所述的方法,其特征在于,所述方法还包括:在识别目标的动作之前,提示目标作出第一预设动作。
7.根据权利要求6所述的方法,其特征在于,所述提示目标作出第一预设动作包括以下至少一种:
向目标发出语音提示、向目标展示第一预设动作图形、通过震动方式提示目标以及向目标发出提示信号。
8.根据权利要求1-4、7中任一项所述的方法,其特征在于,所述方法还包括:在识别目标的动作之前,提示目标无法实施识别目标的动作。
9.根据权利要求1-4、7中任一项所述的方法,其特征在于,所述向可移动设备发出跟随命令包括:发送参考坐标、发送命令使所述可移动设备按照设定移动参数靠近所述参考坐标以及使所述可移动设备中的图像捕捉装置对准参考坐标周围。
10.根据权利要求1所述的方法,其特征在于,所述第二预设动作包括以下至少一项:
跟随对象为动物、移动机器人、动物仿真机器人或人时,按照第三设定方式摆动肢体、躯干或头部;以及
跟随对象为移动物时,按照第四设定方式作出运动轨迹。
11.根据权利要求10所述的方法,其特征在于,按照第三设定方式摆动肢体、躯干或头部包括以下至少一项:
按设定频率摆动肢体、躯干或头部;
按设定角速度摆动肢体、躯干或头部;
按设定图形摆动肢体、躯干或头部;以及
按设定角度范围摆动肢体、躯干或头部。
12.根据权利要求10所述的方法,其特征在于,按照第四设定方式作出运动轨迹包括以下至少一项:
按设定频率摆动自身;
按设定角速度摆动自身;
按设定图形移动;以及
按设定角度范围移动。
13.根据权利要求1所述的方法,其特征在于,所述提示跟随对象作出第二预设动作包括以下至少一种:
向跟随对象发出语音提示、向跟随对象展示第二预设动作图形、通过震动方式提示跟随对象以及向跟随对象发出提示信号。
14.根据权利要求1所述的方法,其特征在于,所述方法还包括:在可移动设备识别并确认跟随对象后,对目标进行跟随提示,以提示目标跟随正常、提示目标跟随出现异常、提示目标是否找回跟随对象或者提示目标跟随对象丢失。
15.根据权利要求14所述的方法,其特征在于,所述对目标进行跟随提示包括以下至少一种:
向目标发出语音提示,向目标展示跟随正常、跟随出现异常或者跟随对象丢失的图形,通过震动方式提示目标。
16.根据权利要求1所述的方法,其特征在于,所述方法还包括:在可移动设备识别并确认跟随对象后,向可移动设备发送结束跟随命令。
17.一种控制设备,用于控制可移动设备进行跟随,包括:
存储器,用于存储指令;
处理器,用于执行所述指令,所述指令在由所述处理器执行时使得所述处理器:
识别目标的动作;
判断所述目标的动作是否为第一预设动作;以及
当目标的动作为第一预设动作时,向可移动设备发出跟随命令;
所述指令在由所述处理器执行时还使得所述处理器:向可移动设备发出跟随命令之后提示跟随对象作出第二预设动作,使可移动设备识别第二预设动作以确认跟随对象,所述跟随对象与所述目标为不同的对象。
18.权利要求17控制设备,其特征在于,所述控制设备为可穿戴设备。
19.权利要求17或18所述的控制设备,其特征在于,所述第一预设动作包括以下至少一项:
目标为动物、移动机器人、动物仿真机器人或人时,按照第一设定方式摆动肢体、躯干或头部;以及
目标为移动物时,按照第二设定方式作出运动轨迹。
20.根据权利要求19所述的控制设备,其特征在于,按照第一设定方式摆动肢体、躯干或头部包括以下至少一项:
按设定频率摆动肢体、躯干或头部;
按设定角速度摆动肢体、躯干或头部;
按设定图形摆动肢体、躯干或头部;以及
按设定角度范围摆动肢体、躯干或头部。
21.根据权利要求20所述的控制设备,其特征在于,按照第二设定方式作出运动轨迹及包括以下至少一项:
按设定频率摆动自身;
按设定角速度摆动自身;
按设定图形移动;以及
按设定角度范围移动。
22.根据权利要求17-18、20-21中任一项所述的控制设备,其特征在于,识别目标的动作包括以下至少一项:
与目标的特定部位运动同步,感测目标的特定部位的加速度变化量;以及
与目标整体运动同步,感测目标整体的加速度变化量。
23.根据权利要求17-18、20-21中任一项所述的控制设备,其特征在于,所述指令在由所述处理器执行时还使得所述处理器:在识别目标的动作之前,提示目标作出第一预设动作。
24.根据权利要求23所述的控制设备,其特征在于,所述提示目标作出第一预设动作中的提示方式包括以下至少一种:
向目标发出语音提示、向目标展示第一预设动作图形、通过震动方式提示目标以及向目标发出提示信号。
25.根据权利要求17-18、20-21、24中任一项所述的控制设备,其特征在于,所述指令在由所述处理器执行时还使得所述处理器:在识别目标的动作之前,提示目标无法实施识别目标的动作。
26.根据权利要求17-18、20-21、24中任一项所述的控制设备,其特征在于,所述向可移动设备发出跟随命令包括:发送控制设备的坐标、发送命令使所述可移动设备按照设定移动参数靠近控制设备的坐标以及使可移动设备中的图像捕捉装置对准控制设备的坐标周围。
27.根据权利要求17的控制设备,其特征在于,所述第二预设动作包括以下至少一项:
跟随对象为动物、移动机器人、动物仿真机器人或人时,按照第三设定方式摆动肢体、躯干或头部;以及
跟随对象为移动物时,按照第四设定方式作出运动轨迹。
28.根据权利要求27所述的控制设备,其特征在于,按照第三设定方式摆动肢体、躯干或头部包括以下至少一项:
按设定频率摆动肢体、躯干或头部;
按设定角速度摆动肢体、躯干或头部;
按设定图形摆动肢体、躯干或头部;以及
按设定角度范围摆动肢体、躯干或头部。
29.根据权利要求27所述的控制设备,其特征在于,按照第四设定方式作出运动轨迹包括以下至少一项:
按设定频率摆动自身;
按设定角速度摆动自身;
按设定图形移动;以及
按设定角度范围移动。
30.根据权利要求17所述的控制设备,其特征在于,提示跟随对象作出第二预设动作的提示方式包括以下至少一种:
向跟随对象发出语音提示、向跟随对象展示第二预设动作图形、通过震动方式提示跟随对象以及向跟随对象发出提示信号。
31.根据权利要求17所述的控制设备,其特征在于,所述指令在由所述处理器执行时还使得所述处理器:可移动设备识别并确认跟随对象后,对目标进行跟随提示:提示目标跟随正常、提示目标跟随出现异常、提示目标是否找回跟随对象或者提示目标跟随对象丢失。
32.根据权利要求31所述的控制设备,其特征在于,对目标进行跟随提示的提示方式包括以下至少一种:
向目标发出语音提示,向目标展示跟随正常、跟随出现异常或者跟随对象丢失的图形,通过震动方式提示目标。
33.根据权利要求17-18、20-21、24、27-32中任一项所述的控制设备,其特征在于,还包括以下至少一种动作识别单元:
加速度传感器,用于识别目标的动作的加速度变化量;
角速度传感器,用于识别目标的动作的角速度变化量;以及
位移传感器,用于识别目标的位移变化。
34.根据权利要求17-18、20-21、24、27-32中任一项所述的控制设备,其特征在于,还包括定位单元,用于向可移动设备发送控制设备的位置信息。
35.根据权利要求17所述的控制设备,其特征在于,所述指令在由所述处理器执行时还使得所述处理器:可移动设备识别并确认跟随对象后,向可移动设备发送结束跟随命令。
36.一种跟随系统,包括:
控制设备,用于识别目标的动作,以及当目标的动作为第一预设动作时,向可移动设备发出跟随命令;
可移动设备,用于接收所述跟随命令,并根据跟随命令进行跟随操作;
所述可移动设备还用于识别跟随对象的动作,如为第二预设动作,确认跟随对象进行跟随,所述跟随对象与所述目标为不同的对象。
37.根据权利要求36所述的跟随系统,其特征在于,所述第一预设动作包括以下至少一项:
目标为动物、移动机器人、动物仿真机器人或人时,按照第一设定方式摆动肢体、躯干或头部。
38.根据权利要求36或37所述的跟随系统,其特征在于,所述跟随操作包括所述可移动设备以预设移动参数靠近所述控制设备,所述预设移动参数包括以下至少一项:
与控制设备的相对位置、与地面高度以及影像摄录装置的对准角度。
39.根据权利要求36或37所述的跟随系统,其特征在于,所述可移动设备还用于接收所述控制设备发出的结束跟随命令后,结束跟随。
40.根据权利要求36或37所述的跟随系统,其特征在于,所述可移动设备还用于识别跟随对象的动作,如为第三设定动作,结束跟随。
41.一种存储指令的计算机可读存储介质,所述指令在由处理器执行时使得所述处理器执行根据权利要求1~16中任一项所述的方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2017/091063 WO2019000380A1 (zh) | 2017-06-30 | 2017-06-30 | 控制可移动设备跟随的方法、控制设备和跟随系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108496141A CN108496141A (zh) | 2018-09-04 |
CN108496141B true CN108496141B (zh) | 2021-11-12 |
Family
ID=63344672
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780004419.6A Active CN108496141B (zh) | 2017-06-30 | 2017-06-30 | 控制可移动设备跟随的方法、控制设备和跟随系统 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN108496141B (zh) |
WO (1) | WO2019000380A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109740464B (zh) * | 2018-12-21 | 2021-01-26 | 北京智行者科技有限公司 | 目标的识别跟随方法 |
CN111212414B (zh) * | 2020-02-28 | 2023-05-26 | 无锡中感微电子股份有限公司 | 用于调整工作装置位置的系统、方法及系统的建立方法 |
CN111918453A (zh) * | 2020-08-18 | 2020-11-10 | 深圳市秀骑士科技有限公司 | Led灯光场景控制系统及其控制方法 |
WO2022141187A1 (en) * | 2020-12-30 | 2022-07-07 | SZ DJI Technology Co., Ltd. | Systems and methods for controlling an unmanned aerial vehicle using a body-attached remote control |
CN113681557A (zh) * | 2021-08-17 | 2021-11-23 | Oppo广东移动通信有限公司 | 机器人控制方法、机器人和可读存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104951067A (zh) * | 2014-03-25 | 2015-09-30 | 拓连科技股份有限公司 | 一种电子装置的动作管理方法及系统 |
CN204808575U (zh) * | 2015-07-17 | 2015-11-25 | 深圳市浩瀚卓越科技有限公司 | 一种带姿态感应的蓝牙智能控制系统 |
CN105138126A (zh) * | 2015-08-26 | 2015-12-09 | 小米科技有限责任公司 | 无人机的拍摄控制方法及装置、电子设备 |
WO2015200209A1 (en) * | 2014-06-23 | 2015-12-30 | Nixie Labs, Inc. | Wearable unmanned aerial vehicles, launch- controlled unmanned aerial vehicles, and associated systems and methods |
CN105676860A (zh) * | 2016-03-17 | 2016-06-15 | 歌尔声学股份有限公司 | 一种可穿戴设备、无人机控制装置和控制实现方法 |
CN105700669A (zh) * | 2014-11-25 | 2016-06-22 | 阿里巴巴集团控股有限公司 | 一种执行终端应用的方法、穿戴式设备和用户终端 |
CN105836127A (zh) * | 2016-03-18 | 2016-08-10 | 普宙飞行器科技(深圳)有限公司 | 无人机的操控方法和无人机系统 |
CN106370184A (zh) * | 2016-08-29 | 2017-02-01 | 北京奇虎科技有限公司 | 无人机自动跟踪拍摄的方法、无人机和移动终端设备 |
CN107438804A (zh) * | 2016-10-19 | 2017-12-05 | 深圳市大疆创新科技有限公司 | 一种用于控制无人机的穿戴式设备及无人机系统 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7983450B2 (en) * | 2009-03-16 | 2011-07-19 | The Boeing Company | Method, apparatus and computer program product for recognizing a gesture |
TW201339903A (zh) * | 2012-03-26 | 2013-10-01 | Hon Hai Prec Ind Co Ltd | 無人飛行載具控制系統及方法 |
CN206249237U (zh) * | 2016-08-15 | 2017-06-13 | 北京硬创梦工场科技有限公司 | 一种用于控制无人机的体感摇杆 |
CN106527466A (zh) * | 2016-12-15 | 2017-03-22 | 鹰眼电子科技有限公司 | 穿戴型无人机控制系统 |
CN106843489B (zh) * | 2017-01-24 | 2019-02-19 | 腾讯科技(深圳)有限公司 | 一种飞行器的飞行路线控制方法及飞行器 |
-
2017
- 2017-06-30 WO PCT/CN2017/091063 patent/WO2019000380A1/zh active Application Filing
- 2017-06-30 CN CN201780004419.6A patent/CN108496141B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104951067A (zh) * | 2014-03-25 | 2015-09-30 | 拓连科技股份有限公司 | 一种电子装置的动作管理方法及系统 |
WO2015200209A1 (en) * | 2014-06-23 | 2015-12-30 | Nixie Labs, Inc. | Wearable unmanned aerial vehicles, launch- controlled unmanned aerial vehicles, and associated systems and methods |
CN105700669A (zh) * | 2014-11-25 | 2016-06-22 | 阿里巴巴集团控股有限公司 | 一种执行终端应用的方法、穿戴式设备和用户终端 |
CN204808575U (zh) * | 2015-07-17 | 2015-11-25 | 深圳市浩瀚卓越科技有限公司 | 一种带姿态感应的蓝牙智能控制系统 |
CN105138126A (zh) * | 2015-08-26 | 2015-12-09 | 小米科技有限责任公司 | 无人机的拍摄控制方法及装置、电子设备 |
CN105676860A (zh) * | 2016-03-17 | 2016-06-15 | 歌尔声学股份有限公司 | 一种可穿戴设备、无人机控制装置和控制实现方法 |
CN105836127A (zh) * | 2016-03-18 | 2016-08-10 | 普宙飞行器科技(深圳)有限公司 | 无人机的操控方法和无人机系统 |
CN106370184A (zh) * | 2016-08-29 | 2017-02-01 | 北京奇虎科技有限公司 | 无人机自动跟踪拍摄的方法、无人机和移动终端设备 |
CN107438804A (zh) * | 2016-10-19 | 2017-12-05 | 深圳市大疆创新科技有限公司 | 一种用于控制无人机的穿戴式设备及无人机系统 |
Also Published As
Publication number | Publication date |
---|---|
CN108496141A (zh) | 2018-09-04 |
WO2019000380A1 (zh) | 2019-01-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108496141B (zh) | 控制可移动设备跟随的方法、控制设备和跟随系统 | |
US12117826B2 (en) | Systems and methods for controlling an unmanned aerial vehicle | |
US20220091607A1 (en) | Systems and methods for target tracking | |
US11604479B2 (en) | Methods and system for vision-based landing | |
US20200218252A1 (en) | Systems and methods for adjusting flight control of an unmanned aerial vehicle | |
US20190094023A1 (en) | Adaptive Compass Calibration Based on Local Field Conditions | |
CN110383812B (zh) | 控制装置、系统、控制方法以及程序 | |
CN107643758A (zh) | 拍摄移动图像的包括无人机和地面站的自主系统及方法 | |
US11328612B2 (en) | System, method, and apparatus for drone positioning control | |
CN108780321B (zh) | 用于设备姿态调整的方法、设备、系统和计算机可读存储介质 | |
CN113508351A (zh) | 控制方法、智能眼镜、可移动平台、云台、控制系统及计算机可读存储介质 | |
JP6265576B1 (ja) | 撮像制御装置、影位置特定装置、撮像システム、移動体、撮像制御方法、影位置特定方法、及びプログラム | |
EP4047434B1 (en) | Apparatus, method and software for assisting an operator in flying a drone using a remote controller and ar glasses | |
JP6710863B2 (ja) | 飛行体、制御方法、及びプログラム | |
JP2023083072A (ja) | 方法、システムおよびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |