CN116194369A - 具有用户交互部件和可折叠结构的无人飞行器 - Google Patents
具有用户交互部件和可折叠结构的无人飞行器 Download PDFInfo
- Publication number
- CN116194369A CN116194369A CN202080103877.7A CN202080103877A CN116194369A CN 116194369 A CN116194369 A CN 116194369A CN 202080103877 A CN202080103877 A CN 202080103877A CN 116194369 A CN116194369 A CN 116194369A
- Authority
- CN
- China
- Prior art keywords
- unmanned aerial
- aerial vehicle
- user
- sub
- body portion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 29
- 238000000034 method Methods 0.000 claims abstract description 37
- 230000002452 interceptive effect Effects 0.000 claims description 118
- 238000003384 imaging method Methods 0.000 claims description 59
- 230000008878 coupling Effects 0.000 claims description 46
- 238000010168 coupling process Methods 0.000 claims description 46
- 238000005859 coupling reaction Methods 0.000 claims description 46
- 230000033001 locomotion Effects 0.000 claims description 40
- 230000007246 mechanism Effects 0.000 claims description 37
- 230000004224 protection Effects 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 8
- 230000009471 action Effects 0.000 claims description 5
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 claims description 4
- 230000003190 augmentative effect Effects 0.000 claims description 2
- 229910052742 iron Inorganic materials 0.000 claims description 2
- 230000001012 protector Effects 0.000 claims 1
- 230000000452 restraining effect Effects 0.000 claims 1
- 238000004891 communication Methods 0.000 description 19
- 230000001681 protective effect Effects 0.000 description 14
- 230000008569 process Effects 0.000 description 13
- 238000012545 processing Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 210000003811 finger Anatomy 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000002304 esc Anatomy 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000009979 protective mechanism Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 229910000831 Steel Inorganic materials 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000009529 body temperature measurement Methods 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000003331 infrared imaging Methods 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 230000003137 locomotive effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000002853 ongoing effect Effects 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000012285 ultrasound imaging Methods 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U20/00—Constructional aspects of UAVs
- B64U20/50—Foldable or collapsible UAVs
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
- B64U10/13—Flying platforms
- B64U10/14—Flying platforms with four distinct rotor axes, e.g. quadcopters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- User Interface Of Digital Computer (AREA)
- Toys (AREA)
Abstract
提供了用于操作无人飞行器(102)的装置、系统和方法。无人飞行器(102)包括:无人飞行器(102)装载的一个或多个交互部件(180),被配置为显示与无人飞行器(102)的操作相关联的信息,以及检测一个或多个交互部件(180)上接收到的用户的输入,以与所显示的信息进行交互;推进系统,被配置为推进无人飞行器(102);以及与存储器(162)耦接的一个或多个处理器(160),存储器(160)被配置为存储指令,该指令由一个或多个处理器(160)执行以根据输入控制无人飞行器(102)的操作。
Description
版权声明
本专利文件的公开内容的一部分包含受版权保护的材料。版权所有者不反对任何人以传真方式复制出现在专利商标局专利档案或记录中的专利文件或专利公开内容,但保留所有版权权利。
技术领域
本公开总体上涉及一种无人驾驶的可移动物体以及与该无人驾驶的可移动物体的操作相关联的系统和方法,更具体地,涉及与集成有一个或多个交互部件的无人驾驶的可移动物体的操作相关联的系统、设备和方法,一个或多个交互部件例如为交互式显示器,和/或显示器上的用户界面元素。
背景技术
无人飞行器(“UAV”),有时称为“无人机”,包括可以由用户远程操作和/或编程用于自动飞行的各种尺寸和配置的不载人飞行器。无人飞行器可以配备相机来捕获用于各种目的的图像和视频,包括但不限于娱乐、监视、运动和航拍。
传统上,用户需要使用与无人飞行器通信的辅助设备,例如控制器或移动电话,来操作无人飞行器和无人飞行器上的相机。然而,用户可能需要额外的努力和时间来学习、练习和掌握控制过程。此外,由于用户需要将注意力转移到控制器或移动电话的操作上以与无人飞行器通信,因此用户经常会从正在进行的活动(例如,远足、会议、锻炼、庆祝活动等)中分心。由此,虽然无人飞行器在执行各种自主功能方面变得更加智能和强大,但繁琐的体验会使用户感到沮丧,甚至在想要使用无人飞行器时打消念头。因此,用户并没有有效地充分利用无人飞行器的智能和强大功能,并且错失了利用无人飞行器上的相机及时记录感兴趣的事物的机会。
发明内容
根据本公开的实施例,提供了一种无人驾驶飞行器。所述无人驾驶飞行器包括:所述无人驾驶的可移动物体上的一个或多个交互部件,所述一个或多个交互部件被配置为显示与所述无人驾驶的可移动物体的操作相关联的信息,以及检测所述一个或多个交互部件上接收到的用户的输入,以与所显示的信息进行交互。所述无人驾驶飞行器还包括:推进系统,被配置为推进所述无人飞行器;以及与存储器耦接的一个或多个处理器,所述存储器被配置为存储指令,所述指令由所述一个或多个处理器执行以根据所述输入控制所述无人飞行器的操作。
还提供了一种操作无人飞行器的方法。所述方法包括:通过所述无人飞行器上的一个或多个交互部件,显示与所述无人飞行器的操作相关联的信息。所述方法还包括:检测所述无人飞行器的所述一个或多个交互部件上接收到的用户的输入,所述输入与所显示的信息交互。所述方法还包括:根据所述输入生成用于操作所述可移动物体的指令,包括:控制所述无人飞行器的移动或导航;或者控制所述无人飞行器上的成像设备的操作。
还提供了一种可折叠的可移动物体,包括:包括一个或多个交互部件的主体部分,所述一个或多个交互部件被配置为显示与所述可折叠的可移动物体的操作相关联的信息,以及检测所述一个或多个交互部件上接收到的用户的输入,以与所显示的信息进行交互。所述可折叠的可移动物体还包括:与所述主体部分连接的推进系统,所述推进系统包括两个子部分,所述两个子部分通过耦接部相互可旋转地耦接,每个子部分包括至少一组旋转部件,所述旋转部件被配置为旋转以推进所述可折叠的可移动物体。
应当理解,上述一般描述和以下详细描述仅是示例性和解释性的,而非对所要求保护的本发明的限制。通过阅读说明书、权利要求和附图,本发明的其他目的和特征将变得显而易见。
附图说明
图1A是示出了根据本公开实施例的无人飞行器、遥控设备和操作人员之间的关系的示例图。
图1B是示出了根据本公开实施例的包括可与操作人员直接进行交互的一个或多个交互部件的无人飞行器和操作人员之间的关系的示例图。
图1C是示出了根据本公开实施例的无人飞行器各个部件的示例框图。
图2A至图2C示出了根据本公开实施例的包括一个或多个交互部件的不可折叠无人飞行器的示例。
图2D示出了根据本公开实施例的用户与不可折叠无人飞行器上的交互部件进行交互的示例。
图3A示出了根据本公开实施例的处于展开状态的可折叠无人飞行器的示例。
图3B示出了根据本公开实施例的处于折叠状态的可折叠无人飞行器的示例。
图3C至图3F示出了根据本公开实施例的用户与可折叠无人飞行器进行交互的示例。
图4是根据本公开实施例的操作无人飞行器的示例过程的流程图。
图5A示出了根据本公开实施例的处于折叠状态的可折叠无人飞行器的示例。
图5B示出了根据本公开实施例的图5A的可折叠无人飞行器处于第一状态的示例。
图5C示出了根据本公开实施例的图5A的可折叠无人飞行器处于二状态的示例。
图5D示出了根据本公开实施例的图5A的可折叠无人飞行器处于展开状态的示例。
图6A示出了根据本公开实施例的从与图5D不同的角度观察图5A的可折叠无人飞行器的示例。
图6B是根据本公开实施例的图5A的可折叠无人飞行器的截面图,该截面图示出了主体部分和子部分通过耦接部的耦接关系。
图6C和图6D示出了根据本公开实施例的图5A的可折叠无人飞行器的限位机构,该限位机构连接主体部分和子部分以限制主体部分和子部分之间的折叠状态。
图6E是根据本公开实施例的图5A的可折叠无人飞行器的侧视图,该侧视图示出了可折叠无人飞行器处于展开状态时主体部分与两个子部分的关系。
图7A和图7B示出了根据本公开实施例的可折叠无人飞行器的折叠结构的示例。
具体实施方式
以下参考附图进行详细描述。在可能的情况下,相同的附图标记指代相同或相似的部分。虽然在此描述了若干示例性实施例,但可以做出修改、调整和其他实施方式。例如,可以对附图中所示的部件进行替换、添加或修改。因此,以下详细描述不限于所公开的实施例和示例,而是由所附权利要求限定适当的范围。
图1A示出了示例图100’,其示出了根据本公开实施例的此处为常规UAV 102’的无人飞行器(“UAV”)、遥控设备130(例如,遥控器)和操作人员152之间的关系。如图1A所示,诸如多旋翼飞行器的常规UAV 102’的操作主要依赖于用户使用遥控设备130(例如,遥控器、移动电话等)通过无线通信与UAV 102’进行交互。例如,遥控设备130可能需要首先与UAV102’建立连接,例如无线通信,然后操作人员152可以使用遥控设备130对UAV 102’进行操作。在此过程中,操作人员152与遥控设备130进行交互。通过已建立的无线通信,在UAV102’和遥控设备130之间传输操作指令和信息反馈。
然而,对遥控设备130的依赖会增加操作人员152的负担。例如,操作人员152需要额外携带遥控设备130、开启遥控设备130、将遥控设备130无线连接到UAV 102’,然后通过各种输入机制,例如按钮和/或摇杆等,在遥控设备130上输入操作指令。这种传统的操作方式不仅增加了操作人员152在外出时携带额外设备的负担,而且增加了使用前的准备时间。此外,使用遥控设备130对UAV 102’进行操作可能很复杂,对于一些操作人员来说存在一定的学习曲线。
另一方面,由于传统UAV 102’仅具有有限数量的简单按钮(例如,用于通电或断电)、蜂鸣器和/或指示器,而不使用遥控设备130,因此操作人员152输入的命令的个数和复杂程度以及与UAV 102’的交互是有限的,例如通过指示灯的颜色、闪烁频率、指示灯亮灭组合或蜂鸣器提供的声音变化来指示信息。然而,无论是指示灯和蜂鸣器还是简单按钮都无法提供视觉状态反馈或实时相机图像。提供UAV 102’更复杂多面的控制对简单按钮来说也是一种挑战。例如,操作人员152只能通过长按和短按有限数量的按钮的组合来控制UAV102’。因此,操作人员152可以直接在UAV102’上输入的命令是有限的。同时,飞行器信息的视觉反馈和相机捕获到的实时图像数据也无法实时呈现给用户。
此外,没有桨叶保护的多旋翼飞行器可能在操作期间对操作人员152和周围的人造成安全风险。例如,操作人员152通常将飞行器放置在表面上,并在指示飞行器起飞之前离开该表面。飞行器起飞时周围的人也应该保持距离,而这会增加负担,给用户体验带来负面影响。目前,有多种可拆卸的桨叶保护套可供选择,但需要额外的空间来携带,并且需要额外的努力和时间将其安装在飞行器上。
因此,需要对UAV更加用户友好地操作。本文描述的实施例为UAV提供了改进的用户界面。所公开的实施例包括可折叠UAV和/或不可折叠UAV,集成有一个或多个用户交互部件和/或显示器上的用户界面元素,从而为用户提供直接视觉显示以及进行输入用户指令操作UAV的交互。根据所公开的实施例,操作人员152可以通过集成在UAV上的交互部件直接输入指令,而无需使用额外的设备,并且UAV能够从用户手中起飞。
图1B示出了示例图100,其示出了根据本公开实施例的在此为无人飞行器(“UAV”)102的无人驾驶的可移动物体与操作人员152之间的关系,其中UAV 102包括一个或多个交互部件180,用于与操作人员152进行直接交互。在一些实施例中,交互部件180包括集成在UAV 102上的交互式显示器,例如触摸屏,用于向操作人员152显示各种内容,包括但不限于操作菜单或由UAV 102上的成像设备提供的实时视觉反馈。交互式显示器可以直接在触摸屏上接收用户输入以控制成像设备和/或操作UAV102。因此,操作人员152不需要额外的遥控设备,例如图1A中的遥控器130。由此,操作人员152可以携带更少的设备。在需要时,操作人员152可以通过交互部件180方便地向UAV 102输入操作指令,使得UAV 102能够快速安全起飞。根据一些实施例,交互部件180可以包括用于接收用户命令的多种类型的输入机制,包括但不限于触摸屏、一个或多个按钮、用于接收音频命令的音频记录设备和/或用于捕获用户身体移动的成像设备。交互部件180还可以包括如本文所述的UAV 102上的多种类型的传感器。此外,如本文所述,UAV 102可以包括集成在可折叠或不可折叠结构中的桨叶保护机构,同时留出足够的空间允许操作人员152握持UAV 102以及查看交互式显示器上显示的内容并进行交互。此外,UAV 102可以为操作人员152提供可以方便握持UAV 102的区域,并允许UAV 102直接从操作人员152的手上安全起飞或降落。因此,不需要额外的遥控设备来执行各种类型的操作。本公开的可折叠结构体积较小,便于存放和携带。
图1C是示出了根据本公开实施例的UAV 102的各个部件的示例框图。虽然该框图被配置用于操作在此为UAV 102的可移动物体,但可移动物体可以替代为被配置为在合适的介质(例如,地表、空气、水、铁轨、空间、地下等)之上或之内行进的任何其他合适的物体、设备、机构、系统或机器。可移动物体也可以是其他类型的可移动物体(例如,轮式物体、航海物体、机车物体、其他空中物体等)。出于说明的目的,在本公开中,UAV102指的是空中设备,被配置为基于由UAV 102上的一个或多个交互部件180检测到的命令,自动或自主地进行操作和/或控制。在一些实施例中,一个或多个交互部件180包括成像传感器107、音频传感器174、交互式显示器181、一个或多个输入机构182(例如按钮等)和UAV 102上的其他类型的传感器183(例如,超声波传感器、距离传感器、热传感器、生物识别传感器和/或运动传感器等)。替代地或附加地,UAV 102可以被配置为由诸如遥控器或移动设备(未示出)的机外设备进行操作和/或控制。
UAV 102包括一个或多个推进设备104。在一些实施例中,图像传感器107可以通过载体(例如,云台)连接或附接到UAV 102,以允许图像传感器107和UAV 102之间的一个或多个相对运动度(例如旋转)。在一些实施例中,图像传感器107也可以在没有载体的情况下直接安装到UAV102。在一些实施例中,UAV 102还包括感测系统172、通信系统178和与其他部件通信的机载控制器176。
UAV 102包括一个或多个(例如,1、2、3、3、4、5、10、15、20个等)推进设备104,其位于不同位置(例如,UAV 102的顶部、侧面、前部、后部和/或底部)用于推进和操纵UAV 102。推进设备104是可操作以产生用于维持受控飞行的力的设备或系统。推进设备104可共享或可各自独立地包括或可操作地连接到例如马达(例如,电动马达、液压马达、气动马达等)或引擎(例如,内燃机、涡轮发动机等)的动力部件、例如电池组等的电源、或其组合。每个推进设备104还可以包括一个或多个旋转部件,该旋转部件可驱动地连接到一个或多个动力部件(未示出)并且被配置为被驱动以产生用于维持受控飞行的力。例如,旋转部件可以包括旋翼、螺旋桨、桨叶、喷嘴等,可以在轴、轮轴、轮子、液压系统、气动系统或其他被配置为从动力部件传递动力的部件或系统上驱动,或被其驱动。推进设备104和/或旋转部件彼此之间和/或相对于UAV 102是可调节的(例如,可倾斜的)。或者,推进设备104和旋转部件彼此之间和/或相对于UAV 102具有固定的朝向。在一些实施例中,每个推进设备104可以是相同类型的。在其他实施例中,推进设备104可以是多种不同类型。在一些实施例中,可以一致地控制所有推进设备104(例如,全部以相同的速度和/或角度)。在其他实施例中,一个或多个推进设备在例如速度和/或角度方面可以独立控制。在本文所述的一些实施例中,可以提供一个或多个保护机构110,以防止推进设备104的旋转部件在操作人员152握持UAV 102时接触操作人员152。在一些实施例中,可以分别为推进设备104一一对应地提供保护机构110。在一些实施例中,保护机构110可以集成在被配置为覆盖任意数量的推进设备104的连续构件中。在一些实施例中,保护机构110是可拆卸的。在一些其他实施例中,保护机构110是不可拆卸的,例如连接到UAV 102的主体部分,或者是主体部分的一部分。
推进设备104可以被配置为在一个或多个垂直和水平方向上推进UAV 102,并使得UAV 102能够围绕一个或多个轴旋转。也就是说,推进设备104可以被配置为提供升力和/或推力以产生和维持UAV 102的平移和旋转运动。例如,推进设备104可以被配置为使得UAV102能够达到和保持期望的高度,为UAV 102在各个方向上的移动提供推力,并为UAV102提供转向。在一些实施例中,推进设备104可以使得UAV 102能够执行垂直起飞和着陆(即,在没有水平推力的情况下起飞和着陆)。推进设备104可配置为使UAV 102能够沿着和/或围绕多个轴移动。
在一些实施例中,UAV 102还可以包括一个或多个传感器设备。这些传感器设备可以包括用于收集或生成数据或信息的设备,例如测量、跟踪、操作命令以及捕获目标(例如,物体、风景、照片或视频拍摄的对象等)的图像或视频。传感器设备还可以包括或替代地包括用于捕获视觉、音频和/或电磁信号的其他合适的传感器。在一些实施例中,图像传感器107被配置为收集可用于生成图像的数据。如本文所述,可以处理和分析由图像传感器107获得的图像数据,以从一个或多个用户获得命令和指令以操作UAV 102和/或图像传感器107。在一些实施例中,图像传感器107可以包括照相机、摄像机、红外成像设备、紫外线成像设备、X射线设备、超声成像设备、雷达设备等。交互部件180可以包括例如用于捕获音频数据的诸如麦克风或超声波检测器的音频传感器174等设备。音频传感器174可以被包括或集成在图像传感器107中。
UAV 102的感测系统172可以包括与一个或多个部件或其他系统相关联的一个或多个机载传感器(未示出)。例如,感测系统172可以包括用于确定与UAV 102和/或目标有关的位置信息、速度信息和加速度信息的传感器。感测系统172的部件可以被配置为生成数据和信息,以供在确定关于UAV 102、其部件和/或其目标的附加信息时使用(例如,由机载控制器176或另一设备处理)。感测系统172可以包括一个或多个传感器,用于感测UAV 102的一个或多个方面的移动。例如,感测系统172可以包括例如用于定位系统(例如,GPS、GLONASS、Galileo、北斗、GAGAN、RTK等)、运动传感器、惯性传感器(例如,IMU传感器、MIMU传感器等)、距离传感器、成像设备107等的传感设备。感测系统172还可以包括被配置为提供与周围环境,例如天气信息(例如,温度、压力、湿度等)、照明条件(例如,光源频率)、空气成分或附近的障碍物(例如,物体、结构、人、其他交通工具等)相关的数据或信息的传感器。
UAV 102的通信系统178可以被配置为能够在机载控制器176和例如遥控器、移动设备、服务器110(例如,基于云的服务器)或其他合适的实体的一个或多个非机载设备之间进行数据、信息、命令和/或其他类型的信号的通信。通信系统178可以包括一个或多个被配置为发送和/或接收信号的机载部件,例如被配置用于单向或双向通信的接收器、发射器或收发器。通信系统178的机载部件可以被配置为通过一个或多个通信网络,例如无线电、蜂窝、蓝牙、Wi-Fi、RFID和/或可用于传输指示数据、信息、命令的信号和/或其他信号的其他类型的通信网络,与机外设备通信。例如,通信系统178可以被配置成能够与机外设备进行通信,以在飞行期间提供输入用于控制UAV 102。
UAV 102的机载控制器176可以被配置为与UAV 102上的各种设备,例如交互部件180、通信系统178和感测系统172进行通信。控制器176还可以与定位系统(例如,全球导航卫星系统或GNSS)通信以接收指示UAV 102位置的数据。机载控制器176可以与各种其他类型的设备通信,包括气压计、惯性测量单元(IMU)、应答器等,以获得UAV 102的定位信息和速度信息。机载控制器176还可以将控制信号(例如,以脉冲或脉宽调制信号的形式)提供给一个或多个电子调速器(ESC),该电子调速器(ESC)被配置为控制一个或多个推进设备104。因此,机载控制器176可以通过控制一个或多个ESC来控制UAV 102的移动。如本文所述,机载控制器176还可以包括被配置为处理在一个或多个交互部件180上接收到的用户输入、语音识别、图像识别、说话者识别和/或本文所述的其他功能的电路和模块。
如本文所述,UAV 102上的交互部件180可以被配置为接收输入,例如来自用户的输入(例如,交互式显示器181或输入机构182上的手动输入、由音频传感器174捕获的语音输入、由图像传感器107捕获的用户手势、由各种类型的传感器183检测到的信息),并将指示该输入的信号传送到控制器176。基于来自用户的输入,控制器176可以被配置为生成指示一种或多种类型的信息的相应信号,例如用于移动或操纵UAV 102(例如,通过推进设备104)、有效载荷(未示出)和/或载体(未示出)的控制数据(例如,信号)。交互部件180,例如交互式显示器181,还可以被配置为接收来自UAV 102的数据和信息,例如由图像传感器107收集或与图像传感器107相关联的数据,以及与例如位置数据、速度数据、加速度数据、感官数据、视觉反馈相关的操作数据以及与UAV 102、其部件和/或其周围环境有关的其他数据和信息。交互部件180还可以包括输入机构182,例如实体杆、操纵杆、摇杆、开关、可穿戴装置、可触摸显示元件和/或被配置为控制飞行参数的按钮。交互部件180还可以包括不同类型的传感器183,例如超声波传感器、距离传感器、热传感器、生物识别传感器、触摸传感器和/或运动传感器等。例如,起落架上的触摸传感器可以检测UAV 102是否与用户或物体接触。生物识别传感器可以被配置为支持面部识别、指纹识别、语音识别和/或体温测量。交互部件180可以包括嵌入在UAV 102上的硬件部分。此外,如本文所述,可以在UAV 102上的显示器181上提供一个或多个用户界面元素(“UI”元素)。用户可以与UI元素交互以控制UAV102的移动或导航,和/或控制UAV 102上的图像传感器107的操作。可以对交互部件180接收到的用户输入进行处理,以生成用于控制UAV 102的操作指令。除了飞行控制输入,交互部件180还可用于接收其他信息的用户输入,例如手动控制设置、自动控制设置、控制辅助设置和/或航拍设置。可以理解,交互部件180的输入设备的不同组合或布局均在本公开的范围内。
交互式显示器181可以被配置为显示信息,例如指示与UAV 102的移动有关的信息或数据的信号和/或由UAV 102(例如,结合图像传感器107)捕获的数据(例如,图像数据)。在一些实施例中,交互式显示器181可以是被配置为显示信息以及接收用户输入的多功能显示设备。在一些实施例中,交互式显示器181可以显示用于接收一个或多个用户输入的交互式图形界面(GUI)。在一些实施例中,交互式显示器181可以被配置为与计算机应用(例如,“app”)一起工作,以在显示设备或多功能屏幕上提供交互式界面,用于显示从UAV 102接收的信息并用于接收用户输入。在一些实施例中,交互式显示器181可以包括交互式设备,例如触摸屏,以供用户识别或选择用户感兴趣的图像的一部分。在一些实施例中,交互式显示器181可以是例如连接或固定到UAV 102的整体部件。在其他实施例中,交互式显示器181可以电连接到UAV 102的一部分(或与其断开连接)(例如,通过连接端口或无线通信链路)和/或通过安装设备连接到相应部件,例如通过夹持、夹扣、扣合、卡勾、粘附或其他类型的安装设备。在一些实施例中,交互式显示器181可以位于手持部分、上侧或下侧、底表面的顶部或UAV 102上的任何其他合适的位置。交互式显示器181可以使用在使用时可以从主体部分打开或分离的翻转屏幕。
在一些实施例中,UAV 102包括存储器162和至少一个处理器160,处理器160可用于处理由UAV 102上的交互部件180接收到的各种类型的用户输入。在一些实施例中,UAV102的存储器162和处理器160还用于确定与接收到的用户输入对应的操作指令。该操作指令例如与UAV 102的飞行基本实时地被传输到UAV 102和/或图像传感器107的相关控制和推进部件,和/或用于相应控制和操作的其他设备。在一些实施例中,处理器160被配置为执行存储在存储器162中的模块、程序和/或指令,从而执行预定义的操作。处理器160可以是任何合适的硬件处理器,例如图像处理器、图像处理引擎、图像处理芯片、图形处理器(GPU)、微处理器、微控制器、中央处理单元(CPU)、网络处理器(NP)、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其他可编程逻辑器件、分立门或晶体管逻辑器件、分立硬件部件。
存储器162可以包括高速随机存取存储器,例如DRAM、SRAM或其他随机存取固态存储器设备。在一些实施方式中,存储器162包括非易失性存储器,例如一个或多个磁盘存储设备、光盘存储设备、闪存设备或其他非易失性固态存储设备。在一些实施方式中,存储器162包括远离处理器160的一个或多个存储设备。存储器162或者存储器162内的一个或多个存储设备(例如,一个或多个非易失性存储设备)包括非暂时性计算机可读存储介质。在一些实施方式中,存储器162或存储器162的计算机可读存储介质存储一个或多个计算机程序指令(例如,模块)和数据库或其子集,其被配置为执行本文所述的一个或多个过程的一个或多个步骤,例如图4中的过程400。存储器162还可以存储供处理器160处理的由成像传感器107捕获的图像、用于控制UAV 102和成像传感器107的操作指令等。
应当理解,尽管未示出,但是附加地或替代地,集成有交互部件180的UAV 102可以经由网络可通信地耦接到一个或多个电子设备,例如遥控器、移动设备和/或服务器(例如,基于云的服务器),以便彼此和/或与其他附加设备和系统交换信息。在一些实施例中,网络可以是有线和无线局域网(LAN)和/或广域网(WAN)的任何组合,例如内联网、外联网和互联网。在一些实施例中,网络能够提供本公开所述的一个或多个电子设备之间的通信。例如,在UAV 102移动到被配置为处理数据的遥控器、移动设备和/或服务器期间,UAV 102能够实时传输由一个或多个机载传感器(例如,成像传感器107和/或包括在传感系统172中的惯性测量单元(IMU)传感器)检测到的数据(例如,图像数据和/或运动数据)。此外,处理后的数据和/或操作指令可以通过网络在遥控器、移动设备和/或基于云的服务器之间进行实时传输。另外,可以通过任何合适的通信技术,例如局域网(LAN)、广域网(WAN)(例如互联网)、云环境、电信网络(例如3G、4G)、WiFi、蓝牙、射频(RF)、红外线(IR)或任何其他通信技术,将操作指令从遥控器、移动设备和/或基于云的服务器实时传输到UAV 102,以控制UAV 102及其部件的飞行。
图2A至图2C分别示出了根据本公开实施例的不可折叠的UAV的各种示例,例如UAV200、220和240,其中每个UAV包括一个或多个交互部件。UAV 200、220和240可以类似于以上参考图1B和图1C所述的UAV102。
如图2A所示,UAV 200是不可折叠的并且包括多组被配置为推进UAV 200的多桨叶螺旋桨202。在一些实施例中,UAV 200包括主体部分203和被配置为分别安全地包围螺旋桨202的多个保护部分205(类似于保护机构110)。主体部分203和多个保护部分205可以形成连续结构。在一些实施例中,保护部分205的内壁(例如,如图2B和2C所示)垂直于螺旋桨202在其中旋转的水平面,以包围对应的螺旋桨202。在桨叶和保护部分205的内壁之间存在一定的空间。在一些实施例中,保护部分205可以使用任何合适形式的桨叶保护机构,包括但不限于,无覆盖物的深度足以容纳相应螺旋桨202的保护井(例如,如图2B所示),或诸如网状覆盖物的覆盖结构(例如,如图3A所示),以防止螺旋桨202直接接触外部物体,例如用户或物体。在一些实施例中,主体部分203包括交互部件,例如显示器206,其对应于显示器181,设置在螺旋桨202之间。显示器206可以是交互式显示器,例如触摸屏。显示器206可以嵌入,例如固定地集成在主体部分203中。显示器206还可以例如通过磁吸引力或任何合适的耦接机构可拆卸地耦接到主体部分203的收容部。在一些实施例中,主体部分203包括设置在螺旋桨202之间或螺旋桨202和显示器206之间的空间中的一个或多个手持区域,例如区域204和区域208。
在一些实施例中,如图2B和图2C所示,各种类型的交互部件可以位于不同的合适位置。例如,图2B中的UAV 220包括主体部分223和被保护部分225包围的螺旋桨222。UAV220包括靠近UAV 220的一个边缘放置的显示器226。UAV 220还包括其他类型的交互部件,例如成像设备229(类似于成像设备107)、和/或用于接收用户输入的输入机构,例如按钮。成像设备229可以放置在任何合适的部分上,例如图2B所示的侧平面上,或在顶平面上位于显示器226旁边。UAV 220还包括手持区域224和228。
在另一示例中,图2C中的UAV 240包括主体部分243和被保护部分245包围的螺旋桨242。UAV 240包括UAV 240的侧平面上的显示器246。UAV 240还包括其他类型的交互部件,例如成像设备249(类似于成像设备107),和/或用于接收用户输入的输入机构,例如按钮。成像设备249可以放置在任何合适的部分,例如如图2C所示与显示器246放置在不同侧平面上,或在同一侧平面上放置于显示器246旁边。也可以将成像设备249放置在顶平面上,例如放置在手持区域248中。UAV 240还可以包括手持区域244和248。
图2D示出了根据本公开实施例的用户与不可折叠UAV 200上的交互部件,例如显示器206进行交互的示例。例如,操作人员可以例如通过触摸显示器206或按下按钮手动开启UAV 200。附加地或备选地,响应于一个或多个交互部件检测到信息,例如触摸传感器检测到操作人员正在握持手持区域204、位置传感器检测到UAV 200的朝向表明了显示器206面对操作人员、和/或成像设备捕获到图像数据表明操作人员正在握持UAV200和/或打算输入用户指令,UAV 200可以自动开启电源。
使用时,如图2D所示,操作人员可以用一只手270握持手持区域204,同时用另一只手260在显示器206上输入指令用于例如控制UAV200的导航或操作UAV 200上的成像传感器。例如,用户可以从操作菜单中选择显示器206上显示的多个用户界面元素中用于控制UAV 200的导航的用户界面元素。如本文所述,由于保护部分205被配置为防止螺旋桨202与操作人员直接接触,因此在操作人员完成指令输入后,UAV 200可以直接从操作人员手中起飞。例如,操作人员可以握持手持区域204并在UAV200准备好从手中起飞时释放UAV 200。类似地,操作人员可以通过让UAV200降落在手中来安全方便地接收返回的UAV 200。在一些实施例中,成像设备,例如成像设备229或249,可以放置在UAV上任何合适的位置,包括但不限于在任何侧平面、底平面、顶平面上。UAV还可以包括例如指向不同视角的多个成像设备。尽管未示出,UAV可以包括或不包括用于支撑成像设备的载体,例如云台。
图3A示出了根据本公开实施例的处于展开状态的在此为UAV 300的可折叠无人飞行器的示例。图3B示出了根据本公开实施例的处于折叠状态的可折叠飞行器物体例如UAV300的示例。在一些实施例中,UAV 300类似于参考图1B和图1C描述的UAV 102。在一些实施例中,UAV 300包括主体部分302以及具有两个子部分310和312的可折叠推进系统,这两个子部分310和312彼此可旋转地耦接,以提供图3A和图3B所示的折叠结构。
在一些实施例中,主体部分302包括一个或多个如本文所述的交互部件,例如显示器306(例如,类似于交互式显示器181的交互式显示器)、成像设备304(类似于图像传感器107)、一个或多个输入机构(例如按钮)和/或各种类型的传感器。在一些实施例中,UAV 300可以包括用于支撑成像设备304并在成像设备304和UAV 300之间提供一个或多个相对运动度的载体305,例如云台。在一些其他实施例中,成像设备304可以直接安装到UAV 300上,无需载体305。
在一些实施例中,推进系统的每个子部分310或312包括两组旋转部件,例如多桨叶螺旋桨322。此外,每个子部分310或312包括两组对应的保护部分324(类似于保护机构110),其被配置为覆盖或包含相应的螺旋桨322以防止旋转的桨叶接触用户或物体。保护部分324可以包括两个从顶部和底部覆盖螺旋桨的网状覆盖物,如图3A和图3B所示。保护部分324还可以包括本文所述的任何其他合适的结构,例如参照图2A至图2C所述的用于容纳叶片的没有覆盖物的井状结构。
在一些实施例中,当处于如图3A所示的展开状态时,子部分310上的两组螺旋桨322可以形成收容部330,例如一个子部分上的两组螺旋桨322之间的空白区域。类似地,子部分312上的两组螺旋桨322可以形成收容部331。当UAV 300处于折叠状态时,收容部330和/或收容部331可以容纳主体部分302的至少一部分,如图3B所示。在一些实施例中,当处于图3B中的折叠状态时,两个子部分310和312的表面接触,主体部分302位于子部分310上的两组螺旋桨322之间形成的收容部330中和/或位于子部分312上形成的收容部331中,体积较小,便于存放和携带。下面将参照图5A至图5D、图6A至图6E以及图7A和图7B详细描述UAV 300的折叠结构。
在一些实施例中,进一步参照图3C至图3F所示,主体部分302可以为操作人员提供舒适的抓握或手持区域,使得操作人员可以方便和安全地握持UAV 300,同时通过一个或多个交互部件和/或显示器306上显示的用户界面元素输入用户指令。此外,UAV 300可以直接在用户的手上起飞或降落。在图3A和图3B示出的一些实施例中,一个或多个交互部件中被配置为显示信息的交互部件,例如显示器306,在折叠状态和展开状态中都是可见的。
图3C至图3F示出了根据本公开实施例的用户与UAV 300上的交互部件,例如显示器306,进行交互的示例。例如,如图3C所示,在使用时,操作人员可以展开UAV 300,用一只手370握持主体部分302,同时用另一只手360上的手指在显示器306上输入指令。在图3D和图3E示出的另一示例中,操作者可以用一只手360握持主体部分302,同时用同一只手360的手指,例如拇指,在显示器306上输入指令。由于主体部分302基本上远离推进系统的子部分310和312,并且存在参照图3A和图3B所述的保护部分324,因此操作人员可以安全方便地握持主体部分302,不会有被旋转桨叶伤害的风险。UAV 300可以直接在操作者手中起飞或降落,如图3F所示。在一些实施例中,当飞行、拍摄图像和/或录制视频时,主体部分302可以保持在实质垂直于螺旋桨平面的位置,该螺旋桨平面由展开状态下对齐的子部分310和子部分312形成。UAV 300飞行时,主体部分302可以如图3F所示朝下,或倒置朝上。在一些实施例中,主体部分302可以例如自动地调整其在飞行期间相对于螺旋桨平面的倾斜角,以便在飞行期间,例如在加速、爬升或下降期间,优化UAV 300的重心。调整主体部分302的倾斜角还可以使操作人员更容易观察显示器306上的内容。在一些实施例中,可以提供诸如马达的动力部件来驱动主体部分302相对于螺旋桨平面进行旋转运动,例如沿图5D中的旋转轴线514进行旋转运动。处理器160可以控制动力部件基于UAV 300的运动状态和/或位置状态来调整倾斜角。
图4是根据本公开实施例的操作UAV 102、UAV 200、UAV 220、UAV240或UAV 300的示例过程400的流程图。出于解释而非限制的目的,过程400可由图1C所示的UAV 102的一个或多个硬件设备和/或软件模块执行。
在步骤410中,通过包括显示器的一个或多个交互部件,显示与UAV,例如UAV 102、UAV 200、UAV 220、UAV 240或UAV 300的操作相关联的信息。在一些实施例中,例如显示器181、206、226、246或306的显示器位于UAV上。该显示器可以是位于UAV的主体部分,例如主体部分302上的交互式显示器,例如触摸屏。该交互式显示器可以检测其上接收到的用户输入。
在步骤420中,检测通过UAV的一个或多个交互部件接收到的用户输入。该输入可以与步骤410中显示的信息进行交互。在一些实施例中,被配置为接收输入的一个或多个交互部件包括UAV上与显示器分离的一个或多个输入机构,例如图1C中的输入机构182(例如按钮、键、旋钮、操纵杆、开关或摇杆等)。在一些实施例中,用于显示信息的交互式显示器,例如图1C中的交互式显示器181,被配置为接收输入。
在一些实施例中,被配置为接收输入的一个或多个交互部件包括UAV上的一个或多个传感器,例如图1C中的音频传感器174、成像传感器107和/或传感器183。例如,UAV起飞并离开操作人员一定距离(例如,超出臂长范围)后,操作人员可以使用语音命令和/或身体移动来控制UAV。例如,诸如麦克风的音频传感器174可以检测操作人员给出的用于操作UAV的音频命令。UAV 102还可以包括用于语音识别的语言处理模块。语言处理模块可以包括存储在存储器162中的指令,这些指令可以由处理器160处理以处理检测到的音频命令,从而获得用于控制UAV的用户指令。此外,控制器176可以基于用于控制UAV和/或UAV上的成像设备的用户指令来生成操作命令。
附加地或替代地,成像设备107可以捕获包括指示了用于操作UAV的用户指令的用户身体移动的图像。在一些实施例中,由任何合适的成像处理算法(例如,机器学习模型)支持的图像处理模块包括存储在存储器162中的指令,这些指令可以由处理器160处理以处理所捕获的用户身体移动的图像,从而获得用于控制UAV的用户指令。然后控制器176可以基于用户指令生成操作命令。该操作命令可以包括但不限于通过语音命令或手势控制UAV移动、触发成像设备拍摄或召回UAV等。
在参考图2D和图3C至图3E描述的一些实施例中,当操作人员用至少一只手握持UAV时检测输入,并在显示器上向操作人员显示与操作无人飞行器相关的信息。在一些实施例中,当UAV悬停在距操作人员可达的距离内时,在UAV的一个或多个交互部件上接收输入。例如,当UAV悬停在空中距操作人员可达的距离内时,用户可以查看显示屏上的内容,同时点击交互式显示器,在操作菜单上选择UI元素来操作UAV或成像设备,例如更新操作指令和/或用于拍摄照片的相机参数。在一些实施例中,用户输入可以指示UAV起飞。响应于输入,UAV从支撑表面起飞,例如参照图2D和图3F所述的直接从操作人员的手上起飞。
在包括子步骤440或450的步骤430中,可以根据用户输入生成用于操作UAV的指令。在一些实施例中,在子步骤440中,生成指令包括控制UAV的移动或导航。在一些实施例中,在子步骤450中,生成指令包括控制UAV上的成像设备,例如成像设备107的操作。在一些实施例中,生成的指令可用于控制推进系统(例如,推进系统104)、选择预编程的飞行模式、控制UAV的导航(例如,选择目的地、执行目标跟踪、避障等)。生成的指令还可用于控制成像设备,例如选择跟踪目标、选择拍摄模式或调整成像设备的参数。在一些实施例中,操作人员可以选择要拍摄的照片或视频的模式或格式,选择构图、视角、距离、镜头运动,然后从交互式显示器上显示的由成像设备拍摄的照片中选择要跟踪的目标。然后操作人员可以让UAV从其手中起飞。操作人员还可以对交互显示器上显示的内容进行编辑,在交互显示器上预览预设的视频效果,或者通过交互显示器查看、编辑或删除成像设备采集的内容。在一些实施例中,生成的指令可用于控制UAV上的一个或多个传感器,例如调整参数、校准和/或切换工作模式等。
在一些实施例中,显示在显示器上的信息包括操作菜单,该操作菜单包括与操作UAV的指令相对应的一个或多个用户界面(“UI”)元素。例如,检测到的输入对应于从操作菜单中选择一个UI元素。在另一示例中,检测到的输入对应于通过用于输入信息的软键盘进行的输入。
在一些实施例中,显示器上显示的信息包括交互式显示器上的一个或多个UI元素。从用户接收的输入对应于自定义一个或多个UI元素。例如,用户可以在交互式显示器上或通过一个或多个输入机构进行编辑、重新排列、添加、创建、删除、选择,以将一个或多个UI元素和关联特征进行添加/移除/删除、加书签和/或添加至收藏夹。也可以根据不同的使用场景显示UI元素。例如,可以根据感兴趣的目标,例如人像摄影或风景摄影,显示和提供不同的摄影参数组供用户选择。又例如,可以根据对应的使用场景提供与选择的操作模式相关联的UI元素供用户选择,这些操作模式包括但不限于快照模式、短视频模式、慢动作视频模式、“QuickShots”模式(还包括子模式,如UAV向后和向上飞行,相机朝向识别的操作人员,UAV围绕操作人员盘旋,自动调整UAV和相机以拍摄包括操作人员周围环境的全景视图等)。在一些实施例中,显示器上显示的一个或多个UI元素可以与引导用户校准UAV上的一个或多个设备,例如感测系统172的一个或多个传感器和/或传感器183,相关联。例如,基于传感器的当前状态,UAV可以在显示器上生成与校准指令相关联的UI元素,通过显示的UI元素引导用户逐步进行校准。
在一些实施例中,根据不同情况,例如UAV的不同型号、UAV的当前状态、历史飞行记录、不同时间和地点、不同用户等,UAV可以显示不同的UI元素,使用不同的交互部件,生成不同的响应。
在一些实施例中,显示器上显示的信息包括由成像传感器107捕获的图像。检测到的输入对应于用户与捕获的图像的至少一部分的交互,根据用户交互生成用于操作UAV的指令。例如,用户可以在捕获的图像上为UAV圈出目标区域,调整其在目标区域中导航进行跟踪、拉近和/或捕获某个对象的图像。在一些实施例中,响应于在UAV的一个或多个交互部件上接收到所检测的用户输入,对显示的信息进行实时更新。例如,用户可以在所捕获的图像上选择一个区域以放大所选择的区域。作为响应,显示器可以将显示的信息实时更新为所选区域的放大视图。
在一些实施例中,显示器上显示的信息包括地图。检测到的输入对应于用户与地图的至少一部分的交互,例如按下或圈出一个位置,以根据用户交互生成用于操作UAV的指令。
在一些实施例中,UAV的成像设备107被配置为捕获识别操作人员,例如注册用户的身体移动的图像数据,以使UAV根据身体移动进行操作。身体移动可以包括手势、身体的一部分的动作、指示感兴趣对象的眼球运动等。在一些实施例中,捕获的身体移动可以来自成像设备107的视野中除操作人员或注册用户之外的其他人。
在一些实施例中,一个或多个交互部件包括例如UAV上的投影仪,其被配置为将与UAV的操作相关联的虚拟现实(VR)/增强现实(AR)内容投影到另一物体上。然后,成像设备107被配置为检测指示与投影的VR/AR内容的至少一部分进行交互的用户动作,例如手势或眼球运动。例如,用户可以将手指指向所显示的VR/AR内容,以指示从投影的可交互内容中进行选择。作为响应,可以基于检测到的用于操作UAV的动作生成操作指令,例如,导航UAV或控制成像设备107以捕获图像。从UAV上的交互部件投影的VR/AR内容可以为用户提供沉浸式体验。在一些实施例中,可以基于捕获的图像,例如鸟瞰图,生成投影的VR/AR内容。在一些实施例中,投影的VR/AR内容可以包括允许用户与AR/VR内容交互的沉浸式交互地图。在一些实施例中,可以通过机器学习和/或人工智能(AI)算法实现本公开所述的各种特征。
图5A示出了根据本公开实施例的处于折叠状态500的可折叠无人飞行器(在此为UAV 300)的示例。类似于图3A和图3B中所述的UAV 300,该UAV 300包括主体部分302,主体部分302包括一个或多个交互部件,例如被配置为显示与UAV 300的操作相关联的信息的交互式显示器306(类似于交互式显示器181)。在一些实施例中,交互式显示器306也被配置为检测在交互式显示器306上接收的UAV 300的操作人员的输入,以与显示的信息进行交互。在一些实施例中,可以在一个或多个输入机构182上检测操作人员的输入。UAV 300还可以包括被配置为捕获一个或多个图像(例如,照片和/或视频)的成像设备304。在本文所述的一些实施例中,显示的信息可以包括操作菜单,该操作菜单包括一个或多个UI元素、地图、由成像设备304捕获的一个或多个图像、或任何其他类型的可交互内容。
UAV 300包括推进系统,该推进系统包括参照图3A和图3B所述的两个子部分310和312。在一些实施例中,推进系统可以是可折叠的,其中通过耦接部分502,例如诸如铰链的可旋转连接件,两个子部分310和312沿轴线514(例如,如图5B所示)彼此可旋转地耦接,从而提供折叠机构。在一些实施例中,每个子部分包括至少一组旋转部件322,例如旋转桨叶,其被配置为旋转以推进UAV 300。每个子部分还可以包括至少一个保护部分324,例如网状覆盖物、线或保护井等,其被配置为覆盖旋转部件322,防止旋转的桨叶接触操作者或其他物体。如图5A所示,在处于折叠状态500时,两个子部分310和312的相对表面紧密接触以提供较小体积的折叠结构。此外,主体部分302位于收容部330和/或收容部331内。在处于折叠状态500时将主体部分302容纳于收容部330和/或收容部331内可以使得结构更加紧凑,便于存放和携带。
图5B示出了根据本公开实施例的处于第一状态520的UAV 300的示例。如图5B所示,UAV 300的推进系统处于第一状态520,例如,半打开或半折叠状态。例如,通过将图5A中的子部分312与子部分310分开并沿折叠轴(或旋转轴)514旋转子部分312,可以获得第一状态520。如图5B所示,主体部分302保持耦接在子部分310的收容部330中(例如,通过图5C中所示的释放结构516进行固定),而主体部分302与子部分312上的收容部331分离(例如,从释放结构512释放)。在一些实施例中,释放结构512或516包括磁性构件、螺纹紧固构件、锁定构件或其他合适的结构。
在一些实施例中,可以通过操作人员施加人力,例如,在诸如图5B中的子部分312的一个子部分上施加拉力,以驱动子部分310和312之间的旋转运动。附加地或替代地,旋转运动可以由配置成驱动两个子部分310和312彼此分离的致动器构件来支持。致动器构件可以是或可以包括合适的致动器和/或力传递部件。例如,致动器构件可以包括电机,该电机被配置为结合轮轴、轴、轨道、皮带、链条、齿轮和/或其他部件向子部分310和/或312提供旋转运动。在一些实施例中,UAV 300还包括一个或多个传感器,其被配置为测量、感测、检测或确定UAV 300的折叠状态信息。折叠状态信息可以包括位置信息(例如,相对位置、朝向、姿态、线性位移、角位移等)、速度信息(例如线速度、角速度等)、加速度信息(例如线加速度、角加速度等)和/或与子部分310和子部分第312之间的旋转运动有关的其他信息。传感器可以包括一种或多种类型的合适传感器,例如电位器、光学传感器、视觉传感器、磁传感器、运动或旋转传感器(例如,陀螺仪、加速度计、惯性传感器等)。传感器可以与UAV 300的各个部件相关联或附接到这些部件,例如子部分310和/或312或主体部分302的部件。传感器可以被配置为通过有线或无线连接(例如,RFID、蓝牙、Wi-Fi、无线电、蜂窝等)将与测量到的状态信息相关的数据传送到UAV 300(类似于UAV 102)的机载控制器176。由传感器生成并传送到机载控制器176的数据和信息可被机载控制器176用于进一步处理,例如用于确定UAV 300的折叠状态信息。
在一些实施例中,子部分310和312之间的角度α在第一状态520下可以是大约90°。应当理解,当子部分310和312之间的角度α在0°和90°之间时,UAV 300的各个部件可以具有相似的结构关系。例如,当子部分310和312之间的角度α在0°和90°之间时,主体部分302保持为耦接在子部分310上的收容部330中,而主体部分302与子部分312上的收容部331分离。在如图5B所示的一些实施例中,折叠轴线514穿过主体部分302的上边缘303。在一些实施例中,主体部分302的上边缘303的长度与子部分310的总长度(类似于UAV 300的展开边缘313的长度)的比率约为1/4、1/3、1/2或任何其他合适的比率。
图5C示出了根据本公开实施例的处于第二状态540的UAV 300的示例。在图5C中,UAV 300的推进系统处于第二状态540,例如,超过一半打开的状态。例如,通过继续远离子部分310将子部分312旋转到超过状态520,使得子部分310和312之间的角度α大于90°,可以获得状态540。例如,角度α可以在90°和180°之间。如图5C所示,在第二状态540中,主体部分302与子部分310的收容部330分离,并且与子部分312上的收容部331分离。在例如参照图6E所述的一些实施例中,主体部分302和子部分,例如子部分312,之间的角度γ最大可以为90°。也就是说,当远离子部分310将子部分312旋转到主体部分302和子部分312之间的角度γ实质为90°的状态时,通过继续旋转子部分312,主体部分302可以从收容部330分离(例如,拉出)。
图5D示出了根据本公开实施例的UAV 300的展开状态560的示例。在图5D中,UAV300的推进系统处于展开状态560,例如,其中子部分310和312彼此基本上对齐,它们之间的角度α实质为180°。例如,如图5D所示,UAV 300的机翼,例如子部分310和312,基本上在同一平面中,主体部分302实质垂直于该平面。在一些实施例中,随着子部分312继续沿图5C中的轴线514旋转,主体部分302和子部分312之间的角度γ保持在实质90°,直到子部分312完全打开并且与子部分310基本上对齐。
图6A示出了根据本公开实施例的从与图5D不同的角度观察处于展开状态560的UAV 300的示例。如图6A所示,在一些实施例中,UAV 300包括至少一个子部分,例如子部分312上的耦接部602。如图6A所示,耦接部602可以设置在收容部330的内表面上。类似地,子部分310也可以在相对的内表面上包括耦接部602,其位于面对子部分312上的耦接部602的位置处(图6A未示出)。在一些实施例中,耦接部602被配置为与主体部分302的至少一部分,例如对应的耦接部604配合,以将与子部分310耦接的主体部分302保持在图5A中的折叠状态500或图5B中的第一状态520。
图6B示出了根据本公开实施例的截面图600,其示出了主体部分302和子部分310之间通过耦接部602和604的耦接关系。耦接部602和604包括可以相互联接、匹配、配合或适配的凹入结构和突起结构。例如,耦接部602可以包括突起结构并且可以包括设置在子部分310上的一个或多个部件。例如,如图6B所示,耦接部602包括例如弹簧的弹性部602a,其耦接到例如钢珠的填充部602b。耦接部604包括设置在主体部分302上的凹入结构,例如凹槽。当相互耦接时,弹性部602a可以向填充部602b施加力,以耦接至填充部602b的凹入结构604,例如突出并容纳在填充部602b的凹入结构604中。因此,填充部602b与凹形结构604配合,并形成由弹性部602a施加的力强制的耦接结构。此外,为了从耦接部604释放耦接部602,需要一定量的力。在一些实施例中,作为对上述的替代,耦接部分602可以包括子部分310或312的内表面上的凹入结构,例如凹槽,耦接部分604可以包括主体部分302上的突起,凹入的耦接部602可以可拆卸地耦接至突出的耦接部604。应当理解,图6A和图6B中所示的耦接部是示例性而非限制性的,也可以使用其他合适的耦接结构。例如,耦接部602和604可以包括磁性构件和铁构件,通过磁吸引力将主体部分302耦接至子部分310。应当理解,类似的耦接部可以设置在子部分312上和主体部分302的相应位置上,以在主体部分302和子部分312之间提供相似的耦接关系。
图6C和6D示出了根据本公开实施例的限位机构620,限位机构连接主体部分302和子部分之一,例如子部分312,以限制主体部分302和子部分312之间的折叠状态。例如,限位机构620可以防止子部分312旋转或展开到子部分312和主体部分302之间的角度γ大于预定阈值(例如,90°)。
如图5A所示,当处于折叠状态500时,子部分310和312以及主体部分302可以通过耦接部602和604固定耦接在一起。然后,如图5B所示,操作人员可以一只手握持UAV 300的一个子部分,例如子部分310,并用另一只手拉动另一个子部分,例如子部分312,子部分312围绕折叠轴线514相对于主体部分302旋转以展开UAV 300。例如,当子部分312旋转到角度γ实质等于预定阈值,例如90°时,限位机构620可以防止子部分312将角度γ进一步扩大至超出预定阈值。在一些实施例中,可以通过子部分310和主体部分302之间的限位机构620、磁吸引力和/或任何其他合适的耦接结构(例如,凹形和凸形耦接结构),将子部分310和主体部分302之间的位置固定在预定阈值的角度γ处。
接下来,如图5C所示,当操作人员继续拉动子部分312绕折叠轴514旋转以展开UAV300时,由于限位机构620限制了子部分312与主体部分302之间的相对位置,当有足够的拉力使得耦接部602和604分离时,子部分310可以被拉至与主体部分302分离。在一些实施例中,耦接部602和604可以将子部分,例如图5C中的子部分310,从主体部分302分离,以展开UAV 300。当另一子部分,例如子部分312,相对于子部分310继续旋转,例如展开时,在子部分312和主体部分302之间的角度γ达到预定阈值后,主体部分302被限位机构620限制在预定阈值处。例如,子部分312和主体部分302之间的角度γ将保持预定阈值,例如最大90°。进一步的拉动、旋转或展开会触发子部分310从主体部分302脱离,增加主体部分302和子部分310之间的角度β(如图6E所示)。
在一些实施例中,子部分310和312可以一直延伸到如图5D所示的展开状态560,这时它们之间的角度α实质为180°(例如,角度γ和角度β分别为实质90°)。图6E示出了根据本公开实施例的侧视图640,其示出了当UAV 300处于展开状态560时主体部分302与子部分310和312之间的关系。在一些实施例中,在展开状态560下,子部分310和312可以彼此基本上对齐,例如角度α实质为180°。可以通过磁吸引力或任何其他合适的耦接力来固定子部分310和312。这样,通过一个连续的拉动过程,操作人员可以用一只手握持UAV 300的主体部分302,用另一只手方便高效地展开无人飞行器300。应当理解,本公开所述的UAV 300可以包括比上述折叠状态更多的折叠状态。例如,子部分310和312之间的角度α可以超过180°,主体部分302可以相对于子部分310或312处于任何合适的位置,例如使得角γ或角β在任何合适的范围内。
图7A和7B示出了根据本公开实施例的通过交错布置两个相对的螺旋桨的马达形成的折叠结构的示例。在一些实施例中,当处于折叠状态500时,第一子部分710上的第一马达702和第二子部分712上的第二马达704可以交错布置。子部分710和712可以分别类似于子部分310和312。在如图5A所示的一些实施例中,当处于折叠状态500时,两个子部分710和712的相对表面紧密接触。然而,在子部分310和312上堆叠的保护部分324以及堆叠的相对马达会增加UAV 300在折叠状态500下的厚度。
为了进一步减小携带体积,如图7A和图7B所示,折叠时接触的子部分710和712上的螺旋桨的相对侧可以不包括其保护部分。也就是说,子部分710和712中的每一个可以仅在一侧具有保护部分324(如图7A所示,折叠时面向外侧)。此外,相对的螺旋桨可以是不对称的,从而当折叠时,马达702与马达704不重叠,子部分710和712各自的螺旋桨桨叶可以被紧密地压在一起,如图7B所示。例如,马达702可以更靠近折叠轴514,而马达704可以更靠近子部分312的开口边缘。这样,在折叠状态500下,马达702和704可以交错以进一步减小厚度.
应当理解,所公开的实施例在其应用中不必须限于在以下描述中所阐述和/或在附图和/或示例中所示出的部件的构造和布置的细节。所公开的实施例可以变化,或者能够以各种方式实践或执行。本发明中所述的用户控制类型可以同等地应用于其他类型的可移动物体或被配置在诸如地表、空气、水、铁轨、空间、地下等合适的介质之上或之内移动的任何合适的物体、设备、机构、系统或机器。
对本领域技术人员来说显而易见的是,可以对所公开的设备和系统进行各种修改和变化。考虑到所公开的设备和系统的说明书和实践,其他实施例对于本领域技术人员将是显而易见的。本说明书和示例仅被认为是示例性的,其实际范围由所附权利要求及其等同物指示。
Claims (52)
1.一种无人驾驶的可移动物体,包括:
所述无人驾驶的可移动物体上的一个或多个交互部件,所述一个或多个交互部件被配置为显示与所述无人驾驶的可移动物体的操作相关联的信息,以及检测所述一个或多个交互部件上接收到的用户的输入,以以便与所显示的信息进行交互;
推进系统,被配置为推进所述无人飞行器;以及
与存储器耦接的一个或多个处理器,所述存储器被配置为存储指令,所述指令由所述一个或多个处理器执行以便根据所述输入来控制所述无人飞行器的操作。
2.根据权利要求1所述的无人飞行器,其中,所述一个或多个交互部件包括所述无人飞行器的主体部分上的显示器,以及被配置为接收所述输入的一个或多个输入机构。
3.根据权利要求1所述的无人飞行器,其中,所述一个或多个交互部件包括位于所述无人飞行器的所述主体部分上的交互式显示器。
4.根据权利要求1所述的无人飞行器,还包括:
所述无人飞行器上的成像设备,被配置为捕获图像。
5.根据权利要求4所述的无人飞行器,其中,所述交互部件中的一个交互部件被配置为显示操作菜单,所述操作菜单包括一个或多个用户界面元素,所述一个或多个用户界面元素与用于操作所述无人飞行器的指令相对应。
6.根据权利要求4所述的无人飞行器,其中,所述一个或多个交互部件包括交互式显示器,所述交互式显示器被配置为:
显示由所述成像设备捕获的图像,以及
检测对应于与所显示的捕获图像的至少一部分的用户交互的所述用户输入,以便根据所述用户交互生成用于操作所述无人飞行器的指令。
7.根据权利要求4所述的无人飞行器,其中,所述一个或多个交互部件包括交互式显示器,所述交互式显示器被配置为:
显示地图,以及
检测对应于与所述地图的至少一部分的用户交互的所述用户输入,以便根据所述用户交互生成用于操作所述无人飞行器的指令。
8.根据权利要求4所述的无人飞行器,其中,所述成像设备还被配置为捕获识别用户的身体移动的图像数据,以使所述无人飞行器根据所述身体移动进行操作。
9.根据权利要求4所述的无人飞行器,其中,所述成像设备还被配置为捕获图像数据,所述图像数据用于识别所述成像设备的视野中不同于用户的人的身体移动,以使所述无人飞行器根据所述身体移动进行操作。
10.根据权利要求4所述的无人飞行器,其中,所述成像设备还被配置为检测用户与显示交互内容的投影视图的至少一部分交互的动作,以便基于所述动作生成用于操作所述无人飞行器的指令。
11.根据权利要求1所述的无人飞行器,其中,所述一个或多个交互部件还包括音频设备,所述音频设备被配置为接收操作所述无人飞行器的音频命令。
12.根据权利要求1所述的无人飞行器,其中,所述无人飞行器的操作包括:
控制所述无人飞行器的所述推进系统;
控制所述无人飞行器的导航;或者
控制所述无人飞行器的一个或多个传感器。
13.根据权利要求1所述的无人飞行器,其中,所述推进系统还包括至少一个旋转部件和保护机构,所述保护机构被配置为防止所述旋转部件中的一个或多个旋转部件与用户接触。
14.根据权利要求1所述的无人飞行器,其中,所述一个或多个交互部件相对于所述推进系统不可折叠。
15.根据权利要求1所述的无人飞行器,其中,所述一个或多个交互部件相对于所述推进系统可折叠。
16.根据权利要求15所述的无人飞行器,还包括:
与所述一个或多个交互部件连接的主体部分,以及
所述推进系统与所述主体部分耦接并且相对于所述主体部分可折叠,所述推进系统包括两个子部分,所述两个子部分通过耦接部相互可旋转地耦接。
17.根据权利要求1所述的无人飞行器,其中,所述一个或多个交互部件嵌入在所述无人飞行器的主体部分上。
18.根据权利要求1所述的无人飞行器,其中,所述一个或多个交互部件包括所述无人飞行器上的传感器。
19.一种操作无人飞行器的方法,包括:
通过所述无人飞行器上的一个或多个交互部件,显示与所述无人飞行器的操作相关联的信息;
检测所述无人飞行器的所述一个或多个交互部件上接收到的用户的输入,所述输入与所显示的信息交互;以及
根据所述输入生成用于操作所述可移动物体的指令,包括:
控制所述无人飞行器的移动或导航;或者
控制所述无人飞行器上的成像设备的操作。
20.根据权利要求19所述的方法,其中,控制成像设备的操作包括:
调整所述成像设备的一个或多个参数,或者
改变所述成像设备的拍摄模式。
21.根据权利要求19所述的方法,其中,所述一个或多个交互部件包括显示器,所述显示器被配置为显示与所述无人飞行器的操作相关联的所述信息。
22.根据权利要求19所述的方法,其中,所述一个或多个交互部件包括一个或多个输入机构,所述输入由所述无人飞行器上的所述一个或多个输入机构接收。
23.根据权利要求19所述的方法,其中,所述信息包括与所述无人飞行器的操作相关联的虚拟现实(VR)/增强现实(AR)内容,所述一个或多个交互部件包括投影仪,所述投影仪被配置为投影所述VR/AR内容用于用户交互。
24.根据权利要求19所述的方法,其中,所述一个或多个交互部件包括位于所述无人飞行器的主体部分上的交互式显示器,并且在所述交互式显示器上接收所述输入。
25.根据权利要求19所述的方法,还包括:
在显示器上显示操作菜单,所述操作菜单包括与用于操作所述无人飞行器的指令对应的一个或多个控制项,检测到的用户输入对应于从操作菜单的所述控制项中选择所述控制项之一。
26.根据权利要求19所述的方法,还包括:
在显示器上显示由成像设备捕获的图像,所述检测到的输入对应与所显示的捕获图像的至少一部分的用户交互,以便根据所述用户交互生成用于操作所述无人飞行器的指令。
27.根据权利要求19所述的方法,还包括:
显示地图,所述检测到的输入对应与所述地图的至少一部分的用户交互,以便根据所述用户交互生成用于操作所述无人飞行器的指令。
28.根据权利要求19所述的方法,还包括:
基于由所述成像设备捕获的一个或多个图像获得图像数据,所述图像数据识别在所述成像设备的视野中检测到的用于操作所述无人飞行器的用户指令。
29.根据权利要求19所述的方法,还包括:
检测用于操作所述无人飞行器的音频命令。
30.根据权利要求19所述的方法,其中,检测用户的输入包括:
在用户的至少一只手握持所述无人飞行器并且在显示器上将与所述无人飞行器的操作相关联的信息显示给用户时,检测所述用户的输入。
31.根据权利要求30所述的方法,其中:
用户的所述输入指令所述无人飞行器起飞,以及
响应于所述输入,所述无人飞行器从用户的所述至少一只手上起飞。
32.根据权利要求19所述的方法,其中,当所述无人飞行器在距用户可达距离内盘旋时,在所述无人飞行器的所述一个或多个交互部件上接收所述输入。
33.根据权利要求24所述的方法,其中,通过所述一个或多个交互部件显示与所述无人飞行器的操作相关联的信息还包括:
在所述交互式显示器上显示一个或多个用户界面元素;以及
接收用于自定义所述一个或多个用户界面元素的用户的输入。
34.根据权利要求33所述的方法,其中,所述一个或多个用户界面元素与校准所述无人飞行器的移动路径相关联。
35.根据权利要求19所述的方法,还包括:
响应于在所述无人飞行器的所述一个或多个交互部件上接收到所检测到的用户输入,更新所显示的信息。
36.一种可折叠的可移动物体,包括:
包括一个或多个交互部件的主体部分,所述一个或多个交互部件被配置为显示与所述可折叠的可移动物体的操作相关联的信息,以及检测所述一个或多个交互部件上接收到的用户的输入,以便与所显示的信息进行交互;以及
与所述主体部分连接的推进系统,所述推进系统包括两个子部分,所述两个子部分通过耦接部相互可旋转地耦接,每个子部分包括至少一组旋转部件,所述旋转部件被配置为旋转以便推进所述可折叠的可移动物体。
37.根据权利要求36所述的可折叠的可移动物体,还包括:
覆盖每组旋转部件的多个保护件。
38.根据权利要求36所述的可折叠的可移动物体,其中,在折叠状态下,所述两个子部分的表面相互接触,所述主体部分设置在形成于两组旋转部件之间的收容部中。
39.根据权利要求38所述的可折叠的可移动物体,其中,所述子部分中的至少一个子部分包括第一耦接部,所述第一耦接部被配置为与所述主体部分的至少一部分配合以便保持所述折叠状态。
40.根据权利要求39所述的可折叠的可移动物体,其中,所述第一耦接部包括突起,所述主体部分设有凹槽,所述突起配合到所述凹槽中以便保持所述折叠状态。
41.根据权利要求39所述的可折叠的可移动物体,其中,所述第一耦接部设有凹槽,所述主体部分包括突起,所述突起配合到所述凹槽中以便保持所述折叠状态。
42.根据权利要求40或41所述的可折叠的可移动物体,其中,所述突起包括弹性突起。
43.根据权利要求39所述的可折叠的可移动物体,其中,所述第一耦接部包括磁性构件或铁构件,所述第一耦接部与所述主体部分的一部分形成磁吸引力以便维持所述折叠状态。
44.根据权利要求39所述的可折叠的可移动物体,其中,所述第一耦接部设置在所述收容部的内表面上。
45.根据权利要求36所述的可折叠的可移动物体,其中,在折叠状态下,所述子部分中的第一子部分上的第一马达和所述子部分中的第二子部分上的第二马达交错布置。
46.根据权利要求36所述的可折叠的可移动物体,其中,在展开状态下,所述两个子部分彼此实质对齐,所述两个子部分的侧面通过快拆结构相互接触,所述主体部分与所述两个子部分实质垂直。
47.根据权利要求46所述的可折叠的可移动物体,其中,在展开状态下,所述主体部分实质位于所述两个子部分下方。
48.根据权利要求46所述的可折叠的可移动物体,其中,所述快拆结构包括磁性元件、螺纹紧固元件或锁定元件。
49.根据权利要求39所述的可折叠的可移动物体,还包括连接所述主体部分与所述子部分中的第一子部分的限位机构,以便防止所述第一子部分旋转至所述第一子部分与所述主体部分之间大于预定阈值的角度。
50.根据权利要求49所述的可折叠的可移动物体,其中,所述子部分中的第二子部分包括设置在所述收容部的内表面上的第二耦接部,所述第二机构被配置为配合所述主体部分的至少一部分以便保持所述折叠状态。
51.根据权利要求50所述的可折叠的可移动物体,其中,所述第二耦接部还被配置为当所述第一子部分在所述第一子部分与所述主体部分之间的角度达到所述预定阈值,且所述主体部分被所述限位机构限制在所述预定阈值处之后继续相对于所述第二子部分旋转时,使所述第二子部分与所述主体部分脱离,以便展开所述可折叠的可移动物体。
52.根据权利要求36所述的可折叠的可移动物体,其中,所述一个或多个交互部件中被配置为在所述可折叠的可移动物体的折叠状态和展开状态下,显示所述信息的一个交互部件均是可见的。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2020/139505 WO2022134024A1 (en) | 2020-12-25 | 2020-12-25 | Unmanned aerial vehicle with user-interactive components and a foldable structure |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116194369A true CN116194369A (zh) | 2023-05-30 |
Family
ID=77952863
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080103877.7A Pending CN116194369A (zh) | 2020-12-25 | 2020-12-25 | 具有用户交互部件和可折叠结构的无人飞行器 |
CN202023352348.7U Expired - Fee Related CN214356664U (zh) | 2020-12-25 | 2020-12-31 | 多旋翼无人机 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202023352348.7U Expired - Fee Related CN214356664U (zh) | 2020-12-25 | 2020-12-31 | 多旋翼无人机 |
Country Status (2)
Country | Link |
---|---|
CN (2) | CN116194369A (zh) |
WO (1) | WO2022134024A1 (zh) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160041697A (ko) * | 2014-10-08 | 2016-04-18 | 한화테크윈 주식회사 | 무인 비행체 |
CN104580606B (zh) * | 2015-02-02 | 2017-03-29 | 金陵科技学院 | 一种可变为无人机的手机壳 |
CN105035303A (zh) * | 2015-08-19 | 2015-11-11 | 无锡觅睿恪科技有限公司 | 折叠型航拍飞行器 |
US9977434B2 (en) * | 2016-06-23 | 2018-05-22 | Qualcomm Incorporated | Automatic tracking mode for controlling an unmanned aerial vehicle |
JP2020505694A (ja) * | 2017-01-19 | 2020-02-20 | ブイトラス,インク. | Uavおよび他の自律車両のための屋内マッピングおよびモジュラー制御、ならびに関連するシステムおよび方法 |
-
2020
- 2020-12-25 CN CN202080103877.7A patent/CN116194369A/zh active Pending
- 2020-12-25 WO PCT/CN2020/139505 patent/WO2022134024A1/en active Application Filing
- 2020-12-31 CN CN202023352348.7U patent/CN214356664U/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN214356664U (zh) | 2021-10-08 |
WO2022134024A1 (en) | 2022-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11385645B2 (en) | Remote control method and terminal | |
CN108780325B (zh) | 用于调整无人飞行器轨迹的系统和方法 | |
US10860040B2 (en) | Systems and methods for UAV path planning and control | |
CN108780316B (zh) | 用于飞行装置的移动控制的方法和系统 | |
TWI634047B (zh) | 遠端控制方法及終端 | |
US20190291864A1 (en) | Transformable apparatus | |
US11420741B2 (en) | Methods and apparatuses related to transformable remote controllers | |
US20190144116A1 (en) | Systems and methods for multi-orientation flight | |
US20200148352A1 (en) | Portable integrated uav | |
JP2021175175A (ja) | 人間の身体表示に基づいて可動物体を操作するための方法、プログラムおよび装置 | |
US20220350330A1 (en) | Remote control method and terminal | |
US20200382696A1 (en) | Selfie aerial camera device | |
CN116194369A (zh) | 具有用户交互部件和可折叠结构的无人飞行器 | |
WO2021133918A1 (en) | Aerial camera device, systems, and methods | |
WO2022193079A1 (zh) | 无人机系统及无人机的控制方法、装置 | |
JP2021036452A (ja) | Uav軌道を調整するシステム及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |