CN117067228B - 用于驾驶有人机的机器人 - Google Patents
用于驾驶有人机的机器人 Download PDFInfo
- Publication number
- CN117067228B CN117067228B CN202311068328.2A CN202311068328A CN117067228B CN 117067228 B CN117067228 B CN 117067228B CN 202311068328 A CN202311068328 A CN 202311068328A CN 117067228 B CN117067228 B CN 117067228B
- Authority
- CN
- China
- Prior art keywords
- robot
- data
- control device
- task
- machine
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000007 visual effect Effects 0.000 claims abstract description 16
- 230000007246 mechanism Effects 0.000 claims abstract description 12
- 238000007726 management method Methods 0.000 claims description 48
- 238000005259 measurement Methods 0.000 claims description 24
- 238000013136 deep learning model Methods 0.000 claims description 8
- 210000000689 upper leg Anatomy 0.000 claims description 8
- 210000003108 foot joint Anatomy 0.000 claims description 7
- 210000000629 knee joint Anatomy 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 5
- 238000012544 monitoring process Methods 0.000 claims description 5
- 238000011022 operating instruction Methods 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 3
- 230000007613 environmental effect Effects 0.000 abstract description 10
- 238000012545 processing Methods 0.000 description 17
- 238000000034 method Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 244000309466 calf Species 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000007689 inspection Methods 0.000 description 3
- 238000011217 control strategy Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 1
- 229910000838 Al alloy Inorganic materials 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 239000000956 alloy Substances 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000010923 batch production Methods 0.000 description 1
- 210000000038 chest Anatomy 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000002427 irreversible effect Effects 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 239000013585 weight reducing agent Substances 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/08—Programme-controlled manipulators characterised by modular constructions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C13/00—Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
- B64C13/02—Initiating means
- B64C13/16—Initiating means actuated automatically, e.g. responsive to gust detectors
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Manipulator (AREA)
Abstract
本公开的实施例提供一种用于驾驶有人机的机器人。机器人包括:视觉识别装置、惯性导航装置、任务管理装置、机械控制装置、手掌及脚掌执行机构。视觉识别装置识别数据显示设备所显示的状态数据,根据座舱内外的环境图像来生成环境数据。惯性导航装置实时采集有人机的航行数据。任务管理装置确定机器人的当前操作模式。如果当前操作模式是任务模式,任务管理装置向机械控制装置发送目标任务中包括的预设操作指令,将状态数据和航行数据与目标任务进行比较,根据比较结果和环境数据生成附加操作指令,将附加操作指令发送给机械控制装置。机械控制装置根据预设和附加操作指令控制手掌和脚掌执行机构运动以操控有人机的油门杆、驾驶杆、操纵台和脚蹬。
Description
技术领域
本公开的实施例涉及机器人技术领域,具体地,涉及用于驾驶有人机的机器人。
背景技术
目前将有人驾驶飞机(也可称为“有人机”)改成无人驾驶飞机(也可称为“无人机”)的一般做法是面向特定对象开展建模研究工作,拆除部分原机设备(有时需对原机部分结构、电缆进行改变),以及研制加装配套的各类传感器、飞行控制设备、自动电气设备、发动机控制设备、执行机构等。最后整机在地面各类测试系统的配合下完成各类测试以达到飞行状态。这种做法具有不可逆性。原机被改变后很难恢复为最初状态,也不具有批量化生产优势。
发明内容
本文中描述的实施例提供了一种用于驾驶有人机的机器人。
根据本公开的第一方面,提供了一种用于驾驶有人机的机器人。该机器人包括:视觉识别装置、惯性导航装置、任务管理装置、机械控制装置、手掌执行机构、以及脚掌执行机构。其中,视觉识别装置被配置为:识别有人机的座舱内的数据显示设备所显示的状态数据,根据座舱内外的环境图像来生成环境数据,并向任务管理装置实时发送状态数据和环境数据。惯性导航装置被配置为:实时采集有人机的航行数据,并向任务管理装置实时发送航行数据。其中,航行数据包括以下中的至少一个:经纬度、三维地速、海拔高度、海拔高度变化率、三维姿态、以及姿态角速度。任务管理装置被配置为:确定机器人的当前操作模式;以及响应于当前操作模式是任务模式,根据目标任务向机械控制装置发送操作指令。其中,根据目标任务向机械控制装置发送操作指令包括:向机械控制装置发送目标任务中包括的预设操作指令;将状态数据和航行数据与目标任务进行比较;根据比较结果和环境数据生成附加操作指令;以及将附加操作指令发送给机械控制装置。机械控制装置被配置为:根据预设操作指令和附加操作指令来控制手掌执行机构和脚掌执行机构运动以操控有人机的油门杆、驾驶杆、操纵台和脚蹬。
在本公开的一些实施例中,任务管理装置包括深度学习模型。任务管理装置还被配置为:响应于当前操作模式是学习模式,使用针对有人机的机型的训练数据集来训练深度学习模型以学习以下中的至少一个:基本驾驶技能、三维航迹快速规划、以及博弈算法。
在本公开的一些实施例中,任务管理装置包括对外接口。任务管理装置经由对外接口耦接外部控制设备以配合外部控制设备执行以下操作中的至少一个:地面检测、任务装订、或者数据下载。
在本公开的一些实施例中,机器人还包括:测控装置。测控装置被配置为:将状态数据、环境数据和航行数据实时下传至地面控制站,接收来自地面控制站的新操作指令或新目标任务,以及向任务管理装置发送所接收的新操作指令或新目标任务。
在本公开的一些实施例中,测控装置包括:多个机载天线。其中,多个机载天线被安装在机器人的不同位置以保证在有人机的任何姿态下测控装置都能够与地面控制站通信。
在本公开的一些实施例中,机器人还包括:听觉识别装置。其中,听觉识别装置被配置为:识别有人机座舱内的声音,并将所识别的声音作为状态数据传递给任务管理装置。
在本公开的一些实施例中,视觉识别装置包括双目监测单元。双目监测单元被配置为执行双目交会测量以提高识别状态数据的准确度。
在本公开的一些实施例中,手掌执行机构包括至少四个机械手掌。其中,第一机械手掌专门用于操纵有人机的油门杆。第二机械手掌专门用于操纵有人机的驾驶杆。第三机械手掌专门用于操纵有人机的左侧操纵台。第四机械手掌专门用于操纵有人机的右侧操纵台。
在本公开的一些实施例中,机器人还包括躯干部分、大腿部分、小腿部分、膝关节、以及脚关节。躯干部分能够刚性连接至有人机的飞行员座椅的安装底板上。大腿部分刚性连接至躯干部分。小腿部分经由膝关节柔性连接至大腿部分。脚掌执行机构经由脚关节柔性连接至小腿部分。
在本公开的一些实施例中,有人机包括:固定翼飞机、以及旋翼飞机。
附图说明
为了更清楚地说明本公开的实施例的技术方案,下面将对实施例的附图进行简要说明,应当知道,以下描述的附图仅仅涉及本公开的一些实施例,而非对本公开的限制,其中:
图1是根据本公开的实施例的用于驾驶有人机的机器人的示意性结构图;
图2是根据本公开的实施例的用于驾驶有人机的机器人的示意性框图。
需要注意的是,附图中的元素是示意性的,没有按比例绘制。
具体实施方式
为了使本公开的实施例的目的、技术方案和优点更加清楚,下面将结合附图,对本公开的实施例的技术方案进行清楚、完整的描述。显然,所描述的实施例是本公开的一部分实施例,而不是全部的实施例。基于所描述的本公开的实施例,本领域技术人员在无需创造性劳动的前提下所获得的所有其它实施例,也都属于本公开保护的范围。
除非另外定义,否则在此使用的所有术语(包括技术和科学术语)具有与本公开主题所属领域的技术人员所通常理解的相同含义。进一步将理解的是,诸如在通常使用的词典中定义的那些的术语应解释为具有与说明书上下文和相关技术中它们的含义一致的含义,并且将不以理想化或过于正式的形式来解释,除非在此另外明确定义。如在此所使用的,将两个或更多部分“连接”或“耦接”到一起的陈述应指这些部分直接结合到一起或通过一个或多个中间部件结合。另外,诸如“第一”和“第二”的术语仅用于将一个部件(或部件的一部分)与另一个部件(或部件的另一部分)区分开。
为了便于描述,在这里可以使用空间相对术语,如“上”、“下”、“左”、“右”、“顶”、“底”等,用来描述如在图中所示的一个器件或元素与其他器件或元素的空间位置关系。例如,术语“在……上”、“在……之上”、“在……上方”、“在……上表面”、“上面的”、“定位在……上”或者“定位在……顶上”等意味着诸如第一结构的第一元素存在于诸如第二结构的第二元素上,其中,在第一元素和第二元素之间可存在中间元素,也可不存在中间元素。术语“接触”意味着连接诸如第一结构的第一元素和诸如第二结构的第二元素,而在两个元素的界面处可以有或者没有其它元素。应当理解的是,空间相对术语旨在包含除了器件在图中所描述的方位之外的在使用或操作中的不同方位。例如,如果附图中的器件被倒置,则描述为“在其他器件或构造上方”或“在其他器件或构造之上”的器件之后将被定位为“在其他器件或构造下方”或“在其他器件或构造之下”。因而,示例性术语“在……上方”可包括“在……上方”和“在……下方”两种方位。该器件也可以其他不同方式定位旋转90度或处于其他方位,并且对这里所使用的空间相对描述作出相应解释。
针对有人机改无人机时需要拆除部分原机设备的方案,本公开提出运用机器人技术和有人机平台结合,研制一个外形似坐姿人的机器人,将其安装在有人机的座舱位置,使其代替飞行员。这种机器人具有飞行员的分析、判断、决策能力,能够完成飞行员的推收油门、控制舵面、操作特殊任务按钮等动作。这种机器人可以安装于任何有人驾驶机型,只需拆除原机飞行员座椅并换装刚性连接件即可,原机无需其它任何改动。这样可以快捷的实现有人机改无人机。这种机器人在批量化运用后,其成本将极大降低,经济效益将非常可观。随着人工智能技术的发展,不断改进软件算法,这种机器人最终将成为具有一定智能的机器人飞行员以投入各种实际应用场景。
根据本公开的实施例的用于驾驶有人机的机器人能够应用于固定翼飞机和旋翼飞机二者。图1示出根据本公开的实施例的用于驾驶有人机的机器人100的示意性结构图。图2示出根据本公开的实施例的用于驾驶有人机的机器人内部的连接关系。下面结合图1和图2来介绍根据本公开的实施例的用于驾驶有人机的机器人100。如图1所示,机器人100的外形可以类似坐姿人。机器人100采用减重设计原则,主体框架可采用塑料加铝合金材质。机器人100的主体框架被设计成能够刚性安装于飞行座舱的安装底板上。机器人100的身高比例可根据座舱内的具体布置来确定,以其能够正常操作有人机为宜。
该机器人100可包括:视觉识别装置110、惯性导航装置120、任务管理装置130、机械控制装置140、手掌执行机构150、以及脚掌执行机构160。在图1的示例中,视觉识别装置110被布置在机器人100的头部HD和躯干部分BD之内。惯性导航装置120、任务管理装置130和机械控制装置140被布置在机器人100的躯干部分BD之内。躯干部分BD能够刚性连接至有人机的飞行员座椅的安装底板上。机器人100的大腿部分LG刚性连接至躯干部分BD。小腿部分CF经由膝关节柔性连接至大腿部分LG。脚掌执行机构160经由脚关节柔性连接至小腿部分CF。机器人100的手臂部分AM柔性连接至躯干部分BD。手掌执行机构150柔性连接至手臂部分AM。
视觉识别装置110耦接任务管理装置130。视觉识别装置110可包括多个摄像头111(在图1中用黑色实心圆来表示)和第一数据处理单元。多个摄像头111能够采集有人机的座舱内的数据显示设备的显示画面以及座舱内外的环境图像。数据显示设备可包括:仪器、仪表、指示灯和显示屏等。数据显示设备能够显示有人机的各种状态数据,例如,经度、纬度、高度、俯仰角、横滚角、真航向、迎角、侧滑角、表速、发动机转速及温度、电源电压等。第一数据处理单元被配置为:根据多个摄像头111所采集的显示画面来识别有人机的座舱内的数据显示设备所显示的状态数据。第一数据处理单元例如通过图像识别技术来从数据显示设备的显示画面中识别状态数据。第一数据处理单元还被配置为:根据座舱内外的环境图像来生成环境数据。第一数据处理单元例如通过图像识别技术来确定座舱内外的环境分类(例如,地面、或者空中)以及识别座舱内外的环境变化(例如,气象变化、或者其他物体在靠近等)。第一数据处理单元还可对座舱外的标志性特征进行识别,以便识别跑道等。视觉识别装置110还可包括第一数据发送单元,用于向任务管理装置130实时发送状态数据和环境数据。
在本公开的一些实施例中,第一数据处理单元还包括双目监测单元。双目监测单元被配置为执行双目交会测量以提高识别状态数据的准确度。
惯性导航装置120耦接任务管理装置130。惯性导航装置120可被布置在机器人100的臀部位置。惯性导航装置120可包括多个传感器和第二数据发送单元。多个传感器能够实时采集有人机的航行数据。第二数据发送单元能够向任务管理装置130实时发送所采集的航行数据。其中,航行数据包括以下中的至少一个:经纬度、三维地速、海拔高度、海拔高度变化率、三维姿态、以及姿态角速度。
任务管理装置130耦接视觉识别装置110、惯性导航装置120和机械控制装置140。任务管理装置130可被布置在机器人100的胸部位置。任务管理装置130可包括第二数据处理单元和第三数据发送单元。第二数据处理单元可包括深度学习模型。机器人100可以有两种操作模式:学习模式和任务模式。在学习模式下,深度学习模型可被训练。可使用针对有人机的机型的训练数据集来训练深度学习模型,以学习以下中的至少一个:基本驾驶技能、三维航迹快速规划、以及博弈算法。在任务模式下,机器人100可执行实际飞行任务。
在机器人100初始运行时,第二数据处理单元可先确定机器人100的当前操作模式。机器人100的当前操作模式可由外部输入的指令来选择。如果当前操作模式是学习模式,任务管理装置130可进行指定机型的驾驶学习。如果当前操作模式是任务模式,任务管理装置130可根据目标任务向机械控制装置140发送操作指令。目标任务可包括多个预设操作指令,例如,飞机开车程序、滑出前检查程序、滑出、起飞前检查程序、滑行、脱离对飞机进行检查和操控等。每个预设操作指令可指示需要机械控制装置140执行的操作和操作时机。第二数据处理单元可解析每个预设操作指令,并在该预设操作指令所指示的操作时机控制第三数据发送单元向机械控制装置140发送该预设操作指令。第二数据处理单元还可以从视觉识别装置110接收状态数据和环境数据,从惯性导航装置120接收航行数据。第二数据处理单元可将状态数据和航行数据与目标任务进行比较,并根据比较结果和环境数据生成附加操作指令。然后,第三数据发送单元可将附加操作指令发送给机械控制装置140。在一个示例中,假设根据状态数据和航行数据可确定有人机当前的航线与目标任务中的目标航线不符,则第二数据处理单元可重新规划航线以使得有人机回到目标航线。在另一个示例中,假设有人机遭遇意外撞击(例如,鸟群撞击)导致座舱内气压低于目标气压,则第二数据处理单元可结合座舱内气压与目标气压之差以及环境数据来确定是否需要返航或者立即迫降。
在本公开的一些实施例中,任务管理装置130包括对外接口。任务管理装置130经由对外接口耦接外部控制设备以配合外部控制设备执行以下操作中的至少一个:地面检测、任务装订、或者数据下载。用于选择机器人100的当前操作模式的指令以及目标任务可由外部控制设备经由上述对外接口发送给任务管理装置130。
机械控制装置140耦接任务管理装置130、手掌执行机构150、以及脚掌执行机构160。机械控制装置140可从任务管理装置130接收预设操作指令和附加操作指令,并根据预设操作指令和附加操作指令来控制手掌执行机构150和脚掌执行机构160运动以操控有人机的油门杆、驾驶杆、操纵台和脚蹬。机械控制装置140例如能够建立座舱的三维坐标系,从而精准掌控手掌执行机构150和脚掌执行机构160的坐标和运动。机械控制装置140还可向任务管理装置130反馈手掌执行机构150和脚掌执行机构160的运动结果。在安装机器人100时,可将脚掌执行机构160放置在有人机的脚蹬上。脚掌执行机构160可包括两个机械脚掌,每个机械脚掌放置在相应的一个脚蹬上。手掌执行机构150可带动手臂部分运动,以操控有人机的油门杆、驾驶杆和操纵台。
在本公开的一些实施例中,机械控制装置140可包括中央处理器、存储单元和接口电路。机械控制装置140通过接口电路耦接任务管理装置130。接口电路提供例如串行接口。
在本公开的一些实施例中,手掌执行机构150包括至少四个机械手掌。其中,第一机械手掌专门用于操纵有人机的油门杆。第二机械手掌专门用于操纵有人机的驾驶杆。第三机械手掌专门用于操纵有人机的左侧操纵台。第四机械手掌专门用于操纵有人机的右侧操纵台。这样,机械手掌的设计更加简单,并且对深度学习模型的训练也更容易。在实际操作中,能够减少机械手掌的运动幅度,从而降低机器人100的功耗和磨损。
在本公开的一些实施例中,脚掌执行机构160能够实现前后移动、以及上下转动。在一个示例中,机器人100的膝关节和脚关节能够转动,从而实现脚掌执行机构160的前后移动,脚关节的转动还能够实现脚掌执行机构160的上下移动。
在本公开的一些实施例中,机器人100还可包括:测控装置170。测控装置170耦接任务管理装置130。测控装置170被配置为:将状态数据、环境数据和航行数据实时下传至地面控制站。地面控制站可根据所接收的状态数据、环境数据和航行数据生成新操作指令或新目标任务,并向测控装置170发送新操作指令或新目标任务。测控装置170在接收到来自地面控制站的新操作指令或新目标任务之后,向任务管理装置130发送所接收的新操作指令或新目标任务。任务管理装置130在接收到新操作指令的情况下,将新操作指令加入目标任务中。任务管理装置130在接收到新目标任务的情况下,用新目标任务替代当前目标任务。在本公开的一些实施例中,测控装置170可包括:机载数据终端。机载数据终端用于将状态数据、环境数据和航行数据实时下传至地面控制站,接收来自地面控制站的新操作指令或新目标任务,以及向任务管理装置130发送所接收的新操作指令或新目标任务。
在本公开的一些实施例中,测控装置170可包括:多个机载天线171。该多个机载天线171被安装在机器人100的不同位置以保证在有人机的任何姿态下测控装置170都能够与地面控制站通信。在图1的示例中,仅示意性示出了安装在机器人100的头部HD的一个机载天线171。
在本公开的一些实施例中,测控装置170还可包括:北斗天线172,用于接收北斗卫星信号。测控装置170可将所接收的北斗卫星信号发送给任务管理装置130,以便在任务管理装置130生成附加操作指令时作为参考。
在本公开的一些实施例中,机器人100还可包括:听觉识别装置(未示出)。听觉识别装置可耦接任务管理装置130。听觉识别装置可包括声音采集设备(例如麦克风)和第三数据处理单元。听觉识别装置可被布置在机器人100的头部HD的对称的两侧。声音采集设备可用于采集有人机座舱内的声音。第三数据处理单元可被配置为采用语音识别技术来识别声音采集设备所采集的声音,并将所识别的声音作为状态数据传递给任务管理装置130。
在本公开的一些实施例中,机器人100还可包括:供电装置180。供电装置180被布置在机器人100的躯干部分BD之内。供电装置180可采用蓄电池加外接电源的实现方式。例如,蓄电池可被安装在机器人100的腿部、胸腹部等可以有效使用的空间内。蓄电池的供电电压为28V的直流电压。机器人100内部的其它装置均采用此供电标准。此外,机器人100还具有外接28V的直流供电接口181,可以使用机上直流电源,以此实现机器人100始终处于正常供电状态。
机器人100的一个示例工作流程可包括:在机器人100被安装于座舱后,可分别设置手掌执行机构150和脚掌执行机构160置于零位位置,使其与飞机油门操作手柄、驾驶杆、两个脚蹬都置于初始位置。在向机器人100装载任务数据后,机器人100处于复位状态。在任务模式下,机器人100转入准备阶段,依次按飞机开车程序、滑出前检查程序、滑出、起飞前检查程序、滑行、脱离对飞机进行检查和操控,脱离后飞机按目标航线和任务性质对飞机进行相应操控。操控的过程中,机器人100通过视觉识别装置110实时获取座舱内数据显示设备所显示的状态数据和座舱内外的环境数据,作为机器人100控制策略的信息基础。机器人100通过惯性导航装置120实时获取有人机的航行数据。任务管理装置130将获取的状态数据、环境数据和航行数据与目标任务(包括目标航线和任务性质)进行比较判断,形成控制策略,将操控飞机的执行量发送给机械控制装置140。机械控制装置140通过手掌执行机构150实时操控飞机油门杆、驾驶杆和各类电门及按钮,以完成对飞机平尾、襟副翼、方向舵、减速板及各类电门的操控。机器人100通过测控装置170将内部数据(包括状态数据、环境数据和航行数据)实时下传至地面控制站。地面控制站的地面指挥员可以进行人工干预飞行,可以通过测控装置170重新上传任务数据至机器人100,以此实现地面指挥员具有最高指挥权。
综上所述,根据本公开的实施例的用于驾驶有人机的机器人适用于固定翼飞机和旋翼飞机。在使用有人机执行特殊任务或在有人机达到额定寿命后转为其它用途从而不适合人类飞行员驾驶飞机的情况下,根据本公开的实施例的用于驾驶有人机的机器人能够以简单、快捷、低成本的方式来将有人机改为无人机。根据本公开的实施例的用于驾驶有人机的机器人能够自主执行飞行任务,也能够配合地面控制站来执行飞行任务。根据本公开的实施例的用于驾驶有人机的机器人具有加装简单,恢复容易,移植性强,性价比高,可批量化生产的优点,解决了现有技术中的改装周期长、效率低,不可恢复、改装成本高、不能批量生产的问题。
除非上下文中另外明确地指出,否则在本文和所附权利要求中所使用的词语的单数形式包括复数,反之亦然。因而,当提及单数时,通常包括相应术语的复数。相似地,措辞“包含”和“包括”将解释为包含在内而不是独占性地。同样地,术语“包括”和“或”应当解释为包括在内的,除非本文中明确禁止这样的解释。在本文中使用术语“示例”之处,特别是当其位于一组术语之后时,所述“示例”仅仅是示例性的和阐述性的,且不应当被认为是独占性的或广泛性的。
适应性的进一步的方面和范围从本文中提供的描述变得明显。应当理解,本申请的各个方面可以单独或者与一个或多个其它方面组合实施。还应当理解,本文中的描述和特定实施例旨在仅说明的目的并不旨在限制本申请的范围。
以上对本公开的若干实施例进行了详细描述,但显然,本领域技术人员可以在不脱离本公开的精神和范围的情况下对本公开的实施例进行各种修改和变型。本公开的保护范围由所附的权利要求限定。
Claims (10)
1.一种用于驾驶有人机的机器人,其特征在于,所述机器人包括:视觉识别装置、惯性导航装置、任务管理装置、机械控制装置、手掌执行机构、以及脚掌执行机构,
其中,所述视觉识别装置被配置为:识别所述有人机的座舱内的数据显示设备所显示的状态数据,根据所述座舱内外的环境图像来生成环境数据,并向所述任务管理装置实时发送所述状态数据和所述环境数据;
所述惯性导航装置被配置为:实时采集所述有人机的航行数据,并向所述任务管理装置实时发送所述航行数据,其中,所述航行数据包括以下中的至少一个:经纬度、三维地速、海拔高度、海拔高度变化率、三维姿态、以及姿态角速度;
所述任务管理装置被配置为:确定所述机器人的当前操作模式;以及响应于所述当前操作模式是任务模式,根据目标任务向所述机械控制装置发送操作指令;
其中,根据目标任务向所述机械控制装置发送操作指令包括:
向所述机械控制装置发送所述目标任务中包括的预设操作指令;
将所述状态数据和所述航行数据与所述目标任务进行比较;
根据比较结果和所述环境数据生成附加操作指令;以及
将所述附加操作指令发送给所述机械控制装置;
所述机械控制装置被配置为:根据所述预设操作指令和所述附加操作指令来控制所述手掌执行机构和所述脚掌执行机构运动以操控所述有人机的油门杆、驾驶杆、操纵台和脚蹬。
2.根据权利要求1所述的机器人,其特征在于,所述任务管理装置包括深度学习模型,所述任务管理装置还被配置为:响应于所述当前操作模式是学习模式,使用针对所述有人机的机型的训练数据集来训练所述深度学习模型以学习以下中的至少一个:基本驾驶技能、三维航迹快速规划、以及博弈算法。
3.根据权利要求1或2所述的机器人,其特征在于,所述任务管理装置包括对外接口,所述任务管理装置经由所述对外接口耦接外部控制设备以配合所述外部控制设备执行以下操作中的至少一个:地面检测、任务装订、或者数据下载。
4.根据权利要求1或2所述的机器人,其特征在于,所述机器人还包括:测控装置,
所述测控装置被配置为:将所述状态数据、所述环境数据和所述航行数据实时下传至地面控制站,接收来自所述地面控制站的新操作指令或新目标任务,以及向所述任务管理装置发送所接收的新操作指令或新目标任务。
5.根据权利要求4所述的机器人,其特征在于,所述测控装置包括:多个机载天线,其中,所述多个机载天线被安装在所述机器人的不同位置以保证在所述有人机的任何姿态下所述测控装置都能够与所述地面控制站通信。
6.根据权利要求1或2所述的机器人,其特征在于,所述机器人还包括:听觉识别装置,
其中,所述听觉识别装置被配置为:识别所述有人机座舱内的声音,并将所识别的声音作为状态数据传递给所述任务管理装置。
7.根据权利要求1或2所述的机器人,其特征在于,所述视觉识别装置包括双目监测单元,所述双目监测单元被配置为执行双目交会测量以提高识别所述状态数据的准确度。
8.根据权利要求1或2所述的机器人,其特征在于,所述手掌执行机构包括至少四个机械手掌,其中,第一机械手掌专门用于操纵所述有人机的油门杆,第二机械手掌专门用于操纵所述有人机的驾驶杆,第三机械手掌专门用于操纵所述有人机的左侧操纵台,第四机械手掌专门用于操纵所述有人机的右侧操纵台。
9.根据权利要求1或2所述的机器人,其特征在于,所述机器人还包括躯干部分、大腿部分、小腿部分、膝关节、以及脚关节,所述躯干部分能够刚性连接至所述有人机的飞行员座椅的安装底板上,所述大腿部分刚性连接至所述躯干部分,所述小腿部分经由所述膝关节柔性连接至所述大腿部分,所述脚掌执行机构经由所述脚关节柔性连接至所述小腿部分。
10.根据权利要求1或2所述的机器人,其特征在于,所述有人机包括:固定翼飞机、以及旋翼飞机。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311068328.2A CN117067228B (zh) | 2023-08-23 | 2023-08-23 | 用于驾驶有人机的机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311068328.2A CN117067228B (zh) | 2023-08-23 | 2023-08-23 | 用于驾驶有人机的机器人 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117067228A CN117067228A (zh) | 2023-11-17 |
CN117067228B true CN117067228B (zh) | 2024-03-26 |
Family
ID=88705689
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311068328.2A Active CN117067228B (zh) | 2023-08-23 | 2023-08-23 | 用于驾驶有人机的机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117067228B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006193034A (ja) * | 2005-01-13 | 2006-07-27 | Kanazawa Inst Of Technology | 飛行操縦ロボット |
CN106508001B (zh) * | 2006-05-19 | 2011-02-16 | 成都飞机工业(集团)有限责任公司 | 控制无人机姿态故障的处置系统 |
CN104820491A (zh) * | 2014-01-30 | 2015-08-05 | 霍尼韦尔国际公司 | 提供驾驶舱的人机工程三维手势多模态接口的系统和方法 |
CN107614308A (zh) * | 2015-05-05 | 2018-01-19 | B.G.内盖夫技术与应用有限公司 | 通用自主机器人驾驶系统 |
CN113119085A (zh) * | 2021-03-24 | 2021-07-16 | 北京航空航天大学 | 一种直升机飞行驾驶机器人系统 |
WO2023100187A2 (en) * | 2021-12-02 | 2023-06-08 | Xtend Reality Expansion Ltd. | Systems and methods for managing unmanned vehicle interactions with various payloads |
CN116449874A (zh) * | 2023-06-13 | 2023-07-18 | 北京瀚科智翔科技发展有限公司 | 有人驾驶飞机的模块化无人控制改装套件及构建方法 |
CN116547113A (zh) * | 2020-08-27 | 2023-08-04 | 延伸机器人技术有限公司 | 机器人系统的远程操作 |
-
2023
- 2023-08-23 CN CN202311068328.2A patent/CN117067228B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006193034A (ja) * | 2005-01-13 | 2006-07-27 | Kanazawa Inst Of Technology | 飛行操縦ロボット |
CN106508001B (zh) * | 2006-05-19 | 2011-02-16 | 成都飞机工业(集团)有限责任公司 | 控制无人机姿态故障的处置系统 |
CN104820491A (zh) * | 2014-01-30 | 2015-08-05 | 霍尼韦尔国际公司 | 提供驾驶舱的人机工程三维手势多模态接口的系统和方法 |
CN107614308A (zh) * | 2015-05-05 | 2018-01-19 | B.G.内盖夫技术与应用有限公司 | 通用自主机器人驾驶系统 |
CN116547113A (zh) * | 2020-08-27 | 2023-08-04 | 延伸机器人技术有限公司 | 机器人系统的远程操作 |
CN113119085A (zh) * | 2021-03-24 | 2021-07-16 | 北京航空航天大学 | 一种直升机飞行驾驶机器人系统 |
WO2023100187A2 (en) * | 2021-12-02 | 2023-06-08 | Xtend Reality Expansion Ltd. | Systems and methods for managing unmanned vehicle interactions with various payloads |
CN116449874A (zh) * | 2023-06-13 | 2023-07-18 | 北京瀚科智翔科技发展有限公司 | 有人驾驶飞机的模块化无人控制改装套件及构建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN117067228A (zh) | 2023-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11276325B2 (en) | Systems and methods for flight simulation | |
US11378988B2 (en) | Aircrew automation system and method with integrated imaging and force sensing modalities | |
US11042074B2 (en) | Flying camera with string assembly for localization and interaction | |
Ollero et al. | Control and perception techniques for aerial robotics | |
AU2017238122B2 (en) | Aircrew automation system and method | |
How et al. | Real-time indoor autonomous vehicle test environment | |
CN112789672B (zh) | 控制和导航系统、姿态优化、映射和定位技术 | |
Wang et al. | Autonomous control for micro-flying robot and small wireless helicopter xrb | |
Rilanto Trilaksono et al. | Hardware‐in‐the‐loop simulation for visual target tracking of octorotor UAV | |
Johnson et al. | Modeling and simulation for small autonomous helicopter development | |
Hing et al. | Development of an unmanned aerial vehicle piloting system with integrated motion cueing for training and pilot evaluation | |
Campoy et al. | An stereoscopic vision system guiding an autonomous helicopter for overhead power cable inspection | |
Mancini et al. | A framework for simulation and testing of uavs in cooperative scenarios | |
CN117067228B (zh) | 用于驾驶有人机的机器人 | |
Wang et al. | Autonomous control of micro flying robot | |
Azrad et al. | Visual servoing of an autonomous micro air vehicle for ground object tracking | |
Cai et al. | Development of fully functional miniature unmanned rotorcraft systems | |
Kumar et al. | Lidar-aided autonomous landing and vision-based taxiing for fixed-wing UAV | |
Guerra et al. | Mobile ground control station development for fault tolerant UAV research | |
Hing et al. | Development and evaluation of a chase view for UAV operations in cluttered environments | |
Moutinho¹ et al. | Project DIVA: Guidance and vision surveillance techniques for an autonomous airship | |
CARDAMONE | Implementation of a pilot in the loop simulation environment for UAV development and testing | |
Cesetti et al. | From simulated to real scenarios: a framework for multi-UAVs | |
Ollero | Control and perception techniques for aerial robotics | |
Kummer et al. | Design and Development of the Hardware for a Vision-based UAV Autopilot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |