CN117191001A - 一种搜救机器人的搜救方法、上位机和下位机 - Google Patents
一种搜救机器人的搜救方法、上位机和下位机 Download PDFInfo
- Publication number
- CN117191001A CN117191001A CN202311018216.6A CN202311018216A CN117191001A CN 117191001 A CN117191001 A CN 117191001A CN 202311018216 A CN202311018216 A CN 202311018216A CN 117191001 A CN117191001 A CN 117191001A
- Authority
- CN
- China
- Prior art keywords
- robot
- search
- rescue
- data
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000006854 communication Effects 0.000 claims abstract description 17
- 238000004891 communication Methods 0.000 claims abstract description 17
- 230000009471 action Effects 0.000 claims abstract description 6
- 230000007613 environmental effect Effects 0.000 claims abstract description 5
- 238000012545 processing Methods 0.000 claims description 39
- 238000004458 analytical method Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 8
- 238000010276 construction Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000006073 displacement reaction Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 5
- 230000007175 bidirectional communication Effects 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 claims description 3
- 238000012544 monitoring process Methods 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 claims description 3
- 230000000875 corresponding effect Effects 0.000 description 12
- 230000001276 controlling effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 240000007651 Rubus glaucus Species 0.000 description 2
- 235000011034 Rubus glaucus Nutrition 0.000 description 2
- 235000009122 Rubus idaeus Nutrition 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000003331 infrared imaging Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明涉及机器人技术领域,具体是涉及一种搜救机器人的搜救方法、上位机和下位机。所述搜救机器人的搜救方法包括:将搜救机器人送至灾难现场;与机器人建立实时连接;启动机器人上的各种传感器,获取现场的环境信息;根据所述环境信息构建地图;根据地图信息和导航算法开始搜索搜救目标;当发现目标时,获取目标的位置信息,并将其传达给指挥中心或操作人员;指挥中心或操作人员根据目标位置信息,指示机器人执行相应的救援行动。本搜救机器人用于灾难现场搜救任务,能够通过PC端433无线通信实时控制机器人、接收搜救机器人现场画面并完成自动建图,从而安全高效地完成灾后救援任务。
Description
技术领域
本发明涉及机器人技术领域,具体是涉及一种搜救机器人的搜救方法、上位机和下位机。
背景技术
在2017年,Mario Silvagni和他的团队设计了一款多功能搜救无人机,用于在山区雪崩事故中进行搜救工作。该无人机具备出色的负载能力和可自定义的飞行操作,同时还具备一定的自主能力。该搜救无人机通过使用跟踪、定位、导航和路径规划算法来进行搜救任务规划。此外,无人机配备了红外成像功能的摄像头,即使在视线不佳的情况下也能执行搜救任务。
然而,该搜救机器人缺乏实时现场建图功能,没有实时的场景地图,该搜救机器人难以准确感知和识别当前环境中的障碍物,如树木、岩石等。这可能导致该搜救机器人在执行搜救任务时与障碍物相撞或受到干扰;该搜救机器人无法根据当前环境的实际情况进行准确的路径规划,它可能选择不适合的路径,导致效率低下或无法到达目标区域。无实时地图的情况下,搜救搜救机器人可能无法有效地确定已经搜索过的区域,因此可能会重复搜索相同的区域,浪费时间和资源,而忽略其他可能有更高搜救成功率的区域。
发明内容
(一)要解决的技术问题
本发明主要针对以上问题,提出了一种搜救机器人的搜救方法、上位机和下位机,其目的是解决如何提高灾后救援的效率与安全性,如何能够及时有效地完成救援任务的问题。
(二)技术方案
为实现上述目的,本发明第一方面提供了一种搜救机器人的搜救方法,所述搜救机器人的搜救方法包括:
将搜救机器人送至灾难现场;
与机器人建立实时连接;
启动机器人上的各种传感器,获取现场的环境信息;
根据所述环境信息构建地图;
根据地图信息和导航算法开始搜索搜救目标;
当发现目标时,获取目标的位置信息,并将其传达给指挥中心或操作人员;
指挥中心或操作人员根据目标位置信息,指示机器人执行相应的救援行动。
进一步地,根据所述环境信息构建地图的步骤包括:
初始化里程计节点:在上位机中,初始化一个里程计节点,接收下位机传输的编码器脉冲数,并计算机器人的瞬时速度;
计算机器人位姿:根据接收到的编码器脉冲数,结合已知的参数,推算出机器人每个时间步长的位移和转角,累积所述位移和转角,计算出机器人当前的位置和姿态信息,其中,所述已知的参数至少包括车轮半径、轮距;
获取传感器信息:利用JY61角度传感器获取机器人的姿态信息;
激光雷达数据处理:使用X2L激光雷达获取现场的点云数据;
融合传感器信息和里程计数据:将计算得到的机器人姿态信息与传感器信息获取的姿态信息进行融合;
构建地图:将融合后的机器人姿态信息与激光雷达返回的点云数据进行地图构建。
进一步地,在所述激光雷达数据处理中,还包括将激光雷达返回的点云数据进行滤波和处理。
进一步地,所述方法还包括:在整个搜救过程中,接收并实时监控机器人的环境画面和传感器数据。
进一步地,所述方法还包括:将机器人在搜救过程中收集到的数据传给指挥中心或操作人员进行进一步的分析和评估。
为实现上述目的,本发明第二方面提供了一种上位机,包括:
接收模块,接收激光雷达节点发布的点云数据、摄像头节点发布的图像数据、下位机传输的传感器数据及操作人员输入的指令数据;
数据模块,对接收到的各数据进行相应的处理;
反馈和发布模块,将经过处理的数据反馈给相关节点或发布至ROS系统中的其他节点。
进一步地,在所述数据模块中,对接收到的各数据进行相应的处理包括:使用ROS提供的gmapping算法节点进行地图构建、进行摄像头图像数据处理、对接收到的下位机传感器数据进行解析和处理,及根据接收到的键盘输入指令进行相应的控制命令生成。
进一步地,在反馈和发布模块中,将经过处理的数据反馈给相关节点或发布至ROS系统中的其他节点的步骤包括:
里程计数据反馈:将通过电机速度计算得到的里程计数据反馈给rviz模型节点;
图像数据反馈:将经过图像处理的摄像头图像数据反馈给相关节点或用于视觉SLAM算法;
控制指令发布:将生成的控制指令发布与下位机建立的双向通信节点进行串口通信。
为实现上述目的,本发明第三方面提供了一种下位机,包括:
串口通信模块,与上位机的双向通信节点建立串口连接;
接收模块,接收上位机发送的控制指令;
执行控制模块,根据上位机发送的控制指令,控制相关传感器获取实时数据;
处理模块,对接收到的传感器数据进行编码器数据处理、陀螺仪数据处理及其他传感器数据处理;
数据反馈模块,将执行结果或传感器数据通过串口通信发送给上位机。
进一步地,在数据反馈模块中,使用433M无线模块将图像信息及数据回传给上位机。
(三)有益效果
与现有技术相比,本发明提供的一种搜救机器人的搜救方法、上位机和下位机,上位机可以实现通过所得电机速度完成里程计计算,并将计算得到的机器人位姿和融合后的IMU信息与激光雷达返回的点云数据相结合,构建出实时的地图,通过地图,可以进行路径规划和导航,确定最短、最安全的路径,避开不可通行区域或危险地带,能够提高搜救行动的效率和成功率,有助于保护搜救人员的安全,并最大程度地救助被困人员。
附图说明
图1为本申请披露的一种搜救机器人的搜救方法的流程图。
图2为本申请披露的一种构建地图的流程图。
图3为本申请披露的一种整体硬件结构框图。
图4为本申请披露的一种主要程序流程框图。
具体实施方式
下面结合实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
如图1所示,本发明第一方面提供了一种搜救机器人的搜救方法,所述搜救机器人的搜救方法包括:
S100、将搜救机器人送至灾难现场:机器人被送至发生灾难或紧急情况的地点,这可以通过手动操控或者自主导航实现。
S200、与机器人建立实时连接:确保机器人与指挥中心或操作人员之间建立起实时的通信连接,以便传输数据和接收指令。
S300、启动机器人上的各种传感器,获取现场的环境信息:机器人启动其搭载的传感器,如摄像头、声音传感器、热像仪等,用于捕获周围环境的信息。
S400、根据所述环境信息构建地图:通过收集到的环境信息,机器人使用相应的算法将这些信息整合并构建出一个地图,用于后续的搜救行动。
S500、根据地图信息和导航算法开始搜索搜救目标:利用先前构建的地图信息和导航算法,机器人开始搜索搜救目标。
S600、当发现目标时,获取目标的位置信息,并将其传达给指挥中心或操作人员:一旦机器人发现搜救目标,它会获取目标的位置信息,并通过实时连接将这些信息传达给指挥中心或操作人员。
S700、指挥中心或操作人员根据目标位置信息,指示机器人执行相应的行动:接收到目标位置信息后,指挥中心或操作人员会根据情况和需要,下达指令给机器人执行相应的行动,如救援、提供医疗援助等。
上述实施例中,该搜救方法包括将机器人送至灾难现场,获取环境信息并构建地图,搜索搜救目标,发现目标后传递位置信息给指挥中心或操作人员,并根据指示执行相应的行动。该方法结合了机器人的感知能力、导航技术和通信能力,以提高搜救效率和准确性,同时保证了与指挥中心或操作人员之间的协同工作。
如图2所示,根据所述环境信息构建地图的步骤包括:
S410、初始化里程计节点:在上位机中,初始化一个里程计节点,该节点接收来自下位机的编码器脉冲数,并根据这些脉冲数计算机器人的瞬时速度。编码器通常安装在机器人的车轮上,通过测量轮子的旋转角度来推断机器人的运动。
S420、计算机器人位姿:利用接收到的编码器脉冲数和已知的参数(例如车轮半径、轮距),推算出机器人每个时间步长的位移和转角。通过累积这些位移和转角,可以计算出机器人当前的位置和姿态信息,即位姿(包括坐标和方向)。
S430、获取传感器信息:使用JY61角度传感器获取机器人的姿态信息。JY61是一种惯性测量单元(IMU),可以测量机器人的加速度、角速度和角度等数据,从而提供关于机器人姿态的信息。
S440、激光雷达数据处理:使用X2L激光雷达获取现场的点云数据。激光雷达通过发射激光束并接收反射回来的光信号,生成环境中物体的三维点云数据。这些点云数据包含了物体的位置和形状等信息。
S450、融合传感器信息和里程计数据:将计算得到的机器人位姿信息(步骤S420)与传感器信息获取的姿态信息(步骤S430)进行融合。可以通过滤波算法(如卡尔曼滤波)来整合两种来源的数据,以获得更准确和稳定的姿态估计。
S460、构建地图:最后,将融合后的机器人姿态信息(步骤S450)与激光雷达返回的点云数据(步骤S440)进行地图构建。根据机器人的位置和姿态,将激光雷达返回的点云数据映射到相应的位置,并在一个坐标系中积累这些数据,逐渐构建出环境的地图。
在所述激光雷达数据处理的步骤S440中,还包括将激光雷达返回的点云数据进行滤波和处理,去除噪声并提取有效的地面和障碍物信息。
通过以上步骤,搜救机器人可以利用里程计、传感器和激光雷达等设备获取环境信息,并将其整合到一个地图中,为后续的搜索和搜救任务提供准确的环境感知和导航支持。
在本实施例中,所述方法还包括:进行实时监控,在整个搜救过程中,指挥中心或操作人员可以通过PC端接收并实时监控机器人的环境画面和传感器数据。
在本实施例中,所述方法还包括进行数据回传与分析,机器人可以将搜救过程中收集到的数据,如现场图像、地图信息等回传给指挥中心或操作人员进行进一步的分析和评估。机器人根据指挥中心或操作人员的指示,完成搜救任务,并在需要时返回基地或待命位置。
作为一个例子,机器人可以包括以下组件和部件,但不限于:
底盘,机器人的底部结构,用于支持和移动机器人;包括车轮、履带或腿等。
传感器,用于感知环境和收集数据的设备;包括激光雷达、摄像头、红外线传感器、超声波传感器、触觉传感器等。
执行器,用于执行机器人动作的设备。例如,电机、舵机、液压驱动系统等。
控制系统,负责接收传感器数据并控制执行器的硬件和软件;包括嵌入式系统、微控制器、单片机、开发板和相关算法。
电源系统,提供机器人所需的电力供应和管理。包括电池、电源管理模块、充电器等。
运动规划与导航,用于规划机器人路径和实现导航功能的软件和算法。包括SLAM(Simultaneous Localization and Mapping)算法、路径规划算法、定位和导航算法等。
机械结构,机器人的物理框架和连接部件;包括机身、关节、连接杆、连接器等。
用户界面,与机器人进行交互和控制的界面。是图形用户界面、触摸屏、语音控制界面或遥控器等。
数据处理与决策,负责处理传感器数据、执行算法和决策任务的计算平台和软件。例如,嵌入式系统、单片机、ROS(Robot Operating System)等。
如图3所示,本发明第二方面提供了一种上位机,选用树莓派4B,它是一款基于ARM的微型电脑主板,使用SD/MicroSD卡作为内存硬盘易于安装更换,卡片主板周围有4个USB接口和一个以太网接口,可连接键盘、鼠标和网线,具备所有PC的基本功能。本实施例使用其配置Ubuntu环境下使用ROS进行该设计的上位机开发。上位机包括:
接收模块,接收激光雷达节点发布的点云数据、摄像头节点发布的图像数据、下位机传输的传感器数据及操作人员输入的指令数据;
数据模块,对接收到的各数据进行相应的处理;
反馈和发布模块,将经过处理的数据反馈给相关节点或发布至ROS系统中的其他节点;
优选的,对接收到的各数据进行相应的处理包括:使用ROS提供的gmapping算法节点进行地图构建、进行摄像头图像数据处理、对接收到的下位机传感器数据进行解析和处理,及根据接收到的键盘输入指令进行相应的控制命令生成。
优选的,在反馈和发布模块中,将经过处理的数据反馈给相关节点或发布至ROS系统中的其他节点的步骤包括:里程计数据反馈:将通过电机速度计算得到的里程计数据反馈给rviz模型节点;图像数据反馈:将经过图像处理的摄像头图像数据反馈给相关节点或用于视觉SLAM算法;控制指令发布:将生成的控制指令发布与下位机建立的双向通信节点进行串口通信。
如图3所示,本发明第三方面提供了一种下位机,即机器人底盘主控采用STM32F103RCT6单片机作为核心控制器,其拥有48KBSRAM、256KBFLASH,且具有多种外设,其中最主要的有共计8个定时器,分别为2个高级定时器、4个通用定时器、2个基本定时器,以及5个串口、3个12位ADC等,共计64个IO口,主频为72MHz,该芯片资源丰富可拓展性强,性价比高。下位机包括:
串口通信模块,与上位机的双向通信节点建立串口连接;
接收模块,接收上位机发送的控制指令;
执行控制模块,根据上位机发送的控制指令,控制相关传感器获取实时数据;
处理模块,对接收到的传感器数据进行编码器数据处理、陀螺仪数据处理及其他传感器数据处理;
数据反馈模块,将执行结果或传感器数据通过串口通信发送给上位机,使用433M无线模块将图像信息及数据回传给上位机,通过使用433M频段信号极大加强了信号的穿透性与传输距离,同时能实时建图返回现场画面。
本实施例还包括使用X2L激光雷达实时获取现场点云数据;使用树莓派摄像头获取现场画面;使用JY61角度传感器获取IMU信息;使用OLED显示屏实时显示各传感器数据;TB6612电机驱动模块控制电机转速与正反转;使用多个稳压模块提供本设计各部分供电;使用6000mah航模电池作为可移动电源。
如图4,PC控制端使用个人电脑即可远程控制上位机系统桌面,从而远程查看信息与控制机器人。本实施例通过PC端远程控制上位机桌面,上位机初始化各程序节点,下位机同时完成程序初始化并与上位机进行双向通信,上位机通过所得电机速度完成里程计计算并反馈至rviz模型中,并与IMU信息融合同时结合激光雷达所返回的点云信息构建地图,同时操作人员可以使用个人电脑键盘输入结合返回的现场图像信息进行机器人控制。
下位机主要程序板块如陀螺仪信息读取、通过定时器计算机器人速度、更新OLED显示、接收控制指令等将与上位机的数据交换紧密结合。这样的设计确保了下位机的快速响应和精确控制,为整个系统提供了强健的底层支持。
上位机的主要程序板块包括了与下位机的双向通信初始化、激光雷达节点初始化、摄像头节点初始化、ROS gmapping算法节点初始化等。这些部分不仅负责数据的处理与分析,还将反馈信息整合并向操作员提供清晰的现场信息。这种设置使上位机成为整个搜救机器人系统的核心控制部分,有效地整合和管理各种数据源。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变型,这些改进和变型也应视为本发明的保护范围。
Claims (10)
1.一种搜救机器人的搜救方法,其特征在于,所述搜救机器人的搜救方法包括:
将搜救机器人送至灾难现场;
与机器人建立实时连接;
启动机器人上的各种传感器,获取现场的环境信息;
根据所述环境信息构建地图;
根据地图信息和导航算法开始搜索搜救目标;
当发现目标时,获取目标的位置信息,并将其传达给指挥中心或操作人员;
指挥中心或操作人员根据目标位置信息,指示机器人执行相应的救援行动。
2.如权利要求1所述的一种搜救机器人的搜救方法,其特征在于,根据所述环境信息构建地图的步骤包括:
初始化里程计节点:在上位机中,初始化一个里程计节点,接收下位机传输的编码器脉冲数,并计算机器人的瞬时速度;
计算机器人位姿:根据接收到的编码器脉冲数,结合已知的参数,推算出机器人每个时间步长的位移和转角,累积所述位移和转角,计算出机器人当前的位置和姿态信息,其中,所述已知的参数至少包括车轮半径、轮距;
获取传感器信息:利用JY61角度传感器获取机器人的姿态信息;
激光雷达数据处理:使用X2L激光雷达获取现场的点云数据;
融合传感器信息和里程计数据:将计算得到的机器人姿态信息与传感器信息获取的姿态信息进行融合;
构建地图:将融合后的机器人姿态信息与激光雷达返回的点云数据进行地图构建。
3.如权利要求2所述的一种搜救机器人的搜救方法,其特征在于,在所述激光雷达数据处理中,还包括将激光雷达返回的点云数据进行滤波和处理。
4.如权利要求1所述的一种搜救机器人的搜救方法,其特征在于,所述方法还包括:在整个搜救过程中,接收并实时监控机器人的环境画面和传感器数据。
5.如权利要求1所述的一种搜救机器人的搜救方法,其特征在于,所述方法还包括:将机器人在搜救过程中收集到的数据传给指挥中心或操作人员进行进一步的分析和评估。
6.一种上位机,其特征在于,包括:
接收模块,接收激光雷达节点发布的点云数据、摄像头节点发布的图像数据、下位机传输的传感器数据及操作人员输入的指令数据;
数据模块,对接收到的各数据进行相应的处理;
反馈和发布模块,将经过处理的数据反馈给相关节点或发布至ROS系统中的其他节点。
7.如权利要求6所述的一种上位机,其特征在于,在所述数据模块中,对接收到的各数据进行相应的处理包括:使用ROS提供的gmapping算法节点进行地图构建、进行摄像头图像数据处理、对接收到的下位机传感器数据进行解析和处理,及根据接收到的键盘输入指令进行相应的控制命令生成。
8.如权利要求6所述的一种上位机,其特征在于,在反馈和发布模块中,将经过处理的数据反馈给相关节点或发布至ROS系统中的其他节点的步骤包括:
里程计数据反馈:将通过电机速度计算得到的里程计数据反馈给rviz模型节点;
图像数据反馈:将经过图像处理的摄像头图像数据反馈给相关节点或用于视觉SLAM算法;
控制指令发布:将生成的控制指令发布与下位机建立的双向通信节点进行串口通信。
9.一种下位机,其特征在于,包括:
串口通信模块,与上位机的双向通信节点建立串口连接;
接收模块,接收上位机发送的控制指令;
执行控制模块,根据上位机发送的控制指令,控制相关传感器获取实时数据;
处理模块,对接收到的传感器数据进行编码器数据处理、陀螺仪数据处理及其他传感器数据处理;
数据反馈模块,将执行结果或传感器数据通过串口通信发送给上位机。
10.如权利要求9所述的一种下位机,其特征在于,在数据反馈模块中,使用433M无线模块将图像信息及数据回传给上位机。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311018216.6A CN117191001A (zh) | 2023-08-12 | 2023-08-12 | 一种搜救机器人的搜救方法、上位机和下位机 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311018216.6A CN117191001A (zh) | 2023-08-12 | 2023-08-12 | 一种搜救机器人的搜救方法、上位机和下位机 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117191001A true CN117191001A (zh) | 2023-12-08 |
Family
ID=89004276
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311018216.6A Pending CN117191001A (zh) | 2023-08-12 | 2023-08-12 | 一种搜救机器人的搜救方法、上位机和下位机 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117191001A (zh) |
-
2023
- 2023-08-12 CN CN202311018216.6A patent/CN117191001A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10901419B2 (en) | Multi-sensor environmental mapping | |
US9975632B2 (en) | Aerial vehicle system | |
Hood et al. | Bird's eye view: Cooperative exploration by UGV and UAV | |
EP3660231B1 (en) | System and method for autonomous operation of heavy machinery | |
CN109917786A (zh) | 一种面向复杂环境作业的机器人感知系统及系统运行方法 | |
US11340620B2 (en) | Navigating a mobile robot | |
EP3674657A1 (en) | Construction and update of elevation maps | |
JP6512657B2 (ja) | 移動機器の周囲状況提示システム | |
JP2018055695A (ja) | ある環境内で無人航空機を制御する方法、ある環境のマップを生成する方法、システム、プログラムおよび通信端末 | |
Meier et al. | The pixhawk open-source computer vision framework for mavs | |
CN107450556A (zh) | 一种基于ros的自主导航智能轮椅 | |
CN115933718A (zh) | 一种融合全景slam与目标识别的无人机自主飞行技术方法 | |
Liu et al. | Vision aided unmanned aerial vehicle autonomy: An overview | |
CN211529000U (zh) | 一种基于激光雷达和摄像头的无人驾驶小车 | |
Gadekar et al. | Rakshak: A modular unmanned ground vehicle for surveillance and logistics operations | |
CN114550488A (zh) | 一种基于机器人的空车位巡逻方法及装置 | |
CN115655261B (zh) | 地图生成方法、装置、机器人以及存储介质 | |
CN117191001A (zh) | 一种搜救机器人的搜救方法、上位机和下位机 | |
CN115237158A (zh) | 多旋翼无人机自主跟踪与着陆控制系统及控制方法 | |
Liu et al. | Enabling autonomous unmanned aerial systems via edge computing | |
Kurdi et al. | Design and development of efficient guidance system using multifunctional robot with quadcopter | |
CN114872051B (zh) | 通行地图获取系统、方法、机器人及计算机可读存储介质 | |
Wang et al. | Design of an autonomous mobile robot for hospital | |
EP4024155B1 (en) | Method, system and computer program product of control of unmanned aerial vehicles | |
CN217687537U (zh) | 一种自主移动人体测温设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |