CN115648221A - 基于ros系统的教育机器人 - Google Patents

基于ros系统的教育机器人 Download PDF

Info

Publication number
CN115648221A
CN115648221A CN202211469631.9A CN202211469631A CN115648221A CN 115648221 A CN115648221 A CN 115648221A CN 202211469631 A CN202211469631 A CN 202211469631A CN 115648221 A CN115648221 A CN 115648221A
Authority
CN
China
Prior art keywords
ros
robot
radar
trolley
real time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211469631.9A
Other languages
English (en)
Inventor
林有希
钟礼阳
赖福强
李凡
张立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN202211469631.9A priority Critical patent/CN115648221A/zh
Publication of CN115648221A publication Critical patent/CN115648221A/zh
Pending legal-status Critical Current

Links

Images

Abstract

本发明提出一种基于ROS系统的教育机器人,包括:深度相机(1)、ROS主控制器(2)、激光雷达(3)、IMU姿态传感器(4)、ROS控制板(5)以及由两个电机(6)驱动的行走机构;所述激光雷达用于实时确定ROS小车的外围可检测范围及其范围内的障碍物坐标;所述深度相机用于实时实时标定ROS小车的外围图像;所述ROS主控制器将深度相机实时标定的外围图像进行坐标转换以构建导航图;其基于ROS架构,通过远程PC端向机器人发送指令,进而实现至少包括:底层驱动控制远程操控、雷达建图、自动驾驶、雷达避障、二维码识别、导航避障、自主巡线和颜色追踪的功能。

Description

基于ROS系统的教育机器人
技术领域
本发明属于智能机器人技术领域,尤其涉及一种基于ROS(Robot OperatingSystem)系统的教育机器人。
背景技术
随着智能技术的飞速发展与教育理念的不断更新,机器人技术综合信息技术、电子工程、机械工程、控制理论、传感技术以及人工智能等前沿科技在为教育改革贡献力量。机器人操作系统(Robot Operating System, ROS)是一种开源机器人操作系统,2010年由Willow Garage公司发布,主要能够提供类似操作系统的功能,为机器人应用系统提供硬件抽象、底层驱动、消息传递、包管理及用于辅助开发的工具,例如建立、编写和运行多机通信系统整合的程序,ROS的设计目标是为提高代码的复用性,采用一种分布式的进程架构,使得程序具有高度的独立性和低耦合性。
机器人教育属于一个比较新的领域,但可使用的资源非常少,能够利用ROS的分布式架构以及开源代码,为学习者提供一个既可以二次开发又可娱乐的ROS平台少之又少。市面上的机器人教育平台普遍存在以下问题:功能简单,扩展性差,智能水平不高,用户群体受限,且普遍都只能给出应用层面的代码,并不能提供核心的代码和资料,这样用户很难了解机器人原理,更难在此基础上进行二次开发。
发明内容
针对现有技术的不足,本发明提出一种基于ROS系统的教育机器人,以解决市面上教育机器人功能简单且扩展性差等问题。
本发明解决其技术问题采用的技术方案是:
一种基于ROS系统的教育机器人,其特征在于:包括:深度相机(1)、ROS主控制器(2)、激光雷达(3)、IMU姿态传感器(4)、ROS控制板(5)以及由两个电机(6)驱动的行走机构;
所述激光雷达用于实时确定ROS小车的外围可检测范围及其范围内的障碍物坐标;
所述深度相机用于实时实时标定ROS小车的外围图像;
所述ROS主控制器将深度相机实时标定的外围图像进行坐标转换以构建导航图,并根据激光雷达实时确定的可检测范围及范围内的障碍物坐标,在导航图中基于栅格地图取值原理,实时检测ROS小车与可检测范围内任一障碍物的碰撞风险,且在碰撞风险时,生成调整四轮小车的当前运动轨迹的转向指令,下发给所述ROS控制板;
所述ROS控制板的输出端与两个电机相连,用于根据转向指令,驱动两个电机中的一个或两个动作,以调整转轮转速,使ROS小车沿调整后的运动轨迹运行;
基于ROS架构,通过远程PC端向机器人发送指令,进而实现至少包括:底层驱动控制远程操控、雷达建图、自动驾驶、雷达避障、二维码识别、导航避障、自主巡线和颜色追踪的功能。
进一步地,雷达建图状态下,机器人订阅雷达信息,实时确定检测范围内障碍物坐标,建立环境地图;
自动驾驶状态下,机器人订阅雷达信息和深度相机信息,判断周围环境状态,根据所建环境地图自主运动;
雷达避障状态下,机器人订阅雷达信息,判断障碍物距离,并以最短距离躲避障碍物运动;
二维码识别状态下,机器人订阅深度相机数据,计算标签在相机坐标中的位置与姿态;
导航避障状态下,通过接收远程PC端的指令,根据所建环境地图规划最合理的路线;
自主巡线状态下,机器人订阅红外信息,沿地面铺设好的轨迹行驶;
颜色追踪状态下,机器人订阅深度相机信息,追踪检测识别的颜色,与物体保持一定的距离。
进一步地,两个电机为两个JGB37-520直流有刷减速电机,以驱动两个驱动轮和两个万向轮。
进一步地,采用的电源管理模块包括稳压器与电压监控器。
进一步地,采用的IMU模块包括三轴陀螺仪、三轴加速度计和三轴磁力计。
与现有技术相比,本发明及其优选方案基于R0S系统,通过远程PC向机器人发送指令,进而实现底层驱动控制、远程遥控、雷达建图、自动驾驶、雷达避障、二维码识别、导航避障、自主巡线和颜色追踪等功能,结构简单,且采用开源代码,有利于二次开发,有效降低开发难度、加快开发进程。
附图说明
下面结合附图和具体实施方式对本发明进一步详细的说明:
图1是本发明实施例各功能模块安装位置示意图。
图2是本发明实施例硬件通信示意图。
图3是本发明实施例装置启动节点流程图。
图4是本发明实施例ROS主控采用的栅格地图取值原理图。
具体实施方式
为让本专利的特征和优点能更明显易懂,下文特举实施例,作详细说明如下:
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本说明书使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
如图1所示,为本发明实施例中,提供的一种ROS系统教育机器人,包括ROS小车深度相机1、以及安装在ROS小车上的工控机作为ROS主控2、激光雷达3、IMU姿态传感器4、ROS控制板5和两个电机6;其中,激光雷达3与工控机2的第一端相连,用于实时确定ROS小车的外围可检测范围及其范围内的障碍物坐标;深度相机1与工控机2的第二端相连,用于实时标定ROS小车的外围图像;工控机2的第三端与ROS控制板5的输入端连接,用于将深度相机实时标定的外围图像进行坐标转换来构建导航图,并根据激光雷达实时确定的可检测范围及其范围内的坐标,在所构建的导航图中基于栅格地图取值原理,实时检测ROS小车与可检测范围内任一障碍物的碰撞风险,且在检测到碰撞风险时,生成用以自动调整四轮小车的当前运动轨迹的转向指令,进一步下发给ROS控制板5;ROS控制板5的输出端与连接ROS小车的两个电机6相连,用于根据控制板下发的转向指令,驱动两个电机中的一个或两个动作来调整相应转轮的转速,使四轮小车能沿调整后的运动轨迹运行。基于ROS架构,通过远程PC端向机器人发送指令,进而实现底层驱动控制远程操控、雷达建图、自动驾驶、雷达避障、二维码识别、导航避障、自主巡线和颜色追踪等功能。
可以理解的是,ROS小车的当前运动轨迹是预先设置在工控机内部的且在导航图上能够反映出来,使ROS小车可以根据导航图自动导航仿真并行驶。当然,ROS小车的当前运动轨迹也可以是用户临时设置的。
在本发明实施例中,ROS小车与可检测范围内任一障碍物的碰撞风险检测,是通过计算ROS小车质心到障碍物之间的间距,并判定所计算的间距是否小于预设的碰撞预警距离来确定的;具体为,若小于,则说明存在碰撞风险;反之,则说明不存在碰撞风险。
在硬件实现上,本发明ROS小车当中:
电源模块、IMU、编码器模块与ROS机器人控制板连接。语音识别模块、传感器模块、功能模块及运动控制模块分别ROS主控连接,远程PC端通过通讯模块与ROS主控连接,在远程PC端和ROS主控上配置相同的ROS master,以实现远程PC端的节点与机器人上的节点的相互通讯,通讯模块包括USB通讯端和数据传输通讯端。基于ROS架构,通过远程PC端向机器人发送指令,进而实现底层驱动控制远程操控、雷达建图、自动驾驶、雷达避障、二维码识别、导航避障、自主巡线和颜色追踪等功能。
在本发明中,电源管理模块包括稳压器与电压监控器,稳压器将电源分配给机器人的不同组件,电压监控器监控当前电压值并在高清显示屏上显示。
在本发明中,数据传输通讯端包括WiFi通讯端与蓝牙通讯端,用于远程PC端与ROS主控之间的通讯。
在本发明中,IMU模块MPU6050姿态传感器焊接在ROS机器人控制板上,提供机器人的三轴加速度、三轴角速度、三轴姿态角信息。
在本发明中,语音识别模块包括与机器人连接的蓝牙,蓝牙启动后,用户通过蓝牙向机器人发送语音指令,如:左转、右转、前进后退、停止、避障、跟随、巡线、测距等功能,机器人接到语音指令后执行相应的动作。
在本发明中,传感器模块包括安装在机器人中部的激光雷达和安装在机器人正前方的深度相机,激光雷达实时确定ROS小车的外围可检测范围及障碍物的坐标,深度相机实时确定ROS小车的外围图像。
在本发明中,功能模块包括实现雷达建图、自动驾驶、雷达避障、二维码识别、导航避障、自主巡线和颜色追踪。雷达建图状态下,机器人订阅雷达信息,实时确定检测范围内障碍物坐标,建立环境地图;自动驾驶状态下,机器人订阅雷达信息和深度相机信息,判断周围环境状态,根据所建环境地图自主运动;雷达避障状态下,机器人订阅雷达信息,判断障碍物距离,并以最短距离躲避障碍物运动;二维码识别状态下,机器人订阅深度相机数据,计算标签在相机坐标中的位置与姿态。导航避障状态下,通过接收远程PC端的指令,根据所建环境地图规划最合理的路线;自主巡线状态下,机器人订阅红外信息,沿地面铺设好的红色轨迹行驶;颜色追踪状态下,机器人订阅深度相机信息,追踪检测识别的颜色,与物体保持一定的距离。在本发明中,运动控制模块包括两个JGB37-520直流有刷减速电机、两个驱动轮和两个万向轮,订阅远程PC端与语音识别模块发布的速度消息。
ROS主控是一台 x86架构的工控机,用于充当机器人的计算中心,CPU为 intel 公司的酷睿 i5-7260U处理器,配置 8G 运行内存并搭载 128G 固态硬盘。软件环境为Ubuntu 16.04 系统,预装对应的机器人操作系统 ROS kinetic 版本。下位机为一块STM32F407VGT6开发板。
在一个优选实施例中,工控机2上烧录有ROS系统软件,其配置为I5-7260U双核四线程,主频2.2GHz,显卡为英特尔Iris Plus Graphics 640,配备8G运行内存,运算性能强、功效低、能够流畅运行SLAM算法。与此同时,其还拥有DP与HDMI端口,支持双屏4K高清显示,4个USB2.0、4个USB3.0接口以及2个LAN千兆网络接口,并且自带WIFI模块,配备双天线。ROS控制版选用STM32F407VGT6开发板,整合了A4950电机驱动芯片,电机驱动输出最大电流2A,最高电压25v,同时支持外接大功率电机驱动板,包含3路超声波接口、4路PWM输出接口、4路带编码器电机接口、一路外接IMU接口等,并搭载一块OLED屏幕用于监控运行情况进行低电压、过流报警。
如图2和图3所示,对本发明实施例中的ROS教育机器人做进一步说明:
控制板OpenCR(Open-source Control Module for ROS),基于STM32单片机,两个电机接在电机编码器上,同时电源与工控机的电源相通、串口相通,对于外接的激光雷达和深度相机都依靠USB口连接在工控机上,工控机上安装ROS系统。用户端通过分布式通讯,远程PC可以连接到工控机,实现控制。
ROS控制板OpenCR端的两个电机对应ROS小车的驱动轮,通过编码器调节速度转速的差值以控制左右转、前后运动,构成了电驱动系统。且运动控制器OpenCR通过TTL串口通信实现了与ROS主控的工控机连接,是控制系统与驱动系统的交互,让“大脑”成功连接上了“四肢”。激光雷达、深度相机连接在工控机上,也就是将传感器的数据连接到ROS上参与情景的分析,是对整个系统的传感器扩展。
更进一步的,作为优选,给工控机安装Ubuntu 16.04系统运行乌班图,在windows上下载Window32DiskImager烧录软件。烧录之后,工控机上插上SD卡,接上键鼠后插上电源,执行类似上方虚拟机安装的ROS安装步骤(安装ROS步骤基本一致)。在ROS小车的运行过程中,ROS使用远程PC作为主机,工控机作为从机。
ROS是一个分布式软件架构,节点与节点可以.bashrc文件远程IP地址来连接。实现分布式多机通讯主要依靠两步:1.设置ip地址确保底层链路的连接。首先在终端ifconfig确定本机的ip地址。2.然后gedit ~/.bashrc。在主机这端编辑从机的ip地址与设置名字。
激光雷达测距得到std_msgs/Header header(消息头),具体包含有angle_min:可检测范围的起始角度;angle_max:可检测范围的终止角度,与angle_min组成激光雷达的可检测范围;angle_increment:相邻数据帧之间的角度步长;time_increment:采集到相邻数据帧之间的时间步长,当传感器处于相对状态时进行补偿使用;scan_time:采集一帧数据所需要的时间;range_min:最近可检测深度的阈值;range_max:最远可检测深度的阈值;ranges:一帧深度数据的存储数组;里程计信息rosmsg show nav_msgs/Odometry;pose:ROS小车当前位置坐标,包括ROS小车的XYZ三轴位置与方向参数,以及用于校正误差的协方差矩阵。
摄像头标定外围图像,并由工控机通过标定来转化坐标实现3D立体视觉建立成像模型。例如,kinetic摄像头就可以用于获取深度信息用于ROS智能车的建图。
如图4所示,为工控机上的栅格地图取值原理图。方框是ROS小车的外形,外形内部画一个门内圆判读位置主要依据是障碍物和内切圆的距离;外切圆内是有可能碰撞区域。一般来说,值越大是障碍物的可能越大。
基于以上设计,本实施例提供的机器人基于工控机上可以实现各种所述功能,例如通过以下程序反映:
(1) 建图仿真
启动gmapping演示(激光雷达)
roslaunch ZLYrobot_nav laser_bringup.launch
roslaunch ZLYrobot_nav ZLYrobot_map.launch map_type:=gmapping
rosrun teleop_twist_keyboard teleop_twist_keyboard.py
从起点跑到终点后保存地图:
rosrun map_server map_saver -f ~/ZLYrobot_ws/src/ZLYrobot_nav/maps/my_map
保存后可以得到对应的.pgm地图文件以及地图信息的yaml文件。
(2) 自动驾驶
roslaunch ZLYrobot_linefollow follow_line.launch
虚拟机 roslaunch ZLYrobot_linefollow line.launch
(3) 雷达避障
roslaunch ZLYrobot_laser laser_Avoidance.launch
设定激光雷达检测角度和响应距离,开启小车后,没有障碍物的情况下,小车直线行驶,判断障碍物显现在小车的方位(左前方、右前方、正前方),根据障碍物出现在小车的方位,作出反应(左转、右转、左转大圈、右转大圈)
(4) 二维码识别
roslaunch ZLYrobot_visual ar_track.launch
ARTag(AR标签,AR是“增强现实”的意思)是一种基准标记系统,可以理解为其他物体一种参照物,看起来类似二维码,但其编码系统和二维码还是有很大区别,多用在相机标定,机器人定位,增强现实(AR)等应用场合,其中一个很重要的作用就是识别物体与相机的位姿关系。物体上可以贴上ARTag,或者在平面上贴上ARTag标签,用来标定相机。摄像头识别到ARTag后,可以算出标签在相机坐标中的位置与姿态。
(5) 导航避障
roslaunch ZLYrobot_nav laser_bringup.launch
roslaunch ZLYrobot_nav ZLYrobot_navigation.launch
单点导航:使用【rviz】工具的【2D Pose Estimate】设置初始位姿,直到仿真中小车的位置,与实际小车的位置一致。点击【rviz】工具的【2D Nav Goal】,然后在地图上没有障碍物的地方选择目标点,松开鼠标即开始导航,只能选择一个目标点,到达即停止。
多点导航:与单点导航第一步相同,先设置小车的初始位姿。点击【rviz】工具的【Publish Point】,然后在地图上没有障碍物的地方选择目标点,松开鼠标即开始导航,可再次点击【Publish Point】,然后选点,机器人就会点与点之间巡航。使用【rviz】工具的【2DPose Estimate】工具设置小车的初始位姿时,自动取消多点导航功能。
(6) 自主巡线
roslaunch ZLYrobot_bringup patrol.launch
rosrun rqt_reconfigure rqt_reconfigure
(7) 颜色追踪
roslaunch ZLYrobot_astra colorTracker.launch
虚拟机 roslaunch ZLYrobot_astra colorHSV.launch
ROS小车的Astra颜色追踪,具备可以随时识别多种颜色,并自主储存当前识别的颜色,控制小车追随检测识别的颜色,与物体保持一定的距离。ROS小车的颜色追踪还可以实现HSV实时调控的功能,通过调节HSV的高低阈值,过滤掉干扰的颜色,使得方块在复杂的环境中能够非常理想的被识别出来,如果在取色中效果不理想的话,这个时候需要将小车移动到不同环境下校准一下,以达到可以在复杂环境中,识别所需的颜色。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作其它形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改型为等同变化的等效实施例。但是凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与改型,仍属于本发明技术方案的保护范围。
本专利不局限于上述最佳实施方式,任何人在本专利的启示下都可以得出其它各种形式的基于ROS系统的教育机器人,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本专利的涵盖范围。

Claims (5)

1.一种基于ROS系统的教育机器人,其特征在于:包括:深度相机(1)、ROS主控制器(2)、激光雷达(3)、IMU姿态传感器(4)、ROS控制板(5)以及由两个电机(6)驱动的行走机构;
所述激光雷达用于实时确定ROS小车的外围可检测范围及其范围内的障碍物坐标;
所述深度相机用于实时实时标定ROS小车的外围图像;
所述ROS主控制器将深度相机实时标定的外围图像进行坐标转换以构建导航图,并根据激光雷达实时确定的可检测范围及范围内的障碍物坐标,在导航图中基于栅格地图取值原理,实时检测ROS小车与可检测范围内任一障碍物的碰撞风险,且在碰撞风险时,生成调整四轮小车的当前运动轨迹的转向指令,下发给所述ROS控制板;
所述ROS控制板的输出端与两个电机相连,用于根据转向指令,驱动两个电机中的一个或两个动作,以调整转轮转速,使ROS小车沿调整后的运动轨迹运行;
基于ROS架构,通过远程PC端向机器人发送指令,进而实现至少包括:底层驱动控制远程操控、雷达建图、自动驾驶、雷达避障、二维码识别、导航避障、自主巡线和颜色追踪的功能。
2.根据权利要求1所述的基于ROS系统的教育机器人,其特征在于:
雷达建图状态下,机器人订阅雷达信息,实时确定检测范围内障碍物坐标,建立环境地图;
自动驾驶状态下,机器人订阅雷达信息和深度相机信息,判断周围环境状态,根据所建环境地图自主运动;
雷达避障状态下,机器人订阅雷达信息,判断障碍物距离,并以最短距离躲避障碍物运动;
二维码识别状态下,机器人订阅深度相机数据,计算标签在相机坐标中的位置与姿态;
导航避障状态下,通过接收远程PC端的指令,根据所建环境地图规划最合理的路线;
自主巡线状态下,机器人订阅红外信息,沿地面铺设好的轨迹行驶;
颜色追踪状态下,机器人订阅深度相机信息,追踪检测识别的颜色,与物体保持一定的距离。
3.根据权利要求1所述的基于ROS系统的教育机器人,其特征在于:两个电机为两个JGB37-520直流有刷减速电机,以驱动两个驱动轮和两个万向轮。
4.根据权利要求1所述的基于ROS系统的教育机器人,其特征在于:采用的电源管理模块包括稳压器与电压监控器。
5.根据权利要求1所述的基于ROS系统的教育机器人,其特征在于:采用的IMU模块包括三轴陀螺仪、三轴加速度计和三轴磁力计。
CN202211469631.9A 2022-11-22 2022-11-22 基于ros系统的教育机器人 Pending CN115648221A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211469631.9A CN115648221A (zh) 2022-11-22 2022-11-22 基于ros系统的教育机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211469631.9A CN115648221A (zh) 2022-11-22 2022-11-22 基于ros系统的教育机器人

Publications (1)

Publication Number Publication Date
CN115648221A true CN115648221A (zh) 2023-01-31

Family

ID=85019328

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211469631.9A Pending CN115648221A (zh) 2022-11-22 2022-11-22 基于ros系统的教育机器人

Country Status (1)

Country Link
CN (1) CN115648221A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116067555A (zh) * 2023-04-06 2023-05-05 西南交通大学 一种城市轨道交通用螺栓松动检测系统、方法及存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116067555A (zh) * 2023-04-06 2023-05-05 西南交通大学 一种城市轨道交通用螺栓松动检测系统、方法及存储介质

Similar Documents

Publication Publication Date Title
JP6868028B2 (ja) 自律測位航法設備、測位航法方法及び自律測位航法システム
WO2021254367A1 (zh) 机器人系统及定位导航方法
CN112987763B (zh) 一种基于ros的自主导航机器人控制系统的智能小车
US8725273B2 (en) Situational awareness for teleoperation of a remote vehicle
WO2021022728A1 (zh) 陆空两栖无人车控制系统
CN111308490B (zh) 基于单线激光雷达的平衡车室内定位与导航系统
CN106354161A (zh) 机器人运动路径规划方法
CN110082781A (zh) 基于slam技术与图像识别的火源定位方法及系统
CN111982114B (zh) 一种采用imu数据融合估计三维位姿的救援机器人
JP2022542241A (ja) ロボット装置からの視覚的出力を補強するシステム及び方法
Zeilinger et al. Design of an autonomous race car for the formula student driverless (fsd)
CN115648221A (zh) 基于ros系统的教育机器人
CN113190020A (zh) 一种移动机器人队列系统及路径规划、跟随方法
Kannapiran et al. Go-CHART: A miniature remotely accessible self-driving car robot
Smith et al. PiPS: Planning in perception space
WO2022188333A1 (zh) 一种行走方法、装置和计算机存储介质
Stachniss et al. How to learn accurate grid maps with a humanoid
Yuan et al. Visual steering of UAV in unknown environments
CN111949018A (zh) 一种ros系统智能车
Wang et al. Agv navigation based on apriltags2 auxiliary positioning
KR102175943B1 (ko) 무인자동차 교육용 플랫폼 및 자동차 플랫폼
Zhao et al. Online IMU-odometer extrinsic calibration based on visual-inertial-odometer fusion for ground vehicles
WO2023145284A1 (ja) 情報処理装置及び情報処理方法、並びにコンピュータプログラム
CN218446478U (zh) 一种基于履带式机器人的安全巡检系统
Hsu et al. Using a Robot for Indoor Navigation and Door Opening Control Based on Image Processing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination