CN112462782B - 一种多功能智能跟随小车系统 - Google Patents
一种多功能智能跟随小车系统 Download PDFInfo
- Publication number
- CN112462782B CN112462782B CN202011379093.5A CN202011379093A CN112462782B CN 112462782 B CN112462782 B CN 112462782B CN 202011379093 A CN202011379093 A CN 202011379093A CN 112462782 B CN112462782 B CN 112462782B
- Authority
- CN
- China
- Prior art keywords
- trolley
- coordinate system
- information
- pose information
- global coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013507 mapping Methods 0.000 claims abstract description 10
- 238000001514 detection method Methods 0.000 claims description 23
- 238000000034 method Methods 0.000 claims description 17
- 238000004891 communication Methods 0.000 claims description 14
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000007499 fusion processing Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0253—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0285—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using signals transmitted via a public communication network, e.g. GSM network
Abstract
本发明提供了一种多功能智能跟随小车系统,根据激光雷达发送的距离信息,得到智能跟随小车本体当前时刻在全局坐标系下的位置;在UWB正常跟踪时,将UWB基站发送的相对位姿信息与激光雷达发送的障碍物距离信息进行融合处理,采用局部建图行人跟踪定位算法,获取被跟随人在全局坐标系下的位姿信息;在UWB短时失效后,采用失效预测算法,预测被跟随人在全局坐标系下的位姿信息;将智能跟随小车本体当前时刻在全局坐标系下的位置作为起点,被跟随人在全局坐标系下的位置信息作为终点,生成运动控制指令,控制所述智能跟随小车本体运动。
Description
技术领域
本发明属于特种协作机器人领域,尤其涉及一种多功能智能跟随小车系统及方法。
背景技术
随着人工智能的发展,协同机器人在人类生活中扮演越来越重要的作用。它既可以接受人类指挥,又可以运行预先编排的程序,也可以根据人工智能技术制定的原则纲领行动。一种多功能智能跟随小车(机器人)系统既能够远距离侦察,又能够自动跟随协助运输,将在核辐射、生化等特种场合的军事后勤保障中,发挥重要的作用。
现有的跟随/协同机器人技术无论是在军工领域还是民用领域都有一些较为成熟的应用方案,但在完备性上仍存在几个亟需改善的缺点。小车(机器人)功能多样性不足,除了本机智能跟随功能以外,语音识别、人机交互、视觉影像侦查等功能有待进一步开发;局部定位、地图建模和路径规划算法种类繁多,效果参差不齐,缺少多传感器融合、多算法结合思想;可靠性和安全性上有完善空间,小车(机器人)的定位失效预案研究不足。
发明内容
本发明解决的技术问题是:克服现有技术的不足,提供一种多功能智能跟随小车的系统及方法,使智能跟随小车既具一定远程侦察能力,又能协作特殊场合的后勤搬运。
本发明解决技术的方案是:一种多功能智能跟随小车系统,该系统包括智能跟随小车本体、手持终端、UWB基站、激光雷达、无线通信模块、第一摄像头、第二摄像头、第三摄像头、板载工控机、下位机、小车运动控制器;
第一摄像头、第二摄像头、第三摄像头,用于按照不同角度的拍摄智能跟随小车本体前方的场景,得到侦测视频图像,将侦测视频图像发送给无线通信模块;
无线通信模块,将侦测视频图像发送给手持终端,手持终端采集侦测视频图像并显示出来;
UWB基站,安装在智能跟随小车本体上,扫描被跟随行人携带的UWB标签,得到被跟随行人相对于智能跟随小车本体的相对位姿信息,记为第一相对位姿信息,将第一相对位姿信息发送至板载工控机;
激光雷达,安装在智能跟随小车本体上,扫描视场中的障碍物,得到障碍物的距离信息,将障碍物的距离信息发送给板载工控机;
板载工控机,根据激光雷达发送的距离信息,得到智能跟随小车本体当前时刻在全局坐标系下的位置;在UWB正常跟踪时,将UWB基站发送的第一相对位姿信息与激光雷达发送的障碍物距离信息进行融合处理,采用局部建图行人跟踪定位算法,获取被跟随人在全局坐标系下的位姿信息;在UWB短时失效后,采用失效预测算法,预测被跟随人在全局坐标系下的位姿信息;将智能跟随小车本体当前时刻在全局坐标系下的位置作为起点,被跟随人在全局坐标系下的位置信息作为终点,生成运动控制指令发送给下位机;所述全局坐标系是以跟随场景内固定位置作为坐标原点的固定坐标系;
下位机,将运动控制信息转发给小车运动控制器,小车运动控制器控制所述智能跟随小车本体运动。
所述无线通信模块为4G或者5G通信模块。
所述智能跟随小车本体当前时刻在全局坐标系下的位置采用如下方法获得:
S1.1、获取激光雷达发送的障碍物距离信息,通过gmapping激光建图的方法,构建局部地图,所述局部地图中坐标系为以智能跟随小车中心为坐标原点的相对坐标系;
S1.2、采用slam算法,将当前时刻智能跟随小车在局部地图上位姿信息转换为全局坐标系下的位姿信息;所述全局地图的坐标系为以跟随场景内固定位置作为坐标原点的固定坐标系。
所述局部建图行人跟踪定位算法的具体步骤如下:
S2.1、采用gmaping算法生成局部栅格地图;
S2.2、获取激光雷达发送的障碍物距离信息,在生成的栅格地图基础上,加入智能跟随小车的运动轨迹信息、障碍物的距离信息,最终生成花费地图,对花费地图进行图像学二值化,得到障碍物轮廓曲线;
S2.3、找到与UWB发送过来的第一相对位姿信息最相近的障碍物轮廓曲线,此时小车与第一相对位姿信息之间的连线与障碍物轮廓曲线的交叉点,即为融合处理后的被跟随行人相对于智能跟随小车本体的相对位姿信息,记为第二相对位姿信息;
S2.4、将第二相对位姿信息进行坐标系转换,当前时刻被跟随人在全局坐标系下的位姿信息。
所述生成运动控制指令的过程如下:
S3.1、将当前时刻智能跟随小车在全局地图上的位姿信息作为起点,被跟随行人在全局地图上的位姿信息作终点,采用混合A*算法,进行长程路径规划,全局路径轨迹信息;
S3.2、在长程路径规划后,将全局路径轨迹信息进行分解,得到短程路径起点和终点,在采用DWA算法进行短程路径规划和避障,得到小车运动控制指令,将运动控制指令通过下位机下发给小车控制模块,驱动小车移动。
所述失效预测方法步骤如下:
S1、将智能跟随小车本体当前时刻在全局坐标系下的位置作为起点,将UWB失效前的第一位姿信息转换到在全局坐标系下,作为终点,采用混合A*算法,进行长程路径规划,全局路径轨迹信息;
S2、在长程路径规划后,将全局路径轨迹信息进行分解,得到短程路径起点和终点,在采用DWA算法进行短程路径规划和避障,得到小车运动控制指令,将运动控制指令通过下位机下发给小车控制模块,驱动小车朝第一相对位姿所在位置驱动预设的一段距离;
S3、获取激光雷达发送过来的距离信息,对距离信息进行聚类处理,将聚类处理结果与利用SVM学习训练好的行人的激光腿型样本进行对比,比对上的激光雷达数据帧为激光真值帧;
S3、通过激光真值帧,反算得到此时小车与行人的相对位姿信息,记为第三相对位姿信息;
S4、将第三相对位姿信息进行坐标系转换,预测得到当前时刻被跟随人在全局坐标系下的位姿信息。
上述多功能智能跟随小车系统还包括侦察云端;
4G/5G转换模块,将侦测视频图像发送给侦察云端,侦察云端采集侦测视频图像并显示出来,实现云端侦察。
本发明与现有技术相比的有益效果是:
(1)、本发明具有多功能特点,该平台既能够实现侦察又能实现协作搬运,兼容性好,实用性好。
(2)、本发明提出一种通过局部建图行人跟踪定位的方法,该方法既包含运动学的长程路径规划,并对小车动力学进行约束,有利于稳定控制。
(3)、本发明提出一种基于机器学习的行人定位失效预测算法方法,能够在UWB以及激光信息短时失效后,进行预测,提高了运动的稳定性,从而提高了整体系统的实用性。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。
在附图中:
图1是本发明实施例提供的多功能智能跟随小车系统的框图;
图2是本发明实施例提供整体算法的流程图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面将参考附图并结合实施例来详细说明本发明。
图1是本发明实施例提供的一种多功能智能跟随小车的系统的框图。如图1所示,该一种多功能智能跟随小车系统,该系统包括智能跟随小车本体、手持终端、UWB基站5、激光雷达6、无线通信模块11、第一摄像头8、第二摄像头9、第三摄像头10、板载工控机4、下位机7、小车运动控制器、侦察云端1;手持终端包含手机端2、UWB标签3。
第一摄像头8、第二摄像头9、第三摄像头10,用于按照不同角度的拍摄智能跟随小车本体前方的场景,得到侦测视频图像,将侦测视频图像发送给无线通信模块11;
无线通信模块11,将侦测视频图像发送给手持终端,手持终端采集侦测视频图像并显示出来,同时,将侦测视频图像发送给侦察云端1;
侦察云端1采集侦测视频图像并显示出来,实现云端侦察;
UWB基站5,安装在智能跟随小车本体上,扫描被跟随行人携带的UWB标签2,得到被跟随行人相对于智能跟随小车本体的相对位姿信息,记为第一相对位姿信息,将第一相对位姿信息发送至板载工控机4;
激光雷达6,安装在智能跟随小车本体上,扫描视场中的障碍物,得到障碍物的距离信息,将障碍物的距离信息发送给板载工控机4;
板载工控机4,根据激光雷达发送的距离信息,得到智能跟随小车本体当前时刻在全局坐标系下的位置;在UWB正常跟踪时,将UWB基站5发送的第一相对位姿信息与激光雷达发送的障碍物距离信息进行融合处理,采用局部建图行人跟踪定位算法,获取被跟随人在全局坐标系下的位姿信息;在UWB短时失效后,采用失效预测算法,预测被跟随人在全局坐标系下的位姿信息;将智能跟随小车本体当前时刻在全局坐标系下的位置作为起点,被跟随人在全局坐标系下的位置信息作为终点,生成运动控制指令发送给下位机;所述全局坐标系是以跟随场景内固定位置作为坐标原点的固定坐标系;
下位机7,将运动控制信息转发给小车运动控制器,小车运动控制器控制所述智能跟随小车本体运动。
所述无线通信模块11为4G或者5G通信模块。上述多功能小车包含手持侦测系统、远程侦测功能;所述手持的侦测功能是通过手机端2与4G/5G转换模块11无线信号相连,然后4G/5G转换模块11与第一摄像头8、第二摄像头9、第三摄像头10网线进行相连,通过手机端2APP采集视频;手机终端2则与下位机7蓝牙相连,发送运动控制信息;所述远程侦测系统是通过侦察云端1与4G/5G转换模块11无线相连,然后4G/5G转换模块11与第一摄像头8、第二摄像头9、第三摄像头10网线相连,通过云端采集视频。
作为优选方案,上述系统还可以包括所述运动终端控制功能,具体实现可以是:云端1与4G/5G转换模块11无线相连、4G/5G转换模块11与下位机网线相连,从而发送控制信息给小车运动控制模块。
图2是本发明实施例提供的一种多功能智能跟随小车的智能跟踪系统实现的原理图。
所述智能跟随小车本体当前时刻在全局坐标系下的位置采用如下方法获得:
S1.1、获取激光雷达发送的障碍物距离信息,通过gmapping激光建图的方法,构建局部地图,所述局部地图中坐标系为以智能跟随小车中心为坐标原点的相对坐标系;
S1.2、采用slam算法,将当前时刻智能跟随小车在局部地图上位姿信息转换为全局坐标系下的位姿信息;所述全局地图的坐标系为以跟随场景内固定位置作为坐标原点的固定坐标系。
所述局部建图行人跟踪定位算法的具体步骤如下:
S2.1、采用gmaping算法生成局部栅格地图;
S2.2、获取激光雷达发送的障碍物距离信息,在生成的栅格地图基础上,加入智能跟随小车的运动轨迹信息、障碍物的距离信息,最终生成花费地图,对花费地图进行图像学二值化,得到障碍物轮廓曲线;
S2.3、找到与UWB发送过来的第一相对位姿信息最相近的障碍物轮廓曲线,此时小车与第一相对位姿信息之间的连线与障碍物轮廓曲线的交叉点,即为融合处理后的被跟随行人相对于智能跟随小车本体的相对位姿信息,记为第二相对位姿信息;
S2.4、将第二相对位姿信息进行坐标系转换,当前时刻被跟随人在全局坐标系下的位姿信息。
所述生成运动控制指令的过程如下:
S3.1、将当前时刻智能跟随小车在全局地图上的位姿信息作为起点,被跟随行人在全局地图上的位姿信息作终点,采用混合A*算法,进行长程路径规划,全局路径轨迹信息;
S3.2、在长程路径规划后,将全局路径轨迹信息进行分解,得到短程路径起点和终点,在采用DWA算法进行短程路径规划和避障,得到小车运动控制指令,将运动控制指令通过下位机下发给小车控制模块,驱动小车移动。
所述失效预测方法步骤如下:
S1、将智能跟随小车本体当前时刻在全局坐标系下的位置作为起点,将UWB失效前的第一位姿信息转换到在全局坐标系下,作为终点,采用混合A*算法,进行长程路径规划,全局路径轨迹信息;
S2、在长程路径规划后,将全局路径轨迹信息进行分解,得到短程路径起点和终点,在采用DWA算法进行短程路径规划和避障,得到小车运动控制指令,将运动控制指令通过下位机下发给小车控制模块,驱动小车朝第一相对位姿所在位置驱动预设的一段距离;
S3、获取激光雷达发送过来的距离信息,对距离信息进行聚类处理,将聚类处理结果与利用SVM学习训练好的行人的激光腿型样本进行对比,比对上的激光雷达数据帧为激光真值帧;
S4、通过激光真值帧,反算得到此时小车与行人的相对位姿信息,记为第三相对位姿信息;
S5、将第三相对位姿信息进行坐标系转换,预测得到当前时刻被跟随人在全局坐标系下的位姿信息。
如果上述步骤S3中无法得到比对上的激光雷达数据帧,则认为预测失败,小车将进入终止状态;否则,认为预测成功,继续执行步骤S4、S5。
本发明虽然已以较佳实施例公开如上,但其并不是用来限定本发明,任何本领域技术人员在不脱离本发明的精神和范围内,都可以利用上述揭示的方法和技术内容对本发明技术方案做出可能的变动和修改,因此,凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化及修饰,均属于本发明技术方案的保护范围。
Claims (6)
1.一种多功能智能跟随小车系统,其特征在于包括智能跟随小车本体、手持终端、UWB基站(5)、激光雷达(6)、无线通信模块(11)、第一摄像头(8)、第二摄像头(9)、第三摄像头(10)、板载工控机(4)、下位机(7)、小车运动控制器;
第一摄像头(8)、第二摄像头(9)、第三摄像头(10),用于按照不同角度拍摄智能跟随小车本体前方的场景,得到侦测视频图像,将侦测视频图像发送给无线通信模块(11);
无线通信模块(11),将侦测视频图像发送给手持终端,手持终端采集侦测视频图像并显示出来;
UWB基站(5),安装在智能跟随小车本体上,扫描被跟随行人携带的UWB标签(2),得到被跟随行人相对于智能跟随小车本体的相对位姿信息,记为第一相对位姿信息,将第一相对位姿信息发送至板载工控机(4);
激光雷达(6),安装在智能跟随小车本体上,扫描视场中的障碍物,得到障碍物的距离信息,将障碍物的距离信息发送给板载工控机(4);
板载工控机(4),根据激光雷达发送的距离信息,得到智能跟随小车本体当前时刻在全局坐标系下的位置;在UWB正常跟踪时,将UWB基站(5)发送的第一相对位姿信息与激光雷达发送的障碍物的距离信息进行融合处理,采用局部建图行人跟踪定位算法,获取被跟随行人在全局坐标系下的位姿信息;在UWB短时失效后,采用失效预测算法,预测被跟随行人在全局坐标系下的位姿信息;将智能跟随小车本体当前时刻在全局坐标系下的位置作为起点,被跟随行人在全局坐标系下的位置信息作为终点,生成运动控制指令发送给下位机;所述全局坐标系是以跟随场景内固定位置作为坐标原点的固定坐标系;
所述失效预测算法步骤如下:
S1、将智能跟随小车本体当前时刻在全局坐标系下的位置作为起点,将UWB失效前的第一相对位姿信息转换到在全局坐标系下,作为终点,进行长程路径规划,生成全局路径轨迹信息;
S2、在长程路径规划后,将全局路径轨迹信息进行分解,得到短程路径起点和终点,进行短程路径规划和避障,得到小车运动控制指令,将运动控制指令通过下位机下发给小车控制模块,驱动小车朝第一相对位姿所在位置驱动预设的一段距离;
S3、获取激光雷达发送过来的距离信息,对距离信息进行聚类处理,将聚类处理结果与利用SVM学习训练好的行人的激光腿型样本进行对比,比对上的激光雷达数据帧为激光真值帧;
S4、通过激光真值帧,反算得到此时小车与行人的相对位姿信息,记为第三相对位姿信息;
S5、将第三相对位姿信息进行坐标系转换,预测得到当前时刻被跟随行人在全局坐标系下的位姿信息;
下位机(7),将运动控制指令转发给小车运动控制器,小车运动控制器控制所述智能跟随小车本体运动。
2.根据权利要求1所述的一种多功能智能跟随小车系统,其特征在于所述无线通信模块(11)为4G或者5G转换模块。
3.根据权利要求1所述的一种多功能智能跟随小车系统,其特征在于所述智能跟随小车本体当前时刻在全局坐标系下的位置采用如下方法获得:
S1.1、获取激光雷达发送的障碍物距离信息,构建局部地图,所述局部地图中坐标系为以智能跟随小车中心为坐标原点的相对坐标系;
S1.2、将当前时刻智能跟随小车在局部地图上位姿信息转换为全局坐标系下的位姿信息;所述全局坐标系为以跟随场景内固定位置作为坐标原点的固定坐标系。
4.根据权利要求1所述的一种多功能智能跟随小车系统,其特征在于所述局部建图行人跟踪定位算法的具体步骤如下:
S2.1、生成局部栅格地图;
S2.2、获取激光雷达发送的障碍物的距离信息,在生成的栅格地图基础上,加入智能跟随小车的运动轨迹信息、障碍物的距离信息,最终生成花费地图,对花费地图进行图像学二值化,得到障碍物轮廓曲线;
S2.3、找到与UWB发送过来的第一相对位姿信息最相近的障碍物轮廓曲线,此时小车与第一相对位姿信息之间的连线与障碍物轮廓曲线的交叉点,即为融合处理后的被跟随行人相对于智能跟随小车本体的相对位姿信息,记为第二相对位姿信息;
S2.4、将第二相对位姿信息进行坐标系转换,当前时刻被跟随行人在全局坐标系下的位姿信息。
5.根据权利要求1所述的一种多功能智能跟随小车系统,其特征在于所述生成运动控制指令的过程如下:
S3.1、将当前时刻智能跟随小车在全局坐标系下的位姿信息作为起点,被跟随行人在全局坐标系下的位姿信息作终点,进行长程路径规划,生成全局路径轨迹信息;
S3.2、在长程路径规划后,将全局路径轨迹信息进行分解,得到短程路径起点和终点,进行短程路径规划和避障,得到小车运动控制指令,将运动控制指令通过下位机下发给小车控制模块,驱动小车移动。
6.根据权利要求2所述的一种多功能智能跟随小车系统,其特征在于还包括侦察云端(1);
4G/5G转换模块(11),将侦测视频图像发送给侦察云端(1),侦察云端(1)采集侦测视频图像并显示出来,实现云端侦察。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011379093.5A CN112462782B (zh) | 2020-11-30 | 2020-11-30 | 一种多功能智能跟随小车系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011379093.5A CN112462782B (zh) | 2020-11-30 | 2020-11-30 | 一种多功能智能跟随小车系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112462782A CN112462782A (zh) | 2021-03-09 |
CN112462782B true CN112462782B (zh) | 2022-10-28 |
Family
ID=74805181
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011379093.5A Active CN112462782B (zh) | 2020-11-30 | 2020-11-30 | 一种多功能智能跟随小车系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112462782B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113253735B (zh) * | 2021-06-15 | 2021-10-08 | 同方威视技术股份有限公司 | 跟随目标的方法、装置、机器人及计算机可读存储介质 |
CN113504777B (zh) * | 2021-06-16 | 2024-04-16 | 新疆美特智能安全工程股份有限公司 | 一种人工智能的agv小车自动跟随方法及系统 |
CN114326732A (zh) * | 2021-12-28 | 2022-04-12 | 无锡笠泽智能科技有限公司 | 一种机器人自主跟随系统及自主跟随控制方法 |
CN115437299A (zh) * | 2022-10-10 | 2022-12-06 | 北京凌天智能装备集团股份有限公司 | 一种伴随运输机器人行进控制方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140049152A (ko) * | 2012-10-16 | 2014-04-25 | 한국전자통신연구원 | 사람 추종 방법 및 로봇 장치 |
CN107765220A (zh) * | 2017-09-20 | 2018-03-06 | 武汉木神机器人有限责任公司 | 基于uwb和激光雷达混合定位的行人跟随系统及方法 |
CN108549410A (zh) * | 2018-01-05 | 2018-09-18 | 灵动科技(北京)有限公司 | 主动跟随方法、装置、电子设备及计算机可读存储介质 |
CN208061024U (zh) * | 2018-02-08 | 2018-11-06 | 苏州纳秒机器人有限公司 | 一种电商分拣自动跟随机器人 |
CN110262495A (zh) * | 2019-06-26 | 2019-09-20 | 山东大学 | 可实现移动机器人自主导航与精确定位的控制系统及方法 |
-
2020
- 2020-11-30 CN CN202011379093.5A patent/CN112462782B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140049152A (ko) * | 2012-10-16 | 2014-04-25 | 한국전자통신연구원 | 사람 추종 방법 및 로봇 장치 |
CN107765220A (zh) * | 2017-09-20 | 2018-03-06 | 武汉木神机器人有限责任公司 | 基于uwb和激光雷达混合定位的行人跟随系统及方法 |
CN108549410A (zh) * | 2018-01-05 | 2018-09-18 | 灵动科技(北京)有限公司 | 主动跟随方法、装置、电子设备及计算机可读存储介质 |
CN208061024U (zh) * | 2018-02-08 | 2018-11-06 | 苏州纳秒机器人有限公司 | 一种电商分拣自动跟随机器人 |
CN110262495A (zh) * | 2019-06-26 | 2019-09-20 | 山东大学 | 可实现移动机器人自主导航与精确定位的控制系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112462782A (zh) | 2021-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112462782B (zh) | 一种多功能智能跟随小车系统 | |
Fulgenzi et al. | Dynamic obstacle avoidance in uncertain environment combining PVOs and occupancy grid | |
CN100493856C (zh) | 能识别图像的移动对象和安装此对象的移动对象定向系统 | |
Chong et al. | Autonomous personal vehicle for the first-and last-mile transportation services | |
Okumura et al. | Challenges in perception and decision making for intelligent automotive vehicles: A case study | |
Chung et al. | Safe navigation of a mobile robot considering visibility of environment | |
CN110858098A (zh) | 使用人-机器人交互的自驱动移动机器人 | |
CN111708042B (zh) | 一种行人轨迹预测和跟随的机器人方法及系统 | |
CN113212456A (zh) | 车辆控制方法、装置、车辆、非易失性存储介质及处理器 | |
Lakas et al. | A framework for a cooperative UAV-UGV system for path discovery and planning | |
Lidoris et al. | The autonomous city explorer (ACE) project—mobile robot navigation in highly populated urban environments | |
CN113942524B (zh) | 一种车辆行驶控制方法、系统及计算机可读存储介质 | |
Cardarelli et al. | Multisensor data fusion for obstacle detection in automated factory logistics | |
Jung et al. | Incorporating multi-context into the traversability map for urban autonomous driving using deep inverse reinforcement learning | |
CN113077493A (zh) | 一种移动机器人目标跟随的方法及系统 | |
CN116107321A (zh) | 基于视觉与激光雷达融合的无人车路径规划系统及方法 | |
CN114906131A (zh) | 自动驾驶车辆的召唤控制方法、系统及可读存储介质 | |
JP7462837B2 (ja) | 低信頼度の物体検出条件における車両動作のための注釈及びマッピング | |
US20230205234A1 (en) | Information processing device, information processing system, method, and program | |
CN113625773A (zh) | 一种无人机应急消防森林巡防指挥系统 | |
Liu et al. | Deep reinforcement learning for mobile robot path planning | |
Güney et al. | Autonomous control of shore robotic charging systems based on computer vision | |
CN116718190A (zh) | 一种长距离密集人群场景下的移动机器人路径规划方法 | |
CN114935340A (zh) | 一种室内导航机器人、控制系统及方法 | |
CN113741550B (zh) | 移动机器人跟随方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |