CN111198496A - 一种目标跟随机器人及跟随方法 - Google Patents
一种目标跟随机器人及跟随方法 Download PDFInfo
- Publication number
- CN111198496A CN111198496A CN202010005542.3A CN202010005542A CN111198496A CN 111198496 A CN111198496 A CN 111198496A CN 202010005542 A CN202010005542 A CN 202010005542A CN 111198496 A CN111198496 A CN 111198496A
- Authority
- CN
- China
- Prior art keywords
- radar
- target
- robot
- point cloud
- speed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 18
- 238000012545 processing Methods 0.000 claims abstract description 19
- 230000004927 fusion Effects 0.000 claims abstract description 11
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 description 6
- 230000004044 response Effects 0.000 description 4
- 239000013589 supplement Substances 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B11/00—Automatic controllers
- G05B11/01—Automatic controllers electric
- G05B11/36—Automatic controllers electric with provision for obtaining particular characteristics, e.g. proportional, integral, differential
- G05B11/42—Automatic controllers electric with provision for obtaining particular characteristics, e.g. proportional, integral, differential for obtaining a characteristic which is both proportional and time-dependent, e.g. P. I., P. I. D.
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了一种目标跟随机器人及跟随方法,所述方法包括如下步骤:步骤一,识别图像中的目标;步骤二,融合图像识别结果与雷达点云信息,得到所述目标的雷达点云信息;步骤三,对抗复杂环境下多个同类别目标干扰的处理;步骤四,PID算法得到跟随控制指令;所述机器人包括:相机、雷达、识别模块、控制模块、底盘、融合模块、抗干扰处理模块,所述相机与所述识别模块连接,所述融合模块分别于所述识别模块、所述雷达、所述抗干扰处理模块连接,所述控制模块分别与所述抗干扰处理模块与所述底盘连接。
Description
技术领域
本发明涉及智能机器人领域,尤其是涉及一种目标跟随机器人及跟随方法。
背景技术
目标跟随机器人在日常生活和工业制造等领域有广泛的应用需求。例如在生产车间,物流仓库等环境下,有自主跟随功能的机器人可以跟随工人完成快捷可靠的搬运作业,提高生产和运输效率,甚至组成多机器人小队,逐一跟随,实现更高难度的要求。在购物中心,机场车站等场所下,能够克服干扰保持跟随的机器人也可以替人们完成商品、行李的收纳和运输。此外还有服务机器人,特种作业机器人等,也都有不少需要用到目标跟随功能的应用场景。
机器人如果需要保持对目标的跟随,就需要一个能够提供环境信息与位置反馈的感知系统。机器人环境感知的传感器中,摄像头的应用最为广泛。随着近年来深度学习技术的快速发展与广泛应用,基于摄像头图像信息和神经网络推断的感知方案势头迅猛,逐步取代传统图像处理算法,成为物体识别的主流方法,为机器人的整体环境感知能力带来巨大提升。目前,SSD与YOLO等知名算法,已经能够高速高精确性地实现障碍物识别,得到物体轮廓边界。
目前已有一些用于机器人跟随的方法,如专利(CN201710289168.2)利用RFID标签做定位,专利(CN201710455840.0)使用激光雷达的点云匹配做行人轨迹跟踪。专利(CN201610880972.3)利用超声波进行简单测距,三角定位后输出目标跟随数据。专利(201910602590.8)利用深度图像的识别处理,经过坐标系转换调整参数控制机器进行运动。然而单一传感器获得的环境信息有限,同时也易受到环境等因素的干扰,鲁棒性相比多传感器融合的方案有所欠缺。
发明内容
为解决现有技术的不足,实现抗干扰、提高鲁棒性的目的,本发明采用如下的技术方案:
一种目标跟随方法,包括如下步骤:
步骤一,识别图像中的目标;
利用神经网络完成目标识别,将图像识别结果输出;所述图像识别结果包括像素坐标、类别信息;
步骤二,融合图像识别结果与雷达点云信息,得到所述目标的雷达点云信息;降低了成本,毫米波雷达弥补了单目相机的距离探测能力与抗恶劣天气能力较弱的劣势;
(1)转换雷达点云坐标至像素点坐标;
雷达坐标系中点云坐标(x,y,z)与图像坐标系下对应像素点坐标(u,v)之间的转换关系表示如下:
相机的内参矩阵相机与雷达间的外参是已知参数,所述Zc是所述像素点(u,v)所在成像平面与所述雷达坐标系中点云坐标(x,y,z)与之间的垂直距离,所述R是外参矩阵中的旋转部分,所述T是外参矩阵中的平移部分,所述f是相机焦距,所述(u0,v0)表示图像坐标系原点在像素坐标系中的坐标,所述dx、所述dy分别是每个像素在图像平面x和y方向上的物理尺寸;
通过合理的外参变换,毫米波雷达的点云坐标系与单目相机的图像坐标系顺利连接起来,使雷达和相机的数据互相匹配,图像中的物体就获得了对应的深度信息;
(2)匹配雷达点云与图像识别结果;
根据所述雷达点云坐标对应的所述像素点坐标(u,v),匹配所述图像识别结果,为每个雷达点云赋予其对应的所述目标的类别信息,得到新的雷达点云信息,所述新的雷达点云信息包括位置信息(x,y,z)、类别信息。
步骤三,对抗复杂环境下多个同类别目标干扰的处理;
(1)分析所述目标附近识别结果;
设置搜索范围阈值,在所述阈值内搜索目标的雷达点云,并记录多个与所述目标类别相同的雷达点;
(2)利用雷达速度维信息区分相同类别的雷达点,得到所述目标位置;
雷达可以得到所述雷达点云速度信息,对所述目标雷达点云的速度信息进行历史记录,以最近时刻的速度为基准,寻找所述类别相同的雷达点中速度最接近的雷达点,判断出下一时刻的目标位置。
在小范围内有多个同类物体的场景下克服干扰,稳定跟随目标;
所述速度信息是径向速度。
步骤四,PID算法得到跟随控制指令;PID算法控制响应快速,有利于对目标保持稳定跟随;
(1)在前进速度方向上采用PID算法计算速度控制指令;
采用PID算法对机器人前进速度进行控制,所述目标位置坐标(x,y,z)与所述机器人跟随的前进速度Vt的转换关系,表述如下:
所述t是当前时刻,所述dt是所述t时刻下所述机器人与所述目标之间的距离,所述di是i时刻下所述机器人与所述目标之间的距离,所述dO是所述机器人跟随时期望目标保持的距离,所述Kp、Ki、Kd是控制参数,所述zt和xt分别是t时刻下所述目标的z坐标与x坐标;速度指令被传递给所述机器人底盘,控制所述机器人对目标跟随的距离;
(2)在水平旋转方向上采用PID算法计算角速度控制指令;
采用PID算法对所述机器人旋转角速度进行控制,所述目标位置坐标(x,y,z)与所述机器人跟随的旋转角速度ωt的转换关系,表述如下:
所述t是当前时刻,所述θt是t时刻下所述机器人前进方向与所述目标之间的水平夹角,θi是i时刻下所述机器人前进方向与所述目标之间的水平夹角,所述Kp、Ki、Kd是控制参数,所述zt和xt分别是t时刻下所述目标的z坐标与x坐标;角速度指令被传递给机器人底盘,控制机器人在角度上完成目标跟随;
速度和角速度指令被机器人底盘同步执行,能够高速响应。
所述雷达是毫米波雷达。毫米波雷达抗环境干扰能力较强,能为视觉方案补充物体深度和速度信息,相比激光雷达,毫米波雷达具有可靠性好、环境鲁棒性强、成本合理等优势。
所述图像是通过单目相机获取的图像。
一种目标跟随机器人,包括:相机、雷达、识别模块、控制模块、底盘、融合模块、抗干扰处理模块,所述相机与所述识别模块连接,所述融合模块分别于所述识别模块、所述雷达、所述抗干扰处理模块连接,所述控制模块分别与所述抗干扰处理模块与所述底盘连接;
所述相机,用于获取图像;
所述识别模块,用于识别图像中的目标,得到图像识别结果,所述图像识别结果包括所述目标的像素坐标、类别信息;
所述雷达,用于获取目标的雷达点云信息,所述点云信息包括雷达点云坐标、雷达速度信息;
所述融合模块,用于转换雷达点云坐标至像素坐标点,匹配雷达点云与图像识别结果,得到带类别信息的新的雷达点云;
所述抗干扰处理模块,用于搜索所述目标附近的所述雷达点云,得到多个与所述目标类别相同的雷达点;利用雷达速度信息区分相同类别的雷达点,通过历史雷达速度信息,以最近时刻的速度为基准,寻找所述类别相同的雷达点中速度最接近的雷达点,判断出下一时刻的目标位置;
所述控制模块,用于根据所述目标位置计算所述机器人前进速度和水平旋转角速度,并向所述底盘发出控制指令。
所述雷达是毫米波雷达。毫米波雷达抗环境干扰能力较强,能为视觉方案补充物体深度和速度信息,相比激光雷达,毫米波雷达具有可靠性好、环境鲁棒性强、成本合理等优势。
所述相机是单目相机。
本发明的优势和有益效果在于:
本发明克服了毫米波雷达点云角分辨率过低,密度不足以识别物体的缺点,也克服了单目相机快速获得物体位置的难题,同时还克服了复杂场景下的同类目标物干扰。充分利用了两种传感器各自的优势,将多维信息有机融合,克服干扰,快速、准确地实现对目标的定位与跟随控制。克服多个物体小范围内聚团时的干扰问题,保持对目标的持续跟踪,更稳定、准确地控制机器人完成目标跟随任务。降低成本,提高机器人的感知能力、抗干扰能力,提升机器人的鲁棒性、可靠性,更快速、准确地完成对目标的跟随。
附图说明
图1是本发明的流程图。
具体实施方式
以下结合附图和具体实施例对本发明作具体的介绍。
如图1所示,一种目标跟随方法,包括如下步骤:
步骤一,单目相机识别图像中的目标;
利用卷积神经网络完成视野内的目标识别,根据实际的应用场景,运行迁移学习优化后的物体识别神经网络模型,快速、准确地在单目相机图像上完成推断,将各图像识别结果输出;所述图像识别结果包括中心像素坐标、识别框长宽、类别标签;
步骤二,融合图像识别结果与雷达点云信息,得到所述目标的雷达点云信息;降低了成本,毫米波雷达弥补了单目相机的距离探测能力与抗恶劣天气能力较弱的劣势;
(1)根据已知的传感器外参,转换雷达点云坐标至像素点坐标;
雷达坐标系中点云坐标(x,y,z)与图像坐标系下对应像素点坐标(u,v)之间的转换关系表示如下:
相机的内参矩阵相机与雷达间的外参是已知参数,所述Zc是所述像素点(u,v)所在成像平面与所述雷达坐标系中点云坐标(x,y,z)与之间的垂直距离,所述R是外参矩阵中的旋转部分,所述T是外参矩阵中的平移部分,所述f是相机焦距,所述(u0,v0)表示图像坐标系原点在像素坐标系中的坐标,所述dx、所述dy分别是每个像素在图像平面x和y方向上的物理尺寸;
通过合理的外参变换,毫米波雷达的点云坐标系与单目相机的图像坐标系顺利连接起来,使雷达和相机的数据互相匹配,图像中的物体就获得了对应的深度信息;
(2)匹配雷达点云与图像识别结果;
根据所述雷达点云坐标对应的所述像素点坐标(u,v),匹配步骤一中的所述图像识别结果,从而为每个雷达点云赋予其对应的所述目标的类别标签,得到新的雷达点云信息,所述新的雷达点云信息包括位置信息(x,y,z)、类别标签Obj_label。
步骤三,对抗复杂环境下多个同类别目标干扰的处理;
(1)分析所述目标附近识别结果;
设置搜索范围阈值,在所述阈值内搜索目标的雷达点云,并记录所述雷达点云的类别标签,当有多个与所述目标类别相同的雷达点时,表示有混淆跟踪目标位置的风险,需要利用毫米波雷达采集到的速度信息对抗干扰;
(2)利用雷达速度维信息区分相同类别的雷达点,得到所述目标位置;
雷达可以得到每个所述雷达点云速度信息velocity,对当前所述目标雷达点云的速度信息velocity进行历史记录,以最近时刻的速度值为基准,寻找所述类别相同的雷达点中速度最接近的雷达点,判断出下一时刻的目标位置。
在小范围内有多个同类物体的场景下克服干扰,稳定跟随目标;例如,在机器人被要求跟随人的场景下,即使目标人与其他人相遇,交错,依然保持对目标人的跟随,不会跟随到错误的干扰目标上;
所述速度信息是径向速度。
步骤四,PID算法得到跟随控制指令;PID算法控制响应快速,有利于对目标保持稳定跟随;
(1)在前进速度方向上采用PID算法计算速度控制指令;
采用PID算法对机器人前进速度进行控制,所述目标位置坐标(x,y,z)与所述机器人跟随的前进速度Vt的转换关系,表述如下:
所述t是当前时刻,即从0时刻开始到当前时刻的计数值,所述dt是所述t时刻下所述机器人与所述目标之间的距离,所述di是i时刻下所述机器人与所述目标之间的距离,通过求和公式将i从0遍历至t是为了求从0时刻开始到t时刻的累积距离差值,所述dO是所述机器人跟随时期望目标保持的距离,所述Kp、Ki、Kd是优选的控制参数,所述zt和xt分别是t时刻下所述目标的z坐标与x坐标,即所述(x,y,z)中的z和x;速度指令被传递给所述机器人底盘,控制所述机器人对目标跟随的距离;
(2)在水平旋转方向上采用PID算法计算角速度控制指令;
采用PID算法对所述机器人旋转角速度进行控制,所述目标位置坐标(x,y,z)与所述机器人跟随的旋转角速度ωt的转换关系,表述如下:
所述t是当前时刻,所述θt是t时刻下所述机器人前进方向与所述目标之间的水平夹角,θi是i时刻下所述机器人前进方向与所述目标之间的水平夹角,通过求和公式将i从0遍历至t是为了求从0时刻开始到t时刻的累计夹角值,所述Kp、Ki、Kd是优选的控制参数,所述zt和xt分别是t时刻下所述目标的z坐标与x坐标,即所述(x,y,z)中的z和x;角速度指令被传递给机器人底盘,控制机器人在角度上完成目标跟随;
速度和角速度指令被机器人底盘同步执行,直到下一刻新的指令传达,能够高速响应。
所述雷达是毫米波雷达。毫米波雷达抗环境干扰能力较强,能为视觉方案补充物体深度和速度信息,相比激光雷达,毫米波雷达具有可靠性好、环境鲁棒性强、成本合理等优势,在大目标移动场景下有其独特的优势。
所述图像是通过单目相机获取的图像。
一种目标跟随机器人,包括:相机、雷达、识别模块、控制模块、底盘、融合模块、抗干扰处理模块,所述相机与所述识别模块连接,所述融合模块分别于所述识别模块、所述雷达、所述抗干扰处理模块连接,所述控制模块分别与所述抗干扰处理模块与所述底盘连接;
所述相机,用于获取图像;
所述识别模块,用于识别图像中的目标,得到图像识别结果,所述图像识别结果包括所述目标的中心像素坐标、识别框长宽、类别标签;
所述雷达,用于获取目标的雷达点云信息,所述点云信息包括雷达点云坐标、雷达速度信息;
所述融合模块,用于转换雷达点云坐标至像素坐标点,匹配雷达点云与图像识别结果,得到带类别标签的新的雷达点云;
所述抗干扰处理模块,用于搜索所述目标附近的所述雷达点云,得到多个与所述目标类别相同的雷达点;利用雷达速度维信息区分相同类别的雷达点,通过历史雷达速度维信息,以最近时刻的速度为基准,寻找所述类别相同的雷达点中速度最接近的雷达点,判断出下一时刻的目标位置;
所述控制模块,用于根据所述目标位置计算所述机器人前进速度和水平旋转角速度,并向所述底盘发出控制指令。
所述雷达是毫米波雷达。毫米波雷达抗环境干扰能力较强,能为视觉方案补充物体深度和速度信息,相比激光雷达,毫米波雷达具有可靠性好、环境鲁棒性强、成本合理等优势,在大目标移动场景下有其独特的优势。
所述相机是单目相机。
利用单目相机获得图像,根据图像物体识别结果,通过毫米波雷达提供的速度维信息,对视野中临近易混淆的同类物体进行区分,对抗复杂环境下多个同类物体的干扰,将目标的位置反馈给机器人跟随控制算法,采用PID算法得到机器人底盘的控制指令,最终快速、准确地完成对目标的跟随。
Claims (8)
1.一种目标跟随方法,其特征在于,包括如下步骤:
步骤一,识别图像中的目标;
利用神经网络完成目标识别,将图像识别结果输出;所述图像识别结果包括像素坐标、类别信息;
步骤二,融合图像识别结果与雷达点云信息,得到所述目标的雷达点云信息;
(1)转换雷达点云坐标至像素点坐标;
雷达坐标系中点云坐标(x,y,z)与图像坐标系下对应像素点坐标(u,v)之间的转换关系表示如下:
相机的内参矩阵相机与雷达间的外参是已知参数,所述Zc是所述像素点(u,v)所在成像平面与所述雷达坐标系中点云坐标(x,y,z)与之间的垂直距离,所述R是外参矩阵中的旋转部分,所述T是外参矩阵中的平移部分,所述f是相机焦距,所述(u0,v0)表示图像坐标系原点在像素坐标系中的坐标,所述dx、所述dy分别是每个像素在图像平面x和y方向上的物理尺寸;
(2)匹配雷达点云与图像识别结果;
根据所述雷达点云坐标对应的所述像素点坐标(u,v),匹配所述图像识别结果,为每个雷达点云赋予其对应的所述目标的类别信息,得到新的雷达点云信息,所述新的雷达点云信息包括位置信息(x,y,z)、类别信息;
步骤三,对抗复杂环境下多个同类别目标干扰的处理;
(1)分析所述目标附近识别结果;
设置搜索范围阈值,在所述阈值内搜索目标的雷达点云,并记录多个与所述目标类别相同的雷达点;
(2)利用雷达速度维信息区分相同类别的雷达点,得到所述目标位置;
雷达可以得到所述雷达点云速度信息,对所述目标雷达点云的速度信息进行历史记录,以最近时刻的速度为基准,寻找所述类别相同的雷达点中速度最接近的雷达点,判断出下一时刻的目标位置。
2.根据权利要求1所述的一种目标跟随方法,其特征在于,所述速度信息是径向速度。
3.根据权利要求1所述的一种目标跟随方法,其特征在于,还包括步骤四,PID算法得到跟随控制指令;
(1)在前进速度方向上采用PID算法计算速度控制指令;
采用PID算法对机器人前进速度进行控制,所述目标位置坐标(x,y,z)与所述机器人跟随的前进速度Vt的转换关系,表述如下:
所述t是当前时刻,所述dt是所述t时刻下所述机器人与所述目标之间的距离,所述di是i时刻下所述机器人与所述目标之间的距离,所述dO是所述机器人跟随时期望目标保持的距离,所述Kp、Ki、Kd是控制参数,所述zt和xt分别是t时刻下所述目标的z坐标与x坐标;速度指令被传递给所述机器人底盘,控制所述机器人对目标跟随的距离;
(2)在水平旋转方向上采用PID算法计算角速度控制指令;
采用PID算法对所述机器人旋转角速度进行控制,所述目标位置坐标(x,y,z)与所述机器人跟随的旋转角速度ωt的转换关系,表述如下:
所述t是当前时刻,所述θt是t时刻下所述机器人前进方向与所述目标之间的水平夹角,θi是i时刻下所述机器人前进方向与所述目标之间的水平夹角,所述Kp、Ki、Kd是控制参数,所述zt和xt分别是t时刻下所述目标的z坐标与x坐标;角速度指令被传递给机器人底盘,控制机器人在角度上完成目标跟随;
速度和角速度指令被机器人底盘同步执行。
4.根据权利要求1所述的一种目标跟随方法,其特征在于,所述雷达是毫米波雷达。
5.根据权利要求1所述的一种目标跟随方法,其特征在于,所述图像是通过单目相机获取的图像。
6.一种目标跟随机器人,包括:相机、雷达、识别模块、控制模块、底盘,其特征在于,还包括融合模块、抗干扰处理模块,所述相机与所述识别模块连接,所述融合模块分别于所述识别模块、所述雷达、所述抗干扰处理模块连接,所述控制模块分别与所述抗干扰处理模块与所述底盘连接;
所述相机,用于获取图像;
所述识别模块,用于识别图像中的目标,得到图像识别结果,所述图像识别结果包括所述目标的像素坐标、类别信息;
所述雷达,用于获取目标的雷达点云信息,所述点云信息包括雷达点云坐标、雷达速度信息;
所述融合模块,用于转换雷达点云坐标至像素坐标点,匹配雷达点云与图像识别结果,得到带类别信息的新的雷达点云;
所述抗干扰处理模块,用于搜索所述目标附近的所述雷达点云,得到多个与所述目标类别相同的雷达点;利用雷达速度信息区分相同类别的雷达点,通过历史雷达速度信息,以最近时刻的速度为基准,寻找所述类别相同的雷达点中速度最接近的雷达点,判断出下一时刻的目标位置;
所述控制模块,用于根据所述目标位置计算所述机器人前进速度和水平旋转角速度,并向所述底盘发出控制指令。
7.根据权利要求6所述的一种目标跟随机器人,其特征在于,所述雷达是毫米波雷达。
8.根据权利要求6所述的一种目标跟随机器人,其特征在于,所述相机是单目相机。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010005542.3A CN111198496A (zh) | 2020-01-03 | 2020-01-03 | 一种目标跟随机器人及跟随方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010005542.3A CN111198496A (zh) | 2020-01-03 | 2020-01-03 | 一种目标跟随机器人及跟随方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111198496A true CN111198496A (zh) | 2020-05-26 |
Family
ID=70744571
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010005542.3A Pending CN111198496A (zh) | 2020-01-03 | 2020-01-03 | 一种目标跟随机器人及跟随方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111198496A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111998772A (zh) * | 2020-08-05 | 2020-11-27 | 浙江大学 | 一种基于激光与单目视觉融合的像素级目标定位方法 |
CN113030944A (zh) * | 2021-04-16 | 2021-06-25 | 深圳市众云信息科技有限公司 | 一种雷达目标追踪方法 |
CN113110413A (zh) * | 2021-03-10 | 2021-07-13 | 成都永奉科技有限公司 | 跟随机器人以及跟随控制方法、跟随控制系统 |
CN113238552A (zh) * | 2021-04-28 | 2021-08-10 | 深圳优地科技有限公司 | 机器人及其运动方法、装置及计算机可读存储介质 |
CN114326732A (zh) * | 2021-12-28 | 2022-04-12 | 无锡笠泽智能科技有限公司 | 一种机器人自主跟随系统及自主跟随控制方法 |
WO2022262594A1 (zh) * | 2021-06-15 | 2022-12-22 | 同方威视技术股份有限公司 | 跟随目标的方法、装置、机器人及计算机可读存储介质 |
WO2024021340A1 (zh) * | 2022-07-27 | 2024-02-01 | 东莞市本末科技有限公司 | 机器人跟随方法、装置、机器人及计算机可读存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108375373A (zh) * | 2018-01-30 | 2018-08-07 | 深圳市同川科技有限公司 | 机器人及其导航方法、导航装置 |
US20190064333A1 (en) * | 2017-04-28 | 2019-02-28 | SZ DJI Technology Co., Ltd. | Calibration of laser sensors |
US20190094878A1 (en) * | 2017-09-22 | 2019-03-28 | Waymo Llc | Detecting Motion of an Autonomous Vehicle Using Radar Technology |
CN109934230A (zh) * | 2018-09-05 | 2019-06-25 | 浙江大学 | 一种基于视觉辅助的雷达点云分割方法 |
CN110244322A (zh) * | 2019-06-28 | 2019-09-17 | 东南大学 | 基于多源传感器的路面施工机器人环境感知系统及方法 |
CN110361727A (zh) * | 2019-07-22 | 2019-10-22 | 浙江大学 | 一种毫米波雷达多目标跟踪方法 |
CN110363158A (zh) * | 2019-07-17 | 2019-10-22 | 浙江大学 | 一种基于神经网络的毫米波雷达与视觉协同目标检测与识别方法 |
CN110568445A (zh) * | 2019-08-30 | 2019-12-13 | 浙江大学 | 一种轻量化卷积神经网络的激光雷达与视觉融合感知方法 |
CN209859002U (zh) * | 2019-01-10 | 2019-12-27 | 武汉工控仪器仪表有限公司 | 一种室外行人跟随机器人控制系统 |
-
2020
- 2020-01-03 CN CN202010005542.3A patent/CN111198496A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190064333A1 (en) * | 2017-04-28 | 2019-02-28 | SZ DJI Technology Co., Ltd. | Calibration of laser sensors |
US20190094878A1 (en) * | 2017-09-22 | 2019-03-28 | Waymo Llc | Detecting Motion of an Autonomous Vehicle Using Radar Technology |
CN108375373A (zh) * | 2018-01-30 | 2018-08-07 | 深圳市同川科技有限公司 | 机器人及其导航方法、导航装置 |
CN109934230A (zh) * | 2018-09-05 | 2019-06-25 | 浙江大学 | 一种基于视觉辅助的雷达点云分割方法 |
CN209859002U (zh) * | 2019-01-10 | 2019-12-27 | 武汉工控仪器仪表有限公司 | 一种室外行人跟随机器人控制系统 |
CN110244322A (zh) * | 2019-06-28 | 2019-09-17 | 东南大学 | 基于多源传感器的路面施工机器人环境感知系统及方法 |
CN110363158A (zh) * | 2019-07-17 | 2019-10-22 | 浙江大学 | 一种基于神经网络的毫米波雷达与视觉协同目标检测与识别方法 |
CN110361727A (zh) * | 2019-07-22 | 2019-10-22 | 浙江大学 | 一种毫米波雷达多目标跟踪方法 |
CN110568445A (zh) * | 2019-08-30 | 2019-12-13 | 浙江大学 | 一种轻量化卷积神经网络的激光雷达与视觉融合感知方法 |
Non-Patent Citations (3)
Title |
---|
余铎等: "基于视觉的移动机器人目标跟踪方法", 《仪器仪表学报》 * |
庞成: "基于测距雷达和机器视觉数据融合的前方车辆检测系统", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
朱世强: "生物启发的人工智能与未来机器人", 《机器人技术与应用》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111998772A (zh) * | 2020-08-05 | 2020-11-27 | 浙江大学 | 一种基于激光与单目视觉融合的像素级目标定位方法 |
CN111998772B (zh) * | 2020-08-05 | 2021-11-16 | 浙江大学 | 一种基于激光与单目视觉融合的像素级目标定位方法 |
CN113110413A (zh) * | 2021-03-10 | 2021-07-13 | 成都永奉科技有限公司 | 跟随机器人以及跟随控制方法、跟随控制系统 |
CN113030944A (zh) * | 2021-04-16 | 2021-06-25 | 深圳市众云信息科技有限公司 | 一种雷达目标追踪方法 |
CN113030944B (zh) * | 2021-04-16 | 2024-02-02 | 深圳市众云信息科技有限公司 | 一种雷达目标追踪方法 |
CN113238552A (zh) * | 2021-04-28 | 2021-08-10 | 深圳优地科技有限公司 | 机器人及其运动方法、装置及计算机可读存储介质 |
WO2022262594A1 (zh) * | 2021-06-15 | 2022-12-22 | 同方威视技术股份有限公司 | 跟随目标的方法、装置、机器人及计算机可读存储介质 |
CN114326732A (zh) * | 2021-12-28 | 2022-04-12 | 无锡笠泽智能科技有限公司 | 一种机器人自主跟随系统及自主跟随控制方法 |
WO2024021340A1 (zh) * | 2022-07-27 | 2024-02-01 | 东莞市本末科技有限公司 | 机器人跟随方法、装置、机器人及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111198496A (zh) | 一种目标跟随机器人及跟随方法 | |
Zhu et al. | Online camera-lidar calibration with sensor semantic information | |
CN107741234B (zh) | 一种基于视觉的离线地图构建及定位方法 | |
Boudjit et al. | Human detection based on deep learning YOLO-v2 for real-time UAV applications | |
CN111201451A (zh) | 基于场景的激光数据和雷达数据进行场景中的对象检测的方法及装置 | |
Li et al. | Automated visual positioning and precision placement of a workpiece using deep learning | |
Miyamoto et al. | Visual navigation based on semantic segmentation using only a monocular camera as an external sensor | |
CN113506318A (zh) | 一种车载边缘场景下的三维目标感知方法 | |
CN112232139B (zh) | 一种基于Yolo v4与Tof算法相结合的避障方法 | |
CN114998276B (zh) | 一种基于三维点云的机器人动态障碍物实时检测方法 | |
Zhang et al. | A fast detection and grasping method for mobile manipulator based on improved faster R-CNN | |
US20240051146A1 (en) | Autonomous solar installation using artificial intelligence | |
Chen et al. | A low-cost localization system based on artificial landmarks with two degree of freedom platform camera | |
CN115797397B (zh) | 一种机器人全天候自主跟随目标人员的方法及系统 | |
Noaman et al. | Landmarks exploration algorithm for mobile robot indoor localization using VISION sensor | |
Tas et al. | High-definition map update framework for intelligent autonomous transfer vehicles | |
Guo et al. | Road environment perception for safe and comfortable driving | |
US20210371260A1 (en) | Automatic detection and tracking of pallet pockets for automated pickup | |
Chen et al. | Multiple-object tracking based on monocular camera and 3-D lidar fusion for autonomous vehicles | |
CN112598699A (zh) | 一种针对机器人工作场景中提取障碍物运动信息的方法 | |
Saha et al. | 3D LiDAR-based obstacle detection and tracking for autonomous navigation in dynamic environments | |
Liu et al. | A lightweight lidar-camera sensing method of obstacles detection and classification for autonomous rail rapid transit | |
Jia et al. | Pallet Detection Based on Halcon and AlexNet Network for Autonomous Forklifts | |
Nowak et al. | Leveraging object recognition in reliable vehicle localization from monocular images | |
Chen et al. | Object Detection for UAV Grasping: Solution and Analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200526 |