CN112068128B - 一种直道场景线段型雷达数据处理及位姿获取方法 - Google Patents
一种直道场景线段型雷达数据处理及位姿获取方法 Download PDFInfo
- Publication number
- CN112068128B CN112068128B CN202010990659.1A CN202010990659A CN112068128B CN 112068128 B CN112068128 B CN 112068128B CN 202010990659 A CN202010990659 A CN 202010990659A CN 112068128 B CN112068128 B CN 112068128B
- Authority
- CN
- China
- Prior art keywords
- data
- radar data
- line segment
- robot
- radar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims abstract description 31
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000012216 screening Methods 0.000 claims abstract description 10
- 238000009499 grossing Methods 0.000 claims abstract description 8
- 230000009467 reduction Effects 0.000 claims abstract description 6
- 238000003491 array Methods 0.000 claims abstract description 5
- 230000008859 change Effects 0.000 claims abstract description 4
- 230000002159 abnormal effect Effects 0.000 claims description 11
- 230000005856 abnormality Effects 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 4
- 230000002401 inhibitory effect Effects 0.000 abstract 1
- 238000003672 processing method Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/881—Radar or analogous systems specially adapted for specific applications for robotics
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/414—Discriminating targets with respect to background clutter
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/415—Identification of targets based on measurements of movement associated with the target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9327—Sensor installation details
- G01S2013/93274—Sensor installation details on the side of the vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Automation & Control Theory (AREA)
- Robotics (AREA)
- Radar Systems Or Details Thereof (AREA)
- Numerical Control (AREA)
Abstract
本发明公开了直道场景线段型雷达数据处理及位姿获取方法,包括以下步骤:s1.通过基于数据特征的分组策略,将雷达数据初步分组,获得机器人左侧雷达数据和右侧雷达数据;s2.通过基于分组的匹配筛选策略,将左侧雷达数据逐一和右侧雷达数据比较斜率,得到左侧最优雷达数据和右侧最优雷达数据;s3.使用几何学方法根据当前所述左侧最优雷达数据和右侧最优雷达数据得到描述机器人在环境中的三个位姿参数;s4.基于优选数据的平滑降噪策略,将三个位置参数分别存入各自平滑数组中,替换过期数据,抑制当前数据的剧烈变化,取得准确的位姿信息;本方法对于复杂雷达数据段具有鲁棒性,经过简单的判断策略能获取准确的相对环境位姿信息,进而转换为机器人位姿。
Description
技术领域
本发明涉及一种传感数据处理领域的雷达数据处理及姿态信息获取方法。具体的,本发明涉及一种平行直道条件下,机器人使用空间分组、配对选取、平滑处理策略对初级雷达数据进行处理并获取机器人相对于环境位姿信息的方法。
背景技术
移动机器人由于具有替代人进行大范围高速度空间运动的能力,也能在许多极端环境下工作,因而在机器人领域占有很大比重。随着自动驾驶、水下机器人控制等机器人技术的兴起,视觉识别、雷达监测等外部传感器及相关数据处理的策略都被广泛的应用。机器人操作系统(ROS)及数量逐年增加的功能包为机器人的运动控制开发、传感数据的应用带来很多便利,但其也有许多不完善的地方,其中,obstacle_detect等处理二维雷达数据的功能包能够通过最小二乘法获得结构性的障碍物描述数据,如用以描述平面的线段型雷达数据和用以描述多边形的圆形雷达数据,然而该类初级数据具有数据数量不定,坐标特征不统一等问题,难以直接运用于机器人的位姿识别当中用以上层路径规划。现有雷达数据处理程序中,处理方法往往不能直接用于机器人的位姿控制:申请号为201810675818.1的专利公开了在FC总线仿真平台上雷达数据的处理方法并未对雷达数据进行有效筛选,不能获得具有强鲁棒性的参考;申请号为201910782080.3的专利公开了一种雷达数据处理装置及雷达数据处理方法通过目标数据包获得位置信息,却不能表征雷达(或装载雷达的小车)相对障碍物/目标的几何位置关系;申请号为201811120033.4的专利公开了一维雷达数据处理方法及系统分析了雷达数据的幅度特性,但只能获取一维距离数据,更无法获得二维位姿信息;申请号为201910330735.3的专利公开了一种雷达数据处理方法使用环形和扇形两种波门对雷达数据进行从粗到精筛选,然而未充分考虑被检测物体相对雷达的空间位置进行综合比较从而获得更准确的雷达数据。综上,有必要提出一种针对直道场景中利用线段型雷达数据获得准确平滑的机器人相对环境位姿信息的获取方法,直接用于机器人的空间运动控制。
发明内容
本发明的目的是针对线段型雷达原始数据具有的数据段数多,数据受环境影响大的特点,对原始雷达数据进行空间分组、匹配筛选、平滑降噪等策略处理,进而获取机器人相对于直道型可通过路径的准确位姿信息。该方法对于复杂雷达数据段具有鲁棒性,经过简单有效的判断策略能获取较准确的路径信息,进而得到为机器人位姿,可为机器人后续的路径规划和自动避障提供参考。
为实现上述技术目的,本发明采用的技术方案如下:
一种直道场景线段型雷达数据处理及机器人位姿获取方法,包括以下步骤:
s1.通过基于数据特征的分组策略,将雷达数据初步分组,获得机器人左侧雷达数据和机器人右侧雷达数据;
s2.通过基于分组的匹配筛选策略,将左侧雷达数据逐一和右侧雷达数据比较斜率,得到左侧最优雷达数据和右侧最优雷达数据;
s3.使用几何学方法根据当前所述左侧最优雷达数据和右侧最优雷达数据得到描述机器人在环境中的三个位置参数:距右边界线距离、相对运动夹角、边界线宽度;
s4.基于优选数据的平滑降噪策略,将所述距右边界线距离、相对运动夹角、边界线宽度分别存入各自平滑数组中,替换过期数据,抑制当前数据的剧烈变化,从而取得稳定准确的位姿信息。
其中,步骤s1具体包括:
s11.对机器人和可通过环境路径分别建立固连在机器人与环境中固定点上的坐标系;
s12.固定在机器人上的雷达点云数据经过最小二乘法拟合后获得线段数据;所述线段数据通过基于所述固连在机器人上的坐标系中的坐标点表征;
s13.通过对线段数据坐标综合处理,将线段数据初步分为左、右两组表征左边界和右边界。
其中,步骤s2具体包括:
s21.通过逐一比较左边界各线段/右边界各线段与右边界各线段/左边界各线段求解斜率差值,得到斜率差矩阵;
s22.从所述斜率差矩阵找出最小元素,所述最小元素对应左边界线段斜率与右边界线段斜率均值即为当前最优斜率值;
s23.选取斜率最优的左、右侧数据。
其中,步骤s3中,利用数据处理策略得到的优选距离值、夹角值数据进行转换计算,从而获得移动机器人相对于直道环境的坐标值。
其中,步骤s4具体包括:
s41.利用计算得到的距离值、夹角值进行平滑数组处理;所述平滑数组记录从当前最优数据到之前某一段时间内的最优数据;
s42.对所述平滑数组元素求均值,即为平滑后的当前优选斜率。
其中,在线段型雷达数据处理前,应对线段斜率、坐标值进行检查,避免当前雷达数据异常或机器人位姿异常导致机器人进行不可控运动;对任意选定的边界坐标系与机器人坐标系,设置以机器人坐标系为基准的线段型雷达数据坐标、线段斜率设置允许区间;所述允许区间内的数据可继续处理,对所述允许区间外的数据视为异常数据,并标记当前数据异常,提示机器人上层控制系统进行后续处理。
本发明的有益效果为:
1.发明采用的基于数据特征的分组策略,仅利用坐标特征即可对线段型数据快速分组,确定左右边界线。
2.发明采用的基于分组的匹配筛选策略,将左右边界线数据进行组合对比作为当前策略结果,误差最小,可信度最高。
3.发明采用的基于优选数据的平滑降噪策略,同时考虑当前数据及前一阶段数据,抑制振荡从而使机器人运行更加平稳。
4.发明考虑数据合理性的位姿信息获取方法,能有效去除极端情况下的不合理数据,防止因传感数据异常而导致事故。
附图说明
本发明可以通过附图给出的非限定性实施例进一步说明;
图1是本发明中雷达数据处理策略流程图。
图2是本发明中环境坐标系与机器人坐标系相对关系图。
图3是本发明中雷达数据几种示例情况。
图4是本发明中不同雷达数据数目所进行的处理流程图。
图5是本发明中基于分组的匹配筛选策略示意图。
具体实施方式
为了使本领域的技术人员可以更好地理解本发明,下面结合附图和实施例对本发明技术方案进一步说明。
图1所示为雷达数据处理及机器人位姿获取方法流程图。对于线段型雷达数据,通过基于数据特征的分组策略,将雷达数据初步分组,获得左侧雷达数据和右侧雷达数据;通过基于分组的匹配筛选策略,将左侧雷达数据逐一和右侧雷达数据比较斜率,得到左侧最优雷达数据和右侧最优雷达数据;所述位姿获取方法,使用几何学方法根据当前最优雷达数据和右侧最优雷达数据得到描述机器人在环境中的三个位姿参数:距右边界线距离、相对运动夹角、边界间距宽度;基于优选数据的平滑降噪策略,将距右边界线距离、相对运动夹角、边界间距宽度分别存入各自平滑数组中,替换过期数据,抑制当前数据的剧烈变化,从而取得稳定准确的位姿信息。
图2所示,本发明描述的环境坐标系与机器人坐标系相对关系的一种方式。在所述方式当中,边界由平行的左边界线与右边界线组成,环境坐标系原点O环固定在左右边界线所形成矩形区域的中心,若采用二维坐标,优选的可将环境坐标系的X环轴和Y环轴进行如图所示布置。所述机器人坐标系原点O机固定在机器人中心,若采用二维坐标,优选的可将X机轴和Y机轴进行如图所示布置。对于构建所述机器人周围环境位姿信息来说,优选的可只检测机器人前后一段距离的边界线段数据,优选的所述向前距离和所述向后距离相等,从而机器人坐标系原点O机与环境坐标系Y环轴重合。为对所述环境坐标系和所述机器人坐标系位置关系进行表征计算,令所述机器人中心O机点到所述右边界线的距离为d,所述左边界线和右边界线距离为w,所述环境坐标系Y环轴负方向和所述机器人坐标系X机轴正方向的夹角为θ。
所述基于数据特征的分组策略,将线段型雷达数据进行左右分组:如图2所示,从雷达原始数据中可获得每条所述线段型雷达数据起始点A1和终止点B1(或A2和B2)在所述机器人坐标系中的坐标(xa1,ya1)、(xb1,yb1),则可求得所述段线段型雷达数据中点C1,其坐标为以及线段型雷达数据在所述机器人坐标系的斜率k,其值为/>正常情况下,机器人运动方向和环境方向夹角不大,在夹角区间(θmin,θmax)内部,所述机器人不会过于靠近所述左边界或右边界,此时对于位于机器人左侧的线段型雷达数据,中点C1的Y机方向坐标值yc1>0,相对的位于机器人右侧的线段型雷达数据中点Y机方向坐标值小于0。对某一时刻所有线段型雷达数据进行如上判断,可获得左侧雷达数据集合{Dlm}(此时机器人左侧有m段雷达数据)与右侧雷达数据集合{Drn}(此时机器人右侧有n段雷达数据)。需要提出的是,依据每条线段型雷达数据的斜率k可初步判断该调雷达数据的合理性,当该雷达数据和同时刻其他雷达数据斜率差异较大,判断该条为异常数据而忽略,此时直接采用上一次的线段数据进行发布。当同时刻雷达数据斜率差异较小且斜率都为异常数值时,判定为机器人和环境边界线夹角过大,处于横穿边界情况,此时为防止机器人失控,标记为异常位姿,进入异常情况处理程序。
如图3所示,列举几种可能的线段型雷达数据相对所述机器人的分布情况;图4表示了当左右侧雷达数据数目不同时,所进行的对应处理方法。当线段型雷达数据只有一条时,则必存在机器人某侧未检测到边界的情况,此时视为异常情况交由上层控制系统处理。当雷达数据有多条时,对数据根据基于数据特征的分组策略进行左右分组,并记录左侧和右侧的雷达数据数量。当左侧或右侧雷达数据数量为0,则同样视为该侧未检测到边界归为异常情况。当左侧和右侧各有一条线段型雷达数据时,则对这两条雷达数据斜率求均值作为最优斜率kopt;当左右两侧都至少有一条雷达数据并任意一侧包含大于一条的线段型雷达数据时,对所述左右两侧雷达数据进行基于分组的匹配筛选策略处理。
如图5所示,所述基于分组的匹配筛选策略利用所述左侧雷达数据集合{Dlm}和右侧雷达数据集合{Drn}得出初级优选数据。策略进行时,将左侧雷达数据集合{Dlm}中的每个元素的斜率和右侧雷达数据集合{Dlm}中的每个元素的斜率进行作差并求绝对值,存入相应差值数组中。所述差值数组是一个m×n的数组,数组的第一行第一列元素存储左侧雷达数据集合{Dlm}中的第一个线段元素斜率和所述右侧雷达数据集合{Drn}中的第一个线段元素斜率之间差值的绝对值;同理所述数组的第m行第n列元素存储左侧雷达数据集合{Dlm}中的第m个线段元素斜率和所述右侧雷达数据集合{Drn}中的第n个线段元素斜率之间差值的绝对值。对所述得出的数组比较内部元素间的大小,找出数值最小的值。所述最小值所对应的左侧雷达数据斜率和右侧雷达数据斜率的均值,即为基于分组的匹配筛选策略得出的最优斜率值kopt。此时所述左侧雷达数据Lopt与右侧雷达数据Ropt即为当前最优左右侧雷达数据。
对于所述最优左侧雷达数据Lopt与最优右侧雷达数据Ropt,已知对应中点坐标(xlopt,ylopt),(xropt,yropt),以及最优斜率kopt,分别得到左边界的坐标方程与右边界的坐标方程:(y-ylopt)=kopt(x-xlopt)和(y-yropt)=kopt(x-xropt),机器人中心O机距离两条直线距离分别为与/>此时,根据几何变换关系,机器人O机距离右边界的距离为d=dr,机器人坐标系X机轴正方向和环境坐标系Y环轴负方向的夹角左右边界间的距离为w=dl+dr。上述计算方法即为所述机器人相对环境位姿获取方法。
所述基于优选数据的平滑策略,对于记录当前已取得的距右边界距离d、边界线间距宽度w、机器人夹角θ,形成各自相应平滑数组。当数据量较大超过数组容量时,用所述当前最优值替换所述平滑数组中最早的数据,并求解数组元素的均值,从而获得平滑后的距右边界距离d'、边界线间距宽度w'、机器人夹角θ',为机器人控制系统提供决策依据。
以上具体实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
Claims (5)
1.一种直道场景线段型雷达数据处理及位姿获取方法,其特征在于,包括以下步骤:
s1.通过基于数据特征的分组策略,将雷达数据初步分组,获得机器人左侧雷达数据和右侧雷达数据;
s2.通过基于分组的匹配筛选策略,将左侧雷达数据逐一和右侧雷达数据比较斜率,得到左侧最优雷达数据和右侧最优雷达数据;
s3.使用几何学方法根据当前所述左侧最优雷达数据和右侧最优雷达数据得到描述机器人在环境中的三个位姿参数:距环境右边界线距离、相对运动夹角、左右边线宽度;
s4.基于优选数据的平滑降噪策略,将所述距环境右边界线距离、相对运动夹角、左右边线宽度分别存入各自平滑数组中,替换过期数据,抑制当前数据的剧烈变化,从而取得稳定准确的位姿信息;
其中,步骤s2具体包括:
s21.通过逐一比较左边界各线段/右边界各线段与右边界各线段/左边界各线段求解斜率差值,得到斜率差矩阵;
s22.从所述斜率差矩阵找出最小元素,所述最小元素对应左边界线线段斜率与右边界线段斜率均值即为当前最优斜率值;
s23.选取斜率最优的左、右侧数据。
2.根据权利要求1所述的直道场景线段型雷达数据处理及位姿获取方法,其特征在于,步骤s1具体包括:
s11.对机器人和环境分别建立固连在机器人与环境固定点上的坐标系;
s12.固定在机器人上的雷达点云数据经过最小二乘法拟合后获得线段数据;所述线段数据通过基于所述固连在机器人上的坐标系中的坐标点表征;
s13.通过对线段数据坐标综合处理,将线段数据初步分为左、右两组表征左边界和右边界。
3.根据权利要求1所述的直道场景线段型雷达数据处理及位姿获取方法,其特征在于:步骤s3中,利用数据处理策略得到的优选距离值、夹角值数据进行转换计算,从而获得机器人相对于直道环境的坐标值。
4.根据权利要求1所述的直道场景线段型雷达数据处理及位姿获取方法,其特征在于:步骤s4具体包括:
s41.利用计算得到的距离值、夹角值进行平滑数组处理;所述平滑数组记录从当前最优数据到之前某一段时间内的最优数据;
s42.对所述平滑数组元素求均值,即为平滑后的当前优选数据。
5.根据权利要求1所述的直道场景线段型雷达数据处理及位姿获取方法,其特征在于:在线段型雷达数据处理前,应对线段斜率、坐标值进行检查,避免当前雷达数据异常或机器人位姿异常导致机器人进行不可控运动;对任意选定的环境坐标系与机器人坐标系,设置以机器人坐标系为基准的线段型雷达数据坐标、线段斜率设置允许区间;所述允许区间内的数据可继续处理,对所述允许区间外的数据视为异常数据,并标记当前数据异常,提示机器人上层控制系统进行后续处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010990659.1A CN112068128B (zh) | 2020-09-19 | 2020-09-19 | 一种直道场景线段型雷达数据处理及位姿获取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010990659.1A CN112068128B (zh) | 2020-09-19 | 2020-09-19 | 一种直道场景线段型雷达数据处理及位姿获取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112068128A CN112068128A (zh) | 2020-12-11 |
CN112068128B true CN112068128B (zh) | 2024-02-02 |
Family
ID=73681408
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010990659.1A Active CN112068128B (zh) | 2020-09-19 | 2020-09-19 | 一种直道场景线段型雷达数据处理及位姿获取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112068128B (zh) |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU677755B2 (en) * | 1989-12-11 | 1997-05-01 | Caterpillar Inc. | Integrated vehicle positioning and navigation system, apparatus and method |
EP1467223B1 (en) * | 2002-01-18 | 2007-09-12 | Hitachi, Ltd. | Radar device |
CN101561970B (zh) * | 2009-05-25 | 2011-06-08 | 中国人民解放军理工大学气象学院 | 一种微波车辆检测雷达的控制方法 |
CN102798856B (zh) * | 2012-09-11 | 2014-08-20 | 重庆大学 | 一种基于小波包的24GHz LFMCW雷达测距方法 |
CN102970692B (zh) * | 2012-12-03 | 2015-04-08 | 哈尔滨工程大学 | 一种无线传感器网络事件边界节点检测方法 |
CN103707839A (zh) * | 2013-12-26 | 2014-04-09 | 青岛永通电梯工程有限公司 | 一种车辆侧翻保护方法 |
CN104020508A (zh) * | 2014-06-16 | 2014-09-03 | 中国矿业大学(北京) | 一种用于地质雷达层析探测的直射线追踪算法 |
US9516806B2 (en) * | 2014-10-10 | 2016-12-13 | Irobot Corporation | Robotic lawn mowing boundary determination |
DE102014116019A1 (de) * | 2014-11-04 | 2016-05-04 | Amazonen-Werke H. Dreyer Gmbh & Co. Kg | Verfahren und Vorrichtung zur Berechnung von Einstellparametern eines Schleuderstreuers |
CN104460505A (zh) * | 2014-11-12 | 2015-03-25 | 沈阳新松机器人自动化股份有限公司 | 工业机器人相对位姿估计方法 |
US9598843B2 (en) * | 2014-12-16 | 2017-03-21 | Caterpillar Inc. | Real-time route terrain validity checker |
CN105137408B (zh) * | 2015-07-23 | 2017-06-27 | 电子科技大学 | 一种最优天线方向图选取的雷达角超分辨方法 |
CN106643805B (zh) * | 2016-12-30 | 2020-07-14 | 上海交通大学 | 激光定位传感器在agv小车中位置标定方法 |
CN107103621A (zh) * | 2017-04-22 | 2017-08-29 | 许晟明 | 基于光场单相机的非合作航天器三维位姿测量系统 |
CN107843251B (zh) * | 2017-10-18 | 2020-01-31 | 广东宝乐机器人股份有限公司 | 移动机器人的位姿估计方法 |
TWI652449B (zh) * | 2017-12-11 | 2019-03-01 | 財團法人車輛研究測試中心 | 三維感測器之動態地面偵測方法 |
CN108508430B (zh) * | 2018-04-03 | 2020-07-17 | 中国人民解放军国防科技大学 | 用于目标检测的激光雷达转动控制方法 |
CN109000649B (zh) * | 2018-05-29 | 2022-02-15 | 重庆大学 | 一种基于直角弯道特征的全方位移动机器人位姿校准方法 |
KR102242714B1 (ko) * | 2018-08-03 | 2021-04-22 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법, 이동 로봇 시스템 |
CN110858076B (zh) * | 2018-08-22 | 2023-06-02 | 杭州海康机器人股份有限公司 | 一种设备定位、栅格地图构建方法及移动机器人 |
CN109859526B (zh) * | 2019-01-18 | 2022-04-01 | 长安大学 | 一种超车时前方目标车辆运动姿态实时观测装置及方法 |
CN109858460B (zh) * | 2019-02-20 | 2022-06-10 | 重庆邮电大学 | 一种基于三维激光雷达的车道线检测方法 |
US11532237B2 (en) * | 2019-02-28 | 2022-12-20 | Rockwell Collins, Inc. | Autonomous aircraft sensor-based positioning and navigation system using markers |
CN109828607B (zh) * | 2019-04-03 | 2020-07-07 | 南京航空航天大学 | 一种面向不规则障碍物的无人机路径规划方法及系统 |
CN110047133A (zh) * | 2019-04-16 | 2019-07-23 | 重庆大学 | 一种面向点云数据的列车边界提取方法 |
CN110119541A (zh) * | 2019-04-22 | 2019-08-13 | 上海大学 | 一种用于转轴结构力学性能检测的机器人测试装置及控制系统 |
CN110793524B (zh) * | 2019-09-27 | 2023-08-01 | 南京航空航天大学 | 一种割草机路径规划的方法 |
CN110930454B (zh) * | 2019-11-01 | 2022-11-22 | 北京航空航天大学 | 一种基于边界框外关键点定位的六自由度位姿估计算法 |
-
2020
- 2020-09-19 CN CN202010990659.1A patent/CN112068128B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN112068128A (zh) | 2020-12-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110587600B (zh) | 基于点云的带电作业机器人自主路径规划方法 | |
US9149932B2 (en) | Robot picking system, control device, and method of manufacturing a workpiece | |
US20150094855A1 (en) | Imitation learning method for a multi-axis manipulator | |
CN108090572B (zh) | 一种海上风电场增强现实系统的控制方法 | |
CN108214487B (zh) | 基于双目视觉和激光雷达的机器人目标定位和抓取方法 | |
CN113284179B (zh) | 一种基于深度学习的机器人多物体分拣方法 | |
Micallef et al. | Automatic seam detection and path planning in robotic welding | |
CN111178138B (zh) | 基于激光点云和双目视觉的配网导线作业点检测方法及装置 | |
JP6723628B1 (ja) | カメラの視野内の遮蔽を決定するための方法およびシステム | |
US20210402604A1 (en) | Grabbing Method and Device for Industrial Robot, Computer Storage Medium, and Industrial Robot | |
CN109952176B (zh) | 一种机器人标定方法、系统、机器人及存储介质 | |
US20210181728A1 (en) | Learning device, control device, learning method, and recording medium | |
KR101844281B1 (ko) | 복잡구조물 용접자동화를 위한 광역 환경 인식 방법 및 시스템 | |
Ceriani et al. | Optimal placement of spots in distributed proximity sensors for safe human-robot interaction | |
CN112068128B (zh) | 一种直道场景线段型雷达数据处理及位姿获取方法 | |
Chang et al. | Implementation of an object-grasping robot arm using stereo vision measurement and fuzzy control | |
KR101981641B1 (ko) | 다중 이동 로봇의 대형 제어 방법 및 시스템 | |
Xu et al. | Industrial robot base assembly based on improved Hough transform of circle detection algorithm | |
Frese et al. | Multi-sensor obstacle tracking for safe human-robot interaction | |
Hiasa et al. | Development of experimental multi-robot system for network connectivity controls | |
Tongloy et al. | An image-based visual servo control system based on an eye-in-hand monocular camera for autonomous robotic grasping | |
Gulzar et al. | See what i mean-probabilistic optimization of robot pointing gestures | |
Isobe et al. | Target tracking for a mobile robot with a stereo camera considering illumination changes | |
KR20190137767A (ko) | 제어장치 및 방법 | |
Solvang et al. | Robot programming in machining operations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |