CN114253273A - 一种基于多线激光雷达的避障方法 - Google Patents
一种基于多线激光雷达的避障方法 Download PDFInfo
- Publication number
- CN114253273A CN114253273A CN202111591139.4A CN202111591139A CN114253273A CN 114253273 A CN114253273 A CN 114253273A CN 202111591139 A CN202111591139 A CN 202111591139A CN 114253273 A CN114253273 A CN 114253273A
- Authority
- CN
- China
- Prior art keywords
- grid
- probability
- laser radar
- time
- obstacle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000012545 processing Methods 0.000 claims abstract description 11
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 10
- 238000005259 measurement Methods 0.000 claims abstract description 9
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000013473 artificial intelligence Methods 0.000 claims description 3
- 238000009795 derivation Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 claims description 3
- 238000001514 detection method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明涉及激光雷达的应用方法,具体为一种基于多线激光雷达的避障方法,可适用于无人驾驶汽车、服务机器人等机器人的避障算法;包括如下方法:步骤一、通过多线激光雷达的进行一次雷测量;步骤二、多线激光雷达的数据进行处理:根据需要避障的主体不同,设定一个观测距离,记为z,对于(i,j)网格,假设在t时观测到的深度为zt,引入中间变量mt,若zt>z表示传感器测量到没有障碍物,令mt=1;若zt≤z,表示传感器测量到(i,j)网格有障碍物,令mt=0;步骤三、将网格(i,j)在t时刻未被占用的概率记作:p(si,j=1|m1:t),其值在0~1之间,并且根据mt的值进行更新,m1:t代表截至t时刻与测量值相关的变量;可使激光雷达或其他TOF传感器测到的深度数据转换为图像数据,便于后续使用深度学习或其他经典图像处理算法的处理。
Description
技术领域
本发明涉及激光雷达的应用方法,具体为一种基于多线激光雷达的避障方 法。
背景技术
无论是无人驾驶汽车还是服务机器人,都需要考虑运动工程中的障碍规避问 题。目前基于激光雷达的避障算法大多仅支持单线激光雷达,随着多线激光雷达 技术的成熟,特别是基于940nm vcsel激光的TOF多线激光雷达,其价格在几百 元到千元左右,其分辨率和成本达到了较好的平衡。但目前仍缺少针对多线激光 雷达的避障方案的设计。
发明内容
为了解决这一问题,针对多线激光雷达或其它的TOF传感器,本发明提出 了一种基于多线激光雷达的避障方法,可适用于无人驾驶汽车、服务机器人等机 器人的避障算法。
为解决上述技术问题,本发明所采用的技术方案为:一种基于多线激光雷达 的避障方法,包括如下方法:
步骤一、通过多线激光雷达的进行一次雷测量;
步骤二、多线激光雷达的数据进行处理:根据需要避障的主体不同,设定一 个观测距离,记为z,对于(i,j)网格,假设在t时观测到的深度为zt,引入中间 变量mt,若zt>z表示传感器测量到没有障碍物,令mt=1;若zt≤z,表示传 感器测量到(i,j)网格有障碍物,令mt=0;
步骤三、将网格(i,j)在t时刻未被占用的概率记作:p(si,j=1|m1:t),其值 在0~1之间,并且根据mt的值进行更新,m1:t代表截至t时刻与测量值相关的 变量;在任意时刻,网格只有未被占用或被占用两种状态,因此有:
p(si,j=1|m1:t)+p(si,j=0|m1:t)=1;
步骤四、假设初始时刻被未被占用的概率为p(si,j=1)=0.5,被占用的概 率记作p(si,j=0)=0.5,此时未被占用的概率与被占用的概率相同,表明该单 元格的状态是未知的;为便于计算,引入网格(i,j)在t时刻赔率的概念,即: ot(i,j)的含义是使用t时刻网格未被占用的概率 除以网格被占用的概率,然后再取一个自然对数;
步骤五、在初始时刻t=0时,有:
在任意时刻,得到了ot(i,j)之后,可以使用如下公式得到在t时刻网格没有 被占用的概率:
步骤六:其中ot(i,j)的更新方法如下:
遍历N*M条激光的数据,假设编号为(i,j)的激光在t+1时刻检测到的数据, 记为z(t+1):
If z(t+1)>z
o(t+1)(i,j)=ot(i,j)+of
Else
o(t+1)(i,j)=ot(i,j)+oo
limit(o(t+1)(i,j),omax,omin)
oo、of皆为常数,根据传感器的不同该值有所不同,其计算方法详见算法的 具体推导过程;
limit(o(t+1)(i,j),omax,omin)的作用是将o(t+1)(i,j)的值限定在 [omin,omax]的范围内;
最后,可以得到在t+1时刻网格(i,j)未被占用的概率如下:
将o(t+1)(i,j)与p(si,j=1|m1:(t+1))的关系画出,可见,公式1能够将o(t+1)(i,j) 的值映射到(0,1)区间。
p(si,j=1|m1:(t+1))越趋向于1,代表网格(i,j)内有没有障碍物的可能性越 大,p(si,j=1|m1:(t+1))越趋向于0,代表网格(i,j)内有障碍物的可能性越大。
作为优选,还包括步骤七:将概率p(si,j=1|m1:(t+1))乘以255并且取整,便 可以得到一副分辨率为N*M的灰度图片。
作为优选,可通过图片灰度使用人工智能或图像处理方式,判断机器人是否 可通过。
作为优选,若选取3个不同的观测距离,记为z,则可以得到具有三个通道 的图片,类似于彩色的图片。
本发明的基于多线激光雷达的避障方法可达到如下有益效果:
1.本发明可使激光雷达或其他TOF传感器测到的深度数据转换为图像数据, 便于后续使用深度学习或其他经典图像处理算法的处理;
2.本发明使用概率论中相关知识处理传感器中的噪声,可有效地抑制噪声 干扰;
3.在获得测量数据之后,更新赔率时仅需要做简单的加减法,运算简单, 便于处理。
附图说明
图1是本发明的基于多线激光雷达的避障方法的检测原理示意图一;
图2是本发明的基于多线激光雷达的避障方法的检测原理示意图二;
图3是本发明的基于多线激光雷达的避障方法的障碍物的可能性分布示意 图。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本 发明的技术方案,而不能以此来限制本发明的保护范围。
本发明借鉴单线激光雷达SLAM时的一些做法,提出一种使用多线激光雷达 或其它的TOF传感器的数据制作垂直方向地图的算法,以解决机器人的避障问 题,可有效实现多线激光雷达输出的距离信息,转换为图像,以便使用深度学习 或其他的经典图像处理方式生成小车的控制信号。
一种基于多线激光雷达的避障方法,包括如下方法:
步骤一、通过多线激光雷达的进行一次雷测量;
步骤二、多线激光雷达的数据进行处理:根据需要避障的主体不同,设定一 个观测距离记为z,对于(i,j)网格,假设在t时观测到的深度为zt,引入中间变 量mt,若zt>z表示传感器测量到没有障碍物,令mt=1;若zt≤z,表示传感 器测量到(i,j)网格有障碍物,令mt=0;
步骤三、将网格(i,j)在t时刻未被占用的概率记作:p(si,j=1|m1:t),未被 占用的概率记作:p(si,j=0|m1:t),m1:t代表截至t时刻与测量值相关的变量; 在任意时刻,网格只有未被占用或被占用两种状态,因此有:
p(si,j=1|m1:t)+p(si,j=0|m1:t)=1;
步骤四、假设初始时刻被未被占用的概率为p(si,j=1)=0.5,被占用的概 率记作p(si,j=0)=0.5,此时未被占用的概率与被占用的概率相同,表明该单 元格的状态是未知的;为便于计算,引入网格(i,j)在t时刻赔率的概念,即: ot(i,j)的含义是使用t时刻网格未被占用的概率 除以网格被占用的概率,然后再取一个自然对数;
步骤五、在初始时刻t=0时,有:
在得到了ot(i,j)之后,可以使用如下公式得到在t时刻网格没有被占用的概 率:
步骤六:遍历N*M条激光的数据,假设编号为(i,j)的激光在t+1时刻检测 到的数据,记为z(t+1):
If z(t+1)>z
o(t+1)(i,j)=ot(i,j)+of
Else
o(t+1)(i,j)=ot(i,j)+oo
limit(o(t+1)(i,j),omax,omin)
limit(o(t+1)(i,j),omax,omin)的作用是将o(t+1)(i,j)的值限定在 [omin,omax]的范围内;
最后,可以得到在t+1时刻网格(i,j)未被占用的概率如下:
将o(t+1)(i,j)与p(si,j=1|m1:(t+1))的关系画出来,得到如图3所示:
可见,公式1能够将o(t+1)(i,j)的值映射到(0,1)区间。
p(si,j=1|m1:(t+1))越趋向于1,代表网格(i,j)内有没有障碍物的可能性越 大,p(si,j=1|m1:(t+1))越趋向于0,代表网格(i,j)内有障碍物的可能性越大。
还包括步骤七:将概率p(si,j=1|m1:(t+1))乘以255并且取整,便可以得到一 副分辨率为N*M的灰度图片。可通过图片灰度使用人工智能或图像处理方式, 判断机器人是否可通过。若选取3个不同的观测距离,记为z,则可以得到具有 三个通道的图片,类似于彩色的图片。
上述算法的具体推导过程如下:
对于垂直地图中的任意一个网格(i,j),使用p(si,j=1|m1:t)来表示该网格在 t时刻是未被占用的状态;使用p(si,j=0|m1:t)表示该网格在t时刻是被占据的状 态,两者的和为1。
对于(i,j)网格,根据本专利中的算法,z(t+1)>z0表示传感器测量到没有障 碍物,记作m(t+1)=1;一种为:z(t+1)≤z0,表示传感器测量到(i,j)网格有障碍 物,记作m(t+1)=0代替,对于网格(i,j),在t+1时刻来获取了一个测量值m(t+1)之后,需要更新ot(i,j)的状态,即有:
根据贝叶斯公式,有:
根据马尔科夫假设,t+1时刻的观测结果与1:t时刻的观测结果无关,则有:
则有:
再次利用贝叶斯:
将式(4)代入式(3)之后,可以得:
假设在进行第一次激光测量之前,网格(i,j)均处在一种未知的状态,即 p(si,j=1)=p(si,j=0)=0.5,则:
那么式(5)将变成:
第一种:此时,测量的结果表明(i,j)栅格是没有 被占用。p(si,j=1|m(t+1)=1)表示探测结果未被占用,实际也未被占用的概率; p(si,j=0|m(t+1)=1)表示探测结果未被占用,实际是占用的概率,两者之和必 为1;例如:对于激光雷达传感器,考虑激光探测的角度问题,可能在某一个时 刻并没有扫到障碍物,可以令p(si,j=1|m(t+1)=1)=0.8, p(si,j=0|m(t+1)=1)=0.2,则式(7)将变为:
第二种:此时,测量的结果表明(i,j)栅格是被占 用的。p(si,j=1|m(t+1)=0)表示探测结果被占用,实际未被占用的概率; p(si,j=0|m(t+1)=1)表示探测结果被占用,实际是占用的概率,两者之和必为1; 例如:对于激光雷达传感器,一旦探测到网格被占用,那么很大可能该网格中存 在障碍物,可以令p(si,j=1|m(t+1)=0)=0.1,p(si,j=0|m(t+1)=0)=0.9,则 式(7)将变为:
上述例子中,of和oo的值仅作为计算示例使用,实际的取值应以具体传感器 的情况为准。
以上仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人 员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些 改进和变形也应视为本发明的保护范围。
Claims (4)
1.一种基于多线激光雷达的避障方法,其特征在于:包括如下方法:
步骤一、通过多线激光雷达的进行一次雷测量;
步骤二、多线激光雷达的数据进行处理:根据需要避障的主体不同,设定一个观测距离,记为z,对于(i,j)网格,假设在t时观测到的深度为zt,引入中间变量mt,若zt>z表示传感器测量到没有障碍物,令mt=1;若zt≤z,表示传感器测量到(i,j)网格有障碍物,令mt=0;
步骤三、将网格(i,j)在t时刻未被占用的概率记作:p(si,j=1|m1:t),其值在0~1之间,并且根据mt的值进行更新,m1:t代表截至t时刻与测量值相关的变量;在任意时刻,网格只有未被占用或被占用两种状态,因此有:
p(si,j=1|m1:t)+p(si,j=0|m1:t)=1;
步骤四、假设初始时刻被未被占用的概率为p(si,j=1)=0.5,被占用的概率记作p(si,j=0)=0.5,此时未被占用的概率与被占用的概率相同,表明该单元格的状态是未知的;为便于计算,引入网格(i,j)在t时刻赔率的概念,即:ot(i,j)的含义是使用t时刻网格未被占用的概率除以网格被占用的概率,然后再取一个自然对数;
步骤五、在初始时刻t=0时,有:
在任意时刻,得到了ot(i,j)之后,可以使用如下公式得到在t时刻网格没有被占用的概率:
步骤六:其中ot(i,j)的更新方法如下:
遍历N*M条激光的数据,假设编号为(i,j)的激光在t+1时刻检测到的数据,记为z(t+1):
If z(t+1)>z
o(t+1)(i,j)=ot(i,j)+of
Else
o(t+1)(i,j)=ot(i,j)+oo
limit(o(t+1)(i,j),omax,omin)
oo、of皆为常数,根据传感器的不同该值有所不同,其计算方法详见算法的具体推导过程;
limit(o(t+1)(i,j),omax,omin)的作用是将o(t+1)(i,j)的值限定在[omin,omax]的范围内;
最后,可以得到在t+1时刻网格(i,j)未被占用的概率如下:
将o(t+1)(i,j)与p(si,j=1|m1:(t+1))的关系画出,可见,公式1能够将o(t+1)(i,j)的值映射到(0,1)区间。
p(si,j=1|mi:(t+1))越趋向于1,代表网格(i,j)内有没有障碍物的可能性越大,p(si,j=1|mi:(t+1))越趋向于0,代表网格(i,j)内有障碍物的可能性越大。
2.根据权利要求1所述的基于多线激光雷达的避障方法,其特征在于:还包括步骤七:将概率p(si,j=1|m1:(t+1))乘以255并且取整,便可以得到一副分辨率为N*M的灰度图片。
3.根据权利要求2所述的基于多线激光雷达的避障方法,其特征在于:可通过图片灰度使用人工智能或图像处理方式,判断机器人是否可通过。
4.根据权利要求1所述的基于多线激光雷达的避障方法,其特征在于:若选取3个不同的观测距离,记为z,则可以得到具有三个通道的图片,类似于彩色的图片。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111591139.4A CN114253273B (zh) | 2021-12-23 | 2021-12-23 | 一种基于多线激光雷达的避障方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111591139.4A CN114253273B (zh) | 2021-12-23 | 2021-12-23 | 一种基于多线激光雷达的避障方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114253273A true CN114253273A (zh) | 2022-03-29 |
CN114253273B CN114253273B (zh) | 2024-04-12 |
Family
ID=80797217
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111591139.4A Active CN114253273B (zh) | 2021-12-23 | 2021-12-23 | 一种基于多线激光雷达的避障方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114253273B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3204792A1 (de) * | 2015-03-24 | 2017-08-16 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum bereitstellen von hinderniskarten für fahrzeuge |
CN107193012A (zh) * | 2017-05-05 | 2017-09-22 | 江苏大学 | 基于imm‑mht算法的智能车激光雷达机动多目标跟踪方法 |
US20200249356A1 (en) * | 2019-02-05 | 2020-08-06 | Honda Motor Co., Ltd. | SYSTEM AND METHOD FOR PROVIDING ONLINE MULTI-LiDAR DYNAMIC OCCUPANCY MAPPING |
CN112033410A (zh) * | 2020-09-03 | 2020-12-04 | 中南大学 | 移动机器人环境地图构建方法、系统及存储介质 |
CN112525202A (zh) * | 2020-12-21 | 2021-03-19 | 北京工商大学 | 一种基于多传感器融合的slam定位导航方法及系统 |
CN112629548A (zh) * | 2020-12-28 | 2021-04-09 | 北京航空航天大学 | 一种基于路侧激光雷达的三维栅格地图的创建与更新方法 |
CN113804182A (zh) * | 2021-09-16 | 2021-12-17 | 重庆邮电大学 | 一种基于信息融合的栅格地图创建方法 |
-
2021
- 2021-12-23 CN CN202111591139.4A patent/CN114253273B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3204792A1 (de) * | 2015-03-24 | 2017-08-16 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum bereitstellen von hinderniskarten für fahrzeuge |
CN107193012A (zh) * | 2017-05-05 | 2017-09-22 | 江苏大学 | 基于imm‑mht算法的智能车激光雷达机动多目标跟踪方法 |
US20200249356A1 (en) * | 2019-02-05 | 2020-08-06 | Honda Motor Co., Ltd. | SYSTEM AND METHOD FOR PROVIDING ONLINE MULTI-LiDAR DYNAMIC OCCUPANCY MAPPING |
CN112033410A (zh) * | 2020-09-03 | 2020-12-04 | 中南大学 | 移动机器人环境地图构建方法、系统及存储介质 |
CN112525202A (zh) * | 2020-12-21 | 2021-03-19 | 北京工商大学 | 一种基于多传感器融合的slam定位导航方法及系统 |
CN112629548A (zh) * | 2020-12-28 | 2021-04-09 | 北京航空航天大学 | 一种基于路侧激光雷达的三维栅格地图的创建与更新方法 |
CN113804182A (zh) * | 2021-09-16 | 2021-12-17 | 重庆邮电大学 | 一种基于信息融合的栅格地图创建方法 |
Non-Patent Citations (1)
Title |
---|
张国强 等: "《一种在激光雷达无回波区域的地图构建算法》", 《计算机应用研究》, vol. 36, no. 12, pages 3874 - 3877 * |
Also Published As
Publication number | Publication date |
---|---|
CN114253273B (zh) | 2024-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20180051335A (ko) | 신경망 학습에 기반한 입력 처리 방법 및 이를 위한 장치 | |
Botteghi et al. | On reward shaping for mobile robot navigation: A reinforcement learning and SLAM based approach | |
CN111427047A (zh) | 一种大场景下自主移动机器人slam方法 | |
CN112762957B (zh) | 一种基于多传感器融合的环境建模及路径规划方法 | |
Doherty et al. | Bayesian generalized kernel inference for occupancy map prediction | |
JP2014523572A (ja) | 地図データの生成 | |
CN114817426A (zh) | 地图建构装置及方法 | |
CN113593035A (zh) | 一种运动控制决策生成方法、装置、电子设备及存储介质 | |
Heilig et al. | Adaptive particle filter for localization problem in service robotics | |
Verdoja et al. | Deep network uncertainty maps for indoor navigation | |
CN113191427B (zh) | 一种多目标车辆跟踪方法及相关装置 | |
CN113064422B (zh) | 基于双神经网络强化学习的自主水下航行器路径规划方法 | |
CN114217303A (zh) | 目标定位跟踪方法及装置、水下机器人和存储介质 | |
CN112802195B (zh) | 一种基于声呐的水下机器人连续占据建图方法 | |
CN114253273A (zh) | 一种基于多线激光雷达的避障方法 | |
CN110531340B (zh) | 一种激光雷达点云数据的基于深度学习的识别处理方法 | |
CN115585813A (zh) | 一种基于注意力机制的深度强化学习机器人导航方法 | |
CN112612788B (zh) | 一种无导航卫星信号下的自主定位方法 | |
CN113031620A (zh) | 一种机器人复杂环境定位方法 | |
Martens et al. | Mobile robot sensor integration with fuzzy ARTMAP | |
US20230367321A1 (en) | System And Method for Controlling a Mobile Industrial Robot Using a Probabilistic Occupancy Grid | |
US20220101196A1 (en) | Device for and computer implemented method of machine learning | |
US20230358877A1 (en) | Method, Computer Program, Storage Medium, Device for Tracking an Object | |
CN117310773B (zh) | 基于双目立体视觉的水下机器人自主定位方法及系统 | |
CN112731321B (zh) | 基于mimo认知雷达的移动机器人避障及地图绘制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |