CN114253273A - 一种基于多线激光雷达的避障方法 - Google Patents

一种基于多线激光雷达的避障方法 Download PDF

Info

Publication number
CN114253273A
CN114253273A CN202111591139.4A CN202111591139A CN114253273A CN 114253273 A CN114253273 A CN 114253273A CN 202111591139 A CN202111591139 A CN 202111591139A CN 114253273 A CN114253273 A CN 114253273A
Authority
CN
China
Prior art keywords
grid
probability
laser radar
time
obstacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111591139.4A
Other languages
English (en)
Other versions
CN114253273B (zh
Inventor
王树磊
王修颖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Shize Technology Co ltd
Original Assignee
Nanjing Shize Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Shize Technology Co ltd filed Critical Nanjing Shize Technology Co ltd
Priority to CN202111591139.4A priority Critical patent/CN114253273B/zh
Publication of CN114253273A publication Critical patent/CN114253273A/zh
Application granted granted Critical
Publication of CN114253273B publication Critical patent/CN114253273B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本发明涉及激光雷达的应用方法,具体为一种基于多线激光雷达的避障方法,可适用于无人驾驶汽车、服务机器人等机器人的避障算法;包括如下方法:步骤一、通过多线激光雷达的进行一次雷测量;步骤二、多线激光雷达的数据进行处理:根据需要避障的主体不同,设定一个观测距离,记为z,对于(i,j)网格,假设在t时观测到的深度为zt,引入中间变量mt,若zt>z表示传感器测量到没有障碍物,令mt=1;若zt≤z,表示传感器测量到(i,j)网格有障碍物,令mt=0;步骤三、将网格(i,j)在t时刻未被占用的概率记作:p(si,j=1|m1:t),其值在0~1之间,并且根据mt的值进行更新,m1:t代表截至t时刻与测量值相关的变量;可使激光雷达或其他TOF传感器测到的深度数据转换为图像数据,便于后续使用深度学习或其他经典图像处理算法的处理。

Description

一种基于多线激光雷达的避障方法
技术领域
本发明涉及激光雷达的应用方法,具体为一种基于多线激光雷达的避障方 法。
背景技术
无论是无人驾驶汽车还是服务机器人,都需要考虑运动工程中的障碍规避问 题。目前基于激光雷达的避障算法大多仅支持单线激光雷达,随着多线激光雷达 技术的成熟,特别是基于940nm vcsel激光的TOF多线激光雷达,其价格在几百 元到千元左右,其分辨率和成本达到了较好的平衡。但目前仍缺少针对多线激光 雷达的避障方案的设计。
发明内容
为了解决这一问题,针对多线激光雷达或其它的TOF传感器,本发明提出 了一种基于多线激光雷达的避障方法,可适用于无人驾驶汽车、服务机器人等机 器人的避障算法。
为解决上述技术问题,本发明所采用的技术方案为:一种基于多线激光雷达 的避障方法,包括如下方法:
步骤一、通过多线激光雷达的进行一次雷测量;
步骤二、多线激光雷达的数据进行处理:根据需要避障的主体不同,设定一 个观测距离,记为z,对于(i,j)网格,假设在t时观测到的深度为zt,引入中间 变量mt,若zt>z表示传感器测量到没有障碍物,令mt=1;若zt≤z,表示传 感器测量到(i,j)网格有障碍物,令mt=0;
步骤三、将网格(i,j)在t时刻未被占用的概率记作:p(si,j=1|m1:t),其值 在0~1之间,并且根据mt的值进行更新,m1:t代表截至t时刻与测量值相关的 变量;在任意时刻,网格只有未被占用或被占用两种状态,因此有:
p(si,j=1|m1:t)+p(si,j=0|m1:t)=1;
步骤四、假设初始时刻被未被占用的概率为p(si,j=1)=0.5,被占用的概 率记作p(si,j=0)=0.5,此时未被占用的概率与被占用的概率相同,表明该单 元格的状态是未知的;为便于计算,引入网格(i,j)在t时刻赔率的概念,即:
Figure BDA0003429139760000021
ot(i,j)的含义是使用t时刻网格未被占用的概率 除以网格被占用的概率,然后再取一个自然对数;
步骤五、在初始时刻t=0时,有:
Figure BDA0003429139760000022
应该为
Figure BDA0003429139760000023
下标从t=O开始;
在任意时刻,得到了ot(i,j)之后,可以使用如下公式得到在t时刻网格没有 被占用的概率:
Figure BDA0003429139760000024
步骤六:其中ot(i,j)的更新方法如下:
遍历N*M条激光的数据,假设编号为(i,j)的激光在t+1时刻检测到的数据, 记为z(t+1)
If z(t+1)>z
o(t+1)(i,j)=ot(i,j)+of
Else
o(t+1)(i,j)=ot(i,j)+oo
limit(o(t+1)(i,j),omax,omin)
oo、of皆为常数,根据传感器的不同该值有所不同,其计算方法详见算法的 具体推导过程;
limit(o(t+1)(i,j),omax,omin)的作用是将o(t+1)(i,j)的值限定在 [omin,omax]的范围内;
最后,可以得到在t+1时刻网格(i,j)未被占用的概率如下:
Figure BDA0003429139760000031
将o(t+1)(i,j)与p(si,j=1|m1:(t+1))的关系画出,可见,公式1能够将o(t+1)(i,j) 的值映射到(0,1)区间。
p(si,j=1|m1:(t+1))越趋向于1,代表网格(i,j)内有没有障碍物的可能性越 大,p(si,j=1|m1:(t+1))越趋向于0,代表网格(i,j)内有障碍物的可能性越大。
作为优选,还包括步骤七:将概率p(si,j=1|m1:(t+1))乘以255并且取整,便 可以得到一副分辨率为N*M的灰度图片。
作为优选,可通过图片灰度使用人工智能或图像处理方式,判断机器人是否 可通过。
作为优选,若选取3个不同的观测距离,记为z,则可以得到具有三个通道 的图片,类似于彩色的图片。
本发明的基于多线激光雷达的避障方法可达到如下有益效果:
1.本发明可使激光雷达或其他TOF传感器测到的深度数据转换为图像数据, 便于后续使用深度学习或其他经典图像处理算法的处理;
2.本发明使用概率论中相关知识处理传感器中的噪声,可有效地抑制噪声 干扰;
3.在获得测量数据之后,更新赔率时仅需要做简单的加减法,运算简单, 便于处理。
附图说明
图1是本发明的基于多线激光雷达的避障方法的检测原理示意图一;
图2是本发明的基于多线激光雷达的避障方法的检测原理示意图二;
图3是本发明的基于多线激光雷达的避障方法的障碍物的可能性分布示意 图。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本 发明的技术方案,而不能以此来限制本发明的保护范围。
本发明借鉴单线激光雷达SLAM时的一些做法,提出一种使用多线激光雷达 或其它的TOF传感器的数据制作垂直方向地图的算法,以解决机器人的避障问 题,可有效实现多线激光雷达输出的距离信息,转换为图像,以便使用深度学习 或其他的经典图像处理方式生成小车的控制信号。
一种基于多线激光雷达的避障方法,包括如下方法:
步骤一、通过多线激光雷达的进行一次雷测量;
步骤二、多线激光雷达的数据进行处理:根据需要避障的主体不同,设定一 个观测距离记为z,对于(i,j)网格,假设在t时观测到的深度为zt,引入中间变 量mt,若zt>z表示传感器测量到没有障碍物,令mt=1;若zt≤z,表示传感 器测量到(i,j)网格有障碍物,令mt=0;
步骤三、将网格(i,j)在t时刻未被占用的概率记作:p(si,j=1|m1:t),未被 占用的概率记作:p(si,j=0|m1:t),m1:t代表截至t时刻与测量值相关的变量; 在任意时刻,网格只有未被占用或被占用两种状态,因此有:
p(si,j=1|m1:t)+p(si,j=0|m1:t)=1;
步骤四、假设初始时刻被未被占用的概率为p(si,j=1)=0.5,被占用的概 率记作p(si,j=0)=0.5,此时未被占用的概率与被占用的概率相同,表明该单 元格的状态是未知的;为便于计算,引入网格(i,j)在t时刻赔率的概念,即:
Figure BDA0003429139760000051
ot(i,j)的含义是使用t时刻网格未被占用的概率 除以网格被占用的概率,然后再取一个自然对数;
步骤五、在初始时刻t=0时,有:
Figure BDA0003429139760000052
在得到了ot(i,j)之后,可以使用如下公式得到在t时刻网格没有被占用的概 率:
Figure BDA0003429139760000053
步骤六:遍历N*M条激光的数据,假设编号为(i,j)的激光在t+1时刻检测 到的数据,记为z(t+1):
If z(t+1)>z
o(t+1)(i,j)=ot(i,j)+of
Else
o(t+1)(i,j)=ot(i,j)+oo
limit(o(t+1)(i,j),omax,omin)
limit(o(t+1)(i,j),omax,omin)的作用是将o(t+1)(i,j)的值限定在 [omin,omax]的范围内;
最后,可以得到在t+1时刻网格(i,j)未被占用的概率如下:
Figure BDA0003429139760000061
将o(t+1)(i,j)与p(si,j=1|m1:(t+1))的关系画出来,得到如图3所示:
可见,公式1能够将o(t+1)(i,j)的值映射到(0,1)区间。
p(si,j=1|m1:(t+1))越趋向于1,代表网格(i,j)内有没有障碍物的可能性越 大,p(si,j=1|m1:(t+1))越趋向于0,代表网格(i,j)内有障碍物的可能性越大。
还包括步骤七:将概率p(si,j=1|m1:(t+1))乘以255并且取整,便可以得到一 副分辨率为N*M的灰度图片。可通过图片灰度使用人工智能或图像处理方式, 判断机器人是否可通过。若选取3个不同的观测距离,记为z,则可以得到具有 三个通道的图片,类似于彩色的图片。
上述算法的具体推导过程如下:
对于垂直地图中的任意一个网格(i,j),使用p(si,j=1|m1:t)来表示该网格在 t时刻是未被占用的状态;使用p(si,j=0|m1:t)表示该网格在t时刻是被占据的状 态,两者的和为1。
引入两者的比值为:
Figure BDA0003429139760000062
ot(i,j)的取值范围为 [0,+∞)。在初始时刻,t=0时,可以认为是否存在障碍物是未知的,即 p(si,j=1)=p(si,j=0)=0.5时,o0(i,j)=0。
对于(i,j)网格,根据本专利中的算法,z(t+1)>z0表示传感器测量到没有障 碍物,记作m(t+1)=1;一种为:z(t+1)≤z0,表示传感器测量到(i,j)网格有障碍 物,记作m(t+1)=0代替,对于网格(i,j),在t+1时刻来获取了一个测量值m(t+1)之后,需要更新ot(i,j)的状态,即有:
Figure BDA0003429139760000071
根据贝叶斯公式,有:
Figure BDA0003429139760000072
Figure BDA0003429139760000073
根据马尔科夫假设,t+1时刻的观测结果与1:t时刻的观测结果无关,则有:
Figure BDA0003429139760000074
Figure BDA0003429139760000075
则有:
Figure BDA0003429139760000076
再次利用贝叶斯:
Figure BDA0003429139760000077
将式(4)代入式(3)之后,可以得:
Figure BDA0003429139760000081
假设在进行第一次激光测量之前,网格(i,j)均处在一种未知的状态,即 p(si,j=1)=p(si,j=0)=0.5,则:
Figure BDA0003429139760000082
那么式(5)将变成:
Figure BDA0003429139760000083
Figure BDA0003429139760000084
的值只有两种可能:
第一种:
Figure BDA0003429139760000085
此时,测量的结果表明(i,j)栅格是没有 被占用。p(si,j=1|m(t+1)=1)表示探测结果未被占用,实际也未被占用的概率; p(si,j=0|m(t+1)=1)表示探测结果未被占用,实际是占用的概率,两者之和必 为1;例如:对于激光雷达传感器,考虑激光探测的角度问题,可能在某一个时 刻并没有扫到障碍物,可以令p(si,j=1|m(t+1)=1)=0.8, p(si,j=0|m(t+1)=1)=0.2,则式(7)将变为:
Figure BDA0003429139760000086
第二种:
Figure BDA0003429139760000087
此时,测量的结果表明(i,j)栅格是被占 用的。p(si,j=1|m(t+1)=0)表示探测结果被占用,实际未被占用的概率; p(si,j=0|m(t+1)=1)表示探测结果被占用,实际是占用的概率,两者之和必为1; 例如:对于激光雷达传感器,一旦探测到网格被占用,那么很大可能该网格中存 在障碍物,可以令p(si,j=1|m(t+1)=0)=0.1,p(si,j=0|m(t+1)=0)=0.9,则 式(7)将变为:
Figure BDA0003429139760000091
上述例子中,of和oo的值仅作为计算示例使用,实际的取值应以具体传感器 的情况为准。
以上仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人 员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些 改进和变形也应视为本发明的保护范围。

Claims (4)

1.一种基于多线激光雷达的避障方法,其特征在于:包括如下方法:
步骤一、通过多线激光雷达的进行一次雷测量;
步骤二、多线激光雷达的数据进行处理:根据需要避障的主体不同,设定一个观测距离,记为z,对于(i,j)网格,假设在t时观测到的深度为zt,引入中间变量mt,若zt>z表示传感器测量到没有障碍物,令mt=1;若zt≤z,表示传感器测量到(i,j)网格有障碍物,令mt=0;
步骤三、将网格(i,j)在t时刻未被占用的概率记作:p(si,j=1|m1:t),其值在0~1之间,并且根据mt的值进行更新,m1:t代表截至t时刻与测量值相关的变量;在任意时刻,网格只有未被占用或被占用两种状态,因此有:
p(si,j=1|m1:t)+p(si,j=0|m1:t)=1;
步骤四、假设初始时刻被未被占用的概率为p(si,j=1)=0.5,被占用的概率记作p(si,j=0)=0.5,此时未被占用的概率与被占用的概率相同,表明该单元格的状态是未知的;为便于计算,引入网格(i,j)在t时刻赔率的概念,即:
Figure FDA0003429139750000011
ot(i,j)的含义是使用t时刻网格未被占用的概率除以网格被占用的概率,然后再取一个自然对数;
步骤五、在初始时刻t=0时,有:
Figure FDA0003429139750000012
应该为
Figure FDA0003429139750000013
下标从t=0开始;
在任意时刻,得到了ot(i,j)之后,可以使用如下公式得到在t时刻网格没有被占用的概率:
Figure FDA0003429139750000021
步骤六:其中ot(i,j)的更新方法如下:
遍历N*M条激光的数据,假设编号为(i,j)的激光在t+1时刻检测到的数据,记为z(t+1)
If z(t+1)>z
o(t+1)(i,j)=ot(i,j)+of
Else
o(t+1)(i,j)=ot(i,j)+oo
limit(o(t+1)(i,j),omax,omin)
oo、of皆为常数,根据传感器的不同该值有所不同,其计算方法详见算法的具体推导过程;
limit(o(t+1)(i,j),omax,omin)的作用是将o(t+1)(i,j)的值限定在[omin,omax]的范围内;
最后,可以得到在t+1时刻网格(i,j)未被占用的概率如下:
Figure FDA0003429139750000022
将o(t+1)(i,j)与p(si,j=1|m1:(t+1))的关系画出,可见,公式1能够将o(t+1)(i,j)的值映射到(0,1)区间。
p(si,j=1|mi:(t+1))越趋向于1,代表网格(i,j)内有没有障碍物的可能性越大,p(si,j=1|mi:(t+1))越趋向于0,代表网格(i,j)内有障碍物的可能性越大。
2.根据权利要求1所述的基于多线激光雷达的避障方法,其特征在于:还包括步骤七:将概率p(si,j=1|m1:(t+1))乘以255并且取整,便可以得到一副分辨率为N*M的灰度图片。
3.根据权利要求2所述的基于多线激光雷达的避障方法,其特征在于:可通过图片灰度使用人工智能或图像处理方式,判断机器人是否可通过。
4.根据权利要求1所述的基于多线激光雷达的避障方法,其特征在于:若选取3个不同的观测距离,记为z,则可以得到具有三个通道的图片,类似于彩色的图片。
CN202111591139.4A 2021-12-23 2021-12-23 一种基于多线激光雷达的避障方法 Active CN114253273B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111591139.4A CN114253273B (zh) 2021-12-23 2021-12-23 一种基于多线激光雷达的避障方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111591139.4A CN114253273B (zh) 2021-12-23 2021-12-23 一种基于多线激光雷达的避障方法

Publications (2)

Publication Number Publication Date
CN114253273A true CN114253273A (zh) 2022-03-29
CN114253273B CN114253273B (zh) 2024-04-12

Family

ID=80797217

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111591139.4A Active CN114253273B (zh) 2021-12-23 2021-12-23 一种基于多线激光雷达的避障方法

Country Status (1)

Country Link
CN (1) CN114253273B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3204792A1 (de) * 2015-03-24 2017-08-16 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum bereitstellen von hinderniskarten für fahrzeuge
CN107193012A (zh) * 2017-05-05 2017-09-22 江苏大学 基于imm‑mht算法的智能车激光雷达机动多目标跟踪方法
US20200249356A1 (en) * 2019-02-05 2020-08-06 Honda Motor Co., Ltd. SYSTEM AND METHOD FOR PROVIDING ONLINE MULTI-LiDAR DYNAMIC OCCUPANCY MAPPING
CN112033410A (zh) * 2020-09-03 2020-12-04 中南大学 移动机器人环境地图构建方法、系统及存储介质
CN112525202A (zh) * 2020-12-21 2021-03-19 北京工商大学 一种基于多传感器融合的slam定位导航方法及系统
CN112629548A (zh) * 2020-12-28 2021-04-09 北京航空航天大学 一种基于路侧激光雷达的三维栅格地图的创建与更新方法
CN113804182A (zh) * 2021-09-16 2021-12-17 重庆邮电大学 一种基于信息融合的栅格地图创建方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3204792A1 (de) * 2015-03-24 2017-08-16 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum bereitstellen von hinderniskarten für fahrzeuge
CN107193012A (zh) * 2017-05-05 2017-09-22 江苏大学 基于imm‑mht算法的智能车激光雷达机动多目标跟踪方法
US20200249356A1 (en) * 2019-02-05 2020-08-06 Honda Motor Co., Ltd. SYSTEM AND METHOD FOR PROVIDING ONLINE MULTI-LiDAR DYNAMIC OCCUPANCY MAPPING
CN112033410A (zh) * 2020-09-03 2020-12-04 中南大学 移动机器人环境地图构建方法、系统及存储介质
CN112525202A (zh) * 2020-12-21 2021-03-19 北京工商大学 一种基于多传感器融合的slam定位导航方法及系统
CN112629548A (zh) * 2020-12-28 2021-04-09 北京航空航天大学 一种基于路侧激光雷达的三维栅格地图的创建与更新方法
CN113804182A (zh) * 2021-09-16 2021-12-17 重庆邮电大学 一种基于信息融合的栅格地图创建方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张国强 等: "《一种在激光雷达无回波区域的地图构建算法》", 《计算机应用研究》, vol. 36, no. 12, pages 3874 - 3877 *

Also Published As

Publication number Publication date
CN114253273B (zh) 2024-04-12

Similar Documents

Publication Publication Date Title
KR20180051335A (ko) 신경망 학습에 기반한 입력 처리 방법 및 이를 위한 장치
Botteghi et al. On reward shaping for mobile robot navigation: A reinforcement learning and SLAM based approach
CN111427047A (zh) 一种大场景下自主移动机器人slam方法
CN112762957B (zh) 一种基于多传感器融合的环境建模及路径规划方法
Doherty et al. Bayesian generalized kernel inference for occupancy map prediction
JP2014523572A (ja) 地図データの生成
CN114817426A (zh) 地图建构装置及方法
CN113593035A (zh) 一种运动控制决策生成方法、装置、电子设备及存储介质
Heilig et al. Adaptive particle filter for localization problem in service robotics
Verdoja et al. Deep network uncertainty maps for indoor navigation
CN113191427B (zh) 一种多目标车辆跟踪方法及相关装置
CN113064422B (zh) 基于双神经网络强化学习的自主水下航行器路径规划方法
CN114217303A (zh) 目标定位跟踪方法及装置、水下机器人和存储介质
CN112802195B (zh) 一种基于声呐的水下机器人连续占据建图方法
CN114253273A (zh) 一种基于多线激光雷达的避障方法
CN110531340B (zh) 一种激光雷达点云数据的基于深度学习的识别处理方法
CN115585813A (zh) 一种基于注意力机制的深度强化学习机器人导航方法
CN112612788B (zh) 一种无导航卫星信号下的自主定位方法
CN113031620A (zh) 一种机器人复杂环境定位方法
Martens et al. Mobile robot sensor integration with fuzzy ARTMAP
US20230367321A1 (en) System And Method for Controlling a Mobile Industrial Robot Using a Probabilistic Occupancy Grid
US20220101196A1 (en) Device for and computer implemented method of machine learning
US20230358877A1 (en) Method, Computer Program, Storage Medium, Device for Tracking an Object
CN117310773B (zh) 基于双目立体视觉的水下机器人自主定位方法及系统
CN112731321B (zh) 基于mimo认知雷达的移动机器人避障及地图绘制方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant