CN113640802A - 一种基于多融合传感器的机器人空间定位方法和系统 - Google Patents

一种基于多融合传感器的机器人空间定位方法和系统 Download PDF

Info

Publication number
CN113640802A
CN113640802A CN202110869625.1A CN202110869625A CN113640802A CN 113640802 A CN113640802 A CN 113640802A CN 202110869625 A CN202110869625 A CN 202110869625A CN 113640802 A CN113640802 A CN 113640802A
Authority
CN
China
Prior art keywords
robot
dimensional
surrounding environment
distance
dimensional environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110869625.1A
Other languages
English (en)
Other versions
CN113640802B (zh
Inventor
吴辰斌
王承
蒋晓娟
周韫捷
袁奇
原佳亮
王骁迪
陈艳玲
张永康
袁小慧
沈斌
王东源
张伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suong Shanghai Automation Technology Co ltd
State Grid Shanghai Electric Power Co Ltd
Original Assignee
Suong Shanghai Automation Technology Co ltd
State Grid Shanghai Electric Power Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suong Shanghai Automation Technology Co ltd, State Grid Shanghai Electric Power Co Ltd filed Critical Suong Shanghai Automation Technology Co ltd
Priority to CN202110869625.1A priority Critical patent/CN113640802B/zh
Publication of CN113640802A publication Critical patent/CN113640802A/zh
Application granted granted Critical
Publication of CN113640802B publication Critical patent/CN113640802B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/933Radar or analogous systems specially adapted for specific applications for anti-collision purposes of aircraft or spacecraft
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/933Lidar systems specially adapted for specific applications for anti-collision purposes of aircraft or spacecraft
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

本发明涉及一种基于多融合传感器的机器人空间定位方法和系统,机器人搭载有毫米波雷达、激光雷达和双目视觉传感器,方法包括:由毫米波雷达对机器人四周环境发射连续的调频波,得到周围环境对象的第一距离信息和速度信息;采用双目视觉传感器采集机器人四周环境图片,进行物体分割识别,计算与分割出的物体的第二距离,并与第一距离信息进行联合校准,获得第三距离信息,进而建立三维环境模型;通过激光雷达向四周环境发射脉冲激光,计算与四周物体的第四距离,并与第三距离信息进行联合校准,根据机器人的实时位置移动量和三维环境模型,建立随机器人移动的三维环境地图。与现有技术相比,本发明具有空间定位精度高、定位范围广泛等优点。

Description

一种基于多融合传感器的机器人空间定位方法和系统
技术领域
本发明涉及机器人定位技术领域,尤其是涉及一种基于多融合传感器的机器人空间定位方法和系统。
背景技术
目前机器人的空间定位技术中,主要采用的传感器类型有视觉传感器(单目视觉和双目视觉)、红外传感器、超声波传感器、激光传感器、毫米波雷达等;
各类型传感器进行空间定位时分别存在以下缺陷:
单目视觉:只能获取环境的二维图像信息,无法获取环境障碍物的深度信息;
双目视觉:计算复杂、实时性差;
红外传感器、超声波:探测范围有限、容易受到环境影响如温度、风速等,刷新率低,多组同时使用容易产生串扰,探测数据较少,影响避障控制的精确度等缺陷;
激光:具有较高的精度和速度,但对于黑体或透明材料效果不太行;
毫米波:毫米波的大气衰减较大,传播损耗比低频段严重(探测距离近)。
发明内容
本发明的目的就是为了克服上述现有技术采用单一传感器进行空间定位存在的缺陷而提供一种基于多融合传感器的机器人空间定位方法和系统。
本发明的目的可以通过以下技术方案来实现:
一种基于多融合传感器的机器人空间定位方法,所述机器人搭载有毫米波雷达、激光雷达和双目视觉传感器,所述方法包括以下步骤:
初步定位步骤:由毫米波雷达对机器人四周环境发射连续的调频波,并接收回波信号,通过混频器将发射的调频波与接收的回波信号混合,生成混频信号;对毫米波雷达接收的混频信号进行采样和一维FFT处理,得到周围环境对象的第一距离信息,再对所述第一距离信息进行二维FFT处理,得到速度信息;
三维环境模型建立步骤:采用双目视觉传感器采集机器人四周环境图片,根据所述环境图片进行物体分割识别,计算与分割出的物体的第二距离,并根据所述第一距离信息进行联合校准,获取对物体的第三距离信息,进而建立周围环境的三维环境模型;
最终定位步骤:通过激光雷达向四周环境发射脉冲激光,根据激光信号返回时间,计算与四周物体的第四距离,以及机器人的实时位置移动量,根据所述第四距离,对所述三维环境模型中的第三距离信息进行联合校准,并根据机器人的实时位置移动量和三维环境模型,建立随机器人移动的三维环境地图。
进一步地,所述初步定位步骤还包括:在对混频信号进行采样和一维FFT处理后,还获取机器人相对于周围环境对象的角度信息,所述三维环境模型建立步骤还包括:根据所述角度信息,对所述三维环境模型的机器人角度进行调整。
进一步地,通过不同的设备进行所述联合校准前还包括对不同设备的坐标系进行转换。
进一步地,基于SLAM技术,建立所述三维环境模型。
进一步地,三维环境模型建立步骤中,所述进行物体分割识别具体为:根据HSV颜色空间对所述双目视觉传感器采集到的四周环境图片的颜色进行预处理,基于物体的颜色特征,判断不同物体的饱和度区间和色调区间的阈值,从而划分不同的物体。
本发明还提供一种基于多融合传感器的机器人空间定位系统,安装在机器人上,所述机器人还搭载有毫米波雷达、激光雷达、双目视觉传感器和处理器,所述处理器分别连接所述毫米波雷达、激光雷达和双目视觉传感器,所述处理的空间定位处理过程包括以下步骤:
初步定位步骤:由毫米波雷达对机器人四周环境发射连续的调频波,并接收回波信号,通过混频器将发射的调频波与接收的回波信号混合,生成混频信号;对毫米波雷达接收的混频信号进行采样和一维FFT处理,得到周围环境对象的第一距离信息,再对所述第一距离信息进行二维FFT处理,得到速度信息;
三维环境模型建立步骤:采用双目视觉传感器采集机器人四周环境图片,根据所述环境图片进行物体分割识别,计算与分割出的物体的第二距离,并根据所述第一距离信息进行联合校准,获取对物体的第三距离信息,进而建立周围环境的三维环境模型;
最终定位步骤:通过激光雷达向四周环境发射脉冲激光,根据激光信号返回时间,计算与四周物体的第四距离,以及机器人的实时位置移动量,根据所述第四距离,对所述三维环境模型中的第三距离信息进行联合校准,并根据机器人的实时位置移动量和三维环境模型,建立随机器人移动的三维环境地图。
进一步地,所述初步定位步骤还包括:在对混频信号进行采样和一维FFT处理后,还获取机器人相对于周围环境对象的角度信息,所述三维环境模型建立步骤还包括:根据所述角度信息,对所述三维环境模型的机器人角度进行调整。
进一步地,通过不同的设备进行所述联合校准前还包括对不同设备的坐标系进行转换。
进一步地,基于SLAM技术,建立所述三维环境模型。
进一步地,三维环境模型建立步骤中,所述进行物体分割识别具体为:根据HSV颜色空间对所述双目视觉传感器采集到的四周环境图片的颜色进行预处理,基于物体的颜色特征,判断不同物体的饱和度区间和色调区间的阈值,从而划分不同的物体。
与现有技术相比,本发明具有以下优点:
(1)本发明在毫米波雷达进行机器人定位的基础上,增加采用双目视觉传感器探测环境信息,双目视觉对物体的轮廓分辨率较激光雷达和毫米波更高,可以精准的得到周边物体的轮廓,弥补了毫米波雷达无法得到精准轮廓的缺点,近距离使用毫米波雷达加双目视觉,实现近距离物体轮廓的精准判定及距离识别,借助激光雷达与毫米波雷达得到四足机器人与周围环境的精准位置距离关系,基于SLAM完成建立三维环境模型;
进一步地,本发明提出增加激光雷达进行环境定位探测,与毫米波雷达及双目视觉所得的三维环境模型相结合,得到更精准的位置估计的同时,实现对远距离、大范围的环境进行建模,达到更广泛空间的定位。
(2)本发明四足机器人搭载双目视觉、激光雷达、毫米波雷达多种传感设备,由于安装位置不同,所得数据建立的坐标系也不同,本发明通过调整各个传感器坐标系之间的转换关系,进行联合校准,搭建出一个更加完善、精准的三维环境模型。
附图说明
图1为本发明实施例中提供的一种基于多融合传感器的机器人空间定位方法的流程示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
实施例1
如图1所示,本实施例提供一种基于多融合传感器的机器人空间定位方法,应用在四足机器人上,该四足机器人搭载有毫米波雷达、激光雷达和双目视觉传感器,方法包括以下步骤:
启动步骤S1:四足机器人开始运动;
初步定位步骤S2:由毫米波雷达对四足机器人四周环境发射连续的调频波,并接收回波信号,通过混频器将发射的调频波与接收的回波信号混合,生成混频信号;对毫米波雷达接收的混频信号进行采样和一维FFT处理,得到周围环境对象的第一距离信息,再对第一距离信息进行二维FFT处理,得到速度信息,最终得到对象的二维平面坐标,速度,角度等信息;
三维环境模型建立步骤S3:采用双目视觉传感器采集四足机器人四周环境图片,根据环境图片进行物体分割识别,计算与分割出的物体的第二距离,并根据第一距离信息进行联合校准,获取对物体的第三距离信息,进而建立周围环境的三维环境模型;
具体实施时,该步骤包括借助HSV颜色空间对双目视觉传感器采集得到图像的颜色进行预处理,通过对图像中不同物体的颜色特征根据其在饱和度区间和色调区间的阈值来进行划分;建立平面坐标系以及双目视觉相机坐标系,获取目标物体在双目视觉相机坐标系中的深度信息及三维空间坐标,基于SLAM得到三维环境模型,使四足机器人能够对周围障碍物进行感知识别。
最终定位步骤S4:通过激光雷达向四周环境发射脉冲激光,根据激光信号返回时间,计算与四周物体的第四距离,以及四足机器人的实时位置移动量,根据第四距离,对三维环境模型中的第三距离信息进行联合校准,并根据四足机器人的实时位置移动量和三维环境模型,建立随四足机器人移动的三维环境地图。
上述实时位置移动量的获取即为判断四足机器人当前测量位置相对于前一侧测量位置的相对位置。通过激光雷达探测与毫米波雷达及双目视觉所得的三维环境模型相结合,得到更精准的结论的同时,对远距离、大范围的环境进行建模。
本方法四足机器人的通过将双目视觉传感器、激光雷达和毫米波雷达多种传感器的数据进行融合,精准感知周围环境,由于四足机器人多种传感器搭载位置的不同,所得数据建立的得到的坐标系存在差异,使各个传感器对于同一物体测得的位置也不同。将各个传感器得到的数据进行综合分析,调整各传感器坐标系之间的转换关系,对于同一目标得到统一、精准的结论。
本实施例还提供一种基于多融合传感器的机器人空间定位系统,安装在机器人上,机器人还搭载有毫米波雷达、激光雷达、双目视觉传感器和处理器,处理器分别连接毫米波雷达、激光雷达和双目视觉传感器,处理的空间定位处理过程执行上述基于多融合传感器的机器人空间定位方法的步骤。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思做出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。

Claims (10)

1.一种基于多融合传感器的机器人空间定位方法,其特征在于,所述机器人搭载有毫米波雷达、激光雷达和双目视觉传感器,所述方法包括以下步骤:
初步定位步骤:由毫米波雷达对机器人四周环境发射连续的调频波,并接收回波信号,通过混频器将发射的调频波与接收的回波信号混合,生成混频信号;对毫米波雷达接收的混频信号进行采样和一维FFT处理,得到周围环境对象的第一距离信息,再对所述第一距离信息进行二维FFT处理,得到速度信息;
三维环境模型建立步骤:采用双目视觉传感器采集机器人四周环境图片,根据所述环境图片进行物体分割识别,计算与分割出的物体的第二距离,并根据所述第一距离信息进行联合校准,获取对物体的第三距离信息,进而建立周围环境的三维环境模型;
最终定位步骤:通过激光雷达向四周环境发射脉冲激光,根据激光信号返回时间,计算与四周物体的第四距离,以及机器人的实时位置移动量,根据所述第四距离,对所述三维环境模型中的第三距离信息进行联合校准,并根据机器人的实时位置移动量和三维环境模型,建立随机器人移动的三维环境地图。
2.根据权利要求1所述的一种基于多融合传感器的机器人空间定位方法,其特征在于,所述初步定位步骤还包括:在对混频信号进行采样和一维FFT处理后,还获取机器人相对于周围环境对象的角度信息,所述三维环境模型建立步骤还包括:根据所述角度信息,对所述三维环境模型的机器人角度进行调整。
3.根据权利要求1所述的一种基于多融合传感器的机器人空间定位方法,其特征在于,通过不同的设备进行所述联合校准前还包括对不同设备的坐标系进行转换。
4.根据权利要求1所述的一种基于多融合传感器的机器人空间定位方法,其特征在于,基于SLAM技术,建立所述三维环境模型。
5.根据权利要求1所述的一种基于多融合传感器的机器人空间定位方法,其特征在于,三维环境模型建立步骤中,所述进行物体分割识别具体为:根据HSV颜色空间对所述双目视觉传感器采集到的四周环境图片的颜色进行预处理,基于物体的颜色特征,判断不同物体的饱和度区间和色调区间的阈值,从而划分不同的物体。
6.一种基于多融合传感器的机器人空间定位系统,安装在机器人上,其特征在于,所述机器人还搭载有毫米波雷达、激光雷达、双目视觉传感器和处理器,所述处理器分别连接所述毫米波雷达、激光雷达和双目视觉传感器,所述处理的空间定位处理过程包括以下步骤:
初步定位步骤:由毫米波雷达对机器人四周环境发射连续的调频波,并接收回波信号,通过混频器将发射的调频波与接收的回波信号混合,生成混频信号;对毫米波雷达接收的混频信号进行采样和一维FFT处理,得到周围环境对象的第一距离信息,再对所述第一距离信息进行二维FFT处理,得到速度信息;
三维环境模型建立步骤:采用双目视觉传感器采集机器人四周环境图片,根据所述环境图片进行物体分割识别,计算与分割出的物体的第二距离,并根据所述第一距离信息进行联合校准,获取对物体的第三距离信息,进而建立周围环境的三维环境模型;
最终定位步骤:通过激光雷达向四周环境发射脉冲激光,根据激光信号返回时间,计算与四周物体的第四距离,以及机器人的实时位置移动量,根据所述第四距离,对所述三维环境模型中的第三距离信息进行联合校准,并根据机器人的实时位置移动量和三维环境模型,建立随机器人移动的三维环境地图。
7.根据权利要求6所述的一种基于多融合传感器的机器人空间定位系统,其特征在于,所述初步定位步骤还包括:在对混频信号进行采样和一维FFT处理后,还获取机器人相对于周围环境对象的角度信息,所述三维环境模型建立步骤还包括:根据所述角度信息,对所述三维环境模型的机器人角度进行调整。
8.根据权利要求6所述的一种基于多融合传感器的机器人空间定位系统,其特征在于,通过不同的设备进行所述联合校准前还包括对不同设备的坐标系进行转换。
9.根据权利要求6所述的一种基于多融合传感器的机器人空间定位系统,其特征在于,基于SLAM技术,建立所述三维环境模型。
10.根据权利要求6所述的一种基于多融合传感器的机器人空间定位系统,其特征在于,三维环境模型建立步骤中,所述进行物体分割识别具体为:根据HSV颜色空间对所述双目视觉传感器采集到的四周环境图片的颜色进行预处理,基于物体的颜色特征,判断不同物体的饱和度区间和色调区间的阈值,从而划分不同的物体。
CN202110869625.1A 2021-07-30 2021-07-30 一种基于多融合传感器的机器人空间定位方法和系统 Active CN113640802B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110869625.1A CN113640802B (zh) 2021-07-30 2021-07-30 一种基于多融合传感器的机器人空间定位方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110869625.1A CN113640802B (zh) 2021-07-30 2021-07-30 一种基于多融合传感器的机器人空间定位方法和系统

Publications (2)

Publication Number Publication Date
CN113640802A true CN113640802A (zh) 2021-11-12
CN113640802B CN113640802B (zh) 2024-05-17

Family

ID=78419026

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110869625.1A Active CN113640802B (zh) 2021-07-30 2021-07-30 一种基于多融合传感器的机器人空间定位方法和系统

Country Status (1)

Country Link
CN (1) CN113640802B (zh)

Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006252348A (ja) * 2005-03-11 2006-09-21 Secom Co Ltd 移動ロボット
CN107478214A (zh) * 2017-07-24 2017-12-15 杨华军 一种基于多传感器融合的室内定位方法及系统
US20180106896A1 (en) * 2016-04-15 2018-04-19 Mohsen Rohani Systems and methods for environment sensing using radar
US20180120116A1 (en) * 2016-11-01 2018-05-03 Brain Corporation Systems and methods for robotic mapping
US20180232947A1 (en) * 2017-02-11 2018-08-16 Vayavision, Ltd. Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types
CN108663681A (zh) * 2018-05-16 2018-10-16 华南理工大学 基于双目摄像头与二维激光雷达的移动机器人导航方法
CN108694731A (zh) * 2018-05-11 2018-10-23 武汉环宇智行科技有限公司 基于低线束激光雷达和双目相机的融合定位方法及设备
CN109633652A (zh) * 2019-01-14 2019-04-16 长沙莫之比智能科技有限公司 基于毫米波雷达的机器人避障系统及其应用方法
CN110026978A (zh) * 2019-02-28 2019-07-19 上海宇航系统工程研究所 一种电力巡检机器人的控制系统及工作方法
CN110275179A (zh) * 2019-04-09 2019-09-24 安徽理工大学 一种基于激光雷达以及视觉融合的构建地图方法
CN110329316A (zh) * 2019-07-29 2019-10-15 江苏必得科技股份有限公司 一种城市轨道障碍物检测装置及检测方法
CN110517303A (zh) * 2019-08-30 2019-11-29 的卢技术有限公司 一种基于双目相机和毫米波雷达的融合slam方法及系统
CN110823211A (zh) * 2019-10-29 2020-02-21 珠海市一微半导体有限公司 基于视觉slam的多传感器地图构建的方法、装置及芯片
CN111352112A (zh) * 2020-05-08 2020-06-30 泉州装备制造研究所 基于视觉、激光雷达和毫米波雷达的目标检测方法
CN111413983A (zh) * 2020-04-08 2020-07-14 江苏盛海智能科技有限公司 一种无人驾驶车辆的环境感知方法及控制端
CN111811502A (zh) * 2020-07-10 2020-10-23 北京航空航天大学 一种运动载体多源信息融合导航方法及系统
US20200410750A1 (en) * 2019-06-26 2020-12-31 Honeywell International Inc. Dense mapping using range sensor multi-scanning and multi-view geometry from successive image frames
WO2021012254A1 (zh) * 2019-07-25 2021-01-28 深圳市大疆创新科技有限公司 目标检测方法、系统及可移动平台
CN212781778U (zh) * 2020-09-29 2021-03-23 南京信息工程大学 一种基于视觉slam的智能车
CN112697134A (zh) * 2020-12-29 2021-04-23 南京昱晟机器人科技有限公司 一种室内巡检机器人的环境感知方法、系统、设备及其计算机可读存储介质
CN112965517A (zh) * 2021-01-31 2021-06-15 国网江苏省电力有限公司常州供电分公司 基于双目视觉融合激光雷达与电磁场检测的无人机巡检安全避障系统和方法
CN113002396A (zh) * 2020-04-14 2021-06-22 青岛慧拓智能机器有限公司 一种用于自动驾驶矿用车辆的环境感知系统及矿用车辆

Patent Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006252348A (ja) * 2005-03-11 2006-09-21 Secom Co Ltd 移動ロボット
US20180106896A1 (en) * 2016-04-15 2018-04-19 Mohsen Rohani Systems and methods for environment sensing using radar
US20180120116A1 (en) * 2016-11-01 2018-05-03 Brain Corporation Systems and methods for robotic mapping
US20180232947A1 (en) * 2017-02-11 2018-08-16 Vayavision, Ltd. Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types
CN107478214A (zh) * 2017-07-24 2017-12-15 杨华军 一种基于多传感器融合的室内定位方法及系统
CN108694731A (zh) * 2018-05-11 2018-10-23 武汉环宇智行科技有限公司 基于低线束激光雷达和双目相机的融合定位方法及设备
CN108663681A (zh) * 2018-05-16 2018-10-16 华南理工大学 基于双目摄像头与二维激光雷达的移动机器人导航方法
CN109633652A (zh) * 2019-01-14 2019-04-16 长沙莫之比智能科技有限公司 基于毫米波雷达的机器人避障系统及其应用方法
CN110026978A (zh) * 2019-02-28 2019-07-19 上海宇航系统工程研究所 一种电力巡检机器人的控制系统及工作方法
CN110275179A (zh) * 2019-04-09 2019-09-24 安徽理工大学 一种基于激光雷达以及视觉融合的构建地图方法
US20200410750A1 (en) * 2019-06-26 2020-12-31 Honeywell International Inc. Dense mapping using range sensor multi-scanning and multi-view geometry from successive image frames
WO2021012254A1 (zh) * 2019-07-25 2021-01-28 深圳市大疆创新科技有限公司 目标检测方法、系统及可移动平台
CN110329316A (zh) * 2019-07-29 2019-10-15 江苏必得科技股份有限公司 一种城市轨道障碍物检测装置及检测方法
CN110517303A (zh) * 2019-08-30 2019-11-29 的卢技术有限公司 一种基于双目相机和毫米波雷达的融合slam方法及系统
CN110823211A (zh) * 2019-10-29 2020-02-21 珠海市一微半导体有限公司 基于视觉slam的多传感器地图构建的方法、装置及芯片
CN111413983A (zh) * 2020-04-08 2020-07-14 江苏盛海智能科技有限公司 一种无人驾驶车辆的环境感知方法及控制端
CN113002396A (zh) * 2020-04-14 2021-06-22 青岛慧拓智能机器有限公司 一种用于自动驾驶矿用车辆的环境感知系统及矿用车辆
CN111352112A (zh) * 2020-05-08 2020-06-30 泉州装备制造研究所 基于视觉、激光雷达和毫米波雷达的目标检测方法
CN111811502A (zh) * 2020-07-10 2020-10-23 北京航空航天大学 一种运动载体多源信息融合导航方法及系统
CN212781778U (zh) * 2020-09-29 2021-03-23 南京信息工程大学 一种基于视觉slam的智能车
CN112697134A (zh) * 2020-12-29 2021-04-23 南京昱晟机器人科技有限公司 一种室内巡检机器人的环境感知方法、系统、设备及其计算机可读存储介质
CN112965517A (zh) * 2021-01-31 2021-06-15 国网江苏省电力有限公司常州供电分公司 基于双目视觉融合激光雷达与电磁场检测的无人机巡检安全避障系统和方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
SANDRA NOWOK ET AL.: "Millimeter wave radar for high resolution 3D near field imaging for robotics and security scans", 2017 18TH INTERNATIONAL RADAR SYMPOSIUM, 14 August 2017 (2017-08-14) *
杨爽;曾碧;何炜婷;: "融合语义激光与地标信息的SLAM技术研究", 计算机工程与应用, no. 18, 31 December 2020 (2020-12-31) *
杨磊 等: "基于多传感器的无人机避障方法研究及应用", 计算机测量与控制, vol. 27, no. 1, 31 December 2019 (2019-12-31) *
翁星;王博文;耿宏杰;: "基于激光测距传感器的移动机器人环境建模", 科技经济导刊, no. 02, 15 January 2017 (2017-01-15) *
郑睿 等: "基于调频毫米波的安防移动机器人导航系统", 仪器仪表学报, vol. 42, no. 3, 31 March 2021 (2021-03-31) *

Also Published As

Publication number Publication date
CN113640802B (zh) 2024-05-17

Similar Documents

Publication Publication Date Title
CN107632308B (zh) 一种基于递归叠加算法的车辆前方障碍物轮廓检测方法
Stoyanov et al. Comparative evaluation of range sensor accuracy in indoor environments
Kellner et al. Instantaneous lateral velocity estimation of a vehicle using Doppler radar
CN110782465B (zh) 一种基于激光雷达的地面分割方法、装置及存储介质
CN106093951B (zh) 基于超声波传感器阵列的物体跟踪方法
CN110873879A (zh) 一种多源异构传感器特征深度融合的装置及方法
US11327170B2 (en) Azimuth and elevation radar imaging with single-dimension antenna arrays of radar system
Berthold et al. Radar reflection characteristics of vehicles for contour and feature estimation
Cui et al. 3D detection and tracking for on-road vehicles with a monovision camera and dual low-cost 4D mmWave radars
EP3460515B1 (en) Mapping for autonomous robotic devices
Lee et al. Extrinsic and temporal calibration of automotive radar and 3D LiDAR
Steinbaeck et al. Design of a low-level radar and time-of-flight sensor fusion framework
CN111123260B (zh) 一种毫米波雷达和可见光摄像的环境物体状态识别方法
CN113091733A (zh) 一种基于毫米波雷达与imu融合的实时定位装置及方法
CN113640802B (zh) 一种基于多融合传感器的机器人空间定位方法和系统
Phippen et al. 3D Images of Pedestrians at 300GHz
KR20180066668A (ko) 무인 이동체의 주행 환경 제작 기술을 위한 장치 및 방법
CN115131756A (zh) 一种目标检测方法及装置
Chang et al. Radar and image fusion for power line detection in UAV applications
Zhong et al. Dynamic obstacle detection and tracking based on 3D lidar
CN116027288A (zh) 生成数据的方法、装置、电子设备及存储介质
WO2022191197A1 (ja) 物体位置検出装置及び方法
CN113467450A (zh) 无人机器控制方法、装置、计算机设备及存储介质
CN112651405A (zh) 目标检测方法及装置
CN111061273A (zh) 一种无人艇用自主避障融合方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant