CN112066994A - 一种消防机器人局部自主导航方法及系统 - Google Patents

一种消防机器人局部自主导航方法及系统 Download PDF

Info

Publication number
CN112066994A
CN112066994A CN202011037066.XA CN202011037066A CN112066994A CN 112066994 A CN112066994 A CN 112066994A CN 202011037066 A CN202011037066 A CN 202011037066A CN 112066994 A CN112066994 A CN 112066994A
Authority
CN
China
Prior art keywords
fire
fighting robot
image
visible light
dimensional coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011037066.XA
Other languages
English (en)
Other versions
CN112066994B (zh
Inventor
刘波
奚建东
廖华丽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changzhou Campus of Hohai University
Original Assignee
Changzhou Campus of Hohai University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changzhou Campus of Hohai University filed Critical Changzhou Campus of Hohai University
Priority to CN202011037066.XA priority Critical patent/CN112066994B/zh
Publication of CN112066994A publication Critical patent/CN112066994A/zh
Application granted granted Critical
Publication of CN112066994B publication Critical patent/CN112066994B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/12Target-seeking control

Abstract

本发明涉及消防智能技术领域,具体涉及一种消防机器人局部自主导航方法及系统,该方法包括,在红外图像中选取火源,根据红外图像与点云图像的映射矩阵求取火源的三维坐标;根据火源的位置,在可见光图像中选取目标点,根据可见光图像与点云图像的映射矩阵求取目标点的三维坐标;根据目标点的三维坐标,规划消防机器人运动到目标点的路径,驱动消防机器人运动到目标点;再次选取目标点,直至消防机器人的作业半径能够覆盖火源进行灭火作业。本发明通过可见光图像与点云图像、红外图像与点云图像的数据融合,提高了消防机器人对火场环境的感知能力,使得消防机器人具备在视距内的局部自主导航能力,大幅提高了消防机器人在火场消防作业中的应用。

Description

一种消防机器人局部自主导航方法及系统
技术领域
本发明涉及消防智能技术领域,具体涉及一种消防机器人局部自主导航方法及系统。
背景技术
近年来我国特大火灾事件频发,随着安全技术装备的不断发展,越来越多的消防机器人被投入应用到消防作业中。然而在现有技术下,消防机器人存在智能化程度低,环境感知能力弱,不具备自主导航能力等缺点。操作人员仍采用手柄跟随机器人的控制方式,存在一定危险性,大大制约了消防机器人在火场消防作业中的应用。
发明内容
为解决现有技术的不足,本发明提供一种消防机器人局部自主导航方法及系统,能够提高消防机器人的环境感知能力与智能化程度。
为解决现有技术的不足,本发明提供的技术方案为:
本发明提供一种消防机器人局部自主导航方法,包括,
1)获取红外相机拍摄的实时图像,在红外图像中选取火源,根据红外图像中火源的二维坐标与点云图像中相应点的三维坐标的映射矩阵求取火源的三维坐标;
2)获取可见光相机拍摄的实时图像,根据火源的位置,在可见光图像中选取目标点,根据可见光图像中目标点的二维坐标与点云图像中该点的三维坐标的映射矩阵求取目标点的三维坐标;
3)根据目标点的三维坐标,规划消防机器人运动到目标点的路径,驱动消防机器人运动到目标点;
4)以目标点作为消防机器人的当前位置,再次拍摄可见光图像,选取目标点,规划消防机器人的运动路径,直至消防机器人配备的水炮的作业半径能够覆盖火源进行灭火作业。
优选的,所述红外相机和可见光相机均安装在消防机器人底盘上;
所述点云图像通过安装在消防机器人底盘上的三维激光雷达获取。
优选的,还包括,
通过外参标定,获取可见光图像中二维坐标与点云图像中三维坐标的映射矩阵;
以及,
通过外参标定,获取红外图像中二维坐标与点云图像中三维坐标的映射矩阵。
优选的,所述在可见光图像中选取目标点,包括:
在可见光图像中选取靠近火源的位置或前往火源路径上的点作为目标点;所述靠近火源的位置是指,消防机器人配备的水炮的作业半径能够覆盖火源。
优选的,还包括,
在可见光图像上识别门洞或障碍物;
判断消防机器人能否通过规划的路径中的门洞或障碍物;如果不能通过,则重新选取目标点。
优选的,所述判断消防机器人能否通过规划的路径中的门洞或障碍物,包括,
在可见光图像中选取门洞或障碍物的轮廓,根据可见光图像中轮廓上点的二维坐标与点云图像中该点的三维坐标的映射矩阵求取门洞或障碍物轮廓上点的三维坐标;
根据门洞或障碍物轮廓上点的三维坐标求取门洞的最小宽度和最小高度,以及障碍物间的最小宽度;
比较门洞的最小宽度和最小高度与消防机器人的宽度和高度,当消防机器人的宽度小于门洞的最小宽度且当消防机器人的高度小于门洞的最小高度时,消防机器人能够通过门洞;
比较障碍物间的最小宽度和消防机器人的宽度,当消防机器人的宽度小于障碍物间的最小宽度时,消防机器人能够通过障碍物。
本发明另一方面提供一种消防机器人局部自主导航系统,包括,三维激光雷达,可见光相机,红外相机和数据处理端;
所述三维激光雷达,可见光相机和红外相机安装在消防机器人底盘上;
所述可见光相机用于拍摄视距范围内消防机器人前方图像;所述三维激光雷达用于探测目标位置获取点云图像;所述红外图像用于拍摄火源图像;
所述三维激光雷达,可见光相机和红外相机均与数据处理端通过无线方式连接;
所述数据处理端用于在红外图像中选取火源,根据红外图像中火源的二维坐标与点云图像中相应点的三维坐标的映射矩阵求取火源的三维坐标;以及,用于在可见光图像中选取目标点,根据可见光图像中目标点的二维坐标与点云图像中该点的三维坐标的映射矩阵求取目标点的三维坐标:以及,用于根据目标点的三维坐标,规划消防机器人运动到目标点的路径,直至消防机器人配备的水炮的作业半径能够覆盖火源。
优选的,所述数据处理端还用于,
在可见光图像中出现门洞或有障碍物时,在可见光图像中选取门洞或障碍物的轮廓,根据可见光图像中该轮廓中点的二维坐标与点云图像中相应点的三维坐标的映射矩阵求取门洞或障碍物轮廓中点的三维坐标,根据门洞或障碍物轮廓的三维坐标求取门洞的最小宽度和最小高度,以及障碍物间的最小宽度;
比较门洞的最小宽度和最小高度与消防机器人的宽度和高度,判断消防机器人能否通过门洞;
比较障碍物间的最小宽度和消防机器人的宽度时,判断消防机器人能否通过障碍物。
优选的,所述数据处理端还用于,
当消防机器人不能通过门洞或障碍物时,重新在可见光图像中选取目标点,并规划消防机器人到达目标点的路径,直到消防机器人能够顺利到达目标点。
优选的,所述数据处理端还用于,
通过外参标定,获取可见光图像中二维坐标与点云图像中三维坐标的映射矩阵;以及,通过外参标定,获取红外图像中二维坐标与点云图像中三维坐标的映射矩阵。
本发明的有益效果:
通过可见光图像与点云图像、红外图像与点云图像的数据融合,提高了消防机器人对火场环境的感知能力,使得消防机器人具备在视距内的局部自主导航能力,操作人员可通过远程界面控制消防机器人,无需跟随消防机器人进入火场,有效降低了原有利用手柄操作控制消防机器人的难度,保障了消防操作人员的人身安全,大幅提高了消防机器人在火场消防作业中的应用。
附图说明
图1为本发明提供的一种消防机器人局部自主导航方法的流程图;
图2为本发明提供的可见光图像中二维坐标与点云图像中三维坐标的映射矩阵示意图。
具体实施方式
下面结合实施方式对本发明作进一步描述。以下实施方式仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
本发明实施例提供一种消防机器人局部自主导航方法,参见图1,包括以下步骤:
步骤一:通过外参标定,获取可见光图像中二维坐标与点云图像中三维坐标的映射矩阵;以及,通过外参标定,获取红外图像中二维坐标与点云图像中三维坐标的映射矩阵;
具体的,通过在消防机器人底盘上安装的三维激光雷达,可见光相机和红外相机获取点云图像,可见光图像和红外图像;
所述可见光相机用于拍摄视距范围内消防机器人前方图像;所述三维激光雷达用于探测目标位置获取点云图像;所述红外图像用于拍摄火源图像。
参见图2,设(u,v)为可见光图像或红外图像中某点的坐标,(x,y,z)为与(u,v)对应的点云图像中的点的坐标。
通过棋盘格矩形标定工具,则有:
Figure BDA0002705387690000041
式中,M为内参和外参的合体,即可见光图像或红外图像中点的二维坐标与点云图像中对应点三维坐标的映射矩阵;
则有:
Figure BDA0002705387690000042
即:
Figure BDA0002705387690000043
选取棋盘格的四个角点作为已知点,分别在可见光或红外图像和点云图像中找到四个角点的坐标,移动棋盘格,重复多次,找到6组对应点,即可求出M。
步骤二:将红外相机获取的实时图像传到远程操作界面;在红外图像中选取火源,根据红外图像中火源的二维坐标与点云图像中相应点的三维坐标的映射矩阵求取火源的三维坐标。
步骤三:将可见光相机获取的实时图像传到远程操作界面;根据火源的位置,在可见光图像中选取目标点,根据可见光图像中目标点的二维坐标与点云图像中该点的三维坐标的映射矩阵求取目标点的三维坐标;
Figure BDA0002705387690000051
具体的,操作人员在可见光图像中选取靠近火源的位置或前往火源路径上的点作为目标点,在可见光相机的视距内实现消防机器人的局部导航。靠近火源的位置是指,消防机器人配备的水炮的作业半径能够覆盖火源。
步骤三:根据目标点的三维坐标,规划消防机器人运动到目标点的路径,驱动消防机器人运动到目标点;
具体的,运用成熟的SLAM技术,在消防机器人移动过程中建图并定位,自主规划路径驱动消防机器人运动到目标点;
步骤四:以目标点作为消防机器人的当前位置,再次拍摄可见光图像,选取目标点,规划消防机器人的运动路径,直至消防机器人配备的水炮的作业半径能够覆盖火源进行灭火作业。
由于火场的复杂性以及可见光相机视距的限制,在可见光图像上进行一次选取并不能直接到达火源位置,操作人员可能需要根据当前的可见光图像选取一个目标点,当消防机器人移动到目标点后再进行下一步的导航,需要通过多次选取目标点引导消防机器人逐步靠近火源位置。
优选的,当操作人员发现可见光图像中出现门洞或有障碍物时,需判断消防机器人能否通过该门洞或障碍物,包括:
在可见光图像中选取门洞或障碍物的轮廓,根据可见光图像中该轮廓中点的二维坐标与点云图像中相应点的三维坐标的映射矩阵求取门洞或障碍物轮廓中点的三维坐标,根据门洞或障碍物轮廓的三维坐标求取门洞的最小宽度和最小高度,以及障碍物间的最小宽度;
比较门洞的最小宽度和最小高度与消防机器人的宽度和高度,判断消防机器人能否通过门洞;
比较障碍物间的最小宽度和消防机器人的宽度,判断消防机器人能否通过障碍物;
当消防机器人不能通过门洞或障碍物时,操作人员需重新在可见光图像中选取目标点,并规划消防机器人到达目标点的路径,直到消防机器人能够顺利到达目标点。
具体的,根据门洞轮廓的三维坐标,求取门洞的最小宽度以及门洞的最小高度,当消防机器人的宽度小于门洞的最小宽度且当消防机器人的高度小于门洞的最小高度时,消防机器人能够通过门洞。
具体的,根据障碍物轮廓的三维坐标,求取障碍物之间的最小宽度,当消防机器人的宽度小于障碍物之间的最小宽度时,消防机器人能够通过障碍物。
本发明实施例还提供一种消防机器人局部自主导航系统,包括,三维激光雷达,可见光相机,红外相机和数据处理端;
所述三维激光雷达,可见光相机和红外相机安装在消防机器人底盘上;
所述可见光相机用于拍摄视距范围内消防机器人前方图像;所述三维激光雷达用于探测目标位置获取点云图像;所述红外图像用于拍摄火源图像。
所述三维激光雷达,可见光相机和红外相机均与数据处理端通过无线方式连接。
所述数据处理端用于在红外图像中选取火源,根据红外图像中火源的二维坐标与点云图像中相应点的三维坐标的映射矩阵求取火源的三维坐标;以及,用于在可见光图像中选取目标点,根据可见光图像中目标点的二维坐标与点云图像中该点的三维坐标的映射矩阵求取目标点的三维坐标:以及,用于根据目标点的三维坐标,规划消防机器人运动到目标点的路径,直至消防机器人配备的水炮的作业半径能够覆盖火源。
所述数据处理端还用于,
在可见光图像中出现门洞或有障碍物时,在可见光图像中选取门洞或障碍物的轮廓,根据可见光图像中该轮廓中点的二维坐标与点云图像中相应点的三维坐标的映射矩阵求取门洞或障碍物轮廓中点的三维坐标,根据门洞或障碍物轮廓的三维坐标求取门洞的最小宽度和最小高度,以及障碍物间的最小宽度;
比较门洞的最小宽度和最小高度与消防机器人的宽度和高度,判断消防机器人能否通过门洞;
比较障碍物间的最小宽度和消防机器人的宽度,判断消防机器人能否通过障碍物。
所述数据处理端还用于,
当消防机器人不能通过门洞或障碍物时,重新在可见光图像中选取目标点,并规划消防机器人到达目标点的路径,直到消防机器人能够顺利到达目标点。
所述数据处理端还用于,
通过外参标定,获取可见光图像中二维坐标与点云图像中三维坐标的映射矩阵;以及,通过外参标定,获取红外图像中二维坐标与点云图像中三维坐标的映射矩阵。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。
以上显示和描述了本发明的基本原理和主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (10)

1.一种消防机器人局部自主导航方法,其特征在于,包括,
1)获取红外相机拍摄的实时图像,在红外图像中选取火源,根据红外图像中火源的二维坐标与点云图像中相应点的三维坐标的映射矩阵求取火源的三维坐标;
2)获取可见光相机拍摄的实时图像,根据火源的位置,在可见光图像中选取目标点,根据可见光图像中目标点的二维坐标与点云图像中该点的三维坐标的映射矩阵求取目标点的三维坐标;
3)根据目标点的三维坐标,规划消防机器人运动到目标点的路径,驱动消防机器人运动到目标点;
4)以目标点作为消防机器人的当前位置,再次拍摄可见光图像,选取目标点,规划消防机器人的运动路径,直至消防机器人配备的水炮的作业半径能够覆盖火源,进行灭火作业。
2.根据权利要求1所述的一种消防机器人局部自主导航方法,其特征在于,所述红外相机和可见光相机均安装在消防机器人底盘上;
所述点云图像通过安装在消防机器人底盘上的三维激光雷达获取。
3.根据权利要求1所述的一种消防机器人局部自主导航方法,其特征在于,还包括,
通过外参标定,获取可见光图像中二维坐标与点云图像中三维坐标的映射矩阵;
以及,
通过外参标定,获取红外图像中二维坐标与点云图像中三维坐标的映射矩阵。
4.根据权利要求1所述的一种消防机器人局部自主导航方法,其特征在于,所述在可见光图像中选取目标点,包括:
在可见光图像中选取靠近火源的位置或前往火源路径上的点作为目标点;所述靠近火源的位置是指,消防机器人配备的水炮的作业半径能够覆盖火源。
5.根据权利要求1所述的一种消防机器人局部自主导航方法,其特征在于,还包括,
在可见光图像上识别门洞或障碍物;
判断消防机器人能否通过规划的路径中的门洞或障碍物;如果不能通过,则重新选取目标点。
6.根据权利要求5所述的一种消防机器人局部自主导航方法,其特征在于,所述判断消防机器人能否通过规划的路径中的门洞或障碍物,包括,
在可见光图像中选取门洞或障碍物的轮廓,根据可见光图像中轮廓上点的二维坐标与点云图像中该点的三维坐标的映射矩阵求取门洞或障碍物轮廓上点的三维坐标;
根据门洞或障碍物轮廓上点的三维坐标求取门洞的最小宽度和最小高度,以及障碍物间的最小宽度;
比较门洞的最小宽度和最小高度与消防机器人的宽度和高度,当消防机器人的宽度小于门洞的最小宽度且当消防机器人的高度小于门洞的最小高度时,消防机器人能够通过门洞;
比较障碍物间的最小宽度和消防机器人的宽度,当消防机器人的宽度小于障碍物间的最小宽度时,消防机器人能够通过障碍物。
7.一种消防机器人局部自主导航系统,其特征在于,包括,三维激光雷达,可见光相机,红外相机和数据处理端;
所述三维激光雷达,可见光相机和红外相机安装在消防机器人底盘上;
所述可见光相机用于拍摄视距范围内消防机器人前方图像;所述三维激光雷达用于探测目标位置获取点云图像;所述红外图像用于拍摄火源图像;
所述三维激光雷达,可见光相机和红外相机均与数据处理端通过无线方式连接;
所述数据处理端用于在红外图像中选取火源,根据红外图像中火源的二维坐标与点云图像中相应点的三维坐标的映射矩阵求取火源的三维坐标;以及,用于在可见光图像中选取目标点,根据可见光图像中目标点的二维坐标与点云图像中该点的三维坐标的映射矩阵求取目标点的三维坐标:以及,用于根据目标点的三维坐标,规划消防机器人运动到目标点的路径,直至消防机器人配备的水炮的作业半径能够覆盖火源。
8.根据权利要求7所述的一种消防机器人局部自主导航系统,其特征在于,所述数据处理端还用于,
在可见光图像中出现门洞或有障碍物时,在可见光图像中选取门洞或障碍物的轮廓,根据可见光图像中该轮廓中点的二维坐标与点云图像中相应点的三维坐标的映射矩阵求取门洞或障碍物轮廓中点的三维坐标,根据门洞或障碍物轮廓的三维坐标求取门洞的最小宽度和最小高度,以及障碍物间的最小宽度;
比较门洞的最小宽度和最小高度与消防机器人的宽度和高度,判断消防机器人能否通过门洞;
比较障碍物间的最小宽度和消防机器人的宽度时,判断消防机器人能否通过障碍物。
9.根据权利要求8所述的一种消防机器人局部自主导航系统,其特征在于,所述数据处理端还用于,
当消防机器人不能通过门洞或障碍物时,重新在可见光图像中选取目标点,并规划消防机器人到达目标点的路径,直到消防机器人能够顺利到达目标点。
10.根据权利要求7所述的一种消防机器人局部自主导航系统,其特征在于,所述数据处理端还用于,
通过外参标定,获取可见光图像中二维坐标与点云图像中三维坐标的映射矩阵;以及,通过外参标定,获取红外图像中二维坐标与点云图像中三维坐标的映射矩阵。
CN202011037066.XA 2020-09-28 2020-09-28 一种消防机器人局部自主导航方法及系统 Active CN112066994B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011037066.XA CN112066994B (zh) 2020-09-28 2020-09-28 一种消防机器人局部自主导航方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011037066.XA CN112066994B (zh) 2020-09-28 2020-09-28 一种消防机器人局部自主导航方法及系统

Publications (2)

Publication Number Publication Date
CN112066994A true CN112066994A (zh) 2020-12-11
CN112066994B CN112066994B (zh) 2022-07-22

Family

ID=73683026

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011037066.XA Active CN112066994B (zh) 2020-09-28 2020-09-28 一种消防机器人局部自主导航方法及系统

Country Status (1)

Country Link
CN (1) CN112066994B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112465987A (zh) * 2020-12-17 2021-03-09 武汉第二船舶设计研究所(中国船舶重工集团公司第七一九研究所) 一种视觉融合信息三维重建的导航地图构建方法
CN113101584A (zh) * 2021-03-17 2021-07-13 国网江西省电力有限公司电力科学研究院 一种基于三维点云模型的智能消防机器人控制方法
CN113596335A (zh) * 2021-07-31 2021-11-02 重庆交通大学 基于图像融合的公路隧道火灾监测系统及方法
WO2023020174A1 (zh) * 2021-08-17 2023-02-23 科沃斯机器人股份有限公司 一种结构光模组及自移动设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5832187A (en) * 1995-11-03 1998-11-03 Lemelson Medical, Education & Research Foundation, L.P. Fire detection systems and methods
JP2004145642A (ja) * 2002-10-24 2004-05-20 Nohmi Bosai Ltd 火源探査システム
US20100207936A1 (en) * 2009-02-13 2010-08-19 Harris Corporation Fusion of a 2d electro-optical image and 3d point cloud data for scene interpretation and registration performance assessment
CN107899166A (zh) * 2017-12-07 2018-04-13 南京航空航天大学 基于无人机和智能消防机器人的精确灭火系统及方法
CN110456363A (zh) * 2019-06-17 2019-11-15 北京理工大学 三维激光雷达点云和红外图像融合的目标检测及定位方法
CN110860057A (zh) * 2019-11-18 2020-03-06 燕山大学 一种消防侦察机器人及侦察方法
CN111408086A (zh) * 2020-03-12 2020-07-14 北京中电飞华通信有限公司 一种变电站火灾巡查灭火系统及其灭火方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5832187A (en) * 1995-11-03 1998-11-03 Lemelson Medical, Education & Research Foundation, L.P. Fire detection systems and methods
JP2004145642A (ja) * 2002-10-24 2004-05-20 Nohmi Bosai Ltd 火源探査システム
US20100207936A1 (en) * 2009-02-13 2010-08-19 Harris Corporation Fusion of a 2d electro-optical image and 3d point cloud data for scene interpretation and registration performance assessment
CN107899166A (zh) * 2017-12-07 2018-04-13 南京航空航天大学 基于无人机和智能消防机器人的精确灭火系统及方法
CN110456363A (zh) * 2019-06-17 2019-11-15 北京理工大学 三维激光雷达点云和红外图像融合的目标检测及定位方法
CN110860057A (zh) * 2019-11-18 2020-03-06 燕山大学 一种消防侦察机器人及侦察方法
CN111408086A (zh) * 2020-03-12 2020-07-14 北京中电飞华通信有限公司 一种变电站火灾巡查灭火系统及其灭火方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
YUN, K (YUN, KYONGSIK)等: "Improved visible to IR image transformation using synthetic data augmentation with cycle-consistent adversarial networks", 《PROCEEDINGS OF SPIE》 *
孙继平等: "基于可见光和红外图像的矿井外因火灾识别方法", 《工矿自动化》 *
常璐等: "自动消防水炮灭火系统", 《现代建筑电气》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112465987A (zh) * 2020-12-17 2021-03-09 武汉第二船舶设计研究所(中国船舶重工集团公司第七一九研究所) 一种视觉融合信息三维重建的导航地图构建方法
CN113101584A (zh) * 2021-03-17 2021-07-13 国网江西省电力有限公司电力科学研究院 一种基于三维点云模型的智能消防机器人控制方法
CN113596335A (zh) * 2021-07-31 2021-11-02 重庆交通大学 基于图像融合的公路隧道火灾监测系统及方法
WO2023020174A1 (zh) * 2021-08-17 2023-02-23 科沃斯机器人股份有限公司 一种结构光模组及自移动设备

Also Published As

Publication number Publication date
CN112066994B (zh) 2022-07-22

Similar Documents

Publication Publication Date Title
CN112066994B (zh) 一种消防机器人局部自主导航方法及系统
US10994419B2 (en) Controlling a robot in the presence of a moving object
EP3410246B1 (en) Robot obstacle avoidance control system and method, robot, and storage medium
US10278333B2 (en) Pruning robot system
EP1504277B1 (en) Real-time target tracking of an unpredictable target amid unknown obstacles
CN106647766A (zh) 一种基于复杂环境的uwb‑视觉交互的机器人巡航方法及系统
CN112506222A (zh) 一种无人机智能化避障方法及装置
CN113116224B (zh) 机器人及其控制方法
CN103700140A (zh) 用于单枪机-多球机联动的空间建模方法
CN113289290B (zh) 一种消防机器人火焰自动瞄准方法、装置及系统
CN111612823A (zh) 一种基于视觉的机器人自主跟踪方法
McGreavy et al. Next best view planning for object recognition in mobile robotics
Liau et al. Non-metric navigation for mobile robot using optical flow
CN112789570A (zh) 用于输入工作区域的方法和机器人系统
US11468684B2 (en) Situational awareness monitoring
CN111736596A (zh) 有手势控制功能的车辆、车辆的手势控制方法和存储介质
CN108363391B (zh) 机器人及其控制方法
Gecks et al. Multi-camera collision detection allowing for object occlusions
Chen et al. Mobile asset tracking for dynamic 3D crane workspace generation in real time
CN115655261B (zh) 地图生成方法、装置、机器人以及存储介质
CN115998927A (zh) 面向室内场景疫情风险监测的智能消杀方法、机器人系统
CN114074320B (zh) 机器人控制方法及装置
CN114291083B (zh) 自移动装置控制方法、装置、系统、介质及自移动装置
KR102631315B1 (ko) Slam 기술 구현을 위한 비전 데이터 및 라이다 데이터 간의 실시간 분석 및 대조를 통해 위치 오차 보정이 가능한 시스템
Coloma et al. Immersive Rover Control and Obstacle Detection based on Extended Reality and Artificial Intelligence

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant