CN114994672B - 毫米波雷达惯性组合的火场烟雾场景定位建图方法与装置 - Google Patents
毫米波雷达惯性组合的火场烟雾场景定位建图方法与装置 Download PDFInfo
- Publication number
- CN114994672B CN114994672B CN202210925083.XA CN202210925083A CN114994672B CN 114994672 B CN114994672 B CN 114994672B CN 202210925083 A CN202210925083 A CN 202210925083A CN 114994672 B CN114994672 B CN 114994672B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- millimeter wave
- wave radar
- human body
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000013507 mapping Methods 0.000 title claims abstract description 41
- 239000000779 smoke Substances 0.000 title claims abstract description 40
- 238000010276 construction Methods 0.000 claims abstract description 11
- 230000001133 acceleration Effects 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000012549 training Methods 0.000 claims description 8
- 206010034719 Personality change Diseases 0.000 claims description 2
- 238000012545 processing Methods 0.000 claims description 2
- 238000012360 testing method Methods 0.000 claims 1
- 230000005021 gait Effects 0.000 abstract description 3
- 238000003062 neural network model Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000000428 dust Substances 0.000 description 2
- 239000003897 fog Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000000280 densification Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 239000013618 particulate matter Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1652—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3841—Data obtained from two or more sources, e.g. probe vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Geometry (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Electromagnetism (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了一种毫米波雷达惯性组合的火场烟雾场景定位建图方法与装置,该方法包括:获取惯性数据与点云数据;基于惯性数据得到人体的姿态信息,并基于人体运动学的约束与惯性数据进行人体的步长估计,并确定人体的位置信息;对稀疏高噪声的毫米波雷达点云数据进行提升处理,得到稠密化点云数据;通过人体的姿态信息与位置信息将稠密化点云数据映射到全局坐标系下构建地图。本发明应用于导航定位领域,针对应急救援人员运动复杂多变的特点,基于人体运动学的约束,通过惯性器件检测步态、计算出位置和姿态,实现导航定位;再通过位置和姿态信息将点云数据映射到全局坐标系下构建地图,实现人员在烟雾环境下的实时定位与建图定位。
Description
技术领域
本发明涉及导航定位技术领域,具体是一种毫米波雷达惯性组合的火场烟雾场景定位建图方法与装置。
背景技术
应急救援人员经常暴露在危险恶劣的环境中,当需要从燃烧、倒塌的建筑物中救援受害者时,伴随着建筑物内因燃烧而产生的大量浓烟,建筑内通道狭窄、错综复杂,对应急救援人员获取位置和环境地图,都充满了困难和挑战,对他们的安全造成威胁。当前主流的导航建图系统,如ORB-SLAM、VINS、LOAM等,常使用激光雷达或RGB相机,辅助以惯性传感器来生成精确的室内地图。当空气中存在的颗粒物(如灰尘、雾、烟雾等),这些光学传感器的效果会受到严重限制。在存在浓烟或光线复杂的应急救援场景中,视觉传感器很难获取到特征点;激光雷达在狭窄通道存在盲区,并且受到烟、雾颗粒的影响,致使激光雷达传感器信号被严重干扰。
面向上述具有挑战性情况下测绘精确地图的需求,考虑采用小型单通道毫米波雷达和惯性器件组合,构建行人烟雾环境下的建图系统。毫米波雷达受灰尘、雾和烟雾等的影响较小,可以透过烟雾,帮助救援人员识别障碍物和构建环境地图。此外,与激光雷达等传感器相比,小型单通道毫米波雷达重量更轻、体积更小,能减少人员负担。但毫米波雷达受限于其单通道的结构,生成的点云噪声大、点云密度极其稀疏(一次扫描仅有几百个点)。人员的运动较为复杂和多变,仅依靠单通道毫米波雷达来实现定位和建图较为困难。
毫米波雷达建图的研究主要集中在车载领域。Guan et al.等基于模拟毫米波雷达的输入进行深度学习模型训练,生成车载图像的深度信息。Engelhardt et al.等采用车载毫米波雷达与激光雷达、深度相机同时采集数据,用激光雷达与深度相机的数据作为真实标签训练学习模型,实现了毫米波雷达的室外环境建图。2019年,Brodeski et al.等人提出从毫米波的回波信息出发,建立回波信息到实际点云的端到端网络RadarNet,以取代传统雷达进行回波信号处理,在无杂波干扰的隔离室中,通过采集多个角度和位置数据训练神经网络,提升了毫米波雷达点云建图精度。国内相关领域的研究较少,多数研究仍是将毫米波雷达与其他传感器进行数据融合建立地图。例如,将毫米波雷达与激光雷达结合建图,将毫米波雷达与视觉传感器融合进行车道级定位。毫米波雷达目前多应用于室外自动驾驶的避障领域,往往通过与激光雷达、TOF深度相机结合,配合神经网络训练,从而达到建图效果。当前,适用于人员在复杂室内环境下的建图,尤其是烟、雾等恶劣环境下的毫米波雷达建图的相关研究较少,仍未形成成熟的方案和产品。
发明内容
针对上述现有技术中的不足,本发明提供一种毫米波雷达惯性组合的火场烟雾场景定位建图方法与装置,实现应急救援人员在火场烟雾环境下的实时定位与建图定位。
为实现上述目的,本发明提供一种毫米波雷达惯性组合的火场烟雾场景定位建图方法,将惯性器件与毫米波雷达搭载在进入火场烟雾场景的人体上,所述定位建图方法包括如下步骤:
步骤1,获取惯性数据与毫米波雷达点云数据;
步骤2,基于惯性数据得到人体的姿态信息,并基于人体运动学的约束与惯性数据进行人体的步长估计,并确定人体的位置信息;
步骤3,对稀疏高噪声的毫米波雷达点云数据进行提升处理,得到稠密化点云数据;
步骤4,通过人体的姿态信息与位置信息将稠密化点云数据映射到全局坐标系下构建地图,实现人体在烟雾环境下的实时定位与建图定位。
为实现上述目的,本发明还提供一种毫米波雷达惯性组合的火场烟雾场景定位建图装置,包括:
惯性器件与毫米波雷达,搭载在人体的胸部位置;
数据获取模块,与惯性器件、毫米波雷达相连,用于获取惯性数据与点云数据;
姿态信息计算模块,与数据获取模块相连,用于计算得到人体的姿态信息;
步长估计模块,与数据获取模块相连,用于计算得到人体的步长估计;
位置信息计算模块,与姿态信息计算模块、步长估计模块相连,用于计算确定人体的位置信息;
点云提升模块,与数据获取模块相连,用于对稀疏高噪声的毫米波雷达点云数据进行提升处理,得到稠密化点云数据;
地图构建模块,与点云提升模块、姿态信息计算模块、位置信息计算模块相连,用于将点云数据映射到全局坐标系下构建地图。
本发明提供的一种毫米波雷达惯性组合的火场烟雾场景定位建图方法与装置,针对应急救援人员运动复杂多变的特点,基于人体运动学的约束,通过惯性器件检测步态、计算出位置和姿态,实现导航定位;再通过位置和姿态信息将点云数据映射到全局坐标系下构建地图,实现人员在烟雾环境下的实时定位与建图定位。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1为本发明实施例中定位建图方法的流程图;
图2为本发明实施例中定位建图装置的佩戴示意图;
图3为本发明实施例中定位建图装置的模块图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明,本发明实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。
另外,在本发明中如涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“连接”、“固定”等应做广义理解,例如,“固定”可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接,还可以是物理连接或无线通信连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
另外,本发明各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
实施例1
本实施例公开的一种毫米波雷达惯性组合的火场烟雾场景定位建图方法,该方法针对应急救援人员运动复杂多变的特点,基于人体运动学的约束,通过惯性器件检测步态、计算出位置和姿态,实现导航定位;再通过位置和姿态信息将点云数据映射到全局坐标系下构建地图,实现人员在烟雾环境下的实时定位与建图定位。
参考图1,该定位建图方法具体包括如下步骤:
步骤1,将惯性器件与毫米波雷达搭载在进入火场烟雾场景的应急救援人员人体的胸部位置,即图2所示。相比于搭载在脚上,装置安装在使用者胸部会降低人体运动对装置数据采集的影响,提高定位和建图的精度。实时获取惯性数据与毫米波雷达点云数据;
步骤2,基于惯性数据得到人体的姿态信息,并基于人体运动学的约束与惯性数据进行人体的步长估计,并确定人体的位置信息。
基于惯性数据得到人体的姿态信息的过程为:
基于姿态变化量更新姿态矩阵,为:
基于人体运动学的约束与惯性数据进行人体的步长估计的过程为:
获取惯性数据得到人体运动过程中的加速度值序列,将其转换为加速度值变化曲线,将加速度值变化曲线中两个波峰之间对应的区域记为一步;
最后,根据当前位置、航向角和步长,得到下一时刻的位置信息,为:
步骤3,对稀疏高噪声的毫米波雷达点云数据进行提升处理,其过程为:
采集单通道的毫米波雷达点云数据和激光雷达点云数据构建数据集,以稠密的激
光雷达点云作为标签训练该神经网络模型,使神经网络模型能够将稀疏的毫米波雷达点云
映射到稠密化的点云,尤其是采集烟雾场景下的毫米波雷达数据,使神经网络模型能够适
应烟雾场景下的点云稠密化过程。采集的激光雷达稠密点云记为,与基于毫米波雷达数
据生成的稠密点云比较它们之间的差值,设为点云重建损失函数,为:
步骤4,通过人体的姿态信息与位置信息将点云数据映射到全局坐标系下构建地图,实现人体在烟雾环境下的实时定位与建图定位。本实施例中,所构建的地图为占据格栅地图,其构建过程为:
读取一帧点云数据以及该帧对应的使用者的姿态信息与位置信息。通过位姿信息,首先计算出该时刻使用者所在的栅格位置。然后遍历该时刻由步骤3得到的稠密化点云数据,得到点云中每一个点所在的栅格位置以及栅格序号,将点云中点所在格栅标记为占用;
对于每一个点云中的点,从当前使用者所在的栅格位置出发,直线连接点云中的点栅格位置,将划线所经过的栅格标记为空,记录位置编码在集合中;
由每一个时刻采集到的点云数据生成空余栅格集合,将点云所在的栅格标记为占据,同时在空栅格集合中,将之前被加入占据栅格集合中的点云所在栅格删除,完成地图的更新。
实施例2
如图3所示为本实施例所公开的一种毫米波雷达惯性组合的火场烟雾场景定位建图装置,其主要由惯性器件、毫米波雷达、数据获取模块、姿态信息计算模块、步长估计模块、位置信息计算模块、点云提升模块与地图构建模块组成。具体地:
惯性器件与毫米波雷达搭载在人体的胸部位置,用于采集惯性数据与点云数据;
数据获取模块与惯性器件、毫米波雷达相连,用于获取惯性数据与点云数据;
姿态信息计算模块与数据获取模块相连,用于计算得到人体的姿态信息;
步长估计模块与数据获取模块相连,用于计算得到人体的步长估计;
位置信息计算模块与姿态信息计算模块、步长估计模块相连,用于计算确定人体的位置信息;
点云提升模块与数据获取模块相连,用于对稀疏高噪声的毫米波雷达点云数据进行提升处理,得到稠密化点云数据;
地图构建模块与点云提升模块、姿态信息计算模块、位置信息计算模块相连,用于将点云数据映射到全局坐标系下构建地图。
上述各个模块的具体计算过程与实施例1相同,因此本实施例中不再对其进行赘述。
以上所述仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是在本发明的发明构思下,利用本发明说明书及附图内容所作的等效结构变换,或直接/间接运用在其他相关的技术领域均包括在本发明的专利保护范围内。
Claims (8)
1.一种毫米波雷达惯性组合的火场烟雾场景定位建图方法,其特征在于,将惯性器件与毫米波雷达搭载在进入火场烟雾场景的人体上,所述定位建图方法包括如下步骤:
步骤1,获取惯性数据与毫米波雷达点云数据;
步骤2,基于惯性数据得到人体的姿态信息,并基于人体运动学的约束与惯性数据进行人体的步长估计,并确定人体的位置信息;
步骤3,对稀疏高噪声的毫米波雷达点云数据进行提升处理,得到稠密化点云数据;
步骤4,通过人体的姿态信息与位置信息将稠密化点云数据映射到全局坐标系下构建地图,实现人体在烟雾环境下的实时定位与建图定位;
步骤2中,所述基于惯性数据得到人体的姿态信息,具体为:
基于姿态变化量更新姿态矩阵,为:
4.根据权利要求1至3任一项所述的毫米波雷达惯性组合的火场烟雾场景定位建图方法,其特征在于,步骤3中,所述对稀疏高噪声的毫米波雷达点云数据进行提升处理,具体为:
构建基于编码解码结构的点云数据稠密提升网络,采集单通道的毫米波雷达点云数据和激光雷达点云数据构建数据集,以稠密的激光雷达点云作为标签训练该点云数据稠密提升网络,使点云数据稠密提升网络能够将稀疏的毫米波雷达点云映射到稠密化的点云,其中,采集的激光雷达稠密点云记为,与基于毫米波雷达数据生成的稠密点云比较它们之间的差值,设为点云重建损失函数,为:
5.根据权利要求4所述的毫米波雷达惯性组合的火场烟雾场景定位建图方法,其特征在于,所采集的单通道的毫米波雷达点云数据为火场烟雾场景下的毫米波雷达点云数据,以使得点云数据稠密提升网络能够适应烟雾场景下的点云稠密化过程。
6.根据权利要求3所述的毫米波雷达惯性组合的火场烟雾场景定位建图方法,其特征在于,步骤4中,所构建的地图为占据格栅地图,其构建过程为:
读取一帧点云数据以及该帧对应的使用者的姿态信息与位置信息,通过位姿信息,首先计算出该时刻使用者所在的栅格位置,然后遍历该时刻由步骤3得到的稠密化点云数据,得到稠密化点云数据中每一个点所在的栅格位置以及栅格序号,将稠密化点云数据中点所在格栅标记为占用;
对于每一个稠密化点云数据中的点,从当前使用者所在的栅格位置出发,直线连接点云中的点栅格位置,将划线所经过的栅格标记为空,记录位置编码在集合中;
由每一个时刻采集到的稠密化点云数据生成空余栅格集合,将稠密化点云数据所在的栅格标记为占据,同时在空栅格集合中,将之前被加入占据栅格集合中的点云所在栅格删除,完成地图的更新。
7.根据权利要求1至3任一项所述的毫米波雷达惯性组合的火场烟雾场景定位建图方法,其特征在于,惯性器件与毫米波雷达搭载在人体的胸部位置。
8.一种毫米波雷达惯性组合的火场烟雾场景定位建图装置,其特征在于,采用权利要求1至7任一项所述的毫米波雷达惯性组合的火场烟雾场景定位建图方法,包括:
惯性器件与毫米波雷达,搭载在人体的胸部位置;
数据获取模块,与惯性器件、毫米波雷达相连,用于获取惯性数据与点云数据;
姿态信息计算模块,与数据获取模块相连,用于计算得到人体的姿态信息;
步长估计模块,与数据获取模块相连,用于计算得到人体的步长估计;
位置信息计算模块,与姿态信息计算模块、步长估计模块相连,用于计算确定人体的位置信息;
点云提升模块,与数据获取模块相连,用于对稀疏高噪声的毫米波雷达点云数据进行提升处理,得到稠密化点云数据;
地图构建模块,与点云提升模块、姿态信息计算模块、位置信息计算模块相连,用于将点云数据映射到全局坐标系下构建地图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210925083.XA CN114994672B (zh) | 2022-08-03 | 2022-08-03 | 毫米波雷达惯性组合的火场烟雾场景定位建图方法与装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210925083.XA CN114994672B (zh) | 2022-08-03 | 2022-08-03 | 毫米波雷达惯性组合的火场烟雾场景定位建图方法与装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114994672A CN114994672A (zh) | 2022-09-02 |
CN114994672B true CN114994672B (zh) | 2022-10-25 |
Family
ID=83022665
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210925083.XA Active CN114994672B (zh) | 2022-08-03 | 2022-08-03 | 毫米波雷达惯性组合的火场烟雾场景定位建图方法与装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114994672B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109974696A (zh) * | 2019-05-08 | 2019-07-05 | 东北大学 | 基于slam与步态imu融合的室内人员自主定位方法 |
CN110456343A (zh) * | 2019-07-22 | 2019-11-15 | 深圳普捷利科技有限公司 | 一种基于fmcw毫米波雷达的即时定位方法及系统 |
CN112346048A (zh) * | 2020-09-25 | 2021-02-09 | 深圳捷豹电波科技有限公司 | 一种基于毫米波的火灾探测搜救系统及方法 |
CN113189575A (zh) * | 2021-07-01 | 2021-07-30 | 长沙莫之比智能科技有限公司 | 一种用于烟雾场景下人员定位的探测方法和装置 |
CN113255504A (zh) * | 2021-05-19 | 2021-08-13 | 燕山大学 | 一种基于深度学习的路侧视角超视距全域融合感知系统 |
CN113843788A (zh) * | 2021-06-03 | 2021-12-28 | 安徽师范大学 | 一种基于毫米波与惯性融合导航的安防机器人 |
CN114782636A (zh) * | 2022-05-17 | 2022-07-22 | 江苏集萃深度感知技术研究所有限公司 | 三维重建方法、装置及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8939081B1 (en) * | 2013-01-15 | 2015-01-27 | Raytheon Company | Ladar backtracking of wake turbulence trailing an airborne target for point-of-origin estimation and target classification |
-
2022
- 2022-08-03 CN CN202210925083.XA patent/CN114994672B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109974696A (zh) * | 2019-05-08 | 2019-07-05 | 东北大学 | 基于slam与步态imu融合的室内人员自主定位方法 |
CN110456343A (zh) * | 2019-07-22 | 2019-11-15 | 深圳普捷利科技有限公司 | 一种基于fmcw毫米波雷达的即时定位方法及系统 |
CN112346048A (zh) * | 2020-09-25 | 2021-02-09 | 深圳捷豹电波科技有限公司 | 一种基于毫米波的火灾探测搜救系统及方法 |
CN113255504A (zh) * | 2021-05-19 | 2021-08-13 | 燕山大学 | 一种基于深度学习的路侧视角超视距全域融合感知系统 |
CN113843788A (zh) * | 2021-06-03 | 2021-12-28 | 安徽师范大学 | 一种基于毫米波与惯性融合导航的安防机器人 |
CN113189575A (zh) * | 2021-07-01 | 2021-07-30 | 长沙莫之比智能科技有限公司 | 一种用于烟雾场景下人员定位的探测方法和装置 |
CN114782636A (zh) * | 2022-05-17 | 2022-07-22 | 江苏集萃深度感知技术研究所有限公司 | 三维重建方法、装置及系统 |
Non-Patent Citations (2)
Title |
---|
Milli-RIO: Ego-Motion Estimation With Low-Cost Millimetre-Wave Radar;Yasin Almalioglu et al.;《IEEE SENSORS JOURNAL》;20210201;第21卷(第3期);正文第3314-3323页 * |
浅析森林火情快速高分辨毫米波监测技术;祁嘉然;《消防科学与技术》;20210331;第40卷(第3期);正文第409-411、421页 * |
Also Published As
Publication number | Publication date |
---|---|
CN114994672A (zh) | 2022-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102001728B1 (ko) | 스테레오 카메라 드론을 활용한 무기준점 3차원 위치좌표 취득 방법 및 시스템 | |
EP3321888B1 (en) | Projected image generation method and device, and method for mapping image pixels and depth values | |
US7516039B2 (en) | Mapping systems and methods | |
CN106802668B (zh) | 基于双目与超声波融合的无人机三维避撞方法及系统 | |
CN102620737B (zh) | 用于生成建筑物地图的便携式外壳 | |
CN107783106B (zh) | 无人机与障碍物之间的数据融合方法 | |
CN107783545B (zh) | 基于ooda环多传感器信息融合的灾后救援旋翼无人机避障系统 | |
CN102288176B (zh) | 基于信息融合的煤矿救灾机器人导航系统及方法 | |
CN208953962U (zh) | 一种机器人感知系统及机器人 | |
CN109141433A (zh) | 一种机器人室内定位系统及定位方法 | |
CN108139758A (zh) | 基于显著性特征的载运工具定位 | |
CN106017463A (zh) | 一种基于定位传感装置的飞行器定位方法 | |
CN106197429A (zh) | 一种多信息融合定位设备及系统 | |
Ahmad et al. | Digital aerial imagery of unmanned aerial vehicle for various applications | |
CN106643739A (zh) | 一种室内环境人员定位方法及系统 | |
CN115574816B (zh) | 仿生视觉多源信息智能感知无人平台 | |
CN107783119A (zh) | 应用在避障系统中的决策融合方法 | |
CN109764869A (zh) | 一种双目相机和惯导融合的自主巡检机器人定位与三维地图构建方法 | |
Karam et al. | Integrating a low-cost mems imu into a laser-based slam for indoor mobile mapping | |
CN111402702A (zh) | 地图构建方法、装置及系统 | |
Ariante | Embedded system for precision positioning, detection, and avoidance (PODA) for small UAS | |
Sternberg et al. | Precise indoor mapping as a basis for coarse indoor navigation | |
CN114994672B (zh) | 毫米波雷达惯性组合的火场烟雾场景定位建图方法与装置 | |
US12031826B2 (en) | Methods and systems for path-based mapping and routing | |
CN113324526A (zh) | 一种面向滑坡体的无人机立面航线摄影参数确定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |