CN117073671A - 一种基于无人机多点测量的火场定位方法和系统 - Google Patents

一种基于无人机多点测量的火场定位方法和系统 Download PDF

Info

Publication number
CN117073671A
CN117073671A CN202311321551.3A CN202311321551A CN117073671A CN 117073671 A CN117073671 A CN 117073671A CN 202311321551 A CN202311321551 A CN 202311321551A CN 117073671 A CN117073671 A CN 117073671A
Authority
CN
China
Prior art keywords
fire scene
aerial vehicle
unmanned aerial
positioning
fire
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311321551.3A
Other languages
English (en)
Other versions
CN117073671B (zh
Inventor
张巧
樊富友
王国杰
王贺
陈振教
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan Guanghua Defense Technology Group Co ltd
Original Assignee
Hunan Guanghua Defense Technology Group Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan Guanghua Defense Technology Group Co ltd filed Critical Hunan Guanghua Defense Technology Group Co ltd
Priority to CN202311321551.3A priority Critical patent/CN117073671B/zh
Publication of CN117073671A publication Critical patent/CN117073671A/zh
Application granted granted Critical
Publication of CN117073671B publication Critical patent/CN117073671B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/0014Radiation pyrometry, e.g. infrared or optical thermometry for sensing the radiation from gases, flames
    • G01J5/0018Flames, plasma or welding
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/48Thermography; Techniques using wholly visual means
    • G01J5/485Temperature profile
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/49Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an inertial position system, e.g. loosely-coupled
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20216Image averaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Plasma & Fusion (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了一种基于无人机多点测量的火场定位方法和系统,包括:S1:使用无人机搭载的红外热像仪拍摄火场图像,并对图像进行预处理;S2:基于深度学习网络计算火场高温中心,并调整无人机所在位置和拍摄角度,直到火场高温中心位于火场图像的正中心;S3:使用无人机上的惯性测量单元和全球定位系统传感器,获得无人机的当前姿态参数,并使用当前姿态参数对火场进行定位;S4:对无人机的初始点姿态参数加入随机噪声生成噪声样本,基于噪声样本计算定位结果;S5:获取无人机多点姿态参数,迭代更新火场定位结果。本发明能够利用无人机多点测量、深度学习、姿态融合和迭代优化等技术,有效提高火场定位的精度和效率。

Description

一种基于无人机多点测量的火场定位方法和系统
技术领域
本发明涉及火场定位的技术领域,尤其涉及一种基于无人机多点测量的火场定位方法和系统。
背景技术
目前,火灾的及时定位对于有效的灭火和应急响应至关重要。然而,传统的火场定位方法在准确性、效率和应用范围方面存在一定的局限性。其中,单一测量点的定位方法容易受到传感器误差和姿态变化的影响,难以满足高精度定位需求。传统方法通常依赖于单一传感器数据来进行火场定位,但传感器误差和噪声可能导致定位结果的不稳定和不准确。火场定位需要考虑无人机的姿态变化,然而传统方法难以有效地融合姿态信息,从而导致定位偏差。
发明内容
有鉴于此,本发明提供一种基于无人机多点测量的火场定位方法,目的在于利用无人机多点测量、深度学习、姿态融合和迭代优化等技术,有效提高火场定位的精度和效率。
实现上述目的,本发明提供的一种基于无人机多点测量的火场定位方法,包括以下步骤:
S1:使用无人机搭载的红外热像仪拍摄火场图像,并对图像进行预处理;
S2:基于深度学习网络计算火场高温中心,并调整无人机所在位置和拍摄角度,直到火场高温中心位于火场图像的正中心;
S3:使用无人机上的惯性测量单元和全球定位系统传感器,获得无人机的当前姿态参数,并使用当前姿态参数对火场进行定位;
S4:对无人机的初始点姿态参数加入随机噪声生成噪声样本,基于噪声样本计算定位结果;
S5:获取无人机多点姿态参数,迭代更新火场定位结果。
作为本发明的进一步改进方法:
可选地,所述S1步骤中使用无人机搭载的红外热像仪拍摄火场图像,并对图像进行降噪,包括:
使用无人机搭载的红外热像仪拍摄火场图像,并对图像进行降噪,所述降噪为基于自适应滤波的图像降噪,计算方式为:
其中,为火场图像;/>为降噪后的火场图像;/>为图像像素位置;/>为火场图像/>位置处的像素值;/>为降噪后的火场图/>位置处的像素值;/>是图像以/>为中心/>范围内像素的平均值,计算方式为:
其中,;/>
为滤波器参数,计算方式为:
其中,为噪声方差;/>的表达式为:
可选地,所述S2步骤中基于深度学习网络计算火场高温中心,并调整无人机所在位置和拍摄角度,直到火场高温中心位于火场图像的正中心,包括:
S21:构建火场高温中心定位网络:
其中,为基于VGG-16构建的火场高温中心定位网络;/>,表示火场高温中心定位网络预测出的火场高温中心在图像上的横纵坐标;/>为火场高温中心定位网络的参数;
S22:设定火场高温中心定位网络的损失函数
其中,表示火场高温中心在图像上真实的横纵坐标;
S23:基于损失函数优化火场高温中心定位网络参数:
使用梯度下降算法更新火场高温中心定位网络参数,梯度下降过程为:
其中,和/>分别是火场高温中心定位网络参数第/>次和第/>次优化结果;代表更新次数;/>为学习率,控制参数更新速度;/>的计算方式为:
其中,和/>为调整系数;/>为/>关于/>的偏导;/>、/>、/>和/>为中间变量;/>;/>
完成火场高温中心定位网络参数更新后,获取无人机拍摄的火场图像中的火场高温中心,并根据当前火场高温中心调整无人机所在位置和拍摄角度,直到火场高温中心位于火场图像的正中心;
可选地,所述S3步骤中使用无人机上的惯性测量单元和全球定位系统传感器,获得无人机的当前姿态参数,并使用当前姿态参数对火场进行定位,包括:
使用无人机上的惯性测量单元和全球定位系统传感器,获得无人机的当前姿态参数,当前姿态参数包括无人机所在三维空间位置、无人机俯仰角/>、无人机滚转角/>、无人机航向角/>和无人机与火场高温中心的距离/>,并使用当前姿态参数对火场进行定位,所述定位过程为:
其中,表示无人机单点定位函数;/>表示无人机所在三维空间位置;/>表示火场所在三维空间位置;所述无人机单点定位函数的具体计算方式为:
S31:将无人机与火场高温中心的距离转化为三维空间中的距离:
其中,表示无人机坐标系下的距离;
S32:计算火场所在位置空间坐标:
可选地,所述S4步骤中对无人机的初始点姿态参数加入随机噪声生成噪声样本,基于噪声样本计算定位结果,
对无人机的初始点姿态参数加入随机噪声生成噪声样本,所述生成过程为:
其中,表示无人机初始点所在三维空间位置的第/>个噪声样本,/>表示无人机初始点俯仰角的第/>个噪声样本,/>表示无人机初始点滚转角的第/>个噪声样本,表示无人机初始点航向角的第/>个噪声样本,/>表示无人机初始点与火场高温中心的距离的第/>个噪声样本,/>表示噪声样本序号,/>,/>为噪声样本总数;/>表示正太分布;/>表示无人机初始点所在三维空间位置的测量值,/>表示无人机初始点俯仰角的测量值,/>表示无人机初始点滚转角的测量值,/>表示无人机初始点航向角的测量值,/>表示无人机初始点与火场高温中心的距离的测量值;/>表示无人机初始点所在三维空间位置的测量误差均方差,/>表示无人机初始点俯仰角的测量误差均方差,/>表示无人机初始点滚转角的测量误差均方差,/>表示无人机初始点航向角的测量误差均方差,/>表示无人机初始点与火场高温中心的距离的测量误差均方差;
将生成的噪声样本分别输入无人机单点定位函数,得到初始点火场定位结果样本集
其中,表示将无人机初始点的第/>个噪声样本输入无人机单点定位函数获得的火场定位结果样本,即:
基于初始点火场定位结果样本集计算初始火场定位结果
可选地,所述S5步骤中获取无人机多点姿态参数,迭代更新火场定位结果,包括:
S51:生成无人机第个点所在三维空间位置的噪声样本集:
其中,表示无人机第/>个点所在三维空间位置的第/>个噪声样本,,/>表示无人机火场观测点总数;/>表示无人机第/>个点所在三维空间位置的测量值;/>表示无人机第/>个点的测量误差均方差;
S52:计算无人机与火场高温中心的距离
其中,,/>,/>表示无人机在第点火场定位结果样本集;
S53:根据无人机在第点采集的数据获得优化后的火场定位结果/>
其中,为无人机在第/>点激光测距值;/>为根据无人机在第/>点采集的数据获得的优化后的火场定位结果;
本发明还公开了一种基于无人机多点测量的火场定位系统,包括:
图像预处理模块:使用无人机搭载的红外热像仪拍摄火场图像,并对图像进行预处理;
高温中心检测模块:基于深度学习网络计算火场高温中心;
单点定位模块:基于无人机的初始点姿态参数对火场进行定位;
噪声计算模块:对无人机的当前姿态参数加入随机噪声生成噪声样本,基于噪声样本计算定位结果;
多点定位模块:获取无人机多点姿态参数,迭代更新火场定位结果;
有益效果
本发明利用多点测量数据,包括火源高温中心、无人机姿态参数等,通过深度学习和姿态融合等方法,将多个信息源融合在一起,减小了单一传感器误差和姿态变化对定位精度的影响。因此,与传统方法相比,本发明能够获得更为准确的火场定位结果。
本发明引入随机噪声样本来计算定位结果,从而考虑了传感器噪声和姿态变化等不确定性因素。这使得定位结果更具鲁棒性,能够在实际环境中更好地适应传感器误差、飞行震动等不可预测因素。
通过利用深度学习网络计算火场高温中心,并调整无人机位置和拍摄角度,使高温中心位于图像中心,本发明能够避免频繁地调整无人机位置和姿态,从而提高了定位效率。这在应急场景下尤为重要,能够迅速获取火源位置信息,以便灭火和救援。
本发明结合了无人机、深度学习、姿态融合和迭代优化等多种技术,充分发挥了各种技术的优势。这使得方法不仅在准确性上得到提升,还在实际操作中更易于实施,有助于提高无人机应用在火场定位领域的实用性和可行性。
本发明通过迭代更新火场定位结果,充分利用多个无人机的姿态参数,进一步提高了定位精度。这有助于优化资源利用,最大程度地发挥多无人机联合定位的优势,为灭火和应急救援提供更精确的支持。
附图说明
图1为本发明一实施例的一种基于无人机多点测量的火场定位方法的流程示意图;
具体实施方式
下面结合附图对本发明作进一步的说明,但不以任何方式对本发明加以限制,基于本发明教导所作的任何变换或替换,均属于本发明的保护范围。
实施例1:一种基于无人机多点测量的火场定位方法,如图1所示,包括以下步骤:
S1:使用无人机搭载的红外热像仪拍摄火场图像,并对图像进行预处理:
使用无人机搭载的红外热像仪拍摄火场图像,并对图像进行降噪,所述降噪为基于自适应滤波的图像降噪,计算方式为:
其中,为火场图像;/>为降噪后的火场图像;/>为图像像素位置;/>为火场图像/>位置处的像素值;/>为降噪后的火场图/>位置处的像素值;/>是图像以/>为中心/>范围内像素的平均值,计算方式为:
其中,;/>
为滤波器参数,计算方式为:
其中,为噪声方差;/>的表达式为:
基于自适应滤波的图像降噪技术可以根据图像局部特征进行滤波,有效去除噪声,从而显著提高图像质量。自适应滤波方法可以根据图像的细节和边缘信息进行调整,以在去除噪声的同时保留图像的重要细节。在火场定位中,火源的细节信息对于精确定位非常重要,因此能够保留这些细节信息有助于提高定位准确度。火场图像中的火源通常表现为高温区域,而降噪技术有助于减少误报和干扰,使火源在图像中更加清晰可见。这将有助于深度学习网络更准确地识别和定位火源高温中心,从而为后续的定位步骤提供更可靠的输入。
S2:基于深度学习网络计算火场高温中心,并调整无人机所在位置和拍摄角度,直到火场高温中心位于火场图像的正中心:
S21:构建火场高温中心定位网络:
其中,为基于VGG-16构建的火场高温中心定位网络;/>,表示火场高温中心定位网络预测出的火场高温中心在图像上的横纵坐标;/>为火场高温中心定位网络的参数;
S22:设定火场高温中心定位网络的损失函数
其中,表示火场高温中心在图像上真实的横纵坐标;
S23:基于损失函数优化火场高温中心定位网络参数:
使用梯度下降算法更新火场高温中心定位网络参数,梯度下降过程为:
其中,和/>分别是火场高温中心定位网络参数第/>次和第/>次优化结果;代表更新次数;/>为学习率,控制参数更新速度;/>的计算方式为:
其中,和/>为调整系数,本实施例中/>,/>;/>为/>关于/>的偏导;/>、/>、/>和/>为中间变量;/>;/>
完成火场高温中心定位网络参数更新后,获取无人机拍摄的火场图像中的火场高温中心,并根据当前火场高温中心调整无人机所在位置和拍摄角度,直到火场高温中心位于火场图像的正中心;
传统的火场定位方法可能需要人工干预来确定火源的位置,而基于深度学习的方法可以自动计算高温中心。这不仅提高了定位的自动化程度,还减少了人力成本和操作时间。深度学习网络在图像处理领域表现出色,能够从图像中学习出高温区域的特征,从而准确计算火场的高温中心位置。通过精确定位高温中心,能够更准确地定位火源位置。调整无人机的位置和拍摄角度,使高温中心位于图像的正中心,能够提供更直观的火源位置信息。这有助于后续定位步骤的准确性,同时也可以在火场定位的早期阶段提供更可靠的参考,加快定位流程。
S3:使用无人机上的惯性测量单元和全球定位系统传感器,获得无人机的当前姿态参数,并使用当前姿态参数对火场进行定位:
使用无人机上的惯性测量单元和全球定位系统传感器,获得无人机的当前姿态参数,当前姿态参数包括无人机所在三维空间位置、无人机俯仰角/>、无人机滚转角/>、无人机航向角/>和无人机与火场高温中心的距离/>,并使用当前姿态参数对火场进行定位,所述定位过程为:
其中,表示无人机单点定位函数;/>表示无人机所在三维空间位置;/>表示火场所在三维空间位置;所述无人机单点定位函数的具体计算方式为:
S31:将无人机与火场高温中心的距离转化为三维空间中的距离:
其中,表示无人机坐标系下的距离;
S32:计算火场所在位置空间坐标:
结合惯性测量单元和全球定位系统传感器的数据,能够获得更全面、准确的无人机姿态参数。这些信息源的综合利用有助于提高定位的精度和鲁棒性。无人机的位置、俯仰角、滚转角和航向角等姿态参数是定位火源所必需的信息。通过惯性测量单元和全球定位系统传感器,可以准确测量这些参数,从而为后续的定位计算提供了基础数据。当前姿态参数中还包括无人机与火场高温中心之间的距离信息。这有助于考虑无人机与火源之间的距离,将距离信息融入定位计算,从而提高定位的准确性。
S4:对无人机的初始点姿态参数加入随机噪声生成噪声样本,基于噪声样本计算定位结果:
对无人机的初始点姿态参数加入随机噪声生成噪声样本,所述生成过程为:
其中,表示无人机初始点所在三维空间位置的第/>个噪声样本,/>表示无人机初始点俯仰角的第/>个噪声样本,/>表示无人机初始点滚转角的第/>个噪声样本,表示无人机初始点航向角的第/>个噪声样本,/>表示无人机初始点与火场高温中心的距离的第/>个噪声样本,/>表示噪声样本序号,/>,/>为噪声样本总数;/>表示正太分布;/>表示无人机初始点所在三维空间位置的测量值,/>表示无人机初始点俯仰角的测量值,/>表示无人机初始点滚转角的测量值,/>表示无人机初始点航向角的测量值,/>表示无人机初始点与火场高温中心的距离的测量值;/>表示无人机初始点所在三维空间位置的测量误差均方差,/>表示无人机初始点俯仰角的测量误差均方差,/>表示无人机初始点滚转角的测量误差均方差,/>表示无人机初始点航向角的测量误差均方差,/>表示无人机初始点与火场高温中心的距离的测量误差均方差;
将生成的噪声样本分别输入无人机单点定位函数,得到初始点火场定位结果样本集
其中,表示将无人机初始点的第/>个噪声样本输入无人机单点定位函数获得的火场定位结果样本,即:
基于初始点火场定位结果样本集计算初始火场定位结果
噪声样本的引入使得可以评估定位结果在不同噪声水平下的变化情况。通过分析噪声样本的计算结果,可以得出定位结果的稳定性和可信度。引入噪声样本可以更好地模拟现实火场定位场景,其中各种不确定性和噪声都可能影响定位结果。
S5:获取无人机多点姿态参数,迭代更新火场定位结果:
S51:生成无人机第个点所在三维空间位置的噪声样本集:
其中,表示无人机第/>个点所在三维空间位置的第/>个噪声样本,,/>表示无人机火场观测点总数;/>表示无人机第/>个点所在三维空间位置的测量值;/>表示无人机第/>个点的测量误差均方差;
S52:计算无人机与火场高温中心的距离
其中,,/>,/>表示无人机在第点火场定位结果样本集;
S53:根据无人机在第点采集的数据获得优化后的火场定位结果/>
其中,为无人机在第/>点激光测距值;/>为根据无人机在第/>点采集的数据获得的优化后的火场定位结果;
无人机多点观测火场,可以获取不同视角下的姿态参数。这些不同视角的观测可以提供更全面、多样化的信息,有助于准确定位火源。不同位置的姿态参数包含了无人机在空间中的方向和角度变化。将这些信息结合起来,能够更好地了解火源位置相对于无人机的空间关系,从而提高定位精度。将多个不同位置下的姿态参数融合起来,可以消除特定位置误差和姿态变化对定位的影响。通过多点观测的融合,能够得到更稳定和准确的火源定位结果。不同位置下的姿态参数可以用于矫正可能存在的位置误差。通过迭代更新,可以逐步减小位置误差,使定位结果更接近真实火源位置。
实施例2:本发明还公开了一种基于无人机多点测量的火场定位系统,包括以下五个模块:
图像预处理模块:使用无人机搭载的红外热像仪拍摄火场图像,并对图像进行预处理;
高温中心检测模块:基于深度学习网络计算火场高温中心;
单点定位模块:基于无人机的当前姿态参数对火场进行定位;
噪声计算模块:对无人机的初始点姿态参数加入随机噪声生成噪声样本,基于噪声样本计算定位结果;
多点定位模块:获取无人机多点姿态参数,迭代更新火场定位结果。
需要说明的是,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。并且本文中的术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (7)

1.一种基于无人机多点测量的火场定位方法,其特征在于,包括以下步骤:
S1:使用无人机搭载的红外热像仪拍摄火场图像,并对图像进行预处理;
S2:基于深度学习网络计算火场高温中心,并调整无人机所在位置和拍摄角度,直到火场高温中心位于火场图像的正中心;
S3:使用无人机上的惯性测量单元和全球定位系统传感器,获得无人机的当前姿态参数,并使用当前姿态参数对火场进行定位;
S4:对无人机的初始点姿态参数加入随机噪声生成噪声样本,基于噪声样本计算定位结果;
S5:获取无人机多点姿态参数,迭代更新火场定位结果。
2.根据权利要求1所述的基于无人机多点测量的火场定位方法,其特征在于,所述步骤S1中,包括以下步骤:
使用无人机搭载的红外热像仪拍摄火场图像,并对图像进行降噪,所述降噪为基于自适应滤波的图像降噪,计算方式为:
其中,为火场图像;/>为降噪后的火场图像;/>为图像像素位置;/>为火场图像/>位置处的像素值;/>为降噪后的火场图/>位置处的像素值;/>是图像以/>为中心/>范围内像素的平均值,计算方式为:
其中,;/>
为滤波器参数,计算方式为:
其中,为噪声方差;/>的表达式为:
3.根据权利要求2所述的基于无人机多点测量的火场定位方法,其特征在于,所述步骤S2中,包括以下步骤:
S21:构建火场高温中心定位网络:
其中,为基于VGG-16构建的火场高温中心定位网络;/>,表示火场高温中心定位网络预测出的火场高温中心在图像上的横纵坐标;/>为火场高温中心定位网络的参数;
S22:设定火场高温中心定位网络的损失函数
其中,表示火场高温中心在图像上真实的横纵坐标;
S23:基于损失函数优化火场高温中心定位网络参数:
使用梯度下降算法更新火场高温中心定位网络参数,梯度下降过程为:
其中,和/>分别是火场高温中心定位网络参数第/>次和第/>次优化结果;/>代表更新次数;/>为学习率,控制参数更新速度;/>的计算方式为:
其中,和/>为调整系数;/>为/>关于/>的偏导;/>、/>、/>和/>为中间变量;/>;/>
完成火场高温中心定位网络参数更新后,获取无人机拍摄的火场图像中的火场高温中心,并根据当前火场高温中心调整无人机所在位置和拍摄角度,直到火场高温中心位于火场图像的正中心。
4.根据权利要求3所述的基于无人机多点测量的火场定位方法,其特征在于,所述步骤S3中,包括以下步骤:
使用无人机上的惯性测量单元和全球定位系统传感器,获得无人机的当前姿态参数,当前姿态参数包括无人机所在三维空间位置、无人机俯仰角/>、无人机滚转角/>、无人机航向角/>、无人机与火场高温中心的距离/>,并使用当前姿态参数对火场进行定位,所述定位过程为:
其中,表示无人机单点定位函数;/>表示无人机所在三维空间位置;表示火场所在三维空间位置;所述无人机单点定位函数的具体计算方式为:
S31:将无人机与火场高温中心的距离转化为三维空间中的距离:
其中,表示无人机坐标系下的距离;
S32:计算火场所在位置空间坐标:
5.根据权利要求4所述的基于无人机多点测量的火场定位方法,其特征在于,所述步骤S4中,包括以下步骤:
对无人机的初始点姿态参数加入随机噪声生成噪声样本,所述生成过程为:
其中,表示无人机初始点所在三维空间位置的第/>个噪声样本,/>表示无人机初始点俯仰角的第/>个噪声样本,/>表示无人机初始点滚转角的第/>个噪声样本,/>表示无人机初始点航向角的第/>个噪声样本,/>表示无人机初始点与火场高温中心的距离的第个噪声样本,/>表示噪声样本序号,/>,/>为噪声样本总数;/>表示正太分布;/>表示无人机初始点所在三维空间位置的测量值,/>表示无人机初始点俯仰角的测量值,/>表示无人机初始点滚转角的测量值,/>表示无人机初始点航向角的测量值,表示无人机初始点与火场高温中心的距离的测量值;/>表示无人机初始点所在三维空间位置的测量误差均方差,/>表示无人机初始点俯仰角的测量误差均方差,/>表示无人机初始点滚转角的测量误差均方差,/>表示无人机初始点航向角的测量误差均方差,/>表示无人机初始点与火场高温中心的距离的测量误差均方差;
将生成的噪声样本分别输入无人机单点定位函数,得到初始点火场定位结果样本集
其中,表示将无人机初始点的第/>个噪声样本输入无人机单点定位函数获得的火场定位结果样本,即:
基于初始点火场定位结果样本集计算初始火场定位结果
6.根据权利要求5所述的基于无人机多点测量的火场定位方法,其特征在于,所述步骤S5中,包括以下步骤:
S51:生成无人机第个点所在三维空间位置的噪声样本集:
;其中,/>表示无人机第/>个点所在三维空间位置的第/>个噪声样本,/>,/>表示无人机火场观测点总数;/>表示无人机第/>个点所在三维空间位置的测量值;/>表示无人机第/>个点的测量误差均方差;
S52:计算无人机与火场高温中心的距离
其中,,/>,/>表示无人机在第/>点火场定位结果样本集;
S53:根据无人机在第点采集的数据获得优化后的火场定位结果/>
其中,为无人机在第/>点激光测距值;/>为根据无人机在第/>点采集的数据获得的优化后的火场定位结果。
7.一种基于无人机多点测量的火场定位系统,其特征在于,包括:
图像预处理模块:使用无人机搭载的红外热像仪拍摄火场图像,并对图像进行预处理;
高温中心检测模块:基于深度学习网络计算火场高温中心;
单点定位模块:基于无人机的当前姿态参数对火场进行定位;
噪声计算模块:对无人机的初始点姿态参数加入随机噪声生成噪声样本,基于噪声样本计算定位结果;
多点定位模块:获取无人机多点姿态参数,迭代更新火场定位结果;
以实现如权利要求1-6任意一项所述的一种基于无人机多点测量的火场定位方法。
CN202311321551.3A 2023-10-13 2023-10-13 一种基于无人机多点测量的火场定位方法和系统 Active CN117073671B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311321551.3A CN117073671B (zh) 2023-10-13 2023-10-13 一种基于无人机多点测量的火场定位方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311321551.3A CN117073671B (zh) 2023-10-13 2023-10-13 一种基于无人机多点测量的火场定位方法和系统

Publications (2)

Publication Number Publication Date
CN117073671A true CN117073671A (zh) 2023-11-17
CN117073671B CN117073671B (zh) 2023-12-22

Family

ID=88704515

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311321551.3A Active CN117073671B (zh) 2023-10-13 2023-10-13 一种基于无人机多点测量的火场定位方法和系统

Country Status (1)

Country Link
CN (1) CN117073671B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117422717A (zh) * 2023-12-19 2024-01-19 长沙韶光芯材科技有限公司 一种掩膜板污渍智能定位方法和系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170234724A1 (en) * 2016-02-17 2017-08-17 Qualcomm Incorporated Device for uav detection and identification
KR20170101516A (ko) * 2016-02-29 2017-09-06 한국전자통신연구원 무인 항공기를 이용한 화재 감시 장치 및 방법
US9977963B1 (en) * 2017-03-03 2018-05-22 Northrop Grumman Systems Corporation UAVs for tracking the growth of large-area wildland fires
CN112668397A (zh) * 2020-12-04 2021-04-16 普宙飞行器科技(深圳)有限公司 火情实时检测分析方法、系统、存储介质及电子设备
CN116206223A (zh) * 2023-02-20 2023-06-02 武汉理工大学 一种基于无人机边缘计算的火灾检测方法及系统
WO2023150888A1 (en) * 2022-02-11 2023-08-17 Hummingbird Drones Inc. System and method for firefighting and locating hotspots of a wildfire

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170234724A1 (en) * 2016-02-17 2017-08-17 Qualcomm Incorporated Device for uav detection and identification
KR20170101516A (ko) * 2016-02-29 2017-09-06 한국전자통신연구원 무인 항공기를 이용한 화재 감시 장치 및 방법
US9977963B1 (en) * 2017-03-03 2018-05-22 Northrop Grumman Systems Corporation UAVs for tracking the growth of large-area wildland fires
CN112668397A (zh) * 2020-12-04 2021-04-16 普宙飞行器科技(深圳)有限公司 火情实时检测分析方法、系统、存储介质及电子设备
WO2023150888A1 (en) * 2022-02-11 2023-08-17 Hummingbird Drones Inc. System and method for firefighting and locating hotspots of a wildfire
CN116206223A (zh) * 2023-02-20 2023-06-02 武汉理工大学 一种基于无人机边缘计算的火灾检测方法及系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
FRANCESCO DE VIVO 等: "Infra-red line carema data-driven edge detector in UAV forest fire monitoring", AEROSPACE SCIENCE AND TECHNOLOGY, pages 1 - 8 *
徐燕翔;裴海龙;: "基于无人机的森林火灾检测系统", 计算机工程与设计, vol. 39, no. 06, pages 1591 - 1596 *
施丽娟 等: "无人机多点测距目标定位算法及其误差特性研究", 航空计算技术, vol. 45, no. 04, pages 57 - 60 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117422717A (zh) * 2023-12-19 2024-01-19 长沙韶光芯材科技有限公司 一种掩膜板污渍智能定位方法和系统
CN117422717B (zh) * 2023-12-19 2024-02-23 长沙韶光芯材科技有限公司 一种掩膜板污渍智能定位方法和系统

Also Published As

Publication number Publication date
CN117073671B (zh) 2023-12-22

Similar Documents

Publication Publication Date Title
EP3454008A1 (en) Survey data processing device, survey data processing method, and survey data processing program
CN117073671B (zh) 一种基于无人机多点测量的火场定位方法和系统
CN110081881B (zh) 一种基于无人机多传感器信息融合技术的着舰引导方法
CN107067437B (zh) 一种基于多视几何和光束法平差的无人机定位系统及方法
CN113050116A (zh) 机器人定位方法、装置、机器人和可读存储介质
CN107330927B (zh) 机载可见光图像定位方法
JP2012128661A (ja) 情報処理装置、情報処理方法及びプログラム
CN112733428B (zh) 一种光学测量的扫描姿态与覆盖路径规划方法
WO2018133591A1 (zh) 一种无人机的高精度跟随方法及其系统
CN112005077A (zh) 无人航空器的设置台、测量方法、测量装置、测量系统和程序
CN109883398A (zh) 基于无人机倾斜摄影的植株绿量提取的系统及方法
CN111862214A (zh) 计算机设备定位方法、装置、计算机设备和存储介质
WO2024119705A1 (zh) 针对消防炮的射流落点检测及灭火控制的方法和装置
CN115588144A (zh) 基于高斯动态阈值筛选的实时姿态捕捉方法及装置、设备
CN110927665A (zh) 一种千寻云迹虚拟参考站定位精度的验证方法及系统
CN116758234A (zh) 一种基于多点云数据融合的山地地形建模方法
CN115950435A (zh) 无人机巡检影像的实时定位方法
CN118500353A (zh) 一种基于激光点云数据的双曲线型冷却塔倾斜状态识别方法
CN114018212B (zh) 面向球型摄像机单目测距的俯仰角校正方法及系统
CN117518196A (zh) 一种激光雷达的运动补偿方法、装置、系统、设备及介质
CN114608540B (zh) 一种数字摄影测量系统的测量网型确定方法
CN113790711B (zh) 一种无人机低空飞行位姿无控多视测量方法及存储介质
CN114821372A (zh) 基于单目视觉的无人机编队中个体相对位姿测量方法
CN114419259A (zh) 一种基于物理模型成像仿真的视觉定位方法及系统
CN113804183B (zh) 一种实时地形测绘方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant