CN106683038B - 一种生成火情态势图的方法及装置 - Google Patents

一种生成火情态势图的方法及装置 Download PDF

Info

Publication number
CN106683038B
CN106683038B CN201611024452.9A CN201611024452A CN106683038B CN 106683038 B CN106683038 B CN 106683038B CN 201611024452 A CN201611024452 A CN 201611024452A CN 106683038 B CN106683038 B CN 106683038B
Authority
CN
China
Prior art keywords
image
dimensional
visible light
positive
infrared
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201611024452.9A
Other languages
English (en)
Other versions
CN106683038A (zh
Inventor
王山
于虹
马仪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electric Power Research Institute of Yunnan Power Grid Co Ltd
Original Assignee
Electric Power Research Institute of Yunnan Power Grid Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electric Power Research Institute of Yunnan Power Grid Co Ltd filed Critical Electric Power Research Institute of Yunnan Power Grid Co Ltd
Priority to CN201611024452.9A priority Critical patent/CN106683038B/zh
Publication of CN106683038A publication Critical patent/CN106683038A/zh
Application granted granted Critical
Publication of CN106683038B publication Critical patent/CN106683038B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/06Topological mapping of higher dimensional structures onto lower dimensional surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

本发明公开了一种生成火情态势图的方法及装置,涉及图像处理技术领域,为解决无法根据无人机遥感多光谱图像生成火情态势图的问题而发明,本发明的主要方法包括:获取红外图像和可见光图像;根据透视投影变换模型,将红外图像转换成红外伪正摄图,将可见光图像转换成可见光伪正摄图;根据拍摄时刻的无人机姿态参数和相机成像参数,计算红外图像和可见光图像的每个像素点,与实际地势对应的映射关系;根据映射关系,纠正红外伪正摄图和可见光伪正摄图,得到红外正摄图和可见光正摄图;将红外正摄图和可见光正摄图进行融合,生成火情态势图。本发明主要应用于火情态势图生成的过程中。

Description

一种生成火情态势图的方法及装置
技术领域
本发明涉及图像处理技术领域,特别涉及一种生成火情态势图的方法及装置。
背景技术
随着无人机在电力巡检领域的应用得到了越来越多的认可,利用无人机搭载进行输电线路山火应急特巡成为一种灾情监测的有效手段。无人机进行寻线山火监测时,为了能够直观的展示火场态势信息,需要充分利用火场不同光谱信息数据,进行后期处理形成可视化信息,也就是火情态势图,从而便于直观的掌握火场现场信息。
无人机拍摄回来的数据量庞大,图片极多,特别多光谱照片间的差别人工难以分辨,加上火情态势图的生成方法步骤繁琐,人工计算极其不便,且需要耗费大量时间,若出现计算错误生成的火情态势图就难以反映火场真实情况,则导致延误山火灾情的救援与监测。
无人机搭载可见光载荷获取的可见光图像,能够最直观的反应火场地物分布情况;红外相机能够反应火场红外光谱分布情况,通过计算还能够计算出火场地物温度分布情况;可见光和红外信息能够比较全面的反应火场基本情况。在可见光和红外数据完备的情况下,如何进行数据处理成为关键,不仅需要保证可视化效果,还需要提供比较精确的火场要素相关数据。但到目前为止,还没有利用无人机遥感多光谱图像生成火情态势图的研究。
发明内容
本发明的发明目的在于提供一种生成火情态势图的方法及装置,能够解决无法根据无人机遥感多光谱图像生成火情态势图的问题。
一方面,根据本发明的实施例,提供了一种生成火情态势图的方法,包括:
获取红外图像和可见光图像,所述红外图像和所述可见光图像在同一拍摄时刻拍摄,所述红外图像和所述可见光图像的图像信息都包括每个像素点对应的地理坐标;
根据透视投影变换模型,将所述红外图像转换成红外伪正摄图,将所述可见光图像转换成可见光伪正摄图;
根据所述拍摄时刻的无人机姿态参数和相机成像参数,计算所述红外图像和所述可见光图像的每个像素点,与实际地势对应的映射关系;
根据所述映射关系,纠正所述红外伪正摄图和所述可见光伪正摄图,得到红外正摄图和可见光正摄图;
将所述红外正摄图和所述可见光正摄图进行融合,生成火情态势图。
另一方面,根据本发明的实施例,提供了一种生成火情态势图的装置,包括:
第一获取单元,用于获取红外图像和可见光图像,所述红外图像和所述可见光图像在同一拍摄时刻拍摄,所述红外图像和所述可见光图像的图像信息都包括每个像素点对应的地理坐标;
转换单元,用于根据透视投影变换模型,将所述红外图像转换成红外伪正摄图,将所述可见光图像转换成可见光伪正摄图;
第一计算单元,用于根据所述拍摄时刻的无人机姿态参数和相机成像参数,计算所述红外图像和所述可见光图像的每个像素点,与实际地势对应的映射关系;
纠正单元,用于根据所述映射关系,纠正所述红外伪正摄图和所述可见光伪正摄图,得到红外正摄图和可见光正摄图;
第一生成单元,用于将所述红外正摄图和所述可见光正摄图进行融合,生成火情态势图。
由以上技术方案可知,本发明提供了一种生成火情态势图的方法及装置,通过同时获取红外图像和可见光图像,然后根据透视投影变换模型,将红外图像转换成红外伪正摄图,将可见光图像转换成可见光伪正摄图,再根据拍摄时刻的无人机姿态参数和相机成像参数,计算红外图像和可见光图像的每个像素点与实际地势对应的映射关系,再根据映射关系,纠正红外伪正摄图和可见光伪正摄图,得到红外正摄图和可见光正摄图,最后将红外正摄图和可见光正摄图进行融合,生成火情态势图。与现有技术相比,本发明能够纠正由无人机姿态不同和成像参数不同造成的定位误差,得到正确的红外正摄图和可见光正摄图。红外正摄图能够穿过遮挡反映火源位置,而可见光图像只能看到周围环境,不能看清由于烟雾等遮挡因素的火源,所以将红外正摄图与可见光正摄图叠加融合,既能看到周围环境细节,又能明确火源位置,增加可视化效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为根据一优选实施例示出的一种生成火情态势图的方法流程图;
图2为根据一优选实施例示出的另一种生成火情态势图的方法流程图;
图3为根据一优选实施例示出的一种生成火情态势图的装置组成框图;
图4为根据一优选实施例示出的另一种生成火情态势图的装置组成框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一方面,本发明实施例提供了一种生成火情态势图的方法,如图1所示,该方法包括:
S101、获取红外图像和可见光图像。
火灾是指在时间或空间上失去控制的燃烧。不同的时间点,火势的燃烧情况会发生较大的变化,所以拍摄火灾现场的图像时需要记录拍摄的时间信息。并且红外图像和可见光图像在同一拍摄时刻拍摄,以确保拍摄到的是同样的火势燃烧情况。
红外图像和可见光图像的图像信息都包括每个像素点对应的地理坐标。通过地理坐标表示拍摄的红外图像和可见光图像的经纬度信息。经纬度信息是指图像中像素点对应的实际地理位置的经纬度信息。
红外图像和可见光图像,是无人机拍摄的遥感图像。红外图像和可见光图像可以通WIFI传输,模拟信号传输,或者无线通信芯片传输,在本发明实施例中对从无人机获取红外图像和可见光图像的获取方式不做限定。
S102、根据透视投影变换模型,将红外图像转换成红外伪正摄图,将可见光图像转换成可见光伪正摄图。
透视投影是为了获得接近真实三维物体的视觉效果,而在二维的纸或者画布平面上绘图或者渲染的一种方法。透视投影具有消失感、距离感、相同大小的形体呈现出有规律的变化等一系列的透视特性,能逼真地反映形体的空间形象。透视投影通常用于动画、视觉仿真以及其他具有真实性反映的方面。基本的透视投影模型由视点和视平面两部分构成。视点可以认为是观察者的位置,也就是观察三维世界的角度。
在透视投影变换模型中包括视点位置信息,以红外图像或可见光图像伪视平面,将二维的红外图像转换为三维的红外伪正摄图,将二维的可见光图像转换为三维的可见光伪正摄图。
S103、根据拍摄时刻的无人机姿态参数和相机成像参数,计算红外图像和可见光图像的每个像素点,与实际地势对应的映射关系。
无人机的飞行角度、海拔高度的不同,同一时刻拍摄的相同区域的图像转换的伪正摄图不完全相同。相机成像参数包括相机焦距、分辨率等等,不同的相机成像参数统一时刻拍摄的相同区域的图像转换的伪正摄图也不完全相同。为了能够将拍摄的图像经投影透视变换后能够得到相同的图像,所以需要计算拍摄时刻无人机姿态参数和相机成像参数对拍摄的图像的影响。
将拍摄时刻的无人机姿态参数和相机成像参数,与无人机和相机的标准拍摄情况相比,计算红外图像和可见光图像的每个像素点与实际地势对应的映射关系,实际地势的标准参数包括经度、纬度和海拔高度。
S104、根据映射关系,纠正红外伪正摄图和可见光伪正摄图,得到红外正摄图和可见光正摄图。
根据映射关系,纠正三维的红外伪正摄图和可见光伪正摄图,以使得等到的红外正摄图和可见光正摄图与实际地势的一致性更高。
S105、将红外正摄图和可见光正摄图进行融合,生成火情态势图。
根据红外正摄图和可见光正摄图相同的地理位置信息,将两种图进行融合叠加,生成图像内容叠加地理信息未变的火情态势图。
由以上技术方案可知,本发明提供了一种生成火情态势图的方法,通过同时获取红外图像和可见光图像,然后根据透视投影变换模型,将红外图像转换成红外伪正摄图,将可见光图像转换成可见光伪正摄图,再根据拍摄时刻的无人机姿态参数和相机成像参数,计算红外图像和可见光图像的每个像素点与实际地势对应的映射关系,再根据映射关系,纠正红外伪正摄图和可见光伪正摄图,得到红外正摄图和可见光正摄图,最后将红外正摄图和可见光正摄图进行融合,生成火情态势图。与现有技术相比,本发明能够纠正由无人机姿态不同和成像参数不同造成的定位误差,得到正确的红外正摄图和可见光正摄图。红外正摄图能够穿过遮挡反映火源位置,而可见光图像只能看到周围环境,不能看清由于烟雾等遮挡因素的火源,所以将红外正摄图与可见光正摄图叠加融合,既能看到周围环境细节,又能明确火源位置,增加可视化效果。
另一方面,本发明实施例还提供了另一种生成火情态势图的方法,如图2所示,该方法包括:
S201获取红外图像和可见光图像。
红外图像和可见光图像由不同的遥感器获得,并且红外图像和可见光图像在同一拍摄时刻拍摄。红外图像和可见光图像的图像信息都包括每个像素点对应的地理坐标。地理坐标是红外图像和可见光图像的图像信息中的重要信息。由于存在地理坐标信息,才可能将平面图像转化为三维图像。
S202根据数字高程模型DEM单点辅助定位算法,获取红外图像中的定位点的地理坐标。
定位点是指能够确定红外图像地理区域的像素点,定位点的个数至少为两个。为了通过定位点确定红外图像拍摄的实际地理区域,所以需要确定红外图像的经纬度的边界值,所以至少需要选取包括最大经度、最小经度、最大纬度和最小纬度四个范围数据的两个定位点。定位点是红外图像中的像素点,该像素点能够确定红外图像地理区域。
DEM(Digital Elevation Model,数字高程模型)是通过有限的地形高程数据实现对地形曲面数字化模拟,即地形表面形态的数字化表达,是用一组有序数值阵列形式表示地面高程的一种实体地面模型。通过DEM单点辅助定位算法,获取红外图像中定位点的地理坐标。
S203根据地理坐标,计算投影参数。
投影参数包括视点位置,视点与图像的距离等等。根据地理坐标和图像信息,计算的投影参数,能够使得红外图像经投影变换后能够与DEM相适应。
S204根据投影参数,生成透视投影变换模型。
透视投影变换模型是根据红外图像计算得到的,但是由于拍摄红外图像和可见光图像是同一时刻而且视角相同,所以两种图像的透视投影变换模型相同。透视投影变换模型也可以根据可见光图像计算得到,且与根据红外图像计算透视投影变换模型的方法类似。
S205根据透视投影变换模型,将红外图像转换成红外伪正摄图,将可见光图像转换成可见光伪正摄图。
由于拍摄红外图像时无人机姿态和相机成像参数不能完全相同,所以根据透视投影变换模型直接得到的红外伪正摄图和可见光伪正摄图,与实际地势相比会存在较大的区别。
S206根据拍摄时刻的无人机姿态参数和相机成像参数,计算红外图像和可见光图像的每个像素点,与实际地势对应的映射关系。
计算映射关系,具体包括:获取无人机姿态参数,姿态参数至少包括时间、经度、纬度、海拔高度、航迹角、俯仰角和侧滚角;获取相机成像参数,相机成像参数至少包括元尺寸、分辨率、焦距、云台俯仰角和云台方位角;根据无人机姿态参数和相机成像参数,计算红外图像的每个像素点,与实际地势的地理坐标对应关系;根据数字高程模型DEM,无人机姿态参数和相机成像参数,计算红外图像的每个像素点,与实际地势的海拔高度对应关系;根据地理坐标对应关系和海拔高度对应关系,确定红外图像与实际地势对应的映射关系。
S207根据映射关系,纠正红外伪正摄图和可见光伪正摄图,得到红外正摄图和可见光正摄图。
具体包括:根据映射关系,对红外伪正摄图进行逐点微分,生成红外正摄图;根据映射关系,对可见光伪正摄图进行逐点微分,生成可见光正摄图。
S208将红外正摄图和可见光正摄图进行融合,生成火情态势图。
生成火情态势图,具体包括:获取红外图像中的温度信息;根据温度信息,判断红外图像中的火场区域;在红外正摄图中,标记火场区域,生成火场正摄图像;按照实际地势的地势信息,将火场正摄图像和可见光正摄图像叠加成火情态势图。
标记火场可以将火场位置高亮显示,可以将火场位置以区别于背景的颜色显示,还可以通过将火场位置边界用闪烁的线条圈出,在本发明实施例中对标记火场的标记方式不做限定。
上述方法是对单个无人机拍摄的红外图像和可见光图像的处理,而单个无人机通常不能拍摄到整个火场情况,所以由多个无人机共同拍摄。为了反映火场的整体情况,在根据每组红外图像和可见光图像生成火情态势图之后,将多个火情态势图进行拼接。在拼接时根据火情态势图中的地理坐标信息进行拼接,使得最后得到的整个火场的火情态势图中完整且不重复的包含整个火场所在的地域图像。
作为图1或图2所示方法的具体实现,本发明实施例还提供了一种生成火情态势图的装置,如图3所示,该装置包括第一获取单元31、转换单元32、第一计算单元33、纠正单元34以及第一生成单元35。其中,
第一获取单元31,用于获取红外图像和可见光图像,红外图像和可见光图像在同一拍摄时刻拍摄,红外图像和可见光图像的图像信息都包括每个像素点对应的地理坐标;
转换单元32,用于根据透视投影变换模型,将红外图像转换成红外伪正摄图,将可见光图像转换成可见光伪正摄图;
第一计算单元33,用于根据拍摄时刻的无人机姿态参数和相机成像参数,计算红外图像和可见光图像的每个像素点,与实际地势对应的映射关系;
纠正单元34,用于根据映射关系,纠正红外伪正摄图和可见光伪正摄图,得到红外正摄图和可见光正摄图;
第一生成单元35,用于将红外正摄图和可见光正摄图进行融合,生成火情态势图。
进一步地,如图4所示,装置还包括:
第二获取单元36,用于在根据透视投影变换模型,将红外图像转换成红外伪正摄图,将可见光图像转换成可见光伪正摄图之前,根据数字高程模型DEM单点辅助定位算法,获取红外图像中的定位点的地理坐标,定位点是指能够确定红外图像地理区域的像素点,定位点的个数至少为两个;
第二计算单元37,用于根据地理坐标,计算投影参数;
第二生成单元38,用于根据投影参数,生成透视投影变换模型。
进一步地,如图4所示,第一计算单元33,包括:
获取模块331,用于获取无人机姿态参数,姿态参数至少包括时间、经度、纬度、海拔高度、航迹角、俯仰角和侧滚角;
获取模块331,还用于获取相机成像参数,相机成像参数至少包括元尺寸、分辨率、焦距、云台俯仰角和云台方位角;
计算模块332,用于根据无人机姿态参数和相机成像参数,计算红外图像的每个像素点,与实际地势的地理坐标对应关系;
计算模块332,还用于根据数字高程模型DEM,无人机姿态参数和相机成像参数,计算红外图像的每个像素点,与实际地势的海拔高度对应关系;
确定模块333,用于根据地理坐标对应关系和海拔高度对应关系,确定红外图像与实际地势对应的映射关系。
进一步地,如图4所示,纠正单元34,包括:
第一生成模块341,用于根据映射关系,对红外伪正摄图进行逐点微分,生成红外正摄图;
第二生成模块342,用于根据映射关系,对可见光伪正摄图进行逐点微分,生成可见光正摄图。
进一步地,如图4所示,第一生成单元35,包括:
获取模块351,用于获取红外图像中的温度信息;
判断模块352,用于根据温度信息,判断红外图像中的火场区域;
生成模块353,用于在红外正摄图中,标记火场区域,生成火场正摄图像;
叠加模块354,用于按照实际地势的地势信息,将火场正摄图像和可见光正摄图像叠加成火情态势图。
由以上技术方案可知,本发明提供了一种生成火情态势图的装置,通过同时获取红外图像和可见光图像,然后根据透视投影变换模型,将红外图像转换成红外伪正摄图,将可见光图像转换成可见光伪正摄图,再根据拍摄时刻的无人机姿态参数和相机成像参数,计算红外图像和可见光图像的每个像素点与实际地势对应的映射关系,再根据映射关系,纠正红外伪正摄图和可见光伪正摄图,得到红外正摄图和可见光正摄图,最后将红外正摄图和可见光正摄图进行融合,生成火情态势图。与现有技术相比,本发明能够纠正由无人机姿态不同和成像参数不同造成的定位误差,得到正确的红外正摄图和可见光正摄图。红外正摄图能够穿过遮挡反映火源位置,而可见光图像只能看到周围环境,不能看清由于烟雾等遮挡因素的火源,所以将红外正摄图与可见光正摄图叠加融合,既能看到周围环境细节,又能明确火源位置,增加可视化效果。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本发明未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。

Claims (10)

1.一种生成火情态势图的方法,其特征在于,所述方法包括:
获取二维的红外图像和二维的可见光图像,所述二维的红外图像和所述二维的可见光图像在同一拍摄时刻拍摄,所述二维的红外图像和所述二维的可见光图像的图像信息都包括每个像素点对应的地理坐标;
根据透视投影变换模型,将所述二维的红外图像转换成三维的红外伪正摄图,将所述二维的可见光图像转换成三维的可见光伪正摄图;
根据所述拍摄时刻的无人机姿态参数和相机成像参数,计算所述二维的红外图像和所述二维的可见光图像的每个像素点,与实际地势对应的映射关系;
根据所述映射关系,纠正所述三维的红外伪正摄图和所述三维的可见光伪正摄图,得到三维的红外正摄图和三维的可见光正摄图;
将所述三维的红外正摄图和所述三维的可见光正摄图进行融合,生成火情态势图。
2.根据权利要求1所述的方法,其特征在于,在所述根据透视投影变换模型,将所述二维的红外图像转换成三维的红外伪正摄图,将所述二维的可见光图像转换成三维的可见光伪正摄图之前,所述方法还包括:
根据数字高程模型DEM单点辅助定位算法,获取所述二维的红外图像中的定位点的地理坐标,所述定位点是指能够确定所述二维的红外图像地理区域的像素点,所述定位点的个数至少为两个;
根据所述地理坐标,计算投影参数;
根据所述投影参数,生成所述透视投影变换模型。
3.根据权利要求1所述的方法,其特征在于,所述根据所述拍摄时刻的无人机姿态参数和相机成像参数,计算所述二维的红外图像和所述二维的可见光图像的每个像素点,与实际地势对应的映射关系,包括:
获取所述无人机姿态参数,所述姿态参数至少包括时间、经度、纬度、海拔高度、航迹角、俯仰角和侧滚角;
获取所述相机成像参数,所述相机成像参数至少包括元尺寸、分辨率、焦距、云台俯仰角和云台方位角;
根据所述无人机姿态参数和所述相机成像参数,计算所述二维的红外图像的每个像素点,与所述实际地势的地理坐标对应关系;
根据数字高程模型DEM,所述无人机姿态参数和所述相机成像参数,计算所述二维的红外图像的每个像素点,与所述实际地势的海拔高度对应关系;
根据所述地理坐标对应关系和所述海拔高度对应关系,确定所述二维的红外图像与所述实际地势对应的所述映射关系。
4.根据权利要求1所述的方法,其特征在于,所述根据所述映射关系,纠正所述三维的红外伪正摄图和所述三维的可见光伪正摄图,得到三维的红外正摄图和三维的可见光正摄图,包括:
根据所述映射关系,对所述三维的红外伪正摄图进行逐点微分,生成所述三维的红外正摄图;
根据所述映射关系,对所述三维的可见光伪正摄图进行逐点微分,生成所述三维的可见光正摄图。
5.根据权利要求1所述的方法,其特征在于,所述将所述三维的红外正摄图和所述三维的可见光正摄图进行融合,生成火情态势图,包括:
获取所述二维的红外图像中的温度信息;
根据所述温度信息,判断所述二维的红外图像中的火场区域;
在所述三维的红外正摄图中,标记所述火场区域,生成三维的火场正摄图像;
按照所述实际地势的地势信息,将所述三维的火场正摄图像和所述三维的可见光正摄图像叠加成所述火情态势图。
6.一种生成火情态势图的装置,其特征在于,所述装置包括:
第一获取单元,用于获取二维的红外图像和二维的可见光图像,所述二维的红外图像和所述二维的可见光图像在同一拍摄时刻拍摄,所述二维的红外图像和所述二维的可见光图像的图像信息都包括每个像素点对应的地理坐标;
转换单元,用于根据透视投影变换模型,将所述二维的红外图像转换成三维的红外伪正摄图,将所述二维的可见光图像转换成三维的可见光伪正摄图;
第一计算单元,用于根据所述拍摄时刻的无人机姿态参数和相机成像参数,计算所述二维的红外图像和所述二维的可见光图像的每个像素点,与实际地势对应的映射关系;
纠正单元,用于根据所述映射关系,纠正所述三维的红外伪正摄图和所述三维的可见光伪正摄图,得到三维的红外正摄图和三维的可见光正摄图;
第一生成单元,用于将所述三维的红外正摄图和所述三维的可见光正摄图进行融合,生成火情态势图。
7.根据权利要求6所述的装置,其特征在于,所述装置还包括:
第二获取单元,用于在所述根据透视投影变换模型,将所述二维的红外图像转换成三维的红外伪正摄图,将所述二维的可见光图像转换成三维的可见光伪正摄图之前,根据数字高程模型DEM单点辅助定位算法,获取所述二维的红外图像中的定位点的地理坐标,所述定位点是指能够确定所述二维的红外图像地理区域的像素点,所述定位点的个数至少为两个;
第二计算单元,用于根据所述地理坐标,计算投影参数;
第二生成单元,用于根据所述投影参数,生成所述透视投影变换模型。
8.根据权利要求6所述的装置,其特征在于,所述第一计算单元,包括:
获取模块,用于获取所述无人机姿态参数,所述姿态参数至少包括时间、经度、纬度、海拔高度、航迹角、俯仰角和侧滚角;
所述获取模块,还用于获取所述相机成像参数,所述相机成像参数至少包括元尺寸、分辨率、焦距、云台俯仰角和云台方位角;
计算模块,用于根据所述无人机姿态参数和所述相机成像参数,计算所述二维的红外图像的每个像素点,与所述实际地势的地理坐标对应关系;
所述计算模块,还用于根据数字高程模型DEM,所述无人机姿态参数和所述相机成像参数,计算所述二维的红外图像的每个像素点,与所述实际地势的海拔高度对应关系;
确定模块,用于根据所述地理坐标对应关系和所述海拔高度对应关系,确定所述红外图像与所述实际地势对应的所述映射关系。
9.根据权利要求6所述的装置,其特征在于,所述纠正单元,包括:
第一生成模块,用于根据所述映射关系,对所述三维的红外伪正摄图进行逐点微分,生成所述三维的红外正摄图;
第二生成模块,用于根据所述映射关系,对所述三维的可见光伪正摄图进行逐点微分,生成所述三维的可见光正摄图。
10.根据权利要求6所述的装置,其特征在于,所述第一生成模块,包括:
获取模块,用于获取所述二维的红外图像中的温度信息;
判断模块,用于根据所述温度信息,判断所述二维的红外图像中的火场区域;
生成模块,用于在所述三维的红外正摄图中,标记所述火场区域,生成三维的火场正摄图像;
叠加模块,用于按照所述实际地势的地势信息,将所述三维的火场正摄图像和所述三维的可见光正摄图像叠加成所述火情态势图。
CN201611024452.9A 2016-11-17 2016-11-17 一种生成火情态势图的方法及装置 Active CN106683038B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611024452.9A CN106683038B (zh) 2016-11-17 2016-11-17 一种生成火情态势图的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611024452.9A CN106683038B (zh) 2016-11-17 2016-11-17 一种生成火情态势图的方法及装置

Publications (2)

Publication Number Publication Date
CN106683038A CN106683038A (zh) 2017-05-17
CN106683038B true CN106683038B (zh) 2020-07-07

Family

ID=58866724

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611024452.9A Active CN106683038B (zh) 2016-11-17 2016-11-17 一种生成火情态势图的方法及装置

Country Status (1)

Country Link
CN (1) CN106683038B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106683039B (zh) * 2016-11-21 2020-10-02 云南电网有限责任公司电力科学研究院 一种生成火情态势图的系统
CN107316012B (zh) * 2017-06-14 2020-12-22 华南理工大学 小型无人直升机的火灾检测与跟踪方法
CN108197524A (zh) * 2017-11-16 2018-06-22 云南电网有限责任公司电力科学研究院 一种火场火势成图的方法
CN110718137B (zh) * 2018-07-13 2022-05-10 广州极飞科技股份有限公司 目标物密度分布地图的构建方法及装置、终端、移动装置
CN111982291B (zh) * 2019-05-23 2022-11-04 杭州海康机器人技术有限公司 一种基于无人机的火点定位方法、装置及系统
CN110176030A (zh) * 2019-05-24 2019-08-27 中国水产科学研究院 一种无人机图像的自动配准方法、装置及电子设备
CN110617876B (zh) * 2019-11-01 2021-10-22 云南电网有限责任公司电力科学研究院 电力设备异响定位方法
CN112034881B (zh) * 2020-07-28 2021-08-06 南京航空航天大学 一种多旋翼无人机巡检视点数量约简方法
CN112906491A (zh) * 2021-01-26 2021-06-04 山西三友和智慧信息技术股份有限公司 一种基于多模态融合技术的森林火灾检测方法
TWI806006B (zh) * 2021-02-20 2023-06-21 緯創資通股份有限公司 熱影像定位方法及其系統

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102074093A (zh) * 2010-12-29 2011-05-25 神华集团有限责任公司 一种基于卫星遥感的煤矿火灾监测方法
CN103455708A (zh) * 2013-07-24 2013-12-18 安徽省电力科学研究院 基于卫星及气象信息的输电线路灾害监测与风险评估平台
CN103971114A (zh) * 2014-04-23 2014-08-06 天津航天中为数据系统科技有限公司 基于航空遥感的森林火灾探测方法
CN104157088A (zh) * 2013-05-14 2014-11-19 丁阿维 利用卫星遥感监测森林火灾的方法
CN104966372A (zh) * 2015-06-09 2015-10-07 四川汇源光通信有限公司 多数据融合的森林火灾智能识别系统和方法
CN204795425U (zh) * 2015-07-30 2015-11-18 滁州学院 一种消防无人机遥测数据处理装置
CN105741479A (zh) * 2016-01-25 2016-07-06 赣州市金电电子设备有限公司 基于热成像和烟雾识别一体森林防火ia-pcnn算法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102074093A (zh) * 2010-12-29 2011-05-25 神华集团有限责任公司 一种基于卫星遥感的煤矿火灾监测方法
CN104157088A (zh) * 2013-05-14 2014-11-19 丁阿维 利用卫星遥感监测森林火灾的方法
CN103455708A (zh) * 2013-07-24 2013-12-18 安徽省电力科学研究院 基于卫星及气象信息的输电线路灾害监测与风险评估平台
CN103971114A (zh) * 2014-04-23 2014-08-06 天津航天中为数据系统科技有限公司 基于航空遥感的森林火灾探测方法
CN104966372A (zh) * 2015-06-09 2015-10-07 四川汇源光通信有限公司 多数据融合的森林火灾智能识别系统和方法
CN204795425U (zh) * 2015-07-30 2015-11-18 滁州学院 一种消防无人机遥测数据处理装置
CN105741479A (zh) * 2016-01-25 2016-07-06 赣州市金电电子设备有限公司 基于热成像和烟雾识别一体森林防火ia-pcnn算法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
红外与可见光成像技术在森林防火中的研究和应用;于勇;《农林科技》;20111231;第235-236页 *
面向地质灾害调查的无人机遥感影像处理软件比较;金鼎坚 等;《国土资源遥感》;20160127;第183-189页 *

Also Published As

Publication number Publication date
CN106683038A (zh) 2017-05-17

Similar Documents

Publication Publication Date Title
CN106683038B (zh) 一种生成火情态势图的方法及装置
CN106683039B (zh) 一种生成火情态势图的系统
CN110310248B (zh) 一种无人机遥感影像实时拼接方法及系统
CN104637370B (zh) 一种摄影测量与遥感综合教学的方法及系统
Lim et al. Calculation of tree height and canopy crown from drone images using segmentation
US20160343118A1 (en) Systems and methods for producing temperature accurate thermal images
Sandau Digital airborne camera: introduction and technology
CN111982291B (zh) 一种基于无人机的火点定位方法、装置及系统
EP3358480B1 (en) Drawing creation device and drawing creation method
CN105139350A (zh) 一种无人机侦察图像地面实时重建处理系统
JP6877293B2 (ja) 位置情報記録方法および装置
US20150070392A1 (en) Aerial video annotation
JP6238101B2 (ja) 数値表層モデル作成方法、及び数値表層モデル作成装置
CN110595442A (zh) 输电线路通道树障检测方法、储存介质和计算机设备
CN112288848A (zh) 无人机航拍三维建模计算工程量的方法
CN114495416A (zh) 基于无人机的火情监测方法、装置及终端设备
JP2020008802A (ja) 三次元マップ生成装置および三次元マップ生成方法
Lenz et al. Automatic in-flight boresight calibration considering topography for hyperspectral pushbroom sensors
Hein et al. An integrated rapid mapping system for disaster management
CN116129064A (zh) 电子地图生成方法、装置、设备及存储介质
WO2022025283A1 (ja) 測定処理装置、方法及びプログラム
JP6296444B2 (ja) 点群画像による図化方法、及び点群画像による図化装置
Savoy et al. Geo-referencing and stereo calibration of ground-based whole sky imagers using the sun trajectory
Rodríguez Cielos et al. Geomatic methods applied to the study of the front position changes of Johnsons and Hurd Glaciers, Livingston Island, Antarctica, between 1957 and 2013
KR102182128B1 (ko) 위치 추적 기반의 항공 영상 합성 방법 및 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant