CN115115595B - 一种面向森林火灾监测的机载激光雷达和红外相机的实时标定方法 - Google Patents

一种面向森林火灾监测的机载激光雷达和红外相机的实时标定方法 Download PDF

Info

Publication number
CN115115595B
CN115115595B CN202210758555.7A CN202210758555A CN115115595B CN 115115595 B CN115115595 B CN 115115595B CN 202210758555 A CN202210758555 A CN 202210758555A CN 115115595 B CN115115595 B CN 115115595B
Authority
CN
China
Prior art keywords
infrared camera
laser radar
point cloud
fire
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210758555.7A
Other languages
English (en)
Other versions
CN115115595A (zh
Inventor
李兴东
黄启超
肖旭
王扬威
李三平
刘九庆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northeast Forestry University
Original Assignee
Northeast Forestry University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northeast Forestry University filed Critical Northeast Forestry University
Priority to CN202210758555.7A priority Critical patent/CN115115595B/zh
Publication of CN115115595A publication Critical patent/CN115115595A/zh
Application granted granted Critical
Publication of CN115115595B publication Critical patent/CN115115595B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/32Indexing scheme for image data processing or generation, in general involving image mosaicing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture
    • Y02A40/28Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture specially adapted for farming

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Fire-Detection Mechanisms (AREA)

Abstract

一种面向森林火灾监测的机载激光雷达和红外相机的实时标定方法,涉及森林火灾智能监测技术领域,为解决现有技术无法利用火场信息对机载激光雷达和红外相机进行实时地、准确地标定的问题。具体过程为:步骤一、通过搭载激光雷达和红外相机的无人机采集火场数据,获得激光雷达点云数据和红外相机图像数据;步骤二、利用激光雷达点云数据提取火场的点云轮廓;步骤三、利用红外相机图像数据提取火场的图像轮廓;步骤四、将火场点云轮廓和图像轮廓进行匹配和优化,求解激光雷达和红外相机之间的外参结果;每隔t秒钟执行一次上述步骤,将w次外参结果求取平均值作为最终外参标定结果。本发明为林火监测工作提供便利,具有突出的优势。

Description

一种面向森林火灾监测的机载激光雷达和红外相机的实时标 定方法
技术领域
本发明涉及森林火灾智能监测技术领域,具体而言,涉及一种面向森林火灾监测的机载激光雷达和红外相机的实时标定方法。
背景技术
近年来,我国森林火灾频繁发生,为了有效预防和及时扑灭森林火灾,保障人民生命财产安全,维护生态安全和保护森林资源,国家不断出台相关政策。随着无人机技术的快速发展,搭载着激光雷达和红外相机等传感器的无人机在森林火灾智能监测领域发挥的作用日益显著。相对于传统的森林火灾监测方式,无人机可以实时准确地获取遥感数据和影像数据,提升森林火灾监测效率和监测水平,满足智慧林业的建设需求。机载激光雷达和红外相机在森林火灾监测领域应用广泛,激光雷达可以稳定快速地获取周围环境的空间信息,但缺乏感知其他属性的能力,红外相机可以在夜间和恶劣的环境下工作。激光雷达和红外相机的联合使用为森林消防员快速确定火情提供了很大帮助。
目前激光雷达和红外相机的标定方法大多使用一些具有空间几何特征的标定物,利用激光雷达在边缘点处的深度不连续性,提取距离突变处的点作为边缘点,以用作标定的特征点,并和图像中提取的边缘信息进行配准。需要投入人工成本和时间成本,不能依靠火场环境信息完成自动实时标定。因此,研究面向森林火灾监测的机载激光雷达和红外相机的实时标定具有非常重要的意义。
发明内容
本发明要解决的技术问题是:
现有技术无法利用火场信息对机载激光雷达和红外相机进行实时地、准确地标定的问题。
本发明为解决上述技术问题所采用的技术方案为:
为解决上述问题,本发明提出了一种面向森林火灾监测的机载激光雷达和红外相机的实时标定方法,包括如下步骤:
步骤一、通过搭载激光雷达和红外相机的无人机采集火场数据,获得激光雷达点云数据和红外相机图像数据;
步骤二、利用步骤一中的激光雷达点云数据提取火场的点云轮廓;
步骤三、利用步骤一中的红外相机图像数据提取火场的图像轮廓;
步骤四、对步骤二中的火场点云轮廓和步骤三中的火场图像轮廓进行匹配和优化,求解激光雷达和红外相机之间的外参结果;
且每隔t秒钟执行一次上述步骤,将w次外参结果求取平均值作为激光雷达和红外相机之间的外参。
进一步地,步骤二中提取火场点云轮廓时,首先对获得的稀疏的激光雷达点云数据进行实时配准拼接,构建密集的火场点云地图;然后对密集的火场点云地图进行滤波处理,获得规则平滑的火场点云地图;再根据火场点云地图中火场点云强度值发生突变处的若干激光雷达点确定火场点云轮廓。
进一步地,步骤二中具体为采用BALM算法对激光雷达点云数据进行实时配准拼接。
进一步地,步骤二中分别采用统计滤波、高斯滤波、双边滤波和直通滤波对密集的火场点云地图进行滤波处理。
进一步地,步骤三中提取火场图像轮廓时,首先对获得的红外相机图像数据进行直方图均衡化获取红外图像的像素值分布,根据像素值分布判断是否存在燃烧区域;然后通过OTSU自适应阈值分割算法对红外相机图像数据进行二值化处理,增强燃烧区域和未燃烧区域之间的区分度;再通过Canny算法提取火场图像轮廓。
进一步地,步骤三中红外图像的像素值分布有超过85%位于1~55和200~255两个范围内时,则认为存在燃烧区域。
进一步地,步骤四中对步骤二中的火场点云轮廓和步骤三中的火场图像轮廓进行匹配和优化,求解激光雷达和红外相机之间的外参的具体过程为:
步骤四一、在火场的点云轮廓上采样多个激光雷达点,把每个采样点
Figure BDA0003723472870000021
转换到红外相机坐标系中,得到
Figure BDA0003723472870000022
步骤四二、根据红外相机针孔模型,把转换后的点
Figure BDA0003723472870000023
投影到相机图像平面,得到对应的预期投影点
Figure BDA0003723472870000024
根据红外相机畸变模型校正预期投影点,得到实际投影点
Figure BDA0003723472870000025
步骤四三、构建红外图像轮廓像素的k-D tree,搜索
Figure BDA0003723472870000026
的k最近邻点
Figure BDA0003723472870000027
作为采样点
Figure BDA0003723472870000028
对应的红外图像轮廓像素点;
步骤四四、根据已知的相机内参,点云轮廓的采样点
Figure BDA0003723472870000029
坐标及与之对应的红外图像轮廓像素点
Figure BDA00037234728700000210
坐标,构建外参矩阵求解方程如下:
Figure BDA00037234728700000211
式中,[u,v,1]T表示红外图像轮廓的像素点
Figure BDA0003723472870000031
的坐标,[x,y,z,1]T表示点云轮廓的采样点
Figure BDA0003723472870000032
的坐标,K3×4为已知的红外相机的内参矩阵,T4×4为激光雷达和红外相机之间的外参矩阵,si为比例因子,
Figure BDA0003723472870000033
fx为以像素表示的轴方向的焦距,fy为以像素表示的y轴方向的焦距,cx为主点x坐标,cy为主点y坐标,R3×3为激光雷达和红外相机之间的旋转矩阵,t3×1为激光雷达和红外相机之间的平移矩阵;根据方程求得初始外参矩阵T′;
步骤四五、根据初始外参矩阵T′,把采样点
Figure BDA0003723472870000034
重新投影到相机图像平面得到重投影点
Figure BDA0003723472870000035
迭代计算
Figure BDA0003723472870000036
当重投影点
Figure BDA0003723472870000037
与红外图像轮廓像素点
Figure BDA0003723472870000038
之间的像素差值小于设定值δ时即可认为精度满足要求。
相较于现有技术,本发明的有益效果是:
一、标定精度高:本发明分别通过点云配准拼接和点云滤波实现点云的密集化和平滑化,并将火场点云强度值发生突变处的若干激光雷达点作为火场点云轮廓,保证了火线点云轮廓的提取精度;通过直方图均衡化和OTSU自适应阈值分割实现是否存在燃烧区域的判断和火场图像有效分割,并通过Canny算法提取火线图像轮廓,保证了火线图像轮廓的提取精度;进一步地保障了所求解的外参矩阵的标定精度。
在确定点云采样点三维坐标在红外相机图像平面对应的红外图像轮廓像素点时,采用了利用了k-D tree搜索k最近邻点的方法,在优化匹配误差时,采用了利用最小化重投影误差迭代求解的方法,提高了标定的准确度。
二、标定过程简单:当发生火灾时,无人机起飞至合适高度获取火场信息并进行实时标定,整个过程完全由无人机搭载的传感器自主完成,无需人工提前设置标定板等参照物进行标定,节约了人工成本,为无人机监测森林火灾提供了便利。尤其针对突发火灾情况,激光雷达与红外相机的自主实时标定更能够体现其突出的优势。
附图说明
图1为本发明实施例中的技术流程图;
图2为本发明实施例中数据采集的火场现场图;
图3为本发明实施例中激光雷达得到的火场点云图和火场点云轮廓;
图4为本发明实施例中的火场红外相机图像和火场图像轮廓;
图5为本发明实施例中火场点云轮廓与火场图像轮廓融合效果图;
图6为本发明实施例中本发明标定方法与人工提取标定板角点的标定方法效果对比图,其中图(a)为人工提取标定板角点的标定方法的标定的结果,图(b)为本发明方法的标定结果;
图7为本发明实施例中数据采集设备图。
具体实施方式
在本发明的描述中,应当说明的是,在本发明的实施例中所提到的术语“第一”、“第二”、“第三”仅用于描述目的,并不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”、“第三”的特征可以明示或者隐含地包括一个或者多个该特征。
为使本发明的上述目的、特征和优点能够更为明显易懂,下面结合附图对本发明的具体实施例做详细的说明。
如图1所示,利用如图7所示的安装有激光雷达(型号为VLP-16)和红外相机(型号为为ZX-IRV)以及工控机等设备的大疆T16无人机飞至如图2所示的火场上空30m处采集火场激光雷达点云数据和红外相机图像数据,数据采集时间为3~5分钟,采样频率为10Hz,激光雷达和红外相机的时间校准已事先完成。
通过BALM算法提取激光雷达点云数据中的点、线、面特征,然后根据这些特征将新的一帧点云注册到由之前若干帧点云构成的地图中,并利用自适应体素图对过程进行加速,以此实现对步骤一中稀疏的激光雷达点云数据进行实时配准拼接,从而构建密集的火场点云地图。
对密集的火场点云地图进行直通滤波以去除火场以外无用的环境点云,进行统计滤波、高斯滤波和双边滤波以获得规则平滑的火场点云地图,保证点云轮廓的提取精度。
如图3所示,火场点云图中燃烧区域和未燃烧区域的点云强度值不同,将火场点云强度值发生突变处的若干激光雷达点作为火场点云轮廓,即燃烧区域最外侧的一圈激光雷达点。
如图4所示,火场红外相机图像中,燃烧区域像素值较高,未燃烧区域较像素值较低。为判断红外图像中是否存在燃烧区域,需要先对获得的红外相机图像进行直方图均衡化获取红外图像的像素值分布,当红外图像的像素值有超过85%位于1~55和200~255时,即可认为红外图像中存在燃烧区域;然后通过OTSU自适应阈值分割算法对红外相机图像数据进行二值化处理,增强燃烧区域和未燃烧区域之间的区分度,便于提取火线;最后通过Canny算法即可提取出以像素信息表达的火场图像轮廓。
通过红外图像的像素值有超过85%位于1~55和200~255,判断红外图像中是否存在燃烧区域的方法,是发明人通过对大量采集数据进行统计分析得到的结论,且本方法判断的准确率可达到98%以上。
将火场点云轮廓和火场图像轮廓进行匹配和优化,求解激光雷达和红外相机之间的外参,具体过程为:
在火场的点云轮廓上采样多个激光雷达点,把每个采样点
Figure BDA0003723472870000051
转换到红外相机坐标系中,得到
Figure BDA0003723472870000052
根据红外相机针孔模型,把转换后的点
Figure BDA0003723472870000053
投影到相机图像平面,得到对应的预期投影点
Figure BDA0003723472870000054
根据红外相机畸变模型校正预期投影点,得到实际投影点
Figure BDA0003723472870000055
构建红外图像轮廓像素的k-D tree,搜索
Figure BDA0003723472870000056
的k最近邻点
Figure BDA0003723472870000057
作为采样点
Figure BDA0003723472870000058
对应的红外图像轮廓像素点;
根据已知的相机内参,点云轮廓的采样点
Figure BDA0003723472870000059
坐标及与之对应的红外图像轮廓像素点
Figure BDA00037234728700000510
坐标,构建外参矩阵求解方程如下:
Figure BDA00037234728700000511
式中,[u,v,1]T表示红外图像轮廓的像素点
Figure BDA00037234728700000512
的坐标,[x,y,z,1]T表示点云轮廓的采样点
Figure BDA00037234728700000513
的坐标,K3×4为已知的红外相机的内参矩阵,T4×4为激光雷达和红外相机之间的外参矩阵,si为比例因子,
Figure BDA00037234728700000514
fx为以像素表示的x轴方向的焦距,fy为以像素表示的y轴方向的焦距,cx为主点x坐标,cy为主点坐标,R3×3为激光雷达和红外相机之间的旋转矩阵,t3×1为激光雷达和红外相机之间的平移矩阵;根据方程求得初始外参矩阵T′;
根据初始外参矩阵T′,把采样点
Figure BDA00037234728700000515
重新投影到相机图像平面得到重投影点
Figure BDA00037234728700000516
迭代计算
Figure BDA00037234728700000517
当重投影点
Figure BDA00037234728700000518
与红外图像轮廓像素点
Figure BDA00037234728700000519
之间的像素差值小于设定值δ时即可认为精度满足要求。
每隔10秒钟执行一次上述标定过程,将5次外参结果求取平均值作为激光雷达和红外相机之间的外参。
如图5所示,利用外参标定结果进行激光雷达和红外相机的数据融合,不难看出,融合效果能够满足火灾监测的需求,较好地解决了现有技术无法利用火场信息进行激光雷达和红外相机标定的技术难题。
如图6所示,针对同一标定板,分别采用现有的人工提取标定板角点的方法对激光雷达和红外相机进行标定和采用本发明方法进行标定,可以看出,通过人工提取标定板角点进行标定的方法进行标定时,标定板的激光雷达点云与红外图像存在一定偏差;而采用本发明方法进行标定时,标定板的激光雷达点云与红外图像几乎没有偏差,相较于通过人工提取标定板角点进行标定的方法,本发明所述的激光雷达和红外相机之间外参标定结果具有更高的可靠性和准确性。
虽然本发明公开披露如上,但本发明公开的保护范围并非仅限于此。本发明领域技术人员在不脱离本发明公开的精神和范围的前提下,可进行各种变更与修改,这些变更与修改均将落入本发明的保护范围。

Claims (4)

1.一种面向森林火灾监测的机载激光雷达和红外相机的实时标定方法,其特征在于,包括如下步骤:
步骤一、通过搭载激光雷达和红外相机的无人机采集火场数据,获得激光雷达点云数据和红外相机图像数据;
步骤二、利用步骤一中的激光雷达点云数据提取火场的点云轮廓;
提取火场点云轮廓时,首先对获得的稀疏的激光雷达点云数据进行实时配准拼接,构建密集的火场点云地图;然后对密集的火场点云地图进行滤波处理,获得规则平滑的火场点云地图;再根据火场点云强度值发生突变处的若干激光雷达点确定火场点云轮廓;
步骤三、利用步骤一中的红外相机图像数据提取火场的图像轮廓;
提取火场图像轮廓时,首先对获得的红外相机图像数据进行直方图均衡化获取红外图像的像素值分布,根据像素值分布判断是否存在燃烧区域;然后通过OTSU自适应阈值分割算法对红外相机图像数据进行二值化处理,增强燃烧区域和未燃烧区域之间的区分度;再通过Canny算法提取火场图像轮廓;
步骤四、对步骤二中的火场点云轮廓和步骤三中的火场图像轮廓进行匹配和优化,求解激光雷达和红外相机之间的外参结果;
具体过程为:
步骤四一、在火场的点云轮廓上采样多个激光雷达点,把每个采样点
Figure FDA0004053488580000011
转换到红外相机坐标系中,得到
Figure FDA0004053488580000012
步骤四二、根据红外相机针孔模型,把转换后的点
Figure FDA0004053488580000013
投影到相机图像平面,得到对应的预期投影点
Figure FDA0004053488580000014
根据红外相机畸变模型校正预期投影点,得到实际投影点
Figure FDA0004053488580000015
步骤四三、构建红外图像轮廓像素的k-D tree,搜索
Figure FDA0004053488580000016
的k最近邻点
Figure FDA0004053488580000017
作为采样点
Figure FDA0004053488580000018
对应的红外图像轮廓像素点;
步骤四四、根据已知的相机内参,点云轮廓的采样点
Figure FDA0004053488580000019
坐标及与之对应的红外图像轮廓像素点
Figure FDA00040534885800000110
坐标,构建外参矩阵求解方程如下:
Figure FDA00040534885800000111
式中,[u,v,1]T表示红外图像轮廓的像素点
Figure FDA00040534885800000112
的坐标,[x,y,z,1]T表示点云轮廓的采样点
Figure FDA00040534885800000113
的坐标,K3×4为已知的红外相机的内参矩阵,T4×4为激光雷达和红外相机之间的外参矩阵,si为比例因子,
Figure FDA0004053488580000021
fx为以像素表示的x轴方向的焦距,fy为以像素表示的y轴方向的焦距,cx为主点x坐标,cy为主点y坐标,R3×3为激光雷达和红外相机之间的旋转矩阵,t3×1为激光雷达和红外相机之间的平移矩阵;根据方程求得初始外参矩阵T′;
步骤四五、根据初始外参矩阵T′,把采样点
Figure FDA0004053488580000022
重新投影到相机图像平面得到重投影点
Figure FDA0004053488580000023
迭代计算
Figure FDA0004053488580000024
当重投影点
Figure FDA0004053488580000025
与红外图像轮廓像素点
Figure FDA0004053488580000026
之间的像素差值小于设定值δ时即可认为精度满足要求;
且每隔t秒钟执行一次上述步骤,将w次外参结果求取平均值作为激光雷达和红外相机之间的外参。
2.如权利要求1所述的一种面向森林火灾监测的机载激光雷达和红外相机的实时标定方法,其特征在于:步骤二中具体为采用BALM算法对激光雷达点云数据进行实时配准拼接。
3.如权利要求2所述的一种面向森林火灾监测的机载激光雷达和红外相机的实时标定方法,其特征在于:步骤二中分别采用统计滤波、高斯滤波、双边滤波和直通滤波对密集的火场点云地图进行滤波处理。
4.如权利要求3所述的一种面向森林火灾监测的机载激光雷达和红外相机的实时标定方法,其特征在于:步骤三中红外图像的像素值分布有超过85%位于1~55和200~255两个范围内时,则认为存在燃烧区域。
CN202210758555.7A 2022-06-30 2022-06-30 一种面向森林火灾监测的机载激光雷达和红外相机的实时标定方法 Active CN115115595B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210758555.7A CN115115595B (zh) 2022-06-30 2022-06-30 一种面向森林火灾监测的机载激光雷达和红外相机的实时标定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210758555.7A CN115115595B (zh) 2022-06-30 2022-06-30 一种面向森林火灾监测的机载激光雷达和红外相机的实时标定方法

Publications (2)

Publication Number Publication Date
CN115115595A CN115115595A (zh) 2022-09-27
CN115115595B true CN115115595B (zh) 2023-03-03

Family

ID=83330997

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210758555.7A Active CN115115595B (zh) 2022-06-30 2022-06-30 一种面向森林火灾监测的机载激光雷达和红外相机的实时标定方法

Country Status (1)

Country Link
CN (1) CN115115595B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115497247A (zh) * 2022-10-11 2022-12-20 成远矿业开发股份有限公司 一种基于无人机的森林火灾监测方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111856436A (zh) * 2020-07-02 2020-10-30 大连理工大学 一种多线激光雷达和红外相机的联合标定装置及标定方法
WO2020237693A1 (zh) * 2019-05-31 2020-12-03 华南理工大学 一种水面无人装备多源感知方法及系统
CN113359141A (zh) * 2021-07-28 2021-09-07 东北林业大学 一种基于无人机多传感器数据融合的林火定位方法及系统
CN113838141A (zh) * 2021-09-02 2021-12-24 中南大学 一种单线激光雷达与可见光相机的外参标定方法及系统
CN113902812A (zh) * 2021-10-13 2022-01-07 岱悟智能科技(上海)有限公司 一种基于多标定板的激光雷达与相机外参自动标定方法
CN113902809A (zh) * 2021-09-14 2022-01-07 立得空间信息技术股份有限公司 一种红外相机与激光雷达联合标定的方法
CN114076956A (zh) * 2021-11-12 2022-02-22 北京斯年智驾科技有限公司 一种基于激光雷达点云辅助的车道线标定方法
CN114415133A (zh) * 2022-01-19 2022-04-29 白犀牛智达(北京)科技有限公司 激光雷达-相机外参标定方法、装置、设备及存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020237693A1 (zh) * 2019-05-31 2020-12-03 华南理工大学 一种水面无人装备多源感知方法及系统
CN111856436A (zh) * 2020-07-02 2020-10-30 大连理工大学 一种多线激光雷达和红外相机的联合标定装置及标定方法
CN113359141A (zh) * 2021-07-28 2021-09-07 东北林业大学 一种基于无人机多传感器数据融合的林火定位方法及系统
CN113838141A (zh) * 2021-09-02 2021-12-24 中南大学 一种单线激光雷达与可见光相机的外参标定方法及系统
CN113902809A (zh) * 2021-09-14 2022-01-07 立得空间信息技术股份有限公司 一种红外相机与激光雷达联合标定的方法
CN113902812A (zh) * 2021-10-13 2022-01-07 岱悟智能科技(上海)有限公司 一种基于多标定板的激光雷达与相机外参自动标定方法
CN114076956A (zh) * 2021-11-12 2022-02-22 北京斯年智驾科技有限公司 一种基于激光雷达点云辅助的车道线标定方法
CN114415133A (zh) * 2022-01-19 2022-04-29 白犀牛智达(北京)科技有限公司 激光雷达-相机外参标定方法、装置、设备及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于多谱融合的植被环境中障碍物检测;王盛 等;《浙江大学学报(工学版)》;20151130;第49卷(第11期);全文 *
基于点云中心的激光雷达与相机联合标定方法研究;康国华 等;《仪器仪表学报》;20191231;第40卷(第12期);全文 *

Also Published As

Publication number Publication date
CN115115595A (zh) 2022-09-27

Similar Documents

Publication Publication Date Title
CN110070570B (zh) 一种基于深度信息的障碍物检测系统及方法
JP6336117B2 (ja) 建物高さの計算方法、装置及び記憶媒体
Awrangjeb et al. Automatic building extraction from LiDAR data covering complex urban scenes
TW201022708A (en) Method of change detection for building models
CN110794413B (zh) 线性体素分割的激光雷达点云数据电力线检测方法和系统
CN110473221B (zh) 一种目标物体自动扫描系统及方法
CN112344869B (zh) 基于侧面拟合的铁塔变形监测方法及系统
CN108195736B (zh) 一种三维激光点云提取植被冠层间隙率的方法
CN111126183A (zh) 一种基于近地面影像数据的震后建筑物损毁检测方法
CN112967345B (zh) 鱼眼相机的外参标定方法、装置以及系统
CN115115595B (zh) 一种面向森林火灾监测的机载激光雷达和红外相机的实时标定方法
CN115240093B (zh) 基于可见光和激光雷达点云融合的输电通道自动巡检方法
CN113093746B (zh) 作业机械环境感知方法、装置、系统及作业机械
CN114117717A (zh) 一种森林防火监控方法、装置和系统
CN112578405B (zh) 一种基于激光雷达点云数据去除地面的方法及系统
CN113378754A (zh) 一种工地裸土监测方法
CN116091709B (zh) 建筑物的三维重建方法、装置、电子设备和存储介质
CN116911497A (zh) 一种市政房屋建筑施工监管系统
CN113932712A (zh) 一种基于深度相机和关键点的瓜果类蔬菜尺寸测量方法
CN112381029A (zh) 一种基于欧氏距离的机载LiDAR数据建筑物提取方法
CN113256574A (zh) 一种三维目标检测方法
CN116704138B (zh) 倾斜摄影三维模型的建立方法及装置
CN116758006B (zh) 脚手架质量检测方法及装置
Zhu et al. Research on urban construction land change detection method based on dense dsm and tdom of aerial images
CN113627305B (zh) 机场跑道上的小尺度fod的检测装置及检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant