CN115588127B - 机载激光点云与多光谱影像融合的方法 - Google Patents

机载激光点云与多光谱影像融合的方法 Download PDF

Info

Publication number
CN115588127B
CN115588127B CN202211272465.3A CN202211272465A CN115588127B CN 115588127 B CN115588127 B CN 115588127B CN 202211272465 A CN202211272465 A CN 202211272465A CN 115588127 B CN115588127 B CN 115588127B
Authority
CN
China
Prior art keywords
coordinate system
ground
coordinates
image
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211272465.3A
Other languages
English (en)
Other versions
CN115588127A (zh
Inventor
孙红星
胡云帆
戴志伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Geosun Navigation Technology Co ltd
Original Assignee
Wuhan Geosun Navigation Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Geosun Navigation Technology Co ltd filed Critical Wuhan Geosun Navigation Technology Co ltd
Priority to CN202211272465.3A priority Critical patent/CN115588127B/zh
Publication of CN115588127A publication Critical patent/CN115588127A/zh
Application granted granted Critical
Publication of CN115588127B publication Critical patent/CN115588127B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及信息采集相关领域,公开了一种机载激光点云与多光谱影像融合的方法,通过机载激光扫描系统快速获取包含地面目标表面密集的三维坐标的激光扫描数据的同时获取相应的多光谱影像,通过多传感器的数据融合,将激光扫描三维坐标数据,多光谱影像数据和姿态数据统一到参考坐标系下,实现多光谱信息与位置信息的配准,弥补了单一数据源在精度问题上的局限性,提高对复杂场景使用时的解译效率。

Description

机载激光点云与多光谱影像融合的方法
技术领域
本发明涉及信息采集相关领域,具体是机载激光点云与多光谱影像融合的方法。
背景技术
激光扫描测量技术(Light Detection And Ranging),简称LiDAR,又称“实景复制技术”,机载LiDAR技术即把LiDAR技术使用在航空器上实现对地观测,集全球定位系统、惯性导航系统与激光三种技术于一身,能够快速高效地获取地物表面每个采样点的精确三维空间坐标;经由大量的离散采样点组成点云集合准确还原目标物体的空间形状,在获取地形地貌、建筑物和植被的垂直结构信息方面具有独特的优势,广泛应用在数字城市、灾害监测、海岸工程、林业应用等方面。
高空间分辨率和多光谱遥感影像因为能够提供丰富的地物细节信息,被广泛用于城市遥感相关研究,然而,多光谱影像在遥感领域的应用存在诸多限制,首先,遥感影像空间分辨率和光谱分辨率的提离不代表解译能为的增强,因此精度问题仍然是遥感面临的一个重要挑战,其次,多光谱遥感影像由于缺乏高程信息,难以对三维结构进行准确地划分和提取,因此,多光谱影像单一数据源难以完成复杂场景的解译任务。
发明内容
本发明的目的在于提供机载激光点云与多光谱影像融合的方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:
一种机载激光点云与多光谱影像融合的方法,包含以下步骤:
通过无人采集设备以预设的运动路径对地面进行数据采集,获取多组地面媒体信息,所述地面媒体信息包括地面光谱影像、雷达扫描数据以及与相对应的POS位姿数据,所述地面光谱影像的数量为多组,用于表征不同波段下的地面信息;
通过预设的内插算法对所述地面媒体数据进行分析计算,获取地面点相对应的POS位姿数据以及地面光谱影像的实时外方位元素,根据预设的坐标转换方法进行坐标系统一;
根据所述地面点的坐标对所述地面媒体信息进行覆盖模拟计算,从而获取所述光谱影像对应的地面覆盖区域;
基于光线共线原理反投影模拟计算出所述地面点对应所述地面光谱影像的坐标,获取相对应的像素坐标,建立地面点的点云与像素的联系,融合所述点云与影像。
作为本发明的进一步方案:包括无人机LiDAR定位的步骤,所述无人机LiDAR定位的步骤通过预设的定位方程对相关坐标计算获得,所述定位方程为:
其中,所述为激光扫描点P在地心直角坐标系中的坐标;/>为IMU中心在地心直角坐标系中的坐标;/>为IMU坐标系至地心直角坐标系旋转矩阵;/>为Lidar扫描中心至IMU导航中心的偏置在IMU坐标系中的分量表达;/>为Lidar坐标系至IMU坐标系的旋转矩阵;/>为激光扫描点P在Lidar坐标系中的坐标。
作为本发明的再进一步方案:所述地面光谱影像生成的过程中,涉及多个坐标系,包括世界坐标系、相机坐标系、图像坐标系以及像素坐标系;
所述世界坐标系,用于表征三维世界的绝对坐标系;
所述相机坐标系,用于表征相机的空间状态,所述相机坐标系以相机光心为原点,横轴纵轴分别与相机成像平面所在坐标系同向,竖轴与相机光轴重合;
所述图像坐标系,用于表征生成图像的平面状态,所述图像坐标系以图像中心为坐标原点,横轴纵轴分别与图像平面两边垂直;
所述像素坐标系,以图像皮面的左上角定点为原点,横轴纵轴分别与图像平面的两边垂直。
作为本发明的再进一步方案:所述根据所述地面点的坐标对所述地面媒体信息进行覆盖模拟计算,从而获取所述光谱影像对应的地面覆盖区域的步骤中,具体包括:
确定预设特征点在相机坐标系中的坐标;
获取预设特征点在地心直角坐标系中的坐标;
判断所述地面点是否被所述地面光谱影像所在矩形区域覆盖。
作为本发明的再进一步方案:所述反投影模拟计算通过预设的反投影计算像素坐标公式实现,所述反投影计算像素坐标公式:
其中,u、v为地面点反投影在照片上的像素坐标;PixLenth、PixWidth为照片像素尺寸的长和宽;f为相机焦距;(Xw,Yw,Zw)为地面点Pw的坐标;(Xc,Yc,Zc)为相机摄影中心在世界坐标系中的坐标;PixelSize为单个像素的实际尺寸,这里所采用的单位均为mm。
作为本发明的再进一步方案:还包括步骤:
获取机载激光扫描系统的标定及补偿,所述标定基于系统预设置,所述补偿用于降低数据的误差与偏移,所述补偿生成通过公式生成,所述公式:
其中,Rex为角度补偿值生成的旋转矩阵;Rpix4D为通过软件pix4D生成的旋转矩阵;为POS姿态角生成的旋转矩阵;Δt为相机快门信号发送与快门按下之间的时延;Xpix4D为通过软件pix4D得到的相机摄影中心的坐标;Xpos为从POS数据得到的相机摄影中心的坐标;vpos为通过POS坐标算出的无人机速度。
与现有技术相比,本发明的有益效果是:本发明通过机载激光扫描系统快速获取包含地面目标表面密集的三维坐标的激光扫描数据的同时获取相应的多光谱影像,通过多传感器的数据融合,将激光扫描三维坐标数据,多光谱影像数据和姿态数据统一到参考坐标系下,实现多光谱信息与位置信息的配准,弥补了单一数据源在精度问题上的局限性,提高对复杂场景使用时的解译效率。
附图说明
图1为机载激光点云与多光谱影像融合的方法的流程框图。
图2为机载激光点云与多光谱影像融合的方法中无人机LiDAR定位原理。
图3为机载激光点云与多光谱影像融合的方法中像素坐标系与图像坐标系关系图。
图4为机载激光点云与多光谱影像融合的方法中相机理想成像模型。
图5为机载激光点云与多光谱影像融合的方法中判断点在矩形内的示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
以下结合具体实施例对本发明的具体实现方式进行详细描述。
如图1所述,为本发明一个实施例提供的机载激光点云与多光谱影像融合的方法,包括以下步骤:
S200,通过无人采集设备以预设的运动路径对地面进行数据采集,获取多组地面媒体信息,所述地面媒体信息包括地面光谱影像、雷达扫描数据以及与相对应的POS位姿数据,所述地面光谱影像的数量为多组,用于表征不同波段下的地面信息。
S400,通过预设的内插算法对所述地面媒体数据进行分析计算,获取地面点相对应的POS位姿数据以及地面光谱影像的实时外方位元素,根据预设的坐标转换方法进行坐标系统一。
S600,根据所述地面点的坐标对所述地面媒体信息进行覆盖模拟计算,从而获取所述光谱影像对应的地面覆盖区域。
S800,基于光线共线原理反投影模拟计算出所述地面点对应所述地面光谱影像的坐标,获取相对应的像素坐标,建立地面点的点云与像素的联系,融合所述点云与影像。
本实施例中,给出了一种机载激光点云与多光谱影像融合的方法,由于地物类型越来越丰富,尤其是城市区域,空间格局越来越复杂,单一遥感数据源己经很难满足城市遥感信息提取的需求。因化将多种不同类型的遥感数据融合以弥补单一数据源的局限性是一种行之有效的方法。光学影像能够提供丰富的空间信息和光谱信息,但缺少三维高程信息;激光点云数据能够提供高精度三维信息,但难以准确获取地物光谱、纹理信息。因此,将这两种优势互补的多源遥感数据进行融合,对于遥感影像分类研究具有十分重要的现实意义;基于此,本实施例方法无人机在飞行过程中,激光雷达不断的对地面扫描,同时多光谱相机对地面拍照,POS连续记录位置坐标,在飞行任务结束后可以得到POS位姿数据、雷达扫描的地面点相对雷达扫描中心的位置、以及多光谱相机影像,通过内插算法可以算出地面点对应的实时POS位姿以及多光谱相机影像的实时外方位元素,通过坐标系转换可以将三方坐标系统一,在统一后的坐标系下,每张照片的覆盖范围可以通过相似三角形的性质算出,因为地面点的坐标是不变的,所以可以算出该点是否在指定的照片内,之后由光线共线原理可以反投影算出该地面点在照片上的坐标,进而算出像素坐标,使得点云和像素建立联系,从而融合点云与影像;本实施例使用加装了与激光测距单元具有固定结构关系的多光谱像机,使得机载激光扫描系统可以在快速获取包含地面目标表面密集的三维坐标的激光扫描数据的同时获取相应的多光谱影像,而激光扫描数据和多光谱影像对目标的描述有诸多的互补性,因此融合处理激光扫描数据和多光谱影像对地面地物地貌分类判别大有裨益;通过多传感器的数据融合,将激光扫描三维坐标数据,多光谱影像数据和姿态数据统一到参考坐标系下,实现多光谱信息与位置信息的配准,结合激光扫描仪和相机各自的优点,发挥各自优势,将激光扫描点云数据和多光谱相机影像数据相结合。
如图2所示,作为本发明另一个优选的实施例,包括无人机LiDAR定位的步骤,所述无人机LiDAR定位的步骤通过预设的定位方程对相关坐标计算获得,所述定位方程为:
其中,所述为激光扫描点P在地心直角坐标系中的坐标;/>为IMU中心在地心直角坐标系中的坐标;/>为IMU坐标系至地心直角坐标系旋转矩阵;/>为Lidar扫描中心至IMU导航中心的偏置在IMU坐标系中的分量表达;/>为Lidar坐标系至IMU坐标系的旋转矩阵;/>为激光扫描点P在Lidar坐标系中的坐标。
如图3、图4所示,作为本发明另一个优选的实施例,所述地面光谱影像生成的过程中,涉及多个坐标系,包括世界坐标系、相机坐标系、图像坐标系以及像素坐标系;
所述世界坐标系,用于表征三维世界的绝对坐标系。
所述相机坐标系,用于表征相机的空间状态,所述相机坐标系以相机光心为原点,横轴纵轴分别与相机成像平面所在坐标系同向,竖轴与相机光轴重合。
所述图像坐标系,用于表征生成图像的平面状态,所述图像坐标系以图像中心为坐标原点,横轴纵轴分别与图像平面两边垂直。
所述像素坐标系,以图像皮面的左上角定点为原点,横轴纵轴分别与图像平面的两边垂直。
本实施例中,多光谱相机的成像与可见光数码相机的成像过程相同,数码相机的成像以小孔成像模型为基础,成像过程涉及到世界坐标系、相机坐标系、图像坐标系、像素坐标系以及这四个坐标系的转换;世界坐标系:是客观三维世界的绝对坐标系,记为O-XwYwZw,用于描述任何物体在三维空间中的具体位置,本专利使用(Xw,Yw,Zw)表示其坐标值;相机坐标系:记为S-XcYcZc,坐标原点S为相机的光心,X轴和Y轴分别平行于图像坐标系的X轴和Y轴,Z轴为相机的光轴,并与X轴和Y轴满足右手坐标系,用(Xc,Yc,Zc)表示坐标值。世界坐标系下存在一点Pw(Xw,Yw,Zw),通过如下转换公式,可以得到它在相机坐标系下的坐标(Xc,Yc,Zc);
其中,R3×3为旋转矩阵,T3×1为平移矩阵,M称为外参数矩阵;图像坐标系:记为O-XY,坐标原点为图像平面的中心,X轴和Y轴分别平行于图像平面的两条垂直边,用表示像素点在图像平面上的坐标值(x,y);像素坐标系:记为O-UV,坐标原点为图像平面的左上角顶点,U轴和V轴分别平行于图像坐标系的X轴和Y轴,用(u,v)表示像素点在图像平面上的坐标值。图像在计算机中的存储用M×N矩阵来表示,M行N列的图像中的每一个坐标点称为像素点(pixel),每个像素点含有图像的的灰度值。像素坐标系与图像坐标系的关系如附图3所示;在图像坐标系中有一点为(x,y),它对应的像素坐标系表示为(u,v),转换关系为:
式子中,(u0,v0)表示图像坐标系原点在像素坐标系中的坐标,dx和dy表示每个像素点在x轴和y轴上的物理尺寸;综上,相机理想成像模型如附图4所示。
如图5所示,作为本发明另一个优选的实施例,所述根据所述地面点的坐标对所述地面媒体信息进行覆盖模拟计算,从而获取所述光谱影像对应的地面覆盖区域的步骤中,具体包括:
确定预设特征点在相机坐标系中的坐标。
获取预设特征点在地心直角坐标系中的坐标。
判断所述地面点是否被所述地面光谱影像所在矩形区域覆盖。
本实施例中,这里取图像右上角为预设特征点,像片右上角点在相机坐标系中的坐标为:
其中,PixelSize为单个像素点的大小,单位:毫米(mm);PixLenth和PixWidth为像片在长宽方向的像素个数;H为无人机飞行的平均航高,单位:米(m);f为相机焦距,单位:毫米(mm);像片右上角点在地心直角坐标系中的坐标为:
其中,为像片覆盖范围地面角点在地心直角坐标系(e系)坐标;/>为IMU中心在e系中的坐标;/>为IMU坐标系(I系)至e系的旋转矩阵;/>为相机摄影中心至IMU导航中心的偏移在I系中的分量表达;/>为像片坐标系至I系的旋转矩阵;/>为像片覆盖范围地面角点在相机坐标系中的坐标。
将矩形及地面点投影像片坐标系中,即将Z坐标归零,用向量点乘判断,设投影后的矩形区域四个点为P1,P2,P3,P4,地面点为P,如附图5所示,若满足下式,则能初步判断地面点P的投影在像片内:
作为本发明另一个优选的实施例,所述反投影模拟计算通过预设的反投影计算像素坐标公式实现,所述反投影计算像素坐标公式:
其中,u、v为地面点反投影在照片上的像素坐标;PixLenth、PixWidth为照片像素尺寸的长和宽;f为相机焦距;(Xw,Yw,Zw)为地面点Pw的坐标;(Xc,Yc,Zc)为相机摄影中心在世界坐标系中的坐标;PixelSize为单个像素的实际尺寸,这里所采用的单位均为mm。
本实施例中,经过上述步骤后,便能使得地面点和像片的像素对应起来,然后将从像素解码出来的多光谱信息赋值给点云自定义的多光谱字段,从而达到将多光谱信息融合到点云中。
作为本发明另一个优选的实施例,还包括步骤:
获取机载激光扫描系统的标定及补偿,所述标定基于系统预设置,所述补偿用于降低数据的误差与偏移,所述补偿生成通过公式生成,所述公式:
其中,Rex为角度补偿值生成Rpix4D的旋转矩阵;为通过软件pix4D生成的旋转矩阵;为POS姿态角生成的旋转矩阵;Δt为相机快门信号发送与快门按下之间的时延;Xpix4D为通过软件pix4D得到的相机摄影中心的坐标;Xpos为从POS数据得到的相机摄影中心的坐标;vpos为通过POS坐标算出的无人机速度。
本实施例中,前述多个实施例的理论推导都是基于理想情况来推定的,现实操作中由于激光雷达或相机等设备存在安装误差,即激光雷达到IMU、相机摄影中心到IMU在进行坐标转换时不能保证100%的坐标轴重合,同时相机还存在快门延时问题,即拍照信号和按下快门之间的时间延迟。由此导致本应该有重叠部分的两片点云出现大的偏斜,对点云融合多光谱影像也会有较大的偏移,因而需要标定出一个补偿值,在坐标系转换时乘上该补偿值即可达到满意的效果;对于激光雷达的标定则是通过我们自己的自动标定软件,使点云重合度达到极高效果。对于多光谱相机标定则通过传统的相机标定法来获取一组像控点通过该组像控点以及POS获取的外方位元素来获取一组补偿值,对该组补偿值求平均值即可。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
本领域技术人员在考虑说明书及实施例处的公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (1)

1.一种机载激光点云与多光谱影像融合的方法,其特征在于,包含以下步骤:
通过无人采集设备以预设的运动路径对地面进行数据采集,获取多组地面媒体信息,所述地面媒体信息包括地面光谱影像、雷达扫描数据以及与相对应的POS位姿数据,所述地面光谱影像的数量为多组,用于表征不同波段下的地面信息;
通过预设的内插算法对所述地面媒体数据进行分析计算,获取地面点相对应的POS位姿数据以及地面光谱影像的实时外方位元素,根据预设的坐标转换方法进行坐标系统一;
根据所述地面点的坐标对所述地面媒体信息进行覆盖模拟计算,从而获取所述光谱影像对应的地面覆盖区域;
基于光线共线原理反投影模拟计算出所述地面点对应所述地面光谱影像的坐标,获取相对应的像素坐标,建立地面点的点云与像素的联系,融合所述点云与影像;
包括无人机LiDAR定位的步骤,所述无人机LiDAR定位的步骤通过预设的定位方程对相关坐标计算获得,所述定位方程为:
其中,所述为激光扫描点P在地心直角坐标系中的坐标;/>为IMU中心在地心直角坐标系中的坐标;/>为IMU坐标系至地心直角坐标系旋转矩阵;/>为Lidar扫描中心至IMU导航中心的偏置在IMU坐标系中的分量表达;/>为Lidar坐标系至IMU坐标系的旋转矩阵;/>为激光扫描点P在Lidar坐标系中的坐标;
所述地面光谱影像生成的过程中,涉及多个坐标系,包括世界坐标系、相机坐标系、图像坐标系以及像素坐标系;
所述世界坐标系,用于表征三维世界的绝对坐标系;
所述相机坐标系,用于表征相机的空间状态,所述相机坐标系以相机光心为原点,横轴纵轴分别与相机成像平面所在坐标系同向,竖轴与相机光轴重合;
所述图像坐标系,用于表征生成图像的平面状态,所述图像坐标系以图像中心为坐标原点,横轴纵轴分别与图像平面两边垂直;
所述像素坐标系,以图像皮面的左上角定点为原点,横轴纵轴分别与图像平面的两边垂直;
所述根据所述地面点的坐标对所述地面媒体信息进行覆盖模拟计算,从而获取所述光谱影像对应的地面覆盖区域的步骤中,具体包括:
确定预设特征点在相机坐标系中的坐标;
获取预设特征点在地心直角坐标系中的坐标;
判断所述地面点是否被所述地面光谱影像所在矩形区域覆盖;
所述反投影模拟计算通过预设的反投影计算像素坐标公式实现,所述反投影计算像素坐标公式:
其中,u、v为地面点反投影在照片上的像素坐标;PixLenth、PixWidth为照片像素尺寸的长和宽;f为相机焦距;(Xw,Yw,Zw)为地面点Pw的坐标;(Xc,Yc,Zc)为相机摄影中心在世界坐标系中的坐标;PixelSize为单个像素的实际尺寸,这里所采用的单位均为mm;
还包括步骤:
获取机载激光扫描系统的标定及补偿,所述标定基于系统预设置,所述补偿用于降低数据的误差与偏移,所述补偿生成通过公式生成,所述公式:
其中,Rex为角度补偿值生成的旋转矩阵;Rpix4D为通过软件pix4D生成的旋转矩阵;为POS姿态角生成的旋转矩阵;Δt为相机快门信号发送与快门按下之间的时延;Xpix4D为通过软件pix4D得到的相机摄影中心的坐标;Xpos为从POS数据得到的相机摄影中心的坐标;vpos为通过POS坐标算出的无人机速度。
CN202211272465.3A 2022-10-18 2022-10-18 机载激光点云与多光谱影像融合的方法 Active CN115588127B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211272465.3A CN115588127B (zh) 2022-10-18 2022-10-18 机载激光点云与多光谱影像融合的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211272465.3A CN115588127B (zh) 2022-10-18 2022-10-18 机载激光点云与多光谱影像融合的方法

Publications (2)

Publication Number Publication Date
CN115588127A CN115588127A (zh) 2023-01-10
CN115588127B true CN115588127B (zh) 2024-05-10

Family

ID=84780254

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211272465.3A Active CN115588127B (zh) 2022-10-18 2022-10-18 机载激光点云与多光谱影像融合的方法

Country Status (1)

Country Link
CN (1) CN115588127B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101551275A (zh) * 2009-04-30 2009-10-07 上海航遥信息技术有限公司 机载多光谱扫描仪用于工业温排水监测的技术方法
CN104268935A (zh) * 2014-09-18 2015-01-07 华南理工大学 一种基于特征的机载激光点云与影像数据融合系统及方法
CN107204037A (zh) * 2016-03-17 2017-09-26 中国科学院光电研究院 基于主被动三维成像系统的三维影像生成方法
CN109087339A (zh) * 2018-06-13 2018-12-25 武汉朗视软件有限公司 一种激光扫描点与影像配准方法
CN111638185A (zh) * 2020-05-09 2020-09-08 哈尔滨工业大学 基于无人机平台的遥感探测方法
CN112097688A (zh) * 2020-09-03 2020-12-18 清华大学 基于光栅投影三维成像的多光谱三维形貌测量方法及装置
CN112183247A (zh) * 2020-09-14 2021-01-05 广东工业大学 一种基于多光谱影像的激光点云数据分类方法
CN113643434A (zh) * 2021-07-12 2021-11-12 广东省国土资源测绘院 基于空地协同的三维建模方法、智能终端以及存储装置
CN114755661A (zh) * 2022-03-03 2022-07-15 武汉大学 一种移动激光扫描系统参数标定方法及标定装置
US11403860B1 (en) * 2022-04-06 2022-08-02 Ecotron Corporation Multi-sensor object detection fusion system and method using point cloud projection

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6664529B2 (en) * 2000-07-19 2003-12-16 Utah State University 3D multispectral lidar

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101551275A (zh) * 2009-04-30 2009-10-07 上海航遥信息技术有限公司 机载多光谱扫描仪用于工业温排水监测的技术方法
CN104268935A (zh) * 2014-09-18 2015-01-07 华南理工大学 一种基于特征的机载激光点云与影像数据融合系统及方法
CN107204037A (zh) * 2016-03-17 2017-09-26 中国科学院光电研究院 基于主被动三维成像系统的三维影像生成方法
CN109087339A (zh) * 2018-06-13 2018-12-25 武汉朗视软件有限公司 一种激光扫描点与影像配准方法
CN111638185A (zh) * 2020-05-09 2020-09-08 哈尔滨工业大学 基于无人机平台的遥感探测方法
CN112097688A (zh) * 2020-09-03 2020-12-18 清华大学 基于光栅投影三维成像的多光谱三维形貌测量方法及装置
CN112183247A (zh) * 2020-09-14 2021-01-05 广东工业大学 一种基于多光谱影像的激光点云数据分类方法
CN113643434A (zh) * 2021-07-12 2021-11-12 广东省国土资源测绘院 基于空地协同的三维建模方法、智能终端以及存储装置
CN114755661A (zh) * 2022-03-03 2022-07-15 武汉大学 一种移动激光扫描系统参数标定方法及标定装置
US11403860B1 (en) * 2022-04-06 2022-08-02 Ecotron Corporation Multi-sensor object detection fusion system and method using point cloud projection

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于机载多源遥感数据的地物目标定位与分类技术研究;赵兵;中国优秀硕士学位论文全文数据库 (工程科技Ⅱ辑);20210630(第6期);C028-82 *

Also Published As

Publication number Publication date
CN115588127A (zh) 2023-01-10

Similar Documents

Publication Publication Date Title
Ravi et al. Simultaneous system calibration of a multi-lidar multicamera mobile mapping platform
CN107316325B (zh) 一种基于图像配准的机载激光点云与影像配准融合方法
Mori et al. An iterative prediction and correction method for automatic stereocomparison
CN110570466A (zh) 三维实景点云模型的生成方法和装置
CN107204037B (zh) 基于主被动三维成像系统的三维影像生成方法
US7149346B2 (en) Three-dimensional database generating system and method for generating three-dimensional database
CN110930508B (zh) 二维光电视频与三维场景融合方法
WO2007133620A2 (en) System and architecture for automatic image registration
CN109900274B (zh) 一种图像匹配方法及系统
Liu et al. A novel adjustment model for mosaicking low-overlap sweeping images
Bybee et al. Method for 3-D scene reconstruction using fused LiDAR and imagery from a texel camera
CN110986888A (zh) 一种航空摄影一体化方法
JP2023505891A (ja) 環境のトポグラフィを測定するための方法
CN113415433A (zh) 基于三维场景模型的吊舱姿态修正方法、装置和无人机
Nasrullah Systematic analysis of unmanned aerial vehicle (UAV) derived product quality
CN116129064A (zh) 电子地图生成方法、装置、设备及存储介质
Guo et al. Accurate Calibration of a Self‐Developed Vehicle‐Borne LiDAR Scanning System
Chellappa et al. On the positioning of multisensor imagery for exploitation and target recognition
Qiu et al. External multi-modal imaging sensor calibration for sensor fusion: A review
CN115588127B (zh) 机载激光点云与多光谱影像融合的方法
Yu et al. Registration and Fusion of UAV LiDAR System Sequence Images and Laser Point Clouds.
Rewehel et al. Geometric correction of aerial camera and LiDAR hybrid system data using GNSS/IMU
Mitishita et al. Study of stability analysis of the interior orientation parameters from the small-format digital camera using on-the-job calibration
Wang et al. A method for generating true digital orthophoto map of UAV platform push-broom hyperspectral scanners assisted by lidar
Guntel et al. Accuracy analysis of control point distribution for different terrain types on photogrammetric block

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant