CN115019214A - 一种基于无人机图像识别的三维数字模型构建方法与系统 - Google Patents

一种基于无人机图像识别的三维数字模型构建方法与系统 Download PDF

Info

Publication number
CN115019214A
CN115019214A CN202210867780.4A CN202210867780A CN115019214A CN 115019214 A CN115019214 A CN 115019214A CN 202210867780 A CN202210867780 A CN 202210867780A CN 115019214 A CN115019214 A CN 115019214A
Authority
CN
China
Prior art keywords
dimensional
image information
model
aerial vehicle
unmanned aerial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210867780.4A
Other languages
English (en)
Inventor
姚吉顺
骆光锋
林云松
郭术军
陈小瀚
张雷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huikun Huapeng Hainan Technology Co ltd
Original Assignee
Huikun Huapeng Hainan Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huikun Huapeng Hainan Technology Co ltd filed Critical Huikun Huapeng Hainan Technology Co ltd
Priority to CN202210867780.4A priority Critical patent/CN115019214A/zh
Publication of CN115019214A publication Critical patent/CN115019214A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Remote Sensing (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于无人机图像识别的三维数字模型构建方法与系统,包括如下步骤:利用无人机采集图像信息;基于所述图像信息,获得融合特征;基于所述融合特征,构建三维几何模型;所述三维几何模型包括无人机采集的不同位置的融合后的图像信息;对所述三维几何模型各融合后的图像信息进行预处理,基于预处理后的所述各图像信息,构建三维数字模型。本发明通过对三维网格模型中全部网格所对应空间区域进行颜色重构,使得在所获得的三维数字模型中,可根据重构的颜色来准确展示属性的变化,由此便于研究人员准确分析。

Description

一种基于无人机图像识别的三维数字模型构建方法与系统
技术领域
本发明属于图像处理技术领域,尤其涉及一种基于无人机图像识别的三维数字模型构建方法与系统。
背景技术
图像形状识别在公共安全、生物、工业、农业、交通、医疗等很多领域都有广泛的应用,能够帮助智能系统分类感兴趣区域的目标,提高工作效率、公共安全、产业效益。
全局特征和局部特征在图像形状分类中具有重要作用,这里的全局特征一般指拓扑特征。但是在认知心理学领域,关于人类视觉是先感知局部特征还是整体特征,一直是同一个热点问题,其中主要分为两派:一是局部优先,另一个是整体优先。前者主要以Marr的计算视觉理论为主,该理论认为视觉信息的获取首先来源于事物的局部特征,例如点、线、面及其组合等属性。成分识别理论认为通过把复杂对象的结构拆分为简单的部件形状,就可进行视觉识别。特征整合理论(Feature Integration),认为视觉处理是一个以自下而上的加工为主要特征的、具有局部交互作用的过程。
目前的一些图像形状识别技术也更偏向于提取图像形状的局部信息,当前深度学习领域的卷积神经网络,先提取局部信息,随着层数的增加,提取更加抽象的高层信息。这种方法的鲁棒性差,不具有对抗攻击的能力。
发明内容
本发明提出了一种基于无人机图像识别的三维数字模型构建方法与系统,可以解决图像鲁棒性差的问题。
一方面为实现上述目的,本发明提供了一种基于无人机图像识别的三维数字模型构建方法,包括如下步骤:
利用无人机采集图像信息;
基于所述图像信息,获得融合特征;基于所述融合特征,构建三维几何模型;所述三维几何模型包括无人机采集的不同位置的融合后的图像信息;
对所述三维几何模型各融合后的图像信息进行预处理,基于预处理后的所述各图像信息,构建三维数字模型。
可选地,基于所述图像信息,获得融合特征的方法为:
提取所述图像信息的卷积特征,并利用持续同调方法提取所述图像信息的拓扑特征;
对所述拓扑特征进行矢量化,得到矢量化拓扑特征;
将所述卷积特征和所述矢量化拓扑特征进行自适应融合,得到融合特征。
可选地,利用持续同调方法提取所述图像信息的拓扑特征的方法为:
将所述图像信息进行灰度化处理,生成灰度化图像;对所述灰度化图像进行过滤;
提取过滤后的所述灰度化图像的拓扑特征。
可选地,所述灰度化图像,即每个像素点有一个元素,取值为0~255之间,白色为255,黑色为0。
可选地,基于所述融合特征,构建三维几何模型的方法为:
根据所述融合特征,构建三维框架模型;
按照图像信息所对应的位置信息,将在不同位置的融合后的图像信息嵌入所述三维框架模型中,获得三维几何模型。
可选地,对所述三维几何模型各融合后的图像信息进行预处理的过程为:
对所述三维几何模型中的各融合后的图像信息进行网格化处理,在各融合后的图像信息中生成等量的网格;
按照所述融合后的图像信息中所生成网格的网格信息,对所述三维几何模型所映射三维空间进行网格化处理,获得三维网格模型;
根据所述融合后的图像信息中每一网格所对应图像区域的灰度值,计算所述三维网格模型中其它网格所对应空间区域的灰度值;
根据所述三维网格模型中全部网格所对应的灰度值,对所述全部网格所对应的空间区域进行颜色重构,获得三维数字模型。
可选地,按照所述融合后的图像信息中所生成网格的网格信息,对所述三维几何模型所映射三维空间进行网格化处理,获得三维网格模型的方法为:
获取所述融合后的图像信息中单一网格的尺寸;
以所述单一网格的尺寸为单位,沿轴心平面所在方向和融合后的图像信息所在方向,将所述三维几何模型所映射的三维空间划分为若干网格化平面,获得三维网格模型。
另一方面为实现上述目的,本发明提供了一种基于无人机图像识别的三维数字模型构建系统,包括:采集模块、三维几何模型构建模块和三维数字模型构建模块;
所述采集模块用于利用无人机采集图像信息;
所述三维几何模型构建模块用于基于所述图像信息,获得融合特征;基于所述融合特征,构建三维几何模型;所述三维几何模型包括无人机采集的不同位置的融合后的图像信息;
所述三维数字模型构建模块用于对所述三维几何模型各融合后的图像信息进行预处理,基于预处理后的所述各图像信息,构建三维数字模型。
与现有技术相比,本发明具有如下优点和技术效果:
本发明公开了一种基于无人机图像识别的三维数字模型构建方法与系统,首先提取图像信息的卷积特征,并利用持续同调方法提取图像信息的拓扑特征,然后对拓扑特征进行矢量化,得到矢量化拓扑特征,并将卷积特征和矢量化拓扑特征进行自适应融合,得到融合特征,最后基于融合特征构建三维几何模型。持续同调方法可以提取图像的连通性、孔洞等全局拓扑特征,增强三维几何模型对噪声的鲁棒性,并且对旋转具有良好的不变性。通过将卷积特征和矢量化拓扑特征进行自适应融合,得到的融合特征能全面的实现对图像的表达,提高图像识别的精度。
此外,本发明在获得三维网格模型后,通过对三维网格模型中全部网格所对应空间区域进行颜色重构,使得在所获得的三维数字模型中,可根据重构的颜色来准确展示属性的变化,由此便于研究人员准确分析。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本发明实施例一的一种基于无人机图像识别的三维数字模型构建方法流程示意图;
图2为本发明实施例二的一种基于无人机图像识别的三维数字模型构建系统结构示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
实施例一
如图1所示,本发明提供一种基于无人机图像识别的三维数字模型构建方法,包括如下步骤:
利用无人机采集图像信息;
基于图像信息,获得融合特征;基于融合特征,构建三维几何模型;三维几何模型包括无人机采集的不同位置的融合后的图像信息;
对三维几何模型各融合后的图像信息进行预处理,基于预处理后的各图像信息,构建三维数字模型。
其中,可按照设定的拍照速度和拍照方向,得到多张待识别图像。
进一步地,基于图像信息,获得融合特征的方法为:
提取图像信息的卷积特征,并利用持续同调方法提取图像信息的拓扑特征;
对拓扑特征进行矢量化,得到矢量化拓扑特征;
将卷积特征和矢量化拓扑特征进行自适应融合,得到融合特征。
其中,可以利用ResNet模型对训练图像的卷积特征进行提取。ResNet模型在数据集上的分类、检测等方面具有良好的性能,可以解决网络退化和梯度消失的问题。
ResNet模型中使用残差网络结构降低了更新冗余层的参数时的学习难度,而残差网络结构中的shortcut连接的结构也保证了反向传播更新参数时,不会出现梯度消失的现象。
其中,将前m个长的特征点的长度(每个点的纵坐标与横坐标之差)形成Rm空间的向量,然后与神经网络连接,对图像特征进行后续操作。
其中,为了解决神经网络提取拓扑特征能力弱的问题,增强特征的互补性,通过自适应系数对矢量拓扑特征与卷积特征赋予不同的注意力,使矢量拓扑特征与卷积特征进行自适应特征融合,得到融合特征。融合特征能够更加全面的实现对图像的表达,进而提高图像识别的精度。
进一步地,利用持续同调方法提取图像信息的拓扑特征的方法为:
将图像信息进行灰度化处理,生成灰度化图像;对所述灰度化图像进行过滤;
提取过滤后的灰度化图像的拓扑特征。
进一步地,灰度化图像,即每个像素点有一个元素,取值为0~255之间,白色为255,黑色为0。
进一步地,基于融合特征,构建三维几何模型的方法为:
根据融合特征,构建三维框架模型;
其中,根据融合特征的形状信息和大小信息,可利用计算机三维重建技术,构建得到三维框架模型。
按照图像信息所对应的位置信息,将在不同位置的融合后的图像信息嵌入三维框架模型中,获得三维几何模型。
进一步地,对三维几何模型各融合后的图像信息进行预处理的过程为:
对三维几何模型中的各融合后的图像信息进行网格化处理,在各融合后的图像信息中生成等量的网格;
其中,对三维几何模型中的各融合后的图像信息进行网格化处理是指,采用相同的计算机平面网格化技术,分别在各融合后的图像信息中生成若干网格,使得每一幅图中所生成网格的大小和数量均相同。
按照融合后的图像信息中所生成网格的网格信息,对三维几何模型所映射三维空间进行网格化处理,获得三维网格模型;
根据融合后的图像信息中每一网格所对应图像区域的灰度值,计算三维网格模型中其它网格所对应空间区域的灰度值;
其中,融合后的图像信息中每一网格所对应图像区域的灰度值,是在拾取每一网格所对应图像区域的RGB色标值后,通过对所拾取RGB色标值进行计算得到的。
根据三维网格模型中全部网格所对应的灰度值,对全部网格所对应的空间区域进行颜色重构,获得三维数字模型。
进一步地,按照融合后的图像信息中所生成网格的网格信息,对三维几何模型所映射三维空间进行网格化处理,获得三维网格模型的方法为:
获取融合后的图像信息中单一网格的尺寸;
其中,可根据融合后的图像信息中X轴方向和Y轴方向的网格数量,以及融合后的图像信息分别沿X轴方向和Y轴方向的长度,计算图像信息中单一网格的尺寸。
以单一网格的尺寸为单位,沿轴心平面所在方向和融合后的图像信息所在方向,将三维几何模型所映射的三维空间划分为若干网格化平面,获得三维网格模型。
本发明对三维几何模型各融合后的图像信息进行预处理,基于预处理后的各图像信息,构建三维数字模型:示例性的,通过对岩心的三维数字化模型进行可视化展示,使得地质研究人员根据所展示的三维数字模型实现对岩心的分析,获得岩心所对应储层岩石中的骨架、孔隙、油气饱和度等地质属性分布情况,从而根据所获得的地质属性分布情况进行地质的勘探和研究。由此,构建岩心的三维数字模型是地质研究人员进行岩心分析的基础。
如图2所示,本发明还提供了一种基于无人机图像识别的三维数字模型构建系统,包括:采集模块、三维几何模型构建模块和三维数字模型构建模块;
采集模块用于利用无人机采集图像信息;
三维几何模型构建模块用于基于图像信息,获得融合特征;基于融合特征,构建三维几何模型;所述三维几何模型包括无人机采集的不同位置的融合后的图像信息;
所述三维数字模型构建模块用于对三维几何模型各融合后的图像信息进行预处理,基于预处理后的各图像信息,构建三维数字模型。
以上,仅为本申请较佳的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应该以权利要求的保护范围为准。

Claims (8)

1.一种基于无人机图像识别的三维数字模型构建方法,其特征在于,包括以下步骤:
利用无人机采集图像信息;
基于所述图像信息,获得融合特征;基于所述融合特征,构建三维几何模型;所述三维几何模型包括无人机采集的不同位置的融合后的图像信息;
对所述三维几何模型各融合后的图像信息进行预处理,基于预处理后的所述各图像信息,构建三维数字模型。
2.根据权利要求1所述的基于无人机图像识别的三维数字模型构建方法,其特征在于,基于所述图像信息,获得融合特征的方法为:
提取所述图像信息的卷积特征,并利用持续同调方法提取所述图像信息的拓扑特征;
对所述拓扑特征进行矢量化,得到矢量化拓扑特征;
将所述卷积特征和所述矢量化拓扑特征进行自适应融合,得到融合特征。
3.根据权利要求2所述的基于无人机图像识别的三维数字模型构建方法,其特征在于,利用持续同调方法提取所述图像信息的拓扑特征的方法为:
将所述图像信息进行灰度化处理,生成灰度化图像;对所述灰度化图像进行过滤;
提取过滤后的所述灰度化图像的拓扑特征。
4.根据权利要求3所述的基于无人机图像识别的三维数字模型构建方法,其特征在于,
所述灰度化图像,即每个像素点有一个元素,取值为0~255之间,白色为255,黑色为0。
5.根据权利要求1所述的基于无人机图像识别的三维数字模型构建方法,其特征在于,基于所述融合特征,构建三维几何模型的方法为:
根据所述融合特征,构建三维框架模型;
按照图像信息所对应的位置信息,将在不同位置的融合后的图像信息嵌入所述三维框架模型中,获得三维几何模型。
6.根据权利要求1所述的基于无人机图像识别的三维数字模型构建方法,其特征在于,对所述三维几何模型各融合后的图像信息进行预处理的过程为:
对所述三维几何模型中的各融合后的图像信息进行网格化处理,在各融合后的图像信息中生成等量的网格;
按照所述融合后的图像信息中所生成网格的网格信息,对所述三维几何模型所映射三维空间进行网格化处理,获得三维网格模型;
根据所述融合后的图像信息中每一网格所对应图像区域的灰度值,计算所述三维网格模型中其它网格所对应空间区域的灰度值;
根据所述三维网格模型中全部网格所对应的灰度值,对所述全部网格所对应的空间区域进行颜色重构,获得三维数字模型。
7.根据权利要求6所述的基于无人机图像识别的三维数字模型构建方法,其特征在于,按照所述融合后的图像信息中所生成网格的网格信息,对所述三维几何模型所映射三维空间进行网格化处理,获得三维网格模型的方法为:
获取所述融合后的图像信息中单一网格的尺寸;
以所述单一网格的尺寸为单位,沿轴心平面所在方向和融合后的图像信息所在方向,将所述三维几何模型所映射的三维空间划分为若干网格化平面,获得三维网格模型。
8.一种基于无人机图像识别的三维数字模型构建系统,其特征在于,包括:采集模块、三维几何模型构建模块和三维数字模型构建模块;
所述采集模块用于利用无人机采集图像信息;
所述三维几何模型构建模块用于基于所述图像信息,获得融合特征;基于所述融合特征,构建三维几何模型;所述三维几何模型包括无人机采集的不同位置的融合后的图像信息;
所述三维数字模型构建模块用于对所述三维几何模型各融合后的图像信息进行预处理,基于预处理后的所述各图像信息,构建三维数字模型。
CN202210867780.4A 2022-07-22 2022-07-22 一种基于无人机图像识别的三维数字模型构建方法与系统 Pending CN115019214A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210867780.4A CN115019214A (zh) 2022-07-22 2022-07-22 一种基于无人机图像识别的三维数字模型构建方法与系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210867780.4A CN115019214A (zh) 2022-07-22 2022-07-22 一种基于无人机图像识别的三维数字模型构建方法与系统

Publications (1)

Publication Number Publication Date
CN115019214A true CN115019214A (zh) 2022-09-06

Family

ID=83103541

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210867780.4A Pending CN115019214A (zh) 2022-07-22 2022-07-22 一种基于无人机图像识别的三维数字模型构建方法与系统

Country Status (1)

Country Link
CN (1) CN115019214A (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109887073A (zh) * 2018-08-16 2019-06-14 清能艾科(深圳)能源技术有限公司 岩心的三维数字模型构建方法及装置
CN112183559A (zh) * 2020-10-27 2021-01-05 深圳市威富视界有限公司 图像识别模型训练方法、图像识别方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109887073A (zh) * 2018-08-16 2019-06-14 清能艾科(深圳)能源技术有限公司 岩心的三维数字模型构建方法及装置
CN112183559A (zh) * 2020-10-27 2021-01-05 深圳市威富视界有限公司 图像识别模型训练方法、图像识别方法及装置

Similar Documents

Publication Publication Date Title
CN109446992B (zh) 基于深度学习的遥感影像建筑物提取方法及系统、存储介质、电子设备
CN107239751B (zh) 基于非下采样轮廓波全卷积网络的高分辨sar图像分类方法
Zhou et al. Seamless fusion of LiDAR and aerial imagery for building extraction
CN104778721B (zh) 一种双目图像中显著性目标的距离测量方法
CN102592136B (zh) 基于几何图像中中频信息的三维人脸识别方法
CN104063702B (zh) 一种基于遮挡修复和局部相似性匹配的三维步态识别方法
Sahar et al. Using aerial imagery and GIS in automated building footprint extraction and shape recognition for earthquake risk assessment of urban inventories
CN109815850A (zh) 基于深度学习的虹膜图像分割及定位方法、系统、装置
CN112733800B (zh) 基于卷积神经网络的遥感图像道路信息提取方法和装置
CN106339998A (zh) 基于对比度金字塔变换的多聚焦图像融合方法
CN106910202B (zh) 一种遥感图像地物的图像分割方法及系统
CN111027497B (zh) 基于高分辨率光学遥感影像的弱小目标快速检测方法
Abdollahi et al. Extraction of road features from UAV images using a novel level set segmentation approach
CN109214422B (zh) 基于dcgan的停车数据修补方法、装置、设备及存储介质
CN115564926B (zh) 基于影像建筑物结构学习的三维面片模型构建方法
CN110222767A (zh) 基于嵌套神经网络和栅格地图的三维点云分类方法
CN113610070A (zh) 一种基于多源数据融合的滑坡灾害识别方法
CN112115871B (zh) 适用于行人目标检测的高低频交织边缘特征增强方法
Xu et al. Feature-based constraint deep CNN method for mapping rainfall-induced landslides in remote regions with mountainous terrain: An application to Brazil
CN117788296B (zh) 基于异构组合深度网络的红外遥感图像超分辨率重建方法
Lijun et al. Geo‐information mapping improves Canny edge detection method
Ji et al. Feature fusion-based registration of satellite images to airborne LiDAR bathymetry in island area
Wang et al. PACCDU: Pyramid attention cross-convolutional dual UNet for infrared and visible image fusion
Quackenbush et al. Road extraction: A review of LiDAR-focused studies
CN117422971A (zh) 一种基于跨模态注意力机制融合的双模态目标检测方法与系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20220906