CN112329887B - 基于尺度自适应滤波的高光谱和LiDAR联合分类方法 - Google Patents

基于尺度自适应滤波的高光谱和LiDAR联合分类方法 Download PDF

Info

Publication number
CN112329887B
CN112329887B CN202011353979.2A CN202011353979A CN112329887B CN 112329887 B CN112329887 B CN 112329887B CN 202011353979 A CN202011353979 A CN 202011353979A CN 112329887 B CN112329887 B CN 112329887B
Authority
CN
China
Prior art keywords
lidar
map
fusion
features
hyperspectral
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011353979.2A
Other languages
English (en)
Other versions
CN112329887A (zh
Inventor
贾森
詹樟伟
邓琳
徐萌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen University
Original Assignee
Shenzhen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen University filed Critical Shenzhen University
Priority to CN202011353979.2A priority Critical patent/CN112329887B/zh
Publication of CN112329887A publication Critical patent/CN112329887A/zh
Application granted granted Critical
Publication of CN112329887B publication Critical patent/CN112329887B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于尺度自适应滤波的高光谱和LiDAR联合分类方法,该方法包括:获取光谱特征,所述光谱特征包括高光谱图像和LiDAR;对高光谱图像进行处理,获取过分割超像素图;对高光谱图像和LiDAR分别进行Shearlet转换,提取纹理特征和区域特征;通过度量光谱特征,纹理特征和区域特征的距离,将所述过分割超像素图转进行逐步融合,得到最终融合图;对所述最终融合图进行处理,得到尺度图;根据所述尺度图,获得可变均值滤波器;通过所述可变均值滤波器对所述光谱特征进行处理,并采用分类器对处理结果进行分类,获得地物分类。本发明解决了传统遥感图像处理中,滤波器核尺寸在不同位置的选取问题,提高了地物的特征表现能力和分辨能力。

Description

基于尺度自适应滤波的高光谱和LiDAR联合分类方法
技术领域
本发明涉及图像分类技术领域,尤其涉及一种基于尺度自适应滤波的高光谱和LiDAR联合分类方法。
背景技术
随着遥感技术的发展,人们在遥感图像处理技术上的方法趋向使用多源数据融合,其中高光谱和激光探测及测距系统LiDAR联合使用得到了快速发展。
高光谱数据提供了光谱和空间的联合信息,对地物具有更强的辨别能力,但由于高光谱图像具有空间和光谱的平滑性,造成了相邻波段的高度相关。激光探测及测距系统LiDAR可以采集物体在立体空间中的位置信息和强度信息,但由于缺乏目标的语义信息,LiDAR对具有相似高度却又不同光谱的目标辨别能力很差。在图像处理中,小波分析能够提供最优近似拟合,其中Shearlet能够准确的捕获边缘及边缘方向,具有可逆的紧支撑框架,可用于特征提取、数据融合、边缘检测等方面。目前已经发展了许多滤波器用于处理高光谱和LiDAR数据,但在地物分类上,过大的滤波器核容易在地物交界处引入不同种类的信息,而位于同一种地物的区域中心处,较小的滤波器核对异常点过滤效果较差。
发明内容
本发明的主要目的在于提出一种基于尺度自适应滤波的高光谱和LiDAR联合分类方法,旨在解决传统遥感图像处理中,滤波器核尺寸在不同位置的选取问题,提高地物的特征表现能力。
为实现上述目的,本发明提供一种基于尺度自适应滤波的高光谱和LiDAR联合分类方法,所述方法应用于遥感图像地物分类系统,所述方法包括如下步骤:
获取光谱特征,所述光谱特征包括高光谱图像和激光探测及测距系统LiDAR;
对所述高光谱图像进行超像素分割,获取过分割超像素图;
对所述高光谱图像和所述LiDAR分别进行Shearlet转换,提取纹理特征和区域特征;
根据所述光谱特征、纹理特征和区域特征,获取融合代价,根据所述融合代价对所述过分割超像素图进行区域融合,获取最终融合图;
对所述最终融合图进行处理,得到尺度图;
根据所述尺度图,获得可变均值滤波器;
通过所述可变均值滤波器对所述光谱特征进行卷积计算,并采用分类器对卷积结果进行分类,获得分类结果。
可选地,所述对所述高光谱图像和所述LiDAR分别进行Shearlet转换,提取纹理特征和区域特征的步骤包括:
将所述LiDAR在Shearlet域下进行转换,获取所述LiDAR的频域框架,将所述频域框架分为高频部分和低频部分,将所述高频部分进行叠加,获取所述LiDAR的纹理特征,将所述低频部分进行逆转化,获取所述LiDAR的区域特征;
将所述高光谱图像的各个谱带在Shearlet域下进行转换,获取所述高光谱图像的各个谱带的频域框架,将所述频域框架分为高频部分和低频部分,将所述高频部分进行叠加,获取所述高光谱图像的各个谱带的纹理特征,将所述低频部分进行逆转化,获取所述高光谱图像的各个谱带的纹理特征和区域特征。
可选地,所述根据所述光谱特征、纹理特征和区域特征,获取融合代价,根据所述融合代价对所述过分割超像素图进行区域融合,获取最终融合图的步骤包括:
根据所述光谱特征、纹理特征和区域特征,计算所述过分割超像素图中每对相邻区域对应的光谱距离、纹理距离和区域距离,根据所述光谱距离、纹理距离和区域距离,获取所述过分割超像素图中每对相邻区域对应的融合代价;
根据所述融合代价,对所述过分割超像素图进行区域融合,获得最终融合图。
可选地,所述过分割超像素图包含若干对相邻区域,根据所述光谱特征、纹理特征和区域特征,计算所述过分割超像素图中每对相邻区域对应的光谱距离、纹理距离和区域距离,根据所述光谱距离、纹理距离和区域距离,获取所述过分割超像素图中每对相邻区域对应的融合代价的步骤包括:
根据所述高光谱图像、所述LiDAR、所述纹理特征和所述区域特征,计算所述过分割超像素图中每对相邻区域的光谱距离、纹理距离、区域距离;
根据所述光谱距离、纹理距离、区域距离,计算总距离;
根据所述过分割超像素图每对相邻区域的大小和每对相邻区域的共享边缘长度,所述总距离,计算所述每对相邻区域对应的融合代价。
可选地,所述根据所述融合代价,对所述过分割超像素图进行区域融合,获得最终融合图的步骤包括:
将所述过分割超像素图中每对相邻区域和所述对应的融合代价保存在结构体中,并将所述结构体置于优先级队列中;
在所述优先级队列的结构体中选取最小融代价,获取对应最小融合代价的两个相邻区域;
将所述两个相邻区域融合为新的区域,并在所述优先级队列中删除与所述两个相邻区域相关的结构体的结点;
在所述过分割超像素图中,计算所述新的区域和相邻区域的融合代价,并置于所述优先级队列的结构体中;
指定执行次数,重复执行上述过程,达到所述指定执行次数,得到最终融合图。
可选地,所述对所述最终融合图进行处理,得到尺度图的步骤包括:
在所述最终融合图中,将各区域交界的像素点视为区域的边缘像素点,计算所述最终融合图中每个像素点与所述边缘像素点的最短距离,获取所述尺度图。
可选地,所述根据所述尺度图,获得可变均值滤波器的步骤包括:
根据所述尺度图,以所述尺度图的值作为以像素点为中心的均值滤波器核的值,确定所述可变滤波器的滤波核大小,获得可变均值滤波器。
可选地,所述通过所述可变均值滤波器对所述光谱特征进行卷积计算,并采用分类器对进行分类,获得分类结果的步骤包括:
通过所述可变均值滤波器,将所述高光谱图像和所述LiDAR进行卷积,采用随机森林分类器对卷积结果进行分类,获得分类结果。
此外,为实现上述目的,本发明还提供一种基于尺度自适应滤波的高光谱和LiDAR联合分类系统,所述系统包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的基于尺度自适应滤波的高光谱和LiDAR联合分类程序,所述基于尺度自适应滤波的高光谱和LiDAR联合分类程序被所述处理器运行时实现如上所述的基于尺度自适应滤波的高光谱和LiDAR联合分类方法的步骤。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有基于尺度自适应滤波的高光谱和LiDAR联合分类程序,所述基于尺度自适应滤波的高光谱和LiDAR联合分类程序被处理器执行时实现如上所述的基于尺度自适应滤波的高光谱和LiDAR联合分类方法的步骤。
本发明提出的一种基于尺度自适应滤波的高光谱和LiDAR联合分类方法、系统及计算机可读存储介质,获取光谱特征,所述光谱特征包括高光谱图像和激光探测及测距系统LiDAR;对所述高光谱图像进行超像素分割,获取过分割超像素图;对所述高光谱图像和所述LiDAR分别进行Shearlet转换,提取纹理特征和区域特征;根据所述光谱特征、纹理特征和区域特征,获取融合代价,根据所述融合代价对所述过分割超像素图进行区域融合,获取最终融合图;对所述最终融合图进行处理,得到尺度图;根据所述尺度图,获得可变均值滤波器;通过所述可变均值滤波器对所述光谱特征进行卷积计算,并采用分类器对卷积结果进行分类,获得分类结果。通过上述方式,本发明将高光谱图像和LiDAR数据在Shearlet域下的高频和低频信息转化为纹理信息和区域信息,充分利用纹理信息和区域信息,将超像素过分割图像的区域再融合得到尺度图,用以指导可变滤波器自适应滤波器核,解决传统遥感图像处理中,滤波器核尺寸在不同位置的选取问题,提高了地物的特征表现能力,提高了地物分辨能力。
附图说明
图1是本发明实施例方案涉及的硬件运行环境的系统结构示意图;
图2为本发明基于尺度自适应滤波的高光谱和LiDAR联合分类方法第一实施例的流程示意图;
图3为本发明实施例提取高光谱图像中第一谱带的纹理特征和区域特征的示意图;
图4为本发明基于尺度自适应滤波的高光谱和LiDAR联合分类方法实施例的算法示意图;
图5为本发明基于尺度自适应滤波的高光谱和LiDAR联合分类方法第二实施例的流程示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例的主要解决方案是:获取光谱特征,所述光谱特征包括高光谱图像和激光探测及测距系统LiDAR;对所述高光谱图像进行超像素分割,获取过分割超像素图;对所述高光谱图像和所述LiDAR分别进行Shearlet转换,提取纹理特征和区域特征;根据所述光谱特征、纹理特征和区域特征,获取融合代价,根据所述融合代价对所述过分割超像素图进行区域融合,获取最终融合图;对所述最终融合图进行处理,得到尺度图;根据所述尺度图,获得可变均值滤波器;通过所述可变均值滤波器对所述光谱特征进行卷积计算,并采用分类器对卷积结果进行分类,获得分类结果。通过上述方式,本发明将高光谱图像和LiDAR数据在Shearlet域下的高频和低频信息转化为纹理信息和区域信息,充分利用纹理信息和区域信息,将超像素过分割图像的区域再融合得到尺度图,用以指导可变滤波器自适应滤波器核,解决传统遥感图像处理中,滤波器核尺寸在不同位置的选取问题,提高了地物的特征表现能力,提高了地物分辨能力。
在现有遥感图像地物分类技术中,采用的是定核的滤波器对数据进行处理;其次,对shearlet特征的利用中,往往是将高光谱图像和其他遥感数据shearlet系数直接叠加作为分类特征;最后对遥感图像的超像素分割往往用作分类结果的后处理。虽然以上技术方案能够进行地物分类,但往往分类效果不够理想,定核的滤波器不能够实现自适应,过滤结果不够理想;将高光谱图像和其他遥感数据在shearlet域下的系数直接叠加作为分类特征会增大分类过程的计算量,同时分类结果易受噪声等因素的干扰;超像素用于遥感图像分类结果的后处理,严重依赖原始的分类结果。
本发明提出一种解决方案,可以解决传统遥感图像处理中,滤波器核尺寸在不同位置的选取问题,提高地物的特征表现能力。
如图1所示,图1是本发明实施例方案涉及的硬件运行环境的系统结构示意图。
本发明实施例系统可以是PC,也可以是智能手机、平板电脑等具有显示功能的可移动式系统设备。
如图1所示,该系统可以包括:处理器1001,例如CPU,网络接口1004,用户接口1003,存储器1005,通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
优选地,系统还可以包括摄像头、RF(Radio Frequency,射频)电路,传感器、音频电路、WiFi模块等等。其中,传感器比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示屏的亮度,接近传感器可在移动系统移动到耳边时,关闭显示屏和/或背光。作为运动传感器的一种,重力加速度传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别移动系统姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;当然,移动系统还可配置陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
本领域技术人员可以理解,图1中示出的系统结构并不构成对系统的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种计算机存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及基于尺度自适应滤波的高光谱和LiDAR联合分类程序。
在图1所示的系统中,网络接口1004主要用于连接后台服务器,与后台服务器进行数据通信;用户接口1003主要用于连接客户端(用户端),与客户端进行数据通信;而处理器1001可以用于调用存储器1005中存储的基于尺度自适应滤波的高光谱和LiDAR联合分类程序,并执行以下操作:
获取光谱特征,所述光谱特征包括高光谱图像和激光探测及测距系统LiDAR;
对所述高光谱图像进行超像素分割,获取过分割超像素图;
对所述高光谱图像和所述LiDAR分别进行Shearlet转换,提取纹理特征和区域特征;
根据所述光谱特征、纹理特征和区域特征,获取融合代价,根据所述融合代价对所述过分割超像素图进行区域融合,获取最终融合图;
对所述最终融合图进行处理,得到尺度图;
根据所述尺度图,获得可变均值滤波器;
通过所述可变均值滤波器对所述光谱特征进行卷积计算,并采用分类器对卷积结果进行分类,获得分类结果。
进一步地,处理器1001可以调用存储器1005中存储的基于尺度自适应滤波的高光谱和LiDAR联合分类程序,还执行以下操作:
将所述LiDAR在Shearlet域下进行转换,获取所述LiDAR的频域框架,将所述频域框架分为高频部分和低频部分,将所述高频部分进行叠加,获取所述LiDAR的纹理特征,将所述低频部分进行逆转化,获取所述LiDAR的区域特征;
将所述高光谱图像的各个谱带在Shearlet域下进行转换,获取所述高光谱图像的各个谱带的频域框架,将所述频域框架分为高频部分和低频部分,将所述高频部分进行叠加,获取所述高光谱图像的各个谱带的纹理特征,将所述低频部分进行逆转化,获取所述高光谱图像的各个谱带的纹理特征和区域特征。
进一步地,处理器1001可以调用存储器1005中存储的基于尺度自适应滤波的高光谱和LiDAR联合分类程序,还执行以下操作:
根据所述光谱特征、纹理特征和区域特征,计算所述过分割超像素图中每对相邻区域对应的光谱距离、纹理距离和区域距离,根据所述光谱距离、纹理距离和区域距离,获取所述过分割超像素图中每对相邻区域对应的融合代价;
根据所述融合代价,对所述过分割超像素图进行区域融合,获得最终融合图。
进一步地,处理器1001可以调用存储器1005中存储的基于尺度自适应滤波的高光谱和LiDAR联合分类程序,还执行以下操作:
根据所述高光谱图像、所述LiDAR、所述纹理特征和所述区域特征,计算所述过分割超像素图中每对相邻区域的光谱距离、纹理距离、区域距离;
根据所述光谱距离、纹理距离、区域距离,计算总距离;
根据所述过分割超像素图中每对相邻区域的大小和每对相邻区域的共享边缘长度,所述总距离,计算所述每对相邻区域对应的融合代价。
进一步地,处理器1001可以调用存储器1005中存储的基于尺度自适应滤波的高光谱和LiDAR联合分类程序,还执行以下操作:
将所述过分割超像素图中每对相邻区域和所述对应的融合代价保存在结构体中,并将所述结构体置于优先级队列中;
在所述优先级队列的结构体中选取最小融代价,获取对应最小融合代价的两个相邻区域;
将所述两个相邻区域融合为新的区域,并在所述优先级队列中删除与所述两个相邻区域相关的结构体的结点;
在所述过分割超像素图中,计算所述新的区域和相邻区域的融合代价,并置于所述优先级队列的结构体中;
指定执行次数,重复执行上述过程,达到所述指定执行次数,得到最终融合图。
进一步地,处理器1001可以调用存储器1005中存储的基于尺度自适应滤波的高光谱和LiDAR联合分类程序,还执行以下操作:
在所述最终融合图中,将各区域交界的像素点视为区域的边缘像素点,计算所述最终融合图中每个像素点与所述边缘像素点的最短距离,获取所述尺度图。
进一步地,处理器1001可以调用存储器1005中存储的基于尺度自适应滤波的高光谱和LiDAR联合分类程序,还执行以下操作:
根据所述尺度图,以所述尺度图的值作为以像素点为中心的均值滤波器核的值,确定所述可变滤波器的滤波核大小,获得可变均值滤波器。
进一步地,处理器1001可以调用存储器1005中存储的基于尺度自适应滤波的高光谱和LiDAR联合分类程序,还执行以下操作:
通过所述可变均值滤波器,将所述高光谱图像和所述LiDAR进行卷积,采用随机森林分类器对卷积结果进行分类,获得分类结果。
本发明提出的一种基于尺度自适应滤波的高光谱和LiDAR联合分类方法、系统及计算机可读存储介质,获取光谱特征,所述光谱特征包括高光谱图像和激光探测及测距系统LiDAR;对所述高光谱图像进行超像素分割,获取过分割超像素图;对所述高光谱图像和所述LiDAR分别进行Shearlet转换,提取纹理特征和区域特征;根据所述光谱特征、纹理特征和区域特征,获取融合代价,根据所述融合代价对所述过分割超像素图进行区域融合,获取最终融合图;对所述最终融合图进行处理,得到尺度图;根据所述尺度图,获得可变均值滤波器;通过所述可变均值滤波器对所述光谱特征进行卷积计算,并采用分类器对卷积结果进行分类,获得分类结果。通过上述方式,本发明将高光谱和LiDAR数据在Shearlet域下的高频和低频信息转化为纹理信息和区域信息,充分利用纹理信息和区域信息,将超像素过分割图像的区域再融合得到尺度图,用以指导可变滤波器自适应滤波器核,解决传统遥感图像处理中,滤波器核尺寸在不同位置的选取问题,提高了地物的特征表现能力,提高了地物分辨能力。
基于上述硬件结构,提出本发明方法实施例。
参照图2,图2为本发明基于尺度自适应滤波的高光谱和LiDAR联合分类方法第一实施例的流程示意图,结合图2,所述方法包括:
步骤S10,获取光谱特征,所述光谱特征包括高光谱图像和激光探测及测距系统LiDAR;
步骤S20,对所述高光谱图像进行超像素分割,获取过分割超像素图;
作为一种实施方式,在本实施例中,获取光谱特征,所述光谱特征包括高光谱图像和激光探测及测距系统LiDAR,并对所述高光谱图像进行预处理,对所述高光谱图像进行超像素分割,获得所述高光谱图像的过分割超像素图。
具体地,作为一种实施例,在本实施例中,对原始高光谱图像的预处理步骤中,可以对原始高光谱图像进行降维,降维方式和保留维度都可以替换,其中,降维方式可以是利用KPCA(Kernel Principal Component Analysis,核主成分分析),也可以是利用PCA(Principal Component Analysis,主成分分析),也可以不做降维,直接利用原始高光谱图像进行后续步骤。超像素分割方法和初始超像素个数的选取方法也可以有多种,其中,超像素分割方法可以是SLIC(Simple Linear Iterative Clustering,简单的线性迭代聚类),也可以是ERS(Entropy Rate Superpixel,熵率超像素),初始超像素个数的选取可以根据高光谱图像的空间分辨率进一步确定。
进一步地,作为一种实施例,在本实施例中,采用KPCA对原始高光谱图像进行降维。设高光谱图像为R∈RX×Y×B,其中X,Y,B分别表示原始高光谱图像的空间维度和光谱维度,选取RBF核和保留99%的能量下,降维后的高光谱为H∈RX×Y×K,其中K是高光谱的保留维度。
进一步地,作为一种实施例,在本实施例中,利用SNIC对原始高光谱进行超像素过分割,设定初始超像素的个数为X*Y/50,得到初始过分割超像素图,过分割超像素图将原始高光谱图像分割为多个微小区域。
步骤S30,对所述高光谱图像和所述LiDAR分别进行Shearlet转换,提取纹理特征和区域特征。
作为一种实施方式,在本实施例中,将所述LiDAR在Shearlet域下进行特征提取,获取所述LiDAR的频域框架,将所述频域框架分为高频部分和低频部分,将所述高频部分进行叠加,获取所述LiDAR的纹理特征,将所述低频部分进行逆转化,获取所述LiDAR的区域特征;将所述高光谱图像的各个谱带在Shearlet域下执行如同LiDAR提取纹理特征和区域特征的步骤,获取所述高光谱图像的各个谱带的纹理特征和区域特征;
具体地,作为一种实施例,在本实施例中,对LiDAR数据L∈RX×Y进行Shearlet转化,得到LiDAR数据的频域框架SH(L),其中尺度值可以改变,只需保证最高频转为纹理信息,其余信息转为区域信息即可,在本实施例中,尺度值取值3。将LiDAR数据的频域框架SH(L)进行分割,SH(L)=SHR(L)+SHH(L),其中SHH(L)表示16个不同方向的最高频区域,SHR(L)表示剩余的13个区域,将最高频部分SHH(L)进行叠加,得到纹理信息剩余部分SHR(L)通过逆转化,得到区域信息LA=inv(SHR(L))。
相应地,对于每个高光谱的谱带Hi(i=1,2,...,K)都执行上述过程,并将纹理特征和区域特征串联起来,得到高光谱的纹理信息为和高光谱的区域信息为/>以高光谱的第一个谱带H1为例,这个过程可以用图3来表示,其中将高光谱的第一个谱带H1进行Shearlet转化,得到H1的频域框架,其中包括16个不同方向的高频部分和13个低频部分,将高频部分进行叠加,得到H1的纹理信息/>将13个低频部分通过逆转化,得到区域信息/>
步骤S40,根据所述光谱特征、纹理特征和区域特征,获取融合代价,根据所述融合代价对所述过分割超像素图进行区域融合,获取最终融合图。
作为一种实施方式,在本实施例中,根据所述光谱特征、纹理特征和区域特征,计算所述过分割超像素图中每对相邻区域对应的光谱距离、纹理距离和区域距离,根据所述光谱距离、纹理距离和区域距离,获取所述过分割超像素图中每对相邻区域对应的融合代价;根据所述融合代价,对所述过分割超像素图进行区域融合,获得最终融合图。
具体地,作为一种实施例,在本实施例中,过分割超像素图将原始高光谱图像分割为多个微小的相邻区域,根据提取的纹理特征和区域特征,计算出过分割超像素图中多个微小区域的每一对相邻区域对应的融合代价,选取其中最小的融合代价,即表示该对相邻区域光谱特征最相近,将该对相邻区域融合为新的区域,多次重复这个步骤,指导过分割超像素图进行融合,将过分割超像素图处理为最终融合图。
进一步地,以n和m表示过分割超像素图中的一对相邻区域,则根据提取出来的纹理特征和区域特征,计算相邻区域n和m的光谱距离纹理距离/>区域距离/>计算相邻区域n和m的总距离Dn,m,结合相邻区域n和m的区域大小因素Sn,Sm和相邻区域n和m的共享边缘长度Ln,m,计算出相邻区域n和m的融合代价。
进一步地,在过分割超像素图中,将每一对相邻区域都进行如上计算融合代价的过程,在所有的融合代价中选取最小融合代价,在过分割超像素图中,将此最小融合代价对应的相邻区域融合为新的区域,多次重复这个步骤,指导过分割超像素图进行融合,将过分割超像素图处理为最终融合图。
步骤S50,对所述最终融合图进行处理,得到尺度图。
作为一种实施方式,在本实施例中,在所述最终融合图中,将各区域交界的像素点视为区域的边缘像素点,计算所述最终融合图中每个像素点与所述边缘像素点的最短距离,获取所述尺度图。
具体地,作为一种实施例,在本实施例中,在最终融合图,融合后各区域边缘连续,并且区域与区域之间存在交界的像素点,将区域与区域之间存在交界的像素点视为区域边缘点,在最终融合图中,计算每个像素点到区域边缘点的最短距离d(p),对任意一点,都有得到尺度图S(p)。
步骤S60,根据所述尺度图,获得可变均值滤波器。
作为一种实施方式,在本实施例中,根据所述尺度图,以所述尺度图的值作为以像素点为中心的均值滤波器核的值,确定所述可变滤波器的滤波核大小,获得可变均值滤波器。
具体地,作为一种实施例,在本实施例中,设计可变均值滤波器。根据尺度图S(p),以点p为例,采用的计算方法(取值范围[1,3,...,55]),大于55的值设为55,获取以点p为中心的滤波算子,如图4,算子可依据像素点的特征进行自适应核大小选取,(1*1),...,(55*55),根据滤波算子确定可变均值滤波器核大小,设计可变均值滤波器,获得可变均值滤波器。也可以采用其他滤波器作为可变滤波器的基准滤波器,如高斯滤波器等。
步骤S70,通过所述可变均值滤波器对所述光谱特征进行卷积计算,并采用分类器对卷积结果进行分类,获得分类结果。
作为一种实施方式,在本实施例中,通过所述可变均值滤波器,将所述高光谱和所述LiDAR进行卷积,采用随机森林分类器对卷积结果进行分类,获得分类结果。
具体地,作为一种实施例,在本实施例中,根据可变均值滤波器对高光谱的和所述LiDAR进行卷积,采用随机森林分类器对卷积结果进行分类,获取分类结果,实现地物分类。如图4所示,根据可变均值滤波器对高光谱的和所述LiDAR光谱特征进行卷积计算,光谱特征也可以替换为其他特征,如局部二值特征,形态学特征等,对卷积结果进行分类,本实施例中采用森林分类器进行分类,也可以替换成其他分类器,如SVM分类器(Support VectorMachine,支持向量机),KNN分类器(K-Nearest Neighbor algorithm,K-最邻近方法)等,实现地物分类。
本实施例通过上述方案,获取光谱特征,所述光谱特征包括高光谱图像和激光探测及测距系统LiDAR;对所述高光谱图像进行超像素分割,获取过分割超像素图;对所述高光谱图像和所述LiDAR分别进行Shearlet转换,提取纹理特征和区域特征;根据所述光谱特征、纹理特征和区域特征,获取融合代价,根据所述融合代价对所述过分割超像素图进行区域融合,获取最终融合图;对所述最终融合图进行处理,得到尺度图;根据所述尺度图,获得可变均值滤波器;通过所述可变均值滤波器对所述光谱特征进行卷积计算,并采用分类器对卷积结果进行分类,获得分类结果。通过上述方式,本发明将高光谱图像和LiDAR数据在Shearlet域下的高频和低频信息转化为纹理信息和区域信息,充分利用纹理信息和区域信息,将超像素过分割图像的区域再融合得到尺度图,用以指导可变滤波器自适应滤波器核,解决传统遥感图像处理中,滤波器核尺寸在不同位置的选取问题,提高了地物的特征表现能力,提高了地物分辨能力。
进一步地,参照图5,图5为本发明基于尺度自适应滤波的高光谱和LiDAR联合分类方法第二实施例的流程示意图。基于上述图2所示的实施例,在上述步骤S40:根据所述光谱特征、纹理特征和区域特征,获取融合代价,根据所述融合代价对所述过分割超像素图进行区域融合,获取最终融合图,还包括:
步骤S401,根据所述高光谱图像、所述LiDAR、所述纹理特征和所述区域特征,计算所述过分割超像素图中每对相邻区域的光谱距离、纹理距离、区域距离;根据所述光谱距离、纹理距离、区域距离,计算总距离;根据所述过分割超像素图中每对相邻区域的大小和每对相邻区域的共享边缘长度,所述总距离,计算所述每对相邻区域对应的融合代价。
作为一种实施方式,在本实施例中,过分割超像素图将原始高光谱图像分割为多个微小的相邻区域,基于高光谱和LiDAR,计算每对相邻区域的光谱距离、纹理距离、区域距离,再结合所述相邻区域的区域大小、所述相邻区域的共享边缘长度,计算总距离,根据所述区域大小,所述相邻区域共享边缘长度,所述总距离,计算所述每对相邻区域对应的融合代价。
具体地,作为一种实施例,在本实施例中,计算过分割超像素图中微小相邻区域的融合代价,融合代价包括光谱距离、纹理距离和区域距离以及区域大小和相邻区域共享边缘长度。
选取一对相邻区域n和m,则相邻区域n和m的光谱距离为其中/>和/>分别表示第i个高光谱谱带和LiDAR数据的区域均值。
进一步地,采用统计学距离计算纹理距离和区域距离,可以是G-statistic距离,也可以是EMD(Earth Mover's Distance)距离,Quadratic-chi距离等,在本实施例中,选取G-statistic距离的度量方式。
以LiDAR的纹理特征LT为例,将LT中的数据全部映射到(0,256)的区间,并将区间划分成等长的r-1个部分,将r个端点视为r个bin,对m区域的所有像素点对bin的贡献进行统计,有
其中/>
计算出每个bin的频率采用G-statistic距离度量方式得到LiDAR的纹理距离/>
同理可以得到LiDAR区域距离以及高光谱的每个谱带纹理距离和区域距离/>
将高光谱和LiDAR的距离结合起来,其中区域距离和纹理距离的计算方法分别为
综上,总距离为其中δ=0.001。结合相邻区域n和m的共享边缘长度Ln,m和相邻区域n和m的区域大小因素Sn,Sm,最终相邻区域n和m的融合代价为
相应地,在过分割超像素图中,对每一对相邻的区域都进行如上计算融合代价的过程,在所有的融合代价中选取最小融合代价。
步骤S402,将所述过分割超像素图中每对相邻区域和所述对应的融合代价保存在结构体中,并将所述结构体置于优先级队列中;在所述优先级队列的结构体中选取最小融代价,获取对应最小融合代价的两个相邻区域;将所述两个相邻区域融合为新的区域,并在所述优先级队列中删除与所述两个相邻区域相关的结构体的结点;在所述过分割超像素图中,计算所述新的区域和相邻区域的融合代价,并置于所述优先级队列的结构体中;指定执行次数,重复执行上述过程,达到所述指定执行次数,得到最终融合图。
作为一种实施方式,在本实施例中,过分割超像素图中每对相邻区域对应的融合代价均已获得,利用结构体记录下每对相邻区域和对应的融合代价,把所有结构体放在一个优先级队列中,从队列中选出其中最小的融合代价Cm,n得到最小的融合代价Cm,n对应的两个相邻区域,在过分割超像素图中,将这两个相邻区域融合在一起形成新的区域取代最小的融合代价Cm,n对应的两个相邻区域,并删去其他与这两个相邻区域相关的结构体,计算新的区域和他邻近区域的融合代价并加入到队列中。
指定一个循环次数N,反复执行这个上述过程达到预先指定的循环次数N,得到最终融合图。
本实施例通过上述方案,获取光谱特征,所述光谱特征包括高光谱图像和激光探测及测距系统LiDAR;对所述高光谱图像进行超像素分割,获取过分割超像素图;对所述高光谱图像和所述LiDAR分别进行Shearlet转换,提取纹理特征和区域特征;根据所述光谱特征、纹理特征和区域特征,获取融合代价,根据所述融合代价对所述过分割超像素图进行区域融合,获取最终融合图;对所述最终融合图进行处理,得到尺度图;根据所述尺度图,获得可变均值滤波器;通过所述可变均值滤波器对所述光谱特征进行卷积计算,并采用分类器对卷积结果进行分类,获得分类结果。通过上述方式,本发明将高光谱图像和LiDAR数据在Shearlet域下的高频和低频信息转化为纹理信息和区域信息,充分利用纹理信息和区域信息,将超像素过分割图像的区域再融合得到尺度图,用以指导可变滤波器自适应滤波器核,解决传统遥感图像处理中,滤波器核尺寸在不同位置的选取问题,提高了地物的特征表现能力,提高了地物分辨能力。
本发明还提供一种基于尺度自适应滤波的高光谱和LiDAR联合分类系统。
本发明基于尺度自适应滤波的高光谱和LiDAR联合分类系统包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的基于尺度自适应滤波的高光谱和LiDAR联合分类程序,所述基于尺度自适应滤波的高光谱和LiDAR联合分类程序被所述处理器执行时实现如上所述的基于尺度自适应滤波的高光谱和LiDAR联合分类方法的步骤。
其中,在所述处理器上运行的基于尺度自适应滤波的高光谱和LiDAR联合分类程序被执行时所实现的方法可参照本发明基于尺度自适应滤波的高光谱和LiDAR联合分类方法各个实施例,此处不再赘述。
本发明还提供一种计算机可读存储介质。
本发明计算机可读存储介质上存储有基于尺度自适应滤波的高光谱和LiDAR联合分类程序,所述基于尺度自适应滤波的高光谱和LiDAR联合分类程序被处理器执行时实现如上所述的基于尺度自适应滤波的高光谱和LiDAR联合分类方法的步骤。
其中,在所述处理器上运行的基于尺度自适应滤波的高光谱和LiDAR联合分类程序被执行时所实现的方法可参照本发明基于尺度自适应滤波的高光谱和LiDAR联合分类方法各个实施例,此处不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台系统设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (5)

1.一种基于尺度自适应滤波的高光谱和LiDAR联合分类方法,其特征在于,所述方法包括如下步骤:
获取光谱特征,所述光谱特征包括高光谱图像和激光探测及测距系统LiDAR;
对所述高光谱图像进行超像素分割,获取过分割超像素图;
对所述高光谱图像和所述LiDAR分别进行Shearlet转换,提取纹理特征和区域特征;
根据所述光谱特征、纹理特征和区域特征,获取融合代价,根据所述融合代价对所述过分割超像素图进行区域融合,获取最终融合图;
对所述最终融合图进行处理,得到尺度图;
根据所述尺度图,获得可变均值滤波器;
通过所述可变均值滤波器对所述光谱特征进行卷积计算,并采用分类器对卷积结果进行分类,获得分类结果;
其中,对所述高光谱图像和所述LiDAR分别进行Shearlet转换,提取纹理特征和区域特征的步骤包括:
将所述LiDAR在Shearlet域下进行转换,获取所述LiDAR的频域框架,将所述频域框架分为高频部分和低频部分,将所述高频部分进行叠加,获取所述LiDAR的纹理特征,将所述低频部分进行逆转化,获取所述LiDAR的区域特征;
将所述高光谱图像的各个谱带在Shearlet域下进行转换,获取所述高光谱图像的各个谱带的频域框架,将所述频域框架分为高频部分和低频部分,将所述高频部分进行叠加,获取所述高光谱图像的各个谱带的纹理特征,将所述低频部分进行逆转化,获取所述高光谱图像的各个谱带的纹理特征和区域特征;
其中,所述过分割超像素图包含若干对相邻区域,所述根据所述光谱特征、纹理特征和区域特征,获取融合代价,根据所述融合代价对所述过分割超像素图进行区域融合,获取最终融合图的步骤包括:
将所述高光谱图像分割为多个微小的相邻区域,基于所述高光谱图像和所述LiDAR,采用G-statistic距离度量方式计算所述过分割超像素图中每对相邻区域的光谱距离、纹理距离、区域距离;
根据所述过分割超像素图中每对相邻区域的区域大小好和所述相邻区域的共享边缘长度,计算总距离;
根据所述区域大小、所述相邻区域的共享边缘长度和所述总距离,计算所述每对相邻区域对应的融合代价;
根据所述融合代价,对所述过分割超像素图进行区域融合,获得最终融合图。
2.如权利要求1所述的基于尺度自适应滤波的高光谱和LiDAR联合分类方法,其特征在于,所述根据所述融合代价,对所述过分割超像素图进行区域融合,获得最终融合图的步骤包括:
将所述过分割超像素图中每对相邻区域和所述对应的融合代价保存在结构体中,并将所述结构体置于优先级队列中;
在所述优先级队列的结构体中选取最小融代价,获取对应最小融合代价的两个相邻区域;
将两个相邻区域融合为新的区域,并在所述优先级队列中删除与所述两个相邻区域相关的结构体的结点;
在所述过分割超像素图中,计算所述新的区域和相邻区域的融合代价,并置于所述优先级队列的结构体中;
指定执行次数,重复执行上述过程,达到所述指定执行次数,得到最终融合图。
3.如权利要求2所述的基于尺度自适应滤波的高光谱和LiDAR联合分类方法,其特征在于,所述对所述最终融合图进行处理,得到尺度图的步骤包括:
在所述最终融合图中,将各区域交界的像素点视为区域的边缘像素点,计算所述最终融合图中每个像素点与所述边缘像素点的最短距离,获取所述尺度图。
4.如权利要求1所述的基于尺度自适应滤波的高光谱和LiDAR联合分类方法,其特征在于,所述根据所述尺度图,获得可变均值滤波器的步骤包括:
根据所述尺度图,以所述尺度图的值作为以像素点为中心的均值滤波器核的值,确定可变滤波器的滤波核大小,获得可变均值滤波器。
5.如权利要求1-4中任一项所述的基于尺度自适应滤波的高光谱和LiDAR联合分类方法,其特征在于,所述通过所述可变均值滤波器对所述光谱特征进行卷积计算,并采用分类器对卷积结果进行分类,获得分类结果的步骤包括:
通过所述可变均值滤波器,将所述高光谱图像和所述LiDAR进行卷积,采用随机森林分类器对卷积结果进行分类,获得分类结果。
CN202011353979.2A 2020-11-26 2020-11-26 基于尺度自适应滤波的高光谱和LiDAR联合分类方法 Active CN112329887B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011353979.2A CN112329887B (zh) 2020-11-26 2020-11-26 基于尺度自适应滤波的高光谱和LiDAR联合分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011353979.2A CN112329887B (zh) 2020-11-26 2020-11-26 基于尺度自适应滤波的高光谱和LiDAR联合分类方法

Publications (2)

Publication Number Publication Date
CN112329887A CN112329887A (zh) 2021-02-05
CN112329887B true CN112329887B (zh) 2023-12-05

Family

ID=74309597

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011353979.2A Active CN112329887B (zh) 2020-11-26 2020-11-26 基于尺度自适应滤波的高光谱和LiDAR联合分类方法

Country Status (1)

Country Link
CN (1) CN112329887B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116673597B (zh) * 2023-07-28 2023-10-13 清华大学 用于双v复合型坡口的激光线图像特征提取系统及方法
CN117876890B (zh) * 2024-03-11 2024-05-07 成都信息工程大学 一种基于多级特征融合的多源遥感图像分类方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106503739A (zh) * 2016-10-31 2017-03-15 中国地质大学(武汉) 联合光谱和纹理特征的高光谱遥感影像svm分类方法及系统
CN109101977A (zh) * 2018-06-27 2018-12-28 深圳大学 一种基于无人机的数据处理的方法及装置
CN110796038A (zh) * 2019-10-15 2020-02-14 南京理工大学 结合快速区域生长超像素分割的高光谱遥感图像分类方法
CN111860153A (zh) * 2020-01-09 2020-10-30 九江学院 尺度自适应的高光谱图像分类方法及系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8374404B2 (en) * 2009-02-13 2013-02-12 Raytheon Company Iris recognition using hyper-spectral signatures
CN106295542A (zh) * 2016-08-03 2017-01-04 江苏大学 一种夜视红外图像中的基于显著性的道路目标提取方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106503739A (zh) * 2016-10-31 2017-03-15 中国地质大学(武汉) 联合光谱和纹理特征的高光谱遥感影像svm分类方法及系统
CN109101977A (zh) * 2018-06-27 2018-12-28 深圳大学 一种基于无人机的数据处理的方法及装置
CN110796038A (zh) * 2019-10-15 2020-02-14 南京理工大学 结合快速区域生长超像素分割的高光谱遥感图像分类方法
CN111860153A (zh) * 2020-01-09 2020-10-30 九江学院 尺度自适应的高光谱图像分类方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Superpixel-Based Feature Extraction and Fusion Method for Hyperspectral and LiDAR Classification;Sen Jia 等;《2018 24th International Conference on Pattern Recognition (ICPR)》;第764-769页 *
面向高光谱图像分类的超像素级Gabor 特征融合方法研究;贾森 等;《南京信息工程大学学报》;第72-80页 *

Also Published As

Publication number Publication date
CN112329887A (zh) 2021-02-05

Similar Documents

Publication Publication Date Title
US11380114B2 (en) Target detection method and apparatus
CN106469316B (zh) 基于超像素级信息融合的高光谱图像的分类方法及系统
CN108052624B (zh) 点云数据处理方法、装置及计算机可读存储介质
JP3964327B2 (ja) 画像内の関心領域を決定するための方法及び装置及び画像伝送方法及び装置
EP2545502B1 (en) Image feature detection based on application of multiple feature detectors
CN107665324B (zh) 一种图像识别方法及终端
CN112329887B (zh) 基于尺度自适应滤波的高光谱和LiDAR联合分类方法
RU2731370C1 (ru) Способ распознавания живого организма и терминальное устройство
US20130287251A1 (en) Image recognition device, image recognition method, and image recognition program
Fendri et al. Fusion of thermal infrared and visible spectra for robust moving object detection
KR101409810B1 (ko) 파티클 필터를 이용한 움직임 카메라에서의 실시간 객체 추적 방법
KR20170056860A (ko) 이미지 생성 방법 및 장치
US20120020558A1 (en) Method for estimating attribute of object, apparatus thereof, and storage medium
CN111046923B (zh) 一种基于边界框的图像目标检测方法、装置及存储介质
CN111401278A (zh) 安全帽识别方法、装置、电子设备及存储介质
CN111860309A (zh) 一种人脸识别方法及系统
CN111199169A (zh) 图像处理方法和装置
CN113516194B (zh) 高光谱遥感影像半监督分类方法、装置、设备及存储介质
WO2022109945A1 (zh) 基于尺度自适应滤波的高光谱和LiDAR联合分类方法
CN108257148B (zh) 特定对象的目标建议窗口生成方法及其在目标跟踪的应用
CN110046639A (zh) 一种基于超像素权重密度的高光谱影像噪声标签检测方法
CN112418271A (zh) 一种目标检测方法、装置、系统及存储介质
CN110222576B (zh) 拳击动作识别方法、装置和电子设备
JP2013011950A (ja) 画像処理装置、画像処理方法及びプログラム
JP5051671B2 (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant