CN113837353A - 基于特征筛选和深度融合的卷积神经网络特征融合算法 - Google Patents

基于特征筛选和深度融合的卷积神经网络特征融合算法 Download PDF

Info

Publication number
CN113837353A
CN113837353A CN202110942485.6A CN202110942485A CN113837353A CN 113837353 A CN113837353 A CN 113837353A CN 202110942485 A CN202110942485 A CN 202110942485A CN 113837353 A CN113837353 A CN 113837353A
Authority
CN
China
Prior art keywords
feature
features
channel
fusion
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110942485.6A
Other languages
English (en)
Other versions
CN113837353B (zh
Inventor
王梨名
祁昆仑
杨超
马欣悦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China University of Geosciences
Original Assignee
China University of Geosciences
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China University of Geosciences filed Critical China University of Geosciences
Priority to CN202110942485.6A priority Critical patent/CN113837353B/zh
Publication of CN113837353A publication Critical patent/CN113837353A/zh
Application granted granted Critical
Publication of CN113837353B publication Critical patent/CN113837353B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于特征筛选和深度融合的卷积神经网络特征融合算法。方法包括如下步骤:(1)、将来自同一幅影像的多个不同的卷积特征按照通道进行拼接。然后对拼接后的特征进行批量归一化,来调整各层输出特征的分布。(2)对融合后的综合特征进行包括挤压、激励和注意三个过程的特征筛选。(3)通过一维卷积对多个特征进行深度融合,进一步挖掘各个特征的信息和特征信息之间的关系。(4)最后对深度融合的特征进行激活,通过激活函数把激活的特征保留并映射出来。本发明可以明显提升深度学习方法中多特征(多尺度特征融合、注意力特征融合等)相关类别算法模型的精度,提高图像分类、语义分割和目标检测等任务的识别效果。

Description

基于特征筛选和深度融合的卷积神经网络特征融合算法
技术领域
本发明涉及计算机视觉领域,具体涉及图像处理,尤其涉及一种基于深度学习的卷积神经网络特征融合算法。
背景技术
随着深度学习的快速发展,以卷积神经网络为基础的深度学习算法模型在图像识别、语义分割、目标检测等众多领域广泛应用,并提出众多先进算法。其中,在设计算法的过程中,会经常用到特征融合的方法,比如多尺度特征融合、注意力特征和原始图像特征融合、底层特征和高层特征融合等。一般的特征融合方法有两种:拼接和相加,拼接是把不同的特征按照通道合并的方式进行拼接,相加是不同特征的特征值直接进行相加。而这种简单的拼接或相加特征融合方式不能够充分的利用特征的信息,也没用深层次挖掘特征之间的关系,造成图像处理过程中目标识别的精度不高。
发明内容
为了解决上述问题,本发明提出了基于特征筛选和深度融合的卷积神经网络特征融合算法。该方法相较于传统的合并和相加更能够充分利用特征信息,提升算法模型的精度。
为了实现上述技术目的,达到上述技术效果,本发明是通过以下技术方案实现:
一种基于特征筛选和深度融合的卷积神经网络特征融合算法,包括以下步骤:
步骤1、将一批来自m幅影像的n个不同的卷积特征按照通道进行拼接。每一个卷积特征的通道为C,大小均为H×W,拼接后的特征大小为m×nC×H×W。
步骤2、对步骤1得到的拼接特征进行批量归一化,得到综合特征。
步骤3、通过通道注意力的方法对步骤2得到的综合特征进行特征筛选。
步骤4、通过一维卷积对步骤3得到的筛选后的特征进行深度融合,进一步挖掘各个特征的信息和各个信息之间的关系。
步骤5、通过ReLu激活函数对步骤4深度融合后的特征进行激活,得到基于特征筛选和深度融合的卷积神经网络,根据所述基于特征筛选和深度融合的卷积神经网络得到深度处理后的图像特征。
进一步的,所述的一种基于特征筛选和深度融合的卷积神经网络特征融合算法,其特征在于,在步骤2中所述的批量归一化(Batch Normalization,BN)是通过利用每一个小批量的均值和方差来调整神经网络各层输出特征的分布,使其符合高斯分布,解决数据分布带来的梯度消失和梯度爆炸问题,从而使整个神经网络在各层的中间输出的数值更稳定。小批量数据的均值和方差公式分别为:
Figure BDA0003215394990000021
Figure BDA0003215394990000022
其中,μB为小批量B的均值,
Figure BDA0003215394990000023
为小批量B的方差,m为小批量的数目即每一个卷积特征的特征数,xi为小批量数据中第i个数据的值,其中i=1,2,3......m。归一化的公式为:
Figure BDA0003215394990000024
其中,
Figure BDA0003215394990000025
为归一化后的值,∈为一个很小的常数项,防止分母为0。归一化后再自适应的进行拉伸和偏移,拉伸偏移公式为:
Figure BDA0003215394990000026
其中,yi为批量归一化后的值,γ和β为网络模型的两个可学习的参数。
进一步的,所述的一种基于特征筛选和深度融合的卷积神经网络特征融合算法,其特征在于,步骤3中,特征筛选包括挤压、激励和注意三个过程,具体步骤如下:
步骤3.1、对步骤2得到的综合特征的每一个通道的特征进行挤压,挤压是把每个通道的特征值都压缩成一个值,挤压函数如下所示:
Figure BDA0003215394990000027
其中,H表示输入图像特征的高,W表示输入图像特征的宽,(i,j)表示图像特征中的位置坐标即图像特征的一个像素,uc(i,j)表示该位置的像素值即该位置的特征值,uc(·)表示通道C像元的特征值,Fsq表示压缩后的特征值。
步骤3.2、对步骤3.1挤压后的函数进行激励,激励是通过全连接层和激活函数来得到每个通道的权重,激励函数如下所示:
Fex(z,W)=σ(W2δ(W1z+b1)+b2)
其中,σ表示Sigmoid激活函数,δ表示ReLU激活函数,W1和W2表示两层全连接层的权重系数,b1和b2表示两层全连接层的偏置系数,Fex表示特征z对应激励函数值即每个通道的权重。
进一步的,所述的一种基于特征筛选和深度融合的卷积神经网络特征融合算法,其特征在于,在步骤3.2中,所述激活函数对所得特征值进行非线性变换,σ所表示得Sigmoid激活函数S(x)和δ所表示的ReLU激活函数f(x)的函数公式如下:
步骤3.2.1、σ所表示得Sigmoid激活函数的函数公式如下:
Figure BDA0003215394990000031
其中,x为输入特征值,S(x)为输出的[0,1]之间特征的概率;
Sigmoid函数是将特征映射到[0,1]之间,获得通道每一层的权重概率。
步骤3.2.2、δ所表示的ReLU激活函数的函数公式如下:
f(x)=max(0,x)
其中,x为输入特征值,f(x)为激活之后的特征值。ReLU函数增加函数的非线性表达,目的是通过该函数把激活的神经元特征保留并映射出来。
步骤3.3、对步骤3.2激励后的函数进行注意,注意是使特征的每一个通道的特征值乘以得到的通道权重系数,以此得到通道的注意力,注意函数如下所示:
Fat(uc,sc)=sc·uc
其中,sc表示每个通道的权重系数,uc每个通道的特征值;将步骤二得到的综合特征的每一个通道的特征值乘以得到的每个通道权重系数即为通道注意力。
进一步的,所述的一种基于特征筛选和深度融合的卷积神经网络特征融合算法,其特征在于,步骤4所述一维卷积的卷积核大小为1×1,输入维度和输出维度一致,都为输入特征的通道数大小;
本发明的收益效果是:
1、本发明可以对拼接后的特征进行筛选,以去除无用特征,充分保留关键特征信息。
2、本发明可以深度融合多个特征,进一步得到特征有用信息和挖掘多特征之间的关系。
3、本发明主要改进了深度卷积神经网络特征融合算法,本发明的特征融合算法基于特征筛选和深度融合的方式,相较于传统的简单合并和相加方式更能够充分利用特征信息,提升算法模型的精度。可以明显提升深度学习方法中多特征(多尺度特征融合、注意力特征融合等)相关类别算法模型的精度,提高图像分类、语义分割和目标检测等任务的识别效果。
附图说明
图1为本发明整体流程示意图;
图2为具体实施例的流程图。
具体实施方式
为了对本发明的技术特征、目的和效果有更加清楚的理解,现对照附图详细说明本发明的具体实施方式。
本发明的实施例提供了一种基于特征筛选和深度融合的卷积神经网络特征融合算法。
请参考图1-2,图1为本发明整体流程示意图,图2是本发明实施例中一种基于特征筛选和深度融合的卷积神经网络特征融合算法的流程图,具体包括如下步骤:
步骤1、将一批来自m幅影像的2个不同的卷积特征按照通道进行拼接。每一个卷积特征的通道为C,大小均为H×W,拼接后的特征大小为m×2C×H×W。
步骤2、对步骤1得到的拼接特征进行批量归一化,所述的批量归一化(BatchNormalization,BN)是通过利用每一个小批量的均值和方差来调整神经网络各层输出特征的分布,使其符合高斯分布,用于解决数据分布带来的梯度消失和梯度爆炸问题,从而使整个神经网络在各层的中间输出的数值更稳定。小批量数据的均值和方差公式分别为:
Figure BDA0003215394990000041
Figure BDA0003215394990000042
其中,μB为小批量B的均值,
Figure BDA0003215394990000043
为小批量B的方差,m为小批量的数目即每一个卷积特征的特征数,xi为小批量数据中第i个数据的值,其中i=1,2,3......m。归一化的公式为:
Figure BDA0003215394990000051
其中,
Figure BDA0003215394990000052
为归一化后的值,∈为一个很小的常数项,防止分母为0。归一化后再自适应的进行拉伸和偏移,拉伸偏移公式为:
Figure BDA0003215394990000053
其中,yi为批量归一化后的值,γ和β为神经网络模型的两个可学习的参数。批量归一化后,得到综合特征,大小为m×2C×H×W。
步骤3、通过通道注意力的方法对步骤2得到的综合特征进行特征筛选。特征筛选包括挤压、激励和注意三个过程,具体步骤如下:
步骤3.1、挤压是把每个通道的特征值都压缩成一个值,挤压函数如下所示:
Figure BDA0003215394990000054
其中,H表示输入图像特征的高,W表示输入图像特征的宽,(i,j)表示图像特征中的位置坐标即图像特征的一个像素,uc(i,j)表示该位置的像素值即该位置的特征值,uc(·)表示通道C像元的特征值,Fsq表示压缩后的特征值。将步骤2得到得到的综合特征进行挤压,得到的挤压后的每一个通的特征大小为m×2C×1×1。
步骤3.2、激励是通过全连接层和激活函数来得到每个通道的权重,激励函数如下所示:
Fex(z,W)=σ(W2δ(W1z+b1)+b2)
其中,σ表示Sigmoid激活函数,δ表示ReLU激活函数,W1和W2表示两层全连接层的权重系数,b1和b2表示两层全连接层的偏置系数,Fex表示特征z对应激励函数值即每个通道的权重。对步骤3.1挤压后的特征进行激励,得到的激励后的特征大小为m×2C×1×1。
所述激活函数对所得特征值进行非线性变换,σ所表示的Sigmoid激活函数S(x)和δ所表示的ReLU激活函数f(x)的函数公式如下:
步骤3.2.1、σ所表示的Sigmoid激活函数S(x)的函数公式如下:
Figure BDA0003215394990000055
其中,x为输入特征值,S(x)为输出的[0,1]之间特征的概率;Sigmoid函数是将特征映射到[0,1]之间,获得通道每一层的权重概率。
步骤3.2.2、δ所表示的ReLU激活函数f(x)的函数公式如下:
f(x)=max(0,x)
其中,x为输入特征值,f(x)为激活之后的特征值。ReLU函数增加函数的非线性表达,目的是通过该函数把激活的神经元特征保留并映射出来。
步骤3.3、对步骤3.2激励后的特征进行注意,得到注意后的各个通道的特征合并,其大小为m×2C×H×W。注意是使特征的每一个通道的特征值乘以得到的通道权重,以此得到通道的注意力,注意函数如下所示:
Fat(uc,sc)=sc·uc
其中,sc表示每个通道的权重,uc每个通道的特征值;将步骤二得到的综合特征的每一个通道的特征值乘以得到的每个通道权重即为通道注意力。
步骤4、通过一维卷积对步骤3得到的筛选后的特征进行深度融合,进一步挖掘各个特征的信息和各个信息之间的关系。
所述一维卷积的卷积核大小为1×1,输入维度和输出维度一致,都为输入特征的通道数大小;对步骤3筛选后的特征进行一维卷积,得到的输出的特征大小为m×2C×H×W。
步骤5、通过ReLu激活函数对步骤4深度融合后的特征进行激活,得到基于特征筛选和深度融合的卷积神经网络,根据所述基于特征筛选和深度融合的卷积神经网络得到深度处理后的图像特征。激活后的特征大小为m×2C×H×W。
本发明的有益效果是:
1、本发明可以对拼接后的特征进行筛选,以去除无用特征,充分保留关键特征信息。
2、本发明可以深度融合多个特征,进一步得到特征有用信息和挖掘多特征之间的关系。
3、本发明主要改进了深度卷积神经网络特征融合算法,本发明的特征融合算法基于特征筛选和深度融合的方式,相较于传统的简单合并和相加方式更能够充分利用特征信息,提升算法模型的精度。可以明显提升深度学习方法中多特征(多尺度特征融合、注意力特征融合等)相关类别算法模型的精度,提高图像分类、语义分割和目标检测等任务的识别效果。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种基于特征筛选和深度融合的卷积神经网络特征融合算法,其特征在于,包括以下步骤:
步骤1、将来自同一幅影像的多个不同的卷积特征按照通道进行拼接,得到拼接特征;
步骤2、对步骤1得到的拼接特征进行批量归一化处理,得到综合特征;
步骤3、通过通道注意力的方法对步骤2得到的综合特征进行特征筛选;
步骤4、通过一维卷积对步骤3得到的筛选后的特征进行深度融合,进一步挖掘各个特征的信息和各个信息之间的关系;
步骤5、通过ReLu激活函数对步骤4深度融合后的特征进行激活,得到基于特征筛选和深度融合的卷积神经网络,根据所述基于特征筛选和深度融合的卷积神经网络得到深度处理后的图像特征。
2.如权利要求1所述的一种基于特征筛选和深度融合的卷积神经网络特征融合算法,其特征在于,在步骤2中所述的批量归一化处理过程为:求取每个小批量拼接特征的均值和方差,然后利用均值和方差调整该小批量拼接特征的数据分布,使其特征符合高斯分布。
3.如权利要求1所述的一种基于特征筛选和深度融合的卷积神经网络特征融合算法,其特征在于,步骤3中,特征筛选包括挤压、激励和注意三个过程,具体步骤如下:
步骤3.1、对步骤2得到的综合特征的每一个通道的特征进行挤压,挤压是把每个通道的特征值都压缩成一个值,挤压函数如下所示:
Figure FDA0003215394980000011
其中,H表示输入图像特征的高,W表示输入图像特征的宽,(i,j)表示图像特征中的位置坐标即图像特征的一个像素,uc(i,j)表示该位置的像素值即该位置的特征值,uc(·)表示通道C像元的特征值,Fsq表示压缩后的特征值;
步骤3.2、对步骤3.1挤压后的函数进行激励,激励是通过全连接层和激活函数来得到每个通道的权重,激励函数如下所示:
Fex(z,W)=σ(W2δ(W1z+b1)+b2)
其中,σ表示Sigmoid激活函数,δ表示ReLU激活函数,W1和W2表示两层全连接层的权重系数,b1和b2表示两层全连接层的偏置系数,Fex表示特征z对应激励函数值即每个通道的权重;
步骤3.3、对步骤3.2激励后的函数进行注意,注意是使特征的每一个通道的特征值乘以得到的通道权重,以此得到通道的注意力,注意函数如下所示:
Fat(uc,sc)=sc·uc
其中,sc表示每个通道的权重,uc每个通道的特征值;将步骤二得到的综合特征的每一个通道的特征值乘以得到的每个通道权重即为通道注意力。
4.如权利要求1所述的一种基于特征筛选和深度融合的卷积神经网络特征融合算法,其特征在于,步骤4所述一维卷积的卷积核大小为1×1,输入维度和输出维度一致,都为输入特征的通道数大小。
5.如权利要求1述的一种基于特征筛选和深度融合的卷积神经网络特征融合算法,其特征在于,在步骤3中,所述激活函数对所得特征值进行非线性变换,σ所表示的Sigmoid激活函数S(x)和δ所表示的ReLU激活函数f(x)的函数公式如下:
步骤3.2.1、σ所表示的Sigmoid激活函数S(x)的函数公式如下:
Figure FDA0003215394980000021
其中,x为输入特征值,S(x)为输出的[0,1]之间特征的概率;
步骤3.2.2、δ所表示的ReLU激活函数f(x)的函数公式如下:
f(x)=max(0,x)
其中,x为输入特征值,f(x)为激活之后的特征值。
CN202110942485.6A 2021-08-17 2021-08-17 基于特征筛选和深度融合的卷积神经网络特征融合方法 Active CN113837353B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110942485.6A CN113837353B (zh) 2021-08-17 2021-08-17 基于特征筛选和深度融合的卷积神经网络特征融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110942485.6A CN113837353B (zh) 2021-08-17 2021-08-17 基于特征筛选和深度融合的卷积神经网络特征融合方法

Publications (2)

Publication Number Publication Date
CN113837353A true CN113837353A (zh) 2021-12-24
CN113837353B CN113837353B (zh) 2024-11-22

Family

ID=78960543

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110942485.6A Active CN113837353B (zh) 2021-08-17 2021-08-17 基于特征筛选和深度融合的卷积神经网络特征融合方法

Country Status (1)

Country Link
CN (1) CN113837353B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108710826A (zh) * 2018-04-13 2018-10-26 燕山大学 一种交通标志深度学习模式识别方法
CN110197468A (zh) * 2019-06-06 2019-09-03 天津工业大学 一种基于多尺度残差学习网络的单图像超分辨重建算法
CN111062892A (zh) * 2019-12-26 2020-04-24 华南理工大学 一种基于复合残差网络和深层监督的单幅图像去雨方法
CN111695633A (zh) * 2020-06-12 2020-09-22 桂林电子科技大学 基于rpf-cam的低照度目标检测方法
CN112785617A (zh) * 2021-02-23 2021-05-11 青岛科技大学 残差UNet直肠癌肿瘤磁共振图像自动分割方法
CN112836773A (zh) * 2021-04-08 2021-05-25 河海大学 一种基于全局注意力残差网络的高光谱图像分类方法
CN112861978A (zh) * 2021-02-20 2021-05-28 齐齐哈尔大学 一种基于注意力机制的多分支特征融合遥感场景图像分类方法
CN113033630A (zh) * 2021-03-09 2021-06-25 太原科技大学 一种基于双非局部注意力模型的红外与可见光图像深度学习融合方法
CN113177465A (zh) * 2021-04-27 2021-07-27 江苏科技大学 基于深度可分离卷积神经网络的sar图像自动目标识别方法
CN113239954A (zh) * 2021-04-01 2021-08-10 河海大学 基于注意力机制的图像语义分割特征融合方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108710826A (zh) * 2018-04-13 2018-10-26 燕山大学 一种交通标志深度学习模式识别方法
CN110197468A (zh) * 2019-06-06 2019-09-03 天津工业大学 一种基于多尺度残差学习网络的单图像超分辨重建算法
CN111062892A (zh) * 2019-12-26 2020-04-24 华南理工大学 一种基于复合残差网络和深层监督的单幅图像去雨方法
CN111695633A (zh) * 2020-06-12 2020-09-22 桂林电子科技大学 基于rpf-cam的低照度目标检测方法
CN112861978A (zh) * 2021-02-20 2021-05-28 齐齐哈尔大学 一种基于注意力机制的多分支特征融合遥感场景图像分类方法
CN112785617A (zh) * 2021-02-23 2021-05-11 青岛科技大学 残差UNet直肠癌肿瘤磁共振图像自动分割方法
CN113033630A (zh) * 2021-03-09 2021-06-25 太原科技大学 一种基于双非局部注意力模型的红外与可见光图像深度学习融合方法
CN113239954A (zh) * 2021-04-01 2021-08-10 河海大学 基于注意力机制的图像语义分割特征融合方法
CN112836773A (zh) * 2021-04-08 2021-05-25 河海大学 一种基于全局注意力残差网络的高光谱图像分类方法
CN113177465A (zh) * 2021-04-27 2021-07-27 江苏科技大学 基于深度可分离卷积神经网络的sar图像自动目标识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
GE ZHU ET AL.: "An Object Detection Method Combining Multi-Level Feature Fusion and Region Channel Attention", 《IEEE ACCESS》, vol. 9, 4 February 2021 (2021-02-04), XP011837420, DOI: 10.1109/ACCESS.2021.3057086 *
余帅 等: "基于多级通道注意力的遥感图像分割方法", 《激光与光电子学进展》, vol. 57, pages 041012 - 1 *
湃客:中国光学: "医学图像检索:融合多尺度特征及注意力机制", pages 1 - 4, Retrieved from the Internet <URL:https://m.thepaper.cn/baijiahao_13958531> *

Also Published As

Publication number Publication date
CN113837353B (zh) 2024-11-22

Similar Documents

Publication Publication Date Title
CN109002766B (zh) 一种表情识别方法及装置
US10853700B2 (en) Custom auto tagging of multiple objects
WO2022105125A1 (zh) 图像分割方法、装置、计算机设备及存储介质
US11734553B2 (en) Error allocation format selection for hardware implementation of deep neural network
CN108830855A (zh) 一种基于多尺度低层特征融合的全卷积网络语义分割方法
EP3620982B1 (en) Sample processing method and device
CN110414344A (zh) 一种基于视频的人物分类方法、智能终端及存储介质
WO2023201924A1 (zh) 对象缺陷检测方法、装置、计算机设备和存储介质
CN112749737A (zh) 图像分类方法及装置、电子设备、存储介质
CN113987188B (zh) 一种短文本分类方法、装置及电子设备
US20230343137A1 (en) Method and apparatus for detecting key point of image, computer device and storage medium
WO2023206944A1 (zh) 一种语义分割方法、装置、计算机设备和存储介质
CN114358279A (zh) 图像识别网络模型剪枝方法、装置、设备及存储介质
CN111931859A (zh) 一种多标签图像识别方法和装置
WO2023185209A1 (zh) 模型剪枝
EP3673410B1 (en) Method, system and apparatus for pattern recognition
CN116956214A (zh) 基于正则化集成学习的多模态细粒度论文分类方法和系统
Pooja et al. Adaptive sparsity through hybrid regularization for effective image deblurring
CN113421267B (zh) 一种基于改进PointConv的点云语义与实例联合分割方法及系统
CN111291767B (zh) 一种细粒度识别方法、终端设备及计算机可读存储介质
CN116958615A (zh) 图片识别方法、装置、设备和介质
CN105844299B (zh) 一种基于词袋模型的图像分类方法
CN113837353A (zh) 基于特征筛选和深度融合的卷积神经网络特征融合算法
CN110046696A (zh) 基于卷积循环神经网络的残差神经网络调整方法
CN109902720A (zh) 基于子空间分解进行深度特征估计的图像分类识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant