CN114821218A - 基于改进的通道注意力机制的目标检测模型搜索方法 - Google Patents
基于改进的通道注意力机制的目标检测模型搜索方法 Download PDFInfo
- Publication number
- CN114821218A CN114821218A CN202111527889.5A CN202111527889A CN114821218A CN 114821218 A CN114821218 A CN 114821218A CN 202111527889 A CN202111527889 A CN 202111527889A CN 114821218 A CN114821218 A CN 114821218A
- Authority
- CN
- China
- Prior art keywords
- individual
- training
- attention mechanism
- population
- channel attention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于改进的通道注意力机制的目标检测模型搜索方法,基于预定的计算模块集合生成搜索空间,其中包括改进的通道注意力机制模块;给定带有标签的目标检测数据集,将该数据集划分为训练数据集Dtrain,验证数据集Dval和测试数据集Dtest,本发明通过利用改进的通道注意力机制和神经网络架构搜索技术,提高目标检测模型主干网络的特征提取能力,本发明通过神经网络架构搜索技术,将改进的通道注意力机制模块自适应的集成到主干网络结构中,不依赖于模型设计者的专业知识,可以有效的提高主干网络的特征提取能力。
Description
技术领域
本发明涉及目标检测模型设计及优化技术,特别涉及一种基于改进的通道注意力机制的目标检测模型搜索方法。
背景技术
在计算机视觉领域中,目标检测是最热门的研究领域之一,而且在现实场景中有十分重要的应用,例如智能监控、自动驾驶、人脸检测等。目前,基于深度神经网络的目标检测模型,具有识别精度高,速度快等优点,已经成为了目标检测算法中的主流。目前,主流的基于深度神经网络的目标检测模型主要包括基于回归的目标检测算法和基于候选框的目标检测算法。其中,基于候选框的目标检测算法,如Fast RCNN、Faster RCNN、SPP-Net等,具有检测精度较高的检测精度,特别是面对小物体、拥挤等较难任务时,也具有较强的优势。
一般来说,基于候选框的目标检测算法由三个部分组成:第一部分为主干网络,主要任务是提取图像特征;第二部分为候选区域提出,即通过RPN(Region proposalnetwork)网络,产生预测目标框proposals;第三部分为ROI pooling,主要作用是对产生的预测目标框进行回归调整,并进行分类。目标检测模型的性能很大程度上依赖于主干网络的特征提取能力。
为了增强主干网络的特征提取能力,在主干网络中融入通道注意力机制,通道注意力机制通过明确建模通道之间的相互依赖,自适应地重新校准通道相关的特性响应,减少模型中的冗余特征信息,进而提高模型的特征提取能力。通道注意力机制需要利用全连接层捕获非线性跨通道交互,为了平衡模型的性能和参数量,需要先用一个全连接层降维,再利用一个全连接层还原维度,增加了模型的复杂度和参数量。此外,现有的目标检测模型通常通过手工集成通道注意力机制,这极大的依赖于模型设计者的专业知识,而且获得的目标检测模型可能不是最优的。
发明内容
本发明的目的是解决上述现有技术中存在的问题,本发明提供一种基于改进的通道注意力机制的目标检测模型搜索方法。
为解决上述问题,本发明提供如下技术方案:本申请提供了一种基于改进的通道注意力机制的目标检测模型搜索方法,包括以下步骤:
步骤S1,基于预定的计算模块集合生成搜索空间,其中包括改进的通道注意力机制模块;给定带有标签的目标检测数据集,将该数据集划分为训练数据集Dtrain,验证数据集Dval和测试数据集Dtest;
步骤S2,基于搜索空间生成M个神经网络模型,每个个体包含输入层,封装数个子网络块,每个子网络块内包含数个计算节点,并以全连接层为输出层;M为大于1的整数;
步骤S3,将每个个体编码为一个整数序列,M个个体组成初始种群;
步骤S4,基于ImageNet数据集,对初始种群中的所有个体进行预训练,并为每个个体保存权值wi;
步骤S5,基于预训练的初始种群和给定的目标检测数据集,以平均精度(mAP)作为评价指标,执行搜索步骤,搜索算法为进化算法;
步骤S6,若满足预设的搜索算法终止条件,则结束搜索,并输出最优的个体序列,并将该序列解码为神经网络模型。
所述的改进的通道注意力机制通过在通道域维度上为每个通道赋予一个权值,该权值表示该通道与特征图中的关键信息的相关度,权值越高,即相关度越大。所述的改进的通道注意力机制的结构由扩张卷积层、全局平均池化层、卷积核为k的一维卷积层、sigmoid层组成。所述的通道注意力机制将输入的特征图集合转换为转换特征图集合其计算过程为:
(1)将特征图集合输入至扩张卷积层,提取特征。通道注意力机制依赖于感受野所提供的信息,有效的扩大卷积核感受野的覆盖范围可以有效的帮助通道注意力机制获取到更加准确的全局信息,本发明中采用扩张卷积,其可以通过扩张率,在不增大卷积核参数量的同时,扩大感受野,扩张率为超参数,计算公式为:
ha=dil_convd(x)
其中,ha表示扩张卷积层的输出,dil_conv表示扩张卷积,d表示扩张率。
(2)全局平均池化层,利用全局平均池化层提取s个特征图的全局特征,其计算公式为:
hb=GAP_pooling(ha)
其中,hb为全局平均池化层的输出。h2为一组一维向量,h2∈{h1,h2,……,h3},表示s个通道的全局特征。
(3)为了避免降维和完成部分跨通道交互,利用一维卷积层,完成相邻通道的特征映射。所述特征映射公式如下:
hc=C1Dk(hb)
(4)利用sigmoid激活函数形成s个通道的权重集合w,且w={w1,w2,……,wc}。
wd=σsigmoid(hc)
(5)利用相乘模块,为每个通道赋予相应的权重。相乘模块的公式如下:
U=x*wd
式中,U为改进的通道注意力机制模块的输出。
步骤S4,基于ImageNet数据集,对初始种群中的所有个体进行预训练,并为每个个体保存权值wi;预训练方式为采样训练,训练过程为:
(1)ImageNet数据集的每一个mini-batch随机从初始种群中采样一个个体进行训练。并保存优化权值w*(a)。每个个体在被采样之后,会先继承之前训练得到的权值,之后再进行训练。优化目标为最小化神经网络架构a基于训练集Ctrain的损失值目标函数为:
(3)重复步骤(1)—(2)直到模型收敛;
基于预训练的初始种群和给定的目标检测数据集,以平均精度(mAP)作为评价指标,执行搜索步骤,搜索算法为进化算法,其具体步骤为:
(1)为每一个个体融合FPN网络、RPN网络、ROI pooling层、分类模块、边界框回归模块,构成目标检测模型;
(2)初始化进化算法超参数,包括交叉概率Pc,变异概率Pm,最大进化代数G,每个个体训练的轮次(epoch)数E;
(3)基于训练集Dtrain,对每个个体训练E个轮次;
(4)利用验证集Dval评估每个个体的平均精度(mAP)值,作为每个个体的适应度值。
(5)基于当前种群,利用锦标赛选择法,选出两个个体,作为父代个体;
(6)根据交叉率Pc,利用单点交叉方法对所述的两个父代个体序列中执行交叉操作,得到两个子代个体;
(7)重复步骤(5)-(6),直到子代个体数量达到M个,组成子代种群;
(8)基于训练集Dtrain,对子代种群中的每个个体训练E个轮次;
(9)利用验证集Dval评估子代种群中的每个个体的平均精度(mAP)值,作为每个个体的适应度值。
(10)根据变异率Pm,对子代种群中的个体序列中的某一计算模块进行替换或者删除;
(11)将当前种群和子代种群合并,共包含由2M个个体,利用环境选择,选出适应度值排名前M个个体,组成下一代种群;并反馈至步骤(5),直到达到预设的进化代数。
与现有技术相比,上述申请具有如下优点或者有益效果:
本发明通过利用改进的通道注意力机制和神经网络架构搜索技术,提高目标检测模型主干网络的特征提取能力。相比于传统的通道注意力机制,改进的通道注意力机制降低了注意力机制模块的参数量,在前向计算过程中避免了先降维再升维的过程,可以降低通道注意力机制模块的计算复杂度。此外,本发明通过神经网络架构搜索技术,将改进的通道注意力机制模块自适应的集成到主干网络结构中,不依赖于模型设计者的专业知识,可以有效的提高主干网络的特征提取能力。
附图说明
图1是本发明的算法流程图;
图2是本发明的一个目标检测模型整体架构示意图;
图3是本发明的一个改进的通道注意力机制示意图。
具体实施方式
结合以下具体实施例,对本发明的优选实施方案进行描述,但不能以此限制本专利的保护范围。
本发明结合具体实施例,并参照附图,进一步详细说明。
本申请提供了一种基于改进的通道注意力机制的目标检测模型搜索方法,包括以下步骤:
步骤S1,基于预定的计算模块集合生成搜索空间,搜索空间中包含的计算模块为:3×3深度可分离卷积模块,5×5深度可分离卷积模块,3×3最大池化模块,3×3平均池化模块,改进的通道注意力机制(d=2),改进的通道注意力机制(d=3)。给定带有标签的目标检测数据集,将该数据集划分为训练数据集Dtrain,验证数据集Dval和测试数据集Dtest;
步骤S2,基于搜索空间生成M个神经网络模型,每个个体包含输入层,封装五个子网络块,其中,第一,第三,第五子网络块为normal block,内部所有计算节点的步长为1,通过normal block输出的特征图的大小不会发生变化,第二,第四子网络为reductionblock,内部所有的计算节点的步长为2,经过reduction block输出的特征图的大小会缩减为原来的一半;每个子网络块内包含五个计算节点,每个计算节点包含两个计算模块,即每个计算节点有两个输入,分别由两个计算模块计算,将两个计算模块的输出相加之后,作为计算节点的输出;并以全连接层为输出层;M为大于1的整数;
步骤S3,将每个个体编码为一个整数序列,M个个体组成初始种群;
步骤S4,基于ImageNet数据集,对初始种群中的所有个体进行预训练,并为每个个体保存权值wi;
步骤S5,基于预训练的初始种群和给定的目标检测数据集,以平均精度(mAP)作为评价指标,执行搜索步骤,搜索算法为进化算法;
步骤S6,若满足预设的搜索算法终止条件,则结束搜索,并输出最优的个体序列,并将该序列解码为神经网络模型。
所述的改进的通道注意力机制通过在通道域维度上为每个通道赋予一个权值,该权值表示该通道与特征图中的关键信息的相关度,权值越高,即相关度越大。如图3所示,所述的改进的通道注意力机制的结构由扩张卷积层、全局平均池化层、卷积核为k的一维卷积层、sigmoid层组成。所述的通道注意力机制将输入的特征图集合转换为转换特征图集合其计算过程为:
(4)将特征图集合输入至扩张卷积层,提取特征。扩张卷积层可以在不增大卷积核参数量的同时,扩大感受野。本实施例中,共包含两种改进的通道注意力机制,通过扩张卷积的扩张率进行区分,扩张率分别为d=2和d=3,计算公式为:
ha=dil_conv(x)
其中,ha表示扩张卷积层的输出,dil_conv表示扩张卷积。
(5)全局平均池化层,利用全局平均池化层提取s个特征图的全局特征,其计算公式为:
hb=GAP_pooling(ha)
其中,hb为全局平均池化层的输出。h2为一组一维向量,h2∈{h1,h2,……,h3},表示s个通道的全局特征。
(6)为了避免降维和完成部分跨通道交互,利用一维卷积层,完成相邻通道的特征映射。所述特征映射公式如下:
hc=C1Dk(hb)
(4)利用sigmoid激活函数形成s个通道的权重集合w,且w={w1,w2,……,wc}。
wd=σsigmoid(hc)
(5)利用相乘模块,为每个通道赋予相应的权重。相乘模块的公式如下:
U=x*wd
式中,U为改进的通道注意力机制模块的输出。
步骤S4,基于ImageNet数据集,对初始种群中的所有个体进行预训练,并为每个个体保存权值wi;预训练方式为采样训练,训练过程为:
(1)ImageNet数据集的每一个mini-batch随机从初始种群中采样一个个体进行训练。并保存优化权值w*(a)。每个个体在被采样之后,会先继承之前训练得到的权值,之后再进行训练。优化目标为最小化神经网络架构a基于训练集Ctrain的损失值目标函数为:
(3)重复步骤(1)—(2)直到模型收敛;
基于预训练的初始种群和给定的目标检测数据集,以平均精度(mAP)作为评价指标,执行搜索步骤,搜索算法为进化算法,如图1所示,其具体步骤为:
为每一个个体融合FPN网络、RPN网络、ROI pooling层、分类模块、边界框回归模块,构成目标检测模型;在融合FPN网络时,默认采用一组卷积核为1的卷积层,降低通道数,匹配FPN网络。首先对计算模块3进行1×1卷积,降低通道数得到P6,然后通过依次进行2倍最近邻上采样得到P5,P4,P3,P2,其中,P5,P4,P3,P2层的特征图需要与对应的计算模块特征图的长宽相同,以便进行逐元素相加。上采样完成之后,由FPN网络融合各层次图像特征信息,即融合分辨率高但语义信息不足的浅层特征和语义信息丰富但分辨率低的深层特征。其中,在P3-P6层,每一层都有9个anchor,定义anchor的大小为:32×32,64×64,128×128,256×256,512×512,比例设置为1:2,1:1,2:1。RPN网络输出的预测值包含有预测值(Dets)包含有物体类别、边框位置的4位回归向量(x,y,w,h)、该物体的得分,由分类层,回归层产生。标签值(GTs)中包含物体类别、边框位置的4位真值向量。对每一个anchor,都对应一个N维的一位有效编码(one-hot)向量,N为物体类别数,对于分类层来说,每个anchor都要N个类别,即一个N维向量,表示每一类的概率,基于one-hot编码,选择概率值最高的设置为1,其余N-1类设置为0。此外,每个anchor的4位回归向量(x,y,w,h)由回归层输出,用于预测anchor和它相对应的标签框位置的偏移量以精修anchor的位置,并计算损失。分类层和回归层参数不共享。此外,RPN输出的特征图,将通过ROI池化操作,将所有特征图的尺寸统一为7×7,进一步输入到全连接网络中,预测每一个RoI的分类,并预测偏移量以精修边框的位置,并计算损失。
(1)初始化进化算法超参数,包括交叉概率Pc=0.95,变异概率Pm=0.1,最大进化代数G=50,每个个体训练的轮次(epoch)数E=10;
(2)基于训练集Dtrain,对每个个体训练E个轮次;
(3)利用验证集Dval评估每个个体的平均精度(mAP)值,作为每个个体的适应度值。利用mAP值作为适应度函数,其表达式为:
其中,P为类别j的准确率,R为类别j的召回率,APj为类别j的AP值,H为数据集中的类别总数。
(4)基于当前种群,利用锦标赛选择法,选出两个个体,作为父代个体;具体步骤为:
步骤1,从种群中随机选两个个体,适应度值较高的个体保留为父代个体1;
步骤2,重复步骤S51,直到产生预定数量的个体,保留为父代个体2。
(4)根据交叉率Pc,利用单点交叉方法对所述的两个父代个体序列中执行交叉操作,得到两个子代个体;具体步骤为:
步骤1,在区间[0,1]内随机产生一个数r,随机从第一种群中选择两个个体
步骤2,若r<pm,将两个个体对应的染色体,沿左侧对齐,执行单点交叉;并将交换后的染色体保留至子代种群;
步骤3,若r>pm,将两个个体保留至子代种群中,不执行任何操作;
(5)根据变异率Pm,对子代种群中的个体序列中的某一计算模块进行替换或者删除;具体步骤为:
步骤1,在区间[0,1]内随机产生任一个体对应的一个随机数t;
步骤2,若r<pm,执行变异,将该个体中的某一模块进行替换或者删除;
步骤3,若r>pm,则不执变异;
(6)重复步骤(5)-(6),直到子代个体数量达到M个,组成子代种群;
(7)基于训练集Dtrain,对子代种群中的每个个体训练E个轮次;
(8)利用验证集Dval评估子代种群中的每个个体的平均精度(mAP)值,作为每个个体的适应度值。
将当前种群和子代种群合并,共包含由2M个个体,利用环境选择,选出适应度值排名前M个个体,组成下一代种群;并反馈至步骤(5),直到达到预设的进化代数。
以上仅是本发明优选实施例,并非对实施方式的限制,对于所属领域普通技术人员来说,在不脱离本发明技术原理前提下,还可以做出其他改进与优化,而由此所进行的改进与优化也应视为本发明的保护范围。
Claims (5)
1.一种基于改进的通道注意力机制的目标检测模型搜索方法,包括以下步骤:
步骤S1,基于预定的计算模块集合生成搜索空间,其中包括改进的通道注意力机制模块;给定带有标签的目标检测数据集,将该数据集划分为训练数据集Dtrain,验证数据集Dval和测试数据集Dtest;
步骤S2,基于搜索空间生成M个神经网络模型,每个个体包含输入层,封装数个子网络块,每个子网络块内包含数个计算节点,并以全连接层为输出层;M为大于1的整数;
步骤S3,将每个个体编码为一个整数序列,M个个体组成初始种群;
步骤S4,基于ImageNet数据集,对初始种群中的所有个体进行预训练,并为每个个体保存权值wi;
步骤S5,基于预训练的初始种群和给定的目标检测数据集,以平均精度作为评价指标,执行搜索步骤,搜索算法为进化算法;
步骤S6,若满足预设的搜索算法终止条件,则结束搜索,并输出最优的个体序列,并将该序列解码为神经网络模型。
2.根据权利要求1所述的一种基于改进的通道注意力机制的目标检测模型搜索方法,其特征在于,所述的改进的通道注意力机制模块通过在通道域维度上为每个通道赋予一个权值,该权值表示该通道与特征图中的关键信息的相关度,权值越高,即相关度越大。所述的改进的通道注意力机制的结构由扩张卷积层、全局平均池化层、卷积核为k的一维卷积层、sigmoid层组成。
(1)将特征图集合输入至扩张卷积层,提取特征。通道注意力机制依赖于感受野所提供的信息,有效的扩大卷积核感受野的覆盖范围可以有效的帮助通道注意力机制获取到更加准确的全局信息,本发明中采用扩张卷积,其可以通过扩张率,在不增大卷积核参数量的同时,扩大感受野,扩张率为超参数,计算公式为:
ha=dil_convd(x)
其中,ha表示扩张卷积层的输出,dil_conv表示扩张卷积,d表示扩张率。
(2)全局平均池化层,利用全局平均池化层提取s个特征图的全局特征,其计算公式为:
hb=GAP_pooling(ha)
其中,hb为全局平均池化层的输出。h2为一组一维向量,h2∈{h1,h2,......,h3},表示s个通道的全局特征。
(3)为了避免降维和完成部分跨通道交互,利用一维卷积层,完成相邻通道的特征映射。所述特征映射公式如下:
hc=C1Dk(hb)
(4)利用sigmoid激活函数形成s个通道的权重集合w,且w={w1,w2,......,wc}。
wd=σsigmoid(hc)
(5)利用相乘模块,为每个通道赋予相应的权重。相乘模块的公式如下:
U=x*wd
式中,U为改进的通道注意力机制模块的输出。
4.根据权利要求1所述的一种基于改进的通道注意力机制的目标检测模型搜索方法,其特征在于,基于ImageNet数据集,对初始种群中的所有个体进行预训练,并为每个个体保存权值wi;预训练方式为采样训练,训练过程为:
一、ImageNet数据集的每一个mini-batch随机从初始种群中采样一个个体进行训练。并保存优化权值w*(a)。每个个体在被采样之后,会先继承之前训练得到的权值,之后再进行训练。优化目标为最小化神经网络架构a基于训练集Ctrain的损失值目标函数为:
三、重复步骤(1)-(2)直到模型收敛。
5.根据权利要求1所述的一种基于改进的通道注意力机制的目标检测模型搜索方法,其特征在于,所述基于预训练的初始种群和给定的目标检测数据集,以平均精度(mAP)作为评价指标,执行搜索步骤,搜索算法为进化算法,其具体步骤为:
(4)为每一个个体融合FPN网络、RPN网络、ROI pooling层、分类模块、边界框回归模块,构成目标检测模型;
(5)初始化进化算法超参数,包括交叉概率Pc,变异概率Pm,最大进化代数G,每个个体训练的轮次(epoch)数E;
(6)基于训练集Dtrain,对每个个体训练E个轮次;
(7)利用验证集Dval评估每个个体的平均精度(mAP)值,作为每个个体的适应度值。
(8)基于当前种群,利用锦标赛选择法,选出两个个体,作为父代个体;
(9)根据交叉率Pc,利用单点交叉方法对所述的两个父代个体序列中执行交叉操作,得到两个子代个体;
(10)重复步骤(5)-(6),直到子代个体数量达到M个,组成子代种群;
(11)基于训练集Dtrain,对子代种群中的每个个体训练E个轮次;
(12)利用验证集Dval评估子代种群中的每个个体的平均精度(mAP)值,作为每个个体的适应度值。
(13)根据变异率Pm,对子代种群中的个体序列中的某一计算模块进行替换或者删除;
将当前种群和子代种群合并,共包含由2M个个体,利用环境选择,选出适应度值排名前M个个体,组成下一代种群;并反馈至步骤(5),直到达到预设的进化代数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111527889.5A CN114821218A (zh) | 2021-12-14 | 2021-12-14 | 基于改进的通道注意力机制的目标检测模型搜索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111527889.5A CN114821218A (zh) | 2021-12-14 | 2021-12-14 | 基于改进的通道注意力机制的目标检测模型搜索方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114821218A true CN114821218A (zh) | 2022-07-29 |
Family
ID=82526034
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111527889.5A Pending CN114821218A (zh) | 2021-12-14 | 2021-12-14 | 基于改进的通道注意力机制的目标检测模型搜索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114821218A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116843696A (zh) * | 2023-04-27 | 2023-10-03 | 山东省人工智能研究院 | 基于特征相似性和超参数卷积注意力的心脏mri分割方法 |
CN117195951A (zh) * | 2023-09-22 | 2023-12-08 | 东南大学 | 一种基于架构搜索和自知识蒸馏的学习基因继承方法 |
-
2021
- 2021-12-14 CN CN202111527889.5A patent/CN114821218A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116843696A (zh) * | 2023-04-27 | 2023-10-03 | 山东省人工智能研究院 | 基于特征相似性和超参数卷积注意力的心脏mri分割方法 |
CN116843696B (zh) * | 2023-04-27 | 2024-04-09 | 山东省人工智能研究院 | 基于特征相似性和超参数卷积注意力的心脏mri分割方法 |
CN117195951A (zh) * | 2023-09-22 | 2023-12-08 | 东南大学 | 一种基于架构搜索和自知识蒸馏的学习基因继承方法 |
CN117195951B (zh) * | 2023-09-22 | 2024-04-16 | 东南大学 | 一种基于架构搜索和自知识蒸馏的学习基因继承方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110322446B (zh) | 一种基于相似性空间对齐的域自适应语义分割方法 | |
CN110083705B (zh) | 一种用于目标情感分类的多跳注意力深度模型、方法、存储介质和终端 | |
CN110222140B (zh) | 一种基于对抗学习和非对称哈希的跨模态检索方法 | |
CN109711463B (zh) | 基于注意力的重要对象检测方法 | |
Bruggemann et al. | Automated search for resource-efficient branched multi-task networks | |
CN110083770B (zh) | 一种基于特征层面更深的自注意力网络的序列推荐方法 | |
CN109885756B (zh) | 基于cnn和rnn的序列化推荐方法 | |
CN115240425A (zh) | 一种基于多尺度时空融合图网络的交通预测方法 | |
CN113486190B (zh) | 一种融合实体图像信息和实体类别信息的多模态知识表示方法 | |
CN114821218A (zh) | 基于改进的通道注意力机制的目标检测模型搜索方法 | |
CN114218292B (zh) | 一种多元时间序列相似性检索方法 | |
CN116049459B (zh) | 跨模态互检索的方法、装置、服务器及存储介质 | |
CN113240683B (zh) | 基于注意力机制的轻量化语义分割模型构建方法 | |
CN112329444B (zh) | 融合文本和传播结构的早期谣言检测方法 | |
CN113807318B (zh) | 一种基于双流卷积神经网络和双向gru的动作识别方法 | |
Xu et al. | Graph partitioning and graph neural network based hierarchical graph matching for graph similarity computation | |
CN113177141A (zh) | 基于语义嵌入软相似性的多标签视频哈希检索方法及设备 | |
Bedi et al. | CitEnergy: A BERT based model to analyse Citizens’ Energy-Tweets | |
CN115862319A (zh) | 一种面向时空图自编码器的交通流量预测方法 | |
CN115600137A (zh) | 面向不完备类别数据的多源域变工况机械故障诊断方法 | |
Moholkar et al. | Lioness adapted GWO-based deep belief network enabled with multiple features for a novel question answering system | |
CN116955650A (zh) | 基于小样本知识图谱补全的信息检索优化方法及其系统 | |
CN113032612B (zh) | 一种多目标图像检索模型的构建方法及检索方法和装置 | |
CN116307022A (zh) | 一种舆情热点信息预测方法及系统 | |
CN115019342A (zh) | 一种基于类关系推理的濒危动物目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |