CN113378791A - 基于双注意力机制和多尺度特征融合的宫颈细胞分类方法 - Google Patents

基于双注意力机制和多尺度特征融合的宫颈细胞分类方法 Download PDF

Info

Publication number
CN113378791A
CN113378791A CN202110777093.9A CN202110777093A CN113378791A CN 113378791 A CN113378791 A CN 113378791A CN 202110777093 A CN202110777093 A CN 202110777093A CN 113378791 A CN113378791 A CN 113378791A
Authority
CN
China
Prior art keywords
attention
self
channel
module
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110777093.9A
Other languages
English (en)
Other versions
CN113378791B (zh
Inventor
唐昆铭
史骏
贺雨欣
祝新宇
王垚
孙宇
郑利平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei University of Technology
Original Assignee
Hefei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei University of Technology filed Critical Hefei University of Technology
Priority to CN202110777093.9A priority Critical patent/CN113378791B/zh
Publication of CN113378791A publication Critical patent/CN113378791A/zh
Application granted granted Critical
Publication of CN113378791B publication Critical patent/CN113378791B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本发明公开了一种基于双注意力机制和多尺度特征融合的宫颈液基细胞分类方法,其步骤包括:1获取已标注好的N类宫颈细胞图像;2建立基于多头自注意力、通道注意力和多尺度特征融合的深度学习网络;3构建宫颈细胞图像分类器;4利用建立好的分类器实现预测图像类别。本发明通过自注意力机制增强了对图像内部特征相关性的捕捉,并结合通道注意力与多尺度特征融合克服了自注意力机制缺少通道和多尺度信息的缺陷,完成了对宫颈细胞的精准分类。

Description

基于双注意力机制和多尺度特征融合的宫颈细胞分类方法
技术领域
本发明涉及计算机视觉领域,特别涉及图像分类技术,尤其涉及一种基于双注意力机制和多尺度特征融合的宫颈液基细胞分类方法。
背景技术
宫颈细胞分类在宫颈癌早期筛查中具有重要的临床意义。目前宫颈癌细胞学的诊断主要依据病理医生在显微镜下人工阅片进行,但目前我国病理科自动化程度低,诊断时间长,超负荷的工作量极大地增加了病理医生的工作压力,影响到病理医生阅片效率。因此,需要一种数字化的宫颈细胞分类方法,辅助病理医生进行宫颈细胞的分类,减轻病理医生的阅片负担,缓解病理医生的工作压力,提高病理医生的阅片效率。
传统的阅片方式完全依赖于病理医生的主观判断,会受到病理医生经验及知识水平的限制和影响,容易导致误诊漏诊。
发明内容
本发明为克服现有技术的不足之处,提出一种基于双注意力机制和多尺度特征融合的宫颈细胞分类方法,以期能通过自注意力机制增强对细胞图像内部特征相关性的捕捉,并结合通道注意力与多尺度的特征融合,以提高对宫颈细胞分类的精准度。
本发明为达到上述发明目的,采用如下技术方案:
本发明一种基于双注意力机制和多尺度特征融合的宫颈细胞分类方法的特点是按如下步骤进行:
步骤1、获取训练样本:
获取N种类别且维度为H×W×C的宫颈细胞图像样本并对进行归一化处理,得到归一化后的训练样本集,记为S={S1,S2,...,Sn,...,SN};其中,Sn表示第n类宫颈细胞图像样本,且
Figure BDA0003155945180000011
表示第n类归一化后的宫颈细胞图像样本中的第p个图像;H表示图像高度,W表示图像宽度,C表示图像通道,n=1,2,...,N;
步骤2、建立深度学习网络,所述深度学习网络包括:多尺度特征提取模块、多头自注意力模块、通道注意力模块和多尺度特征融合模块;
步骤2.1、构建多尺度特征提取模块:
所述多尺度特征提取模块由ResNeXt50网络的前四个卷积阶段构成,依次包括:第一卷积阶段、第二卷积阶段、第三卷积阶段、第四卷积阶段;
将第p个图像
Figure BDA0003155945180000021
输入所述多尺度特征提取模块中,并经过所述第一卷积阶段、第二卷积阶段、第三卷积阶段、第四卷积阶段分别得到第一卷积阶段输出的特征图
Figure BDA0003155945180000022
第二卷积阶段输出的特征图
Figure BDA0003155945180000023
第三卷积阶段输出的特征图
Figure BDA0003155945180000024
第四卷积阶段输出的特征图
Figure BDA0003155945180000025
步骤2.2、构建多头自注意力与通道注意力融合模块:
所述多头自注意力模块与通道注意力融合模块是由L个多头自注意力与通道注意力融合层串联而成;
第四卷积阶段输出的特征图
Figure BDA0003155945180000026
作为第1个多头自注意力与通道注意力融合层的输入,第c个多头自注意力与通道注意力融合层的输出为第c+1个多头自注意力与通道注意力融合层的输入;
任意第c个多头自注意力与通道注意力融合层包括:2个卷积核为1×1的卷积层、M个并联的自注意力层、自注意力融合层、通道注意力模块;c=1,2,...,L;
将第四卷积阶段输出特征图
Figure BDA0003155945180000027
输入第1个多头自注意力与通道注意力融合层中,经过第一卷积核为1×1的卷积层的降维处理后分别输入至M个自注意力层中进行自注意力计算得到M个自注意力层输出;
所述自注意力融合层将输出M个自注意力层输出首尾相连后再进行线性变换处理,得到自注意力融合结果z;
所述通道注意力模块对所述自注意力融合结果z进行全局平均池化操作后,得到池化结果z′,再利用式(1)所示的得到权重s:
s=σ(W2δ(W1z′)) (1)
式(1)中,δ代表ReLU函数,σ代表Sigmoid函数,W1,W2为全连接层权重矩阵;
所述通道注意力模块将权重s与自注意力融合结果z相乘后得到重定标的通道注意加权特征映射并输出;
当c=1时,将第1个多头自注意力与通道注意力融合层中通道注意力模块的输出与第四卷积阶段输出特征图
Figure BDA0003155945180000028
相加并经过第二卷积核为1×1的卷积层的升维处理后,输入下一个多头自注意力与通道注意力融合层;
当c≠1且c≠L时,将第c个多头自注意力与通道注意力融合层中通道注意力模块的输出与第c-1个多头自注意力与通道注意力融合层的输出相加并第二卷积核为1×1的卷积层的升维处理后,输入第c+1个多头自注意力与通道注意力融合层;
当c=L时,将第L个多头自注意力与通道注意力融合层中通道注意力模块的输出与第L-1个多头自注意力与通道注意力融合层中通道注意力模块的输出相加并经过第二卷积核为1×1的卷积层的升维处理后,得到多头自注意力模块与通道注意力融合模块的特征图
Figure BDA0003155945180000031
并输出;
步骤2.3、构建多尺度特征融合模块:
将5个特征图
Figure BDA0003155945180000032
输入所述多尺度特征融合模块中,并分别经过一个BN层进行归一化处理,得到5个BN层的输出结果并进行叠加后输出特征图
Figure BDA0003155945180000033
步骤2.4、将多尺度特征融合模块输出的特征图
Figure BDA0003155945180000034
输入至一个全连接层后再输入至Softmax分类器中,从而得到一个N维分类结果向量;
步骤3、构建宫颈细胞图像分类器:
建立Hinge损失函数,并将训练样本集S输入所述深度学习网络进行训练后,采用反向传播算法对所述Hinge损失函数进行优化求解,从而调整所述深度学习网络中所有参数,得到宫颈细胞图像分类器用于宫颈细胞图像的分类。
与已有技术相比,本发明的有益效果体现在:
本发明使用一种基于多头自注意力和通道注意力融合的宫颈液基细胞分类方法,构建了一个能够对N类宫颈细胞图像进行分类的分类模型,以深度学习为代表的“特征学习”,让计算机能以大数据为基础自动寻找目标的高维相关特征值,建立数据处理通道模型,从而能有效对宫颈细胞图像进行分类,完成对宫颈细胞图像进行辅助阅片,提高了分类效率和准确性,降低了人工分类的劳动强度以及检测设备要求。
附图说明
图1为本发明方法的流程图;
图2为本发明深度学习网络的结构图;
图3为本发明的多头自注意力与通道注意力融合模块的示意图;
图4为本发明的宫颈细胞图像训练样本图。
具体实施方式
本实施例中,一种基于双注意力机制和多尺度特征融合的宫颈液基细胞分类方法,如图1所示,具体步骤如下:
步骤1、获取训练样本:
获取N种类别且维度为H×W×C的宫颈细胞图像样本并对进行归一化处理,得到归一化后的训练样本集,记为S={S1,S2,...,Sn,...,SN};其中,Sn表示第n类宫颈细胞图像样本,且
Figure BDA0003155945180000041
表示第n类归一化后的宫颈细胞图像样本中的第p个图像;H表示图像高度,W表示图像宽度,C表示图像通道,n=1,2,...,N;本实施例利用公开的宫颈细胞图像数据集Sipakmed做训练和测试,如图4所示,其包含了5种类别的宫颈细胞图像,包括:表中层细胞、旁基底细胞、挖空细胞、角化不良细胞、化生细胞;将数据集Sipakmed的80%用于训练,其余20%用于测试;
步骤2、建立如图2所示的深度学习网络,深度学习网络包括:多尺度特征提取模块、多头自注意力模块、通道注意力模块和多尺度特征融合模块;
步骤2.1、构建多尺度特征提取模块:
多尺度特征提取模块由ResNeXt50网络的前四个卷积阶段构成,依次包括:第一卷积阶段、第二卷积阶段、第三卷积阶段、第四卷积阶段;
将第p个图像
Figure BDA0003155945180000042
输入多尺度特征提取模块中,并经过第一卷积阶段、第二卷积阶段、第三卷积阶段、第四卷积阶段分别得到第一卷积阶段输出的特征图
Figure BDA0003155945180000043
第二卷积阶段输出的特征图
Figure BDA0003155945180000044
第三卷积阶段输出的特征图
Figure BDA0003155945180000045
第四卷积阶段输出的特征图
Figure BDA0003155945180000046
步骤2.2、构建多头自注意力与通道注意力融合模块:
多头自注意力模块与通道注意力融合模块是由L个多头自注意力与通道注意力融合层串联而成,在本实施例中,多头自注意力与通道注意力融合层的个数L取3;
第四卷积阶段输出的特征图
Figure BDA0003155945180000047
作为第1个多头自注意力与通道注意力融合层的输入,第c个多头自注意力与通道注意力融合层的输出为第c+1个多头自注意力与通道注意力融合层的输入;
如图3所示,任意第c个多头自注意力与通道注意力融合层包括:2个卷积核为1×1的卷积层、M个并联的自注意力层、自注意力融合层、通道注意力模块;c=1,2,...,L;
将第四卷积阶段输出特征图
Figure BDA0003155945180000048
输入第1个多头自注意力与通道注意力融合层中,经过第一卷积核为1×1的卷积层的降维处理后分别输入至M个自注意力层中进行自注意力计算得到M个自注意力层输出;在本实施例中,将输入特征图
Figure BDA0003155945180000049
分别与三个权重矩阵Wm Q,Wm K,Wm V相乘得到
Figure BDA0003155945180000051
并将相对位置编码
Figure BDA0003155945180000052
相加得到
Figure BDA0003155945180000053
Figure BDA0003155945180000054
分别
Figure BDA0003155945180000055
相乘,最后乘积两者相加并通过Softmax函数激活后与
Figure BDA0003155945180000056
相乘得到输出,具体公式如式(1)所示:
Figure BDA0003155945180000057
式(1)中,
Figure BDA0003155945180000058
自注意力融合层将输出M个自注意力层输出首尾相连后再进行线性变换处理,得到自注意力融合结果z,在本实施例中,自注意力层的个数M取4;
通道注意力模块对自注意力融合结果z进行全局平均池化操作后,得到池化结果z′,再利用式(2)所示的得到权重s:
s=σ(W2δ(W1z′)) (2)
式(2)中,δ代表ReLU函数,σ代表Sigmoid函数,W1,W2为全连接层权重矩阵;
通道注意力模块将权重s与自注意力融合结果z相乘后得到重定标的通道注意加权特征映射并输出;
当c=1时,将第1个多头自注意力与通道注意力融合层中通道注意力模块的输出与第四卷积阶段输出特征图
Figure BDA0003155945180000059
相加并经过第二卷积核为1×1的卷积层的升维处理后,输入下一个多头自注意力与通道注意力融合层;
当c≠1且c≠L时,将第c个多头自注意力与通道注意力融合层中通道注意力模块的输出与第c-1个多头自注意力与通道注意力融合层的输出相加并第二卷积核为1×1的卷积层的升维处理后,输入第c+1个多头自注意力与通道注意力融合层;
当c=L时,将第L个多头自注意力与通道注意力融合层中通道注意力模块的输出与第L-1个多头自注意力与通道注意力融合层中通道注意力模块的输出相加并经过第二卷积核为1×1的卷积层的升维处理后,得到多头自注意力模块与通道注意力融合模块的特征图
Figure BDA00031559451800000510
并输出;
步骤2.3、构建多尺度特征融合模块:
将5个特征图
Figure BDA00031559451800000511
输入多尺度特征融合模块中,并分别经过一个BN层进行归一化处理,得到5个BN层的输出结果并进行叠加后输出特征图
Figure BDA00031559451800000512
利用BN层做归一化操作,加快模型收敛速度;
步骤2.4、将多尺度特征融合模块输出的特征图
Figure BDA0003155945180000061
输入至一个全连接层后再输入至Softmax分类器中,从而得到一个N维分类结果向量;
步骤3、构建宫颈细胞图像分类器:
建立如式(3)所示的Hinge损失函数,并将训练样本集S输入深度学习网络进行训练后,采用反向传播算法对Hinge损失函数进行优化求解,从而调整深度学习网络中的所有参数,得到宫颈细胞图像分类器用于宫颈细胞图像的分类:
Figure BDA0003155945180000062
式(3)中,sj表示样本i属于第j类的得分,yi表示样本i的真实类别;
Figure BDA0003155945180000063
表示样本i在真实类别yi上的得分,Li表示在样本i上的分类损失。

Claims (1)

1.一种基于双注意力机制和多尺度特征融合的宫颈细胞分类方法,其特征是按如下步骤进行:
步骤1、获取训练样本:
获取N种类别且维度为H×W×C的宫颈细胞图像样本并对进行归一化处理,得到归一化后的训练样本集,记为S={S1,S2,...,Sn,...,SN};其中,Sn表示第n类宫颈细胞图像样本,且
Figure FDA0003155945170000011
Figure FDA0003155945170000012
表示第n类归一化后的宫颈细胞图像样本中的第p个图像;H表示图像高度,W表示图像宽度,C表示图像通道,n=1,2,...,N;
步骤2、建立深度学习网络,所述深度学习网络包括:多尺度特征提取模块、多头自注意力模块、通道注意力模块和多尺度特征融合模块;
步骤2.1、构建多尺度特征提取模块:
所述多尺度特征提取模块由ResNeXt50网络的前四个卷积阶段构成,依次包括:第一卷积阶段、第二卷积阶段、第三卷积阶段、第四卷积阶段;
将第p个图像
Figure FDA0003155945170000013
输入所述多尺度特征提取模块中,并经过所述第一卷积阶段、第二卷积阶段、第三卷积阶段、第四卷积阶段分别得到第一卷积阶段输出的特征图
Figure FDA0003155945170000014
第二卷积阶段输出的特征图
Figure FDA0003155945170000015
第三卷积阶段输出的特征图
Figure FDA0003155945170000016
第四卷积阶段输出的特征图
Figure FDA0003155945170000017
步骤2.2、构建多头自注意力与通道注意力融合模块:
所述多头自注意力模块与通道注意力融合模块是由L个多头自注意力与通道注意力融合层串联而成;
第四卷积阶段输出的特征图
Figure FDA0003155945170000018
作为第1个多头自注意力与通道注意力融合层的输入,第c个多头自注意力与通道注意力融合层的输出为第c+1个多头自注意力与通道注意力融合层的输入;
任意第c个多头自注意力与通道注意力融合层包括:2个卷积核为1×1的卷积层、M个并联的自注意力层、自注意力融合层、通道注意力模块;c=1,2,...,L;
将第四卷积阶段输出特征图
Figure FDA0003155945170000019
输入第1个多头自注意力与通道注意力融合层中,经过第一卷积核为1×1的卷积层的降维处理后分别输入至M个自注意力层中进行自注意力计算得到M个自注意力层输出;
所述自注意力融合层将输出M个自注意力层输出首尾相连后再进行线性变换处理,得到自注意力融合结果z;
所述通道注意力模块对所述自注意力融合结果z进行全局平均池化操作后,得到池化结果z′,再利用式(1)所示的得到权重s:
s=σ(W2δ(W1z′)) (1)
式(1)中,δ代表ReLU函数,σ代表Sigmoid函数,W1,W2为全连接层权重矩阵;
所述通道注意力模块将权重s与自注意力融合结果z相乘后得到重定标的通道注意加权特征映射并输出;
当c=1时,将第1个多头自注意力与通道注意力融合层中通道注意力模块的输出与第四卷积阶段输出特征图
Figure FDA0003155945170000021
相加并经过第二卷积核为1×1的卷积层的升维处理后,输入下一个多头自注意力与通道注意力融合层;
当c≠1且c≠L时,将第c个多头自注意力与通道注意力融合层中通道注意力模块的输出与第c-1个多头自注意力与通道注意力融合层的输出相加并第二卷积核为1×1的卷积层的升维处理后,输入第c+1个多头自注意力与通道注意力融合层;
当c=L时,将第L个多头自注意力与通道注意力融合层中通道注意力模块的输出与第L-1个多头自注意力与通道注意力融合层中通道注意力模块的输出相加并经过第二卷积核为1×1的卷积层的升维处理后,得到多头自注意力模块与通道注意力融合模块的特征图
Figure FDA0003155945170000022
并输出;
步骤2.3、构建多尺度特征融合模块:
将5个特征图
Figure FDA0003155945170000023
输入所述多尺度特征融合模块中,并分别经过一个BN层进行归一化处理,得到5个BN层的输出结果并进行叠加后输出特征图
Figure FDA0003155945170000024
步骤2.4、将多尺度特征融合模块输出的特征图
Figure FDA0003155945170000025
输入至一个全连接层后再输入至Softmax分类器中,从而得到一个N维分类结果向量;
步骤3、构建宫颈细胞图像分类器:
建立Hinge损失函数,并将训练样本集S输入所述深度学习网络进行训练后,采用反向传播算法对所述Hinge损失函数进行优化求解,从而调整所述深度学习网络中所有参数,得到宫颈细胞图像分类器用于宫颈细胞图像的分类。
CN202110777093.9A 2021-07-09 2021-07-09 基于双注意力机制和多尺度特征融合的宫颈细胞分类方法 Active CN113378791B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110777093.9A CN113378791B (zh) 2021-07-09 2021-07-09 基于双注意力机制和多尺度特征融合的宫颈细胞分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110777093.9A CN113378791B (zh) 2021-07-09 2021-07-09 基于双注意力机制和多尺度特征融合的宫颈细胞分类方法

Publications (2)

Publication Number Publication Date
CN113378791A true CN113378791A (zh) 2021-09-10
CN113378791B CN113378791B (zh) 2022-08-05

Family

ID=77581456

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110777093.9A Active CN113378791B (zh) 2021-07-09 2021-07-09 基于双注意力机制和多尺度特征融合的宫颈细胞分类方法

Country Status (1)

Country Link
CN (1) CN113378791B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114358283A (zh) * 2022-01-12 2022-04-15 深圳大学 气体识别神经网络模型的优化方法及相关设备
CN114626470A (zh) * 2022-03-18 2022-06-14 南京航空航天大学深圳研究院 基于多类型几何特征算子的飞机蒙皮关键特征检测方法
CN114863179A (zh) * 2022-05-18 2022-08-05 合肥工业大学 基于多尺度特征嵌入和交叉注意力的内窥镜图像分类方法
CN116188436A (zh) * 2023-03-03 2023-05-30 合肥工业大学 基于局部特征和全局特征融合的膀胱镜图像分类方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110533084A (zh) * 2019-08-12 2019-12-03 长安大学 一种基于自注意力机制的多尺度目标检测方法
WO2020048292A1 (zh) * 2018-09-04 2020-03-12 腾讯科技(深圳)有限公司 神经网络的网络表示生成方法、装置、存储介质和设备
CN111259666A (zh) * 2020-01-15 2020-06-09 上海勃池信息技术有限公司 一种结合多头自注意力机制的cnn文本分类方法
CN111325751A (zh) * 2020-03-18 2020-06-23 重庆理工大学 基于注意力卷积神经网络的ct图像分割系统
CA3138679A1 (en) * 2019-04-30 2020-11-05 The Trustees Of Dartmouth College System and method for attention-based classification of high-resolution microscopy images
CN112215117A (zh) * 2020-09-30 2021-01-12 北京博雅智康科技有限公司 一种基于宫颈细胞学图像的异常细胞识别方法及系统
JP6830707B1 (ja) * 2020-01-23 2021-02-17 同▲済▼大学 ランダムバッチマスクとマルチスケール表現学習を融合した人物再同定方法
CN112653899A (zh) * 2020-12-18 2021-04-13 北京工业大学 一种基于联合注意力ResNeSt的复杂场景下网络直播视频特征提取方法
WO2021120157A1 (en) * 2019-12-20 2021-06-24 Intel Corporation Light weight multi-branch and multi-scale person re-identification

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020048292A1 (zh) * 2018-09-04 2020-03-12 腾讯科技(深圳)有限公司 神经网络的网络表示生成方法、装置、存储介质和设备
CA3138679A1 (en) * 2019-04-30 2020-11-05 The Trustees Of Dartmouth College System and method for attention-based classification of high-resolution microscopy images
CN110533084A (zh) * 2019-08-12 2019-12-03 长安大学 一种基于自注意力机制的多尺度目标检测方法
WO2021120157A1 (en) * 2019-12-20 2021-06-24 Intel Corporation Light weight multi-branch and multi-scale person re-identification
CN111259666A (zh) * 2020-01-15 2020-06-09 上海勃池信息技术有限公司 一种结合多头自注意力机制的cnn文本分类方法
JP6830707B1 (ja) * 2020-01-23 2021-02-17 同▲済▼大学 ランダムバッチマスクとマルチスケール表現学習を融合した人物再同定方法
CN111325751A (zh) * 2020-03-18 2020-06-23 重庆理工大学 基于注意力卷积神经网络的ct图像分割系统
CN112215117A (zh) * 2020-09-30 2021-01-12 北京博雅智康科技有限公司 一种基于宫颈细胞学图像的异常细胞识别方法及系统
CN112653899A (zh) * 2020-12-18 2021-04-13 北京工业大学 一种基于联合注意力ResNeSt的复杂场景下网络直播视频特征提取方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JOSEPH KIM ET AL: "SAFFNet: Self-Attention-Based Feature Fusion Network for Remote Sensing Few-Shot Scene Classification", 《REMOTE SENSING》 *
LICAI SUN ET AL: "Multi-modal Continuous Dimensional Emotion Recognition Using Recurrent Neural Network and Self-Attention Mechanism", 《MUSE"20: PROCEEDINGS OF THE 1ST INTERNATIONAL ON MULTIMODAL SENTIMENT ANALYSIS IN REAL-LIFE MEDIA CHALLENGE AND WORKSHOP》 *
朱虹: "基于神经网络和自注意力机制的文本表示与分类研究", 《中国优秀硕士学位论文全文数据库》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114358283A (zh) * 2022-01-12 2022-04-15 深圳大学 气体识别神经网络模型的优化方法及相关设备
CN114626470A (zh) * 2022-03-18 2022-06-14 南京航空航天大学深圳研究院 基于多类型几何特征算子的飞机蒙皮关键特征检测方法
CN114626470B (zh) * 2022-03-18 2024-02-02 南京航空航天大学深圳研究院 基于多类型几何特征算子的飞机蒙皮关键特征检测方法
CN114863179A (zh) * 2022-05-18 2022-08-05 合肥工业大学 基于多尺度特征嵌入和交叉注意力的内窥镜图像分类方法
CN114863179B (zh) * 2022-05-18 2022-12-13 合肥工业大学 基于多尺度特征嵌入和交叉注意力的内窥镜图像分类方法
CN116188436A (zh) * 2023-03-03 2023-05-30 合肥工业大学 基于局部特征和全局特征融合的膀胱镜图像分类方法
CN116188436B (zh) * 2023-03-03 2023-11-10 合肥工业大学 基于局部特征和全局特征融合的膀胱镜图像分类方法

Also Published As

Publication number Publication date
CN113378791B (zh) 2022-08-05

Similar Documents

Publication Publication Date Title
CN113378791B (zh) 基于双注意力机制和多尺度特征融合的宫颈细胞分类方法
CN113191215B (zh) 融合注意力机制与孪生网络结构的滚动轴承故障诊断方法
CN108806792B (zh) 深度学习面诊系统
CN110021425B (zh) 一种比较检测器及其构建方法与宫颈癌细胞检测方法
CN110503630A (zh) 一种基于三维深度学习模型的脑出血分类、定位与预测方法
CN113378796B (zh) 一种基于上下文建模的宫颈细胞全切片分类方法
CN115272196B (zh) 组织病理图像中病灶区域预测方法
CN113610118B (zh) 一种基于多任务课程式学习的青光眼诊断方法、装置、设备及方法
CN115965602A (zh) 一种基于改进的YOLOv7和Swin-Unet的异常细胞检测方法
CN111639697B (zh) 基于非重复采样与原型网络的高光谱图像分类方法
CN113743353A (zh) 空间、通道和尺度注意力融合学习的宫颈细胞分类方法
CN117253122B (zh) 玉米种子近似品种筛选方法、装置、设备及存储介质
CN114140437A (zh) 一种基于深度学习的眼底硬渗出物分割方法
Gao et al. Shallow network based on depthwise overparameterized convolution for hyperspectral image classification
CN106778536B (zh) 一种基于fpga的实时高光谱显微图像细胞分类方法
CN117036288A (zh) 一种面向全切片病理图像的肿瘤亚型诊断方法
CN117152506A (zh) 基于多尺度特征的三阴性乳腺癌免疫表型预测方法及系统
CN114863179B (zh) 基于多尺度特征嵌入和交叉注意力的内窥镜图像分类方法
CN113205484B (zh) 一种基于迁移学习的乳腺组织分类识别方法
CN114529749A (zh) 一种病理图像分类装置、方法及装置的使用方法
CN113222044B (zh) 一种基于三元注意力和尺度关联融合的宫颈液基细胞分类方法
Wei et al. Cervical Glandular Cell Detection from Whole Slide Image with Out-Of-Distribution Data
CN112085718B (zh) 一种基于孪生注意力网络的nafld超声视频诊断系统
WO2023240819A1 (zh) 一种甲状腺疾病病理分析模块
Wu et al. DFUNET: A Residual Network for Retinal Vessel

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant