CN113378791A - 基于双注意力机制和多尺度特征融合的宫颈细胞分类方法 - Google Patents
基于双注意力机制和多尺度特征融合的宫颈细胞分类方法 Download PDFInfo
- Publication number
- CN113378791A CN113378791A CN202110777093.9A CN202110777093A CN113378791A CN 113378791 A CN113378791 A CN 113378791A CN 202110777093 A CN202110777093 A CN 202110777093A CN 113378791 A CN113378791 A CN 113378791A
- Authority
- CN
- China
- Prior art keywords
- attention
- self
- channel
- module
- convolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于双注意力机制和多尺度特征融合的宫颈液基细胞分类方法,其步骤包括:1获取已标注好的N类宫颈细胞图像;2建立基于多头自注意力、通道注意力和多尺度特征融合的深度学习网络;3构建宫颈细胞图像分类器;4利用建立好的分类器实现预测图像类别。本发明通过自注意力机制增强了对图像内部特征相关性的捕捉,并结合通道注意力与多尺度特征融合克服了自注意力机制缺少通道和多尺度信息的缺陷,完成了对宫颈细胞的精准分类。
Description
技术领域
本发明涉及计算机视觉领域,特别涉及图像分类技术,尤其涉及一种基于双注意力机制和多尺度特征融合的宫颈液基细胞分类方法。
背景技术
宫颈细胞分类在宫颈癌早期筛查中具有重要的临床意义。目前宫颈癌细胞学的诊断主要依据病理医生在显微镜下人工阅片进行,但目前我国病理科自动化程度低,诊断时间长,超负荷的工作量极大地增加了病理医生的工作压力,影响到病理医生阅片效率。因此,需要一种数字化的宫颈细胞分类方法,辅助病理医生进行宫颈细胞的分类,减轻病理医生的阅片负担,缓解病理医生的工作压力,提高病理医生的阅片效率。
传统的阅片方式完全依赖于病理医生的主观判断,会受到病理医生经验及知识水平的限制和影响,容易导致误诊漏诊。
发明内容
本发明为克服现有技术的不足之处,提出一种基于双注意力机制和多尺度特征融合的宫颈细胞分类方法,以期能通过自注意力机制增强对细胞图像内部特征相关性的捕捉,并结合通道注意力与多尺度的特征融合,以提高对宫颈细胞分类的精准度。
本发明为达到上述发明目的,采用如下技术方案:
本发明一种基于双注意力机制和多尺度特征融合的宫颈细胞分类方法的特点是按如下步骤进行:
步骤1、获取训练样本:
获取N种类别且维度为H×W×C的宫颈细胞图像样本并对进行归一化处理,得到归一化后的训练样本集,记为S={S1,S2,...,Sn,...,SN};其中,Sn表示第n类宫颈细胞图像样本,且表示第n类归一化后的宫颈细胞图像样本中的第p个图像;H表示图像高度,W表示图像宽度,C表示图像通道,n=1,2,...,N;
步骤2、建立深度学习网络,所述深度学习网络包括:多尺度特征提取模块、多头自注意力模块、通道注意力模块和多尺度特征融合模块;
步骤2.1、构建多尺度特征提取模块:
所述多尺度特征提取模块由ResNeXt50网络的前四个卷积阶段构成,依次包括:第一卷积阶段、第二卷积阶段、第三卷积阶段、第四卷积阶段;
将第p个图像输入所述多尺度特征提取模块中,并经过所述第一卷积阶段、第二卷积阶段、第三卷积阶段、第四卷积阶段分别得到第一卷积阶段输出的特征图第二卷积阶段输出的特征图第三卷积阶段输出的特征图第四卷积阶段输出的特征图
步骤2.2、构建多头自注意力与通道注意力融合模块:
所述多头自注意力模块与通道注意力融合模块是由L个多头自注意力与通道注意力融合层串联而成;
任意第c个多头自注意力与通道注意力融合层包括:2个卷积核为1×1的卷积层、M个并联的自注意力层、自注意力融合层、通道注意力模块;c=1,2,...,L;
所述自注意力融合层将输出M个自注意力层输出首尾相连后再进行线性变换处理,得到自注意力融合结果z;
所述通道注意力模块对所述自注意力融合结果z进行全局平均池化操作后,得到池化结果z′,再利用式(1)所示的得到权重s:
s=σ(W2δ(W1z′)) (1)
式(1)中,δ代表ReLU函数,σ代表Sigmoid函数,W1,W2为全连接层权重矩阵;
所述通道注意力模块将权重s与自注意力融合结果z相乘后得到重定标的通道注意加权特征映射并输出;
当c≠1且c≠L时,将第c个多头自注意力与通道注意力融合层中通道注意力模块的输出与第c-1个多头自注意力与通道注意力融合层的输出相加并第二卷积核为1×1的卷积层的升维处理后,输入第c+1个多头自注意力与通道注意力融合层;
当c=L时,将第L个多头自注意力与通道注意力融合层中通道注意力模块的输出与第L-1个多头自注意力与通道注意力融合层中通道注意力模块的输出相加并经过第二卷积核为1×1的卷积层的升维处理后,得到多头自注意力模块与通道注意力融合模块的特征图并输出;
步骤2.3、构建多尺度特征融合模块:
步骤3、构建宫颈细胞图像分类器:
建立Hinge损失函数,并将训练样本集S输入所述深度学习网络进行训练后,采用反向传播算法对所述Hinge损失函数进行优化求解,从而调整所述深度学习网络中所有参数,得到宫颈细胞图像分类器用于宫颈细胞图像的分类。
与已有技术相比,本发明的有益效果体现在:
本发明使用一种基于多头自注意力和通道注意力融合的宫颈液基细胞分类方法,构建了一个能够对N类宫颈细胞图像进行分类的分类模型,以深度学习为代表的“特征学习”,让计算机能以大数据为基础自动寻找目标的高维相关特征值,建立数据处理通道模型,从而能有效对宫颈细胞图像进行分类,完成对宫颈细胞图像进行辅助阅片,提高了分类效率和准确性,降低了人工分类的劳动强度以及检测设备要求。
附图说明
图1为本发明方法的流程图;
图2为本发明深度学习网络的结构图;
图3为本发明的多头自注意力与通道注意力融合模块的示意图;
图4为本发明的宫颈细胞图像训练样本图。
具体实施方式
本实施例中,一种基于双注意力机制和多尺度特征融合的宫颈液基细胞分类方法,如图1所示,具体步骤如下:
步骤1、获取训练样本:
获取N种类别且维度为H×W×C的宫颈细胞图像样本并对进行归一化处理,得到归一化后的训练样本集,记为S={S1,S2,...,Sn,...,SN};其中,Sn表示第n类宫颈细胞图像样本,且表示第n类归一化后的宫颈细胞图像样本中的第p个图像;H表示图像高度,W表示图像宽度,C表示图像通道,n=1,2,...,N;本实施例利用公开的宫颈细胞图像数据集Sipakmed做训练和测试,如图4所示,其包含了5种类别的宫颈细胞图像,包括:表中层细胞、旁基底细胞、挖空细胞、角化不良细胞、化生细胞;将数据集Sipakmed的80%用于训练,其余20%用于测试;
步骤2、建立如图2所示的深度学习网络,深度学习网络包括:多尺度特征提取模块、多头自注意力模块、通道注意力模块和多尺度特征融合模块;
步骤2.1、构建多尺度特征提取模块:
多尺度特征提取模块由ResNeXt50网络的前四个卷积阶段构成,依次包括:第一卷积阶段、第二卷积阶段、第三卷积阶段、第四卷积阶段;
将第p个图像输入多尺度特征提取模块中,并经过第一卷积阶段、第二卷积阶段、第三卷积阶段、第四卷积阶段分别得到第一卷积阶段输出的特征图第二卷积阶段输出的特征图第三卷积阶段输出的特征图第四卷积阶段输出的特征图
步骤2.2、构建多头自注意力与通道注意力融合模块:
多头自注意力模块与通道注意力融合模块是由L个多头自注意力与通道注意力融合层串联而成,在本实施例中,多头自注意力与通道注意力融合层的个数L取3;
如图3所示,任意第c个多头自注意力与通道注意力融合层包括:2个卷积核为1×1的卷积层、M个并联的自注意力层、自注意力融合层、通道注意力模块;c=1,2,...,L;
将第四卷积阶段输出特征图输入第1个多头自注意力与通道注意力融合层中,经过第一卷积核为1×1的卷积层的降维处理后分别输入至M个自注意力层中进行自注意力计算得到M个自注意力层输出;在本实施例中,将输入特征图分别与三个权重矩阵Wm Q,Wm K,Wm V相乘得到并将相对位置编码相加得到将分别相乘,最后乘积两者相加并通过Softmax函数激活后与相乘得到输出,具体公式如式(1)所示:
自注意力融合层将输出M个自注意力层输出首尾相连后再进行线性变换处理,得到自注意力融合结果z,在本实施例中,自注意力层的个数M取4;
通道注意力模块对自注意力融合结果z进行全局平均池化操作后,得到池化结果z′,再利用式(2)所示的得到权重s:
s=σ(W2δ(W1z′)) (2)
式(2)中,δ代表ReLU函数,σ代表Sigmoid函数,W1,W2为全连接层权重矩阵;
通道注意力模块将权重s与自注意力融合结果z相乘后得到重定标的通道注意加权特征映射并输出;
当c≠1且c≠L时,将第c个多头自注意力与通道注意力融合层中通道注意力模块的输出与第c-1个多头自注意力与通道注意力融合层的输出相加并第二卷积核为1×1的卷积层的升维处理后,输入第c+1个多头自注意力与通道注意力融合层;
当c=L时,将第L个多头自注意力与通道注意力融合层中通道注意力模块的输出与第L-1个多头自注意力与通道注意力融合层中通道注意力模块的输出相加并经过第二卷积核为1×1的卷积层的升维处理后,得到多头自注意力模块与通道注意力融合模块的特征图并输出;
步骤2.3、构建多尺度特征融合模块:
步骤3、构建宫颈细胞图像分类器:
建立如式(3)所示的Hinge损失函数,并将训练样本集S输入深度学习网络进行训练后,采用反向传播算法对Hinge损失函数进行优化求解,从而调整深度学习网络中的所有参数,得到宫颈细胞图像分类器用于宫颈细胞图像的分类:
Claims (1)
1.一种基于双注意力机制和多尺度特征融合的宫颈细胞分类方法,其特征是按如下步骤进行:
步骤1、获取训练样本:
获取N种类别且维度为H×W×C的宫颈细胞图像样本并对进行归一化处理,得到归一化后的训练样本集,记为S={S1,S2,...,Sn,...,SN};其中,Sn表示第n类宫颈细胞图像样本,且 表示第n类归一化后的宫颈细胞图像样本中的第p个图像;H表示图像高度,W表示图像宽度,C表示图像通道,n=1,2,...,N;
步骤2、建立深度学习网络,所述深度学习网络包括:多尺度特征提取模块、多头自注意力模块、通道注意力模块和多尺度特征融合模块;
步骤2.1、构建多尺度特征提取模块:
所述多尺度特征提取模块由ResNeXt50网络的前四个卷积阶段构成,依次包括:第一卷积阶段、第二卷积阶段、第三卷积阶段、第四卷积阶段;
将第p个图像输入所述多尺度特征提取模块中,并经过所述第一卷积阶段、第二卷积阶段、第三卷积阶段、第四卷积阶段分别得到第一卷积阶段输出的特征图第二卷积阶段输出的特征图第三卷积阶段输出的特征图第四卷积阶段输出的特征图
步骤2.2、构建多头自注意力与通道注意力融合模块:
所述多头自注意力模块与通道注意力融合模块是由L个多头自注意力与通道注意力融合层串联而成;
任意第c个多头自注意力与通道注意力融合层包括:2个卷积核为1×1的卷积层、M个并联的自注意力层、自注意力融合层、通道注意力模块;c=1,2,...,L;
所述自注意力融合层将输出M个自注意力层输出首尾相连后再进行线性变换处理,得到自注意力融合结果z;
所述通道注意力模块对所述自注意力融合结果z进行全局平均池化操作后,得到池化结果z′,再利用式(1)所示的得到权重s:
s=σ(W2δ(W1z′)) (1)
式(1)中,δ代表ReLU函数,σ代表Sigmoid函数,W1,W2为全连接层权重矩阵;
所述通道注意力模块将权重s与自注意力融合结果z相乘后得到重定标的通道注意加权特征映射并输出;
当c≠1且c≠L时,将第c个多头自注意力与通道注意力融合层中通道注意力模块的输出与第c-1个多头自注意力与通道注意力融合层的输出相加并第二卷积核为1×1的卷积层的升维处理后,输入第c+1个多头自注意力与通道注意力融合层;
当c=L时,将第L个多头自注意力与通道注意力融合层中通道注意力模块的输出与第L-1个多头自注意力与通道注意力融合层中通道注意力模块的输出相加并经过第二卷积核为1×1的卷积层的升维处理后,得到多头自注意力模块与通道注意力融合模块的特征图并输出;
步骤2.3、构建多尺度特征融合模块:
步骤3、构建宫颈细胞图像分类器:
建立Hinge损失函数,并将训练样本集S输入所述深度学习网络进行训练后,采用反向传播算法对所述Hinge损失函数进行优化求解,从而调整所述深度学习网络中所有参数,得到宫颈细胞图像分类器用于宫颈细胞图像的分类。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110777093.9A CN113378791B (zh) | 2021-07-09 | 2021-07-09 | 基于双注意力机制和多尺度特征融合的宫颈细胞分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110777093.9A CN113378791B (zh) | 2021-07-09 | 2021-07-09 | 基于双注意力机制和多尺度特征融合的宫颈细胞分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113378791A true CN113378791A (zh) | 2021-09-10 |
CN113378791B CN113378791B (zh) | 2022-08-05 |
Family
ID=77581456
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110777093.9A Active CN113378791B (zh) | 2021-07-09 | 2021-07-09 | 基于双注意力机制和多尺度特征融合的宫颈细胞分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113378791B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114358283A (zh) * | 2022-01-12 | 2022-04-15 | 深圳大学 | 气体识别神经网络模型的优化方法及相关设备 |
CN114626470A (zh) * | 2022-03-18 | 2022-06-14 | 南京航空航天大学深圳研究院 | 基于多类型几何特征算子的飞机蒙皮关键特征检测方法 |
CN114863179A (zh) * | 2022-05-18 | 2022-08-05 | 合肥工业大学 | 基于多尺度特征嵌入和交叉注意力的内窥镜图像分类方法 |
CN115631404A (zh) * | 2022-10-31 | 2023-01-20 | 大连海洋大学 | 基于改进YOLOv4和FIRN的鱼类个体身份识别方法 |
CN116188436A (zh) * | 2023-03-03 | 2023-05-30 | 合肥工业大学 | 基于局部特征和全局特征融合的膀胱镜图像分类方法 |
CN117952977A (zh) * | 2024-03-27 | 2024-04-30 | 山东泉海汽车科技有限公司 | 一种基于改进yolov5s的路面裂缝识别方法、装置和介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110533084A (zh) * | 2019-08-12 | 2019-12-03 | 长安大学 | 一种基于自注意力机制的多尺度目标检测方法 |
WO2020048292A1 (zh) * | 2018-09-04 | 2020-03-12 | 腾讯科技(深圳)有限公司 | 神经网络的网络表示生成方法、装置、存储介质和设备 |
CN111259666A (zh) * | 2020-01-15 | 2020-06-09 | 上海勃池信息技术有限公司 | 一种结合多头自注意力机制的cnn文本分类方法 |
CN111325751A (zh) * | 2020-03-18 | 2020-06-23 | 重庆理工大学 | 基于注意力卷积神经网络的ct图像分割系统 |
CA3138679A1 (en) * | 2019-04-30 | 2020-11-05 | The Trustees Of Dartmouth College | System and method for attention-based classification of high-resolution microscopy images |
CN112215117A (zh) * | 2020-09-30 | 2021-01-12 | 北京博雅智康科技有限公司 | 一种基于宫颈细胞学图像的异常细胞识别方法及系统 |
JP6830707B1 (ja) * | 2020-01-23 | 2021-02-17 | 同▲済▼大学 | ランダムバッチマスクとマルチスケール表現学習を融合した人物再同定方法 |
CN112653899A (zh) * | 2020-12-18 | 2021-04-13 | 北京工业大学 | 一种基于联合注意力ResNeSt的复杂场景下网络直播视频特征提取方法 |
WO2021120157A1 (en) * | 2019-12-20 | 2021-06-24 | Intel Corporation | Light weight multi-branch and multi-scale person re-identification |
-
2021
- 2021-07-09 CN CN202110777093.9A patent/CN113378791B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020048292A1 (zh) * | 2018-09-04 | 2020-03-12 | 腾讯科技(深圳)有限公司 | 神经网络的网络表示生成方法、装置、存储介质和设备 |
CA3138679A1 (en) * | 2019-04-30 | 2020-11-05 | The Trustees Of Dartmouth College | System and method for attention-based classification of high-resolution microscopy images |
CN110533084A (zh) * | 2019-08-12 | 2019-12-03 | 长安大学 | 一种基于自注意力机制的多尺度目标检测方法 |
WO2021120157A1 (en) * | 2019-12-20 | 2021-06-24 | Intel Corporation | Light weight multi-branch and multi-scale person re-identification |
CN111259666A (zh) * | 2020-01-15 | 2020-06-09 | 上海勃池信息技术有限公司 | 一种结合多头自注意力机制的cnn文本分类方法 |
JP6830707B1 (ja) * | 2020-01-23 | 2021-02-17 | 同▲済▼大学 | ランダムバッチマスクとマルチスケール表現学習を融合した人物再同定方法 |
CN111325751A (zh) * | 2020-03-18 | 2020-06-23 | 重庆理工大学 | 基于注意力卷积神经网络的ct图像分割系统 |
CN112215117A (zh) * | 2020-09-30 | 2021-01-12 | 北京博雅智康科技有限公司 | 一种基于宫颈细胞学图像的异常细胞识别方法及系统 |
CN112653899A (zh) * | 2020-12-18 | 2021-04-13 | 北京工业大学 | 一种基于联合注意力ResNeSt的复杂场景下网络直播视频特征提取方法 |
Non-Patent Citations (3)
Title |
---|
JOSEPH KIM ET AL: "SAFFNet: Self-Attention-Based Feature Fusion Network for Remote Sensing Few-Shot Scene Classification", 《REMOTE SENSING》 * |
LICAI SUN ET AL: "Multi-modal Continuous Dimensional Emotion Recognition Using Recurrent Neural Network and Self-Attention Mechanism", 《MUSE"20: PROCEEDINGS OF THE 1ST INTERNATIONAL ON MULTIMODAL SENTIMENT ANALYSIS IN REAL-LIFE MEDIA CHALLENGE AND WORKSHOP》 * |
朱虹: "基于神经网络和自注意力机制的文本表示与分类研究", 《中国优秀硕士学位论文全文数据库》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114358283A (zh) * | 2022-01-12 | 2022-04-15 | 深圳大学 | 气体识别神经网络模型的优化方法及相关设备 |
CN114626470A (zh) * | 2022-03-18 | 2022-06-14 | 南京航空航天大学深圳研究院 | 基于多类型几何特征算子的飞机蒙皮关键特征检测方法 |
CN114626470B (zh) * | 2022-03-18 | 2024-02-02 | 南京航空航天大学深圳研究院 | 基于多类型几何特征算子的飞机蒙皮关键特征检测方法 |
CN114863179A (zh) * | 2022-05-18 | 2022-08-05 | 合肥工业大学 | 基于多尺度特征嵌入和交叉注意力的内窥镜图像分类方法 |
CN114863179B (zh) * | 2022-05-18 | 2022-12-13 | 合肥工业大学 | 基于多尺度特征嵌入和交叉注意力的内窥镜图像分类方法 |
CN115631404A (zh) * | 2022-10-31 | 2023-01-20 | 大连海洋大学 | 基于改进YOLOv4和FIRN的鱼类个体身份识别方法 |
CN116188436A (zh) * | 2023-03-03 | 2023-05-30 | 合肥工业大学 | 基于局部特征和全局特征融合的膀胱镜图像分类方法 |
CN116188436B (zh) * | 2023-03-03 | 2023-11-10 | 合肥工业大学 | 基于局部特征和全局特征融合的膀胱镜图像分类方法 |
CN117952977A (zh) * | 2024-03-27 | 2024-04-30 | 山东泉海汽车科技有限公司 | 一种基于改进yolov5s的路面裂缝识别方法、装置和介质 |
CN117952977B (zh) * | 2024-03-27 | 2024-06-04 | 山东泉海汽车科技有限公司 | 一种基于改进yolov5s的路面裂缝识别方法、装置和介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113378791B (zh) | 2022-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113378791B (zh) | 基于双注意力机制和多尺度特征融合的宫颈细胞分类方法 | |
CN113191215B (zh) | 融合注意力机制与孪生网络结构的滚动轴承故障诊断方法 | |
CN110021425B (zh) | 一种比较检测器及其构建方法与宫颈癌细胞检测方法 | |
CN110503630A (zh) | 一种基于三维深度学习模型的脑出血分类、定位与预测方法 | |
CN113378796B (zh) | 一种基于上下文建模的宫颈细胞全切片分类方法 | |
CN113743353B (zh) | 空间、通道和尺度注意力融合学习的宫颈细胞分类方法 | |
CN109190511A (zh) | 基于局部与结构约束低秩表示的高光谱分类方法 | |
CN115965602A (zh) | 一种基于改进的YOLOv7和Swin-Unet的异常细胞检测方法 | |
CN117253122B (zh) | 玉米种子近似品种筛选方法、装置、设备及存储介质 | |
CN111639697B (zh) | 基于非重复采样与原型网络的高光谱图像分类方法 | |
CN114863179B (zh) | 基于多尺度特征嵌入和交叉注意力的内窥镜图像分类方法 | |
CN118051831B (zh) | 基于CNN-Transformer合作网络模型的水声目标识别方法 | |
CN117036288A (zh) | 一种面向全切片病理图像的肿瘤亚型诊断方法 | |
CN117611599B (zh) | 融合中心线图和增强对比度网络的血管分割方法及其系统 | |
CN113205484B (zh) | 一种基于迁移学习的乳腺组织分类识别方法 | |
Gao et al. | Shallow network based on depthwise overparameterized convolution for hyperspectral image classification | |
CN106778536B (zh) | 一种基于fpga的实时高光谱显微图像细胞分类方法 | |
CN113222044B (zh) | 一种基于三元注意力和尺度关联融合的宫颈液基细胞分类方法 | |
CN114529749A (zh) | 一种病理图像分类装置、方法及装置的使用方法 | |
Wu et al. | DFUNET: A Residual Network for Retinal Vessel | |
Wei et al. | Cervical Glandular Cell Detection from Whole Slide Image with Out-Of-Distribution Data | |
CN117274184B (zh) | 一种针对肾癌PET-CT图像的预测ki-67表达方法 | |
CN118365974B (zh) | 一种基于混合神经网络的水质类别检测方法、系统及设备 | |
CN112085718B (zh) | 一种基于孪生注意力网络的nafld超声视频诊断系统 | |
WO2023240819A1 (zh) | 一种甲状腺疾病病理分析模块 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |