CN114998296A - 一种基于改进Unet网络的甲状腺结节分割方法 - Google Patents
一种基于改进Unet网络的甲状腺结节分割方法 Download PDFInfo
- Publication number
- CN114998296A CN114998296A CN202210723059.8A CN202210723059A CN114998296A CN 114998296 A CN114998296 A CN 114998296A CN 202210723059 A CN202210723059 A CN 202210723059A CN 114998296 A CN114998296 A CN 114998296A
- Authority
- CN
- China
- Prior art keywords
- attention
- self
- low frequency
- unet network
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 29
- 208000009453 Thyroid Nodule Diseases 0.000 title claims abstract description 20
- 208000024770 Thyroid neoplasm Diseases 0.000 title claims abstract description 19
- 238000000034 method Methods 0.000 title claims abstract description 16
- 230000004927 fusion Effects 0.000 claims abstract description 22
- 238000005070 sampling Methods 0.000 claims abstract description 15
- 210000001685 thyroid gland Anatomy 0.000 claims abstract description 7
- 238000002604 ultrasonography Methods 0.000 claims abstract description 4
- 238000010606 normalization Methods 0.000 claims description 12
- 238000011176 pooling Methods 0.000 claims description 12
- 230000004913 activation Effects 0.000 claims description 11
- 230000003044 adaptive effect Effects 0.000 claims description 8
- 238000012549 training Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 claims description 6
- 230000007246 mechanism Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 5
- 238000012795 verification Methods 0.000 claims description 4
- 230000017105 transposition Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 claims description 2
- 238000012544 monitoring process Methods 0.000 claims 1
- 230000002708 enhancing effect Effects 0.000 abstract description 5
- 238000003709 image segmentation Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 12
- 230000000694 effects Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000000137 annealing Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及图像分割技术领域,尤其涉及一种基于改进Unet网络的甲状腺结节分割方法,包括:对公共甲状腺超声图像数据集进行图像大小统一、随机翻转、旋转和增强对比度操作;构建改进Unet网络,首先在Unet网络的前3个下采样卷积中增加自注意力残差连接块;其次在第4个下采样后增加高低频自注意力自适应融合模块;最后在高低频自注意力自适应融合模块之后接入语义增强模块;使用argmax判断像素值属于结节还是背景。本发明为了帮助医生进行准确的甲状腺结节分割,对结节区域进行精确的定位,同时增强全局上下文与局部信息,降低甲状腺结节分割的误差。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于改进Unet网络的甲状腺结节分割方法。
背景技术
目前,超声成像凭借着廉价、无辐射、实时等优点,成为甲状腺诊断的首选技术;由于超声图像对比度低,存在着大量的噪声,边缘也相对模糊,因此常规的分割方法对于超声甲状腺结节的分割难以达到较高的精确度,不准确的分割容易造成医生的错误诊断与治疗,后果极其严重。
随着深度学习的火热,计算机医疗技术的发展,人们越来越关注于深度学习相关的医学图像分割技术。CNN因为其强大的处理比例不变性、建模归纳偏向的能力在深度学习领域应用广泛。其中,Ronneberger提出的Unet网络凭借着能够在数据量匮乏的医学图像领域仍然有良好的分割效果。
由于卷积的作用是局部的,容易出现感受野受限的问题,对于上下文全局信息的捕获具有一定的挑战,即缺少了甲状腺周围组织对于结节分割的辅助作用。同时缺乏语义先验信息,容易出现较小的结节与较大的结节两者边界合并的问题,分割的性能难以达到理想的状况。上述问题可以通过引入自注意力机制进行解决,只是普通的自注意力机制忽略了不同频域的特征,过多地关注低频全局信息,容易丢失边缘等局部细节,使得分割结果不够准确。
发明内容
本发明解决的技术问题是:为了帮助医生进行准确的甲状腺结节分割,对结节区域进行精确的定位,同时增强全局上下文与局部信息,降低甲状腺结节分割的误差。
本发明所采用的技术方案是:一种基于改进Unet网络的甲状腺结节分割方法,包括以下步骤:
步骤一、对公共甲状腺超声图像数据集进行图像大小统一、随机翻转、旋转和增强对比度操作,并按照8:1:1划分成训练集、验证集和测试集;
步骤二、构建改进Unet网络,首先在Unet网络的前3个下采样卷积块后增加自注意力残差连接块;其次在第4个下采样卷积块后增加高低频自注意力自适应融合模块;最后在高低频自注意力自适应融合模块之后接入语义增强模块;
在编码阶段加入自注意力残差连接块能在多个尺度上捕获远程依赖与上下文全局信息,同时能够将自注意力初始化为卷积,从而弥补自注意力需要大量的数据学习位置偏差的缺陷;
高低频自注意力自适应融合模块用于增强语义特征的全局上下文依赖,同时通过高频捕捉局部细节、低频关注全局结构,增强特征提取的准确度;
步骤三、使用argmax判断像素值属于结节或背景。
本发明的有益效果:
1、以Unet网络作为本发明网络模型的主体架构,能够帮助模型在数据量缺乏的情况下依然达到理想的效果,在编码阶段加入自注意力残差连接块,在多个尺度上捕获远程依赖与上下文全局信息,同时能够将自注意力初始化为卷积,从而弥补自注意力需要大量的数据学习位置偏差的缺陷;
2、高低频自注意力自适应融合模块赋予自注意力同时在高频捕捉局部边缘细节、在低频捕获全局上下文结构的能力;
3、语义增强模块通过加入语义先验信息增强特征提取阶段的语义特征,本发明方法在甲状腺数据集tn3k上分割性能有了较大的提升,dsc相比Unet提升了2.1%,miou相比Unet提升了1.3%;对于甲状腺结节分割任务中噪声等干扰因素过多、边缘不清晰的问题,得以较好地解决。
附图说明
图1是本发明的基于改进Unet网络的甲状腺结节分割方法流程图;
图2是本发明的图像分割模型图;
图3是本发明的分割模型内部模块的结构图;
图4是本发明的高低频自注意力自适应融合模块;
图5是本发明的语义增强模块;
图6是本发明的训练好的模型进行分割效果图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明,此图为简化的示意图,仅以示意方式说明本发明的基本结构,因此其仅显示与本发明有关的构成。
如图1所示,基于改进Unet网络的甲状腺结节分割方法包括以下步骤:
步骤一、对公共甲状腺超声图像数据集进行图像大小统一、随机翻转、旋转和增强对比度操作,并按照8:1:1划分成训练集、验证集和测试集;
S1、将公共的超声甲状腺结节数据集tn3k裁剪成256×256尺寸的图像,训练、验证的图像一共2879张;
步骤二、构建改进Unet网络,首先在Unet网络的前3个下采样卷积中增加自注意力残差连接块;其次在第4个下采样后增加高低频自注意力自适应融合模块;最后在高低频自注意力自适应融合模块之后接入语义增强模块;
在编码阶段加入自注意力残差连接块能在多个尺度上捕获远程依赖与上下文全局信息,同时能够将自注意力初始化为卷积,从而弥补自注意力需要大量的数据学习位置偏差的缺陷;
高低频自注意力自适应融合模块用于增强语义特征的全局上下文依赖,同时通过高频捕捉局部细节、低频关注全局结构,增强特征提取的准确度;
S2、搭建基于自注意力残差连接块、高低频自注意力自适应融合模块与语义增强模块的甲状腺结节分割网络,即改进Unet网络,将pytorch读取的甲状腺图像数据送进网络中;
进一步的,如图2为改进Unet网络图,具体包括:
S21、Unet主体结构包括一个双卷积块、4个下采样卷积块、4个上采样卷积块,下采样卷积块由最大池化,一个双卷积块组成,其中双卷积块为两组3×3卷积、BN归一化层和ReLU激活函数;下采样卷积块由最大池化,一个双卷积块组成,其中双卷积块为两组3×3卷积、BN归一化层和ReLU激活函数;上采样卷积块由双线性上采样,一个双卷积块组成,其中,双卷积块为两组3×3卷积、BN归一化层和ReLU激活函数;
一个双卷积块将输入通道数变成64,然后经过4个下采样卷积块,通道数分别变为128、256、512、512,之后经过4个上采样卷积块,通道数变为256、128、64、64,最后1×1卷积变成类别个数;
S22、如图3为自注意力残差连接块结构图,自注意力残差连接块接在前3个下采样卷积块的后面,将自注意力以残差方式连接,将其初始化为卷积,自注意力残差连接块中分两个残差连接块,第一个残差连接块是BN归一化和高效多头自注意力机制(ESA),其中,高效多头自注意力先将特征经过Linear线性层映射成query(Q),然后将特征送入最大池化层变成8×8尺寸的特征图,再经过Linear线性层计算自注意力中的key(K)和value(V)以减少计算,公式如下:
其中,Q为原特征映射的query,K、V为经过最大池化层后再经映射的key、value;T为转置计算;Dh为多头注意力机制一个头的隐藏维度数,本实施例中 用于训练时有更稳定的梯度;Softmax为激活函数,用于归一化。
第二个残差连接块由BN归一化、ReLU激活函数和3×3卷积组成;
S23、如图4为高低频自注意力自适应融合模块结构图,高低频自注意力自适应融合模块以残差连接的方式放置在第4个下采样卷积块的后面,用于增强语义特征的全局上下文依赖,同时通过高频捕捉局部细节、低频关注全局结构,增强特征提取的准确度;高低频自注意力自适应融合模块由窗口多头注意力和高效多头自注意力并行组成,其中,窗口多头注意力先将整个特征(512×16×16)分成4个小窗口(512×8×8),分别在每个窗口内进行自注意力的计算,然后整合;高效多头自注意力中的query(Q)由Linear线性层映射而来,而key(K)和value(V)需先分别进行最大池化和平均池化,池化特征大小为8×8,然后将两个池化结果相加,再经过Linear线性层计算key(K)和value(V),并且设置了两个可学习的参数,初始化为1,以残差连接的方式将高低频注意力的特征自适应的加到原特征上,公式如下:
y=xori+a1×xgao+a2×xdi (2)
其中,xori为传入的特征,xgao、xdi分别为高低频注意力处理的特征,a1、a2分别为两个可学习的权重参数;
S24、如图5为语义增强模块,语义增强模块放置在高低频自注意力自适应融合模块之后,将高低频自注意力自适应融合模块后的特征经过Linear线性层将通道数转换成类别数2作为query(Q)、key(K),同样经过Linear线性层不改变通道数作为value(V),然后将Q转换成512×16×16进行8倍双线性上采样至原图大小,与标签进行监督,产生的损失为loss2,同时进行语义注意力(YSA)的计算,将Q、K、V传入下式:
YSA=Softmax(QKT)V (3)
其中,Q、K、V为经过Linear层映射到的query、key、value,T为转置,Softmax为激活函数,用于归一化。
然后将语义注意力处理的特征经过Linear线性层,并设置一个可学习的参数λ对特征进行微调,然后与残差连接的特征进行相加,得到最后的语义增强后的特征,语义增强模块产生的损失与最后的预测图产生的损失相加,进入反向传播过程,语义增强的损失权重值为0.4。
步骤三、使用argmax判断像素值属于结节还是背景;
对于损失函数,使用交叉熵损失函数和Dice损失函数进行加权求和,两者各赋予0.5的权值;
使用Adam优化器进行反向传播,初始学习率设为0.0001,对于学习率调整,首先预热(warm_up)5轮,然后使用余弦退火算法,即通过余弦函数降低学习率,训练的batch_size为24,本次实验所用设备为一个Tesla V100,软件环境为python3.8,pytorch1.7.0。
为了验证本发明模型的性能,使用Dice相似系数(dsc)和均交互比(miou)进行实验评估,指标计算公式如下:
其中,P为网络预测的分割结果,T为真实标签。
最后在验证集上判断网络已经训练稳定,选择dsc最高的一轮模型权重,在测试集上进行测试,可以看出,本发明的分割模型相比Unet在dsc上提升了2.1%,在miou上提升了1.3%。
网络结构 | dsc | miou |
Unet | 75.9% | 84.8% |
本发明 | 78.0% | 86.1% |
以上述依据本发明的理想实施例为启示,通过上述的说明内容,相关工作人员完全可以在不偏离本项发明技术思想的范围内,进行多样的变更以及修改。本项发明的技术性范围并不局限于说明书上的内容,必须要根据权利要求范围来确定其技术性范围。
Claims (5)
1.一种基于改进Unet网络的甲状腺结节分割方法,其特征在于,包括以下步骤:
步骤一、对公共甲状腺超声图像数据集进行图像大小统一、随机翻转、旋转和增强对比度操作,并按照8:1:1划分成训练集、验证集和测试集;
步骤二、构建改进Unet网络,首先在Unet网络的前3个下采样卷积块后增加自注意力残差连接块;其次在第4个下采样卷积块后增加高低频自注意力自适应融合模块;最后在高低频自注意力自适应融合模块之后接入语义增强模块;
步骤三、使用argmax判断像素值属于结节或背景。
2.根据权利要求1所述的基于改进Unet网络的甲状腺结节分割方法,其特征在于:Unet网络包括一个双卷积块、4个下采样卷积块、4个上采样卷积块;下采样卷积块由最大池化,一个双卷积块组成,其中,双卷积块为两组3×3卷积、BN归一化层和ReLU激活函数;下采样卷积块由最大池化,一个双卷积块组成,其中,双卷积块为两组3×3卷积、BN归一化层和ReLU激活函数;上采样卷积块由双线性上采样,一个双卷积块组成,其中,双卷积块为两组3×3卷积、BN归一化层和ReLU激活函数;
一个双卷积块将输入通道数变成64,然后经过4个下采样卷积块,通道数分别变为128、256、512、512,之后经过4个上采样卷积块,通道数变为256、128、64、64,最后1×1卷积变成类别个数。
3.根据权利要求2所述的基于改进Unet网络的甲状腺结节分割方法,其特征在于,在Unet网络的前3个下采样卷积块后增加自注意力残差连接块的详细步骤如下:
自注意力残差连接块接在前3个下采样卷积块的后面,自注意力残差连接块中分两个残差连接块,第一个残差连接块是BN归一化和高效多头自注意力机制,高效多头自注意力先将特征经过Linear线性层映射成Q,然后经过最大池化层将特征变成8×8尺寸的特征图,再经过Linear线性层计算自注意力中的K和V,公式如下:
其中,Q为经过Linear层映射到的query,K和V为最大池化后经过Linear层映射得到的key、value,T为转置,Dh为多头注意力机制一个头的隐藏维度数,Softmax为激活函数;
第二个残差连接块由BN归一化、ReLU激活函数和3×3卷积组成。
4.根据权利要求3所述的基于改进Unet网络的甲状腺结节分割方法,其特征在于:在第4个下采样后增加高低频自注意力自适应融合模块的详细步骤如下:
高低频自注意力自适应融合模块由窗口多头注意力和高效多头自注意力并行组成,其中,窗口多头注意力先将整个特征(512×16×16)分成4个小窗口(512×8×8),分别在每个窗口内进行自注意力的计算,高效多头自注意力中的Q由Linear线性层映射得到,而K和V分别进行最大池化和平均池化,然后将两个池化结果相加,再经过Linear线性层计算K和V;并且设置两个可学习的权重参数,以残差连接的方式将高低频注意力的特征自适应的加到原特征上,公式如下:
y=xori+a1×xgao+a2×xdi (2)
其中,xori为传入的特征,xgao、xdi分别为高低频注意力处理的特征,a1、a2分别为两个可学习的权重参数。
5.根据权利要求4所述的基于改进Unet网络的甲状腺结节分割方法,其特征在于,在高低频自注意力自适应融合模块之后接入语义增强模块的详细步骤如下:
将高低频自注意力自适应融合模块后的特征经过Linear线性层将通道数转换成类别数2作为Q、K,同样经过Linear线性层不改变通道数作为V,然后将Q转换成512×16×16进行8倍双线性上采样至原图大小,与标签进行监督,产生的损失为loss2,同时进行语义注意力的计算,将Q、K、V传入下式:
YSA=Softmax(QKT)V (3)
其中,Q、K、V为经过Linear层映射到的query、key、value,T为转置;
然后将语义注意力处理的特征经过Linear线性层,并设置一个可学习的参数λ对特征进行微调,然后与残差连接的特征进行相加,得到最后的语义增强后的特征,语义增强模块产生的损失与预测图产生的损失相加,进入反向传播过程。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210723059.8A CN114998296A (zh) | 2022-06-24 | 2022-06-24 | 一种基于改进Unet网络的甲状腺结节分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210723059.8A CN114998296A (zh) | 2022-06-24 | 2022-06-24 | 一种基于改进Unet网络的甲状腺结节分割方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114998296A true CN114998296A (zh) | 2022-09-02 |
Family
ID=83036872
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210723059.8A Pending CN114998296A (zh) | 2022-06-24 | 2022-06-24 | 一种基于改进Unet网络的甲状腺结节分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114998296A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116051829A (zh) * | 2022-12-14 | 2023-05-02 | 杭州电子科技大学信息工程学院 | 一种喉癌和下咽癌的三维ct图像分割方法 |
CN116152278A (zh) * | 2023-04-17 | 2023-05-23 | 杭州堃博生物科技有限公司 | 医疗图像的分割方法及装置、非易失性存储介质 |
CN116187210A (zh) * | 2023-05-04 | 2023-05-30 | 生态环境部华南环境科学研究所(生态环境部生态环境应急研究所) | 一种lstm耦合机理模型的时空多源近岸海域水质时序预测方法 |
CN116188431A (zh) * | 2023-02-21 | 2023-05-30 | 北京长木谷医疗科技有限公司 | 基于CNN与Transformer的髋关节分割方法及装置 |
CN116739992A (zh) * | 2023-05-17 | 2023-09-12 | 福州大学 | 一种甲状腺被膜侵犯智能辅助判读方法 |
CN116823656A (zh) * | 2023-06-27 | 2023-09-29 | 华东师范大学 | 基于频域局部特征注意力机制的图像盲去模糊方法及系统 |
CN116934738A (zh) * | 2023-08-14 | 2023-10-24 | 威朋(苏州)医疗器械有限公司 | 基于超声图像的器官与结节联合分割方法及系统 |
-
2022
- 2022-06-24 CN CN202210723059.8A patent/CN114998296A/zh active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116051829A (zh) * | 2022-12-14 | 2023-05-02 | 杭州电子科技大学信息工程学院 | 一种喉癌和下咽癌的三维ct图像分割方法 |
CN116188431A (zh) * | 2023-02-21 | 2023-05-30 | 北京长木谷医疗科技有限公司 | 基于CNN与Transformer的髋关节分割方法及装置 |
CN116188431B (zh) * | 2023-02-21 | 2024-02-09 | 北京长木谷医疗科技股份有限公司 | 基于CNN与Transformer的髋关节分割方法及装置 |
CN116152278A (zh) * | 2023-04-17 | 2023-05-23 | 杭州堃博生物科技有限公司 | 医疗图像的分割方法及装置、非易失性存储介质 |
CN116187210A (zh) * | 2023-05-04 | 2023-05-30 | 生态环境部华南环境科学研究所(生态环境部生态环境应急研究所) | 一种lstm耦合机理模型的时空多源近岸海域水质时序预测方法 |
CN116187210B (zh) * | 2023-05-04 | 2023-07-21 | 生态环境部华南环境科学研究所(生态环境部生态环境应急研究所) | 一种lstm耦合机理模型的时空多源近岸海域水质时序预测方法 |
CN116739992A (zh) * | 2023-05-17 | 2023-09-12 | 福州大学 | 一种甲状腺被膜侵犯智能辅助判读方法 |
CN116739992B (zh) * | 2023-05-17 | 2023-12-22 | 福州大学 | 一种甲状腺被膜侵犯智能辅助判读方法 |
CN116823656A (zh) * | 2023-06-27 | 2023-09-29 | 华东师范大学 | 基于频域局部特征注意力机制的图像盲去模糊方法及系统 |
CN116934738A (zh) * | 2023-08-14 | 2023-10-24 | 威朋(苏州)医疗器械有限公司 | 基于超声图像的器官与结节联合分割方法及系统 |
CN116934738B (zh) * | 2023-08-14 | 2024-03-22 | 威朋(苏州)医疗器械有限公司 | 基于超声图像的器官与结节联合分割方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114998296A (zh) | 一种基于改进Unet网络的甲状腺结节分割方法 | |
CN111259940B (zh) | 一种基于空间注意力地图的目标检测方法 | |
CN110045015B (zh) | 一种基于深度学习的混凝土结构内部缺陷检测方法 | |
CN111626927A (zh) | 采用视差约束的双目图像超分辨率方法、系统及装置 | |
CN112363216A (zh) | 基于注意力机制的地震数据去噪方法 | |
CN115731505A (zh) | 视频显著性区域检测方法、装置、电子设备及存储介质 | |
CN115240079A (zh) | 一种多源遥感影像深度特征融合匹配方法 | |
CN116486183B (zh) | 基于多种注意力权重融合特征的sar图像建筑区分类方法 | |
CN112184552A (zh) | 一种基于高频特征学习的子像素卷积图像超分辨方法 | |
CN117437423A (zh) | 基于sam协同学习和跨层特征聚合增强的弱监督医学图像分割方法及装置 | |
CN111080533A (zh) | 一种基于自监督残差感知网络的数码变焦方法 | |
CN113344146B (zh) | 基于双重注意力机制的图像分类方法、系统及电子设备 | |
Zhang | Image enhancement method based on deep learning | |
CN115496788A (zh) | 一种使用空域传播后处理模块的深度补全方法 | |
CN116228520A (zh) | 基于Transformer生成对抗网络的图像压缩感知重建方法及系统 | |
CN115331081A (zh) | 图像目标检测方法与装置 | |
CN115223033A (zh) | 一种合成孔径声呐图像目标分类方法及系统 | |
CN115205532A (zh) | 基于特征提取和rfb上下文信息优化的图像语义分割方法 | |
CN117668623B (zh) | 船舶管道阀门泄漏多传感器跨域故障诊断方法 | |
CN112926619B (zh) | 一种高精度水下激光目标识别系统 | |
CN118212278B (zh) | 一种基于卷积的图像配准方法 | |
CN114758387B (zh) | 基于单帧rgb图像的轻量级人脸反欺诈方法及装置 | |
CN110751632B (zh) | 基于卷积神经网络的多尺度图像质量检测方法 | |
An et al. | The research of salient object detection on rgb-t multi-source image | |
CN118247668A (zh) | 一种基于扩散模型的高光谱图像多源域域自适应分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |