CN114998296A - 一种基于改进Unet网络的甲状腺结节分割方法 - Google Patents

一种基于改进Unet网络的甲状腺结节分割方法 Download PDF

Info

Publication number
CN114998296A
CN114998296A CN202210723059.8A CN202210723059A CN114998296A CN 114998296 A CN114998296 A CN 114998296A CN 202210723059 A CN202210723059 A CN 202210723059A CN 114998296 A CN114998296 A CN 114998296A
Authority
CN
China
Prior art keywords
attention
self
low frequency
unet network
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210723059.8A
Other languages
English (en)
Inventor
蔡成杰
毕卉
邹凌
吕继东
姜一波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changzhou University
Original Assignee
Changzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changzhou University filed Critical Changzhou University
Priority to CN202210723059.8A priority Critical patent/CN114998296A/zh
Publication of CN114998296A publication Critical patent/CN114998296A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及图像分割技术领域,尤其涉及一种基于改进Unet网络的甲状腺结节分割方法,包括:对公共甲状腺超声图像数据集进行图像大小统一、随机翻转、旋转和增强对比度操作;构建改进Unet网络,首先在Unet网络的前3个下采样卷积中增加自注意力残差连接块;其次在第4个下采样后增加高低频自注意力自适应融合模块;最后在高低频自注意力自适应融合模块之后接入语义增强模块;使用argmax判断像素值属于结节还是背景。本发明为了帮助医生进行准确的甲状腺结节分割,对结节区域进行精确的定位,同时增强全局上下文与局部信息,降低甲状腺结节分割的误差。

Description

一种基于改进Unet网络的甲状腺结节分割方法
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于改进Unet网络的甲状腺结节分割方法。
背景技术
目前,超声成像凭借着廉价、无辐射、实时等优点,成为甲状腺诊断的首选技术;由于超声图像对比度低,存在着大量的噪声,边缘也相对模糊,因此常规的分割方法对于超声甲状腺结节的分割难以达到较高的精确度,不准确的分割容易造成医生的错误诊断与治疗,后果极其严重。
随着深度学习的火热,计算机医疗技术的发展,人们越来越关注于深度学习相关的医学图像分割技术。CNN因为其强大的处理比例不变性、建模归纳偏向的能力在深度学习领域应用广泛。其中,Ronneberger提出的Unet网络凭借着能够在数据量匮乏的医学图像领域仍然有良好的分割效果。
由于卷积的作用是局部的,容易出现感受野受限的问题,对于上下文全局信息的捕获具有一定的挑战,即缺少了甲状腺周围组织对于结节分割的辅助作用。同时缺乏语义先验信息,容易出现较小的结节与较大的结节两者边界合并的问题,分割的性能难以达到理想的状况。上述问题可以通过引入自注意力机制进行解决,只是普通的自注意力机制忽略了不同频域的特征,过多地关注低频全局信息,容易丢失边缘等局部细节,使得分割结果不够准确。
发明内容
本发明解决的技术问题是:为了帮助医生进行准确的甲状腺结节分割,对结节区域进行精确的定位,同时增强全局上下文与局部信息,降低甲状腺结节分割的误差。
本发明所采用的技术方案是:一种基于改进Unet网络的甲状腺结节分割方法,包括以下步骤:
步骤一、对公共甲状腺超声图像数据集进行图像大小统一、随机翻转、旋转和增强对比度操作,并按照8:1:1划分成训练集、验证集和测试集;
步骤二、构建改进Unet网络,首先在Unet网络的前3个下采样卷积块后增加自注意力残差连接块;其次在第4个下采样卷积块后增加高低频自注意力自适应融合模块;最后在高低频自注意力自适应融合模块之后接入语义增强模块;
在编码阶段加入自注意力残差连接块能在多个尺度上捕获远程依赖与上下文全局信息,同时能够将自注意力初始化为卷积,从而弥补自注意力需要大量的数据学习位置偏差的缺陷;
高低频自注意力自适应融合模块用于增强语义特征的全局上下文依赖,同时通过高频捕捉局部细节、低频关注全局结构,增强特征提取的准确度;
步骤三、使用argmax判断像素值属于结节或背景。
本发明的有益效果:
1、以Unet网络作为本发明网络模型的主体架构,能够帮助模型在数据量缺乏的情况下依然达到理想的效果,在编码阶段加入自注意力残差连接块,在多个尺度上捕获远程依赖与上下文全局信息,同时能够将自注意力初始化为卷积,从而弥补自注意力需要大量的数据学习位置偏差的缺陷;
2、高低频自注意力自适应融合模块赋予自注意力同时在高频捕捉局部边缘细节、在低频捕获全局上下文结构的能力;
3、语义增强模块通过加入语义先验信息增强特征提取阶段的语义特征,本发明方法在甲状腺数据集tn3k上分割性能有了较大的提升,dsc相比Unet提升了2.1%,miou相比Unet提升了1.3%;对于甲状腺结节分割任务中噪声等干扰因素过多、边缘不清晰的问题,得以较好地解决。
附图说明
图1是本发明的基于改进Unet网络的甲状腺结节分割方法流程图;
图2是本发明的图像分割模型图;
图3是本发明的分割模型内部模块的结构图;
图4是本发明的高低频自注意力自适应融合模块;
图5是本发明的语义增强模块;
图6是本发明的训练好的模型进行分割效果图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明,此图为简化的示意图,仅以示意方式说明本发明的基本结构,因此其仅显示与本发明有关的构成。
如图1所示,基于改进Unet网络的甲状腺结节分割方法包括以下步骤:
步骤一、对公共甲状腺超声图像数据集进行图像大小统一、随机翻转、旋转和增强对比度操作,并按照8:1:1划分成训练集、验证集和测试集;
S1、将公共的超声甲状腺结节数据集tn3k裁剪成256×256尺寸的图像,训练、验证的图像一共2879张;
步骤二、构建改进Unet网络,首先在Unet网络的前3个下采样卷积中增加自注意力残差连接块;其次在第4个下采样后增加高低频自注意力自适应融合模块;最后在高低频自注意力自适应融合模块之后接入语义增强模块;
在编码阶段加入自注意力残差连接块能在多个尺度上捕获远程依赖与上下文全局信息,同时能够将自注意力初始化为卷积,从而弥补自注意力需要大量的数据学习位置偏差的缺陷;
高低频自注意力自适应融合模块用于增强语义特征的全局上下文依赖,同时通过高频捕捉局部细节、低频关注全局结构,增强特征提取的准确度;
S2、搭建基于自注意力残差连接块、高低频自注意力自适应融合模块与语义增强模块的甲状腺结节分割网络,即改进Unet网络,将pytorch读取的甲状腺图像数据送进网络中;
进一步的,如图2为改进Unet网络图,具体包括:
S21、Unet主体结构包括一个双卷积块、4个下采样卷积块、4个上采样卷积块,下采样卷积块由最大池化,一个双卷积块组成,其中双卷积块为两组3×3卷积、BN归一化层和ReLU激活函数;下采样卷积块由最大池化,一个双卷积块组成,其中双卷积块为两组3×3卷积、BN归一化层和ReLU激活函数;上采样卷积块由双线性上采样,一个双卷积块组成,其中,双卷积块为两组3×3卷积、BN归一化层和ReLU激活函数;
一个双卷积块将输入通道数变成64,然后经过4个下采样卷积块,通道数分别变为128、256、512、512,之后经过4个上采样卷积块,通道数变为256、128、64、64,最后1×1卷积变成类别个数;
S22、如图3为自注意力残差连接块结构图,自注意力残差连接块接在前3个下采样卷积块的后面,将自注意力以残差方式连接,将其初始化为卷积,自注意力残差连接块中分两个残差连接块,第一个残差连接块是BN归一化和高效多头自注意力机制(ESA),其中,高效多头自注意力先将特征经过Linear线性层映射成query(Q),然后将特征送入最大池化层变成8×8尺寸的特征图,再经过Linear线性层计算自注意力中的key(K)和value(V)以减少计算,公式如下:
Figure BDA0003712356030000051
其中,Q为原特征映射的query,K、V为经过最大池化层后再经映射的key、value;T为转置计算;Dh为多头注意力机制一个头的隐藏维度数,本实施例中
Figure BDA0003712356030000052
Figure BDA0003712356030000053
用于训练时有更稳定的梯度;Softmax为激活函数,用于归一化。
第二个残差连接块由BN归一化、ReLU激活函数和3×3卷积组成;
S23、如图4为高低频自注意力自适应融合模块结构图,高低频自注意力自适应融合模块以残差连接的方式放置在第4个下采样卷积块的后面,用于增强语义特征的全局上下文依赖,同时通过高频捕捉局部细节、低频关注全局结构,增强特征提取的准确度;高低频自注意力自适应融合模块由窗口多头注意力和高效多头自注意力并行组成,其中,窗口多头注意力先将整个特征(512×16×16)分成4个小窗口(512×8×8),分别在每个窗口内进行自注意力的计算,然后整合;高效多头自注意力中的query(Q)由Linear线性层映射而来,而key(K)和value(V)需先分别进行最大池化和平均池化,池化特征大小为8×8,然后将两个池化结果相加,再经过Linear线性层计算key(K)和value(V),并且设置了两个可学习的参数,初始化为1,以残差连接的方式将高低频注意力的特征自适应的加到原特征上,公式如下:
y=xori+a1×xgao+a2×xdi (2)
其中,xori为传入的特征,xgao、xdi分别为高低频注意力处理的特征,a1、a2分别为两个可学习的权重参数;
S24、如图5为语义增强模块,语义增强模块放置在高低频自注意力自适应融合模块之后,将高低频自注意力自适应融合模块后的特征经过Linear线性层将通道数转换成类别数2作为query(Q)、key(K),同样经过Linear线性层不改变通道数作为value(V),然后将Q转换成512×16×16进行8倍双线性上采样至原图大小,与标签进行监督,产生的损失为loss2,同时进行语义注意力(YSA)的计算,将Q、K、V传入下式:
YSA=Softmax(QKT)V (3)
其中,Q、K、V为经过Linear层映射到的query、key、value,T为转置,Softmax为激活函数,用于归一化。
然后将语义注意力处理的特征经过Linear线性层,并设置一个可学习的参数λ对特征进行微调,然后与残差连接的特征进行相加,得到最后的语义增强后的特征,语义增强模块产生的损失与最后的预测图产生的损失相加,进入反向传播过程,语义增强的损失权重值为0.4。
步骤三、使用argmax判断像素值属于结节还是背景;
对于损失函数,使用交叉熵损失函数和Dice损失函数进行加权求和,两者各赋予0.5的权值;
使用Adam优化器进行反向传播,初始学习率设为0.0001,对于学习率调整,首先预热(warm_up)5轮,然后使用余弦退火算法,即通过余弦函数降低学习率,训练的batch_size为24,本次实验所用设备为一个Tesla V100,软件环境为python3.8,pytorch1.7.0。
为了验证本发明模型的性能,使用Dice相似系数(dsc)和均交互比(miou)进行实验评估,指标计算公式如下:
Figure BDA0003712356030000071
Figure BDA0003712356030000072
其中,P为网络预测的分割结果,T为真实标签。
最后在验证集上判断网络已经训练稳定,选择dsc最高的一轮模型权重,在测试集上进行测试,可以看出,本发明的分割模型相比Unet在dsc上提升了2.1%,在miou上提升了1.3%。
网络结构 dsc miou
Unet 75.9% 84.8%
本发明 78.0% 86.1%
以上述依据本发明的理想实施例为启示,通过上述的说明内容,相关工作人员完全可以在不偏离本项发明技术思想的范围内,进行多样的变更以及修改。本项发明的技术性范围并不局限于说明书上的内容,必须要根据权利要求范围来确定其技术性范围。

Claims (5)

1.一种基于改进Unet网络的甲状腺结节分割方法,其特征在于,包括以下步骤:
步骤一、对公共甲状腺超声图像数据集进行图像大小统一、随机翻转、旋转和增强对比度操作,并按照8:1:1划分成训练集、验证集和测试集;
步骤二、构建改进Unet网络,首先在Unet网络的前3个下采样卷积块后增加自注意力残差连接块;其次在第4个下采样卷积块后增加高低频自注意力自适应融合模块;最后在高低频自注意力自适应融合模块之后接入语义增强模块;
步骤三、使用argmax判断像素值属于结节或背景。
2.根据权利要求1所述的基于改进Unet网络的甲状腺结节分割方法,其特征在于:Unet网络包括一个双卷积块、4个下采样卷积块、4个上采样卷积块;下采样卷积块由最大池化,一个双卷积块组成,其中,双卷积块为两组3×3卷积、BN归一化层和ReLU激活函数;下采样卷积块由最大池化,一个双卷积块组成,其中,双卷积块为两组3×3卷积、BN归一化层和ReLU激活函数;上采样卷积块由双线性上采样,一个双卷积块组成,其中,双卷积块为两组3×3卷积、BN归一化层和ReLU激活函数;
一个双卷积块将输入通道数变成64,然后经过4个下采样卷积块,通道数分别变为128、256、512、512,之后经过4个上采样卷积块,通道数变为256、128、64、64,最后1×1卷积变成类别个数。
3.根据权利要求2所述的基于改进Unet网络的甲状腺结节分割方法,其特征在于,在Unet网络的前3个下采样卷积块后增加自注意力残差连接块的详细步骤如下:
自注意力残差连接块接在前3个下采样卷积块的后面,自注意力残差连接块中分两个残差连接块,第一个残差连接块是BN归一化和高效多头自注意力机制,高效多头自注意力先将特征经过Linear线性层映射成Q,然后经过最大池化层将特征变成8×8尺寸的特征图,再经过Linear线性层计算自注意力中的K和V,公式如下:
Figure FDA0003712356020000021
其中,Q为经过Linear层映射到的query,K和V为最大池化后经过Linear层映射得到的key、value,T为转置,Dh为多头注意力机制一个头的隐藏维度数,Softmax为激活函数;
第二个残差连接块由BN归一化、ReLU激活函数和3×3卷积组成。
4.根据权利要求3所述的基于改进Unet网络的甲状腺结节分割方法,其特征在于:在第4个下采样后增加高低频自注意力自适应融合模块的详细步骤如下:
高低频自注意力自适应融合模块由窗口多头注意力和高效多头自注意力并行组成,其中,窗口多头注意力先将整个特征(512×16×16)分成4个小窗口(512×8×8),分别在每个窗口内进行自注意力的计算,高效多头自注意力中的Q由Linear线性层映射得到,而K和V分别进行最大池化和平均池化,然后将两个池化结果相加,再经过Linear线性层计算K和V;并且设置两个可学习的权重参数,以残差连接的方式将高低频注意力的特征自适应的加到原特征上,公式如下:
y=xori+a1×xgao+a2×xdi (2)
其中,xori为传入的特征,xgao、xdi分别为高低频注意力处理的特征,a1、a2分别为两个可学习的权重参数。
5.根据权利要求4所述的基于改进Unet网络的甲状腺结节分割方法,其特征在于,在高低频自注意力自适应融合模块之后接入语义增强模块的详细步骤如下:
将高低频自注意力自适应融合模块后的特征经过Linear线性层将通道数转换成类别数2作为Q、K,同样经过Linear线性层不改变通道数作为V,然后将Q转换成512×16×16进行8倍双线性上采样至原图大小,与标签进行监督,产生的损失为loss2,同时进行语义注意力的计算,将Q、K、V传入下式:
YSA=Softmax(QKT)V (3)
其中,Q、K、V为经过Linear层映射到的query、key、value,T为转置;
然后将语义注意力处理的特征经过Linear线性层,并设置一个可学习的参数λ对特征进行微调,然后与残差连接的特征进行相加,得到最后的语义增强后的特征,语义增强模块产生的损失与预测图产生的损失相加,进入反向传播过程。
CN202210723059.8A 2022-06-24 2022-06-24 一种基于改进Unet网络的甲状腺结节分割方法 Pending CN114998296A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210723059.8A CN114998296A (zh) 2022-06-24 2022-06-24 一种基于改进Unet网络的甲状腺结节分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210723059.8A CN114998296A (zh) 2022-06-24 2022-06-24 一种基于改进Unet网络的甲状腺结节分割方法

Publications (1)

Publication Number Publication Date
CN114998296A true CN114998296A (zh) 2022-09-02

Family

ID=83036872

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210723059.8A Pending CN114998296A (zh) 2022-06-24 2022-06-24 一种基于改进Unet网络的甲状腺结节分割方法

Country Status (1)

Country Link
CN (1) CN114998296A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116051829A (zh) * 2022-12-14 2023-05-02 杭州电子科技大学信息工程学院 一种喉癌和下咽癌的三维ct图像分割方法
CN116152278A (zh) * 2023-04-17 2023-05-23 杭州堃博生物科技有限公司 医疗图像的分割方法及装置、非易失性存储介质
CN116187210A (zh) * 2023-05-04 2023-05-30 生态环境部华南环境科学研究所(生态环境部生态环境应急研究所) 一种lstm耦合机理模型的时空多源近岸海域水质时序预测方法
CN116188431A (zh) * 2023-02-21 2023-05-30 北京长木谷医疗科技有限公司 基于CNN与Transformer的髋关节分割方法及装置
CN116739992A (zh) * 2023-05-17 2023-09-12 福州大学 一种甲状腺被膜侵犯智能辅助判读方法
CN116823656A (zh) * 2023-06-27 2023-09-29 华东师范大学 基于频域局部特征注意力机制的图像盲去模糊方法及系统
CN116934738A (zh) * 2023-08-14 2023-10-24 威朋(苏州)医疗器械有限公司 基于超声图像的器官与结节联合分割方法及系统

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116051829A (zh) * 2022-12-14 2023-05-02 杭州电子科技大学信息工程学院 一种喉癌和下咽癌的三维ct图像分割方法
CN116188431A (zh) * 2023-02-21 2023-05-30 北京长木谷医疗科技有限公司 基于CNN与Transformer的髋关节分割方法及装置
CN116188431B (zh) * 2023-02-21 2024-02-09 北京长木谷医疗科技股份有限公司 基于CNN与Transformer的髋关节分割方法及装置
CN116152278A (zh) * 2023-04-17 2023-05-23 杭州堃博生物科技有限公司 医疗图像的分割方法及装置、非易失性存储介质
CN116187210A (zh) * 2023-05-04 2023-05-30 生态环境部华南环境科学研究所(生态环境部生态环境应急研究所) 一种lstm耦合机理模型的时空多源近岸海域水质时序预测方法
CN116187210B (zh) * 2023-05-04 2023-07-21 生态环境部华南环境科学研究所(生态环境部生态环境应急研究所) 一种lstm耦合机理模型的时空多源近岸海域水质时序预测方法
CN116739992A (zh) * 2023-05-17 2023-09-12 福州大学 一种甲状腺被膜侵犯智能辅助判读方法
CN116739992B (zh) * 2023-05-17 2023-12-22 福州大学 一种甲状腺被膜侵犯智能辅助判读方法
CN116823656A (zh) * 2023-06-27 2023-09-29 华东师范大学 基于频域局部特征注意力机制的图像盲去模糊方法及系统
CN116934738A (zh) * 2023-08-14 2023-10-24 威朋(苏州)医疗器械有限公司 基于超声图像的器官与结节联合分割方法及系统
CN116934738B (zh) * 2023-08-14 2024-03-22 威朋(苏州)医疗器械有限公司 基于超声图像的器官与结节联合分割方法及系统

Similar Documents

Publication Publication Date Title
CN114998296A (zh) 一种基于改进Unet网络的甲状腺结节分割方法
CN111259940B (zh) 一种基于空间注意力地图的目标检测方法
CN110045015B (zh) 一种基于深度学习的混凝土结构内部缺陷检测方法
CN111626927A (zh) 采用视差约束的双目图像超分辨率方法、系统及装置
CN112363216A (zh) 基于注意力机制的地震数据去噪方法
CN115731505A (zh) 视频显著性区域检测方法、装置、电子设备及存储介质
CN115240079A (zh) 一种多源遥感影像深度特征融合匹配方法
CN116486183B (zh) 基于多种注意力权重融合特征的sar图像建筑区分类方法
CN112184552A (zh) 一种基于高频特征学习的子像素卷积图像超分辨方法
CN117437423A (zh) 基于sam协同学习和跨层特征聚合增强的弱监督医学图像分割方法及装置
CN111080533A (zh) 一种基于自监督残差感知网络的数码变焦方法
CN113344146B (zh) 基于双重注意力机制的图像分类方法、系统及电子设备
Zhang Image enhancement method based on deep learning
CN115496788A (zh) 一种使用空域传播后处理模块的深度补全方法
CN116228520A (zh) 基于Transformer生成对抗网络的图像压缩感知重建方法及系统
CN115331081A (zh) 图像目标检测方法与装置
CN115223033A (zh) 一种合成孔径声呐图像目标分类方法及系统
CN115205532A (zh) 基于特征提取和rfb上下文信息优化的图像语义分割方法
CN117668623B (zh) 船舶管道阀门泄漏多传感器跨域故障诊断方法
CN112926619B (zh) 一种高精度水下激光目标识别系统
CN118212278B (zh) 一种基于卷积的图像配准方法
CN114758387B (zh) 基于单帧rgb图像的轻量级人脸反欺诈方法及装置
CN110751632B (zh) 基于卷积神经网络的多尺度图像质量检测方法
An et al. The research of salient object detection on rgb-t multi-source image
CN118247668A (zh) 一种基于扩散模型的高光谱图像多源域域自适应分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination