CN115082293A - 一种基于Swin Transformer和CNN双分支耦合的图像配准方法 - Google Patents
一种基于Swin Transformer和CNN双分支耦合的图像配准方法 Download PDFInfo
- Publication number
- CN115082293A CN115082293A CN202210650873.1A CN202210650873A CN115082293A CN 115082293 A CN115082293 A CN 115082293A CN 202210650873 A CN202210650873 A CN 202210650873A CN 115082293 A CN115082293 A CN 115082293A
- Authority
- CN
- China
- Prior art keywords
- image
- swin
- cnn
- branch
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000008878 coupling Effects 0.000 title claims abstract description 22
- 238000010168 coupling process Methods 0.000 title claims abstract description 22
- 238000005859 coupling reaction Methods 0.000 title claims abstract description 22
- 238000013507 mapping Methods 0.000 claims abstract description 34
- 230000009466 transformation Effects 0.000 claims abstract description 10
- 230000003993 interaction Effects 0.000 claims abstract description 9
- 230000004927 fusion Effects 0.000 claims abstract description 7
- 238000010606 normalization Methods 0.000 claims abstract description 7
- 238000012952 Resampling Methods 0.000 claims abstract description 5
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 238000004364 calculation method Methods 0.000 claims description 10
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 4
- 230000007246 mechanism Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 2
- 125000004122 cyclic group Chemical group 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 claims description 2
- 238000011176 pooling Methods 0.000 claims description 2
- 239000000126 substance Substances 0.000 claims description 2
- 238000000605 extraction Methods 0.000 abstract description 2
- 238000013527 convolutional neural network Methods 0.000 description 28
- 238000004088 simulation Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000012733 comparative method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G06T3/147—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G06T3/18—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4007—Interpolation-based scaling, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4038—Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4046—Scaling the whole image or part thereof using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于Swin Transformer和CNN双分支耦合的图像配准方法。该方法包括以下步骤:1、对原始数据中所有图像进行执行灰度值归一化、中心裁剪和重采样等标准的预处理步骤;2、将浮动图像和固定图像拼接后送入配准网络,并行经过Swin Transformer和CNN两个编码器分支;3、在Swin Transformer的每一个阶段,通过双分支特征耦合模块将Swin Transformer特征映射与对应分辨率的CNN特征映射进行特征交互与融合;4、解码器自适应调整来自编码器的深层特征与来自上层的特征,最后输出浮动图像和固定图像之间的形变场;5、将浮动图像和形变场输入空间变换网络,得到配准图像。6、计算配准图像与固定图像之间的相似性损失以及形变场的正则化损失,经反向传播训练网络。本发明使用Swin Transformer与CNN双分支进行特征提取,充分利用两种分支的优点,实现了特征互补。
Description
技术领域
本发明属于图像配准技术领域,具体地说,是一种有效提升图像配准性能的优化方法。
技术背景
可形变图像配准(Deformable image registration,DIR)是图像处理中的一项基本任务,具有重要的临床应用价值,近年来受到许多学者的关注。许多传统的配准方法通过迭代的方式来最小化代价函数。然而,这些方法涉及大量运算,配准一对图像需要大量时间。近年来,随着深度学习(Deep Learning,DL)的快速发展,基于深度学习的图像配准研究以其耗时短、精度高的优势吸引了研究者的广泛关注。一般来说,基于深度学习的方法可以分为有监督的方法和无监督的方法。在图像配准中,真实的形变场非常难以获取,而且人工标记的真实形变场可能会引入不必要的误差。因此,基于监督学习的方法一般通过传统算法或模拟形变获得的形变场标签。然而,这些方法的配准精度非常依赖生成的形变场的质量。基于无监督学习的方法因为不需要真实形变场,网络可以在配准图像与固定图像之间的相似性进行指导训练,所以在此方向上的研究在逐渐增加。近年来,大量基于卷积神经网络(Convolutional Neural Networks,CNN)的无监督图像配准方法相继被提出,且都具有良好的效果。然而,受制于卷积核的约束,CNN不能有效地捕捉运动和固定图像中的远距离映射关系,从而被限制了性能。
最近,基于Transformer的网络结构由于其强大的性能已被引入各种计算机视觉任务。与卷积运算不同,Transformer中的自注意机制具有无限大小的有效感受野,这使得Transformer能够捕获远程空间信息。尽管一般的Transformer具有很强的长程建模能力,能有效的捕捉长远的位置对应关系,但图像配准任务中的体素太多,网络很难寻找到真正的对应体素对。同时,由于卷积核的特性,CNN对局部细节信息的捕捉能力远胜于Transformer。此外,Transformer将原始图像划分为多个窗口,窗口与窗口间缺少交互。在图像配准任务中,由于固定图像和浮动图像对应体素对的位置不同,其很有可能分别存在两个不同的窗口中,从而其很难相互匹配。为增强局部关系的捕捉效率,Swin Transformer局部窗口自注意力,在提高性能的同时大大提高了效率。Swin Transformer在每个窗口下计算自注意力的,为了更好的和其他窗口进行信息交互,引入了移位窗口操作。移位窗口在一般的视觉任务中表现非常亮眼,在实际中,其是通过对特征图移位来间接实现的。在图像配准任务中,这样的操作的意义可能不大,不同窗口内对应点的位置关系仍然不能有效捕捉。CNN的卷积核在具有重叠的特征图上滑动,能有效的避免Transformer中不同窗口内对应点无法捕捉的情况。
发明内容
本发明公开了一种基于Swin Transformer和CNN双分支耦合的图像配准方法。该方法设计了一种新型双分支耦合的网络结构,网络结构为经典的编码器与解码器组成的U型网络。编码器由Swin Transformer分支和CNN分支组成,可有效利用基于Transformer的自注意力特征和基于CNN的卷积特征。采用特征耦合模块,通过交互的方式将SwinTransformer的特征映射与CNN的特征映射互补融合,充分促进两个编码器分支的特征表达能力,从而进一步提升配准性能。
实现本发明的技术解决方案为:一种基于Swin Transformer和CNN双分支耦合的图像配准方法,包括以下步骤:
第一步:对原始数据中所有图像进行执行灰度值归一化、中心裁剪、重采样和仿射变换这些标准的预处理;
第二步:将浮动图像和固定图像拼接后送入配准网络,并行经过SwinTransformer和CNN两个编码器分支;
第三步:在Swin Transformer的每一个阶段,通过双分支特征耦合模块将SwinTransformer特征映射与对应分辨率的CNN特征映射进行特征交互与融合;
第四步:解码器自适应调整来自编码器的深层特征与来自上层的特征,最后输出浮动图像和固定图像之间的形变场;
第五步:将浮动图像和形变场输入空间变换网络,得到配准图像;
第六步:计算配准图像与固定图像之间的相似性损失以及形变场的正则化损失,经反向传播训练网络。
本发明与现有技术相比,其显著特点在于:(1)并行设计Swin Transformer编码器和CNN编码器,同时融合了基于Swin Transformer的自注意力特征和基于CNN的卷积特征,增强模型的泛化能力。(2)采用双向交互机制,促进Swin Transformer与CNN的特征提取能力,同时对两者特征映射进行互补。(3)网络为无监督的端到端模型,各模块统一训练和推理,无需额外的标签进行训练(4)本发明方法配准速度块,配准精度高。
附图说明
图1是本发明的流程图。
图2是本发明的网络结构图。
图3是Swin Transformer Block示意图。
图4是双分支特征耦合模块结构图。
图5是固定图像和浮动图像及不同方法在LBPA40数据集中的配准图像示意图。
图6是不同方法在LBPA40数据集中配准图像与固定图像的差分示意图。
具体实施方式
本发明设计了一种基于Swin Transformer与CNN双分支耦合的配准网络,该方法采用并行设计,通过双向交互的方式使基于Swin Transformer的自注意力特征与基于CNN的卷积特征相互促进,增强各自特征表示,从而捕获输入运动和固定图像之间精准的空间对应关系。本发明的网络结构图参见图2。
下面结合说明书附图对本发明作进一步描述。
参见图1,对本发明的步骤进行详细的说明。
第一步,对原始数据中所有图像进行执行灰度值归一化、中心裁剪、重采样和仿射变换这些标准的预处理步骤。灰度值归一化步骤将图像灰度值收缩至[0,1]区间,其计算公式如下:
其中,Imin和Imax分别表示图像中灰度值最小值和最大值。
第二步,将浮动图像和固定图像拼接后送入配准网络,并行经过SwinTransformer和CNN两个编码器分支。将浮动图像和固定图像分别设为M和F。
在Swin Transformer分支中,首先将输入的图像分割成不重叠的3D图像块(Patch),每个图像块的大小为2×P×P×P;以表示第i个图像块,其中i∈{1,...,N},为图像块总数;每个图像块被展平并视为一个Token,然后使用线性映射层将每个Token投影到维度为C的特征表示:
在线性映射层之后,该分支拥有4个连续的阶段。第1个阶段由一个线性映射层和多个Swin Transformer块组成;而其余3个阶段的每个阶段都由一个Patch Merging层和多个Swin Transformer块组成;Swin Transformer块输出与输入相同数量的Token,而PatchMerging层将每组2×2×2相邻Token的特征连接起来,从而产生8C维特征嵌入;随后使用线性层将表示的特征大小减小到2C;在该分支中,两个连续的Swin Transformer块的输出计算如下:
其中W-MSA和SW-MSA分别是常规和窗口分块的多头自注意力模块;和zl表示W-MSA和SW-MSA的输出;MLP和LN分别表示多层感知机和正则化层;计算移位窗口机制,采用3D循环移位计算自注意力,其计算公式为:
其中Q、K、V分别表示Query,Key,Value矩阵,d表示Query和Key的维度;
CNN分支采用特征金字塔结构,其中特征映射的分辨率随着网络深度而降低,但通道数逐层增加;统一采用3D卷积,卷积核大小为3×3×3,在每一个卷积后都跟随一个LeakyReLU层,并通过最大池化层进行下采样操作。
双分支的结构参见图2。
第三步,在Swin Transformer的每一个阶段,通过双分支特征耦合模块将SwinTransformer特征映射与对应分辨率的CNN特征映射进行特征交互与融合;CNN分支首先使用3×3×3卷积提取上层经下采样后的特征映射,然后通过1×1×1卷积自适应将该特征映射与Swin Transformer特征映射进行对齐,同时,使用LayerNorm模块对其实施正则化,并将其添加到Swin Transformer特征映射中;随后,Swin Transformer分支将融合后的特征送入Swin Transformer Blocks,得到新的特征表示;通过1×1×1卷积与BatchNorm模块对齐CNN特征映射后将其添加至CNN特征映射中;最后,使用一个3×3×3卷积自适应调整聚合特征,进一步提高配准精度。双分支特征耦合模块详情如图4所示。
第四步,第四步解码器自适应调整来自编码器的深层特征与来自上层的特征,最后输出浮动图像和固定图像之间的形变场编码器特征映射通过跳跃连接与来自解码路径的上层特征映射连接,然后经过两个连续的3×3×3卷积层,并使用上采样层将特征映射的分辨率提高2倍;除了最后一个卷积层,每个卷积层之后都有一个LeakyReLU单元激活;最终,通过一个3×3×3的卷积得到输入图像对之间的形变场具体过程可以参见图2。
第六步,计算配准图像与固定图像之间的相似性损失以及形变场的正则化损失,经反向传播训练网络。网络的损失函数L的由图像相似项和形变场正则项组成,其计算公式为:
其中表示图像相似度损失,表示形变场正则化损失,λ表示正则化参数。采用图像配准领域中常用的局部归一化互相关(local normalized cross-correlation,LNCC)作为图像相似性损失,其计算公式为:
本发明的效果可通过以下仿真实验进一步说明:
仿真条件
本发明仿真使用Mindbogle101和LBPA40两个三维大脑数据集。
Mindboggle101和LPBA40分别包含101个T1加权MR图像和40个T1加权MR图像。Mindboggle101每幅图像都有一个带有25个解剖标记的分割掩模,LPBA40每幅图像都有一个带有56个解剖标记的分割掩模。对于Mindbogle101数据集,选取NKIRS-22和NKI-TRT-20子集中42幅1722对图像用于训练,OASIS-TRT-20子集的20幅380对图像用于测试。在LPBA40数据集上,采用前30幅870对图像作为训练集,其余10幅90对图像作为测试集。以Dice系数和95%的豪斯多夫距离(HD95)对配准结果进行评价。Dice系数的数值越大,证明两个区域的重叠的部分越大,配准效果越好。HD95数值越小,证明两个区域中点集的距离越小,配准效果越好。
实验在Ubuntu18.04操作系统下进行,使用的硬件设施为两个显存11G的NVIDIAGeForce RTX 2080Ti GPU,软件环境为python3.7,模型基于Pytorch框架实现,采用Adam作为优化器,批量大小设置为1,学习率为1e-4,正则化参数λ在Mindbogle101数据集上设为1,在LBPA40数据集上设为5。
仿真内容
为测试本发明算法的性能,将提出的基于Swin Transformer和CNN双分支耦合的图像配准方法(Proposed)与目前国际上先进的其他配准算法对比。对比方法包括:VoxelMorph(VM)、Vit-V-Net(V-V-N)和TransMorph(TM)等。同时,为了证明本发明方法中Swin Transformer与CNN双编码器分支融合的有效性,对VoxelMorph-Huge(VM-H,增加卷积层通道数量)与TransMorph-Large(TM-L,增加嵌入维度C、Swin Transformer Blocks数量和Head数量)也进行了比较。所有对比实验的超参数保持一致。
仿真实验结果分析
表1显示了两个评价指标在两个数据集中的初始值、各种对比方法的结果与本发明方法的结果,同时还给出了各方法的推理时间。可以看出,与其他方法相比,本发明方法在Mindbogle101和LBPA40数据集的测试集上的配准精度最好。与VoxelMorph-Huge和Transmorph-Large相比,本发明方法在推理时间更少的情况下配准精度更高,证明了本发明方法中Swin Transformer与CNN双分支互补融合的有效性。本发明方法与对比方法的效果图参见图5-6。以上两组真实数据集的仿真实验结果表明了本发明方法的有效性。
表1
Claims (7)
1.一种基于Swin Transformer和CNN双分支耦合的图像配准方法,其特征在于,包括以下步骤:
第一步:对原始数据中所有图像进行执行灰度值归一化、中心裁剪、重采样和仿射变换这些标准的预处理;
第二步:将浮动图像和固定图像拼接后送入配准网络,并行经过Swin Transformer和CNN两个编码器分支;
第三步:在Swin Transformer的每一个阶段,通过双分支特征耦合模块将SwinTransformer特征映射与对应分辨率的CNN特征映射进行特征交互与融合;
第四步:解码器自适应调整来自编码器的深层特征与来自上层的特征,最后输出浮动图像和固定图像之间的形变场;
第五步:将浮动图像和形变场输入空间变换网络,得到配准图像;
第六步:计算配准图像与固定图像之间的相似性损失以及形变场的正则化损失,经反向传播训练网络。
3.根据权利要求1所述的基于Swin Transformer和CNN双分支耦合的图像配准方法,其特征在于:第二步将浮动图像和固定图像拼接后送入配准网络,并行经过SwinTransformer和CNN两个编码器分支的实现方法为:在处理后的数据中,随机挑选浮动图像和固定图像,并将两者拼接后送入配准网络,并行经过Swin Transformer和CNN两个编码器分支;其中浮动图像和固定图像分别设为M和F;
在Swin Transformer分支中,首先将输入的图像分割成不重叠的3D图像块(Patch),每个图像块的大小为2×P×P×P;以表示第i个图像块,其中i∈{1,...,N},为图像块总数;每个图像块被展平并视为一个Token,然后使用线性映射层将每个Token投影到维度为C的特征表示:
在线性映射层之后,该分支拥有4个连续的阶段;第1个阶段由一个线性映射层和多个Swin Transformer块组成;而其余3个阶段的每个阶段都由一个Patch Merging层和多个Swin Transformer块组成;Swin Transformer块输出与输入相同数量的Token,而PatchMerging层将每组2×2×2相邻Token的特征连接起来,从而产生8C维特征嵌入;随后使用线性层将表示的特征大小减小到2C;在该分支中,两个连续的Swin Transformer块的输出计算如下:
其中W-MSA和SW-MSA分别是常规和窗口分块的多头自注意力模块;和zl表示W-MSA和SW-MSA的输出;MLP和LN分别表示多层感知机和正则化层;计算移位窗口机制,采用3D循环移位计算自注意力,其计算公式为:
其中Q、K、V分别表示Query,Key,Value矩阵,d表示Query和Key的维度;
CNN分支采用特征金字塔结构,其中特征映射的分辨率随着网络深度而降低,但通道数逐层增加;统一采用3D卷积,卷积核大小为3×3×3,在每一个卷积后都跟随一个LeakyReLU层,并通过最大池化层进行下采样操作。
4.根据权利要求1所述的基于Swin Transformer和CNN双分支耦合的图像配准方法,其特征在于:第三步在Swin Transformer的每一个阶段,通过双分支特征耦合模块将SwinTransformer特征映射与对应分辨率的CNN特征映射进行特征交互与融合;CNN分支首先使用3×3×3卷积提取上层经下采样后的特征映射,然后通过1×1×1卷积自适应将该特征映射与Swin Transformer特征映射进行对齐,同时,使用LayerNorm模块对其实施正则化,并将其添加到Swin Transformer特征映射中;随后,Swin Transformer分支将融合后的特征送入Swin Transformer Blocks,得到新的特征表示;通过1×1×1卷积与BatchNorm模块对齐CNN特征映射后将其添加至CNN特征映射中;最后,使用一个3×3×3卷积自适应调整聚合特征。
7.根据权利要求1所述的基于Swin Transformer和CNN双分支耦合的图像配准方法,其特征在于:第六步计算配准图像与固定图像之间的相似性损失以及形变场的正则化损失,经反向传播训练网络;网络的损失函数L的由图像相似项和形变场正则项组成,其计算公式为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210650873.1A CN115082293A (zh) | 2022-06-10 | 2022-06-10 | 一种基于Swin Transformer和CNN双分支耦合的图像配准方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210650873.1A CN115082293A (zh) | 2022-06-10 | 2022-06-10 | 一种基于Swin Transformer和CNN双分支耦合的图像配准方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115082293A true CN115082293A (zh) | 2022-09-20 |
Family
ID=83251729
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210650873.1A Pending CN115082293A (zh) | 2022-06-10 | 2022-06-10 | 一种基于Swin Transformer和CNN双分支耦合的图像配准方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115082293A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115795683A (zh) * | 2022-12-08 | 2023-03-14 | 四川大学 | 一种融合CNN和Swin Transformer网络的翼型优化方法 |
CN116012344A (zh) * | 2023-01-29 | 2023-04-25 | 东北林业大学 | 一种基于掩码自编码器CNN-Transformer的心脏磁共振图像配准方法 |
CN116051519A (zh) * | 2023-02-02 | 2023-05-02 | 广东国地规划科技股份有限公司 | 双时相影像建筑物变化检测方法、装置、设备及存储介质 |
CN116071226A (zh) * | 2023-03-06 | 2023-05-05 | 中国科学技术大学 | 基于注意力网络的电镜图像配准系统及方法 |
CN116188816A (zh) * | 2022-12-29 | 2023-05-30 | 广东省新黄埔中医药联合创新研究院 | 一种基于循环一致性变形图像匹配网络的穴位定位方法 |
CN116958556A (zh) * | 2023-08-01 | 2023-10-27 | 东莞理工学院 | 用于椎体和椎间盘分割的双通道互补脊柱图像分割方法 |
-
2022
- 2022-06-10 CN CN202210650873.1A patent/CN115082293A/zh active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115795683A (zh) * | 2022-12-08 | 2023-03-14 | 四川大学 | 一种融合CNN和Swin Transformer网络的翼型优化方法 |
CN115795683B (zh) * | 2022-12-08 | 2023-07-21 | 四川大学 | 一种融合CNN和Swin Transformer网络的翼型优化方法 |
CN116188816A (zh) * | 2022-12-29 | 2023-05-30 | 广东省新黄埔中医药联合创新研究院 | 一种基于循环一致性变形图像匹配网络的穴位定位方法 |
CN116012344A (zh) * | 2023-01-29 | 2023-04-25 | 东北林业大学 | 一种基于掩码自编码器CNN-Transformer的心脏磁共振图像配准方法 |
CN116012344B (zh) * | 2023-01-29 | 2023-10-20 | 东北林业大学 | 一种基于掩码自编码器CNN-Transformer的心脏磁共振图像配准方法 |
CN116051519A (zh) * | 2023-02-02 | 2023-05-02 | 广东国地规划科技股份有限公司 | 双时相影像建筑物变化检测方法、装置、设备及存储介质 |
CN116051519B (zh) * | 2023-02-02 | 2023-08-22 | 广东国地规划科技股份有限公司 | 双时相影像建筑物变化检测方法、装置、设备及存储介质 |
CN116071226A (zh) * | 2023-03-06 | 2023-05-05 | 中国科学技术大学 | 基于注意力网络的电镜图像配准系统及方法 |
CN116958556A (zh) * | 2023-08-01 | 2023-10-27 | 东莞理工学院 | 用于椎体和椎间盘分割的双通道互补脊柱图像分割方法 |
CN116958556B (zh) * | 2023-08-01 | 2024-03-19 | 东莞理工学院 | 用于椎体和椎间盘分割的双通道互补脊柱图像分割方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110738697B (zh) | 基于深度学习的单目深度估计方法 | |
CN115082293A (zh) | 一种基于Swin Transformer和CNN双分支耦合的图像配准方法 | |
CN112651973B (zh) | 基于特征金字塔注意力和混合注意力级联的语义分割方法 | |
CN111339903B (zh) | 一种多人人体姿态估计方法 | |
CN111612807B (zh) | 一种基于尺度和边缘信息的小目标图像分割方法 | |
WO2023185243A1 (zh) | 基于注意力调制上下文空间信息的表情识别方法 | |
CN112288011B (zh) | 一种基于自注意力深度神经网络的图像匹配方法 | |
CN111680695A (zh) | 一种基于反向注意力模型的语义分割方法 | |
CN112396607A (zh) | 一种可变形卷积融合增强的街景图像语义分割方法 | |
CN113177555B (zh) | 基于跨层级跨尺度跨注意力机制的目标处理方法及装置 | |
JP7337268B2 (ja) | 三次元エッジ検出方法、装置、コンピュータプログラム及びコンピュータ機器 | |
CN110738663A (zh) | 双域适应模块金字塔型网络及无监督域适应图像分割方法 | |
CN115731441A (zh) | 基于数据跨模态迁移学习的目标检测和姿态估计方法 | |
CN113159232A (zh) | 一种三维目标分类、分割方法 | |
CN112001225A (zh) | 一种在线多目标跟踪方法、系统及应用 | |
CN110930378A (zh) | 基于低数据需求的肺气肿影像处理方法及系统 | |
CN110781894A (zh) | 点云语义分割方法、装置及电子设备 | |
CN116563682A (zh) | 一种基于深度霍夫网络的注意力方案和条带卷积语义线检测的方法 | |
CN110633706B (zh) | 一种基于金字塔网络的语义分割方法 | |
CN116596966A (zh) | 一种基于注意力和特征融合的分割与跟踪方法 | |
CN115457509A (zh) | 基于改进时空图卷积的交通标志图像分割算法 | |
Xu et al. | Haar wavelet downsampling: A simple but effective downsampling module for semantic segmentation | |
Gao et al. | Robust lane line segmentation based on group feature enhancement | |
Li et al. | A new algorithm of vehicle license plate location based on convolutional neural network | |
CN115457263A (zh) | 一种基于深度学习的轻量化人像分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |