CN112330724B - 一种基于集成注意力增强的无监督多模态图像配准方法 - Google Patents
一种基于集成注意力增强的无监督多模态图像配准方法 Download PDFInfo
- Publication number
- CN112330724B CN112330724B CN202011101564.6A CN202011101564A CN112330724B CN 112330724 B CN112330724 B CN 112330724B CN 202011101564 A CN202011101564 A CN 202011101564A CN 112330724 B CN112330724 B CN 112330724B
- Authority
- CN
- China
- Prior art keywords
- image
- registration
- network model
- image pair
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000012549 training Methods 0.000 claims abstract description 22
- 230000006870 function Effects 0.000 claims abstract description 16
- 238000012360 testing method Methods 0.000 claims abstract description 15
- 238000005259 measurement Methods 0.000 claims abstract description 13
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 12
- 238000007781 pre-processing Methods 0.000 claims abstract description 8
- 238000000605 extraction Methods 0.000 claims description 18
- 238000005457 optimization Methods 0.000 claims description 9
- 230000004927 fusion Effects 0.000 claims description 5
- 238000012952 Resampling Methods 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 4
- 230000014509 gene expression Effects 0.000 claims description 2
- 238000013135 deep learning Methods 0.000 abstract description 14
- 238000005516 engineering process Methods 0.000 abstract description 3
- 238000013461 design Methods 0.000 abstract description 2
- 238000007667 floating Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 210000003484 anatomy Anatomy 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 210000003625 skull Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于集成注意力增强的无监督多模态图像配准方法,所述方法包含有如下步骤:一、对医学图像进行预处理;二、设计配准框架,构建卷积神经网络模型,通过优化图像对的相似性度量自动学习网络参数,直接估计图像对的变形场;三、将图像数据分为训练集和测试集,使用训练集训练网络模型,最后用训练好的网络模型对测试集进行测试。通过使用深度学习技术,直接优化目标函数估计图像对的变形参数,针对不同的数据,本方法可以适应不同的数据,具有较强的泛化能力,设计级联编码器和EAM提取出对配准任务有用的特征,在一定程度上提高了配准的性能。
Description
技术领域
本发明涉及一种医学图像的配准方法,尤其涉及一种基于集成注意力增强的 无监督多模态图像配准方法,属于医学图像处理和深度学习技术领域。
背景技术
目前,图像配准可分为传统配准方法和深度学习方法。传统非学习的配准方 法又可被分为基于特征的配准算法和基于灰度的配准算法。首先提取参考图像和 浮动图像的特征,然后通过匹配策略建立特征之间的对应关系,通过特征匹配求 取图像对的变形参数。该类算法配准的结果依赖于特征提取的精确度。若提取的 特征不准确,则会引起较大的配准误差。基于灰度的配准算法避免了特征提取的缺陷,利用图像本身具有的灰度信息,但大多需要迭代来调整参数,配准速度较 慢,无法满足医学图像配准的实时性要求。此外,当参考图像和浮动图像的解剖 外观差异较大时,图像配准性能下降。
随着深度学习在计算机视觉等领域的快速发展,基于深度学习的配准算法层 出不穷,卷积神经网络更是在医学图像配准中发挥了重要的作用。早期深度学习 配准方法,Wu等人主要用深度学习提取参考图像和浮动图像的特征或Simonovsky等人学习图像对的相似性度量,将学习得到的特征、相似性指标嵌 入到传统配准框架中,以显著提升配准的效果。但这两类方法仍然保留了传统配 准的迭代特点。这些早期的深度学习方法,并没有从本质上解决由于迭代优化而 导致的配准速度慢的问题。因此,越来越多的研究开始侧重于使用卷积神经网络 (ConvNet)直接估计变形参数。如miao等人使用ConvNet学习刚体变换参数, 其结果表明与基于灰度的方法相比,在配准准确度与实时性上具有明显的优势。Sentker等人训练ConvNet直接估计图像对的位移矢量场(displacement vector field,DVF),实现4D胸部CT图像的配准,其结果与传统的配准方法达到了 同等精度,且配准速度提升了60倍。这类方法具有良好的配准性能,但要求网 络的训练数据带有标签。通常需要利用传统的配准方法获取变形参数,或采用随 机变形参数合成的方法构造有监督训练数据。可见,这类有监督方法的性能很大程度上取决于标签的可靠性。鉴于有监督图像配准的缺陷,不少学者致力于无监 督配准模型的研究。如,De Vos等人在2019年提出的无监督深度学习图像配准 框架,通过堆叠多个ConvNet实现由粗到精的医学图像配准。同年,Balakrishnan 等人基于U-Net网络框架构建了voxelMorph模型,完成了脑部磁共振图像配准, 其结果在Dice分数上优于经典的传统配准算法。这类基于深度无监督变形参数 估计的算法,只需训练模型一次即可将参数应用到相应的数据上,不需要再次进 行优化和搜索。
虽然基于无监督深度学习的医学图像配准已经取得了长足的进展,但这类方 法大多集中在单模态图像数据上,在多模态数据的应用上还偏少。同时,多模态 医学图像所呈现的内容、灰度、纹理等信息有较大的差异。基于深度卷积神经网 络提取图像特征后,如何从差异较大的特征中选取合适的特征量化参考图像与浮 动图像的相似性已成为多模态图像配准的难点,这是导致多模态配准的性能较单 模态配准性能差的主要原因。因此如何利用深度学习的优点,设计合理的网络模型以提升多模态配准的准确度具有重要的意义。
发明内容
本发明要解决的技术问题是:提供一种基于集成注意力增强的无监督多模态 图像配准方法,根据卷积神经网络强大的自动学习和特征提取能力的特点,设计 深度无监督网络模型,实现多模态医学图像配准。其配准过程包括提取图像对的 特征、匹配特征估计变形场、图像重采样。基于三个过程构建网络框架,设计级 联编码器和集成注意力模块提取特征,解码器估计变形场,重采样器使用三线性插值完成图像的变形。该方法将传统配准框架中特征提取、特征匹配、求取变形 空间、相似性度量等结合在深度学习模型中。克服了传统配准方法中迭代优化、 鲁棒性差等问题,同时,通过直接优化目标函数估计变形参数,规避了有监督配 准方法在实际应用中难以获取标签数据的问题。
本发明的技术方案为:一种基于集成注意力增强的无监督多模态图像配准 方法,所述方法包含有如下步骤:一、对医学图像进行预处理;二、设计配准 框架,构建卷积神经网络模型,通过优化图像对的相似性度量自动学习网络参数, 直接估计图像对的变形场;三、将图像数据分为训练集和测试集,使用训练集训 练网络模型,最后用训练好的网络模型对测试集进行测试。
所述步骤一中,对图像进行预处理具体包括去头壳、线性配准、裁剪及归 一化。
所述步骤二中,配准框架由三部分组成,特征提取、特征融合估计变形场 和图像重采样,构建级联编码器实现特征提取,并引入集成注意力模块(Ensemble attentionmodule,EAM)提高模型特征提取的能力,匹配特征估计变形场,此过程 无需人工解剖标记和真实变形场,直接优化图像对的相似性度量,以估计图像对 的变形场。
图像配准的效果在很大程度上受提取的图像对的特征的影响。为此,为了提 取出对配准任务更有用的特征,在特诊提取阶段,构建级联编码器提取图像的特 征,级联三种不同尺寸的卷积层来降低特征图的维度,较小卷积核可以获取更多 的局部信息,较大卷积核拥有较大的感受野区域,可以提取更多的全局信息,使 用多尺度的卷积操作,提取丰富的语义特征。在每个卷积层后引入集成注意力模 块(Ensemble Attention Module,EAM),EAM的目的是获得原始特征图每个通道 的权重系数,对特征图进行特征重定。以提升对配准任务有利的特征,抑制用处 不大的特征。构建解码器估计图像对变形场,使用跳跃连接补充融合浅层的多尺度特征,自动匹配图像对的特征,以估计更为准确的变形场。最后,通过求取的 变形场对待配准图像进行插值,得到最终的配准结果。此过程无需人工解剖标记和真实变形参数,直接优化变形后浮动图像和参考图像的相似性度量,估计图像 对的变形场。
所述步骤三中,使用图像对的相似性度量函数作为优化目标训练网络模型, 训练完成后,测试模型,即可快速完成图像对的配准。
本发明的有益效果是:与现有技术相比,采用本发明的技术方案,通过使用 深度学习技术,直接优化目标函数估计图像对的变形参数,克服传统配准算法通 过迭代优化获取变形参数而导致的配准速度慢的问题。此外,针对不同的数据, 传统方法需要根据数据的特性进行重新设计,其鲁棒性较差,而本文方法可以适 应不同的数据,具有较强的泛化能力。另一方面,使用无监督训练克服实际应用 过程中,难以获取真实变形场或者解剖结构等标签信息的问题。最后,设计级联 编码器和EAM提取出对配准任务有用的特征,在一定程度上提高了配准的性能。
附图说明
图1为本发明的流程图;
图2为本发明的模型架构图;
图3为本发明网络结构图;
图4为本发明的EAM模块图;
图5为本发明的可视化结果图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将参照本说明书附图对 本发明作进一步的详细描述。
实施例1:如附图1~4所示,一种基于集成注意力增强的无监督多模态 图像配准方法,所述方法包含有如下步骤,如图1所示:一、对医学图像进 行预处理;二、设计配准框架,构建卷积神经网络模型,通过优化图像对的相似 性度量自动学习网络参数,直接估计图像对的变形场;三、将图像数据分为训练 集和测试集,使用训练集训练网络模型,最后用训练好的网络模型对测试集进行 测试。
步骤一中,对图像进行预处理具体包括去头壳、线性配准、裁剪及归一化等。
使用FSL软件对图像做标准的预处理,即使用Bet算法去除颅骨,再利用仿 射变换将所有待配准图像线性配准到模板图像上,最后将所有图像做最大-最小 归一化,将图像的灰度值压缩到[0,1]范围。为了节省计算资源,将所有图像裁剪到192×160×160大小。
所述步骤二中,配准框架由三部分组成,特征提取、特征融合估计变形场 和图像重采样,构建级联编码器实现特征提取,并引入集成注意力模块(Ensemble attentionmodule,EAM)提高模型特征提取的能力,匹配特征估计变形场,此过程 无需人工解剖标记和真实变形场,直接优化图像对的相似性度量估计图像对的变 形场。
图像配准的效果在很大程度上受提取的图像对的特征的影响。为此,为了提 取出对配准任务更有用的特征,在特诊提取阶段,构建级联编码器提取图像的特 征,级联三种不同尺寸的卷积层来降低特征图的维度,较小卷积核可以获取更多 的局部信息,较大卷积核拥有较大的感受野区域,可以提取更多的全局信息,使 用多尺度的卷积操作,提取丰富的语义特征。在每个卷积层后引入集成注意力模块(Ensemble Attention Module,EAM),EAM的目的是获得原始特征图每个通道 的权重系数,对特征图进行特征重定。以提升对配准任务有利的特征,抑制用处 不大的特征。构建解码器估计图像对变形场,使用跳跃连接补充融合浅层的多尺 度特征,自动匹配图像对的特征,以估计更为准确的变形场。最后,通过求取的 变形场对待配准图像进行插值,得到最终的配准结果。此过程无需人工解剖标记和真实变形参数,直接优化变形后浮动图像和参考图像的相似性度量,估计图像对的变形场。
如图2所示,首先,将参考图像和浮动图像合并为双通道输入级联编码器, 提取图像对的多尺度特征,在级联编码器中设计注意力机制提高网络特征提取能 力。之后,合并特征提取阶段输出的多尺度特征,使用解码器复原特征,同时融 合第一阶段提取的特征,通过自动学习的方式进行特征匹配,输出变形场。最后,基于变形场利用三线性插值对浮动图像做空间变换,得出最后的配准结果。其网 络模型详细结构如图3所示,在特征提取阶段,采用3种不同尺寸的级联卷积层 来降低特征图的维度,卷积核的大小分别为3×3×3、5×5×5和7×7×7。在每个卷 积层后引入EAM模块,如图4所示。输入特征图经过全局平均池化后得到全局 平均特征,然后通过Shuffle操作,对不同通道的平均特征进行两次顺序打乱, 并利用1×1×1卷积分别降低每组平均特征的通道数,随后将其合并,此时特征 集成了几种组合获得的综合表示,最后利用集成特征,通过1×1×1卷积以及非 线性激活函数运算,可获得原始特征图每个通道的权重系数,将其与原始特征图 相乘,即可进行特征重定。解码器包含卷积层和上采样层。将提取的多尺度加权 特征相加融合,作为解码器的输入。使用跳跃连接将相同层级联编码器输出的浅 层特征与解码器的深层特征融合,通过3层卷积层估计图像对的变形场。最后, 基于变形场利用重采样器对浮动图像做空间变换,得出最后的配准结果。
所述步骤三中,使用图像对的相似性度量函数作为优化目标训练网络模型, 训练完成后,测试模型,即可快速完成图像对的配准。
将预处理好的图像分为训练集和测试集,然后用训练集训练模型,最后用训 练好的模型对测试集进行测试。通过最小化图像对的相似性度量优化网络模型。 本实施例1采用归一化互信息(NMI)作为优化函数。对于给定的两幅图像F和 MW,NMI定义为:
其中H(F)、H(MW)、H(F,MW)分别表示图像的熵以及图像对的联合熵,其 表达式为:
PF(f)表示图F中像素灰度值为f的个数除以总的像素个数,同理,PMW(mw) 表示图MW中像素灰度值为的个数除以总的像素个数。PF,MW(f,mw)表示在图F 中像素灰度值为f且在MW中像素灰度值为mw的个数与总像素的比值。通过计 算图像的概率密度和图像对的联合概率密度来求解NMI。本文使用核密度估计 法来获取连续的概率密度函数。
假设3维图像X,其图像尺寸为H×W×S,图像体素值为xijk,其中 i=1,2,3,…,H;j=1,2,3,…,W;k=1,2,3,…,S,则图像的概率密度函数可以定义为:
其中n指代总体素个数,h表示箱宽,K(·)是核函数。本文使用的核函数如 下所示:
综上所述,通过使用深度学习技术,有效的提高了多模态医学图像配准的性 能。使得医学图像配准的准确率更高,泛化能力更强,适用范围更广。
下面结合具体的实验数据对实施例1中的方案进行可行性验证,详见下文描 述:
使用实验室内部采集数据T2加权图像和模板T1图像验证网络模型。并和 经典的传统方法SyN算法和较新的深度学习方法VoxelMorph作对比。采用Dice 分数、Huasdorff距离(Hausdorff Distance,HD)及平均对称表面距离(average symmetric surfacedistance,ASD)定量评价不同方法的配准效果。用MW *和F*表示 配准结果和参考图像中对应的解剖结构。Dice分数表示两个结构之间的重叠程 度,其定义如下:
Dice分数的取值范围为0到1,Dice分数越高,表示配准效果越好。
HD可以反映两个区域的最大差异,其定义如下:
HD越小,两个区域越相似。定义d(x,Y)为体素x到图像Y的最小欧式距离:
则ASD被定义为:
其中S(MW *)表示配准结果图像中解剖结构的表面体素,S(F*)同理。
表1实验结果数据
由图5(从左到右依次是参考图像、浮动图像、SyN配准结果、本文结果) 的可视化结果可以看出,本方法无论是在整体还是局部细节的处理都较SyN算 法和VoxelMorph有所提高。表1从Dice分数、HD、ASD三方面定量分析两种 方法的性能,本方法在3个指标上都有一定程度的提升。
本发明未详述之处,均为本技术领域技术人员的公知技术。最后说明的是, 以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发 明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案 进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在 本发明的权利要求范围当中。
Claims (4)
1.一种基于集成注意力增强的无监督多模态图像配准方法,其特征在于:所述方法包含有如下步骤:一、对医学图像进行预处理;二、设计配准框架,构建卷积神经网络模型,通过优化图像对的相似性度量自动学习网络参数,直接估计图像对的变形场;三、将图像数据分为训练集和测试集,使用训练集训练网络模型,最后用训练好的网络模型对测试集进行测试;采用归一化互信息(NMI)作为优化函数;对于给定的两幅图像F和MW,NMI定义为:
其中H(F)、H(MW)、H(F,MW)分别表示图像的熵以及图像对的联合熵,其表达式为:
PF(f)表示图F中像素灰度值为f的个数除以总的像素个数,同理,PMW(mw)表示图MW中像素灰度值为的个数除以总的像素个数;
PF,MW(f,mw)表示在图F中像素灰度值为f且在MW中像素灰度值为mw的个数与总像素的比值;通过计算图像的概率密度和图像对的联合概率密度来求解NMI;本文使用核密度估计法来获取连续的概率密度函数;
假设3维图像X,其图像尺寸为H×W×S,图像体素值为xijk,其中i=1,2,3,…,H;j=1,2,3,…,W;k=1,2,3,…,S,则图像的概率密度函数可以定义为:
其中n指代总体素个数,h表示箱宽,K(·)是核函数,核函数如下所示:/>
2.根据权利要求1所述的基于集成注意力增强的无监督多模态图像配准方法,其特征在于:所述步骤一中,对图像进行预处理具体包括去头壳、线性配准、裁剪及归一化。
3.根据权利要求1所述的基于集成注意力增强的无监督多模态图像配准方法,其特征在于:所述步骤二中,配准框架由三部分组成,特征提取、特征融合估计变形场和图像重采样,构建级联编码器实现特征提取,并引入集成注意力模块(Ensemble attention module,EAM)提高模型特征提取的能力,匹配特征估计变形场。
4.根据权利要求1所述的基于集成注意力增强的无监督多模态图像配准方法,其特征在于:所述步骤三中,使用图像对的相似性度量函数作为优化目标训练网络模型,训练完成后,测试模型,即可快速完成图像对的配准。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011101564.6A CN112330724B (zh) | 2020-10-15 | 2020-10-15 | 一种基于集成注意力增强的无监督多模态图像配准方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011101564.6A CN112330724B (zh) | 2020-10-15 | 2020-10-15 | 一种基于集成注意力增强的无监督多模态图像配准方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112330724A CN112330724A (zh) | 2021-02-05 |
CN112330724B true CN112330724B (zh) | 2024-04-09 |
Family
ID=74313619
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011101564.6A Active CN112330724B (zh) | 2020-10-15 | 2020-10-15 | 一种基于集成注意力增强的无监督多模态图像配准方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112330724B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113344991A (zh) * | 2021-05-17 | 2021-09-03 | 山东师范大学 | 基于深度学习的无监督医学图像配准方法及系统 |
CN113838104B (zh) * | 2021-08-04 | 2023-10-27 | 浙江大学 | 基于多光谱与多模态图像一致性增强网络的配准方法 |
CN113763441B (zh) * | 2021-08-25 | 2024-01-26 | 中国科学院苏州生物医学工程技术研究所 | 无监督学习的医学图像配准方法及系统 |
CN114565511B (zh) * | 2022-02-28 | 2024-05-21 | 西安交通大学 | 基于全局单应性估计的轻量级图像配准方法、系统及装置 |
CN116433730B (zh) * | 2023-06-15 | 2023-08-29 | 南昌航空大学 | 一种联合可变形卷积与模态转换的图像配准方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110163246A (zh) * | 2019-04-08 | 2019-08-23 | 杭州电子科技大学 | 基于卷积神经网络的单目光场图像无监督深度估计方法 |
CN111524170A (zh) * | 2020-04-13 | 2020-08-11 | 中南大学 | 一种基于无监督深度学习的肺部ct图像配准方法 |
WO2020165196A1 (en) * | 2019-02-14 | 2020-08-20 | Carl Zeiss Meditec Ag | System for oct image translation, ophthalmic image denoising, and neural network therefor |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9730643B2 (en) * | 2013-10-17 | 2017-08-15 | Siemens Healthcare Gmbh | Method and system for anatomical object detection using marginal space deep neural networks |
US11449759B2 (en) * | 2018-01-03 | 2022-09-20 | Siemens Heathcare Gmbh | Medical imaging diffeomorphic registration based on machine learning |
US11756160B2 (en) * | 2018-07-27 | 2023-09-12 | Washington University | ML-based methods for pseudo-CT and HR MR image estimation |
US10842445B2 (en) * | 2018-11-08 | 2020-11-24 | General Electric Company | System and method for unsupervised deep learning for deformable image registration |
US11158069B2 (en) * | 2018-12-11 | 2021-10-26 | Siemens Healthcare Gmbh | Unsupervised deformable registration for multi-modal images |
-
2020
- 2020-10-15 CN CN202011101564.6A patent/CN112330724B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020165196A1 (en) * | 2019-02-14 | 2020-08-20 | Carl Zeiss Meditec Ag | System for oct image translation, ophthalmic image denoising, and neural network therefor |
CN110163246A (zh) * | 2019-04-08 | 2019-08-23 | 杭州电子科技大学 | 基于卷积神经网络的单目光场图像无监督深度估计方法 |
CN111524170A (zh) * | 2020-04-13 | 2020-08-11 | 中南大学 | 一种基于无监督深度学习的肺部ct图像配准方法 |
Non-Patent Citations (1)
Title |
---|
基于深度学习融合模型的算法在宫颈癌术后患者直肠自动分割中的应用研究;谷珊珊;吴青南;刘国才;王运来;戴相昆;葛瑞刚;杨微;王秀楠;郭雯;周瑾;鞠忠建;;医疗卫生装备(07);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112330724A (zh) | 2021-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112330724B (zh) | 一种基于集成注意力增强的无监督多模态图像配准方法 | |
CN110135366B (zh) | 基于多尺度生成对抗网络的遮挡行人重识别方法 | |
CN110348330B (zh) | 基于vae-acgan的人脸姿态虚拟视图生成方法 | |
CN109035172B (zh) | 一种基于深度学习的非局部均值超声图像去噪方法 | |
CN114092439A (zh) | 一种多器官实例分割方法及系统 | |
CN113112583B (zh) | 基于红外热成像的3d人体重构方法 | |
CN115375711A (zh) | 基于多尺度融合的全局上下文关注网络的图像分割方法 | |
CN114119689A (zh) | 基于深度学习的多模态医学图像无监督配准方法及系统 | |
CN112488963A (zh) | 一种用于农作物病害数据的增强方法 | |
CN113436237B (zh) | 一种基于高斯过程迁移学习的复杂曲面高效测量系统 | |
CN115526829A (zh) | 基于ViT与上下文特征融合的蜂窝肺病灶分割方法及网络 | |
Zheng et al. | Multi-strategy mutual learning network for deformable medical image registration | |
CN112288645A (zh) | 一种颅骨面貌复原模型构建方法及复原方法与系统 | |
CN116912268A (zh) | 一种皮肤病变图像分割方法、装置、设备及存储介质 | |
CN116229074A (zh) | 一种递进式边界区域优化的医学图像小样本分割方法 | |
CN114926591A (zh) | 多分支深度学习的3d人脸重建模型训练方法、系统及介质 | |
CN112446292B (zh) | 一种2d图像显著目标检测方法及系统 | |
CN114565626A (zh) | 基于PSPNet改进的肺部CT图像分割算法 | |
CN114331894A (zh) | 一种基于潜在特征重构和掩模感知的人脸图像修复方法 | |
CN112150425B (zh) | 一种基于神经网络的无监督血管内超声图像配准方法 | |
Zhang et al. | UTSN-net: medical image semantic segmentation model based on skip non-local attention module | |
CN117392392B (zh) | 一种割胶线识别与生成方法 | |
CN117635952A (zh) | 一种多模态脑瘤图像分割方法 | |
Wang et al. | MAFUNet: Multi-Attention Fusion Network for Medical Image Segmentation | |
CN117764960A (zh) | 基于多级特征交互融合的ct图像气胸病灶区域识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |