CN112150404B - 基于联合显著图的全局到局部非刚性图像配准方法及装置 - Google Patents
基于联合显著图的全局到局部非刚性图像配准方法及装置 Download PDFInfo
- Publication number
- CN112150404B CN112150404B CN201910565742.1A CN201910565742A CN112150404B CN 112150404 B CN112150404 B CN 112150404B CN 201910565742 A CN201910565742 A CN 201910565742A CN 112150404 B CN112150404 B CN 112150404B
- Authority
- CN
- China
- Prior art keywords
- image
- joint
- saliency map
- global
- saliency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000007667 floating Methods 0.000 claims abstract description 18
- 238000012545 processing Methods 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 claims description 21
- 239000011159 matrix material Substances 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 8
- 238000009499 grossing Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 2
- 238000012549 training Methods 0.000 description 13
- 238000004422 calculation algorithm Methods 0.000 description 10
- 238000011160 research Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 3
- 238000002059 diagnostic imaging Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000005856 abnormality Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 230000001575 pathological effect Effects 0.000 description 2
- 230000001766 physiological effect Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 206010061818 Disease progression Diseases 0.000 description 1
- 241000512668 Eunectes Species 0.000 description 1
- 206010028980 Neoplasm Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 230000005750 disease progression Effects 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 208000019622 heart disease Diseases 0.000 description 1
- 206010020718 hyperplasia Diseases 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于联合显著图的全局到局部非刚性图像配准方法及装置,该方法基于预训练的图像配准模型对待配准的参考图像和浮动图像进行处理,获得精确重建形变场,所述图像配准模型包括基于无监督误差函数的全局粗糙估计网络和局部精确重建网络,所述精确重建形变场的具体获得步骤包括:1)拼接所述参考图像和浮动图像,输入全局粗糙估计网络,得到粗糙形变场;2)基于粗糙形变场和浮动图像进行插值,获取形变图像;对形变图像和参考图像进行联合显著图提取,获取联合显著图;3)拼接联合显著图和粗糙形变场,输入局部精确重建网络,获取精确重建形变场。与现有技术相比,本发明图像配准的速度更快、精度更高,并且适用于无真值标签的应用场景。
Description
技术领域
本发明涉及图像配准领域,尤其是涉及一种基于联合显著图的全局到局部非刚性图像配准方法及装置。
背景技术
在近几十年间,医学成像原理及诊断设备得到了不断的丰富与发展。这些不断改进的医学成像设备为医生提供更多高分辨率、多模态以及不同结构和功能信息的医学图像,为临床疾病的形成原因、病情发展、监控与治疗带来了更加有明确意义的指导信息。如何将这些不同模式和不同时段图像中有价值的结构和功能信息整合对应起来,这是医学成像、图像处理、模式识别与人工智能等领域既关键又基础的研究问题,被称为图像配准(Image Registration)。图像配准旨在建立两幅图像中对应像素点位置的正确对应关系。针对二维图像配准,算法输出为对应像素点对的二维位移向量场。
在医学图像的场景下,由于病理性因素、物理性因素常常会带来图像异常,导致图像结构对应性缺失以及局部的复杂大形变的异常情形,给图像非刚性配准研究带来了更大的挑战。刚性体是指那些不随人体生理活动发生变化或变化极小的人体组织或器官;非刚性体是指由于不自主生理活动的影响,其位置、尺寸和形状发生较大变化的组织或器官。主要面临着两大挑战:第一,当代社会随着成像技术和设备性能的提升,具有丰富结构和功能信息的多模态、高维度医学图像数据还在不断爆发式增长中,传统图像配准算法低计算效率的缺点也逐渐显现出来。在各种交叉领域基础研究和临床实际应用中,研发的图像配准算法如何既保证配准精度,同时还能确保图像配准速度是一项不可避免的严峻挑战。第二,医学图像由于一些生理病理的变化性因素,如病灶的增生与复发、肿瘤切除导致的结构空缺等因素导致图像对应性缺失且伴随着复杂局部大形变情形,这种异常情形是国内外研究领域所公认的难点问题,严重增加了非刚性图像配准的难度。这种图像异常的存在破坏了传统配准算法认为输入图像对之间像素点应当存在一一对应映射关系的假设前提,因而使得传统图像配准方法无法准确处理这些异常问题。图像配准领域的研究者们通常将这种困难的图像配准问题称为对应性缺失(Missing Correspondence)和局部大形变(LargeLocal Deformation)。理想的非刚性图像配准算法应当高精准度、鲁棒性、高计算效率的处理好存在图像局部大形变与对应性缺失的情形的困难配准问题。
总体而言,当下的非刚性配准算法无法同时兼顾三者,其缺陷归纳如下:
1.传统的基于灰度信息、基于特征的非刚性配准算法以及基于深度学习的非刚性配准网络均无应对待配准图像中存在部分对应性结构缺失问题的鲁班性机制;
2.在配准精度上,目前的非刚性配准算法仍然无法很好应对伴随结构缺失导致的局部复杂大形变问题的挑战。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于联合显著图的全局到局部非刚性图像配准方法及装置。
本发明的目的可以通过以下技术方案来实现:
一种基于联合显著图的全局到局部非刚性图像配准方法,该方法基于预训练的图像配准模型对待配准的参考图像和浮动图像进行处理,获得精确重建形变场,所述图像配准模型包括基于无监督误差函数的全局粗糙估计网络和局部精确重建网络,所述精确重建形变场的具体获得步骤包括:
S1:拼接所述参考图像和浮动图像,输入到全局粗糙估计网络,得到粗糙形变场;
S2:基于粗糙形变场和浮动图像进行插值,获取形变图像;对形变图像和参考图像进行联合显著图提取,获取联合显著图;
S3:拼接联合显著图和粗糙形变场,输入局部精确重建网络,对错误的形变场预测值进行修正,获取精确重建形变场。
进一步地,网络整体采用了只依赖输入图像,不需要真值标签数据的无监督误差函数,所述无监督误差函数L的表达式为:
式中,L为无监督误差函数,包含图像差异罚项LD,形变场光滑度罚项LS,两项比例系数为α。IM(x,y)为浮动图像,IF(x,y)为参考图像,(u,v)为二维精确重建形变场水平与垂直分量,Φ(·)为光滑罚函数,为梯度算子。
按链式法依次梯度更新局部精确重建网络和全局粗糙估计网络的学习参数。
进一步地,所述步骤S2中,获取形变图像包括以下步骤:
S201:计算格点四个插值领域点以及相应系数。形变图像IW每个格点IW(xw,yw)处的四个邻域格点分别表示为Ia、Ib、Ic、Id;
S202:插值采用双线性插值,载入粗糙形变场ucoarse与浮动图像IM得到形变图像IW每个格点IW(xw,yw)的图像灰度值,其中α,β为加权系数,双线性插值公式为:
IW(xw,yw)=αβ·Ia+(1-α)β·Ib+α(1-β)·Ic+(1-α)(1-β)·Id
进一步地,所述步骤S2中,联合显著度图为基于边缘结构的归一化联合显著度图信息。两幅图像中,正确对齐且同时都显著存在的边缘处,显著度值接近1,而在缺失或者没有正确对齐的边缘区域,联合显著度值接近0。根据联合显著图的特性,能得到粗糙形变场中各处的可信程度。联合显著图提取的过程包括以下步骤:
S211:计算形变图像的梯度图像,并构造形变图像平滑结构张量;计算参考图像的梯度图像,并构造参考图像平滑结构张量;
S212:基于形变图像平滑结构张量,计算形变图像的显著图,基于参考图像的平滑结构张量,计算参考图像的显著图;
S213:计算形变图像平滑结构张量和参考图像平滑结构张量之差,并进行归一化,获取归一化联合显著图矩阵。
进一步地,所述步骤S211中,平滑结构张量的构造公式为:
式中,GTW为形变图像平滑结构张量,为形变图像的梯度图像,GTF为参考图像平滑结构张量,/>为参考图像的梯度图像。
进一步地,所述步骤S212中,显著图的计算具体为采用结构张量距离公式计算图像每点与其周围3×3邻域点的显著度值。
进一步地,所述结构张量距离公式的表达式为:
式中,Tr(·)为矩阵的迹,T1和T2为两个输入张量。
进一步地,所述显著图的计算表达式为:
式中,SW(x,y)为形变图像在点(x,y)的显著度值,GTW(i,j)为形变图像在点(i,j)上的张量值,N3为3×3的邻域点,GTW(x,y)为形变图像在(x,y)的显著度值,||·||D为结构张量距离公式。
进一步地,所述步骤S213中,归一化联合显著图矩阵的获取表达式为:
式中,JS(IW,IF)为形变图像和参考图像的归一化联合显著图矩阵,SW为形变图像的显著图,SF为参考图像的显著图。
本发明还提供一种基于联合显著图的全局到局部非刚性图像配准装置,包括存储器和处理器,所述存储器存储有计算机程序,处理器调用所述计算机程序执行所述的方法的步骤。
与现有技术相比,本发明具有以下优点:
(1)本发明使用两个级联的深度卷积神经网络并采用“先粗糙估计,后精确重建估计”的思想,进行图像配准。在计算效率上,相比于102-104秒数量级的传统配准算法,将时间缩短至10-2秒数量级,更好的支持实时要求较高的应用场景。在精度上,通过利用多层不同大小与个数的可学习核组合,实现了在联合显著图与粗糙估计形变场基础上进行修正、精确重建形变场精度。
(2)本发明为了衡量粗糙估计的每个像素点位置的形变场可靠性,引入了联合显著度图信息,指导形变场的精确重建,同时保证整个网络端到端的训练过程。
(3)本发明通过对比形变图像与目标图像的图像差异项,构建反映形变场的正确性的损失函数,实现无监督式训练,在无法获得的真值标签的应用场景中,目前主流的有监督训练方式无法实施,而本发明的无监督训练方式可以胜任致密预测的任务。
附图说明
图1为本发明整体网络流程图;
图2为本发明实施例进行网络模型训练的流程图;
图3为本发明实施例进行图像配准的图像结果变化图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
实施例1
本实施例为一种基于联合显著图的全局到局部非刚性图像配准方法,如图1所示,采用先粗糙估计出初始形变场,再进行第二次精确重建的思想。主体网络为两个串联的卷积神经网络。网络整体采用了只依赖输入图像,不需要真值标签数据的无监督式目标函数。
本实施例训练时,网络训练数据为175例包含正常人、患有心脏疾病患者心脏运动数据LVQU;测试时,利用30个图像作为测试集,验证网络模型的配准效果。
深度配准网络算法的硬件为:CPU:Intel I7、GPU:Geforce 1080Ti、Ubutu14.04系统;软件编程基于Python语言实现,开源库环境Anaconda 2,使用的基础库为Theano、Lasagne用以表示和训练神经网络结构,Dask用于对数据传输进程进行多线程加速。
配准网络每一层的卷积层、反卷积层的初始化均采用HeNormal函数,非线性激活函数均采用斜率为0.1的Relu函数。在训练时,数据集遍历次数(epoch)为400;学习率(learning_rate)初始值为0.0001;批量大小(batch_size)为8;目标函数光滑项系数为1,数据项系数为1;最优化策略为采用Adam梯度下降法求解,其起始参数为默认值。
1、本实施例网络的训练过程
本实施例两个串联的卷积神经网络训练过程如图2所示,包括以下步骤:
S101:将待配准的包含浮动图像IM与参考图像IF的图像对拼接,构造四维矩阵数据库。
S102:对数据库进行数据增强,避免过拟合。
S103:将图像对的顺序随机打乱,然后取出175个图像对,作为网络的输入图像。
S104:构造第一级粗糙形变场预测网络,本实施例该网络采用Flownet的网络结构类型,将一个图像对输入第一级粗糙形变场预测网络中,得到粗糙形变场ucoarse。
S105:结合粗糙形变场和输入图像对中的浮动图像,通过双线性插值得到形变图像,具体包括两个子步骤:
1)计算格点四个插值领域点以及相应系数。形变图像IW每个格点IW(xw,yw)处的四个邻域格点分别表示为Ia、Ib、Ic、Id;
2)插值采用双线性插值得到形变图像IW每个格点IW(xw,yw)的图像灰度值,其中α,β为加权系数,插值公式为:
IW(xw,yw)=αβ·Ia+(1-α)β·Ib+α(1-β)·Ic+(1-α)(1-β)·Id
S106:获取形变图像与参考图像之间的联合显著度图,两幅图像中,正确对齐且同时都显著存在的边缘处,显著度值接近1,而在缺失或者没有正确对齐的边缘区域,联合显著度值接近0。联合显著图的特性,得到第一次粗糙估计形变场中各处的可信程度。联合显著度图获取过程具体包括以下步骤:
1)计算形变图像IW与参考图像IF的梯度图像并构造相应的平滑结构张量:
式中,GTW为形变图像平滑结构张量,GTF为参考图像平滑结构张量;
2)计算形变图像IW与参考图像IF各自的显著图SW,SF;其中我们采用结构张量距离公式来判断与周围3×3领域点的显著度值:
式中,SW(x,y)为形变图像在点(x,y)的显著度值,GTW(i,j)为形变图像在点(i,j)上的张量值,N3为3×3的邻域点,GTW(x,y)为形变图像在(x,y)的显著度值,||·||D为结构张量距离公式,张量距离公式定义为:
3)计算张量之差,并得到归一化联合显著图矩阵。其中归一化公式为:
式中,JS(IW,IF)为形变图像和参考图像的归一化联合显著图矩阵,SW为形变图像的显著图,SF为参考图像的显著图。
S107:将联合显著图和粗糙形变场在空间方向上拼接,构造出第二级网络的输入矩阵。
S108:构造第二级精确重建网络,对粗糙形变场进行修正,本实施例中该第二级精确重建网络由4个卷积层构成,各层参数设置(核个数/核大小/卷积步长)分别为:(128/3/1)、(64/3/1)、(32/3/1)、(2/3/1)。将S107获得的输入矩阵输入第二级精确重建网络中,得到精确重建形变场。
S109:构造无监督目标函数进行整体网络的训练,结合链式法则,依次反向计算出各个包含学习参数层的更新梯度,并更新网络学习核参数。在无监督目标函数的指导下,通过400轮数据集遍历更新,让两级网络学习得到针对一类待配准图像数据集的最佳参数,即停止训练。其中无监督目标函数为:
式中,L为无监督误差函数,IM(x,y)为浮动图像,IF(x,y)为参考图像,(u,v)为二维精确重建形变场水平与垂直分量,Φ(·)为光滑罚函数,为梯度算子。本实施例中,
2、本实施例网络的实施过程
本实施例的实施情况如图3所示,从测试集中选择一个图像对,输入上述训练完成的图像配准模型中,获得精确重建形变场,所述图像配准模型包括基于无监督误差函数的全局粗糙估计网络和局部精确重建网络,以及联合显著图提取过程,实施的具体步骤如下:
S201:将图像对输入到全局粗糙估计网络,得到粗糙形变场;
S202:基于粗糙形变场和浮动图像进行双线性插值,获取形变图像;对形变图像和参考图像进行联合显著图提取,获取联合显著图;
S203:拼接联合显著图和粗糙形变场,输入局部精确重建网络,对错误的形变场预测值进行修正,获取精确重建形变场。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。
Claims (8)
1.一种基于联合显著图的全局到局部非刚性图像配准方法,其特征在于,该方法基于预训练的图像配准模型对待配准的参考图像和浮动图像进行处理,获得精确重建形变场,所述图像配准模型包括基于无监督误差函数的全局粗糙估计网络和局部精确重建网络,所述精确重建形变场的具体获得步骤包括:
S1:拼接所述参考图像和浮动图像,输入到全局粗糙估计网络,得到粗糙形变场;
S2:基于粗糙形变场和浮动图像进行插值,获取形变图像;对形变图像和参考图像进行联合显著图提取,获取联合显著图;
S3:拼接联合显著图和粗糙形变场,输入局部精确重建网络,获取精确重建形变场;
所述步骤S2中,联合显著图提取的过程包括以下步骤:
S201:计算形变图像的梯度图像,并构造形变图像平滑结构张量;计算参考图像的梯度图像,并构造参考图像平滑结构张量;
S202:基于形变图像平滑结构张量,计算形变图像的显著图,基于参考图像的平滑结构张量,计算参考图像的显著图;
S203:计算形变图像平滑结构张量和参考图像平滑结构张量之差,并进行归一化,获取归一化联合显著图矩阵。
2.根据权利要求1所述的一种基于联合显著图的全局到局部非刚性图像配准方法,其特征在于,所述无监督误差函数的表达式为:
式中,L为无监督误差函数,IM(x,y)为浮动图像,IF(x,y)为参考图像,(u,v)为二维精确重建形变场水平与垂直分量,Φ(·)为光滑罚函数,为梯度算子。
3.根据权利要求1所述的一种基于联合显著图的全局到局部非刚性图像配准方法,其特征在于,所述步骤S201中,平滑结构张量的构造公式为:
式中,GTW为形变图像平滑结构张量,为形变图像的梯度图像,GTF为参考图像平滑结构张量,/>为参考图像的梯度图像。
4.根据权利要求1所述的一种基于联合显著图的全局到局部非刚性图像配准方法,其特征在于,所述步骤S202中,显著图的计算具体为采用结构张量距离公式计算图像每点与其周围3×3邻域点的显著度值。
5.根据权利要求4所述的一种基于联合显著图的全局到局部非刚性图像配准方法,其特征在于,所述结构张量距离公式的表达式为:
式中,Tr(·)为矩阵的迹,T1和T2为两个输入张量。
6.根据权利要求4所述的一种基于联合显著图的全局到局部非刚性图像配准方法,其特征在于,所述显著图的计算表达式为:
式中,SW(x,y)为形变图像在点(x,y)的显著度值,GTW(i,j)为形变图像在点(i,j)上的张量值,N3为3×3的邻域点,GTW(x,y)为形变图像在(x,y)的显著度值,||·||D为结构张量距离公式。
7.根据权利要求1所述的一种基于联合显著图的全局到局部非刚性图像配准方法,其特征在于,所述步骤S203中,归一化联合显著图矩阵的获取表达式为:
式中,JS(IW,IF)为形变图像和参考图像的归一化联合显著图矩阵,SW为形变图像的显著图,SF为参考图像的显著图。
8.一种基于联合显著图的全局到局部非刚性图像配准装置,其特征在于,包括存储器和处理器,所述存储器存储有计算机程序,处理器调用所述计算机程序执行如权利要求1~7任一所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910565742.1A CN112150404B (zh) | 2019-06-27 | 2019-06-27 | 基于联合显著图的全局到局部非刚性图像配准方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910565742.1A CN112150404B (zh) | 2019-06-27 | 2019-06-27 | 基于联合显著图的全局到局部非刚性图像配准方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112150404A CN112150404A (zh) | 2020-12-29 |
CN112150404B true CN112150404B (zh) | 2023-10-27 |
Family
ID=73868648
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910565742.1A Active CN112150404B (zh) | 2019-06-27 | 2019-06-27 | 基于联合显著图的全局到局部非刚性图像配准方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112150404B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114693755B (zh) * | 2022-05-31 | 2022-08-30 | 湖南大学 | 多模图像最大矩与空间一致性的非刚性配准方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101038669A (zh) * | 2007-04-12 | 2007-09-19 | 上海交通大学 | 全局异常信号环境下基于联合显著图的鲁棒图像配准方法 |
CN102169578A (zh) * | 2011-03-16 | 2011-08-31 | 内蒙古科技大学 | 一种基于有限元模型的非刚性医学图像配准方法 |
CN107832704A (zh) * | 2017-11-08 | 2018-03-23 | 清华大学深圳研究生院 | 一种使用基于图像场的非刚性配准的指纹识别方法 |
CN109584282A (zh) * | 2018-11-24 | 2019-04-05 | 天津大学 | 一种基于sift特征与光流模型的非刚性图像配准方法 |
-
2019
- 2019-06-27 CN CN201910565742.1A patent/CN112150404B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101038669A (zh) * | 2007-04-12 | 2007-09-19 | 上海交通大学 | 全局异常信号环境下基于联合显著图的鲁棒图像配准方法 |
CN102169578A (zh) * | 2011-03-16 | 2011-08-31 | 内蒙古科技大学 | 一种基于有限元模型的非刚性医学图像配准方法 |
CN107832704A (zh) * | 2017-11-08 | 2018-03-23 | 清华大学深圳研究生院 | 一种使用基于图像场的非刚性配准的指纹识别方法 |
CN109584282A (zh) * | 2018-11-24 | 2019-04-05 | 天津大学 | 一种基于sift特征与光流模型的非刚性图像配准方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112150404A (zh) | 2020-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220012890A1 (en) | Model-Based Deep Learning for Globally Optimal Surface Segmentation | |
Biffi et al. | Explainable anatomical shape analysis through deep hierarchical generative models | |
CN111680447A (zh) | 血流特征预测方法、装置、计算机设备和存储介质 | |
EP3888052A1 (en) | Method and system for providing an at least 3-dimensional medical image segmentation of a structure of an internal organ | |
CN113239755B (zh) | 一种基于空谱融合深度学习的医学高光谱图像分类方法 | |
CN111383259B (zh) | 图像分析方法、计算机设备和存储介质 | |
Zhang et al. | Twin self-supervision based semi-supervised learning (TS-SSL): Retinal anomaly classification in SD-OCT images | |
US11734837B2 (en) | Systems and methods for motion estimation | |
Xie et al. | Optic disc and cup image segmentation utilizing contour-based transformation and sequence labeling networks | |
CN116258732A (zh) | 一种基于pet/ct图像跨模态特征融合的食管癌肿瘤靶区分割方法 | |
Che et al. | AMNet: Adaptive multi-level network for deformable registration of 3D brain MR images | |
Joshi et al. | R2Net: Efficient and flexible diffeomorphic image registration using Lipschitz continuous residual networks | |
Mo et al. | Mutual information-based graph co-attention networks for multimodal prior-guided magnetic resonance imaging segmentation | |
Li et al. | Category guided attention network for brain tumor segmentation in MRI | |
CN112150404B (zh) | 基于联合显著图的全局到局部非刚性图像配准方法及装置 | |
CN113269754B (zh) | 用于运动估计的神经网络系统和方法 | |
Lin et al. | YoloCurvSeg: You only label one noisy skeleton for vessel-style curvilinear structure segmentation | |
Wang et al. | RFPNet: Reorganizing feature pyramid networks for medical image segmentation | |
CN114240809A (zh) | 图像处理方法、装置、计算机设备及存储介质 | |
Gan et al. | Probabilistic modeling for image registration using radial basis functions: Application to cardiac motion estimation | |
Roozgard et al. | Medical image registration using sparse coding and belief propagation | |
CN116309754A (zh) | 一种基于局部-全局信息协作的大脑医学图像配准方法及系统 | |
Upendra et al. | Motion extraction of the right ventricle from 4D cardiac cine MRI using a deep learning-based deformable registration framework | |
CN112991406B (zh) | 一种基于微分几何技术构建脑图谱的方法 | |
Chang et al. | Deformable registration of lung 3DCT images using an unsupervised heterogeneous multi-resolution neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |