CN112802073B - 一种基于图像数据和点云数据的融合配准方法 - Google Patents

一种基于图像数据和点云数据的融合配准方法 Download PDF

Info

Publication number
CN112802073B
CN112802073B CN202110376958.0A CN202110376958A CN112802073B CN 112802073 B CN112802073 B CN 112802073B CN 202110376958 A CN202110376958 A CN 202110376958A CN 112802073 B CN112802073 B CN 112802073B
Authority
CN
China
Prior art keywords
image
point cloud
registration
fusion
deformation field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110376958.0A
Other languages
English (en)
Other versions
CN112802073A (zh
Inventor
朱闻韬
饶璠
杨宝
陈凌
张铎
申慧
叶宏伟
王瑶法
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Lab
FMI Technologies Inc
Original Assignee
Zhejiang Lab
FMI Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lab, FMI Technologies Inc filed Critical Zhejiang Lab
Priority to CN202110376958.0A priority Critical patent/CN112802073B/zh
Publication of CN112802073A publication Critical patent/CN112802073A/zh
Application granted granted Critical
Publication of CN112802073B publication Critical patent/CN112802073B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10108Single photon emission computed tomography [SPECT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于图像数据和点云数据的融合配准方法,该方法首先通过图像分割获得组织器官的边界点云或通过特征提取得到图像内的特征点云,将图像数据和点云数据输入设计好的融合配准模型中,获得配准好的图像和点云数据以及变形场。所述融合配准模型包含图像配准网络和点云配准网络,训练时,损失函数由图像距离项、点云距离项、约束图像变形场和点云变形场的正则化项以及图像变形场和点云变形场的一致性约束项组成。本发明的方法能提高图像配准中边界保持的能力,在配准前获得细小结构点云信息时,该方法还能改善因细小结构隐藏在图像背景而发生误匹配的问题。

Description

一种基于图像数据和点云数据的融合配准方法
技术领域
本发明涉及图像配准领域,尤其涉及一种基于深度学习并用于医学图像非刚性配准的方法。
背景技术
配准算法是通过求得图像数据之间或点云数据之间的空间对应关系,将图像数据或点云数据对齐起来的一种方法。在医学领域中,它广泛应用于图像指导介入手术、图像获取、运动场量化分析以及数字人图像生成。
在医学领域中,根据采用数据的不同,配准算法主要分为图像配准算法和点云配准算法。传统医学图像配准方法一般由三个主要部分构成:目标函数、坐标变换模型以及迭代优化策略。其中,按照目标函数中图像相似性度量的定义方法可以分为两类,第一类方法是直接使用灰度值,包括SSD(Sum of Squared Differences)和CC(CorrelationCoefficient)等;第二类方法是采用统计和信息熵的方法,包括MI(Mutual Information)、NMI(Normalized Mutual Information)和RC(Residual Complexity)等。近些年来,深度学习的迅速发展给图像配准算法带来的新的思路,早期主要采用UNet实现图像配准,后来有研究人员提出了STN(Spatial Transformation Network)实现了显式的非刚性图像变换,改善了单纯采用UNet易出现的分辨率丢失的问题。
也有不少学者开展了点云配准的相关研究。最早期的非刚性点云模型采用的是高斯混合模型和EM(Expectation Maximization)算法,后来有学者采用局部仿射变换对非刚性变形进行建模,并且目标函数表示成矩阵范数的形式,通过矩阵最优化的算法求取最优化的非刚性变形参数,该方法能显著提高迭代的收敛速度。近些年来,随着深度学习的迅速发展,也有不少学者提出了基于深度学习的点云配准算法,有学者提出了DCP(DeepClosest Point)网络,采用神经网络实现了ICP(Iterative Closest Point)算法。也有学者提出了PointNet,采用MLP(Multi-Layer Perception)实现点云非刚性变形。但现有的研究多集中在刚性图像配准上,多应用于大规模点云数据拼合上。基于深度学习的非刚性点云配准算法和融合图像信息和点云信息的配准算法相关的研究还相对不足。
融合图像信息和点云信息的非刚性配准主要面临以下几个问题:1)点云数据和图像数据的非刚性模型不同,目前尚无统一的非刚性变换模型;2)点云数据的数据规模不定且索引无关,很难直接用于主流图像配准算法所使用的UNet中;3)尚缺乏基于深度学习的融合图像信息和点云信息的配准方法。
发明内容
本发明针对现有技术的不足,提出了一种基于图像数据和点云数据的融合配准方法,该方法基于深度学习网络,将图像数据和点云数据同时输入神经网络中,网络输出变形后的图像和点云数据以及变形场数据。该方法能提高配准中边界保持的能力,改善因细小结构隐藏在图像背景而发生误匹配的问题。
本发明的目的是通过以下技术方案来实现的:一种基于图像数据和点云数据的融合配准方法,该方法通过训练一融合配准模型对图像及图像对应的点云数据进行同步配准,输出形变后的浮动图像、点云数据以及图像变形场和点云变形场;其中,所述融合配准模型包含图像配准网络和点云配准网络,图像配准网络的输入为参考图像、浮动图像对,点云配准网络的输入为参考图像、浮动图像对应的点云数据对,所述融合配准模型训练时的损失函数由图像距离项、点云距离项、约束图像变形场和点云变形场的正则化项以及图像变形场和点云变形场的一致性约束项组成。具体包括以下步骤:
步骤一:通过图像分割获取参考图像和浮动图像中器官或组织的边界点云或通过特征提取获得特征点点云;
步骤二:以参考图像、浮动图像以及对应的点云数据作为输入对融合配准模型进行训练,使损失函数收敛并稳定,从而完成对融合配准模型的训练;
步骤三:在训练好的融合配准模型中输入参考图像、浮动图像以及步骤一中得到的对应点云数据,模型输出形变后的浮动图像、点云数据以及图像变形场和点云变形场。
本发明利用图像数据(参考图像、浮动图像)及对应点云数据联合训练融合配准模型,在训练过程中,损失函数中的图像距离项、点云距离项分别约束图像配准网络、点云配准网络,而图像变形场正则化项、点云变形场正则化项以及两个变形场(图像变形场、点云变形场)一致性约束可以实现图像配准网络和点云配准网络的相互监督学习,提高生成变形场的光顺性,使得每个配准网络均融合学习了图像信息和点云信息,从而提高配准精度。例如,图像配准网络中,训练时由于点云配准网络的监督,融合了对应图像的点云信息,而边界点云中包含拓扑结构表示器官或组织的边界形状,可以有效提高图像配准中器官边界保持的能力,改善因细小结构隐藏在图像背景而发生误匹配的问题。同时,通过联合两个配准网络进行相互监督学习训练,能减小局部最小值的影响,进一步提高配准的精度和稳定性。
进一步地,所述步骤一中,通过图像分割获取参考图像和浮动图像中器官或组织的边界点云具体为:
根据器官或组织的区域性质采用不同图像分割方法进行边界点云分割:对器官或组织的实质区域,采用阈值分割方法获取,对中空的管状区域,采用Hessian矩阵进行管状边界增强,再结合管状结构检测滤波器和形态学操作分割细小管状结构。
进一步地,还包括对分割获得的边界点云进行去噪、光顺和精简处理步骤,具体为:
采用k邻域算法进行边界点云去噪,然后采用双边滤波或移动最小二乘法使去噪后的边界点云光顺,最后通过曲率精简或聚类精简删除对形状贡献小的数据,并使所有精简后的边界点云中的点数一致。
进一步地,通过SIFT或MIND方法获取图像中的特征点点云。
进一步地,所采用的图像配准网络为UNet或GAN,点云配准网络为MLP网络。
进一步地,采用反向传播方法对深度学习网络进行训练,完成训练后损失函数最小且不再下降,此时完成了对训练数据的非刚性配准。
进一步地,所述图像为CT图像、MRI图像、超声图像、PET图像或SPECT图像。
本发明的有益效果是:本发明构建了一个图像配准网络和点云配准网络组成的融合配准模型,通过联合训练,实现图像配准网络和点云配准网络相互监督学习,使得每个配准网络均融合了图像信息和点云信息,从而提高配准精度,同时,通过联合两个配准网络进行相互监督学习训练,能减小局部最小值的影响,进一步提高配准的精度和稳定性。
附图说明
图1是本发明基于图像数据和点云数据的融合配准的流程示意图;
图2为实施例的框架结构示意图;
图3为CT图像数据;
图4为分割得到的点云数据;
图5为精简后的点云数据。
具体实施方式
实施例1
如图1为本发明基于图像数据和点云数据的融合配准的示意图,通过构建一个融合配准模型,同时输入图像和图像的点云数据进行配准,该方法具体包括以下步骤:
步骤一:获取大量患者的CT图像(如图3所示)数据,并通过图像分割获得对应的气管树点云,如图4所示;
步骤二:对气管树点云进行去噪、光顺和精简等数据处理,并使得点云数据的规模相同;其中点云精简指通过删除对形状贡献比较小的数据以达到控制数据规模的一种处理方法,可采用曲率精简或聚类精简实现;图5所示为精简后的点云数据;
步骤三:设计如图2所示由图像配准网络(UNet)、点云配准网络(MLP网络)和空间变形网络构成的融合配准模型,融合配准模型的目标函数由图像距离项、点云距离项、图像变形场正则化、点云变形场正则化项以及变形场一致性约束组成,具体由下式表达:
S = D NCC (I r , T image I f ) + D SCT (P r , T point P f ) + R I (T image ) + R p (T point )+ D uni (T image , T point )
式中,I r , I f 分别代表参考图像和浮动图像;P r , P f 分别代表参考图像的点云和浮动图像的点云;T image , T point 分别代表图像配准和点云配准输出的变形场;D NCC (I r , T image I f )代表图像距离项,本实施例中采用NCC(Normalized Correlation Coefficient)度量来定义计算;D SCT (P r , T point P f )代表点云距离项,本实施例中采用形状相关张量(ShapeCorrelation Tensor, SCT)来定义计算;R I (T image ), R p (T point )分别代表约束图像变形场和点云变形场的正则化项;D uni (T image , T point )为图像变形场和点云变形场的一致性约束项;
步骤四:将步骤一获得的CT图像构成参考图像、浮动图像对以及对应精简后的点云输入至步骤三获得的融合配准模型中进行训练,使得损失函数收敛并稳定,完成对融合配准模型的训练;
步骤五:利用训练好的融合配准模型对待配准的浮动图像进行配准:
首先对参考图像(图像A)和浮动图像(图像B)做图像分割得到气管树点云,并按照步骤二的方法得到精简后点云;
然后将图像A、图像B和对应的精简点云作为训练好的融合配准模型输入,则模型输出即为图像配准结果和点云配准结果。
本实施例步骤一中,分割得到的边界点云,其拓扑结构表示器官或组织的边界形状,例如对于肺实质区域,可通过阈值分割获取,对于气管树,可通过Hessian矩阵实现边界增强,再结合管状结构检测滤波器和形态学操作分割细小气管从而得到更为准确的器官或组织的边界形状。将边界点云放入训练模型并在损失函数中加入点云距离项一起训练,能有效提高图像配准的边界保持能力,另外,在实际配准过程中加入点云数据可作为后验,当配准完成后点云距离项偏大时,可认为本次图像配准的表现不佳。
实施例2
步骤一:利用数字人技术得到大量CT图像数据,并通过特征提取获取图像中的特征点,其中,特征提取可采用SIFT或MIND方法;
步骤二:设计如图2所示的融合配准模型,融合配准模型的目标函数由图像距离项、点云距离项、图像变形场正则化项、点云变形场正则化项以及变形场一致性约束项组成;
步骤三:将步骤一获得的CT图像构成参考图像、浮动图像对以及对应精简后的点云输入至步骤三获得的融合配准模型中进行训练,使得损失函数收敛并稳定,完成对融合配准模型的训练;
步骤四:利用训练好的融合配准模型对待配准的浮动图像进行配准:
首先按照步骤一的方法对参考图像(图像A)和浮动图像(图像B)做特征提取,得到特征点云;
然后将图像A、图像B和对应的特征点云输入步骤四中训练好的模型,则模型输出即为图像配准结果和点云配准结果。
本实施例中,采用了特征点云和图像进行融合配准的方法。相比于图像分割获得的边界点云,特征提取操作简单且获得点云的精度较高,将特征点云放入训练模型并在损失函数中加入点云距离项,能有效提高配准的精度,另外,在实际配准过程中加入特征点云数据可作为后验,当配准完成后点云距离项偏大时,可认为本次图像配准的表现不佳。
需要指出的是,示例中采用CT图像进行说明,但本发明不限于CT图像,也可包括超声图像、MRI图像、PET图像以及SPECT图像。
另外,本发明主要用于医学图像配准,但也可扩展工业视觉以及机器视觉领域。

Claims (7)

1.一种基于图像数据和点云数据的融合配准方法,其特征在于,包括以下步骤:
步骤一:通过图像分割获取参考图像和浮动图像中器官或组织的边界点云或通过特征提取获得特征点点云;
步骤二:以参考图像、浮动图像以及对应的点云数据作为输入对融合配准模型进行训练,使损失函数收敛并稳定,从而完成对融合配准模型的训练;其中,所述融合配准模型包含图像配准网络和点云配准网络,图像配准网络的输入为参考图像、浮动图像对,点云配准网络的输入为参考图像、浮动图像对应的点云数据对;所述损失函数由图像距离项、点云距离项、约束图像变形场和点云变形场的正则化项以及图像变形场和点云变形场的一致性约束项组成,具体表示为:
S = D NCC (I r , T image I f ) + D SCT (P r , T point P f ) + R I (T image ) + R p (T point ) + D uni (T image , T point )
式中,I r , I f 分别代表参考图像和浮动图像;P r , P f 分别代表参考图像的点云和浮动图像的点云;T image , T point 分别代表图像配准和点云配准输出的变形场;D NCC (I r , T image I f )代表图像距离项,采用NCC度量定义计算;D SCT (P r , T point P f )代表点云距离项采用形状相关张量定义计算;R I (T image ), R p (T point )分别代表约束图像变形场和点云变形场的正则化项;D uni (T image , T point )为图像变形场和点云变形场的一致性约束项;
步骤三:在训练好的融合配准模型中输入参考图像、浮动图像以及通过步骤一方法得到的对应点云数据,模型输出形变后的浮动图像、点云数据以及图像变形场和点云变形场,完成图像数据和点云数据的融合配准。
2.根据权利要求1所述的融合配准方法,其特征在于,所述步骤一中,通过图像分割获取参考图像和浮动图像中器官或组织的边界点云具体为:
根据器官或组织的区域性质采用不同图像分割方法进行边界点云分割:对器官或组织的实质区域,采用阈值分割方法获取,对中空的管状区域,采用Hessian矩阵进行管状边界增强,再结合管状结构检测滤波器和形态学操作分割细小管状结构。
3.根据权利要求2所述的融合配准方法,其特征在于,还包括对分割获得的边界点云进行去噪、光顺和精简处理步骤,具体为:
采用k邻域算法进行边界点云去噪,然后采用双边滤波或移动最小二乘法使去噪后的边界点云光顺,最后通过曲率精简或聚类精简删除对形状贡献小的数据,并使所有精简后的边界点云中的点数一致。
4.根据权利要求1所述的融合配准方法,其特征在于,所述步骤一中,采用SIFT或MIND方法对图像进行特征提取获得特征点点云。
5.根据权利要求1所述的融合配准方法,其特征在于,所述图像配准网络为UNet或GAN,所述点云配准网络为MLP网络。
6.根据权利要求1所述的融合配准方法,其特征在于,所述步骤二中,采用反向传播方法对融合配准模型进行训练,完成训练后损失函数最小且不再下降。
7.根据权利要求1所述的融合配准方法,其特征在于,图像为CT图像、MRI图像、超声图像、PET图像或SPECT图像。
CN202110376958.0A 2021-04-08 2021-04-08 一种基于图像数据和点云数据的融合配准方法 Active CN112802073B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110376958.0A CN112802073B (zh) 2021-04-08 2021-04-08 一种基于图像数据和点云数据的融合配准方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110376958.0A CN112802073B (zh) 2021-04-08 2021-04-08 一种基于图像数据和点云数据的融合配准方法

Publications (2)

Publication Number Publication Date
CN112802073A CN112802073A (zh) 2021-05-14
CN112802073B true CN112802073B (zh) 2021-07-06

Family

ID=75816579

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110376958.0A Active CN112802073B (zh) 2021-04-08 2021-04-08 一种基于图像数据和点云数据的融合配准方法

Country Status (1)

Country Link
CN (1) CN112802073B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113379663B (zh) * 2021-06-18 2022-04-12 特斯联科技集团有限公司 一种空间定位方法和装置
US20230289984A1 (en) * 2022-03-10 2023-09-14 Siemens Healthcare Gmbh Automatic mr-us prostate image fusion through semi-supervised constrained learning
CN115601271B (zh) * 2022-11-29 2023-03-24 上海仙工智能科技有限公司 一种视觉信息防抖方法、仓储库位状态管理方法及系统
CN115965667A (zh) * 2022-12-30 2023-04-14 上海术之道机器人有限公司 介入手术的组织结构模型数据融合的方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107316325A (zh) * 2017-06-07 2017-11-03 华南理工大学 一种基于图像配准的机载激光点云与影像配准融合方法
CN112465732A (zh) * 2020-11-27 2021-03-09 武汉大学 一种车载激光点云与序列全景影像的配准方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9710714B2 (en) * 2015-08-03 2017-07-18 Nokia Technologies Oy Fusion of RGB images and LiDAR data for lane classification
CN110838139B (zh) * 2019-11-04 2022-10-25 上海联影智能医疗科技有限公司 图像配准模型的训练方法、图像配准方法和计算机设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107316325A (zh) * 2017-06-07 2017-11-03 华南理工大学 一种基于图像配准的机载激光点云与影像配准融合方法
CN112465732A (zh) * 2020-11-27 2021-03-09 武汉大学 一种车载激光点云与序列全景影像的配准方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Fusion of images and point clouds for the semantic segmentation of large-scale 3D scenes based on deep learning;RuiZhang et al.;《ISPRS Journal of Photogrammetry and Remote Sensing》;20180511;第143卷;第85-96页 *
基于Point-Net的多源融合点云地物分类方法;释小松 等;《激光与光电子学进展》;20190923;第178-186页 *
肺部模型非刚性配准与运动场计算;饶璠;《中国博士学位论文全文数据库 医药卫生科技辑》;20200315;第2020年卷(第3期);第E072-79页 *

Also Published As

Publication number Publication date
CN112802073A (zh) 2021-05-14

Similar Documents

Publication Publication Date Title
CN112802073B (zh) 一种基于图像数据和点云数据的融合配准方法
CN111476292B (zh) 医学图像分类处理人工智能的小样本元学习训练方法
WO2021088747A1 (zh) 基于深度学习的预测消融术后肝脏肿瘤形态变化的方法
WO2021203795A1 (zh) 一种基于显著性密集连接扩张卷积网络的胰腺ct自动分割方法
CN111968120B (zh) 一种3d多特征融合的牙齿ct图像分割方法
CN110503649B (zh) 一种基于空间多尺度U-net与超像素修正的肝脏分割方法
WO2023071531A1 (zh) 一种基于深度形状学习的肝脏ct自动分割方法
CN109816661B (zh) 一种基于深度学习的牙齿ct图像分割方法
WO2019001208A1 (zh) 一种oct图像中脉络膜新生血管分割算法
CN114897914B (zh) 基于对抗训练的半监督ct图像分割方法
CN112258514B (zh) 一种ct影像肺血管的分割方法
CN111242959B (zh) 基于卷积神经网络的多模态医学图像的目标区域提取方法
CN107680110B (zh) 基于统计形状模型的内耳三维水平集分割方法
CN109767459A (zh) 新型眼底图配准方法
Shang et al. Region competition based active contour for medical object extraction
CN115457020B (zh) 一种融合残差图像信息的2d医学图像配准方法
CN115512110A (zh) 一种涉及跨模态注意力机制的医学图像肿瘤分割方法
CN110570430B (zh) 基于体配准的眼眶骨组织分割方法
CN113506333A (zh) 基于可变形图谱的医学影像配准网络训练数据集扩充方法
CN111080676B (zh) 一种通过在线分类跟踪内窥镜图像序列特征点的方法
CN116797609A (zh) 全局-局部特征关联融合的肺部ct图像分割方法
CN111260765A (zh) 一种显微手术术野的动态三维重建方法
CN112733953B (zh) 基于Non-local CNN-GCN和拓扑子图的肺CT图像动静脉血管分离方法
Qiao et al. Research on standardized feature positioning technology of motion amplitude based on intelligent vision
WO2022183851A1 (zh) 一种基于数字人技术的肺叶分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant