CN111784762B - X光造影图像血管中心线提取方法及装置 - Google Patents

X光造影图像血管中心线提取方法及装置 Download PDF

Info

Publication number
CN111784762B
CN111784762B CN202010497418.3A CN202010497418A CN111784762B CN 111784762 B CN111784762 B CN 111784762B CN 202010497418 A CN202010497418 A CN 202010497418A CN 111784762 B CN111784762 B CN 111784762B
Authority
CN
China
Prior art keywords
blood vessel
attention
center line
cdt
vascular
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010497418.3A
Other languages
English (en)
Other versions
CN111784762A (zh
Inventor
杨健
艾丹妮
王涌天
王雅晨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN202010497418.3A priority Critical patent/CN111784762B/zh
Publication of CN111784762A publication Critical patent/CN111784762A/zh
Application granted granted Critical
Publication of CN111784762B publication Critical patent/CN111784762B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

X光造影图像血管中心线提取方法及装置,能够提升中心线的连通性和完整性,促进血管结构的准确性,减轻大量背景像素带来的不平衡问题,处理任务内和任务之间长距离信息依赖,促进网络学习。方法包括:(1)将X光造影图像血管中心线提取转化为距离变换回归问题,并提出基于中心线的尺度自适应距离变换CDT;(2)结合血管方向任务的学习,引入对血管连通性和完整性的约束,设计多任务注意力融合网络,联合学习CDT和血管方向;(3)将CDT和血管方向经非极大值抑制算法NMS,沿血管方向垂线在距离变换图中寻找极大值,作为X光造影图像血管中心线。

Description

X光造影图像血管中心线提取方法及装置
技术领域
本发明涉及医学图像处理的技术领域,尤其涉及一种X光造影图像血管中心线提取方法,以及X光造影图像血管中心线提取装置,主要适用于手术导航的领域。
背景技术
血管中心线表达了血管的完整拓扑结构,在术前规划和术中导航的具有重要意义。中心线提取旨在获取每个截面血管中心像素,提取单像素的线条拓扑结构。在冠脉造影图像中,注入造影剂之后血管开始显影。
因此许多方法采用基于分割的拓扑细化方法提取中心线,这类方法简单快速,但是对分割结果较为敏感,容易出现伪影或结构不完整。
基于跟踪的方法通过手动或者自动选取种子点,基于当前跟踪点局部信息迭代追踪血管中心线上的点来提取中心线,然而这类方法对种子点选取较敏感,往往需要人为干预,并且基于局部信息可能跟踪到伪分支或者血管结构出现遗漏。
随着深度学习方法的不断发展,逐渐出现了一些基于深度学习的端对端的方法。第一种是深度网络作为方向和半径估计器被嵌入到基于跟踪的方法中,第二种是直接学习中心线或者其相关特征的方法。
但是,从2D造影图像(X光造影图像)中直接提取中心线面临如下挑战:(a)造影图像中的低对比度、伪影等;(b)缺乏血管连通性的约束;(c)2D图像中血管结构存在歧义性,如血管交叉和血管分岔的识别;(d)不平衡的前景和背景像素为学习带来极大困难。
发明内容
为克服现有技术的缺陷,本发明要解决的技术问题是提供了一种X光造影图像血管中心线提取方法,其能够提升中心线的连通性和完整性,促进血管结构的准确性,减轻大量背景像素带来的不平衡问题,处理任务内和任务之间长距离信息依赖,促进网络学习。
本发明的技术方案是:这种X光造影图像血管中心线提取方法,其包括以下步骤:
(1)将X光造影图像血管中心线提取转化为距离变换回归问题,并提出基于中心线的尺度自适应距离变换CDT;
(2)结合血管方向任务的学习,引入对血管连通性和完整性的约束,设计多任务注意力融合网络,联合学习CDT和血管方向;
(3)将CDT和血管方向经非极大值抑制算法NMS,沿血管方向垂线在距离变换图中寻找极大值,作为X光造影图像血管中心线。
本发明将中心线提取转化为距离变换回归问题,并提出基于中心线的尺度自适应距离变换CDT,结合血管方向任务的学习,引入对血管连通性和完整性的约束,设计多任务注意力融合网络,联合学习距离变换和血管方向,两个任务的同时学习提升了中心线的连通性和完整性;基于中心线的自适应距离变换在血管中心有较大的响应,有益于网络的学习,促进了血管结构的准确性。
还提供了X光造影图像血管中心线提取装置,其包括:
输入通道,其为由盈片图像输入通道和其血管增强输入通道组成的双通道;
细节扩张模块,其捕获到较大感受野的细节信息并且进行融合;
编码解码模块,其包括编码器和解码器,两个任务共享一个编码器,输出
Figure BDA0002518795760000031
尺度大小的特征图表示,每个任务有各自的解码器,编码器和解码器分别包含三次下采样和上采样,并且编码器和解码器对应尺度特征图通过跳连接进行连接;
注意力融合模块,其通过空间和通道注意力机制,学习每个任务内部和任务之间的长距离依赖;
极大值寻找模块,将CDT和血管方向经非极大值抑制算法NMS,沿血管方向垂线在距离变换图中寻找极大值,作为X光造影图像血管中心线。
这种装置强调血管区域部分,减轻了大量背景像素带来的不平衡问题;多任务注意力融合模块,处理任务内和任务之间长距离信息依赖,促进网络学习。
附图说明
图1是根据本发明的X光造影图像血管中心线提取方法的流程图。
图2是根据本发明的X光造影图像血管中心线提取装置的结构框架图。
具体实施方式
如图1所示,这种X光造影图像血管中心线提取方法,其包括以下步骤:
(1)将X光造影图像血管中心线提取转化为距离变换回归问题,并提出基于中心线的尺度自适应距离变换(Centerline-based Direction Transformation,CDT);
(2)结合血管方向任务的学习,引入对血管连通性和完整性的约束,设计多任务注意力融合网络,联合学习CDT和血管方向;
(3)将CDT和血管方向经非极大值抑制算法NMS(Non-maximum Suppression,NMS),沿血管方向垂线在距离变换图中寻找极大值,作为X光造影图像血管中心线。
本发明将中心线提取转化为距离变换回归问题,并提出基于中心线的尺度自适应距离变换CDT,结合血管方向任务的学习,引入对血管连通性和完整性的约束,设计多任务注意力融合网络,联合学习距离变换和血管方向,两个任务的同时学习提升了中心线的连通性和完整性;基于中心线的自适应距离变换在血管中心有较大的响应,有益于网络的学习,促进了血管结构的准确性。
优选地,与所述步骤(1)同时执行输入盈片图像,进行血管增强。
本方法将血管中心线提取转化为距离变换回归问题,因此将CDT视为主要任务,并且联合血管方向学习作为血管连通性的上下文信息。本方法采用角度值来表示血管方向,因此,CDT和方向图均从用与原图大小一致的图像表示,并且对应的值的范围分别为,cdti∈[0,1],θi∈(-π,π]。本文将方向任务看作分类任务进行学习,用于提升血管结构连通性和完整性,并提出采用类别损失和环状距离损失同时优化方向任务。方向信息不仅在训练时为模型提供连续性相关的上下文信息,在模型训练后的测试阶段也为NMS算法提供了准确的方向信息,寻找极大值进而提取中心线。为了将更多注意力放在血管区域的,而不是大量的背景像素,本方法引入分割任务辅助CDT回归的学习,将更多注意力放在血管区域。优选地,该方法的网络模型采用公式(1)的损失函数
Figure BDA0002518795760000041
进行训练:
Figure BDA0002518795760000042
其中,α为权重系数,
Figure BDA0002518795760000043
和/>
Figure BDA0002518795760000044
分别表示距离回归和方向学习任务的损失,
Figure BDA0002518795760000051
公式(2)中β表示损失权重系数,其第一项表示FocalLoss分类损失,其通过为标准交叉熵中的每一项重新赋予权重解决样本不平衡学习问题,Wi表示第i个类别的权重,
Figure BDA0002518795760000052
和/>
Figure BDA0002518795760000053
分别表示预测的概率和真实值;其第二项以分割概率图为掩模的距离回归L1损失,目的在于强调血管区域的像素点,并且将分割和CDT回归结合起来,/>
Figure BDA0002518795760000054
和Ycdt分别表示距离回归结果的真实值和预测值。
公式(1)第二项表示预测的方向与真实方向的环形距离损失,K表示方向类别数量,K=37,Yd
Figure BDA0002518795760000055
分别表示方向的真实类别和估计的方向类别,Wi是第i个类别的权重,γ表示损失权重系数,/>
Figure BDA0002518795760000056
和/>
Figure BDA0002518795760000057
分别表示方向类别的预测值和真实值。
Figure BDA0002518795760000058
Figure BDA0002518795760000059
是血管方向损失。
CDT回归任务需要保证得到较为精准的以中心线为中心、沿着血管截面的分布,而方向学习具有较小的误差对最终的中心线结果不会影响太大,因此,本方法放宽对方向学习的限制,更注重方向学习的误差而不是最终类别的精度,提出通过分类损失和角度环形距离损失同时优化方向学习任务。在本方法中,整个角度被分为k=36个类别,加上背景一共37个类别。公式(1)第一项表示FocalLoss分类损失,第二项表示预测的方向与真实方向的环形距离损失。环形距离损失的加入有效抑制了方向严重偏移(与真实角度成直角或者钝角)的像素点,因此,可以得到更加平滑的血管方向图而抑制了方向突变的像素点。
本领域普通技术人员可以理解,实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,所述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,包括上述实施例方法的各步骤,而所述的存储介质可以是:ROM/RAM、磁碟、光盘、存储卡等。因此,与本发明的方法相对应的,本发明还同时包括一种X光造影图像血管中心线提取装置,该装置通常以与方法各步骤相对应的功能模块的形式表示。如图2所示,该装置包括:
输入通道,其为由盈片图像输入通道和其血管增强输入通道组成的双通道;
细节扩张模块,其捕获到较大感受野的细节信息并且进行融合;
编码解码模块,其包括编码器和解码器,两个任务共享一个编码器,输出
Figure BDA0002518795760000061
尺度大小的特征图表示,每个任务有各自的解码器,编码器和解码器分别包含三次下采样和上采样,并且编码器和解码器对应尺度特征图通过跳连接进行连接;
注意力融合模块,其通过空间和通道注意力机制,学习每个任务内部和任务之间的长距离依赖;
极大值寻找模块,将CDT和血管方向经非极大值抑制算法NMS,沿血管方向垂线在距离变换图中寻找极大值,作为X光造影图像血管中心线。
这种装置强调血管区域部分,减轻了大量背景像素带来的不平衡问题;多任务注意力融合模块,处理任务内和任务之间长距离信息依赖,促进网络学习。
这种装置命名为多任务注意力融合网络MTAFN(multi-task attention fusionnetwork),该网络可以高效地联合学习CDT和血管方向。网络包含四个部分,细节扩张模块(Dilated Detailed module)首先捕获到较大感受野的细节信息并且进行融合。编码器和解码器分别包含三次下采样和上采样,并且编码器和解码器对应尺度特征图通过跳连接进行连接。注意力融合模块(Attention Fusion module)通过空间和通道注意力机制,学习每个任务内部和任务之间的长距离依赖。最终网络通过1×1卷积输出CDT和方向图。
优选地,所述细节扩张模块,由四个不同空洞率的空洞卷积组成,提取到初步的特征信息并进行融合,不同大小的空洞组成多尺度感受野和多尺度特征。该模块设计受DeepLab ASPP模块启发,不同的是,本模块只在网络初步阶段使用,采用相对较小的空洞率,高效地提取初步特征。
优选地,所述编码解码模块,共享的编码器以所述细节扩张模块的结果作为输入,并经过三次下采样将其映射为
Figure BDA0002518795760000071
大小的特征图表征;使用步长为2、3×3大小的卷积进行下采样;编码器最后的特征图经过1×1分裂出两条通路,分别输入到两个解码器,解码器均包含与编码器对称的结构但是采用逆卷积进行上采样;采用跳连接恢复下采样中丢失的细节信息。
优选地,为了更高效地训练本方法的深度网络,所述编码解码模块,在每一次上采样和下采样之间,采用两个残差块进行映射。
优选地,所述注意力融合模块使用自注意力和挤压刺激(Squeeze-and-Excitation)分别作为空间(spatial attention)和通道注意力(channel-wiseattention)来构建,它们通过重新分配各自维度的信息来保留全局最有效的信息;首先,编码器分裂的两条通路分别映射为各自解码器的空间注意力和中央通道注意力;经过注意力学习之后,中央通道注意力将通过1×1卷积分配给两个解码器得到的空间注意力,因此,学习到的空间注意力在通道维度进行了重新分配,融合了任务之间和任务内部的注意力。
优选地,所述注意力融合模块中,两个解码器通过中央注意力机制联系在一起;在前向传播阶段,两个解码器的信息通过中央注意力进行融合,在反向传播阶段,两个解码器互相监督促进,以便网络更好地学习到血管结构连通性的内在关系。
优选地,所述极大值寻找模块中,网络学习到的CDT和血管方向图同时输入到基于Canny边缘检测的NMS算法中,假定基于中心线在血管方向截面具有极大值响应,沿着血管方向图在学习到的CDT中寻找极大值保留作为中心线。
以上所述,仅是本发明的较佳实施例,并非对本发明作任何形式上的限制,凡是依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属本发明技术方案的保护范围。

Claims (8)

1.X光造影图像血管中心线提取方法,其包括以下步骤:
(1)将X光造影图像血管中心线提取转化为距离变换回归问题,并提出基于中心线的尺度自适应距离变换CDT;
(2)结合血管方向任务的学习,引入对血管连通性和完整性的约束,设计多任务注意力融合网络,联合学习CDT和血管方向;
(3)将CDT和血管方向经非极大值抑制算法NMS,沿血管方向垂线在距离变换图中寻找极大值,作为X光造影图像血管中心线;
与所述步骤(1)同时执行输入盈片图像,进行血管增强;
其特征在于:该方法的网络模型采用公式(1)的损失函数进行训练:
Figure FDA0004051677740000011
其中,α为权重系数,
Figure FDA0004051677740000012
和/>
Figure FDA0004051677740000013
分别表示距离回归和方向学习任务的损失,
Figure FDA0004051677740000014
公式(2)中β表示损失权重系数,其第一项表示FocalLoss分类损失,其通过为标准交叉熵中的每一项重新赋予权重解决样本不平衡学习问题,Wi表示第i个类别的权重,
Figure FDA0004051677740000015
Figure FDA0004051677740000016
分别表示预测的概率和真实值;其第二项以分割概率图为掩模的距离回归L1损失,目的在于强调血管区域的像素点,并且将分割和CDT回归结合起来,/>
Figure FDA0004051677740000017
和/>
Figure FDA0004051677740000018
分别表示距离回归结果的真实值和预测值;
公式(1)第二项表示预测的方向与真实方向的环形距离损失,K表示方向类别数量,K=37,Yd
Figure FDA0004051677740000021
分别表示方向的真实类别和估计的方向类别,Wi是第i个类别的权重,γ表示损失权重系数,/>
Figure FDA0004051677740000022
和/>
Figure FDA0004051677740000023
分别表示方向类别的预测值和真实值;
Figure FDA0004051677740000024
Figure FDA0004051677740000025
是血管方向损失。
2.X光造影图像血管中心线提取装置,其特征在于:其包括:
输入通道,其为由盈片图像输入通道和其血管增强输入通道组成的双通道;
细节扩张模块,其捕获到较大感受野的细节信息并且进行融合;
编码解码模块,其包括编码器和解码器,两个任务共享一个编码器,输出
Figure FDA0004051677740000026
尺度大小的特征图表示,每个任务有各自的解码器,编码器和解码器分别包含三次下采样和上采样,并且编码器和解码器对应尺度特征图通过跳连接进行连接;
注意力融合模块,其通过空间和通道注意力机制,学习每个任务内部和任务之间的长距离依赖;
极大值寻找模块,将CDT和血管方向经非极大值抑制算法NMS,沿血管方向垂线在距离变换图中寻找极大值,作为X光造影图像血管中心线。
3.根据权利要求2所述的X光造影图像血管中心线提取装置,其特征在于:所述细节扩张模块,由四个不同空洞率的空洞卷积组成,提取到初步的特征信息并进行融合,不同大小的空洞组成多尺度感受野和多尺度特征。
4.根据权利要求3所述的X光造影图像血管中心线提取装置,其特征在于:所述编码解码模块,共享的编码器以所述细节扩张模块的结果作为输入,并经过三次下采样将其映射为
Figure FDA0004051677740000031
大小的特征图表征;
使用步长为2、3×3大小的卷积进行下采样;编码器最后的特征图经过1×1分裂出两条通路,分别输入到两个解码器,解码器均包含与编码器对称的结构但是采用逆卷积进行上采样;采用跳连接恢复下采样中丢失的细节信息。
5.根据权利要求4所述的X光造影图像血管中心线提取装置,其特征在于:所述编码解码模块,在每一次上采样和下采样之间,采用两个残差块进行映射。
6.根据权利要求5所述的X光造影图像血管中心线提取装置,其特征在于:所述注意力融合模块使用自注意力和挤压刺激分别作为空间和通道注意力来构建,它们通过重新分配各自维度的信息来保留全局最有效的信息;首先,编码器分裂的两条通路分别映射为各自解码器的空间注意力和中央通道注意力;经过注意力学习之后,中央通道注意力将通过1×1卷积分配给两个解码器得到的空间注意力,因此,学习到的空间注意力在通道维度进行了重新分配,融合了任务之间和任务内部的注意力。
7.根据权利要求6所述的X光造影图像血管中心线提取装置,其特征在于:所述注意力融合模块中,两个解码器通过中央注意力机制联系在一起;在前向传播阶段,两个解码器的信息通过中央注意力进行融合,在反向传播阶段,两个解码器互相监督促进,以便网络更好地学习到血管结构连通性的内在关系。
8.根据权利要求7所述的X光造影图像血管中心线提取装置,其特征在于:所述极大值寻找模块中,网络学习到的CDT和血管方向图同时输入到基于Canny边缘检测的NMS算法中,假定基于中心线在血管方向截面具有极大值响应,沿着血管方向图在学习到的CDT中寻找极大值保留作为中心线。
CN202010497418.3A 2020-06-01 2020-06-01 X光造影图像血管中心线提取方法及装置 Active CN111784762B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010497418.3A CN111784762B (zh) 2020-06-01 2020-06-01 X光造影图像血管中心线提取方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010497418.3A CN111784762B (zh) 2020-06-01 2020-06-01 X光造影图像血管中心线提取方法及装置

Publications (2)

Publication Number Publication Date
CN111784762A CN111784762A (zh) 2020-10-16
CN111784762B true CN111784762B (zh) 2023-05-30

Family

ID=72753650

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010497418.3A Active CN111784762B (zh) 2020-06-01 2020-06-01 X光造影图像血管中心线提取方法及装置

Country Status (1)

Country Link
CN (1) CN111784762B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112258526B (zh) * 2020-10-30 2023-06-27 南京信息工程大学 一种基于对偶注意力机制的ct肾脏区域级联分割方法
CN113012146B (zh) * 2021-04-12 2023-10-24 东北大学 血管信息获取方法及装置、电子设备和存储介质
CN113887538B (zh) * 2021-11-30 2022-03-25 北京的卢深视科技有限公司 模型训练、人脸识别方法、电子设备及存储介质
CN114677396B (zh) * 2022-05-27 2022-09-20 天津远景科技服务有限公司 图像处理方法、图像处理设备与计算机可读存储介质
CN115205298B (zh) * 2022-09-19 2022-12-09 真健康(北京)医疗科技有限公司 肝部区域血管分割的方法及设备
CN117611599B (zh) * 2023-12-28 2024-05-31 齐鲁工业大学(山东省科学院) 融合中心线图和增强对比度网络的血管分割方法及其系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105825516A (zh) * 2016-03-25 2016-08-03 上海慧达医疗器械有限公司 一种dicom影像血流分析系统
CN110298844A (zh) * 2019-06-17 2019-10-01 艾瑞迈迪科技石家庄有限公司 X光造影图像血管分割与识别方法及装置
CN110490927A (zh) * 2018-08-23 2019-11-22 深圳科亚医疗科技有限公司 用于为图像中的对象生成中心线的方法、装置和系统
CN110648311A (zh) * 2019-09-03 2020-01-03 南开大学 一种基于多任务学习的痤疮图像病灶分割与计数网络模型

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018213841A1 (en) * 2017-05-19 2018-11-22 Google Llc Multi-task multi-modal machine learning model

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105825516A (zh) * 2016-03-25 2016-08-03 上海慧达医疗器械有限公司 一种dicom影像血流分析系统
CN110490927A (zh) * 2018-08-23 2019-11-22 深圳科亚医疗科技有限公司 用于为图像中的对象生成中心线的方法、装置和系统
CN110298844A (zh) * 2019-06-17 2019-10-01 艾瑞迈迪科技石家庄有限公司 X光造影图像血管分割与识别方法及装置
CN110648311A (zh) * 2019-09-03 2020-01-03 南开大学 一种基于多任务学习的痤疮图像病灶分割与计数网络模型

Also Published As

Publication number Publication date
CN111784762A (zh) 2020-10-16

Similar Documents

Publication Publication Date Title
CN111784762B (zh) X光造影图像血管中心线提取方法及装置
Seichter et al. Efficient rgb-d semantic segmentation for indoor scene analysis
CN113012172B (zh) 一种基于AS-UNet的医学图像分割方法及系统
WO2023231329A1 (zh) 一种医学图像的语义分割方法及装置
Zhang et al. Deep hierarchical guidance and regularization learning for end-to-end depth estimation
CN110298844B (zh) X光造影图像血管分割与识别方法及装置
CN113221925B (zh) 一种基于多尺度图像的目标检测方法及装置
CN116309648A (zh) 一种基于多注意力融合的医学图像分割模型构建方法
US20230019972A1 (en) Systems and methods of contrastive point completion with fine-to-coarse refinement
CN112184780A (zh) 一种运动物体实例分割方法
CN116228792A (zh) 一种医学图像分割方法、系统及电子装置
Wang et al. Thermal images-aware guided early fusion network for cross-illumination RGB-T salient object detection
CN112132834A (zh) 一种心室图像分割方法、系统、装置及存储介质
Su et al. Deep feature selection-and-fusion for RGB-D semantic segmentation
CN117173412A (zh) 一种基于CNN和Transformer融合网络的医学图像分割方法
CN115512169A (zh) 基于梯度和区域亲和力优化的弱监督语义分割方法及装置
CN115035172A (zh) 基于置信度分级及级间融合增强的深度估计方法及系统
Liu et al. MutSimNet: Mutually Reinforcing Similarity Learning for RS Image Change Detection
CN113313668A (zh) 一种地铁隧道表面病害特征提取方法
CN112419159A (zh) 文字图像超分辨率重建系统及方法
CN116342888A (zh) 一种基于稀疏标注训练分割模型的方法及装置
CN116091458A (zh) 一种基于互补注意力的胰腺图像分割方法
Wang et al. HQDec: Self-Supervised Monocular Depth Estimation Based on a High-Quality Decoder
CN112995433B (zh) 一种时序视频生成方法、装置、计算设备及存储介质
CN113450394A (zh) 一种基于Siamese网络的异尺寸图像配准方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant