CN111445508B - 一种增强2d/3d图像融合中深度感知的可视化方法及装置 - Google Patents

一种增强2d/3d图像融合中深度感知的可视化方法及装置 Download PDF

Info

Publication number
CN111445508B
CN111445508B CN202010183820.4A CN202010183820A CN111445508B CN 111445508 B CN111445508 B CN 111445508B CN 202010183820 A CN202010183820 A CN 202010183820A CN 111445508 B CN111445508 B CN 111445508B
Authority
CN
China
Prior art keywords
depth
data
color
image
opacity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010183820.4A
Other languages
English (en)
Other versions
CN111445508A (zh
Inventor
杨健
艾丹妮
范敬凡
杨洋
王涌天
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN202010183820.4A priority Critical patent/CN111445508B/zh
Publication of CN111445508A publication Critical patent/CN111445508A/zh
Application granted granted Critical
Publication of CN111445508B publication Critical patent/CN111445508B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Generation (AREA)

Abstract

一种增强2D/3D图像融合中深度感知的可视化方法及装置,可以增强2D/3D图像融合显示中的深度感知,使观察者更易感知和理解三维结构,能够用于B型主动脉夹层精准腔内修复手术导航系统中的术前规划以及交互式导航模块,为导航系统提供重要而准确的可视化信息。方法包括:(1)获取三维数据场;(2)对数据进行预处理;(3)对数据进行分类;(4)将深度颜色编码作用于采样点的颜色信息;(5)将边缘轮廓增强作用于采样点透明度信息;(6)通过图像合成得到最后渲染图像的颜色。

Description

一种增强2D/3D图像融合中深度感知的可视化方法及装置
技术领域
本发明涉及医疗图像处理的技术领域,尤其涉及一种增强2D/3D图像融合中深度感知的可视化方法,以及增强2D/3D图像融合中深度感知的可视化装置,可用于B型主动脉夹层精准腔内修复手术导航系统中的术前规划以及交互式导航模块,可缩短手术时间和减少对病人和工作人员的辐射。
背景技术
X射线图像仍是大多数手术介入措施中选择的实时成像方式。为了在手术过程中协助介入医师,术前影像可以与X光图像融合。这种2D/3D叠加是通过alpha混合方法获得的,也就是说,要在数据之间的透明度上做出妥协。
尽管有这个缺点,这种融合方式仍然是一个金标准,广泛应用于血管内治疗、神经放射学、肿瘤学、冠状动脉介入治疗、电生理学研究和其他治疗。三维成像数据具有提供空间信息的优势,提升介入者的深度感知是在医疗过程中使用三维数据集的主要好处。2D/3D融合显示可以让介入者更快更好地理解和感知三维结构,特别是在复杂的情况下。
然而,当前的2D/3D图像融合显示存在2D/3D信息强烈妥协以及较弱的深度感知等问题。在融合图像中快速识别和区分不同的结构变得越来越困难。介入者的视觉被改变了,因为每种形态的解剖在覆盖层中看起来是漂浮在彼此之上的,这影响感知以及血管结构的自然顺序。
发明内容
为克服现有技术的缺陷,本发明要解决的技术问题是提供了一种增强2D/3D图像融合中深度感知的可视化方法,其可以增强2D/3D图像融合显示中的深度感知,使观察者更易感知和理解三维结构,能够用于B型主动脉夹层精准腔内修复手术导航系统中的术前规划以及交互式导航模块,为导航系统提供重要而准确的可视化信息。
本发明的技术方案是:这种增强2D/3D图像融合中深度感知的可视化方法,其包括以下步骤:
(1)获取三维数据场;
(2)对数据进行预处理;
(3)对数据进行分类,根据数据的特征是否相同对数据进行分类并赋予相应的颜色值与不透明度;
(4)将深度颜色编码作用于采样点的颜色信息:对颜色赋值,发出射线或者再采样,将数据用于采样点颜色值;
(5)将边缘轮廓增强作用于采样点透明度信息:对不透明度赋值,发出射线或者再采样,将数据用于采样点不透明度值;
(6)通过图像合成得到最后渲染图像的颜色,这些可视化概念在不隐藏二维信息的情况下有效地增强了空间信息。
本发明通过深度颜色编码作用于采样点的颜色信息,边缘轮廓增强作用于采样点透明度信息,得到最后渲染图像的颜色,这些可视化概念在不隐藏二维信息的情况下有效地增强了空间信息,与原显示效果相比,本发明的效果可以增强2D/3D图像融合显示中的深度感知,使观察者更易感知和理解三维结构,能够用于B型主动脉夹层精准腔内修复手术导航系统中的术前规划以及交互式导航模块,为导航系统提供重要而准确的可视化信息。
还提供了一种增强2D/3D图像融合中深度感知的可视化装置,该装置包括:
数据获取模块,其配置来获取三维数据场;
数据预处理模块,其配置来对数据进行预处理;
数据分类模块,其配置来对数据进行分类;
深度颜色编码模块,其配置来将深度颜色编码作用于采样点的颜色信息:对颜色赋值,发出射线或者再采样,将数据用于采样点颜色值;
边缘轮廓增强模块,其配置来将边缘轮廓增强作用于采样点透明度信息:对不透明度赋值,发出射线或者再采样,将数据用于采样点不透明度值;
图像合成模块,其配置来通过图像合成得到最后渲染图像的颜色,这些可视化概念在不隐藏二维信息的情况下有效地增强了空间信息。
附图说明
图1为深度颜色编码的示意图。
图2为血管的轮廓增强的示意图。
图3为光线投射原理图。
图4为根据本发明的增强2D/3D图像融合中深度感知的可视化方法的流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,下面结合附图和具体实施例对本发明作进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
为了使本揭示内容的叙述更加详尽与完备,下文针对本发明的实施方式与具体实施例提出了说明性的描述;但这并非实施或运用本发明具体实施例的唯一形式。实施方式中涵盖了多个具体实施例的特征以及用以建构与操作这些具体实施例的方法步骤与其顺序。然而,亦可利用其它具体实施例来达成相同或均等的功能与步骤顺序。
如图4所示,这种增强2D/3D图像融合中深度感知的可视化方法,其包括以下步骤:
(1)获取三维数据场;
(2)对数据进行预处理;
(3)对数据进行分类,根据数据的特征是否相同对数据进行分类并赋予相应的颜色值与不透明度(这样可以更好地体现出一种物质的多种属性或多种物质的不同分布);
(4)将深度颜色编码作用于采样点的颜色信息:对颜色赋值,发出射线或者再采样,将数据用于采样点颜色值;
(5)将边缘轮廓增强作用于采样点透明度信息:对不透明度赋值,
发出射线或者再采样,将数据用于采样点不透明度值;
(6)通过图像合成得到最后渲染图像的颜色,这些可视化概念在不隐藏二维信息的情况下有效地增强了空间信息。
本发明通过深度颜色编码作用于采样点的颜色信息,边缘轮廓增强作用于采样点透明度信息,得到最后渲染图像的颜色,这些可视化概念在不隐藏二维信息的情况下有效地增强了空间信息,与原显示效果相比,本发明的效果可以增强2D/3D图像融合显示中的深度感知,使观察者更易感知和理解三维结构,能够用于B型主动脉夹层精准腔内修复手术导航系统中的术前规划以及交互式导航模块,为导航系统提供重要而准确的可视化信息。
优选地,所述步骤(1)中,以图像空间为序对体数据进行绘制。
优选地,所述步骤(2)中,对于图像空间的每一个像素点f(x,y),投射一条方向与视线方向相同的射线,这条射线以步长m穿过数据场在这条射线上选取k个等距的采样点,对于每一个采样点,选择离该采样点最近的8个数据点的颜色和不透明度作线性插值计算,从而计算出当前采样点的不透明度值和颜色值。
优选地,所述步骤(4)中,假设2D和3D图像已经在空间上配准好,则深度看作是z方向到x射线源的距离,使用一个类似彩虹的传递函数,它将深度映射到颜色;选择以下颜色深度编码方案:红色表示靠近观察者的吸收,绿色表示中心附近的吸收,蓝色表示远处的吸收;最后的像素颜色是沿着光线累积的;
其中,γd是深度率,D是当前采样点的可视深度,而Dfar和Dnear用来定义深度范围;
根据公式(1)获得深度率,定义当前采样点的RGB颜色值为公式(2)
或者,所述步骤(4)中,假设2D和3D图像已经在空间上配准好,则深度看作是z方向到x射线源的距离,使用一个类似彩虹的传递函数,它将深度映射到颜色;选择以下颜色深度编码方案:红色表示靠近观察者的吸收,绿色表示中心附近的吸收,蓝色表示远处的吸收;最后的像素颜色是沿着光线累积的;
其中,γd是深度率,D是当前采样点的可视深度,而Dfar和Dnear用来定义深度范围;
根据公式(1)获得深度率,定义当前采样点的RGB颜色值为公式(3)
C=(1.0-γd,0,γd) (3)。
优选地,所述步骤(5)中,表面法向量n垂直于观察方向ν,是理想的轮廓,它只出现一条曲线,曲面的法向量由局部梯度g直接估计;三维数据采用三维标量场的形式,两个向量之间的角度由ν·n的点积来估计,角度值为arccos(|ν·n|),利用上述变量,根据公式(4)得到基本的轮廓因子
κ=eS(θ-ψ) (4)
其中两个输入参数:(a)S∈N+控制轮廓的锐度;(b)ψ∈[0;π/2]
是角度值的阈值,可以控制轮廓的厚度;轮廓系数κ用来调节体积采样的颜色不透明度。
优选地,所述步骤(5)中,对于较小θ的部分表面,不透明度变得更加透明,较小的ψ值产生较粗的轮廓线,较大的S值产生较尖的轮廓线,上述轮廓可视化方法直接基于三维体数据梯度。
本领域普通技术人员可以理解,实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,所述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,包括上述实施例方法的各步骤,而所述的存储介质可以是:ROM/RAM、磁碟、光盘、存储卡等。因此,与本发明的方法相对应的,本发明还同时包括一种增强2D/3D图像融合中深度感知的可视化装置,该装置通常以与方法各步骤相对应的功能模块的形式表示。该装置包括:
数据获取模块,其配置来获取三维数据场;
数据预处理模块,其配置来对数据进行预处理;
数据分类模块,其配置来对数据进行分类;
深度颜色编码模块,其配置来将深度颜色编码作用于采样点的颜色信息:对颜色赋值,发出射线或者再采样,将数据用于采样点颜色值;
边缘轮廓增强模块,其配置来将边缘轮廓增强作用于采样点透明度信息:对不透明度赋值,发出射线或者再采样,将数据用于采样点不透明度值;
图像合成模块,其配置来通过图像合成得到最后渲染图像的颜色,这些可视化概念在不隐藏二维信息的情况下有效地增强了空间信息。
以下更详细地说明本发明。
图1为深度颜色编码的示意图。
如果将额外的深度信息编码为彩色,则可显著改善单一x射线图像的深度感知。本发明提出了一种基于一维深度的传输函数的体绘制方法,该方法在绘制只发射模型时对颜色的深度进行编码。假设2D和3D图像已经在空间上配准好,则深度可以看作是z方向到x射线源的距离,使用了一个类似彩虹的传递函数,它将深度映射到颜色,如图1所示。根据惯例,选择以下颜色深度编码方案:红色表示靠近观察者的吸收,绿色表示中心附近的吸收,蓝色表示远处的吸收;在某些情况下,仅使用两种颜色表示远近可能更容易理解。最后的像素颜色是沿着光线累积的。
式中,γd是深度率,D是当前采样点的可视深度,而Dfar和Dnear用来定义深度范围。
根据深度率,可以定义当前采样点的RGB颜色值为
或者,采用以下伪彩色深度编码方案
C=(1.0-γd,0,γd) (3)。
图2为血管的轮廓增强的示意图。
边缘轮廓是血管结构的重要特征。如图2所示,在理想的情况下,表面法向量n垂直于观察方向ν所提供一个更直观的可视化、邻近地区被认为是理想的轮廓,它只出现一条曲线。因为没有中间几何表面或多边形网格生成等,曲面的法向量由局部梯度g直接估计。三维数据采用三维标量场的形式。两个向量之间的角度由ν·n的点积来估计,即角度值为arccos(|ν·n|)。利用上述变量,可以得到基本的轮廓因子,提出的公式为
κ=es(θ-ψ) (4)
该公式提供了修改轮廓可视化属性的两个单独选项,即锐度和厚度。两个输入参数:(a)S∈N+控制轮廓的锐度;(b)ψ∈[0;π/2]是角度值的阈值,可以控制轮廓的厚度。轮廓系数κ是用来调节体积采样的颜色不透明度。对于较小θ的部分表面,不透明度变得更加透明。一般来说,较小的ψ值产生较粗的轮廓线,较大的S值产生较尖的轮廓线。上述轮廓可视化方法直接基于三维体数据梯度。
图3和图4示出了光线投射算法的原理和实现过程。
光线投射算法以图像空间为序对体数据进行绘制,首先对于图像空间的每一个像素点f(x,y),投射一条方向与视线方向相同的射线,这条射线以步长m穿过数据场,同时在这条射线上选取k个等距的采样点,对于每一个采样点,选择离该采样点最近的8个数据点的颜色和不透明度作线性插值计算,从而计算出当前采样点的不透明度值和颜色值。在得到这条射线上所有采样点的颜色值和不透明度值后,将它们进行前向或后向合成,这样就求出了像素点的颜色值,从而使得最终的图像呈现在屏幕上,见图3。由于该算法原理简单,易于实现透视投影,且绘制图像质量较高,因此适合应用于医学图像的三维重建。光线投射算法的绘制流程如图4所示。
本发明通过改进光线投射算法,深度颜色编码作用于采样点的颜色信息,边缘轮廓增强作用于采样点透明度信息,得到最后渲染图像的颜色。轮廓绘制不是以统一的方式调节三维叠加的不透明度,而是实现了轮廓的高不透明度和血管之间的高透明度,深度颜色编码进一步促进了增强轮廓深度感知。
以上所述,仅是本发明的较佳实施例,并非对本发明作任何形式上的限制,凡是依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属本发明技术方案的保护范围。

Claims (8)

1.一种增强2D/3D图像融合中深度感知的可视化方法,其特征在于:其包括以下步骤:
(1)获取三维数据场;
(2)对数据进行预处理;
(3)对数据进行分类,根据数据的特征是否相同对数据进行分类并赋予相应的颜色值与不透明度;
(4)将深度颜色编码作用于采样点的颜色信息:对颜色赋值,发出射线或者再采样,将数据用于采样点颜色值;
(5)将边缘轮廓增强作用于采样点透明度信息:对不透明度赋值,发出射线或者再采样,将数据用于采样点不透明度值;
(6)通过图像合成得到最后渲染图像的颜色,这些可视化概念在不隐藏二维信息的情况下有效地增强了空间信息。
2.根据权利要求1所述的增强2D/3D图像融合中深度感知的可视化方法,其特征在于:所述步骤(1)中,以图像空间为序对体数据进行绘制。
3.根据权利要求2所述的增强2D/3D图像融合中深度感知的可视化方法,其特征在于:所述步骤(2)中,对于图像空间的每一个像素点f(x,y),投射一条方向与视线方向相同的射线,这条射线以步长m穿过数据场在这条射线上选取k个等距的采样点,对于每一个采样点,选择离该采样点最近的8个数据点的颜色和不透明度作线性插值计算,从而计算出当前采样点的不透明度值和颜色值。
4.根据权利要求3所述的增强2D/3D图像融合中深度感知的可视化方法,其特征在于:所述步骤(4)中,假设2D和3D图像已经在空间上配准好,则深度看作是z方向到x射线源的距离,使用一个类似彩虹的传递函数,它将深度映射到颜色;选择以下颜色深度编码方案:红色表示靠近观察者的吸收,绿色表示中心附近的吸收,蓝色表示远处的吸收;最后的像素颜色是沿着光线累积的;
其中,γd是深度率,D是当前采样点的可视深度,而Dfar和Dnear用来定义深度范围;
根据公式(1)获得深度率,定义当前采样点的RGB颜色值为公式(2)
5.根据权利要求3所述的增强2D/3D图像融合中深度感知的可视化方法,其特征在于:所述步骤(4)中,假设2D和3D图像已经在空间上配准好,则深度看作是z方向到x射线源的距离,使用一个类似彩虹的传递函数,它将深度映射到颜色;选择以下颜色深度编码方案:红色表示靠近观察者的吸收,绿色表示中心附近的吸收,蓝色表示远处的吸收;最后的像素颜色是沿着光线累积的;
其中,γd是深度率,D是当前采样点的可视深度,而Dfar和Dnear用来定义深度范围;
根据公式(1)获得深度率,定义当前采样点的RGB颜色值为公式(3)
C=(1.0-γd,0,γd) (3)。
6.根据权利要求4或5所述的增强2D/3D图像融合中深度感知的可视化方法,其特征在于:所述步骤(5)中,表面法向量n垂直于观察方向ν,是理想的轮廓,它只出现一条曲线,曲面的法向量由局部梯度g直接估计;三维数据采用三维标量场的形式,两个向量之间的角度由ν·n的点积来估计,角度值为arccos(|ν·n|),利用上述变量,根据公式(4)得到基本的轮廓因子
κ=eS(θ-ψ) (4)
其中两个输入参数:(a)S∈N+控制轮廓的锐度;(b)ψ∈[0;π/2]是角度值的阈值,可以控制轮廓的厚度;轮廓系数κ用来调节体积采样的颜色不透明度。
7.根据权利要求6所述的增强2D/3D图像融合中深度感知的可视化方法,其特征在于:所述步骤(5)中,对于较小θ的部分表面,不透明度变得更加透明,较小的ψ值产生较粗的轮廓线,较大的S值产生较尖的轮廓线,上述轮廓可视化方法直接基于三维体数据梯度。
8.一种增强2D/3D图像融合中深度感知的可视化装置,其特征在于:该装置包括:
数据获取模块,其配置来获取三维数据场;
数据预处理模块,其配置来对数据进行预处理;
数据分类模块,其配置来根据数据的特征是否相同对数据进行分类并赋予相应的颜色值与不透明度;
深度颜色编码模块,其配置来将深度颜色编码作用于采样点的颜色信息:对颜色赋值,发出射线或者再采样,将数据用于采样点颜色值;
边缘轮廓增强模块,其配置来将边缘轮廓增强作用于采样点透明度信息:对不透明度赋值,发出射线或者再采样,将数据用于采样点不透明度值;
图像合成模块,其配置来通过图像合成得到最后渲染图像的颜色,这些可视化概念在不隐藏二维信息的情况下有效地增强了空间信息。
CN202010183820.4A 2020-03-16 2020-03-16 一种增强2d/3d图像融合中深度感知的可视化方法及装置 Active CN111445508B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010183820.4A CN111445508B (zh) 2020-03-16 2020-03-16 一种增强2d/3d图像融合中深度感知的可视化方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010183820.4A CN111445508B (zh) 2020-03-16 2020-03-16 一种增强2d/3d图像融合中深度感知的可视化方法及装置

Publications (2)

Publication Number Publication Date
CN111445508A CN111445508A (zh) 2020-07-24
CN111445508B true CN111445508B (zh) 2023-08-08

Family

ID=71650503

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010183820.4A Active CN111445508B (zh) 2020-03-16 2020-03-16 一种增强2d/3d图像融合中深度感知的可视化方法及装置

Country Status (1)

Country Link
CN (1) CN111445508B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112618026B (zh) * 2020-12-15 2022-05-31 清华大学 远程手术数据融合交互显示系统及方法
CN112967192A (zh) * 2021-02-22 2021-06-15 艾瑞迈迪医疗科技(北京)有限公司 基于2d/3d血管融合的深度感知增强方法及装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7250949B2 (en) * 2003-12-23 2007-07-31 General Electric Company Method and system for visualizing three-dimensional data
WO2006099490A1 (en) * 2005-03-15 2006-09-21 The University Of North Carolina At Chapel Hill Methods, systems, and computer program products for processing three-dimensional image data to render an image from a viewpoint within or beyond an occluding region of the image data
US20150065877A1 (en) * 2013-08-30 2015-03-05 General Electric Company Method and system for generating a composite ultrasound image

Also Published As

Publication number Publication date
CN111445508A (zh) 2020-07-24

Similar Documents

Publication Publication Date Title
US7480402B2 (en) System and method for producing an augmented image of an organ of a patient
US20210104055A1 (en) Systems and methods for object positioning and image-guided surgery
US20110254845A1 (en) Image processing method and image processing apparatus
US20070098299A1 (en) Image fusion processing method, processing program, and processing device
JP5808146B2 (ja) 画像処理システム、装置及び方法
EP2831845B1 (en) Visual suppression of selective tissue in image data
US20130190602A1 (en) 2d3d registration for mr-x ray fusion utilizing one acquisition of mr data
CN111445508B (zh) 一种增强2d/3d图像融合中深度感知的可视化方法及装置
Lawonn et al. Illustrative visualization of vascular models for static 2D representations
US20110082667A1 (en) System and method for view-dependent anatomic surface visualization
US9445082B2 (en) System, apparatus, and method for image processing
CN111784727B (zh) 基于3d/2d配准应用于血管介入手术导航的方法及装置
JP2008543477A (ja) カーブした細長い構造の切断面を視覚化する方法
EP2084667B1 (en) Fused perfusion and functional 3d rotational angiography rendering
CN112634196A (zh) 一种基于智慧医疗的医学图像分割与显示方法
US9093013B2 (en) System, apparatus, and method for image processing and medical image diagnosis apparatus
JP5289966B2 (ja) インターベンショナル手順中、シルエットレンダリング及び画像を表示するための画像処理システム及び方法
CN111243082A (zh) 获得数字影像重建图像的方法、系统、装置及存储介质
Jainek et al. Illustrative hybrid visualization and exploration of anatomical and functional brain data
CN112508874A (zh) 基于智慧医疗的脑血管病变标记与三维显示系统
CN112669256A (zh) 一种基于迁移学习的医学图像分割与显示方法
CN110660470A (zh) 后处理和显示三维血管造影图像数据集的方法和呈现装置
Zhou et al. Robust single-view cone-beam x-ray pose estimation with neural tuned tomography (nett) and masked neural radiance fields (mnerf)
Yun et al. Improvement of inter-slice resolution based on 2D CNN with thin bone structure-aware on head-and-neck CT images
CN112967192A (zh) 基于2d/3d血管融合的深度感知增强方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant