CN115035001A - 基于dsa成像设备的术中导航系统、计算装置和程序产品 - Google Patents

基于dsa成像设备的术中导航系统、计算装置和程序产品 Download PDF

Info

Publication number
CN115035001A
CN115035001A CN202210958589.0A CN202210958589A CN115035001A CN 115035001 A CN115035001 A CN 115035001A CN 202210958589 A CN202210958589 A CN 202210958589A CN 115035001 A CN115035001 A CN 115035001A
Authority
CN
China
Prior art keywords
plane
interventional instrument
blood vessel
image
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210958589.0A
Other languages
English (en)
Other versions
CN115035001B (zh
Inventor
刘春燕
解菁
王琳
吕志聪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Wemed Medical Equipment Co Ltd
Original Assignee
Beijing Wemed Medical Equipment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Wemed Medical Equipment Co Ltd filed Critical Beijing Wemed Medical Equipment Co Ltd
Priority to CN202210958589.0A priority Critical patent/CN115035001B/zh
Publication of CN115035001A publication Critical patent/CN115035001A/zh
Application granted granted Critical
Publication of CN115035001B publication Critical patent/CN115035001B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/481Diagnostic techniques involving the use of contrast agents
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biophysics (AREA)
  • Quality & Reliability (AREA)
  • Robotics (AREA)
  • Physiology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

本申请涉及基于DSA成像设备的术中导航系统、计算装置和程序产品。该术中导航系统包括DSA成像设备,在术中通过注射低剂量的造影剂,获取包含血管的第一平面图像和第二平面图像以及包含介入器械的实时的第三平面图像和第四平面图像。还包括处理器,配置为获取所述平面图像;并对平面图像利用第一学习网络进行降噪处理;基于降噪后的平面图像分别提取血管、介入器械在两个平面的2D位置信息;基于血管和介入器械的2D位置信息,分别利用第二学习网络来重建出3D血管、3D介入器械;将3D介入器械与3D血管进行配准融合,得到示出介入器械与血管的相对位置关系的三维实时图像以供显示。降低辐射剂量,提高导航的精准度和实效性。

Description

基于DSA成像设备的术中导航系统、计算装置和程序产品
技术领域
本申请涉及手术导航技术领域,更具体地,涉及基于DSA成像设备的术中导航系统、计算装置和程序产品。
背景技术
近年来,在常规的DSA造影图像中,血管位置经常交互重叠,需要进行多次投照来确定,迫使患者增加照射计量、检查时间、造影剂用量、经济负担,也增加了设备损耗,对介入机器人无法起到导航指引作用。
当前的导航技术包括基于二维图像或基于三维图像的导航技术。其中基于三维图像的导航技术主要是通过术前三维图像与术中的二维图像通过图像配准来实现。该技术主要有两个问题:第一是术前三维图像和术中的实际形态可能存在差异;第二是二维图像与三维图像的配准存在精准度的问题和实效性问题。基于二维图像的导航技术由于缺少一个维度的空间信息,所以信息的缺失造成功能的不完备。当前基于二维图像或基于三维图像的导航技术具有精度差和实效性差等的问题。
发明内容
提供了本申请以解决现有技术中存在的上述缺陷。需要基于DSA成像设备的术中导航系统、计算装置和程序产品,能够获得清晰的介入器械和血管的三维实时图像,降低辐射剂量,能够得到示出介入器械与血管的相对位置关系的三维实时图像,提高对介入器械术中导航的精准度和实效性,有助于提高手术的效率和成功率。
根据本申请的第一方案,提供了基于DSA成像设备的术中导航系统,包括DSA(数字减影血管造影)成像设备,其配置为在术中,通过注射低剂量的造影剂,获取包含血管的第一平面图像和第二平面图像以及包含介入器械的实时的第三平面图像和第四平面图像。所述术中导航系统还包括处理器,处理器可以配置为获取所述第一平面图像、所述第二平面图像、所述第三平面图像和所述第四平面图像。所述处理器还可以配置为对第一平面图像、第二平面图像、第三平面图像和第四平面图像利用第一学习网络进行降噪处理。所述处理器还可以配置为基于降噪后的第一平面图像和第二平面图像分别提取血管在第一平面和第二平面的2D位置信息,基于降噪后的第三平面图像和第四平面图像分别提取介入器械在第三平面和第四平面的2D位置信息。所述处理器还可以配置为基于血管在第一平面和第二平面的2D位置信息,利用第二学习网络来重建出3D血管,所述3D血管具有血管的3D位置信息。所述处理器还可以配置为基于介入器械在第三平面和第四平面的2D位置信息,利用所述第二学习网络来重建出3D介入器械,所述3D介入器械具有介入器械的3D位置信息。所述处理器还可以配置为将所述3D介入器械与所述3D血管进行配准融合,得到示出介入器械与血管的相对位置关系的三维实时图像以供显示。
根据本申请的第二方案,提供了一种用于术中导航系统的计算装置,所述计算装置包括处理器,所述处理器被配置为获取,由DSA成像设备在术中通过注射低剂量的造影剂而采集的包含血管的第一平面图像和第二平面图像以及包含介入器械的实时的第三平面图像和第四平面图像。所述处理器还可以被配置为对所述第一平面图像、所述第二平面图像、所述第三平面图像和所述第四平面图像利用第一学习网络进行降噪处理。所述处理器还可以被配置为基于降噪后的第一平面图像和第二平面图像分别提取血管在第一平面和第二平面的2D位置信息,基于降噪后的第三平面图像和第四平面图像分别提取介入器械在第三平面和第四平面的2D位置信息。所述处理器还可以被配置为基于血管在第一平面和第二平面的2D位置信息,利用第二学习网络来重建出3D血管,所述3D血管具有血管的3D位置信息。所述处理器还可以被配置为基于介入器械在第三平面和第四平面的2D位置信息,利用所述第二学习网络来重建出3D介入器械,所述3D介入器械具有介入器械的3D位置信息。所述处理器还可以被配置为将所述3D介入器械与所述3D血管进行配准融合,得到示出介入器械与血管的相对位置关系的三维实时图像以供显示。
根据本申请的第三方案,提供了一种用于术中导航系统的计算机程序产品,其包括由处理器执行时实现如下步骤的程序指令:获取由DSA成像设备在术中通过注射低剂量的造影剂而采集的包含血管的第一平面图像和第二平面图像以及包含介入器械的实时的第三平面图像和第四平面图像。所述处理器还可以实现对所述第一平面图像、所述第二平面图像、所述第三平面图像和所述第四平面图像利用第一学习网络进行降噪处理。所述处理器还可以实现基于降噪后的第一平面图像和第二平面图像分别提取血管在第一平面和第二平面的2D位置信息,基于降噪后的第三平面图像和第四平面图像分别提取介入器械在第三平面和第四平面的2D位置信息。所述处理器还可以实现基于血管在第一平面和第二平面的2D位置信息,利用第二学习网络来重建出3D血管,所述3D血管具有血管的3D位置信息。所述处理器还可以实现基于介入器械在第三平面和第四平面的2D位置信息,利用所述第二学习网络来重建出3D介入器械,所述3D介入器械具有介入器械的3D位置信息。所述处理器还可以实现将所述3D介入器械与所述3D血管进行配准融合,得到示出介入器械与血管的相对位置关系的三维实时图像以供显示。
本申请各个实施例提供的基于DSA成像设备的术中导航系统、计算装置和程序产品,利用DSA成像设备通过注射低剂量的造影剂,获取包含血管的平面图像,另外还获得包含介入器械的平面图像,通过第一学习网络降噪处理可以得到清晰的平面图像,有利于从图像中提取精准度高的信息,可以使用低剂量的造影剂,降低辐射剂量。通过第二学习网络重建分别得到3D血管和3D介入器械,通过配准融合,可以清晰的映射出3D血管和3D介入器械的相对位置关系,通过三维实时图像的显示有利于对介入器械进行术中导航,提高用户在术中进行介入器械的实时的三维导航的实效性,有利于提高介入器械到目标位置的过程中行进准确性,有助于提高手术的效率和成功率。
附图说明
图1示出根据本申请实施例的基于DSA成像设备的术中导航系统的结构示意图;
图2示出根据本申请实施例的DSA成像设备的成像原理示意图;
图3示出根据本申请实施例的术中导航系统的处理器的工作过程的示意图;
图4示出根据本申请实施例的处理器降噪后的包含血管的第一平面图像;
图5示出根据本申请实施例的处理器降噪后的包含血管的第二平面图像;
图6示出根据本申请实施例的提取血管2D位置信息的工作原理的示意图;
图7示出根据本申请实施例的提取介入器械2D位置信息的工作原理的示意图;
图8示出根据本申请实施例的三维实时图像;
图9示出根据本申请另一实施例的三维实时图像;
图10示出根据本申请实施例的处理器生成规划路线的工作过程的示意图;
图11示出根据本申请实施例的在不同情况下获得的运动参数的示意图;
图12示出根据本申请实施例的处理器生成机器人的操控参数的原理示意图;
图13示出根据本申请实施例的第二学习网络结构示意图;以及
图14示出根据本申请实施例的计算装置结构示意图。
具体实施方式
为使本领域技术人员更好的理解本申请的技术方案,下面结合附图和具体实施方式对本申请作详细说明。下面结合附图和具体实施例对本申请的实施例作进一步详细描述,但不作为对本申请的限定。
本申请中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分。“包括”或者“包含”等类似的词语意指在该词前的要素涵盖在该词后列举的要素,并不排除也涵盖其他要素的可能。
图1示出根据本申请实施例的基于DSA成像设备的术中导航系统的结构示意图。术中导航系统100包括DSA成像设备101和处理器102。DSA成像设备101获得的图像输送到处理器102中进行进一步处理。在一些实施例中,术中血管动态变化较少(血管在术中保持稳定),介入器械可以响应于医生的操作而灵活地动态变化,通过DSA成像设备的实时成像能够获得介入器械的实时平面图像,血管平面图像和介入器械的实时平面图像通过处理器获得三维实时图像,得到介入器械与血管的相对位置关系,提高术中导航实效性。在一些实施例中,处理器可以是包括一个以上通用处理设备的处理设备,诸如微处理器、中央处理单元(CPU)、图形处理单元(GPU)等。更具体地,该处理器可以是复杂指令集计算(CISC)微处理器、精简指令集计算(RISC)微处理器、超长指令字(VLIW)微处理器、运行其他指令集的处理器或运行指令集的组合的处理器。该处理器还可以是一个以上专用处理设备,诸如专用集成电路(ASIC)、现场可编程门阵列(FPGA)、数字信号处理器(DSP)、片上系统(SoC)等。
图2示出根据本申请实施例的DSA成像设备的成像原理示意图。DSA成像设备,配置为在术中,通过血管中注射低剂量的造影剂,获取包含血管的第一平面图像201和第二平面图像202。可以在不注射造影剂时获得包含介入器械的实时的第三平面图像和第四平面图像。通过图2可以看到,两个平面图像是对同一部位的不同角度的双平面图像,获取不同角度的信息,有利于重建出血管网的三维结构,获得更加精准的图像信息,利于提高手术的精准度。其中介入器械可以是导丝,导管,球囊,支架等任何一种或多种医用器械。在一些实施例中,为了获取包含血管的第一平面图像和第二平面图像,术中注射的低剂量的造影剂,所述造影剂的剂量为手术透视情况下常规剂量的20%-35%。通过对平面图像的降噪处理,所述造影剂的剂量远低于常规剂量,可以实现在低剂量下获得清晰的平面图像,能够降低辐射剂量。
图3示出根据本申请实施例的术中导航系统的处理器的工作过程的示意图。在步骤301,获取第一平面图像、所述第二平面图像、所述第三平面图像和所述第四平面图像。DSA成像设备得到的图像输送到处理器。接下来在步骤302,对第一平面图像、第二平面图像、第三平面图像和第四平面图像利用第一学习网络进行降噪处理。通过DSA成像设备获得的双平面图像具有不清晰的问题,即使通过常规的分割处理,仍然在图像上会出现点状雾噪声,通过第一学习网络的降噪处理,可以在术中导航的应用场景下,迅速高效地解决平面图像上的点状雾的噪声和统计涨落较大导致图像上部分血管部位模糊的问题,避免模糊的位置无法看到血管和介入器械的相对位置关系,导致导航的偏差。本申请通过降噪处理能够提高术中导航的精准度。由于通过降噪处理后可以得到清晰的图像,利于在获取血管的平面图像过程中,注射低剂量的造影剂,降低辐射量。在一些实施例中,第一学习网络可以包括生成式对抗网络、DnCNN等中的任何一种。
作为示例,图4为示出根据本申请实施例的处理器降噪后的包含血管的第一平面图像。图5示出根据本申请实施例的处理器降噪后的包含血管的第二平面图像。如图4和图5所示的包含血管的第一平面图像和第二平面图像,可以看到足够清晰的血管分布和结构。接下来在步骤303,基于降噪后的第一平面图像和第二平面图像分别提取血管在第一平面和第二平面的2D位置信息,基于降噪后的第三平面图像和第四平面图像分别提取介入器械在第三平面和第四平面的2D位置信息。通过对平面图像的信息提取可以分别获得双平面的位置信息,有利于进行三维重建。
图6示出根据本申请实施例的提取血管2D位置信息的工作原理的示意图。如图6所示,例如,降噪后的第一平面图像601通过血管分割603得到血管在第一平面的2D位置信息604,降噪后的第二平面图像602通过血管分割603得到血管在第二平面的2D位置信息605。图7示出根据本申请实施例的提取介入器械2D位置信息的工作原理的示意图。如图7所示,例如,降噪后的第三平面图像701通过介入器械分割703得到介入器械在第三平面的2D位置信息704,降噪后的第四平面图像702通过介入器械分割703得到介入器械在第二平面的2D位置信息705。进一步,深度学习网络可以是深入理解深度学习分割网络U-Net、生成对抗网络GAN等神经网络。进一步,所述深度学习网络是基于训练的神经网络。可以输入血管分割结果进行训练。有利于提高分割结果的准确性。通过对降噪后的图像进行分割处理,可以进一步区分血管和介入器械与周围组织,使血管图像和介入器械图像更加清晰。
接下来在步骤304,基于血管在第一平面和第二平面的2D位置信息,利用第二学习网络来重建出3D血管,所述3D血管具有血管的3D位置信息。通过不同角度的二维平面上提取的2D位置信息能够互相补充,有利于获得更为准确的血管的三维信息,避免由于信息缺失导致的功能不完全,能够复现一些精细的结构,比如某个旋转的血管或者被其他血管覆盖住的血管,如果只通过一个平面的信息可能无法补全血管的结构,可能导致结构的缺失,本申请中通过双平面2D位置信息进行重建,提高精准度。在步骤305,基于介入器械在第三平面和第四平面的2D位置信息,利用所述第二学习网络来重建出3D介入器械,所述3D介入器械具有介入器械的3D位置信息。通过不同角度的二维平面上提取的2D位置信息的能够互相补充,有利于获得准确的介入器械的三维信息。介入器械是变动的,通过利用DSA成像设备获得双平面图像,经过上述降噪、提取、三维重建的过程,利于获得精准度更高的三维实时图像。在一些实施例中,基于介入器械的2D位置信息重建3D介入器械的学习网络可以复用基于血管的2D位置信息重建3D血管的学习网络(均称为第二学习网络),如此,第二学习网络的标注数据来源更丰富(血管标注数据和介入器械标注数据都涵盖在内),而且训练时可以针对血管标注数据和介入器械标注数据进行联合训练,从而使得训练好的第二学习网络在重建3D血管和重建3D介入器械表现都均衡且良好。例如,第二学习网络包括但不限于U-Net分割网络,ResNet(深度残差网络),UNet++分割网络等中的一种或多种。
在步骤306,将所述3D介入器械与所述3D血管进行配准融合,得到示出介入器械与血管的相对位置关系的三维实时图像以供显示。在三维实时图像上同时显示血管和介入器械的位置,可以清晰的看到血管和介入器械的相对位置关系,比如介入器械和血管的方位关系、在血管的上游或下游等。医护人员通过三维实时图像可以清晰的看到介入器械所在的位置,便于进行术中导航。不必进行复杂的图像配准过程,降低耗时,提高手术的效率和成功率。通过获得三维实时图像,进行导航指引,可以提高术中导航的实效性。
图8示出根据本申请实施例的三维实时图像。图9示出根据本申请另一实施例的三维实时图像。图8和图9中介入器械是导丝,在三维实时图像可以同时看到血管、导丝及相互的位置关系。以此在相互位置信息的指引下,在术中可以为导丝的操作进行导航。导丝动作后,再通过获取导丝的实时图像,可以实时发现导丝与血管的相对位置,以此可以持续实时的进行导丝的导航。
图10示出根据本申请实施例的处理器生成规划路线的工作过程的示意图。首先处理器在步骤1001,根据所述三维实时图像利用第三学习网络识别病变部位,并映射到所述三维实时图像上。通过第三学习网络可以自动识别病变部位,比如狭窄、动脉瘤等。所述识别过程可以为:在三维实时图像上先识别血管的异常部位,再将所述异常部位确认为病变部位。所述三维实时图像能够显示清晰的血管三维分布和结构等,有利于进行识别过程。
接下来在步骤1003,响应于用户1002确定目标的操作,根据所确定的目标和3D介入器械生成规划路线。通过步骤1001,在三维实时图像上可以显示病变部位,用户1002通过显示的病变部位进行确认,比如医生可以根据经验对识别的病变部位进行确认。用户1002确认后,处理器收到响应,然后返回到处理器中进行处理,根据目标和介入器械生成规划路线。在三维实时图像上目标和介入器械都是确定的,然后再根据路径确定规划路线。比如根据手术目标和识别出的导丝确定规划路线的起点和终点,根据起点和终点自动生成介入器械行进路线,此行进路线一般为规划的最优路线。根据规划路线进行术中导航,可以提高手术的精准度和成功率,并且根据最优路线可以提高手术的效率。
在一些实施例中,所述处理器进一步配置为:基于所述介入器械的当前的3D位置信息、所述目标的3D位置信息以及所述规划路线,来生成机器人操控指令,所述机器人操控指令定义机器人的操控参数。在术中介入器械的位置是动态的,通过实时判别获得介入器械的位置与规划路线、目标位置的关系可以获得机器人的下一步操作。机器人的指令和机器人的操控参数进行转换机器人就可以按照操控参数进行操作,以此来完成术中的操作过程。
图11示出根据本申请实施例的在不同情况下获得的机器人操控指令的示意图。处理器根据介入器械的当前的3D位置信息1101、目标的3D位置信息1102、规划路线1103,进行判断过程1104。判断过程1104为判断介入器械的当前位置与目标位置、规划路线的关系。判断过程1104可以得到四种结果,分别是介入器械的当前的位置在规划路线上,且位于目标位置的正后方(如1105所示)、介入器械的当前的位置不在规划路线上(如1106所示)、介入器械的当前的位置位于目标位置的侧方(如1107所示)、介入器械的当前的位置与目标重合(如1108所示)。1105所示的结果生成的操控指令如1109所示,操控指令1109为继续推进,并更新现在位置。1106所示的结果生成的操控指令如1110所示,操控指令1110为偏航预警,询问是否回退到规划路线。1107所示的结果生成的操控指令如1111所示,操控指令1111为转向操作。获得1105、1106、1107中的操作指令之后,下一步还是会进行操作获得1101,即获得实时的介入器械的当前的3D位置信息,以进行获得下一次的操作指令,实现实时的导航过程。直到出现1108所示的结果,则进行下一步骤1112,步骤1112为结束导航。以此完成术中导航过程。
图12示出根据本申请实施例的处理器生成机器人的操控参数的原理示意图。首先,步骤1201,预先利用第四学习网络来习得介入器械的运动参数与所述机器人的操控参数之间的映射关系。第四学习网络可以为CNN(卷积神经网络)、MLP(多层感知机)等。
接下来在步骤1202,基于所述介入器械的当前的3D位置信息、所述目标的3D位置信息以及所述规划路线,确定所述介入器械的运动参数。所述运动参数可以包括运动的位移和方向等。处理器根据操控指令,再结合坐标系和目标位置、规划路线可以得到介入器械的运动参数。
最后在步骤1203,所确定的介入器械的运动参数,利用所述映射关系得出所述机器人的操控参数。机器人的操控参数直接影响介入器械的运动过程,通过映射转换,可以使机器人的操控响应于介入器械的运动参数,达到最终的目标位置,实现基于导航的机器人智能化介入手术。
在一些实施例中,DSA成像设备获得双平面图像,所述第一平面和所述第二平面的夹角范围以及所述第三平面和所述第四平面的夹角范围均为40-120°。比如可以是80°、90°等,如果是90°,相当于获得相互垂直的两个平面的图像。两个平面的上的信息可以相互补充,通过夹角角度的限制有利于选取更为全面的血管和导丝信息,利于重建得到三维血管信息和三维导丝信息。
在一些实施例中,第一学习网络包括生成式对抗网络,且利用在低噪图像上掺杂高斯噪声和/或泊松噪声所形成的高噪图像和所述低噪图像作为训练样本来训练。低噪的清晰的图像中掺杂一定比例的高斯噪声和/或泊松噪声模拟得到高噪声的图像和低噪的清晰的图像共同作为训练的样本。所述低躁的清晰的图像可以预先通过高剂量的造影剂进行显影获得。训练得到的第一学习网络可以使真实的高噪图像通过降噪之后得到低噪高清图像。
在一些实施例中,所述DSA成像设备具有预先建立的本地空间坐标系,且配置为执行双平面成像,使得所述第一平面和所述第三平面在相同平面上,且所述第二平面和所述第四平面在相同平面上。DSA成像设备上配置的本地空间坐标系,可以先获得第一平面图像,然后按照第一平面图像的空间坐标,获得空间坐标相同的导丝的第三平面图像。获得同一平面上的血管和导丝的2D位置信息,使后续的将3D介入器械与3D血管进行配准融合,能够更加准确的体现血管和介入器械的相对的位置,有利于进行术中导航。在一些实施例中,本地空间坐标系包括九参数的空间坐标系,九参数包括X射线源到平板探测器的距离SDD、X射线源到旋转中心的距离SID、平板探测器中心位置在X方向的偏移δ1、平板探测器中心位置在Y方向的偏移δ2、X射线源位置在X方向的偏移δ3、X射线源位置在Y方向的偏移δ4、机架围绕病床的旋转轴的旋转角度β、机架围绕垂直于病床的空间竖直方向的旋转轴的旋转角度γ和平板探测器在平板探测器平面的旋转角度α。进一步,通过全参数几何校准方法进行几何参数的求解。在一些实施例中,全参数几何校准方法包括如下步骤:在几何模体上设置有小球,以旋转中心为坐标原点建立空间坐标系,将平板探测器的位置及X射线源的位置用几何参数进行表示;将几何模体放置于旋转中心,对几何模体进行三维扫描获取系统二维投影图像,采用训练后的神经网络模型识别所述系统二维投影图像中每个小球对应的圆心,将圆心位置作为系统二维投影中小球位置I1;获取在空间坐标系内几何模体上的每个小球位置I3(x,y,z),通过RTK技术利用当前几何参数构建投影矩阵,根据投影矩阵获取投影关系P,利用投影关系P和小球位置I3(x,y,z)计算虚拟投影图中小球位置I2(u,v);通过I2(u,v)与相应的I1构建二者之间的差异函数,通过拟合对差异函数求取最小值,当差异函数最小时,对应的投影矩阵内的参数为最优几何参数,完成几何参数的校准。
在一些实施例中,所述血管在术中保持稳定,且所述第一平面图像和所述第二平面图像通过在注射低剂量的造影剂后获取且获取的时刻不同于获取所述第三平面图像和所述第四平面图像的时刻。在术中保持稳定的血管例如但不限于外周血管、四肢血管、脑部血管等,这些部位的血管不同于心脏紧密连接进而被带动周期性搏动的血管。血管的分布和结构等动态变化较少,介入器械比如导丝,在伸入到病变位置的过程中是动态变化的。所以通过注射低剂量的造影剂获得第一平面图像和第二平面图像。在不注射造影剂时,通过DSA成像设备能够获得导丝的平面图像。血管和介入器械的获取时刻可以不同,鉴于血管在术中保持相对稳定,即便利用获取时刻不同的血管的第一平面图像和第二平面图像,也可以建立这样的3D血管,其基本近似介入器械的第三和第四平面图像的获取时刻的3D血管。如此,恰好也吻合了血管平面图像依赖于造影剂的注射而介入器械平面图像获取时通常不注射造影剂的固有获取时刻差异。通过获取不同时刻的介入器械的平面图像,以便于进行后续的实时的术中导航。
在一些实施例中,所述血管的3D位置信息包括血管在所述本地空间坐标系中的3D坐标,所述介入器械的3D位置信息包括介入器械在所述本地空间坐标系中的3D坐标。获得在同一本地空间坐标系内的血管和介入器械的三维坐标,可以分别得到在同一坐标系上的血管和介入器械的图像。
在一些实施例中,将所述3D介入器械与所述3D血管进行配准融合具体包括:将3D介入器械和3D血管的3D坐标重合的部分重叠融合。将血管和介入器械的三维坐标的几何位置信息进行重叠,可以得到融合后的图像,图像上可以清晰的映射出血管和导丝的相对位置关系,可以看到目前介入器械位于血管的哪个位置,以便于生成介入器械的运动参数。
图13示出根据本申请实施例的第二学习网络结构示意图。第二学习网络1300将血管和介入器械的双平面的2D位置信息重建得到3D位置信息。第二学习网络1300包括特征提取网络1301、转换模块1302和生成网络1303,所特征提取网络1301包括类残差网络,所述转换模块包括卷积神经网络,所述生成网络1303包括生成式对抗网络。将双平面图像上获取的2D信息作为数据集输入到第二学习网络1300,特征提取网络1301提取图像上的特征信息,转换模块1302转换特征图的形状,生成网络1303在此基础上进而实时获得三维血管和三维介入器械,获得的三维血管具有明确的数字管壁的信息。通过基于深度学习的第二学习网络1300获得清晰的三维血管成像和实时的三维介入器械成像,提高精准度和实效性。在一些实施例中,特征提取网络1301由以下层组成:卷积层(核大小为4,步距为2),批归一化层,RELU层,2D卷积层(核大小为3,步距为1),2D批归一化层,RELU层,将5个含有不同卷积滤波器个数的卷积残块串联起来,构成特征提取网络;转换模块,将得到的特征图通过核大小为1的卷积层和ReLU层后,转换特征图形状,从4096×4×4转换为2048×2×4×4。生成网络主要为三维反卷积块,由五个串联的反卷积块组成,其模块主要由以下层组成:3D反卷积层(核大小为4,步距为2),3D批归一化层,RELU层,3D反卷积层(核大小为3,步距为1),3D批归一化层,RELU层。
在一些实施例中,所述第三学习网络包括YOLO网络、R-CNN网络(区域卷积神经网络)等中的一种。根据三维实时图像利用第三学习网络识别病变部位,单阶段目标检测算法YOLO网络具有识别速度快,可进行实时检测的优点。以此实现在术中实时获取病变位置,快速确定手术目标,以利于确定介入器械的终点,然后再根据介入器械的起点确定规划路线,提高手术的实效性。
图14示出根据本申请实施例的计算装置结构示意图。计算装置1401包括处理器1401a。所述处理器1401a与DSA成像设备1402通信连接,以获取实时图像。具体的,所述处理器1401a被配置为:获取,由DSA成像设备1402在术中通过注射低剂量的造影剂而采集的包含血管的第一平面图像和第二平面图像以及包含介入器械的实时的第三平面图像和第四平面图像;并对所述第一平面图像、所述第二平面图像、所述第三平面图像和所述第四平面图像利用第一学习网络进行降噪处理。
所述处理器1401a进一步被配置为:基于降噪后的第一平面图像和第二平面图像分别提取血管在第一平面和第二平面的2D位置信息,基于降噪后的第三平面图像和第四平面图像分别提取介入器械在第三平面和第四平面的2D位置信息。
所述处理器1401a进一步被配置为:基于血管在第一平面和第二平面的2D位置信息,利用第二学习网络来重建出3D血管,所述3D血管具有血管的3D位置信息;并基于介入器械在第三平面和第四平面的2D位置信息,利用所述第二学习网络来重建出3D介入器械,所述3D介入器械具有介入器械的3D位置信息。以及将所述3D介入器械与所述3D血管进行配准融合,得到示出介入器械与血管的相对位置关系的三维实时图像以供显示。
根据本申请的实施例还提供一种非暂时性计算机可读介质,其上存储有指令,该指令由处理器执行时,实现的步骤为获取,由DSA成像设备在术中通过注射低剂量的造影剂而采集的包含血管的第一平面图像和第二平面图像以及包含介入器械的实时的第三平面图像和第四平面图像;并对所述第一平面图像、所述第二平面图像、所述第三平面图像和所述第四平面图像利用第一学习网络进行降噪处理。
指令由处理器执行时,进一步实现的步骤为基于降噪后的第一平面图像和第二平面图像分别提取血管在第一平面和第二平面的2D位置信息,基于降噪后的第三平面图像和第四平面图像分别提取介入器械在第三平面和第四平面的2D位置信息。
指令由处理器执行时,进一步实现的步骤为基于血管在第一平面和第二平面的2D位置信息,利用第二学习网络来重建出3D血管,所述3D血管具有血管的3D位置信息;并基于介入器械在第三平面和第四平面的2D位置信息,利用所述第二学习网络来重建出3D介入器械,所述3D介入器械具有介入器械的3D位置信息;以及将所述3D介入器械与所述3D血管进行配准融合,得到示出介入器械与血管的相对位置关系的三维实时图像以供显示。
根据本申请的实施例还提供一种用于术中导航系统的计算机程序产品,其包括由处理器执行时实现如下步骤的程序指令:获取,由DSA成像设备在术中通过注射低剂量的造影剂而采集的包含血管的第一平面图像和第二平面图像以及包含介入器械的实时的第三平面图像和第四平面图像;并对所述第一平面图像、所述第二平面图像、所述第三平面图像和所述第四平面图像利用第一学习网络进行降噪处理。
由处理器执行时,进一步实现如下步骤的程序指令:基于降噪后的第一平面图像和第二平面图像分别提取血管在第一平面和第二平面的2D位置信息,基于降噪后的第三平面图像和第四平面图像分别提取介入器械在第三平面和第四平面的2D位置信息。
由处理器执行时,进一步实现如下步骤的程序指令:基于血管在第一平面和第二平面的2D位置信息,利用第二学习网络来重建出3D血管,所述3D血管具有血管的3D位置信息;并基于介入器械在第三平面和第四平面的2D位置信息,利用所述第二学习网络来重建出3D介入器械,所述3D介入器械具有介入器械的3D位置信息;以及将所述3D介入器械与所述3D血管进行配准融合,得到示出介入器械与血管的相对位置关系的三维实时图像以供显示。
此外,尽管已经在本文中描述了示例性实施例,其范围包括任何和所有基于本申请的具有等同元件、修改、省略、组合(例如,各种实施例交叉的方案)、改编或改变的实施例。权利要求书中的元件将被基于权利要求中采用的语言宽泛地解释,并不限于在本说明书中或本申请的实施期间所描述的示例,其示例将被解释为非排他性的。因此,本说明书和示例旨在仅被认为是示例,真正的范围和精神由以下权利要求以及其等同物的全部范围所指示。
以上描述旨在是说明性的而不是限制性的。例如,上述示例(或其一个或更多方案)可以彼此组合使用。例如本领域普通技术人员在阅读上述描述时可以使用其它实施例。另外,在上述具体实施方式中,各种特征可以被分组在一起以简单化本申请。这不应解释为一种不要求保护的申请的特征对于任一权利要求是必要的意图。相反,本申请的主题可以少于特定的申请的实施例的全部特征。从而,以下权利要求书作为示例或实施例在此并入具体实施方式中,其中每个权利要求独立地作为单独的实施例,并且考虑这些实施例可以以各种组合或排列彼此组合。本发明的范围应参照所附权利要求以及这些权利要求赋权的等同形式的全部范围来确定。
以上实施例仅为本申请的示例性实施例,不用于限制本发明,本发明的保护范围由权利要求书限定。本领域技术人员可以在本申请的实质和保护范围内,对本发明做出各种修改或等同替换,这种修改或等同替换也应视为落在本发明的保护范围内。

Claims (14)

1.基于DSA成像设备的术中导航系统,其特征在于,包括:
DSA成像设备,其配置为:在术中,通过注射低剂量的造影剂,获取包含血管的第一平面图像和第二平面图像以及包含介入器械的实时的第三平面图像和第四平面图像;以及
处理器,其配置为:
获取所述第一平面图像、所述第二平面图像、所述第三平面图像和所述第四平面图像;
对第一平面图像、第二平面图像、第三平面图像和第四平面图像利用第一学习网络进行降噪处理;
基于降噪后的第一平面图像和第二平面图像分别提取血管在第一平面和第二平面的2D位置信息,基于降噪后的第三平面图像和第四平面图像分别提取介入器械在第三平面和第四平面的2D位置信息;
基于血管在第一平面和第二平面的2D位置信息,利用第二学习网络来重建出3D血管,所述3D血管具有血管的3D位置信息;
基于介入器械在第三平面和第四平面的2D位置信息,利用所述第二学习网络来重建出3D介入器械,所述3D介入器械具有介入器械的3D位置信息;
将所述3D介入器械与所述3D血管进行配准融合,得到示出介入器械与血管的相对位置关系的三维实时图像以供显示。
2.根据权利要求1所述的术中导航系统,其特征在于,所述处理器进一步配置为:根据所述三维实时图像利用第三学习网络识别病变部位,并映射到所述三维实时图像上;响应于用户确定目标的操作,根据所确定的目标和3D介入器械生成规划路线。
3.根据权利要求2所述的术中导航系统,其特征在于,所述处理器进一步配置为:基于所述介入器械的当前的3D位置信息、所述目标的3D位置信息以及所述规划路线,来生成机器人操控指令,所述机器人操控指令定义机器人的操控参数。
4.根据权利要求3所述的术中导航系统,其特征在于,所述处理器进一步配置为:预先利用第四学习网络来习得介入器械的运动参数与所述机器人的操控参数之间的映射关系;基于所述介入器械的当前的3D位置信息、所述目标的3D位置信息以及所述规划路线,确定所述介入器械的运动参数;基于所确定的介入器械的运动参数,利用所述映射关系得出所述机器人的操控参数。
5.根据权利要求1-4中任何一项所述的术中导航系统,其特征在于,所述造影剂的剂量为手术透视情况下常规剂量的20%-35%。
6.根据权利要求1-4中任何一项所述的术中导航系统,其特征在于,所述第一平面和所述第二平面的夹角范围以及所述第三平面和所述第四平面的夹角范围均为40-120°。
7.根据权利要求1-4中任何一项所述的术中导航系统,其特征在于,第一学习网络包括生成式对抗网络,且利用在低噪图像上掺杂高斯噪声和/或泊松噪声所形成的高噪图像和所述低噪图像作为训练样本来训练。
8.根据权利要求1-4中任何一项所述的术中导航系统,其特征在于,所述DSA成像设备具有预先建立的本地空间坐标系,且配置为执行双平面成像,使得所述第一平面和所述第三平面在相同平面上,且所述第二平面和所述第四平面在相同平面上。
9.根据权利要求8所述的术中导航系统,其特征在于,所述血管在术中保持稳定,且所述第一平面图像和所述第二平面图像通过在注射低剂量的造影剂后获取且获取的时刻不同于获取所述第三平面图像和所述第四平面图像的时刻。
10.根据权利要求8所述的术中导航系统,其特征在于,所述血管的3D位置信息包括血管在所述本地空间坐标系中的3D坐标,所述介入器械的3D位置信息包括介入器械在所述本地空间坐标系中的3D坐标,
将所述3D介入器械与所述3D血管进行配准融合具体包括:将3D介入器械和3D血管的3D坐标重合的部分重叠融合。
11.根据权利要求1-4中任何一项所述的术中导航系统,其特征在于,所述第二学习网络包括特征提取网络、转换模块和生成网络,所述特征提取网络包括类残差网络,所述转换模块包括卷积神经网络,所述生成网络包括生成式对抗网络。
12.根据权利要求2-4中任何一项所述的术中导航系统,其特征在于,所述第三学习网络包括YOLO网络、R-CNN网络中的一种。
13.用于术中导航系统的计算装置,所述计算装置包括处理器,所述处理器被配置为:
获取,由DSA成像设备在术中通过注射低剂量的造影剂而采集的包含血管的第一平面图像和第二平面图像以及包含介入器械的实时的第三平面图像和第四平面图像;
对所述第一平面图像、所述第二平面图像、所述第三平面图像和所述第四平面图像利用第一学习网络进行降噪处理;
基于降噪后的第一平面图像和第二平面图像分别提取血管在第一平面和第二平面的2D位置信息,基于降噪后的第三平面图像和第四平面图像分别提取介入器械在第三平面和第四平面的2D位置信息;
基于血管在第一平面和第二平面的2D位置信息,利用第二学习网络来重建出3D血管,所述3D血管具有血管的3D位置信息;
基于介入器械在第三平面和第四平面的2D位置信息,利用所述第二学习网络来重建出3D介入器械,所述3D介入器械具有介入器械的3D位置信息;以及
将所述3D介入器械与所述3D血管进行配准融合,得到示出介入器械与血管的相对位置关系的三维实时图像以供显示。
14.用于术中导航系统的计算机程序产品,其包括由处理器执行时实现如下步骤的程序指令:
获取,由DSA成像设备在术中通过注射低剂量的造影剂而采集的包含血管的第一平面图像和第二平面图像以及包含介入器械的实时的第三平面图像和第四平面图像;
对所述第一平面图像、所述第二平面图像、所述第三平面图像和所述第四平面图像利用第一学习网络进行降噪处理;
基于降噪后的第一平面图像和第二平面图像分别提取血管在第一平面和第二平面的2D位置信息,基于降噪后的第三平面图像和第四平面图像分别提取介入器械在第三平面和第四平面的2D位置信息;
基于血管在第一平面和第二平面的2D位置信息,利用第二学习网络来重建出3D血管,所述3D血管具有血管的3D位置信息;
基于介入器械在第三平面和第四平面的2D位置信息,利用所述第二学习网络来重建出3D介入器械,所述3D介入器械具有介入器械的3D位置信息;以及
将所述3D介入器械与所述3D血管进行配准融合,得到示出介入器械与血管的相对位置关系的三维实时图像以供显示。
CN202210958589.0A 2022-08-11 2022-08-11 基于dsa成像设备的术中导航系统、计算装置和程序产品 Active CN115035001B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210958589.0A CN115035001B (zh) 2022-08-11 2022-08-11 基于dsa成像设备的术中导航系统、计算装置和程序产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210958589.0A CN115035001B (zh) 2022-08-11 2022-08-11 基于dsa成像设备的术中导航系统、计算装置和程序产品

Publications (2)

Publication Number Publication Date
CN115035001A true CN115035001A (zh) 2022-09-09
CN115035001B CN115035001B (zh) 2022-12-09

Family

ID=83130937

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210958589.0A Active CN115035001B (zh) 2022-08-11 2022-08-11 基于dsa成像设备的术中导航系统、计算装置和程序产品

Country Status (1)

Country Link
CN (1) CN115035001B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116153473A (zh) * 2023-04-20 2023-05-23 杭州朗博康医疗科技有限公司 一种医疗图像显示方法、装置、电子设备及存储介质
CN116912430A (zh) * 2023-09-14 2023-10-20 北京唯迈医疗设备有限公司 用于构建远程介入手术室的三维数字孪生系统的装置

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090016483A1 (en) * 2007-07-10 2009-01-15 Kabushiki Kaisha Toshiba X-ray apparatus, image processing display apparatus and computer program product
CN103268630A (zh) * 2013-05-22 2013-08-28 北京工业大学 一种基于血管内超声影像的血管三维可视化方法
CN110998602A (zh) * 2017-06-30 2020-04-10 普罗马顿控股有限责任公司 使用深度学习方法对3d牙颌面结构的分类和3d建模
CN111160135A (zh) * 2019-12-12 2020-05-15 太原理工大学 基于改进的Faster R-cnn的尿红细胞病变识别与统计方法和系统
CN111329589A (zh) * 2020-04-07 2020-06-26 张海民 一种手持式智能融合造影导航系统
CN111784727A (zh) * 2020-06-17 2020-10-16 北京理工大学 基于3d/2d配准应用于血管介入手术导航的方法及装置
CN112057110A (zh) * 2019-05-22 2020-12-11 深圳市德力凯医疗设备股份有限公司 一种三维血管超声图像的成像方法及超声术中导航设备
CN112348883A (zh) * 2020-11-24 2021-02-09 中国科学院自动化研究所 血管介入手术中介入器械端点实时定位系统、方法、装置
CN112488953A (zh) * 2020-12-10 2021-03-12 深圳先进技术研究院 一种医学图像降噪方法、系统、终端以及存储介质
CN112698653A (zh) * 2020-12-23 2021-04-23 南京中朗智能技术有限公司 基于深度学习的机器人自主导航控制方法及系统
CN112967379A (zh) * 2021-03-03 2021-06-15 西北工业大学深圳研究院 一种基于感知一致生成对抗网络的三维医学图像重建方法
CN114795468A (zh) * 2022-04-19 2022-07-29 首都医科大学附属北京天坛医院 一种血管内治疗的术中导航方法及其系统

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090016483A1 (en) * 2007-07-10 2009-01-15 Kabushiki Kaisha Toshiba X-ray apparatus, image processing display apparatus and computer program product
CN103268630A (zh) * 2013-05-22 2013-08-28 北京工业大学 一种基于血管内超声影像的血管三维可视化方法
CN110998602A (zh) * 2017-06-30 2020-04-10 普罗马顿控股有限责任公司 使用深度学习方法对3d牙颌面结构的分类和3d建模
CN112057110A (zh) * 2019-05-22 2020-12-11 深圳市德力凯医疗设备股份有限公司 一种三维血管超声图像的成像方法及超声术中导航设备
CN111160135A (zh) * 2019-12-12 2020-05-15 太原理工大学 基于改进的Faster R-cnn的尿红细胞病变识别与统计方法和系统
CN111329589A (zh) * 2020-04-07 2020-06-26 张海民 一种手持式智能融合造影导航系统
CN111784727A (zh) * 2020-06-17 2020-10-16 北京理工大学 基于3d/2d配准应用于血管介入手术导航的方法及装置
CN112348883A (zh) * 2020-11-24 2021-02-09 中国科学院自动化研究所 血管介入手术中介入器械端点实时定位系统、方法、装置
CN112488953A (zh) * 2020-12-10 2021-03-12 深圳先进技术研究院 一种医学图像降噪方法、系统、终端以及存储介质
CN112698653A (zh) * 2020-12-23 2021-04-23 南京中朗智能技术有限公司 基于深度学习的机器人自主导航控制方法及系统
CN112967379A (zh) * 2021-03-03 2021-06-15 西北工业大学深圳研究院 一种基于感知一致生成对抗网络的三维医学图像重建方法
CN114795468A (zh) * 2022-04-19 2022-07-29 首都医科大学附属北京天坛医院 一种血管内治疗的术中导航方法及其系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
杜秋平等: "基于图像云模型语义标注的条件生成对抗网络", 《模式识别与人工智能》 *
邢珍珍等: "基于深度学习的2D/3D图像配准方法在脊柱微创导航手术中的应用", 《护理研究》 *
郑欣等: "基于YOLO模型的宫颈细胞簇团智能识别方法", 《液晶与显示》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116153473A (zh) * 2023-04-20 2023-05-23 杭州朗博康医疗科技有限公司 一种医疗图像显示方法、装置、电子设备及存储介质
CN116153473B (zh) * 2023-04-20 2023-09-01 杭州朗博康医疗科技有限公司 一种医疗图像显示方法、装置、电子设备及存储介质
CN116912430A (zh) * 2023-09-14 2023-10-20 北京唯迈医疗设备有限公司 用于构建远程介入手术室的三维数字孪生系统的装置
CN116912430B (zh) * 2023-09-14 2023-12-15 北京唯迈医疗设备有限公司 用于构建远程介入手术室的三维数字孪生系统的装置

Also Published As

Publication number Publication date
CN115035001B (zh) 2022-12-09

Similar Documents

Publication Publication Date Title
CN110946654B (zh) 一种基于多模影像融合的骨科手术导航系统
CN115035001B (zh) 基于dsa成像设备的术中导航系统、计算装置和程序产品
US8942457B2 (en) Navigating an interventional device
US8126241B2 (en) Method and apparatus for positioning a device in a tubular organ
JP2966089B2 (ja) 不均質組織内部における局部手術用対話型装置
EP2800516B1 (en) Real-time display of vasculature views for optimal device navigation
US7756308B2 (en) Registration of three dimensional image data to 2D-image-derived data
JP3589505B2 (ja) 3次元画像処理表示装置
Baert et al. Three-dimensional guide-wire reconstruction from biplane image sequences for integrated display in 3-D vasculature
AU2015238800B2 (en) Real-time simulation of fluoroscopic images
US11127153B2 (en) Radiation imaging device, image processing method, and image processing program
CN107392922A (zh) 基于对称性匹配滤波器组和区域生长的三维血管分割方法
US10849583B2 (en) Medical image diagnostic apparatus and medical image processing apparatus
CN115511997A (zh) 一种血管造影图像处理方法和系统
CN103340602B (zh) 多分支感兴趣血管段的最佳视角优化方法
US8467850B2 (en) System and method to determine the position of a medical instrument
US20230095242A1 (en) Method and system for multi-modality joint analysis of vascular images
Nguyen et al. Medical micro-robot navigation using image processing-blood vessel extraction and X-ray calibration
EP2081495A2 (en) Method and apparatus for positioning a therapeutic device in a tubular organ dilated by an auxiliary device balloon
Lee et al. An instantiability index for intra-operative tracking of 3D anatomy and interventional devices
Ainchil Cayuela 3D vessel reconstruction based on intra-operative intravascular ultrasound for robotic autonomous catheter navigation
Fu et al. Vascular Interventional Surgery Path Planning and 3D Visual Navigation
Ortuño et al. Registration and fusion of contrast-enhanced MRI myocardial substrate maps and X-ray angiograms
CN115813555A (zh) 基于跨模态图像精准配准超声穿刺导航系统、方法和介质
CN117078630A (zh) 一种基于导航标尺的x光图像的空间定位方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant