CN116531092A - 基于多模态图像融合的血管介入手术导航方法及装置 - Google Patents
基于多模态图像融合的血管介入手术导航方法及装置 Download PDFInfo
- Publication number
- CN116531092A CN116531092A CN202310470057.7A CN202310470057A CN116531092A CN 116531092 A CN116531092 A CN 116531092A CN 202310470057 A CN202310470057 A CN 202310470057A CN 116531092 A CN116531092 A CN 116531092A
- Authority
- CN
- China
- Prior art keywords
- coronary
- image
- vessel
- guide wire
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 230000004927 fusion Effects 0.000 title claims abstract description 55
- 230000002792 vascular Effects 0.000 title claims abstract description 18
- 210000004351 coronary vessel Anatomy 0.000 claims abstract description 128
- 238000002586 coronary angiography Methods 0.000 claims abstract description 52
- 210000004204 blood vessel Anatomy 0.000 claims description 99
- 230000011218 segmentation Effects 0.000 claims description 64
- 238000000605 extraction Methods 0.000 claims description 32
- 238000013135 deep learning Methods 0.000 claims description 22
- 238000010801 machine learning Methods 0.000 claims description 11
- 238000002583 angiography Methods 0.000 claims description 10
- 238000013152 interventional procedure Methods 0.000 claims description 10
- 238000001356 surgical procedure Methods 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000003745 diagnosis Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000002872 contrast media Substances 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 238000002601 radiography Methods 0.000 description 2
- 210000001519 tissue Anatomy 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 238000012631 diagnostic technique Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000004872 soft tissue Anatomy 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/68—Analysis of geometric attributes of symmetry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/301—Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/303—Surgical robots specifically adapted for manipulations within body lumens, e.g. within lumen of gut, spine, or blood vessels
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30172—Centreline of tubular or elongated structure
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Robotics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Gynecology & Obstetrics (AREA)
- Geometry (AREA)
- Quality & Reliability (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本发明属于手术导航技术领域,公开了一种基于多模态图像融合的血管介入手术导航方法及装置。该方法包括:取术前冠脉图像和实时冠脉造影图像,其中,所述术前冠脉图像为3D‑CTA数据,所述实时冠脉造影图像为2D‑DSA数据;定导丝的深入冠脉长度,其中,所述深入冠脉长度为导丝从冠脉入口点伸入至导丝末端点对应位置的长度;通过所述实时冠脉造影图像确定所述导丝所在冠脉血管的血管名称;基于所述血管名称以及所述深入冠脉长度,匹配到导丝末端点在所述术前冠脉图像中的实时位置。通过上述方式,能够精准地显示出导丝末端点的实时位置。
Description
技术领域
本发明涉及手术导航技术领域,尤其涉及一种基于多模态图像融合的血管介入手术导航方法及装置。
背景技术
冠脉造影是一种有创的诊断技术,广泛应用与临床中,医生通常动态实时的通过术中2D造影图像(如DSA)作为引导图像。然而,这种模态图像是通过投影原理所采集,因此缺少了三维空间的深度信息。由于投影造成的组织重叠现象,使得医生在手术中难以清晰和直观地进行介入方式和治疗方案的精准决策。而术前的CTA具有较好的三维信息,通过三维重建可以直观、立体地呈现血管的三维空间信息,可以衍生3D VR、血管横断面、3D MIP、面CPR、线CPR、切片图,CT-FFR的功能性信息。因此,将实时的2D造影图像与具有空间结构信息的CTA图像进行融合,能够从多方面快速辅助医生进行精准诊断。
目前多模态(3D/2D)图像融合技术是基于冠脉中心线的配准方法,即通过2D图像获取的中心线与3D图像获取的中心线进行配准,但是这两种模态对应的中心线长度以及形态均不一致,且在进行中心线配准时常常会因为图像中冠脉造影入口位置不清晰而无法准确获取导丝起始点的位置信息,这均会导致出现中心线配准不佳,从而影响造影冠脉与术前冠脉的配准准确性。
发明内容
本发明的主要目的在于提供一种基于多模态图像融合的血管介入手术导航方法及装置,旨在解决现有技术中因2D图像中心线与3D图像中心线配准不佳而影响导丝末端点实时位置的精准显示的技术问题。
为实现上述目的,本发明提供了一种基于多模态图像融合的血管介入手术导航方法,所述方法包括以下步骤:
获取术前冠脉图像和实时冠脉造影图像,其中,所述术前冠脉图像为3D-CTA数据,所述实时冠脉造影图像为2D-DSA数据;
将所述术前冠脉图像输入至训练好的3D分割模型中,得到3D血管初分割结果;
基于Region grow算法或者机器学习算法确定所述3D血管初分割结果中的3D血管中心线提取结果,/或基于minimal-path确定所述3D血管初分割结果中的3D血管中心线提取结果;
通过深度学习或匹配方法对所述3D血管中心线提取结果中的所有中心线进行命名,以完成对所述术前冠脉图像中冠脉血管中心线的命名;
确定导丝的深入冠脉长度,其中,所述深入冠脉长度为导丝从冠脉入口点伸入至导丝末端点对应位置的长度;
通过所述实时冠脉造影图像确定所述导丝所在冠脉血管的血管名称;
基于所述血管名称以及所述深入冠脉长度,匹配到导丝末端点在所述术前冠脉图像中的实时位置。
可选地,所述确定导丝的深入冠脉长度,包括:
确定介入机器人中的齿轮转速以及驱动设备直径;
根据所述齿轮转速、所述驱动设备直径、运动状态以及运动时间,确定所述导丝的向前长度/回撤长度;
基于所述向前长度/回撤长度以及标记冠脉入口为导丝起点位置,确定导丝的深入冠脉长度。
可选地,所述通过所述实时冠脉造影图像确定所述导丝所在冠脉血管的血管名称,包括:
将所述实时冠脉造影图像输入至训练好的造影血管命名模型,得到所述导丝所在冠脉血管的血管名称分类的预测结果;
根据所述预测结果确定所述导丝所在冠脉血管的血管名称。
可选地,在将所述实时冠脉造影图像输入至训练好的造影血管命名模型之前,还包括:
将带有标签数据的DSA数据输入至深度学习网络,得到导丝所在冠脉血管的预测分类结果;
基于所述标签数据与所述预测分类结果,确定交叉熵损失;
基于所述交叉熵损失来更新所述造影血管命名模型中的参数,以得到训练好的造影血管命名模型。
可选地,在获取术前冠脉图像之后,还包括:
将所述术前冠脉图像输入至训练好的3D分割模型中,得到3D血管初分割结果;
基于Region grow算法或者机器学习算法确定所述3D血管初分割结果中的3D血管中心线提取结果;或,
基于minimal-path确定所述3D血管初分割结果中的3D血管中心线提取结果;
通过深度学习或匹配方法对所述3D血管中心线提取结果中的所有中心线进行命名。
可选地,在将所述术前冠脉图像输入至训练好的3D分割模型中之前,还包括:
将标注有真实血管信息的CTA数据输入至3D分割模型中,得到预测血管信息;
基于所述真实血管信息以及所述预测血管信息,确定预测误差;
基于所述预测误差通过反向传播来更新所述3D分割模型中的参数,以得到训练好的3D分割模型。
可选地,所述基于所述血管名称以及所述深入冠脉长度,匹配到导丝末端点在所述术前冠脉图像中的具体位置,包括:
根据所述血管名称,确定所述导丝在所述术前冠脉图像中的位置;
基于所述位置以及所述深入冠脉长度,匹配到导丝末端点在所述术前冠脉图像中的实时位置。
此外,为实现上述目的,本发明还提出一种基于多模态图像融合的血管介入手术导航装置,所述基于多模态图像融合的血管介入手术导航装置包括:
获取模块,用于获取术前冠脉图像和实时冠脉造影图像,其中,所述术前冠脉图像为3D-CTA数据,所述实时冠脉造影图像为2D-DSA数据;
确定模块,用于将所述术前冠脉图像输入至训练好的3D分割模型中,得到3D血管初分割结果;
所述确定模块,用于基于Region grow算法或者机器学习算法确定所述3D血管初分割结果中的3D血管中心线提取结果,/或基于minimal-path确定所述3D血管初分割结果中的3D血管中心线提取结果;
命名模块,用于通过深度学习或匹配方法对所述3D血管中心线提取结果中的所有中心线进行命名,以完成对所述术前冠脉图像中冠脉血管中心线的命名;
所述确定模块,还用于基于所述血管名称以及所述深入冠脉长度,匹配到导丝末端点在所述术前冠脉图像中的实时位置;
所述确定模块,用于通过所述实时冠脉造影图像确定所述导丝所在冠脉血管的血管名称;
匹配模块,用于基于所述血管名称以及所述深入冠脉长度,匹配到导丝末端点在所述术前冠脉图像中的实时位置。
此外,为实现上述目的,本发明还提出一种基于多模态图像融合的血管介入手术导航设备,所述基于多模态图像融合的血管介入手术导航设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的基于多模态图像融合的血管介入手术导航程序,所述基于多模态图像融合的血管介入手术导航程序配置为实现如上文所述的基于多模态图像融合的血管介入手术导航方法的步骤。
此外,为实现上述目的,本发明还提出一种存储介质,所述存储介质上存储有基于多模态图像融合的血管介入手术导航程序,所述基于多模态图像融合的血管介入手术导航程序被处理器执行时实现如上文所述的基于多模态图像融合的血管介入手术导航方法的步骤。
本发明提供的基于多模态图像融合的血管介入手术导航方法,获取术前冠脉图像和实时冠脉造影图像,其中,所述术前冠脉图像为3D-CTA数据,所述实时冠脉造影图像为2D-DSA数据;将所述术前冠脉图像输入至训练好的3D分割模型中,得到3D血管初分割结果;基于Region grow算法或者机器学习算法确定所述3D血管初分割结果中的3D血管中心线提取结果,/或基于minimal-path确定所述3D血管初分割结果中的3D血管中心线提取结果;通过深度学习或匹配方法对所述3D血管中心线提取结果中的所有中心线进行命名,以完成对所述术前冠脉图像中冠脉血管中心线的命名;确定导丝的深入冠脉长度,其中,所述深入冠脉长度为导丝从冠脉入口点伸入至导丝末端点对应位置的长度;通过所述实时冠脉造影图像确定所述导丝所在冠脉血管的血管名称;基于所述血管名称以及所述深入冠脉长度,匹配到导丝末端点在所述术前冠脉图像中的实时位置。通过上述方式,先是通过从DSA图像中获取导丝所在冠脉血管的血管名称以及获取导丝的深入冠脉长度,再根据血管名称以及深入冠脉长度来确定导末端点丝在术前冠脉图像中的对应位置,进而能够精准有效地确定导丝末端点在术前冠脉图像中的实时位置,从而能够辅助医生从多方面角度对患者的病灶位置进行精准诊断。
附图说明
图1是本发明实施例方案涉及的硬件运行环境的基于多模态图像融合的血管介入手术导航设备的结构示意图;
图2为本发明基于多模态图像融合的血管介入手术导航方法第一实施例的流程示意图;
图3为本发明基于多模态图像融合的血管介入手术导航方法第一实施例中用于预测导丝所在冠脉血管的血管名称的深度学习网络结构图;
图4为本发明基于多模态图像融合的血管介入手术导航方法第二实施例的流程示意图;
图5为本发明基于多模态图像融合的血管介入手术导航方法第二实施例的多模态图;
图6为本发明基于多模态图像融合的血管介入手术导航装置第一实施例的结构框图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
参照图1,图1为本发明实施例方案涉及的硬件运行环境的基于多模态图像融合的血管介入手术导航设备结构示意图。
如图1所示,该基于多模态图像融合的血管介入手术导航设备可以包括:处理器1001,例如中央处理器(Central Processing Unit,CPU),通信总线1002、用户接口1003,网络接口1004,存储器1005。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如无线保真(Wireless-Fidelity,Wi-Fi)接口)。存储器1005可以是高速的随机存取存储器(Random Access Memory,RAM)存储器,也可以是稳定的非易失性存储器(Non-Volatile Memory,NVM),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的结构并不构成对基于多模态图像融合的血管介入手术导航设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及基于多模态图像融合的血管介入手术导航程序。
在图1所示的基于多模态图像融合的血管介入手术导航设备中,网络接口1004主要用于与网络服务器进行数据通信;用户接口1003主要用于与用户进行数据交互;本发明基于多模态图像融合的血管介入手术导航设备中的处理器1001、存储器1005可以设置在基于多模态图像融合的血管介入手术导航设备中,所述基于多模态图像融合的血管介入手术导航设备通过处理器1001调用存储器1005中存储的基于多模态图像融合的血管介入手术导航程序,并执行本发明实施例提供的基于多模态图像融合的血管介入手术导航方法。
基于上述硬件结构,提出本发明基于多模态图像融合的血管介入手术导航方法实施例。
参照图2,图2为本发明一种基于多模态图像融合的血管介入手术导航方法第一实施例的流程示意图。
本实施例中,所述基于多模态图像融合的血管介入手术导航方法包括以下步骤:
步骤S10:获取术前冠脉图像和实时冠脉造影图像,其中,所述术前冠脉图像为3D-CTA数据,所述实时冠脉造影图像为2D-DSA数据。
需要说明的是,本实施例的执行主体可以是一种具有数据处理、网络通信以及程序运行功能的计算服务设备,例如手机、平板电脑、个人电脑等,或者是一种能够实现上述功能的电子设备或基于多模态图像融合的血管介入手术导航设备。以下以所述基于多模态图像融合的血管介入手术导航设备为例,对本实施例及下述各实施例进行说明。
需要说明的是,术前冠脉图像是在进行介入手术之前获取到的病人的CTA图像,CTA图像是通过CT血管成像获取到的,是CT临床应用中一个非常重要的部分,由于冠脉血管及其背景软组织自然对比差,常规CT平扫往往难以显示冠脉血管。在行CTA检查的时候,需要引入对比剂,改变冠脉血管与背景组织的影像对比,从而突显出冠脉血管。术前的CTA图像是3D图像,具有较好的三维信息,通过对CTA图像进行三维重建可以直观、立体地呈现冠脉血管的三维空间信息,还可以通过CTA图像衍生3DVR、血管横断面、3D MIP、面CPR、线CPR、切片图以及CT-FFR等功能性信息。实时冠脉造影图像是医生在进行介入手术过程中实时获取到的病人的冠脉造影图像即DSA图像,是2D数据,医生在进行介入手术时,可以通过向冠脉中注射造影剂,从而使得冠脉血管显影,再通过X射线拍摄而取得的清晰影像。在进行介入手术时,医生需要将导丝伸入至冠脉中,因此,实时冠脉造影图像是有导丝的冠脉造影图像。
可以理解的是,通过将实时的2D造影图像与具有空间结构信息的CTA图像进行融合,能够帮助医生在介入手术的过程中将患者的斑块信息、冠脉功能性信息以影像的形式进行呈现,故而能够从多方面快速辅助医生进行精准诊断。
步骤S20:将所述术前冠脉图像输入至训练好的3D分割模型中,得到3D血管初分割结果。
需要说明的是,3D分割模型是深度学习网络。
需要说明的是,将术前冠脉图像输入至训练好的3D分割模型中,能够将术前冠脉图像的冠脉血管分割出来。
步骤S30:基于Region grow算法或者机器学习算法确定所述3D血管初分割结果中的3D血管中心线提取结果,/或基于minimal-path确定所述3D血管初分割结果中的3D血管中心线提取结果。
步骤S40:通过深度学习或匹配方法对所述3D血管中心线提取结果中的所有中心线进行命名,以完成对所述术前冠脉图像中冠脉血管中心线的命名。
在具体实现中,可根据冠脉入口点在术前冠脉图像中的位置O以及导丝末端点在术前冠脉图像中的实时位置来从3D血管中心线提取结果确定OP段中心线,再根据OP段中心线获取冠脉形态学影像信息或功能性信息,如图5所示,能够通过术前冠脉图像的3D VR、血管横断面、3D MIP、面CPR、线CPR、切片图为医生呈现更全面丰富的冠脉及手术导航信息。
步骤S50:确定导丝的深入冠脉长度,其中,所述深入冠脉长度为导丝从冠脉入口点伸入至导丝末端点对应位置的长度。
需要说明的是,在进行介入手术时,需要将导丝伸入至冠脉血管中,医生一般通过控制介入机器人来控制导丝运动,故在确定导丝的深入冠脉长度时可以通过介入机器人来确定。
需要说明的是,导丝末端点即为导丝的当前远端端点,即在当前时刻下导丝上距离介入机器人最远的点,也是导丝的运动起始点,由于导丝的另一末端点固定于介入机器人上,故本发明提到的导丝末端点均指的是在当前时刻下导丝上距离介入机器人最远的点。
可以理解的是,由于导丝在伸进冠脉时是沿着冠脉中心线前进或者后退的,故导丝的深入冠脉长度相当于冠脉入口点至导丝的当前远端端点的冠脉中心线长度。
在具体实现中,还可以通过外部设备户或者介入机器人来确定导丝的深入冠脉长度。
在一实施例中,所述通过介入机器人确定导丝的深入冠脉长度,包括:
确定介入机器人中的齿轮转速以及驱动设备直径;
根据所述齿轮转速、所述驱动设备直径、运动状态以及运动时间,确定所述导丝的向前长度/回撤长度;
基于所述向前长度/回撤长度以及标记冠脉入口为导丝起点位置,确定导丝的深入冠脉长度。
需要说明的是,运动状态指的是导丝向前运动或者是导丝回撤。
需要说明的是,根据所述齿轮转速、所述驱动设备直径以及运动时间,确定所述导丝的向前长度/回撤长度的公式为:L=0.5R*V*T,式中,L表示导丝的向前长度/回撤长度,R表示驱动设备直径,T表示运动时间。
在具体实现中,介入机器人的齿轮转速为10rad/s,驱动设备直径为0.2m,运动时间为0.1s,那么可以根据L=0.5R*V*T确定导丝的向前长度/回撤长度为0.1m。
需要说明的是,已知导丝在t1时刻下的深入冠脉长度,那么可以根据t1时刻到t2时刻的之前导丝的向前长度/回撤长度来确定导丝在t2时刻下的深入冠脉长度。
需要说明的是,由于导丝大部分区域为透明的无特征结构,直接根据实时术中冠脉影像来检测导丝的深入冠脉长度是非常困难的。
在本实施例中,通过介入机器人来确定导丝的向前长度/回撤长度从而确定导丝的深入冠脉长度,能够快速且精准地获取到导丝的深入冠脉长度,从而有效提高导丝末端点实时位置的显示精准度。
步骤S60:通过所述实时冠脉造影图像确定所述导丝所在冠脉血管的血管名称。
需要说明的是,除了导丝头部和导丝末端,导丝的大部分区域为透明的无特征结构。
在具体实现中,由于导丝头部以及导丝末端为非透明结构,故可以通过对实时冠脉造影图像进行图像处理来获取导丝的当前远端端点在实时冠脉造影图像位置,再根据导丝的当前远端端点的位置来确定导丝所在冠脉血管的血管名称。
在一实施例中,所述通过所述实时冠脉造影图像确定所述导丝所在冠脉血管的血管名称,包括:
将所述实时冠脉造影图像输入至训练好的造影血管命名模型,得到所述导丝所在冠脉血管的血管名称分类的预测结果;
根据所述预测结果确定所述导丝所在冠脉血管的血管名称。
需要说明的是,本发明中的深度学习网络是多分类任务深度学习网络,将实时术中影像输入至训练好的深度学习网络来进行预测的过程如图3所示。
在具体实现中,将实时冠脉造影图像输入至训练好的造影血管命名模型中,预测出导丝所在冠脉血管为每一个血管类别的概率,再将其中概率最大的血管类别确定为导丝所在冠脉血管的血管名称。示例地,如冠脉血管图像中包含有四类冠脉血管,分别是A类冠脉血管、B类冠脉血管、C类冠脉血管以及D类冠脉血管,将实时冠脉造影图像输入至训练好的深度学习网络中,预测出导丝所在冠脉血管为A类冠脉血管的概率为0.2,导丝所在冠脉血管为B类冠脉血管的概率为0.3,导丝所在冠脉血管为C类冠脉血管的概率为0.1,导丝所在冠脉血管为D类冠脉血管的概率为0.4,根据预测结果(即预测概率最大的类别)可以确定导丝所在冠脉血管的血管名称为D类冠脉血管,其中,冠脉血管图像中的血管类别不限于4种,血管类别具体可以是LAD,LCX,RCA,D1,D2,OM1,OM2,RI,RPDA等血管类别。
在本实施例中,通过将实时冠脉造影图像输入至训练好的深度学习网络中能够快速且准确地预测出导丝所在冠脉血管的血管名称,以提高导丝末端点实时位置的匹配速率。
在一实施例中,在将所述实时冠脉造影图像输入至训练好的造影血管命名模型之前,还包括:
将带有标签数据的DSA数据输入至造影血管命名模型,得到导丝所在冠脉血管的预测分类结果;
基于所述标签数据与所述预测分类结果,确定交叉熵损失;
基于所述交叉熵损失来更新所述造影血管命名模型中的参数,以得到训练好的造影血管命名模型。
需要说明的是,DSA数据指的是在进行介入手术将导丝伸入至冠脉中获取到的冠脉造影图像,标签数据是预先由医生根据DSA数据中的导丝末端点进行标注得到的,具体地,DSA数据中的导丝末端点处于名称为RCA的冠脉血管中,那么DSA数据中标签数据即为RCA。
需要说明的是,深度学习中分类任务损失函数即交叉熵损失的计算公式为:式中,i表示第i个类别,k表示DSA数据中冠脉血管的种类数量,y表示标签数据,p表示深度学习网络预测冠脉血管的类别为i的概率。
需要说明的是,当标签数据为第i类别时,yi=1,否则为0。
在具体实现中,DSA数据中标注的冠脉血管为第i类血管,且将标注有冠脉血管名称的DSA数据输入至深度学习网络中,对导丝所在冠脉血管的血管名称进行预测,得到预测分类结果,具体地,如DSA数据中包含有四类冠脉血管,分别是A类、B类、C类以及D类,DSA数据中标注的冠脉血管为D类冠脉血管,将标注有D类冠脉血管的DSA数据输入至深度学习网络中,得到的预测分类结果为:A类冠脉血管的预测概率为0.2,B类冠脉血管的预测概率为0.3,C类冠脉血管的预测概率为0.1,D类冠脉血管的预测概率为0.4,那么根据可以确定交叉熵损失为/>
步骤S70:基于所述血管名称以及所述深入冠脉长度,匹配到导丝末端点在所述术前冠脉图像中的实时位置。
需要说明的是,术前冠脉图像是在进行介入手术之前获取到的患者的CTA图像,实时冠脉造影图像是在进行介入手术时获取到的患者的DSA图像,在进行介入手术时,无法通过获取患者的CTA图像来帮助医生了解导丝末端点所处位置的三维影像信息。故在进行介入手术时,只能先通过获取患者DSA图像,再通过DSA图像中的导丝信息来确定导丝末端点对应于术前冠脉影像中的位置。
在具体实现中,先通过获取正在进行介入手术的患者的DSA图像,再根据DSA图像来确定导丝所在冠脉血管的血管名称,以及确定导丝的深入冠脉长度,然后根据导丝所在冠脉血管的血管名称来初步定位导丝在术前冠脉影像中的对应位置,接着再通过深入冠脉长度来精准确定导丝末端点在术前冠脉影像中的对应位置,即基于血管名称和深入冠脉长度来匹配到当前远端端点在术前冠脉图像中的实时位置。
可以理解的是,在确定导丝末端点在术前冠脉影像中的实时位置之后,医生可以根据术前冠脉影像来了解导丝末端点处患者的三维空间信息,从而能够辅助医生从多方面角度进行精准诊断。
在一实施例中,所述基于所述血管名称以及所述深入冠脉长度,匹配到导丝末端点在所述术前冠脉图像中的具体位置,包括:
根据所述血管名称,确定所述导丝在所述术前冠脉图像中的位置;
基于所述位置以及所述深入冠脉长度,匹配到导丝末端点在所述术前冠脉图像中的实时位置。
在本实施例中,先是通过导丝所在血管的血管名称初步确定导丝在术前冠脉图像中的对应位置,再根据导丝的深入冠脉长度来精准确定导丝末端点在术前冠脉影像中的实时位置,能够有效提高实时位置确定的精准度。
本实施例通过获取术前冠脉图像以及获取实时冠脉造影图像,其中,所述术前冠脉图像为3D-CTA数据,所述实时冠脉造影图像为2D-DSA数据;确定导丝的深入冠脉长度,其中,所述深入冠脉长度为导丝从冠脉入口点伸入至导丝末端点对应位置的长度;通过所述实时冠脉造影图像确定所述导丝所在冠脉血管的血管名称;基于所述血管名称以及所述深入冠脉长度,匹配到导丝末端点在所述术前冠脉图像中的实时位置。通过上述方式,先是通过从DSA图像中获取导丝所在冠脉血管的血管名称以及获取导丝的深入冠脉长度,在根据血管名称以及深入冠脉长度来确定导末端点丝在术前冠脉图像中的对应位置,进而能够精准有效地确定导丝末端点在术前冠脉图像中的实时位置,从而能够辅助医生从多方面角度对患者的病灶位置进行精准诊断。
参考图4,图4为本发明一种基于多模态图像融合的血管介入手术导航方法第二实施例的流程示意图。
基于上述第一实施例,本实施例基于多模态图像融合的血管介入手术导航方法在步骤S10之后,还包括:
步骤S101:将所述术前冠脉图像输入至训练好的3D分割模型中,得到3D血管初分割结果。
需要说明的是,3D分割模型是深度学习网络。
需要说明的是,将术前冠脉图像输入至训练好的3D分割模型中,能够将术前冠脉图像的冠脉血管分割出来。
在一实施例中,在将所述术前冠脉图像输入至训练好的3D分割模型中之前,还包括:
将标注有真实血管信息的CTA数据输入至3D分割模型中,得到预测血管信息;
基于所述真实血管信息以及所述预测血管信息,确定预测误差;
基于所述预测误差通过反向传播来更新所述3D分割模型中的参数,以得到训练好的3D分割模型。
需要说明的是,真实血管信息是提前由医生对CTA数据中的冠脉血管进行标注得到的。
步骤S102:基于Region grow算法或者机器学习算法确定所述3D血管初分割结果中的3D血管中心线提取结果。
步骤S103:基于minimal-path确定所述3D血管初分割结果中的3D血管中心线提取结果。
在具体实现中,还可以通过对3D血管初分割结果进行骨架化处理来得到3D血管中心线提取结果。
在具体实现中,可根据冠脉入口点在术前冠脉图像中的位置O以及导丝末端点在术前冠脉图像中的实时位置来从3D血管中心线提取结果确定OP段中心线,再根据OP段中心线获取冠脉形态学影像信息或功能性信息,如图5所示,能够通过术前冠脉图像的3D VR、血管横断面、3D MIP、面CPR、线CPR、切片图为医生呈现更全面丰富的冠脉及手术导航信息。
本实施例通过将所述术前冠脉图像输入至训练好的3D分割模型中,得到3D血管初分割结果;基于Region grow算法或者机器学习算法确定所述3D血管初分割结果中的3D血管中心线提取结果;或,基于minimal-path确定所述3D血管初分割结果中的3D血管中心线提取结果。通过上述方式,能够确定术前冠脉图像中各冠脉的中心线,进而能够在确定导丝末端点在术前冠脉图像中的对应位置之后为医生提供更加详细影响信息或功能性信息。
此外,本发明实施例还提出一种存储介质,所述存储介质上存储有基于多模态图像融合的血管介入手术导航程序,所述基于多模态图像融合的血管介入手术导航程序被处理器执行时实现如上文所述的基于多模态图像融合的血管介入手术导航方法的步骤。
参照图6,图6为本发明基于多模态图像融合的血管介入手术导航装置第一实施例的结构框图。
如图5所示,本发明实施例提出的基于多模态图像融合的血管介入手术导航装置包括:
获取模块10,用于获取术前冠脉图像和实时冠脉造影图像,其中,所述术前冠脉图像为3D-CTA数据,所述实时冠脉造影图像为2D-DSA数据。
确定模块20,用于将所述术前冠脉图像输入至训练好的3D分割模型中,得到3D血管初分割结果;
所述确定模块20,还用于基于Region grow算法或者机器学习算法确定所述3D血管初分割结果中的3D血管中心线提取结果,/或基于minimal-path确定所述3D血管初分割结果中的3D血管中心线提取结果;
命名模块30,用于通过深度学习或匹配方法对所述3D血管中心线提取结果中的所有中心线进行命名,以完成对所述术前冠脉图像中冠脉血管中心线的命名;
确定模块30,用于确定导丝的深入冠脉长度,其中,所述深入冠脉长度为导丝从冠脉入口点伸入至导丝末端点对应位置的长度。
所述确定模块30,用于通过所述实时冠脉造影图像确定所述导丝所在冠脉血管的血管名称。
匹配模块40,用于基于所述血管名称以及所述深入冠脉长度,匹配到所述当前远端端点在所述术前冠脉图像中的实时位置。
应当理解的是,以上仅为举例说明,对本发明的技术方案并不构成任何限定,在具体应用中,本领域的技术人员可以根据需要进行设置,本发明对此不做限制。
本实施例通过获取术前冠脉图像和实时冠脉造影图像,其中,所述术前冠脉图像为3D-CTA数据,所述实时冠脉造影图像为2D-DSA数据;确定导丝的深入冠脉长度,其中,所述深入冠脉长度为导丝从冠脉入口点伸入至导丝末端点对应位置的长度;通过所述实时冠脉造影图像确定所述导丝所在冠脉血管的血管名称;基于所述血管名称以及所述深入冠脉长度,匹配到导丝末端点在所述术前冠脉图像中的实时位置。通过上述方式,先是通过从DSA图像中获取导丝所在冠脉血管的血管名称以及获取导丝的深入冠脉长度,在根据血管名称以及深入冠脉长度来确定导末端点丝在术前冠脉图像中的对应位置,进而能够精准有效地确定导丝末端点在术前冠脉图像中的实时位置,从而能够辅助医生从多方面角度对患者的病灶位置进行精准诊断。
在一实施例中,所述获取模块10,还用于:
确定介入机器人中的齿轮转速以及驱动设备直径;
根据所述齿轮转速、所述驱动设备直径、运动状态以及运动时间,确定所述导丝的向前长度/回撤长度;
基于所述向前长度/回撤长度以及导丝起始点位置,确定导丝的深入冠脉长度。
在一实施例中,所述确定模块30,还用于:
将所述实时冠脉造影图像输入至训练好的造影血管命名模型,得到所述导丝所在冠脉血管的血管名称分类的预测结果;
根据所述预测结果确定所述导丝所在冠脉血管的血管名称。
在一实施例中,所述确定模块30,还用于:
将带有标签数据的DSA数据输入至造影血管命名模型,得到导丝所在冠脉血管的预测分类结果;
基于所述标签数据与所述预测分类结果,确定交叉熵损失;
基于所述交叉熵损失来更新所述造影血管命名模型中的参数,以得到训练好的造影血管命名模型。
在一实施例中,所述获取模块10,还用于:
将所述术前冠脉图像输入至训练好的3D分割模型中,得到3D血管初分割结果;
基于Region grow算法或者机器学习算法确定所述3D血管初分割结果中的3D血管中心线提取结果;或,
基于minimal-path确定所述3D血管初分割结果中的3D血管中心线提取结果;
通过深度学习或匹配方法对所述3D血管中心线提取结果中的所有中心线进行命名。
在一实施例中,所述获取模块10,还用于:
将标注有真实血管信息的CTA数据输入至3D分割模型中,得到预测血管信息;
基于所述真实血管信息以及所述预测血管信息,确定预测误差;
基于所述预测误差通过反向传播来更新所述3D分割模型中的参数,以得到训练好的3D分割模型。
在一实施例中,所述匹配模块40,还用于:
根据所述血管名称,确定所述导丝在所述术前冠脉图像中的位置;
基于所述位置以及所述深入冠脉长度,匹配到导丝末端点在所述术前冠脉图像中的实时位置。
需要说明的是,以上所描述的工作流程仅仅是示意性的,并不对本发明的保护范围构成限定,在实际应用中,本领域的技术人员可以根据实际的需要选择其中的部分或者全部来实现本实施例方案的目的,此处不做限制。
另外,未在本实施例中详尽描述的技术细节,可参见本发明任意实施例所提供的基于多模态图像融合的血管介入手术导航方法,此处不再赘述。
此外,需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如只读存储器(Read Only Memory,ROM)/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (9)
1.一种基于多模态图像融合的血管介入手术导航方法,其特征在于,所述基于多模态图像融合的血管介入手术导航方法包括:
获取术前冠脉图像和实时冠脉造影图像,其中,所述术前冠脉图像为3D-CTA数据,所述实时冠脉造影图像为2D-DSA数据;
将所述术前冠脉图像输入至训练好的3D分割模型中,得到3D血管初分割结果;
基于Region grow算法或者机器学习算法确定所述3D血管初分割结果中的3D血管中心线提取结果,/或基于minimal-path确定所述3D血管初分割结果中的3D血管中心线提取结果;
通过深度学习或匹配方法对所述3D血管中心线提取结果中的所有中心线进行命名,以完成对所述术前冠脉图像中冠脉血管中心线的命名;
确定导丝的深入冠脉长度,其中,所述深入冠脉长度为导丝从冠脉入口点伸入至导丝末端点对应位置的长度;
通过所述实时冠脉造影图像确定所述导丝所在冠脉血管的血管名称;
基于所述血管名称以及所述深入冠脉长度,匹配到导丝末端点在所述术前冠脉图像中的实时位置。
2.如权利要求1所述的方法,其特征在于,所述确定导丝的深入冠脉长度,包括:
确定介入机器人中的齿轮转速以及驱动设备直径;
根据所述齿轮转速、所述驱动设备直径、运动状态以及运动时间,确定所述导丝的向前长度/回撤长度;
基于所述向前长度/回撤长度以及标记冠脉入口为导丝起点位置,确定导丝的深入冠脉长度。
3.如权利要求1所述的方法,其特征在于,所述通过所述实时冠脉造影图像确定所述导丝所在冠脉血管的血管名称,包括:
将所述实时冠脉造影图像输入至训练好的造影血管命名模型,得到所述导丝所在冠脉血管的血管名称分类的预测结果;
根据所述预测结果确定所述导丝所在冠脉血管的血管名称。
4.如权利要求3所述的方法,其特征在于,在将所述实时冠脉造影图像输入至训练好的造影血管命名模型之前,还包括:
将带有标签数据的DSA数据输入至造影血管命名模型,得到导丝所在冠脉血管的预测分类结果;
基于所述标签数据与所述预测分类结果,确定交叉熵损失;
基于所述交叉熵损失来更新所述造影血管命名模型中的参数,以得到训练好的造影血管命名模型。
5.如权利要求1所述的方法,其特征在于,在将所述术前冠脉图像输入至训练好的3D分割模型中之前,还包括:
将标注有真实血管信息的CTA数据输入至3D分割模型中,得到预测血管信息;
基于所述真实血管信息以及所述预测血管信息,确定预测误差;
基于所述预测误差通过反向传播来更新所述3D分割模型中的参数,以得到训练好的3D分割模型。
6.如权利要求1至5中任一项所述的方法,其特征在于,所述基于所述血管名称以及所述深入冠脉长度,匹配到导丝末端点在所述术前冠脉图像中的具体位置,包括:
根据所述血管名称,确定所述导丝在所述术前冠脉图像中的位置;
基于所述位置以及所述深入冠脉长度,匹配到导丝末端点在所述术前冠脉图像中的实时位置。
7.一种基于多模态图像融合的血管介入手术导航装置,其特征在于,所述基于多模态图像融合的血管介入手术导航装置包括:
获取模块,用于获取术前冠脉图像和实时冠脉造影图像,其中,所述术前冠脉图像为3D-CTA数据,所述实时冠脉造影图像为2D-DSA数据;
确定模块,用于将所述术前冠脉图像输入至训练好的3D分割模型中,得到3D血管初分割结果;
所述确定模块,用于基于Region grow算法或者机器学习算法确定所述3D血管初分割结果中的3D血管中心线提取结果,/或基于minimal-path确定所述3D血管初分割结果中的3D血管中心线提取结果;
命名模块,用于通过深度学习或匹配方法对所述3D血管中心线提取结果中的所有中心线进行命名,以完成对所述术前冠脉图像中冠脉血管中心线的命名;
所述确定模块,还用于基于所述血管名称以及所述深入冠脉长度,匹配到导丝末端点在所述术前冠脉图像中的实时位置;
所述确定模块,用于通过所述实时冠脉造影图像确定所述导丝所在冠脉血管的血管名称;
匹配模块,用于基于所述血管名称以及所述深入冠脉长度,匹配到导丝末端点在所述术前冠脉图像中的实时位置。
8.一种基于多模态图像融合的血管介入手术导航设备,其特征在于,所述设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的基于多模态图像融合的血管介入手术导航程序,所述基于多模态图像融合的血管介入手术导航程序配置为实现如权利要求1至6中任一项所述的基于多模态图像融合的血管介入手术导航方法的步骤。
9.一种存储介质,其特征在于,所述存储介质上存储有基于多模态图像融合的血管介入手术导航程序,所述基于多模态图像融合的血管介入手术导航程序被处理器执行时实现如权利要求1至6任一项所述的基于多模态图像融合的血管介入手术导航方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310470057.7A CN116531092A (zh) | 2023-04-21 | 2023-04-21 | 基于多模态图像融合的血管介入手术导航方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310470057.7A CN116531092A (zh) | 2023-04-21 | 2023-04-21 | 基于多模态图像融合的血管介入手术导航方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116531092A true CN116531092A (zh) | 2023-08-04 |
Family
ID=87446336
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310470057.7A Pending CN116531092A (zh) | 2023-04-21 | 2023-04-21 | 基于多模态图像融合的血管介入手术导航方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116531092A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118648983A (zh) * | 2024-08-21 | 2024-09-17 | 北京大学第三医院(北京大学第三临床医学院) | 基于cta与dsa影像融合技术的冠脉介入智能辅助决策方法 |
-
2023
- 2023-04-21 CN CN202310470057.7A patent/CN116531092A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118648983A (zh) * | 2024-08-21 | 2024-09-17 | 北京大学第三医院(北京大学第三临床医学院) | 基于cta与dsa影像融合技术的冠脉介入智能辅助决策方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11607189B2 (en) | Method and apparatus for processing blood vessel image, storage medium, and imaging device | |
US8867801B2 (en) | Method for determining properties of a vessel in a medical image | |
US7925327B2 (en) | Apparatus and method for assisting the navigation of a catheter in a vessel | |
US8630467B2 (en) | Diagnosis assisting system using three dimensional image data, computer readable recording medium having a related diagnosis assisting program recorded thereon, and related diagnosis assisting method | |
CN113544737A (zh) | 用于动脉图像区域及其特征的分类的系统和方法 | |
US20130174077A1 (en) | Medical information display apparatus, method, and program | |
US20060241413A1 (en) | Method for determining the position of an instrument with an x-ray system | |
US8306292B2 (en) | Image display device and image display program storage medium | |
JP5934071B2 (ja) | 管状構造の最短経路探索装置および方法並びにプログラム | |
JP2014124384A (ja) | 仮想内視鏡画像表示装置および方法並びにプログラム | |
CN116531092A (zh) | 基于多模态图像融合的血管介入手术导航方法及装置 | |
CN113837985A (zh) | 用于血管造影图像处理的训练方法和装置、自动处理方法和装置 | |
CN113947205A (zh) | 神经网络模型训练方法、计算机可读存储介质和设备 | |
JP7525248B2 (ja) | 医用情報処理装置及び医用情報処理プログラム | |
JP7246912B2 (ja) | 医用情報処理装置及び医用情報処理システム | |
US9872655B2 (en) | PAE treatment for BPH | |
CN112489051B (zh) | 基于血管及病变区域的肝脏裁切方法及系统 | |
CN212276454U (zh) | 一种多模态图像融合系统 | |
EP4093275A1 (en) | Intraoperative 2d/3d imaging platform | |
JP6235610B2 (ja) | マルチモダリティ医療用撮像システムにおける測定および強調 | |
JP2004283583A (ja) | 画像形成医療検査装置の作動方法 | |
US20200310557A1 (en) | Momentum-based image navigation | |
JP7013777B2 (ja) | 超音波診断システム | |
CN116531091A (zh) | 基于多模态图像融合的血管介入手术导航方法及装置 | |
JP5159195B2 (ja) | 医用画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |