CN113192023A - 基于像素拓扑耦合的导丝分割方法、装置及介质 - Google Patents
基于像素拓扑耦合的导丝分割方法、装置及介质 Download PDFInfo
- Publication number
- CN113192023A CN113192023A CN202110466419.6A CN202110466419A CN113192023A CN 113192023 A CN113192023 A CN 113192023A CN 202110466419 A CN202110466419 A CN 202110466419A CN 113192023 A CN113192023 A CN 113192023A
- Authority
- CN
- China
- Prior art keywords
- segmentation
- expansion
- topology
- guide wire
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 104
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000010168 coupling process Methods 0.000 title claims abstract description 24
- 238000005859 coupling reaction Methods 0.000 title claims abstract description 24
- 230000008878 coupling Effects 0.000 title claims abstract description 21
- 238000012545 processing Methods 0.000 claims abstract description 35
- 210000004204 blood vessel Anatomy 0.000 claims abstract description 21
- 238000010586 diagram Methods 0.000 claims abstract description 21
- 238000013528 artificial neural network Methods 0.000 claims abstract description 19
- 238000012549 training Methods 0.000 claims abstract description 12
- 230000006870 function Effects 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 10
- 238000002372 labelling Methods 0.000 claims description 5
- 238000000799 fluorescence microscopy Methods 0.000 claims description 3
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 230000010339 dilation Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002872 contrast media Substances 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000002792 vascular Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于像素拓扑耦合的导丝分割方法、装置及介质的技术方案,包括:拓扑扩张模型处理及注意力聚焦分割模型处理;拓扑扩张模型处理包括:输入已分割的第一血管图像,通过第一U‑Net神经网络进行导丝扩张训练,得到对应的扩张图;注意力聚焦分割模型处理包括:将扩张图及原始图像输入至具有损失函数的第二U‑Net神经网络进行注意力聚焦分割预测,得到已分割的第二血管图像;以第二血管图像作为输入,迭代地执行拓扑扩张模型处理及注意力聚焦分割模型处理,直至得到最优分割结果。本发明的有益效果为:实现了像素分割和拓扑分割结合处理,得到了更优分割结果。
Description
技术领域
本发明涉及计算机及医学影像处理领域,具体涉及了一种基于像素拓扑耦合的导丝分割方法、装置及介质。
背景技术
导丝末端分割技术能够导丝及其尖端形态进行实时可视化,并且能够在介入医生因长时间的手术进程而感到疲劳时,辅助识别不寻常或具有潜在风险的的导丝形态并向医生发出警示提示。此外,虚拟血管漫游技术可以重建3D血管树形图并具有帮助降低介入手术时长、提高手术成功率、更少的复发症和更低量的造影剂使用等诸多优点,对系统的顺利运行而言,可靠的导丝分割技术是必要的。而且,对于可以辅助经验不足的外科医生在难以通过的血管区域精准操纵导丝的下一代手术机器人而言,作为机器人系统操作视觉反馈的重要组成部分,导丝分割技术同样不必可少。
像素级别高精度导丝分割技术能够提供准确可靠的导丝末端点位置信息以辅助医生或者手术机器人进行下一步手术操作,但仅具备高精度识别而不考虑导丝形态的分割技术在实际应用上上仍有不足。导丝分割技术所识别出的导丝环状结构可以用来警示医生或者手术机器人重新操纵导丝,借此避免导丝末端环形结构所导致的血管壁损伤。因此一项综合考虑到像素级别及拓扑级别的导丝分割技术对于上述临床应用而言至关重要。
现有考虑到该问题的导丝分割方法在处理方式上仍有缺陷:B样条或者其他手工选择的拓扑模型被用来优化分割结果。然而,B样条或者其他优化手工选择的拓扑模型都是有简单的数学模型建立而来,但由于导丝本身的灵活性及柔软性会使其在血管中产生多种复杂的形状,而这些形状难以被简单的数学拓扑模型所拟合。
相比之下,基于从海量真实的术中荧光成像图片中利用深度神经网络学习导丝姿态的模型,能够达到比起手工拓扑模型更好的分割效果。然而,这些深度学习模型,也存在一些问题:他们大都是利用神经网络先进行分割之后再进行拓扑完善的后处理,这种处理过程将像素分割和拓扑分割视为两个相对独立的任务
发明内容
本发明的目的在于至少解决现有技术中存在的技术问题之一,提供了一种基于像素拓扑耦合的导丝分割方法、装置及介质,通过拓扑扩张和注意力聚焦分割两个互补模型,实现了像素分割和拓扑分割更优分割结果。
本发明的技术方案包括一种基于像素拓扑耦合的导丝分割方法,其特征在于,该方法包括:拓扑扩张模型处理及注意力聚焦分割模型处理;所述拓扑扩张模型处理包括:输入已分割的第一血管图像,通过第一U-Net神经网络进行导丝扩张训练,得到对应的扩张图;注意力聚焦分割模型处理包括:将所述扩张图及原始图像输入至具有损失函数的第二U-Net神经网络进行注意力聚焦分割预测,得到已分割的第二血管图像;以所述第二血管图像作为输入,迭代地执行所述拓扑扩张模型处理及注意力聚焦分割模型处理,直至得到最优分割结果。
根据所述的基于像素拓扑耦合的导丝分割方法,其中第一U-net神经网络包括:以离线导丝数据集中每张经过荧光成像和人工标注的所述第一血管图像作为输入的训练数据,执行随机砍断,对砍断的所述第一血管图像进行扩张。
根据所述的基于像素拓扑耦合的导丝分割方法,其中对砍断的所述第一血管图像进行扩张包括:所述第一血管图像基于原始标注分割结果的导丝范围内进行扩张。
根据所述的基于像素拓扑耦合的导丝分割方法,其中损失函数包括:左通道和右通道,所述右通道通用于对输入的图片使用已训练的TE函数进行吸收,生成对应的扩张图及标注真值;所述左通道用于接收扩张图及标注真值,输,计算拓扑级别的损失值,所述左通道的损失函数为DiceLoss。
根据所述的基于像素拓扑耦合的导丝分割方法,其中最优分割结果还包括:任意经过注意力聚焦分割处理得到的分割图像为是欠分割图像,且所述扩张图与真实的导丝重合率超过设定值时,对所述扩张图执行下一次注意力聚焦分割处理的注意力从全图缩小至对应的导丝扩张区域,重复执行此步骤,直至达到最优分割结果。
根据所述的基于像素拓扑耦合的导丝分割方法,其中拓扑扩张模型处理及注意力聚焦分割模型处理为耦合等同关系。
本发明的技术方案还包括一种基于像素拓扑耦合的导丝分割装置,该装置包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述任一项的方法步骤。
本发明的技术方案还包括一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述中任一项的方法。
本发明的有益效果为:实现了像素分割和拓扑分割结合处理,得到了更优分割结果。
附图说明
下面结合附图和实施例对本发明进一步地说明;
图1所示为根据本发明实施方式的流程图;
图2所示为根据本发明实施方式的迭代分割框架;
图3所示为根据本发明实施方式的迭代分割框架中的拓扑扩张模型及注意力聚焦分割模型组成;
图4所示为根据本发明实施方式的拓扑扩张和注意力聚焦分割输入与输出实例;
图5所示为根据本发明实施方式的拓扑扩张和注意力聚焦分割的训练数据离线生成过程;
图6为根据本发明实施方式的像素拓扑耦合损失函数损失计算示例;
图7所示为根据本发明实施方式的装置图。
具体实施方式
本部分将详细描述本发明的具体实施例,本发明之较佳实施例在附图中示出,附图的作用在于用图形补充说明书文字部分的描述,使人能够直观地、形象地理解本发明的每个技术特征和整体技术方案,但其不能理解为对本发明保护范围的限制。
在本发明的描述中,若干的含义是一个或者多个,多个的含义是两个以上,大于、小于、超过等理解为不包括本数,以上、以下、以内等理解为包括本数。
在本发明的描述中,对方法步骤的连续标号是为了方便审查和理解,结合本发明的整体技术方案以及各个步骤之间的逻辑关系,调整步骤之间的实施顺序并不会影响本发明技术方案所达到的技术效果。
本发明的描述中,除非另有明确的限定,设置等词语应做广义理解,所属技术领域技术人员可以结合技术方案的具体内容合理确定上述词语在本发明中的具体含义。
图1所示为根据本发明实施方式的流程图,该流程包括:拓扑扩张模型处理及注意力聚焦分割模型处理;拓扑扩张模型处理包括:输入已分割的第一血管图像,通过第一U-Net神经网络进行导丝扩张训练,得到对应的扩张图;注意力聚焦分割模型处理包括:将扩张图及原始图像输入至具有损失函数的第二U-Net神经网络进行注意力聚焦分割预测,得到已分割的第二血管图像;以第二血管图像作为输入,迭代地执行拓扑扩张模型处理及注意力聚焦分割模型处理,直至得到最优分割结果。
图2所示为根据本发明实施方式的迭代分割框架,这个框架包含拓扑扩张(TE)和注意力聚焦分割(FS)两个互补模型。本发明的技术方案设计了一种像素拓扑耦合的损失函数,这种损失函数使神经网络在学习的过程中将像素分割和拓扑分割放置于同等重要的位置中。
如图3所展示的拓扑扩张(TE)模型,用于解释第一U-Net神经网络和第二U-Net神经网络,图3中包括(a)迭代分割框架;(b)拓扑扩张模型组成;(c)注意力聚焦分割模型组成。在测试阶段,将第k次的分割结果Sk作为输入,按照导丝的拓扑学方式进行扩张,以生成一个扩张图Ek。如果第k次的分割结果Sk是欠分割(参考图4,图4包括(a)拓扑扩张,(b)注意力聚焦分割输入输出示例),也就是说存在导丝的某一些区域,应该被分割但是没有被分割出来,那么实验结果可以证明,拓扑扩张(TE)模型能够产生扩张图Ek以很高的概率和真实的导丝重合,从而对这些欠分割区域进行弥补,从而帮助注意力聚焦分割(FS)产生更完善的分割结果Sk+1。
为了训练在拓扑扩张(TE)模型的U-Net神经网络架构,使得它具有按照导丝的拓扑学方式进行扩张的能力,基于最基本的导丝数据集离线建立了一个新的数据库(参考图5,图5包括(a)拓扑扩张,(b)注意力聚焦分割的训练数据离线生成过程)。对于每一张术中荧光成像和对应的放射科医生标注的分割结果,这个分割结果被随机砍断(砍断方式可以在图2里面看到)。每一种砍断结果,称之为砍断(型号i),作为TE的训练数据模仿在测试时TE模型可能会遇到的欠分割输入。考虑到导丝形态术中的多样性,在不知道真值的情况下,不可能将这些砍断的结果进行完全的复原。因此,TE的训练标签,不是原始标注分割结果,而是在砍断基础上略微扩张,称之为扩张(型号i)。当然,这种略微扩张是基于原始标注分割结果上的扩张,从而保证扩张的区域完全落在真实区域里。
注意力聚焦分割(FS)模型(图3),在测试阶段,将第k次的扩张图Ek和原始图片I作为输入,产生更完善的分割结果Sk+1。实验结果可以证明,如果第k次的分割结果Sk是欠分割(图4),也就是说存在导丝的某一些区域,应该被分割但是没有被分割出来,并且,扩张图Ek以很高的概率和真实的导丝重合,那么这个扩张图可以将注意力聚焦分割(FS)模型的注意力从全图缩小至这些细微(扩张)区域,从而引导注意力聚焦分割(FS)模型产生比Sk在像素和拓扑上都更好的分割结果Sk+1。
参考图6的像素拓扑耦合损失函数损失计算示例,图6包括拓扑-像素联合损失,2个不同导丝的拓扑级别损失示例(b)和(c)。对于注意力聚焦分割(FS)模型的训练,存在一个损失函数的问题。目前在生物医学成像领域的常用损失函数为DiceLoss,并不能很好的反应拓扑意义上的分割结果好坏。为此本发明的技术方案设计了一种导丝像素拓扑耦合的损失函数(图6)。参考图6的(a)、(b)和(c),该函数包含两个通道,左边的通道仍采用常用的DiceLoss,而右边的通道则是拓扑损失值。该拓扑损失值通道接受预测的分割图像作为输入,预测的分割图像会先被一个已经训练好的TE函数吸收,产生扩张图,该扩张图将联合标注的真值一起送入DiceLoss通道,从而计算拓扑级别的损失值。
图7所示为根据本发明实施方式的装置图。装置包括存储器100及处理器200,其中处理器200存储有计算机程序,计算机程序用于执行:拓扑扩张模型处理及注意力聚焦分割模型处理;拓扑扩张模型处理包括:输入已分割的第一血管图像,通过第一U-Net神经网络进行导丝扩张训练,得到对应的扩张图;注意力聚焦分割模型处理包括:将扩张图及原始图像输入至具有损失函数的第二U-Net神经网络进行注意力聚焦分割预测,得到已分割的第二血管图像;以第二血管图像作为输入,迭代地执行拓扑扩张模型处理及注意力聚焦分割模型处理,直至得到最优分割结果。其中,存储器100用于存储数据。
应当认识到,本发明实施例中的方法步骤可以由计算机硬件、硬件和软件的组合、或者通过存储在非暂时性计算机可读存储器中的计算机指令来实现或实施。所述方法可以使用标准编程技术。每个程序可以以高级过程或面向对象的编程语言来实现以与计算机系统通信。然而,若需要,该程序可以以汇编或机器语言实现。在任何情况下,该语言可以是编译或解释的语言。此外,为此目的该程序能够在编程的专用集成电路上运行。
此外,可按任何合适的顺序来执行本文描述的过程的操作,除非本文另外指示或以其他方式明显地与上下文矛盾。本文描述的过程(或变型和/或其组合)可在配置有可执行指令的一个或多个计算机系统的控制下执行,并且可作为共同地在一个或多个处理器上执行的代码(例如,可执行指令、一个或多个计算机程序或一个或多个应用)、由硬件或其组合来实现。所述计算机程序包括可由一个或多个处理器执行的多个指令。
进一步,所述方法可以在可操作地连接至合适的任何类型的计算平台中实现,包括但不限于个人电脑、迷你计算机、主框架、工作站、网络或分布式计算环境、单独的或集成的计算机平台、或者与带电粒子工具或其它成像装置通信等等。本发明的各方面可以以存储在非暂时性存储介质或设备上的机器可读代码来实现,无论是可移动的还是集成至计算平台,如硬盘、光学读取和/或写入存储介质、RAM、ROM等,使得其可由可编程计算机读取,当存储介质或设备由计算机读取时可用于配置和操作计算机以执行在此所描述的过程。此外,机器可读代码,或其部分可以通过有线或无线网络传输。当此类媒体包括结合微处理器或其他数据处理器实现上文所述步骤的指令或程序时,本文所述的发明包括这些和其他不同类型的非暂时性计算机可读存储介质。当根据本发明所述的方法和技术编程时,本发明还包括计算机本身。
计算机程序能够应用于输入数据以执行本文所述的功能,从而转换输入数据以生成存储至非易失性存储器的输出数据。输出信息还可以应用于一个或多个输出设备如显示器。在本发明优选的实施例中,转换的数据表示物理和有形的对象,包括显示器上产生的物理和有形对象的特定视觉描绘。
上面结合附图对本发明实施例作了详细说明,但是本发明不限于上述实施例,在技术领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下做出各种变化。
Claims (8)
1.一种基于像素拓扑耦合的导丝分割方法,其特征在于,该方法包括:
拓扑扩张模型处理及注意力聚焦分割模型处理;
所述拓扑扩张模型处理包括:输入已分割的第一血管图像,通过第一U-Net神经网络进行导丝扩张训练,得到对应的扩张图;
注意力聚焦分割模型处理包括:将所述扩张图及原始图像输入至具有损失函数的第二U-Net神经网络进行注意力聚焦分割预测,得到已分割的第二血管图像;
以所述第二血管图像作为输入,迭代地执行所述拓扑扩张模型处理及注意力聚焦分割模型处理,直至得到最优分割结果。
2.根据权利要求1所述的基于像素拓扑耦合的导丝分割方法,其特征在于,所述第一U-net神经网络包括:
以离线导丝数据集中每张经过荧光成像和人工标注的所述第一血管图像作为输入的训练数据,执行随机砍断,对砍断的所述第一血管图像进行扩张。
3.根据权利要求1所述的基于像素拓扑耦合的导丝分割方法,其特征在于,所述对砍断的所述第一血管图像进行扩张包括:
所述第一血管图像基于原始标注分割结果的导丝范围内进行扩张。
4.根据权利要求1所述的基于像素拓扑耦合的导丝分割方法,其特征在于,所述损失函数包括:
左通道和右通道,所述右通道通用于对输入的图片使用已训练的TE函数进行吸收,生成对应的扩张图及标注真值;所述左通道用于接收扩张图及标注真值,输,计算拓扑级别的损失值,所述左通道的损失函数为DiceLoss。
5.根据权利要求1所述的基于像素拓扑耦合的导丝分割方法,其特征在于,所述最优分割结果还包括:
任意经过注意力聚焦分割处理得到的分割图像为是欠分割图像,且所述扩张图与真实的导丝重合率超过设定值时,对所述扩张图执行下一次注意力聚焦分割处理的注意力从全图缩小至对应的导丝扩张区域,重复执行此步骤,直至达到最优分割结果。
6.根据权利要求1所述的基于像素拓扑耦合的导丝分割方法,其特征在于,所述拓扑扩张模型处理及注意力聚焦分割模型处理为耦合等同关系。
7.一种基于像素拓扑耦合的导丝分割装置,该装置包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6任一项所述的方法步骤。
8.一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1至6中任一项的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110466419.6A CN113192023A (zh) | 2021-04-28 | 2021-04-28 | 基于像素拓扑耦合的导丝分割方法、装置及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110466419.6A CN113192023A (zh) | 2021-04-28 | 2021-04-28 | 基于像素拓扑耦合的导丝分割方法、装置及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113192023A true CN113192023A (zh) | 2021-07-30 |
Family
ID=76979777
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110466419.6A Pending CN113192023A (zh) | 2021-04-28 | 2021-04-28 | 基于像素拓扑耦合的导丝分割方法、装置及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113192023A (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200222018A1 (en) * | 2019-01-11 | 2020-07-16 | Pie Medical Imaging B.V. | Methods and Systems for Dynamic Coronary Roadmapping |
CN111986181A (zh) * | 2020-08-24 | 2020-11-24 | 中国科学院自动化研究所 | 基于双注意力机制的血管内支架图像分割方法和系统 |
CN112116608A (zh) * | 2020-10-22 | 2020-12-22 | 上海联影医疗科技股份有限公司 | 一种导丝分割方法、装置、电子设备及存储介质 |
CN112348821A (zh) * | 2020-11-24 | 2021-02-09 | 中国科学院自动化研究所 | 基于x光图像的导丝分割和尖端点定位方法、系统和装置 |
-
2021
- 2021-04-28 CN CN202110466419.6A patent/CN113192023A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200222018A1 (en) * | 2019-01-11 | 2020-07-16 | Pie Medical Imaging B.V. | Methods and Systems for Dynamic Coronary Roadmapping |
CN111986181A (zh) * | 2020-08-24 | 2020-11-24 | 中国科学院自动化研究所 | 基于双注意力机制的血管内支架图像分割方法和系统 |
CN112116608A (zh) * | 2020-10-22 | 2020-12-22 | 上海联影医疗科技股份有限公司 | 一种导丝分割方法、装置、电子设备及存储介质 |
CN112348821A (zh) * | 2020-11-24 | 2021-02-09 | 中国科学院自动化研究所 | 基于x光图像的导丝分割和尖端点定位方法、系统和装置 |
Non-Patent Citations (2)
Title |
---|
I. ULLAH; P. CHIKONTWE; S. H. PARK: "Guidewire Tip Tracking using U-Net with Shape and Motion Constraints", 2019 INTERNATIONAL CONFERENCE ON ARTIFICIAL INTELLIGENCE IN INFORMATION AND COMMUNICATION (ICAIIC), 21 March 2019 (2019-03-21), pages 1 - 3 * |
翟墨: "基于少量精标签数据的心脏冠脉图像分割方法的研究", 北京邮电大学硕士学位论文, 15 April 2021 (2021-04-15), pages 1 - 61 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11681952B2 (en) | System for augmenting image data of medically invasive devices using optical imaging | |
Shvets et al. | Automatic instrument segmentation in robot-assisted surgery using deep learning | |
Maiora et al. | Random forest active learning for AAA thrombus segmentation in computed tomography angiography images | |
CN112734776B (zh) | 一种微创手术器械定位方法和系统 | |
Padovan et al. | A deep learning framework for real‐time 3D model registration in robot‐assisted laparoscopic surgery | |
CN110070529A (zh) | 一种血管腔内影像分割方法、系统及电子设备 | |
CN116421277A (zh) | 毛囊移植控制方法、装置、计算机设备和存储介质 | |
CN111915620A (zh) | 一种ct肋骨分割方法及装置 | |
Peng et al. | Reducing annotating load: Active learning with synthetic images in surgical instrument segmentation | |
Kurose et al. | Preliminary study of needle tracking in a microsurgical robotic system for automated operations | |
CN113192023A (zh) | 基于像素拓扑耦合的导丝分割方法、装置及介质 | |
CN116523926A (zh) | 多任务骨关节ct/mri融合的组织精准分割建模方法及装置 | |
KR102276862B1 (ko) | 수술영상 재생제어 방법, 장치 및 프로그램 | |
CN114782537A (zh) | 基于3d视觉的人体颈动脉定位方法及装置 | |
Kunert et al. | An interactive system for volume segmentation in computer-assisted surgery | |
Joglekar et al. | Autonomous Image-to-Grasp Robotic Suturing Using Reliability-Driven Suture Thread Reconstruction | |
US20230045686A1 (en) | Fusion of spatial and temporal context for location determination for visualization systems | |
Diao | A survey on deep learning for surgical planning | |
CN112368739A (zh) | 用于肝脏手术的对准系统 | |
CN117942161B (zh) | 单根穿刺针功率确认方法、装置、电子设备及存储介质 | |
US20240252263A1 (en) | Pose estimation for surgical instruments | |
US20240277416A1 (en) | System and method for multimodal display via surgical tool assisted model fusion | |
Guo et al. | SIT-Net: Surgical Image Translation Network Using a Generative Adversarial Method with Visual Feature Disentanglement | |
CN117635635A (zh) | 医学图像的交互分割方法及装置、电子设备和存储介质 | |
KR20240141258A (ko) | 동적 절단 경계를 위한 데이터 최적화 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |