CN103619278B - 用于内窥镜手术期间的引导注射的系统 - Google Patents

用于内窥镜手术期间的引导注射的系统 Download PDF

Info

Publication number
CN103619278B
CN103619278B CN201280029752.XA CN201280029752A CN103619278B CN 103619278 B CN103619278 B CN 103619278B CN 201280029752 A CN201280029752 A CN 201280029752A CN 103619278 B CN103619278 B CN 103619278B
Authority
CN
China
Prior art keywords
instruments
medical apparatus
real time
time imaging
target region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201280029752.XA
Other languages
English (en)
Other versions
CN103619278A (zh
Inventor
R·曼茨克
R·陈
H·埃尔哈瓦林
A·波波维奇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of CN103619278A publication Critical patent/CN103619278A/zh
Application granted granted Critical
Publication of CN103619278B publication Critical patent/CN103619278B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/00149Holding or positioning arrangements using articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/044Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for absorption imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/00234Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3478Endoscopic needles, e.g. for infusion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4836Diagnosis combined with treatment in closed-loop systems or methods
    • A61B5/4839Diagnosis combined with treatment in closed-loop systems or methods combined with drug delivery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0883Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00115Electrical control of surgical instruments with audible or visual output
    • A61B2017/00119Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/00234Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
    • A61B2017/00238Type of minimally invasive operation
    • A61B2017/00243Type of minimally invasive operation cardiac
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/00234Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
    • A61B2017/00238Type of minimally invasive operation
    • A61B2017/00243Type of minimally invasive operation cardiac
    • A61B2017/00247Making holes in the wall of the heart, e.g. laser Myocardial revascularization
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2059Mechanical position encoders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/062Measuring instruments not otherwise provided for penetration depth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • A61B2090/065Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension for measuring contact or contact pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Robotics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medicinal Chemistry (AREA)
  • Pharmacology & Pharmacy (AREA)
  • Cardiology (AREA)
  • Endoscopes (AREA)

Abstract

一种引导系统及方法,包括实时成像装置(121),其被配置为在术中收集靶区域的图像数据,以提供实时图像。靶确定模块(108)被配置为生成被配准到所述实时图像的叠加图(111),以将形态特征信息投影在所述靶区域的所述实时图像中的对应特征上。提供医疗器械(122),以在所述靶区域上执行过程,从而基于所述叠加图,将所述至少一个医疗器械引导到适合用于执行手术任务的区域。

Description

用于内窥镜手术期间的引导注射的系统
技术领域
本公开涉及医疗过程及系统,并且更具体地,涉及引导注射系统及方法。
背景技术
冠状动脉旁路移植术(CABG)期间的心肌内干细胞注射对心脏再生具有积极效果。对于许多否则将不得不经历开胸手术患者来说,微创内窥镜CABG(MI-CABG)是具有前景且处于发展中的替代途径。在MI-CABG期间,干细胞或其他试剂的心肌内注射可以是治疗的部分,但对于成功执行而言,在技术上是有问题的。
由于缺乏关于瘢痕、局部缺血或其他病理区域的程度和位置的信息,以及其他缺失数据,诸如,心脏壁厚,在MI-CABG期间试剂的手动心肌内注射是富有挑战性的。信息的缺乏部分由于MI-CABG期间可用的术中成像模态仅为内窥镜这一事实。
Korn等人的美国专利申请号为2011/087088题为“Computer-assisted identification and treatment of affected organ tissue”的美国专利申请涉及用于使用核医学图像研究的计算机辅助过程。Niemeyer等人的美国专利号为7,155,315题为“Camera referenced control in a minimally invasive surgical apparatus”的美国专利涉及增强的远程呈现和远程手术系统。Yanof等人的美国专利申请号为2003/097060题为“Tactile feedback and display in a CT image guided robotic system for interventional procedures”的美国专利申请涉及在对象上进行图像引导的医学过程。Fischer等人的题为“Apparatus and methods forMRI-compatible haptic interface”的WO2011/057260涉及主机器人/触觉装置,其向操作者提供触觉反馈并且从操作者接收位置命令。然而,Korn、Niemeyer、Tanof和Fischer没有讨论基于形态特征信息执行的手术任务。
发明内容
根据本原理,一种引导系统和方法包括实时成像装置,其被配置为在术中收集靶区域的图像数据,以提供实时图像。靶确定模块被配置为生成被配准到所述实时图像的叠加图,以将形态特征信息投影在所述靶区域的所述实时图像的对应特征上。提供一种医疗器械,在所述靶区域上执行过程,从而基于所述叠加图,将所述至少一个医疗器械引导到适合用于执行手术任务的区域。
一种工作站包括处理器和被耦合到所述处理器的存储器。实时成像装置被配置为在术中收集靶区域的图像数据,以提供实时图像。靶确定模块被存储在所述存储器中,并且被配置为在显示器上生成被配准到所述实时图像的叠加图,以将形态特征信息投影在所述靶区域的所述实时图像中的对应特征上。手动或自动地控制医疗器械,以在所述靶区域上执行过程,从而基于所述叠加图,将所述至少一个医疗器械引导到适合用于执行手术任务的区域。
一种方法,包括确定针对患者的靶区域的感兴趣特性;对靶区域进行实时成像,以提供实时图像;在显示器上生成被配准到所述实时图像的叠加图,以将形态特征信息投影到所述靶区域的所述实时图像中的对应特征上;以及在所述靶区域上执行过程,从而基于所述叠加图,将至少一个医疗器械引导到适合用于执行手术任务的区域。
根据联系附图阅读的下文对说明性实施例的详细描述,本公开的这些和其他目标、特征和优点将变得显而易见。
附图说明
本公开将参考以下附图,详细地提出对优选实施例的以下描述,其中:
图1为示出根据一个说明性实施例用于根据组织特性的叠加图进行引导的系统/方法的框图/流程图;
图2为根据一个说明性实施例由内窥镜收集的示出叠加图的实时图像;
图3为根据另一说明性实施例示出引导系统/方法的框图/流程图;
图4为根据另一说明性实施例说明性地示出使用多个器械在胸腔中执 行的过程的示意图;
图5为根据另一说明性实施例示出相对于叠加图的十字线的实时图像;
图6为根据另一说明性实施例示例性地示出使用机器人在胸腔中执行的过程的示意图;
图7为根据另一说明性实施例示出相对于叠加图的靶符号的实时图像;
图8为根据另一说明性实施例示例性地示出使用机器人和用于同时确定靶组织的特性的超声成像系统在胸腔中执行的过程的示意图;
图9为根据另一说明性实施例示出具有对于部署医学装置而言不可接受部位的叠加图的实时图像;以及
图10为示出根据另一说明性实施例用于根据组织特性的叠加图进行引导的系统/方法的框图/流程图。
具体实施方式
本原理提供一种注射装置、用于将所述装置引导到患者中的正确位置的系统及方法、以及用于对窥镜图像中的解剖学信息进行检索和可视化的系统及方法。在一个实施例中,采用注射针,其能够根据局部心脏壁厚或其他病理的受控深度被延伸或部署,以避免填塞或其他严重并发症。将使用到介入科医师的充分反馈引导并且延伸/部署所述注射装置,以避免灾难性的并发症。
提供一种内窥镜图像引导系统,其在微创冠状动脉旁路移植术(MI-CABG)以及其他过程期间对关于瘢痕位置和组织厚度的经配准的数据进行投影。能够手动地或通过机器人操纵所述注射装置到靶区域。基于在所述靶区域的组织厚度的知识及其可视化,延伸所述注射针。MI-CABG期间的闭环试剂递送利用针和注射器的半自动或全自动驱动均是可能的。试剂可以包括干细胞、药物等。
也应当理解,本发明将在医疗器械方面进行描述;然而,本发明的教导要宽泛的多,并且可应用于在跟踪或分析复杂生物或机械系统中采用的任何器械。尤其,本原理可应用于生物系统的内部跟踪过程,在诸如肺、心脏、胃肠道、排泄器官、血管等的身体的所有区域中的过程。附图中描绘的元件可以在硬件与软件的各种组合中得以实施,并且提供可以被组合 在单个元件或多个元件中的功能。
通过使用专用硬件以及能够运行与合适的软件相关联的软件的硬件,能够提供附图中所示的各种元件的功能。在由处理器提供时,能够由单个专用处理器、由单个共享处理器,或由多个独立的处理器(它们中的一些能够是共享的)提供所述功能。此外,术语“处理器”或“控制器”的明确使用不应被解读为唯一地指代能够运行软件的硬件,并且能够暗含地包括而不限于数字信号处理器(“DSP”)硬件、用于存储软件的只读存储器(“ROM”)、随机存取存储器(“RAM”)、非易失性存储器等。
此外,本文中记载本发明的原理、方面和实施例的所有陈述,以及其具体范例,意在涵盖其结构及功能的等同方案。额外地,这样的等同方案意在包括目前已知的等同方案以及未来发展的等同方案(即,无论其结构执行相同功能的所发展的任何元件)。因此,例如,本领域技术人员将认识到,本文提出的框图表示体现发明原理的说明性系统部件和/或电路的概念视图。类似地,将认识到,无论这样的计算机或处理器是否被明确示出,任何流程表、流程图等表示各个过程,所示各个过程基本上可以被表示在计算机可读存储介质中并因此由计算机或处理器运行。
此外,本发明的实施例能够采取计算机程序产品的形式,所述计算机程序产品可从提供由计算机或任何指令运行系统使用或与计算机或任何指令运行系统相连的程序代码的计算机可用或计算机可读存储介质访问。出于该描述目的,计算机可用或计算机可读存储介质能够是任何这样的设备,所述设备可以包括、存储、通信、传播或传送用于由指令运行系统、设备或装置使用或与执行运行系统、设备或装置相连的程序。所述介质能够是电子、磁性、光学、电磁、红外或半导体系统(或设备或装置)或传播介质。计算机可读介质的范例包括半导体或固态存储器、磁带、可移除计算机软盘、随机存取存储器(RAM)、只读存储器(ROM)、硬磁盘和光盘。光盘的当前范例包括压缩盘–只读存储器(CD-ROM)、压缩盘–读/写(CD-R/W)和DVD。
现在参考附图,其中类似的附图标记表示相同或相似的元件,并且首先参考图1,说明性地描绘了根据本原理用于执行医疗过程的系统100。系统100可以包括工作站或控制台112,从所述工作站或控制台112监督并管 理过程。工作站112优选地包括一个或多个处理器114以及用于存储程序和应用的存储器116。存储器116可以存储用于引导医疗器械、病理图及相关数据、成像信息等的程序/应用/数据。
系统100可以包括用于聚集图像数据的内窥镜或其他装置120。装置120可以包括提供实时图像数据的成像系统121(例如,照相机)。内窥镜120可以包括光源,以在过程期间提供光。在过程(例如,MI-CABG过程期间)期间,针对靶组织或器官140,可以采用成像系统110,以在术前或术中对靶病理位置(或其他特性,例如组织厚度等等)的经配准数据进行投影。成像系统110可以包括但不限于,计算机断层摄影、磁共振成像、X射线、X射线血管造影等
所述经配准的数据优选地被与所述实时图像配准,并且经配准的数据和所述实时图像被一起显示。经配准的数据可以包括图。
用于执行所述过程的医疗装置122可以包括针、导管、电极、内窥镜等。在一个实施例中,装置122包括可以由内窥镜120部署或可以独立于内窥镜120部署的注射装置。注射装置122优选地通过机器人或手动可操纵到靶区域140。注射装置122包括注射针124或类似装置,并且具有受控的延伸机构126。基于靶区域140中的形态、构成、生理功能以及包括组织厚度、刚度特性的动力学(其能够根据脂肪浸润、肿瘤、纤维瘢痕等的存在而变化),延伸注射针124。这种信息被存储在数据库130或存储器116中。
(例如针对MI-CABG)也可以包括闭环试剂递送系统或机器人132。递送系统132可以包括机构126、注射装置122和针124。也预期其他配置。递送系统132可以采用视觉显示、声音反馈或其他触觉线索,用于由医师手动操作和/或用于(半)自动或自动控制的选项。可以与内窥镜120一起(例如,使用内窥镜120中的工作通道)或独立于内窥镜120(例如,通过独立的器械端口),采用递送系统132。
根据一个实施例,靶区域140(诸如,心脏)可以是病理/形态/生理绘图的对象。所述绘图可以包括一个或多个医学成像装置或系统110的使用。成像系统110可以包括,例如,磁共振成像(MRI)系统、荧光检查系统、计算机断层摄影(CT)系统等。可以先验地或在术中获得所述绘图,以发 现并存储针对靶区域140的信息。该信息可以包括所述靶区域中的形态、构成、生理及包括组织厚度、刚度特性的动力学(其能够根据脂肪浸润、肿瘤、纤维瘢痕等的存在而变化)。所述绘图被存储在存储器116和/或数据库130中。
注射装置122可以包括,例如,导管、导丝、内窥镜、探头、机器人、电极、过滤装置、气囊装置或其他医学部件等。注射装置122可以包括针124,其可以被部署为根据所述绘图信息而延伸。如所指出的,注射装置122和内窥镜120可以作为一个单元或作为独立的单元被采用。除所描述的那些以外或者作为替代,可以采用其他器械和工具。
工作站112可以包括用于查看对象148的内部图像的显示器118,并且显示器118也可以允许用户与工作站112及其部件和功能进行交互。通过接口115进一步便于所述交互,接口115可以包括键盘、鼠标、操纵杆或任何其他外围设备或控件,以允许用户与工作站112进行交互。
可以提供成像系统110用于收集术前成像数据和/或实时术中成像数据。可以在任何过程之前,在另一设施、位置等处执行术前成像。这些3D图像可以被转换为形态图111,并被存储在存储器116和/或数据库130中。
在尤其有用的实施例中,可以采用装置120来观察靶区域140,例如心脏。靶区域140可以包括病变、创伤部位、目标或其他靶特征。在过程期间,采用先前或同时收集的信息来生成虚拟形态图像,所述虚拟形态图像能被叠加在由成像装置121收集的实时图像上,并被绘制在显示器118上。将所述虚拟图像与术中成像数据进行配准,以向用户提供执行手术所需的信息。例如,将通过采用纹理或颜色在所述虚拟图像中指示所述组织厚度、瘢痕组织位置、组织密度等,以根据通过所述用户选择或编程地显示特定特性。
存储器116包括靶确定模块108。靶确定模块108基于被存储在存储器116或数据库130中的所述绘图信息来计算可以执行手术过程的一个或多个位置。来自先前病例的专家知识能够被编码在数据库130中,以使过程优化。例如,如果装置122包括消融电极,则可以在所述虚拟图像中生成靶,所述靶可以被靶向用于手动地或通过机器人对齐为过程处置部位,例如,基于所述形态数据将要消融组织的部位。可以采用显示器118来显示 所述虚拟图像和所述实时图像,从而所述虚拟图像充当用于推进所述过程的引导工具。
本系统100的另一方面包括提供对危险区144的虚拟描绘,其对应于在过程期间应当或必须被装置122(例如,在部署注射针124时)避开的存在关键解剖结构的高风险区。能够基于来自过程前成像或来自患者特异性信息(其能够被绘图到通过内窥镜可视化的患者特异性坐标空间)的解剖库的所述患者特异性信息来识别这些结构。可以自动地或使用接口115手动地执行所述绘图。例如,医师或其他用户可以访问图像,并且可以将图像或像素图叠加在需要被避开的敏感或关键范围上。
危险区信息144可以被并入过程置信/复合空间图中,其被用作对计算机辅助路径规划和过程优化的输入。在一个实施例中,当十字线或其他靶符号与这些危险区区域重合时,可以触发报警灯、声音或其他报警机构141,以警告所述医师不应在该(一个或多个)位置激发所述装置(例如针)。
在尤其有用的实施例中,可以基于任何或所有装置(例如,所述注射器、所述针、所述内窥镜、辅助感测探头等)的机器人驱动的闭环控制,以半自动或自动的方式执行路径规划。在一个实施例中,手动或自动地控制机器人132,以将带有针124的装置122等定位在适当位置。机器人132可以采用被存储在存储器116中的图111来确定执行所述过程的最佳范围。靶确定模块108使用自动确定的或由用户手动创建的危险区图144(以及其他图)来计算最佳范围。机器人132可以用于将注射装置122引导到位置,并且根据深度或力反馈来部署针124。可以控制机器人132,以使用延伸机构126和来自图111(包括用于确定用于由模块108执行过程的可接受位置的组织数据)的信息,定位注射装置122。机器人132将注射装置122引导到合适位置,并且激发针124。应当理解,可以在用户的手动辅助下,采用所述引导和激发任务。例如,用户可以执行所述引导,但进行所述激发,或者反之亦然。
机器人或闭环系统132可以测量深度和力信息,并且将其用作与用于控制针124的注射深度的反馈相同。所述力可以由传感器124测量,并且所述深度可以通过其他部件的注射装置122中的电机/服务器125的平移来测量。所述力、深度或其他参数可以被实时地显示在显示器118上,以在 所述过程期间辅助所述用户。
本系统100延伸到心脏介入以外,并且可以被应用于其他过程。例如,本原理应用于内窥镜引导的结构心脏过程(例如,瓣膜修复、卵圆孔未闭封堵等)、用于心脏再同步化治疗的内窥镜引导的心外膜电极导联放置、内窥镜引导的心外膜消融过程、内窥镜引导的腹部介入、经自然腔道内窥镜外科手术(NOTES)过程、介入肿瘤学、介入性神经放射学、介入性疼痛过程等。
参考图2,内部靶图像200示出如由配备照相机的内窥镜进行成像的心脏202的透视图。该实施例描述一种系统/方法,以提供在心脏202或心脏202的一部分上的数字叠加204。在一个范例中,叠加204指示关于选定区域的心脏壁厚、瘢痕/局部缺血或其他病理信息。可以通过纹理、颜色、阴影或其他视觉效果(闪光、闪烁、颜色改变、动画等)指示所述壁厚或其他特性。有利地,虚拟图像204被配准到心脏202,以确保虚拟图像204中的信息直接与心脏202的位置相对应。虚拟图像204优选地被示为叠加在术中实时内窥镜图像上,如在图2中所描绘的。以此方式,对临床医师/医师来说,可获得直接引导数据,以做出有关所述过程的实时决策。优选地,针对实时数据的每一帧,更新虚拟图像204。
通过采用配准方法(例如,使用参考标记、限定原点等),建立内窥镜坐标系与术前3D图像之间的变换。所述术前3D图像可以包括,例如计算机断层摄影(CT)、磁共振(MR)、正电子发射断层摄影(PET)或其他成像技术。用例如由叠加204指示的壁厚信息,增强如在内窥镜图像中看到的心脏202的表面。可以确定可接受的针深度,并且能够选择能够适应所述针深度的位置,用于注射。能够通过关联颜色和颜色的阴影指示所述厚度,以示出随着位置改变的壁厚。以类似方式,也可以使有关要处理的所述介入的其他形态测定/构成/功能信息可视化。注意,可以在虚拟图像204中出现多于一个特性。例如,可以通过交叉线区域指示瘢痕组织,同时所述壁厚可以依赖于色谱,以示出变化。
参考图3,说明性地示出一种根据本原理用于利用视觉成像益处的方法。在方框302中,从重建自3D医学成像研究(CT、MRI、超声(US)等)的3D心脏表面来测量感兴趣特性,例如心脏壁厚。这可以在过程之前 完成,或者在一些情况中可以同时执行。这取决于正被收集的信息的类型以及可用的成像或其他工具的类型。在方框304中,从收集到的信息中探测来自所述成像研究的瘢痕/局部缺血/病理区域。这些特征将变为对靶区域的表面的绘图的一部分,但也是用于重新配准这些特征(如将被描述的)的有用引导标准。
在方框306中,将内窥镜或其他成像装置引入患者中,用于实时地对所述靶区域进行成像。收集所述靶区域的图像。在方框308中,通过将图像图(虚拟图像)与所述靶区域的实际图像进行配准,建立内窥镜/靶表面变换。这可以使用一种或多种不同的配准技术得以执行。这些技术可以采用在与视觉图像相关的图数据中收集到的物理特征等。
在方框310中,提供配准,并且可以做出与所述视觉图像中的每个像素的特征关联。例如,可以使用经测量的特性和所述变换,在所述内窥镜图像的每个像素中,建立心脏的壁厚。在方框312中,可以使用经测量的特性和所述变换,在内窥镜图像中建立瘢痕区域位置或其他特征。在方框314中,通过将所述虚拟图像或图信息叠加在所述内窥镜图像上,使经配准的虚拟图像/内窥镜图像可视化。
参考图4,示意图说明性地示出了用于通过器械端口部署的针注射的过程。该实施例是对参考图2和图3描述的实施例的延伸。内窥镜402被插入到患者404中。此外,可以采用其他器械406、408。可以通过不同进入点或除针对内窥镜402的器械端口411以外的器械端口410,将额外的器械406、408插入到患者的胸腔中。
参考图5并继续参考图4,假定已知器械端口410或411相对于内窥镜402的位置(例如侧面、同心、具有固定的已知机械耦合等),则交叉线412或其他标记能够被叠加在图像420上,指示器械端口410、411的轴到内窥镜图像420中的解剖结构416上的投影。如果通过内窥镜402或通过任何其他器械端口410将器械(例如针等等)插入通道中,这将指示所述器械的预期轨迹。
图像420也包括如参考图2所描述的图204。可以同时显示图204和十字线412,从而可以采用叠加204中的所述叠加数据来选择手术部位并且使用所述十字线412来瞄准器械。
参考图6,另一实施例针对由机器人504把持内窥镜502的情况是尤其有用的。如果感兴趣范围506在当前内窥镜视图中是不可见的,则可以由机器人504使用在所述图中或术前图像中提供的表面信息以及从前文描述的配准中得出的心脏表面与所述机器人之间的已知几何关系,操纵内窥镜502。另外,能够使用视觉服务方法操纵机器人504,其中,能够在术前图像上并通过配准识别壁厚或局部缺血/瘢痕/病理组织的区域,并且就将其用于将机器人504调遣到期望位置。
另一实施例包括通过器械端口进行部署的注射针508。可以通过机器人引导的内窥镜502的工作通道部署注射针508,或者可以利用刚性机械耦合将其与机械内窥镜502进行空间校准。可以使用内窥镜图像引导注射针508,并且可以通过机器人504部署注射针508。由于机器人504能够精确地控制针508或其他器械的插入深度,该方法可以显著地改善针放置的准确度。
参考图7并继续参考图6,内窥镜图像600描绘具有被叠加在其上的虚拟图像204的靶区域416,例如心脏。器械端口位置提供十字线或其他标记602作为注射部位。靶602被以数字方式绘制在图像600上,以提供应当在哪里发生所述针的手动或通过机器人控制前进的视觉指示。所述用户选择插入的点602以及插入的深度,并且可以采用机器人504来部署针508或其他工具。然后由所述用户执行所述注射。
在另一实施例中,机器人504能够定位并定向针508,并且由外科医师执行插入/部署。随着针508被插入,所述机器人或机器人系统504能够感测插入的深度,
n,例如从电机编码器,其能够由工作站(图1中的112)来处理,并在显示器(118)中被叠加在内窥镜图像600上。显示器(118)可以包括针508与外部心脏表面、内部心脏表面的距离,或与规划深度的距离。
在又一实施例中,机器人504能够为所述外科医师将针508插入或能够定向针508,以将所述器械驱动到心脏表面内。在一种情况中,采用传感器512(诸如,测量组织偏转的力传感器或张力/形状传感器)来探测针508何时穿过不同组织的层。当组织刚度增大或减小时,该信息可以由工作站(112)进行处理并被叠加或显示在内窥镜图像600上或显示器的其他范围 上。该力信息也可以用作闭环系统的一部分,其中,所述机器人驱动所述针直到达到某种转变或阻力的值。
参考图8,在另一实施例中,可以在术中获得组织特性或图。例如,使用超声测量,可以在术中获得心脏壁701厚度。通过引入超声探头702以收集超声图像,能够获得所述超声测量结果。
应当理解,也可以采用其他成像技术。例如,代替超声技术或除超声技术以外,用于形态测定/功能探查的装置702可以基于利用光谱学或成像(诸如散射光学断层摄影、光学相干断层摄影、光声学、辐射计数探测(例如,微型伽马照相机))等的询问。
在本范例中,可以将所述超声图像与经由(例如所述内窥镜内携带的)第二成像装置704(诸如,探头、照相机、换能器元件等)同时获得的内窥镜图像进行匹配。校准所述成像装置图像,以确定它们相对于彼此和所述内窥镜照相机投影的空间关系。针对厚度等的超声测量的方法在本领域是已知的。例如,使用最简单的A-模式US,能够探测心脏的外表面的反射,其能够被用作壁厚的指示。
为了便于装置(例如针)放置,从超声测量获得的厚度信息应当被显示在所述内窥镜图像上。随着超声装置702在心脏表面701上移动,能够使用本领域已知的摄影测量方法在内窥镜图像上跟踪超声装置702。因此,装置702相对于所述图像的位置是已知的,并且测量数据能够例如在图2中所示地进行叠加。
参考图9,描绘了说明性内窥镜图像802。图像802包括心脏804以及对应于高风险区的危险区806和808的视觉描绘,在所述高风险区中存在需要由注射针等避开的关键解剖结构。能够基于来自术前成像或来自这种信息的解剖库的患者特异性信息,识别这些结构或区域806、808,所述信息能够被绘制到通过内窥镜可视化的患者特异性坐标空间中。区域806和808可以以数字方式被绘制到将在显示器(例如,图1的显示器118)上显示的心脏表面804(或其他器官或组织表面)上,以允许由医师或其他用户进行可视化。在过程置信/复合空间图中可以采用针对危险区806、808的所述信息,可以采用过程置信/复合空间图作为计算机辅助路径规划和过程优化的输入。可以基于对在过程中采用的工具的(一个或多个)机器人致 动机构的控制,在(半)自动过程中执行所述路径规划。
参考图10,根据另一实施例描绘了一种用于装置引导的方法。在方框902中,针对患者的靶区域,确定或测量感兴趣特性。所述特性可以是任何特征,并且可以包括例如组织厚度、瘢痕组织位置、组织密度等。在方框904中,执行对所述靶区域的实时成像,以提供实时图像。如将被描述的,所述实时图像将充当用于叠加的背景或基本图像。
在方框906中,生成叠加图,并在显示器或其他绘制上将其配准到所述实时图像,以将形态特征信息投影在所述靶区域的所述实时图像中的对应特征上。可以使用成像系统在术前或术中从所述靶区域收集形态特征信息。所述叠加图包括指示关于正被成像的对应组织的信息的像素值。以此方式,所述叠加图指示经测量的特征值,从而医师、其他用户或计算机装置能够确定用于执行过程的一个或多个最佳位置。在方框908中,所述叠加图可以包括颜色或纹理变化、动画等,以指示形态特征信息中的变化。在方框910中,所述叠加图可以包括显示可接受的注射部位和/或靶或十字线,以辅助对装置进行瞄准。在方框912中,所述叠加图可以显示不应当发生注射的危险区。
在方框914中,在所述靶区域上执行过程,从而基于所述叠加图将至少一个医疗器械引导到适合用于执行手术任务的区域。所述靶区域可以包括心脏,并且所述形态特征信息可以包括所述心脏上的壁厚和瘢痕组织中的至少一个,并且执行过程的所述步骤可以包括在方框916中操纵针到所述靶区域以及根据方框918中的所述叠加图将所述针部署到所述靶区域中。
在方框920中,所述过程可以包括使用所述叠加图使医疗器械到所述靶区域的机器人引导,以控制到可手术部位的引导。也可以采用所述机器人来根据所述叠加图部署所述器械。在一个实施例中,用户可以规划所述至少一个医疗器械的取向和深度,并且所述机器人将所述至少一个医疗器械插入到器官中。在另一实施例中,用户可以规划所述医疗器械的取向和深度,所述机器人对所述器械进行定向,所述用户插入所述器械(例如,针),所述机器人系统测量所述深度,并且所述成像装置/可视化系统实时地示出当前深度。在又一实施例中,所述用户规划所述器械的取向和深度,所述机器人对所述器械进行定向,所述用户插入所述器械(例如针),所述 机器人系统经由力传感器测量所述力,并且所述可视化系统实时地示出当前插入力。在另一实施例中,所述用户规划所述器械的取向和深度,所述机器人对所述器械进行取向并将其插入,所述机器人系统经由力传感器测量所述力,并且所述力信息用于闭环控制系统,以使用实时力信息来控制深度。也预期机器人与手动协作的其他组合。
在方框922中,可以在所述实时图像中生成十字线或其他符号,用于瞄准所述至少一个医疗器械,并且当所述十字线被瞄准在如由所述叠加图指示的风险区时,可以触发警报。
在解释所附权利要求书时,应当理解:
a)“包括”一词不排除存在除给定权利要求中所列举的那些以外的其他元件或操作;
b)元件前面的词语“一”或“一个”不排除存在多个这样的元件;
c)权利要求中的任何附图标记不限制其范围;
d)可以由相同项或硬件或软件实施的结构或功能来表示若干“模块”;以及
e)操作的特定顺序不意为必须的,除非具体指明。
已描述了用于在内窥镜外科手术期间引导注射的系统和方法的优选实施例(其意为说明性并且非限制性的),应当注意,本领域技术人员在上述教导的启示下能够做出多种修改和变型。因此应当理解,可以在所公开的公开内容的特定实施例中进行多种改变,所述改变在如由所附权利要求书概括的本文所公开的实施例的范围内。已因此描述的细节以及专利法规所要求的特殊性,所要求保护并且期望受专利证书保护的内容在所附权利要求书中得以阐述。

Claims (12)

1.一种引导系统,包括:
实时成像装置(121),其被配置为在术中收集靶区域的图像数据,以提供实时图像;
靶确定模块(108),其被配置为生成被配准到所述实时图像的叠加图(111),以将形态特征信息投影到所述靶区域的所述实时图像中的对应特征上;以及
至少一个医疗器械(122),其用于在所述靶区域上执行过程,从而基于所述叠加图,将所述至少一个医疗器械引导到适合用于执行手术任务的区域,所述至少一个医疗器械被配置为基于所述形态特征信息执行所述手术任务。
2.如权利要求1所述的系统,其中,所述靶区域(140)包括心脏,并且所述形态特征信息包括所述心脏上的壁厚和瘢痕组织中的至少一个。
3.如权利要求2所述的系统,其中,所述叠加图(111)包括颜色变化和纹理变化之一,以指示所述心脏上的所述壁厚和瘢痕组织中的至少一个的变化。
4.如权利要求1所述的系统,其中,所述至少一个医疗器械(122)包括针(124),并且所述叠加图(111)示出能够接受的注射部位。
5.如权利要求1所述的系统,其中,所述至少一个医疗器械(122)包括针(124),并且所述叠加图(111)示出不应当发生注射的危险区(144)。
6.一种工作站,包括:
处理器(114);
存储器(116),其被耦合到所述处理器;
实时成像装置(121),其被配置为在术中收集靶区域的图像数据,以提供实时图像;
靶确定模块(108),其被存储在所述存储器中,并且被配置为在显示器上生成被配准到所述实时图像的叠加图(111),以将形态特征信息投影到所述靶区域的所述实时图像中的对应特征上;以及
至少一个医疗器械(122),其被手动地或自动地控制为在所述靶区域上执行过程,从而基于所述叠加图,将所述至少一个医疗器械引导到适合用于执行手术任务的区域,所述至少一个医疗器械被配置为基于所述形态特征信息执行所述手术任务。
7.如权利要求6所述的工作站,其中,使用机器人(132)引导所述至少一个医疗器械(122),并且基于所述叠加图(111)控制所述机器人。
8.如权利要求7所述的工作站,其中,所述机器人(132)将所述至少一个医疗器械(122)的针(124)插入到器官中,并且测量所述针的插入深度和插入力中的至少一个。
9.如权利要求8所述的工作站,其中,显示器(118)实时地指示所述插入深度和插入力中的至少一个。
10.如权利要求8所述的工作站,其中,在闭环控制系统中采用关于所述插入力的信息,以控制插入深度。
11.如权利要求6所述的工作站,其中,所述靶确定模块(108)在所述实时图像中生成十字线,用于瞄准所述至少一个医疗器械(122)。
12.如权利要求11所述的工作站,还包括报警机构(141),其被配置为当所述十字线被瞄准在如由所述叠加图指示的风险区时,提供警报。
CN201280029752.XA 2011-06-17 2012-06-11 用于内窥镜手术期间的引导注射的系统 Active CN103619278B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161498062P 2011-06-17 2011-06-17
US61/498,062 2011-06-17
PCT/IB2012/052940 WO2012172474A1 (en) 2011-06-17 2012-06-11 System and method for guided injection during endoscopic surgery

Publications (2)

Publication Number Publication Date
CN103619278A CN103619278A (zh) 2014-03-05
CN103619278B true CN103619278B (zh) 2016-08-24

Family

ID=46514716

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280029752.XA Active CN103619278B (zh) 2011-06-17 2012-06-11 用于内窥镜手术期间的引导注射的系统

Country Status (5)

Country Link
US (1) US11304686B2 (zh)
EP (1) EP2720636B8 (zh)
JP (1) JP6404713B2 (zh)
CN (1) CN103619278B (zh)
WO (1) WO2012172474A1 (zh)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11412998B2 (en) 2011-02-10 2022-08-16 Karl Storz Imaging, Inc. Multi-source medical display
US10631712B2 (en) * 2011-02-10 2020-04-28 Karl Storz Imaging, Inc. Surgeon's aid for medical display
US10674968B2 (en) * 2011-02-10 2020-06-09 Karl Storz Imaging, Inc. Adjustable overlay patterns for medical display
EP2915157B1 (en) 2012-10-30 2019-05-08 Truinject Corp. System for injection training
WO2014084398A1 (ja) 2012-11-30 2014-06-05 株式会社 東芝 医用画像診断装置
EP2943123B1 (en) * 2013-01-08 2023-12-13 Biocardia, Inc. Target site selection, entry and update with automatic remote image annotation
JP6456924B2 (ja) 2013-04-30 2019-01-23 シーダーズ−サイナイ メディカル センター 医療処置のための固定装置及び方法
US9592095B2 (en) 2013-05-16 2017-03-14 Intuitive Surgical Operations, Inc. Systems and methods for robotic medical system integration with external imaging
CN103584918B (zh) * 2013-08-22 2016-07-27 中南大学湘雅三医院 遥控介入机器人系统
US20150157197A1 (en) * 2013-12-09 2015-06-11 Omer Aslam Ilahi Endoscopic image overlay
WO2015101948A2 (en) * 2014-01-06 2015-07-09 Body Vision Medical Ltd. Surgical devices and methods of use thereof
JP2017503593A (ja) * 2014-01-24 2017-02-02 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 光学形状検出装置の視点を伴う仮想画像
EP3102141B1 (en) 2014-02-04 2019-08-14 Koninklijke Philips N.V. A system for visualising an anatomical target
EP3169264A1 (en) * 2014-07-15 2017-05-24 Koninklijke Philips N.V. Image integration and robotic endoscope control in x-ray suite
EP3212271B1 (en) * 2014-10-29 2022-03-16 Cedars-Sinai Medical Center Apparatuses and systems for controlled delivery of therapeutics and related substances
JP2017532146A (ja) 2014-10-30 2017-11-02 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. カーブした構造の超音波視覚化
US10687898B2 (en) * 2014-11-14 2020-06-23 The Johns Hopkins University Systems and methods for atrial fibrillation treatment and risk assessment
US20180132944A1 (en) * 2015-05-18 2018-05-17 Koninklijke Philips N.V. Intra-procedural accuracy feedback for image-guided biopsy
CA2990631A1 (en) 2015-06-23 2016-12-29 Stryker Corporation Delivery system and method for delivering material to a target site
JP6985262B2 (ja) * 2015-10-28 2021-12-22 エンドチョイス インコーポレイテッドEndochoice, Inc. 患者の体内における内視鏡の位置を追跡するための装置及び方法
WO2017151963A1 (en) 2016-03-02 2017-09-08 Truinject Madical Corp. Sensory enhanced environments for injection aid and social training
CN105536093B (zh) * 2016-03-10 2019-05-03 京东方科技集团股份有限公司 智能输液系统以及使用智能输液系统的输液方法
CN109069213B (zh) * 2016-03-31 2022-12-27 皇家飞利浦有限公司 用于肿瘤抽吸的图像引导的机器人系统
CN109414180B (zh) * 2016-06-30 2022-01-07 直观外科手术操作公司 在图像引导程序期间以多种模式显示指导信息的图形用户界面
WO2018005861A1 (en) 2016-06-30 2018-01-04 Intuitive Surgical Operations, Inc. Graphical user interface for displaying guidance information during an image-guided procedure
FR3059885B1 (fr) * 2016-12-08 2020-05-08 Koelis Dispositif de visualisation d’un organe interne d’un patient ainsi qu’un procede de visualisation associe
WO2018136901A1 (en) 2017-01-23 2018-07-26 Truinject Corp. Syringe dose and position measuring apparatus
EP3612121A4 (en) 2017-04-18 2021-04-07 Intuitive Surgical Operations, Inc. GRAPHIC USER INTERFACE TO MONITOR AN IMAGE GUIDED PROCEDURE
US20190117459A1 (en) 2017-06-16 2019-04-25 Michael S. Berlin Methods and Systems for OCT Guided Glaucoma Surgery
US20180360655A1 (en) 2017-06-16 2018-12-20 Michael S. Berlin Methods and systems for oct guided glaucoma surgery
JP6981793B2 (ja) * 2017-06-30 2021-12-17 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像診断装置及びプログラム
US10835310B2 (en) 2017-08-29 2020-11-17 Ethicon Llc Electrically-powered surgical systems
US10856928B2 (en) * 2017-08-29 2020-12-08 Ethicon Llc Electrically-powered surgical systems
JP2021510110A (ja) * 2018-01-10 2021-04-15 コヴィディエン リミテッド パートナーシップ 外科用ポートの配置のためのガイダンス
JP7252268B2 (ja) * 2018-03-17 2023-04-04 キヤノン ユーエスエイ,インコーポレイテッド 3d医用画像データにおける皮膚表面上の仮想デバイス配置のための方法
KR20210005901A (ko) * 2018-04-25 2021-01-15 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 세장형 장치와 관련된 시스템 및 방법
US11026585B2 (en) * 2018-06-05 2021-06-08 Synaptive Medical Inc. System and method for intraoperative video processing
JP7143436B2 (ja) * 2018-11-01 2022-09-28 富士フイルム株式会社 医療画像処理装置、医療画像処理装置の作動方法及びプログラム、診断支援装置
US20220079557A1 (en) * 2019-01-18 2022-03-17 Institut Hospitalo-Universitaire De Strasbourg System and method for medical navigation
DE102019200803A1 (de) * 2019-01-23 2020-07-23 Siemens Healthcare Gmbh Medizintechnischer Roboter, medizinisches System, Verfahren zu deren Betrieb, Computerprogramm und Speichermedium
US10867375B2 (en) * 2019-01-30 2020-12-15 Siemens Healthcare Gmbh Forecasting images for image processing
US11406454B2 (en) * 2019-03-29 2022-08-09 Gyrus Acmi, Inc. Anti-perforation device
US11497564B2 (en) * 2019-06-07 2022-11-15 Verb Surgical Inc. Supervised robot-human collaboration in surgical robotics
JP7495216B2 (ja) 2019-09-18 2024-06-04 ザイオソフト株式会社 鏡視下手術支援装置、鏡視下手術支援方法、及びプログラム
WO2021078918A1 (en) * 2019-10-23 2021-04-29 Koninklijke Philips N.V. Apparatus and method for assisting precision ablation and the planning thereof
EP3832659A1 (en) * 2019-12-02 2021-06-09 Koninklijke Philips N.V. Apparatus and method for assisting precision ablation and the planning thereof
US11896323B2 (en) * 2020-09-01 2024-02-13 Aibolit Technologies, Llc System, method, and computer-accessible medium for automatically tracking and/or identifying at least one portion of an anatomical structure during a medical procedure
US20220192748A1 (en) * 2020-12-22 2022-06-23 Biosense Webster (Israel) Ltd. Displaying annotations on design line formed on anatomical map
JP6951811B1 (ja) * 2021-03-31 2021-10-20 国立大学法人 岡山大学 穿刺ロボットシステム
CN113712574B (zh) * 2021-09-03 2022-06-21 上海诺诚电气股份有限公司 一种脑电生物反馈得康复方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5660185A (en) * 1995-04-13 1997-08-26 Neovision Corporation Image-guided biopsy apparatus with enhanced imaging and methods

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030113303A1 (en) * 1998-02-05 2003-06-19 Yitzhack Schwartz Homing of embryonic stem cells to a target zone in tissue using active therapeutics or substances
US6424885B1 (en) * 1999-04-07 2002-07-23 Intuitive Surgical, Inc. Camera referenced control in a minimally invasive surgical apparatus
US20040102804A1 (en) * 1999-08-10 2004-05-27 Chin Albert K. Apparatus and methods for endoscopic surgical procedures
US7556602B2 (en) * 2000-11-24 2009-07-07 U-Systems, Inc. Breast cancer screening with adjunctive ultrasound mammography
US7740623B2 (en) * 2001-01-13 2010-06-22 Medtronic, Inc. Devices and methods for interstitial injection of biologic agents into tissue
US6785572B2 (en) * 2001-11-21 2004-08-31 Koninklijke Philips Electronics, N.V. Tactile feedback and display in a CT image guided robotic system for interventional procedures
US7877130B2 (en) * 2002-10-03 2011-01-25 Siemens Medical Solutions Usa, Inc. System and method for using delayed enhancement magnetic resonance imaging and artificial intelligence to identify non-viable myocardial tissue
US7693563B2 (en) * 2003-01-30 2010-04-06 Chase Medical, LLP Method for image processing and contour assessment of the heart
JP3982817B2 (ja) 2003-03-07 2007-09-26 株式会社東芝 画像処理装置および画像処理方法
JP2007512854A (ja) * 2003-04-28 2007-05-24 ブラッコ イメージング ソチエタ ペル アチオニ 手術用ナビゲーションシステム(カメラプローブ)
DE10352011A1 (de) * 2003-11-07 2005-06-16 Siemens Ag Einrichtung zur verbesserten kardiologischen Ablation
US7877128B2 (en) * 2005-08-02 2011-01-25 Biosense Webster, Inc. Simulation of invasive procedures
WO2007141784A2 (en) * 2006-06-05 2007-12-13 Technion Research & Development Foundation Ltd. Controlled steering of a flexible needle
JP4738270B2 (ja) * 2006-07-14 2011-08-03 株式会社日立メディコ 手術支援装置
US20080249467A1 (en) * 2007-04-05 2008-10-09 Daniel Rogers Burnett Device and Method for Safe Access to a Body Cavity
US20090048525A1 (en) 2007-08-14 2009-02-19 Biomedix, Inc. Venous refill testing system and method
WO2009023247A1 (en) * 2007-08-16 2009-02-19 East Carolina University Smart injection syringe systems providing real-time user feedback of correct needle position
JP5337367B2 (ja) 2007-10-31 2013-11-06 株式会社東芝 医用画像表示装置
US8195271B2 (en) * 2007-11-06 2012-06-05 Siemens Aktiengesellschaft Method and system for performing ablation to treat ventricular tachycardia
US20110282192A1 (en) 2009-01-29 2011-11-17 Noel Axelrod Multimodal depth-resolving endoscope
JP2010200894A (ja) 2009-03-02 2010-09-16 Tadashi Ukimura 手術支援システム及び手術ロボットシステム
US8747297B2 (en) 2009-03-02 2014-06-10 Olympus Corporation Endoscopic heart surgery method
CA2761844C (en) 2009-05-14 2017-11-28 University Health Network Quantitative endoscopy
CN102625669B (zh) * 2009-06-08 2015-09-23 核磁共振成像介入技术有限公司 能够近实时地跟踪和生成柔性体内装置的动态可视化的mri导向的介入系统
US20110087110A1 (en) * 2009-10-13 2011-04-14 Cell Genetics, Llc Medical imaging processes for facilitating catheter-based delivery of therapy to affected organ tissue
US20120265051A1 (en) * 2009-11-09 2012-10-18 Worcester Polytechnic Institute Apparatus and methods for mri-compatible haptic interface
WO2012141189A1 (ja) 2011-04-11 2012-10-18 日本電気株式会社 暗号化方法、暗号化装置および暗号化プログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5660185A (en) * 1995-04-13 1997-08-26 Neovision Corporation Image-guided biopsy apparatus with enhanced imaging and methods

Also Published As

Publication number Publication date
JP6404713B2 (ja) 2018-10-17
EP2720636A1 (en) 2014-04-23
US11304686B2 (en) 2022-04-19
WO2012172474A1 (en) 2012-12-20
JP2014525765A (ja) 2014-10-02
EP2720636B8 (en) 2020-04-08
EP2720636B1 (en) 2020-02-26
US20140142422A1 (en) 2014-05-22
CN103619278A (zh) 2014-03-05

Similar Documents

Publication Publication Date Title
CN103619278B (zh) 用于内窥镜手术期间的引导注射的系统
US11980505B2 (en) Visualization of depth and position of blood vessels and robot guided visualization of blood vessel cross section
US11896414B2 (en) System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target
US11341692B2 (en) System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
CN110811835B (zh) 计算机断层扫描增强的荧光透视系统、装置及其使用方法
US20150112126A1 (en) Enhanced visualization of blood vessels using a robotically steered endoscope
JP2013031660A (ja) 医療映像処理方法及び装置、映像誘導を利用したロボット手術システム
EP3783568A2 (en) Systems and methods of fluoro-ct imaging for initial registration
EP3545852A1 (en) Electromagnetic navigation bronchoscopy using ultrasound
US11857276B2 (en) System and method for displaying an alignment CT

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant