Connect public, paid and private patent data with Google Patents Public Datasets

外科规划系统和导航系统

Download PDF

Info

Publication number
CN103445866A
CN103445866A CN 201310361572 CN201310361572A CN103445866A CN 103445866 A CN103445866 A CN 103445866A CN 201310361572 CN201310361572 CN 201310361572 CN 201310361572 A CN201310361572 A CN 201310361572A CN 103445866 A CN103445866 A CN 103445866A
Authority
CN
Grant status
Application
Patent type
Prior art keywords
direction
lines
conductive
electrically
along
Prior art date
Application number
CN 201310361572
Other languages
English (en)
Other versions
CN103445866B (zh )
Inventor
K·弗兰克
J·A·卡塞
C·M·兰特考瓦
Original Assignee
科维蒂恩有限合伙公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/18Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves
    • A61B18/1815Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves using microwaves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/56Details of data transmission or power supply
    • A61B8/565Details of data transmission or power supply involving data transmission via a network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/04Protection of tissue around surgical sites against effects of non-mechanical surgery, e.g. laser surgery
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/04Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating
    • A61B18/12Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating by passing a current through the tissue to be heated, e.g. high-frequency current
    • A61B18/14Probes or electrodes therefor
    • A61B18/1477Needle-like probes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00477Coupling
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00571Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body for achieving a particular surgical effect
    • A61B2018/00577Ablation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/04Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating
    • A61B18/12Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating by passing a current through the tissue to be heated, e.g. high-frequency current
    • A61B18/14Probes or electrodes therefor
    • A61B2018/1405Electrodes having a specific shape
    • A61B2018/1425Needle
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/18Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves
    • A61B18/1815Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves using microwaves
    • A61B2018/183Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves using microwaves characterised by the type of antenna
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/18Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves
    • A61B18/1815Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves using microwaves
    • A61B2018/1869Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves using microwaves with an instrument interstitially inserted into the body, e.g. needles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • A61B2034/104Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/04Protection of tissue around surgical sites against effects of non-mechanical surgery, e.g. laser surgery
    • A61B2090/0463Protection of tissue around surgical sites against effects of non-mechanical surgery, e.g. laser surgery against cooling or freezing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/04Protection of tissue around surgical sites against effects of non-mechanical surgery, e.g. laser surgery
    • A61B2090/0472Protection of tissue around surgical sites against effects of non-mechanical surgery, e.g. laser surgery against ultrasound energy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/04Protection of tissue around surgical sites against effects of non-mechanical surgery, e.g. laser surgery
    • A61B2090/0481Protection of tissue around surgical sites against effects of non-mechanical surgery, e.g. laser surgery against EM radiation, e.g. microwave
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3925Markers, e.g. radio-opaque or breast lesions markers ultrasonic
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Abstract

本发明涉及一种外科规划和导航系统。该规划系统包括存储器,其配置为存储多个图像;以及控制器,其配置为以三维渲染多个图像、自动分割多个图像以将目标区域划界、以及基于目标区域自动地确定治疗方案。所述导航系统包括具有基准模式的超声设备,其获得超声图像;以及外科设备,其具有图像获取设备,配置为获取基准模式的图像;以及控制器,其接收超声图像和基准图像。控制器基于基准图像确定外科设备的位置。所述规划和导航系统还包括控制器,其从规划和导航系统接收数据;以及显示器,其配置为显示所接收的信息。

Description

外科规划系统和导航系统

技术领域

[0001] 本公开涉及一种外科手术。更加具体地,本公开涉及使用规划系统以确定治疗方案以及使用导航系统以实现治疗方案。

背景技术

[0002] 电外科设备已经广泛地使用。电外科涉及在外科手术期间利用热能和/或电能来切割、解剖、切除、凝结、烧灼、密封或以其他方式处理生物组织。通常使用手持件进行电外科,所述手持件包括适于在电外科手术期间传输能量至组织部位的外科设备(例如,末端执行器或切除探头)、可操作以输出能量的远程电外科发生器、以及可操作地将所述外科设备连接至远程发生器的电缆组件。

[0003] 某些疾病的治疗需要破坏恶性组织的生长,例如肿瘤。在诸如癌症的疾病的治疗中,已经发现某些类型的肿瘤细胞在比通常会对健康细胞有害的温度稍低的高温下变性。已知的治疗方法,诸如高温疗法,通常包括将病变细胞加热至高于41°C的温度而保持邻近健康细胞低于发生不可逆的细胞破坏的温度。这些方法可包括施加电磁辐射以加热、切除和/或凝结组织。有多种不同类型的电外科设备能够用于执行切除术。

[0004] 可以使用二维(2D)术前计算机断层扫描(CT)图像和“切除区图”来执行癌性肿瘤和良性肿瘤的肿瘤微创切除术,所述“切除区图”通常描述在实验的、离体组织中的切除针在输入参数(功率、时间)范围内的特征。能量剂量(功率、时间)能够与切除组织效应(体积、形状)关联以进行具体设计。能够通过微波天线设计控制输送至组织的能量剂量,例如,可利用天线扼流圈来提供从设备至组织的已知位置的微波传输。在另一示例中,电介质缓冲使得能够从设备至组织的相对恒定的能量输送,其独立于不同的或变化的组织特性。

[0005] 在用户确定应该使用哪种切除针来实现目标的治疗后,用户通过超声引导来进行治疗。通常,需要高水平技能来将外科设备置于由超声识别的目标中。其中最重要的是选择将设备向超声图像平面(例如,目标正被成像之处)引导所需的角度和进入点。

[0006] 超声引导介入包括使用实时超声成像(经腹、术中等)来精确地引导外科设备至它们的指定目标。这能够通过经皮施加和/或术中施加来进行。在每种情形中,超声系统将包括换能器,其对患者组织成像并用于识别目标以及预期和/或遵循朝向目标的器械的路径。

[0007] 超声引导介入在目前普遍地用于针吸活检术来确定已经探测的可疑病变的恶化(乳房、肝脏、肾脏以及其他软组织)。另外,中心线布置通常用来获得颈静脉通路以及允许输送药物。最后,新兴的用途包括肿瘤切除和器官(肝脏、肺脏、肾脏等)的手术切除。在肿瘤切除的情形中,在实现超声引导定位后,可利用活检式针来输送能量(RF、微波、低温等),旨在杀死肿瘤。在器官切除的情形中,解剖期间表层下解剖结构的熟练知识、以及外科设备关于该解剖结构的显示对于获得成功的手术切缘而避开关键结构来说是关键的。

[0008] 在这些情形中的每一个中,超声引导通常提供二维图像平面,其从患者施加的换能器的远端获取。对于用户来说,成功的设备定位最重要的是能够可视化和表征目标、选择器械角度和进入点以到达目标、以及观察外科设备及其朝向目标的运动。目前,用户对目标成像并使用高水平技能来选择器械角度和进入点。用户则必须移动超声换能器来观察器械路径(因此损失目标部位)或假定路径是准确的直至设备到达图像平面。最重要的是选择将设备朝向超声图像平面(例如,正在成像目标之处)引导所需的角度和进入点的能力。

发明内容

[0009] 本说明书可使用短语“在一个实施方式中”、“在各个实施方式中”、“在一些实施方式中”、或“在其他实施方式中”,其中每个指代根据本发明的一个或多个相同或不同的实施方式。出于描述目的,以形式“A/B”的短语意指A或B。出于描述目的,以形式“A和/或B”的短语意指“(A)、(B)或(A及B)”。出于描述目的,以形式“A、B、或C中的至少一个”的短语意指 “ (A)、(B)、(C)、(A 和 B)、(A 和 C)、(B 和 C)、或(A、B 和 C) ”。

[0010] 如附图所示的以及整个下文说明书所描述的,在指代外科设备上的相对定位时,与传统一样,术语“近侧”指代装置更接近用户或发生器的一端,而术语“远侧”指代装置远离用户或发生器的一端。术语“用户”指代执行包括使用本文所述的本发明各个方面的医疗术的任何医务人员(即,医生、护士等)。

[0011] 如说明书中所使用的,术语“外科设备”通常指代外科手术工具,其施加电外科能量以治疗组织。外科设备可包括但不限于针、探针、导管、内窥镜器械、腹腔镜器械、血管密封设备、外科缝合器等。术语“电外科能量”通常指代任何形式的电磁、光或声能。

[0012] 电磁(EM)能通常通过频率的增加或波长的降低分类为无线电波、微波、红外线、可见光、紫外线、X射线和伽马射线。如本文所使用的,术语“微波”通常指代处于300兆赫(MHz) (3 * IO8循环/秒)至300千兆赫(GHz) (3 * IO11循环/秒)的频率范围的电磁波。如本文所使用的,术语“RF”通常指代具有比微波更低频率的电磁波。如本文所使用的,术语“超声”通常指代具有大于人类听力上限的频率的循环声压。

[0013] 如本说明书中所使用 的,术语“切除术”通常指代任何切除术,诸如微波切除、射频(RF)切除或微波切除-辅助的割除。如本说明书所使用的,“能量施加器”通常指代能够用于从如微波或RF电外科发生器的能量发生源传输能量至组织的任何设备。

[0014] 如本说明书中所使用的,术语“能量源”和“电源”指代以适于运转电子线路形式的任何电能量源(例如,电池)。如本说明书中所使用的,“传输线路”通常指代能够用于信号从一点至另一点传播的任何传输介质。如本说明书所使用的,术语“开关”或“各开关”通常指代任意电致动器、机械致动器、电磁致动器(可旋转致动器、可枢转致动器、触发器类致动器、按钮等)、光学致动器、或任何合适设备,其通常实现电子设备、或其组件、器械、设备、输送线路或连接、及其上附件、或软件的连接和断开连接目的。

[0015] 如本说明书所使用的,“电子设备”通常指代利用电子或离子在真空、气体、或半导体中运动的特性的设备或对象。如本文所使用的,“电子电路”通常指代电子或离子运动的路径、以及由设备或对象为电子或离子提供的方向。如本文所使用的,“电气线路”或简单来说“电路”通常指代多个电气设备和导体的组合,它们在彼此连接时形成导电路径以实现期望功能。除了互连,电气电路的任何组成部件可以称为“电路元件”,它们可包括模拟和/或数字组件。[0016] 术语“发生器”可指代能够提供能量的设备。这样的设备可包括能量源以及电气电路,所述电气电路能够将能量源输出的能量变更为具有期望强度、频率、和/或波形的输出能量。

[0017] 如本说明书中所使用的,“用户接口”通常指代提供信息至用户或其他实体和/或从用户或其他实体接收信息的任何视觉、图形、触觉、听觉、感官、或其他机构。本文所使用的术语“用户接口”可指代人类用户(或操作者)和一个或多个设备之间的接口,以使得能够在用户和设备之间通信。本发明中各个实施方式中可利用的用户接口的示例包括但不限于开关、电位计、按钮、拨号盘、滑动器、鼠标、指点设备、键盘、键区、操纵杆、轨迹球、显示屏、各种类型的图形用户界面(GUI)、触屏、麦克风以及其他类型的传感器或设备,它们可接收人类发出的一些形式的刺激并产生响应其的信号。如本文所使用的,“计算机”通常指代有针对性地传输信息的任何东西。

[0018] 本文所述的系统还可以利用一个或多个控制器来接收各种信息并传输所接收的信息以产生输出。控制器可包括任何类型的计算设备、计算电路、或任何类型的处理器或处理电路,其能够执行存储在存储器中的一系列指令。控制器可包括多个处理器和/或多核中央处理单元(CPU),并可包括任何类型的处理器,诸如微处理器、数字信号处理器、微控制器等。控制器还可包括存储器以存储数据和/或算法从而来执行一系列指令。

[0019] 本文所述的任何方法、程序、算法、或代码可以转化为编程语言或计算机程序、或以编程语言或计算机程序来表达。“编程语言”和“计算机程序”是用于把指令指定给计算机的任何语言,并包括(但不限于)这些语言和它们的派生:Assembler (汇编语言)、Basic (基本语言)、Batch files (批处理文件)、BCPL> C、C+、C++、Delph1、Fortran、Java、JavaScript、机器代码、操作系统命令语言、Pascal、Perl、PLl、脚本语言、Visual Basic、自身指定程序的元语言、以及所有的第一、第二、第三、第四及第五代计算机语言。还包括数据库和其他数据模式、以及任意其他元语言。出于此定义的目的,没有在解译、编译、或使用编译和解译方法的语言之间做出区别。`出于此定义的目的,没有在程序的编译版本和源版本之间做出区别。因此,参考程序,其中编程语言能够以多于一种状态(诸如源、编译、对象、或链接)存在,可以参考任何的状态以及所有这样的状态。该定义还包括实际指令和这些指令的含义。

[0020] 本文所述的方法、程序、算法或代码中的任何一个可以包含在一个或多个机械可读介质或存储器中。术语“存储器”可包括提供(例如,存储和/或传输)诸如处理器、计算机、或数字处理设备的机器可读形式的信息的机构。例如,存储器可包括只读存储器(ROM)、随机存取存储器(RAM)、磁盘存储介质、光存储介质、闪存设备、或其他任意易失性或非易失性存储器存储设备。包含在它们上的代码或指令可通过载波信号、红外信号、数字信号、和其他类似信号来表达。

[0021] 如本说明书中所使用的,短语“治疗计划”指代选定的切除针、能量水平、和/或治疗持续时间以实现目标的治疗。术语“目标”指代将要治疗的组织区域,并且可包括且不限于肿瘤、纤维瘤、和待切除的其他组织。短语“切除区”指代将切除的组织区域和/或组织体。

[0022] 如本说明书中所使用的,短语“计算机断层扫描”(CT)或“计算机轴向断层扫描”(CAT)指代利用计算机处理产生的断层扫描的医疗成像方法。数字几何处理用于从围绕单个旋转轴采集的大系列二维X射线图像来生成对象内部的三维图像。

[0023] 如本说明书中所使用的,术语磁共振成像(MRI)、核磁共振成像(NMRI)、或磁共振断层扫描(MRT)指代在射线学中使用以可视化详细的内部结构的医疗成像技术。MRI利用核磁共振(NMR)特性来对体内原子核成像。MRI机器使用强力磁场来将体内的一些原子核的磁性对准,而使用射频场来系统地改变该磁性的对准。这引起核产生旋转磁场,其可由扫描器探测,以及记录该信息以构建所扫描的身体区域的图像。

[0024] 如本说明书中所使用的,术语“三维超声”或“ 3D超声”指代提供三维图像的医疗超声技术。

[0025] 如本说明书所使用的,术语“医学数字成像和通信”(DICOM)指代用于处理、存储、打印、和传输涉及医疗成像的信息的标准。它包括文件格式定义和网络通信协议。通信协议是使用TCP/IP以在各系统间通信的应用协议。DICOM文件能够在可接收DICOM格式的图像和患者数据的两个实体之间交换。

[0026] 本文所述的系统和方法中的任何一个可通过有线网络、无线网络、点对点通信协议、DICOM通信协议、传输线路、可移动存储介质等在其间传输数据。

[0027] 本文所述系统可利用一个或多个传感器,其配置为检测组织和/或周围环境的一个或多个属性。所述属性包括但不限于:组织阻抗、组织类型、组织透明度、组织顺应性、组织或钳构件的温度、组织中的水含量、钳开口角度、组织中的水形态、能量输送、以及钳闭合压。

[0028] 在本发明的一个方面,提供了一种规划和导航系统。该规划系统包括存储器,其配置为存储多个图像;以及第一控制器,其配置为以三维渲染多个图像、自动分割多个图像以将目标区域划界、以及基于目标区域自动确定治疗方案。导航系统包括超声设备,具有布置于其上的基准模式并配置为获得扫描平面中的超声图像;以及外科设备,其具有图像捕获设备,配置为捕获基准模式的基准图像;以及第二控制器,其配置为接收超声图像和基准图像,其中所述控制器基于基准图像确定外科设备关于扫描平面的位置。规划和导航系统还包括第三控制器,其配置为 接收所渲染的多个图像、目标区域、治疗方案、超声图像、以及外科设备关于扫描平面的位置;以及显示器,其配置为显示第一显示,其具有所渲染的多个图像、目标区域、以及治疗方案,以及配置为显示第二显示,其具有超声图像、基于外科设备关于扫描平面的位置的外科设备的虚拟图像、以及治疗方案。

[0029] 在规划和导航系统中,第一显示和第二显示被显示于单个屏幕上,并且可被同时显示或用户能够在第一显示和第二显示之间切换。可替代地,显示器可具有两个屏幕,并且第一显示在第一屏幕上显示而第二显示在第二屏幕上显示。显示器还提供了图形用户界面。

[0030] 第一控制器执行体分析以确定治疗方案,以及可提供输入装置以调节治疗方案。第一控制器还可分割至少一个血管并基于血管与目标的接近度调节治疗方案,或第一控制器可分割至少一个器官并基于目标关于器官的位置调节治疗方案。

[0031] 在规划和导航系统中,基准模式固定至超声设备上的已知位置,以及图像捕获设备固定至外科设备上的已知位置。基准模式具有多个已知特征和相对位置的标记,它们保持在已知拓扑结构中。

[0032] 第二控制器将基准图像对应至模型图像,评估照相机姿势、以及将外科设备转换至模型坐标系。第二控制器还校正基准图像的透镜失真。另外,第二控制器能够识别基准标记中的拓扑结构,其中拓扑结构参照两个或更多个独立的唯一标识符,它们以单模式定位在标记的已知位置。

附图说明

[0033] 本发明的上述和其他方面、特征、和优势将根据结合附图时的下面详细描述而变得更加清晰,其中:

[0034] 图1是根据本发明的一个实施方式的规划和导航系统的系统框图;

[0035] 图2A和2B是根据本发明一个实施方式的切除针的示意图;

[0036] 图3是图2A和2B的切除针的辐射模式的示意图;

[0037] 图4是根据本发明一个实施方式的规划系统的示意图;

[0038] 图5是描绘根据本发明一个实施方式的规划系统的全部操作的流程图;

[0039] 图6和7是根据本发明一个实施方式的用于规划系统中的图形用户界面的示意图;

[0040] 图8是描绘根据本发明一个实施方式的图像分割和逆向规划的算法的流程图;

[0041] 图9是描绘根据本发明一个实施方式的用于分割结节的算法的流程图;

[0042] 图10A-10B是切除区和能量输送之间的关系的图形表示;

[0043] 图1lA是根据本发明另一实施方式的血管和目标之间的关系的示意图;

[0044] 图1lB是根据本发明另一实施方式的可替换剂量曲线的图形表示;

[0045] 图12A-12C是根据本发明另一实施方式的规划方法的示意图;

[0046] 图13是根据本发明一个实施方式的导航系统的示意图;

[0047] 图14A和14B是用于图13的导航系统的图形用户界面的示意图;

[0048] 图15是描绘根据本发明一个实施方式的基准跟踪算法的流程图;

[0049] 图16A和16B分别描绘由照相机获得的图像以及该图像的校正版本;

[0050] 图17是描绘根据本发明一个实施方式的用于找到白色圆圈的算法的流程图;

[0051] 图18A-18C描绘了图17所描绘算法的中间图像结果;

[0052] 图19是描绘根据本发明一个实施方式的用于找到黑色圆圈和黑色区域的算法的流程图;

[0053] 图20A-20D描绘了图19所描绘算法的中间图像结果;

[0054] 图21A是描绘根据本发明一个实施方式的对应算法的流程图;

[0055] 图21B是描绘根据本发明一个实施方式的用于施加拓扑限制的算法的流程图;

[0056] 图22A-22D是用于图21A的算法的基准模型的示意图;

[0057] 图23是根据本发明另一实施方式的集成规划和导航系统的示意图;

[0058] 图24是根据本发明又一实施方式的集成规划和导航系统的示意图;

[0059] 图25A和25B是适于与图24的系统一起使用的导航系统的示意图;以及

[0060] 图26-29是根据本发明各个实施方式的用于图24的系统的图形用户界面的示意图。

具体实施方式[0061] 将在下文中参照附图对本发明的特定实施方式进行描述;然而,应该理解的是,所公开实施方式仅是本发明的示例且可以各种形式实现。没有描述公知的功能或构造从而避免以不必要细节混淆本发明。因此,本文所述的具体结构和功能细节不能解释为限制,而仅仅作为权利要求书的基础,以及作为教导本领域技术人员以实际上任何合适的详细结构而不同地利用本发明的代表性基础。在整个附图描述中相似附图标记指代相似或相同元件。

[0062] 转向附图,图1描绘了根据本发明各实施方式的规划和导航系统的整体视图。如图1所示,患者“P”的术前图像15通过图像捕获设备10捕获。图像捕获设备10可包括但不限于获得二维(2D)或三维(3D)图像的MRI设备、CAT设备、或超声设备。图像捕获设备10存储传输至规划系统100的术前图像15。术前图像15可以通过将图像15上传到网络、通过无线传输装置发送图像15至规划系统100、和/或将图像15存储在插入规划系统100的可移动存储器中来传输至规划系统100。在本发明的一个实施方式中,术前图像15以DICOM格式存储。在一些实施方式中,图像捕获设备10和规划系统100可合并到单机单元中。

[0063] 将在下文更加详细描述的规划系统100接收术前图像15并确定目标的尺寸。基于目标尺寸和选定的外科设备,规划系统100确定设置,设置包括实现目标的治疗的能量水平和治疗持续时间。

[0064] 在下文将更加详细描述的导航系统200利用布置于医疗成像设备(例如,超声成像设备)上的基准模式来确定外科设备的体内位置。外科设备的体内位置关于由医疗成像设备获得的图像而显示在显示设备上。一旦外科设备定位在目标附近,则用户基于由规划系统确定的治疗区设置来实现目标的治疗。

[0065] 在一些实施方式中,用户使用规划系统100来确定治疗区设置,以及使用导航系统200来利用治疗区设置实现治疗。在其他实施方式中,在外科设备处于目标附近时,规划系统100传输治疗区设置至导航系统200`以自动地实现目标的治疗。另外,在一些实施方式中,规划系统100和导航系统200结合为单个独立系统。例如,单个处理器和单个用户接口可用于规划系统100和导航系统200,单个处理器或多个用户接口可用于规划系统100和导航系统200,或者多个处理器和单个用户接口可用于规划系统100和导航系统200。

[0066] 图2A示出了根据本发明一个实施方式的外科设备的一个示例。具体而言,图2A示出了具有电扼流圈72的切除针60的变体的侧视图,以及图2B示出了图2A的横截侧图2B-2B。切除针60示出了辐射部62,其通过馈线(或轴杆)64电连接至近侧定位的耦合器66。辐射部62示出有涂覆在段62上的密封层68。电扼流圈72示出为部分地布置在馈线64的远侧段上以形成扼流部70,其靠近辐射部62定位。

[0067] 为了改善切除针60的能量聚焦,电扼流圈72用于将场传播或辐射模式包含至切除针60的远端。通常,扼流圈72布置在切除针60上靠近辐射段。扼流圈72置于介电材料上,所述介电材料布置在切除针60上。扼流圈72是导电层,其可以被管道或涂层覆盖以迫使该导电层符合底层切除针60,进而形成更加远离或接近辐射部62的电连接(或短路)。扼流圈72和底层切除针60之间的电连接还可以通过其他连接方法实现,诸如软焊、焊接、铜焊、压接、使用导电粘合剂等。切除针60电耦接至发生器,发生器为切除针60提供电外科能量。

[0068] 图3是根据本发明的切除针60的实施方式的剖面图,其示出以发射的辐射模式的图形表示。

[0069] 图4-12C描述根据本发明各个实施方式的规划系统100的操作。转向图4,规划系统100包括接收器102、存储器104、控制器106、输入设备108 (例如,鼠标、键盘、触摸板、触屏等)、以及显示器110。在规划系统100的操作期间,接收器102接收以DICOM格式的术前图像15并将这些图像存储在存储器104中。控制器106然后处理图像15,这将在下文详述,并将已处理图像显示在显示器110上。使用输入设备108,用户可以浏览图像15,从图像15中选择一幅图像,在所选择图像上选择种子点,选择切除针,调节能量水平,以及调节治疗持续时间。由输入设备108提供的输入显示在显示器110上。

[0070] 图5描绘了由规划系统100使用的确定治疗方案的算法的概图。如图5所示,在步骤120中,通过无线连接、网络,或通过从可移动存储介质下载图像并存储在存储器104中,来捕获以DICOM格式的图像。控制器106然后在步骤122中执行图像15的自动的三维(3D)渲染,以及显示3D渲染的图像(如图6所示)。在步骤124,执行图像分割以将特定感兴趣区域划界并计算感兴趣区域的体积。如下所述,分割可以是用户驱动的或自动的。在步骤126,控制器执行逆向规划操作,其还将在下文详述,从而确定治疗感兴趣区域的治疗算法。该治疗算法可包括外科设备、能量水平、和/或治疗持续时间的选择。可替代地,用户能够选择外科设备、能量水平、和/或治疗持续时间以满足治疗医生的目的,其将包括用于治疗目标的“边缘值”以及周围组织的边缘。

[0071] 图6和7描绘了可在显示器110上显示的图形用户界面(GUI)。如图6和7所示,每个⑶I分割为多个区域(例如,区域132、134和136)用于显示渲染的DICOM图像。例如,区域132显示了患者“P”沿横剖面的图像,以及区域134显示患者“P”沿冠状剖面的图像。区域136描绘了患者“P”的3D渲染。在其他实施方式中,矢状剖面也可显示在⑶I上。⑶I允许用户在下拉菜单131中选择不同的切除针。GUI还允许用户分别在区域133和135中调节功率和时间设置。另外,GUI在区域137中具有多个其他工具,其包括但不限于启动种子点选择的规划工具、对比度工具、缩放工具、拖动工具、用于滚动浏览DICOM图像的滚动工具、以及用于显示DICOM数据集的体渲染的3D渲染工具。

[0072] 图8的流程图描绘 了用于执行图像分割步骤124和逆向规划步骤126的基本算法。如图8所示,用户在步骤140中选择种子点(参见图6,其中标线集中在在区域132和134中的目标“T”上)。在手动选择种子点后,规划系统100在步骤142中分割结节以将感兴趣体划界。在其他实施方式中,可基于像素的强度值自动检测种子点。

[0073] 图9描绘了用于分割结节的算法的流程图。如图9所示,一旦在步骤151中确定了种子点,该算法就在步骤152中产生感兴趣区域(ROI)。例如,ROI可包括4cm3的体积。在步骤153中,连接的阈值滤波器施加阈值并在存储于存储器104中的DICOM图像中找到连接至种子点的所有像素。例如,在分割肺结节时,阈值可在-400Hounsfield Unit(HU)处开始并在100HU处终止。

[0074] 在步骤154,控制器106利用几何滤波器来计算对象的尺寸和形状。几何滤波器使得能够测量标记的体积中所有对象的几何特征。该标记的体积能够例如表示分割为不同解剖结构的医疗图像。这些对象的各个几何特征的测量能够提供对图像的另外的洞察。

[0075] 该算法在步骤155中确定是否检测到预定形状。如果未检测到预定形状,则该算法行进至步骤156,其中阈值增加预定值。该算法重复步骤153至155直至检测到预定的对象。

[0076] 一旦检测到预定的对象,该算法在步骤157处终止,并且规划系统100行进至步骤144以执行体分析。在体分析期间,可通过控制器106计算球形对象的下述属性:最小直径、最大直径、平均直径、体积、球形度、最小密度、最大密度、以及平均密度。所计算的属性可以在显示器110上显示,如图7的区域139中示出。体分析可使用几何滤波器来确定最小直径、最大直径、体积、延伸率、表面积、和/或球形度。在步骤144,图像强度统计滤波器还可与几何滤波器结合使用。图像强度统计滤波器计算最小密度、最大密度以及平均密度。

[0077] 在步骤146中,针对划界的目标计算功率和时间设置。图10描绘了给定时间段中堆积至组织中的能量和所产生的切除区域之间的关系的各个曲线图。该关系通过考虑目标组织(即,肿瘤、纤维瘤等)的维度和特征以及特定切除针的能量剂量/天线设计而允许逆向规划。下表I示出了切除体积、功率、和切除针的时间的关系图的示例。

[0078]表 I

[0079]

[0080] 使用表I的数值,能够从该表中导出线性等式,从而计算最佳功率和时间设置。例如,使用线性回归分析,表I提供了下面等式:

[0081]体积=0.292381* 功率+8.685714* 时间-44.0762 (I)

[0082] 其能够写成

[0083]功率=(体积 _8.685714* 时间+44.0762)/0.292381 (2)

[0084] 能够如下地使用来自体分析的最大直径加上I厘米边缘计算期望的体积:

[0085] 期望体积=4/3*pi*期望半径-3 (3)

[0086] 其中期望半径可如下地计算:

[0087] 期望半径=最大结节直径/2+边缘 (4)

[0088] 将期望体积代入等式(I)或(2)留下两个未知数,功率和时间。使用等式(2),控制器106能够通过代入时间值得出功率。控制器106选择将功率保持低于70W或一些其他预定值的最小时间值,从而用户能够在保持功率处于安全范围的同时尽可能快地执行该过程。

[0089] 一旦146计算了功率和时间,功率和时间显示在显示器110上,如图7所示(参见133和135)。用户能够分别使用控制133和135计算功率和/或时间,从而调节治疗区138a和边缘138b。[0090] 存储器104和/或控制器106可存储对应不同外科设备的多个公式。在用户在下拉菜单131中选择了不同的外科设备时,控制器106能够执行上面所述的相同分析来确定保持功率低于70W或一些其他预定值的最小时间值。

[0091] 虽然上面所述过程描述了使用单个种子点来确定预定对象,但是一些目标会具有不规则形状,其不能够通过预定治疗区来治疗而不对其他组织造成损伤。在该情形中,可使用多个种子点来产生不规则形状的治疗方案,其使用以多个位置重定位的单个外科设备或可同时使用的多个外科设备来治疗不规则形状的区域。

[0092] 在其他实施方式中,存储器104和/或控制器106可存储外科设备和治疗区性能的目录,其包括功率、时间、器械数量、以及实现体外或体内治疗区所需的器械间隔。基于图像分割和体分析的结果,控制器可自动选择设备类型、设备数量、多个设备的间隔、和/或针对每个设备治疗ROI的功率及时间设置。可替代地,用户能够使用GUI手动选择设备类型、设备数量、多个设备的间隔、和/或针对每个设备治疗ROI的功率及时间设置,从而产生治疗方案。

[0093] 在根据本发明的另一实施方式中,规划系统100还可对除了目标之外的器官和其他生命结构进行分割。器官和其他如血管的结构的分割用于提供更加先进的治疗方案。如上关于图10所述的,治疗区以规则方式与能量输送相关联。此外,已知的是大于三(3)毫米的血管会消极地影响治疗区形成。血管的分割将允许评估血管和目标之间的交互,包括血管直径(Dl)以及血管与提出的目标之间的距离D2(参见图11A)。该交互可通过用户手动或通过控制器106自动评估。使用血管直径Dl和距离D2,规划系统100可自动地建议用于治疗目的的可替换剂量曲线,如图1lB所示。可替代地,控制器106可通过显示器110为用户提供建议以移动治疗区。另外,不同的治疗区投影将显示在显示器110上。此外,在图8的计算功率和时间设置步骤146中,控制器将基于血管直径和离目标区域的距离来利用不同的曲线。

[0094] 图12A-12C描绘了使用器官分割的先进治疗规划。器官分割在规划治疗过程中具有至少两个优势。第一个情形,通常选择微创治疗以使得限制使用器官。通过分割器官,控制器106能够计算器官体积1 60以及减去确定的切除区162以确定限制使用的器官164的体积,如图12A所示。在控制器106确定限制使用的器官的体积太低时,则控制器106会提醒用户需要替代治疗方案或会建议替代治疗方案。

[0095] 图12B和12C描绘了定位在器官表面上的目标“T”的治疗方案。传统上,经常避免靠近器官表面的治疗或需要另外的技术来在执行治疗前将该器官与其他器官隔离。在根据本发明的另一实施方式中,在分割器官后,还能够确定目标“T”的位置。在治疗方案中的治疗区162凸出于器官表面外以及目标“T”位于表面上时,控制器106会提醒用户治疗区162可能影响到目标“T”附近的其他器官和/或结构以及该治疗方案需要变更。在其他实施方式中,控制器106可自动为用户提出指示外科设备、能量水平、治疗持续时间的建议。控制器106还可建议如图12B中示出的更小的治疗区162或它可建议如图12C所示的移动治疗区162。

[0096] 在其他实施方式中,在分割目标、组织、器官、和其他结构后,已知的组织性质能够归于这些结构。这些组织性质包括但不限于:整个频率范围内的导电率和介电常数、导热率、热对流系数等。图8的规划算法可使用归因于分割的肿瘤、组织、器官、和其他结构的组织性质来求解Pennes生物传热方程,从而计算出切除选定目标所需的剂量。此使用生物传热方程的更全面求解的成功实施的关键包括:利用处于稳态的已知组织性质来预测初始空间温度分布,利用随着温度上升的组织性质来调节根据温度上升的空间性质,以及利用处于液-气相变的组织性质。

[0097] 现在转向图13,根据本发明一个实施方式的导航系统通常示为200。一般而言,导航系统200合并固定至超声换能器202的参照贴或基准贴204。基准贴204可印制在超声换能器202上、通过粘结剂附接至超声换能器202、或可移除地耦接至超声换能器202。在一些实施方式中,基准贴布置在支撑结构上,所述支撑结构配置为可移除地固定(例如“夹到”)超声换能器的外壳上。超声换能器202耦接至生成声波的超声发生器210。超声换能器202和超声发生器210可合并到单个单元中。超声换能器202朝患者“P”发射声波。所述声波从患者“P”内的各种结构反射离开并由超声换能器202接收。超声换能器202将所反射的声波传输至超声发生器210,其将所反射声波转换为实时的二维(2D)图像。所述2D图像传输至控制器212。控制器212处理2D图像并在显示器214上将2D图像作为包括目标220的图像218而显示。图像218是包括目标“T”的扫描平面“S,,的实时表示。

[0098] 导航系统还合并照相机208,其固定至外科设备206。照相机208实时地捕获基准贴204的图像以确定外科设备206关于扫描平面“S”的位置。特别地,基准贴204具有针对扫描平面“S”的定义空间关系。该定义空间关系存储在控制器212中。照相机208还具有针对外科设备206的已知空间关系,其存储在控制器212中。为了确定外科设备206和扫描平面“S”之间的空间关系,照相机208捕获基准贴204的图像并将该图像传输至控制器212。通过使用基准贴204的图像,控制器212能够计算外科设备206和扫描平面“S”之间的空间关系。

[0099] 在控制器212确定了外科设备206和扫描平面“S”之间的空间关系后,控制器212在显示器214上显示该关系。如图13所示,显示器214包括扫描平面“S”的图像218,其包括目标“T”的目标图像220。另外,控制`器212关于图像218叠加外科设备206的虚拟图像206a以指示外科设备206关于扫描平面“S”的位置。基于切除针206的角度和位置,控制器212能够计算外科设备206的轨迹,并将所计算的轨迹显示,一般如216所示。在一些实施方式中,标线或目标可叠加在图像218上以指示外科设备206将与扫描平面“S”相交的位置。在其他实施方式中,所计算的轨迹216可以红色或绿色示出以指示导航状态。例如,在外科设备206处于将与目标“T”相交的路径上时,所计算的轨迹216将以绿色示出。如果在外科设备206不处于将与目标“T”相交的路径上时,所计算的轨迹216将以红色示出。

[0100] 控制器212还能够通过用户输入外科设备类型、能量水平、以及治疗持续时间来控制。外科设备类型、能量水平、以及治疗持续时间能够在显示器214上显示,如图14A所示。在外科设备206与目标“T”相交时,虚拟切除区222投影在图像218上,如图14B所示。能量水平和治疗持续时间则能够由用户调节,并且控制器212将调节虚拟切除区222以反映能量水平和治疗持续时间的变化。

[0101] 下面将参照图15-22描述基准跟踪系统。在基准跟踪系统中,控制器212从照相机208接收基准图像。控制器212还包括先前存储于其上的照相机208的照相机校准和失真系数、基准系统模型、以及照相机-天线校准数据。在其他实施方式中,照相机208的照相机校准和失真系数、基准系统模型、以及照相机-天线校准数据能够在导航过程期间输入至控制器212中。基于基准图像、照相机208的照相机校准和失真系数、基准系统模型、以及照相机-天线校准数据,控制器212能够输出切除针206的位置以及诊断帧速率、残留误差、和跟踪状态至显示器214。在一些实施方式中,照相机208和基准贴204之间的距离可位于大约5厘米至大约20厘米的范围内。在一些实施方式中,照相机208和基准贴204之间的距离可位于大约I厘米至大约100厘米的范围内。

[0102] 图15示出了控制器212所利用的基准追踪算法的基本流程图。如图15所示,在步骤230中捕获图像帧。在步骤131,控制器212通过使用照相机校准和失真系数校正透镜失真。由照相机208捕获的图像可呈现透镜失真,如图16A所示。因此,在图像能够用于进一步计算前,图像需要校正失真。在导航过程中使用照相机208前,照相机208用于采集不同角度上棋盘状图案的多幅图像。该多幅图像和多个角度用于产生照相机矩阵和失真系数。控制器212然后使用照相机矩阵和失真系数来校正透镜失真。

[0103] 在步骤232中,控制器212使用图17的算法在图像帧中找到白色圆圈。如图17所示,步骤241 (图18A)中所接收到的图像帧在步骤243中使用动态阈值(参见图18B)而被阈值化。在使用动态阈值时,在每个有效帧后,动态阈值算法使用在有效帧中发现的圆圈来计算针对下一帧的新阈值。使用在有效帧中发现的圆圈,控制器212基于下面公式(5)来计算新的阈值:

[0104] 阈值=(黑圆圈强度TO+白圆圈强度to)/2 (5)

[0105] 可使用预定阈值来捕获初始有效帧,其然后用于计算新阈值。

[0106] 可替代地,控制器212可通过测试阈值的范围直至发现产生有效帧的阈值,从而扫描到初始阈值。一旦发现了初始阈值,控制器212将基于有效帧使用公式(5)以得到动态阈值。

[0107] 在其他实施方式中,可使用固定阈值。固定阈值可以是存储在控制器212中的预定数字或它可以通过测试阈 值的范围直至发现导致有效帧的阈值来确定。

[0108] 在将阈值和自动增益控制应用于图像后,在步骤244中执行连通域分析以发现阈值化图像中的所有对象。在步骤245,将几何滤波器应用至连通域分析的结果以及图像帧。几何滤波器计算对象的尺寸和形状,并且仅仅保留圆形及大约合适尺寸的那些对象,如图18C中所示。对所有圆形对象计算加权质心并进行存储。

[0109] 返回图15,除了在步骤232中找到白色圆圈外,控制器212还在步骤233中使用图19描绘的算法来找到黑色圆圈。用于找到黑色圆圈的算法类似于图17所示的用于找到白色圆圈的算法。为了找到黑色圆圈,在步骤241中接收到图像帧后(参见图20A),控制器212在步骤242中反转图像帧的强度,如图20B所示。然后,如上面关于图17所述的,图像如图20C所示被阈值化,以及执行连通域分析,并利用几何滤波器以获得图20D所示的图像。在步骤248对所有的黑色圆圈计算质心并进行存储。此外,在步骤245,控制器212利用几何滤波器来确定图像帧内除黑色圆圈之外的黑色区域。控制器212在步骤249存储已确定的黑色区域。

[0110] 在图15的步骤234中,控制器212使用图21A所示的算法找到基准图像和基准模型之间的对应关系。在图21A所示的步骤251,控制器212使用拓扑限制来选择四个白色圆圈,如图21B所示。如图21B所示,在步骤261,控制器212获得图19的步骤249中存储的黑色区域并获得图17的步骤246中存储的白色圆圈。控制器212然后在步骤263中选择第一黑色区域以及在步骤264中对第一黑色区域中的白色圆圈的数量进行计数。在步骤265,控制器212确定这些位于选定黑色区域中的圆圈数量是否匹配圆圈的预定数量。如果圆圈数量不匹配圆圈的预定数量,则算法行进至步骤266,其中选择下一黑色区域,以及在步骤264中再次计数下一黑色区域中的圆圈数量。该过程重复直至步骤264中计数的圆圈数量匹配圆圈的预定数量。一旦步骤264中计数的圆圈数量匹配圆圈的预定数量,则算法行进至步骤267,在该处完成拓扑限制算法。在其他实施方式中,控制器212通过选择四个最圆的圆圈来选定四个白色圆圈。

[0111] 在选择了四个圆圈后,在步骤252中使用凸壳算法以顺时针顺序布置它们。针对实向量空间V中的点集X的凸壳或凸包络是含有X的最小凸集。在所有点位于一条直线上时,凸壳是连接最外侧两点的线段。在平面情形中,凸壳是凸多边形,除非所有点位于相同直线上。类似地,在三维中,凸壳通常是最小凸多面体,其含有该集中的所有点。另外,模型中四个匹配基准也以顺时针顺序布置。

[0112] 在步骤253,计算平面单应(homography)矩阵。在计算了平面单应矩阵后,使用该单应矩阵来将基准模型转换为图像坐标,图像坐标使用图22所示的四个对应基准模型以找到最近的匹配图像基准(步骤254和255)。控制器212还在步骤256中计算残留误差。该算法使用产生的3D变换来将3D基准模型转换为2D图像。它然后将映射在2D图像中的基准之间的距离与2D图像中检测的基准对比。该残留误差是像素中的平均距离。该误差用于检验精度以及部分地确定红色/绿色导航状态。控制器212然后选择具有最匹配和最小残留误差的模型。为了更加精确的结果,需要最小数量的黑色基准匹配(例如,三个)。

[0113] 在图15的步骤235中,执行照相机的姿势评估。照相机姿势评估包括通过迭代地将模型基准变换至基准图像平面上以及最小化像素中的残留误差,计算照相机和所选模型之间的3D变换。目标是找到误差函数的全局最小值。会出现的一个问题是误差函数中出现的显著的局部极小值(例如,从左侧成像的天线看上去类似于从右侧成像的天线),这需要避免。控制器212通过从多个起始点执行最小化以及选择具有最小误差的结果来避免局部极小值。一旦计算了 3D变换,控`制器能够使用该3D变换来将外科设备206的坐标转换至模型空间,并将外科设备206显示为显示器214中的虚拟外科设备206a。

[0114] 由于对象边界在不同照明条件下扩展和收缩,因此传统的方角基准位置会基于照明条件变化。基准贴204使用黑色和白色圆圈,以及因此不会被该问题牵制,因为圆圈的中心始终保持一样并持续良好的工作以计算质心。其他对比图像或颜色也是能预料的。

[0115] 在本发明的另一实施方式中,以及如图23所示,提供了规划和导航系统300。系统300包括规划系统302和导航系统304,它们连接至控制器306。控制器306连接至显示器308,其可包括单个显示屏或多个显示屏(例如,两个显示屏)。规划系统302类似于规划系统100,以及导航系统304类似于导航系统200。在系统300中,显示器308显示上面所描述的规划操作和导航操作。规划操作和导航操作可以作为分割的屏幕布置显示在单个显示屏上,规划操作和导航操作可显示在分开的屏幕上,或规划操作和导航操作可显示在相同屏幕上并且用户可在各视图之间切换。控制器306可从规划系统引入剂量设置,并在导航操作期间使用该剂量设置来显示切除区维度。

[0116] 在本发明的其他实施方式中,CT导航和软件可以集成于规划系统100。转向图24、25A和25B,规划和导航系统通常以400示出。系统400包括图像捕获设备402,其捕获患者“P”的CT图像,具有电磁参考428和/或光学参考438。CT图像以DICOM格式提供至类似于规划系统100的规划系统404。规划系统400用于确定如上所述的治疗方案,以及该治疗方案提供至控制器408并在显示器410上作为规划屏412显示,如图26所示。

[0117] 导航系统406可利用图25A所不的电磁跟踪系统、红外线跟踪系统、或图25B所不的光学跟踪系统。转向图25A,导航系统420包括电磁场发生器422、具有电磁换能器426的外科设备424、以及布置在患者上的电磁参考428。场发生器422发射电磁波,电磁波由外科设备424和电磁参考428上的电磁传感器(未明确示出)检测,以及然后用于计算外科设备424和电磁参考428之间的空间关系。该空间关系可由场发生器422计算,或场发生器422可提供数据至控制器408以计算切除针424和电磁参考428之间的空间关系。

[0118] 图25B描绘了可替代的导航系统430,其类似于上面图13所述的导航系统。在图25B中,光学参考或基准438置于患者上。附接至外科设备424的照相机436拍摄基准438的图像并传输该图像至控制器408以确定切除针关于基准438的位置。

[0119] 在从导航系统406接收数据后,控制器408可将外科设备424的位置与CT图像关联,从而将外科设备424导航至目标“T”,如下文所述。在该情形中,患者参考(任意类型)上可具有不透射线的标记,以及允许CT期间可视化。这允许控制器将患者CT图像坐标系关联至器械跟踪坐标系。

[0120] 控制器408和显示器410彼此协作以将CT图像显示在导航屏440上,如图27所示。如图27所示,显示屏440包括横向视图442、冠状图444、以及矢状图446。每个视图包括目标“T”和切除区452 (包括边缘)的视图。横向视图442、冠状图444、以及矢状图446、切除区452全部从规划系统404引入。另外,所有规划元素(例如,设备选择、能量水平、以及治疗持续时间)自动地传输至导航屏440。导航屏440也是图形用户界面,其允许用户调节设备选择、能量水平、以及治疗持续时间。

[0121] 导航引导屏448设置在显示屏440上以辅助将切除针导航至目标“T”。基于从导航系统406接收的数据,控制器能够确定外科设备424是否与目标“T”对准。如果外科设备424没与目标“T”对准,则圆圈454将偏离外圆圈453的中心。用户然后将调节外科设备424的进入角度直至圆圈454的中心与外圆圈453的中心对准。在一些实施方式中,在圆圈454的中心与外圆圈453的中心不对准时,圆圈454可显示为红色圆圈,或者在圆圈454的中心与外圆圈453的中心对准时,圆圈454可显不为绿色圆圈。另外,控制器408可计算目标“ T ”和外科设备424之间的距离。

[0122]在图28描述的另一实施方式中,控制器408将虚拟外科设备424a叠加在3D渲染的图像上,并在屏幕462上显示该组合图像。类似于上面所述的方法,用户能够将圆圈453的中心与圆圈454的中心对准以将外科设备424导航至目标“T”。可替代地,用户能够通过观察屏幕462上虚拟外科设备424a来确定外科设备424关于目标“T”的位置,从而将外科设备424导航至目标“T”。

[0123] 图29描绘了本发明的另一实施方式,类似于上面的屏幕462,在图29的实施方式中,屏幕472描绘与先前获取并渲染的CT图像成空间关系的虚拟外科设备424a。CT图像已经被体渲染以将目标“T”及另外的结构、血管、和器官划界。通过对目标“T”及另外的结构、血管、和器官体渲染,用户能够将外科设备424导航进入患者,而同时避开了另外的结构、血管、和器官以阻止不必要的伤害。[0124] 应该理解的是,前面描述仅是本发明的示意性描述。本领域技术人员能够做出各种替代和修改而不偏离本发明的范围。因此,本发明旨在包含所有这些替代、修改和变体。参照附图所述的实施方式仅呈现以示范本发明的某些示例。与上面所述的那些和/或权利要求书中基本不同的其他元件、步骤、方`法和技术也旨在包括在本发明的范围内。

Claims (17)

1.一种规划和导航系统,其包括: 规划系统,其包括: 存储器,其配置为存储多个图像;以及 第一控制器,其配置为以三维渲染多个图像、分割多个图像以将目标区域划界、以及基于目标区域自动地确定治疗方案;以及导航系统,其包括: 超声设备,其配置为获得扫描平面中的超声图像,所述超声设备具有布置于其上的基准模式; 外科设备,其具有图像获取设备,该图像获取设备配置为获取基准模式的基准图像;以及 第二控制器,其配置为接收超声图像和基准图像,其中所述控制器基于基准图像确定外科设备关于扫描平面的位置; 第三控制器,其配置为接收所渲染的多个图像、目标区域、治疗方案、超声图像、以及外科设备关于扫描平面的位置;以及 显示器,其配置为显示具有所渲染的多个图像、目标区域、以及治疗方案的第一显示,以及配置为显示具有超声图像、基于外科设备关于扫描平面的位置的外科设备的虚拟图像、以及治疗方案的第二显示。
2.根据权利要求1所述的规划和导航系统,其中所述第一显示和第二显示在单个屏幕上显示。
3.根据权利要求2所述的规划和导航系统,其中所述第一显示和第二显示同时显示。
4.根据权利要求2所述的规划和导航系统,其中用户能够在第一显示和第二显示之间切换。
5.根据权利要求1所述的规划和导航系统,其中所述显示器具有两个屏幕,以及所述第一显示在第一屏幕上显示,以及所述第二显示在第二屏幕上显示。
6.根据权利要求1所述的规划和导航系统,其中所述第一控制器执行体分析以确定治疗方案。
7.根据权利要求1所述的规划和导航系统,还包括输入设备,其配置为调节治疗方案。
8.根据权利要求1所述的规划和导航系统,其中所述显示器提供图形用户界面。
9.根据权利要求1所述的规划和导航系统,其中所述第一控制器分割至少一个血管,并基于所述至少一个血管对目标的接近度来调节治疗方案。
10.根据权利要求1所述的规划和导航系统,其中所述第一控制器分割至少一个器官,并基于目标关于所述至少一个器官的位置来调节治疗方案。
11.根据权利要求1所述的规划和导航系统,其中所述基准模式固定至超声设备上的已知位置。
12.根据权利要求1所述的规划和导航系统,其中所述图像获取设备固定至外科设备上的已知位置。
13.根据权利要求1所述的规划和导航系统,其中所述基准模式具有多个已知特征和相对位置的标记。
14.根据权利要求1所述的规划和导航系统,其中所述基准模式包括多个已知特征和相对位置的标记,它们保持在已知拓扑结构中。
15.根据权利要求1所述的规划和导航系统,其中所述第二控制器将基准图像对应至模型图像,评估照相机姿势,以及将外科设备变换至模型坐标。
16.根据权利要求12所述的规划和导航系统,其中所述第二控制器校正基准图像的透镜失真。
17.根据权利要求1所述的规划和导航系统,其中所述第二控制器能够识别基准标记内的拓扑结构,其中 拓扑结构参照位于标记上的单模式上的已知位置中的两个或多个独立的唯一标识符。
CN 201310361572 2012-05-22 2013-05-22 外科规划系统和导航系统 CN103445866B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/477,417 2012-05-22
US13477417 US9439623B2 (en) 2012-05-22 2012-05-22 Surgical planning system and navigation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201710247037 CN106913380A (zh) 2012-05-22 2013-05-22 外科规划系统和导航系统

Publications (2)

Publication Number Publication Date
CN103445866A true true CN103445866A (zh) 2013-12-18
CN103445866B CN103445866B (zh) 2017-05-03

Family

ID=48536691

Family Applications (2)

Application Number Title Priority Date Filing Date
CN 201310361572 CN103445866B (zh) 2012-05-22 2013-05-22 外科规划系统和导航系统
CN 201710247037 CN106913380A (zh) 2012-05-22 2013-05-22 外科规划系统和导航系统

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN 201710247037 CN106913380A (zh) 2012-05-22 2013-05-22 外科规划系统和导航系统

Country Status (3)

Country Link
US (2) US9439623B2 (zh)
CN (2) CN103445866B (zh)
EP (1) EP2666431B1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105434042A (zh) * 2014-08-25 2016-03-30 成果科技股份有限公司 手术规划系统

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9301723B2 (en) 2013-03-15 2016-04-05 Covidien Lp Microwave energy-delivery device and system
EP3258870A1 (en) * 2015-02-17 2017-12-27 Koninklijke Philips N.V. Device and method for assisting in tissue ablation
US20170103533A1 (en) * 2015-10-09 2017-04-13 Omer BROKMAN Systems and methods for registering images obtained using various imaging modalities and verifying image registration

Family Cites Families (199)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6006126A (en) 1991-01-28 1999-12-21 Cosman; Eric R. System and method for stereotactic registration of image scan data
DE4207901C3 (de) 1992-03-12 1999-10-07 Aesculap Ag & Co Kg Verfahren und Vorrichtung zur Darstellung eines Arbeitsbereiches in einer dreidimensionalen Struktur
US5603318A (en) 1992-04-21 1997-02-18 University Of Utah Research Foundation Apparatus and method for photogrammetric surgical localization
US5528699A (en) 1992-11-24 1996-06-18 Nippondenso Co., Ltd. Information medium recognition device
US5842473A (en) 1993-11-29 1998-12-01 Life Imaging Systems Three-dimensional imaging system
US5799099A (en) 1993-02-12 1998-08-25 George S. Allen Automatic technique for localizing externally attached fiducial markers in volume images of the head
EP0732899B1 (en) 1993-12-10 2002-10-16 George S. Allen Automatic technique for localizing externally attached fiducial markers in volume images of the head
US5694530A (en) 1994-01-18 1997-12-02 Hitachi Medical Corporation Method of constructing three-dimensional image according to central projection method and apparatus for same
US5829444A (en) 1994-09-15 1998-11-03 Visualization Technology, Inc. Position tracking and imaging system for use in medical applications
EP0951874A3 (en) 1994-09-15 2000-06-14 Visualization Technology, Inc. Position tracking and imaging system for use in medical applications using a reference unit secured to a patients head
US5765561A (en) 1994-10-07 1998-06-16 Medical Media Systems Video-based surgical targeting system
US6694163B1 (en) 1994-10-27 2004-02-17 Wake Forest University Health Sciences Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US5782762A (en) 1994-10-27 1998-07-21 Wake Forest University Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US5920319A (en) 1994-10-27 1999-07-06 Wake Forest University Automatic analysis in virtual endoscopy
US6259943B1 (en) 1995-02-16 2001-07-10 Sherwood Services Ag Frameless to frame-based registration system
US6019724A (en) 1995-02-22 2000-02-01 Gronningsaeter; Aage Method for ultrasound guidance during clinical procedures
US5817022A (en) 1995-03-28 1998-10-06 Sonometrics Corporation System for displaying a 2-D ultrasound image within a 3-D viewing environment
US6575969B1 (en) * 1995-05-04 2003-06-10 Sherwood Services Ag Cool-tip radiofrequency thermosurgery electrode system for tumor ablation
WO1997003609A1 (en) 1995-07-16 1997-02-06 Ultra-Guide Ltd. Free-hand aiming of a needle guide
US5776050A (en) 1995-07-24 1998-07-07 Medical Media Systems Anatomical visualization system
US6256529B1 (en) 1995-07-26 2001-07-03 Burdette Medical Systems, Inc. Virtual reality 3D visualization for surgical procedures
US20030135115A1 (en) 1997-11-24 2003-07-17 Burdette Everette C. Method and apparatus for spatial registration and mapping of a biopsy needle during a tissue biopsy
US5825908A (en) 1995-12-29 1998-10-20 Medical Media Systems Anatomical visualization and measurement system
US6332089B1 (en) 1996-02-15 2001-12-18 Biosense, Inc. Medical procedures and apparatus using intrabody probes
EP0836438B1 (en) 1996-04-29 2004-09-22 Northern Digital Inc. Image guided surgery system
US6167296A (en) 1996-06-28 2000-12-26 The Board Of Trustees Of The Leland Stanford Junior University Method for volumetric image navigation
US6009212A (en) 1996-07-10 1999-12-28 Washington University Method and apparatus for image registration
US6002808A (en) 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
US6343936B1 (en) 1996-09-16 2002-02-05 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination, navigation and visualization
US5776062A (en) 1996-10-15 1998-07-07 Fischer Imaging Corporation Enhanced breast imaging/biopsy system employing targeted ultrasound
US5902239A (en) 1996-10-30 1999-05-11 U.S. Philips Corporation Image guided surgery system including a unit for transforming patient positions to image positions
US7302288B1 (en) 1996-11-25 2007-11-27 Z-Kat, Inc. Tool position indicator
DE69737720T2 (de) 1996-11-29 2008-01-10 London Health Sciences Centre, London Verbessertes bildverarbeitungsverfahren für ein dreidimensionales bilderzeugungssystem
US5810008A (en) 1996-12-03 1998-09-22 Isg Technologies Inc. Apparatus and method for visualizing ultrasonic images
US6969352B2 (en) 1999-06-22 2005-11-29 Teratech Corporation Ultrasound probe with integrated electronics
US5891030A (en) 1997-01-24 1999-04-06 Mayo Foundation For Medical Education And Research System for two dimensional and three dimensional imaging of tubular structures in the human body
US5788636A (en) 1997-02-25 1998-08-04 Acuson Corporation Method and system for forming an ultrasound image of a tissue while simultaneously ablating the tissue
US6119033A (en) 1997-03-04 2000-09-12 Biotrack, Inc. Method of monitoring a location of an area of interest within a patient during a medical procedure
US6731966B1 (en) 1997-03-04 2004-05-04 Zachary S. Spigelman Systems and methods for targeting a lesion
JP4155344B2 (ja) 1997-07-03 2008-09-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像誘導手術システム
US20030163142A1 (en) 1997-11-27 2003-08-28 Yoav Paltieli System and method for guiding the movements of a device to a target particularly for medical applications
US6327490B1 (en) 1998-02-27 2001-12-04 Varian Medical Systems, Inc. Brachytherapy system for prostate cancer treatment with computer implemented systems and processes to facilitate pre-implantation planning and post-implantation evaluations with storage of multiple plan variations for a single patient
JPH11267133A (ja) 1998-03-25 1999-10-05 Olympus Optical Co Ltd 治療装置
US6298262B1 (en) 1998-04-21 2001-10-02 Neutar, Llc Instrument guidance for stereotactic surgery
US6226542B1 (en) 1998-07-24 2001-05-01 Biosense, Inc. Three-dimensional reconstruction of intrabody organs
US6081577A (en) 1998-07-24 2000-06-27 Wake Forest University Method and system for creating task-dependent three-dimensional images
US6112112A (en) 1998-09-18 2000-08-29 Arch Development Corporation Method and system for the assessment of tumor extent in magnetic resonance images
EP1115328A4 (en) 1998-09-24 2004-11-10 Super Dimension Ltd System and method for determining the location of a catheter during an intra-body medical procedure
US6279579B1 (en) 1998-10-23 2001-08-28 Varian Medical Systems, Inc. Method and system for positioning patients for medical treatment procedures
US6973202B2 (en) 1998-10-23 2005-12-06 Varian Medical Systems Technologies, Inc. Single-camera tracking of an object
US6754374B1 (en) 1998-12-16 2004-06-22 Surgical Navigation Technologies, Inc. Method and apparatus for processing images with regions representing target objects
US6195444B1 (en) 1999-01-12 2001-02-27 Analogic Corporation Apparatus and method for detecting concealed objects in computed tomography data
JP4794708B2 (ja) 1999-02-04 2011-10-19 オリンパス株式会社 3次元位置姿勢センシング装置
US6285902B1 (en) 1999-02-10 2001-09-04 Surgical Insights, Inc. Computer assisted targeting device for use in orthopaedic surgery
US6591127B1 (en) 1999-03-15 2003-07-08 General Electric Company Integrated multi-modality imaging system and method
US6470207B1 (en) 1999-03-23 2002-10-22 Surgical Navigation Technologies, Inc. Navigational guidance via computer-assisted fluoroscopic imaging
US6466815B1 (en) 1999-03-30 2002-10-15 Olympus Optical Co., Ltd. Navigation apparatus and surgical operation image acquisition/display apparatus using the same
US6301495B1 (en) 1999-04-27 2001-10-09 International Business Machines Corporation System and method for intra-operative, image-based, interactive verification of a pre-operative surgical plan
US6477275B1 (en) 1999-06-16 2002-11-05 Coreco Imaging, Inc. Systems and methods for locating a pattern in an image
US6440071B1 (en) 1999-10-18 2002-08-27 Guided Therapy Systems, Inc. Peripheral ultrasound imaging system
US6379302B1 (en) 1999-10-28 2002-04-30 Surgical Navigation Technologies Inc. Navigation information overlay onto ultrasound imagery
US6812933B1 (en) 1999-10-29 2004-11-02 Cognex Technology And Investment Method for rendering algebraically defined two-dimensional shapes by computing pixel intensity using an edge model and signed distance to the nearest boundary
EP1095628A3 (en) 1999-10-29 2001-05-16 Marconi Medical Systems, Inc. Planning minimally invasive procedures for in - vivo placement of objects
US7043055B1 (en) 1999-10-29 2006-05-09 Cognex Corporation Method and apparatus for locating objects using universal alignment targets
US7581191B2 (en) 1999-11-15 2009-08-25 Xenogen Corporation Graphical user interface for 3-D in-vivo imaging
CN1421020B (zh) 1999-11-23 2010-04-28 佳能株式会 图像处理设备
US6338716B1 (en) 1999-11-24 2002-01-15 Acuson Corporation Medical diagnostic ultrasonic transducer probe and imaging system for use with a position and orientation sensor
US6442417B1 (en) 1999-11-29 2002-08-27 The Board Of Trustees Of The Leland Stanford Junior University Method and apparatus for transforming view orientations in image-guided surgery
US8221402B2 (en) 2000-01-19 2012-07-17 Medtronic, Inc. Method for guiding a medical device
US7630750B2 (en) 2001-02-05 2009-12-08 The Research Foundation For The State University Of New York Computer aided treatment planning
DE10009166A1 (de) 2000-02-26 2001-08-30 Philips Corp Intellectual Pty Verfahren zur Lokalisierung von Objekten in der interventionellen Radiologie
US6535756B1 (en) 2000-04-07 2003-03-18 Surgical Navigation Technologies, Inc. Trajectory storage apparatus and method for surgical navigation system
US6961608B2 (en) 2000-06-05 2005-11-01 Kabushiki Kaisha Toshiba Interventional MR imaging with detection and display of device position
US7085400B1 (en) 2000-06-14 2006-08-01 Surgical Navigation Technologies, Inc. System and method for image based sensor calibration
ES2197052T3 (es) 2000-11-24 2004-01-01 Brainlab Ag Dispositivo y procedimiento de navegacion.
US6487432B2 (en) 2000-12-04 2002-11-26 Ge Medical Systems Global Technologies Company Llc Method and system for selecting and displaying medical image data
US6751361B1 (en) 2000-12-22 2004-06-15 Cognex Corporation Method and apparatus for performing fixturing in a machine vision system
US6540679B2 (en) 2000-12-28 2003-04-01 Guided Therapy Systems, Inc. Visual imaging system for ultrasonic probe
US7043064B2 (en) 2001-05-04 2006-05-09 The Board Of Trustees Of The Leland Stanford Junior University Method for characterizing shapes in medical images
JP4405734B2 (ja) 2001-05-31 2010-01-27 イメージ ナビゲーション リミティド 画像誘導移植術法
EP1451671A2 (en) 2001-07-06 2004-09-01 Philips Electronics N.V. Image processing method for interacting with a 3-d surface represented in a 3-d image
DE10136709B4 (de) 2001-07-27 2004-09-02 Siemens Ag Vorrichtung zum Durchführen von operativen Eingriffen sowie Verfahren zum Darstellen von Bildinformationen während eines solchen Eingriffs an einem Patienten
US7251352B2 (en) 2001-08-16 2007-07-31 Siemens Corporate Research, Inc. Marking 3D locations from ultrasound images
US6733458B1 (en) 2001-09-25 2004-05-11 Acuson Corporation Diagnostic medical ultrasound systems and methods using image based freehand needle guidance
US6546279B1 (en) 2001-10-12 2003-04-08 University Of Florida Computer controlled guidance of a biopsy needle
US7379572B2 (en) 2001-10-16 2008-05-27 University Of Chicago Method for computer-aided detection of three-dimensional lesions
US7383073B1 (en) 2001-10-16 2008-06-03 Z-Kat Inc. Digital minimally invasive surgery system
US7499743B2 (en) 2002-03-15 2009-03-03 General Electric Company Method and system for registration of 3D images within an interventional system
EP1321105B1 (de) 2001-12-18 2003-08-20 BrainLAB AG Projektion von Patientenbilddaten aus Durchleuchtungs bzw. Schichtbilderfassungsverfahren auf Oberflächenvideobilder
CN1331030C (zh) 2001-12-21 2007-08-08 英国电讯有限公司 计算显示位置的装置和方法
JP3793100B2 (ja) * 2002-02-14 2006-07-05 キヤノン株式会社 情報処理方法、装置および記録媒体
US6947786B2 (en) 2002-02-28 2005-09-20 Surgical Navigation Technologies, Inc. Method and apparatus for perspective inversion
US8010180B2 (en) 2002-03-06 2011-08-30 Mako Surgical Corp. Haptic guidance system and method
US20040034297A1 (en) 2002-08-13 2004-02-19 General Electric Company Medical device positioning system and method
US6892090B2 (en) 2002-08-19 2005-05-10 Surgical Navigation Technologies, Inc. Method and apparatus for virtual endoscopy
US7035461B2 (en) 2002-08-22 2006-04-25 Eastman Kodak Company Method for detecting objects in digital images
EP1551510A1 (en) 2002-10-07 2005-07-13 Nomos Corporation Method and apparatus for target position verification
US7697972B2 (en) 2002-11-19 2010-04-13 Medtronic Navigation, Inc. Navigation system for cardiac therapies
US7492930B2 (en) 2003-02-04 2009-02-17 Aesculap Ag Method and apparatus for capturing information associated with a surgical procedure performed using a localization device
JP4286556B2 (ja) 2003-02-24 2009-07-01 株式会社東芝 画像表示装置
US7333644B2 (en) 2003-03-11 2008-02-19 Siemens Medical Solutions Usa, Inc. Systems and methods for providing automatic 3D lesion segmentation and measurements
DE602004015091D1 (de) 2003-04-04 2008-08-28 Philips Intellectual Property Volumenmessungen in dreidimensionalen datensätzen
US7570987B2 (en) 2003-04-04 2009-08-04 Brainlab Ag Perspective registration and visualization of internal areas of the body
WO2005000139A1 (en) 2003-04-28 2005-01-06 Bracco Imaging Spa Surgical navigation imaging system
WO2004111937A1 (en) 2003-06-13 2004-12-23 Philips Intellectual Property & Standards Gmbh 3d image segmentation
WO2005009220A3 (en) * 2003-07-21 2005-11-17 Univ Johns Hopkins Registration of ultrasound to fluoroscopy for real time optimization of radiation implant procedures
US7366562B2 (en) 2003-10-17 2008-04-29 Medtronic Navigation, Inc. Method and apparatus for surgical navigation
US7873400B2 (en) 2003-12-10 2011-01-18 Stryker Leibinger Gmbh & Co. Kg. Adapter for surgical navigation trackers
JP2007516743A (ja) 2003-12-12 2007-06-28 ザ ユニバーシティ オブ ウェスタン オンタリオ 放射線の線量送出を最適化するための方法およびシステム
JP4698966B2 (ja) * 2004-03-29 2011-06-08 オリンパス株式会社 手技支援システム
JP4537104B2 (ja) 2004-03-31 2010-09-01 キヤノン株式会社 マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法
WO2005104943A3 (en) 2004-04-26 2006-03-02 David F Yankelevitz Medical imaging system for accurate measurement evaluation of changes in a target lesion
US7346382B2 (en) 2004-07-07 2008-03-18 The Cleveland Clinic Foundation Brain stimulation models, systems, devices, and methods
US7916918B2 (en) 2004-07-09 2011-03-29 Hologic, Inc. Diagnostic system for multimodality mammography
US7672705B2 (en) 2004-07-19 2010-03-02 Resonant Medical, Inc. Weighted surface-to-surface mapping
EP1774312B1 (en) 2004-07-20 2017-04-12 Elekta Ltd. Calibrating ultrasound imaging devices
US7899513B2 (en) 2004-07-23 2011-03-01 Calypso Medical Technologies, Inc. Modular software system for guided radiation therapy
US7452357B2 (en) 2004-10-22 2008-11-18 Ethicon Endo-Surgery, Inc. System and method for planning treatment of tissue
FR2880154B1 (fr) 2004-12-27 2007-06-22 Gen Electric Procede et systeme de visualisation rapide de structures
US7623250B2 (en) 2005-02-04 2009-11-24 Stryker Leibinger Gmbh & Co. Kg. Enhanced shape characterization device and method
JP4918048B2 (ja) 2005-02-11 2012-04-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像処理装置及び方法
US8099152B2 (en) 2005-02-17 2012-01-17 Univeristy Of Florida Research Foundation, Inc. Systems and methods for planning medical procedures and designing medical devices based on anatomical scan deformations
CA2600981C (en) 2005-02-28 2013-10-08 Robarts Research Institute System and method for performing a biopsy of a target volume and a computing device for planning the same
US7809184B2 (en) 2005-05-04 2010-10-05 Brainlab Ag Devices and methods for automatically verifying, calibrating and surveying instruments for computer-assisted surgery
DE102005023167B4 (de) 2005-05-19 2008-01-03 Siemens Ag Verfahren und Vorrichtung zur Registrierung von 2D-Projektionsbildern relativ zu einem 3D-Bilddatensatz
EP1901810B1 (en) 2005-05-26 2010-10-27 Koninklijke Philips Electronics N.V. Radio-therapeutic treatment planning incorporating functional imaging information
US7892224B2 (en) 2005-06-01 2011-02-22 Brainlab Ag Inverse catheter planning
US7362848B2 (en) 2005-06-27 2008-04-22 Accuray Incorporated Method for automatic anatomy-specific treatment planning protocols based on historical integration of previously accepted plans
US7259762B2 (en) 2005-06-29 2007-08-21 General Electric Company Method and system for automatically transforming CT studies to a common reference frame
EP1907059A4 (en) 2005-07-22 2009-10-21 Tomotherapy Inc Method of and system for predicting dose delivery
US7912258B2 (en) 2005-09-27 2011-03-22 Vanderbilt University Method and apparatus for standardizing ultrasonography training using image to physical space registration of tomographic volumes from tracked ultrasound
US7874987B2 (en) 2005-10-28 2011-01-25 Biosense Webster, Inc. Targets and methods for ultrasound catheter calibration
DE602006013404D1 (de) 2006-02-21 2010-05-20 Brainlab Ag Universelle Schnittstelle zur Registrierung von Bildern
WO2007113815A3 (en) 2006-03-30 2009-04-16 Activiews Ltd System and method for optical position measurement and guidance of a rigid or semi flexible tool to a target
US7907772B2 (en) 2006-03-30 2011-03-15 Accuray Incorporated Delineation on three-dimensional medical image
US8045778B2 (en) 2006-05-17 2011-10-25 Koninklijke Philips Electronics N.V. Hot spot detection, segmentation and identification in pet and spect images
JP5291619B2 (ja) 2006-05-24 2013-09-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 座標系レジストレーション
EP1873666B1 (de) 2006-06-27 2009-03-25 BrainLAB AG Medizintechnisches Markertracking mit Bestimmung der Markereigenschaften
US7728868B2 (en) 2006-08-02 2010-06-01 Inneroptic Technology, Inc. System and method of providing real-time dynamic imagery of a medical procedure site using multiple modalities
JP4926817B2 (ja) 2006-08-11 2012-05-09 キヤノン株式会社 指標配置情報計測装置および方法
US8150498B2 (en) 2006-09-08 2012-04-03 Medtronic, Inc. System for identification of anatomical landmarks
JP5196751B2 (ja) 2006-09-13 2013-05-15 株式会社東芝 コンピュータ支援診断装置
US7876937B2 (en) 2006-09-15 2011-01-25 Carestream Health, Inc. Localization of nodules in a radiographic image
US8660635B2 (en) 2006-09-29 2014-02-25 Medtronic, Inc. Method and apparatus for optimizing a computer assisted surgical procedure
EP1913868A1 (en) 2006-10-19 2008-04-23 Esaote S.p.A. System for determining diagnostic indications
WO2008058520A3 (de) 2006-11-13 2008-09-12 Frank Duffner Vorrichtung zur bereitstellung von bildern für einen operateur
US8358818B2 (en) 2006-11-16 2013-01-22 Vanderbilt University Apparatus and methods of compensating for organ deformation, registration of internal structures to images, and applications of same
US20080119712A1 (en) 2006-11-20 2008-05-22 General Electric Company Systems and Methods for Automated Image Registration
US7953265B2 (en) 2006-11-22 2011-05-31 General Electric Company Method and system for automatic algorithm selection for segmenting lesions on pet images
US7860331B2 (en) 2006-11-23 2010-12-28 General Electric Company Purpose-driven enhancement filtering of anatomical data
CN101681504A (zh) * 2006-11-27 2010-03-24 皇家飞利浦电子股份有限公司 用于将实时超声图像与预先获取的医学图像进行融合的系统和方法
US7844087B2 (en) 2006-12-19 2010-11-30 Carestream Health, Inc. Method for segmentation of lesions
US8267927B2 (en) 2007-01-24 2012-09-18 Koninklijke Philips Electronics N.V. Advanced ablation planning
CN101795636B (zh) 2007-01-24 2013-06-19 皇家飞利浦电子股份有限公司 Rf消融计划器
US8600478B2 (en) 2007-02-19 2013-12-03 Medtronic Navigation, Inc. Automatic identification of instruments used with a surgical navigation system
US9179984B2 (en) 2007-02-19 2015-11-10 Medtronic Navigation, Inc. Multi-configuration tracking array and related method
US8233963B2 (en) 2007-02-19 2012-07-31 Medtronic Navigation, Inc. Automatic identification of tracked surgical devices using an electromagnetic localization system
US20080214922A1 (en) 2007-03-01 2008-09-04 Steven L. Hartmann Method for localizing an imaging device with a surgical navigation system
US8081810B2 (en) 2007-03-22 2011-12-20 Ethicon Endo-Surgery, Inc. Recognizing a real world fiducial in image data of a patient
US7856130B2 (en) 2007-03-28 2010-12-21 Eigen, Inc. Object recognition system for medical imaging
US8150494B2 (en) * 2007-03-29 2012-04-03 Medtronic Navigation, Inc. Apparatus for registering a physical space to image space
US20080287805A1 (en) * 2007-05-16 2008-11-20 General Electric Company System and method to guide an instrument through an imaged subject
US7780084B2 (en) 2007-06-29 2010-08-24 Microsoft Corporation 2-D barcode recognition
US7894663B2 (en) 2007-06-30 2011-02-22 General Electric Company Method and system for multiple view volume rendering
JP2009031876A (ja) * 2007-07-24 2009-02-12 Sharp Corp 画像処理装置およびそれを備えた画像形成装置、画像読取装置、画像処理方法、画像処理プログラム、画像処理プログラムを記録した記録媒体
US8036435B2 (en) 2007-09-28 2011-10-11 Varian Medical Systems, Inc. Cancer detection, diagnosis, staging, treatment planning, delivery, and monitoring using X-ray attenuation coefficient distributions
US8023734B2 (en) 2007-10-10 2011-09-20 Siemens Aktiengesellschaft 3D general lesion segmentation in CT
US9119572B2 (en) * 2007-10-24 2015-09-01 Josef Gorek Monitoring trajectory of surgical instrument during the placement of a pedicle screw
DE102007053394B4 (de) 2007-11-09 2014-04-03 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Planung und/oder Überprüfung einer interventionellen Radiofrequenz-Thermoablation
JP5208495B2 (ja) 2007-12-27 2013-06-12 オリンパスメディカルシステムズ株式会社 医療用システム
US20090198126A1 (en) 2008-02-05 2009-08-06 Klaus Klingenbeck-Regn Imaging system
US20090221908A1 (en) 2008-03-01 2009-09-03 Neil David Glossop System and Method for Alignment of Instrumentation in Image-Guided Intervention
CN101249001B (zh) 2008-03-28 2010-06-16 南京医科大学 口腔正畸种植体支抗三维影像导航及定位专用装置
US20090312629A1 (en) 2008-06-13 2009-12-17 Inneroptic Technology Inc. Correction of relative tracking errors based on a fiducial
US20100076305A1 (en) 2008-06-25 2010-03-25 Deutsches Krebsforschungszentrum Stiftung Des Offentlichen Rechts Method, system and computer program product for targeting of a target with an elongate instrument
US20100063392A1 (en) 2008-09-08 2010-03-11 Olympus Medical Systems Corp. Ultrasound-guided ablation method and ultrasound-guided ablation system
US20100121189A1 (en) 2008-11-12 2010-05-13 Sonosite, Inc. Systems and methods for image presentation for medical examination and interventional procedures
US8858436B2 (en) 2008-11-12 2014-10-14 Sonosite, Inc. Systems and methods to identify interventional instruments
US9867669B2 (en) 2008-12-31 2018-01-16 Intuitive Surgical Operations, Inc. Configuration marker design and detection for instrument tracking
US8167875B2 (en) 2009-01-12 2012-05-01 Tyco Healthcare Group Lp Energy delivery algorithm for medical devices
US8641621B2 (en) 2009-02-17 2014-02-04 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
US8632468B2 (en) 2009-02-25 2014-01-21 Koninklijke Philips N.V. Method, system and devices for transjugular intrahepatic portosystemic shunt (TIPS) procedures
WO2010117806A1 (en) 2009-03-31 2010-10-14 Angiodynamics, Inc. System and method for estimating a treatment region for a medical treatment device and for interactively planning a treatment of a patient
EP2236104B1 (de) 2009-03-31 2013-06-19 BrainLAB AG Medizintechnische Navigations-Bildausgabe mit virtuellen Primärbildern und realen Sekundärbildern
JP5710589B2 (ja) * 2009-04-08 2015-04-30 クゥアルコム・インコーポレイテッドQualcomm Incorporated 改良されたハンドヘルド画面検知ポインタ
US20100268223A1 (en) * 2009-04-15 2010-10-21 Tyco Health Group Lp Methods for Image Analysis and Visualization of Medical Image Data Suitable for Use in Assessing Tissue Ablation and Systems and Methods for Controlling Tissue Ablation Using Same
US8328365B2 (en) * 2009-04-30 2012-12-11 Hewlett-Packard Development Company, L.P. Mesh for mapping domains based on regularized fiducial marks
US20100298704A1 (en) 2009-05-20 2010-11-25 Laurent Pelissier Freehand ultrasound imaging systems and methods providing position quality feedback
CN201422889Y (zh) 2009-05-22 2010-03-17 许 杰;廖广军;戚其丰 手术导航设备
US8391603B2 (en) 2009-06-18 2013-03-05 Omisa Inc. System and method for image segmentation
JP2011118553A (ja) 2009-12-01 2011-06-16 Keyence Corp 画像処理装置、画像処理方法及びコンピュータプログラム
KR101100464B1 (ko) 2009-12-09 2011-12-29 삼성메디슨 주식회사 부 관심영역에 기초하여 3차원 초음파 영상을 제공하는 초음파 시스템 및 방법
US20110160569A1 (en) 2009-12-31 2011-06-30 Amit Cohen system and method for real-time surface and volume mapping of anatomical structures
US8554307B2 (en) 2010-04-12 2013-10-08 Inneroptic Technology, Inc. Image annotation in image-guided medical procedures
EP2609571B1 (en) 2010-08-25 2013-12-04 Koninklijke Philips N.V. Heart location and verification in emission images
US20120050258A1 (en) 2010-08-27 2012-03-01 Andrew Kay Method for obtaining 3d position information, computer program, data processor, and display panel incorporating the same
US9119551B2 (en) 2010-11-08 2015-09-01 Vasonova, Inc. Endovascular navigation system and method
CN103220983B (zh) 2010-11-18 2015-12-09 皇家飞利浦电子股份有限公司 用于感测对象的感测装置
US9138204B2 (en) * 2011-04-29 2015-09-22 Medtronic Navigation, Inc. Method and apparatus for calibrating and re-aligning an ultrasound image plane to a navigation tracker

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105434042A (zh) * 2014-08-25 2016-03-30 成果科技股份有限公司 手术规划系统
CN105434042B (zh) * 2014-08-25 2017-08-25 成果科技股份有限公司 手术规划系统

Also Published As

Publication number Publication date Type
US20130317353A1 (en) 2013-11-28 application
CN106913380A (zh) 2017-07-04 application
EP2666431A1 (en) 2013-11-27 application
US20160374761A1 (en) 2016-12-29 application
US9439623B2 (en) 2016-09-13 grant
EP2666431B1 (en) 2015-03-04 grant
CN103445866B (zh) 2017-05-03 grant

Similar Documents

Publication Publication Date Title
US6950689B1 (en) Dynamically alterable three-dimensional graphical model of a body region
US6216027B1 (en) System for electrode localization using ultrasound
US7869854B2 (en) Apparatus for magnetically deployable catheter with MOSFET sensor and method for mapping and ablation
US20090118620A1 (en) System and method for tracking an ultrasound catheter
US20020072686A1 (en) Tissue discrimination and applications in medical procedures
US20060116575A1 (en) Method and system for registering an image with a navigation reference catheter
Cash et al. Concepts and preliminary data toward the realization of image-guided liver surgery
US20030158477A1 (en) Systems and methods for guiding catheters using registered images
US20120143029A1 (en) Systems and methods for guiding a medical instrument
US20070232882A1 (en) System, Methods, and Instrumentation for Image Guided Prostate Treatment
US20070073151A1 (en) Automated imaging and therapy system
US20080119727A1 (en) Systems and methods for three-dimensional ultrasound mapping
US20100063496A1 (en) Rf ablation planner
US20130006228A1 (en) Methods and apparatuses for tissue treatment
US20080188749A1 (en) Three Dimensional Imaging for Guiding Interventional Medical Devices in a Body Volume
US7766833B2 (en) Ablation array having independently activated ablation elements
US7306593B2 (en) Prediction and assessment of ablation of cardiac tissue
US20060116576A1 (en) System and use thereof to provide indication of proximity between catheter and location of interest in 3-D space
WO2012088535A1 (en) System, device, and method to guide a rigid instrument
US20080033420A1 (en) Methods for planning and performing thermal ablation
US8088072B2 (en) Methods and systems for controlled deployment of needles in tissue
JP2007000226A (ja) 医用画像診断装置
US20090196480A1 (en) Methods And Apparatuses For Planning, Performing, Monitoring And Assessing Thermal Ablation
WO2004019799A2 (en) Methods and systems for localizing of a medical imaging probe and of a biopsy needle
US20140073907A1 (en) System and method for image guided medical procedures

Legal Events

Date Code Title Description
C06 Publication
C10 Entry into substantive examination
GR01