CN110461265A - 用于基于图像的导航的方法和装置 - Google Patents

用于基于图像的导航的方法和装置 Download PDF

Info

Publication number
CN110461265A
CN110461265A CN201880020846.8A CN201880020846A CN110461265A CN 110461265 A CN110461265 A CN 110461265A CN 201880020846 A CN201880020846 A CN 201880020846A CN 110461265 A CN110461265 A CN 110461265A
Authority
CN
China
Prior art keywords
icon
boundary
image
track
equipment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201880020846.8A
Other languages
English (en)
Other versions
CN110461265B (zh
Inventor
M·W·柯尼格
M·E·阿利
J·L·哈尔科姆
J·S·约翰逊三世
L·P·戈棱伯格
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Medtronic Navigation Inc
Original Assignee
Medtronic Navigation Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Medtronic Navigation Inc filed Critical Medtronic Navigation Inc
Publication of CN110461265A publication Critical patent/CN110461265A/zh
Application granted granted Critical
Publication of CN110461265B publication Critical patent/CN110461265B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/11Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Robotics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Gynecology & Obstetrics (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

公开了可用于规划轨迹和/或放置仪器的系统和方法。规划可以是针对放置植入物和/或暂时地定位仪器。当规划手术时,用户可在执行该手术前复查受试者的图,包括图像。受试者的图像或图可示出各种特征的位置,诸如手术的靶。进一步地,图或图像数据可示出或被用于确定可能的进入点。除了可利用图示出受试者的特征或部分之外,显示设备可被用于示出与所选择的手术相关的限制和边界。例如,引导仪器可具有大小和用于引导用于手术的仪器的运动的范围。运动范围的限度可以在图像或图上被示出以用于协助规划(包括最后确定或选择)轨迹、引导和手术的其他部分。

Description

用于基于图像的导航的方法和装置
技术领域
本公开涉及用于规划和/或执行手术(procedure)的系统,并且示例性地涉及规划使用受试者的成像以用于针对受试者规划和选择手术的系统。
背景技术
这个部分提供了与本公开相关的不一定是现有技术的背景信息。
可以在手术之前和术中或术后或手术后获取受试者的图像。例如,可以获取患者的图像数据,并且可以基于所获取的图像数据生成受试者的三维模型。三维模型可用于各种目的,诸如,规划对受试者的手术(包括选择植入物(如果植入物将被定位在受试者体内的话)、确定进入点、和/或用于执行手术和/或植入的轨迹)、以及其他选定的规划特征。此外,规划可以包括确定选定的植入物(诸如,用于心脏系统(例如,心脏同步系统)的引线电极或用于脑刺激系统的引线)的放置。
发明内容
这个部分提供了本公开的大体发明内容,并且不是对其完整范围或其所有特征的详尽公开。
公开了可被用于规划轨迹和/或仪器的放置的系统和/或方法。规划可针对放置植入物和/或暂时地定位仪器。例如,规划可包括选择用于将深部脑刺激(DBS)探针放入患者体内的轨迹、在患者的封闭结构内定位紧固件或其他手术。相似地,规划可出于执行肿瘤活检、障碍的移除等而发生。
通常,在手术之前,可针对手术执行规划。规划可包括各种步骤,诸如选择进入点、选择靶(target)以及选择用于到达靶的轨迹。轨迹可通常包括用于将仪器从进入点移动至靶的运动的方向和类型。进入点可包括在进入口或通道(passage)之内的区域或体积,仪器可穿过该进入口或通道移动,其中,仪器包括比进入口的整个可能的区域更小的尺寸。因此,进入点可比进入口更小。
当规划手术时,用户可在执行手术之前复查受试者的图(包括图像)。受试者的图像或图可示出各种特征的位置,诸如手术的靶。进一步地,图或图像数据可示出或被用于确定可能的进入点。除了可结合图所示出的受试者的部分或特征之外,显示设备可被用于示出与所选择的手术相关的限制和边界。例如,引导仪器可具有大小和用于引导用于手术的仪器的运动范围。运动范围的限度(extent)可以在图像或图上被示出以用于协助规划(包括最后确定(finalize)或选择)轨迹、引导和手术的其他部分。
通过本文中提供的说明书,进一步的可用性领域将变得显而易见。本发明内容中的描述以及特定示例仅旨在说明的目的,并且不旨在限制本公开的范围。
附图说明
本文中所描述的附图用于仅说明所选实施例而非所有可能的实施方式的目的,并且不旨在限制本公开的范围。
图1是可存在在手术室中和/或在手术之前使用的多个系统(包括可选的成像系统和导航系统)的环境视图;
图2是根据各种实施例的基于获取的受试者的图像数据的第一图像;
图3是根据各种实施例的基于获取的受试者的图像数据的第二图像;
图4是根据各种实施例的基于获取的受试者的图像数据的第一图像;
图5是示出了与用于在受试者身上的手术的规划有关的各种图像和信息的显示设备的屏幕截图;
图6是示出了用于规划手术的过程(process)的流程图;以及
图7是示出了与用于在受试者身上的手术的规划有关的各种图像和信息的显示设备的屏幕截图。
贯穿附图的若干视图,对应的附图标记指示对应的部分。
具体实施方式
现在将参考附图更全面地描述示例实施例。
首先参考图1,可为所选择的手术提供系统20的套件或组件。该系统可包括仪器、处理系统,并且其他类似设备也可被包括在内。在各种实施例中,套件20可包括导航系统22,该导航系统22可包括一个或多个跟踪系统24,诸如包括光学定位器26的光学跟踪系统以及包括电磁跟踪定位器28的电磁跟踪系统。如本文中所述,跟踪系统24可经由线圈阵列控制器/导航仪器接口(CAC/NII)30与各种仪器通信。CAC/NII 30可与工作站或其他处理系统或组件34通信。导航处理器系统34可包括被配置用于并且可操作用于访问一个或多个导航存储器系统38的导航处理单元36。导航存储器系统38可包括非瞬态存储器,该非瞬态存储器可包括针对各种手术存储的各种特征或程序,诸如用于确定所跟踪的仪器的定位(包括位置和取向)、在显示在显示设备40上的图像40上示出或叠加图标的指令,或其他合适的指令或程序特征,如本文进一步讨论的。
套件20可进一步包括成像系统50,如本文进一步讨论的。成像系统50可包括与成像系统50合并(incorporate)(诸如,被包括或被容纳在推车(cart)54内和/或可从成像系统50被远程地访问)的成像处理单元52。成像处理单元52可处理图像数据并且经由传输系统56(包括无线、有线、物理存储器转移等)将其传输至导航处理单元36。由成像系统50获取的图像数据可被用于生成在显示设备42上示出的图像40。应当理解,任意合适的成像系统可被包括为成像系统50。在图1中具体地示出的成像系统50可包括由在科罗拉多州路易斯维尔具有营业场所的美敦力公司(Medtronic,Inc.)销售的O 成像系统,但也可包括或替代地包括其他成像系统,诸如计算机断层扫描(CT)成像系统、磁共振成像(MRI)系统、C形臂(C-arm)荧光成像系统等。
可利用任意合适的成像系统获取图像数据并且可使用图像数据来生成用于在显示设备42上显示的图像40。应当理解,任意合适类型或数量的图像可被生成以用于在显示设备42上显示。例如,图像40可包括多个图像连同多个软件特征或按钮,如图5中所示出的。图像还可包括多个单独或离散的图像,该多个单独或离散的图像可由用户60单独地查看或选择性地查看。
除了导航系统34之外或替代导航系统34,规划系统100可被用于显示和/或操纵图像数据,如本文所述。规划系统100可被用于协助或执行对所选择的手术的规划,诸如通过在显示图像的显示设备102上显示图标。利用所选择的图像系统50获取的图像数据可被用于生成用于在所选择的显示设备(诸如显示设备40和/或102)上查看的图像。在各种实施例中,用户60可在执行手术的任意部分(诸如形成钻孔、仪器、将访问面板(access panel)从非生命受试者中移除等)之前使用利用成像系统50获取的图像数据来生成或确定规划。应当理解的是,任意访问口(access portal)(诸如任意合适的穿颅术)可在所选择的手术中使用,并且钻孔仅是示例性的。在各种实施例中,规划系统100可接收来自成像设备50的图像数据以用于在显示设备(诸如监测器102)上显示。规划系统100可进一步包括各种用户输入,诸如键盘104或诸如跟踪板(track pad)、鼠标等的其他合适的用户输入。
规划系统100可进一步包括规划处理器系统106,该规划处理器系统106与本文所讨论的处理器系统36相似。进一步地,规划系统100可包括与本文所讨论的导航存储器38相似的规划存储器108。规划系统100的规划处理器系统106可以能够执行各种指令,诸如存储在存储器108中以用于协助规划在受试者82上的所选择的手术的指令。进一步地,存储器108可已经将被确定用于执行手术的规划写入其中。如本文所讨论的,规划系统100可被用于确定用于执行手术的规划。该规划可在手术之前被制定并且可被存储至存储器108。由此,该规划可以在执行手术之前被预先确定。
在各种实施例中,包括本文所讨论的特定示例,仪器120可被规划被定位于受试者82的颅骨124内。仪器120可被定位或被引导通过所选择的引导系统128进入受试者82内。引导系统128可相对于受试者82的颅骨124被定位,诸如被固定到颅骨124以及围绕形成在颅骨124中的钻孔或被定位在形成在颅骨124中的钻孔内。引导系统128可包括所选择的或合适的引导系统,包括在美国专利No.7,637,915、8,301,226或7,695,480中公开的那些,上述三个专利通过引用全部并入本文。引导系统128可进一步包括引导设备和/或引导设备,这两个设备均由在科罗拉多州路易斯维尔具有营业场所的美敦力导航公司(Medtronic Navigation,Inc.)销售。然而,所理解的是,引导系统128可以是可用于引导任意所选择的仪器(例如,仪器124)进入受试者82体内的任意合适的引导。引导系统128可包括可由引导选择或固定的各种引导尺寸和几何形状,该各种引导尺寸和几何形状是预先确定并且可被示出以用于规划和选择设备,诸如如本文进一步讨论的引导128。
转到参考图2、图3、图4和图5,示出了各种图像视图。所理解的是,可利用显示设备102上的规划系统100查看如本文所讨论的图像视图(诸如,在任何手术发生之前的规划期间)和/或在手术期间利用显示设备42上的导航系统34查看如本文所讨论的图像视图。由此,预先确定或预先规划的规划可被制定并且保存(例如,保存在存储器10中)以便之后调用。例如,导航系统34可调用该预先规划以用于显示在显示设备42上。而且,用户60可出于各种原因(例如,大脑移位、疾病状态的进一步发展等)在手术期间改变该预先规划。
图2中示出了第一图像视图80。图像视图80可以处于相对于受试者82的所选择的取向。图3示出了处于相对于受试者82的不同的或替代的视角的第二图像86。图4示出了处于相对于受试者82的第三视角的图像90并且也可以是仪器的“眼睛视图(eye-view)”(诸如沿着仪器的长轴)。图5示出了其中视图可以包括受试者的多个视图的屏幕截图。
继续参考图2-图5,用户60可利用所选择的成像系统(诸如,图1中所示出的成像系统50,或任意其他合适的成像系统)获取受试者82的图像数据。可利用各种二维成像模态(诸如,C形臂或如本文进一步所讨论的其他合适的二维x射线成像系统)获取图像数据。进一步地,可使用包括磁共振成像(MRI)、计算机断层扫描(CT)或其他成像模态的各种成像模态获取受试者82的三维图像数据。然而,所理解的是,可基于两个或更多二维图像重构三维图像。此外,如本领域的技术人员所理解的,可基于三维图像数据制作二维图像。
图像80、86、90和40可由用户60(如本文中进一步讨论的)用于规划在受试者82上的手术。对受试者82的手术的规划可包括如图6中所示出的过程或流程图140中所示出的各种步骤或部分。所理解的是,流程图140可以合并可利用导航系统34或规划系统100中的一个或两个访问和/或操作的特征或部分。例如,用户60可在进入手术室之前或没有患者82在场但可使用规划系统100或导航系统34的情况下执行整个规划过程。进一步地,在手术期间,用户60可规划手术的各种部分,诸如对引导128的选择和/或对访问口的放置,并且可以仅使用导航系统34或规划系统100。由此,所理解的是,可以利用任意合适的系统执行诸如流程图140内所示出的规划过程。
进一步地,由处理器(诸如处理器106和/或处理器36中的一个或两个)基于来自用户60或其他合适的用户的输入以及执行存储在所选择的存储器中的指令来执行在流程图140中示出的各种过程。因此,所理解的是,流程图140的各种特征可被形成为指令或被制订(formulate)为可被纳入用于执行如本文进一步所讨论的各种步骤或特征的指令中的算法。
因此,流程图140可从开始框142处开始。诸如用户60之类的用户可选择手术。例如,外科医生可以在框144中选择受试者82的脑肿瘤活检。然而,所理解的是,还可以选择其他合适的手术,诸如植入深部脑刺激(DBS)引线或探针、插入或组装所选择的构造等。一旦手术在框144中被选择,然而,在框146中所选择的手术的类型可被输入到规划系统100中。所理解的是,在框146中将所选择的手术输入到规划系统100中可以是可选的;然而,规划系统可以包括用于协助选择数据的类型以及选择用于执行手术的仪器的指令。输入可包括用户60从菜单选择手术的类型,或选择用于手术的各种仪器和引导。然而,所理解的是,用户60还可选择各种选项,诸如要获取的数据的类型、要使用的仪器等。
在框150中获取图像数据可因此基于来自用户60的输入,或基于由规划系统100的确定或自动选择。可利用如图1所示的传输线56'将对图像数据的类型的自动选择直接从规划系统100传输至成像系统50。然而,在框150中确定或选择图像数据的获取的用户60也可经由传输线56'将指令传输至成像系统50。然而,该用户60也可以以其他合适的方式将要被获取的图像数据的类型诸如经由口头通信、信息传递等传送至成像系统50的操作人员。可随后在框150中利用用于规划手术的成像系统50获取受试者82的感兴趣点或感兴趣部分的图像数据。
可在框152中发生选择用于所选择的手术的设备。设备的选择可与在框150中的图像数据的获取同时发生或在其之前或之后发生。将框152中的设备的选择放置在图像数据的获取150之后仅为示例性。然而,在框152中的设备的选择可由规划系统100使用以协助准备或最后确定用于在受试者82上执行手术的规划。在框144中的受试者手术可使用被定位在受试者82的颅骨124内的一个或多个仪器。设备的选择152可包括将要被定位在患者82体内的仪器的选择。进一步地,在框152中的设备的选择可包括将要被一同使用的多于一个设备和/或多个设备的选择。例如,可选择一个或多个引导设备128来协助引导仪器120进入患者82体内。此外,该选择可包括引导以及要由该引导引导的仪器。
所选择的设备(多个)(其可包括仪器120和引导128)被用于针对使用仪器120而协助确定所选择的几何形状、尺寸等。相应地,在框152的设备的选择可由规划系统100使用,如本文进一步讨论的,以用于通过确定对仪器120和/或引导128的尺寸和移动的适用或限制来协助规划手术。所选择的几何形状或运动的范围或可达性可包括由运动的范围(例如,运动的多个度)所限定的各种形状。形状可包括球体、圆锥形、立方体、菱形等。如本文所讨论的,可达性的体积可被确定并且显示(诸如相对于图像)以便查看和进一步确定。
继续参考图6和图2-图5,规划系统100可被用于协助选择或确认用于手术的轨迹。流程图140示出在选择用于所选择的手术的设备之后,可以输入可由规划系统100自动地执行或与用户60组合执行的过程。在框160中,显示设备(诸如显示设备102)可显示所选择的图像。显示所选择的图像可以包括任意合适的或任意数量的所选择的图像,如图2-图5中所示出的。所选择的图像可以是受试者的整个部分(诸如整个头部124)或可包括其中的所选择的部分,诸如颅骨124的近中(medial)上部部分,如图2中所示的。规划系统100可随后在框162中自动地或结合可做出的输入来选择初始进入点。例如,用户60可使用用户输入104来选择进入点166,如图2中所示。替代地,处理器106可执行指令以确定初始进入点166,诸如分割图像以确定最靠近所确定的肿瘤的平坦(flat)部分或点等。图像80中的进入点166可以是任意合适的大小,但可由所选择的一个或多个像素/体素或子像素/子体素部分表示。如本文进一步讨论的,各种其他信息可相对于进入点166被示出和确定。
可在框170选择靶,该靶可在图像80上利用靶图标174示出。在框170中所选择的靶可以是受试者82的所选择的区域(诸如在用于执行活检的肿瘤内)的一部分或全部。所选择的靶也可基于各种解剖学或其他信息。例如,在框170中,图集(atlas)图像可被配准至图像18并且解剖结构的解剖学部分(包括功能部分)可被选择作为靶。因此,在框170所选择的靶可以是对用户60可见或对用户60不可见的,但是基于关于信息(诸如结合图集的信息)是否为可见的解剖学特征等的确定而被选择的。
一旦在框162选择了初始进入点并且在框170选择了靶,就可以在框178制定(make)从初始进入点至靶的所确定的和/或所显示的初始轨迹。也可利用显示设备102将初始轨迹示出为在图像80上叠加的轨迹图标182。轨迹图标182可以任意合适的方式示出,诸如直线。处理器106可计算并且显示在进入点166和靶174之间的和/或穿过进入点166和靶174的直线,以用于在图像80上显示。然而,所理解的是,轨迹图标182可被确定为非直线并且可包括沿着从进入点166到靶174的路径的一个或多个曲线。也可部分地由用户60协助或确定轨迹图标182。例如,用户60可确定靶174并且画出或拖动从靶174到可以成为框162的所选择的初始进入点的点的射线或线。尽管如此,根据各种实施例,处理器系统106可执行计算在被确定为在框162中所选择的初始进入点和在框170中所选择的靶的点之间的线的指令。可通过确定或标识图像内的针对进入点166和靶174中的每一个的至少一个像素或体素并且计算两个点之间的直线来进行对线的确定。
一旦进行了在框162中的初始进入点的选择,就可在框188中进行对表示所选择的设备和/或访问口的设备图标192的示出。对设备图标192的示出可包括示出在二维图像80上彼此平行的至少第一线194a和第二线194b。进一步地,与第一线194a和第二线194b均垂直的第三线196可被示出将两个平行线194a和194b互连或处于两个平行线194a和194b之间。可大体上在初始进入点166的确定之后示出图标192和/或在任意其他合适的时间(诸如在框178中确定轨迹之后)处示出图标192。
设备图标192可表示所选择的设备的至少一部分,诸如引导128。平行线194a和194b可表示用于访问受试者82的颅骨124的内部的钻孔或访问口的尺寸。第三线196可示出引导128的底座(base),该底座将被置于或被固定至受试者82的颅骨124的外表面198。平行线194a和194b结合第三线196示出了仪器120可以或必须沿着轨迹182穿过的尺寸。如本文进一步讨论的,这些可用于确定初始轨迹182是否在运动边界的可能性之内或在引导128的引导之内。设备(例如,引导)可被定位在患者82身上的任意合适的点处。因此,可在显示设备上相对于图像80移动设备图标192,由此表示设备图标192的线可移动以相对于引导设备图标192和图像82示出边界。
在框188中示出设备图标192之后,在框200中设备图标192可与图像80的表面198对齐。规划系统100的处理器106可尝试标识与在进入点166处的曲线相切的表面或将线196定位成与在进入点166处的曲线相切。然而,用户60也可使用用户输入104以用于改变或移动线196以将其定位于在图像80的表面198上大体平坦或对齐的点处。通过确保线196是平坦的或尽可能地与表面198接触,可以相对于引导128知晓轨迹的真实限度或可能的边界。
设备图标192的线196一旦与图像80的外表面198对齐,就可由规划系统100使用以用于标识相对于线196的可达性或手术限制的几何形状或范围,该线196表示引导128。如上文所讨论的,线196表示将会被定位在受试者82的头骨124上的引导128的表面。因此,线196确定引导128的所选择的几何形状以及仪器120在受试者82体内的可能的引导的限度。相应地,一旦在框200中设备图标192被对齐,就可示出对引导的边界或可达性的区域或体积的显示。可达性的区域或体积可包括或限定利用引导128引导的所有可能的轨迹的边界并且可在框210中被显示。用户60可以能够在执行手术之前确定所规划的轨迹是否是可能的,诸如是否能够由引导设备引导。
边界线或边界线组212可相对于设备图标192的线196而被限定并且可包括被示出为在图像上叠加的图标的一个或多个边界线,诸如第一边界线212a、第二边界线212b以及第三边界线212c。边界212还可包括所示出的底座212d。底座212d可以是距线196的距离213,并且该距离213可以沿着与线196正交(normal)的线来被测得。边界212可限定所选择的设备的整个可作业或可到达的体积,诸如利用在框152中所选择的引导和/或仪器的所有可能的轨迹。在各种实施例中,这可以包括可通过移动或调整引导(诸如引导的X载台(stage)或Y载台,例如引导设备和/或在美国专利No.7,981,120和8,911,452中公开的引导设备,上述两个专利通过引用并入本文)而实现的边界。由此,基于于所选择的仪器和所选择的设备有关的信息,可关于从中心线/与线196正交的线偏转的角度以及距进入点166的深度来确定和/或调用边界212。
边界线212可由锥体限定(诸如右圆锥),该锥体具有在进入点166处的顶点或角顶(vertex)以及在图像80中所表示的进入受试者82一距离的底座。底座212d可以是锥体213的距进入点166的高度。然而,由边界线限定的锥体的顶点可以在线196和/或进入点166之上或之下。边界线212表示具有相对于与图标192的线196垂直的高度线的所选择的角度的锥体。角度可由各种特征限定,诸如引导128的几何形状、钻孔的外部尺寸(如由平行线194a和194b所限定的)、仪器120的大小或特征的其他特定几何形状。如图2中示出的,两个边界线212a和212b从线196的中心(诸如由进入点166限定的)向外延伸或朝着图像80的内部延伸。边界线212不与平行线194a和194b的端接触。因此,可由引导128和/或穿过受试者82的头骨214形成的钻孔限定边界线212a-212c的限度。
尽管在图2-图5中作为锥体示出,但是应理解,可到达空间可被表示和/或确定为任意合适的形状、几何形状和大小。因此,可达性的区域或体积可被限定为任意合适的形状,并且锥体或三角形是仅为示例性的。例如,所选择的引导可以是在X载台和Y载台上沿着直线可移动的,由此可达性的体积或区域可以是方形或立方体。其他引导可允许仪器的更为复杂的移动,并且示出可达性的体积的区域的边界可以是其他合适的形状。进一步地,可达性可通常是体积。体积可以在三维(3D)图像中显示或由二维(2D)图像(例如,图2)上的若干条线表示。然而,所理解的是,边界可被限制到区域并且可在相关图像上如此示出。
边界线212可由用户60查看和/或由规划系统100分析以确定初始轨迹是否在边界线212之内。因此,流程图140以及规划过程100可包括在框220中的确定初始轨迹是否在边界212之内的询问。如上文所讨论的,边界212限定并且示出了利用在所选择的位置处的所选择的设备(例如,引导)以及设备的位置而成为可能的所有轨迹。
如果初始轨迹不在边界212之内,则沿着“否”路径222以在框224中确定改变或选择新的轨迹、新的进入点和/或新的设备。所选择的反馈可被提供至用户60,诸如显示、声音、触觉或其他反馈,以指示初始轨迹182不在边界212之内。由此,初始轨迹不在引导128的可达性的锥体内是由图标192表示。反馈可被直接地提供至用户60,和/或作为指令被提供至规划系统100以用于改变参数以生成新的轨迹,如本文所讨论的,包括选择新的进入点、相对于所选择的进入点移动引导等。
如上文所讨论并且在图2中示出的,轨迹182可以是从所选择的初始进入点166的初始轨迹。靶174可以在可包括可能的替代靶位置的区域内,诸如在肿瘤内。因此,可相对于初始进入166改变靶并且可确定新的轨迹182’。除了改变靶174的位置以计算新的轨迹182’之外,或替代改变靶174的位置以计算新的轨迹182’,可制定与初始进入点166不同的新的或替代进入点166’。将初始进入166改变为替代进入点166’可形成到达同样的相同靶174的替代或新的轨迹182’。而且,设备图标可被改变成表示新的或不同的设备(诸如,直的或成角度的引导)。进一步地,图标192可被移动成表示相对于所选择的初始进入点166移动引导,这进而也移动边界212。由此,可作出多个改变以在框224中确定新的轨迹。
在显示器102上,设备图标192结合边界线212可随后相对于新的进入点166’被移动并且相对于新的轨迹182’被示出。相应地,可通过选择与初始靶174不同的靶并且维持初始进入点166、选择新的进入点166’同时维持靶,或改变轨迹182的形状来改变轨迹。无论如何,如果初始轨迹182不在边界线212内,则新的轨迹182’可由框224确定。可随后使用另一询问框来在框228确定新的轨迹182’是否在所显示的边界内。
如果新的轨迹182’不在边界212之内,则可沿着“否”路径230以在框224中确定新的轨迹和/或新的进入点。如上文所讨论的,可做出相同的改变以确定新的轨迹并且可再次确定框228的新的轨迹是否被显示在边界之内的询问相应地,可输入迭代过程以通过改变参数(如上文所讨论的,诸如进入点、靶点、轨迹形状、引导等)确定在边界212之内的轨迹。
在框224中确定了新的轨迹并且在框228中的新的轨迹是否在所显示的边界212中的询问是正向的(positive)或作出“是”的确定之后,可沿着“是”路径232。相似地,如果在框220中初始轨迹182被确定在边界212之内,则也可沿着“是”路径234。可在两个“是”路径232和234之后在框240中显示可到达轨迹。可到达轨迹是在边界线212之内的轨迹并且可被显示在规划系统100的显示设备102上。所理解的是,可到达轨迹可大体上在边界线212之内。例如,可使用约0.01毫米(mm)到约3mm的误差或容差。由此,即便轨迹与边界线接触或延伸超过边界线约3mm,它也可被确定为可到达轨迹。
一旦做出对可到达轨迹的确定,如上文所讨论的,可由规划系统100和/或用户60针对所选择的手术将可到达轨迹作为规划(即,预先确定的规划)保存在存储器108中。规划系统100可随后被用作导航处理器系统34和/或规划可被转移到导航处理器系统34以用于执行经引导的手术。替代地,或除此之外,所理解的是,并不要求发生经引导的手术,而是规划系统100可被用于规划可在没有导航系统的情况下发生的手术的一部分。
规划系统100可被用于确定并且规划进入点166和引导128的位置,以确保轨迹182在边界212之内以用于到达靶174。一旦基于进入点166相对于如由边界线212限定的引导以及可达性的几何形状确定了可到达轨迹,可不要求导航系统来确保仪器120到达靶174。例如,可基于设备图标192的所规划的定位来引导128将定位在受试者82上。用于将仪器120移动进入受试者82体内的轨迹182(包括路径和距离)可在没有跟踪系统的情况下被测得,由本领域的技术人员所理解的。例如,引导部分可被设置处于所选择的角度并且可利用挡件(stop)来预设置仪器120的长度。相应地,过程140可在框250中结束。
所理解的是,结束框250是规划过程的结束并且可以是在受试者82上的手术的开始。包括基于设备图标192的定位的引导128的定位以及用于到达靶174的所确定的可到达轨迹182的规划可以是过程140的结果和输出。规划系统100可在图像80(如本文所示出并且上文所讨论的)上显示图标(如上文所讨论的),包括用于形成进入受试者82的钻孔的定位、引导128的定位以及仪器120的轨迹182。因此,规划系统100可输出以供用户60查看所选择的显示,该所选择的显示包括显示设备102和/或显示设备42上的显示。显示可包括图像80,该图像80包括图标192以及在其上叠加的轨迹182。输出的任意额外的或进一步的形式可包括特定的位置和指令、仪器120的长度和要由用户60使用的其他物理输出。
进一步地,所理解的是,图像可与任意合适类型的图标一起被显示。例如,参考图3,图标192可被显示在受试者的大体的后部二维图像86上,进一步参考图4,所理解的是,边界线212可被示出为圆形212’并且线196可被示出为圆形196’。如上文所讨论的,边界212可表示锥体或锥体的外部并且圆形212’可示出在靶174的深度处的锥体的底座或锥体的横截面的周界(perimeter)。圆形196’可示出表示引导128的线196。同样,轨迹186也可被示出为从进入点166至靶174。进一步地,参考图5,三维渲染图像260可具有相对于三维渲染图像260被示出为三维锥体的边界212”。轨迹186也可相对于三维锥体边界212”被示出,该三维锥体边界212”相对于在三维渲染260上所叠加的被示出。相应地,所理解的是,可在各种情况中相对于图像的不同的视角和不同的维度示出边界和/或轨迹186。
根据各种实施例,可选择经导航的手术。保存在存储器108中的规划可与导航系统36一起被使用以导航以及引导仪器124进入受试者。如本文所讨论的,仪器124可以被跟踪并且可以是引导128的定位。仪器124的定位可以相对于显示设备42上的可到达轨迹或规划图标被示出为仪器图标。
由此,返回参考图1,套件20被示出包括可被用于各种手术的导航系统22。导航系统22可被用于跟踪物体(item)(诸如植入物或仪器124)相对于受试者82的位置。应进一步注意的是,导航系统22可用于导航任何类型的仪器、植入物、或递送系统,包括:导线、关节镜系统、骨科植入物、脊柱植入物、DBS引线、心脏起搏引线、消融仪器等。此外,这些仪器可用于导航或标测身体的任何区域。导航系统10和各种被跟踪物品可以用于任何适当的手术,诸如,通常是微创或开放性手术的手术。
导航系统22可以与成像系统50接合,成像系统50用于获取患者82的术前、术中、或术后、或实时图像数据。本领域技术人员将理解,可以对任何适当的受试者进行成像,并且可以相对于受试者执行任何适当的手术。受试者可以是人类患者,并且该手术可以是外科手术,诸如,设备(例如,螺钉、引线等)的植入。
在图1中示例性地示出,成像系统50包括由美敦力导航公司(MedtronicNavigation,Inc)出售的O成像设备,该公司在美国科罗拉多州的路易斯维尔有营业场所。成像设备50可以具有大致环形的机架壳体270,环形机架壳体270封围图像捕获部分272。图像捕获部分272可包括X射线源或发射部分274以及X射线接收或图像接收部分276,其通常或如实际上可能的彼此成180度定位在机架壳体270内。在各种实施例中,X射线源或发射部分274以及X射线接收或图像接收部分276可安装在相对于大致环形的机架壳体270内的轨道(未示出)的转子(未示出)上。图像捕获部分272可操作以用于在图像获取期间旋转360度。图像捕获部分272可以围绕中心点或中心轴旋转,允许从多个方向或在多个平面中获取患者82的图像数据。成像系统50可以包括在美国专利No.7,188,998;7,108,421;7,106,825;7,001,045以及6,940,941中公开的成像系统,以上所有专利通过引用结合于此。然而,成像系统50还可以包括或替换为包括C形臂荧光成像系统、计算机断层扫描(CT)成像系统等的其他成像系统,其也可以生成患者82的三维视图。
可以精确地知道图像捕获部分272相对于成像设备50的任何其他部分的定位。另外,如本文所讨论的,图像捕获部分272的定位的精确知识可以与跟踪系统结合使用,以确定图像捕获部分272和图像数据相对于被跟踪的受试者(诸如患者82)的定位。例如,患者跟踪设备280可以放置在患者82上以用于跟踪患者82。
跟踪系统24可包括与导航系统22相关联的或与导航系统10一起被包括的各种部分。跟踪系统24还可以包括多种类型的跟踪系统,其包括包括光学定位器26的光学跟踪系统和/或可以包括电磁(EM)定位器28的EM跟踪系统。光学定位器26可以用相机“查看”或光学地跟踪可跟踪部分(跟踪设备)。EM定位器28可以生成场,并且可跟踪部分(例如,EM跟踪设备)可以感测该场以确定相对于该场中的另一跟踪设备的位置。可以利用跟踪系统24跟踪各种跟踪设备(包括在本文中进一步讨论的那些跟踪设备),并且导航系统22可以使用该信息以允许显示物品的定位。简而言之,诸如患者跟踪设备280、成像设备跟踪设备282、和仪器跟踪设备284之类的跟踪设备利用适当的跟踪系统24(包括光学定位器26和/或EM定位器28)允许手术室的各选定部分相对于彼此被跟踪。
应当理解,跟踪设备280、282、284中的任一个可以是光学或EM跟踪设备,或两者,这取决于用于跟踪相应跟踪设备的跟踪定位器。应进一步理解,任何适当的跟踪系统可与导航系统22一起使用。替代跟踪系统可以包括雷达跟踪系统、声学跟踪系统、超声跟踪系统等。
示例性的EM跟踪系统可以包括由美敦力导航公司(Medtronic Navigation,Inc)销售的AXIEMTMS7TMi7TM导航系统,该公司在科罗拉多州的路易斯维尔有营业场所。示例性跟踪系统也公开在2014年2月4日授权的题为“用于外科导航的方法和装置(Method And Apparatus ForSurgical Navigation)”的美国专利No.8,644,907、2010年7月6日授权的题为“用于外科导航的方法和装置(Method And Apparatus For Surgical Navigation)”的美国专利No.7,751,865、1999年6月22日授权的题为“定位位置系统(Position Location System)”的美国专利No.5,913,820、以及1997年1月14日授权的题为“用于导航导管探针的方法和系统(Method and System for Navigating a Catheter Probe)”的美国专利No.5,592,939中,以上所有专利通过引用结合于此。
此外,对于EM跟踪系统,可需要提供屏蔽或失真补偿系统以屏蔽或补偿由EM定位器28生成的EM场中的失真。示例性屏蔽系统包括在2010年9月14日授权的题为“用于在存在影响场的物体的情况下导航导管探针的方法和系统(Method and system for navigatinga catheter probe in the presence of field-influencing objects)”的美国专利No.7,797,032、和在2004年6月8日授权的题为“患者屏蔽和线圈系统(Patient-shieldingand coil system)”的美国专利No.6,747,539中的那些屏蔽系统,以上所有专利通过引用结合于此。失真补偿系统可以包括在2003年10月21日授权的题为“用于在金属物体附近的外科探针的电磁导航的方法和装置(Method and apparatus for electromagneticnavigation of a surgical probe near a metal object)”的美国专利No.6,636,757中公开的失真补偿系统,该专利通过引用结合于此。
利用EM跟踪系统,EM定位器28和各种跟踪设备可以通过在CAC/NII30内的EM控制器进行通信。EM控制器可包括各种放大器、滤波器、电隔离和其他系统。EM控制器还可以控制定位器28的线圈以发射或接收EM场以用于跟踪。然而,可以使用诸如在2002年11月5日授权的题为“外科通信电力系统(Surgical Communication Power System)”的美国专利No.6,474,341(该专利通过引用结合于此)中公开的无线通信通道之类的无线通信通道,而不是直接耦合到EM控制器。
应当理解,跟踪系统还可以是或包括任何适当的跟踪系统,包括具有光学定位器的和/或S7TM导航系统,类似于由美敦力导航公司(Medtronic Navigation,Inc.)出售的光学定位器26,该公司在科罗拉多州路易斯维尔有营业场所。光学跟踪系统还可以包括在2011年8月30日授权的题为“术中图像配准(Intraoperative Image Registration)”的美国专利No.8,010,177、2001年5月22日授权的题为“用于电磁和光学定位系统的转换的系统(System For Translation OfElectromagnetic And Optical Localization Systems)”的美国专利No.6,235,038中公开的那些光学跟踪系统,以上所有专利通过引用结合于此。在Wittkampf等人的于1999年11月9日授权的题为“导管定位系统和方法(Catheter Location System and Method)”的美国专利No.5,983,126中公开了另外的替代跟踪系统,该专利籍此通过引用被结合。其他跟踪系统包括声学、辐射、雷达等跟踪或导航系统。
成像系统50可包括支撑壳体或推车54。成像系统50可进一步包括单独的图像处理单元52,图像处理单元52可被容纳在推车54中。导航系统22可以包括导航处理单元36,导航处理单元60可以与导航存储器38通信或包括导航存储器62。导航存储器38可包括任何适当的非瞬态存储器,包括随机存取存储器、磁性介质驱动器等。此外,导航存储器38可与导航处理单元36集成或远离导航处理单元36。导航处理单元36可接收信息,包括来自成像系统50的图像信息、来自规划系统100(如果规划系统100被规划与导航系统34分开的话)的规划信息、以及来自跟踪系统24的跟踪信息,包括来自跟踪设备280、282、284和定位器26、28的相应跟踪信息。图像数据可以在工作站或其他计算机系统34的显示设备42上显示为图像40。工作站34可以包括合适的输入设备,诸如包括键盘290的用户输入设备。应该理解,可以包括其他适当的输入设备,诸如鼠标、脚踏板等。各种处理单元和计算机或工作站可以包括内部存储器或本地存储器和处理单元。处理单元可以包括中央处理单元,该中央处理单元是执行指令以执行在芯片上的任务的通用计算机。处理单元也可以是特定电路,诸如专用集成电路(ASIC)。因此,处理单元可以是接收信息并基于该信息执行存储或接收的指令的设备。
图像处理单元52可处理来自成像系统50的图像数据并将其传输到导航处理单元36。然而,应进一步理解的是,成像系统50不需要执行任何图像处理,并且它可以将图像数据直接传输到导航处理单元36。因此,导航系统22可以包括单个或多个处理中心或单元或利用单个或多个处理中心或单元来操作,该单个或多个处理中心或单元可以基于系统设计来访问单个或多个存储器系统。
患者82可以被固定在手术台292上,但没有被要求被固定在台292上。台292可包括多个条带72944。条带294可以固定在患者82周围,以相对于台292固定患者82。可以使用各种装置来将患者82以静止定位定位在手术台292上。在2003年4月1日提交的题为“集成电磁导航和患者定位设备(An Integrated Electromagnetic Navigation And PatientPositioning Device)”的共同转让的美国专利申请No.10/405,068且公开为美国专利申请公开No.2004/0199072中阐述了这种患者定位设备的示例,该专利藉此通过引用被结合。其他已知的装置可包括夹具。
而且,患者82相对于成像系统50的定位(包括三维位置和取向)可以由导航系统22利用患者跟踪设备280和成像系统跟踪设备282来确定。如本文所讨论的,可以至少部分地利用患者82的获取的图像来确定相对于患者82的定位(包括三维位置和取向)。因此,可以确定患者82相对于成像系统50的定位(包括三维位置和取向)。成像系统50(诸如O)可以知道其定位并重新定位到在约10微米内的相同定位。这允许成像系统50的基本精确放置和成像设备50的定位的精确确定。在美国专利No.7,188,998;7,108,421;7,106,825;7,001,045以及6,940,941中进一步描述了成像部分272的精确定位,以上所有专利通过引用结合于此。通常,可以选择确定图像数据相对于患者82的定位。例如,图像数据相对于患者的定位(包括取向)可以用于确定患者82的一部分的位置。
可以通过标识患者空间中的匹配点或基准点以及图像空间中的相关点或相同点来配准受试者或患者空间和图像空间。成像设备50(诸如由美敦力公司出售的O成像设备)可用于在精确和已知定位处生成图像数据。这可以允许在采集图像数据时图像数据自动或“固有地”配准到患者82。基本上,由于成像系统50相对于患者82的准确定位,患者82相对于成像系统50的定位是精确已知的。由于成像系统82的已知精确位置,这允许知道与患者82的点相对的图像数据中的点。
替代地,可以通过将图像数据中的基准点与患者82上的基准点相匹配来进行手动或自动配准。图像空间到患者空间的配准允许生成患者空间和图像空间之间的转换图(translation map)。根据各种实施例,可以通过确定在图像空间和患者空间中基本相同的点来进行配准。相同的点可包括解剖学基准点或植入的基准点。在2009年3月9日提交的美国专利申请No.12/400,273,现公开为美国专利申请公开No.2010/0228117中公开了示例性的配准技术,该专利通过引用结合于此。
一旦配准,具有或不具有成像系统50的导航系统22可用于执行所选择的手术。相应地,所理解的是,在经导航的手术期间,受试者82无需在成像系统50内。受试者82可以远离成像系统50但是仪器120可被跟踪。
所选择的手术可以使用利用成像系统50生成或获取的图像数据。此外,成像系统50可用于在相对于手术的不同时间处获取图像数据。如本文所讨论的,出于各种目的(包括对手术的选定部分的确认),可以在手术的该所选择的部分之后获取患者82的图像数据。
继续参考图1,成像系统50可以生成患者82的实际或虚拟三维图像。患者82可相对于成像系统50被放置,以允许成像系统50获得患者82的图像数据。为了生成3D图像数据,可以从相对于患者82的多个视图或定位获取图像数据。患者82的3D图像数据可以单独使用或与其他信息一起使用,以辅助对患者82或适当的受试者执行手术。然而,应该理解,可以使用任何适当的成像系统(包括磁共振成像、计算机断层扫描、荧光检查等),以用于获取患者82的图像数据(包括3D图像数据)。
如上文所讨论的,用户60可以使用规划以用于执行手术。参考包括图1和图5的附图,仪器120可被跟踪。被耦合至仪器120的跟踪设备284可包括任意合适的跟踪设备,诸如可由光学定位器26查看的反射器阵列或可利用EM定位器28操作的EM线圈。尽管如此,仪器120的一部分(诸如远侧尖端)的定位可被跟踪。可利用显示设备42将所跟踪的定位示出为叠加在图像40上的仪器图标300,用户60可以查看显示设备42并且通过查看仪器图标300看到仪器的所跟踪的定位。也可查看仪器120相对于预先规划的可到达轨迹182的定位。
最初,可以通过跟踪用于在进入点处形成进入口的、可被跟踪的仪器来跟踪在进入点166处的进入口的形成。如上文提到的,进入口可包括任意合适的口,包括所选择的穿颅术(诸如钻孔)。可以利用显示设备42显示口形成仪器的所跟踪的定位。而且,当引导128被定位在颅骨124上时,引导128的定位可被跟踪。而且,引导相对于患者82的角度或定位可被跟踪。
除了利用规划系统100预先规划设备的位置之外或替代利用规划系统100预先规划设备的位置,规划系统100和/或导航系统32可被用于在手术期间确定设备(例如,引导128)或进入点中的至少一者的定位。例如,可利用引导跟踪设备310(例如,与上文所讨论的跟踪设备相似的跟踪设备)来跟踪引导128,并且可利用跟踪系统24来跟踪引导的定位。由此,设备图标192以及边界212可显示在显示设备42上,诸如叠加在图像40上。用户60可移动引导128以及设备图标192,并且可基于引导128的所跟踪的定位在显示设备42上移动边界线212。以此方式,引导128可在手术期间被选择地定位以确保引导128的可达性的体积或区域将包括所规划的轨迹182。还可在任意合适的时间规划轨迹182,诸如在手术之前或在手术期间。可利用显示设备42相对于边界线212显示轨迹182。
当引导128被跟踪时,用户60可查看显示器42以确定当引导128被定位在患者82附近和/或在患者82身上时但在被固定至受试者82之前,引导128或其他合适的设备的可达性的区域或体积的边界212与所规划的轨迹182重叠或包括该轨迹182。边界212可包括由用户60输入和/或从菜单选择的尺寸。用户60可从菜单选择引导128并且处理器36和/或106可从存储器38和/或108调用边界212的尺寸和几何形状。然而,可基于利用跟踪系统24的引导128相对于受试者82的所跟踪的定位,在显示设备42上显示设备图标192和边界212。这可以允许用户60将引导128的定位从预先规划的定位改变(例如,在钻孔内移动),但是仍然通过查看显示设备42和设备图标和/或边界212确定并且确认所规划的轨迹182是在可达性的区域或体积之内。
如图5中所示,通过进入点166和由线196确定的引导218的预先规划的定位和/或基于引导128的所跟踪的定位,而知晓可到达轨迹的定位。因此,可相对于其他预先规划的图标显示表示仪器120的所跟踪的定位的仪器图标300。以此方式,用户60可确定和/或确认仪器120在预先规划的可到达轨迹182上。用户60还可通过相对于靶图标174查看仪器图标300来知晓仪器120何时到达靶174。
然而,如果仪器120被跟踪脱离预先规划的轨迹,则可向用户60提供反馈。例如,可向用户60提供仪器未被跟踪在预先规划的轨迹182上的视觉、听觉、触觉或其他指示。由此,规划可与经导航的手术一起使用。
继续参考图6并且额外参考图7,140的流程图可被用于选择或确认合适的设备,诸如引导128。如上文所讨论的,各种引导可已经选择限制和/或特征。例如,引导可包括具有两个引导体的引导系统,其中一个具有直引导部分和/或一个具有角度引导部分,诸如由美敦力导航公司销售的直的或成角度的引导系统。在两部分引导系统中,直引导可包括与贴敷(affix)到颅骨124的底座大体垂直的引导管。然而,成角度的引导可包括相对于固定到颅骨124的底座成角度的管。因此,可达性的区域或体积的不同边界可由两个不同的引导部分提供或限定。相应地,参考图7,图像350、352、354和356可在显示设备(诸如显示设备102)上显示。
如流程图140中所示出的,可以在框152中进行设备(包括引导)的初始选择。如图7所示,对所选择的设备的边界的显示可在框210中显示。然而,所示出的边界可包括基于所选择的引导组的多个边界或范围。由此,可利用表示可能轨迹的不同边界的一个或多个边界图标示出边界组。在各种实施例中,如上文所讨论的,引导系统可包括两个引导,诸如一个具有相对于底座成角度的管并且一个具有相对底座更直的管。该直引导可包括狭窄或更小的边界316,其可以是包括延伸至底座360c的第一边界线360a、第二边界线360b的锥体形状的体积。边界360可相对于轨迹182被示出。参考图7中的图像350,轨迹182在边界360之内。进一步地,边界360可以与锥体形状的边界相似,如上文所讨论的,包括限定了可由所选择的仪器和/或引导组合作业和到达的体积的高度。边界可示出任意合适的或所选择的形状的边界,也如上文所讨论的。
然而,所理解的是,轨迹182可以不在边界360之内。替代或第二边界370可包括第二边界图标,第一边界线370a、第二边界线370b以及底座370c的图示。第二边界或外边界370可以是与内边界或更小边界360相似的形状或可以是替代的形状。如图7中所示,外边界370也为锥体形状并且与内边界或较小边界360具有位于相同的定位处(通常位于进入166点处)的顶点。用户60可以查看显示设备102以理解并且确定轨迹182是否在边界360、370中的一个内或在该两个边界之内。边界360、370可限定可由在框152和/或框224中选择的仪器124到达的体积或区域或由其限定。进一步地,边界370可以与锥体形状的边界相似,如上文所讨论的,包括限定可由所选择的仪器和/或引导组合作业和到达的体积的高度。边界可示出任意合适的或所选择的形状的边界,也如上文所讨论的。
用户60可确定两个轨迹部分(例如,直的或成角度的)中的哪一个是必须的或被选择以用于包括包括轨迹182的可达性的区域或体积。相应地,用户可以选择合适的引导设备以用于实现所选择的轨迹182,而不是改变或选择不同的轨迹进入点。进一步地,除了相对于与线196和进入点166正交的线的偏转边界的角度之外,边界360和370还示出了可作业或可到达的体积。
此外,边界370可取决于引导128的所选择的定位和/或引导128的移动,而示出引导设备的所有可能的边界或可能的边界的花费。如上文所讨论的,外边界370或较大边界370可基于角度引导。因此,能够到达外边界370的所选择的部分可要求角度引导相对于受试者80的所选择的旋转或定位。即,为了到达靶174,即便在所有可能的边界370之内,可要求引导128相对于受试者82的特定的定位。相应地,如上文所讨论的,引导128可包括跟踪设备310或可具有可跟踪仪器(例如,探针),当将引导定位在颅骨124上时,该可跟踪仪器可被定位在引导的一部分(诸如,成角度的引导管)中。边界370可基于引导128的所跟踪的定位而被显示在显示设备102和/或显示设备42上以用于确保引导被定位成使得边界370包含所确定的轨迹182。
旋转定位也可在规划屏幕(诸如旋转界线(demarcation)380)中被确定并且被示出。例如,旋转的指示:前部(Anterior)可提供角度引导必须向着受试者82的前部成角度以允许边界370包含或包括所确定的轨迹182的指示。可针对用户60进行或确定并且显示其他指示以允许轨迹182在边界370之内的确定和确认。
继续参考图7,显示设备102和/或由显示设备34表示的也可包括包括边界的图示的各种不同的视图和图像。例如,图像353也可相对于轨迹182和靶174示出边界370以及边界360。图像352可被相对于图像350旋转90度或相对于图像350的任意其他旋转。进一步地,仪器可示出在靶174的平面处的边界360和边界370以允许用户60相对于边界360和边界370查看沿着仪器126的路径的轨迹。进一步地,图像356可包括包括三维边界显示370’以及三维边界显示360’的三维边界显示。三维边界显示360’和三维边界显示370’两者可相对于位于靶174的平面处的所确定的轨迹182以及进入116被示出。
相应地,所理解的是,可在框150中获取的各种图像上示出边界。在框210中所显示的边界可包括如图2-图5和/或图7中所示出的边界。边界可包括针对所选择的引导设备的单个边界或可包括针对引导组或不止一个引导的多个边界。用户60可随后确定轨迹182是否在框210中所显示的边界内或在框234中改变或更改轨迹、进入点和/或设备定位和/或设备中的至少一者。因此,流程图140允许确定、确认和/或选择进入点、轨迹和靶,以便仪器126可被引导在至靶174的所确定的轨迹182上。
出于说明和描述的目的,已经提供了实施例的前述描述。前述描述并不旨在是详尽的或是限制本发明。特定实施例的各个元件或特征通常不限定于此特定实施例,而是在适用的情况下,可互换并可用于选定的实施例中,即使没有被具体示出或描述,情况也是如此。相同部分还可以以多种方式进行变化。这类变化不被认为是脱离了本发明,并且所有这类修改都旨在被包括在本发明的范围内。

Claims (15)

1.一种规划手术的方法,所述方法包括:
显示受试者的图像;
在所述图像上选择初始进入点;
在所述图像上在所述所选择的进入点处叠加表示第一设备的第一设备图标;
在所述图像上叠加从所叠加的设备图标延伸的第一边界图标;
在所述图像上叠加从所选择的进入点至所选择的靶的所规划的轨迹的轨迹图标;以及
相对于所述边界图标查看所述轨迹图标以确定所述所规划的轨迹是否是利用设备可到达的。
2.如权利要求1所述的方法,进一步包括:
移动所述设备图标以便所述设备图标的线与所述图像中的表面大体相邻。
3.根据权利要求2所述的方法,其特征在于,所述设备图标被叠加包括所述线和平行线对;
其中,所述平行线对两者与所述线垂直。
4.根据权利要求1到3中任一项所述的方法,进一步包括:
选择第二设备;
在所述图像上叠加与所述第一设备图标不同的、表示所述第二设备的第二设备图标;以及
基于所述第二设备叠加与所述第一边界图标不同的第二边界图标。
5.根据权利要求1到4中任一项所述的方法,进一步包括:
如果所查看的轨迹图标与所述边界图标相交,则选择与所述初始进入点不同的新的进入点。
6.根据权利要求1到5中任一项所述的方法,进一步包括:
如果所查看的轨迹图标与所述边界图标相交,则选择新的靶。
7.根据权利要求1到6中任一项所述的方法,进一步包括:
显示在所述图像上叠加的引导图标;
相对于所述图像手动地移动所述引导图标;
其中,所显示的边界图标相对于所述引导图标被显示。
8.一种用于规划手术的系统,所述系统包括:
被配置成存储第一设备图标的存储器系统,其中,所述第一设备图标被配置成示出第一设备的可达性的各边界;
处理器系统,所述处理器系统被配置成执行指令以用于:
访问图像数据,
基于所述图像数据指令所述显示设备显示图像,
接收来自用户输入的输入以指令显示设备显示第一所选择的轨迹图标,以及
接收来自所述用户输入的输入以指令所述显示设备在所显示的图像上在所选择的初始进入点处叠加所述第一设备图标;
其中,用户能够查看所述显示设备以相对于所述第一设备图标查看所述第一轨迹图标以确定第一所规划的轨迹是否是利用所述第一设备可到达的。
9.根据权利要求8所述的系统,其特征在于,进一步包括:
其中,所述用户输入被配置成由所述用户参与以用于移动所述第一设备图标,以便所述第一设备图标的线与所述图像中的表面大体相邻。
10.根据权利要求9所述的系统,其特征在于,所述第一设备图标包括所述线和平行线对;
其中,所述平行线对是间隔开的并且两者与所述线垂直。
11.根据权利要求8-10中任一项所述的系统,进一步包括:
其中,所述存储器系统被配置成存储第二设备图标,其中所述第二设备图标被配置成示出第二设备的可达性的各边界;
其中,所述用户输入被配置成允许所述用户选择第二设备;
其中,所述处理器系统被配置成执行指令以用于:
在所述图像上叠加与所述第一设备图标不同的、表示所述第二设备的所述第二设备图标。
12.根据权利要求8-11中任一项所述的系统,其特征在于,进一步包括:
其中,所述处理器系统被配置成:如果所述第一轨迹图标与所述第一设备的可达性的所述各边界中的一边界相交,则接收来自所述用户输入的、用于选择与所述初始进入点不同的新的进入点的输入。
13.一种利用用成像设备获取的图像数据来规划或确认对受试者的所规划的手术的至少一部分中的至少一者的方法,包括:
利用所述成像设备在相对于感兴趣的部分的所选择的定位处访问所述图像数据,以获取所述受试者的所述图像数据;
在利用所述图像数据生成的图像上选择进入所述受试者中的所规划的进入点;
在所述图像上选择到在所述受试者内的靶的轨迹;
在所述图像上叠加显示边界图标组,所述边界图标组包括表示利用在所述图像上在所述所规划的进入点处的第一引导构件能实现的可能的轨迹的第一边界以及表示利用在所述图像上在所述所规划的进入点处的第二引导构件能实现的可能的轨迹的第二边界;以及
显示所选择的轨迹图标,所述所选择的轨迹图标表示相对于在所述图像上所叠加的边界图标组的所述所选择的轨迹;
其中,相对于所述所叠加的边界图标组的所显示的所选择的轨迹可被用于确定所述所选择的所规划的进入点或所述引导构件是否有可能实现所述所选择的轨迹。
14.根据权利要求13所述的方法,其特征在于,所述边界图标组包括利用在所述图像上在所述所规划的进入点处的第三引导构件能实现的可能的轨迹的第三边界。
15.如权利要求13或14中任一项所述的方法,其特征在于,所述第一边界图标在所述第二边界图标内。
CN201880020846.8A 2017-01-31 2018-01-30 用于基于图像的导航的方法和装置 Active CN110461265B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/420,831 US11842030B2 (en) 2017-01-31 2017-01-31 Method and apparatus for image-based navigation
US15/420,831 2017-01-31
PCT/US2018/015970 WO2018144464A1 (en) 2017-01-31 2018-01-30 Method and apparatus for image-based navigation

Publications (2)

Publication Number Publication Date
CN110461265A true CN110461265A (zh) 2019-11-15
CN110461265B CN110461265B (zh) 2023-04-11

Family

ID=61258599

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880020846.8A Active CN110461265B (zh) 2017-01-31 2018-01-30 用于基于图像的导航的方法和装置

Country Status (8)

Country Link
US (2) US11842030B2 (zh)
EP (1) EP3576660A1 (zh)
JP (1) JP2020506763A (zh)
KR (1) KR20190112032A (zh)
CN (1) CN110461265B (zh)
AU (1) AU2018216822A1 (zh)
CA (1) CA3052265A1 (zh)
WO (1) WO2018144464A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI737404B (zh) * 2020-07-15 2021-08-21 臺北醫學大學 醫療影像處理系統及方法
US11238591B1 (en) 2020-07-15 2022-02-01 Taipei Medical University (Tmu) Medical image processing system and method thereof
CN114041875A (zh) * 2021-11-24 2022-02-15 电子科技大学 一种一体式手术定位导航系统
US11842030B2 (en) 2017-01-31 2023-12-12 Medtronic Navigation, Inc. Method and apparatus for image-based navigation

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8672837B2 (en) 2010-06-24 2014-03-18 Hansen Medical, Inc. Methods and devices for controlling a shapeable medical device
US9057600B2 (en) 2013-03-13 2015-06-16 Hansen Medical, Inc. Reducing incremental measurement sensor error
US9014851B2 (en) 2013-03-15 2015-04-21 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
US9271663B2 (en) 2013-03-15 2016-03-01 Hansen Medical, Inc. Flexible instrument localization from both remote and elongation sensors
US9629595B2 (en) 2013-03-15 2017-04-25 Hansen Medical, Inc. Systems and methods for localizing, tracking and/or controlling medical instruments
US11020016B2 (en) 2013-05-30 2021-06-01 Auris Health, Inc. System and method for displaying anatomy and devices on a movable display
CN108778113B (zh) 2015-09-18 2022-04-15 奥瑞斯健康公司 管状网络的导航
US10143526B2 (en) 2015-11-30 2018-12-04 Auris Health, Inc. Robot-assisted driving systems and methods
WO2017098259A1 (en) * 2015-12-10 2017-06-15 Cambridge Medical Robotics Limited Robotic system
AU2017340607B2 (en) 2016-10-05 2022-10-27 Nuvasive, Inc. Surgical navigation system and related methods
US10244926B2 (en) 2016-12-28 2019-04-02 Auris Health, Inc. Detecting endolumenal buckling of flexible instruments
KR102567007B1 (ko) 2017-02-24 2023-08-16 마시모 코오퍼레이션 의료 모니터링 데이터 표시 시스템
US11024064B2 (en) * 2017-02-24 2021-06-01 Masimo Corporation Augmented reality system for displaying patient data
US11490782B2 (en) 2017-03-31 2022-11-08 Auris Health, Inc. Robotic systems for navigation of luminal networks that compensate for physiological noise
CN117373636A (zh) 2017-05-08 2024-01-09 梅西莫股份有限公司 使用适配器将医疗系统与网络控制器配对的系统
US10022192B1 (en) 2017-06-23 2018-07-17 Auris Health, Inc. Automatically-initialized robotic systems for navigation of luminal networks
US10555778B2 (en) 2017-10-13 2020-02-11 Auris Health, Inc. Image-based branch detection and mapping for navigation
US11058493B2 (en) 2017-10-13 2021-07-13 Auris Health, Inc. Robotic system configured for navigation path tracing
KR20200100613A (ko) 2017-12-14 2020-08-26 아우리스 헬스, 인코포레이티드 기구 위치 추정을 위한 시스템 및 방법
KR20200101334A (ko) 2017-12-18 2020-08-27 아우리스 헬스, 인코포레이티드 관강내 조직망 내 기구 추적 및 항행을 위한 방법 및 시스템
JP7225259B2 (ja) 2018-03-28 2023-02-20 オーリス ヘルス インコーポレイテッド 器具の推定位置を示すためのシステム及び方法
EP3773131B1 (en) 2018-03-28 2024-07-10 Auris Health, Inc. Systems for registration of location sensors
WO2019231895A1 (en) 2018-05-30 2019-12-05 Auris Health, Inc. Systems and methods for location sensor-based branch prediction
CN110831538B (zh) 2018-05-31 2023-01-24 奥瑞斯健康公司 基于图像的气道分析和映射
WO2019231891A1 (en) 2018-05-31 2019-12-05 Auris Health, Inc. Path-based navigation of tubular networks
WO2019231990A1 (en) 2018-05-31 2019-12-05 Auris Health, Inc. Robotic systems and methods for navigation of luminal network that detect physiological noise
JP7536752B2 (ja) 2018-09-28 2024-08-20 オーリス ヘルス インコーポレイテッド 内視鏡支援経皮的医療処置のためのシステム及び方法
US20220183759A1 (en) * 2019-03-25 2022-06-16 Brainlab Ag Determining a surgical port for a trocar or laparoscope
JP7338040B2 (ja) 2019-08-16 2023-09-04 ホウメディカ・オステオニクス・コーポレイション 整形外科的関節のための外科的な修正処置の術前計画
US11207141B2 (en) 2019-08-30 2021-12-28 Auris Health, Inc. Systems and methods for weight-based registration of location sensors
US11147633B2 (en) 2019-08-30 2021-10-19 Auris Health, Inc. Instrument image reliability systems and methods
US11612440B2 (en) 2019-09-05 2023-03-28 Nuvasive, Inc. Surgical instrument tracking devices and related methods
JP2021049198A (ja) * 2019-09-25 2021-04-01 株式会社日立製作所 手術支援装置及び手術ナビゲーションシステム
WO2021138097A1 (en) * 2019-12-30 2021-07-08 Intuitive Surgical Operations, Inc. Systems and methods for automatically generating an anatomical boundary
EP4084720A4 (en) 2019-12-31 2024-01-17 Auris Health, Inc. ALIGNMENT TECHNIQUES FOR PERCUTANE ACCESS
US11298195B2 (en) 2019-12-31 2022-04-12 Auris Health, Inc. Anatomical feature identification and targeting
US11602372B2 (en) 2019-12-31 2023-03-14 Auris Health, Inc. Alignment interfaces for percutaneous access
US12082883B2 (en) 2020-01-09 2024-09-10 Canon U.S.A., Inc. Enhanced planning and visualization with curved instrument pathway and its curved instrument
EP3847990B1 (en) * 2020-01-13 2022-04-06 Stryker European Operations Limited Technique of controlling display of a navigation view indicating an instantaneously changing recommended entry point
USD921655S1 (en) 2020-01-13 2021-06-08 Stryker European Operations Limited Display screen with animated graphical user interface
US20240074821A1 (en) * 2021-01-29 2024-03-07 Sony Group Corporation Image processing device, image processing method, and surgical microscope system
CN113797440B (zh) * 2021-09-27 2022-05-10 首都医科大学附属北京天坛医院 基于影像和电生理实时定位的脑深部电极自动植入系统
US20240138914A1 (en) * 2022-10-27 2024-05-02 Medtronic Navigation, Inc. Method and apparatus for planning placement of an implant

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030187351A1 (en) * 1998-04-21 2003-10-02 Neutar L.L.C., A Maine Corporation Instrument guidance system for spinal and other surgery
US20080097187A1 (en) * 2006-09-08 2008-04-24 Medtronic, Inc. System for navigating a planned procedure within a body
CN101918855A (zh) * 2007-09-24 2010-12-15 外科视象设备公司 使用外科手术工具的预定义数据和mri图像数据的实时可视化的mri外科手术系统
US8617180B2 (en) * 2007-11-05 2013-12-31 Ecole polytechnique fédérale de Lausanne (EPFL) Adjustable stereotactic device and method for frameless neurosurgical stereotaxy
US20140201669A1 (en) * 2011-07-28 2014-07-17 Koninklijke Philips N.V. Ablation planning system

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6240308B1 (en) 1988-12-23 2001-05-29 Tyrone L. Hardy Method and apparatus for archiving and displaying anatomico-physiological data in a normalized whole brain mapping and imaging system
US5913820A (en) 1992-08-14 1999-06-22 British Telecommunications Public Limited Company Position location system
US5592939A (en) 1995-06-14 1997-01-14 Martinelli; Michael A. Method and system for navigating a catheter probe
US5697377A (en) 1995-11-22 1997-12-16 Medtronic, Inc. Catheter mapping system and method
US6195577B1 (en) 1998-10-08 2001-02-27 Regents Of The University Of Minnesota Method and apparatus for positioning a device in a body
US6474341B1 (en) 1999-10-28 2002-11-05 Surgical Navigation Technologies, Inc. Surgical communication and power system
US6747539B1 (en) 1999-10-28 2004-06-08 Michael A. Martinelli Patient-shielding and coil system
US6493573B1 (en) 1999-10-28 2002-12-10 Winchester Development Associates Method and system for navigating a catheter probe in the presence of field-influencing objects
US7366562B2 (en) 2003-10-17 2008-04-29 Medtronic Navigation, Inc. Method and apparatus for surgical navigation
US6235038B1 (en) 1999-10-28 2001-05-22 Medtronic Surgical Navigation Technologies System for translation of electromagnetic and optical localization systems
US8644907B2 (en) 1999-10-28 2014-02-04 Medtronic Navigaton, Inc. Method and apparatus for surgical navigation
US7660621B2 (en) 2000-04-07 2010-02-09 Medtronic, Inc. Medical device introducer
AU2001285071A1 (en) 2000-08-17 2002-02-25 John David Trajectory guide with instrument immobilizer
US6636757B1 (en) 2001-06-04 2003-10-21 Surgical Navigation Technologies, Inc. Method and apparatus for electromagnetic navigation of a surgical probe near a metal object
EP1474040B1 (en) 2002-02-15 2007-10-24 Breakaway Imaging, Llc Gantry ring with detachable segment for multidimensional x-ray-imaging
DE60301619T2 (de) 2002-03-13 2006-06-22 Breakaway Imaging, LLC, Littleton Systeme und verfahren für die quasi-gleichzeitige multiplanare röntgendarstellung
JP2005527800A (ja) 2002-03-19 2005-09-15 ブレークアウェイ・イメージング・エルエルシー 大視野の対象物を画像化するシステムおよび方法
US7275218B2 (en) * 2002-03-29 2007-09-25 Depuy Products, Inc. Method, apparatus, and program for analyzing a prosthetic device
US7001045B2 (en) 2002-06-11 2006-02-21 Breakaway Imaging, Llc Cantilevered gantry apparatus for x-ray imaging
US7106825B2 (en) 2002-08-21 2006-09-12 Breakaway Imaging, Llc Apparatus and method for reconstruction of volumetric images in a divergent scanning computed tomography system
US7636596B2 (en) 2002-12-20 2009-12-22 Medtronic, Inc. Organ access device and method
US7896889B2 (en) 2003-02-20 2011-03-01 Medtronic, Inc. Trajectory guide with angled or patterned lumens or height adjustment
US20040199072A1 (en) 2003-04-01 2004-10-07 Stacy Sprouse Integrated electromagnetic navigation and patient positioning device
US7695480B2 (en) 2003-09-25 2010-04-13 Medtronic, Inc. Ball and socket trajectory guide
US9265523B2 (en) 2011-10-24 2016-02-23 Nico Corporation Surgical access system with navigation element and method of using same
US7967742B2 (en) 2005-02-14 2011-06-28 Karl Storz Imaging, Inc. Method for using variable direction of view endoscopy in conjunction with image guided surgical systems
US8010177B2 (en) 2007-04-24 2011-08-30 Medtronic, Inc. Intraoperative image registration
US8301226B2 (en) 2007-04-24 2012-10-30 Medtronic, Inc. Method and apparatus for performing a navigated procedure
DE102007053394B4 (de) 2007-11-09 2014-04-03 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Planung und/oder Überprüfung einer interventionellen Radiofrequenz-Thermoablation
US9002076B2 (en) 2008-04-15 2015-04-07 Medtronic, Inc. Method and apparatus for optimal trajectory planning
US9737235B2 (en) 2009-03-09 2017-08-22 Medtronic Navigation, Inc. System and method for image-guided navigation
CN102470013B (zh) 2009-06-29 2016-01-20 皇家飞利浦电子股份有限公司 可视化外科手术轨迹
JP5792282B2 (ja) 2010-04-14 2015-10-07 コーニンクレッカ フィリップス エヌ ヴェ 神経外科手術を計画するためのシステム及び方法
US9286671B2 (en) 2011-01-20 2016-03-15 Medtronic Bakken Research Center B.V. Method for determining at least one applicable path of movement for an object in tissue
CN103931122B (zh) 2011-05-24 2017-03-22 阿姆斯特丹自由大学及阿姆斯特丹自由大学医疗中心基金会 网络同步和频率传播的系统和方法
US9008414B2 (en) 2011-10-04 2015-04-14 Medtronic Navigation, Inc. Method and apparatus for assisted trajectory planning
DE102013100605A1 (de) * 2013-01-22 2014-07-24 Rg Mechatronics Gmbh Robotersystem und Verfahren zum Steuern eines Robotersystems für die minimal invasive Chirurgie
CN105163684B (zh) 2013-03-15 2018-02-02 圣纳普医疗(巴巴多斯)公司 手术数据的联运同步
US9222996B2 (en) * 2013-03-15 2015-12-29 The Brigham And Women's Hospital, Inc. Needle placement manipulator with two rotary guides
WO2014139024A1 (en) 2013-03-15 2014-09-18 Synaptive Medical (Barbados) Inc. Planning, navigation and simulation systems and methods for minimally invasive therapy
WO2014198784A1 (en) * 2013-06-11 2014-12-18 Minmaxmedical System for the treatment of a planned volume of a body part
JP6615110B2 (ja) * 2014-03-04 2019-12-04 ザクト ロボティクス リミテッド 対象の関心領域における画像誘導による針挿入手順を術前に計画する方法及びシステム
US9999772B2 (en) 2014-04-03 2018-06-19 Pacesetter, Inc. Systems and method for deep brain stimulation therapy
CA2953133A1 (en) 2014-07-02 2016-01-07 Covidien Lp System and method of providing distance and orientation feedback while navigating in 3d
US10420626B2 (en) * 2015-06-30 2019-09-24 Canon U.S.A., Inc. Fiducial markers, systems, and methods of registration
US10070928B2 (en) * 2015-07-01 2018-09-11 Mako Surgical Corp. Implant placement planning
WO2017015738A1 (en) * 2015-07-27 2017-02-02 Synaptive Medical (Barbados) Inc. Navigational feedback for intraoperative waypoint
US10918413B2 (en) * 2015-08-18 2021-02-16 The Penn State Research Foundation Bedside stereotactic ultrasound guidance device, system and method
US10413366B2 (en) * 2016-03-16 2019-09-17 Synaptive Medical (Bardbados) Inc. Trajectory guidance alignment system and methods
US10695087B2 (en) * 2016-10-19 2020-06-30 Canon U.S.A., Inc. Placement manipulator and attachment for positioning a puncture instrument
US11842030B2 (en) 2017-01-31 2023-12-12 Medtronic Navigation, Inc. Method and apparatus for image-based navigation
US20220211270A1 (en) * 2019-05-23 2022-07-07 Intuitive Surgical Operations, Inc. Systems and methods for generating workspace volumes and identifying reachable workspaces of surgical instruments

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030187351A1 (en) * 1998-04-21 2003-10-02 Neutar L.L.C., A Maine Corporation Instrument guidance system for spinal and other surgery
US20080097187A1 (en) * 2006-09-08 2008-04-24 Medtronic, Inc. System for navigating a planned procedure within a body
CN101918855A (zh) * 2007-09-24 2010-12-15 外科视象设备公司 使用外科手术工具的预定义数据和mri图像数据的实时可视化的mri外科手术系统
US8617180B2 (en) * 2007-11-05 2013-12-31 Ecole polytechnique fédérale de Lausanne (EPFL) Adjustable stereotactic device and method for frameless neurosurgical stereotaxy
US20140201669A1 (en) * 2011-07-28 2014-07-17 Koninklijke Philips N.V. Ablation planning system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HESS: "Visual design and verification tool forcollision-free dexterous patientspecific neurosurgical instruments", 《PROCEEDINGS OF SPIE》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11842030B2 (en) 2017-01-31 2023-12-12 Medtronic Navigation, Inc. Method and apparatus for image-based navigation
TWI737404B (zh) * 2020-07-15 2021-08-21 臺北醫學大學 醫療影像處理系統及方法
US11238591B1 (en) 2020-07-15 2022-02-01 Taipei Medical University (Tmu) Medical image processing system and method thereof
CN114041875A (zh) * 2021-11-24 2022-02-15 电子科技大学 一种一体式手术定位导航系统
CN114041875B (zh) * 2021-11-24 2023-07-18 电子科技大学 一种一体式手术定位导航系统

Also Published As

Publication number Publication date
JP2020506763A (ja) 2020-03-05
WO2018144464A1 (en) 2018-08-09
US11842030B2 (en) 2023-12-12
AU2018216822A1 (en) 2019-09-19
US20180217734A1 (en) 2018-08-02
CN110461265B (zh) 2023-04-11
US20240111392A1 (en) 2024-04-04
CA3052265A1 (en) 2018-08-09
EP3576660A1 (en) 2019-12-11
KR20190112032A (ko) 2019-10-02

Similar Documents

Publication Publication Date Title
CN110461265A (zh) 用于基于图像的导航的方法和装置
US11754971B2 (en) Method and system for displaying holographic images within a real object
JP7233841B2 (ja) ロボット外科手術システムのロボットナビゲーション
CN109414295B (zh) 基于图像的导航的方法和装置
US6961405B2 (en) Method and apparatus for target position verification
US8819591B2 (en) Treatment planning in a virtual environment
JP4469423B2 (ja) 定位手術処置装置および方法
JP4627872B2 (ja) 異物の生体内配置のための最小侵襲性療法の手順計画
KR20190058528A (ko) 가이드되는 시술을 위한 시스템
US20140171791A1 (en) Method And Apparatus For Optimizing A Computer Assisted Surgical Procedure
EP3760153A2 (en) Navigation system with means for maintaining a registration in case of a moving reference device
CA2948280A1 (en) Systems and methods for ultrasound image-guided ablation antenna placement
CN110868937A (zh) 与声学探头的机器人仪器引导件集成
CN114980832A (zh) 用于规划和执行三维全息介入手术的系统和方法
Vogt Real-Time Augmented Reality for Image-Guided Interventions
Wesarg et al. Accuracy of needle implantation in brachytherapy using a medical AR system: a phantom study
Anand et al. Design and development of a mobile image overlay system for needle interventions
Trejos et al. An experimental test-bed for robot-assisted image-guided minimally invasive lung brachytherapy
Balogh et al. Visualization, planning, and monitoring software for MRI-guided prostate intervention robot
CN115486937A (zh) 一种2d图像手术定位导航系统及方法
Martinie et al. Computer-Assisted Navigation for Ultrasound “3-D Ultrasound”

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant