CN109381260A - 使用虚拟装置和物理3d模型以显现医疗装置在患者器官中的导航 - Google Patents
使用虚拟装置和物理3d模型以显现医疗装置在患者器官中的导航 Download PDFInfo
- Publication number
- CN109381260A CN109381260A CN201810906852.5A CN201810906852A CN109381260A CN 109381260 A CN109381260 A CN 109381260A CN 201810906852 A CN201810906852 A CN 201810906852A CN 109381260 A CN109381260 A CN 109381260A
- Authority
- CN
- China
- Prior art keywords
- model
- physics
- virtual bench
- processor
- medical device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/267—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the respiratory tract, e.g. laryngoscopes, bronchoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/24—Surgical instruments, devices or methods, e.g. tourniquets for use in the oral cavity, larynx, bronchial passages or nose; Tongue scrapers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B23/00—Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
- G09B23/28—Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
- G09B23/30—Anatomical models
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00681—Aspects not otherwise provided for
- A61B2017/00707—Dummies, phantoms; Devices simulating patient or parts of patient
- A61B2017/00716—Dummies, phantoms; Devices simulating patient or parts of patient simulating physical properties
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/367—Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/368—Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/374—NMR or MRI
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
- A61B2090/3762—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
Abstract
本发明题为“使用虚拟装置和物理3D模型以显现医疗装置在患者器官中的导航”。本发明公开了一种方法,所述方法包括接收在患者的身体内移动的医疗装置的第一位置的第一序列。通过以模仿所述第一序列的第二位置的第二序列自动地移动在身体外部的虚拟装置,向用户显现医疗装置的第一位置。
Description
技术领域
本发明整体涉及在患者器官中跟踪医疗装置,并且具体地涉及使用虚拟装置和三维(3D)物理模型来协助医疗装置的导航的方法和系统。
背景技术
在各种医疗规程中,显示视觉3D模型以协助医师在患者的器官中导航医疗工具。
例如,美国专利申请公布2010/0268068描述了在具有成像系统的心腔内进行医学介入规程的系统和方法,以获得心腔的图像数据,并且根据该图像数据创建3D模型。该专利申请还描述了介入系统和介入工具,所述介入系统用于使得3D模型与心腔的实时图像进行配准并且显示该3D模型,所述介入工具被定位在心腔中以在介入系统上显示并且在配准的3D模型上被实时导航。
美国专利申请公布2012/0280988描述了交互式混合现实模拟器,其包括对象的内部或隐藏特征的虚拟3D模型,进行交互的物理模型或对象,以及用于与物理对象进行交互的跟踪器械。
发明内容
本文所述的发明的实施方案提供了方法,所述方法包括接收在患者的身体内移动的医疗装置的第一位置的第一序列。通过以模仿第一序列的第二位置的第二序列自动地移动在身体外部的虚拟装置,向用户显现医疗装置的第一位置。
在一些实施方案中,接收第一序列包括在相应的第一位置处接收医疗装置的第一取向,并且移动虚拟装置还包括在相应的第二位置处以第二取向对虚拟装置进行取向,以便模拟第一取向。在其他实施方案中,医疗装置包括耳鼻喉部(ENT)工具或导丝。在其他实施方案中,自动地移动虚拟装置包括在物理三维(3D)模型中移动虚拟装置,所述物理3D模型对患者的身体的至少一部分进行建模,所述物理3D模型位于身体外部。
在一个实施方案中,该方法包括通过接收身体的至少一部分的一个或多个解剖图像来产生物理3D模型,以及基于所述一个或多个解剖图像来推导用于产生物理3D模型的指令。在另一实施方案中,产生物理3D模型包括基于指令使用3D打印机来打印物理3D模型。在另一实施方案中,自动地移动虚拟装置包括控制联接到虚拟装置的机器人,以将虚拟装置移动到第二位置。
在一些实施方案中,自动地移动虚拟装置包括控制将标记投射在第二位置处的投影仪。在其他实施方案中,第一位置设置在第一坐标系中,并且第二位置设置在第二坐标系中,并且该方法包括在第一坐标系和第二坐标系之间进行配准。
在一个实施方案中,自动地移动虚拟装置包括在身体外部的三维(3D)场景中移动虚拟装置,所述3D场景对患者的身体的至少一部分进行建模。在另一实施方案中,该方法包括通过接收器官的至少一部分的一个或多个解剖图像来构建3D场景,以及基于所述一个或多个解剖图像来推导用于构建3D场景的指令。
根据本发明的实施方案另外提供了一种包括接口和处理器的设备。所述接口被配置成接收在患者的身体内移动的医疗装置的第一位置的第一序列。所述处理器被配置成通过以模仿第一序列的第二位置的第二序列自动地移动在身体外部的虚拟装置,向用户显现医疗装置的第一位置。
以下结合附图根据本发明的实施方案的详细说明将更全面地理解本发明,在附图中:
附图说明
图1是根据本发明的实施方案的鼻窦扩张外科系统的示意性图解;以及
图2是根据本发明的实施方案而示意性地示出用于显现医疗装置在器官中的位置和取向的方法的流程图。
具体实施方式
概述
一些医疗规程例如鼻窦扩张手术,需要医疗装置相对于患者器官的显现,所述医疗装置插入到患者器官中。
下文描述的本发明的实施方案提供了改进的技术,所述改进的技术用于相对于患者器官显现医疗装置,例如在鼻窦扩张手术中相对于患者头部的鼻窦显现耳鼻喉部(ENT)工具。所公开的技术施用于模拟ENT工具的运动但没有医疗功能的虚拟装置。在本公开和权利要求的上下文中,术语“工具”和“装置”可互换使用,并且是指任何合适的医疗和/或虚拟装置。
在一些实施方案中,在通常在鼻窦扩张手术之前施用的制备规程中,鼻窦扩张系统的处理器接收用于描绘患者头部的相应切片的多个二维(2D)计算机化断层成像(CT)图像。处理器被配置成基于CT图像来推导患者ENT器官(例如,患者鼻窦)的虚拟三维(3D)模型。处理器被进一步配置成生成用于产生包括鼻窦的患者头部的至少一部分的物理3D模型的指令。3D打印机基于打印指令来产生物理3D模型,使得物理3D模型的每个体积像素(体素)均与CT图像的虚拟3D模型的对应体素配准。
在本发明上下文中,术语“虚拟3D模型”是指通常存储在可访问处理器的合适存储器中的器官的计算机化表示。术语“物理3D模型”是指器官的有形的材料复制。
在一些实施方案中,位置跟踪系统的第一位置传感器和第二位置传感器联接到ENT工具和虚拟工具的相应远侧末端。在一个实施方案中,处理器被配置成在由CT系统和位置跟踪系统使用的坐标系之间进行配准。在该实施方案中,ENT工具和虚拟工具的位置均在位置跟踪系统的坐标系中测量,并在鼻窦扩张系统的显示器上和物理3D模型上显示。
在施用医疗规程时,医师将ENT工具插入到患者鼻部中。ENT工具可被视为以患者身体中第一位置和取向的第一序列来移动。在一些实施方案中,联接到虚拟工具的机器人将虚拟工具插入到物理3D模型中。机器人以第二位置和取向的第二序列在物理3D模型中移动虚拟工具,所述第二位置和取向的第二序列模拟医疗装置的相应第一位置和取向。这样,通过在物理3D模型内移动虚拟工具向医师自动和连续地显现隐于视野之外的医疗工具的位置和取向。
所公开的技术在医疗规程中特别重要,诸如在高度支化的器官中实施的鼻窦扩张术。在此类规程中,所公开的技术能够精确地导航到目标位置,并且有助于减少导航错误,从而减少规程的总体循环时间。
此外,所公开的技术避免了在规程期间用危险的x射线辐射照射患者的需要,以便验证医疗工具相对于所考虑的器官的位置和取向。
系统说明
图1是根据本发明的实施方案的鼻窦扩张外科系统10的示意性图解。在一个实施方案中,系统20包括控制台33,所述控制台包括处理器34,输入装置39和用户显示器36。
在一个实施方案中,在制备规程中,处理器34被配置成接收一个或多个计算机化断层成像(CT)图像,所述图像描绘了使用外部CT系统(未示出)获得的患者22的头部41的相应分段的二维(2D)切片。术语“分段的”是指通过在CT系统中测量组织的相应衰减来显示在每层切片中识别的各种类型的组织。
在一些实施方案中,处理器34被配置成基于CT图像来构建头部41的虚拟三维(3D)模型。在其他实施方案中,CT系统的处理器可构建虚拟3D模型。在一些实施方案中,处理器34被配置成将来自CT图像的一个或多个选定切片,诸如图像35,显示在显示器36上。在图1的示例中,图像35为额窦和上颌窦,诸如鼻窦58,以及头部41的鼻甲组织中的鼻腔通道的剖视图。
在一个实施方案中,处理器34被进一步配置成基于CT图像来推导用于产生头部41的至少一部分的物理三维(3D)模型60的指令。可以使用3D打印机或任何其他合适的生产技术来产生物理3D模型。需注意,物理3D模型60的每个体积像素(体素)均与虚拟3D模型的对应体素配准,原因在于两个模型均基于头部41的CT图像。
在一些实施方案中,模型60可包括头部41的多个相邻切片的叠堆的物理模型,所述物理模型包括在图像35中显示的剖视图,使得物理3D模型60的鼻窦68对鼻窦58的剖视图进行物理上建模。在其他实施方案中,物理3D模型60仅包括患者ENT系统(诸如鼻窦58)的感兴趣区域(ROI),以及任选地位于ROI周边若干毫米或若干厘米处的组织。
在一些实施方案中,系统20包括医疗装置,诸如导丝或外科耳鼻喉部(ENT)工具52,所述导丝或外科耳鼻喉部工具由柄部30控制,并且被配置成例如在头部41的鼻窦58中执行鼻窦扩张手术。
在物理3D模型中使用虚拟装置以显现医疗装置导航
在鼻窦扩张手术期间,医师24可通过鼻部26插入ENT工具52,以便将ENT工具52的远侧末端导航到鼻窦58中。在一个实施方案中,医师24可使用位置跟踪系统将工具52导航到鼻窦58中,该位置跟踪系统使用坐标系51。在该实施方案中,处理器34被配置成在CT系统的坐标系51和坐标系61之间进行配准。在该实施方案中,ENT工具的位置可被显示在显示器36上,例如作为叠加在图像35上的标记。
需注意,图像35仅描绘了ROI(例如,鼻窦58的剖视图)的2D切片,并且可因此包含比用于在鼻窦58内的精确期望位置处实施鼻窦扩张手术所需的信息更少的信息。在一些实施方案中,系统20包括虚拟工具62,诸如具有类似于ENT工具52的尺寸和形状(如图1所示)或任何其他合适的尺寸和形状的物理装置,或者投射在物理3D模型60上的标记,或者任何其他合适类型的虚拟工具。
在一些实施方案中,虚拟工具62联接到机器人70的臂72,所述机器人被配置成移动臂72以便将虚拟工具62的远侧末端导航到物理3D模型60的鼻窦68中的目标位置。
在一些实施方案中,系统20包括磁位置跟踪系统,所述磁位置跟踪系统被配置成跟踪一个或多个位置传感器,诸如位置传感器56和66,的位置和取向。在图1的示例中,位置传感器56联接到ENT工具52,并且位置传感器66联接到虚拟工具62。
在一些实施方案中,磁位置跟踪系统包括磁场发生器44以及位置传感器56和66。传感器56和66被配置成响应于来自场发生器44的所感测的外部磁场来生成位置信号。在一个实施方案中,处理器34被配置成在磁位置系统的坐标系51中标测传感器56和66的位置。
该位置感测方法在各种医疗应用中实现,例如在由Biosense Webster Inc.(Diamond Bar,Calif.)生产的CARTOTM系统中实现,并且详细地描述于美国专利5,391,199、6,690,963、6,484,118、6,239,724、6,618,612和6,332,089、PCT专利公布WO 96/05768,以及美国专利申请公布2002/0065455 A1、2003/0120150 A1和2004/0068178 A1中,这些专利的公开内容全部以引用方式并入本文。
在一些实施方案中,在患者22的头部41中跟踪联接到ENT工具52的远侧末端的位置传感器56,使得传感器56的坐标被报告在位置跟踪系统的坐标系51中。在一些实施方案中,联接到虚拟工具62的远侧末端的传感器66参照坐标系51进行报告,并且在物理3D模型60中进行跟踪,所述物理3D模型与CT系统的坐标系61配准。在一些实施方案中,处理器34被配置成在坐标系51和61之间进行配准以便使得虚拟工具62能够在物理3D模型60内移动到模拟头部41中工具52的相应位置和取向的位置和取向。
在本示例中,系统20包括定位垫40,所述定位垫包括固定在框架46上的多个场发生器44。在图1所示的示例性配置中,垫40包括五个场发生器44,但可使用任何其它合适数量的场发生器44。
在一些实施方案中,垫40被放置在患者22的头部41下方,使得场发生器44定位在患者外部的固定已知位置处。在一个实施方案中,控制台33还包括驱动器电路(未示出),所述驱动器电路被配置成利用合适的信号驱动场发生器44,以便在头部41周围的预定工作体积中生成磁场。
在一个实施方案中,处理器34通常为通用计算机,所述通用计算机包括用于从外部源,诸如CT成像系统,接收数据的合适的前端和接口电路。处理器34被进一步配置成分别经由连接到柄部30和机器人70的相应缆线32和74接收来自传感器56和66的位置信号,并且用于控制系统20的其他部件。
在一些实施方案中,处理器34被配置成从传感器56接收在头部41中移动的工具52的远侧末端的位置和取向的第一序列。基于该第一序列,处理器34被配置成设定机器人70以在物理3D模型60内以位置和取向的第二序列自动地移动虚拟工具62,使得虚拟工具62的每个位置和取向模拟ENT工具52的相应位置和取向。
在一些实施方案中,处理器34被配置成例如在坐标系51中,在虚拟工具62和ENT工具52之间进行配准。在这些实施方案中,位置传感器66可从系统20的构型中省略,或者另选地被用作用于验证虚拟工具62的位置的控制部件。
在一些实施方案中,处理器34被配置成同时在图像35和物理3D模型60中显示传感器56和66的相应位置。在一个实施方案中,处理器34还被配置成显示叠加在图像35上和/或显示器36上的其他地方的数据,例如虚拟标记和各种测量。在该实施方案中,医师24可使用物理3D模型60以用于导航工具52,并且利用显示在显示器36上的数据来实施鼻窦扩张手术。
在另选的实施方案中,代替接收所述一个或多个CT图像,处理器34被配置成接收使用另一合适的解剖成像技术,诸如具有相应坐标系的磁共振成像(MRI),采集的一个或多个图像,并且在MRI系统的坐标系和位置跟踪系统的坐标系之间进行配准,如上所述。
在另选的实施方案中,物理3D模型60可包括任何合适类型的3D模型,而不是打印的3D物理模型。例如,在一个实施方案中,处理器34被配置成构造3D场景,诸如基于CT图像构建的全息图,并且在合适的全息显示器上显示全息图。在这些实施方案中,处理器34被进一步配置成通过将标记投射在3D场景上来模拟ENT工具52的位置,使得标记指示虚拟工具的远侧末端或任何其他合适的部分。另选地,物理虚拟工具,诸如虚拟工具62,可用于模拟场景中ENT工具52的位置和取向。
为了简单和清楚起见,图1仅示出了与所公开技术有关的元件。系统20通常包括附加模块和元件,所述附加模块和元件与所公开的技术不直接相关,并且因此从图1和对应的描述中被有意地省略。
处理器34可用软件编程以进行由系统使用的功能,并且将数据存储在待由软件处理或以其它方式使用的存储器(未示出)中。例如,可通过网络将软件以电子形式下载到处理器,或者可将软件提供在非临时性有形介质上,诸如,光学、磁性或电子存储器介质。另选地,可通过专用或可编程数字硬件部件来实施处理器34的功能中的一些或全部。
图2是根据本发明的实施方案而示意性地示出了用于显现头部41中的ENT工具52的位置和取向的方法的流程图。在一些实施方案中,该方法包括在医疗规程之前实施的制备规程,以及在医疗规程期间实施的操作。
制备规程始于处理器34在图像采集步骤100处接收头部41的一个或多个解剖图像。在一些实施方案中,解剖成像系统(诸如CT系统)采集头部41的剖视图图像的多个2D切片。在一些实施方案中,2D切片被分段,以便识别在每个切片中的各种类型的组织。
在一些实施方案中,处理器34被配置成基于2D切片构建头部41的虚拟3D模型,或者从CT系统接收头部41的虚拟3D模型。
在物理3D模型形成步骤102处,处理器34基于所接收的CT图像来推导用于产生头部41的至少一部分的物理3D模型60的指令,所述物理3D模型通过使用3D打印机或任何其他合适的生产技术来产生。需注意,物理3D模型60的每个体素均与图像采集步骤100中描述的虚拟3D模型的相应体素配准,原因在于两个模型均基于头部41的CT图像推导而得。因此,物理3D模型60与CT系统的坐标系61配准。
在一些实施方案中,物理3D模型60包括图像35中显示的剖视图的物理模型,使得模型60的鼻窦68为鼻窦58的剖视图的物理3D模型。
在结束制备规程的配准步骤104处,处理器34在位置跟踪系统的坐标系51和CT系统的坐标系61之间进行配准。该配准方案支持跟踪虚拟工具62(所述虚拟工具被报告在坐标系51中)在物理3D模型60(所述物理3D模型与坐标系61配准)中的位置和取向。该配准方案还支持使用从传感器56和66接收的位置信号,分别并通常同时报告ENT工具52和虚拟工具62的位置和取向。
在ENT工具插入步骤106中,所述插入步骤为图2方法中的医疗规程的第一步,医师24将ENT工具52插入到患者22的头部41中,所述ENT工具具有联接到其远侧末端的位置传感器56。
在序列采集步骤108处,处理器34经由柄部30和缆线32从传感器56接收指示头部41中ENT工具52的远侧末端的位置和取向的位置信号的第一序列。在结束该方法的3D显现步骤110处,处理器34设置机器人70以通过以模拟ENT工具52的位置和取向的第一序列的位置和取向的第二序列在3D模型60内自动地移动虚拟工具62,从而向医师24显现ENT工具52的位置和取向。
在其他实施方案中,虚拟工具62可包括投影仪(未示出),该投影仪替代上述图1所示的机器人70、臂72、物理虚拟工具62和传感器66。由处理器34控制的投影仪被配置成接收来自处理器34的位置和指令,并且通过以模拟ENT工具52的位置的第一序列的位置的第三序列自动地移动投射在3D模型60上的标记物以显现ENT工具52的位置。
在其他实施方案中,系统20包括全息显示器(未示出),该全息器显示被配置成显示3D场景,诸如全息图。全息显示器可替代物理3D模型,诸如打印的物理3D模型60。在这些实施方案中,处理器34在全息显示器上显示3D场景,使得3D场景包括基于CT图像构建的至少ROI(例如,鼻窦58)。
在一个实施方案中,处理器34(例如,使用投影仪)投射虚拟工具62,其在3D场景(例如,使用不同颜色的光)上投射为全息对象或标记。在另一实施方案中,处理器34使用上述图1中所示的构型在全息图内移动物理虚拟工具,诸如虚拟工具62。
在另选的实施方案中,位置传感器56和66中的至少一个可在不同于远侧末端的任何合适位置处联接到相应工具52和62。例如,ENT工具52可包括中空管,所述中空管被配置成从鼻窦58中牵拉材料。在该构型中,传感器56可以与远侧末端预定义偏置的方式安装在工具52的远侧端部处,使得在处理器34中保持所述偏置以用于上述操作。在这些实施方案中,处理器34被配置成利用这种偏置,并且可能的是传感器66相对于工具62的远侧末端的位置的附加偏置,来在工具52和62之间进行配准。
在本文所述的实施方案中,虚拟装置(例如,虚拟工具62)模拟医疗装置(例如,ENT工具52)的位置和取向两者。在另选的实施方案中,虚拟装置可仅模拟医疗装置的位置(而不是取向)。该具体实施具有降低的功能性,但可显著简化系统(例如,机器人)。
尽管本文所述的实施方案主要论述鼻窦扩张手术,但本文所述的方法和系统还可用于其他应用中。
因此应当理解,上述的实施方案以举例的方式引用,并且本发明不限于上文已具体示出和描述的内容。相反,本发明的范围包括上文所述的各种特征的组合和子组合,以及本领域技术人员在阅读上述说明时会想到且未在现有技术中公开的其变型和修改。以引用方式并入本专利申请的文献被视为本申请的整体部分,但是如果这些并入的文献中限定的任何术语与本说明书中明确或隐含地给出的定义相冲突,则应只考虑本说明书中的定义。
Claims (20)
1.一种方法,所述方法包括:
接收在患者的身体内移动的医疗装置的第一位置的第一序列;以及
通过以模拟所述第一序列的第二位置的第二序列自动地移动在所述身体外部的虚拟装置,向用户显现所述医疗装置的所述第一位置。
2.根据权利要求1所述的方法,其中接收所述第一序列包括在相应的第一位置处接收所述医疗装置的第一取向,并且其中移动所述虚拟装置还包括在相应的第二位置处以第二取向对所述虚拟装置进行取向,以便模拟所述第一取向。
3.根据权利要求1所述的方法,其中所述医疗装置包括耳鼻喉部(ENT)工具或导丝。
4.根据权利要求1所述的方法,其中自动地移动所述虚拟装置包括在物理三维(3D)模型中移动所述虚拟装置,所述物理3D模型对所述患者的所述身体的至少一部分进行建模,其中所述物理3D模型位于所述身体外部。
5.根据权利要求4所述的方法,并且包括通过接收所述身体的所述至少一部分的一个或多个解剖图像来产生所述物理3D模型,以及基于所述一个或多个解剖图像来推导用于产生所述物理3D模型的指令。
6.根据权利要求5所述的方法,其中产生所述物理3D模型包括基于所述指令使用3D打印机来打印所述物理3D模型。
7.根据权利要求1所述的方法,其中自动地移动所述虚拟装置包括控制联接到所述虚拟装置的机器人,以将所述虚拟装置移动到所述第二位置。
8.根据权利要求1所述的方法,其中自动地移动所述虚拟装置包括控制将标记投射在所述第二位置处的投影仪。
9.根据权利要求1所述的方法,其中所述第一位置设置在第一坐标系中,并且所述第二位置设置在第二坐标系中,并且所述方法包括在所述第一坐标系和所述第二坐标系之间进行配准。
10.根据权利要求1所述的方法,其中自动地移动所述虚拟装置包括在所述身体外部的三维(3D)场景中移动所述虚拟装置,所述3D场景对所述患者的所述身体的至少一部分进行建模。
11.根据权利要求10所述的方法,并且包括通过接收器官的至少一部分的一个或多个解剖图像来构建所述3D场景,以及基于所述一个或多个解剖图像来推导用于构建所述3D场景的指令。
12.一种设备,所述设备包括:
接口,所述接口被配置成接收在患者的身体内移动的医疗装置的第一位置的第一序列;和
处理器,所述处理器被配置成通过以模拟所述第一序列的第二位置的第二序列自动地移动在所述身体外部的虚拟装置,向用户显现所述医疗装置的所述第一位置。
13.根据权利要求12所述的设备,其中所述接口被配置成从位置跟踪系统的位置传感器接收所述医疗装置在相应的第一位置处的第一取向,并且其中所述处理器被进一步配置成在相应的第二位置处以第二取向对所述虚拟装置进行取向,以便模拟所述第一取向。
14.根据权利要求12所述的设备,其中所述医疗装置包括耳鼻喉部(ENT)工具或导丝。
15.根据权利要求12所述的设备,其中所述处理器被配置成在物理三维(3D)模型中移动所述虚拟装置,所述物理3D模型对所述患者的所述身体的至少一部分进行建模,其中所述物理3D模型位于所述身体外部。
16.根据权利要求12所述的设备,其中所述处理器被配置成控制机器人,所述机器人联接到所述虚拟装置并且被配置成将所述虚拟装置移动到所述第二位置。
17.根据权利要求12所述的设备,其中所述处理器被配置成控制投影仪,所述投影仪被配置成将标记投射在所述第二位置处。
18.根据权利要求12所述的设备,其中所述第一位置设置在第一坐标系中,并且所述第二位置设置在第二坐标系中,并且其中所述处理器被配置成在所述第一坐标系和所述第二坐标系之间进行配准。
19.根据权利要求12所述的设备,其中所述处理器被配置成在对所述患者的身体的至少一部分进行建模的三维(3D)场景中自动地移动所述虚拟装置,其中所述3D场景位于所述身体外部。
20.根据权利要求19所述的设备,其中所述处理器被配置成通过接收所述身体的所述至少一部分的一个或多个解剖图像来构建所述3D场景,以及基于所述一个或多个解剖图像来推导用于构建所述3D场景的指令。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/671979 | 2017-08-08 | ||
US15/671,979 US10898272B2 (en) | 2017-08-08 | 2017-08-08 | Visualizing navigation of a medical device in a patient organ using a dummy device and a physical 3D model |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109381260A true CN109381260A (zh) | 2019-02-26 |
Family
ID=63168305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810906852.5A Pending CN109381260A (zh) | 2017-08-08 | 2018-08-08 | 使用虚拟装置和物理3d模型以显现医疗装置在患者器官中的导航 |
Country Status (7)
Country | Link |
---|---|
US (1) | US10898272B2 (zh) |
EP (1) | EP3440988A1 (zh) |
JP (1) | JP7214390B2 (zh) |
CN (1) | CN109381260A (zh) |
AU (1) | AU2018211316A1 (zh) |
CA (1) | CA3012522A1 (zh) |
IL (1) | IL260781B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110136522A (zh) * | 2019-05-07 | 2019-08-16 | 艾瑞迈迪科技石家庄有限公司 | 颅底手术模拟教学培训系统 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6499273B2 (ja) * | 2015-03-20 | 2019-04-10 | 株式会社Fuji | ティーチング装置及び制御情報の生成方法 |
TWI741536B (zh) * | 2020-03-20 | 2021-10-01 | 台灣骨王生技股份有限公司 | 基於混合實境的手術導航影像成像方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004348091A (ja) * | 2003-03-26 | 2004-12-09 | National Institute Of Advanced Industrial & Technology | 実体模型及びこれを用いた手術支援システム |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5391199A (en) | 1993-07-20 | 1995-02-21 | Biosense, Inc. | Apparatus and method for treating cardiac arrhythmias |
ES2210662T3 (es) | 1994-08-19 | 2004-07-01 | Biosense, Inc. | Sistemas medicos de diagnosis, de tratamiento y de imagen. |
JP3634416B2 (ja) * | 1994-11-22 | 2005-03-30 | 徹 早川 | 手術器具の位置表示装置 |
US6690963B2 (en) | 1995-01-24 | 2004-02-10 | Biosense, Inc. | System for determining the location and orientation of an invasive medical instrument |
US6618612B1 (en) | 1996-02-15 | 2003-09-09 | Biosense, Inc. | Independently positionable transducers for location system |
IL125757A (en) | 1996-02-15 | 2003-09-17 | Biosense Inc | Medical procedures and apparatus using intrabody probes |
US6239724B1 (en) | 1997-12-30 | 2001-05-29 | Remon Medical Technologies, Ltd. | System and method for telemetrically providing intrabody spatial position |
US6484118B1 (en) | 2000-07-20 | 2002-11-19 | Biosense, Inc. | Electromagnetic position single axis system |
US7729742B2 (en) | 2001-12-21 | 2010-06-01 | Biosense, Inc. | Wireless position sensor |
US7778686B2 (en) | 2002-06-04 | 2010-08-17 | General Electric Company | Method and apparatus for medical intervention procedure planning and location and navigation of an intervention tool |
US20040068178A1 (en) | 2002-09-17 | 2004-04-08 | Assaf Govari | High-gradient recursive locating system |
EP2537149B1 (en) | 2010-02-18 | 2017-10-25 | University Of Virginia Patent Foundation | System, method, and computer program product for simulating epicardial electrophysiology procedures |
US9888973B2 (en) * | 2010-03-31 | 2018-02-13 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Intuitive user interface control for remote catheter navigation and 3D mapping and visualization systems |
WO2011127379A2 (en) | 2010-04-09 | 2011-10-13 | University Of Florida Research Foundation Inc. | Interactive mixed reality system and uses thereof |
US8694553B2 (en) * | 2010-06-07 | 2014-04-08 | Gary Stephen Shuster | Creation and use of virtual places |
CN103959179B (zh) * | 2011-10-20 | 2017-09-15 | 皇家飞利浦有限公司 | 用于医疗程序的全息用户界面 |
US9424761B2 (en) | 2012-01-23 | 2016-08-23 | Virtamed Ag | Medical simulation system and method with configurable anatomy model manufacturing |
US20150093734A1 (en) * | 2013-09-27 | 2015-04-02 | The Cleveland Clinic Foundation | Surgical assistance using physical model of patient tissue |
US10463242B2 (en) | 2014-07-09 | 2019-11-05 | Acclarent, Inc. | Guidewire navigation for sinuplasty |
JP2017134170A (ja) | 2016-01-26 | 2017-08-03 | 大日本印刷株式会社 | 模型および模型投影システム |
-
2017
- 2017-08-08 US US15/671,979 patent/US10898272B2/en active Active
-
2018
- 2018-07-25 IL IL260781A patent/IL260781B/en unknown
- 2018-07-26 CA CA3012522A patent/CA3012522A1/en active Pending
- 2018-08-03 AU AU2018211316A patent/AU2018211316A1/en not_active Abandoned
- 2018-08-07 EP EP18187662.4A patent/EP3440988A1/en active Pending
- 2018-08-07 JP JP2018148200A patent/JP7214390B2/ja active Active
- 2018-08-08 CN CN201810906852.5A patent/CN109381260A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004348091A (ja) * | 2003-03-26 | 2004-12-09 | National Institute Of Advanced Industrial & Technology | 実体模型及びこれを用いた手術支援システム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110136522A (zh) * | 2019-05-07 | 2019-08-16 | 艾瑞迈迪科技石家庄有限公司 | 颅底手术模拟教学培训系统 |
Also Published As
Publication number | Publication date |
---|---|
US10898272B2 (en) | 2021-01-26 |
JP2019048044A (ja) | 2019-03-28 |
AU2018211316A1 (en) | 2019-02-28 |
US20190046271A1 (en) | 2019-02-14 |
CA3012522A1 (en) | 2019-02-08 |
IL260781A (en) | 2019-01-31 |
IL260781B (en) | 2022-07-01 |
EP3440988A1 (en) | 2019-02-13 |
JP7214390B2 (ja) | 2023-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109419524B (zh) | 医学成像系统的控制 | |
RU2714665C2 (ru) | Направляющая система для позиционирования пациента для медицинской визуализации | |
US9424761B2 (en) | Medical simulation system and method with configurable anatomy model manufacturing | |
JP2022507622A (ja) | 拡張現実ディスプレイでの光学コードの使用 | |
JP2023175709A (ja) | 空間トラッキングシステムと拡張現実ディスプレイとのレジストレーション | |
KR20200097747A (ko) | 시술 중 시각화를 지원하는 시스템 및 방법 | |
CN105520716B (zh) | 荧光镜图像的实时模拟 | |
JP6430517B2 (ja) | 外科的介入計画を算出する方法 | |
CN104272348B (zh) | 用于对对象进行成像的成像装置和方法 | |
EP3395282A1 (en) | Endoscopic view of invasive procedures in narrow passages | |
JP2016512973A (ja) | 身体に対して対象を追跡するための追跡装置 | |
BR112012013706B1 (pt) | Método para o processamento de uma imagem de raios x e sistema para uma combinação de imagens de ultrassom e raios x | |
EP2637593A1 (en) | Visualization of anatomical data by augmented reality | |
CN109381260A (zh) | 使用虚拟装置和物理3d模型以显现医疗装置在患者器官中的导航 | |
JP2022517308A (ja) | 動的解剖学的構造を視覚化する方法 | |
CN106175931A (zh) | 荧光镜视场的标记 | |
US20220270247A1 (en) | Apparatus for moving a medical object and method for providing a control instruction | |
US20220175485A1 (en) | Method for operating a visualization system in a surgical application, and visualization system for a surgical application | |
EP3944254A1 (en) | System for displaying an augmented reality and method for generating an augmented reality | |
CN111028326A (zh) | 用于使3d对象的空间表面曲率可视化的方法、系统和介质 | |
US20230248441A1 (en) | Extended-reality visualization of endovascular navigation | |
CN117677358A (zh) | 用于手术期间现场x射线荧光透视和c形臂计算机断层扫描成像的立体投影和交叉参考的增强现实系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |