CN117425449A - 用于监测目标或执行手术规程的多臂机器人系统和方法 - Google Patents
用于监测目标或执行手术规程的多臂机器人系统和方法 Download PDFInfo
- Publication number
- CN117425449A CN117425449A CN202280040367.9A CN202280040367A CN117425449A CN 117425449 A CN117425449 A CN 117425449A CN 202280040367 A CN202280040367 A CN 202280040367A CN 117425449 A CN117425449 A CN 117425449A
- Authority
- CN
- China
- Prior art keywords
- robotic arm
- processor
- tool
- target
- imaging device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 135
- 238000001356 surgical procedure Methods 0.000 title claims description 24
- 238000012544 monitoring process Methods 0.000 title abstract description 7
- 238000003384 imaging method Methods 0.000 claims description 147
- 238000012545 processing Methods 0.000 claims description 22
- 238000002604 ultrasonography Methods 0.000 claims description 19
- 238000002679 ablation Methods 0.000 claims description 14
- 210000005036 nerve Anatomy 0.000 claims description 13
- 230000008859 change Effects 0.000 claims description 11
- 238000001574 biopsy Methods 0.000 claims description 10
- 210000001519 tissue Anatomy 0.000 claims description 8
- 210000004204 blood vessel Anatomy 0.000 claims description 6
- 238000002669 amniocentesis Methods 0.000 claims description 5
- 210000004872 soft tissue Anatomy 0.000 claims description 4
- 210000000056 organ Anatomy 0.000 claims description 3
- 230000001419 dependent effect Effects 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 239000000523 sample Substances 0.000 description 8
- 210000003754 fetus Anatomy 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 7
- 210000003484 anatomy Anatomy 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 210000003041 ligament Anatomy 0.000 description 4
- 238000002271 resection Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012014 optical coherence tomography Methods 0.000 description 3
- 230000035515 penetration Effects 0.000 description 3
- 241001269524 Dura Species 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- 230000001605 fetal effect Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 239000007943 implant Substances 0.000 description 2
- 238000012317 liver biopsy Methods 0.000 description 2
- 210000004072 lung Anatomy 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 210000001685 thyroid gland Anatomy 0.000 description 2
- 210000003462 vein Anatomy 0.000 description 2
- 210000004381 amniotic fluid Anatomy 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000007470 bone biopsy Methods 0.000 description 1
- 210000001185 bone marrow Anatomy 0.000 description 1
- 238000009583 bone marrow aspiration Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 210000001951 dura mater Anatomy 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 210000004749 ligamentum flavum Anatomy 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000011664 nicotinic acid Substances 0.000 description 1
- 230000002980 postoperative effect Effects 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 238000012285 ultrasound imaging Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/37—Master-slave robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/32—Surgical robots operating autonomously
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/44—Constructional features of apparatus for radiation diagnosis
- A61B6/4429—Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
- A61B6/4458—Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit or the detector unit being attached to robotic arms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/42—Details of probe positioning or probe attachment to the patient
- A61B8/4209—Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames
- A61B8/4218—Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames characterised by articulated arms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2063—Acoustic tracking systems, e.g. using ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/378—Surgical systems with images on a monitor during operation using ultrasound
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Medical Informatics (AREA)
- Robotics (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Heart & Thoracic Surgery (AREA)
- Physics & Mathematics (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Automation & Control Theory (AREA)
- High Energy & Nuclear Physics (AREA)
- Optics & Photonics (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
提供了用于监测目标的多臂机器人系统和方法。该系统可包括被配置为定向第一部件的第一机器人臂和被配置为定向第二部件的第二机器人臂。该第一机器人臂和该第二机器人臂可以是共配准的。可使该第一机器人臂将该第一部件定向在第一位姿处。可使该第二机器人臂将该第二部件定向在第二位姿处。可从该第一部件和该第二部件接收至少一个图像。
Description
技术领域
本发明技术总体上涉及使用多个机器人臂的机器人系统,并且更具体地涉及使用共配准的机器人臂来监测目标和/或执行手术规程。
背景技术
手术机器人可用于在手术期间保持一个或多个成像装置、工具或装置,并且可自主地(例如,在操作期间没有任何人工输入)、半自主地(例如,在操作期间具有一些人工输入)或非自主地(例如,仅在人工输入的指导下)操作。
发明内容
本公开的示例性方面包括:
一种根据本公开的至少一个实施方案的用于对目标进行成像的系统包括:第一机器人臂,该第一机器人臂被配置为定向第一部件;第二机器人臂,该第二机器人臂被配置为定向第二部件;至少一个处理器;和存储器,该存储器存储用于由该处理器处理的数据,该数据当被处理时,使得该处理器:将该第一机器人臂和该第二机器人臂共配准;使该第一机器人臂将该第一部件定向在第一位姿处;使该第二机器人臂将该第二部件定向在第二位姿处;以及从该第一部件和该第二部件接收至少一个图像。
在本文各方面中的任何方面,其中该存储器存储由处理器处理的另外的数据,该另外的数据当被处理时,使得该处理器:接收手术计划,该手术计划包括该第一位姿。
在本文各方面中的任何方面,其中该第一部件包括x射线装置和超声装置中的至少一者的源,并且该第二部件包括该x射线装置和该超声装置中的至少一者的检测器。
在本文各方面中的任何方面,其中该存储器存储由处理器处理的另外的数据,该另外的数据当被处理时,使得该处理器:基于该第一位姿确定该第二位姿。
在本文各方面中的任何方面,其中该第二位姿与该第一位姿相同。
一种根据本公开的至少一个实施方案的用于执行手术规程的系统包括:第一机器人臂,该第一机器人臂被配置为定向工具;第二机器人臂,该第二机器人臂被配置为定向成像装置;至少一个处理器;和存储器,该存储器存储用于由该处理器处理的数据,该数据当被处理时,使得该处理器:将该第一机器人臂和该第二机器人臂共配准;使该第二机器人臂将该成像装置定向在目标处;使该成像装置监测该目标;以及使该第一机器人臂使用该工具执行该手术规程。
在本文各方面中的任何方面,其中该存储器存储用于由该处理器处理的另外的数据,该另外的数据当被处理时使该处理器:接收描绘该目标的图像;以及处理该图像以识别该目标。
在本文各方面中的任何方面,其中该手术规程是活检、减压规程、羊膜穿刺术规程和消融规程中的至少一者。
在本文各方面中的任何方面,其中该目标是以下中的至少一者:一个或多个血管、一个或多个神经、一个或多个神经中的电信号、器官、软组织和硬组织。
在本文各方面中的任何方面,其中该存储器存储由处理器处理的另外的数据,该另外的数据当被处理时,使得该处理器:当检测到该目标的移动和该目标的改变中的至少一者时,生成通知。
在本文各方面中的任何方面,其中该目标处于该成像装置的视场内,并且该工具不处于该视场内。
在本文各方面中的任何方面,其中该目标处于该成像装置的视场内,并且该工具处于该视场内。
在本文各方面中的任何方面,其中该存储器存储由处理器处理的另外的数据,该另外的数据当被处理时,使得该处理器:当该目标的至少一部分不再处于视场内时,生成通知。
一种根据本公开的至少一个实施方案的用于执行一个或多个手术任务的系统包括:第一机器人臂,该第一机器人臂被配置为定向第一工具;第二机器人臂,该第二机器人臂被配置为定向第二工具;至少一个处理器;和存储器,该存储器存储用于由该处理器处理的数据,该数据当被处理时,使得该处理器:将该第一机器人臂和该第二机器人臂共配准;使该第一机器人臂使用该第一工具执行第一任务;以及使该第二机器人臂使用该第二工具执行第二任务。
在本文各方面中的任何方面,其中该第二任务依赖于该第一任务。
在本文各方面中的任何方面,其中该第二任务独立于该第一任务。
在本文各方面中的任何方面,其中对第一解剖元素执行该第一任务,并且对第二解剖元素执行该第二任务。
在本文各方面中的任何方面,其中对解剖元素执行该第一任务和该第二任务。
在本文各方面中的任何方面,其中该第一工具与该第二工具相同。
在本文各方面中的任何方面,其中该第一工具不同于该第二工具。
任何方面与任一个或多个其他方面组合。
本文所公开特征中的任一个或多个。
本文大体上公开特征中的任一个或多个。
本文大体上公开的特征中的任一个或多个与本文大体上公开的任一个或多个其他特征组合。
方面/特征/实施方案中的任一个与任一个或多个其他方面/特征/实施方案组合。
使用本文所公开的方面或特征中的任一个或多个。
应当了解,本文所述的任何特征可与如本文所述的任何其他特征组合来要求保护,而不管特征是否来自同一描述的实施方案。
本公开的一个或多个方面的细节在以下附图和说明书中示出。根据说明书和附图以及权利要求书,本公开中描述的技术的其他特征、目的和优点将显而易见。
短语“至少一个”、“一个或多个”以及“和/或”是在操作中具有连接性和分离性两者的开放式表述。例如,表述“A、B和C中的至少一个”、“A、B或C中的至少一个”、“A、B和C中的一个或多个”、“A、B或C中的一个或多个”以及“A、B和/或C”中一者意指仅A、仅B、仅C、A和B一起、A和C一起、B和C一起,或A、B和C一起。当上述表述中的A、B和C中的每一者都指诸如X、Y和Z的一个元素或诸如X1-Xn、Y1-Ym和Z1-Zo的一类元素时,短语意图指选自X、Y和Z的单个元素、选自同一类的元素(例如,X1和X2)的组合以及选自两类或更多类的元素(例如,Y1和Zo)的组合。
术语“一”实体是指一个或多个该实体。因此,术语“一”、“一个或多个”和“至少一个”在本文中可以可互换地使用。还应当注意,术语“包括”、“包含”和“具有”可以可互换地使用。
前述内容是本公开的简化概述以提供对本公开的一些方面的理解。本发明内容既不是对本公开及其各个方面、实施方案和配置的广泛性概述也不是详尽性概述。其既不意图确定本公开的关键或重要元素,也不意图划定本公开的范围,而是以简化形式呈现本公开的选定概念,作为对下文呈现的更详细描述的介绍。如应当理解的,本公开的其他方面、实施方案和配置可能单独或组合地利用上文所阐述或下文所详细描述的特征中的一个或多个特征。
在考虑下文提供的实施方案描述之后,本发明的许多额外特征和优点对于本领域技术人员将变得显而易见。
附图说明
附图并入并形成本说明书的一部分以示出本公开的几个示例。这些附图连同描述一起解释本公开的原理。附图仅示出如何实施和使用本公开的优选和替代示例,并且这些示例不应解释为仅将本公开限制于所示出和所描述的示例。另外的特征和优点将根据以下对本公开的各个方面、实施方案和配置的更详细的描述变得显而易见,如通过以下参考的附图所示出。
图1是根据本公开的至少一个实施方案的系统的框图;
图2为根据本公开的至少一个实施方案的系统的图;
图3是根据本公开的至少一个实施方案的方法的流程图;
图4是根据本公开的至少一个实施方案的系统的图;
图5是来自使用图4的系统的示例性用例的图像;
图6是根据本公开的至少一个实施方案的方法的流程图;
图7是根据本公开的至少一个实施方案的方法的流程图;
图8是根据本公开的至少一个实施方案的系统的图;并且
图9是根据本公开的至少一个实施方案的方法的流程图。
具体实施方式
应当理解,本文所公开的各个方面可以与说明书和附图中具体呈现的组合不同的组合进行组合。还应当理解,取决于示例或实施方案,本文所述的任何过程或方法的某些动作或事件可以不同的顺序执行,和/或可添加、合并或完全省略(例如,根据本公开的不同实施方案,实行所公开技术可能不需要所有描述的动作或事件)。此外,虽然为了清楚起见,本公开的某些方面被描述为由单个模块或单元执行,但应当理解,本公开的技术可由与例如计算装置和/或医疗装置相关联的单元或模块的组合执行。
在一个或多个示例中,所描述的方法、过程和技术可在硬件、软件、固件或它们的任何组合中实施。如果在软件中实施,则功能可作为一个或多个指令或代码存储在计算机可读介质上并且由基于硬件的处理单元执行。另选地或另外地,功能可使用机器学习模型、神经网络、人工神经网络或它们的组合(单独地或组合指令)来实现。计算机可读介质可包括非暂时性计算机可读介质,其对应于有形介质,诸如数据存储介质(例如,RAM、ROM、EEPROM、闪存存储器,或可用于存储指令或数据结构形式的期望程序代码并且可由计算机访问的任何其他介质)。
指令可由一个或多个处理器执行,诸如一个或多个数字信号处理器(DSP)、通用微处理器(例如,Intel Core i3、i5、i7或i9处理器;Intel Celeron处理器;Intel Xeon处理器;Intel Pentium处理器;AMD Ryzen处理器;AMD Athlon处理器;AMD Phenom处理器;Apple A10或10X Fusion处理器;Apple A11、A12、A12X、A12Z或A13 Bionic处理器;或任何其他通用微处理器)、图形处理单元(例如,Nvidia GeForce RTX 2000系列处理器、NvidiaGeForce RTX 3000系列处理器、AMD Radeon RX 5000系列处理器、AMD Radeon RX 6000系列处理器或任何其他图形处理单元)、专用集成电路(ASIC)、现场可编程逻辑阵列(FPGA)或其他等效的集成或离散逻辑电路系统。因此,如本文所用的术语“处理器”可指前述结构或适合于实施所描述的技术的任何其他物理结构中的任一种。另外,本技术可在一个或多个电路或逻辑元件中完全实现。
在详细地解释本公开的任何实施方案之前,应当理解,本公开在其应用方面不限于以下描述中阐述或附图中示出的构造细节和部件布置。本公开能够具有其他实施方案并且能够以各种方式实践或实行。另外,应当理解,本文所用的措词和术语是出于描述的目的,而不应被视为是限制性的。本文中使用“包括”、或“具有”及其变化形式意在涵盖其后列出的项目及其等效物,以及额外项目。此外,本公开可使用示例来示出其一个或多个方面。除非另有明确说明,否则使用或列出一个或多个示例(其可由“例如”、“借助于示例”、“诸如”或类似语言指示)不意图且并不限制本公开的范围。
术语“近侧”和“远侧”在本公开中以其常规医学含义使用,近侧更靠近系统的操作者或用户并且更远离患者中或患者上的手术感兴趣区域,而远侧更靠近患者中或患者上的手术感兴趣区域并且更远离系统的操作者或用户。
通过使用共配准的机器人臂,可以执行多个临床应用,该多个临床应用可利用例如以下选项之一的组合:
(A)两个或更多个成像臂。例如,在x射线成像中,一个机器人臂可保持源,而另一个机器人臂可保持检测器。在另一示例中,在超声飞行时间成像中,一个机器人臂可保持“源”探头,并且另一个机器人臂可保持“检测器”探头(两个超声换能器)。另一个示例可以是超声成像和光学相干层析成像的组合,其可以使用多于两个机器人臂。通过使用共配准的优点,例如,X射线成像的两个机器人臂可以非常精确地彼此相对地定位或者甚至移动。
(B)至少一个成像臂和至少一个操作臂。例如,支撑成像装置的机器人臂可以通过对操作工具进行成像或者通过对不一定包括该工具或支撑该工具的另一个机器人臂的区域/体积进行成像,来提供信息以引导支撑该工具的该机器人臂。当对操作工具进行成像时,可以将操作工具的位姿与如根据机器人臂确定的操作工具的位姿进行比较,以确认操作工具的位姿的准确性。当对没有操作工具的区域(例如,重要临床对象(例如,血管或神经))进行成像时,成像装置也可以是有用的。例如,成像装置可以监测重要对象以确保操作工具不会到达该重要对象,从而增加规程的安全性。在其他示例中,根据算法,基于来自由另一个机器人臂保持的成像装置的实时成像反馈,共同配准的臂可以帮助移动一个机器人臂。
(C)两个或更多个操作(例如,执行器)臂。在一些实施方案中,一个机器人臂可以支撑第一工具并且另一个机器人臂可以支撑第二工具,并且这两个机器人臂可以同时在身体的不同部分上工作。例如,两个机器人臂可以同时在不同的椎骨中钻螺钉。因为机器人臂是共配准的,所以机器人臂可以避免机器人臂和/或它们保持的工具之间的碰撞。在另一个示例中,一个工具可以依靠另一个工具,例如,当通过另一个工具(例如,通过引导管的针/螺钉)插入特定工具时。
本公开的实施方案提供了对以下问题的技术解决方案:(1)操作两个或更多个机器人臂,同时避免不期望的接触;(2)用成像装置监测目标,同时执行手术任务或规程;(3)同时或顺序地执行两个或更多个手术任务;以及(4)增加患者安全性。
首先转向图1,示出了根据本公开的至少一个实施方案的系统100的框图。系统100可用于在公共坐标系中操作一个或多个机器人臂和/或执行本文所公开的方法中的一种或多种方法的一个或多个其他方面。系统100包括计算装置102、一个或多个成像装置112、机器人114(其还可包括一个或多个机器人臂116和/或一个或多个传感器144)、导航系统118、数据库130和/或云或其他网络134。根据本公开的其他实施方案的系统可包括比系统100更多或更少的部件。例如,系统100可以不包含成像装置112、机器人114、导航系统118、计算装置102中的一个或多个部件、数据库130和/或云134。
计算装置102包括处理器104、存储器106、通信接口108和用户界面110。根据本公开的其他实施方案的计算装置可包括比计算装置102更多或更少的部件。
计算装置102的处理器104可为本文所述的任何处理器或任何类似的处理器。处理器104可以被配置为执行存储在存储器106中的指令,这些指令可以使处理器104利用或基于从成像装置112、机器人114、导航系统118、数据库130和/或云134接收的数据来实行一个或多个计算步骤。
存储器106可为或包括RAM、DRAM、SDRAM、其他固态存储器、本文所述的任何存储器或用于存储计算机可读数据和/或指令的任何其他有形的非暂时性存储器。存储器106可存储可用于完成例如本文所描述的方法300、600、700和/或900或任何其他方法的任何步骤的信息或数据。存储器106可存储例如一个或多个手术计划120、关于一个或多个坐标系122的信息(例如,关于对应于机器人114的机器人坐标系或空间的信息、关于导航坐标系或空间的信息、关于患者坐标系或空间的信息)和/或一个或多个算法124。在一些实施方案中,此类算法可被组织成一个或多个应用程序、模块、包、层或引擎。另选地或另外地,存储器106可存储可由处理器104处理以执行本文中所描述的各种方法和特征的其他类型的数据(例如,机器学习模式、人工神经网络等)或指令。因此,尽管将存储器106的各种部件描述为指令,但应当了解,可通过使用指令、算法和/或机器学习模型来实现本文中所描述的功能性。数据、算法和/或指令可使处理器104操纵存储在存储器106中的和/或从或经由成像装置112、机器人114、数据库130和/或云134接收的数据。
计算装置102也可包括通信接口108。通信接口108可用于从外部源(诸如成像装置112、机器人114、传感器144、导航系统118、数据库130、云134和/或不是系统100的部分的任何其他系统或部件)接收图像数据或其他信息,和/或用于将指令、图像或其他信息传输到外部系统或装置(例如,另一计算装置102、成像装置112、机器人114、传感器144、导航系统118、数据库130、云134和/或不是系统100的部分的任何其他系统或部件)。通信接口108可以包括一个或多个有线接口(例如,USB端口、以太网端口、火线端口)和/或一个或多个无线收发器或接口(被配置为例如经由诸如802.11a/b/g/n、蓝牙、NFC、ZigBee等一个或多个无线通信协议发射和/或接收信息)。在一些实施方案中,通信接口108可用于使得装置102能够与一个或多个其他处理器104或计算装置102通信,无论是减少完成计算密集型任务所需的时间还是出于任何其他原因。
计算装置102也可包括一个或多个用户界面110。用户界面110可以是或包括键盘、鼠标、轨迹球、监测器、电视、屏幕、触摸屏和/或用于从用户接收信息和/或用于向用户提供信息的任何其他装置。用户界面110可用于例如接收关于本文所描述的任何方法的任何步骤的用户选择或其他用户输入。尽管如此,本文所描述的任何方法的任何步骤的任何所需输入可由系统100(例如,由处理器104或系统100的另一部件)自动生成或由系统100从系统100外部的源接收。在一些实施方案中,用户界面110可用于允许外科医生或其他用户根据本公开的一个或多个实施方案修改待由处理器104执行的指令,和/或修改或调整显示在用户界面110上或与其相对应的其他信息的设置。
尽管用户界面110被示出为计算装置102的一部分,但在一些实施方案中,计算装置102可利用与计算装置102的一个或多个剩余部件分开容纳的用户界面110。在一些实施方案中,用户界面110可以位于计算装置102的一个或多个其他部件附近,而在其他实施方案中,用户界面110可以位于远离计算机装置102的一个或多个其他部件之处。
成像装置112可用于对解剖特征(例如,骨骼、静脉、组织等)和/或患者解剖结构的其他方面进行成像以产生图像数据(例如,描绘或对应于骨骼、静脉、组织等的图像数据)。本文所使用的“图像数据”指代由成像装置112生成或捕获的数据,包含呈机器可读形式、图形/视觉形式和呈任何其他形式的数据。在不同示例中,图像数据可包括与患者的解剖特征或其一部分相对应的数据。图像数据可以是或包括手术前图像、手术期间图像、手术后图像、或独立于任何手术规程拍摄的图像。在一些实施方案中,第一成像装置112可用于在第一时间获得第一图像数据(例如,第一图像),并且第二成像装置112可用于在第一时间之后的第二时间获得第二图像数据(例如,第二图像)。成像装置112可能够拍摄2D图像或3D图像以产生图像数据。成像装置112可以是或包括例如超音波扫描仪(其可以包括例如物理分离的换能器和接收器,或单个超音波收发器)、O形臂、C形臂、G形臂或使用基于X射线成像的任何其他装置(例如,荧光镜、CT扫描仪或其他X射线机)、磁共振成像(MRI)扫描仪、光学相干层析成像(OCT)扫描仪、内窥镜、显微镜、光学相机、热成像相机(例如,红外相机)、雷达系统(其可包括例如传输器、接收器、处理器和一个或多个天线),或任何其他适于获得患者解剖特征的图像的成像装置112。成像装置112可以完全包含在单个外壳内,或可以包括在单独外壳中或以其他方式物理分离的传输器/发射器和接收器/检测器。
在一些实施方案中,成像装置112可包括多于一个成像装置112。例如,第一成像装置可以提供第一图像数据和/或第一图像,并且第二成像装置可以提供第二图像数据和/或第二图像。在又其他实施方案中,同一成像装置可用于提供第一图像数据和第二图像数据两者和/或本文所描述的任何其他图像数据。成像装置112可用于生成图像数据流。例如,成像装置112可以被配置为使用打开的快门操作,或者使用在打开与关闭之间连续交替的快门操作,以便捕获连续的图像。出于本公开的目的,除非另外规定,否则如果图像数据表示每秒两个或更多个帧,则可以将图像数据视为连续的和/或提供为图像数据流。
机器人114可以是任何手术机器人或手术机器人系统。机器人114可以是或包括例如Mazor XTM隐形版机器人引导系统。机器人114可以被配置为将成像装置112定位在一个或多个精确位置和取向,和/或将成像装置112返回到稍后时间点的同一位置和取向。机器人114可以另外地或可替代地被配置为操纵手术工具(无论是否基于来自导航系统118的引导)以完成或辅助手术任务。在一些实施方案中,机器人114可以被配置为在手术规程期间或结合手术规程而保持和/或操控解剖元素。机器人114可包括一个或多个机器人臂116。在一些实施方案中,机器人臂116可以包括第一机器人臂和第二机器人臂,但机器人114可以包括多于两个机器人臂。在一些实施方案中,机器人臂116中的一个或多个机器人臂可以用于保持和/或操纵成像装置112。在成像装置112包括两个或更多个物理分离的部件(例如,传输器和接收器)的实施方案中,一个机器人臂116可以保持一个此类部件,并且另一机器人臂116可以保持另一此类部件。每个机器人臂116可以独立于其他机器人臂定位。可以在单个共享坐标空间中或在单独坐标空间中控制机器人臂。
机器人114连同机器人臂116可以具有例如一个、两个、三个、四个、五个、六个、七个或更多个自由度。进一步地,机器人臂116可以以任何位姿、平面和/或焦点定位或可定位。该位姿包含位置和取向。结果,由机器人114保持的(或更具体地说,由机器人臂116保持的)成像装置112、手术工具或其他对象可被精确定位在一个或多个所需且特定的位置和定向。
机器人臂116可包括传感器144,这些传感器使得处理器104(或机器人114的处理器)能够确定机器人臂(以及由机器人臂保持或固定到机器人臂的任何对象或元素)在空间中的精确位姿。
在一些实施方案中,参考标记(即,导航标记)可以放置在机器人114(包括例如在机器人臂116上)、成像装置112或外科手术空间中的任何其他对象上。参考标记可由导航系统118跟踪,并且跟踪的结果可由机器人114和/或由系统100或其任何部件的操作者使用。在一些实施方案中,导航系统118可以用于跟踪系统的其他部件(例如,成像装置112),并且系统可以在不使用机器人114的情况下操作(例如,外科医生例如基于由导航系统118生成的信息和/或指令手动操控成像装置112和/或一个或多个手术工具)。
在操作期间,导航系统118可以为外科医生和/或手术机器人提供导航。导航系统118可以是任何已知的或未来开发的导航系统,包括例如美敦力公司(Medtronic)StealthStationTMS8手术导航系统或其任何后续产品。导航系统118可以包含一个或多个相机或其他传感器,用于跟踪手术室或系统100的部分或全部所在的其他房间内的一个或多个参考标记、导航跟踪器或其他对象。一个或多个相机可以是光学相机、红外相机或其他相机。在一些实施方案中,导航系统可以包括一个或多个电磁传感器。在各种实施方案中,导航系统118可以用于跟踪成像装置112、机器人114和/或机器人臂116和/或一个或多个手术工具的位置和取向(即,位姿)(或更具体地说,用于跟踪直接或间接以固定关系附接到前述中的一个或多个的导航跟踪器的位姿)。导航系统118可以包括用于显示来自外部源(例如,计算装置102、成像装置112或其他源)的一个或多个图像或用于显示来自导航系统118的一个或多个相机或其他传感器的图像和/或视频流的显示器。在一些实施方案中,系统100可以在不使用导航系统118的情况下操作。导航系统118可被配置为向外科医生或系统100的其他用户或其部件、向机器人114或系统100的任何其他元件提供关于例如一个或多个解剖元素的位姿、工具是否处于恰当轨迹中和/或如何根据手术前或其他手术计划将工具移动到恰当轨迹中以实行手术任务的引导。
数据库130可存储将一个坐标系122关联到另一坐标系(例如,将一个或多个机器人坐标系关联到患者坐标系和/或导航坐标系)的信息。数据库130可另外地或可替代地存储例如一个或多个手术计划120(包括例如关于目标的位姿信息和/或关于在手术部位处和/或接近手术部位的患者的解剖结构的图像信息,以供机器人114、导航系统118和/或计算装置102或系统100的用户使用);结合由系统100的一个或多个其他部件完成的或在这些部件的协助下完成的外科手术的一个或多个有用的图像;和/或任何其他有用的信息。数据库130可被配置为将任何此类信息提供到计算装置102或系统100的任何其他装置或系统100外部的任何其他装置,无论直接地或通过云134。在一些实施方案中,数据库130可以是或包括医院图像存储系统的一部分,诸如图片存档与通信系统(PACS)、健康信息系统(HIS)和/或用于收集、存储、管理和/或传输包括图像数据的电子医疗记录的另一系统。
云134可以是或表示互联网或任何其他广域网。计算装置102可经由通信接口108使用有线连接、无线连接或两者连接到云134。在一些实施方案中,计算装置102可经由云134与数据库130和/或外部装置(例如,计算装置)通信。
系统100或类似系统可以用于例如执行本文中所描述的方法300、600、700和/或900中的任一者的一个或多个方面。系统100或类似系统还可用于其他目的。
转到图2,示出了根据本公开的至少一个实施方案的系统200的框图。系统200包括计算装置202(其可与上文所描述的计算装置102相同或相似)、导航系统218(其可与上文所描述的导航系统118相同或相似)以及机器人236(其可以与上文所描述的机器人114相同或相似)。在一些实施方案中,系统200可与系统100一起使用。根据本公开的其他实施方案的系统可包括比系统200更多或更少的部件。例如,系统200可以不包括导航系统218。
如所展示的,机器人236包括第一机器人臂247(其可包括由一个或多个关节247B连接的一个或多个构件247A)和第二机器人臂248(其可包括由一个或多个关节248B连接的一个或多个构件248A),每个机器人臂都从基座240延伸。在其他实施方案中,机器人236可包括一个机器人臂或者两个或更多个机器人臂。基座240可以是固定式的或可移动的。第一机器人臂247和第二机器人臂248可在共享或公共坐标空间中操作。通过在公共坐标空间中操作,第一机器人臂247和第二机器人臂248避免在使用期间彼此碰撞,因为每个机器人臂247、248的位置是彼此已知的。换句话讲,由于第一机器人臂247和第二机器人臂248中的每个机器人臂在相同公共坐标空间中具有已知位置,因此可自动地避免碰撞,因为第一机器人臂247和第二机器人臂248的控制器知道这两个机器人臂的位置。
在一些实施方案中,一个或多个成像装置或部件232(其可与上文所描述的成像装置112相同或相似)可设置或支撑在第一机器人臂247和/或第二机器人臂248的端部上。在其他实施方案中,成像装置或部件232可设置或固定到第一机器人臂247和/或第二机器人臂248的任何部分。在其他实施方案中,一个或多个工具202或器械可设置在第一机器人臂247和第二机器人臂248中的每个机器人臂的端部上(如将关于图4-图9所描述的),但工具或器械可设置在第一机器人臂247和/或第二机器人臂248的任何部分上。在另外的实施方案中,工具212和成像装置232两者可被支撑在同一机器人臂247上(如将关于图4-图7所描述的)。在其他实施方案中,任何一个或多个工具、器械或成像装置可由机器人臂支撑、固定到该机器人臂或设置在该机器人臂上。第一机器人臂247和/或第二机器人臂248可操作以自主地和/或基于来自外科医生或用户的输入来执行一个或多个计划的移动和/或规程。
如图2中所展示的,第一部件232A由第一机器人臂247支撑并且第二部件232B由第二机器人臂248支撑。应当理解,第一机器人臂247和第二机器人臂248的共配准使得在没有碰撞或意外接触的情况下,第一机器人臂247能够同时或顺序地定向和操作第一部件232A,并且第二机器人臂248能够同时或顺序地定向和操作第二部件248B。
在一些实施方案中,第一部件232A是第一成像装置,并且第二部件232B是第二成像装置。第一成像装置可以是与第二成像装置相同类型的成像装置。在其他情况下,第一成像装置可以是与第二成像装置不同类型的成像装置。如下文将更详细描述,第一成像装置和第二成像装置可各自获得目标204的一个或多个图像。
在其他实施方案中,第一部件232A可以包括成像装置的源,例如超声装置或x射线装置,并且第二部件232B可以包括成像装置的检测器,其可以是例如超声装置或x射线装置。第一部件232A和第二部件232B可用于获得目标204的一个或多个图像。
在所展示的示例中,目标204是患者210的解剖元素。在其他实施方案中,目标204可以是对象、切口、工具、器械、机器人臂、系统200的任何部件、系统200外部的任何部件等。在一些实施方案中,与成像装置232中的每个成像装置的位姿信息相结合的一个或多个图像可用于确定目标204的位姿。位姿信息可用于跟踪目标204的移动,如下文将进一步所描述的。例如,可在不同时间增量处比较目标204的位姿以确定目标204是否已移动。在其他实施方案中,目标204的另外的图像可由第一部件232A或第二部件232B或两者从不同角度拍摄,以确定目标204的边界和/或更新对象或目标204的位姿(例如,由于目标204已移动而更新位姿)。
图3描绘了可用于例如获得一个或多个图像的方法300。
方法300(和/或其一个或多个步骤)可例如由至少一个处理器实行或以其他方式执行。至少一个处理器可与上文所述的计算装置102的处理器104相同或相似。至少一个处理器可以为机器人(诸如机器人114)的一部分或导航系统(诸如导航系统118)的一部分。除了本文所描述的任何处理器之外的处理器也可用于执行方法300。至少一个处理器可通过执行存储在诸如存储器106的存储器中的指令执行方法300。这些指令可与下文所述的方法300的一个或多个步骤相对应。这些指令可使处理器执行一种或多种算法,诸如算法124。
方法300包括将第一机器人臂和第二机器人臂共配准(步骤302)。诸如处理器104等处理器可以执行诸如算法124等算法以使第一机器人臂和第二机器人臂配准。第一机器人臂可以与第一机器人臂114、247相同或相似,并且第二机器人臂可以与第二机器人臂114、248相同或相似。共配准使得能够在公共坐标系中控制第一机器人臂和第二机器人臂,以便避免第一机器人臂与第二机器人臂之间的不期望的接触,并且因此还避免第一机器人臂与第二机器人臂的端部执行器之间的不期望的接触。在一些实施方案中,第一机器人臂可以被配置为支撑和/或定向诸如第一部件232A等第一部件,并且第二机器人臂可以被配置为支撑和/或定向诸如第二部件232B等第二部件。尽管在其他实施方案中,第一机器人臂和/或第二机器人臂可以支撑和/或定向任何工具、器械或成像装置。
在一些实施方案中,诸如计算装置102、202等计算装置计算并控制第一机器人臂的位姿和第二机器人臂的位姿。每个机器人臂的位姿是计算装置已知的,使得计算装置将第一机器人臂和第二机器人臂的位姿相对于彼此关联,并且如果期望的话,相对于术前图像或术前图像集关联。在手术中,第一机器人臂和第二机器人臂的位姿可以基于在规程的过程期间由成像装置提供给系统的图像而由计算装置实时更新和记录。与独立操作两个机器人臂进行的规程相比,坐标系的关联使得能够以更高的准确度进行手术规程。
方法300还包括使第一机器人臂定向第一部件(步骤304)。第一机器人臂可以将第一部件定向在一个或多个位姿处。在一些实施方案中,该一个或多个位姿可以基于来自手术计划(诸如手术计划120)的一个或多个步骤。在其他实施方案中,该一个或多个位姿可基于经由用户界面(诸如用户界面110)从用户接收的输入。
在一些实施方案中,指令可被生成并传输到第一机器人臂以使第一机器人臂将第一部件定向在一个或多个位姿处。指令还可经由用户界面传达给用户,以引导用户(手动地或机器人辅助地)定向第一成像装置。
方法300还包括使第二机器人臂定向第二部件(步骤306)。步骤306可以与应用于第二机器人臂的步骤304相同或相似。第二机器人臂可以与第二机器人臂116、248相同或相似。在一些实施方案中,第二机器人臂可将第二部件定向在与第一部件的一个或多个位姿不同的一个或多个位姿处。在其他实施方案中,第二机器人臂可将第二部件定向在与第一部件的一个或多个位姿相同的一个或多个位姿处。在此类实施方案中,第二部件可在第一部件之后定向在相同位姿处,或反之亦然。
应当理解,步骤304和306可同时地或顺序地发生。还应当理解,步骤306可以独立于步骤304发生或者可以依赖于步骤304(并且反之亦然)。换句话说,第二机器人臂可以基于第一部件的位姿来定向第二部件,或反之亦然。例如,第一部件可以包括超声装置或x射线装置的源,并且第二部件可以包括超声装置或x射线装置的检测器。在同一示例中,第二机器人臂可以基于源的位姿来定向检测器。
方法300还包括使第一部件获得至少一个第一图像(步骤308)。在一些实施方案中,第一部件包括可以与成像装置112、232相同或相似的第一成像装置。第一图像可包括一个或多个2D图像、一个或多个3D图像或一个或多个2D图像与一个或多个3D图像的组合。
第一图像可描绘至少一个目标。该至少一个目标可以是参考标记、患者解剖结构上的记号、解剖元素、切口、工具、器械、植入物或任何其他对象。可使用算法(诸如算法124)来处理第一图像,以处理图像并识别第一图像中的至少一个目标。在一些实施方案中,特征辨识可用于识别至少一个目标的特征。例如,可在第一图像中识别螺钉、工具、边缘、器械或解剖元素的轮廓。在其他实施方案中,图像处理算法可基于人工智能或机器学习。在此类实施方案中,可向处理器提供多个训练图像,并且每个训练图像可被注释为包括关于图像中的目标的识别信息。执行存储在诸如存储器106等存储器或另一存储器中的指令的处理器可使用机器学习算法来分析图像,并且基于该分析生成用于识别图像中的目标的一个或多个图像处理算法。然后可将此类图像处理算法应用于第一图像。
方法300还包括使第二部件获得至少一个第二图像(步骤310)。步骤304可与上文关于获得第二图像所描述的方法300的步骤302相同或相似。第二部件可以是与成像装置112、232相同或相似的第二成像装置。
在一些实施方案中,第一成像装置可以是例如使用诸如X射线等第一源获得图像的成像装置,并且第二成像装置可以是例如使用诸如超声等第二源获得图像的成像装置。在此类实施方案中,当第一成像装置和第二成像装置对同一解剖特征(无论来自相同或不同的位姿)进行成像时,从第二成像装置获得的图像可以补充从第一成像装置获得的图像或向从第一成像装置获得的图像提供另外的信息。例如,来自超声装置的图像可以提供软组织信息,该软组织信息可以与来自x射线装置的图像组合,该x射线装置可以提供硬组织信息。
在其他实施方案中,第一成像装置可与第二成像装置相同。在至少一些实施方案中,第一成像装置可以对与第二成像装置不同的患者解剖特征或区域进行成像。在其他实施方案中,第一成像装置可以对与第二成像装置相同的患者解剖特征或区域进行成像。
应当理解,在一些实施方案中,方法300可以不包括步骤308和/或310。
方法300还包括使第一部件和第二部件获得至少一个图像(步骤312)。应当理解,步骤312可以独立于权利要求308和310来执行。应当理解,在一些实施方案中,方法300可以不包括步骤312。
在一些实施方案中,第一部件是超声或x射线装置的源,并且第二部件是超声或x射线装置的检测器。在此类实施方案中,检测器可基于源的位姿而定向,或反之亦然。可以从例如检测由源发射的源波(无论是超声、x射线还是任何其他波长)的检测器获得至少一个图像。
应当理解,方法300可以用多于两个机器人臂来执行。例如,方法300可使第三机器人臂定向第三成像装置并从第三成像装置获得图像。还应当理解,方法300可以用任何数量的机器人臂和/或成像装置来执行。例如,方法300可以使第二机器人臂定向第二和第三成像装置。
本公开涵盖方法300的实施方案,这些实施方案包括比上文所描述的步骤更多或更少的步骤和/或与上文所描述的步骤不同的一个或多个步骤。
转到图4,示出了根据本公开的至少一个实施方案的系统400的框图。系统400包括计算装置402(其可与上述计算装置102相同或相似)、导航系统418(其可与上述导航系统118相同或相似)以及机器人436(其可以与上述机器人114、236相同或相似)。根据本公开的其他实施方案的系统可包括比系统400更多或更少的部件。例如,系统400可以不包括导航系统418。
如所展示的,机器人436包括第一机器人臂447(其可包括由一个或多个关节447B连接的一个或多个构件447A)和第二机器人臂448(其可包括由一个或多个关节448B连接的一个或多个构件448A),每个机器人臂都从基座440延伸。在其他实施方案中,机器人436可包括一个机器人臂或者两个或更多个机器人臂。基座440可以是固定式的或可移动的。第一机器人臂447和第二机器人臂448可在共享或公共坐标空间中操作。通过在公共坐标空间中操作,第一机器人臂447和第二机器人臂448避免在使用期间彼此碰撞,因为每个机器人臂447、448的位置是彼此已知的。换句话讲,由于第一机器人臂447和第二机器人臂448中的每个机器人臂在相同公共坐标空间中具有已知位置,因此可自动地避免碰撞,因为第一机器人臂447和第二机器人臂448的控制器知道这两个机器人臂的位置。
如图4中所展示的,工具412由第一机器人臂447支撑并且成像装置432由第二机器人臂448支撑。成像装置432可与成像装置112、232或本文所描述的任何其他成像装置相同或相似。工具412可用于对患者410执行动作或规程,无论是基于来自外科医生的指令和/或依照手术计划,诸如手术计划120。例如,工具412可用于在患者410的表面408上形成切口、执行消融、执行羊膜穿刺术规程、执行活检或任何其他手术任务或规程。
在一些实施方案中,成像装置432可用于跟踪和检测重要目标404的移动。在至少一个实施方案中,当成像装置432跟踪目标404时,工具412可处于成像装置432的视场中。在其他实施方案中,当成像装置432跟踪目标404时,工具412可能不处于成像装置432的视场中。应当理解,因为第一机器人臂447和第二机器人臂448是共配准的,并且每个机器人臂的位姿是已知的,所以成像装置432可以在不跟踪工具412的情况下跟踪目标404。换句话说,工具412可能不处于成像装置432的视场中。在一些实施方案中,成像装置432可跟踪或监测重要目标404以防止工具412例如损坏目标404。例如,成像装置432可以跟踪目标404以防止例如来自消融探头的热损坏目标404,如图5所展示的。
在其他实施方案中,当检测到移动时,可更新或调整工具412的路径。例如,成像装置432可跟踪切口的移动。当检测到切口的移动时,工具412(其在切口外部)的路径可经移位以到达移动之后的切口的位置。
在仍其他实施方案中,成像装置432可用于跟踪和/或引导工具412的移动。例如,成像装置432可以对工具412进行成像,并且向诸如处理器104等处理器提供工具412和工具412周围的区域的图像数据。处理器可以确定工具412是否可以接触目标404并且可以更新工具路径以避开此目标404。处理器还可以确定工具412的位姿,该位姿可以与从第一机器人臂447获得的位姿信息进行比较以确认工具412的位姿的准确性。
应当理解,第一机器人臂447和第二机器人臂448的共配准使得在没有碰撞的情况下,第一机器人臂447能够同时或顺序地定向和操作工具412,并且第二机器人臂448能够同时或顺序地定向和操作成像装置432。
图5是根据本公开的至少一个实施方案的患者解剖结构的示例性X射线图像500。在图像500中,示出了消融规程。该规程可以使用诸如系统400等系统来在该规程期间监测重要目标504。工具508可与工具412相同或相似。在所展示的示例中,工具508可以包括消融探头。
在所展示的实施方案中,成像装置(诸如成像装置112、232、432)的视场502示出为虚线矩形;重要目标504(其可以与目标404相同或相似)示出为圆圈;并且出于说明目的,工具508的穿透区域506示出为一系列圆圈。在所展示的实施方案中,工具508可以是消融探头,并且穿透区域506可以与消融工具的加热区域关联。在其他实施方案中,例如当工具508是针时,穿透区域506可以简单地是工具508的尖端。
在一些实施方案中,目标504可以在手术规程之前识别。例如,成像装置可对区域进行成像并且将图像数据传输到诸如处理器104等处理器。处理器可自动识别目标504。在其他示例中,可以从诸如外科医生等用户接收输入以识别目标504。
可以通过向处理器发送包含视场502的图像数据来监测重要目标504。处理器可监测目标504的移动、目标504的改变或视场502的改变。视场502的改变可以是例如视场502内已被消融工具508消融的组织的改变或已被例如刀切割的组织的改变。视场502的改变可以指示引起改变的对应工具508可能正在接近目标504。当检测到改变时,无论是对于视场504还是目标504,可以生成通知并将其传输到诸如外科医生或其他医疗提供者等用户。在一些实施方案中,可以在改变达到阈值时生成通知。例如,该阈值可以是目标504与工具508之间允许的最小距离。在其他示例中,当目标504的至少一部分不处于视场502内时,可以生成通知。
应当理解,在一些实施方案中,工具508可以不处于视场502内,诸如在所展示的实施方案中示出的。换句话说,成像装置可以在不监测工具508的情况下简单地监测目标504。
目标504可以是任何解剖元素或解剖区域。例如,目标可以是一个或多个血管、一个或多个神经、一个或多个神经中的电信号、器官、软组织或硬组织。目标504还可以是边界或边缘,不管是解剖元素的边界还是用户定义的边界。例如,目标可以是肿瘤的边缘或附近的重要结构,诸如神经或血管,其可以在肿瘤被消融探头消融时被监测到。
应当理解,尽管图5示出了其中可以使用系统400的消融规程,但是任何规程可以以相同的方式使用系统400以在执行手术任务或规程的同时监测目标。在一些实施方案中,规程可以是任何脊柱或颅手术规程。在其他实施方案中,规程可以是任何手术规程或任务。示例性规程包括甲状腺活检、肝活检、外周肺活检、骨髓穿刺和活检、或关节穿刺术规程。
在一些实施方案中,规程可以是例如羊膜穿刺术,目标504可以是胎儿和/或羊膜囊壁,并且工具508可以是用于抽取羊水的针。在此类规程中,胎儿的位置和移动可以通过成像装置(例如,超声探头)来监测。在至少一些实施方案中,可以首先从成像装置获得用于探测的指定区域的初步扫描。然后胎儿可以由用户(例如,外科医生)识别,或由处理器使用人工智能自动识别。处理器可以根据可以从成像装置接收的另外的图像数据来跟踪胎儿的移动。当胎儿移动时,机器人臂可以自动地重新定向成像装置以跟踪胎儿。在一些实施方案中,羊膜囊壁也可由用户识别,或由处理器使用人工智能自动识别。在该规程中,可以监测胎儿和/或羊膜囊壁,以防止该针对胎儿和/或羊膜囊壁造成损伤。
在其他实施方案中,该规程可以是黄韧带切除术,目标504可以是硬膜囊,并且工具508可以是用于执行黄韧带切除术的任何工具。在实施方案中的至少一些实施方案中,黄韧带可以由成像装置(其可以是例如超声探头)进行成像,硬膜囊可以在图像数据中被识别,并且硬膜囊可以在执行黄韧带切除术时被监测。
在仍其他实施方案中,该规程可以是减压规程,目标504可以是神经,并且工具508可以是执行该减压规程的任何工具。在实施方案中的至少一些实施方案中,目标504可以包括神经周围的结构。还可以监测该结构和/或神经以确定和/或确认在已经执行了减压规程之后该神经没有减压。
在其他实施方案中,目标可以是患者,并且可以针对不期望的移动来监测患者。
图6描绘了可用于例如监测重要目标和执行手术规程或任务的方法600。
方法600(和/或其一个或多个步骤)可例如由至少一个处理器实行或以其他方式执行。至少一个处理器可与上文所述的计算装置102的处理器104相同或相似。至少一个处理器可以为机器人(诸如机器人114)的一部分或导航系统(诸如导航系统118)的一部分。除了本文所描述的任何处理器之外的处理器也可用于执行方法600。至少一个处理器可通过执行存储在诸如存储器106等存储器中的指令执行方法600。这些指令可与下文所描述的方法600的一个或多个步骤相对应。这些指令可使处理器执行一种或多种算法,诸如算法124。
方法600包括将第一机器人臂和第二机器人臂共配准(步骤602)。步骤602可与方法300的步骤302相同或相似。第一机器人臂可以与第一机器人臂116、247、447相同或相似。第二机器人臂可以与第二机器人臂116、248、448相同或相似。
方法600还包括接收图像(步骤604)。图像可包括一个或多个2D图像、一个或多个3D图像或一个或多个2D图像与一个或多个3D图像的组合。在一些实施方案中,可从成像装置(诸如成像装置112、232、432)接收图像。在其他实施方案中,图像可经由用户界面(诸如用户界面110)和/或经由通信接口(诸如计算装置(诸如计算装置102或202)的通信接口108)来接收,并且可被存储在诸如存储器106等存储器中。图像还可由系统100、200或400的任何其他部件生成和/或上传到该任何其他部件。在一些实施方案中,图像可通过系统的任何其他部件或该系统所连接网络的节点间接接收。
该图像可描绘重要目标,下文更详细地描述。重要目标可以是例如解剖元素、解剖区域、器械、工具、边界或边缘、一个或多个神经、一个或多个血管、硬膜囊、胎儿、羊膜囊、或一个或多个神经中的电信号。
方法600还包括识别重要目标(步骤606)。可使用算法(诸如算法124)来处理图像,以处理图像并识别图像中的重要目标。在一些实施方案中,特征辨识可用于识别目标的特征。例如,可在第一图像中识别螺钉、端口、工具、边缘、器械或解剖元素的轮廓。在其他实施方案中,图像处理算法可基于人工智能或机器学习。在此类实施方案中,可向处理器提供多个训练图像,并且每个训练图像可被注释为包括关于图像中的目标的识别信息。执行存储在诸如存储器106等存储器或另一存储器中的指令的处理器可使用机器学习算法来分析图像,并且基于该分析生成用于识别图像中的目标的一个或多个图像处理算法。然后可将此类图像处理算法应用于接收到的图像。
方法600还包括使第一机器人臂定向成像装置(步骤608)。关于定向成像装置,步骤608可与方法300的步骤304相同或相似。另外,可以指示第一机器人臂将成像装置定向在重要目标处。
方法600还包括使第二机器人臂定向工具(步骤610)。步骤610可以与应用于定向工具的第二机器人臂的方法300的步骤304相同或相似。该工具可与工具412、508相同或相似。
方法600还包括使用工具使第二机器人臂执行手术规程(步骤612)。在一些实施方案中,指令可被生成并传输到第二机器人臂以使第二机器人臂定向和/或操作第一工具。指令还可经由用户界面(诸如用户界面112)传达给用户,以引导用户(手动地或机器人辅助地)定向和/或操作工具。
该规程可以是任何手术规程或任务。该规程可以是例如,消融规程、减压规程、羊膜穿刺术规程、黄韧带切除术、活检、甲状腺活检、肝活检、外周肺活检、骨髓活检或关节穿刺术规程。
方法600还包括使用成像装置监测重要目标(步骤614)。监测重要目标可以包括使成像装置将图像数据传输到诸如处理器104等处理器。图像数据可描绘成像装置的视场。重要目标可以处于成像装置的视场内。在一些实施方案中,工具可以处于视场内。在其他实施方案中,工具可以不处于成像装置的视场中,如关于例如图5所描述的。
处理器可以接收描绘目标的图像数据并且针对目标的改变、目标的移动或视场的改变来监测目标。在一些其他实施方案中,当处理器识别目标中的改变时,处理器可以向用户生成通知以警告用户目标已经改变(例如,目标是否已经受消融、活检、减压规程等影响)。在一些实施方案中,当目标的改变已经达到阈值时,可以生成通知。例如,如果多于10%的目标受消融规程影响,则可以生成通知。
方法600还包括使第一机器人臂重新定向成像装置以跟踪重要目标(步骤616)。在一些实施方案中,当处理器识别目标的移动时,例如在步骤614中,使得目标的至少一部分不再处于成像装置的视场内,处理器可以生成指令以使第一机器人臂重新定向成像装置,使得目标完全处于成像装置的视场内。在其他实施方案中,当处理器识别目标的移动使得目标的一部分不再处于成像装置的视场内时,处理器可以向诸如外科医生或其他医疗提供者等用户生成目标已经移动的通知。
本公开涵盖方法600的实施方案,这些实施方案包括比上文所描述的步骤更多或更少的步骤和/或与上文所描述的步骤不同的一个或多个步骤。
图7描绘了可用于例如确定工具路径的方法700。
方法700(和/或其一个或多个步骤)可例如由至少一个处理器实行或以其他方式执行。至少一个处理器可与上文所述的计算装置102的处理器104相同或相似。至少一个处理器可以为机器人(诸如机器人114)的一部分或导航系统(诸如导航系统118)的一部分。除了本文所描述的任何处理器之外的处理器也可用于执行方法700。至少一个处理器可通过执行存储在诸如存储器106等存储器中的指令执行方法700。这些指令可与下文所描述的方法700的一个或多个步骤相对应。这些指令可使处理器执行一种或多种算法,诸如算法124。
方法700包括将第一机器人臂和第二机器人臂共配准(步骤702)。步骤702可与方法300的步骤302相同或相似。第一机器人臂可以与第一机器人臂116、247、447相同或相似。第二机器人臂可以与第二机器人臂116、248、448相同或相似。
方法700还包括接收图像数据(步骤704)。步骤704可与方法600的步骤604相同或相似。可从成像装置(诸如成像装置112、232、432)接收图像数据。
方法700还包括确定工具路径(步骤706)。工具路径可以基于例如一个或多个输入(诸如在步骤704中接收的图像数据)、手术计划(诸如手术计划120)、或针对手术规程或任务选择的工具(诸如工具412、508)的尺寸和/或功能。诸如处理器104等处理器可以使用一个或多个输入来确定工具路径。
方法700还包括使第一机器人臂沿着工具路径定向工具(步骤708)。在一些实施方案中,第一机器人臂可以沿着工具路径或任何其他预定路径定向器械或植入物。可以生成指令和/或将其传输到第一机器人臂以使第一机器人臂沿着工具路径自动地定向工具。这些指令还可显示在用户界面(诸如用户界面110)上,以指示用户沿着工具路径引导工具(无论是手动地还是机器人辅助地)。工具路径可以从手术计划(诸如手术计划120)获得,可由用户经由用户界面输入,和/或可以在手术规程之前或期间计算,例如在步骤706中。
本公开涵盖方法700的实施方案,这些实施方案包括比上文所描述的步骤更多或更少的步骤和/或与上文所描述的步骤不同的一个或多个步骤。
转到图8,示出了根据本公开的至少一个实施方案的系统800的框图。系统800包括计算装置802(其可与上述计算装置102相同或相似)、导航系统818(其可与上述导航系统118相同或相似)以及机器人836(其可以与上述机器人114相同或相似)。根据本公开的其他实施方案的系统可包括比系统800更多或更少的部件。例如,系统800可以不包括导航系统818。
如所展示的,机器人836包括第一机器人臂847(其可包括由一个或多个关节847B连接的一个或多个构件847A)和第二机器人臂848(其可包括由一个或多个关节848B连接的一个或多个构件848A),每个机器人臂都从基座840延伸。在其他实施方案中,机器人836可包括一个机器人臂或者两个或更多个机器人臂。基座840可以是固定式的或可移动的。第一机器人臂847和第二机器人臂848可在共享或公共坐标空间中操作。通过在公共坐标空间中操作,第一机器人臂847和第二机器人臂848避免在使用期间彼此碰撞,因为每个机器人臂847、848的位置是彼此已知的。换句话讲,由于第一机器人臂847和第二机器人臂848中的每个机器人臂在相同公共坐标空间中具有已知位置,因此可自动地避免碰撞,因为第一机器人臂847和第二机器人臂848的控制器知道这两个机器人臂的位置。
如图8中所展示的,第一工具812由第一机器人臂848支撑并且第二工具834由第二机器人臂848支撑。第一工具812和第二工具834可以各自与工具412、508相同或相似。在一些实施方案中,第一工具812与第二工具834相同。在其他实施方案中,第一工具812可以不同于第二工具834。第一工具812和第二工具834中的每一者可用于对患者810执行动作或规程,无论是基于来自外科医生的指令和/或依照手术计划,诸如手术计划120。例如,第一工具812可用于在患者810的表面808上形成切口806,并且第二工具834可插入端口804。
在一些实施方案中,第一工具812可以执行第一任务,并且第二工具834可以基于第一任务执行第二任务。例如,第一机器人臂847可以插入引导管(例如,第一工具812)并且第二机器人臂848可以通过引导管插入针或螺钉(例如,第二工具834)。在其他实施方案中,第一工具812可独立于第二工具834执行第二任务而执行第一任务。例如,第一机器人臂847可以将第一螺钉(例如,第一工具812)钻入第一椎骨中,并且第二机器人臂848可以同时将第二螺钉(例如,第二工具824)钻入第二椎骨中。
应当理解,第一机器人臂847和第二机器人臂848的共配准使得在没有碰撞的情况下,第一机器人臂847能够同时或顺序地定向和操作第一工具812,并且第二机器人臂848能够同时或顺序地定向和操作第二工具834。
图9描绘了可用于例如执行一个或多个手术规程的方法900。
方法900(和/或其一个或多个步骤)可例如由至少一个处理器实行或以其他方式执行。至少一个处理器可与上文所述的计算装置102的处理器104相同或相似。至少一个处理器可以为机器人(诸如机器人114)的一部分或导航系统(诸如导航系统118)的一部分。除了本文所描述的任何处理器之外的处理器也可用于执行方法900。至少一个处理器可通过执行存储在诸如存储器106等存储器中的指令执行方法900。这些指令可与下文所描述的方法900的一个或多个步骤相对应。这些指令可使处理器执行一种或多种算法,诸如算法124。
方法900包括将第一机器人臂和第二机器人臂共配准(步骤902)。步骤902可与方法300的步骤302相同或相似。第一机器人臂可以与第一机器人臂116、247、447、847相同或相似。第二机器人臂可以与第二机器人臂116、248、448、848相同或相似。
方法900还包括使第一机器人臂定向第一工具(步骤904)。步骤904可以与应用于定向第一工具的第一机器人臂的方法300的步骤304相同或相似。第一工具可与第一工具412、508、812相同或相似。
方法900还包括使第二机器人臂定向第二工具(步骤906)。步骤906可以与应用于定向第二工具的第二机器人臂的方法300的步骤304相同或相似。第二工具可与第一工具412、508、834相同或相似。在一些实施方案中,第二工具可以与第一工具相同。在其他实施方案中,第二工具可以不同于第一工具。
方法900还包括使第一机器人臂使用第一工具执行第一任务(步骤908)。步骤908可与方法600的步骤612相同或相似。在一些实施方案中,第一任务可以基于来自手术计划,诸如手术计划120的步骤。在其他实施方案中,第二任务可以基于经由诸如用户界面110等用户界面从诸如外科医生或其他医疗提供者等用户接收的输入。
方法900还包括使第二机器人臂使用第二工具执行第二任务(步骤910)。步骤910可与方法600的步骤612相同或相似。第二任务可以基于来自手术计划的步骤或从用户接收的输入。在一些实施方案中,第二任务可以依靠或依赖于第一任务。例如,第一工具可以是引导管,并且第一任务可以包括将引导管插入切口中。在同一示例中,第二工具可以是针,并且第二任务可以包括将针插入引导管中。在其他实施方案中,第二任务可以独立于第一任务。例如,第一工具可以是第一刀,并且第一任务可以包括使用第一刀形成第一切口。在同一示例中,第二工具可以是第二刀,并且第二任务可以包括使用第二刀形成第二切口。在一些实施方案中,第一工具可以对第一解剖元素执行第一任务,并且第二工具可以对不同于第一解剖元素的第二解剖元素执行第二任务。例如,第一工具可以是第一螺钉,并且第一任务可以包括将第一螺钉拧入第一椎骨中。在同一示例中,第二工具可以是第二螺钉,并且第二任务可以包括将第二螺钉拧入第二椎骨中。
应当理解,方法900可以包括定向多于两个工具(例如,第三工具、第四工具等)和/或执行多于两个任务(例如,第三任务、第四任务等)。还应当理解,可以由任何工具执行另外的任务。
本公开涵盖方法900的实施方案,这些实施方案包括比上文所描述的步骤更多或更少的步骤和/或与上文所描述的步骤不同的一个或多个步骤。
应当理解,系统200、400、800和方法300、600、700、900可以使用多于两个机器人臂。例如,系统可以包括三个机器人臂并且可以包括支撑第一成像装置的第一机器人臂、支撑第二成像装置的第二机器人臂以及支撑工具的第三机器人臂。
如上所述,本公开涵盖具有比图3、图6、图7和图9中识别的所有步骤更少的步骤的方法(以及方法300、600、700和900的对应描述)以及包括超出图3、图6、图7和图9中识别的步骤的另外步骤的方法(以及方法300、600、700和900的对应描述)。本公开还涵盖包括来自本文所描述的一种方法的一个或多个步骤和来自本文所描述的另一种方法的一个或多个步骤的方法。本文所描述的任何相关性可以是或包括配准或任何其他相关性。
前述内容并不意图将本公开限于本文所公开的一种或多种形式。在前述的具体实施方式中,例如,出于简化本公开的目的,将本公开的各种特征一起分组在一个或多个方面、实施方案和/或配置中。本公开的方面、实施方案和/或配置的特征可组合在除了上文所论述的那些之外的替代方面、实施方案和/或配置中。本公开的方法不应被解释为反映以下意图:权利要求需要比每项权利要求中明确叙述的特征更多的特征。相反,如以下权利要求书所反映,本发明方面在于少于单个前述公开的方面、实施方案和/或配置的全部特征。因此,以下权利要求特此并入这个具体实施方式中,其中每项权利要求作为本公开的单独的优选实施方案而独立存在。
此外,尽管前述已经包含对一个或多个方面、实施方案和/或配置以及某些变化和修改的描述,但在理解了本公开之后,其他变化、组合和修改在本公开的范围内,例如,可在本领域技术人员的技能和知识范围内。意图在准许的范围内获得包括替代方面、实施方案和/或配置的权利,包括所要求保护的那些的替代、可互换和/或等效的结构、功能、范围或步骤,而不管这些替代、可互换和/或等效的结构、功能、范围或步骤是否在本文中公开,而且不意图公开用于任何可获专利的主题。
Claims (20)
1.一种用于对目标进行成像的系统,所述系统包括:
第一机器人臂,所述第一机器人臂被配置为定向第一部件;
第二机器人臂,所述第二机器人臂被配置为定向第二部件;
至少一个处理器;和
存储器,所述存储器存储用于由所述处理器处理的数据,所述数据当被处理时,使得所述处理器:
将所述第一机器人臂和所述第二机器人臂共配准;
使所述第一机器人臂将所述第一部件定向在第一位姿处;
使所述第二机器人臂将所述第二部件定向在第二位姿处;以及
从所述第一部件和所述第二部件接收至少一个图像。
2.根据权利要求1所述的系统,其中所述存储器存储用于由所述处理器处理的另外的数据,所述另外的数据当被处理时,使得所述处理器:
接收手术计划,所述手术计划包括所述第一位姿。
3.根据权利要求1所述的系统,其中所述第一部件包括x射线装置和超声装置中的至少一者的源,并且所述第二部件包括所述x射线装置和所述超声装置中的至少一者的检测器。
4.根据权利要求1所述的系统,其中所述存储器存储用于由所述处理器处理的另外的数据,所述另外的数据当被处理时,使得所述处理器:
基于所述第一位姿确定所述第二位姿。
5.根据权利要求1所述的系统,其中所述第二位姿与所述第一位姿相同。
6.一种用于执行手术规程的系统,所述系统包括:
第一机器人臂,所述第一机器人臂被配置为定向工具;
第二机器人臂,所述第二机器人臂被配置为定向成像装置;
至少一个处理器;和
存储器,所述存储器存储用于由所述处理器处理的数据,所述数据当被处理时,使得所述处理器:
将所述第一机器人臂和所述第二机器人臂共配准;
使所述第二机器人臂将所述成像装置定向在目标处;
使所述成像装置监测所述目标;以及
使所述第一机器人臂使用所述工具执行所述手术规程。
7.根据权利要求6所述的系统,其中所述存储器存储用于由所述处理器处理的另外的数据,所述另外的数据当被处理时,使得所述处理器:
接收描绘所述目标的图像;以及
处理所述图像以识别所述目标。
8.根据权利要求6所述的系统,其中所述手术规程是活检、减压规程、羊膜穿刺术规程和消融规程中的至少一者。
9.根据权利要求6所述的系统,其中所述目标是以下中的至少一者:一个或多个血管、一个或多个神经、一个或多个神经中的电信号、器官、软组织和硬组织。
10.根据权利要求6所述的系统,其中所述存储器存储用于由所述处理器处理的另外的数据,所述另外的数据当被处理时,使得所述处理器:
当检测到所述目标的移动和所述目标的改变中的至少一者时,生成通知。
11.根据权利要求6所述的系统,其中所述目标处于所述成像装置的视场内,并且所述工具不处于所述视场内。
12.根据权利要求6所述的系统,其中所述目标处于所述成像装置的视场内,并且所述工具处于所述视场内。
13.根据权利要求6所述的系统,其中所述存储器存储用于由所述处理器处理的另外的数据,所述另外的数据当被处理时,使得所述处理器:
当所述目标的至少一部分不再处于视场内时,生成通知。
14.一种用于执行一个或多个手术任务的系统,所述系统包括:
第一机器人臂,所述第一机器人臂被配置为定向第一工具;
第二机器人臂,所述第二机器人臂被配置为定向第二工具;
至少一个处理器;和
存储器,所述存储器存储用于由所述处理器处理的数据,所述数据当被处理时,使得所述处理器:
将所述第一机器人臂和所述第二机器人臂共配准;
使所述第一机器人臂使用所述第一工具执行第一任务;以及
使所述第二机器人臂使用所述第二工具执行第二任务。
15.根据权利要求14所述的系统,其中所述第二任务依赖于所述第一任务。
16.根据权利要求14所述的系统,其中所述第二任务独立于所述第一任务。
17.根据权利要求14所述的系统,其中对第一解剖元素执行所述第一任务,并且对第二解剖元素执行所述第二任务。
18.根据权利要求14所述的系统,其中对解剖元素执行所述第一任务和所述第二任务。
19.根据权利要求14所述的系统,其中所述第一工具与所述第二工具相同。
20.根据权利要求14所述的系统,其中所述第一工具不同于所述第二工具。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/344,658 | 2021-06-10 | ||
US17/344,658 US20220395342A1 (en) | 2021-06-10 | 2021-06-10 | Multi-arm robotic systems and methods for monitoring a target or performing a surgical procedure |
PCT/IL2022/050603 WO2022259245A1 (en) | 2021-06-10 | 2022-06-07 | Multi-arm robotic systems and methods for monitoring a target or performing a surgical procedure |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117425449A true CN117425449A (zh) | 2024-01-19 |
Family
ID=82494073
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202280040367.9A Pending CN117425449A (zh) | 2021-06-10 | 2022-06-07 | 用于监测目标或执行手术规程的多臂机器人系统和方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220395342A1 (zh) |
EP (1) | EP4351467A1 (zh) |
CN (1) | CN117425449A (zh) |
WO (1) | WO2022259245A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220241032A1 (en) * | 2021-02-01 | 2022-08-04 | Mazor Robotics Ltd. | Multi-arm robotic systems and methods for identifying a target |
US11763499B2 (en) | 2021-09-01 | 2023-09-19 | Mazor Robotics Ltd. | Systems, methods, and devices for generating a corrected image |
US20230096406A1 (en) * | 2021-09-29 | 2023-03-30 | Cilag Gmbh International | Surgical devices, systems, and methods using multi-source imaging |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102010038800B4 (de) * | 2010-08-02 | 2024-03-07 | Kuka Deutschland Gmbh | Medizinischer Arbeitsplatz |
EP2928407B1 (en) * | 2012-12-10 | 2021-09-29 | Intuitive Surgical Operations, Inc. | Collision avoidance during controlled movement of image capturing device and manipulatable device movable arms |
WO2015161297A1 (en) * | 2014-04-17 | 2015-10-22 | The Johns Hopkins University | Robot assisted ultrasound system |
WO2016054256A1 (en) * | 2014-09-30 | 2016-04-07 | Auris Surgical Robotics, Inc | Configurable robotic surgical system with virtual rail and flexible endoscope |
WO2019036006A1 (en) * | 2017-08-16 | 2019-02-21 | Covidien Lp | SYNTHESIS OF SPACE-SENSITIVE TRANSITIONS BETWEEN MULTIPLE VIEWPOINTS OF VIEWING DEVICES DURING MINI-INVASIVE SURGERY |
WO2020190832A1 (en) * | 2019-03-20 | 2020-09-24 | Covidien Lp | Robotic surgical collision detection systems |
US11931901B2 (en) * | 2020-06-30 | 2024-03-19 | Auris Health, Inc. | Robotic medical system with collision proximity indicators |
-
2021
- 2021-06-10 US US17/344,658 patent/US20220395342A1/en active Pending
-
2022
- 2022-06-07 CN CN202280040367.9A patent/CN117425449A/zh active Pending
- 2022-06-07 EP EP22741395.2A patent/EP4351467A1/en active Pending
- 2022-06-07 WO PCT/IL2022/050603 patent/WO2022259245A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
US20220395342A1 (en) | 2022-12-15 |
WO2022259245A1 (en) | 2022-12-15 |
EP4351467A1 (en) | 2024-04-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220395342A1 (en) | Multi-arm robotic systems and methods for monitoring a target or performing a surgical procedure | |
US20230113312A1 (en) | Systems, methods, and devices for defining a path for a robotic arm | |
US20220241032A1 (en) | Multi-arm robotic systems and methods for identifying a target | |
WO2024089561A1 (en) | Systems and methods for controlling one or more surgical tools | |
US20220346882A1 (en) | Devices, methods, and systems for robot-assisted surgery | |
CN117769399A (zh) | 基于工作体积映射的路径规划 | |
EP4346686A1 (en) | System and method of gesture detection and device positioning | |
EP4284287A1 (en) | Multi-arm robotic systems for identifying a target | |
WO2022162670A1 (en) | Bone entry point verification systems and methods | |
US20240358461A1 (en) | Multi-arm robotic systems and methods for monitoring a target or performing a surgical procedure | |
US11847809B2 (en) | Systems, devices, and methods for identifying and locating a region of interest | |
US20230278209A1 (en) | Systems and methods for controlling a robotic arm | |
US20230240763A1 (en) | Systems, methods, and devices for drilling and imaging an anatomical element | |
US20230240774A1 (en) | Systems and methods for robotic collision avoidance using medical imaging | |
US20230389991A1 (en) | Spinous process clamp registration and methods for using the same | |
US20230404692A1 (en) | Cost effective robotic system architecture | |
US20220241016A1 (en) | Bone entry point verification systems and methods | |
US20230240790A1 (en) | Systems, methods, and devices for providing an augmented display | |
US20230240659A1 (en) | Systems, methods, and devices for tracking one or more objects | |
US20230281869A1 (en) | Systems, methods, and devices for reconstructing a three-dimensional representation | |
WO2024180545A1 (en) | Systems and methods for registering a target anatomical element | |
CN118613225A (zh) | 结合光学跟踪和惯性测量的分段跟踪 | |
CN118647331A (zh) | 用于生成混合图像的系统和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |