CN111839732B - 用于在外科手术过程中减少跟踪中断的导航系统和方法 - Google Patents
用于在外科手术过程中减少跟踪中断的导航系统和方法 Download PDFInfo
- Publication number
- CN111839732B CN111839732B CN202010806484.4A CN202010806484A CN111839732B CN 111839732 B CN111839732 B CN 111839732B CN 202010806484 A CN202010806484 A CN 202010806484A CN 111839732 B CN111839732 B CN 111839732B
- Authority
- CN
- China
- Prior art keywords
- virtual
- view
- field
- manipulator
- locator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 86
- 238000001356 surgical procedure Methods 0.000 title abstract description 44
- 230000033001 locomotion Effects 0.000 claims abstract description 111
- 230000004044 response Effects 0.000 claims description 49
- 239000000463 material Substances 0.000 claims description 18
- 230000000007 visual effect Effects 0.000 claims description 10
- 230000000903 blocking effect Effects 0.000 claims description 6
- 238000005520 cutting process Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 abstract description 14
- 210000000988 bone and bone Anatomy 0.000 description 43
- 230000003287 optical effect Effects 0.000 description 43
- 210000002303 tibia Anatomy 0.000 description 22
- 238000004891 communication Methods 0.000 description 18
- 210000003484 anatomy Anatomy 0.000 description 14
- 210000000689 upper leg Anatomy 0.000 description 14
- 230000008569 process Effects 0.000 description 7
- 210000001519 tissue Anatomy 0.000 description 6
- QQAHEGDXEXIQPR-UHFFFAOYSA-N 2-(ethylamino)-1-phenylpentan-1-one Chemical compound CCCC(NCC)C(=O)C1=CC=CC=C1 QQAHEGDXEXIQPR-UHFFFAOYSA-N 0.000 description 5
- 102100032262 E2F-associated phosphoprotein Human genes 0.000 description 5
- 101710155837 E2F-associated phosphoprotein Proteins 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 5
- 239000007943 implant Substances 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 210000003414 extremity Anatomy 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 210000004417 patella Anatomy 0.000 description 2
- 230000035515 penetration Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 206010002091 Anaesthesia Diseases 0.000 description 1
- 238000002679 ablation Methods 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000037005 anaesthesia Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000001444 catalytic combustion detection Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 238000002513 implantation Methods 0.000 description 1
- 208000015181 infectious disease Diseases 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 238000003754 machining Methods 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000399 orthopedic effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/76—Manipulators having means for providing feel, e.g. force or tactile feedback
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
Landscapes
- Health & Medical Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Robotics (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Manipulator (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Surgical Instruments (AREA)
Abstract
本公开涉及用于在外科手术过程中减少跟踪中断的导航系统和方法。用于减少外科手术期间跟踪中断的导航系统和方法。虚拟边界发生器生成与跟踪设备和定位器相关联的虚拟边界。碰撞检测器评估虚拟物体相对于虚拟边界的移动,以检测虚拟物体与虚拟边界之间的碰撞。反馈发生器响应于碰撞检测,以减少跟踪设备与定位器之间的跟踪中断。
Description
本申请是申请日为2016年2月24日、申请号为201680008515.3,发明名称为“用于在外科手术过程中减少跟踪中断的导航系统和方法”的发明专利申请的分案申请。
对相关申请的交叉引用
本申请要求于2015年2月25日提交的美国临时专利申请No.62/120,585的优先权和权益,其全部内容通过引用并入本文。
技术领域
本公开一般而言涉及用于在外科手术过程中减少跟踪中断的导航系统和方法。
背景技术
导航系统辅助用户定位物体。例如,导航系统用在工业、航空航天和医疗应用中。在医疗领域中,导航系统辅助外科医生相对于患者的解剖结构放置外科手术工具。使用导航系统的外科手术包括神经外科和矫形外科手术。通常,工具和解剖结构与显示器上显示的它们的相对移动一起被跟踪。
导航系统可以采用光信号、声波、磁场、射频信号等,以便跟踪物体的位置和/或朝向。导航系统常常包括附连到被跟踪的物体的跟踪设备。定位器与跟踪设备上的跟踪元件协作,以确定跟踪设备的位置,并最终确定物体的位置和/或朝向。导航系统经由跟踪设备监视物体的移动。
许多导航系统依赖跟踪元件与定位器的传感器之间无阻碍的视线,其中传感器接收来自跟踪元件的跟踪信号。这些导航系统还依赖位于定位器的视场内的跟踪元件。因此,已经努力减少阻碍跟踪元件与传感器之间的视线的可能性并将跟踪元件维持在定位器的视场内。例如,在一些导航系统中,在导航系统的初始设置期间,显示器以图形方式表示定位器的视场,以指导跟踪设备的初始放置,使得跟踪元件位于视线没有障碍的视场内。但是,这种导航系统不能防止在手术过程中由于物体移动到视线内而可能出现的视线障碍,例如在初始设置之后和对患者的治疗期间,或者不能防止跟踪元件移动到视场之外。
当视线被阻挡时,或者当跟踪元件在视场之外时,由跟踪元件发送的跟踪信号不被定位器接收。因此,会发生错误。通常,在这种情况下,停止导航,并且将错误消息传送给用户,直到再次接收到跟踪信号或导航系统被重置为止。这会造成外科手术的延误。例如,如果发生这些错误,那么依赖导航数据相对于患者组织自主定位刀具的操纵器必须停止操作。这会显著增加外科手术时间,特别是如果在恢复视线方面出现困难的话。这与要求减少手术时间以便减少感染风险和延长使用麻醉相关的风险的现代医学实践的需求相反。
因此,在本领域中需要减少跟踪设备与接收来自跟踪设备的信号的定位器之间的跟踪中断的导航系统和方法,使得外科手术不间断。
发明内容
在一个实施例中,提供了用于减少由物体造成的跟踪中断的导航系统。导航系统包括具有视场的定位器。跟踪设备放置在视场内,以建立与定位器的视线关系。虚拟边界发生器基于跟踪设备与定位器之间的视线关系生成虚拟视线边界。虚拟边界发生器还更新虚拟视线边界,以考虑在外科手术期间跟踪设备与定位器之间的相对移动。物体在虚拟空间中被定义为虚拟物体。碰撞检测器评估虚拟物体相对于虚拟视线边界的移动,以检测虚拟物体与虚拟视线边界之间的碰撞,以便能够对检测进行响应,从而防止物体阻挡跟踪设备与定位器之间的视线。
还提供了用于减少跟踪设备与导航系统的定位器之间的跟踪中断的方法。该方法包括在定位器的视场内检测跟踪设备。基于跟踪设备与定位器之间的视线关系生成虚拟视线边界。更新虚拟视线边界,以考虑跟踪设备与定位器之间的相对移动。虚拟物体与定位器的视场中的物体相关联。基于对虚拟物体与虚拟视线边界之间的相对移动的评估,在虚拟物体与虚拟视线边界之间检测到碰撞,以便能够对检测进行响应,从而防止物体阻挡跟踪设备与定位器之间的视线。
提供了用于减少跟踪中断的另一种导航系统。该系统包括具有视场的定位器。跟踪设备放置在视场内,使得定位器能够从跟踪设备接收信号。虚拟物体与跟踪设备相关联。虚拟边界发生器基于定位器的视场生成虚拟视场边界。碰撞检测器评估虚拟物体相对于虚拟视场边界的移动,以检测虚拟物体与虚拟视场边界之间的碰撞,并使得能够对碰撞进行响应,从而防止跟踪设备移动到定位器的视场之外。
还提供了用于减少跟踪设备与导航系统的定位器之间的跟踪中断的另一种方法。该方法包括在定位器的视场内检测跟踪设备。基于定位器的视场生成虚拟视场边界。虚拟物体与跟踪设备相关联。跟踪虚拟物体相对于虚拟视场边界的移动,以便检测虚拟物体与虚拟视场边界之间的碰撞,并使得能够对碰撞进行响应,从而防止跟踪设备移动到定位器的视场之外。
这些导航系统和方法的一个优点是减少跟踪设备与接收来自跟踪设备的信号的定位器之间的跟踪中断,使得可以避免外科手术的中断。这种中断可以由干扰跟踪设备与定位器之间的视线的物体或者由于跟踪设备移动到定位器的视场之外而引起。
附图说明
当结合附图考虑时,通过参考以下详细描述可以更好地理解本发明的优点,其中:
图1是用来从工件去除材料的材料去除系统的透视图;
图2是材料去除系统的示意图;
图3是在材料去除系统中使用的坐标系的示意图;
图4是接头(joint)马达控制器和传感器的示意图;
图5图示了定位器坐标系中的虚拟物体;
图6图示了定位器的视场和位于视场中的跟踪器的顶视图和侧视图;
图7图示了跟踪器与定位器之间的虚拟视线边界;
图8是图示虚拟物体与虚拟视线边界之间的碰撞的显示器的屏幕截图;
图9是向用户示出指示以避免视线阻挡的显示器的屏幕截图;
图10图示了跨虚拟视线边界的虚拟物体以及为避免或消除碰撞而生成的相关联的反馈力;
图11是向用户示出指示以避免跟踪器移动到视场之外的显示器的屏幕截图;以及
图12是在一个方法中执行的步骤的流程图。
具体实施方式
参考图1,图示了用于从工件去除材料的材料去除系统10。材料去除系统10在外科手术设置中示出,诸如在医疗设施的手术室中。在所示的实施例中,材料去除系统10包括加工台12和导航系统20。导航系统20被设置成跟踪手术室中的各种物体的移动。这种物体包括例如外科手术工具22、患者的股骨F和患者的胫骨T。导航系统20跟踪这些物体的目的是为了向外科医生显示它们的相对位置和朝向,并且,在一些情况下,为了控制或约束外科手术工具22相对于与股骨F和胫骨T相关联的虚拟切割边界(未示出)的移动。
导航系统20包括容纳导航计算机26的计算机推车组件24。导航接口与导航计算机26可操作地通信。导航接口包括适于位于无菌场外的第一显示器28以及适于位于无菌区域内的第二显示器29。显示器28、29可调节地安装到计算机推车组件24。可以使用诸如键盘和鼠标的第一和第二输入设备30、32将信息输入到导航计算机26中,或以其它方式选择/控制导航计算机26的某些方面。包括触摸屏(未示出)或语音激活的其它输入设备是预期的。
定位器34与导航计算机26通信。在所示的实施例中,定位器34是光学定位器并且包括相机单元36。相机单元36具有容纳一个或多个光学位置传感器40的外壳38。在一些实施例中,采用至少两个光学传感器40,优选地是三个或四个(示出了三个)。光学传感器40可以是分离的电荷耦合器件(CCD)。在一个实施例中,采用一维CCD。应当认识到的是,在其它实施例中,也可以在手术室周围布置各自具有分离的CCD或者两个或更多个CCD的分离的相机单元。CCD检测红外(IR)信号。
相机单元36安装在可调节的臂上,以使光学传感器40定位在下面讨论的跟踪器的视场内,理想地,没有障碍物。在一些实施例中,相机单元36通过围绕旋转接头旋转而在至少一个自由度中是可调节的。在其它实施例中,相机单元36可以关于两个或更多个自由度可调节。
相机单元36包括与光学传感器40通信的相机控制器42,以接收来自光学传感器40的信号。相机控制器42通过或者有线或者无线连接(未示出)与导航计算机26通信。一种这样的连接可以是IEEE 1394接口,其是用于高速通信和等时实时数据传送的串行总线接口标准。连接也可以使用特定于公司的协议。在其它实施例中,光学传感器40直接与导航计算机26通信。
位置和朝向信号和/或数据被发送到导航计算机26,用于跟踪物体。计算机推车组件24、显示器28和相机单元36可以类似于Malackowski等人于2010年5月25日发布的标题为“Surgery System”的美国专利No.7,725,162中所描述的那些,该专利通过引用并入本文。
导航计算机26可以是个人计算机或膝上型计算机。导航计算机26具有显示器28、中央处理单元(CPU)和/或其它处理器、存储器(未示出)和存储装置(未示出)。导航计算机26加载有如下所述的软件。软件将从相机单元36接收的信号转换为表示被跟踪物体的位置和朝向的数据。
导航系统20可与多个跟踪设备44、46、48一起操作,这些跟踪设备在本文也被称为跟踪器。在所示的实施例中,一个跟踪器44牢固地固定到患者的股骨F,而另一个跟踪器46牢固地固定到患者的胫骨T。跟踪器44、46牢固地固定到骨的部分。跟踪器44、46可以以通过引用并入本文的美国专利No.7,725,162中所示的方式附连到股骨F和胫骨T。跟踪器44、46也可以如2014年1月16日提交的标题为“Navigation Systems and Methods forIndicating and Reducing Line-of-Sight Errors”的美国专利申请No.14/156,856中所示的那样安装,该申请通过引用并入本文。在附加的实施例中,跟踪器(未示出)附连到髌骨,以跟踪髌骨的位置和朝向。在还有另外的实施例中,跟踪器44、46可以被安装到解剖结构的其它组织类型或部分。
工具跟踪器48牢固地附连到外科手术工具22。工具跟踪器48可以在制造期间被集成到外科手术工具22中,或者可以分开安装到外科手术工具22以准备外科手术。通过工具跟踪器48被跟踪的外科手术工具22的工作端可以是旋转钻头(bur)、电消融设备等。
跟踪器44、46、48可以利用内部电池进行电池供电,或者可以具有引线,以通过导航计算机26接收电力,导航计算机26像相机单元36一样优选地接收外部电力。
在所示实施例中,外科手术工具22附连到机加工站12的操纵器56。这种布置在标题为“Surgical Manipulator Capable of Controlling a Surgical Instrument inMultiple Modes”的美国专利No.9,119,655中示出,该专利的公开内容通过引用并入本文。
参考图2,定位器34的光学传感器40接收来自跟踪器44、46、48的光信号。在所示实施例中,跟踪器44、46、48是有源跟踪器。在这个实施例中,每个跟踪器44、46、48具有至少三个用于将光信号发送到光学传感器40的有源跟踪元件或标记。有源标记可以是例如发送光(诸如红外光)的发光二极管或LED 50。光学传感器40优选地具有100Hz或以上的采样率,更优选地是300Hz或以上,最优选地是500Hz或以上。在一些实施例中,光学传感器40具有8000Hz的采样率。采样率是光学传感器40从顺序点亮的LED 50接收光信号的速率。在一些实施例中,来自LED 50的光信号对于每个跟踪器44、46、48以不同的速率被点亮。
LED 50中的每一个连接到位于相关联的跟踪器44、46、48的壳体中的跟踪器控制器(未示出),其中跟踪器向导航计算机26发送数据/从导航计算机26接收数据。在一个实施例中,跟踪器控制器通过与导航计算机26的有线连接来发送若干兆字节/秒的数量级的数据。在其它实施例中,可以使用无线连接。在这些实施例中,导航计算机26具有从跟踪器控制器接收数据的收发器(未示出)。
在其它实施例中,跟踪器44、46、48可以具有无源标记(未示出),诸如反射从相机单元36发射的光的反射器。反射光然后被光学传感器40接收。有源和无源布置在本领域中是众所周知的。
在一些实施例中,跟踪器44、46、48还包括陀螺仪传感器和加速度计,诸如在2013年9月24日提交的标题为“Navigation System Including Optical and Non-OpticalSensors”的美国专利No.9,008,757中所示的跟踪器,该专利通过引用并入本文。
导航计算机26包括导航处理器52。应当理解的是,导航处理器52可以包括一个或多个处理器,以控制导航计算机26的操作。处理器可以是任何类型的微处理器或多处理器系统。术语“处理器”不意在将任何实施例的范围限于单个处理器。
相机单元36从跟踪器44、46、48的LED 50接收光信号,并向处理器52输出与跟踪器44、46、48的LED 50相对于定位器34的位置相关的信号。基于接收到的光信号(并且在一些实施例中是非光学信号),导航处理器52生成指示跟踪器44、46、48相对于定位器34的相对位置和朝向的数据。在一个版本中,导航处理器52使用众所周知的三角测量方法来确定位置数据。
在外科手术开始之前,附加数据被加载到导航处理器52中。基于跟踪器44、46、48的位置和朝向以及先前加载的数据,导航处理器52确定外科手术工具22的工作端(例如,外科手术钻头的质心)的位置以及外科手术工具22相对于要应用工作端的组织的朝向。在一些实施例中,导航处理器52将这些数据转发到操纵器控制器54。然后,操纵器控制器54可以使用数据来控制操纵器56,如标题为“Surgical Manipulator Capable of Controlling aSurgical Instrument in Multiple Modes”的美国专利No.9,119,655中所述,其公开内容通过引用并入本文。
在一个实施例中,操纵器56被控制成停留在由外科医生(未示出)设定的术前定义的虚拟边界内,外科医生定义要由外科手术工具22去除的股骨F和胫骨T的材料。更具体而言,股骨F和胫骨T中的每一个都具有由外科手术工具22的工作端去除的材料的目标体积。目标体积由一个或多个虚拟切割边界定义。虚拟切割边界定义在手术后应当保留的骨的表面。导航系统20跟踪并控制外科手术工具22,以确保工作端(例如,外科手术钻头)仅去除目标体积的材料,而不延伸超出虚拟切割边界,如在标题为“Surgical Manipulator Capableof Controlling a Surgical Instrument in Multiple Modes”的美国专利No.9,119,655中所公开的,其公开内容通过引用并入本文。
虚拟切割边界可以在股骨F和胫骨T的虚拟模型内定义并且被表示为网格表面、构造性实体几何(CSG)、体素或使用其它边界表示技术。外科手术工具22从股骨F和胫骨T切除材料,以接收植入物。外科植入物可以包括单室、双室或全膝关节植入物,如标题为“Prosthetic Implant and Method of Implantation”美国专利申请No.13/530,927中所示,其公开内容通过引用并入本文。
导航处理器52还生成指示工作端与组织的相对位置的图像信号。这些图像信号被应用于显示器28、29。基于这些信号,显示器28、29生成允许外科医生和工作人员查看工作端与手术部位的相对位置的图像。如上面所讨论的,显示器28、29可以包括允许输入命令的触摸屏或其它输入/输出设备。
参考图3,一般参考定位器坐标系LCLZ进行物体的跟踪。定位器坐标系具有原点和朝向(x、y和z轴的集合)。在该过程中,一个目标是将定位器坐标系LCLZ保持在已知位置。安装到定位器34的加速度计(未示出)可以被用来跟踪定位器坐标系LCLZ的突然或意外移动,如当定位器34无意中被外科手术人员撞击时可能发生的那样。
每个跟踪器44、46、48和被跟踪的物体还具有与定位器坐标系LCLZ分离的其自己的坐标系。具有其自己的坐标系的导航系统20的部件是骨跟踪器44、46和工具跟踪器48。这些坐标系分别被表示为骨跟踪器坐标系BTRK1、BTRK2和工具跟踪器坐标系TLTR。
导航系统20通过监测牢固地附连到骨头的骨跟踪器44、46的位置来监视患者的股骨F和胫骨T的位置。股骨坐标系是FBONE,胫骨坐标系是TBONE,它们是骨跟踪器44、46牢固附连到的骨头的坐标系。
在手术开始之前,生成股骨F和胫骨T(或者在其它实施例中是其它组织)的术前图像。这些图像可以基于患者解剖结构的MRI扫描、放射学扫描或计算机断层(CT)扫描。这些图像使用本领域中众所周知的方法映射到股骨坐标系FBONE和胫骨坐标系TBONE。这些图像固定在股骨坐标系FBONE和胫骨坐标系TBONE中。作为拍摄术前图像的替代方案,可以在手术室(OR)中从运动学研究、骨追踪和其它方法开发治疗计划。
在手术的初始阶段期间,骨跟踪器44、46牢固地固定到患者的骨头。坐标系FBONE和TBONE的姿势(位置和朝向)分别被映射到坐标系BTRK1和BTRK2。在一个实施例中,具有其自己的跟踪器PT(参见图1)的指针仪器P(参见图1),诸如在通过引用并入本文的Malackowski等人的美国专利No.7,725,162中所公开的,可以被用来将股骨坐标系FBONE和胫骨坐标系TBONE分别配准到骨跟踪器坐标系BTRK1和BTRK2。给定骨头与其骨跟踪器44、46之间的固定关系,股骨坐标系FBONE和胫骨坐标系TBONE中股骨F和胫骨T的位置和朝向可以被变换到骨跟踪器坐标系BTRK1和BTRK2,使得相机单元36能够通过跟踪骨跟踪器44、46来跟踪股骨F和胫骨T。这些姿态描述数据存储在与操纵器控制器54和导航处理器52两者一体的存储器中。
外科手术工具22的工作端(也被称为能量施加器远端)具有其自己的坐标系EAPP。例如,坐标系EAPP的原点可以表示外科切割钻头的质心。坐标系EAPP的姿态在手术开始之前固定成工具跟踪器坐标系TLTR的姿态。因而,确定这些坐标系EAPP、TLTR相对于彼此的姿态。姿态描述数据存储在与操纵器控制器54和导航处理器52两者一体的存储器中。
参考图2,定位引擎100是可以被认为是导航系统20的一部分的软件模块。定位引擎100的部件在导航处理器52上运行。在一些实施例中,定位引擎100可以在操纵器控制器54上运行。
定位引擎100接收来自相机控制器42的基于光学的信号以及,在一些实施例中,来自跟踪器控制器的非基于光学的信号,作为输入。基于这些信号,定位引擎100确定定位器坐标系LCLZ中骨跟踪器坐标系BTRK1和BTRK2的姿态。基于为工具跟踪器48接收的相同信号,定位引擎100确定定位器坐标系LCLZ中工具跟踪器坐标系TLTR的姿态。
定位引擎100将表示跟踪器44、46、48的姿势的信号转发到坐标变换器102。坐标变换器102是在导航处理器52上运行的导航系统软件模块。坐标变换器102参考定义患者的术前图像与骨跟踪器44、46之间的关系的数据。坐标变换器102还存储指示外科手术工具22的工作端相对于工具跟踪器48的姿态的数据。
在手术期间,坐标变换器102接收指示跟踪器44、46、48相对于定位器34的姿态的数据。基于这些数据和先前加载的数据,坐标变换器102生成指示坐标系EAPP以及骨坐标系FBONE和TBONE相对于定位器坐标系LCLZ的相对位置和朝向的数据。
因此,坐标变换器102生成指示外科手术工具22的工作端相对于施加工作端的组织(例如,骨头)的位置和朝向的数据。表示这些数据的图像信号被转发到显示器28、29,从而使外科医生和工作人员能够查看这种信息。在某些实施例中,表示这些数据的其它信号可以被转发到操纵器控制器54,以引导操纵器56以及外科手术工具22的对应移动。
在图1中所示的实施例中,外科手术工具22形成操纵器56的端部效应器的一部分。操纵器56具有基部57、从基部57延伸的多个连杆58,以及用于使外科手术工具22相对于基部57移动的多个有源接头(未编号)。操纵器56具有在手动模式或半自主模式下操作的能力,其中外科手术工具22沿着预定义的工具路径自主移动,如标题为“SurgicalManipulator Capable of Controlling a Surgical Instrument in Multiple Modes”的美国专利No.9,119,655中所述,其公开内容通过引用并入本文。
操纵器控制器54可以使用患者的解剖结构和外科手术工具22的位置和朝向数据来控制操纵器56,如在标题为“Surgical Manipulator Capable of Controlling aSurgical Instrument in Multiple Modes”的美国专利No.9,119,655中所述,其公开内容通过引用并入本文。
操纵器控制器54可以具有中央处理单元(CPU)和/或其它操纵器处理器、存储器(未示出)和存储装置(未示出)。也称为操纵器计算机的操纵器控制器54加载有如下所述的软件。操纵器处理器可以包括一个或多个处理器,以控制操纵器56的操作。处理器可以是任何类型的微处理器或多处理器系统。术语“处理器”不意在将任何实施例限制为单处理器。
参考图4,多个位置传感器112、114、116与操纵器56的多个连杆58相关联。在一个实施例中,位置传感器112、114、116是编码器。位置传感器112、114、116可以是任何合适类型的编码器,诸如旋转编码器。每个位置传感器112、114、116与诸如马达M的致动器相关联。每个位置传感器112、114、116是监视操纵器56的三个马达驱动部件之一的角位置的传感器,其中位置传感器与马达驱动部件相关联。操纵器56包括两个附加位置传感器117和118。位置传感器117和118与附加的驱动连杆相关联。在一些实施例中,操纵器56包括在六个有源接头处具有六个位置传感器的两个臂结构。标题为“Surgical Manipulator Capable ofControlling a Surgical Instrument in Multiple Modes”的美国专利No.9,119,655中描述了一种这样的实施例,其公开内容通过引用并入本文。
操纵器56可以是常规机器人系统或其它常规加工装置的形式,因此不对其部件进行详细描述。
操纵器控制器54确定外科手术工具22应当移动到的期望位置。基于这种确定以及与外科手术工具22的当前位置(例如,姿态)相关的信息,为了将外科手术工具22从当前位置重新定位到期望的位置,操纵器控制器54确定多个连杆58中的每一个需要移动的程度。关于多个连杆58要定位在何处的数据被转发到接头马达控制器119,该控制器119控制操纵器56的有源接头,以移动多个连杆58,并由此将外科手术工具22从当前位置移动到期望的位置。
为了确定外科手术工具22的当前位置,使用来自位置传感器112、114、116、117和118的数据来确定测得的接头角度。测得的有源接头的接头角度被转发到正向运动学模块,如本领域中已知的。还施加到正向运动学模块的是来自位置传感器117和118的信号。这些信号是用于与这些编码器一体的无源接头的测得的接头角度。基于测得的接头角度和预加载的数据,正向运动学模块确定外科手术工具22在操纵器坐标系MNPL中的姿态。预加载的数据是定义多个连杆58和接头的几何形状的数据。利用这种信息,操纵器控制器54和/或导航处理器52可以将来自定位器坐标系LCLZ的坐标转换为操纵器坐标系MNPL,或者反之亦然。
在一个实施例中,操纵器控制器54和接头马达控制器119共同形成位置控制器,位置控制器操作以将外科手术工具22移动到期望的位置和/或朝向。位置控制器在位置控制回路中操作。位置控制回路可以包括对于每个有源接头并联或串联的多个位置控制回路。位置控制回路处理位置和朝向信息,以指示并指导外科手术工具22的姿态。
在操纵器56的操作期间,应当维持跟踪器44、46、48与定位器34之间的视线,以确保外科手术工具22准确地移动到期望的位置和/或朝向。视线被阻挡或阻碍的时间段可能需要材料去除系统10显示错误信息并停止操纵器56的操作,直到视线返回或者导航系统20被复位为止。这会造成外科手术的延误。这会显著增加外科手术时间,特别是如果在恢复视线方面出现困难的话。
如果任何一个光学传感器40都不能接收来自LED 50的信号,那么导航计算机26确定存在错误,即使另一个光学传感器40仍然可以接收信号。在其它实施例中,如果光学传感器40中没有一个接收到信号,那么导航计算机26确定存在错误。在任一情况下,当导航系统20基于一个或多个光学传感器40不能接收来自一个或多个LED 50的信号而确定存在错误时,由导航计算机26生成错误信号。错误信息然后出现在显示器28、29上。导航计算机26还向跟踪器控制器发送错误信号。
在一些实施例中,跟踪器44可以包括四个或更多个跟踪LED 50,使得如果来自LED50之一的跟踪信号被阻碍,那么仍然可以使用剩余的LED 50获得位置和朝向数据。在这种情况下,在生成任何错误信号之前,导航计算机26将首先运行完整的跟踪循环。完整的跟踪循环包括顺序激活跟踪器44上的所有LED 50,以确定光学传感器40是否在该跟踪循环中从至少三个LED 50接收到跟踪信号。然后,如果光学传感器40(或者在一些实施例中是所有光学传感器40)在跟踪循环中没有从至少三个LED 50接收到跟踪信号,那么生成错误信号,并且显示错误消息。在下面进一步描述的一些实施例中,导航系统20减少了视线障碍的可能性,以避免这种错误消息。
视线障碍阻挡从跟踪器44、46、48的LED 50发送到定位器34的光学传感器40的光信号。通过跟踪可能导致这种视线障碍物的物体,并且如果有任何物体存在阻挡或阻碍跟踪设备44、46、48中的一个与定位器34之间的视线的风险就向用户生成反馈,导航系统20在手术中(即,在外科手术过程中)减少这些视线障碍。
可以造成视线障碍的物体包括在外科手术期间可能位于定位器34的视场内的任何物理物体。这种物理物体的示例包括与跟踪器44、46、48中的每一个或其部分相关联的结构。其它物理物体可以包括可以位于定位器34的视场内的外科手术工具22、外科手术部位的牵开器、肢体支架、其它工具、外科手术人员或者这些当中任何一个的部分。如果未被检查,那么这些物理物体可能以造成视线障碍的方式移动。导航系统20跟踪这些物理物体中的每一个的位置和朝向,并且在视线障碍发生之前向用户生成反馈,以至少减少并理想地防止视线障碍。
为了跟踪这些物理物体,对可能造成视线障碍的每个物理物体在虚拟空间中建模。这些模型被称为虚拟物体。虚拟物体是在定位器34的视场内被跟踪的每个物理物体(诸如跟踪器44、46、48、外科手术工具22、牵开器、肢体支架、其它工具或外科手术人员)的定位器坐标系LCLZ中的映射。虚拟物体可以由多边形表面、样条或代数曲面(包括参数化曲面)表示。在一个更具体的版本中,这些表面呈现为三角形网格。每个多边形的角由定位器坐标系LCLZ中的点定义。定义每个虚拟物体边界或网格的一部分的个体区域部分被称为瓦片。虚拟物体也可以使用基于体素的模型或其它建模技术由3-D体积表示。
参考图5,为了说明的目的,在定位器坐标系LCLZ中示出了与跟踪器44、46、48和外科手术工具22的物理结构相关联的虚拟物体44’、46’、48’、22’。要指出的是,为了计算效率的目的,虚拟物体44’、46’、48’、22’被建模为简单形状。此外,与工具跟踪器48和外科手术工具22相关联的工具跟踪器和工具虚拟物体48’和22’相对于彼此固定,并且可以替代地被表示为单个虚拟物体。
可以通过跟踪工具跟踪器48来跟踪工具跟踪器和工具虚拟物体48’和22’。特别地,工具跟踪器和工具虚拟物体48’和22’的几何模型被存储在存储器中,并且它们与工具跟踪器48上的LED 50的关系是已知的。骨跟踪器虚拟物体44’和46’可以通过跟踪骨跟踪器44、46进行跟踪。特别地,骨跟踪器虚拟物体44’和46’的几何模型被存储在存储器中,并且它们与骨跟踪器44、46上的LED 50的关系是已知的。其它跟踪设备(未示出)可以附连到其它物理物体(诸如位于定位器34的视场中的牵开器、肢体支架、其它工具或手术人员),以便跟踪这些其它物理物体。
在外科手术开始之前,跟踪器44、46、48中的每一个被放置在定位器34的视场中。显示器28、29以图形方式从顶部和侧面视角描绘定位器34的视场,如图6中所示,以便可视地确认跟踪器44、46、48被放置到定位器34的视场中。视场由光学传感器40的空间关系和用于接收来自跟踪器44、46、48的LED 50的光的光学传感器40的范围定义。然后,导航系统20验证每个跟踪器44、46、48在视场中可见。一旦通过验证,外科手术就可以开始。
参考图7,虚拟边界发生器104(参见图2)基于跟踪设备44、46、48中的每一个与定位器34之间的视线关系生成虚拟视线边界106、108、110。虚拟视线边界106、108、110描绘物理物体应当被限制进入其中的空间,使得来自每个跟踪设备44、46、48的LED 50的光能够被发送到定位器34的光学传感器40而没有障碍或阻挡。
在一些实施例中,虚拟视线边界106、108、110是圆柱形、球形或截头圆锥形,如图7中所示。其它形状也是可能的。在其它实施例中,虚拟视线边界被表示为线(例如,从每个LED到每个光学传感器40的线)。图7中所示的虚拟视线边界106、108、110从在跟踪设备44、46、48中的每一个上围绕LED 50定义的第一端112、114、116延伸到围绕定位器34的光学传感器40定义的第二端118。虚拟视线边界106、108、110尺寸可以过大,使得物理物体可以稍微地穿透到虚拟视线边界中,以便检测碰撞,如下面进一步解释的,而不会造成视线障碍。
虚拟边界发生器104更新虚拟视线边界106、108、110,以考虑在外科手术期间跟踪设备44、46、48与定位器34之间的相对移动。每当导航系统20对于跟踪设备44、46、48中的每一个从LED 50接收到完整信号集(例如,每个跟踪设备至少三个信号)时,更新可以发生。每当为外科手术工具22确定新命令的位置时,更新可以发生。在外科手术工具22由操纵器56控制的实施例中,用于确定每个新命令的位置的时间帧可以是每0.1至2毫秒。
虚拟边界发生器104是在导航处理器52或操纵器控制器54或二者之上运行的软件模块。虚拟边界发生器104生成定义虚拟视线边界106、108、110的映射(map)。虚拟边界发生器104的第一输入包括定位器坐标系LCLZ中用于每个跟踪设备44、46、48的每个LED50的位置和朝向。从这个LED姿态数据,可以定义第一端112、114、116的位置和朝向。虚拟边界发生器104的第二输入包括定位器坐标系LCLZ中定位器34的每个光学传感器40的位置和朝向。从这个光学传感器姿态数据,可以定义第二端118围绕光学传感器40的位置和朝向。基于上面的数据并且通过指令,虚拟边界发生器104生成定义定位器坐标系LCLZ中虚拟视线边界106、108、110的映射。
在一些实施例中,虚拟边界发生器104将虚拟视线边界生成为多边形表面、样条或代数表面(包括参数化表面)。在一个更具体的版本中,这些表面呈现为三角形网格。每个多边形的角由定位器坐标系LCLZ中的点定义。定义每个虚拟视线边界或网格的一部分的个体区域部分被称为瓦片(tile)。虚拟视线边界也可以使用基于体素的模型或其它建模技术表示为3-D体积。
碰撞检测器120(参见图2)评估虚拟物体44’、46’、48’、22’相对于虚拟视线边界106、108、110的移动,以检测虚拟物体44’、46’、48’、22’与虚拟视线边界106、108、110(其也是有效地虚拟物体)之间的碰撞。更具体而言,碰撞检测器120检测表示虚拟物体44’、46’、48’、22’的几何模型与表示虚拟视线边界106、108、110的几何模型之间的碰撞。碰撞检测包括检测实际的虚拟碰撞或在发生之前预测虚拟碰撞。
由碰撞检测器120执行的跟踪的目的是为了防止任何物理物体阻碍跟踪设备44、46、48的LED 50与定位器34的光学传感器40之间的视线。碰撞检测器120的第一输入是在定位器34的视场中被跟踪的虚拟物体44’、46’、48’、22’中的每一个的映射。碰撞检测器120的第二输入是虚拟视线边界106、108、110中的每一个的映射。
碰撞检测器120是在导航处理器52或操纵器控制器54或两者之上运行的软件模块。碰撞检测器120可以使用用于检测虚拟物体44’、46’、48’、22’与虚拟视线边界106、108、110之间的碰撞的任何常规算法。例如,用于找到两个参数化表面的交点的合适的技术包括细分方法、点阵方法、追踪方法和分析方法。对于基于体素的虚拟物体,可以通过检测任何两个体素何时在定位器坐标系LCLZ中重叠来执行碰撞检测,如通过引入并入本文的美国专利No.5,548,694中所述。
反馈发生器122(参见图2)与碰撞检测器120通信,以响应对任何虚拟物体44’、46’、48’、22’与任何虚拟视线边界106、108、110之间的碰撞的检测。反馈生成器122是在导航处理器52或操纵器控制器54或二者之上运行的软件模块。反馈发生器122通过向用户提供一种或多种形式的反馈(包括可听、可视、振动或触觉反馈中的一个或多个)来响应碰撞的检测。
在一个实施例中,反馈发生器122以与导航处理器52通信的报警器124的形式来使得反馈设备激活,以响应于碰撞而向用户产生可听的警报。
参考图8,反馈发生器122还可以使显示器28、29显示表示碰撞的图像,使得用户可以确定如何避免碰撞(在已经预测到碰撞的情况下)或者反转碰撞(在碰撞已经发生的情况下)。可以通过示出受影响的虚拟视线边界106、108或110以及所涉及的物理物体与虚拟视线边界106、108、110碰撞或将要与之相碰撞的图形表示来表示碰撞。也可以在显示器28、29上显示所涉及的特定跟踪器44、46或48(即,将要被阻碍的跟踪器,诸如“股骨追踪器”)的文本描述。
在一些实施例中,使用虚拟物体被跟踪的定位器34的视场中的每个物理物体可以在显示器28、29上表示。在这种情况下,可以使用颜色编码来图示碰撞。例如,颜色红色可以在与虚拟视线边界106、108或110碰撞的物理物体的部分(通过其虚拟物体相关联)周围示出。受影响的跟踪器44、46或48也可以进行颜色编码(可能是相同或不同的颜色),以便在视觉上让用户立即看到哪个物理物体将阻碍哪个跟踪器视线,并且用户可以直观地避免阻碍。此外,箭头可以在显示器上以图形方式描绘,以显示物理物体应当移动的方向,以避免碰撞或反转碰撞。这些箭头可以基于由碰撞检测器120确定的反馈力的方向生成,如下面进一步描述的。
参考图9,响应于检测到碰撞,反馈发生器122还可以使显示器28、29向用户显示消息,包括重新定位患者的特定解剖结构的指令。特定的解剖结构可以包括将要被阻碍的骨跟踪器44、46附连到的解剖结构。例如,如果发现表示外科手术工具22的工具虚拟物体22’和与胫骨T上的骨跟踪器46相关联的虚拟视线边界108碰撞,那么导航处理器52可以使显示器28、29向用户显示“移动胫骨”的消息。特定消息可以存储在与可能碰撞的特定场景相关联的消息的查找表中。在这个示例中,这个消息位于具有工具虚拟物体22’已与虚拟视线边界108碰撞的场景的查找表中。基于定义为了避免或反转碰撞而采取的方向的避免或排斥向量,更详细的指令也是有可能的。指令可以是“移动胫骨”,具有如图9中所示在显示器28、29上进一步显示或闪烁的箭头A,其中箭头A处于避免或排斥向量的方向。
反馈发生器122还可以使显示器28、29响应于检测到碰撞而向用户显示消息,包括重新定位定位器34的指令。例如,如果发现表示外科手术工具22的工具虚拟物体22’和与胫骨T上的骨跟踪器46相关联的虚拟视线边界108相撞,那么导航处理器52可以使显示器28、29向用户显示“移动相机单元”的消息。特定消息可以存储在与可能碰撞的特定场景相关联的消息的查找表中。在这个示例中,这个消息位于具有工具虚拟物体22’已与虚拟视线边界108碰撞的场景的查找表中。
反馈发生器122还可以使显示器28、29响应于检测到碰撞而向用户显示消息,包括重新定位操纵器56的指令。例如,如果发现表示外科手术工具22的工具虚拟物体22’和与胫骨T上的骨跟踪器46相关联的虚拟视线边界108已经碰撞,那么导航处理器52可以使显示器28、29向用户显示“移动操纵器”的消息。特定消息可以存储在与可能碰撞的特定场景相关联的消息的查找表中。在这个示例中,这个消息位于具有工具虚拟物体22’已与虚拟视线边界108碰撞的场景的查找表中。可以使用这种反馈的一个原因是在外科手术工具22或胫骨T不能以其它方式被操纵以避免碰撞的情况下。此外,操纵器56具有有限的运动范围,并且如果操纵器56在那个受限范围的预定义阈值内,那么可能需要这个消息以在手术过程期间重新获得附加的运动范围以避免碰撞。
此外,反馈发生器122可以使用户以与虚拟物体44’、46’、48’、22’相关联的物理物体的振动的形式经历振动反馈,其中虚拟物体44’、46’、48’、22’与虚拟视线边界106、108、110相撞或将要与其碰撞。例如,当用户将外科手术工具22定位在手动模式下时,其中用户抓住外科手术工具22的手柄,如果工具虚拟物体22’与虚拟视线边界106、108、110碰撞或将要与之碰撞,那么振动设备126(诸如偏心马达)可以被致动。振动设备126安装到外科手术工具22,使得来自振动设备126的振动可以被发送到手柄。振动反馈向用户指示预期位会造成视线障碍,由此允许用户停止进一步运动并防止视线障碍。然后,用户可以确定将避免视线障碍的替代路线。
在一个实施例中,反馈发生器122通过利用避免或排斥碰撞的反馈力来响应于碰撞而向用户提供触觉反馈。反馈力由碰撞检测器120确定。反馈力可以具有这样的力和/或扭矩分量,该力和/或扭矩分量包括多达沿x、y和z轴的力的三个分量以及围绕这些轴的三个扭矩分量。
在一个示例中,当操纵器56在手动模式下操作时,反馈发生器122通过外科手术工具22向用户提供触觉反馈。这防止操纵器56将与外科手术工具22相关联的工具虚拟物体22’定位到与骨跟踪器44、46相关联的虚拟视线边界106、108中,由此避免任何视线障碍。在一个实施例中,碰撞检测器120通过预测如果操纵器56将外科手术工具22移动到命令的姿态是否将会发生虚拟碰撞但在操纵器控制器54实际将外科手术工具22移动到所命令的姿态之前来检测碰撞。如果预测到虚拟碰撞,那么控制操纵器56以将外科手术工具22移动到更改的命令的姿态,以避免碰撞。
在一些实施例中,操纵器56是无源操纵器。在这种情况下,触觉反馈在发生虚拟碰撞之后向用户提供反馈,以防止虚拟物体44’、46’、48’、22’的任何进一步穿透到受影响的虚拟视线边界106、108、110或来反转碰撞。因此,碰撞检测可以响应于实际的虚拟碰撞或预测的虚拟碰撞。因此,反馈发生器122确保外科手术工具22的手动模式定位被控制,使得工具虚拟物体22’停留在虚拟视线边界106、108之外或仅穿透到虚拟视线边界106、108中防止手术工具22造成骨跟踪器44、46与定位器34之间的视线障碍的程度。
当虚拟视线边界106、108由诸如网格的多边形表面表示时,碰撞检测器120识别工具虚拟物体22’可能在时间帧内跨过的任何边界定义瓦片。这个步骤常常被描述为宽阶段搜索。这个步骤通过识别在工具虚拟物体22’的既定距离(d)内的一个或多个瓦片集合来执行。这个既定的距离(d)是根据以下:工具虚拟物体22’的维度;工具虚拟物体22’相对于瓦片的速度(过去帧中的前进速度是可接受的);帧的时间段;定义边界定义部分的特征尺寸的标量;以及四舍五入因子。
作为执行宽阶段搜索的结果,碰撞检测器120可以确定,在正在执行这种分析的帧中,所有的瓦片都在既定的距离(d)之外。这意味着,在执行这种分析的帧的末尾,工具虚拟物体22’将不会前进到超出虚拟视线边界106、108中任何一个的位置。这由图10来图示,其中工具虚拟物体22’远离虚拟视线边界106而隔开。应当认识到的是,可以针对定义工具虚拟物体22’的点集合(诸如定义工具虚拟物体22’的外表面的点128a-128g)进行这种分析,其中分析每个点,以检测那个特定的点是否将跨过虚拟视线边界106。
由于外科手术工具22的持续前进不会造成任何视线障碍,因此碰撞检测器120不改变最初由操纵器控制器54命令的外科手术工具22的命令的姿态或命令的速度。因此,碰撞检测器120输出与最初由操纵器控制器54确定的相同的、用于外科手术工具22的最终命令的姿态和最终命令的速度。
碰撞检测器120可以替代地识别位于工具虚拟物体22’或点128a-128g的既定距离(d)内的边界定义瓦片的宽集合。碰撞检测器120然后识别宽瓦片集合中工具虚拟物体22’或工具虚拟物体22’上的任何点128a-128g可以跨过的边界定义瓦片的窄集合。这个步骤被称为窄阶段搜索。可以通过初始定义边界体积来执行该窄阶段搜索。这种设界体积在被认为是工具虚拟物体22’的初始和最终姿态之间延伸。如果这是第一次执行,那么工具虚拟物体22’的初始姿态基于外科手术工具22的先前命令的姿态;工具虚拟物体22’的最终姿态基于外科手术工具22的当前命令的姿态,即,如果碰撞检测器120没有检测到任何碰撞那么在这个帧内由操纵器控制器54生成的、外科手术工具22应当移动到的姿态。
以其最基本的形式,边界体积可以是从处于初始姿态的点128a-128g延伸到处于最终姿态的点128a-128g的线。一旦作为窄阶段搜索的一部分定义了设界体积,碰撞检测器120就确定宽瓦片集合中的哪一个(如果有的话)与这个设界体相交。与设界体积相交的瓦片是窄集合瓦片。
可以确定的是,宽瓦片集合没有一个与设界体积相交;窄集合是空集。如果这种评估测试为真,那么碰撞检测器120将这个条件解释为指示工具虚拟物体22’的最终姿态位于由虚拟视线边界106、108定义的体积之外。如果工具虚拟物体22’如此定位,那么原来命令的姿态和命令的速度不被碰撞检测器120更改,并且由碰撞检测器120作为最终命令的姿态和最终命令的速度输出。
可替代地,可以确定的是,设界体积跨过一个或多个瓦片;窄集合包含一个或多个瓦片。如果是这样,那么碰撞检测器120将这个条件解释为指示工具虚拟物体22’的最终姿态正在穿过边界。这个条件由图10图示。在这里,工具虚拟物体22’的初始姿态由实线表示,最终姿态由假想线表示。
如果入侵虚拟视线边界106、108的条件存在,那么下一步骤是确定工具虚拟物体22’(以及延伸开来还有外科手术工具22)的窄瓦片集合中的哪一个会首先跨过。如果设界体积包括线,那么对于每个瓦片,并且对于每条线,碰撞检测器120确定外科手术工具虚拟物体22’在跨过瓦片之前将在该帧期间前进的距离的百分比(参见图10中百分之七十的注释)。以最低百分比的距离被跨过的瓦片是被理解为首先被越过的瓦片。
定义最接近工具虚拟物体22’的瓦片的边界可以不是工具虚拟物体22’可能跨过的瓦片。如图10中所示,最初确定虚拟视线边界106的瓦片T1-T5在既定的距离(d)内,距离d是工具虚拟物体22’可能在时间帧内可能移动的距离。与工具虚拟物体22’最接近的瓦片是瓦片T4。但是,工具虚拟物体22’沿着轨迹移动,为了说明的目的,该轨迹朝向瓦片T3向下和向左。因此,碰撞检测器120确定瓦片T3是设界体积将相交的瓦片。
一旦碰撞检测器120一般而言确定如果操纵器控制器54将外科手术工具22移动到最初命令的姿态那么工具虚拟物体22’将跨过哪个边界定义瓦片,碰撞检测器120就确定时间(t)和点P。时间(t)是当工具虚拟物体22’将跨过虚拟视线边界106时相对于帧的开始的时段。这个时间(t)是基于在接触虚拟视线边界106之前工具虚拟物体22’将在该帧内前进的距离的百分比,在这种情况下,是距离的百分之七十,如图10中所示。这种确定是基于假设在任何给定的帧期间外科手术工具22的速度以及因此工具虚拟物体22’的速度是恒定的来进行的。点P是定位器坐标系LCLZ中工具虚拟物体22’将跨过瓦片的点。这个点P是通过计算工具虚拟物体22’的前进路径在哪里跨过瓦片来确定的。两个计算都使用首先跨过瓦片的特定点128a-128g的初始和最终姿态以及定义边界瓦片的周长的数据作为输入变量。
在一些实施例中,在这种情况下,由碰撞检测器120将原始命令的姿态更改为在与虚拟视线边界106接触之前外科手术工具22到达的位置和朝向,例如在距离/时间的百分之七十达到的位置和朝向。通过抓住外科手术工具22以期移动外科手术工具22整个百分之百的运动,用户将经历触觉反馈,类似于当运动停在百分之七十时遇到物理壁,即,仅更改位置和朝向。因此,外科手术工具22附连到的操纵器56被认为是将触觉反馈发送到用户的触觉设备。
在另一个实施例中,反馈发生器122确定要施加到外科手术工具22(被建模为虚拟刚体)的反馈力,以停止外科手术工具22超出虚拟视线边界的不期望的进展。反馈发生器122将反馈力确定为施加到外科手术工具22的边界约束力。更具体而言,反馈发生器确定标量反馈力FBNDR,如果该力在时间(t)施加到外科手术工具22,那么该力将在垂直于虚拟视线边界106并朝向其的方向上停止外科手术工具22的前进。反馈发生器122可以使用多种不同方法中的任何一种来确定力FBNDR的量值。例如,如标题为“Surgical Manipulatorableto Controlling a Surgical Instrument in Multiple Modes”的美国专利No.9,119,655中所述,可以使用脉冲方法,该专利的公开内容通过引用并入本文。
然后计算最终命令的姿态和命令的速度,以考虑力FBNDR。与仅仅将外科手术工具22的运动停止在百分之七十以防止接触虚拟视线边界106相反,这种方法仅仅通过脉冲力停止与虚拟视线边界106垂直的运动分量。因此,与突然停止相反,沿着虚拟视线边界106的运动可以继续整个时间帧,以向用户提供更自然的触觉反馈。
最终,来自碰撞检测器120的最终命令的姿态被应用于操纵器控制器54的反向运动学模块(未示出)。反向运动学模块是由操纵器控制器54执行的运动控制模块。基于命令的姿态和预加载的数据,反向运动学模块确定操纵器56的接头的期望接头角度。预加载的数据是定义连杆58和接头的几何形状的数据。在一些版本中,这些数据是Denavit-Hartenberg参数的形式。
如前面所讨论的,在外科手术开始之前,跟踪器44、46、48中的每一个被放置到定位器34的视场内。操作以减少视线障碍的导航系统20也操作以将跟踪器44、46、48维持在视场内。特别地,导航系统20操作,通过在外科手术期间跟踪跟踪器44、46、48的移动并且如果跟踪器44、46、48中的任何一个引起移动到定位器34的视场之外的风险的话就向用户生成反馈,以在外科手术时(即,在外科手术过程中)维持在视场内。
定位器34的视场在图6中从顶视图和侧视图示出。虚拟边界发生器104还基于定位器34的视场生成虚拟视场边界113。虚拟视场边界113描绘了其中可以由定位器34接收来自跟踪器44、46、48的信号以便确定跟踪器44、46、48的位置和/或方向的空间体积。换句话说,可以由定位器34的每个光学传感器40接收来自每个跟踪器44、46、48的至少三个LED 50的信号。
在一些实施例中,虚拟视场边界113的形状为截头圆锥形,如图7中所示。在其它实施例中,虚拟视场边界113的形状为圆柱形或球形。其它形状也是可能的。图7中所示的虚拟视场边界113从定位器34向远端向外偏离地延伸。可以使虚拟视场边界113尺寸过大,使得表示跟踪器44、46、48的虚拟物体44’、46’、48’可以稍微穿透到虚拟视场边界113中,以便检测碰撞,如下面进一步解释的,而不移动超出定位器34的实际视场。
虚拟视场边界113意在在外科手术期间保持静止,但是如果定位器34在外科手术过程中移动就可能需要调节。在这种情况下,虚拟边界发生器104更新虚拟视场边界113,以在外科手术过程中考虑这种移动。
虚拟边界发生器104生成定义虚拟视场边界113的映射。虚拟边界发生器104的输入包括定位器坐标系LCLZ中定位器34的位置和朝向,即,光学位置传感器40在定位器坐标系LCLZ中的位置/布置,这是在制造期间建立的(例如,由CMM测量)并存储在相机单元36或导航计算机26中的存储器中。从这种定位器姿态数据,可以确立虚拟视场边界113的位置和朝向。虚拟视场边界113也可以在制造过程中确立并存储在相机单元36或导航计算机26的存储器中。虚拟视场边界113的尺寸和形状在外科手术之前预先确定并且相对于定位器34的位置是固定的。与虚拟视场边界113的尺寸和形状相关联的数据被存储在相机单元36和/或导航计算机26上的存储器中,以便由导航处理器52检索。基于上述数据并通过指令,虚拟边界发生器104生成在定位器坐标系LCLZ中定义虚拟视场边界113的映射。
在一些实施例中,虚拟边界发生器104将虚拟视场边界113生成为多边形表面、样条或代数表面(包括参数化表面)。在一个更具体的版本中,表面被呈现为三角形网格。每个多边形的角由定位器坐标系LCLZ中的点定义。定义网格的一部分的个体区域部分被称为瓦片。虚拟视场边界113也可以使用基于体素的模型表示为3-D体积。
碰撞检测器120评估骨跟踪器和工具跟踪器虚拟物体44’、46’、48’相对于虚拟视场边界113的移动,以检测虚拟物体44’、46’、48’与虚拟视场边界113(其实际上也是虚拟物体)之间的碰撞。更具体而言,碰撞检测器120检测表示虚拟物体44’、46’、48’的几何模型与表示虚拟视场边界113的几何模型之间的碰撞。碰撞检测包括检测实际的虚拟碰撞或在其发生之前预测虚拟碰撞。
由碰撞检测器120执行的跟踪的目的是防止跟踪器44、46、48移动到定位器34的视场之外。碰撞检测器120的第一输入是在定位器34的视场中被跟踪的虚拟物体44’、46’、48’中的每一个的映射。碰撞检测器120的第二输入是虚拟视场边界113的映射。
碰撞检测器120可以使用用于检测虚拟物体44’、46’、48’与虚拟视场边界113之间的碰撞的任何常规算法。例如,用于找到两个参数化表面的交点的合适技术包括细分方法、网格方法、追踪方法和分析方法。对于基于体素的虚拟物体,可以通过检测任何两个体素何时在定位器坐标系LCLZ中重叠来执行碰撞检测,如通过引用并入本文的美国专利No.5,548,694中所述。
反馈发生器122响应于任何虚拟物体44’、46’、48’与虚拟视场边界113之间的碰撞的检测。通过向用户提供一种或多种形式的反馈(包括可听、可视、振动或触觉反馈中的一个或多个),反馈发生器122响应于碰撞的检测。
在一个实施例中,响应于碰撞,反馈发生器122造成报警器124的激活,以向用户产生可听警报。
反馈发生器122还可以使显示器28、29显示表示碰撞的图像,使得用户可以确定如何避免碰撞(在已经预测出碰撞的情况下)或反转碰撞(在碰撞已经发生的情况)。可以通过示出所涉及的跟踪器在哪里与虚拟视场边界113碰撞或将与之碰撞的图形表示来表示碰撞。所涉及的特定跟踪器44、46或48(诸如“股骨跟踪器”)的文本描述也可以显示在显示器28、29上。
在一些实施例中,使用虚拟物体被跟踪的定位器34的视场中的每个跟踪器44、46、48可以在显示器28、29上表示。在这种情况下,碰撞可以使用颜色编码示出。例如,受影响的跟踪器44、46或48可以进行颜色编码,使得在视觉上用户立即看到哪个跟踪器将移动到视场之外,并且用户可以直观地避免这种移动。此外,箭头可以在显示器上以图形方式描绘,以示出跟踪器为了停留在视场内而应当被移动的方向。这些箭头可以基于由碰撞检测器120以前面描述的方式确定的反馈力的方向来生成。
参考图11,反馈发生器122还可以使显示器28、29响应于检测到碰撞而向用户显示消息,包括重新定位患者的特定解剖结构的指令。特定解剖结构可以包括即将移动到视场之外的骨跟踪器44、46附连到的解剖结构。例如,如果胫骨T上的骨跟踪器46即将移动到定位器34的视场之外,那么导航处理器52可以使显示器28、29向用户显示“移动胫骨”的消息。特定消息可以存储在与可能碰撞的特定场景相关联的消息的查找表中。在这个示例中,这个消息位于具有骨跟踪器虚拟物体46’已与虚拟视场边界113碰撞的场景的查找表中。基于定义为了避免或反转碰撞而采取的方向的回避或排斥向量,更详细的指令也是可能的。指令可以是具有箭头B的“移动胫骨”,箭头B在显示器28、29上进一步显示或闪烁,其中箭头B处于避免或排斥向量的方向。
反馈发生器122还可以使显示器28、29响应于检测到碰撞而向用户显示消息,包括重新定位定位器34的指令。例如,如果发现骨跟踪器或工具跟踪器虚拟物体44’、46’、48’中的一个已经与虚拟视场边界113碰撞,那么导航处理器52可以使显示器28、29向用户显示“移动相机单元”的消息。特定消息可以存储在与可能的碰撞的特定场景相关联的消息的查找表中。在这个示例中,这个消息位于具有骨跟踪器或工具跟踪器虚拟物体44’、46’、48’中的一个已经与虚拟视场边界113碰撞的场景的查找表中。
反馈发生器122还可以使显示器28、29响应于检测到碰撞而向用户显示消息,包括重新定位操纵器56的指令。例如,如果发现工具跟踪器虚拟物体48’已经与虚拟视场边界113碰撞,那么导航处理器52可以使显示器28、29向用户显示“移动操纵器”的消息。特定消息可以存储在与可能碰撞的特定场景相关联的消息的查找表中。在这个示例中,这个消息位于具有工具跟踪器虚拟物体48’与虚拟视场边界113已经碰撞的场景的查找表中。可以使用这种反馈的一个原因是在外科手术工具22不能以其它方式被操纵以避免碰撞的情况下。此外,操纵器56具有受限的运动范围并且,如果操纵器56在那个受限范围的预定义阈值内,那么可能需要这个消息以在外科手术过程期间重新获得附加的运动范围以避免碰撞。
此外,反馈发生器122可以使用户以振动的形式经历振动反馈。例如,当用户将外科手术工具22定位在手动模式下时,其中用户正在抓握外科手术工具22的手柄,如果工具跟踪器虚拟物体48’与虚拟视场边界113碰撞或将要与之碰撞,那么振动设备126可以被致动。振动反馈向用户指示工具跟踪器48可能接近移动到定位器34的视场之外,由此允许用户停止进一步运动并防止工具跟踪器48行进到视场之外。然后用户可以确定替代路线。
在一个实施例中,反馈发生器122通过利用避免或排斥碰撞的反馈力响应于碰撞而向用户提供触觉反馈。反馈力由碰撞检测器120确定。反馈力可以具有这样的力和/或扭矩分量,该力和/或扭矩分量包括多达沿x、y和z轴的力的三个分量以及围绕这些轴的三个扭矩分量。
在一个示例中,当操纵器56在手动模式下操作时,反馈发生器122通过外科手术工具22向用户提供触觉反馈。这防止操纵器56将工具跟踪器虚拟物体48’定位到虚拟视场边界113中,由此避免工具跟踪器48移动到视场之外。在一个实施例中,碰撞检测器120通过预测如果操纵器56将外科手术工具22移动到命令的姿态是否将会发生虚拟碰撞但在操纵器控制器54实际将外科手术工具22移动到所命令的姿态之前来检测碰撞。如果预测到虚拟碰撞,那么控制操纵器56以将外科手术工具22移动到更改的命令的姿态,以避免碰撞。
在一些实施例中,操纵器56是无源操纵器。在这种情况下,触觉反馈在发生虚拟碰撞之后向用户提供反馈,以防止工具跟踪器虚拟物体48’任何进一步穿透到虚拟视场边界113中,或来反转碰撞。因此,碰撞检测可以响应于实际的虚拟碰撞或预测的虚拟碰撞。因此,反馈发生器122确保外科手术工具22的手动模式定位被控制,使得工具跟踪器虚拟物体48’停留在虚拟视场边界113内或仅穿透到虚拟视场边界113中防止工具跟踪器48移动到定位器34的视场之外的程度。
当虚拟视场边界113由诸如网格的多边形表面表示时,碰撞检测器120可以以与上面关于工具虚拟物体22’和图10所述相同的方式来检测碰撞。
反馈发生器122还可以以与上述相同的方式确定要施加到外科手术工具22的反馈力,以停止工具跟踪器48超过虚拟视场边界113的的不想要的进展。在这种情况下,工具跟踪器虚拟边界48’相对于工具虚拟边界22’固定。因此,如前所述,通过控制外科手术工具22及其虚拟边界22’的移动来控制工具跟踪器虚拟边界48’的移动。
在外科手术过程中材料去除系统10的操作期间,导航系统20持续地跟踪虚拟物体44’、46’、48’、22’中的每一个的位置和朝向,以便确定是否有与这些虚拟物体44’、46’、48’、22’相关联的任何物理物体具有构成跟踪器44、46、48之一与定位器34之间的视线障碍的风险。导航系统20还为了确定与这些虚拟物体44’、46’、48’相关联的跟踪器44、46、48中的任何一个是否构成移动到定位器34的视场之外的风险而持续地跟踪虚拟物体44’、46’、48’中的每一个的位置和朝向。目的是减少跟踪中断,使得操纵器56的操作可以继续,而不会有由于丢失视线或移动到视场之外而造成的不必要的延迟。下面概述一个示例性方法。
参考图12的流程图,在步骤200中,导航系统20首先在定位器34的视场内检测每个跟踪设备44、46、48。一旦跟踪设备44、46、48被检测到,在步骤202中,虚拟边界发生器104就基于跟踪设备44、46、48与定位器之间的视线关系生成虚拟视线边界106、108、110。虚拟边界发生器104还基于定位器34的视场来生成虚拟视场边界113。
一旦生成了初始虚拟边界106、108、110、113,外科手术就在步骤204开始。
在步骤206中,更新虚拟视线边界106、108、110,以在外科手术期间考虑跟踪器44、46、48与定位器34之间的相对移动。
虚拟物体44’、46’、48’、22’在手术之前与在定位器34的视场中被跟踪的物理物体相关联。这些是构成产生视线障碍的威胁的物理物体。此外,骨跟踪器和工具跟踪器虚拟物体44’、46’、48’与要保持在定位器34的视场中的跟踪器44、46、48相关联。
创建虚拟物体44’、46’、48’、22’,然后将其存储在导航计算机26或操纵器控制器54或两者当中的存储器中,其参数相对于它们相关联的跟踪器44、46、48的特定坐标系定义。例如,表示附连到股骨F的骨跟踪器44的结构的骨跟踪器虚拟物体44’在手术之前被创建并映射到骨跟踪器坐标系BTRK1,使得定位器34能够通过跟踪骨跟踪器44来跟踪骨跟踪器虚拟物体44’,然后将定义骨跟踪器虚拟物体44’的参数变换到定位器坐标系LCLZ。
在步骤208中,碰撞检测器120评估虚拟物体44’、46’、48’、22’与虚拟边界106、108、110、113之间的相对移动。评估虚拟物体44’、46’、48’、22’的移动可以包括跟踪每个虚拟物体44’、46’、48’、22’相对于虚拟边界106、108、110、113的位置和朝向的位置和朝向,以促进检测虚拟物体44’、46’、48’、22’与虚拟边界106、108、110、113之间的碰撞。
决定框210确定碰撞检测器120是否检测到虚拟物体44’、46’、48’、22’中的一个或多个与虚拟边界106、108、110、113中的一个或多个之间的碰撞(或者实际的虚拟碰撞或者预测的虚拟碰撞)。如果没有检测到碰撞,那么该过程流向决定框214,以确定外科手术是否完成。如果外科手术尚未完成,那么过程循环回到步骤206,并且虚拟视线边界106、108、110的位置和/或朝向被更新(并且,如果定位器34已经移动,那么虚拟视场边界113被更新)。如果外科手术完成,那么碰撞检测结束。
返回到决定框210,如果检测到碰撞,那么在步骤212中生成反馈。反馈是以可听反馈、可视反馈、振动反馈或触觉反馈中的一个或多个的形式,如前所述。特别地,反馈发生器122指示导航处理器52或操纵器控制器54激活报警器124,操纵显示器28、29,激活振动装置126,和/或通过操纵器56生成触觉反馈。
一旦生成了反馈,导航处理器52或操纵器控制器54就在决定框214中确定外科手术是否完成。如果是,那么该过程结束。如果不是,那么该过程再次循环到步骤206,以重复直到外科手术完成。在步骤206中的虚拟视线边界106、108、110的后续更新之间的过程循环可以在其中为操纵器56生成命令的位置的每个时间帧或者在每次定位器34检测到跟踪器44、46、48的新位置和/或朝向时发生。
在前面的描述中已经讨论了若干实施例。但是,本文中讨论的实施例并不意在是详尽的或者将本发明限于任何特定形式。所使用的术语意在描述性而非限制性的词语本质。鉴于上述教导,许多修改和变化是可能的,并且本发明可以以与具体描述不同的其它方式实践。
示例性条款
条款1-用于减少由在虚拟空间中定义为虚拟物体的物理物体造成的跟踪中断的导航系统,所述系统包括:定位器,具有视场;跟踪设备,用于放置在定位器的视场内,使得定位器能够确立与跟踪设备的视线关系;虚拟边界发生器,被配置为基于跟踪设备与定位器之间的视线关系生成虚拟视线边界,并且被配置为更新虚拟视线边界以考虑跟踪设备与定位器界之间的相对移动;以及碰撞检测器,被配置为评估虚拟物体相对于虚拟视线边界的移动,以检测虚拟物体与虚拟视线边界之间的碰撞,并且启用防止物理物体阻碍跟踪设备与定位器之间的视线的响应。
条款2-条款1的系统,包括与虚拟边界发生器通信的反馈发生器,用于响应于检测虚拟物体与虚拟视线边界之间的碰撞而生成反馈,以防止物理物体阻碍跟踪设备与定位器之间的视线。
条款3-条款2的系统,包括与反馈发生器通信的反馈设备,以生成可听、可视、振动或触觉反馈中的至少一个。
条款4-条款2或3的系统,包括与反馈发生器通信并且被配置为振动物理物体的振动设备。
条款5-条款2、3或4中任一项的系统,包括与反馈发生器通信并且被配置为控制物理物体的移动的触觉设备。
条款6-条款5的系统,其中触觉设备被配置为通过约束工具的移动来控制工具的移动。
条款7-条款5或6的系统,包括与反馈发生器通信并且被配置为生成重新定位触觉设备的指令的反馈设备。
条款8-条款2-7中任一项的系统,包括与反馈发生器通信并且被配置为向用户生成重新定位患者的解剖结构的指令的反馈设备。
条款9-条款2-8中任一项的系统,包括与反馈发生器通信并且被配置为生成重新定位定位器的指令的反馈设备。
条款10-条款1-9中任一项的系统,其中碰撞检测器被配置为通过预测碰撞来检测碰撞。
条款11-条款1-10中任一项的系统,其中定位器包括用于感测来自跟踪设备的一个或多个标记的光的一个或多个光学传感器。
条款12-条款1-11中任一项的系统,其中碰撞检测器被配置为相对于虚拟视线边界的位置和朝向来跟踪虚拟物体的位置和方位。
条款13-条款1-12中任一项的系统,其中虚拟边界发生器被配置为通过生成被成形为其中限制物理物体进入的空间的边界虚拟物体来生成虚拟视线边界,使得来自跟踪设备的光能够被发送到定位器而不被物理物体阻碍。
条款14-条款1-13中任一项的系统,其中虚拟边界发生器被配置为通过基于跟踪设备的位置和朝向以及定位器的位置和朝向生成边界虚拟物体来生成虚拟视线边界。
条款15-条款1-14中任一项的系统,其中虚拟视线边界是圆柱形或截头圆锥形形状中的至少一种。
条款16-条款1-15中任一项的系统,其中虚拟视线边界包括一条或多条线。
条款17-条款1-16中任一项的系统,其中虚拟边界发生器被配置为在每次确定跟踪设备的新位置和朝向时更新虚拟视线边界,以考虑跟踪设备与定位器之间的相对移动。
条款18-条款1-17中任一项的系统,其中虚拟边界发生器被配置为在每0.1至2毫秒更新虚拟视线边界,以考虑跟踪设备与定位器之间的相对移动。
条款19-条款1-18中任一项的系统,包括第二跟踪设备,其中虚拟边界发生器被配置为基于第二跟踪设备与定位器视线之间的视线关系生成第二虚拟视线边界。
条款20-条款19的系统,其中虚拟边界发生器被配置为更新第二虚拟视线边界,以考虑第二跟踪设备与定位器之间的相对移动。
条款21-条款19或20的系统,其中碰撞检测器被配置为评估虚拟物体与第二虚拟视线边界之间的相对移动。
条款22-条款19、20或21中任一项的系统,其中碰撞检测器被配置为检测虚拟物体与第二虚拟视线边界之间的碰撞,以启用防止物理物体阻碍第二跟踪设备与定位器之间的视线的响应。
条款23-条款1-22中任一项的系统,其中物理物体是工具或人的至少一部分。
条款24–一种减少导航系统的定位器与跟踪设备之间的跟踪中断的方法,所述方法包括以下步骤:检测在定位器的视场内的跟踪设备;基于定位器的视场生成虚拟视场边界;将虚拟物体与跟踪设备相关联;跟踪虚拟物体相对于虚拟视场边界的移动;以及在跟踪的同时检测虚拟物体与虚拟视场边界之间的碰撞,以启用防止跟踪设备移动到定位器的视场之外的响应。
条款25-条款24的方法,包括响应于检测到碰撞而生成反馈。
条款26-条款25的方法,其中生成反馈包括生成可听、可视、振动或触觉反馈中的至少一个。
条款27-条款25或26的方法,其中生成反馈包括振动物理物体。
条款28-条款25、26或27中任一项的方法,其中生成反馈包括控制跟踪设备的移动,其中跟踪设备附连到触觉设备。
条款29-条款28的方法,其中控制跟踪设备的移动包括利用触觉设备约束跟踪设备的移动。
条款30–条款28或29的方法,包括生成重新定位触觉设备的指令。
条款31-条款25-30中任一项的方法,其中生成反馈包括向用户生成重新定位患者的解剖结构的指令。
条款32-条款25-31中任一项的方法,其中生成反馈包括生成重新定位定位器的指令。
条款33-条款24-32中任一项的方法,其中检测碰撞还被定义为预测碰撞。
条款34-条款24-33中任一项的方法,其中检测在定位器的视场内的跟踪设备包括利用定位器的一个或多个光学传感器感测来自跟踪设备的一个或多个标记的光。
条款35-条款24-34中任一项的方法,其中跟踪虚拟物体相对于虚拟视场边界的移动包括相对于虚拟视场边界的位置和朝向跟踪虚拟物体的位置和朝向。
条款36-条款24-35中任一项的方法,其中生成虚拟视场边界包括生成成形为描绘其中限制跟踪设备离开的空间的边界虚拟物体,使得来自跟踪设备能够被发送到定位器。
条款37-条款24-36中任一项的方法,其中生成虚拟视场边界包括基于定位器的位置和朝向来生成边界虚拟物体。
条款38-条款24-37中任一项的方法,其中虚拟视场边界是圆柱形、球形或截头圆锥形形状中的至少一种。
条款39–一种用于减少跟踪中断的导航系统,所述系统包括:定位器,具有视场;跟踪设备,用于放置在定位器的视场内,使得定位器能够从跟踪设备接收信号,跟踪设备具有与之相关联的虚拟物体;虚拟边界发生器,以基于定位器的视场来生成虚拟视场边界;以及碰撞检测器,被配置为评估虚拟物体相对于虚拟视场边界的移动,以检测虚拟物体与虚拟视场边界之间的碰撞,并启用防止跟踪设备移动到定位器的视场之外的响应。
条款40-条款39的系统,包括与虚拟边界发生器通信的反馈发生器,用于响应于检测到虚拟物体与虚拟视场边界之间的碰撞而生成反馈。
条款41-条款40的系统,包括与反馈发生器通信的反馈设备,以生成可听、可视、振动或触觉反馈中的至少一个。
条款42-条款39或40的系统,包括与反馈发生器通信并且被配置为振动物理物体的振动设备。
条款43-条款39、40或41中任一项的系统,包括与反馈发生器通信并且被配置为控制跟踪设备的移动的触觉设备,其中跟踪设备附连到触觉设备。
条款44-条款43的系统,其中触觉设备被配置为通过约束跟踪设备的移动来控制跟踪设备的移动。
条款45-条款43或44的系统,包括与反馈发生器通信并且被配置为生成重新定位触觉设备的指令的反馈设备。
条款46-条款40-45中任一项的系统,包括与反馈发生器通信并且被配置为向用户生成重新定位患者的解剖结构的指令的反馈设备。
条款47-条款40-46中任一项的系统,包括与反馈发生器通信并且被配置为生成重新定位定位器的指令的反馈设备。
条款48-条款39-47中任一项的系统,其中碰撞检测器被配置为通过预测碰撞来检测碰撞。
条款49-条款39-48中任一项的系统,其中定位器包括用于感测来自跟踪设备的一个或多个标记的光的一个或多个光学传感器。
条款50-条款39-49中任一项的系统,其中碰撞检测器被配置为相对于虚拟视场边界的位置和朝向跟踪虚拟物体的位置和朝向。
条款51-条款39-50中任一项的系统,其中虚拟边界发生器被配置为通过生成被成形为描绘其中限制物理物体离开的空间的边界虚拟物体来生成虚拟视场边界,使得来自跟踪设备的光能够被发送到定位器而不被物理物体阻碍。
条款52-条款39-51中任一项的系统,其中虚拟边界发生器被配置为基于定位器的位置和朝向生成边界虚拟物体来生成虚拟视场边界。
条款53-条款39-52中任一项的系统,其中虚拟视场边界是圆柱形、球形或截头圆锥形的至少一种。
Claims (29)
1.一种操作系统的方法,所述系统包括被配置为支撑手术工具的操纵器、包括定位器的导航系统以及耦合到所述操纵器和所述导航系统的一个或多个控制器,所述定位器包括视场和跟踪器,所述方法包括所述一个或多个控制器:
通过建立跟踪器和定位器之间的视线关系,检测定位器的视场内的跟踪器;
基于所述视线关系生成虚拟视线边界;
将虚拟对象与操纵器或手术工具中的一个或多个相关联;
预测性地确定所述操纵器或所述手术工具中的一个或多个的计划的移动是否将引起所述虚拟对象与所述虚拟视线边界之间的虚拟碰撞;以及
基于预测性地确定所计划的移动是否将引起所述虚拟碰撞的结果来启用响应。
2.根据权利要求1所述的方法,包括所述一个或多个控制器通过以下步骤预测性地确定所述操纵器或所述手术工具中的一个或多个的所述计划的移动是否将引起所述虚拟对象与所述虚拟视线边界之间的所述虚拟碰撞:
在多个时间帧上模拟与操纵器或手术工具中的一个或多个相对于虚拟视线边界的计划移动对应的虚拟对象的计划移动,以及
针对所述多个时间帧中的每一个,评估所述虚拟对象的几何特征是否将通过满足或超过到所述虚拟视线边界的阈值距离而引起所述虚拟碰撞。
3.根据权利要求1所述的方法,其中启用所述响应包括所述一个或多个控制器响应于所述计划的移动将不引起所述虚拟碰撞的结果而根据所述计划的移动控制所述操纵器或所述手术工具中的一个或多个的移动。
4.根据权利要求1所述的方法,其中启用所述响应包括所述一个或多个控制器响应于所述计划的移动将引起所述虚拟碰撞的结果根据改变的移动来控制所述操纵器或所述手术工具中的一个或多个的移动,其中所述改变的移动不同于所述计划的移动并且避免所述虚拟碰撞。
5.根据权利要求1-4中任一项所述的方法,其中启用所述响应包括所述一个或多个控制器响应于所述计划的移动将引起所述虚拟碰撞的结果而约束所述操纵器或所述手术工具中的一个或多个的移动。
6.根据权利要求1-4中任一项所述的方法,其中,启用所述响应包括所述一个或多个控制器生成以下中的一个或多个:听觉、视觉、或触觉反馈。
7.根据权利要求1-4中任一项所述的方法,其中,启用所述响应包括所述一个或多个控制器响应于所述计划的移动将引起所述虚拟碰撞的结果而在显示设备上图形地表示用于避免所述虚拟碰撞的指令。
8.根据权利要求7所述的方法,其中指令用于重新定位所述操纵器或所述手术工具中的一个或多个。
9.根据权利要求1-4中任一项所述的方法,其中所述操纵器或所述手术工具中的一个或多个的所述计划的移动对应于用于移除手术部位的材料的目标体积的部分的所述手术工具的计划的移动,其中材料的所述目标体积由一个或多个切割边界限定。
10.根据权利要求6所述的方法,其中触觉反馈包括振动。
11.一种操作系统,包括:
操纵器,其被配置成支撑手术工具;
一种导航系统,包括定位器,该定位器包括视场和跟踪器;以及
一个或多个控制器,其联接到所述操纵器和所述导航系统,所述一个或多个控制器被配置成:
通过建立跟踪器和定位器之间的视线关系来检测定位器的视场内的跟踪器;
基于所述视线关系生成虚拟视线边界;
将虚拟对象与操纵器或手术工具中的一个或多个相关联;
预测性地确定所述操纵器或所述手术工具中的一个或多个的计划的移动是否将引起所述虚拟对象与所述虚拟视线边界之间的虚拟碰撞;以及
基于预测性地确定所计划的移动是否将引起所述虚拟碰撞的结果来启用响应。
12.一种用于与被配置成支撑手术工具的操纵器一起使用的导航系统,所述导航系统包括:
定位器,包括视场和跟踪器;以及
一个或多个控制器,其被配置为:
通过建立跟踪器和定位器之间的视线关系来检测定位器的视场内的跟踪器;
基于所述视线关系生成虚拟视线边界;
将虚拟对象与操纵器或手术工具中的一个或多个相关联;
预测性地确定所述操纵器或所述手术工具中的一个或多个的计划的移动是否将引起所述虚拟对象与所述虚拟视线边界之间的虚拟碰撞;以及
基于预测性地确定所计划的移动是否将引起所述虚拟碰撞的结果来启用响应。
13.一种操作导航系统的方法,所述导航系统包括一个或多个控制器、包括视场的定位器和跟踪器,所述方法包括所述一个或多个控制器:
通过建立跟踪器和定位器之间的视线关系,检测定位器的视场内的跟踪器;
基于所述视线关系生成虚拟视线边界;
将虚拟对象与操纵器或联接到所述操纵器的手术工具中的一个或多个相关联;
预测性地确定所述操纵器或所述手术工具中的一个或多个的计划的移动是否将引起所述虚拟对象与所述虚拟视线边界之间的虚拟碰撞;以及
基于预测性地确定所计划的移动是否将引起所述虚拟碰撞的结果来启用响应。
14.一种操作系统的方法,所述系统包括被配置为支撑手术工具的操纵器、包括耦合到所述操纵器或所述手术工具中的一个或多个的定位器和跟踪器的导航系统、以及耦合到所述操纵器和所述导航系统的一个或多个控制器,所述定位器包括视场,所述方法包括所述一个或多个控制器:
检测定位器的视场内的跟踪器;
基于定位器的视场生成虚拟视场边界;
将虚拟对象与所述跟踪器相关联;
预测性地确定所述操纵器或所述手术工具中的一个或多个的计划移动是否将引起所述虚拟对象与所述虚拟视场边界之间的虚拟碰撞;以及
基于预测性地确定所计划的移动是否将引起所述虚拟碰撞的结果来启用响应。
15.根据权利要求14所述的方法,包括所述一个或多个控制器通过以下步骤预测性地确定所述操纵器或所述手术工具中的一个或多个的所述计划的移动是否将引起所述虚拟对象与所述虚拟视场边界之间的所述虚拟碰撞:
在多个时间帧上模拟虚拟对象的计划移动,所述计划移动对应于操纵器或手术工具中的一个或多个相对于虚拟视场边界的计划移动,以及
针对所述多个时间帧中的每一个,评估所述虚拟对象的几何特征是否将通过满足或超过到所述虚拟视场边界的阈值距离而引起所述虚拟碰撞。
16.根据权利要求14所述的方法,其中启用所述响应包括所述一个或多个控制器响应于所述计划的移动将不引起所述虚拟碰撞的结果而根据所述计划的移动控制所述操纵器或所述手术工具中的一个或多个的移动。
17.根据权利要求14所述的方法,其中启用所述响应包括所述一个或多个控制器响应于所述计划的移动将引起所述虚拟碰撞的结果根据改变的移动来控制所述操纵器或所述手术工具中的一个或多个的移动,其中所述改变的移动不同于所述计划的移动并且避免所述虚拟碰撞。
18.根据权利要求14所述的方法,其中启用所述响应包括所述一个或多个控制器响应于所述结果是所计划的移动将引起所述虚拟碰撞而约束所述操纵器或所述手术工具中的一个或多个的移动。
19.根据权利要求14-18中任一项所述的方法,其中,启用所述响应包括所述一个或多个控制器生成以下中的一个或多个:听觉、视觉或触觉反馈。
20.根据权利要求14-18中任一项所述的方法,其中,启用所述响应包括所述一个或多个控制器响应于所述计划的移动将引起所述虚拟碰撞的结果而在显示设备上图形地表示用于避免所述虚拟碰撞的指令。
21.根据权利要求20所述的方法,其中指令用于重新定位所述操纵器或所述手术工具中的一个或多个。
22.根据权利要求14至18中任一项所述的方法,其中,所述操纵器或所述手术工具中的一个或多个的所述计划的移动对应于用于移除手术部位的目标体积的材料的部分的所述手术工具的计划的移动,其中,所述目标体积的材料由一个或多个切割边界限定。
23.根据权利要求19所述的方法,其中触觉反馈包括振动。
24.一种操作系统,包括:
操纵器,其被配置成支撑手术工具;
导航系统,其包括定位器和跟踪器,所述定位器包括视场,所述跟踪器耦合到所述操纵器或所述手术工具中的一个或多个;以及
一个或多个控制器,其联接到所述操纵器和所述导航系统,所述一个或多个控制器被配置成:
检测定位器的视场内的跟踪器;
基于定位器的视场生成虚拟视场边界;
将虚拟对象与所述跟踪器相关联;
预测性地确定所述操纵器或所述手术工具中的一个或多个的计划移动是否将引起所述虚拟对象与所述虚拟视场边界之间的虚拟碰撞;以及
基于预测性地确定所计划的移动是否将引起所述虚拟碰撞的结果来启用响应。
25.一种用于与被配置成支撑手术工具的操纵器一起使用的导航系统,所述导航系统包括:
定位器,所述定位器包括视场和耦合到所述操纵器或所述手术工具中的一个或多个的跟踪器;以及
一个或多个控制器,其被配置为:
检测定位器的视场内的跟踪器;
基于定位器的视场生成虚拟视场边界;
将虚拟对象与所述跟踪器相关联;
预测性地确定所述操纵器或所述手术工具中的一个或多个的计划的移动是否将引起所述虚拟对象与所述虚拟视场边界之间的虚拟碰撞;以及
基于预测性地确定所计划的移动是否将引起所述虚拟碰撞的结果来启用响应。
26.一种操作导航系统的方法,所述导航系统包括一个或多个控制器、包括视场的定位器和耦合到操纵器或耦合到所述操纵器的手术工具中的一个或多个的跟踪器,所述方法包括所述一个或多个控制器:
检测定位器的视场内的跟踪器;
基于定位器的视场生成虚拟视场边界;
将虚拟对象与所述跟踪器相关联;
预测性地确定所述操纵器或所述手术工具中的一个或多个的计划的移动是否将引起所述虚拟对象与所述虚拟视场边界之间的虚拟碰撞;以及
基于预测性地确定所计划的移动是否将引起所述虚拟碰撞的结果来启用响应。
27.一种操作方法,包括以下步骤:
跟踪定位器的视场内的物理对象;
基于物理对象和定位器之间的视线关系生成虚拟视线边界;
评估虚拟对象与虚拟视线边界之间的相对移动,其中虚拟对象与定位器的视场中的第二物理对象相关联;以及
检测所述虚拟对象与所述虚拟视线边界之间的碰撞以启用防止物理对象阻挡物理对象与定位器之间的视线的响应。
28.一种操作方法,包括以下步骤:
检测定位器的视野内的物理对象;
基于定位器的视场生成虚拟视场边界,
评估虚拟对象与所述视场边界之间的相对移动,其中所述虚拟对象与所述物理对象相关联;以及
检测所述虚拟对象与所述虚拟视场边界之间的碰撞以启用防止物理对象阻挡物理对象与定位器之间的视线的响应。
29.一种操作方法,包括以下步骤:
检测定位器的视场内的第一物理对象;
基于定位器和第一物理对象之间的视线关系生成虚拟视线边界;
基于定位器的视场生成虚拟视场边界;
将第一虚拟对象与所述第一物理对象相关联;
将第二虚拟对象与定位器的视场内的第二物理对象相关联;
同时评估以下两者之间的相对移动:
所述第一虚拟对象和所述视场边界;以及
第二虚拟对象和虚拟视线边界;以及
检测所述第一虚拟对象与所述虚拟视场边界之间的碰撞以启用防止物理对象阻挡第一物理对象与定位器之间的视线的响应。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010806484.4A CN111839732B (zh) | 2015-02-25 | 2016-02-24 | 用于在外科手术过程中减少跟踪中断的导航系统和方法 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562120585P | 2015-02-25 | 2015-02-25 | |
US62/120,585 | 2015-02-25 | ||
PCT/US2016/019347 WO2016138124A1 (en) | 2015-02-25 | 2016-02-24 | Navigation systems and methods for reducing tracking interruptions during a surgical procedure |
CN201680008515.3A CN107205786B (zh) | 2015-02-25 | 2016-02-24 | 用于在外科手术过程中减少跟踪中断的导航系统和方法 |
CN202010806484.4A CN111839732B (zh) | 2015-02-25 | 2016-02-24 | 用于在外科手术过程中减少跟踪中断的导航系统和方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680008515.3A Division CN107205786B (zh) | 2015-02-25 | 2016-02-24 | 用于在外科手术过程中减少跟踪中断的导航系统和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111839732A CN111839732A (zh) | 2020-10-30 |
CN111839732B true CN111839732B (zh) | 2024-07-02 |
Family
ID=55527650
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010806484.4A Active CN111839732B (zh) | 2015-02-25 | 2016-02-24 | 用于在外科手术过程中减少跟踪中断的导航系统和方法 |
CN201680008515.3A Active CN107205786B (zh) | 2015-02-25 | 2016-02-24 | 用于在外科手术过程中减少跟踪中断的导航系统和方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680008515.3A Active CN107205786B (zh) | 2015-02-25 | 2016-02-24 | 用于在外科手术过程中减少跟踪中断的导航系统和方法 |
Country Status (7)
Country | Link |
---|---|
US (3) | US10660711B2 (zh) |
EP (2) | EP3261571B1 (zh) |
JP (4) | JP6748088B2 (zh) |
KR (3) | KR102491907B1 (zh) |
CN (2) | CN111839732B (zh) |
AU (4) | AU2016222790B2 (zh) |
WO (1) | WO2016138124A1 (zh) |
Families Citing this family (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013033566A1 (en) | 2011-09-02 | 2013-03-07 | Stryker Corporation | Surgical instrument including a cutting accessory extending from a housing and actuators that establish the position of the cutting accessory relative to the housing |
US10660711B2 (en) * | 2015-02-25 | 2020-05-26 | Mako Surgical Corp. | Navigation systems and methods for reducing tracking interruptions during a surgical procedure |
KR102491910B1 (ko) | 2015-05-19 | 2023-01-26 | 마코 서지컬 코포레이션 | 해부체를 조작하는 시스템 및 방법 |
US10806534B2 (en) * | 2015-08-25 | 2020-10-20 | Kawasaki Jukogyo Kabushiki Kaisha | Information sharing system and method of sharing information between a plurality of robot systems |
US10231793B2 (en) | 2015-10-30 | 2019-03-19 | Auris Health, Inc. | Object removal through a percutaneous suction tube |
US9955986B2 (en) | 2015-10-30 | 2018-05-01 | Auris Surgical Robotics, Inc. | Basket apparatus |
US9949749B2 (en) | 2015-10-30 | 2018-04-24 | Auris Surgical Robotics, Inc. | Object capture with a basket |
CN108472086B (zh) * | 2016-02-26 | 2021-07-09 | 直观外科手术操作公司 | 使用虚拟边界避免碰撞的系统和方法 |
AU2017340607B2 (en) | 2016-10-05 | 2022-10-27 | Nuvasive, Inc. | Surgical navigation system and related methods |
WO2018076094A1 (en) * | 2016-10-31 | 2018-05-03 | Synaptive Medical (Barbados) Inc. | 3d navigation system and methods |
EP3554414A1 (en) * | 2016-12-16 | 2019-10-23 | MAKO Surgical Corp. | Techniques for modifying tool operation in a surgical robotic system based on comparing actual and commanded states of the tool relative to a surgical site |
EP3709885B1 (en) * | 2017-11-13 | 2024-06-12 | Koninklijke Philips N.V. | Autonomous x-ray control for robotic navigation |
WO2019118739A1 (en) | 2017-12-14 | 2019-06-20 | Mako Surgical Corp. | View angle-independent visual representation of a cut procedure |
US11071595B2 (en) * | 2017-12-14 | 2021-07-27 | Verb Surgical Inc. | Multi-panel graphical user interface for a robotic surgical system |
CN111315312A (zh) * | 2018-01-04 | 2020-06-19 | 柯惠Lp公司 | 包括扭矩传感器的机器人外科系统 |
CN108324373B (zh) * | 2018-03-19 | 2020-11-27 | 南开大学 | 一种基于电磁定位系统的穿刺手术机器人精确定位实现方法 |
JP7139643B2 (ja) * | 2018-03-23 | 2022-09-21 | カシオ計算機株式会社 | ロボット、ロボットの制御方法及びプログラム |
AU2019261299B2 (en) | 2018-04-23 | 2024-07-25 | Mako Surgical Corp. | System, method and software program for aiding in positioning of a camera relative to objects in a surgical environment |
US10842699B2 (en) * | 2018-04-27 | 2020-11-24 | Ormonde M. Mahoney | System and method for patient positioning in an automated surgery |
EP3569159A1 (en) * | 2018-05-14 | 2019-11-20 | Orthotaxy | Surgical system for cutting an anatomical structure according to at least one target plane |
EP3793465A4 (en) | 2018-05-18 | 2022-03-02 | Auris Health, Inc. | CONTROL DEVICES FOR ROBOTIC ACTIVATION REMOTE CONTROL SYSTEMS |
US11026752B2 (en) | 2018-06-04 | 2021-06-08 | Medtronic Navigation, Inc. | System and method for performing and evaluating a procedure |
US11510737B2 (en) | 2018-06-21 | 2022-11-29 | Mako Surgical Corp. | Patella tracking |
CN113016038B (zh) * | 2018-10-12 | 2024-06-18 | 索尼集团公司 | 避免与机器人手术设备碰撞的触觉障碍 |
JP6895128B2 (ja) * | 2018-11-09 | 2021-06-30 | オムロン株式会社 | ロボット制御装置、シミュレーション方法、及びシミュレーションプログラム |
EP3680738A1 (de) * | 2019-01-14 | 2020-07-15 | Siemens Aktiengesellschaft | Kollisionsprüfung auf basis höherwertiger geometrie |
WO2020153411A1 (en) * | 2019-01-23 | 2020-07-30 | Sony Corporation | Medical arm system, control device, control method, and program |
EP3696740B1 (en) * | 2019-02-14 | 2024-01-10 | Braun GmbH | System for assessing the usage of an envisaged manually movable consumer product |
US20220338886A1 (en) | 2019-06-19 | 2022-10-27 | Think Surgical, Inc. | System and method to position a tracking system field-of-view |
US11369386B2 (en) | 2019-06-27 | 2022-06-28 | Auris Health, Inc. | Systems and methods for a medical clip applier |
US11109928B2 (en) | 2019-06-28 | 2021-09-07 | Auris Health, Inc. | Medical instruments including wrists with hybrid redirect surfaces |
KR20220031576A (ko) * | 2019-07-03 | 2022-03-11 | 스트리커 코포레이션 | 수술 내비게이션을 위한 장애물 회피 기술 |
US11896330B2 (en) | 2019-08-15 | 2024-02-13 | Auris Health, Inc. | Robotic medical system having multiple medical instruments |
US11612440B2 (en) | 2019-09-05 | 2023-03-28 | Nuvasive, Inc. | Surgical instrument tracking devices and related methods |
US10959792B1 (en) | 2019-09-26 | 2021-03-30 | Auris Health, Inc. | Systems and methods for collision detection and avoidance |
CN114746043A (zh) | 2019-09-26 | 2022-07-12 | 史赛克公司 | 外科导航系统 |
WO2021064536A1 (en) | 2019-09-30 | 2021-04-08 | Auris Health, Inc. | Medical instrument with capstan |
JP7328861B2 (ja) * | 2019-10-09 | 2023-08-17 | キヤノンメディカルシステムズ株式会社 | 医用情報処理装置、医用情報処理システム、医用情報処理プログラム、および医用画像撮像装置 |
US11737835B2 (en) | 2019-10-29 | 2023-08-29 | Auris Health, Inc. | Braid-reinforced insulation sheath |
CN113040922B (zh) * | 2019-12-27 | 2022-06-14 | 重庆海扶医疗科技股份有限公司 | 聚焦超声手术执行机构的运动控制方法、介质、系统和设备 |
WO2021137104A1 (en) | 2019-12-31 | 2021-07-08 | Auris Health, Inc. | Dynamic pulley system |
EP4084724A4 (en) | 2019-12-31 | 2023-12-27 | Auris Health, Inc. | ADVANCED BASKET TRAINING MODE |
CN115379814A (zh) | 2020-03-27 | 2022-11-22 | 马科外科公司 | 用于基于虚拟边界控制工具的机器人移动的系统和方法 |
CN115802975A (zh) | 2020-06-29 | 2023-03-14 | 奥瑞斯健康公司 | 用于检测连杆与外部对象之间的接触的系统和方法 |
US11357586B2 (en) | 2020-06-30 | 2022-06-14 | Auris Health, Inc. | Systems and methods for saturated robotic movement |
US20230225794A1 (en) * | 2020-08-12 | 2023-07-20 | Brainlab Ag | Determining an avoidance region for a reference device |
JP2023539372A (ja) * | 2020-09-02 | 2023-09-13 | オーリス ヘルス インコーポレイテッド | ロボット衝突の境界の判定 |
CN112700474B (zh) * | 2020-12-31 | 2024-08-20 | 广东美的白色家电技术创新中心有限公司 | 碰撞检测方法、设备及计算机可读存储介质 |
CN112716603B (zh) * | 2021-01-19 | 2021-11-26 | 威海威高骨科手术机器人有限公司 | 一种骨科复位定位机器人 |
CN113081272B (zh) * | 2021-03-22 | 2023-02-03 | 珞石(北京)科技有限公司 | 虚拟墙引导的膝关节置换手术辅助定位系统 |
WO2023215822A2 (en) * | 2022-05-05 | 2023-11-09 | Virginia Commonwealth University | Methods and systems for surgical training |
WO2023230349A1 (en) * | 2022-05-26 | 2023-11-30 | Stryker Corporation | Alert system behavior based on localization awareness |
EP4406503A1 (en) * | 2023-01-27 | 2024-07-31 | Ecential Robotics | Surgical navigation system dealing with partially-obscured markers |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101426446A (zh) * | 2006-01-17 | 2009-05-06 | 马科外科公司 | 用于触觉表达的装置和方法 |
Family Cites Families (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5430643A (en) | 1992-03-11 | 1995-07-04 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Configuration control of seven degree of freedom arms |
US5548694A (en) | 1995-01-31 | 1996-08-20 | Mitsubishi Electric Information Technology Center America, Inc. | Collision avoidance system for voxel-based object representation |
DE19817039A1 (de) * | 1998-04-17 | 1999-10-21 | Philips Patentverwaltung | Anordnung für die bildgeführte Chirurgie |
US6424885B1 (en) | 1999-04-07 | 2002-07-23 | Intuitive Surgical, Inc. | Camera referenced control in a minimally invasive surgical apparatus |
US7747312B2 (en) | 2000-01-04 | 2010-06-29 | George Mason Intellectual Properties, Inc. | System and method for automatic shape registration and instrument tracking |
US20010034530A1 (en) | 2000-01-27 | 2001-10-25 | Malackowski Donald W. | Surgery system |
DE10025285A1 (de) | 2000-05-22 | 2001-12-06 | Siemens Ag | Vollautomatische, robotergestützte Kameraführung unter Verwendung von Positionssensoren für laparoskopische Eingriffe |
JP2004223128A (ja) | 2003-01-27 | 2004-08-12 | Hitachi Ltd | 医療行為支援装置および方法 |
WO2005039835A1 (en) | 2003-10-24 | 2005-05-06 | The University Of Western Ontario | Force reflective robotic control system and minimally invasive surgical device |
JP3946711B2 (ja) | 2004-06-02 | 2007-07-18 | ファナック株式会社 | ロボットシステム |
JP4335160B2 (ja) | 2005-03-02 | 2009-09-30 | 任天堂株式会社 | 衝突判定プログラムおよび衝突判定装置 |
JP4417877B2 (ja) * | 2005-04-20 | 2010-02-17 | 株式会社セブンスディメンジョンデザイン | 光送受信装置制御システム |
US9082319B2 (en) | 2006-01-24 | 2015-07-14 | Carnegie Mellon University | Method, apparatus, and system for computer-aided tracking, navigation and motion teaching |
WO2007136768A2 (en) | 2006-05-19 | 2007-11-29 | Mako Surgical Corp. | Method and apparatus for controlling a haptic device |
US8560047B2 (en) | 2006-06-16 | 2013-10-15 | Board Of Regents Of The University Of Nebraska | Method and apparatus for computer aided surgery |
US9718190B2 (en) * | 2006-06-29 | 2017-08-01 | Intuitive Surgical Operations, Inc. | Tool position and identification indicator displayed in a boundary area of a computer display screen |
DE602006003435D1 (de) | 2006-09-14 | 2008-12-11 | Abb Research Ltd | Verfahren und Vorrichtung zur Vermeidung von Kollisionen zwischen einem Industrieroboter und einem Objekt |
US8082064B2 (en) | 2007-08-24 | 2011-12-20 | Elite Engineering Corporation | Robotic arm and control system |
DE102007055205A1 (de) | 2007-11-19 | 2009-05-20 | Kuka Roboter Gmbh | Verfahren zum Ermitteln eines Aufstellortes und zum Aufstellen einer Erfassungsvorrichtung eines Navigationssystems |
US9063539B2 (en) | 2008-12-17 | 2015-06-23 | Kuka Laboratories Gmbh | Method and device for command input in a controller of a manipulator |
US8386080B2 (en) | 2009-09-15 | 2013-02-26 | Harris Corporation | Robotic apparatus implementing collision avoidance scheme and associated methods |
US8992542B2 (en) * | 2009-10-01 | 2015-03-31 | Mako Surgical Corp. | Surgical system for positioning prosthetic component and/or for constraining movement of surgical tool |
JP2013524952A (ja) | 2010-04-22 | 2013-06-20 | ブルー ベルト テクノロジーズ,エル エル シー | 再構成可能なナビゲートされる外科用器具のトラッキング装置 |
CA2797302C (en) | 2010-04-28 | 2019-01-15 | Ryerson University | System and methods for intraoperative guidance feedback |
WO2012078989A1 (en) | 2010-12-10 | 2012-06-14 | Wayne State University | Intelligent autonomous camera control for robotics with medical, military, and space applications |
US9119655B2 (en) | 2012-08-03 | 2015-09-01 | Stryker Corporation | Surgical manipulator capable of controlling a surgical instrument in multiple modes |
US9381085B2 (en) | 2011-06-23 | 2016-07-05 | Stryker Corporation | Prosthetic implant and method of implantation |
WO2013033566A1 (en) | 2011-09-02 | 2013-03-07 | Stryker Corporation | Surgical instrument including a cutting accessory extending from a housing and actuators that establish the position of the cutting accessory relative to the housing |
US9770828B2 (en) | 2011-09-28 | 2017-09-26 | The Johns Hopkins University | Teleoperative-cooperative robotic system |
US9333044B2 (en) | 2011-12-30 | 2016-05-10 | St. Jude Medical, Atrial Fibrillation Division, Inc. | System and method for detection and avoidance of collisions of robotically-controlled medical devices |
EP2854688B1 (en) | 2012-06-01 | 2022-08-17 | Intuitive Surgical Operations, Inc. | Manipulator arm-to-patient collision avoidance using a null-space |
EP2863827B1 (en) | 2012-06-21 | 2022-11-16 | Globus Medical, Inc. | Surgical robot platform |
WO2014008929A1 (de) | 2012-07-10 | 2014-01-16 | Siemens Aktiengesellschaft | Roboteranordnung und verfahren zum steuern eines roboters |
CN104736094B (zh) | 2012-08-15 | 2017-07-28 | 直观外科手术操作公司 | 操纵外科系统的活动的假想自由度 |
US9008757B2 (en) | 2012-09-26 | 2015-04-14 | Stryker Corporation | Navigation system including optical and non-optical sensors |
US10028788B2 (en) | 2012-12-31 | 2018-07-24 | Mako Surgical Corp. | System for image-based robotic surgery |
CN108742842B (zh) * | 2013-01-16 | 2022-04-19 | 史赛克公司 | 指示视线误差的导航系统和方法 |
US9717461B2 (en) | 2013-01-24 | 2017-08-01 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
CN104994805B (zh) | 2013-03-13 | 2018-04-27 | 史赛克公司 | 用于建立虚拟约束边界的系统和方法 |
JP6420938B2 (ja) * | 2013-03-15 | 2018-11-07 | シナプティヴ メディカル (バルバドス) インコーポレイテッドSynaptive Medical (Barbados) Inc. | 低侵襲性治療の誘導及びシミュレーションのためのシステム及び方法 |
WO2015135057A1 (en) | 2014-03-14 | 2015-09-17 | Synaptive Medical (Barbados) Inc. | Intelligent positioning system and methods therefore |
JP2014180720A (ja) | 2013-03-19 | 2014-09-29 | Yaskawa Electric Corp | ロボットシステム及びキャリブレーション方法 |
CN106255471B (zh) | 2014-02-05 | 2018-10-26 | 直观外科手术操作公司 | 用于动态虚拟碰撞物体的系统和方法 |
WO2015161297A1 (en) | 2014-04-17 | 2015-10-22 | The Johns Hopkins University | Robot assisted ultrasound system |
US10105186B2 (en) | 2014-06-09 | 2018-10-23 | The Johns Hopkins University | Virtual rigid body optical tracking system and method |
WO2016114834A2 (en) * | 2014-10-22 | 2016-07-21 | Think Surgical, Inc. | Actively controlled optical tracker with a robot |
JP6712994B2 (ja) | 2014-11-21 | 2020-06-24 | シンク サージカル, インコーポレイテッド | 視覚的追跡システムと追跡マーカーとの間でデータを伝送するための、可視光通信システム |
US10660711B2 (en) * | 2015-02-25 | 2020-05-26 | Mako Surgical Corp. | Navigation systems and methods for reducing tracking interruptions during a surgical procedure |
DE102015007395A1 (de) | 2015-06-08 | 2016-12-08 | Kuka Roboter Gmbh | Verfahren und System zum Betreiben und/oder Überwachen einer Maschine, insbesondere eines Roboters |
CN105427819B (zh) | 2015-12-24 | 2017-06-27 | 深圳市华星光电技术有限公司 | 栅极驱动架构及其阵列基板 |
CN108472086B (zh) | 2016-02-26 | 2021-07-09 | 直观外科手术操作公司 | 使用虚拟边界避免碰撞的系统和方法 |
EP3449859B1 (en) | 2016-04-28 | 2024-07-03 | Sony Group Corporation | Control device, control method and surgical system |
DE102016118123A1 (de) | 2016-09-26 | 2018-03-29 | Medineering Gmbh | Medizinischer Haltearm zur Einbindung in ein OP-Navigationssystem |
US11129681B2 (en) | 2017-02-22 | 2021-09-28 | Orthosoft Ulc | Bone and tool tracking in robotized computer-assisted surgery |
WO2019134743A1 (en) | 2018-01-03 | 2019-07-11 | Siemens Healthcare Gmbh | Method for acquiring and for altering a configuration of a number of objects in a procedure room and corresponding device |
WO2020015836A1 (en) | 2018-07-20 | 2020-01-23 | Brainlab Ag | Method for automatic detection of instrument orientation for robotic surgery |
-
2016
- 2016-02-24 US US15/052,323 patent/US10660711B2/en active Active
- 2016-02-24 KR KR1020177017901A patent/KR102491907B1/ko active IP Right Grant
- 2016-02-24 KR KR1020247009857A patent/KR20240044536A/ko unknown
- 2016-02-24 EP EP16709871.4A patent/EP3261571B1/en active Active
- 2016-02-24 AU AU2016222790A patent/AU2016222790B2/en active Active
- 2016-02-24 EP EP23152153.5A patent/EP4197479A1/en active Pending
- 2016-02-24 CN CN202010806484.4A patent/CN111839732B/zh active Active
- 2016-02-24 CN CN201680008515.3A patent/CN107205786B/zh active Active
- 2016-02-24 JP JP2017541250A patent/JP6748088B2/ja active Active
- 2016-02-24 WO PCT/US2016/019347 patent/WO2016138124A1/en active Application Filing
- 2016-02-24 KR KR1020237001704A patent/KR102653682B1/ko active Application Filing
-
2020
- 2020-04-20 US US16/853,146 patent/US11517377B2/en active Active
- 2020-06-24 AU AU2020204207A patent/AU2020204207B2/en active Active
- 2020-08-05 JP JP2020133117A patent/JP6998999B2/ja active Active
-
2021
- 2021-12-21 JP JP2021206995A patent/JP7344271B2/ja active Active
-
2022
- 2022-02-04 AU AU2022200731A patent/AU2022200731B2/en active Active
- 2022-11-08 US US17/982,845 patent/US20230053668A1/en active Pending
-
2023
- 2023-09-01 JP JP2023142314A patent/JP2023175727A/ja active Pending
-
2024
- 2024-02-26 AU AU2024201278A patent/AU2024201278A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101426446A (zh) * | 2006-01-17 | 2009-05-06 | 马科外科公司 | 用于触觉表达的装置和方法 |
Also Published As
Publication number | Publication date |
---|---|
JP7344271B2 (ja) | 2023-09-13 |
JP2022034001A (ja) | 2022-03-02 |
AU2016222790A1 (en) | 2017-07-13 |
AU2020204207B2 (en) | 2021-11-04 |
JP6998999B2 (ja) | 2022-01-18 |
US20200246082A1 (en) | 2020-08-06 |
KR102653682B1 (ko) | 2024-04-03 |
CN111839732A (zh) | 2020-10-30 |
EP3261571A1 (en) | 2018-01-03 |
AU2022200731B2 (en) | 2023-11-30 |
AU2016222790B2 (en) | 2020-04-02 |
AU2024201278A1 (en) | 2024-03-14 |
EP4197479A1 (en) | 2023-06-21 |
AU2022200731A1 (en) | 2022-02-24 |
AU2020204207A1 (en) | 2020-07-16 |
US20230053668A1 (en) | 2023-02-23 |
JP2023175727A (ja) | 2023-12-12 |
JP2018506352A (ja) | 2018-03-08 |
US10660711B2 (en) | 2020-05-26 |
WO2016138124A1 (en) | 2016-09-01 |
JP2020189123A (ja) | 2020-11-26 |
EP3261571B1 (en) | 2023-03-08 |
KR20240044536A (ko) | 2024-04-04 |
JP6748088B2 (ja) | 2020-08-26 |
US20160242858A1 (en) | 2016-08-25 |
KR20230015508A (ko) | 2023-01-31 |
CN107205786B (zh) | 2020-08-25 |
US11517377B2 (en) | 2022-12-06 |
CN107205786A (zh) | 2017-09-26 |
KR20170139493A (ko) | 2017-12-19 |
KR102491907B1 (ko) | 2023-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111839732B (zh) | 用于在外科手术过程中减少跟踪中断的导航系统和方法 | |
CN110997247B (zh) | 用于产生反作用力以实现虚拟边界的机器人系统和方法 | |
EP3052042B1 (en) | System for interacting with an object | |
US20230165649A1 (en) | A collaborative surgical robotic platform for autonomous task execution | |
US11944396B2 (en) | Systems and methods for controlling robotic movement of a tool based on a virtual boundary | |
KR20220070226A (ko) | 로봇 매니퓰레이터들을 안내하기 위한 수술 시스템 및 방법 | |
US20230329813A1 (en) | Systems And Methods For Guided Placement Of A Robotic Manipulator |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |