CN114364333A - 用于引导机器人位置的装置、方法和包括该装置的系统 - Google Patents

用于引导机器人位置的装置、方法和包括该装置的系统 Download PDF

Info

Publication number
CN114364333A
CN114364333A CN202080062005.0A CN202080062005A CN114364333A CN 114364333 A CN114364333 A CN 114364333A CN 202080062005 A CN202080062005 A CN 202080062005A CN 114364333 A CN114364333 A CN 114364333A
Authority
CN
China
Prior art keywords
surgical
robot
target
marker
correlation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080062005.0A
Other languages
English (en)
Inventor
金峰晤
金洙钟
金根永
韩龙熙
任兴淳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HD Hyundai Heavy Industries Co Ltd
Original Assignee
Hyundai Heavy Industries Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hyundai Heavy Industries Co Ltd filed Critical Hyundai Heavy Industries Co Ltd
Publication of CN114364333A publication Critical patent/CN114364333A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/46Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor
    • A61F2/4603Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor for insertion or extraction of endoprosthetic joints or of accessories thereof
    • A61F2/461Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor for insertion or extraction of endoprosthetic joints or of accessories thereof of knees
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1684Tracking a line or surface by means of sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/254User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3904Markers, e.g. radio-opaque or breast lesions markers specially adapted for marking specified tissue
    • A61B2090/3916Bone tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/46Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor
    • A61F2002/4632Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor using computer-controlled surgery, e.g. robotic surgery

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Radiology & Medical Imaging (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Transplantation (AREA)
  • Gynecology & Obstetrics (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Cardiology (AREA)
  • Vascular Medicine (AREA)
  • Manipulator (AREA)

Abstract

本发明涉及一种用于引导机器人位置的装置、方法以及包括该装置的系统。根据本发明,用于引导机器人位置的装置包括:手术目标匹配器,被配置为通过包括连接到手术目标的目标标记器的图像与手术前的手术目标的手术目标图像之间的匹配,得出手术目标和连接到手术目标的目标标记器之间的位置和姿态的相关性;机器人匹配器,被配置为基于包括安装到手术机器人的机器人标记器的图像,得出机器人标记器和手术机器人之间的位置和姿态的相关性,并且得出机器人标记器和预设工作空间之间的位置和姿态的相关性;工作空间识别器,被配置为基于关于目标标记器和机器人标记器的位置和姿态的信息,得出手术目标和工作空间之间的位置和姿态的相关性。由此,可以引导机器人移动至可以进行手术的位置和姿态,能够将手术中断的风险降至最低。

Description

用于引导机器人位置的装置、方法和包括该装置的系统
技术领域
本公开涉及一种用于引导机器人位置的装置、方法和包括该装置的系统,更具体地,涉及一种通过从手术目标和机器人的位置和姿态得出工作空间,来引导手术目标和机器人的位置和姿态的装置、方法和系统。
背景技术
随着近年来医疗技术的发展,利用机器人和计算机系统进行导航手术已被积极引入,这种手术甚至已应用于人工关节手术领域。
以膝关节为例,当患者因外伤或各种感染和疾病而感到疼痛和行为障碍时,可采用基于骨科手术的整体或部分置换手术进行治疗,约有10%至30%的患者因膝关节内部磨损而接受膝关节部分置换手术。
在关节骨科手术中使用的机器人中,有一种机器人可以自动执行所有手术程序,这种手术机器人可以在没有人工干预的情况下沿着预先计划好的路径自动切割骨头。
传统的骨科机器人在进行膝关节手术时,预先确定手术路径,在手术目标上安装光学标记器,通过光学传感器跟踪光学标记器的位置和姿态,并且根据手术路径监测患者的位置和机器人的位置的同时进行手术。
同时,根据手术机器人的位置和姿态或骨骼的位置和姿态,手术路径可能不在机器人手臂的末端执行器可以到达的区域内,或者机器人在沿移动路径移动时可能出现运动学误差。
但是,机器人的工作空间只有在设置了机器人的起始位置后才能确定,因此机器人在手术过程中可能无法到达所需的手术位置,从而导致手术停止的问题。
发明内容
因此,本公开旨在解决上述问题,本公开的一个方面是提供一种用于在手术前识别机器人是否处于与手术路径相对应的可手术位置和姿态的系统和方法。
此外,本公开旨在解决上述问题,本公开的一个方面是提供一种用于引导机器人在工作空间中定位的位置和姿态的系统和方法。
此外,本公开旨在解决上述问题,本公开的一个方面是提供一种用于将手术目标的位置和姿态引导到机器人的工作空间中的系统和方法。
根据本公开的一个方面,一种用于引导机器人位置的装置,包括:手术目标匹配器,被配置为通过包括连接到手术目标的目标标记器的图像与手术前的手术目标的手术目标图像之间的匹配,得出手术目标和连接到手术目标的目标标记器之间的位置和姿态的相关性;机器人匹配器,被配置为基于包括安装到手术机器人的机器人标记器的图像,得出机器人标记器和手术机器人之间的位置和姿态的相关性,并且得出机器人标记器和预设工作空间之间的位置和姿态的相关性;工作空间识别器,被配置为基于关于目标标记器和机器人标记器的位置和姿态的信息,得出手术目标和工作空间之间的位置和姿态的相关性。
根据本公开的一个方面,一种用于引导机器人位置的方法,包括:通过包括连接到手术目标的目标标记器的图像与手术前的手术目标的手术目标图像之间的匹配,得出手术目标和连接到手术目标的目标标记器之间的位置和姿态的相关性;基于包括安装到手术机器人的机器人标记器的图像,得出机器人标记器和手术机器人之间的位置和姿态的相关性,并且得出机器人标记器和预设工作空间之间的位置和姿态的相关性;基于目标标记器和机器人标记器的位置和姿态信息,得出手术目标和工作空间之间的位置和姿态的相关性;以及通过基于关于手术目标和工作空间之间的位置和姿态的相关性的引导信息生成图形来显示图像。
根据本公开的一个方面,一种用于引导机器人位置的系统,包括:跟踪器,被配置为跟踪安装到手术机器人的机器人标记器和连接到手术目标的目标标记器的位置和姿态;存储器,被配置为存储手术前获得的手术目标的手术目标图像;手术目标匹配器,被配置为基于手术目标图像,得出手术目标和连接到手术目标的目标标记器之间的位置和姿态的相关性;机器人匹配器,被配置为得出机器人标记器与手术机器人之间的位置和姿态的相关性,并得出机器人标记器与预设工作空间之间的位置和姿态的相关性;工作空间识别器,被配置为基于由跟踪器获得的关于目标标记器和机器人标记器的位置和姿态的信息,得出工作空间和手术目标之间的位置和姿态的相关性;图形用户界面(GUI)生成器,被配置为基于关于工作空间和手术目标之间的位置和姿态的相关性的引导信息生成图形;显示器,被配置为基于引导信息显示图像。
如上所述,根据本公开,可以识别手术目标的位置和姿态是否在手术机器人的工作空间内。此外,根据本公开,引导机器人移动到工作位置和姿态空间,从而将停止手术的风险最小化。此外,根据本公开,将手术目标的姿态引导至机器人的工作姿态空间,能够顺利地进行手术。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1示意性地示出了根据本公开实施例的用于引导机器人位置的系统。
图2是根据本公开实施例的位置引导装置的控制框图。
图3是用于描述根据本公开实施例的手术目标匹配器的操作的图。
图4是用于描述根据本公开实施例的机器人匹配器的操作的图。
图5是用于描述根据本公开实施例的工作空间识别器的操作的图。
图6示出了根据本公开实施例的由图形用户界面(GUI)生成器生成的引导信息的示例。
图7是用于描述根据本公开实施例的用于机器人的位置引导装置的位置引导方法的流程图。
具体实施方式
下面,将参照附图描述本公开的示例性实施例。然而,可能使本公开的主旨模糊的公知功能或配置的细节将从以下描述和附图中省略。此外,如果可能,相似的数字在整个附图中指代相似的元件。
说明书中使用的术语或词语以及下文描述的权利要求不应被解释为具有典型或字典意义,但应按照本公开的技术思想进行解释,其原则是发明人可以适当地定义术语,以便以最佳方式描述其发明。因此,说明书中描述的实施例和附图中说明的特征只是本公开的示例性实施例,并不代表本公开的全部技术思想,因此应该理解,在本申请的申请日,可能存在各种可替代的等同物和修改。
下面将参照图1至图5描述根据本公开实施例的用于引导机器人位置的系统和装置。
图1示意性地示出了根据本公开实施例的用于机器人的位置引导系统。参考图1,根据本公开实施例的机器人位置引导系统包括连接到手术目标1和2的目标标记器(或骨标记器)10和20、手术机器人30、跟踪器40和位置引导装置100。
手术目标1和2指的是要进行手术的目标。根据本公开的一个实施例,将举例说明,手术目标是股骨1和胫骨2,膝关节位于股骨1和胫骨2之间,因此目标标记器10和20分别连接到股骨1和胫骨2。
手术机器人30将执行关节手术。手术机器人30可以包括机器人基座和机器人手臂,以及可以设置在手臂的末端的切割工具。机器人标记器31被安装在手术机器人30的基座上。
光学标记器可以用作目标标记器10和20以及机器人标记器31,并且包括从中心点向不同方向分出的三个或四个杆。在杆的末端,可以形成高度反射的球状标记器。
跟踪器40用于跟踪安装在手术机器人30上的机器人标记器31以及连接在手术目标上的目标标记器10和20的位置和姿态。跟踪器40在三维(3D)坐标上检测标记器的位置和姿态,并将检测到的位置和姿态发送给位置引导装置100(将在后文描述)。根据本公开的一个实施例,将举例说明,跟踪器40被实现为光学跟踪系统OTS(Optical Tracking System,OTS)。
位置引导装置100基于从跟踪器40接收到的信号来执行手术目标的匹配和手术机器人30的匹配,并且基于手术机器人30的工作空间与手术目标1和2之间的位置/姿态的相关性来引导手术机器人30的位置。如图1所示,位置引导装置100可以包括计算机或微处理器以及显示器。图1示出位置引导装置100被实现为与手术机器人30分离的附加装置。必要时,可在手术机器人30中提供位置引导装置的计算机或微处理器,且位置引导装置的显示器可安装为连接至跟踪器40。在这种情况下,手术机器人30连接到跟踪器40,从跟踪器40接收关于标记器的位置/姿态信息,并且处理和传输位置/姿态信息到显示器。
图2是根据本公开实施例的位置引导装置100的控制框图。参考图2,根据本公开实施例的位置引导装置100包括信号接收器110、用户输入单元120、显示器130、存储器140和控制器150。
信号接收器110用于从外部接收信号。例如,信号接收器110可以包括用于与外部设备连接的高清多媒体接口HDMI(HDMI,High Definition Multimedia Interface)连接器11或D-sub连接器,或者用于与有线/无线网络(例如互联网)连接的通信模块。信号接收器110可以包括有线/无线通信模块,用于跟踪器40和手术机器人30之间的互通。
用户输入单元120用于接收来自用户的命令,并将该命令输入控制器150(将在后文描述)。用户输入单元120可以包括各种用户输入单元中的至少一种,例如键盘、鼠标、按钮等。
显示器130用于在屏幕上显示图像。显示器130可以通过液晶显示器LCD(LCD,Liquid Crystal Display)面板、发光二极管LED(LED,Light Emitting Diode)面板、有机发光二极管OLED(OLED,Organic Light Emitting Diode)面板等实现。
存储器140被配置为存储用于位置引导装置100的各种操作系统(OS)、中间件、平台和各种应用,并存储程序代码、经处理的视频和音频信号以及数据。存储器140被配置为存储在手术之前获得的手术目标图像,例如,患者的计算机断层扫描(CT)图像等。存储器140可以通过只读存储器ROM(ROM,Read Only Memory)、可擦除可编程只读存储器EPROM(EPROM,Erasable Programmable Read-Only Memory)、随机存取存储器RAM(RAM,RandomAccess Memory)等实现。
控制器150通过用户输入单元120或内部程序输入用户命令,负责位置引导装置100的一般控制。控制器150可以包括用于信号处理和控制的程序代码,以及用于执行计算机程序的微处理器。控制器150基于通过信号接收器110从跟踪器40接收的位置/姿态信息执行图像匹配和位置跟踪,得出手术目标和手术机器人30之间的工作空间的相关性,以及向用户提供用于引导手术机器人30的位置和姿态的引导信息。
参考图2,控制器150包括手术目标匹配器151、机器人匹配器153、工作空间识别器155和图形用户界面(GUI)生成器157。
手术目标匹配器151被配置为通过图像匹配,得出手术目标1和2与连接到手术目标1和2的目标标记器(或骨标记器)10和20之间的位置/姿态的相关性。将目标标记器10和20连接到手术目标后,使用探针识别手术目标和目标标记器10和20的位置和姿态。手术目标匹配器151被配置为通过跟踪器40接收关于探针指示的位置和姿态的光学图像,并将接收到的光学图像与患者的3D数据(例如,先前存储在存储器140中的CT图像)匹配,由此得出目标标记器10和20与手术目标之间的位置/姿态的相关性。手术目标匹配器151可以通过用于图像匹配的软件算法实现。
图3是用于描述根据本公开实施例的手术目标匹配器151的操作的图。参考图3,手术目标是股骨1和胫骨2,膝关节位于股骨1和胫骨2之间,因此目标标记器10和20分别连接到股骨1和胫骨2。
在图3中,股骨植入物坐标FIC(FIC,Femur Implant Coordinate)指基于股骨植入物原点FIO(FIO,Femur Implant Origin)的位置和姿态的坐标系,股骨标记器坐标FMC(FMC,Femur Marker Coordinate)指基于股骨标记器10的位置和姿态的坐标系。这里,股骨植入物原点指手术路径的原点,即股骨的切割路径。
手术目标匹配器151可以被配置为使用与股骨1的多个点接触的探针刮取股骨1的同时,获取关于股骨1和股骨标记器10的位置和姿态的信息,并将获得的信息与CT图像匹配,由此得出股骨标记器10和FIO之间的位置/姿态的相关性,例如,作为股骨标记器10的坐标系和基于FIO的坐标系(FIC)之间的位置/姿态的坐标变换关系的变换矩阵FTFI。因此,当从跟踪器40获得关于股骨标记器10的位置和姿态的信息时,控制器150可以通过将关于股骨标记器10的位置和姿态的信息与由手术目标匹配器151得出的变换矩阵FTFI相乘,得出股骨1的位置和姿态,例如股骨1的植入物原点。
在图3中,胫骨植入物坐标TIC(TIC,Tibia Implant Coordinate)指基于胫骨植入物原点TIO(Tibia Implant Origin,TIO)的位置和姿态的坐标系,胫骨标记器坐标TMC(Tibia Marker Coordinate,TMC)指基于胫骨标记器20的位置和姿态的坐标系。这里,胫骨2的植入物原点是指手术路径、即切割路径的原点。
手术目标匹配器151可以被配置为使用与胫骨2的多个点接触的探针刮取胫骨2的同时,获取关于胫骨2和胫骨标记器20的位置和姿态的信息,并将获得的信息与CT图像匹配,由此得出胫骨标记器20和TIO(Tibia Implant Origin,TIO)之间的位置/姿态的相关性,例如,作为胫骨标记器20的坐标系和基于TIO(Tibia Implant Origin,TIO)的坐标系之间的位置/姿态的坐标变换关系的变换矩阵TTTI。因此,当从跟踪器40获得关于胫骨标记器20的位置和姿态的信息时,控制器150可以通过将关于胫骨标记器20的位置和姿态的信息与由手术目标匹配器151得出的变换矩阵TTTI相乘,得出胫骨2的位置和姿态,例如胫骨2的植入物原点。
这里,手术目标,即股骨1和胫骨2的位置和姿态可以包括股骨1和胫骨2在手术路径上多个点的位置和姿态,其含义包括基于植入物原点的手术路径(例如,切割路径)。在本说明书中,“手术目标”在广义上可以指诸如股骨1和胫骨2等的手术目标,或者在狭义上可以指包括基于植入物原点的手术路径或手术目标的植入物原点的位置和姿态的植入手术部位。
机器人匹配器153被配置为得出手术机器人30和连接到手术机器人30的机器人标记器31之间的位置和姿态的相关性,以及得出机器人标记器31和预设工作空间之间的位置和姿态的相关性。
图4是用于描述根据本公开实施例的机器人匹配器153的操作的图。参考图4,机器人坐标RC(Robot Coordinate,RC)指基于机器人坐标原点RO(Robot Coordinate Origin,RO)的机器人坐标系,工作空间坐标WSC(Work Space Coordinate,WSC)指基于手术机器人30的工作空间原点WS(WS,Work Space)的坐标系,机器人标记器坐标RMC(Robot MarkerCoordinate,RMC)指机器人标记器31的坐标系。手术机器人30的WS指基于手术机器人30的位置和姿态的空间,并且手术机器人30和工作空间之间的位置/姿态的相关性是先前从机器人坐标系的原点定义的,并且例如具有变换矩阵ROTWS的值作为工作空间相对于机器人坐标系原点的坐标变换关系。
这里,工作空间是指基于关于手术机器人30的位置和姿态的信息计算的预定义空间,包括工作姿态空间和工作位置空间。工作位置空间是指定义为相对于工作空间的原点具有一定距离或体积的空间,工作位置空间是基于机器人的姿态确定的。例如,将工作空间的原点计算为先前根据机器人的位置定义的位置,并将工作位置空间设置为距离工作空间原点具有一定体积的空间。此外,工作空间原点处的姿态可以设置为与机器人基座的姿态相同,而工作姿态空间可以设置为考虑到从原点的姿态(即机器人基座的姿态)开始的工作姿态范围的一定姿态。例如,工作空间指的是允许安装在机器人手臂上的手术工具的位置和姿态的空间,可根据机器人基座进行定义。
机器人匹配器153被配置为在匹配的基础上得出机器人标记器31和手术机器人30之间的原点的位置关系,即变换矩阵RMTRO作为机器人标记器31的坐标系和手术机器人30的坐标系之间的位置/姿态的坐标变换关系。机器人匹配器153可被配置为通过跟踪器40注册手术机器人30的位置和机器人标记器31的位置,并得出注册位置之间的相关性。通过将标记器安装到机器人手臂上,并在机器人手臂移动时通过跟踪器40跟踪标记器的位置和姿态,机器人匹配器153可以得出变换矩阵RMTRO,即,机器人基座的位置/姿态与机器人标记器31的位置/姿态之间的相关性。
机器人匹配器153被配置为基于机器人坐标原点相对于机器人标记器31的变换矩阵RMTRO和工作空间相对于手术机器人30的原点的变换矩阵ROTWS,得出机器人标记器31和工作空间之间的位置/姿态的相关性。这可以表达如下。
[等式1]
RMTWSRMTRO×ROTWS
(其中,RMTWS是机器人标记器31的工作空间的变换矩阵,RMTRO是手术机器人30的原点相对于机器人标记器31的变换矩阵,ROTWS是工作空间相对于手术机器人30的原点的变换矩阵。)
因此,控制器150可以从跟踪器40获取关于机器人标记器31的位置和姿态的信息,以及通过将关于机器人标记器31的位置和姿态的信息与由机器人匹配器153得出的变换矩阵RMTWS相乘,得出原点在机器人工作空间中的位置和姿态。控制器150被配置为从原点在工作空间中的位置和姿态得出工作位置空间和工作姿态空间。如上所述,工作空间是指从工作空间的原点确定的具有一定体积的工作位置空间和与手术机器人30的姿态相对应的工作姿态空间,其可以基于手术机器人30的位置或姿态来设置。
工作空间识别器155可以被配置为基于关于目标标记器10和20以及机器人标记器31的位置和姿态的信息,来得出手术目标和工作空间之间的位置/姿态的相关性。工作空间识别器155可以通过用于位置/姿态变换和计算的软件算法来实现。
图5是用于描述根据本公开实施例的工作空间识别器155的操作的图。
工作空间识别器155被配置为通过跟踪器40获取关于安装在手术机器人30的基座中的机器人标记器31的位置和姿态以及连接到股骨1和胫骨2的目标标记器10和20的位置和姿态的信息,并确定手术目标1和2与手术机器人30的工作空间之间的位置/姿态的相关性。
工作空间识别器155被配置为从跟踪器40获取关于机器人标记器31和目标标记器10和20的位置和姿态的信息。在图5中,OTC表示跟踪器40的坐标系,机器人标记器坐标RMC(Robot Marker Coordinate,RMC)表示机器人标记器31的坐标系,股骨标记器坐标FMC(Femur Marker Coordinate,FMC)表示股骨标记器10的坐标系,胫骨标记器坐标TMC(TibiaMarker Coordinate,TMC)表示胫骨标记器20的坐标系。股骨标记器10的位置/姿态信息和胫骨标记器20的位置/姿态信息都是基于跟踪器40的坐标系从跟踪器40获得的,以便机器人标记器31和目标标记器10和20的位置可以根据跟踪器40的坐标系、机器人标记器31的坐标系和目标标记器10和20的坐标系之间的变换关系OTSTRMOTSTTMOTSTFM变换成跟踪器40的坐标系统中的位置。
工作空间识别器155被配置为将基于跟踪器40的坐标系变换的股骨标记器20的位置和姿态信息乘以变换矩阵FTFI,即,在手术目标匹配器151中计算的股骨植入物原点(FIO)相对于股骨标记器10的相关性,由此得出股骨1在跟踪器40的坐标系中的位置和姿态。
以相同方式,工作空间识别器155被配置为将基于跟踪器40的坐标系变换的胫骨标记器20的位置和姿态信息乘以变换矩阵TTTI,在手术目标匹配器151中计算的胫骨植入物原点相对于胫骨标记器20的位置/姿态相关性,由此得出胫骨2在跟踪器40的坐标系中的位置和姿态。
工作空间识别器155被配置为将基于跟踪器40的坐标系变换的机器人标记器31的位置和姿态信息乘以变换矩阵RMTWS,即,在机器人匹配器151中计算的工作空间相对于机器人标记器31的相关性,由此得出工作空间原点在跟踪器40的坐标系中的位置(即,工作位置空间)和姿态(即,工作姿态空间)。
股骨和胫骨的位置/姿态以及工作空间的位置/姿态都是基于跟踪器40的坐标系的值,因此工作空间识别器155可以基于这些值得出股骨、胫骨和工作空间之间的位置/姿态的相关性。参考图5,工作空间识别器155得出股骨和工作空间之间的位置和姿态的相关性,例如位置变换矩阵WSTFIC,以及胫骨和工作空间之间的位置和姿态的相关性,例如位置变换矩阵WSTTIC
在图3至图5中,股骨1的植入物原点和胫骨2的植入物原点指的是手术路径,即切割路径的原点。手术路径是在手术前预先规划的,并且可以根据股骨和胫骨的切割范围、植入物种类等而变化。关于手术路径的信息,例如切割路径,是预先存储的,但是基于手术路径的植入物原点的位置和姿态是根据手术目标和手术机器人30的位置/姿态相对定义的。
通过根据本公开的前述操作,计算基于手术机器人30的位置/姿态的工作空间和基于手术目标的位置/姿态的手术路径,例如,手术路径原点的位置/姿态,并计算它们之间的相关性。
GUI生成器157被配置为基于关于手术目标的位置和工作位置空间之间的相关性以及手术目标的姿态和工作姿态空间之间的相关性的引导信息生成图形,并将图形发送到显示器130。GUI生成器157可以包括图形处理模块,例如,处理数据以生成图像的图形卡。图6示出了根据本公开实施例的由GUI生成器157生成并显示在显示器130上的引导信息的示例。参考图6,引导信息包括用于显示手术目标1和2的姿态是否属于工作姿态空间的第一菜单图像201,以及用于显示手术目标1和2的位置是否属于工作位置空间的第二菜单图像202,以及用于建议手术机器人30的移动方向的第三菜单图像203。此外,如第二菜单图像中所示,引导信息可以直观地显示关于工作空间和手术目标位置之间的间隔距离的信息。
第一菜单图像201以图形方式示出手术目标的姿态(旋转角度)是否属于工作姿态空间。在第一菜单图像201中,点201a指示股骨1和胫骨2的每个当前姿态(旋转角度),用颜色表示的条201b指示工作姿态空间。因此,用户可以适当地调整手术目标1和2的姿态或手术机器人30的姿态,使其属于工作姿态空间,同时检查指示股骨1和胫骨2的姿态(旋转角度)的点201a是否在指示工作姿态空间的色条201b之内或之外。如第一菜单图像201中所示,手术目标1和2的姿态由角度1、角度2和角度3的三个姿态表示,作为相对于三个轴(例如,X轴、Y轴和Z轴)的旋转角度。
第二菜单图像202显示工作空间WS的位置与手术目标1和2的位置之间的关系。位置关系包括在诸如前部、顶部等各种位置处观察到的位置关系,从而引导手术机器人30移动,以便可以将手术目标1和2定位在工作空间中。参考图6,手术目标1和2的位置可以被表示为包括手术目标1和2的植入物原点,以及包括手术目标1和2相对于基于先前计划的手术路径的原点而包括在手术路径中的区域。
第三菜单图像203示意了手术目标1和2以及机器人的移动方向,并且基于手术目标1和2的当前位置与手术机器人30之间的关系,通过激活向前、向后、向左和向右箭头来显示机器人的移动方向。用户在第三菜单图像203中按照手术机器人30在视觉上给出的向前、向后、向左和向右箭头的移动方向移动手术机器人30,从而引导手术目标1和2属于工作空间WS。
这里,工作空间WS与手术目标1和2的位置和姿态之间的相关性可以基于机器人的坐标系来表示。
因此,根据本公开,以图形方式显示基于手术机器人30的位置/姿态(例如,工作位置空间和工作姿态空间)的工作空间与基于手术目标1和2的位置/姿态的手术路径的位置/姿态之间的相关信息,从而引导用户调整手术机器人30和手术目标1和2的位置和姿态,使得实际操作区域(例如,手术路径)可以定位在工作空间内。
图7是用于描述根据本公开实施例的用于机器人的位置引导装置100的位置引导方法的流程图。必要时将避免对前述实施例的重复描述。
参考图7,根据本公开一个实施例的机器人的位置引导方法,首先通过识别手术目标1和2以及目标标记器10和20与探针的位置的过程,执行与先前在手术之前获得的患者CT图像的匹配(S10)。通过这种匹配过程,得出目标标记器10和20与手术目标1和2之间的相关性(S11)。此外,通过机器人标记器31和手术机器人30之间的匹配处理,得出机器人标记器31和手术机器人30之间的位置/姿态的相关性(S12)。此外,基于与先前由手术机器人30的位置/姿态定义的工作空间的相关性,得出机器人标记器31与工作空间之间的相关性(S13)。
通过跟踪器40获得机器人标记器31和目标标记器10和20的位置和姿态(S14),并且,基于在前述匹配过程中计算的目标标记器10和20与手术目标1和2之间的位置和姿态的相关性,以及机器人标记器31和工作空间之间的位置和姿态的相关性(S15),得出工作空间与手术目标1和2之间的位置和姿态的相关性。
GUI生成器157基于计算出的相关性生成用于引导手术机器人30(或手术目标)的位置和姿态的引导信息(S16),并且显示器130将引导信息显示为图像(S17)。
当调整手术机器人30的位置/姿态或手术目标1和2的位置/姿态时(S18),用于机器人的位置引导装置100通过跟踪器40接收关于机器人标记器31的位置/姿态或目标标记器10和20的位置/姿态的变化信息,并执行前述过程S14至S17,由此,基于调整后的位置/姿态重新生成并显示引导信息(S17)。
根据替代实施例,根据图7所示的前述实施例的机器人的匹配过程S12至S14可以在手术目标的匹配过程S10和S11之前执行。
通过上述过程,在检查手术目标1和2的位置/姿态是否在工作空间内后,手术安全开始。因此,根据本公开,引导手术机器人30移动到工作位置/姿态空间,从而最小化手术中断的风险。在前述实施例中,得出并视觉显示机器人的工作空间(即,工作位置空间和工作姿态空间)与手术目标1和2之间的位置/姿态的相关性。然而,根据替代实施例,机器人30的位置/姿态与手术目标1和2的位置/姿态之间的相关性可以得出并视觉显示。
工作空间是指根据机器人的位置和姿态而变化的空间,因此,通过与前述实施例相同的变换过程,得出手术机器人30的位置/姿态与手术目标1和2的位置/姿态之间的相关性。例如,可以得出机器人基座的位置和姿态而不是工作空间,并且可以基于手术目标1和2的位置/姿态显示机器人的当前位置/姿态和机器人基座的工作位置/姿态空间,以便用户可以引导机器人移动到目标位置。

Claims (12)

1.一种用于引导机器人位置的装置,包括:
手术目标匹配器,被配置为通过包括连接到手术目标的目标标记器的图像与手术前的所述手术目标的手术目标图像之间的匹配,得出所述手术目标和连接到手术目标的目标标记器之间的位置和姿态的相关性;
机器人匹配器,被配置为基于包括安装到手术机器人的机器人标记器的图像,得出所述机器人标记器和所述手术机器人之间的位置和姿态的相关性,并且得出所述机器人标记器和预设工作空间之间的位置和姿态的相关性;
工作空间识别器,被配置为基于关于所述目标标记器和所述机器人标记器的位置和姿态的信息,得出所述手术目标和所述工作空间之间的位置和姿态的相关性。
2.根据权利要求1所述的装置,该装置还包括:
图形用户界面(GUI)生成器,被配置为基于关于所述手术目标和所述工作空间之间的位置和姿态的相关性的引导信息生成图形;和
显示器,被配置为基于所述引导信息显示图像。
3.根据权利要求2所述的装置,其中所述引导信息包括关于所述手术目标的位置和所述工作空间之间的间隔距离的信息。
4.根据权利要求2或3所述的装置,其中:
所述工作空间包括工作姿态空间和工作位置空间;和
所述引导信息包括显示所述手术目标的姿态是否属于所述工作姿态空间的第一菜单图像,以及显示所述手术目标的位置是否属于所述工作位置空间的第二菜单图像。
5.根据权利要求4所述的装置,其中,所述手术目标在所述第二菜单图像上的位置由所述手术目标包括的区域表示,所述区域属于先前基于手术路径的原点为所述手术目标规划的手术路径。
6.根据权利要求5所述的装置,其中:
所述工作空间是根据所述手术机器人的位置和姿势信息计算的;和
所述工作位置空间形成为相对于所述工作空间的原点具有一定的体积,并且所述工作姿态空间是基于所述机器人的姿态。
7.一种用于引导机器人位置的系统,包括:
跟踪器,被配置为跟踪安装到手术机器人的机器人标记器和连接到手术目标的目标标记器的位置和姿态;
存储器,被配置为存储手术前获得的所述手术目标的手术目标图像;
手术目标匹配器,被配置为基于所述手术目标图像,得出所述手术目标和连接到所述手术目标的所述目标标记器之间的位置和姿态的相关性;
机器人匹配器,被配置为得出所述机器人标记器与所述手术机器人之间的位置和姿态的相关性,并得出所述机器人标记器与预设工作空间之间的位置和姿态的相关性;
工作空间识别器,被配置为基于由所述跟踪器获得的关于所述目标标记器和所述机器人标记器的位置和姿态的信息,得出所述工作空间和所述手术目标之间的位置和姿态的相关性;
图形用户界面(GUI)生成器,被配置为基于关于所述工作空间和所述手术目标之间的位置和姿态的相关性的引导信息生成图形;和
显示器,被配置为基于所述引导信息显示图像。
8.一种用于引导机器人位置的方法,包括:
通过包括连接到手术目标的目标标记器的图像与手术前的所述手术目标的手术目标图像之间的匹配,得出所述手术目标和连接到手术目标的目标标记器之间的位置和姿态的相关性;
基于包括安装到手术机器人的机器人标记器的图像,得出所述机器人标记器和所述手术机器人之间的位置和姿态的相关性,并且得出所述机器人标记器和预设工作空间之间的位置和姿态的相关性;
基于关于所述目标标记器和所述机器人标记器的位置和姿态的信息,得出所述手术目标和所述工作空间之间的位置和姿态的相关性;以及
基于关于所述手术目标和所述工作空间之间的位置和姿态的相关性的引导信息,通过生成图形来显示图像。
9.一种用于引导机器人位置的方法,包括:
基于包括安装到手术机器人的机器人标记器的图像,得出所述机器人标记器和所述手术机器人之间的位置和姿态的相关性,并且得出所述机器人标记器和预设工作空间之间的位置和姿态的相关性;
通过包括连接到手术目标的目标标记器的图像与手术前的所述手术目标的手术目标图像之间的匹配,得出所述手术目标和连接到所述手术目标的所述目标标记器之间的位置和姿态的相关性;
基于关于所述目标标记器和所述机器人标记器的位置和姿态的信息,得出所述手术目标和所述工作空间之间的位置和姿态的相关性;以及
基于关于所述手术目标和所述工作空间之间的位置和姿态的相关性的引导信息,通过生成图形来显示图像。
10.根据权利要求8或9所述的方法,其中:
所述工作空间包括工作姿态空间和工作位置空间;和
所述引导信息包括显示所述手术目标的姿态是否属于所述工作姿态空间的第一菜单图像,以及显示所述手术目标的位置是否属于所述工作位置空间的第二菜单图像。
11.根据权利要求10所述的方法,其中,所述手术目标在所述第二菜单图像上的位置由所述手术目标包括的区域表示,所述区域属于先前基于手术路径的原点为所述手术目标规划的手术路径。
12.根据权利要求10所述的方法,其中:
所述工作空间是根据所述手术机器人的位置和姿势信息计算的;和
所述工作位置空间形成为相对于所述工作空间的原点具有一定的体积,并且所述工作姿态空间是基于所述机器人的姿态。
CN202080062005.0A 2019-09-05 2020-09-03 用于引导机器人位置的装置、方法和包括该装置的系统 Pending CN114364333A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020190109922A KR102274167B1 (ko) 2019-09-05 2019-09-05 로봇의 위치 가이드 장치, 이의 방법 및 이를 포함하는 시스템
KR10-2019-0109922 2019-09-05
PCT/KR2020/011895 WO2021045546A2 (ko) 2019-09-05 2020-09-03 로봇의 위치 가이드 장치, 이의 방법 및 이를 포함하는 시스템

Publications (1)

Publication Number Publication Date
CN114364333A true CN114364333A (zh) 2022-04-15

Family

ID=74852140

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080062005.0A Pending CN114364333A (zh) 2019-09-05 2020-09-03 用于引导机器人位置的装置、方法和包括该装置的系统

Country Status (6)

Country Link
US (1) US11666392B2 (zh)
EP (1) EP4026509A4 (zh)
JP (1) JP7341567B2 (zh)
KR (1) KR102274167B1 (zh)
CN (1) CN114364333A (zh)
WO (1) WO2021045546A2 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102301863B1 (ko) * 2020-02-12 2021-09-16 큐렉소 주식회사 수술 대상체의 정합 확인방법, 그 장치 및 이를 포함하는 시스템
KR20240041681A (ko) * 2022-09-23 2024-04-01 큐렉소 주식회사 수술 로봇의 절삭 경로 플래닝 장치 및 그 방법
WO2024128704A1 (ko) * 2022-12-12 2024-06-20 큐렉소 주식회사 수술로봇의 수술 가능 영역 생성 장치 및 방법

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101160104A (zh) * 2005-02-22 2008-04-09 马科外科公司 触觉引导系统及方法
DE102014219477A1 (de) * 2014-09-25 2016-03-31 Deutsches Zentrum für Luft- und Raumfahrt e.V. Chirurgierobotersystem
US20170189125A1 (en) * 2015-12-31 2017-07-06 Stryker Corporation System And Methods For Performing Surgery On A Patient At A Target Site Defined By A Virtual Object
CN107438413A (zh) * 2016-03-30 2017-12-05 索尼公司 控制装置、控制方法、以及用于手术的显微镜装置
US20180168749A1 (en) * 2016-12-16 2018-06-21 Mako Surgical Corp. Techniques for detecting errors or loss of accuracy in a surgical robotic system
US20180185100A1 (en) * 2017-01-03 2018-07-05 Mako Surgical Corp. Systems And Methods For Surgical Navigation
US20190069962A1 (en) * 2016-02-26 2019-03-07 Think Surgical, Inc. Method and system for guiding user positioning of a robot

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8644907B2 (en) 1999-10-28 2014-02-04 Medtronic Navigaton, Inc. Method and apparatus for surgical navigation
US8311611B2 (en) * 2007-04-24 2012-11-13 Medtronic, Inc. Method for performing multiple registrations in a navigated procedure
KR100998182B1 (ko) 2008-08-21 2010-12-03 (주)미래컴퍼니 수술용 로봇의 3차원 디스플레이 시스템 및 그 제어방법
WO2014159350A1 (en) * 2013-03-13 2014-10-02 Stryker Corporation System for arranging objects in an operating room in preparation for surgical procedures
CN105431102B (zh) * 2013-06-11 2018-01-30 迷你麦克斯医疗 用于身体部分的计划量的处理的系统
KR102296451B1 (ko) * 2014-12-08 2021-09-06 큐렉소 주식회사 중재시술 로봇용 공간정합 시스템
KR101817438B1 (ko) * 2016-09-13 2018-01-11 재단법인대구경북과학기술원 고관절 전치환술을 위한 수술 항법 시스템
CA3076625A1 (en) * 2017-09-27 2019-04-04 Virtual Incision Corporation Robotic surgical devices with tracking camera technology and related systems and methods
US11154369B2 (en) * 2018-01-24 2021-10-26 Think Surgical, Inc. Environmental mapping for robotic assisted surgery
US11612438B2 (en) * 2018-09-05 2023-03-28 Point Robotics Medtech Inc. Navigation system and method for medical operation by a robotic system using a tool
CA3114245A1 (fr) * 2018-09-27 2020-04-02 Quantum Surgical Robot medical comportant des moyens de positionnement automatique
US11986246B2 (en) * 2019-06-25 2024-05-21 Think Surgical, Inc. Method to determine bone placement in a robot workspace
WO2021257681A1 (en) * 2020-06-19 2021-12-23 Smith & Nephew, Inc. Robotic arm positioning and movement control

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101160104A (zh) * 2005-02-22 2008-04-09 马科外科公司 触觉引导系统及方法
DE102014219477A1 (de) * 2014-09-25 2016-03-31 Deutsches Zentrum für Luft- und Raumfahrt e.V. Chirurgierobotersystem
US20170189125A1 (en) * 2015-12-31 2017-07-06 Stryker Corporation System And Methods For Performing Surgery On A Patient At A Target Site Defined By A Virtual Object
US20190069962A1 (en) * 2016-02-26 2019-03-07 Think Surgical, Inc. Method and system for guiding user positioning of a robot
CN107438413A (zh) * 2016-03-30 2017-12-05 索尼公司 控制装置、控制方法、以及用于手术的显微镜装置
US20180168749A1 (en) * 2016-12-16 2018-06-21 Mako Surgical Corp. Techniques for detecting errors or loss of accuracy in a surgical robotic system
US20180185100A1 (en) * 2017-01-03 2018-07-05 Mako Surgical Corp. Systems And Methods For Surgical Navigation

Also Published As

Publication number Publication date
WO2021045546A2 (ko) 2021-03-11
KR102274167B1 (ko) 2021-07-12
US20220265364A1 (en) 2022-08-25
EP4026509A2 (en) 2022-07-13
JP7341567B2 (ja) 2023-09-11
KR20210029322A (ko) 2021-03-16
JP2022545743A (ja) 2022-10-28
WO2021045546A3 (ko) 2021-04-29
EP4026509A4 (en) 2023-08-30
US11666392B2 (en) 2023-06-06

Similar Documents

Publication Publication Date Title
US10660716B2 (en) Systems and methods for rendering onscreen identification of instruments in a teleoperational medical system
US11872006B2 (en) Systems and methods for onscreen identification of instruments in a teleoperational medical system
US11844574B2 (en) Patient-specific preoperative planning simulation techniques
US11850010B2 (en) Workflow systems and methods for enhancing collaboration between participants in a surgical procedure
CN108472096B (zh) 用于在由虚拟对象限定的目标部位处对患者执行手术的系统和方法
CN114364333A (zh) 用于引导机器人位置的装置、方法和包括该装置的系统
CN112370159A (zh) 用于指导用户定位机器人的系统
JP2021115483A (ja) 可視および近赤外線スペクトルにおけるエクステンデッドリアリティの外科手術ナビゲーションのための姿勢測定連鎖
US20230165649A1 (en) A collaborative surgical robotic platform for autonomous task execution
WO2019177711A1 (en) Methods of guiding manual movement of medical systems
JP2021171657A (ja) 手術中の支援されたナビゲーションのための拡張現実ヘッドセットのカメラによって追跡された参照アレイを備えた手術器具の位置合わせ
CN114008672A (zh) 外科手术期间的三维可视化
JP2023512006A (ja) 関節置換ロボット手術情報の提供装置及び提供方法
CN115844546B (zh) 骨骼的切削装置、存储介质和处理器
US20230346484A1 (en) Robotic surgery system with user interfacing
US20240099781A1 (en) Neuromapping systems, methods, and devices

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination