CN110573105B - 用于对软组织进行微创医疗干预的机器人装置 - Google Patents

用于对软组织进行微创医疗干预的机器人装置 Download PDF

Info

Publication number
CN110573105B
CN110573105B CN201880027746.8A CN201880027746A CN110573105B CN 110573105 B CN110573105 B CN 110573105B CN 201880027746 A CN201880027746 A CN 201880027746A CN 110573105 B CN110573105 B CN 110573105B
Authority
CN
China
Prior art keywords
patient
robotic device
medical instrument
anatomy
medical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201880027746.8A
Other languages
English (en)
Other versions
CN110573105A (zh
Inventor
L·布隆代尔
F·巴达诺
B·纳胡姆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Quantum Surgical
Original Assignee
Quantum Surgical
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Quantum Surgical filed Critical Quantum Surgical
Priority to CN202211229640.0A priority Critical patent/CN115444557A/zh
Publication of CN110573105A publication Critical patent/CN110573105A/zh
Application granted granted Critical
Publication of CN110573105B publication Critical patent/CN110573105B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/00149Holding or positioning arrangements using articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/02Instruments for taking cell samples or for biopsy
    • A61B10/0233Pointed or sharp biopsy instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/02Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by cooling, e.g. cryogenic techniques
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/04Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating
    • A61B18/12Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating by passing a current through the tissue to be heated, e.g. high-frequency current
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4209Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames
    • A61B8/4218Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames characterised by articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/11Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints
    • A61B90/13Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints guided by light, e.g. laser pointers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N7/00Ultrasound therapy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3494Trocars; Puncturing needles with safety means for protection against accidental cutting or pricking, e.g. limiting insertion depth, pressure sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00199Electrical control of surgical instruments with a console, e.g. a control panel with a display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00203Electrical control of surgical instruments with speech control or speech recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00571Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body for achieving a particular surgical effect
    • A61B2018/00613Irreversible electroporation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • A61B2034/742Joysticks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • A61B2034/743Keyboards
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/32Surgical robots operating autonomously

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Robotics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Optics & Photonics (AREA)
  • Otolaryngology (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Plasma & Fusion (AREA)
  • Gynecology & Obstetrics (AREA)
  • Manipulator (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Endoscopes (AREA)

Abstract

本发明涉及一种使用医疗仪器(13)对患者(30)进行医疗干预的机器人装置(10),所述机器人装置包括:机器人臂(11),所述机器人臂具有若干个自由度并且具有适于接纳所述医疗仪器的端部;图像捕获系统(14),所述图像捕获系统适于捕获关于所述患者的解剖结构的位置信息;存储介质(15),所述存储介质具有所述人体的生物力学模型;处理电路(17),所述处理电路被配置为基于所述生物力学模型、基于所述位置信息并且基于所述医疗仪器为了执行所述医疗干预而要遵循的轨迹(13)来确定所述医疗仪器的位置设定点和取向设定点;控制电路(16),所述控制电路被配置为控制机器人臂(11),以将医疗仪器(13)放置在所述位置设定点和所述取向设定点。

Description

用于对软组织进行微创医疗干预的机器人装置
技术领域
本发明属于医疗干预领域,更具体来讲,涉及一种用于在患者的可变形组织上执行的微创医疗干预的、例如用于对可变形器官或解剖结构进行治疗或诊断的机器人装置。
现有技术
通过微创或经皮途径进行的医疗干预(用于诊断、治疗和/或手术)变得越来越重要,特别是在癌症的局部治疗的肿瘤学中,直接作用于诸如肝脏、肾脏、肺、胰腺、乳房、前列腺等受影响器官的细胞。
在肿瘤学领域之外,存在许多使用微创或经皮进入途径的医疗程序和应用,例如通过插入针:活组织检查(收集组织以进行病理分析)、放置引流管(吸引液体)、注射治疗产品(治疗疼痛)等。
与可能需要切割数十厘米的切口的开放式或常规手术相比,微创医疗干预最多使用小切口或开口,通过它们引入内窥镜、探针、针或其他医疗仪器,以便到达、观察和/或治疗目标解剖区域。
微创医疗干预可以提供许多益处,比如限制疼痛和手术创伤、减少手术干预期间的出血、以及减少住院时间。它们使得可在门诊手术中进行医疗干预,从而允许更快地恢复患者、减少瘢痕形成、降低感染风险等。
除了使用镊子、剪刀和其他医疗仪器进行手术切除的常规技术外,通过微创或经皮途径破坏组织的几种技术已得到验证或正在评估过程中。例如,可以提及的是激光手术、冷冻疗法、射频治疗、微波、电穿孔、或甚至聚焦超声和居里疗法。这些技术中大多数的共同特征在于,制作出非常小的切口,并且将用于递送精确和局部治疗(热疗、非热疗或放射性治疗)的一个或多个针、探针或电极插入直到目标解剖区域。
在大多数情况下,通过微创途径执行的医疗干预需要操作者将医疗仪器插入患者的身体内直到一定深度以便到达目标解剖区域。这些手术有时是漫长且困难的,因为与开放式手术相比,操作者并不总是直接看到患者和待治疗器官的解剖结构。这使得解剖结构的标识、医疗仪器的精确放置以及敏感解剖结构(神经、血管、健康器官等)的避让变得复杂。
外科医生可以使用术前医学图像(计算机断层摄影(CT)、磁共振成像(MRI)、射线照相术等),这些术前医学图像已被用于诊断目的,以便更容易配准解剖结构并提前规划医疗干预。术前图像提供了在给定时刻(不是在进行医疗干预的那一时刻,而是在此之前的时刻)有效的解剖结构的图示。
为了将医疗仪器正确地引入患者的身体内直至期望的位置和深度而在操作期间不损坏敏感的解剖结构,操作者必须知晓仪器在患者的身体内的位置。现在有几种系统和方法可用于在通过显微镜或内窥镜直接观察解剖结构不可行时在微创干预期间确定医疗仪器的位置和取向。
由图像引导的导航系统(或计算机辅助手术)通过显示叠加在患者身体图像上的虚拟医疗仪器而使得可实时跟踪医疗仪器的位置和取向。这些导航系统使用3D定位技术来对患者和医疗仪器两者进行配准,最普遍使用的是光学或电磁类型。
在医疗干预之前、启动时和/或期间使用图像捕获系统是必要的,以便捕获患者的一个或多个图像(通过扫描、MRI、X射线、超声波等)。在开始医疗干预之前,这些图像通过各种已知的配准方法(例如值得注意的点和/或表面的刚性或可变形配准)或参考图像捕获系统本身的位置来与置于手术台上的患者的解剖结构的实际位置相协同。
光学导航系统通过根据已知几何形状放置在医疗仪器和患者上的红外相机和发射器或反射器来对医疗仪器的位置进行配准,以便用作参考并跟踪其运动。
电磁导航系统通过放置在患者身体附近的低强度磁场发生器、可结合在医疗仪器中的传感器、以及放置在患者上的参考传感器来对医疗仪器的位置进行配准。这些电磁导航系统是紧凑的,并且不会受到光学导航系统中视场阻碍的问题。然而,它们需要与磁场发生器所形成的磁场的存在相关的特定且限制性的环境。
尽管与传统的手动方法相比,所有这些已知的导航系统通过实时提供医疗仪器在图像中的位置和取向能够提高医疗程序的精确度,但它们在可变形组织的微创医疗干预方面具有显著的局限性。
第一个局限性是将引入医疗仪器直到目标解剖区域的最终程序由操作者手动执行,这意味着结果取决于操作者的技能并且不能获得高精度。
第二个局限性是这些导航系统的功能假定目标器官或解剖结构在进行参考检查的时刻与操作者引入医疗仪器的时刻之间不移动并且不变形。在检查已在医疗干预数天前进行、并且相比于在检查台上的位置患者在手术台上处于不同位置的情况下,目标器官或解剖结构可能已经移动或变形,并且显示位置与目标器官或解剖结构的实际位置之间的偏移可能导致高度不精确。另外,目标器官或解剖结构可能简单地由于患者的呼吸而变形,而已知的导航系统是基于患者控制呼吸,这极大地限制了这些导航系统可达到的精度。
还存在用于辅助微创手术的医疗程序的机器人装置。
具体地,专利US 8795188披露了一种用于对患者进行医疗干预的系统和一种用于自动考虑患者的周期性运动(典型地是由呼吸引起的胸廓的运动)的方法,其中该系统包括机器人、用于记录患者运动的装置。
然而,描述导航技术或连续激光扫描仪的使用的变体需要在操作之前捕获图像,并且假设目标器官或解剖结构不移动且相对于患者的外部包膜(皮肤)不变形。描述在干预期间X射线类型的图像的使用的变体需要连续图像捕获系统的复杂且辐射性的放置。
另外,在需要将医疗仪器插入患者的身体内的医疗干预的情况下的上述局限性可以推广到覆盖不需要将医疗仪器引入患者的身体内的医疗干预。例如,在通过聚焦超声提供治疗的仪器的情况下,还必须能够控制患者的身体内超声波的路径直到所述患者的身体内的目标解剖区域,所述超声波必须聚焦到该区域。
发明内容
本发明的目的是通过提供以下一种解决方案来克服现有技术的解决方案的所有或一些局限性,尤其是上面提出的那些,所述解决方案帮助操作者相对于患者的身体内的器官或解剖结构来定位医疗仪器,旨在于在考虑到器官或解剖结构可能在患者的身体内移动或变形的事实的情况下进行诊断或局部治疗处理。
为此,根据第一方面,本发明涉及一种用于使用医疗仪器对患者进行医疗干预的机器人装置,所述机器人装置包括:
-机器人臂,所述机器人臂具有若干个自由度并且具有适于接纳所述医疗仪器的端部;
-图像捕获系统,所述图像捕获系统适于捕获关于所述患者的解剖结构的位置信息;
-存储介质,所述存储介质具有所述人体的解剖结构的生物力学模型;
-处理电路,所述处理电路被配置为基于所述生物力学模型、基于所述位置信息并且基于所述医疗仪器为了执行所述医疗干预而要遵循的轨迹来确定所述医疗仪器的位置设定点和取向设定点;
-控制电路,所述控制电路被配置为控制所述机器人臂,以将所述医疗仪器放置或帮助将所述医疗仪器放置在所述位置设定点和所述取向设定点。
凭借该机器人臂,医疗仪器的定位精确度和可再现性远远优于操作者的定位精确度和可再现性。这种精确度的提高意味着操作者所选择的治疗可以非常靠近目标器官或目标解剖结构来执行,并且因此可以改善治疗的临床功效。可以设想治疗因为其太小或位于临界区附近或内部而不能动手术的病灶。所述精确度和可重复性还使得可以降低由于在医疗仪器的定位中手动误差造成的并发症的风险,所述并发症诸如:出血、疼痛和由对轨迹上存在的敏感解剖结构的损害导致的功能丧失。
机器人装置还使用人体的生物力学模型的先验知识。
人体的“生物力学模型”应理解为人体的并因此是患者的在所讨论的解剖区域中的各个解剖结构(肌肉、肌腱、骨骼结构、器官、血管网络等)的数学模型,这使得可以对所述解剖结构的变形以及所述解剖结构之间的机械相互作用进行建模。因此,这样的生物力学模型尤其使得可以确定患者的内部解剖结构的变形和机械相互作用(因此产生的运动),所述变形和机械相互作用例如由修改所述患者的外部包膜、改变器官的血管的位置、改变器官的外部包膜等引起。例如,这样的修改可能由患者的呼吸(由胸腔和横膈膜的运动引起的器官的运动)、改变所述患者的位置(由重力引起的器官的运动)、与医疗仪器接触(局部变形)等引起。所讨论的解剖区域例如对应于患者的胸部区域和/或腹部区域和/或骨盆区域。
因此,机器人装置使用在医疗干预期间获取的轨迹、生物力学模型和位置信息来确定可移动且可变形的解剖结构在患者的身体内的实际位置,而不管患者在手术台上的位置以及其呼吸水平。此功能通过避免由于操作员补偿与呼吸和器官的内部变形相关联的运动而导致的错误,极大地增强了医疗干预的性能,现有技术中已知的导航系统和机器人系统并未考虑这些错误。
出于所有这些原因,所述机器人装置特别适于对患者的可变形组织进行微创医疗干预。
在具体实施例中,所述机器人装置还可以单独地或以所有技术上可能的组合具有一个或多个以下特征。
在具体实施例中,所述生物力学模型是所述人体的胸部区域和/或腹部区域和/或骨盆区域中的解剖结构的模型。
在具体实施例中,所述图像捕获系统是非辐射类型的。
实际上,通过考虑生物力学模型,在干预期间使用的图像捕获系统可以是非辐射型的。“非辐射”应理解为意指在医疗干预期间为了捕获图像,并不朝患者的方向产生电离辐射(特别是X射线)。因此,对于患者和位于图像捕获系统附近的医疗团队两者而言,辐射量大大降低。另外,图像捕获系统可以比例如CT扫描仪便宜得多且麻烦少,从而使得机器人装置甚至可以在没有CT扫描仪的小型手术室中使用,这使得其使用受到的限制更少。
在具体实施例中,所述图像捕获系统具有适于捕获位置信息而不与所述患者接触的至少一个所谓的非接触装置。
在具体实施例中,所述图像捕获系统具有以下非接触装置中的至少一个非接触装置:立体相机、结构光相机、飞行时间相机、深度测量相机等。
在具体实施例中,所述图像捕获系统适于供应与所述患者的身体的外表面的位置相对应的位置信息。
在具体实施例中,所述图像捕获系统具有适于通过与所述患者接触来捕获位置信息的至少一个所谓的接触装置。
在具体实施例中,所述图像捕获系统具有以下接触装置中的至少一个接触装置:超声波探头、内窥镜等。
在具体实施例中,所述图像捕获系统由一个或多个非接触装置构成,即图像捕获系统、更一般地讲机器人装置仅具有一个或多个非接触装置而没有用于捕获图像的任何接触装置。
在具体实施例中,所述控制电路被配置为根据以下模式中的一种模式来控制所述机器人臂:自动模式、协作模式、自动跟踪模式、协作跟踪模式等。
在具体实施例中,所述处理电路被配置为基于所述患者的图像来确定或辅助确定所述医疗仪器的轨迹。
在具体实施例中,所述处理电路被配置为通过基于所述患者的图像仿真在所述医疗干预期间要执行的治疗的参数的影响来调节或辅助调节所述参数。
在具体实施例中,所述机器人装置具有引导工具,所述引导工具适于引导固定至或旨在固定至所述机器人臂的端部的所述医疗仪器。
在具体实施例中,所述机器人装置具有以下装置中的至少一个人机接口装置:显示屏、触敏显示屏、键盘、2D和/或3D护目镜、操纵杆、运动检测模块、声控控制模块等。
在具体实施例中,所述机器人装置具有以下装置中的至少一个用于对进入点进行配准的装置:具有防损伤末端的医疗仪器、激光瞄准模块等。
在具体实施例中,所述医疗仪器是以下医疗仪器中的一个医疗仪器:活检针、导管、内窥镜、或甚至是使用聚焦超声的治疗仪器、激光治疗仪器、冷冻治疗仪器、射频治疗仪器、电穿孔治疗仪器、居里疗法治疗仪器等。
在具体实施例中,所述机器人装置具有承载所述机器人臂的移动托架,所述移动托架具有固定器件。
附图说明
通过参考附图阅读作为非限制性示例给出的以下描述将更好地理解本发明,在附图中:
-图1示出了用于对软组织进行微创医疗干预的机器人装置的实施例的示意图,
-图2示出了图1的机器人装置的替代性实施例的示意图,
-图3示出了机器人装置的另一实施例的示意图。
在这些图中,从一个图到另一个图,相同的附图标记表示相同或相似的元件。为清楚起见,除非另有说明,否则所示元件不是按比例绘制的。
具体实施方式
图1示意性地示出了用于辅助操作者进行医疗干预、例如对软组织进行微创干预的机器人装置10的实施例。
如图1所示,机器人装置10具备具有若干个自由度的机器人臂11。机器人臂11具有适于接纳医疗仪器13的端部。在图1所示的示例中,医疗仪器13通过引导工具12而安装在机器人臂11的端部上,该引导工具适于引导所述医疗仪器13。为此,机器人臂11在所述端部处具有适于接纳所述引导工具12的接口。
机器人臂11优选地具有至少6个自由度,以便允许在空间上宽范围地监测引导工具12相对于例如躺在手术台20上的患者30的位置和取向。
引导工具12适于引导医疗仪器13,即适于约束所述医疗仪器13相对于所述引导工具12的移位。例如,引导工具12是适于引导医疗仪器13平移的滑动件,以便限制所述医疗仪器13例如在其插入患者30的身体期间的移位。
例如,引导工具12可移除地固定至机器人臂11,该机器人臂优选地适于接纳例如与不同的医疗仪器13和/或不同的医疗程序相关联的不同类型的引导工具12。
机器人臂11的接口可以具有例如防错机构,以用于确保引导工具12在机器人臂11上的正确安装。在优选实施例中,所述接口还可以具有用于自动标识由操作者安装的引导工具12的电子系统,以便此后在计算中使用引导工具12的特征,例如,其参考、其尺寸、其重量、其重心、以及对其功能或其性能有用的任何其他数据。
机器人装置10优选地适于在由机器人臂11承载的引导工具12上接纳任何类型的医疗仪器13,特别是用于对软组织进行微创干预的任何类型的医疗仪器。例如,机器人装置10优选地适于接纳和移动以下外科医疗仪器中的至少一种:
-活检针,
-导管,
-内窥镜,
-使用聚焦超声的治疗仪器,
-激光治疗仪器,
-冷冻治疗仪器,
-射频治疗仪器,
-电穿孔治疗仪器,
-居里疗法治疗仪器等。
机器人装置10还具有适于控制机器人臂11的控制电路16,以便在与机器人装置10相关的参考系中修改引导工具12的位置和取向。控制电路16具有例如一个或多个处理器和存储器件(磁性硬盘、电子存储器、光盘等),其中存储有呈待执行的程序代码指令集形式的计算机程序产品,以便控制机器人臂11。可替代地或另外,控制电路16具有适于控制所述机器人臂11的一个或多个可编程逻辑电路(FPGA、PLD等)和/或一个或多个专用集成电路(ASIC等)、和/或一组分立电子部件等。
借助于控制电路16、机器人臂11和由机器人臂11承载的引导工具12,与直接由操作者操纵医疗仪器13的情况相比,医疗仪器13可以以更高的精度进行定位、定向和引导。
在图1所展示的示例中,机器人装置10具有例如安装在轮子上的移动托架18,机器人臂11则安装在该移动托架上。这种布置在某种意义上是特别有利的,即,然后可以特别容易地将机器人臂11从手术台的一侧移动到另一侧、从手术室的一侧移动到另一侧等等。托架18具有固定器件(图中未示出),通过该固定器件可以使托架18相对于手术台20固定。该固定器件可以是任何合适的类型,并且尤其可以具有轮子上的制动器、可伸缩的支垫或支脚、用于机械附接至手术台20的系统、用于机械附接到地面的系统等。
然而,根据其他示例,并不排除将机器人臂11可移除地或永久地(在这种情况下,手术台是机器人装置10的组成部分)直接安装在手术台上。图2示意性地示出了机器人装置10的替代性实施例,其中机器人臂11可移除地安装在手术台20上。在图2所展示的示例中,机器人臂11安装在支撑件110上,与手术台20的导轨21形成刚性机械链接。
如图1和图2所示,机器人装置10还具有图像捕获系统14,该图像捕获系统适于捕获关于患者30的解剖结构在与机器人装置10相关的参考系中或与所述参考系不同的坐标系中的位置信息,所述不同坐标系转到所述参考系的矩阵是先验的或者可以确定。在优选实施例中,图像捕获系统14是非辐射型的,以便限制患者30和医疗团队所暴露的辐射量。
图像捕获系统14使得可以捕获关于患者30的解剖结构的位置信息。例如,关于患者30的解剖结构的位置信息对应于患者30的身体的外表面在参考系中的位置、患者30的所述身体的骨结构在参考系中的位置、患者30的所述身体内的器官或血管在参考系中的位置,等等。
总体上,适于提供关于患者30的解剖结构的位置信息的任何类型的图像捕获系统14可以用在机器人装置10中。例如,图像捕获系统14可以具有适于捕获位置信息而不与患者30接触的一个或多个所谓的非接触装置、和/或适于通过与患者30接触来捕获位置信息的一个或多个所谓的接触装置。机器人装置的图像捕获系统优选地仅具有一个或多个非接触装置而并没有任何接触装置。
在具体实施例中,图像捕获系统14具有以下非接触装置中的至少一个:
-立体相机,
-结构光相机,
-飞行时间相机(ToF相机),
-深度测量相机(例如,RGB-D相机)等。
例如,这种非接触式装置使得可以捕获表示患者30的身体的外表面相对于非接触装置的位置的位置信息。
在具体实施例中,图像捕获系统14具有以下接触装置中的至少一个:
-超声探头(通过非侵入式接触进行捕获),
-内窥镜(通过侵入式接触进行捕获)等。
例如,这种接触装置使得可以捕获表示患者30的身体内器官或血管位置的位置信息。
例如,图像捕获系统14集成在机器人臂11中或安装在所述机器人臂11的端部。
在图1和图2所展示的示例中,图像捕获系统14安装在不同于机器人臂11的支撑件上。例如,支撑件是铰接臂140,可选地是机动化的铰接臂,在这种情况下,其形成与承载医疗仪器13的引导工具12的机器人臂11不同的机器人臂。在图1所示的示例中,与机器人臂11一样,铰接臂140由移动托架18承载。在图2所展示的示例中,承载图像捕获系统14的铰接臂140由移动托架18承载。
此外,根据其他示例,并不排除具有由操作者承载以获得关于患者30的解剖结构的位置信息的图像捕获系统14。
例如,图像捕获系统14的位置和空间取向在机器人装置10的参考系中是已知的,要么通过图像捕获系统在其由机器人臂11承载时的几何形状的知识,要么通过使用3D定位系统,例如光学、电磁或其他类型的导航仪。
如图1和图2所示,机器人装置10同样具有存储介质15,该存储介质存储人体解剖结构的生物力学模型。在图1和图2所展示的示例中,存储介质15表示为与控制电路16不同。然而,根据其他实施例,存储介质15也可以是所述控制电路16的存储器件中的一个。
应指出的是,人体的生物力学模型不必特定于所考虑的患者30,而可以是与要对其执行医疗程序的患者30具有例如相同性别、身高、体型等的一般患者的生物力学模型。生物力学模型优选地包括胸部、腹部和骨盆区域的主要解剖结构(比如胸壁和腹壁、肌肉、肌腱、骨骼和关节、器官、血管系统等),以及它们的变形模型和它们的机械相互作用。生物力学模型还优选地考虑取决于患者30位置的重力影响。
这些生物力学模型在科学文献中是已知的,例如参见以下出版物:
-“SOFA:A Multi-Model Framework for Interactive Physical Simulation[SOFA:交互式物理仿真的多模型框架]”,F.Faure等人,用于计算机辅助手术的软组织生物力学建模-机械生物学、组织工程和生物材料研究,第11卷,斯普林格;
-“A Personalized Biomechanical Model for Respiratory MotionPrediction[用于呼吸运动预测的个性化生物力学模型]”,B.Fuerst等人,国际医学图像计算和计算机辅助干预会议,2012;
-“Patient-Specific Biomechanical Model as Whole-Body CT ImageRegistration Tool[作为全身CT图像配准工具的患者特异性生物力学模型]”,Mao Li等人,医学图像分析,2015年5月,第22-34页。
例如,可以通过三维医学图像(CT扫描、MRI扫描等)的数据库的转录来创建生物力学模型。可以通过分割和重建算法从医学图像中提取所关注结构的几何形状。对图像数据库的分析使得可以计算生物力学模型的部件的平均几何形状以及表示数据库的所有医学图像的变形的主要参数。可以为每个结构指配机械特性和不同的边界条件,以便创建其生物力学模型。生物力学模型优选地包括由骨骼、肌肉、肌腱、韧带和软骨构成的肌肉骨骼系统的建模。
如图1和图2所示,机器人装置10还具有处理电路17。处理电路17被配置为基于人体的解剖结构的生物力学模型和基于图像捕获系统14所捕获的位置信息来确定引导工具12的位置设定点和取向设定点。
处理电路17具有例如一个或多个处理器和存储器件(磁性硬盘、电子存储器、光盘等),其中存储有呈待执行的程序代码指令集形式的计算机程序产品,以确定所述位置设定点和取向设定点。可替代地或另外,处理电路17具有适用于确定所述位置设定点和取向设定点的一个或多个可编程逻辑电路(FPGA、PLD等)、和/或一个或多个专用集成电路(ASIC等)、和/或一组分立电子部件等。
在图1和图2所展示的示例中,处理电路17被示出为与控制电路16不同。然而,根据其他实施例,处理电路17可以与所述控制电路16合并或使用该控制电路也使用的装置。另外,存储介质15被示出为与处理电路17不同。然而,根据其他实施例,存储介质15也可以是所述处理电路17的存储器件中的一个。
另外,基于医疗仪器13在医疗干预期间要遵循的轨迹来确定引导工具12的位置设定点和取向设定点。
在医疗干预需要将医疗仪器13引入患者30的身体内的情况下,所述轨迹对应于医疗仪器13必须在患者30的身体内必须行进的、并在医疗干预期间必须沿其引导所述医疗仪器的轨迹。例如,所述轨迹对应于进入点的位置,例如在患者30的解剖结构的外表面上,医疗仪器13必须穿过该进入点进入患者30的身体,并且所述轨迹还对应于所述医疗仪器13要到达的患者30内目标解剖结构的区域处的目标点的位置。例如,进入点和目标点以坐标的形式存储在与患者30的解剖结构相关的坐标系中。
在医疗干预不需要将医疗仪器13引入患者体30的情况下,例如,在聚焦超声治疗仪器的情况下,所述轨迹对应于超声波必须在患者30的身体内行进的轨迹。例如,所述轨迹对应于进入点的位置,例如在患者30的解剖结构的外表面上,超声波必须穿过该进入点进入患者30的身体,并且所述轨迹还对应于患者30内的目标点的位置,超声波必须聚焦到该点上。例如,进入点和目标点以坐标的形式存储在与患者30的解剖结构相关的坐标系中。
轨迹可以由除机器人装置10之外的其他器件预先确定,在这种情况下,例如,轨迹在医疗干预之前存储在存储介质15中。可替代地或另外,轨迹还可以通过机器人装置10确定,如下面的描述中所述。
例如,处理电路17包含用于将生物力学模型与关于患者30的解剖结构的位置信息协同的算法,该信息由图像捕获系统14供应。因此,处理电路17可以确定患者30在与机器人装置10相关联的参考系中的位置和取向。考虑到患者30的解剖结构相对于为了确定所述轨迹而考虑的患者30的解剖结构(由重力、呼吸、与医疗仪器的机械接触等引起)的变形,处理电路17还可以确定所述参考系中所述轨迹的进入点的位置和目标点的位置。例如,算法使得可以将皮肤表面的运动传播到内部体积并且正确地计算内部解剖结构的位置。根据另一示例,可以根据关于器官的血管的位置的信息(例如,由超声探头供应的位置信息)来确定此器官的位置和变形。根据另一示例,可以根据关于器官的外表面的位置的信息(例如,由内窥镜供应的位置信息)来确定所述器官的位置和变形。对关于患者30的解剖结构的位置的信息的捕获以及用于使生物力学模型与关于患者30的解剖结构的位置的所述信息协同的计算优选地实时或几乎实时地进行,使得可以实时或几乎实时地更新参考系中进入点的位置和目标点的位置,以监测患者30的解剖结构的运动和变形。这种更新还可以在将医疗仪器13插入患者30的身体期间进行,以考虑由所述医疗仪器13的运动引起的变形。
在已经确定了在与机器人装置10相关的参考系中的轨迹的参数(进入点和目标点的位置)之后,或与这种确定同时进行,处理电路17确定引导工具12的位置设定点和取向设定点,以符合所述轨迹。
然后,控制电路16可以控制机器人臂11以将引导工具12放置或帮助操作者将引导工具放置在由处理电路17确定的所述位置设定点和所述取向设定点。在优选实施例中,控制电路16适于根据以下模式中的一种模式来控制机器人臂11:
-自动模式,
-协作模式,
-自动跟踪模式,
-协作跟踪模式。
在自动模式中,控制电路16通过自动计算当前位置与位置设定点之间的轨迹来将机器人臂11从其当前位置和取向移动到位置设定点和取向设定点。
在协作模式中,控制电路16使机器人臂11在操作者施加的力的方向上移动,这些力可以施加在引导工具12上或施加机器人臂11的一个轴上。借助于装配在机器人臂11的端部和/或其每个轴的一个或多个传感器(图中未示出)来测量和计算这些力。在协作模式中可以整合几何约束,以限制机器人臂11的运动,并且因此有助于医疗程序。例如,运动可以约束为在某一区域内、某一区域外、沿某一轴线或曲线、围绕某一点等。所述约束可以由任何类型的几何形状和相关行为(包含/排除)来限定。在协作模式中,控制电路16帮助操作者将引导工具12放置在位置设定点和取向设定点。
在跟踪模式中,控制电路16使机器人臂11在患者30的移动方向上移动,以将引导工具12放置在由处理电路17实时地或几乎实时地更新的位置设定点和取向设定点。在这种情况下,医疗仪器13在与机器人装置10相关联的参考系中移动,但在与目标器官相关联的坐标系中在这一时间期间基本保持固定不动。
在协作跟踪模式中,控制电路16使机器人臂11在患者30的运动方向上移动,具有关于受控位置的灵活性。例如,操作者可以在引导工具12上施加力并且能够稍微地和暂时地将引导工具12的位置偏离所述位置设定点和取向设定点。机器人臂11施加与操作者的力相反的力,并且所述力在操作者没有施加力时就试图使引导工具12返回到位置设定点和取向设定点。灵活性水平可以是可调的,例如,通过刚度参数或距离参数来调节。
图3示意性地示出了其中机器人装置10具有人机接口装置19的优选实施例。在图3所展示的示例中,人机接口装置19是显示屏,优选是触摸屏。人机接口装置19允许操作者控制机器人装置10,并且如果合适的话,查看与要执行的医疗过程有关的图像。例如,在规划医疗程序时可以使用人机接口装置19,以例如通过相对于参考系中目标点的位置来显示医疗仪器13的实时位置或几乎实时的位置来建立医疗仪器13的轨迹,或者使医疗仪器13在患者30的身体内的进展可视化。人机接口装置19还可以用于显示由图像捕获系统14供应的图像。
在图3所展示的示例中,人机接口装置19由移动托架18承载,该移动托架同样承载机器人臂11。根据其他示例,并不排除人机接口装置19由单独的控制台承载,或者将其例如可移除地安装在手术台20的导轨上。此外,可替代地或另外,可以考虑其他人机接口装置19。例如,人机接口装置19可以包括:鼠标,键盘,触摸板,操纵杆,对操作者的手、手指、头部或眼睛的运动进行配准的非接触式移动检测模块,或声控控制模块等。另外,2D和/或3D护目镜还可以替换或补充显示屏。
为了确保机器人装置10的安全使用,人机接口装置19还可以包括确认模块(有线或无线踏板、盒子旋钮、遥控器、机器人臂11上的开关),以保护机器人臂11的运动,所述运动则受到所述确认模块的激活的影响。
在优选实施例中,处理电路17被配置为基于患者的图像来确定或帮助操作者确定医疗仪器的13的轨迹。在以下描述中,描述了机器人装置10的实施方式的非限制性示例,用于规划需要将医疗仪器引入患者30的身体内的医疗干预。
例如,可以通过轨迹、要使用的医疗仪器13、以及治疗参数来限定医疗干预。例如,轨迹由位于待治疗器官中的目标点和位于皮肤处的进入点构成。医疗仪器13由诸如其长度、其直径、其3D几何形状等若干特性来限定。治疗参数可以包括消融技术的设置,例如所递送电流的功率、治疗时间、区域的直径、距离裕量等。
例如,机器人装置10可以从医院系统或外部系统(云计算)或外部存储介质(USB、CD、DVD等)下载患者30的图像(CT扫描、PET(正电子发射断层摄影)扫描、MRI扫描、X射线、超声等),并且例如允许在人机接口装置19上查看二维截面平面形式的图像,并以三维形式重建图像。例如,刚性和非刚性配准算法允许合并同一患者30的若干图像,以向操作者提供规划医疗干预所需的所有解剖信息和功能信息。然后,操作者可以根据要执行的医疗干预来规划一个或多个轨迹。例如,在通过不可逆电穿孔进行消融的情况下,机器人装置10使得可以产生完全平行的轨迹,以优化治疗功效。
例如,由操作者在图像中手动标识轨迹的目标点的位置和进入点的位置。可以在图像中可视化并修改解剖结构中的医疗仪器13的轨迹,以确保医疗仪器13的末端到达最佳目标点,并且医疗仪器13的插入不会损坏进入点与目标点之间的敏感解剖结构。为了促进规划期间的决策过程,机器人装置10可以整合分割算法,这些分割算法自动标识某些所关注器官、神经、动脉、静脉和血管、骨骼和待治疗的病灶的轮廓和体积。可替代地,机器人装置10可以自动确定目标点和进入点。例如,通过形状识别方法并基于所述治疗的参数和目标病灶的体积来计算目标点。可以通过用于优化指标的方法来计算进入点,所述指标诸如医疗仪器13的轨迹与敏感的解剖结构之间的距离以及相对于在皮肤处限定的优选插入区域的位置。可替代地或另外,机器人装置10在其使用期间还可以累积其重复使用和加以分析的大量规划数据,以通过人工智能算法来提出对最佳进入点和目标点的选择。
在优选实施例中,处理电路17被配置为通过基于患者的图像在所述医疗干预期间要执行的治疗的参数的影响来调节或帮助操作者来调节所述参数。例如,根据治疗参数、轨迹信息和医疗仪器13,机器人装置10可以计算治疗对解剖结构的影响并且实现对患者30的图像的精确仿真的可视化。例如,对于热消融,所述计算尤其可以考虑相邻血管的存在及其冷却影响(散热效应)。然后,操作者可以调整规划数据,以优化所述治疗的临床结果。
因此,上述规划过程使得可以规划各种各样的医疗程序,诸如:激光手术,通过冷冻、射频、微波或电穿孔来消融,居里疗法,内窥镜检查,以及需要将一个或多个医疗仪器13插入患者30的身体内的任何技术。上述规划过程还使得可以规划各种不需要将医疗仪器13插入患者30的身体内的医疗程序,例如在通过聚焦超声治疗的情况下。
规划所需的所有数据可以由机器人装置10在处理电路17的存储器件中或在存储介质15中、或在外部存储介质上进行保护,并且随后重新加载,以在用机器人装置10进行操作的当天修改要素或执行治疗。
现在描述使用机器人装置10来执行预先规划好的医疗程序并需要将医疗仪器13插入患者30的身体内的示例。
为了开始操作,将机器人装置10带入手术室并放置在患者30旁边。在机器人臂11安装在移动托架18上的情况下,在对患者30的位置进行配准的阶段之前使机器人装置10固定不动。
然后,操作者例如通过人机接口装置19来控制机器人装置10,以便启动对患者30进行配准的阶段。对患者30进行配准的阶段旨在通过使用生物力学模型、由图像捕获系统14提供的位置信息和所规划的轨迹来确定患者30在与机器人装置10相关的参考系中的位置、进入点和目标点的位置、以及引导工具12的位置设定点和取向设定点。
一旦患者30的位置已知并与术前图像协同,操作者就启动定位阶段,所述定位阶段旨在将引导工具12放置在适于要执行的医疗干预的位置设定点和取向设定点。
例如,机器人装置10将引导工具12的尺寸、进入点的位置和到目标点的方向加以考虑,以自动定位机器人臂11,其方式为使得引导工具在所选择的轨迹上对准、与可调的进入点相距某一安全距离。然后,操作者可以例如在协作模式下控制机器人臂11,以便调节引导工具12的位置尽可能靠近进入点,同时保持轨迹上的对准,然后来阻止机器人臂11的运动,再然后通过引导工具12插入医疗仪器13。
在优选实施例中,机器人装置10具有配准装置(图中未示出)。因此,借助于机器人装置10,操作者可以对要在其上进行切口的患者皮肤上的进入点进行精确地配准。例如,用于对进入点进行配准的装置对应于插入到引导工具12中的具有无创伤末端的医疗仪器,或对应于集成在医疗仪器13或引导工具12中的激光瞄准模块。
在切口完成之后,操作者可以通过引导工具12插入医疗仪器13来启动引导阶段,直到医疗仪器的端部到达所规划的目标点为止。对插入深度的控制可以简单地基于医疗仪器13的长度和/或基于集成在引导工具12中的机械止挡系统。可替代地或另外,引导工具12可以具有用于指示医疗仪器13的插入深度的传感器。然后,机器人装置10可以实时地或几乎实时地显示医疗仪器13在图像中的位置,并且可以在接近、到达或已经通过目标点时向操作者提供消息。在另一变体中,将医疗仪器13机械地附接至引导工具12,并且机器人臂11自动地将医疗仪器13插入直至所规划的目标点。
在插入期间,处理电路17可以使用患者30的生物力学模型来估计医疗仪器13所经过的器官或解剖结构的局部变形,并且将这些变形加以考虑以更新目标点的位置。
取决于在引导阶段期间的操作要求,例如将机器人装置10以跟踪模式或协作跟踪模式激活,以不管患者30的运动如何都保持引导工具12相对于目标解剖结构的位置。机器人装置10还可以在引导阶段期间通过应用或不应用几何约束来以协作模式进行激活。约束在轨迹轴线上的协作模式可用于例如分阶段活组织检查的执行。
当医疗仪器13已达到目标点时,可以执行以下所规划的医疗干预以用于诊断目的或用于局部治疗:例如,用于活组织检查的组织取样、用于冷冻疗法的液氮输送、用于射频消融的电流生成、注射用于居里治疗的放射源、用于内窥镜手术的直接观察解剖结构并将医疗仪器插入到内窥镜的工作通道中,等等。
在引导阶段期间或之后的任何时刻,操作者可以通过控制图像来验证医疗仪器13的插入的正确执行。取决于医院和手术室可获得的设备,可以使用固定或移动式成像设备(CT扫描仪、MRI扫描仪、放射学C形弧板(arceau)、超声探头等)检查所关注的解剖区域。在优选实施例中,将图像直接传送到机器人装置10,机器人装置的处理电路17包括例如用于将这些术中图像与术前图像自动合并的配准算法。然后,机器人装置10显示叠加在术中图像上的规划信息,以评估治疗的进展或功效,并且必要时确定必须进行的校正。
在本发明的优选实施例中,处理电路17还可以包括分段算法,所述分段算法用于自动标识坏死区域、将其与所规划区域进行比较、计算并显示在直径或体积方面获得的裕量、以及指示仍待治疗的直径或体积。可选地,机器人装置10还可以提供补充治疗所需的信息,例如一个或多个另外的消融轨迹的位置和参数。
更一般地,应指出的是,上面考虑到的实施例和用途已作为非限制性示例进行描述,并且因此可想到其他变体。
特别地,已经基于通过引导工具12将医疗仪器13安装在机器人臂11上描述了本发明。然而,应指出的是,也可以在不采用引导工具12的情况下使用机器人装置10。例如,在不必将医疗仪器13引入患者30的身体内的情况下,例如在通过聚焦超声进行的外部治疗的情况下,不需要使用引导工具12。另外,在必须将医疗仪器13插入患者30的身体中的情况下,特别是如果是操作者将医疗仪器13插入患者体30内,则需要使用引导工具12,但如果是机器人臂11自动地将医疗仪器13插入患者30的身体中,则不一定需要引导工具。

Claims (17)

1.一种用于使用医疗仪器(13)对患者(30)体内的解剖区域进行医疗干预的机器人装置(10),所述机器人装置包括:
-机器人臂(11),所述机器人臂具有若干个自由度并且具有适于接纳所述医疗仪器的端部;
-图像捕获系统(14),所述图像捕获系统适于捕获关于所述患者的解剖结构的位置信息;
-存储介质(15),所述存储介质具有所述患者的解剖结构的生物力学模型;
-处理电路(17),所述处理电路被配置为基于所述生物力学模型、基于关于所述患者的解剖结构的所述位置信息并且基于所述医疗仪器为了执行所述医疗干预而要遵循的轨迹来确定所述医疗仪器的位置设定点和取向设定点;
-控制电路(16),所述控制电路被配置为控制所述机器人臂(11),以将所述医疗仪器放置或帮助将所述医疗仪器放置在所述位置设定点和所述取向设定点;
其特征在于:所述图像捕获系统(14)是非辐射类型的,并具有适于捕获位置信息而不与所述患者(30)接触的至少一个非接触装置,对关于患者的解剖结构的位置的信息的捕获以及使生物力学模型与关于患者的解剖结构的位置的所述信息协同的计算实时或几乎实时地进行。
2.如权利要求1所述的机器人装置(10),其中,所述生物力学模型是所述患者的胸部区域和/或腹部区域和/或骨盆区域中的解剖结构的模型。
3.如权利要求1所述的机器人装置(10),其中,所述图像捕获系统(14)具有以下非接触装置中的至少一个非接触装置:
-立体相机,
-结构光相机,
-飞行时间相机,
-深度测量相机。
4.如权利要求1至3中任一项所述的机器人装置(10),其中,所述图像捕获系统(14)适于供应与所述患者(30)的身体的外表面的位置相对应的位置信息。
5.如权利要求1至3中任一项所述的机器人装置(10),其中,所述控制电路(16)被配置为根据以下模式中的一种模式来控制所述机器人臂:
-自动模式,
-协作模式,
-自动跟踪模式,
-协作跟踪模式。
6.如权利要求1至3中任一项所述的机器人装置(10),其中,所述处理电路(17)被配置为基于所述患者的图像来确定或辅助确定所述医疗仪器的轨迹。
7.如权利要求1至3中任一项所述的机器人装置(10),其中,所述处理电路(17)被配置为通过基于所述患者的图像仿真在所述医疗干预期间要执行的治疗的参数的影响来调节或辅助调节所述参数。
8.如权利要求1至3中任一项所述的机器人装置(10),具有引导工具(12),所述引导工具适于引导固定至或旨在固定至所述机器人臂(11)的端部的所述医疗仪器(13)。
9.如权利要求1至3中任一项所述的机器人装置(10),具有以下装置中的至少一个人机接口装置(19):
-显示屏,
-触敏显示屏,
-键盘,
-2D和/或3D护目镜,
-操纵杆,
-运动检测模块,
-声控控制模块。
10.如权利要求1至3中任一项所述的机器人装置(10),具有以下装置中的至少一个用于对进入点进行配准的装置:
-具有防损伤末端的医疗仪器,
-激光瞄准模块。
11.如权利要求1至3中任一项所述的机器人装置(10),其中,所述医疗仪器(13)是以下医疗仪器中的一个医疗仪器:
-活检针,
-导管,
-内窥镜,
-使用聚焦超声的治疗仪器,
-激光治疗仪器,
-冷冻治疗仪器,
-射频治疗仪器,
-电穿孔治疗仪器,
-居里疗法治疗仪器。
12.如权利要求1至3中任一项所述的机器人装置(10),具有承载所述机器人臂(11)的移动托架(18),所述移动托架具有固定器件。
13.如权利要求8所述的机器人装置(10),其中,所述控制电路(16)被配置为根据协作跟踪模式来控制所述机器人臂,机器人臂(11)施加与操作者的力相反的力,并且所述力在操作者没有施加力时就试图使引导工具(12)返回到位置设定点和取向设定点。
14.如权利要求1至3中任一项所述的机器人装置(10),其中,处理电路(17)包含用于将生物力学模型与关于患者(30)的解剖结构的位置信息协同的算法,该位置信息由图像捕获系统(14)供应,处理电路(17)确定患者(30)在与机器人装置(10)相关联的参考系中的位置和取向。
15.如权利要求14所述的机器人装置(10),其中,以及考虑到患者(30)的解剖结构相对于为了确定所述轨迹而考虑的患者(30)的解剖结构的变形,所述处理电路(17)确定所述参考系中所述轨迹的进入点的位置和目标点的位置。
16.如权利要求15所述的机器人装置(10),其中,所述算法使得可以将皮肤表面的运动传播到内部体积并且正确地计算内部解剖结构的位置,并且根据关于器官的血管的位置的信息来确定此器官的位置和变形或根据关于器官的外表面的位置的信息来确定所述器官的位置和变形。
17.如权利要求1至3中任一项所述的机器人装置(10),其中,对关于患者(30)的解剖结构的位置的信息的捕获以及使生物力学模型与关于患者(30)的解剖结构的位置的所述信息协同的计算实时或几乎实时地进行,使得可以实时或几乎实时地更新参考系中进入点的位置和目标点的位置,以监测患者(30)的解剖结构的运动和变形。
CN201880027746.8A 2017-11-09 2018-11-08 用于对软组织进行微创医疗干预的机器人装置 Active CN110573105B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211229640.0A CN115444557A (zh) 2017-11-09 2018-11-08 用于对软组织进行微创医疗干预的机器人装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1760553A FR3073135B1 (fr) 2017-11-09 2017-11-09 Dispositif robotise pour une intervention medicale mini-invasive sur des tissus mous
FR1760553 2017-11-09
PCT/FR2018/052769 WO2019092372A1 (fr) 2017-11-09 2018-11-08 Dispositif robotisé pour une intervention médicale mini-invasive sur des tissus mous

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202211229640.0A Division CN115444557A (zh) 2017-11-09 2018-11-08 用于对软组织进行微创医疗干预的机器人装置

Publications (2)

Publication Number Publication Date
CN110573105A CN110573105A (zh) 2019-12-13
CN110573105B true CN110573105B (zh) 2022-10-14

Family

ID=60955257

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202211229640.0A Pending CN115444557A (zh) 2017-11-09 2018-11-08 用于对软组织进行微创医疗干预的机器人装置
CN201880027746.8A Active CN110573105B (zh) 2017-11-09 2018-11-08 用于对软组织进行微创医疗干预的机器人装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202211229640.0A Pending CN115444557A (zh) 2017-11-09 2018-11-08 用于对软组织进行微创医疗干预的机器人装置

Country Status (11)

Country Link
US (1) US11903659B2 (zh)
EP (1) EP3706656B1 (zh)
JP (2) JP2021502195A (zh)
KR (1) KR102590620B1 (zh)
CN (2) CN115444557A (zh)
AU (1) AU2018364406A1 (zh)
CA (1) CA3082046A1 (zh)
FR (1) FR3073135B1 (zh)
IL (1) IL274453B2 (zh)
SG (1) SG11202004181VA (zh)
WO (1) WO2019092372A1 (zh)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4041125A1 (en) * 2019-10-07 2022-08-17 Intuitive Surgical Operations, Inc. Physical medical element placement systems
FR3104934B1 (fr) * 2019-12-18 2023-04-07 Quantum Surgical Méthode de planification automatique d’une trajectoire pour une intervention médicale
WO2021130670A1 (en) * 2019-12-23 2021-07-01 Mazor Robotics Ltd. Multi-arm robotic system for spine surgery with imaging guidance
JP7414611B2 (ja) * 2020-03-26 2024-01-16 株式会社メディカロイド ロボット手術支援装置、処理方法、及びプログラム
CN111407414A (zh) * 2020-04-07 2020-07-14 上海市第一人民医院 一种用于临床诊疗的多功能远程机器人
JP7469120B2 (ja) * 2020-04-09 2024-04-16 株式会社メディカロイド ロボット手術支援システム、ロボット手術支援システムの作動方法、及びプログラム
CN115379815A (zh) * 2020-04-10 2022-11-22 川崎重工业株式会社 机器人系统及其运转方法
JPWO2021206161A1 (zh) * 2020-04-10 2021-10-14
JP7144813B2 (ja) * 2020-04-14 2022-09-30 ピクシーダストテクノロジーズ株式会社 頭髪ケア装置、および、プログラム
CN111437174A (zh) * 2020-04-16 2020-07-24 深圳瀚维智能医疗科技有限公司 理疗按摩机器人
DE102020204985A1 (de) * 2020-04-21 2021-10-21 Siemens Healthcare Gmbh Steuerung eines robotisch bewegten medizinischen Objekts
FR3112072B1 (fr) * 2020-07-03 2023-08-11 Squaremind Dispositif robotique pour le guidage d’un bras robotise
CN116568219A (zh) * 2020-10-01 2023-08-08 真实数字化外科公司 自动导航数字手术显微镜
WO2022107073A1 (en) * 2020-11-19 2022-05-27 Auris Health, Inc. Endoscope and mounting system for a robotic surgical system
CA3212211A1 (en) 2021-03-31 2022-10-06 David Paul Noonan Co-manipulation surgical system for use with surgical instruments for performing laparoscopic surgery
US11844583B2 (en) 2021-03-31 2023-12-19 Moon Surgical Sas Co-manipulation surgical system having an instrument centering mode for automatic scope movements
US11819302B2 (en) 2021-03-31 2023-11-21 Moon Surgical Sas Co-manipulation surgical system having user guided stage control
US11832909B2 (en) 2021-03-31 2023-12-05 Moon Surgical Sas Co-manipulation surgical system having actuatable setup joints
US11812938B2 (en) 2021-03-31 2023-11-14 Moon Surgical Sas Co-manipulation surgical system having a coupling mechanism removeably attachable to surgical instruments
CN113211460B (zh) * 2021-05-01 2022-03-15 吉林大学 两台单臂工业机器人非接触式协同提升加工刚度的装置
FR3124072B1 (fr) * 2021-06-16 2023-10-20 Quantum Surgical Robot équipé d’une sonde échographique pour le guidage temps-réel d’interventions percutanées
CN114288567B (zh) * 2022-01-05 2022-08-30 北京邮电大学 一种可对生物体表及下方组织进行物理作用的机器人系统
WO2023171263A1 (ja) * 2022-03-10 2023-09-14 ソニーグループ株式会社 制御装置および医療用ロボット
CN114948221A (zh) * 2022-05-20 2022-08-30 宁波市第六医院 一种rtvit技术辅助手术机器人术中配准方法
CN115252119A (zh) * 2022-07-20 2022-11-01 北京唯迈医疗设备有限公司 一种导管室主控机器人及其人工监测系统
CN115400016B (zh) 2022-09-07 2024-04-23 河南理行合医疗科技有限公司 一种微波理疗穴灸器及其使用方法
US11832910B1 (en) 2023-01-09 2023-12-05 Moon Surgical Sas Co-manipulation surgical system having adaptive gravity compensation
US11986165B1 (en) 2023-01-09 2024-05-21 Moon Surgical Sas Co-manipulation surgical system for use with surgical instruments for performing laparoscopic surgery while estimating hold force
CN116115451A (zh) * 2023-02-06 2023-05-16 深圳瀚维智能医疗科技有限公司 体表贴合作业平台
CN116808334B (zh) * 2023-08-16 2024-03-08 中国人民解放军总医院第一医学中心 一种神经外科引流装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102170835A (zh) * 2008-09-30 2011-08-31 直观外科手术操作公司 提供计算机生成的摄像器械的辅助视图以控制医疗机器人系统的末端定位和取向的医疗机器人系统
CN104780849A (zh) * 2012-08-27 2015-07-15 休斯顿大学 用于成像制导和机器人辅助的手术的机器人装置和系统软件、硬件和方法
CN105208958A (zh) * 2013-03-15 2015-12-30 圣纳普医疗(巴巴多斯)公司 用于微创治疗的导航和模拟的系统和方法
CN105517489A (zh) * 2013-09-06 2016-04-20 皇家飞利浦有限公司 导航系统

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996011624A2 (en) 1994-10-07 1996-04-25 St. Louis University Surgical navigation systems including reference and localization frames
DE60327213D1 (de) * 2002-09-05 2009-05-28 Radi Medical Devices Ab Führung für eine medizinische vorrichtung
JP4630564B2 (ja) * 2004-03-30 2011-02-09 国立大学法人浜松医科大学 手術支援装置、方法及びプログラム
US20060274071A1 (en) * 2004-09-29 2006-12-07 L'oreal Method of predicting the appearance of at least a portion of an individual's body
US9492241B2 (en) * 2005-01-13 2016-11-15 Mazor Robotics Ltd. Image guided robotic system for keyhole neurosurgery
JP4836122B2 (ja) * 2006-02-09 2011-12-14 国立大学法人浜松医科大学 手術支援装置、方法及びプログラム
US20080186378A1 (en) * 2007-02-06 2008-08-07 Feimo Shen Method and apparatus for guiding towards targets during motion
JP5157024B2 (ja) * 2008-03-26 2013-03-06 学校法人早稲田大学 穿刺焼灼プランニング支援装置及びそのプログラム
DE102008022924A1 (de) * 2008-05-09 2009-11-12 Siemens Aktiengesellschaft Vorrichtung und Verfahren für einen medizinischen Eingriff
FR2936890B1 (fr) * 2008-10-03 2010-12-03 Univ Grenoble 1 Procede de traitement d'image pour estimer une deformation d'un cerveau d'un patient
JP5569711B2 (ja) * 2009-03-01 2014-08-13 国立大学法人浜松医科大学 手術支援システム
EP2468207A1 (en) * 2010-12-21 2012-06-27 Renishaw (Ireland) Limited Method and apparatus for analysing images
CN105828875B (zh) * 2013-10-16 2019-08-20 皇家飞利浦有限公司 利用生物机械模型估计器官的位置
US10368850B2 (en) * 2014-06-18 2019-08-06 Siemens Medical Solutions Usa, Inc. System and method for real-time ultrasound guided prostate needle biopsies using a compliant robotic arm
CN107427327A (zh) * 2014-09-30 2017-12-01 奥瑞斯外科手术机器人公司 具有虚拟轨迹和柔性内窥镜的可配置机器人外科手术系统
WO2016127173A1 (en) * 2015-02-06 2016-08-11 The University Of Akron Optical imaging system and methods thereof
US20170084036A1 (en) * 2015-09-21 2017-03-23 Siemens Aktiengesellschaft Registration of video camera with medical imaging
US10595944B2 (en) * 2015-10-09 2020-03-24 Covidien Lp Surgical robotic cart with selective wheel alignment
WO2017116512A1 (en) * 2015-12-28 2017-07-06 Metritrack, Inc. System and method for the coregistration of medical image data
US10413366B2 (en) * 2016-03-16 2019-09-17 Synaptive Medical (Bardbados) Inc. Trajectory guidance alignment system and methods

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102170835A (zh) * 2008-09-30 2011-08-31 直观外科手术操作公司 提供计算机生成的摄像器械的辅助视图以控制医疗机器人系统的末端定位和取向的医疗机器人系统
CN104780849A (zh) * 2012-08-27 2015-07-15 休斯顿大学 用于成像制导和机器人辅助的手术的机器人装置和系统软件、硬件和方法
CN105208958A (zh) * 2013-03-15 2015-12-30 圣纳普医疗(巴巴多斯)公司 用于微创治疗的导航和模拟的系统和方法
CN105517489A (zh) * 2013-09-06 2016-04-20 皇家飞利浦有限公司 导航系统

Also Published As

Publication number Publication date
EP3706656A1 (fr) 2020-09-16
SG11202004181VA (en) 2020-06-29
US11903659B2 (en) 2024-02-20
KR102590620B1 (ko) 2023-10-17
EP3706656B1 (fr) 2024-07-10
JP2021502195A (ja) 2021-01-28
CN115444557A (zh) 2022-12-09
CN110573105A (zh) 2019-12-13
KR20200085762A (ko) 2020-07-15
IL274453B2 (en) 2024-06-01
CA3082046A1 (fr) 2019-05-16
FR3073135B1 (fr) 2019-11-15
IL274453A (en) 2020-06-30
US20200281667A1 (en) 2020-09-10
JP2023107774A (ja) 2023-08-03
AU2018364406A1 (en) 2020-05-28
WO2019092372A1 (fr) 2019-05-16
IL274453B1 (en) 2024-02-01
FR3073135A1 (fr) 2019-05-10

Similar Documents

Publication Publication Date Title
CN110573105B (zh) 用于对软组织进行微创医疗干预的机器人装置
CN108024838B (zh) 用于在图像引导手术中使用配准荧光透视图像的系统和方法
CN111248998B (zh) 用于超声图像引导的消融天线放置的系统和方法
Antico et al. Ultrasound guidance in minimally invasive robotic procedures
JP5662638B2 (ja) 副鼻洞形成術ナビゲーションのためのフルオロスコープと計算機式断層写真法との位置揃えのシステム及び利用方法
US7225012B1 (en) Methods and systems for image-guided surgical interventions
US11766298B2 (en) Systems, methods, and devices for registering and tracking organs during interventional procedures
JP5328137B2 (ja) 用具又は埋植物の表現を表示するユーザ・インタフェイス・システム
CN107550566A (zh) 将手术器械相对患者身体进行定位的机器人辅助装置
JP2008126075A (ja) Ctレジストレーション及びフィードバックの視覚的検証のためのシステム及び方法
WO2003032837A1 (en) Computer controlled guidance of a biopsy needle
Cleary et al. Electromagnetic tracking for image-guided abdominal procedures: Overall system and technical issues
Krempien et al. Projector-based augmented reality for intuitive intraoperative guidance in image-guided 3D interstitial brachytherapy
JP2016538014A (ja) 超音波手術を実施するためのシステム及び方法
Fichtinger et al. Surgical and interventional robotics: Part II
WO2023129562A1 (en) Systems and methods for pose estimation of imaging system
KR20240021745A (ko) 경피적 개입의 시간 실시간 안내를 위한 초음파 프로브가 장착된 로봇
US20220409291A1 (en) Planning and real-time updating a 3d trajectory of a medical instrument
Xu et al. An efficient needle insertion robotics system for ultrasound-guided hepatic microwave coagulation therapy
CN115317005A (zh) 用于提供经校正的数据组的方法和系统
Hawkes et al. Computational models in image guided interventions
Maier-Hein Motion compensation and computer guidance for percutenaneous abdominal interventions
WO2023161775A1 (en) Mri based navigation
CN117398182A (zh) 用于监测医用对象的定向的方法和系统
Schweikard et al. Applications of Surgical Robotics

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant