CN111096795A - 用于机器人的释放模式 - Google Patents

用于机器人的释放模式 Download PDF

Info

Publication number
CN111096795A
CN111096795A CN201911022340.3A CN201911022340A CN111096795A CN 111096795 A CN111096795 A CN 111096795A CN 201911022340 A CN201911022340 A CN 201911022340A CN 111096795 A CN111096795 A CN 111096795A
Authority
CN
China
Prior art keywords
medical instrument
anatomical feature
body part
instrument
medical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911022340.3A
Other languages
English (en)
Other versions
CN111096795B (zh
Inventor
A.高瓦力
V.格里奈尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Biosense Webster Israel Ltd
Original Assignee
Biosense Webster Israel Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Biosense Webster Israel Ltd filed Critical Biosense Webster Israel Ltd
Publication of CN111096795A publication Critical patent/CN111096795A/zh
Application granted granted Critical
Publication of CN111096795B publication Critical patent/CN111096795B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2074Interface software
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/302Surgical robots specifically adapted for manipulations within body cavities, e.g. within abdominal or thoracic cavities
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • A61B2034/743Keyboards
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • A61B2034/744Mouse
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/03Automatic limiting or abutting means, e.g. for safety
    • A61B2090/033Abutting means, stops, e.g. abutting on tissue or skin
    • A61B2090/036Abutting means, stops, e.g. abutting on tissue or skin abutting on tissue or skin
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • A61B2090/065Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension for measuring contact or contact pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Surgical Instruments (AREA)
  • Application Of Or Painting With Fluid Materials (AREA)
  • Numerical Control (AREA)

Abstract

本发明题为“用于机器人的释放模式”。本发明公开了一种机器人臂控制系统,该机器人臂控制系统包括:待插入身体部分中的医疗器械;用于检测由该器械施加到该身体部分的力的力传感器;附接到该器械的机器人臂;用于跟踪该身体部分中的该器械的器械位置的第一位置传感;用于跟踪该身体部分的身体位置的第二位置传感器;以及控制器,该控制器用于响应于该器械位置和该身体位置来计算该医疗器械相对于该身体部分的位置、在所计算的位置处比较由该器械施加的检测到的力与适用于解剖特征的允许力水平、并且响应于由该医疗器械施加的大于该允许力水平的检测到的力来向该机器人臂发送控制命令或切断该机器人臂的动力以释放至少一个机器人关节的刚度。

Description

用于机器人的释放模式
技术领域
本发明整体涉及机器人的控制,并且具体地但非排他性地涉及医疗手术期间的机器人的控制。
背景技术
通过引入的方式,在其他应用中,医疗器械可用于脑外科手术或窦扩张中。在窦扩张中,医疗器械可经由鼻腔穿过各种窦腔而被插入。在脑外科手术中,医疗工具可经由鼻腔和窦腔而被插入,而不是打开颅骨以移除肿瘤。机器人臂可用于此类应用中以保持医疗器械。
授予Cooper的美国专利6,132,368描述了用于对患者执行机器人辅助外科手术的系统和方法。具体地,提供了一种三部件外科系统,所述系统包括非无菌的驱动和控制部件、可灭菌的端部执行器或外科工具、以及包括机械元件的中间连接器部件,所述中间连接器部件用于联接外科工具与驱动和控制部件并且用于在这两者间传输运动和电信号。驱动和控制部件被屏蔽以免接触无菌的外科部位,外科工具为可灭菌的和一次性的,并且中间连接器为可灭菌的和可重复使用的。这样,可在外科手术之后对中间连接器进行灭菌,而不损坏机器人系统的驱动和控制部件内的马达或电连接件。
Orban等人的美国公布的专利申请2006/0161138描述了一种具有一体式无菌适配器的无菌盖布、远程机器人外科系统和使用方法,所述无菌盖布、远程机器人外科系统和使用方法被提供用于远程机器人外科系统的覆盖部分以保持无菌外科区域与非无菌的机器人系统之间的无菌屏障,同时还提供用于传输机械能量和信号以及电能量和信号的接口。
Culp等人的美国公布的专利申请2008/0114388描述了一种外科工具系统,所述外科工具系统包括具有动力生成单元的手持件和用于向动力生成单元提供通电信号的控制台。基于与手持件相关联的存储器中的数据,控制台以马达驱动模式或直接驱动模式向手持件动力生成单元提供通电信号。在马达驱动模式中,基于也作为动力生成单元的部分的转子的位置,向与动力生成单元形成一体的绕组提供信号。在直接驱动模式中,向动力生成单元提供与转子位置无关的通电信号。
Shelton等人的美国公布的专利申请2015/0053749描述了一种包括外科器械和端部执行器的外科器械系统,其中所述端部执行器包括远端、被配置成将端部执行器附接到外科器械的近侧连接部分、第一钳口、和能够相对于第一钳口移动的第二钳口,其中所述第二钳口能够在打开取向、部分闭合取向和闭合取向之间移动。端部执行器还可包括被配置成检测第二钳口的取向的至少一个传感器和被配置成模拟第二钳口的取向的指示器阵列。
发明内容
根据本公开的一个实施方案,提供了一种机器人臂控制系统,所述机器人臂控制系统包括:医疗器械,所述医疗器械被配置成可逆地插入活体受检者的身体部分内;被配置成检测由所述医疗器械施加到所述身体部分的力的力传感器;附接到所述医疗器械的机器人臂,所述机器人臂包括被配置成控制所述机器人臂的运动并且操控所述医疗器械的多个机器人关节;被配置成跟踪所述身体部分中的所述医疗器械的器械位置的第一位置传感器;第二位置传感器,所述第二位置传感器设置在所述活体受检者上并且被配置成在所述医疗器械插入所述身体部分中期间跟踪所述身体部分的身体位置;以及控制器,所述控制器被配置成响应于所述器械位置和所述身体位置来计算所述医疗器械相对于所述身体部分的位置、在所计算的位置处比较由所述医疗器械施加的检测到的力与适用于解剖特征的允许力水平、并且响应于由所述医疗器械在所计算的位置处施加的大于所述允许力水平的检测到的力来向机器人臂发送控制命令或切断机器人臂的动力以释放所述多个机器人关节中的至少一个机器人关节的刚度。
另外,根据本公开的一个实施方案,力传感器设置在所述医疗器械上。
另外,根据本公开的一个实施方案,所述控制器被配置成设定适用于所述解剖特征的允许力水平。
另外,根据本公开的一个实施方案,所述控制器被配置成相对于所述身体部分的至少一个给定位置来配准医疗扫描,所述医疗扫描包括所述解剖特征的图像;并且基于所述医疗扫描的配准和所述器械位置来识别所述解剖特征位于所述医疗器械的所计算的位置处。
此外,根据本公开的一个实施方案,控制器被配置成基于所述解剖特征的识别来设定适用于所述解剖特征的允许力水平。
另外,根据本公开的一个实施方案,所述解剖特征的图像具有辐射强度,并且所述控制器被配置成基于所述解剖特征的图像的辐射强度来设定适用于所述解剖特征的允许力水平。
另外,根据本公开的一个实施方案,控制器被配置成基于所述解剖特征的图像的辐射强度来识别所述解剖特征的组织类型,并且基于所述解剖特征的组织类型来设定适用于所述解剖特征的允许力水平。
另外,根据本公开的一个实施方案,所述控制器被配置成响应于由所述医疗器械在所计算的位置处施加的大于所述允许力水平的检测到的力来向所述机器人臂发送控制命令以放下所述医疗器械。
根据本公开的另一个实施方案,还提供了一种机器人臂控制方法,所述方法包括控制附接到医疗器械的机器人臂的运动,所述医疗器械被可逆地插入活体受检者的身体部分中;检测由所述医疗器械施加到所述身体部分的力;跟踪所述身体部分中的所述医疗器械的器械位置;在所述医疗器械插入所述身体部分中期间跟踪所述身体部分的身体位置;响应于所述器械位置和所述身体位置来计算所述医疗器械相对于所述身体部分的位置;在所计算的位置处比较由所述医疗器械施加的检测到的力与适用于解剖特征的允许力水平;以及响应于由所述医疗器械在所计算的位置处施加的大于所述允许力水平的检测到的力来向机器人臂发送控制命令或切断机器人臂的动力以释放所述机器人臂的至少一个机器人关节的刚度。
此外,根据本公开的一个实施方案,检测所述力由设置在所述医疗器械上的力传感器来执行。
另外,根据本公开的一个实施方案,所述方法包括设定适用于所述解剖特征的允许力水平。
另外,根据本公开的一个实施方案,所述方法包括相对于所述身体部分的至少一个给定位置来配准医疗扫描,所述医疗扫描包括所述解剖特征的图像;并且基于所述医疗扫描的配准和所述器械位置来识别所述解剖特征位于所述医疗器械的所计算的位置处。
另外,根据本公开的一个实施方案,设定适用于所述解剖特征的允许力水平基于所述解剖特征的识别。
此外,根据本公开的一个实施方案,所述解剖特征的图像具有辐射强度,并且设定适用于所述解剖特征的允许力水平基于所述解剖特征的图像的辐射强度。
另外,根据本公开的一个实施方案,所述方法包括基于所述解剖特征的图像的辐射强度来识别所述解剖特征的组织类型,并且其中设定适用于所述解剖特征的允许力水平基于所述解剖特征的组织类型。
另外,根据本公开的一个实施方案,发送包括响应于由所述医疗器械在所计算的位置处施加的大于所述允许力水平的检测到的力来向所述机器人臂发送控制命令以放下所述医疗器械。
根据本公开的另一个实施方案,还提供了一种软件产品,所述软件产品包括其中存储程序指令的非暂态计算机可读介质,所述指令在被中央处理单元(CPU)读取时,致使所述CPU控制附接到医疗器械的机器人臂的运动,所述医疗器械被可逆地插入活体受检者的身体部分中;存储由所述医疗器械施加到所述身体部分的检测到的力;存储所述身体部分中的所述医疗器械的器械位置;存储在所述医疗器械插入所述身体部分中期间所述身体部分的身体位置;响应于所述器械位置和所述身体位置来计算所述医疗器械相对于所述身体部分的位置;在所计算的位置处比较由所述医疗器械施加的检测到的力与适用于解剖特征的允许力水平;以及响应于由所述医疗器械在所计算的位置处施加的大于所述允许力水平的检测到的力来向机器人臂发送控制命令或切断机器人臂的动力以释放所述机器人臂的至少一个机器人关节的刚度。
附图说明
结合附图根据以下详细说明将理解本发明,其中:
图1为根据本发明的一个实施方案的机器人医疗手术系统的示意图;
图2为根据本发明的一个实施方案的用于机器人医疗手术系统中的磁场辐射组件的示意图;
图3A为示例性医疗器械的示意性横截面侧视图;
图3B为图3B的医疗器械的示意性横截面前视图;
图3C为根据本发明的一个实施方案的示出与图3A和图3B的医疗器械有关的矢量的示意图;
图4为根据本发明的一个实施方案的包括在操作图1的机器人医疗手术系统时实施的示例性步骤的流程图;
图5为根据本发明的一个实施方案的在流程图的实施期间使用的屏幕的示意图;并且
图6为包括用于图1的机器人医疗手术系统中的方法中的示例性步骤的流程图。
具体实施方式
概述
通过引入的方式,医疗器械可能需要在医疗手术期间由医师小心地操控。医师可能需要腾出两只手来进行其他外科任务。在一些情况下,医师可请其助理保持和引导医疗器械。保持和引导器械的任务对于准确且快速地执行可能是挑战性的。机器人可通过握住医疗器械并在需要时将其保持在适当的位置来减轻该任务,从而使处理稍微更容易。然而,在其中机器人操作的参数超出机器人的规格的某些情况下,机器人也可产生危险。例如,在利用机器人臂来保持已定位在患者体内的医疗器械的耳鼻喉(ENT)手术期间,机器人臂可能无法正确地处理患者的大的后续运动。在这种情况下,机器人臂可尝试调整医疗器械的位置,但这种调整可能不正确并且可对患者造成创伤。
在本发明的实施方案中,系统包括控制器,所述控制器向正保持医疗器械的机器人臂发送控制命令,以释放机器人臂的至少一个机器人关节的刚度。响应于检测到由医疗器械施加到身体部分的力大于医疗器械的位置处的身体部分的解剖特征上的允许力水平来发送控制命令。在一些实施方案中,可在检测到过大力时切断机器人臂的动力。
释放机器人臂的刚度(有时称为“释放”模式)允许医师手动地移动或移除医疗器械。另外,如果患者在机器人处于“释放”模式时移动,则医疗器械通常与患者一起移动,而不会对患者造成创伤或对患者造成较小的创伤。
例如,如果医疗器械被插入窦口中,则当患者移动其头部时,医疗器械可靠近视神经。在这种情况下,系统感测到由医疗器械施加在视神经区域中的力为过大的,并且因此发送控制命令以将机器人臂置于“释放”模式。
解剖特征的识别可利用与系统配准的医疗扫描诸如CT扫描或其他扫描数据来进行。医疗扫描可提供各种解剖特征(诸如骨、软组织、血液、器官、神经等)的指示。仅以举例的方式,各种解剖特征的指示可基于扫描中的各种辐射强度值,诸如亨氏单位(HU)。除此之外或另选地,可利用图像分析自动地识别或者由技术操作者或放射科医师手动地识别医疗扫描中的解剖特征,诸如视神经或脑。所识别的解剖特征随后可与系统进行配准。
在一些实施方案中,系统还包括用于感测身体部分和医疗器械的位置的合适的位置传感器以及设置在医疗器械上的用于检测由医疗器械施加到患者的身体部分上的力的至少一个力传感器。控制器基于身体部分和医疗器械的所感测的位置来计算医疗器械相对于身体部分的相对位置。
控制器可基于医疗扫描的配准和器械位置来识别解剖特征位于医疗器械的所计算的位置处。控制器可基于医疗扫描中的解剖特征的图像的辐射强度来识别解剖特征的组织类型(例如,骨、软组织、脂肪或血液)。说明书和权利要求书中所用的术语“在所计算的位置处”被定义为包括位于以任何合适的测量单位测量的所计算的位置的给定距离内的解剖特征。例如,当在其中存在许多精细的、敏感的解剖结构的患者头部内操作时,如果解剖特征在医疗扫描中的位置在医疗器械的所计算的位置的1mm之内,或者可能在更大距离诸如3mm之内,则该解剖特征可被视为“在所计算的位置处”。在身体的其他部分中,容差可为较大的。
控制器基于所识别的组织类型或解剖特征的识别(例如,视神经或脑)来设定适用于解剖特征的允许力水平。例如,相比于软组织或视神经,允许对骨施加更高的力。
控制器在所计算的位置处比较由医疗器械施加的检测到的力与适用于解剖特征的允许力水平,并且当由医疗器械在所计算的位置处施加的检测到的力大于允许力水平时向机器人臂发送控制命令(其可包括切断机器人臂的动力)以释放机器人臂的至少一个机器人关节的刚度。释放模式甚至可导致机器人放下医疗器械,但这种不便与创伤风险相比一般更可接受。
在下述实施方案中,力传感器通常设置在医疗器械上而非机器人臂上。由于机器人臂的重量,设置在机器人臂上的力传感器可能无法提供精确的力读数。在其中使用另一医疗器械诸如抽吸工具的情况下,当力传感器设置在机器人臂上时,抽吸工具可对由医疗器械施加的力产生不精确的错误力读数。然而,在一些情况下,取代或除了设置在医疗器械上,力传感器可设置在机器人臂上。
虽然下文描述的实施方案具体地涉及在患者的鼻腔和窦腔内执行的手术,但本发明的原理可加以类似的变更而类似地适用于头部内和身体的其他部分中的其他种类的机器人外科手术中。所有这些另选的实施方案均被视为在本发明的范围内。
系统描述
以引用方式并入本文的文献将被视作本申请的整体部分,不同的是,就任何术语在这些并入文件中以与本说明书中明确或隐含地作出的定义矛盾的方式定义而言,应仅考虑本说明书中的定义。
现在转到附图,根据本发明的一个实施方案,现在参考图1,其为机器人医疗手术系统20的示意图,并且参考图2,其为用于系统20中的磁场辐射组件24的示意图。机器人医疗手术系统20通常在对患者22的鼻窦或另一个身体部分(诸如脑)的侵入式和/或探索手术期间使用。
对于该手术,可例如通过将磁场辐射组件24固定到患者所坐(或躺着)的椅子25(或床)而将组件24定位在患者22的头部后面和/或周围。图示示例中的磁场辐射组件24包括被固定在马蹄形框架中的五个磁场辐射器26,该框架被定位在患者22下面或周围,使得磁场辐射器26围绕患者22的头部。另选地,可使用呈以各种不同构型的更小或更大数量的辐射器26。磁场辐射器26被配置成将相应频率下的交变磁场辐射到邻近磁场辐射组件24并且包括患者22的头部的区域30中。交变磁场在位置传感器32和位置传感器36中诱导信号。位置传感器32被示为设置在医疗器械28上,以便跟踪医疗器械28的位置。仅以举例的方式,医疗器械28可包括下列中的任何一者或多者:用于插入身体部分中的探针、内窥镜、和/或外科工具(诸如ENT工具、抽吸工具、吸切器或剃刀)。
医疗器械28附接到机器人臂40并由其保持,该机器人臂被配置成操控医疗器械28。机器人臂40包括被配置成控制机器人臂40的运动并且操控医疗器械28的多个机器人关节。
位置传感器36被示为设置在患者22上(例如,在患者22的前额或任何其他合适的身体部分上)以便跟踪患者22的位置(例如,跟踪患者22的头部的位置)。
每个位置传感器32、36通常包括一组三个正交线圈,并且信号可由控制器38分析以导出位置传感器32、36相对于磁场辐射组件24的位置和取向。应当理解,可针对区域30内的位置传感器的基本上任何定位来确定位置传感器32、36的位置和取向。虽然位置传感器32、36在本文中被描述为磁位置传感器,但医疗器械28和患者22的位置可使用任何合适的位置感测技术来计算,例如但不限于电、超声、光学、惯性或本领域已知的任何其他合适类型。
如下文更详细地描述,位置传感器32附连到医疗器械28,并且位置传感器32的位置和取向的确定使得能够跟踪医疗器械28的可以被可逆地插入患者22(活体受检者)的身体部分中的远端34(或其他位置)的位置和取向。当医疗器械28为刚性医疗器械时,位置传感器32通常可设置在医疗器械28的任何合适的部分(例如,医疗器械28的远端34或近端52)上和/或设置在正保持医疗器械28的机器人臂40上。如果医疗器械28的远端34为柔性的,则位置传感器32通常设置在医疗器械28的远端34上,以便精确地跟踪医疗器械28的远端34的位置。
类似地,位置传感器36的位置和取向的确定使得能够跟踪患者22的身体部分(例如,头部)的位置和取向。位置传感器36在图1中被示为设置在患者22的前额上。位置传感器36可设置在患者22的任何其他合适的身体部分上,以便跟踪患者22的位置/运动。
使用磁场辐射器(诸如磁场辐射器26)来跟踪插入患者中的实体的系统在Govari等人的美国专利公布2016/0007842中有所描述,该专利以引用方式并入本文。此外,由Biosense Webster(33Technology Drive,Irvine,CA 92618 USA)生产的
Figure BDA0002247624510000081
系统使用与本文所述的跟踪系统类似的跟踪系统在受磁场辐射的区域中找到线圈的位置和取向。
机器人臂40通常具有其自身的机器人坐标系。将机器人坐标系与磁场辐射器26的磁坐标系配准,和/或反之亦然。机器人坐标系与磁坐标系的配准可例如通过将机器人臂40或附接到机器人臂40的医疗器械28移动到磁场辐射器26已知的一个或多个位置,例如移动到磁场辐射组件24上的位置或移动到位置传感器36或移动到患者22上的一个或多个其他已知位置来执行。一旦已执行机器人坐标系与磁坐标系的配准,磁坐标系中的位置就能够被平移到机器人坐标系,以便正确地操控机器人臂40。
包括辐射器26的系统20的元件可由控制器38控制,该控制器包括与一个或多个存储器通信的处理单元。通常,元件可通过缆线连接到控制器38,例如,辐射器26可通过缆线58连接到控制器38。另选地或除此之外,元件可以无线方式联接到控制器38。控制器38可安装在控制台50中,该控制台包括操作控件51,该操作控件通常包括小键盘和/或指向装置(诸如鼠标或轨迹球)。控制台50还连接到机器人医疗手术系统20的其他元件,诸如医疗器械28的近端52。医师54利用操作控件51与控制器38交互,同时执行手术,并且控制器38可将由系统20产生的结果呈现在显示屏56上。在图1中,显示屏56正在显示先前CT扫描(或其他合适的扫描)的各种视图59,其可被用作医师54在身体部分中引导医疗器械28的辅助。显示屏56还示出由医疗器械28捕获的图像61。
在实施过程中,控制器38的这些功能中的一些或全部可被组合在单个物理部件中,或者另选地,使用多个物理部件来实现。这些物理部件可包括硬连线或可编程装置,或这两者的组合。在一些实施方案中,处理电路的功能中的至少一些功能可由可编程处理器在合适软件的控制下实施。该软件可以通过(例如)网络以电子形式下载到设备device中。另选地或除此之外,该软件可以被储存在有形的非暂态计算机可读存储介质,诸如光学、磁或电子存储器中。
机器人医疗手术系统20可任选地包括镜片清洁装置63,该镜片清洁装置被配置成当内窥镜被包括在医疗器械28中时清洁内窥镜的镜片。镜片清洁装置63可包括用于将水喷雾于镜片上的喷水喷雾器,或用合适的材料(例如但不限于一块纱布)擦拭镜片的擦拭器。镜片清洁装置63可设置在机器人臂40上。另选地或除此之外,镜片清洁装置63可被实现为医疗器械28的一部分,例如具有喷射喷雾,该喷射喷雾可在医疗器械28从身体部分移除时被启用。
图3A-C、图4、图5将医疗器械28描述为刚性医疗器械,并且将位置传感器32描述为可被固定到医疗器械28的任何合适部分的可移动位置传感器,并因此位置传感器32的位置最初不指示医疗器械28的远端34,直到执行合适的校准。在一些实施方案中,机器人医疗手术系统20可在位置传感器32与医疗器械28形成一体和/或位置传感器32相对于医疗器械28的远端34的位置已知时实现。在其他实施方案中,位置传感器32可设置在机器人臂40上,并且在这种情况下,位置传感器32的位置最初不指示医疗器械28的远端34,直到执行合适的校准。
根据本发明的一个实施方案,图3A为医疗器械28的示意性横截面侧视图,图3B为医疗器械28的示意性横截面前视图,并且图3C为示出与医疗器械28有关的矢量的示意图。在对医疗器械28的以下描述中,假定医疗器械28包括具有纵向对称轴线62的刚性圆柱体60。在图3A和图3B中,医疗器械28已被绘制在一组xyz正交轴上,其中纵向对称轴线62限定z轴。为清楚起见,在图3A和图3B中,医疗器械28的xyz轴从圆柱体60移位地绘制。
位置传感器32通过传感器保持器64被固定到圆柱体60,该传感器保持器通常由塑料形成,以便完全封装位置传感器32。如本文所述,来自位置传感器32的、响应于与位置传感器32交互的磁场而生成的信号用于确定位置传感器32的位置和取向。可将传送来自位置传感器32的信号的导线连接到医疗器械28的近端52,并且从近端52连接到控制台50。导线在图3A和图3B中未示出。
假定位置传感器32具有传感器方向70,通常但不一定为位置传感器32的内部对称轴线的方向,并且本文所提及的取向测量传感器方向相对于由磁场辐射器26(图2)限定的参照系的取向。位置传感器32的传感器方向70在图3A和图3C中示意性地示为箭头。
传感器保持器64被生产成具有孔68,该孔被成形为具有与圆柱体60的直径基本上相同但足够不同的直径,使得在保持器64与圆柱体60之间存在滑动配合。当生产保持器64时,孔68的中心被制成与位置传感器32相距已知距离A。A的典型值为0.5cm,但A可小于或大于该值。可构造一系列传感器保持器,其具有孔,这些孔的尺寸被设定成具有不同直径的医疗器械。此外,由于被包括在保持器64中,因此孔68的中心相对于传感器方向70具有已知的取向θ。因此,如图3C所示,从位置传感器32到孔68的中心存在已知的位移矢量(A,θ),本文也称为矢量V。
孔68具有对称轴线69,该对称轴线通常正交于矢量V,并且由于其在生产保持器64时形成,其相对于矢量V具有已知的方向φ(图3C)。
还如下文所述,在操作系统20时,传感器保持器64的孔68滑动到圆柱体60上,并且当保持器64靠近近端52时,保持器64固定到圆柱体60。应当理解,在将圆柱体60滑动在孔68内时,轴线69和62是重合的,并且也与方向φ重合。保持器64包括具有头部的固定螺钉72,该头部可由医师54(图1)抓握。使用该头部,医师54能够用手拧紧该固定螺钉,以将保持器64沿圆柱体60固定在所需位置处。假定从位置传感器32的中心到远端34的距离为距离B。与距离A不同,当传感器保持器64固定到圆柱体60时,距离B是未知的,但如下文在系统20的操作中所述,控制器38能够计算距离B。
图3A还示出了设置在医疗器械28上或嵌入其中的力传感器35。力传感器35被配置成提供指示由医疗器械28施加于身体部分上的力的信号。多于一个力传感器35可设置在沿医疗器械28的不同侧向位置处,以提供医疗器械28上的不同位置处的力读数。其公开内容以引用方式并入本文中的美国专利申请公开2007/0100332和2009/0093806描述了使用嵌入导管中的力传感器感测导管的远侧末端与体腔中的组织之间的接触压力的方法。此外,由Biosense Webster(33Technology Drive,Irvine,CA 92618 USA)生产的
Figure BDA0002247624510000111
SmartTouchTM系统包括适用于机器人医疗手术系统20的力传感器。
根据本发明的一个实施方案,图4为包括在机器人医疗手术系统20的操作中实施的示例性步骤的流程图,并且图5为在流程图的实施期间显示屏56的示意图。流程图的步骤也由图1、图2、图3A、图3B和图3C示出。
在初始步骤100中,通过计算机化断层摄影图像(CT)(在本文中以举例的方式被假定为荧光CT)扫描患者22的头部,并且通过控制器38采集来自扫描的CT数据。患者22的CT扫描可独立于流程图中对应于医疗手术的其余步骤的实施来执行。通常,步骤100可在医疗手术的下述步骤之前的若干天执行。在一些实施方案中,任何其他合适的医疗扫描可补充或替代CT扫描。
在第一手术步骤102中,将辐射组件24安装在患者22的头部下面或后面。然后操作辐射器26,并且在配准步骤104中,将辐射器26的参照系与受检者头部的参照系配准。该配准通常通过本领域中已知的任何方法,例如通过将磁场传感器线圈诸如位置传感器36或此类线圈的分组放置在相对于患者22的外部特征的一个或多个已知位置和取向,以及与保持辐射器26的磁场辐射组件24一起来执行。一般来讲,在该步骤中,控制器38被配置成相对于身体部分的至少一个给定位置(例如,患者22的外部特征)来配准CT数据(或其他医疗扫描)。
在初始显示步骤106中,控制器38使用在步骤100中接收到的CT数据来生成患者22的外部特征的表示150(本文也称为图像150)。CT数据为具有亨氏单位(HU)的体素的形式,并且患者22的外部特征的图像150由体素值及其HU值生成。图像150通常为灰阶图像。从黑色到白色的灰阶的值可与相应体素的亨氏单位(HU)相关。
HU值为辐射强度值,并且如本领域所已知的,除了空气和水的值(其按定义分别为-1000和0)之外,任何其他实物或物质(诸如密质骨)的亨氏单位的值尤其取决于用于产生本文提及的CT扫描的辐射X射线的光谱。继而,X射线的光谱取决于多种因素,包括施加到X射线发生器的电势(kV)、以及发生器的阳极的组成。在公开中为清楚起见,假定特定实物或物质的亨氏单位的值由下表I给出。
物质/实物 亨氏单位
空气 -1000
软组织 -300至-100
脂肪 -50
0
血液 +30至+45
密质骨 +3000
表I
然而,表I中给出的特定物质(除空气和水之外)的HU的数值应被理解为完全示例性的,并且本领域的普通技术人员将能够根据物质和用于生成本文提及的CT图像的X射线机来修改这些示例性值,而无需进行不当的实验。通常,将HU值与灰阶值之间的转换编码到DICOM(医学数字成像和通信)文件中,该文件为从给定CT机输出的CT扫描。
控制器38在显示屏56上显示图像150,并且图5示意性地示出了显示在显示屏56上的图像150。
HU值还在CT图像中提供不同位置处的不同组织类型(例如,骨、软组织、脂肪、血液)的指示。CT扫描与机器人医疗手术系统20的配准可允许基于医疗器械28的位置处的体素的HU值来识别邻近医疗器械28的解剖特征。例如,可基于远端34的位置处的CT扫描中的HU值来识别软组织位于医疗器械28的远端34处。另选地,可基于远端34附近的HU值来在CT扫描中识别密质骨。可通过CT扫描的分析自动地(利用图像分析技术)或手动地(由经过训练的操作者或放射科医师)识别其他解剖特征。所识别的解剖特征随后可与机器人医疗手术系统20进行配准,以供在医疗手术期间使用。因此,当医疗器械34插入身体部分中时,不同的解剖特征可被识别为靠近远端34或医疗器械28的另一个位置。可基于解剖特征的敏感性控制医疗器械28以避免向解剖特征施加过大的力。例如,视神经可在CT扫描中自动地或由放射科医师识别,并且随后与机器人医疗手术系统20进行配准,以供医疗手术期间使用。当医疗器械28位于视神经位置处时,可控制医疗器械28以避免向视神经施加过大的力。这些特征参考图6进行更详细地描述。
在操作步骤108中,医师将传感器保持器64的孔68滑动到医疗器械28的刚性圆柱体60上,然后医师54使用固定螺钉72将传感器保持器锁定在医疗器械28的近端52附近的适当位置。一旦将保持器64锁定在适当位置,就将机器人臂40设定成允许由医师54手动移动机器人臂40的释放模式。医师54使医疗器械28的远端34接触患者22的外部特征的选定区域,例如患者的鼻子的侧面处的区域。
远端34的定位将传感器保持器64及其封装的位置传感器32引入区域30中,使得控制器38能够计算位置传感器32的位置和取向。一旦控制器38已执行该计算,其通常在图像150附近将表示传感器方向70的图标152引入到显示屏56上。根据由传感器信号确定的位置传感器32在图像150和磁场辐射器26的共同参照系内的位置和取向,将图标152定位并取向在显示屏56上。
由于医师54正在操控医疗器械28的事实,医师54意识到位置传感器32的实际位置和取向。图标152的位置和取向与位置传感器32的实际位置和取向的比较可向医师54提供正确操作机器人医疗手术系统20的确认。
在校准步骤110中,医师54通常通过使用控件51来通知控制器38:医疗器械28的远端34与患者22的外部特征接触。在接收到通知时,控制器38对位置传感器32的已知位置执行两个平移。第一平移对应于矢量V(A,θ)(图3C),使得控制器38沿由θ限定的方向将位置传感器32的位置平移了值A至轴线62上的点P(图3A)。在图5中绘制对应于点P的点P',以示出第一平移的终止。通常,在屏幕56上不绘制点P'。
从点P,控制器38在对应于方向φ的方向上执行第二平移。由于轴线69和62是重合的,因此第二平移在对应于沿轴线62平移的方向上。控制器38使用图像150的数据以通过由图像数据确定在沿轴线69的方向φ上移动的点P与患者22的外表面相接的位置来确定第二平移的实际长度。当存在如图像中所测量的至少预先确定的辐射强度变化时(例如,图像数据的亨氏单位的值的变化),发生与外表面的相接。变化的合适值为200-500亨氏单位。假定该相接在轴线62上的点Q处。点Q在距点P的现在已知的距离B处,并且因此第二平移对应于矢量(B,φ)(本文也称为矢量W,并且在图3C中示出)。
应当理解,虽然点Q的位置的计算使用CT图像数据,但是由于图像150与患者22的实际外部特征配准,因此点Q与患者22的实际外部点相对应。
在校准步骤结束时,控制器38从屏幕56删除图标152,并且将图标154定位在图像150上的对应于点Q的位置处,图标154的位置和取向与远端34的实际位置和取向的比较向医师54提供正确完成校准步骤的确认。
校准步骤的两个平移的总和V+W为由控制器38存储的矢量。
在继续跟踪步骤112中,控制器38将步骤110中存储的矢量添加到位置传感器32的位置,以便确定远端34的位置。远端34的取向对应于方向φ,该方向也由控制器38在跟踪位置传感器32时确定。因此,控制器38能够通过计算位置传感器32的位置和取向来计算远端34的位置和取向。控制器38可将对应于远端34的位置和取向的图标定位在显示屏56上。在一些实施方案中,如果远端34在患者22内,则图像150的可使图标模糊的外部特征被渲染成至少部分透明的。远端34相对于患者22的解剖特征的位置可基于远端34相对于配准图像上的坐标的所计算的位置而导出。以上述方式,可通过观察捕获的CT或其他图像中的图标的运动,将医疗器械28的远端34引导到患者22的身体部分中至所需的位置。
在一些实施方案中,医疗器械28的远端34可由机器人臂40基于合适的路径查找算法而被自动地引导到身体部分中。参考Gliner等人的美国公布的专利申请2017/0056112A1描述了一种示例性算法,该专利申请以引用方式并入本文。
现在参考图6,其为包括用于图1的机器人医疗手术系统20中的方法中的示例性步骤的流程图200。还参考图1。
如上文参考图4所述,CT扫描的HU值在CT图像中提供不同位置处的不同组织类型(例如,骨、软组织、脂肪、血液)或其他实物(例如,水)的指示。CT扫描与机器人医疗手术系统20的配准可允许基于医疗器械28的位置处的体素的HU值来识别邻近医疗器械28的解剖特征。例如,可基于远端34的位置处的CT扫描中的HU值来识别软组织位于医疗器械28的远端34处。另选地,可基于远端34附近的HU值来在CT扫描中识别密质骨。可通过CT扫描的分析自动地(利用图像分析技术)或手动地(由经过训练的操作者或放射科医师)识别其他解剖特征。所识别的解剖特征随后可与机器人医疗手术系统20进行配准,以供在医疗手术期间使用。例如,视神经可在CT扫描中自动地或由放射科医师识别,并且随后与机器人医疗手术系统20进行配准。当医疗器械28位于视神经位置处时,可控制医疗器械28以避免向视神经施加过大的力。
位置传感器32被配置成跟踪(框202)身体部分中的医疗器械28的器械位置。位置传感器36被配置成在医疗器械204插入身体部分中期间跟踪(框28)身体部分的身体位置。力传感器35(图3A)被配置成检测(框206)由医疗器械28施加到身体部分的力。
控制器38被配置成响应于器械位置和身体位置来计算(框208)医疗器械28相对于身体部分的位置。
控制器38被配置成基于医疗扫描的配准和器械位置来识别(框210)解剖特征位于医疗器械28的所计算的位置处。例如,控制器38识别CT扫描中对应于医疗器械28的所计算的位置的位置。CT扫描的位置可包括解剖特征。解剖特征可为在下面的步骤212中识别的组织类型。除此之外或另选地,解剖特征可为在CT扫描中自动地(例如,利用图像分析)或由放射科医师识别的器官或神经或其他特征,并且随后可在医疗手术之前与机器人医疗手术系统20进行配准。
控制器38被配置成基于解剖特征的图像的辐射强度(例如,HU值)来识别(框212)解剖特征的组织类型(例如,骨、软组织、血液、脂肪)。除此之外或另选地,控制器38被配置成基于在医疗手术之前与机器人医疗手术系统20配准的解剖特征的识别来识别(框212)解剖特征(例如,视神经或脑)的识别。
控制器38被配置成设定(框214)适用于解剖特征上的允许力水平。在一些实施方案中,控制器38被配置成基于解剖特征的已知或估计的敏感性和/或重要性来设定适用于解剖特征的允许力水平。例如,视神经可比另一神经更重要。在一些实施方案中,控制器38被配置成基于解剖特征的组织类型的敏感性和/或重要性来设定适用于解剖特征的允许力水平。例如,软组织比硬骨更敏感。在一些实施方案中,控制器38被配置成基于解剖特征的图像的辐射强度(例如,HU值)来设定适用于解剖特征的允许力水平。仅以举例的方式,允许力水平对于围绕眼眶的组织可被设定为2克力(gmf),对于视神经可被设定为小于1gmf,并且对于鼻骨可被设定为30gmf,其中1gmf相当于标准重力下的1克质量的重量。
控制器38被配置成在所计算的位置处比较(框216)由医疗器械28施加的检测到的力与适用于解剖特征的允许力水平。如果医疗器械28包括多个力传感器35,则可对来自力传感器35的读数取平均值。除此之外或另选地,来自不同力传感器35的读数可由控制器38单独处理,其中控制器38比较每个相应力传感器35的位置处的检测到的力与邻近相应力传感器35中的每一者的解剖特征的允许力水平。
控制器38被配置成响应于由医疗器械28在所计算的位置处施加的大于允许力水平的检测到的力来向机器人臂40发送(框218)控制命令或切断其动力,以释放机器人臂40的多个机器人关节中的至少一个机器人关节的刚度。释放模式可甚至导致机器人臂40放下医疗器械28,但这与创伤风险相比是可接受的,前提条件是仍存在对机器人臂40的致动器的反馈。在一些实施方案中,控制器38被配置成响应于由医疗器械28在所计算的位置处施加的大于允许力水平的检测到的力来向机器人臂40发送控制命令以放下医疗器械28。
为清晰起见,在独立实施方案的上下文中描述的本发明的各种特征也可在单个实施方案中组合提供。相反地,为简明起见,在单个实施方案的上下文中进行描述的本发明的各种特征也可单独地或以任何合适的子组合形式提供。
上述实施方案以举例的方式被引用,并且本发明不限于上文具体示出和描述的内容。相反,本发明的范围包括上文描述的各种特征的组合和子组合以及它们的变型和修改,本领域的技术人员在阅读上述描述时将会想到所述变型和修改,并且所述变型和修改并未在现有技术中公开。

Claims (17)

1.一种机器人臂控制系统,包括:
医疗器械,所述医疗器械被配置成可逆地插入活体受检者的身体部分中;
力传感器,所述力传感器被配置成检测由所述医疗器械施加到所述身体部分的力;
附接到所述医疗器械的机器人臂,所述机器人臂包括多个机器人关节,所述多个机器人关节被配置成控制所述机器人臂的运动并且操控所述医疗器械;
第一位置传感器,所述第一位置传感器被配置成跟踪所述身体部分中的所述医疗器械的器械位置;
第二位置传感器,所述第二位置传感器设置在所述活体受检者上并且被配置成在所述医疗器械插入所述身体部分中期间跟踪所述身体部分的身体位置;以及
控制器,所述控制器被配置成:
响应于所述器械位置和所述身体位置来计算所述医疗器械相对于所述身体部分的位置;
在所计算的位置处比较由所述医疗器械施加的检测到的力与适用于解剖特征的允许力水平;并且
响应于由所述医疗器械在所计算的位置处施加的大于所述允许力水平的检测到的力来向所述机器人臂发送控制命令或切断所述机器人臂的动力以释放所述多个机器人关节中的至少一个机器人关节的刚度。
2.根据权利要求1所述的系统,其中所述力传感器设置在所述医疗器械上。
3.根据权利要求1所述的系统,其中所述控制器被配置成设定适用于所述解剖特征的所述允许力水平。
4. 根据权利要求3所述的系统,其中所述控制器被配置成:
相对于所述身体部分的至少一个给定位置来配准医疗扫描,所述医疗扫描包括所述解剖特征的图像;并且
基于所述医疗扫描的配准和所述器械位置来识别所述解剖特征位于所述医疗器械的所计算的位置处。
5.根据权利要求4所述的系统,其中控制器被配置成基于所述解剖特征的识别来设定适用于所述解剖特征的所述允许力水平。
6. 根据权利要求4所述的系统,其中:
所述解剖特征的图像具有辐射强度;并且
所述控制器被配置成基于所述解剖特征的图像的辐射强度来设定适用于所述解剖特征的所述允许力水平。
7. 根据权利要求6所述的系统,其中所述控制器被配置成:
基于所述解剖特征的图像的辐射强度来识别所述解剖特征的组织类型;并且
基于所述解剖特征的组织类型来设定适用于所述解剖特征的所述允许力水平。
8.根据权利要求1所述的系统,其中所述控制器被配置成响应于由所述医疗器械在所计算的位置处施加的大于所述允许力水平的检测到的力来向所述机器人臂发送控制命令以放下所述医疗器械。
9.一种机器人臂控制方法,包括:
控制附接到医疗器械的机器人臂的运动,所述医疗器械被可逆地插入活体受检者的身体部分中;
检测由所述医疗器械施加到所述身体部分的力;
跟踪所述身体部分中的所述医疗器械的器械位置;
在所述医疗器械插入所述身体部分中期间跟踪所述身体部分的身体位置;
响应于所述器械位置和所述身体位置来计算所述医疗器械相对于所述身体部分的位置;
在所计算的位置处比较由所述医疗器械施加的检测到的力与适用于解剖特征的允许力水平;以及
响应于由所述医疗器械在所计算的位置处施加的大于所述允许力水平的检测到的力来向所述机器人臂发送控制命令或切断所述机器人臂的动力以释放所述机器人臂的至少一个机器人关节的刚度。
10.根据权利要求9所述的方法,其中检测所述力由设置在所述医疗器械上的力传感器来执行。
11.根据权利要求9所述的方法,还包括设定适用于所述解剖特征的所述允许力水平。
12. 根据权利要求11所述的方法,还包括:
相对于所述身体部分的至少一个给定位置来配准医疗扫描,所述医疗扫描包括所述解剖特征的图像;以及
基于所述医疗扫描的配准和所述器械位置来识别所述解剖特征位于所述医疗器械的所计算的位置处。
13.根据权利要求12所述的方法,其中设定适用于所述解剖特征的所述允许力水平基于所述解剖特征的识别。
14. 根据权利要求12所述的方法,其中:
所述解剖特征的图像具有辐射强度;并且
设定适用于所述解剖特征的所述允许力水平基于所述解剖特征的图像的辐射强度。
15.根据权利要求14所述的方法,还包括基于所述解剖特征的图像的辐射强度来识别所述解剖特征的组织类型,并且其中设定适用于所述解剖特征的所述允许力水平基于所述解剖特征的组织类型。
16.根据权利要求9所述的方法,其中所述发送包括响应于由所述医疗器械在所计算的位置处施加的大于所述允许力水平的检测到的力来向所述机器人臂发送控制命令以放下所述医疗器械。
17.一种软件产品,包括其中存储程序指令的非暂态计算机可读介质,所述指令在被中央处理单元(CPU)读取时,致使所述CPU:
控制附接到医疗器械的机器人臂的运动,所述医疗器械被可逆地插入活体受检者的身体部分中;
存储由所述医疗器械施加到所述身体部分的检测到的力;
存储所述身体部分中的所述医疗器械的器械位置;
在所述医疗器械插入所述身体部分中期间存储所述身体部分的身体位置;
响应于所述器械位置和所述身体位置来计算所述医疗器械相对于所述身体部分的位置;
在所计算的位置处比较由所述医疗器械施加的检测到的力与适用于解剖特征的允许力水平;并且
响应于由所述医疗器械在所计算的位置处施加的大于所述允许力水平的检测到的力来向所述机器人臂发送控制命令或切断所述机器人臂的动力以释放所述机器人臂的至少一个机器人关节的刚度。
CN201911022340.3A 2018-10-26 2019-10-25 用于机器人的释放模式 Active CN111096795B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/171996 2018-10-26
US16/171,996 US11497566B2 (en) 2018-10-26 2018-10-26 Loose mode for robot

Publications (2)

Publication Number Publication Date
CN111096795A true CN111096795A (zh) 2020-05-05
CN111096795B CN111096795B (zh) 2024-06-07

Family

ID=68344672

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911022340.3A Active CN111096795B (zh) 2018-10-26 2019-10-25 用于机器人的释放模式

Country Status (7)

Country Link
US (1) US11497566B2 (zh)
EP (1) EP3643265B1 (zh)
JP (1) JP7387383B2 (zh)
CN (1) CN111096795B (zh)
AU (1) AU2019240619A1 (zh)
CA (1) CA3057357A1 (zh)
IL (1) IL269765B2 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116212196A (zh) 2019-07-19 2023-06-06 科林达斯公司 机器人致动中的细长医疗装置的负载感测
US20230100698A1 (en) * 2021-09-29 2023-03-30 Cilag Gmbh International Methods for Controlling Cooperative Surgical Instruments
US20230240780A1 (en) * 2022-02-02 2023-08-03 Mazor Robotics Ltd. Protection systems, assemblies, and devices
US20240024028A1 (en) * 2022-07-21 2024-01-25 Mazor Robotics Ltd. Systems and methods for verifying a pose of a target

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5855553A (en) * 1995-02-16 1999-01-05 Hitchi, Ltd. Remote surgery support system and method thereof
US20020077543A1 (en) * 2000-06-27 2002-06-20 Robert Grzeszczuk Method and apparatus for tracking a medical instrument based on image registration
EP3009091A1 (en) * 2014-10-17 2016-04-20 Imactis Medical system for use in interventional radiology
CN105636541A (zh) * 2013-03-15 2016-06-01 圣纳普医疗(巴巴多斯)公司 用于微创疗法的规划、导航和模拟系统及方法
CN106133790A (zh) * 2014-03-28 2016-11-16 皇家飞利浦有限公司 用于在组织种类分离的帮助下基于磁共振图像生成一幅或多幅计算机断层摄影图像的方法和设备
US20170151027A1 (en) * 2015-11-30 2017-06-01 Hansen Medical, Inc. Robot-assisted driving systems and methods
CN107913102A (zh) * 2016-10-06 2018-04-17 韦伯斯特生物官能(以色列)有限公司 使用超声进行的解剖图像与位置跟踪系统的术前配准
WO2018081136A2 (en) * 2016-10-25 2018-05-03 Eugene Gregerson Methods and systems for robot-assisted surgery
CN108024693A (zh) * 2015-09-10 2018-05-11 直观外科手术操作公司 在图像引导医疗程序中利用跟踪的系统和方法
WO2018125917A1 (en) * 2016-12-28 2018-07-05 Auris Surgical Robotics, Inc. Apparatus for flexible instrument insertion

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3419869B2 (ja) 1993-12-28 2003-06-23 オリンパス光学工業株式会社 医療器具
US6017354A (en) 1996-08-15 2000-01-25 Stryker Corporation Integrated system for powered surgical tools
US7666191B2 (en) 1996-12-12 2010-02-23 Intuitive Surgical, Inc. Robotic surgical system with sterile surgical adaptor
US6132368A (en) 1996-12-12 2000-10-17 Intuitive Surgical, Inc. Multi-component telepresence system and method
US8004229B2 (en) * 2005-05-19 2011-08-23 Intuitive Surgical Operations, Inc. Software center and highly configurable robotic systems for surgery and other uses
CA2626833C (en) 2005-10-27 2016-06-07 St. Jude Medical, Atrial Fibrillation Division, Inc. Systems and methods for electrode contact assessment
US8622935B1 (en) * 2007-05-25 2014-01-07 Endosense Sa Elongated surgical manipulator with body position and distal force sensing
US8357152B2 (en) 2007-10-08 2013-01-22 Biosense Webster (Israel), Ltd. Catheter with pressure sensing
US8553952B2 (en) * 2008-11-29 2013-10-08 Supratik Kumar Moulik Method and system for automated interpretation of computer tomography scan data
EP2600788B1 (en) 2010-08-02 2023-07-26 The Johns Hopkins University Tool exchange interface and control algorithm for cooperative surgical robots
US10646280B2 (en) 2012-06-21 2020-05-12 Globus Medical, Inc. System and method for surgical tool insertion using multiaxis force and moment feedback
US20150053737A1 (en) 2013-08-23 2015-02-26 Ethicon Endo-Surgery, Inc. End effector detection systems for surgical instruments
DE102014200309A1 (de) 2014-01-10 2015-07-16 Robert Bosch Gmbh Verfahren zum Überprüfen einer Ausgabe
JP6100727B2 (ja) 2014-04-09 2017-03-22 ファナック株式会社 リードスルー機能を有する人協調型産業用ロボット
US10772489B2 (en) 2014-07-09 2020-09-15 Acclarent, Inc. Guidewire navigation for sinuplasty
US10220510B2 (en) 2015-06-02 2019-03-05 Humatics Corporation Unified collaborative environments
US10166080B2 (en) * 2015-06-12 2019-01-01 The Johns Hopkins University Cooperatively-controlled surgical robotic system with redundant force sensing
AU2016204942A1 (en) 2015-07-23 2017-02-09 Biosense Webster (Israel) Ltd. Surface registration of a ct image with a magnetic tracking system
US10188465B2 (en) 2015-08-26 2019-01-29 Biosense Webster (Israel) Ltd. Automatic ENT surgery preplanning using a backtracking maze problem solution
US10828028B2 (en) * 2016-04-15 2020-11-10 Ethicon Llc Surgical instrument with multiple program responses during a firing motion
EP3360502A3 (en) * 2017-01-18 2018-10-31 KB Medical SA Robotic navigation of robotic surgical systems
US10398434B2 (en) * 2017-06-29 2019-09-03 Ethicon Llc Closed loop velocity control of closure member for robotic surgical instrument
US10856928B2 (en) * 2017-08-29 2020-12-08 Ethicon Llc Electrically-powered surgical systems
WO2019056871A1 (zh) * 2017-09-20 2019-03-28 微创(上海)医疗机器人有限公司 手术机器人系统
US11317937B2 (en) * 2018-03-08 2022-05-03 Cilag Gmbh International Determining the state of an ultrasonic end effector
US11213359B2 (en) * 2017-12-28 2022-01-04 Cilag Gmbh International Controllers for robot-assisted surgical platforms
US11298186B2 (en) * 2018-08-02 2022-04-12 Point Robotics Medtech Inc. Surgery assistive system and method for obtaining surface information thereof
CN111035454B (zh) * 2019-12-26 2021-09-10 苏州微创畅行机器人有限公司 可读存储介质以及手术机器人
US12016566B2 (en) * 2020-10-02 2024-06-25 Cilag Gmbh International Surgical instrument with adaptive function controls
US20220104910A1 (en) * 2020-10-02 2022-04-07 Ethicon Llc Monitoring of user visual gaze to control which display system displays the primary information
US20220104806A1 (en) * 2020-10-02 2022-04-07 Ethicon Llc Surgical instrument with adaptive configuration control

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5855553A (en) * 1995-02-16 1999-01-05 Hitchi, Ltd. Remote surgery support system and method thereof
US20020077543A1 (en) * 2000-06-27 2002-06-20 Robert Grzeszczuk Method and apparatus for tracking a medical instrument based on image registration
CN105636541A (zh) * 2013-03-15 2016-06-01 圣纳普医疗(巴巴多斯)公司 用于微创疗法的规划、导航和模拟系统及方法
CN106133790A (zh) * 2014-03-28 2016-11-16 皇家飞利浦有限公司 用于在组织种类分离的帮助下基于磁共振图像生成一幅或多幅计算机断层摄影图像的方法和设备
EP3009091A1 (en) * 2014-10-17 2016-04-20 Imactis Medical system for use in interventional radiology
CN108024693A (zh) * 2015-09-10 2018-05-11 直观外科手术操作公司 在图像引导医疗程序中利用跟踪的系统和方法
US20170151027A1 (en) * 2015-11-30 2017-06-01 Hansen Medical, Inc. Robot-assisted driving systems and methods
CN107913102A (zh) * 2016-10-06 2018-04-17 韦伯斯特生物官能(以色列)有限公司 使用超声进行的解剖图像与位置跟踪系统的术前配准
WO2018081136A2 (en) * 2016-10-25 2018-05-03 Eugene Gregerson Methods and systems for robot-assisted surgery
WO2018125917A1 (en) * 2016-12-28 2018-07-05 Auris Surgical Robotics, Inc. Apparatus for flexible instrument insertion

Also Published As

Publication number Publication date
AU2019240619A1 (en) 2020-05-14
JP2020065936A (ja) 2020-04-30
IL269765A (en) 2020-04-30
IL269765B1 (en) 2023-03-01
CA3057357A1 (en) 2020-04-26
EP3643265A1 (en) 2020-04-29
CN111096795B (zh) 2024-06-07
US20200129246A1 (en) 2020-04-30
JP7387383B2 (ja) 2023-11-28
IL269765B2 (en) 2023-07-01
US11497566B2 (en) 2022-11-15
EP3643265B1 (en) 2023-10-11
EP3643265C0 (en) 2023-10-11

Similar Documents

Publication Publication Date Title
CN111096795B (zh) 用于机器人的释放模式
JP6828047B2 (ja) 画像誘導手術における透視撮像システムの姿勢推定及び較正のシステム及び方法
US8886330B2 (en) Method and apparatus for cochlear implant surgery
JP4836122B2 (ja) 手術支援装置、方法及びプログラム
JP4220780B2 (ja) 手術システム
EP3632360B1 (en) Automatic probe reinsertion
EP3673854B1 (en) Correcting medical scans
CN117425448A (zh) 用于实时引导经皮干预治疗的配备超声探头的机器人
Scheunemann et al. Concept and first Implementation of an intracochlearly navigated Electrode Array for Cochlear Implantation
JP7414611B2 (ja) ロボット手術支援装置、処理方法、及びプログラム
CN117379177A (zh) 骨钉连接件、外科手术导航装置、方法及处理设备
Thomas Real-time Navigation Procedure for Robot-assisted Surgery

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant