JP2019122768A - Surgical robotic systems with target trajectory deviation monitoring and related methods - Google Patents

Surgical robotic systems with target trajectory deviation monitoring and related methods Download PDF

Info

Publication number
JP2019122768A
JP2019122768A JP2019002513A JP2019002513A JP2019122768A JP 2019122768 A JP2019122768 A JP 2019122768A JP 2019002513 A JP2019002513 A JP 2019002513A JP 2019002513 A JP2019002513 A JP 2019002513A JP 2019122768 A JP2019122768 A JP 2019122768A
Authority
JP
Japan
Prior art keywords
end effector
patient
surgical end
surgical
robotic arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019002513A
Other languages
Japanese (ja)
Other versions
JP6714737B2 (en
Inventor
ジェフリー,フォーサイス
Forsyth Jeffrey
ニール,クロウフォード
R Crawford Neil
ジョーバニ,オカシオ
Ocasio Jovany
マイケル,ロビンソン
Robinson Michael
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Globus Medical Inc
Original Assignee
Globus Medical Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US15/948,013 external-priority patent/US11857149B2/en
Application filed by Globus Medical Inc filed Critical Globus Medical Inc
Publication of JP2019122768A publication Critical patent/JP2019122768A/en
Application granted granted Critical
Publication of JP6714737B2 publication Critical patent/JP6714737B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/113Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00022Sensing or detecting at the treatment site
    • A61B2017/00075Motion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00115Electrical control of surgical instruments with audible or visual output
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00199Electrical control of surgical instruments with a console, e.g. a control panel with a display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/08Accessories or related features not otherwise provided for
    • A61B2090/0807Indication means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • A61B2090/3764Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT] with a rotating C-arm having a cone beam emitting source
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • A61B2090/3945Active visible markers, e.g. light emitting diodes

Abstract

To provide a method of operating a surgical robotic system including a robotic arm configured to position a surgical end-effector with respect to an anatomical location of a patient in accordance with, e.g., movement of the patient due to breathing.SOLUTION: Position information may be received where the position information is generated using a sensor system 200 remote from a robotic arm 104 and remote from a patient 210. The position information may include position information relating to a tracking device 116 affixed to the patient, and position information relating to a surgical end-effector 112. The robotic arm may be controlled to move the surgical end-effector to a target trajectory relative to the anatomical location of the patient on the basis of the position information generated using the sensor system.SELECTED DRAWING: Figure 1

Description

この出願は、2017年5月31日に出願された米国特許出願第15/609,334号の一部継続出願であり、これは、2016年5月18日に出願された米国特許出願第15/157,444号の一部継続出願であり、これは、2016年4月11日に出願された米国特許出願第15/095,883号の一部継続出願であり、これは、2013年10月24日に出願された米国特許出願第14/062,707号の一部継続出願であり、これは、2013年6月21日に出願された米国特許出願第13/924,505号の一部継続出願であり、これは、2012年6月21日に出願された仮出願第61/662,702号に対する優先権を主張し、および2013年3月15日に出願された仮出願第61/800,527号に対する優先権を主張し、これらの全ては、すべての目的のためにその全体が参照により本明細書に組み込まれる。   This application is a continuation-in-part of US patent application Ser. No. 15 / 609,334, filed May 31, 2017, which is a continuation-in-part of US patent application Ser. No. 15 / 157,444, which is a continuation-in-part of US patent application Ser. No. 15 / 095,883, filed Apr. 11, 2016; It is a continuation-in-part of US patent application Ser. No. 14 / 062,707 filed on May 24, which is a part of US patent application Ser. No. 13 / 924,505 filed on Jun. 21, 2013. Divisional continuation application, which claims priority to Provisional Application No. 61 / 662,702, filed on June 21, 2012, and Provisional Application No. 61, filed on March 15, 2013 Against / 800,527 Claims above rights, all of which is incorporated in its entirety herein by reference for all purposes.

本開示は、医療装置に関し、より詳細には、手術用ロボットシステムと関連方法および関連装置に関する。   The present disclosure relates to medical devices, and more particularly, to a robotic system for surgery and associated methods and devices.

ロボット支援外科手術のための位置認識システムは、3次元(3D)における特定のオブジェクトの位置を決定し、それを追跡するために使用される。ロボット支援手術では、例えば、外科用器具のような特定のオブジェクトは、器具がロボットまたは医師によって位置決めされ、動かされるとき、高度の精度で追跡される必要がある。   Position recognition systems for robot assisted surgery are used to determine and track the position of a particular object in three dimensions (3D). In robot-assisted surgery, for example, certain objects, such as surgical instruments, need to be tracked with a high degree of accuracy when the instruments are positioned and moved by a robot or doctor.

赤外線信号に基づく位置認識システムは、オブジェクトを追跡するために能動および/または受動センサまたはマーカーを使用することができる。受動センサまたはマーカーでは、追跡されるオブジェクトは、反射球状ボールのような受動センサを含むことができ、受動センサは、追跡されるオブジェクトの戦略的位置に配置される。赤外線送信機は信号を送信し、反射球状ボールは信号を反射して、オブジェクトの3次元位置を決定するのを助ける。能動センサまたはマーカーにおいて、追跡されるオブジェクトは、発光ダイオード(LED)などのアクティブ赤外線送信機を含み、したがって、3D検出のためにそれ自身の赤外線信号を生成する。   Position recognition systems based on infrared signals can use active and / or passive sensors or markers to track objects. For passive sensors or markers, the tracked object can include a passive sensor, such as a reflective spherical ball, and the passive sensor is located at strategic locations of the tracked object. An infrared transmitter transmits a signal, and a reflective spherical ball reflects the signal to help determine the three-dimensional position of the object. In active sensors or markers, the tracked object comprises an active infrared transmitter, such as a light emitting diode (LED), and thus generates its own infrared signal for 3D detection.

能動または受動追跡センサのいずれかを用いて、システムは、一つまたは複数の赤外線カメラ、デジタル信号、能動および/または受動センサの既知の位置、距離、応答信号を受信するのに要した時間、他の既知の変数、またはそれらの組み合わせからの情報、またはそれらへの情報に基づいて、能動および/または受動センサの3次元位置を幾何学的に解決する。   Using either an active or passive tracking sensor, the system can measure the time taken to receive one or more infrared cameras, digital signals, known locations of active and / or passive sensors, distances, response signals, Geometrically resolve the three-dimensional position of the active and / or passive sensors based on information from or to other known variables, or combinations thereof.

したがって、これらの手術システムは、位置フィードバックを利用して、患者の手術部位に対するロボットアームおよびツールの動きを正確に誘導することができる。しかしながら、患者の動き(例えば、呼吸による)は、位置決めの精度に影響し得る。   Thus, these surgical systems can utilize position feedback to accurately guide the motion of the robotic arm and tool relative to the patient's surgical site. However, patient movement (e.g., by respiration) can affect positioning accuracy.

発明概念のいくつかの実施形態では、患者の解剖学的位置に対して手術用エンドエフェクタを位置決めするよう構成されるロボットアームを含む手術用ロボットシステムを操作する方法が提供され得る。位置情報が受信され得、その位置情報はロボットアームから離れた、および、患者から離れたセンサシステムを使用して生成される。位置情報は、患者に固定された追跡装置(例えば、参照ベースまたは動的基準ベース)に関する位置情報と、手術用エンドエフェクタに関する位置情報とを含み得る。ロボットアームは、センサシステムを使用して生成される位置情報に基づいて、手術用エンドエフェクタを、患者の解剖学的位置に対する標的軌道に移動させるよう制御され得る。患者の解剖学的位置に対する標的軌道に移動させるようロボットアームを制御した後、ロボットアームを制御して手術用エンドエフェクタの位置をロックする。手術用エンドエフェクタの位置がロックされる間は、手術用エンドエフェクタの、解剖学的位置に対する実際の軌道と、手術用エンドエフェクタの、解剖学的位置に対する標的軌道との間のずれが決定され得る。さらに、そのずれは、手術用エンドエフェクタの位置をロックした後、センサシステムを使用して生成される位置決め情報に基づいて決定され得る。さらに、そのずれを表示するユーザ出力は、ずれを決定することに応答して生成され得る。   In some embodiments of the inventive concept, a method may be provided for operating a surgical robotic system that includes a robotic arm configured to position a surgical end effector relative to an anatomical location of a patient. Position information may be received, which is generated using a sensor system remote from the robotic arm and remote from the patient. The position information may include position information regarding a tracking device (e.g., reference based or dynamic reference based) fixed to the patient and position information regarding the surgical end effector. The robotic arm may be controlled to move the surgical end effector to a target trajectory relative to the patient's anatomical location based on position information generated using the sensor system. After controlling the robotic arm to move to the target trajectory relative to the anatomical position of the patient, the robotic arm is controlled to lock the position of the surgical end effector. While the position of the surgical end effector is locked, the deviation between the actual trajectory of the surgical end effector with respect to the anatomical position and the target trajectory of the surgical end effector with respect to the anatomical position is determined. obtain. Furthermore, the offset may be determined based on positioning information generated using the sensor system after locking the position of the surgical end effector. Additionally, a user output indicating the offset may be generated in response to determining the offset.

発明概念のその他いくつかの実施形態では、患者の解剖学的位置に対して手術用エンドエフェクタを位置付けるよう構成されるロボットアームを含む手術用ロボットシステムを操作する方法が提供され得る。呼吸サイクルの複数の段階のための、追跡装置に対する解剖学的位置の動作モデルが、追跡装置に対する解剖学的位置の複数のオフセットを提供する場合、複数のオフセットのうちのそれぞれ一つが呼吸サイクルの複数の段階のうちのそれぞれ一つに関連付けられるよう、そのモデルへのアクセスが提供され得る。位置情報は、ロボットアームから離れた、および、患者から離れたセンサシステムを使用して生成され得る。位置情報は、追跡装置が患者の呼吸によって移動するとき、患者に固定された追跡装置の位置および手術用エンドエフェクタの位置に関する情報を含み得る。呼吸サイクルの複数の段階は、患者の呼吸によって追跡装置が移動するとき、検出され得る。ロボットアームは、患者の呼吸によって追跡装置が移動するとき、患者の解剖学的位置に対する標的軌道において手術用エンドエフェクタを維持するよう制御され得る。制御することは、位置情報を受信すること、複数の段階を検出すること、および、患者の呼吸によって追跡装置が移動するとき、複数のオフセットを使用して解剖学的位置の位置を決定すること、に基づき得る。   In some other embodiments of the inventive concept, a method may be provided for operating a surgical robotic system that includes a robotic arm configured to position a surgical end effector relative to an anatomical location of a patient. If the motion model of the anatomical position with respect to the tracking device for the multiple phases of the respiratory cycle provides multiple offsets of the anatomical position with respect to the tracking device, then each one of the plurality of offsets is of the respiratory cycle Access to the model may be provided to be associated with each one of the plurality of stages. Position information may be generated using a sensor system remote from the robotic arm and remote from the patient. The position information may include information on the position of the tracking device fixed to the patient and the position of the surgical end effector when the tracking device moves by breathing the patient. Multiple phases of the breathing cycle may be detected as the tracking device moves due to the patient's breathing. The robotic arm may be controlled to maintain the surgical end effector in a target trajectory relative to the patient's anatomical position as the patient's breathing moves the tracking device. Controlling receiving positional information, detecting multiple steps, and using multiple offsets to determine the location of the anatomical location when the tracking device is moved by the patient's breathing , Based on.

発明概念のさらにその他の実施形態では、患者の解剖学的位置に対して手術用エンドエフェクタを位置決めするよう構成されるロボットアームを含む手術用ロボットシステムを操作する方法が提供され得る。追跡装置に対する解剖学的位置の動作モデル(例えば、基準ベースまたは動的基準ベース)は、追跡装置に対する解剖学的位置の第一オフセットが呼吸サイクルの第一段階のための標的軌道を決定するのに使用され、追跡装置に対する解剖学的位置の第二オフセットが呼吸サイクルの第二段階のための標的軌道を決定するのに使用されるよう、呼吸サイクルの複数の段階のために提供され得る。第一位置情報が受信され得、その第一位置情報は、ロボットアームから離れた、および、患者から離れたセンサシステムを使用して生成される。第一位置情報は、患者に固定された追跡装置の第一位置および手術用エンドエフェクタの第一位置に関する情報を含み得る。患者の呼吸サイクルの第一段階が検出され得、ロボットアームは、第一位置情報に基づき、および、呼吸サイクルの第一段階を検出することに応答して追跡装置の第一位置から解剖学的位置の第一位置を決定する第一オフセットを使用することに基づいて、手術用エンドエフェクタを患者の解剖学的位置に対する標的軌道に移動させるよう制御され得る。センサシステムを使用して生成される第二位置情報が受信され得、その第二位置情報は、患者に固定された追跡装置の第二位置および手術用エンドエフェクタの第二位置に関する情報を含む。患者の呼吸サイクルの第二段階が検出され得、ロボットアームは、第二位置情報に基づき、および、呼吸サイクルの第二段階を検出することに応答して追跡装置の第二位置から解剖学的位置の第二位置を決定する第二オフセットを使用することに基づいて、手術用エンドエフェクタを患者の解剖学的位置に対する標的軌道に移動させるよう制御され得る。   In yet another embodiment of the inventive concept, a method may be provided for operating a surgical robotic system that includes a robotic arm configured to position a surgical end effector with respect to an anatomical location of a patient. The motion model of the anatomical position with respect to the tracking device (e.g. reference based or dynamic reference based), wherein the first offset of the anatomical position relative to the tracking device determines the target trajectory for the first phase of the breathing cycle The second offset of the anatomical position with respect to the tracking device may be provided for multiple phases of the breathing cycle, as used for determining the target trajectory for the second phase of the breathing cycle. First position information may be received, the first position information being generated using a sensor system remote from the robotic arm and remote from the patient. The first position information may include information on a first position of the tracking device fixed to the patient and a first position of the surgical end effector. The first phase of the patient's breathing cycle may be detected, and the robotic arm is anatomically based on the first position information and from the first position of the tracking device in response to detecting the first phase of the respiratory cycle. Based on the use of the first offset to determine the first position, the surgical end effector can be controlled to move to a target trajectory relative to the patient's anatomical position. Second position information generated using the sensor system may be received, the second position information including information on a second position of the tracking device fixed to the patient and a second position of the surgical end effector. The second phase of the patient's respiratory cycle may be detected, and the robotic arm is anatomically based on the second position information and from the second position of the tracking device in response to detecting the second phase of the respiratory cycle. The surgical end effector may be controlled to move to a target trajectory relative to the anatomical position of the patient based on using a second offset to determine a second position of the position.

本発明の主題の実施形態による他の方法および関連する手術システム、ならびに対応する方法およびコンピュータプログラム製品は、以下の図面および詳細な説明を検討することにより、当業者に明らかであり、または明らかになるであろう。このような手術システム、および対応する方法およびコンピュータプログラム製品は全て、本明細書の記載内に含まれ、本発明の主題の範囲内であり、添付の特許請求の範囲によって保護されることが意図される。さらに、本明細書で開示されるすべての実施形態は、別々に実装されてもよく、または任意の方法および/または組み合わせで組み合わされて実装されてもよい。   Other methods and associated surgical systems, and corresponding methods and computer program products according to embodiments of the present subject matter will be or become apparent to one with skill in the art upon review of the following drawings and detailed description. It will be. It is intended that all such surgical systems and corresponding methods and computer program products be included within the description herein, be within the scope of the inventive subject matter, and be protected by the accompanying claims. Be done. Furthermore, all the embodiments disclosed herein may be implemented separately or may be implemented in combination in any manner and / or combination.

本開示のさらなる理解を提供するために含まれ、本出願の一部を構成する添付の図面は、本発明の概念の特定の非限定的な実施形態を示す。図面では:
図1は、外科施術中のロボットシステム、患者、外科医、および他の医療従事者の位置のあり得る配置の俯瞰図である。 図2は、一実施形態による、患者に対する手術用ロボットおよびカメラの位置決めを含むロボットシステムを示す。 図3は、例示的な実施形態による手術用ロボットシステムを示す。 図4は、例示的な実施形態による手術用ロボットの一部を示す。 図5は、例示的な実施形態による手術用ロボットのブロック図を示す。 図6は、例示的な実施形態による手術用ロボットを示す。 図7A〜7Cは、例示的な実施形態によるエンドエフェクタを示す。 図8は、一実施形態によるエンドエフェクタのガイドチューブ内に外科用器具を挿入する前後の外科用器具およびエンドエフェクタを示す。 図9A〜9Cは、例示的な実施形態によるエンドエフェクタおよびロボットアームの部分を示す。 図10は、例示的な実施形態による動的基準アレイ、撮像アレイ、および他のコンポーネントを示す。 図11は、例示的な実施形態による登録の方法を示す。 図12A〜12Bは、例示的な実施形態による撮像装置の実施形態を示す。 図13Aは、例示的な実施形態による、ロボットアームとエンドエフェクタとを含むロボットの一部を示す。 図13Bは、エンドエフェクタの拡大図であり、図13Aに示すように、複数の追跡マーカーがその上にしっかりと固定される。 図13Cは、一実施形態による、複数の追跡マーカーがその上にしっかりと固定されたツールまたは器具である。 図14Aは、第一の構成の可動追跡マーカーを有するエンドエフェクタの代替バージョンである。 図14Bは、第二の構成の可動追跡マーカーを有する図14Aに示すエンドエフェクタである。 図14Cは、図14Aの第一の構成における追跡マーカーのテンプレートを示す。 図14Dは、図14Bの第二の構成における追跡マーカーのテンプレートを示す。 図15Aは、単一の追跡マーカーのみがその上に固定されたエンドエフェクタの代替バージョンを示す。 図15Bは、ガイドチューブを介して配置された器具を有する図15Aのエンドエフェクタを示す。 図15Cは、二つの異なる位置に器具を有する図15Aのエンドエフェクタを示し、器具がガイドチューブ内にまたはガイドチューブの外側に配置されるかどうかを決定するための結果のロジックを示す。 図15Dは、図15Aのエンドエフェクタを示すが、器具は、二つの異なるフレームでかつガイドチューブ上の単一の追跡マーカーに対して相対的な距離でガイドチューブ内にある。 図15Eは、座標系に対して図15Aのエンドエフェクタを示す。 図16は、ロボットのエンドエフェクタを所望の標的軌道にナビゲートして移動させる方法のブロック図である。 また、図17Aおよび17Bは、それぞれ、収縮および拡張位置に固定および可動追跡マーカーを有する拡張可能インプラントを挿入するための器具を示す。 また、図18Aおよび18Bは、それぞれ、挿入位置および傾斜位置に固定および可動追跡マーカーを有する関節のあるインプラントを挿入するための器具を示す。 図19Aは、交換可能または代替のエンドエフェクタを含むロボットの一実施形態を示す。 図19Bは、器具スタイルのエンドエフェクタが結合されたロボットの実施形態を示す。 図20A、20B、および20Cは、発明概念のいくつかの実施形態による、メータ構成の略図である。 図21Aおよび21Bは、発明概念のいくつかの実施形態による、様々な呼吸段階における軌道の略図である。 図22は、発明概念のいくつかの実施形態による、ロボットコントローラを図示するブロック図である。 図23および24は、発明概念のいくつかの実施形態による、手術用ロボットシステムの動作を図示するフローチャートである。 同上。
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included to provide a further understanding of the present disclosure and form part of the present application, illustrate certain non-limiting embodiments of the inventive concept. In the drawing:
FIG. 1 is an overhead view of a possible placement of the robotic system, patient, surgeon and other healthcare personnel during a surgical procedure. FIG. 2 illustrates a robotic system that includes positioning of a surgical robot and camera with respect to a patient, according to one embodiment. FIG. 3 shows a surgical robotic system according to an exemplary embodiment. FIG. 4 shows a portion of a surgical robot in accordance with an illustrative embodiment. FIG. 5 shows a block diagram of a surgical robot in accordance with an illustrative embodiment. FIG. 6 shows a surgical robot according to an exemplary embodiment. 7A-7C show an end effector according to an exemplary embodiment. FIG. 8 shows the surgical instrument and the end effector before and after inserting the surgical instrument into the guide tube of the end effector according to one embodiment. 9A-9C illustrate portions of an end effector and a robotic arm in accordance with an illustrative embodiment. FIG. 10 illustrates a dynamic reference array, an imaging array, and other components in accordance with an illustrative embodiment. FIG. 11 shows a method of registration according to an exemplary embodiment. 12A-12B illustrate an embodiment of an imaging device according to an exemplary embodiment. FIG. 13A illustrates a portion of a robot including a robotic arm and an end effector, according to an illustrative embodiment. FIG. 13B is an enlarged view of the end effector with multiple tracking markers fixedly secured thereon, as shown in FIG. 13A. FIG. 13C is a tool or instrument having a plurality of tracking markers rigidly affixed thereon, according to one embodiment. FIG. 14A is an alternative version of an end effector having moveable tracking markers of a first configuration. FIG. 14B is the end effector shown in FIG. 14A with the movable tracking marker in a second configuration. FIG. 14C shows a tracking marker template in the first configuration of FIG. 14A. FIG. 14D shows a template of tracking markers in the second configuration of FIG. 14B. FIG. 15A shows an alternative version of the end effector with only a single tracking marker fixed on it. FIG. 15B shows the end effector of FIG. 15A with the instrument disposed through the guide tube. FIG. 15C shows the end effector of FIG. 15A with the instrument in two different positions, and shows the resulting logic for determining whether the instrument is placed in the guide tube or outside the guide tube. FIG. 15D shows the end effector of FIG. 15A, but the instrument is in the guide tube at two different frames and at a relative distance to a single tracking marker on the guide tube. FIG. 15E shows the end effector of FIG. 15A relative to a coordinate system. FIG. 16 is a block diagram of a method of navigating and moving an end effector of a robot to a desired target trajectory. 17A and 17B also show an instrument for inserting an expandable implant having fixed and movable tracking markers in the contracted and expanded positions, respectively. Also, FIGS. 18A and 18B show an instrument for inserting an articulating implant with fixed and movable tracking markers in the insertion position and in the inclined position, respectively. FIG. 19A illustrates one embodiment of a robot including a replaceable or alternative end effector. FIG. 19B shows an embodiment of a robot with an instrument style end effector coupled thereto. 20A, 20B, and 20C are schematic illustrations of meter configurations, according to some embodiments of the inventive concept. 21A and 21B are schematic representations of trajectories at various stages of breathing, according to some embodiments of the inventive concept. FIG. 22 is a block diagram illustrating a robot controller according to some embodiments of the inventive concept. Figures 23 and 24 are flowcharts illustrating the operation of a surgical robotic system according to some embodiments of the inventive concept. Same as above.

本開示は、その適用において、本明細書の説明に記載された、または図面に示された構成の詳細およびコンポーネントの配置に限定されないことを理解されたい。本開示の教示は、他の実施形態において使用され、実施され、様々な方法で実施され、または実行されてもよい。また、本明細書で使用される表現および用語は、説明のためのものであり、限定的であると見なされるべきではないことを理解されたい。本明細書中の「含む(including)」「含む(comprising)」または「有す(having)」およびそれらの変形は、その後に列挙されるアイテムおよびその等価物ならびに追加のアイテムを含むことを意味する。別段に特定または限定されていない限り、「装着される(mounted)」、「接続される(connected)」、「支持される(supported)」および「結合される(coupled)」という用語およびそれらの変形は、広範に使用され、直接的および間接的な取り付け、接続、支持および結合の両方を包含する。さらに、「接続される(connected)」および「結合される(coupled)」は、物理的または機械的な接続または結合に限定されない。   It is to be understood that this disclosure is not limited in its application to the details of construction and the arrangements of components set forth in the description of this specification or illustrated in the drawings. The teachings of the present disclosure may be used, practiced, implemented in various ways, or implemented in other embodiments. Also, it is to be understood that the phraseology and terminology employed herein is for the purpose of description and should not be regarded as limiting. The terms "including", "comprising" or "having" and variations thereof as used herein are meant to include the items listed thereafter and their equivalents and additional items. Do. Unless otherwise specified or limited, the terms "mounted," "connected," "supported," and "coupled" and their Variations are widely used and encompass both direct and indirect attachment, connection, support and bonding. Furthermore, "connected" and "coupled" are not limited to physical or mechanical connections or couplings.

以下の議論は、当業者が本開示の実施形態を作成し使用することを可能にするために提示される。例解された実施形態に対する様々な変更は、当業者には容易に明らかであり、本明細書の原理は、本開示の実施形態から逸脱することなく他の実施形態およびアプリケーションに適用することができる。したがって、実施形態は、示された実施形態に限定されることを意図するものではなく、本明細書に開示された原理および特徴と一致する最も広い範囲が与えられるべきである。以下の詳細な説明は、図面を参照して読まれるべきであり、異なる図における同様の要素は、同様の参照番号を有する。必ずしも縮尺通りではない図面は、選択された実施形態を示しており、実施形態の範囲を限定するものではない。当業者は、本明細書で提供される例が多くの有用な代替物を有し、実施形態の範囲内に入ることを認識するであろう。   The following discussion is presented to enable a person of ordinary skill in the art to make and use embodiments of the present disclosure. Various modifications to the illustrated embodiments will be readily apparent to those skilled in the art, and the principles herein may be applied to other embodiments and applications without departing from the embodiments of the present disclosure. it can. Thus, embodiments are not intended to be limited to the embodiments shown, but are to be accorded the widest scope consistent with the principles and features disclosed herein. The following detailed description should be read with reference to the drawings, where like elements in different drawings have like reference numerals. The drawings, which are not necessarily to scale, depict selected embodiments and are not intended to limit the scope of the embodiments. One skilled in the art will recognize that the examples provided herein have many useful alternatives and fall within the scope of the embodiments.

ここで図面を参照すると、図1および図2は、例示的な実施形態による手術用ロボットシステム100を示す。手術用ロボットシステム100は、例えば、外科手術用ロボット102と、一つまたは複数のロボットアーム104と、基部106と、ディスプレイ110と、ガイドチューブ114を含むエンドエフェクタ112と、一つまたは複数の追跡マーカー118とを含む。手術用ロボットシステム100は、患者210に直接(例えば、患者210の骨に)固定されるように適合された一つまたは複数の追跡マーカー118も含む患者追跡装置116を含むことができる。手術用ロボットシステム100は、例えば、カメラスタンド202上に位置決めされたカメラ200を利用することもできる。カメラスタンド202は、カメラ200を所望の位置に移動させ、方向付けし、支持するための任意の適切な構成を有することができる。カメラ200は、カメラ200の視点から見ることができる所与の測定ボリューム内にある、例えば能動的および受動的な追跡マーカー118(図2の患者追跡装置116の一部として示され、図13A−13Bの拡大図によって示される)を識別することができる、一つまたは複数の赤外線カメラ(例えば、二焦点カメラまたはステレオ写真カメラ)などの適切なカメラを含んでもよい。カメラ200は、所与の測定ボリュームを走査し、マーカー118から来る光を検出して、マーカー118の三次元での位置を識別し、決定することができる。例えば、能動マーカー118は、電気信号によって作動する赤外線発光マーカー(例えば、赤外線発光ダイオード(LED))を含むことができ、および/または、受動マーカー118は、例えば、カメラ200上の照明器または他の適切な装置によって発光される、赤外線を反射する再帰反射マーカー(例えば、それらは、入射IR照射を入射光の方向へ反射する)を含むことができる。   Referring now to the drawings, FIGS. 1 and 2 illustrate a surgical robotic system 100 according to an exemplary embodiment. The surgical robot system 100 includes, for example, a surgical robot 102, one or more robot arms 104, a base 106, a display 110, an end effector 112 including a guide tube 114, and one or more tracking units. And a marker 118. The robotic robotic system 100 can include a patient tracking device 116 that also includes one or more tracking markers 118 adapted to be secured directly to the patient 210 (eg, to the bone of the patient 210). The surgical robot system 100 can also use, for example, the camera 200 positioned on the camera stand 202. The camera stand 202 can have any suitable configuration for moving, orienting and supporting the camera 200 to a desired position. Camera 200 is within a given measurement volume that can be viewed from the perspective of camera 200, for example, active and passive tracking markers 118 (shown as part of patient tracking device 116 of FIG. A suitable camera, such as one or more infrared cameras (e.g., a bifocal camera or a stereo photo camera), can be identified that can be identified by the 13B enlargement. The camera 200 can scan a given measurement volume and detect light coming from the marker 118 to identify and determine the three-dimensional position of the marker 118. For example, the active marker 118 can include an infrared light emitting marker (eg, an infrared light emitting diode (LED)) activated by an electrical signal and / or the passive marker 118 can be, for example, an illuminator on the camera 200 or the like. The infrared-reflecting retroreflective markers (eg, they reflect incident IR radiation in the direction of incident light) may be emitted by any suitable device.

また、図1および図2は、手術室環境における手術用ロボットシステム100の配置のあり得る構成を示す。例えば、ロボット102は、患者210の近くに、または患者210の隣に配置することができる。患者210の頭の近くに描かれているが、ロボット102は、手術を受ける患者210の領域に応じて、患者210の近くの任意の適切な場所に配置することができることが理解されよう。カメラ200は、ロボットシステム100から分離され、患者210の足に配置されてもよい。この位置は、カメラ200が外科手術領域208に対して視覚的に直接視線を有することを可能にする。ここでも、カメラ200は、外科手術領域208に対し視線を有する任意の適切な位置に配置することができると考えられる。示された構成では、外科医120はロボット102の反対側に配置されるが、依然としてエンドエフェクタ112およびディスプレイ110を操作することができる。外科医助手126もエンドエフェクタ112とディスプレイ110の両方にアクセスできるよう、外科医120の反対側に、配置することができる。必要に応じて、外科医120と助手126の位置を逆にしてもよい。麻酔医122および看護師または手術室技師124のための従来からの領域は、ロボット102およびカメラ200の位置によって妨げられないままであり得る。   FIGS. 1 and 2 also show possible configurations of the arrangement of the surgical robot system 100 in an operating room environment. For example, the robot 102 can be positioned near or next to the patient 210. Although depicted close to the head of the patient 210, it will be appreciated that the robot 102 can be positioned at any suitable location near the patient 210, depending on the area of the patient 210 undergoing surgery. Camera 200 may be separate from robotic system 100 and placed on the foot of patient 210. This position allows the camera 200 to have a direct visual line of sight relative to the surgical area 208. Again, it is contemplated that the camera 200 can be positioned at any suitable location with a line of sight relative to the surgical field 208. In the configuration shown, the surgeon 120 is positioned opposite the robot 102 but can still manipulate the end effector 112 and the display 110. The surgeon assistant 126 can also be positioned opposite the surgeon 120 so that it can access both the end effector 112 and the display 110. If desired, the positions of the surgeon 120 and the assistant 126 may be reversed. Conventional areas for the anesthesiologist 122 and a nurse or operating room technician 124 may remain unhindered by the position of the robot 102 and the camera 200.

ロボット102の他のコンポーネントに関して、ディスプレイ110は、手術用ロボット102に取り付けることができ、他の例示的な実施形態では、ディスプレイ110は、外科手術用ロボット102から離され、手術用ロボット102と一緒に手術室内か、または、遠隔地に置かれる。エンドエフェクタ112は、ロボットアーム104に結合され、少なくとも一つのモータによって制御されてもよい。例示的な実施形態では、エンドエフェクタ112は、患者210に対して外科手術を行うために使用される外科用器具608(本明細書でさらに説明する)を受け入れて配向することができるガイドチューブ114を含むことができる。本明細書で使用される用語「エンドエフェクタ」は、「エンドエフェクチュエータ」および「エフェクチュエータ要素」という用語と交換可能に使用される。概してガイドチューブ114で示されるが、エンドエフェクタ112は、外科手術での使用に適した任意の適切な器具で置き換えることができることが理解されよう。いくつかの実施形態では、エンドエフェクタ112は、外科用器具608の移動を所望の方法で行うための任意の既知の構造を含むことができる。   With respect to the other components of the robot 102, the display 110 can be attached to the surgical robot 102, and in other exemplary embodiments, the display 110 is separated from the surgical robot 102 and together with the surgical robot 102. In the operating room or in a remote place. The end effector 112 may be coupled to the robotic arm 104 and controlled by at least one motor. In the exemplary embodiment, the end effector 112 is a guide tube 114 capable of receiving and orienting a surgical instrument 608 (described further herein) used to perform a surgical procedure on the patient 210. Can be included. The term "end effector" as used herein is used interchangeably with the terms "end effector" and "effectuator element". Although generally indicated by the guide tube 114, it will be appreciated that the end effector 112 can be replaced with any suitable instrument suitable for use in surgery. In some embodiments, end effector 112 can include any known structure for performing the movement of surgical instrument 608 in a desired manner.

手術用ロボット102は、エンドエフェクタ112の並進および配向を制御することができる。ロボット102は、例えば、エンドエフェクタ112をx、y、z軸に沿って移動させることができる。エンドエフェクタ112は、(エンドエフェクタ112に関連するオイラーアングル(例えば、ロール、ピッチ、および/またはヨー)の一つまたは複数が選択的に制御できるように)x軸、y軸、およびz軸の一つまたは複数、およびzフレーム軸の回りに選択的に回転するよう構成することができる。いくつかの例示的な実施形態では、エンドエフェクタ112の並進および配向の選択的制御は、例えば、回転軸のみを含む6自由度のロボットアームを利用する従来のロボットと比較して、大幅に改善された正確性を有する医療処置の実行を可能にする。例えば、手術用ロボットシステム100は患者210上で動作するために使用され、ロボットアーム104は患者210の身体の上方に位置決めされ、エンドエフェクタ112は患者210の身体に向かってz軸に対して選択的に角度付けされ得る。   The surgical robot 102 can control the translation and orientation of the end effector 112. The robot 102 can, for example, move the end effector 112 along x, y, z axes. The end effector 112 is of the x-, y-, and z-axes (so that one or more of the Euler angles (eg, roll, pitch, and / or yaw) associated with the end effector 112 can be selectively controlled). One or more may be configured to selectively rotate about the z-frame axis. In some exemplary embodiments, selective control of the translation and orientation of the end effector 112 is substantially improved as compared to, for example, a conventional robot that utilizes a six degree of freedom robot arm that includes only a rotational axis. Enable the execution of medical procedures with the stated accuracy. For example, the robotic system 100 is used to operate on the patient 210, the robotic arm 104 is positioned above the body of the patient 210, and the end effector 112 is selected towards the body of the patient 210 with respect to the z-axis Can be angled.

いくつかの例示的な実施形態では、外科用器具608の位置を動的に更新して、外科手術用ロボット102が手術中に外科用器具608の位置を常に知ることができるようにすることができる。その結果、いくつかの例示的な実施形態では、手術用ロボット102は、(医師が望む場合を除いて)外科用器具608を医師のさらなる助けなしに素早く所望の位置に移動させることができる。さらなるいくつかの実施形態では、外科用器具608が選択されたあらかじめ計画された軌道から逸脱する場合、外科用器具608の経路を修正するように手術用ロボット102を構成することができる。いくつかの例示的な実施形態では、手術用ロボット102は、エンドエフェクタ112および/または外科用器具608の動きの停止、変更、および/または手動制御を可能にするように構成され得る。したがって、使用中、例示的な実施形態では、医師または他のユーザは、システム100を操作することができ、エンドエフェクタ112および/または外科用器具608の自律移動を停止、修正、または手動で制御する選択肢を有する。手術用ロボット102による外科用器具608の制御および移動を含む手術用ロボットシステム100のさらなる詳細は、同時係属中の米国特許出願番号13/924,505に見出すことができ、その全体が参照により本明細書に組み込まれる。   In some exemplary embodiments, the position of the surgical instrument 608 may be dynamically updated so that the surgical robot 102 can always know the position of the surgical instrument 608 during surgery. it can. As a result, in some exemplary embodiments, the surgical robot 102 can quickly move the surgical instrument 608 to the desired position (without the physician's request) without further assistance from the physician. In further embodiments, the surgical robot 102 can be configured to modify the path of the surgical instrument 608 if the surgical instrument 608 deviates from the selected pre-planned trajectory. In some exemplary embodiments, the surgical robot 102 may be configured to allow for the stop, change, and / or manual control of movement of the end effector 112 and / or the surgical instrument 608. Thus, in use, in an exemplary embodiment, a physician or other user can operate the system 100 to stop, modify, or manually control the autonomous movement of the end effector 112 and / or the surgical instrument 608 Have the option to Further details of surgical robot system 100 including control and movement of surgical instrument 608 by surgical robot 102 can be found in co-pending US patent application Ser. No. 13 / 924,505, which is incorporated by reference in its entirety. It is incorporated in the specification.

ロボット手術システム100は、ロボットアーム104、エンドエフェクタ112、患者210、および/または外科用器具608の三次元での動きを追跡するように構成された一つまたは複数の追跡マーカー118を含むことができる。例示的な実施形態では、複数の追跡マーカー118を、例えばロボット102の基部106上、ロボットアーム104上、および/または、エンドエフェクタ112上等のロボット102の外面に取り付ける(そうでなければ固定する)ことができるが、これに限定されない。例示的な実施形態では、複数の追跡マーカー118のうちの少なくとも一つの追跡マーカー118をエンドエフェクタ112に取り付けるか、または別の方法で固定することができる。一つまたは複数の追跡マーカー118は、患者210にさらに取り付けてもよい(または別の方法で固定されてもよい)。例示的な実施形態では、外科医、外科用ツール、またはロボット102の他の部分によって不明瞭になる可能性を低減するために、複数の追跡マーカー118を外科手術領域208から離れた患者210上に配置することができる。さらに、一つまたは複数の追跡マーカー118を外科用ツール608(例えば、スクリュードライバ、拡張器、インプラント挿入器など)にさらに取り付ける(または別の方法で固定する)ことができる。したがって、追跡マーカー118は、マークされたオブジェクト(例えば、エンドエフェクタ112、患者210、および外科用ツール608)のそれぞれをロボット102によって追跡することを可能にする。例示的な実施形態では、システム100は、マークされたオブジェクトのそれぞれから収集された追跡情報を使用して、例えばエンドエフェクタ112、外科用器具608(例えば、エンドエフェクタ112のチューブ114内に配置される)の配向と位置および患者210の相対位置計算することができる。   Robotic surgical system 100 may include one or more tracking markers 118 configured to track movement of robotic arm 104, end effector 112, patient 210, and / or surgical instrument 608 in three dimensions. it can. In the exemplary embodiment, a plurality of tracking markers 118 are attached (or otherwise fixed) to the outer surface of the robot 102, such as on the base 106 of the robot 102, on the robot arm 104, and / or on the end effector 112. ) But not limited thereto. In an exemplary embodiment, at least one tracking marker 118 of the plurality of tracking markers 118 may be attached or otherwise secured to the end effector 112. One or more tracking markers 118 may be further attached (or otherwise fixed) to the patient 210. In the exemplary embodiment, multiple tracking markers 118 are placed on the patient 210 away from the surgical area 208 to reduce the possibility of being obscured by the surgeon, surgical tools, or other portions of the robot 102. It can be arranged. Additionally, one or more tracking markers 118 can be further attached (or otherwise secured) to the surgical tool 608 (eg, a screwdriver, a dilator, an implant inserter, etc.). Thus, tracking marker 118 enables tracking of each of the marked objects (eg, end effector 112, patient 210, and surgical tool 608) by robot 102. In the exemplary embodiment, system 100 is positioned, for example, within end effector 112, surgical instrument 608 (eg, tube 114 of end effector 112) using tracking information collected from each of the marked objects. And the relative position of the patient 210 can be calculated.

マーカー118は、放射線不透過性または光学マーカーを含むことができる。マーカー118は、球形、回転楕円形、円筒形、立方体、直方体などを含む適切な形状にすることができる。例示的な実施形態では、一つまたは複数のマーカー118は光学マーカーであってもよい。いくつかの実施形態では、エンドエフェクタ112上の一つまたは複数の追跡マーカー118の位置決めは、エンドエフェクタ112の位置を確認または確認するよう機能することによって、位置測定の精度を最大にすることができる。手術用ロボット102および外科用器具608の制御、移動および追跡を含む手術用ロボットシステム100のさらなる詳細は、米国特許出願第2016/0242849号に見つけることができ、その全体が参照により本明細書に組み込まれる。   Markers 118 can include radiopaque or optical markers. The markers 118 can be of any suitable shape including spheres, spheroids, cylinders, cubes, cuboids and the like. In an exemplary embodiment, one or more markers 118 may be optical markers. In some embodiments, positioning of the one or more tracking markers 118 on the end effector 112 may maximize accuracy of position measurement by functioning to confirm or confirm the position of the end effector 112 it can. Further details of surgical robot system 100, including control, movement and tracking of surgical robot 102 and surgical instrument 608 can be found in US Patent Application No. 2016/0242849, which is incorporated herein by reference in its entirety. Be incorporated.

例示的な実施形態は、外科用器具608に結合された一つまたは複数のマーカー118を含む。例示的な実施形態では、例えば、患者210および外科用器具608に結合されたこれらのマーカー118、ならびにロボット102のエンドエフェクタ112に結合されたマーカー118は、従来の赤外線発光ダイオード(LED)、またはOptotrak(登録商標)のような市販の赤外線光学追跡システムを使用して追跡可能なOptotrak(登録商標)ダイオードを含むことができる。Optotrak(登録商標)は、カナダ、オンタリオ州、ウォータールーのNorthern Digital Inc.の登録商標である。他の実施形態では、マーカー118は、Polaris Spectraなどの市販の光学追跡システムを使用して追跡することができる従来の反射球を含むことができる。Polaris SpectraはNorthern Digital,Inc.の登録商標である。例示的な実施形態では、エンドエフェクタ112に結合されたマーカー118は、オンおよびオフにすることができる赤外線発光ダイオードを含む能動マーカーであり、患者210および外科用器具608に結合されたマーカー118は受動反射球体を含む。   An exemplary embodiment includes one or more markers 118 coupled to a surgical instrument 608. In an exemplary embodiment, for example, these markers 118 coupled to the patient 210 and the surgical instrument 608 and the markers 118 coupled to the end effector 112 of the robot 102 may be conventional infrared light emitting diodes (LEDs), or A trackable Optotrak <(R)> diode can be included using a commercially available infrared optical tracking system such as Optotrak <(R)>. Optotrak (R) is a Northern Digital Inc., Waterloo, Ontario, Canada. Is a registered trademark of In other embodiments, the marker 118 can include a conventional reflective sphere that can be tracked using a commercially available optical tracking system such as a Polaris Spectra. Polaris Spectra is a product of Northern Digital, Inc. Is a registered trademark of In the exemplary embodiment, marker 118 coupled to end effector 112 is an active marker including an infrared light emitting diode that can be turned on and off, and marker 118 coupled to patient 210 and surgical instrument 608 is Includes passive reflecting spheres.

例示的な実施形態では、マーカー118から放射された、および/またはマーカー118によって反射された光は、カメラ200によって検出され、マークされたオブジェクトの位置および動きを監視するために使用され得る。代替的な実施形態では、マーカー118は、無線周波数および/または電磁気反射器または受信機を含むことができ、カメラ200は、無線周波数および/または電磁気受信機を含むか、またはそれらに置き換えることができる。   In an exemplary embodiment, light emitted from and / or reflected by the marker 118 may be detected by the camera 200 and used to monitor the position and movement of the marked object. In alternative embodiments, the marker 118 can include a radio frequency and / or electromagnetic reflector or receiver, and the camera 200 can include or replace a radio frequency and / or electromagnetic receiver it can.

手術用ロボットシステム100と同様に、図3は、本開示の例示的な実施形態に従う、ドッキングされた構成の手術用ロボットシステム300およびカメラスタンド302を示す。手術用ロボットシステム300は、ディスプレイ304と、上アーム306と、下アーム308と、エンドエフェクタ310と、縦柱312と、キャスター314と、キャビネット316と、タブレット引出し318と、コネクタパネル320と、制御パネル322と、情報のリング324とを含むロボット301を含む。カメラスタンド302は、カメラ326を含むことができる。これらのコンポーネントは、図5を参照してより拡大して説明される。図3は、例えば使用されていないときに、カメラスタンド302がロボット301と入れ子になっているドッキング構成の手術用ロボットシステム300を示す。当業者であれば、カメラ326およびロボット301は、互いに分離され、外科施術中に、例えば、図1および図2に示されるように、任意の適切な位置に配置され得ることが理解されよう。   Similar to the surgical robot system 100, FIG. 3 shows the surgical robot system 300 and the camera stand 302 in a docked configuration according to an exemplary embodiment of the present disclosure. The robot system for operation 300 controls the display 304, the upper arm 306, the lower arm 308, the end effector 310, the vertical post 312, the caster 314, the cabinet 316, the tablet drawer 318, the connector panel 320, Included is a robot 301 that includes a panel 322 and a ring 324 of information. Camera stand 302 can include a camera 326. These components are described on a larger scale with reference to FIG. FIG. 3 shows the robotic system 300 in a docking configuration with the camera stand 302 nested with the robot 301, eg, when not in use. Those skilled in the art will appreciate that the camera 326 and the robot 301 may be separated from one another and may be placed in any suitable position during a surgical procedure, for example, as shown in FIGS.

図4は、本開示の例示的な実施形態と一致する基部400を示す。基部400は、手術用ロボットシステム300の一部であってもよく、キャビネット316を含んでもよい。キャビネット316は、バッテリ402、電力分配モジュール404、プラットフォームインターフェースボードモジュール406、コンピュータ408、ハンドル412、およびタブレット引出し414を含むがこれに限定されない手術用ロボットシステム300の特定のコンポーネントを収容することができる。これらのコンポーネント間の接続および関係は、図5を参照してより詳細に説明される。   FIG. 4 shows a base 400 consistent with an exemplary embodiment of the present disclosure. The base 400 may be part of a surgical robotic system 300 and may include a cabinet 316. Cabinet 316 can house certain components of surgical robotic system 300 including, but not limited to, battery 402, power distribution module 404, platform interface board module 406, computer 408, handle 412, and tablet drawer 414. . The connections and relationships between these components are described in more detail with reference to FIG.

図5は、手術用ロボットシステム300の例示的な実施形態の特定のコンポーネントのブロック図を示す。手術用ロボットシステム300は、プラットフォームサブシステム502、コンピュータサブシステム504、動作制御サブシステム506、および追跡サブシステム532を含むことができる。プラットフォームサブシステム502は、バッテリ402、電力分配モジュール404、プラットフォームインターフェースボードモジュール406、およびタブレット充電ステーション534をさらに含むことができる。コンピュータサブシステム504は、コンピュータ408、ディスプレイ304、およびスピーカ536をさらに含むことができる。動作制御サブシステム506は、駆動回路508、モータ510、512、514、516、518、安定器520、522、524、526、エンドエフェクタ310、およびコントローラ538をさらに含むことができる。追跡サブシステム532は、位置センサ540およびカメラ変換器542をさらに含むことができる。システム300はまた、フットペダル544およびタブレット546を含むことができる。   FIG. 5 shows a block diagram of certain components of an exemplary embodiment of a surgical robotic system 300. The robotic system 300 can include a platform subsystem 502, a computer subsystem 504, a motion control subsystem 506, and a tracking subsystem 532. Platform subsystem 502 may further include battery 402, power distribution module 404, platform interface board module 406, and tablet charging station 534. Computer subsystem 504 can further include a computer 408, a display 304, and a speaker 536. Motion control subsystem 506 may further include drive circuit 508, motors 510, 512, 514, 516, 518, ballasts 520, 522, 524, 526, end effector 310, and controller 538. Tracking subsystem 532 may further include position sensor 540 and camera converter 542. System 300 can also include a foot pedal 544 and a tablet 546.

入力電力は、電力分配モジュール404に供給され得る電源548を介してシステム300に供給される。電力分配モジュール404は、入力電力を受け取り、システム300の他のモジュール、コンポーネント、およびサブシステムに提供される異なる電源供給電圧を生成するように構成される。電力分配モジュール404は、プラットフォームインターフェースモジュール406に異なる電圧を供給するように構成することができるが、電圧は、コンピュータ408、ディスプレイ304、スピーカ536、例えば電力モータ512、514、516、518およびエンドエフェクタ310のドライバ508、モータ510、リング324、カメラ変換器542、およびシステム300のための他のコンポーネント(例えばキャビネット316内の電気部品を冷却するためのファン)、などの他のコンポーネントに提供することができる。   Input power is provided to system 300 via a power supply 548 that may be provided to power distribution module 404. Power distribution module 404 is configured to receive input power and to generate different power supply voltages provided to other modules, components, and subsystems of system 300. The power distribution module 404 can be configured to supply different voltages to the platform interface module 406, but the voltages can be from the computer 408, the display 304, the speakers 536 such as the power motors 512, 514, 516, 518 and the end effector Providing to 310 other components such as driver 508, motor 510, ring 324, camera converter 542, and other components for system 300 (e.g., a fan for cooling the electrical components in cabinet 316) Can.

電力分配モジュール404はまた、タブレット引出し318内に配置され得るタブレット充電ステーション534などの他のコンポーネントに電力を供給し得る。タブレット充電ステーション534は、テーブル546の充電のために、タブレット546との無線または有線通信してもよい。タブレット546は、本開示と一致し、本明細書に記載される外科医によって使用され得る。   Power distribution module 404 may also provide power to other components, such as tablet charging station 534, which may be disposed within tablet drawer 318. The tablet charging station 534 may be in wireless or wired communication with the tablet 546 to charge the table 546. Tablet 546 may be used by the surgeons described herein, consistent with the present disclosure.

電力分配モジュール404は、電力分配モジュール404が入力電力548から電力を受け取らない場合に一時的な電源として働くバッテリ402に接続されてもよい。他の時には、電力分配モジュール404は、必要に応じてバッテリ402を充電するように働くことができる。   Power distribution module 404 may be connected to a battery 402 that acts as a temporary power source when power distribution module 404 does not receive power from input power 548. At other times, the power distribution module 404 can serve to charge the battery 402 as needed.

プラットフォームサブシステム502の他のコンポーネントは、コネクタパネル320、制御パネル322、およびリング324も含むことができる。コネクタパネル320は、異なる装置およびコンポーネントをシステム300および/または関連するコンポーネントおよびモジュールに接続するように機能することができる。コネクタパネル320は、異なるコンポーネントからラインまたは接続を受ける一つまたは複数のポートを含むことができる。例えば、コネクタパネル320は、システム300を他の機器に接地する接地端子ポート、フットペダル544をシステム300に接続するポート、追跡サブシステム532(位置センサ540、カメラ変換器542、カメラスタンド302に関連するカメラ326とを含むことができる)に接続するポートを有することができる。コネクタパネル320は、コンピュータ408のような他のコンポーネントへのUSB、イーサネット(登録商標)、HDMI(登録商標)通信を可能にする他のポートを含むこともできる。   Other components of platform subsystem 502 may also include connector panel 320, control panel 322, and ring 324. Connector panel 320 may function to connect different devices and components to system 300 and / or related components and modules. Connector panel 320 can include one or more ports that receive lines or connections from different components. For example, connector panel 320 may be associated with a ground terminal port for grounding system 300 to other equipment, a port for connecting foot pedal 544 to system 300, tracking subsystem 532 (position sensor 540, camera converter 542, camera stand 302) And the camera 326 can be included. Connector panel 320 may also include other ports that allow USB, Ethernet, HDMI communication to other components, such as computer 408.

制御パネル322は、システム300の動作を制御する、および/またはシステム300に関する情報を提供する様々なボタンまたはインジケータを提供することができる。例えば、制御パネル322は、システム300の電源をオンまたはオフするためのボタン、縦柱312を上げるか、または下げるためのボタン、およびシステム300を物理的に移動させるのを防ぐためにキャスター314に係合するように設計された安定器520〜526を上げるかまたは下げるためのボタンを含むことができる。緊急事態が発生した場合には、他のボタンがシステム300を停止させてもよいが、これによりすべてのモータ動力が除去され、機械的ブレーキが加えられてすべての動作が停止する。制御パネル322はまた、バッテリ402のライン電力インジケータまたは充電状態などの特定のシステム状態をユーザに通知するインジケータを有することができる。   Control panel 322 can provide various buttons or indicators that control the operation of system 300 and / or provide information regarding system 300. For example, the control panel 322 may engage a button to turn the system 300 on or off, a button to raise or lower the vertical post 312, and a caster 314 to prevent physically moving the system 300. Stabilizers 520-526 designed to mate can include buttons for raising or lowering. In the event of an emergency, other buttons may shut down the system 300, but this will remove all motor power, apply mechanical braking and stop all operation. The control panel 322 can also have line power indicators of the battery 402 or indicators that notify the user of particular system status, such as the charge status.

リング324は、システム300のユーザに、システム300が動作している異なるモードおよびユーザに対するある種の警告を通知する視覚的インジケータとすることができる。   Ring 324 can be a visual indicator that informs the user of system 300 of the different modes in which system 300 is operating and certain alerts for the user.

コンピュータサブシステム504は、コンピュータ408と、ディスプレイ304と、スピーカ536とを含む。コンピュータ504は、システム300を動作させるオペレーティングシステムと、ソフトウェアとを含む。コンピュータ504は、ユーザに情報を表示するために、他のコンポーネント(例えば、追跡サブシステム532、プラットフォームサブシステム502、および/または動作制御サブシステム506)から情報を受信し処理することができる。さらに、コンピュータサブシステム504は、ユーザにオーディオを提供するスピーカ536を含むこともできる。   Computer subsystem 504 includes a computer 408, a display 304, and a speaker 536. Computer 504 includes an operating system for operating system 300 and software. Computer 504 can receive and process information from other components (eg, tracking subsystem 532, platform subsystem 502, and / or motion control subsystem 506) to display the information to the user. Additionally, computer subsystem 504 may also include speakers 536 for providing audio to the user.

追跡サブシステム532は、位置センサ504と変換器542とを含むことができる。追跡サブシステム532は、図3に関して説明したカメラ326を含むカメラスタンド302に対応することができる。位置センサ504は、カメラ326であってもよい。追跡サブシステムは、外科施術中にユーザが使用するシステム300の異なるコンポーネントおよび/または器具上に位置する特定のマーカーの位置を追跡することができる。この追跡は、それぞれ、LEDまたは反射マーカーなどの能動または受動素子の位置を追跡する赤外線技術の使用を含む、本開示と一致する方法で行われてもよい。これらのタイプのマーカーを有する構造体の位置、配向、および配置は、ディスプレイ304上のユーザに示されるコンピュータ408に提供されてもよい。例えば、これらのタイプのマーカーを有し、このようにして(ナビゲーション空間と呼ぶことができる)追跡される外科用器具608は、患者の解剖学的構造の三次元画像に関連してユーザに示されてもよい。   Tracking subsystem 532 may include position sensor 504 and transducer 542. Tracking subsystem 532 may correspond to camera stand 302 including camera 326 described with respect to FIG. Position sensor 504 may be camera 326. The tracking subsystem may track the position of particular markers located on different components and / or instruments of the system 300 used by the user during a surgical procedure. This tracking may be performed in a manner consistent with the present disclosure, including the use of infrared technology to track the position of active or passive elements such as LEDs or reflective markers, respectively. The position, orientation, and placement of structures having these types of markers may be provided to a computer 408 shown to a user on display 304. For example, surgical instruments 608 that have these types of markers and can be tracked in this manner (which may be referred to as navigation space) are displayed to the user in relation to a three-dimensional image of the patient's anatomy. It may be done.

動作制御サブシステム506は、縦柱312、上アーム306、下アーム308、を物理的に移動させ、または回転エンドエフェクタ310回転させるように構成することができる。物理的な移動は、一つまたは複数のモータ510〜518の使用を通じて行うことができる。例えば、モータ510は縦柱312を垂直に持ち上げるかまたは下降させるように構成することができる。モータ512は、図3に示すように、縦柱312との係合点の周りで上アーム308を横方向に移動させるように構成することができる。モータ514は、図3に示すように、下アーム308を上アーム308との係合点の周りで横方向に移動させるように構成することができる。モータ516および518は、ひとつがロールを制御し、ひとつが傾斜を制御して、エンドエフェクタ310を移動させるように構成することができ、それによって、エンドエフェクタ310を移動させることができる複数の角度を提供することができる。これらの動きは、エンドエフェクタ310上に配置され、ユーザが所望の方法でシステム300を移動させるためにこれらのロードセルに係合することによって起動される、ロードセルを介してこれらの動きを制御するコントローラ538によって達成され得る。   The motion control subsystem 506 may be configured to physically move the vertical post 312, upper arm 306, lower arm 308, or rotate the rotating end effector 310. Physical movement can occur through the use of one or more motors 510-518. For example, motor 510 can be configured to lift or lower column 312 vertically. The motor 512 can be configured to move the upper arm 308 laterally around the point of engagement with the vertical post 312, as shown in FIG. The motor 514 may be configured to move the lower arm 308 laterally around the point of engagement with the upper arm 308, as shown in FIG. The motors 516 and 518 can be configured to control the roll, one to control the tilt, to move the end effector 310, thereby allowing multiple angles to move the end effector 310. Can be provided. A controller for controlling these movements via the load cell, which is arranged on the end effector 310 and triggered by the user engaging these load cells in order to move the system 300 in the desired way It can be achieved by 538.

さらに、システム300は、ディスプレイ304(タッチスクリーン入力装置とすることができる)上でユーザがディスプレイ304上の患者の解剖学的構造の三次元画像上の外科用器具または構成要素の位置を示すことにより、縦柱312、上アーム306、および下アーム308の自動移動を提供することができる。ユーザは、フットペダル544またはいくつかの他の入力手段を踏んでこの自動移動を開始することができる。   In addition, system 300 indicates the position of the surgical instrument or component on the three-dimensional image of the patient's anatomy on display 304 on display 304 (which may be a touch screen input device). Can provide automatic movement of the vertical column 312, the upper arm 306, and the lower arm 308. The user can initiate this automatic movement by stepping on the foot pedal 544 or some other input means.

図6は、例示的な実施形態による手術用ロボットシステム600を示す。手術用ロボットシステム600はと、エンドエフェクタ602と、ロボットアーム604と、ガイドチューブ606と、器具608と、ロボット基部610とを含むことができる。器具ツール608は、一つまたは複数の追跡マーカー(マーカー118など)を含む追跡アレイ612に取り付けられ、関連する軌道614を有することができる。軌道614は、ガイドチューブ606を通って位置決めされるかまたは固定されると、器具ツール608が移動するように構成される移動経路(例えば器具ツール608が患者に挿入される経路など)を表すことができる。例示的な動作では、ロボット基部610は、ロボットアーム604およびエンドエフェクタ602と電子的に通信するように構成され、手術用ロボットシステム600は、患者210上で動作する際、ユーザ(例えば外科医)を支援する。手術用ロボットシステム600は、前述した手術用ロボットシステム100および300と一致し得る。   FIG. 6 shows a surgical robotic system 600 according to an exemplary embodiment. The surgical robotic system 600 can include an end effector 602, a robotic arm 604, a guide tube 606, an instrument 608, and a robotic base 610. The instrument tool 608 can be attached to a tracking array 612 that includes one or more tracking markers (such as markers 118) and can have an associated trajectory 614. The track 614 represents a movement path (e.g., a path in which the tool tool 608 is inserted into the patient, etc.) that the tool tool 608 is configured to move when positioned or secured through the guide tube 606 Can. In an exemplary operation, robot base 610 is configured to be in electronic communication with robot arm 604 and end effector 602, and surgical robotic system 600 operates to operate a user (eg, a surgeon) on patient 210. Support. The surgical robotic system 600 may be consistent with the surgical robotic systems 100 and 300 described above.

追跡アレイ612は、器具ツール608の位置および配向を監視するために、器具608に据え付けられてもよい。追跡アレイ612は、器具608に取り付けられてもよく、追跡マーカー804を含んでもよい。図8に最もよく示されるように、追跡マーカー804は、例えば、発光ダイオードおよび/または他のタイプの反射マーカー(例えば、本明細書の別の場所で説明したマーカー118)であってもよい。追跡装置は、手術用ロボットシステムに関連する一つまたは複数の視線装置であってもよい。例として、追跡装置は、手術用ロボットシステム100、300に関連する一つまたは複数のカメラ200、326であってもよく、ロボットアーム604、ロボット基部610、エンドエフェクタ602、および/または患者210に関連して器具608の定義された領域または相対的な配向について追跡アレイ612を追跡してもよい。追跡装置は、カメラスタンド302および追跡サブシステム532に関連して説明した構造と一致していてもよい。   A tracking array 612 may be mounted to the instrument 608 to monitor the position and orientation of the instrument tool 608. Tracking array 612 may be attached to instrument 608 and may include tracking markers 804. As best shown in FIG. 8, tracking marker 804 may be, for example, a light emitting diode and / or other type of reflective marker (eg, marker 118 described elsewhere herein). The tracking device may be one or more eye gaze devices associated with the surgical robotic system. By way of example, the tracking device may be one or more cameras 200, 326 associated with the robotic system 100, 300 for the robotic arm 604, the robotic base 610, the end effector 602, and / or the patient 210. The tracking array 612 may be tracked for a defined area or relative orientation of the instrument 608 in a related manner. The tracking device may be consistent with the structure described in connection with the camera stand 302 and the tracking subsystem 532.

また、図7A、図7Bおよび図7Cは、例示的な実施形態によるエンドエフェクタ602の上面図、正面図、および側面図をそれぞれ示す。エンドエフェクタ602は、一つまたは複数の追跡マーカー702を含むことができる。追跡マーカー702は、発光ダイオードまたは他のタイプの能動および受動マーカー、例えば前述の追跡マーカー118であってもよい。例示的な実施形態では、追跡マーカー702は、電気信号(例えば、赤外線発光ダイオード(LED))によって起動される能動赤外線発光マーカーである。したがって、追跡マーカー702は、赤外線マーカー702がカメラ200、326に見えるようにアクティブにしてもよい、または赤外線マーカー702がカメラ200、326には見えないように非アクティブにしてもよい。したがって、マーカー702がアクティブであるとき、エンドエフェクタ602はシステム100、300、600によって制御され、マーカー702が非アクティブ化されると、エンドエフェクタ602は所定の位置にロックされ、システム100、300、600によっては動くことができない。   7A, 7B, and 7C also show top, front, and side views, respectively, of the end effector 602 according to an exemplary embodiment. End effector 602 can include one or more tracking markers 702. The tracking markers 702 may be light emitting diodes or other types of active and passive markers, such as the tracking markers 118 described above. In the exemplary embodiment, tracking marker 702 is an active infrared emitting marker activated by an electrical signal (eg, an infrared light emitting diode (LED)). Thus, the tracking marker 702 may be activated such that the infrared marker 702 is visible to the camera 200, 326 or may be deactivated such that the infrared marker 702 is not visible to the camera 200, 326. Thus, when the marker 702 is active, the end effector 602 is controlled by the system 100, 300, 600, and when the marker 702 is deactivated, the end effector 602 is locked in place, the system 100, 300, It can not move by 600.

マーカー702は、マーカー702が一つまたは複数のカメラ200、326、または手術用ロボットシステム100、300、600に関連する他の追跡装置によって視認されるように、エンドエフェクタ602の上または内部に配置されてもよい。カメラ200、326または他の追跡装置は、追跡マーカー702の移動に追従して異なる位置および視野角に移動するときにエンドエフェクタ602を追跡することができる。マーカー702および/またはエンドエフェクタ602の位置は、手術用ロボットシステム100、300、600に関連するディスプレイ110、304、例えば図2に示すディスプレイ110および/または図3に示すディスプレイ304に示されてもよい。このディスプレイ110、304により、ユーザは、エンドエフェクタ602がロボットアーム604、ロボット基部610、患者210、および/またはユーザに対して望ましい位置にあることを確実にすることができる。   The markers 702 are positioned on or in the end effector 602 so that the markers 702 are viewed by one or more cameras 200, 326 or other tracking devices associated with the robotic system 100, 300, 600 It may be done. The camera 200, 326 or other tracking device can track the end effector 602 as it moves to different positions and viewing angles following the movement of the tracking marker 702. The position of the marker 702 and / or the end effector 602 may also be shown on the displays 110, 304 associated with the robotic system 100, 300, 600, eg, the display 110 shown in FIG. 2 and / or the display 304 shown in FIG. Good. The displays 110, 304 allow the user to ensure that the end effector 602 is at a desired position with respect to the robotic arm 604, the robotic base 610, the patient 210, and / or the user.

例えば、図7Aに示すように、外科手術領域208から離れて配置され、ロボット102、301およびカメラ200、326の方を向いている追跡装置が、追跡装置に対するエンドエフェクタ602の一般的な配向の範囲を通って少なくとも3つのマーカー702を見ることができるよう、マーカー702はエンドエフェクタ602の表面の周りに配置され得る。例えば、このようにマーカー702を分布させることにより、エンドエフェクタ602が外科手術領域208内で移動および回転されるときに、追跡装置によってエンドエフェクタ602を監視することが可能になる。   For example, as shown in FIG. 7A, the tracking device located away from the surgical area 208 and facing the robot 102, 301 and the cameras 200, 326 has a general orientation of the end effector 602 relative to the tracking device. Markers 702 may be disposed around the surface of end effector 602 so that at least three markers 702 can be viewed through the area. For example, distributing the markers 702 in this manner allows the tracking device to monitor the end effector 602 as the end effector 602 is moved and rotated within the surgical area 208.

さらに、例示的な実施形態では、エンドエフェクタ602は、外部カメラ200、326がマーカー702を読み取る準備ができているときを検出することができる赤外線(IR)受信機を含むことができる。この検出に際して、エンドエフェクタ602はマーカー702を照らすことができる。外部カメラ200、326がマーカー702を読み取る準備ができていることをIR受信機が検出することにより、発光ダイオードであってもよいマーカー702のデューティサイクルを外部カメラ200、326に同期させる必要があることを知らせることができる。これはまた、全体としてロボットシステムによるより低い電力消費を可能にすることができ、それにより、マーカー702は、連続的に照射される代わりに適切な時間にのみ照射される。さらに、例示的な実施形態では、マーカー702の電源をオフにして、異なるタイプの外科用器具608などの他のナビゲーションツールとの干渉を防止することができる。   Further, in the exemplary embodiment, end effector 602 can include an infrared (IR) receiver that can detect when external camera 200, 326 is ready to read marker 702. During this detection, the end effector 602 can illuminate the marker 702. Due to the IR receiver detecting that the external camera 200, 326 is ready to read the marker 702, the duty cycle of the marker 702, which may be a light emitting diode, needs to be synchronized to the external camera 200, 326 You can tell that. This can also allow for lower power consumption by the robotic system as a whole, so that the markers 702 are only illuminated at appropriate times instead of being illuminated continuously. Moreover, in the exemplary embodiment, the marker 702 can be powered off to prevent interference with other navigation tools, such as different types of surgical instruments 608.

図8は、追跡アレイ612および追跡マーカー804を含む一つのタイプの外科用器具608を示す。追跡マーカー804は発光ダイオードまたは反射球を含む、本明細書に記載された任意のタイプのものでよいが、これに、限定するものではない。マーカー804は、手術用ロボットシステム100、300、600に関連する追跡装置によって監視され、一つまたは複数の視線カメラ200、326であってもよい。カメラ200、326は、追跡アレイ612およびマーカー804の位置および配向に基づいて器具608の位置を追跡することができる。外科医120のようなユーザは、追跡アレイ612およびマーカー804が、追跡装置またはカメラ200、326によって十分に認識され、器具608およびマーカー804を、例えば例示的な手術用ロボットシステムのディスプレイ110上に表示するように器具608を向けることができる。   FIG. 8 shows one type of surgical instrument 608 that includes a tracking array 612 and a tracking marker 804. Tracking marker 804 may be of any type described herein, including, but not limited to, a light emitting diode or a reflective sphere. The marker 804 is monitored by a tracking device associated with the robotic system 100, 300, 600 and may be one or more eye cameras 200, 326. The cameras 200, 326 can track the position of the instrument 608 based on the position and orientation of the tracking array 612 and the markers 804. A user, such as a surgeon 120, is fully aware of the tracking array 612 and the marker 804 by the tracking device or camera 200, 326 and displays the instrument 608 and the marker 804 on, for example, the display 110 of an exemplary surgical robotic system The appliance 608 can be directed to do so.

外科医120が器具608をエンドエフェクタ602のガイドチューブ606内に配置し、器具608を調整する方法は、図8において明らかである。エンドエフェクタ112、310、602の中空チューブまたはガイドチューブ114、606は、外科用器具608の少なくとも一部分を受容するような大きさおよび構成を有する。ガイドチューブ114、606は、外科用器具608の挿入および軌道が患者210の体内または体上の所望の解剖学的標的に到達できるように、ロボットアーム104によって方向付けられるように構成される。外科用器具608は、略円筒形の器具の少なくとも一部を含み得る。スクリュードライバが外科用ツール608として例示されるが、任意の適切な外科用ツール608がエンドエフェクタ602によって位置決めされてもよいことは理解されよう。一例として、外科用器具608は、一つまたは複数のガイドワイヤ、カニューレ、レトラクタ、ドリル、リーマ、スクリュードライバ、挿入ツール、除去ツールなどを含み得る。中空チューブ114、606は全体として円筒形状を有するものとして示されるが、当業者であれば、ガイドチューブ114、606は、外科用器具608を収容し、手術部位にアクセスするのに望ましい任意の適切なサイズおよび構成を有することができる。   The manner in which the surgeon 120 places the instrument 608 into the guide tube 606 of the end effector 602 and adjusts the instrument 608 is apparent in FIG. The hollow tubes or guide tubes 114, 606 of the end effector 112, 310, 602 are sized and configured to receive at least a portion of the surgical instrument 608. Guide tubes 114, 606 are configured to be oriented by robotic arm 104 so that the insertion and trajectory of surgical instrument 608 can reach the desired anatomical target within or on the patient 210. Surgical instrument 608 may include at least a portion of a generally cylindrical instrument. While a screw driver is illustrated as a surgical tool 608, it will be appreciated that any suitable surgical tool 608 may be positioned by the end effector 602. As one example, the surgical instrument 608 can include one or more guidewires, cannulas, retractors, drills, reamers, screwdrivers, insertion tools, removal tools, and the like. Although the hollow tubes 114, 606 are shown as having a generally cylindrical shape, one of ordinary skill in the art would appreciate that the guide tubes 114, 606 may be any suitable suitable for receiving the surgical instrument 608 and accessing the surgical site. Can have various sizes and configurations.

また、図9A〜図9Cは、例示的な実施形態によるエンドエフェクタ602およびロボットアーム604の一部を示す。エンドエフェクタ602は、本体1202およびクランプ1204をさらに含むことができる。クランプ1204は、ハンドル1206、ボール1208、バネ1210、およびリップ1212を含むことができる。ロボットアーム604は、窪み1214、取り付けプレート1216、リップ1218、および磁石1220をさらに含むことができる。   9A-9C also illustrate portions of end effector 602 and robotic arm 604 in accordance with an illustrative embodiment. End effector 602 can further include a body 1202 and a clamp 1204. The clamp 1204 can include a handle 1206, a ball 1208, a spring 1210, and a lip 1212. The robotic arm 604 can further include a recess 1214, a mounting plate 1216, a lip 1218, and a magnet 1220.

エンドエフェクタ602は、一つまたは複数のカップリングを介して手術用ロボットシステムおよびロボットアーム604と機械的にインターフェースおよび/または係合することができる。例えば、エンドエフェクタ602は、位置決めカップリングおよび/または補強カップリングを介してロボットアーム604と係合することができる。これらの結合によって、エンドエフェクタ602は、可撓性で無菌の障壁の外側でロボットアーム604に固定することができる。例示的な実施形態では位置決めカップリングは磁気キネマティックマウントであってもよく、補強カップリングは五つの棒状オーバーセンタクランピングリンク機構であってもよい。   The end effector 602 can mechanically interface and / or engage with the surgical robotic system and the robotic arm 604 via one or more couplings. For example, end effector 602 can engage with robotic arm 604 via positioning and / or reinforcing couplings. These connections allow the end effector 602 to be secured to the robotic arm 604 outside of the flexible and sterile barrier. In an exemplary embodiment, the positioning coupling may be a magnetic kinematic mount, and the reinforcing coupling may be a five bar overcenter clamping linkage.

位置決めカップリングに関して、ロボットアーム604は、非磁性材料、一つまたは複数の窪み1214、リップ1218、および磁石1220であってもよい取り付けプレート1216を含むことができる。磁石1220は、窪み1214の各々の下に取り付けられている。クランプ1204の部分は、磁性材料を含み、一つまたは複数の磁石1220によって引き付けられる。クランプ1204およびロボットアーム604の磁気吸引により、ボール1208はそれぞれの窪み1214内に着座するようになる。例えば、図9Bに示すボール1208は、図9Aに示すように、窪み1214内に着座する。この座は、磁気アシストキネマティックカップリングと考えることができる。磁石1220は、エンドエフェクタ602の配向にかかわらず、エンドエフェクタ602の全重量を支持するのに十分な強度を有するように構成することができる。位置決めカップリングは、6自由度を一意的に制限する任意のスタイルのキネマティックマウントである。   For positioning couplings, the robotic arm 604 can include a nonmagnetic material, one or more recesses 1214, a lip 1218, and a mounting plate 1216, which can be a magnet 1220. Magnets 1220 are mounted below each of the recesses 1214. The portion of clamp 1204 comprises a magnetic material and is attracted by one or more magnets 1220. The magnetic attraction of the clamps 1204 and the robotic arm 604 causes the balls 1208 to be seated within their respective recesses 1214. For example, the ball 1208 shown in FIG. 9B seats in a recess 1214 as shown in FIG. 9A. This seat can be thought of as a magnetically assisted kinematic coupling. The magnet 1220 can be configured to have sufficient strength to support the full weight of the end effector 602 regardless of the orientation of the end effector 602. Positioning coupling is any style of kinematic mount that uniquely limits six degrees of freedom.

補強カップリングに関して、クランプ1204の部分は、固定接地リンクとなるように構成することができ、そのようなクランプ1204は、五つの棒状リンク機構として機能することができる。リップ1212およびリップ1218が、エンドエフェクタ602とロボットアーム604を固定するようにクランプ1204に係合するとき、閉鎖クランプハンドル1206は、エンドエフェクタ602をロボットアーム604に固定してもよい。クランプハンドル1206が閉じられているとき、クランプ1204がロック位置にある間、バネ1210は伸張されてもよいし応力が加えられてもよい。ロック位置は、中心を過ぎたリンク機構を提供する位置であってもよい。クランプ1204を解放するためにクランプハンドル1206に印加される力がない場合には、リンク機構は開かない。したがって、ロック位置において、エンドエフェクタ602は、ロボットアーム604にしっかりと固定され得る。   With respect to the reinforcement coupling, portions of clamp 1204 can be configured to be a fixed ground link, and such clamp 1204 can function as a five bar linkage. The closing clamp handle 1206 may secure the end effector 602 to the robotic arm 604 when the lip 1212 and the lip 1218 engage the clamp 1204 to secure the end effector 602 and the robotic arm 604. When the clamp handle 1206 is closed, the spring 1210 may be stretched or stressed while the clamp 1204 is in the locked position. The lock position may be a position that provides an off center link mechanism. If there is no force applied to the clamp handle 1206 to release the clamp 1204, the linkage does not open. Thus, in the locked position, the end effector 602 can be securely fixed to the robotic arm 604.

バネ1210は、張力のある湾曲ビームであってもよい。バネ1210は、未使用のPEEK(ポリエーテルエーテルケトン)のような高い剛性と高降伏歪みを示す材料で構成することができる。エンドエフェクタ602とロボットアーム604との間のリンク機構は、二つのカップリングの締結を妨げることなく、エンドエフェクタ602とロボットアーム604との間の無菌バリアを提供し得る。   The spring 1210 may be a curved beam of tension. The spring 1210 can be constructed of a material that exhibits high stiffness and high yield strain, such as virgin PEEK (polyetheretherketone). The linkage between the end effector 602 and the robotic arm 604 can provide a sterile barrier between the end effector 602 and the robotic arm 604 without interfering with the fastening of the two couplings.

補強カップリングは、複数のバネ部材とのリンク機構であってもよい。補強カップリングは、カムまたは摩擦に基づく機構でラッチすることができる。補強カップリングは、エンドエフェクタ102をロボットアーム604に固定するのを支援する、十分に強力な電磁石であってもよい。補強カップリングは、エンドエフェクタ602とロボットアーム604との間のインターフェースを滑り、ねじ機構、オーバーセンタリンク機構、または、カム機構で固定するエンドエフェクタ602および/またはロボットアーム604から完全に分離する多数のカラーであってもよい。   The reinforcing coupling may be a link mechanism with a plurality of spring members. The reinforcement coupling can be latched with a cam or friction based mechanism. The reinforcement coupling may be a sufficiently strong electromagnet that assists in securing the end effector 102 to the robotic arm 604. The reinforcement coupling slides the interface between the end effector 602 and the robot arm 604, and completely separates the screw mechanism, the overcenter link mechanism, or the end effector 602 fixed by the cam mechanism from the robot arm 604 and / or the robot arm 604 It may be a color of

図10および図11を参照すると、外科施術の前または間に、ナビゲーション空間および画像空間の両方において、患者210のオブジェクトおよび標的解剖学的構造を追跡するために、特定の登録手順が実施されてもよい。図10に示すように、このような登録を行うため、登録システム1400を使用することができる。   Referring to FIGS. 10 and 11, a specific registration procedure is performed to track the object and target anatomical structure of the patient 210, both in the navigation space and in the image space, before or during a surgical procedure. It is also good. As shown in FIG. 10, a registration system 1400 can be used to perform such registration.

患者210の位置を追跡するために、患者追跡装置116は、患者210の硬い解剖学的構造に固定されることになる患者固定器具1402を含み得、動的基準ベース(DRB)1404は、患者固定器具1402に固定的に取り付けられてもよい。例えば、患者固定器具1402は、動的基準ベース1404の開口部1406に挿入されてもよい。動的基準ベース1404は、追跡サブシステム532のような追跡装置に見えるマーカー1408を含むことができる。これらのマーカー1408は、本明細書で前述したように、光学マーカーまたは追跡マーカー118などの反射球であってもよい。   To track the position of the patient 210, the patient tracking device 116 can include a patient anchor 1402 that will be secured to the rigid anatomical structure of the patient 210, and the dynamic reference base (DRB) 1404 can be The fixture 1402 may be fixedly attached. For example, a patient securement device 1402 may be inserted into the opening 1406 of the dynamic reference base 1404. The dynamic reference base 1404 can include a marker 1408 that appears to be a tracking device such as the tracking subsystem 532. These markers 1408 may be reflective spheres, such as optical markers or tracking markers 118, as previously described herein.

患者固定器具1402は、患者210の硬い解剖学的構造に取り付けられ、外科施術中に取り付けられたままであり得る。例示的な実施形態では、患者固定器具1402は、患者210の硬い領域、例えば、外科施術の対象となる標的解剖学的構造から離れて位置する骨に取り付けられる。標的解剖学的構造を追跡するために、動的基準ベース1404は、動的基準ベース1404を標的解剖学的構造の位置で登録するために、標的解剖学的構造上またはその付近に一時的に配置される登録固定具の使用を通して、標的解剖学的構造と関連する。   Patient fixator 1402 may be attached to the rigid anatomical structure of patient 210 and remain attached during a surgical procedure. In the exemplary embodiment, the patient fixation device 1402 is attached to a rigid area of the patient 210, for example, a bone located away from the target anatomy targeted for surgical procedures. In order to track the target anatomical structure, the dynamic reference base 1404 is temporarily placed on or near the target anatomical structure to register the dynamic reference base 1404 at the location of the target anatomical structure. It is associated with the target anatomical structure through the use of registration fixtures placed.

登録固定具1410は、枢動アーム1412を使用して患者固定器具1402に取り付けられる。枢動アーム1412は、患者固定器具1402を登録固定具1410の開口部1414に挿入することによって患者固定器具1402に取り付けられる。枢動アーム1412は、例えば、枢動アーム1412の開口部1418にノブ1416を挿入することによって、登録固定具1410に取り付けられる。   Registration fixture 1410 is attached to patient fixture 1402 using pivot arm 1412. The pivoting arm 1412 is attached to the patient lock 1402 by inserting the patient lock 1402 into the opening 1414 of the registration lock 1410. The pivoting arm 1412 is attached to the registration fixture 1410, for example, by inserting the knob 1416 into the opening 1418 of the pivoting arm 1412.

枢動アーム1412を使用して、登録固定具1410を標的解剖学的構造の上に配置することができ、その位置は、登録固定具1410上の追跡マーカー1420および/または基準1422を使用して画像空間およびナビゲーション空間において決定することができる。登録固定具1410は、ナビゲーション空間で見えるマーカー1420の集合を含むことができる(例えば、マーカー1420は、追跡サブシステム532によって検出可能であり得る)。追跡マーカー1420は、本明細書で前述したように、赤外光で可視的な光学マーカーであってもよい。登録固定具1410は、撮像空間(例えば、三次元CT画像)内で視認可能な、例えばベアリングボールなどの基準点1422の集合体を含むこともできる。図11を参照してより詳細に説明するように、登録固定具1410を使用して、標的解剖学的構造を動的基準ベース1404に関連付けることができ、それにより、解剖学的構造の画像にナビゲーション空間内のオブジェクトの描写を重ね合わせることができる。標的解剖学的構造から離れた位置に配置された動的基準ベース1404は、基準点となり、それにより、登録固定具1410および/または枢動アーム1412を手術領域から除去することができる。   The pivoting arm 1412 can be used to place the registration fixture 1410 on the target anatomical structure, the location of which using the tracking marker 1420 and / or the fiducial 1422 on the registration fixture 1410 It can be determined in image space and navigation space. The registration fixture 1410 can include a collection of markers 1420 visible in the navigation space (eg, the markers 1420 can be detectable by the tracking subsystem 532). Tracking marker 1420 may be an optical marker visible in infrared light, as previously described herein. The registration fixture 1410 can also include a collection of reference points 1422, such as bearing balls, visible in the imaging space (eg, a three-dimensional CT image). As described in more detail with reference to FIG. 11, the registration anchor 1410 can be used to associate the target anatomical structure with the dynamic reference base 1404, thereby providing an image of the anatomical structure. Descriptions of objects in the navigation space can be superimposed. A dynamic fiducial base 1404 located at a distance from the target anatomical structure provides a fiducial point by which the registration fixture 1410 and / or the pivoting arm 1412 can be removed from the surgical area.

図11は、本開示による、登録のための例示的な方法1500を提供する。方法1500は、ステップ1502から始まり、標的解剖学的構造のグラフィック表現(または画像)をシステム100、300、600、例えばコンピュータ408にインポートすることができる。このグラフィック表現は、登録固定具1410および検出可能な基準の撮像パターン1420を含む、患者210の標的解剖学的構造の三次元CTまたは蛍光透視スキャンであってもよい。   FIG. 11 provides an exemplary method 1500 for registration, in accordance with the present disclosure. The method 1500 may begin at step 1502 and import a graphical representation (or image) of the target anatomical structure into the system 100, 300, 600, eg, the computer 408. This graphical representation may be a three-dimensional CT or fluoroscopic scan of a target anatomical structure of patient 210, including registration fixture 1410 and imaging pattern 1420 of a detectable reference.

ステップ1504において、基準点1420の撮像パターンが検出され、撮像空間に登録され、コンピュータ408に記憶される。任意選択的に、ステップ1506においてこの時点で、登録固定具1410のグラフィック表現を、標的解剖学的構造の画像上に重ねることができる。   In step 1504, the imaging pattern of the reference point 1420 is detected, registered in the imaging space, and stored in the computer 408. Optionally, at this point in step 1506, a graphical representation of registration fixture 1410 can be superimposed on the image of the target anatomical structure.

ステップ1508では、マーカー1420を認識することによって、登録固定具1410のナビゲーションパターンが検出され、登録される。マーカー1420は、位置センサ540を介して追跡サブシステム532によって赤外線によってナビゲーション空間内で認識される光学マーカーであってもよい。したがって、標的解剖学的構造の位置、配向、および他の情報がナビゲーション空間に登録される。したがって、登録固定具1410は、基準点1422の使用による画像空間およびマーカー1420の使用によるナビゲーション空間の両方で認識され得る。ステップ1510で、画像空間における登録固定具1410の登録がナビゲーション空間に転送される。この転送は、例えば、マーカー1420のナビゲーションパターンの位置と比較した基準1422の撮像パターンの相対位置を使用することによって行われる。   At step 1508, by recognizing the marker 1420, the navigation pattern of the registration fixture 1410 is detected and registered. Marker 1420 may be an optical marker that is recognized in the navigation space by infrared light by tracking subsystem 532 via position sensor 540. Thus, the location, orientation, and other information of the target anatomical structure is registered in the navigation space. Thus, registration fixtures 1410 can be recognized both in the image space by the use of reference point 1422 and in the navigation space by the use of marker 1420. At step 1510, the registration of the registration fixture 1410 in the image space is transferred to the navigation space. This transfer is performed, for example, by using the relative position of the imaging pattern of the reference 1422 compared to the position of the navigation pattern of the marker 1420.

ステップ1512において、登録固定具1410のナビゲーション空間の登録(画像空間で登録される)は、さらに、患者固定器具1402に取り付けられた動的登録アレイ1404のナビゲーション空間に転送される。したがって、ナビゲーション空間が画像空間に関連付けられているため、登録固定具1410を除去し、動的基準ベース1404を使用して、ナビゲーション空間および画像空間の両方の標的解剖学的構造を追跡することができる。   At step 1512, the registration of the navigation space of registration fixture 1410 (registered in the image space) is further transferred to the navigation space of dynamic registration array 1404 attached to patient fixture 1402. Thus, as the navigation space is associated with the image space, removing the registration fixture 1410 and using the dynamic reference base 1404 to track the target anatomical structure in both the navigation space and the image space it can.

ステップ1514および1516において、ナビゲーション空間は、ナビゲーション空間において認識できるマーカー(例えば、光学マーカー804を用いる外科用器具608)を用いて、画像空間およびオブジェクト上に重ね合わせてもよい。オブジェクトは、標的解剖学的構造の画像上の外科用器具608のグラフィック表現を通して追跡することができる。   In steps 1514 and 1516, the navigation space may be overlaid on the image space and the object using markers that can be recognized in the navigation space (eg, surgical instruments 608 using optical markers 804). Objects can be tracked through the graphical representation of the surgical instrument 608 on the image of the target anatomical structure.

また、図12A〜図12Bは、患者210の術前、手術中、手術後、および/またはリアルタイム画像データを取得するためにロボットシステム100、300、600と共に使用され得る撮像装置1304を示す。任意の適切な主題は、撮像システム1304を使用して、任意の適切な手順のために画像化することができる。撮像システム1304は、撮像装置1306および/またはC−アーム1308装置などの任意の撮像装置とすることができる。x線システムで必要とされる患者210の頻繁な手動の再位置決めの必要性なしに、いくつかの異なる位置から患者210のx線を取得することが望ましい場合がある。図12Aに示すように、撮像システム1304は、「C」字形の対向する遠位端1312で終端する細長いC字形部材を含むC−アーム1308の形態であってもよい。C字形部材1130は、x線源1314および画像レセプタ1316をさらに含むことができる。アームのC−アーム1308内の空間は、医師がx線支持構造1318からの干渉が実質的にない患者を診断するするための余地を提供することができる。図12Bに示すように、撮像システムは、図示されていない画像取り込み部を取り囲むことができるホイール1332を含むホイール付き移動カート1330のような、支持構造撮像装置支持構造1328に取り付けられたガントリハウジング1324を有する撮像装置1306を含むことができる。画像取り込み部は、互いに約180度に配置され、画像取り込み部の追跡に対して回転子(図示せず)に取り付けられたx線源および/または放出部と、x線受取りおよび/または画像受取り部とを含むことができる。画像取り込み部は、画像取得中に360度回転するように動作可能であってもよい。画像取り込み部は、中心点および/または軸の周りを回転することができ、患者210の画像データを複数の方向からまたは複数の平面において取得することを可能にする。特定の撮像システム1304が本明細書で例示されるが、任意の適切な撮像システムが当業者によって選択されてもよいことは理解されよう。   12A-12B also illustrate an imaging device 1304 that may be used with the robotic system 100, 300, 600 to obtain pre-operative, intra-operative, post-operative, and / or real-time image data of the patient 210. Any suitable subject can be imaged for any suitable procedure using imaging system 1304. Imaging system 1304 may be any imaging device, such as imaging device 1306 and / or a C-arm 1308 device. It may be desirable to acquire x-rays of the patient 210 from several different locations without the need for frequent manual repositioning of the patient 210 as required by the x-ray system. As shown in FIG. 12A, the imaging system 1304 may be in the form of a C-arm 1308 that includes an elongated C-shaped member that terminates in a “C” shaped opposite distal end 1312. C-shaped member 1130 can further include an x-ray source 1314 and an image receptor 1316. Space in the C-arm 1308 of the arms can provide room for a physician to diagnose a patient substantially free of interference from the x-ray support structure 1318. As shown in FIG. 12B, the imaging system includes a gantry housing 1324 mounted to a support structure imaging device support structure 1328, such as a wheeled mobile cart 1330 that includes a wheel 1332 that can surround an image capture portion not shown. An imaging device 1306 can be included. The image capture units are disposed at approximately 180 degrees relative to one another and an x-ray source and / or emitter attached to a rotator (not shown) for tracking of the image capture units, x-ray receiving and / or image receiving And can be included. The image capture unit may be operable to rotate 360 degrees during image acquisition. The image capture unit can be rotated about a center point and / or axis to allow image data of the patient 210 to be acquired from multiple directions or in multiple planes. While a particular imaging system 1304 is illustrated herein, it will be appreciated that any suitable imaging system may be selected by one of ordinary skill in the art.

ここで図13A〜図13Cを参照すると、手術用ロボットシステム100、300、600は、所望の手術領域に対するエンドエフェクタ112、602、外科用器具608、および/または患者210(例えば、患者追跡装置116)の正確な位置決めに依存する。図13A〜図13Cに示す実施形態では、を参照すると、追跡マーカー118、804は、器具608および/またはエンドエフェクタ112の一部分に固定的に取り付けられている。   Referring now to FIGS. 13A-13C, surgical robotic system 100, 300, 600 may be configured to receive end effector 112, 602, surgical instrument 608, and / or patient 210 (eg, patient tracking device 116) to the desired surgical area. Depends on the exact positioning of In the embodiment shown in FIGS. 13A-13C, with reference to the tracking markers 118, 804 are fixedly attached to the instrument 608 and / or a portion of the end effector 112.

図13Aは、基部106、ロボットアーム104、およびエンドエフェクタ112を含むロボット102を含む手術用ロボットシステム100の一部を示す。ディスプレイ、カメラなどの図示されていない他の要素もまた、本明細書で説明するように存在してもよい。図13Bは、ガイドチューブ114を有するエンドエフェクタ112と、エンドエフェクタ112にしっかりと固定された複数の追跡マーカー118の拡大図を示す。この実施形態では、複数の追跡マーカー118がガイドチューブ112に取り付けられている。図13Cは、器具608にしっかりと固定された複数の追跡マーカー804を有する器具608(この場合、プローブ608A)を示す。本明細書の他の箇所に記載されるように、器具608は、ガイドワイヤ、カニューレ、レトラクタ、ドリル、リーマ、スクリュードライバ、挿入ツール、除去ツール、などの適切な外科用器具を含み得るが、それらに限定されない。   FIG. 13A shows a portion of a surgical robotic system 100 that includes a robot 102 that includes a base 106, a robotic arm 104, and an end effector 112. Other elements not shown, such as a display, a camera, etc. may also be present as described herein. FIG. 13B shows an enlarged view of an end effector 112 having a guide tube 114 and a plurality of tracking markers 118 rigidly secured to the end effector 112. In this embodiment, a plurality of tracking markers 118 are attached to the guide tube 112. FIG. 13C shows an instrument 608 (in this case, a probe 608A) having a plurality of tracking markers 804 secured to the instrument 608. As described elsewhere herein, instrument 608 may include any suitable surgical instrument such as a guide wire, cannula, retractor, drill, reamer, screwdriver, insertion tool, removal tool, etc. It is not limited to them.

器具608、エンドエフェクタ112、または3Dで追跡される他のオブジェクトを追跡する場合、追跡マーカー118、804のアレイは、ツール608またはエンドエフェクタ112の一部に固定的に取り付けられてもよい。追跡マーカー118、804は、マーカー118、804がじゃまにならない(例えば、外科手術、視界などを妨げない)ように取り付けられることが好ましい。マーカー118、804は、例えば、アレイ612を用いて、器具608、エンドエフェクタ112、または追跡される他のオブジェクトに固定されてもよい。通常、三つまたは四つのマーカー118、804がアレイ612と共に使用される。アレイ612は、直線部分、クロスピースを含むことができ、マーカー118、804が互いに異なる相対位置および位置にあるように非対称であってもよい。例えば、図13Cに示すように、4−マーカー追跡アレイ612を有するプローブ608Aが示されており、図13Bは、異なる4マーカー追跡アレイ612を有するエンドエフェクタ112を示す。   When tracking the instrument 608, the end effector 112, or other objects tracked in 3D, the array of tracking markers 118, 804 may be fixedly attached to the tool 608 or a portion of the end effector 112. The tracking markers 118, 804 are preferably mounted such that the markers 118, 804 do not block (eg, do not interfere with surgery, visibility, etc.). The markers 118, 804 may be fixed to the instrument 608, the end effector 112, or other object to be tracked, for example using the array 612. Typically, three or four markers 118, 804 are used with the array 612. Array 612 may include straight portions, cross pieces, and may be asymmetric such that markers 118, 804 are in different relative positions and positions from one another. For example, as shown in FIG. 13C, a probe 608A having a 4-marker tracking array 612 is shown, and FIG. 13B shows an end effector 112 having a different 4-marker tracking array 612.

図13Cでは、追跡アレイ612は、プローブ608Aのハンドル620として機能する。したがって、四つのマーカー804は、プローブ608Aのハンドル620に取り付けられ、シャフト622および先端624から離れている。これらの四つのマーカー804の立体写真測量による追跡は、器具608を剛体として追跡することを可能にし、追跡システム100、300、600が、プローブ608Aが追跡カメラ200、326の前方動かされる間に先端624の位置およびシャフト622の配向を正確に決定することができる。   In FIG. 13C, tracking array 612 functions as a handle 620 for probe 608A. Thus, the four markers 804 are attached to the handle 620 of the probe 608A and away from the shaft 622 and the tip 624. Stereographic tracking of these four markers 804 allows the instrument 608 to be tracked as a rigid body, and the tracking system 100, 300, 600 can be tipped while the probe 608A is moved forward of the tracking camera 200, 326. The position of 624 and the orientation of the shaft 622 can be accurately determined.

一つまたは複数のツール608、エンドエフェクタ112、または3Dで追跡される他のオブジェクト(例えば、複数の剛体)の自動追跡を可能にするために、各ツール608、エンドエフェクタ112などのマーカー118、804が、既知のマーカー間間隔で非対称に配置される。非対称アラインメントの理由は、どのマーカー118、804が剛体上の特定の位置に対応するか、マーカー118、804が正面または背面から見られているかどうか、すなわち鏡像化されるかは明瞭にするためである。例えば、マーカー118、804がツール608またはエンドエフェクタ112上の正方形に配置されていた場合、どのマーカー118、804が正方形のどの隅に対応するかは、システム100、300、600にとっては不明である。例えば、プローブ608Aの場合、どのマーカー804がシャフト622に最も近いかは不明である。したがって、シャフト622がどのようにアレイ612から伸びていたかは分からない。したがって、各アレイ612、したがって各ツール608、エンドエフェクタ112、または追跡される他のオブジェクトは、他のツール608または追跡されている他のオブジェクトから区別できるように、固有のマーカーパターンを有さなければならない。非対称性およびユニークなマーカーパターンは、システム100、300、600が個々のマーカー118、804を検出し、保存されたテンプレートに対してマーカー間隔をチェックして、それらが、どのツール608、エンドエフェクタ112、または他のオブジェクトを表しているのかを決定することを可能にする。次に、検出されたマーカー118、804を自動的にソートし、追跡された各オブジェクトに正しい順序で割り当てることができる。この情報がなければ、ユーザがどの検出されたマーカー118、804がそれぞれの剛体上のどの位置のどの位置に対応するかを手動で指定しない限り、例えばツール先端624およびシャフト622のアライメントなどの重要な幾何情報を抽出するために剛体計算を実行することができないであろう。これらの概念は、3D光学追跡の方法の当業者には一般に公知である。   Markers 118, such as each tool 608, end effector 112, to enable automatic tracking of one or more tools 608, end effector 112, or other objects (eg, multiple rigid bodies) tracked in 3D 804 are asymmetrically arranged at known inter-marker spacing. The reason for the asymmetric alignment is to make it clear which markers 118, 804 correspond to particular locations on the rigid body, and whether the markers 118, 804 are viewed from the front or back, ie, they are mirrored. is there. For example, if markers 118, 804 were placed in a square on tool 608 or end effector 112, it would be unclear to system 100, 300, 600 which markers 118, 804 correspond to which corners of the square . For example, in the case of the probe 608A, it is unknown which marker 804 is closest to the shaft 622. Thus, it is not known how the shaft 622 extended from the array 612. Thus, each array 612, and thus each tool 608, end effector 112, or other object being tracked must have a unique marker pattern so that it can be distinguished from other tools 608 or other objects being tracked. You must. Asymmetry and unique marker patterns allow the system 100, 300, 600 to detect individual markers 118, 804 and check marker spacing against stored templates, which tools 608, end effector 112 Allows you to determine if it is representing another object. The detected markers 118, 804 can then be sorted automatically and assigned to each tracked object in the correct order. Without this information, as important, for example, alignment of tool tip 624 and shaft 622, unless the user manually specifies which detected marker 118, 804 corresponds to which position on each rigid body It would not be possible to perform rigid body calculations to extract certain geometric information. These concepts are generally known to those skilled in the art of 3D optical tracking methods.

ここで図14A〜図14Dを参照すると、可動追跡マーカー918A〜918Dを有するエンドエフェクタ912の代替バージョンが示される。図14Aでは、可動追跡マーカー918A−918Dを有するアレイが第一の構成で示され、図14Bにおいて、可動追跡マーカー918A−918Dは、第一の構成に対して傾斜した第二の構成で示される。図14Cは、例えば、図14Aの第一の構成におけるカメラ200、326によって見られるように、追跡マーカー918A〜918Dのテンプレートを示す。図14Dは、例えば、図14Bの第二の構成におけるカメラ200、326によって見られるように、追跡マーカー918A〜918Dのテンプレートを示す。   Referring now to FIGS. 14A-14D, an alternative version of end effector 912 having moveable tracking markers 918A-918D is shown. In FIG. 14A, an array having moveable tracking markers 918A-918D is shown in a first configuration, and in FIG. 14B, moveable tracking markers 918A-918D are shown in a second configuration inclined relative to the first configuration. . FIG. 14C shows a template of tracking markers 918A-918D, for example as viewed by the cameras 200, 326 in the first configuration of FIG. 14A. FIG. 14D shows a template of tracking markers 918A-918D, as seen, for example, by cameras 200, 326 in the second configuration of FIG. 14B.

この実施形態では、4マーカーアレイ追跡が企図されるが、マーカー918A〜918Dが剛体に対してすべて固定位置にあるわけではなく、その代わりに一つまたは複数のアレイマーカー918A〜918Dが、例えばテスト中に調整され、追跡されるマーカー918A〜918Dの自動検出およびソートのためのプロセスを中断することなく、追跡される剛体に関する最新の情報を与えることができる。   In this embodiment, four marker array tracking is contemplated, but not all markers 918A-918D are at a fixed position relative to the rigid body, instead one or more array markers 918A-918D may for example be tested The latest information on the tracked rigid body can be provided without interrupting the process for automatic detection and sorting of the markers 918A-918D that are adjusted and tracked in.

ロボットシステム100、300、600のエンドエフェクタ912に接続されたガイドチューブ914のような任意のツールを追跡する場合、追跡アレイの主な目的は、カメラ座標系におけるエンドエフェクタ912の位置を更新することである。固定システムを使用する場合、例えば、図13Bに示すように、反射マーカー118のアレイ612は、ガイドチューブ114から固定的に延びている。追跡マーカー118は固定的に接続されるので、カメラ座標系におけるマーカー位置の情報はまた、カメラ座標系におけるガイドチューブ114の中心線、先端および後端の正確な位置を提供する。通常、このようなアレイ612からのエンドエフェクタ112の位置に関する情報、および別の追跡されたソースからの標的軌道の位置に関する情報は、ガイドチューブ114を軌道と整列するように移動させ、先端を軌道ベクトルに沿った特定の位置に移動させるロボット102の各軸に対して入力されなければならない必要な移動を計算するために使用される。   When tracking any tool, such as a guide tube 914 connected to the end effector 912 of the robotic system 100, 300, 600, the main purpose of the tracking array is to update the position of the end effector 912 in the camera coordinate system It is. When using a fixation system, for example, as shown in FIG. 13B, the array 612 of reflective markers 118 fixedly extends from the guide tube 114. Since the tracking marker 118 is fixedly connected, the information of the marker position in the camera coordinate system also provides the exact position of the center line, tip and back end of the guide tube 114 in the camera coordinate system. Typically, information regarding the position of the end effector 112 from such an array 612, and information regarding the position of the target trajectory from another tracked source, moves the guide tube 114 to align with the trajectory, and orbits the tip It is used to calculate the required movement that must be input for each axis of the robot 102 to move to a specific position along the vector.

場合によっては、所望の軌道は厄介なまたは到達不能な位置にあるが、ガイドチューブ114を旋回させることができる場合には到達することができる。例えば、ガイドチューブ114がピッチ(手首上下角)軸の限界を超えて上方に枢動可能である場合、ロボット102の基部106から離れて指し示す非常に急な軌道は到達可能であり得るが、もし、ガイドチューブ114が、それを手首の端部に接続するプレートに平行に取り付けられるならば到達できないかもしれない。このような軌道に達するためには、ロボット102の基部106を移動させるか、または異なるガイドチューブアタッチメントを有する異なるエンドエフェクタ112を作業用エンドエフェクタと交換することができる。これらの解決の両方は、時間がかかり、扱いにくい場合がある。   In some cases, the desired trajectory is at an awkward or unreachable position, but can be reached if the guide tube 114 can be pivoted. For example, if the guide tube 114 is pivotable upwards beyond the limits of the pitch (wrist angle) axis, a very steep trajectory pointing away from the base 106 of the robot 102 may be reachable, although If the guide tube 114 is mounted parallel to the plate connecting it to the end of the wrist it may not be reachable. To reach such a trajectory, the base 106 of the robot 102 can be moved or different end effectors 112 with different guide tube attachments can be replaced with working end effectors. Both of these solutions can be time consuming and cumbersome.

図14Aおよび図14Bに最もよく示されるように、もし、アレイ908がマーカー918A〜918Dの一つまたは複数が固定位置になく、その代わりにマーカー918A〜918Dの一つまたは複数が調整、旋回、枢動、または移動できるならば、ロボット102は、検出および追跡プロセスを中断することなく、追跡されているオブジェクトに関する更新された情報を提供することができる。例えば、マーカー918A〜918Dの一つは定位置に固定され、他のマーカー918A〜918Dは移動可能であってもよい。マーカー918A〜918Dのうちの二つは、定位置に固定され、他のマーカー918A〜918Dは、移動可能であってもよい。マーカー918A〜918Dのうちの三つは、定位置に固定され、他のマーカー918A〜918Dは、移動可能であってもよい。またはマーカー918A〜918Dのすべてが可動であってもよい。   As best seen in FIGS. 14A and 14B, if array 908 does not have one or more of markers 918A-918D in a fixed position, instead one or more of markers 918A-918D adjust, pivot, If able to pivot or move, the robot 102 can provide updated information about the object being tracked without interrupting the detection and tracking process. For example, one of the markers 918A-918D may be fixed in place and the other markers 918A-918D may be movable. Two of the markers 918A-918D may be fixed in place and the other markers 918A-918D may be movable. Three of the markers 918A-918D may be fixed in place and the other markers 918A-918D may be movable. Alternatively, all of the markers 918A to 918D may be movable.

図14Aおよび図14Bに示す実施形態では、マーカー918A、918Bは、エンドエフェクタ912の基部906に直接的に固定的に接続され、マーカー918C、918Dは、チューブ914に固定的に接続される。アレイ612と同様に、マーカー918A〜918Dをエンドエフェクタ912、器具608、または追跡される他のオブジェクトに取り付けるために、アレイ908を設けることができる。しかしながら、この場合、アレイ908は、複数の別個のコンポーネントから構成される。例えば、マーカー918A、918Bは、第一のアレイ908Aによって基部906に接続され、マーカー918C、918Dは、第二のアレイ908Bによってガイドチューブ914に接続されてもよい。マーカー918Aは、第一のアレイ908Aの第一の端部に取り付けられてもよく、マーカー918Bは、直線距離に分離され、第一のアレイ908Aの第二の端部に固定されてもよい。第一のアレイ908は実質的に直線状であるが、第二のアレイ908Bは、曲がり構成、またはV形状構成を有し、それぞれの根元端がガイドチューブ914に接続され、そこからV字形で遠位端に分岐し、一つの遠位端にマーカー918Cを有し、他方の遠位端にはマーカー918Dを有す。特定の構成が本明細書に例示されるが、異なる数およびタイプのアレイ908A、908Bおよび異なる配置、数、およびタイプのマーカー918A〜918Dを含む他の非対称設計が企図されることが理解されよう。   In the embodiment shown in FIGS. 14A and 14B, markers 918A, 918B are fixedly connected directly to the base 906 of end effector 912 and markers 918C, 918D are fixedly connected to tube 914. Similar to array 612, array 908 can be provided to attach markers 918A-918D to end effector 912, instrument 608, or other object to be tracked. However, in this case, the array 908 is comprised of a plurality of separate components. For example, markers 918A, 918B may be connected to base 906 by a first array 908A and markers 918C, 918D may be connected to a guide tube 914 by a second array 908B. Markers 918A may be attached to the first end of the first array 908A, and markers 918B may be separated by a linear distance and secured to the second end of the first array 908A. The first array 908 is substantially linear, but the second array 908B has a bent or V-shaped configuration, with the root end of each connected to the guide tube 914 from which it is V-shaped It branches at the distal end and has a marker 918C at one distal end and a marker 918D at the other distal end. Although specific configurations are illustrated herein, it will be appreciated that other asymmetric designs are contemplated, including different numbers and types of arrays 908A, 908B and different arrangements, numbers, and types of markers 918A-918D. .

ガイドチューブ914は、例えば、基部906に対するヒンジ920または他のコネクタを横切って、基部906に対して移動可能、枢動可能、または枢動可能であってもよい。したがって、マーカー918C、918Dは、ガイドチューブ914が枢動し、旋回し、または移動するときに、マーカー918C、918Dも枢動、旋回または移動するように移動可能である。図14Aに最もよく示されるように、ガイドチューブ914は、マーカー918A〜918Dが第一の構成を有するように、実質的に法線方向または垂直の向きに整列された長手方向軸916を有する。ここで図14Bを参照すると、マーカー918A〜918Dが第一の構成と異なる第二の構成を有するように、長手方向軸916が垂直方向に対して角度をなすように、ガイドチューブ914が枢動、旋回、または移動される。   Guide tube 914 may be movable, pivotable, or pivotable relative to base 906, for example, across hinges 920 or other connectors to base 906. Thus, the markers 918C, 918D are movable to pivot, pivot or move the markers 918C, 918D as the guide tube 914 pivots, pivots or moves. As best shown in FIG. 14A, guide tube 914 has longitudinal axis 916 aligned in a substantially normal or vertical orientation such that markers 918A-918D have a first configuration. Referring now to FIG. 14B, the guide tube 914 pivots such that the longitudinal axis 916 is at an angle to the vertical, such that the markers 918A-918D have a second configuration different from the first configuration. , Swivel or move.

図14A〜図14Dに記載された実施形態とは対照的に、四つのマーカー918A〜918Dの全てがガイドチューブ914に固定的に取り付けられた状態で、ガイドチューブ914とアーム104(例えば、手首アタッチメント)との間にスイベルが存在し、このスイベルがユーザによって調整された場合、ロボットシステム100、300、600は、ガイドチューブ914の配向が変化したことを自動的に検出することができない。ロボットシステム100、300、600は、マーカーアレイ908の位置を追跡し、ガイドチューブ914が以前の配向で手首(ロボットアーム104)に取り付けられていると仮定して、不正確なロボット軸の動きを計算する。一つまたは複数のマーカー918A〜918D(例えば、二つのマーカー918C、918D)を、チューブ914上に固定して保持し、一つまたは複数のマーカー918A〜918D(例えば、二つのマーカー918A、918B)をスイベルを横切って保持することによって、新しい位置の自動検出が可能となり、ロボットアーム104の端部上の新しいツールまたはエンドエフェクタ112、912の検出に基づいて正しいロボットの動きが計算される。   In contrast to the embodiment described in FIGS. 14A-14D, with all four markers 918A-918D fixedly attached to the guide tube 914, the guide tube 914 and the arm 104 (e.g. a wrist attachment) And when the swivel is adjusted by the user, the robotic system 100, 300, 600 can not automatically detect that the orientation of the guide tube 914 has changed. The robot system 100, 300, 600 tracks the position of the marker array 908 and assumes incorrect robot axis motion assuming that the guide tube 914 is attached to the wrist (robot arm 104) in the previous orientation. calculate. One or more markers 918A-918D (eg, two markers 918C, 918D) are fixedly held on the tube 914 and one or more markers 918A-918D (eg, two markers 918A, 918B) Holding the swivel across the swivel allows for automatic detection of the new position and the correct robot movement is calculated based on the detection of the new tool or end effector 112, 912 on the end of the robot arm 104.

一つまたは複数のマーカー918A〜918Dは、任意の適切な手段にしたがって移動、枢動、旋回等されるように構成される。例えば、マーカー918A〜918Dは、クランプ、バネ、レバー、摺動、トグルなどのヒンジ920によって、またはマーカー918A〜918Dを個々にまたは組み合わせて移動させるための、または、アレイ908A、908Bを個々にまたは組み合わせて移動させるための、または、エンドエフェクタ912の任意の部分を別の部分に対して移動させるための、または、ツール608の任意の部分を別の部分に対して移動させるための、任意の他の適切な機構によって、動かしても良い。   One or more markers 918A-918D are configured to be moved, pivoted, pivoted, etc. according to any suitable means. For example, markers 918A-918D may be moved by hinges 920 such as clamps, springs, levers, slides, toggles, or to move markers 918A-918D individually or in combination, or array 908A, 908B individually or Any for moving in combination or for moving any part of the end effector 912 relative to another, or for moving any part of the tool 608 relative to another Other suitable mechanisms may be used.

図14Aおよび図14Bに示すように、アレイ908およびガイドチューブ914は、単に、クランプまたはヒンジ920を緩め、アレイ908A、908Bの一部を他の部分908A、908Bに対して移動させ、ヒンジ920を再調整して、ガイドチューブ914が異なる位置に向けられるように構成可能であってもよい。例えば、二つのマーカー918C、918Dはチューブ914と固定的に相互接続され、二つのマーカー918A、918Bはヒンジ920を介してロボットアーム104に取り付けられるエンドエフェクタ912の基部906に固定的に相互接続され得る。ヒンジ920は、ユーザが第一の構成(図14A)と第二の構成(図14B)との間を素早く切り替えることを可能にするためにゆるめて締めることができるウイングナットなどのクランプの形態であってもよい。   As shown in FIGS. 14A and 14B, the array 908 and the guide tube 914 simply loosen the clamps or hinges 920 and move a portion of the arrays 908A, 908B relative to the other portions 908A, 908B to move the hinges 920. It may be possible to configure the guide tube 914 to be directed to different positions by readjustment. For example, two markers 918C, 918D are fixedly interconnected with the tube 914, and two markers 918A, 918B are fixedly interconnected with the base 906 of the end effector 912 attached to the robot arm 104 via the hinge 920. obtain. The hinge 920 is in the form of a clamp, such as a wing nut that can be loosened and tightened to allow the user to quickly switch between the first configuration (FIG. 14A) and the second configuration (FIG. 14B) It may be.

カメラ200、326は、例えば、図14Cおよび図14Dで識別されたテンプレートの一つにおいてマーカー918A〜918Dを検出する。アレイ908が第一の構成(図14A)にあり、追跡カメラ200、326がマーカー918A〜918Dを検出する場合、追跡されるマーカーは14Cに示すようにアレイテンプレート1と一致する。アレイ908が第二の構成(図14B)であり、追跡カメラ200、326が同じマーカー918A〜918Dを検出した場合、追跡されるマーカーは図14Dに示すようにアレイテンプレート2と一致する。アレイテンプレート1およびアレイテンプレート2は、ガイドチューブ914、マーカー918A〜918D、およびロボットアタッチメント間に固有に画定された空間的関係を有する二つの異なるツールとしてシステム100、300、600によって認識される。したがって、ユーザは、システム100、300、600に変更を通知することなく、第一および第二の構成の間でエンドエフェクタ912の位置を調整することができ、システム100、300、600は、ロボット102の動きを軌道上にあるように適切に調整する。   Cameras 200, 326 detect markers 918A-918D, for example, in one of the templates identified in FIGS. 14C and 14D. If the array 908 is in the first configuration (FIG. 14A) and the tracking cameras 200, 326 detect the markers 918A-918D, the tracked markers match the array template 1 as shown at 14C. If the array 908 is in the second configuration (FIG. 14B) and the tracking cameras 200, 326 detect the same markers 918A-918D, the tracked markers will coincide with the array template 2 as shown in FIG. 14D. The array template 1 and the array template 2 are recognized by the system 100, 300, 600 as two different tools having a uniquely defined spatial relationship between the guide tube 914, the markers 918A-918D, and the robot attachment. Thus, the user can adjust the position of the end effector 912 between the first and second configurations without notifying the system 100, 300, 600 of the change, the system 100, 300, 600 being a robot Adjust the motion of 102 appropriately to be in orbit.

この実施形態では、マーカーアレイが、システム100、300、600がアセンブリを二つの異なるツールまたは二つの異なるエンドエフェクタとして認識することを可能にする固有のテンプレートと一致する二つのアセンブリ位置が存在する。これらの二つの位置の間または外側のスイベルの任意の位置では、(すなわち、それぞれ図14Cおよび図14Dに示すアレイテンプレート1およびアレイテンプレート2)マーカー918A〜918Dはいずれのテンプレートとも一致せず、システム100、300、600は、カメラ200、326によって個々のマーカー918A〜918Dが検出されるにもかかわらず、存在するアレイを検出せず、マーカー918A〜918Dがカメラ200、326の視界から一時的にブロックされた場合と同じ結果になる。他のアレイテンプレートが、例えば、異なる器具608または他のエンドエフェクタ112、912などを識別する他の構成用に存在してもよいことが理解されよう。   In this embodiment, there are two assembly locations that match the marker array with a unique template that allows the system 100, 300, 600 to recognize the assembly as two different tools or two different end effectors. Between any of these two positions or at any position on the outer swivel (ie, array template 1 and array template 2 shown in FIGS. 14C and 14D, respectively) markers 918A-918D do not match any of the templates and the system 100, 300, 600 do not detect the array present despite the individual markers 918A-918D being detected by the camera 200, 326, and the markers 918A-918D are temporarily out of view of the camera 200, 326 It has the same effect as if it were blocked. It will be appreciated that other array templates may be present, for example, for other configurations that identify different instruments 608 or other end effectors 112, 912, etc.

記載された実施形態では、二つの別個の組立位置が図14Aおよび14Bに示される。しかし、スイベルジョイント、直線ジョイント、スイベルジョイントと直線ジョイントの組み合わせ、ペグボード、または他のアセンブリ上に複数の離散的な位置が存在することが理解されよう。ここで、アレイの一つまたは複数のマーカー918A〜918Dの位置をお互いに調整することによってユニークなマーカーテンプレートを作成することができ、各離散的な位置は、特定のテンプレートと一致し、異なる既知の属性を有する固有のツール608またはエンドエフェクタ112、912を定義する。さらに、エンドエフェクタ912について例示されるが、移動可能な固定マーカー918A〜918Dは、任意の適切な器具608または追跡される他のオブジェクトとともに使用されてもよいことが理解されよう。   In the described embodiment, two separate assembly positions are shown in FIGS. 14A and 14B. However, it will be appreciated that there may be multiple discrete locations on the swivel joint, straight joint, combination swivel joint and straight joint, peg board, or other assembly. Here, unique marker templates can be created by aligning the positions of one or more markers 918A-918D in the array with one another, each discrete position being matched to a specific template and known differently Define a unique tool 608 or end effector 112, 912 with the following attributes: Further, although illustrated for end effector 912, it will be appreciated that movable fixation markers 918A-918D may be used with any suitable instrument 608 or other object to be tracked.

外部3D追跡システム100、300、600を使用してロボットのエンドエフェクタ112に取り付けられた三つ以上のマーカーの完全な剛体アレイを追跡する場合(例えば、図13Aおよび13Bに示すように)、カメラ200、326の座標系におけるロボット102の各セクションの3D位置を直接的に追跡するか、または計算することができる。トラッカーに対するジョイントの幾何学的な配向は設計によって既知であり、ジョイントの線形位置または角度位置は、ロボット102の各モータのエンコーダから既知であり、エンドエフェクタ112から基部116までのすべての可動部品の3D位置を完全に規定する。同様に、トラッカーがロボット102の基部106(図示せず)に取り付けられている場合、既知のジョイントジオメトリおよび各モータのエンコーダからのジョイント位置に基づいて、基部106からエンドエフェクタ112までのロボット102の各セクションの3D位置を追跡または計算することも同様に可能である。   When tracking a complete rigid array of three or more markers attached to the end effector 112 of a robot using an external 3D tracking system 100, 300, 600 (eg, as shown in FIGS. 13A and 13B), the camera The 3D position of each section of the robot 102 in the 200, 326 coordinate system can be directly tracked or calculated. The geometric orientation of the joint with respect to the tracker is known by design, and the linear or angular position of the joint is known from the encoders of each motor of the robot 102 and of all the movable parts from the end effector 112 to the base 116 Fully define the 3D position. Similarly, if the tracker is attached to the base 106 (not shown) of the robot 102, the robot 106 from the base 106 to the end effector 112 based on known joint geometry and joint positions from the encoders of each motor. It is also possible to track or calculate the 3D position of each section.

いくつかの状況では、エンドエフェクタ112に固定的に取り付けられた三つ未満のマーカー118からロボット102のすべてのセグメントの位置を追跡することが望ましい場合がある。具体的には、ツール608がガイドチューブ114内に導入される場合、一つの追加のマーカー118のみが追跡されて、ロボット902の完全な剛体運動を追跡することが望ましい場合がある。   In some situations, it may be desirable to track the position of all segments of the robot 102 from less than three markers 118 fixedly attached to the end effector 112. Specifically, when tool 608 is introduced into guide tube 114, it may be desirable to track only one additional marker 118 to track the full rigid motion of robot 902.

ここで図15A〜図15Eを参照すると、単一の追跡マーカー1018のみを有するエンドエフェクタ1012の代替バージョンが示される。エンドエフェクタ1012は、本明細書に記載の他のエンドエフェクタと同様であってもよく、長手方向軸1016に沿って延在するガイドチューブ1014を含んでもよい。本明細書で説明する他の追跡マーカーと同様の単一の追跡マーカー1018を、ガイドチューブ1014にしっかりと固定することができる。この単一マーカー1018は、完全な剛体追跡を可能にするために欠けている自由度を追加する目的に役立ち、および/またはロボットおよびカメラの位置決めに関する仮定が有効であることを保証する監視マーカーとして機能する目的に役立ち得る。   Referring now to FIGS. 15A-15E, an alternative version of an end effector 1012 having only a single tracking marker 1018 is shown. The end effector 1012 may be similar to the other end effectors described herein and may include a guide tube 1014 extending along the longitudinal axis 1016. A single tracking marker 1018 similar to the other tracking markers described herein can be secured to the guide tube 1014. This single marker 1018 serves the purpose of adding the missing degrees of freedom to enable full rigid body tracking and / or as a surveillance marker to ensure that assumptions regarding robot and camera positioning are valid It can serve for the purpose of functioning.

単一追跡マーカー1018は、任意の好都合な方向に突出し、外科医の視界を妨げないエンドエフェクタ1012に対する剛性の延長部として、ロボット式エンドエフェクタ1012に取り付けられてもよい。追跡マーカー1018は、ガイドチューブ1014またはエンドエフェクタ1012上の任意の他の適切な位置に固定することができる。ガイドチューブ1014に取り付けられたとき、追跡マーカー1018は、ガイドチューブ1014の第一の端部と第二の端部との間の位置に配置されてもよい。例えば、図15Aでは、単一追跡マーカー1018は、ガイドチューブ1014から前方に延在し、ガイドチューブ1014の長手方向の中間点の上でかつガイドチューブ1014の入口の下方に位置する細いシャフト1017の端部に取り付けられた反射球として示される。この位置は、マーカー1018がカメラ200、326によって全体的に見えることを可能にするだけでなく、外科医120の視界を妨げず、手術の近傍の他のツールまたはオブジェクトと衝突しない。さらに、この位置のマーカー1018を有するガイドチューブ1014は、ガイドチューブ1014に導入された任意のツール608上のマーカーアレイを、ガイドチューブ1014上の単一マーカー1018が見えると同時に見ることができるように設計される。   A single tracking marker 1018 may be attached to the robotic end effector 1012 as a rigid extension to the end effector 1012 that protrudes in any convenient direction and does not block the surgeon's view. The tracking marker 1018 can be fixed at the guide tube 1014 or any other suitable position on the end effector 1012. When attached to the guide tube 1014, the tracking marker 1018 may be located at a position between the first end and the second end of the guide tube 1014. For example, in FIG. 15A, a single tracking marker 1018 extends forward from the guide tube 1014 and is located on the longitudinal midpoint of the guide tube 1014 and below the entrance of the guide tube 1014. It is shown as a reflective ball attached to the end. This position not only allows the marker 1018 to be viewed entirely by the camera 200, 326, but also does not block the view of the surgeon 120 and does not collide with other tools or objects in the vicinity of the surgery. Further, the guide tube 1014 with the markers 1018 in this position allows the marker array on any tool 608 introduced into the guide tube 1014 to be viewed simultaneously with the single marker 1018 on the guide tube 1014 Designed.

図15Bに示すように、ぴったりとフィットするツールまたは器具608がガイドチューブ1014内に配置されると、器具608は、6つの自由度のうちの4つで機械的に拘束される。すなわち、器具608は、ガイドチューブ1014の長手方向軸線1016を除いて、いかなる方向にも回転させることができず、器具608は、ガイドチューブ1014の長手方向軸線1016に沿って以外の方向に並進することができない。言い換えれば、器具608は、ガイドチューブ1014の中心線に沿って並進移動しかつ回転させることだけができる。(1)ガイドチューブ1014の長手方向軸1016周りの回転角度、(2)ガイドチューブ1014に沿った位置のようにさらに二つのパラメータが既知であれば、カメラ座標系におけるエンドエフェクタ1012の位置が完全に定義される。   As shown in FIG. 15B, when a snug fit tool or instrument 608 is placed in the guide tube 1014, the instrument 608 is mechanically constrained in four of six degrees of freedom. That is, the instrument 608 can not be rotated in any direction except for the longitudinal axis 1016 of the guide tube 1014 and the instrument 608 translates in other directions along the longitudinal axis 1016 of the guide tube 1014 I can not do it. In other words, instrument 608 can only translate and rotate along the centerline of guide tube 1014. If two more parameters are known, such as (1) the rotation angle around the longitudinal axis 1016 of the guide tube 1014, and (2) the position along the guide tube 1014, the position of the end effector 1012 in the camera coordinate system is complete Defined in

次に図15Cに示すように、システム100、300、600は、ツール608がガイドチューブ1014の内部に実際に配置され、代わりにガイドチューブ1014の外側ではなく、カメラ200、326の視界のどこかにあるときを知ることができるべきである。ツール608は、長手方向軸または中心線616と、複数の追跡されるマーカー804を有するアレイ612とを有する。剛体計算を使用して、ツール608上のアレイ612の追跡位置に基づいて、ツール608の中心線616がカメラ座標系内に位置する場所を決定することができる。   Next, as shown in FIG. 15C, the system 100, 300, 600 has the tool 608 actually located inside the guide tube 1014 and instead instead of outside the guide tube 1014, somewhere in the field of view of the camera 200, 326 You should be able to know when you are. Tool 608 has a longitudinal axis or center line 616 and an array 612 having a plurality of tracked markers 804. Using rigid body calculations, based on the tracking position of the array 612 on the tool 608, it can be determined where the centerline 616 of the tool 608 is located within the camera coordinate system.

単一マーカー1018からガイドチューブ1014の中心線または長手方向軸1016までの固定された法線(垂直)距離Dは固定され、幾何学的に既知であり、単一マーカー1018の位置を追跡することができる。したがって、ツール中心線616から単一マーカー1018までの検出距離Dが、ガイドチューブ中心線1016から単一マーカー1018までの既知の固定距離Dと一致する場合、ツール608がガイドチューブ1014内にある(ツール608およびガイドチューブ1014の中心線616、1016が一致)か、またはこの距離Dが固定距離Dに一致する可能性のある位置の軌跡のある点に存在していることを判定できる。例えば、図15Cに示すように、ツール中心線616から単一マーカー1018までの法線方向の検出距離Dが、二つの位置において、透明なツール608によって表される両方のデータフレーム(追跡されるマーカー座標)においてガイドチューブ中心線1016から単一マーカー1018までの固定距離Dと一致する。したがって、ツール608がガイドチューブ1014内に配置されるときを決定するために追加の考慮が必要とされ得る。 A fixed normal (vertical) distance D F from the single marker 1018 to the centerline or longitudinal axis 1016 of the guide tube 1014 is fixed and geometrically known, tracking the position of the single marker 1018 be able to. Thus, if the detection distance D D from the tool centerline 616 to the single marker 1018 matches the known fixed distance D F from the guide tube centerline 1016 to the single marker 1018, then the tool 608 is in the guide tube 1014 Determined that there is a point (the center line 616, 1016 of the tool 608 and the guide tube 1014 coincide) or that this distance D D is at a point in the locus of positions that may correspond to the fixed distance D F it can. For example, as shown in FIG. 15C, the detection distance D D in the normal direction from the tool center line 616 to the single marker 1018, at the two positions, the both data frames represented by a transparent tool 608 (tracking (The marker coordinates) correspond to the fixed distance D F from the guide tube center line 1016 to the single marker 1018. Thus, additional considerations may be required to determine when the tool 608 is placed in the guide tube 1014.

ここで図15Dを参照すると、プログラムされたロジックを使用して、ツール608がガイドチューブ1014内を移動しているという条件を満たすよう、ツール608がスペース内で単一の球体1018に対して、ある程度の最小距離だけ移動しても、ツール中心線616から単一マーカー1018までの検出距離Dが正しい長さに固定されたままである、追跡データのフレームを探すことができる。例えば、第一のフレームF1は、第一の位置のツール608によって検出され、第二のフレームF2は、第二の位置のツール608によって検出され得る(すなわち、第一の位置に対して直線的に移動される)。ツールアレイ612上のマーカー804は、第一のフレームF1から第二のフレームF2へ所与の量より多く(例えば、合計5mm超)だけ移動することができる。この移動であっても、ツール中心線ベクトルC’から単一マーカー1018までの検出距離Dは、第一のフレームF1と第二のフレームF2の両方において実質的に同一である。 Referring now to FIG. 15D, using the programmed logic, the tool 608 can move against a single sphere 1018 in space to satisfy the condition that the tool 608 is moving within the guide tube 1014. It is possible to find a frame of tracking data where the detection distance D D from the tool centerline 616 to the single marker 1018 remains fixed at the correct length, even though it has moved by some minimum distance. For example, the first frame F1 may be detected by the tool 608 at the first position, and the second frame F2 may be detected by the tool 608 at the second position (ie linear with respect to the first position) Moved to The markers 804 on the tool array 612 can move from the first frame F1 to the second frame F2 by more than a given amount (e.g., more than 5 mm total). Even with this movement, the detection distance D D from the tool center line vector C ′ to the single marker 1018 is substantially the same in both the first frame F1 and the second frame F2.

論理的には、外科医120またはユーザは、ツール608をガイドチューブ1014内に配置し、ガイドチューブ1014内にそれをわずかに回転させるかまたは滑り込ませることができ、システム100、300、600は、ツール608が五つのマーカー(ツール608上の四つのマーカー804に加えガイドチューブ1014上の単一マーカー1018)から、ガイドチューブ1014内にあることを検知することができる。ツール608がガイドチューブ1014内にあることを知り、空間内のロボット式エンドエフェクタ1012の位置および配向を定める6自由度の全てを計算することができる。単一マーカー1018がなければ、ツール608がガイドチューブ1014内にあることが確実に分かっていても、ガイドチューブ1014がツールの中心線ベクトルC’に沿ってどこに位置するか、およびガイドチューブ1014が中心線ベクトルC’に対しどのように回転するかは不明である。   Logically, the surgeon 120 or user can place the tool 608 in the guide tube 1014 and slightly rotate or slide it into the guide tube 1014, the system 100, 300, 600 From the five markers (four markers 804 on tool 608 plus a single marker 1018 on guide tube 1014), it can be detected that it is in guide tube 1014. Knowing that the tool 608 is in the guide tube 1014, it is possible to calculate all six degrees of freedom that define the position and orientation of the robotic end effector 1012 in space. Without the single marker 1018, even though the tool 608 is known to be reliably within the guide tube 1014, where the guide tube 1014 is located along the tool center line vector C 'and the guide tube 1014 It is unknown how to rotate with respect to the center line vector C '.

図15Eで強調するように、ツール608上四つのマーカー804と合わせて単一マーカー1018が追跡されるので、ガイドチューブ1014およびツール608の中心線ベクトルC’および単一マーカー1018および中心線ベクトルC’による法線ベクトルを構築することができる。この法線ベクトルは、手首の遠位のロボットの前腕(この例では、そのセグメントに平行に配向される)に対して既知の配向であり、特定の固定位置で中心線ベクトルC’と交差する配向を有する。便宜上、図15Eに示すように、三つの相互に直交するベクトルk’、j’、i’を構成することができ、ガイドチューブ1014の剛体位置および配向を画定することができる。三つの相互に直交するベクトルの一つである、k’は、中心線ベクトルC’から構成され、第二のベクトルj’は、単一マーカー1018を通る法線ベクトルから構成され、第三のベクトルi’は、第一と第二のベクトルk’、j’のベクトル積である。これらのベクトルk’、j’、i’に対するロボットのジョイント位置は、すべてのジョイントがゼロになると既知であり、固定され、したがって剛体計算を使用して、ロボットがホームポジションにいるとき、これらのベクトルk’、j’、i’に対するロボットの任意の部分の位置を決定することができる。ロボットの移動中に、ツールマーカー804の位置(ツール608がガイドチューブ1014内にある間)および単一マーカー1018の位置が追跡システムから検出され、各ジョイントの角度/直線位置がエンコーダから既知であれば、ロボットの任意の部分の位置および方向を決定することができる。   As highlighted in FIG. 15E, a single marker 1018 is tracked in conjunction with the four markers 804 on tool 608 so that centerline vector C 'and single marker 1018 and centerline vector C of guide tube 1014 and tool 608 are tracked. The 'normal vector can be constructed. This normal vector is at a known orientation relative to the robot's forearm (distantly parallel to that segment in this example) distal to the wrist and intersects the centerline vector C 'at a particular fixed location It has an orientation. For convenience, as shown in FIG. 15E, three mutually orthogonal vectors k ', j', i 'can be configured, and rigid body positions and orientations of the guide tube 1014 can be defined. One of three mutually orthogonal vectors, k ', is composed of a center line vector C', and the second vector j 'is composed of a normal vector passing through a single marker 1018, and a third The vector i 'is the vector product of the first and second vectors k', j '. The robot's joint positions for these vectors k ', j', i 'are known when all joints are zero, and are fixed, so using rigid body calculations, when the robot is at home position, The position of any part of the robot relative to the vectors k ', j', i 'can be determined. During movement of the robot, the position of the tool marker 804 (while the tool 608 is in the guide tube 1014) and the position of the single marker 1018 are detected from the tracking system and the angle / linear position of each joint is known from the encoder For example, the position and orientation of any part of the robot can be determined.

いくつかの実施形態では、ガイドチューブ1014に対するツール608の配向を固定することが有用であり得る。例えば、エンドエフェクタガイドチューブ1014は、マシニングまたはインプラントの位置決めを可能にするために、その軸1016の周りの特定の位置に向けられてもよい。ガイドチューブ1014内に挿入されたツール608に取り付けられたあらゆる物の配向は、ツール608上の追跡されるマーカー804から分かるが、ガイドチューブ1014上の追加の追跡マーカー1018(または他の実施形態では複数の追跡マーカー)がなければ、カメラ座標系におけるガイドチューブ1014自体の回転方向は不明である。このマーカー1018は、本質的に、中心線ベクトルC’に対するマーカー1018の配向に基づいて−180°〜+180°の「クロック位置」を提供する。したがって、単一マーカー1018は、完全な剛体追跡を可能にする追加の自由度を提供することができ、および/またはロボットおよびカメラの位置決めに関する仮定が有効であることを保証する監視マーカーとして機能することができる。   In some embodiments, it may be useful to fix the orientation of the tool 608 relative to the guide tube 1014. For example, the end effector guide tube 1014 may be oriented at a particular position about its axis 1016 to allow for machining or positioning of the implant. The orientation of any objects attached to the tool 608 inserted into the guide tube 1014 can be seen from the tracked markers 804 on the tool 608 but additional tracking markers 1018 on the guide tube 1014 (or in other embodiments, Without multiple tracking markers, the direction of rotation of the guide tube 1014 itself in the camera coordinate system is unknown. This marker 1018 provides a “clock position” of −180 ° to + 180 ° essentially based on the orientation of the marker 1018 with respect to the centerline vector C ′. Thus, a single marker 1018 can provide additional degrees of freedom to allow full rigid body tracking and / or act as a surveillance marker to ensure that assumptions regarding robot and camera positioning are valid. be able to.

図16は、ロボット102のエンドエフェクタ1012(または本明細書に記載の他の任意のエンドエフェクタ)を所望の標的軌道にナビゲートおよび移動させるための方法1100のブロック図である。ロボットエンドエフェクタ1012またはガイドチューブ1014上の単一マーカー1018の別の使用は、ロボット102に取り付けられたフル追跡アレイなしでロボット102の自動安全移動を可能にする方法1100の一部である。この方法1100は、追跡カメラ200、326がロボット102に対して移動しないで(すなわち、それらが固定位置にある)、追跡システムの座標系およびロボットの座標系が共に登録され、ガイドチューブ1014の位置および配向が、各ロボット軸の符号化された位置にのみ基づいて、ロボットのデカルト座標系において正確に決定することができるように、ロボット102が較正されるとき、機能する。   FIG. 16 is a block diagram of a method 1100 for navigating and moving an end effector 1012 (or any other end effector described herein) of the robot 102 to a desired target trajectory. Another use of a single marker 1018 on the robotic end effector 1012 or guide tube 1014 is part of a method 1100 that enables automatic safe movement of the robot 102 without a full tracking array attached to the robot 102. In this method 1100, the tracking camera 200, 326 is not moved with respect to the robot 102 (ie, they are in a fixed position), the coordinate system of the tracking system and the coordinate system of the robot are registered together, the position of the guide tube 1014 And function when the robot 102 is calibrated so that it can be accurately determined in the robot's Cartesian coordinate system based solely on the encoded position of each robot axis.

この方法1100では、トラッカーとロボットの座標系を共に登録しなければならないが、これは、追跡システムのデカルト座標系からロボットのデカルト座標系への座標変換が必要であることを意味する。便宜上、この座標変換は、ロボット工学の分野で周知である4x4の並進行列および回転行列であり得る。この変換はTcrと呼ばれ、「変換−カメラからロボットに」を指す。この変換が分かれば、追跡される各マーカーに対しベクトル形式でx、y、z座標として受け取られる追跡データの新しいフレームに4x4行列を乗算することができ、結果のx、y、z座標はロボットの座標系にある。Tcrを得るためには、ロボットのフル追跡アレイが、ロボットの座標系で既知の位置にロボットに固定的に取り付けられている間に追跡され、次いで既知の剛体法が座標の変換を計算するために使用される。ロボット102のガイドチューブ1014に挿入された任意のツール608は、追加のマーカー1018も読み取られたときに、固定的に取り付けられたアレイと同じ剛体情報を提供することができることは明らかである。すなわち、ツール608は、ガイドチューブ1014内の任意の位置に、ガイドチューブ1014内の任意の回転で、挿入するだけで良い。固定された位置および配向に挿入する必要はない。したがって、追跡アレイ612を含む任意のツール608をガイドチューブ1014に挿入し、ツールのアレイ612とガイドチューブ1014の単一マーカー1018とを読み取ることにより、Tcrを決定することが可能である。同時に、それぞれの軸上のエンコーダからロボットの座標系におけるガイドチューブ1014の現在位置を決定できる。   In this method 1100, the tracker and robot coordinate systems must be registered together, which means that a coordinate transformation from the tracking system Cartesian coordinate system to the robot Cartesian coordinate system is required. For convenience, this coordinate transformation may be a 4x4 translation and rotation matrix as is well known in the robotics field. This transformation is called Tcr and refers to "transformation-camera to robot". Once this transformation is known, a new frame of tracking data, received as x, y, z coordinates in vector form for each marker tracked, can be multiplied by the 4x4 matrix, and the resulting x, y, z coordinates are robot In the coordinate system of. In order to obtain Tcr, the robot's full tracking array is tracked while fixedly attached to the robot at a known position in the robot's coordinate system, and then the known rigid body method calculates the transformation of the coordinates. Used for It is clear that any tool 608 inserted into the guide tube 1014 of the robot 102 can provide the same rigid body information as the fixedly mounted array when the additional markers 1018 are also read. That is, the tool 608 may be inserted into any position in the guide tube 1014 at any rotation in the guide tube 1014. There is no need to insert in a fixed position and orientation. Thus, Tcr can be determined by inserting an optional tool 608, including a tracking array 612, into the guide tube 1014 and reading the array of tools 612 and the single markers 1018 of the guide tube 1014. At the same time, the encoder on each axis can determine the current position of the guide tube 1014 in the robot's coordinate system.

ロボット102を標的軌道にナビゲートして移動させるための論理は、図16の方法1100において提供される。ループ1102に入る前に、変換Tcrが以前に記憶されたと仮定する。したがって、ループ1102に入る前に、ステップ1104において、ロボット基部106が固定された後、ロボットが静止している間にガイドチューブに挿入されたツールの追跡データの一つかまたはそれ以上のフレームが格納される。ステップ1106において、この静的データおよび以前の較正データから、カメラ座標からロボット座標Tcrへのロボットガイドチューブ位置の変換が計算される。Tcrは、カメラ200、326がロボット102に対して動かない限り有効であるべきである。カメラ200、326がロボット102に対して移動し、Tcrを再取得する必要がある場合、システム100、300、600は、ガイドチューブ1014内にツール608を挿入するようにユーザに促し、次いで必要な計算を自動的に実行ことができる。   The logic for navigating and moving the robot 102 to the target trajectory is provided in the method 1100 of FIG. Before entering loop 1102, assume that the transformation Tcr was previously stored. Thus, before entering the loop 1102, after the robot base 106 is fixed in step 1104, one or more frames of tracking data of the tool inserted in the guide tube while the robot is stationary is stored Be done. At step 1106, from this static data and previous calibration data, a transformation of the robot guide tube position from camera coordinates to robot coordinates Tcr is calculated. Tcr should be valid as long as the cameras 200, 326 do not move relative to the robot 102. If the cameras 200, 326 move relative to the robot 102 and need to reacquire Tcr, the system 100, 300, 600 prompts the user to insert the tool 608 into the guide tube 1014 and then necessary. Calculations can be performed automatically.

方法1100のフローチャートでは、収集されるデータの各フレームは、患者210上のDRB1404の追跡された位置、エンドエフェクタ1014上の単一マーカー1018の追跡された位置、および各ロボット軸の位置のスナップショットからなる。ロボットの軸の位置から、エンドエフェクタ1012上の単一マーカー1018の位置が計算される。この計算された位置は、追跡システムから記録されたマーカー1018の実際の位置と比較される。値が一致すれば、ロボット102が既知の位置にあることを保証することができる。変換Tcrは、ロボット102の標的がロボットの座標系に関して提供されるように、DRB1404の追跡された位置に適用される。次いで、ロボット102は、標的に到達するために移動するように命令され得る。   In the flowchart of method 1100, each frame of data collected is a snapshot of the tracked position of DRB 1404 on patient 210, the tracked position of single marker 1018 on end effector 1014, and the position of each robot axis. It consists of From the position of the robot's axis, the position of a single marker 1018 on the end effector 1012 is calculated. This calculated position is compared to the actual position of the marker 1018 recorded from the tracking system. If the values match, it can be guaranteed that the robot 102 is at a known position. The transformation Tcr is applied to the tracked position of the DRB 1404 so that the robot's 102 target is provided with respect to the robot's coordinate system. The robot 102 may then be instructed to move to reach the target.

ステップ1104、1106の後、ループ1102は、追跡システムからDRB1404の剛体情報を受信するステップ1108と、標的先端および軌道を画像座標から追跡システム座標に変換するステップ1110と、標的先端および軌道をカメラ座標からロボット座標に変換する(Tcrを適用する)ステップ1112とを含む。ループ1102はさらに、追跡システムからロボットのための単一の漂遊マーカー位置を受信するステップ1114と、単一の漂遊マーカーを追跡システム座標からロボット座標に変換する(格納Tcrを適用する)ステップ1116とを含む。ループ1102はまた、順運動学からロボット座標系における単一のロボットマーカー1018の現在位置を決定するステップ1118を含む。ステップ1116および1118からの情報は、変換された追跡された位置からの漂遊マーカー座標が、所定の公差よりも小さい計算された座標と一致するかどうかを決定する(ステップ1120)ために使用される。イエスであれば、ステップ1122に進み、標的x、y、zおよび軌道にロボット移動を計算して適用する。いいえの場合は、ステップ1124に進み、一旦停止し、処理を続行する前にガイドチューブ1014への完全なアレイ挿入を要求し、ステップ1126でアレイが挿入された後に、Tcrを再計算する。その後、ステップ1108、1114および1118を繰り返すように進む。   After steps 1104, 1106, loop 1102 receives rigid body information of DRB 1404 from the tracking system 1108, converts target tip and trajectory from image coordinates to tracking system coordinates 1110, and camera tip coordinates and target coordinates And convert the robot coordinates (apply Tcr) 1112. The loop 1102 further comprises the steps 1114 of receiving a single stray marker position for the robot from the tracking system and converting 1116 the single stray marker from tracking system coordinates to robot coordinates (apply storing Tcr) 1116 including. Loop 1102 also includes determining 1118 the current position of a single robot marker 1018 in the robot coordinate system from forward kinematics. The information from steps 1116 and 1118 is used to determine if stray marker coordinates from the transformed tracked position match the calculated coordinates less than a predetermined tolerance (step 1120) . If yes, proceed to step 1122 to calculate and apply robot motion to the targets x, y, z and trajectory. If no, proceed to step 1124 and stop and request complete array insertion into the guide tube 1014 before continuing with the process and recalculate Tcr after the array is inserted at step 1126. Thereafter, the steps 1108, 1114 and 1118 are repeated.

この方法1100は、位置を確認するために単一マーカー1018の連続的な監視が省略される方法に優る利点を有する。単一マーカー1018がなければ、Tcrを使用してエンドエフェクタ1012の位置を決定し、エンドエフェクタ1012を標的位置に送信することは可能であるが、ロボット102が実際に予想される場所にいることを確認することはできない。例えば、カメラ200、326が突き当たり、Tcrがもはや有効でない場合、ロボット102は誤った位置に移動することになる。このため、単一マーカー1018は安全性に関する価値を提供する。   This method 1100 has advantages over methods in which continuous monitoring of a single marker 1018 is omitted to confirm position. Without the single marker 1018, it is possible to use Tcr to determine the position of the end effector 1012 and transmit the end effector 1012 to the target position, but that the robot 102 is actually at the expected location Can not confirm. For example, if the cameras 200, 326 hit and Tcr is no longer valid, the robot 102 will move to the wrong position. Thus, a single marker 1018 provides safety value.

ロボット102の所与の固定位置に対して、理論的には、追跡カメラ200、326を、単一の追跡されるマーカー1018は、アレイではなく単一の点であるので、移動されないままである、新しい位置に移動することが可能である。そのような場合、システム100、300、600は、単一マーカー1018の計算された位置と、追跡された位置が一致するので、何らエラーを検出しない。しかしながら、ロボットの軸がガイドチューブ1012を新しい位置に移動させると、計算された位置と追跡された位置は不一致となり、安全チェックが有効になる。   For a given fixed position of the robot 102, theoretically, the tracking camera 200, 326 remains unmoved as the single tracked marker 1018 is a single point rather than an array It is possible to move to a new position. In such a case, the system 100, 300, 600 does not detect any errors, as the calculated position of the single marker 1018 matches the tracked position. However, if the robot's axis moves the guide tube 1012 to a new position, the calculated position and the tracked position will be inconsistent and the safety check will be valid.

「監視マーカー」という用語が、例えば、DRB1404に対して固定位置にある単一マーカーを参照して使用することができる。この例では、DRB1404が突き当てられるか、またはそうでなければで取り外されると、監視マーカーの相対位置が変化し、外科医120に、ナビゲーションに問題がある可能性があることを警告することができる。同様に、本明細書に記載の実施形態では、ロボットのガイドチューブ1014上に単一マーカー1018を用いて、システム100、300、600は、カメラ200、326がロボット102に対して移動したかどうかを連続的にチェックすることができる。カメラ200、326が突き当たったり機能不全になったり、ロボットが誤動作したりするなどして、追跡システムの座標系のロボットの座標系への登録が失われた場合、システム100、300、600はユーザに警告し、修正を加えることができる。したがって、この単一マーカー1018は、ロボット102に対する監視マーカーと考えることもできる。   The term "monitoring marker" can be used, for example, with reference to a single marker in a fixed position relative to DRB 1404. In this example, if the DRB 1404 is bumped or otherwise removed, the relative position of the monitoring markers may change, alerting the surgeon 120 that there may be navigation problems. . Similarly, in the embodiments described herein, using a single marker 1018 on the robot's guide tube 1014, the system 100, 300, 600 determines whether the camera 200, 326 has moved relative to the robot 102. Can be checked continuously. The system 100, 300, 600 is not a user if the tracking system's coordinate system loses registration with the robot's coordinate system due to the camera 200, 326 hitting or malfunctioning or the robot malfunctioning. Can warn you and make corrections. Thus, this single marker 1018 can also be considered as a surveillance marker for the robot 102.

ロボット102に恒久的に取り付けられたフルアレイ(例えば、図7A−7Cに示されるエンドエフェクタ602上の複数の追跡マーカー702)の場合、ロボット監視マーカーのような単一マーカー1018のそのような機能は、カメラ200、326がロボット102に対して固定位置にあることが要求されず、Tcrはロボット102の追跡された位置に基づいて各フレームで更新されるので、必要ではない。完全なアレイの代わりに単一マーカー1018を使用する理由は、完全なアレイがよりかさばってじゃまであり、それによって、単一マーカー1018よりも外科医の視界および外科手術領域208へのアクセスが妨げられ、フルアレイに対する視線が、単一マーカー1018に対する視線よりも容易にブロックされるからである。   In the case of a full array permanently attached to the robot 102 (eg, multiple tracking markers 702 on the end effector 602 shown in FIGS. 7A-7C), such functionality of a single marker 1018 such as a robot surveillance marker is Cameras 200, 326 are not required to be at a fixed position relative to robot 102, and Tcr is not necessary because it is updated at each frame based on the tracked position of robot 102. The reason for using a single marker 1018 instead of a full array is that the full array is more bulky, which prevents the surgeon's view and access to the surgical area 208 more than a single marker 1018 Because the line of sight to the full array is more easily blocked than the line of sight to the single marker 1018.

ここで図17A−17Bおよび図18A−18Bを参照すると、固定および可動追跡マーカ804、806の両方を含むインプラントホルダ608B、608Cなどの器具608が示される。インプラントホルダ608B、608Cは、ハンドル620と、ハンドル620から延在する外側シャフト622とを有してもよい。シャフト622は、図示されるように、ハンドル620に対して実質的に垂直に、または任意の他の適切な配向に配置され得る。内側シャフト626は、一方の端部にノブ628を有する外側シャフト622を通って延在することができる。インプラント10、12は、、シャフト622に他方の端部で、当業者に公知である典型的な接続機構を使用して、インプラントホルダ608B、608Cの先端624で接続する。ノブ628は、例えば、インプラント10、12を拡張させまたは関節接合させるために回転させることができる。米国特許第8,709,086号および第8,491,659号は、本明細書で参照により盛込まれるが、拡張可能な融合装置および取り付け方法を記載している。   Referring now to FIGS. 17A-17B and 18A-18B, an instrument 608 such as an implant holder 608B, 608C that includes both fixed and movable tracking markers 804, 806 is shown. The implant holder 608B, 608C may have a handle 620 and an outer shaft 622 extending from the handle 620. The shaft 622 may be disposed substantially perpendicular to the handle 620, as shown, or in any other suitable orientation. The inner shaft 626 can extend through an outer shaft 622 having a knob 628 at one end. The implants 10, 12 are connected at the other end to the shaft 622 at the tip 624 of the implant holder 608B, 608C using a typical connection mechanism known to those skilled in the art. The knob 628 can be rotated, for example, to expand or articulate the implants 10,12. U.S. Patent Nos. 8,709,086 and 8,491,659, which are incorporated herein by reference, describe expandable fusion devices and attachment methods.

インプラントホルダ608B、608Cのようなツール608を追跡するとき、追跡アレイ612は、アレイ612を構成するまたは、そうでなければインプラントホルダ608B、608Cに取り付けられる、固定マーカー804と一つまたは複数の可動マーカー806の組み合わせを含むことができる。ナビゲーションアレイ612は、インプラントホルダ器具608B、608Cに対して既知の位置に配置される少なくとも一つまたは複数(例えば、少なくとも二つ)の固定位置マーカー804を含むことができる。これらの固定マーカー804は、器具の幾何学的形状に対してどの方向にも動くことができず、器具608が空間中でどこにあるかを定義するのに有用である。さらに、少なくとも一つのマーカー806が存在し、これは、固定マーカー804に対して所定の境界内で動くことができる(例えば、摺動、回転など)アレイ612または器具自体に取り付けることができる。システム100、300、600(例えば、ソフトウェア)は、可動マーカー806の位置をインプラント10の特定の位置、配向、または他の属性に関係づける(例えば、図17A〜17Bに示す拡張可能な椎体間スペーサの高さ、図18A〜18Bに示される関節のある椎体間スペーサの角度)。したがって、システムおよび/またはユーザは、可動マーカー806の位置に基づいてインプラント10、12の高さまたは角度を決定することができる。   When tracking tools 608, such as implant holders 608B, 608C, tracking array 612 comprises array 612 or otherwise fixed to implant holders 608B, 608C, with fixed markers 804 and one or more movable A combination of markers 806 can be included. The navigation array 612 can include at least one or more (e.g., at least two) fixed position markers 804 located at known positions relative to the implant holder devices 608B, 608C. These fixed markers 804 can not move in any direction relative to the geometry of the instrument and are useful to define where the instrument 608 is in space. In addition, there is at least one marker 806, which can be attached (eg, slide, rotate, etc.) to the fixed marker 804 and attached to the array 612 or the instrument itself. The system 100, 300, 600 (eg, software) relates the position of the moveable marker 806 to a particular position, orientation, or other attribute of the implant 10 (eg, between the expandable vertebral bodies shown in FIGS. 17A-17B. Spacer height, angle of articulating interbody spacer shown in FIGS. 18A-18B). Thus, the system and / or user can determine the height or angle of the implants 10, 12 based on the position of the moveable marker 806.

図17A〜図17Bに示す実施形態では、四つの固定マーカー804を使用してインプラントホルダ608Bを画定し、第五の可動マーカー806を所定の経路内で摺動させて、インプラント高さ(例えば、収縮位置または拡張位置)にフィードバックを提供することができる。図17Aは、拡張可能なスペーサ10をその初期高さで示しており、図17Bは、可動マーカー806が異なる位置に並進された、拡張状態のスペーサ10を示す。この場合、可動マーカー806は、インプラント10が拡張されたときに固定マーカー804に近づくが、この移動が逆転してもよいし、そうでなければ異なってもよいと考えられる。マーカー806の直線並進の量は、インプラント10の高さに対応する。二つの位置のみが示されるが、これを連続的な機能として有することが可能であり、それにより、任意の所定の拡張高さを可動マーカー806の特定の位置に相関させることができる。   In the embodiment shown in FIGS. 17A-17B, four fixation markers 804 are used to define the implant holder 608B, and the fifth moveable marker 806 is slid within a predetermined path to achieve an implant height (eg, Feedback can be provided at the retracted or expanded position). FIG. 17A shows the expandable spacer 10 at its initial height, and FIG. 17B shows the spacer 10 in the expanded state with the moveable markers 806 translated to different positions. In this case, the moveable marker 806 approaches the fixation marker 804 when the implant 10 is expanded, but it is contemplated that this movement may be reversed or otherwise different. The amount of linear translation of the marker 806 corresponds to the height of the implant 10. Although only two positions are shown, it is possible to have this as a continuous function, so that any predetermined expansion height can be correlated to a particular position of the moveable marker 806.

ここで図18A〜図18Bを参照すると、四つの固定マーカー804がインプラントホルダ608Cを画定するために使用され、第五の可動マーカー806がインプラント関節角度に対してフィードバックを提供するために所定の経路内で摺動するよう構成される。図18Aは、関節のあるスペーサ12をその初期線形状態で示しており、図18Bは、可動マーカー806が異なる位置に移動されたあるオフセット角での関節動作した状態にあるスペーサ12を示す。マーカー806の線形並進量は、インプラント12の関節角度に対応する。二つの位置だけが示されるが、これを連続機能として有することが可能であり、それによって、任意の所与の関節角度が可動マーカー806の特定の位置に相関されることができる。   Referring now to FIGS. 18A-18B, four fixation markers 804 are used to define the implant holder 608C, and a fifth moveable marker 806 is a predetermined path to provide feedback on implant joint angles. It is configured to slide within. FIG. 18A shows the articulated spacer 12 in its initial linear state, and FIG. 18B shows the spacer 12 in an articulated state at an offset angle where the moveable marker 806 has been moved to a different position. The linear translational amount of the marker 806 corresponds to the joint angle of the implant 12. Although only two positions are shown, it is possible to have this as a continuous function, whereby any given joint angle can be correlated to a particular position of the moveable marker 806.

これらの実施形態では、可動マーカー806は、位置に基づいてインプラント10、12の属性に関するフィードバックを提供するために連続的に摺動する。また、インプラント属性に関するさらなる情報を提供することができる可動マーカー806がなければならない周到な位置が存在し得ることも考えられる。この場合、全てのマーカー804、806の周到な構成は、特定の配向または特定の高さにおける、インプラントホルダ608B、608Cおよびインプラント10、12の特定の幾何学的形状と相関する。さらに、可動マーカー806の任意の動きは、任意の他のタイプのナビゲートされるインプラントの他の可変属性に使用することができる。   In these embodiments, the moveable marker 806 slides continuously to provide feedback regarding the attributes of the implant 10, 12 based on position. It is also contemplated that there may be close positions where the moveable marker 806 must be able to provide further information regarding implant attributes. In this case, the careful configuration of all markers 804, 806 correlates with the particular geometry of the implant holders 608B, 608C and the implants 10, 12 at a particular orientation or a particular height. In addition, any movement of the moveable marker 806 can be used for other variable attributes of any other type of navigated implant.

可動マーカー806の線形移動に関して図示および説明されるが、可動マーカー806は、単に摺動に限定されるべきではない。マーカー806の回転または他の動きがインプラント10、12に関する情報を提供するのに有用であり得る用途があり得る。一組の固定マーカー804と可動マーカー806との間の位置の相対的変化は、インプラント10、12または他のデバイスに関する関連情報となり得る。さらに、拡張可能で関節のあるインプラント10、12が例示されるが、器具608は、他の医療機器およびスペーサ、ケージ、プレート、ファスナ、釘、ネジ、ロッド、ピン、ワイヤ構造、縫合糸、アンカークリップ、ステープル、ステント、骨移植片、生物製剤、セメントなどの材料ともに機能することができる。   Although shown and described with respect to linear movement of the moveable marker 806, the moveable marker 806 should not be limited to just sliding. There may be applications where rotation or other movement of the marker 806 may be useful to provide information regarding the implant 10, 12. The relative change in position between the set of fixed markers 804 and the moveable markers 806 can be relevant information regarding the implants 10, 12 or other devices. Further, although expandable and articulated implants 10, 12 are illustrated, the instrument 608 may include other medical devices and spacers, cages, plates, fasteners, nails, screws, rods, pins, wire structures, sutures, anchors Materials such as clips, staples, stents, bone grafts, biologics, cements, etc. can also function.

ここで図19Aを参照すると、ロボットエンドエフェクタ112は、他のタイプのエンドエフェクタ112と交換可能であることが想定される。さらに、各エンドエフェクタ112は、所望の外科施術に基づいて一つまたは複数の機能を実行することができると考えられる。例えば、ガイドチューブ114を有するエンドエフェクタ112は、本明細書で説明されるように器具608を案内するために使用されてもよい。さらに、エンドエフェクタ112は、例えば、外科用デバイス、器具、またはインプラントを制御する、異なるまたは代替のエンドエフェクタ112で置き換えることができる。   Referring now to FIG. 19A, it is envisioned that the robotic end effector 112 is interchangeable with other types of end effectors 112. Further, it is contemplated that each end effector 112 may perform one or more functions based on the desired surgical procedure. For example, end effector 112 having guide tube 114 may be used to guide instrument 608 as described herein. Further, end effector 112 can be replaced, for example, by a different or alternative end effector 112 that controls a surgical device, instrument, or implant.

代替のエンドエフェクタ112は、ロボットに結合され、ロボットによって制御可能な一つまたは複数の装置または器具を含むことができる。非限定的な例として、図19Aに示すエンドエフェクタ112は、レトラクタ(例えば、米国特許第8,992,425号および第8,968,363号に開示される一つまたは複数のレトラクタ)、または以下のような外科用デバイスを挿入または設置するための一つまたは複数の機構を含むことができる。それは、拡張可能な椎間融合装置(米国特許第8,845,734号、第9,510,954号、および第9,456,903号に例示される拡張可能インプラントなど)、スタンドアロンの椎間融合装置(米国特許第9,364,343号および第9,480,579号に例示されるようなインプラントなど)、拡張可能な骨切除装置(米国特許第9,393,128号および第9,173,747号に例示される骨矯正インプラントなど)、関節のあるスペーサ(米国特許第9,259,327号に例示されるインプラントなど)、ファセットプロテーゼ(米国特許第9,539,031号に例示されるデバイスなど)、椎弓形成術装置(米国特許第9,486,253号に例示されたデバイスなど)、棘突起スペーサ(米国特許第9,592,082号に例示されるインプラントなど)、インフレータブル製品、多軸スクリュー、一平面スクリュー、椎弓根スクリュー、ポストスクリューなどを含むファスナ、骨固定プレート、ロッド構築物および変更デバイス(米国特許第8,882,803号に例示されるデバイスなど)、人工および天然ディスク、動作保存装置、インプラント、および脊髄刺激装置(米国特許第9,440,076号に例示される装置など)、ならびに他の外科用デバイスである。エンドエフェクタ112は、骨セメント、骨移植片、生きた細胞、医薬品、または外科手術標的への他の送達物を提供するために、ロボットに直接的または間接的に結合された一つまたは複数の器具を含むことができる。エンドエフェクタ112はまた、椎間板切除術、脊柱後弯形成、椎骨縫合、拡張、または他の外科施術を行うために設計された一つまたは複数の器具を含むことができる。   The alternative end effector 112 may include one or more devices or instruments coupled to the robot and controllable by the robot. As a non-limiting example, the end effector 112 shown in FIG. 19A may be a retractor (eg, one or more retractors disclosed in US Pat. Nos. 8,992,425 and 8,968,363) One or more mechanisms for inserting or placing a surgical device may be included, such as: It may be a stand-alone intervertebral fusion device (such as the expandable implants illustrated in US Pat. Nos. 8,845,734, 9,510,954 and 9,456,903) Fusion devices (such as implants as exemplified in US Patent Nos. 9,364,343 and 9,480,579), expandable bone excision apparatus (US Patent Nos. 9,393,128 and 9, Bone correction implants such as 173, 747), articulating spacers (such as implants illustrated in US 9,259, 327), faceted prostheses (US 9, 539, 031) Devices, etc.), laminoplasty devices (such as the devices illustrated in US Pat. No. 9,486,253), spinous process spacers (US Pat. No. 9, Implants such as 92,082), inflatable products, fasteners including multi-axial screws, single plane screws, pedicle screws, post screws etc., bone fixation plates, rod constructions and modification devices (US Pat. Devices such as 882, 803), artificial and natural disks, motion preservation devices, implants, and spinal cord stimulators (such as devices exemplified in US Pat. No. 9,440, 076), and other surgical applications It is a device. The end effector 112 may be one or more directly or indirectly coupled to a robot to provide bone cement, bone grafts, live cells, pharmaceuticals, or other deliverables to a surgical target. An instrument can be included. End effector 112 may also include one or more instruments designed to perform discectomy, scoliosis, vertebral suture, dilation, or other surgical procedures.

エンドエフェクタそれ自体および/またはインプラント、デバイスまたは器具は、マーカー118の場所および位置が三次元で識別されるように、一つまたは複数のマーカー118を含むことができる。マーカー118は、カメラ200に直接的または間接的に視認可能な、本明細書に記載される能動または受動マーカー118を含むことができると考えられる。したがって、例えば、インプラント10上に配置された一つまたは複数のマーカー118は、インプラント前、インプラント中およびインプラント後のインプラント10の追跡を提供することができる。   The end effector itself and / or the implant, device or instrument can include one or more markers 118 such that the location and position of the markers 118 can be identified in three dimensions. It is contemplated that the markers 118 can include the active or passive markers 118 described herein that are directly or indirectly visible to the camera 200. Thus, for example, one or more markers 118 disposed on the implant 10 can provide tracking of the implant 10 before, during and after the implant.

図19Bに示すように、エンドエフェクタ112は、ロボットアーム104に結合された器具608またはその一部を含むことができ(例えば、器具608は、図9A〜図9Cに示す結合機構によってロボットアーム104に結合され得る)、ロボットシステム100によって制御可能である。したがって、図19Bに示す実施形態では、ロボットシステム100は、インプラント10を患者に挿入し、拡張可能インプラント10を拡張または収縮させることができる。したがって、ロボットシステム100は、外科医を補助するか、または部分的にまたは完全に独立して動作するように構成することができる。したがって、ロボットシステム100は、その特定の機能または外科施術のために各代替エンドエフェクタ112を制御することができることが想定される。   As shown in FIG. 19B, the end effector 112 may include an instrument 608 or a portion thereof coupled to the robotic arm 104 (eg, the instrument 608 may be configured with the robotic arm 104 by the coupling mechanism shown in FIGS. 9A-9C). Can be controlled by the robot system 100). Thus, in the embodiment shown in FIG. 19B, the robotic system 100 can insert the implant 10 into a patient and cause the expandable implant 10 to expand or contract. Thus, the robotic system 100 can be configured to assist the surgeon or to operate partially or completely independently. Thus, it is envisioned that robotic system 100 can control each alternative end effector 112 for its particular function or surgical procedure.

本明細書に記載されるロボットおよび関連するシステムは、背骨用途を参照して一般に説明されるが、ロボットシステムは、他の外科手術への適用において使用されるように構成される。他の外科手術には、外傷の手術または他の整形外科手術(例えば、髄内釘、プレートなどの配置)、頭蓋、神経、心胸郭、血管、結腸直腸、腫瘍学、歯科および他の外科手術および処置が挙げられるが、これらに限定されない。   Although the robots and associated systems described herein are generally described with reference to spinal applications, the robotic system is configured to be used in other surgical applications. Other surgeries include trauma or other orthopedic surgeries (eg, placement of intramedullary nails, plates, etc.), skull, nerves, cardiothoracic, blood vessels, colorectal, oncology, dental and other surgeries And treatments, but is not limited thereto.

次いで、ロボット脊椎(またはその他の)処置中、動的基準ベース(DRB)が患者に(例えば、患者の骨に)固定され、患者の解剖学的構造を追跡するのに使用され得る。患者は呼吸しているため、(患者の身体に取り付けられる)DRBの位置は振動し得る。エンドエフェクタの、固定されたガイドチューブの位置は、こうした振動中は、継続的に標的軌道に整列した状態を保つよう、ロボット制御により、自動で制御され得る。しかしながら、外科用ツールが一旦ガイドチューブ内に導入されると、自動位置制御は安全上の理由により停止し得、ロボットは静的ポーズで、しっかり固定された状態に留まることになる。この後、エンドエフェクタ(例えば、外科用ツール)が手術室に対して所定位置にロックされたままである間は、患者の動作(例えば、呼吸による)は、標的軌道からのずれを引き起こし得る。したがって、このずれ/シフト(未認識、意図しない場合)によって、システムおよび/または外科施術の精度が低減し得る。   Then, during robotic spine (or other) treatment, a dynamic reference base (DRB) can be fixed to the patient (eg, to the patient's bone) and used to track the patient's anatomy. Because the patient is breathing, the position of the DRB (attached to the patient's body) may vibrate. The position of the fixed guide tube of the end effector can be controlled automatically by robot control to keep it continuously aligned with the target trajectory during such vibrations. However, once the surgical tool has been introduced into the guide tube, the automatic position control can be stopped for safety reasons and the robot will remain in a static pose and in a fixed state. After this, while the end effector (e.g., a surgical tool) remains locked in place relative to the operating room, patient movement (e.g., by respiration) can cause a deviation from the target trajectory. Thus, this offset / shift (unrecognized, unintended) may reduce the accuracy of the system and / or surgery.

発明概念のいくつかの実施形態では、患者の動作(例えば、呼吸による)の検出が改善され得るか、および/または、位置決めが改善され得る。例えば、遠隔センサシステムからの情報は、ロボットエンドエフェクタの位置決めに対する呼吸の効果の表示を生成するのに使用され得る。そのようなずれは、実際のエンドエフェクタ軌道と、例えば、脊椎スクリュー(またはその他の医療機器/インプラント/処置)の配置に使用される標的(すなわち、計画)エンドエフェクト軌道との間のずれ(差異)に基づいて監視され得る。患者の呼吸が有意である場合、結果として生じるずれは、標的(計画)軌道からのエンドエフェクタの実際の軌道の距離を変化させ得る。発明概念のいくつかの実施形態では、このずれは、ディスプレイ110上に提供され得る。いくつかの実施形態では、グラフィックメータは、三つの別個のセクションでディスプレイ110上に示され得る。これらのセクションは、緑色、黄色、および赤色で、シフトの程度を表示するよう色づけされてもよい。呼吸が過剰であると見なされる処置では、ユーザ(例えば、外科医)は、エンドエフェクタをより正確に配置しやすくするため、呼吸量を制限するか、または、短期間にわたって患者の呼吸を全体的に停止させることを麻酔医に要求することができる。   In some embodiments of the inventive concept, detection of patient motion (eg, by respiration) may be improved and / or positioning may be improved. For example, information from the remote sensor system can be used to generate an indication of the effects of breathing on the positioning of the robotic end effector. Such offsets are the offsets (differences) between the actual end effector trajectory and the target (ie, planned) end effect trajectory used for placement of, for example, a spinal screw (or other medical device / implant / procedure) Can be monitored on the basis of If patient breathing is significant, the resulting offset may change the distance of the end effector's actual trajectory from the target (plan) trajectory. In some embodiments of the inventive concept, this offset may be provided on the display 110. In some embodiments, the graphic meter may be shown on the display 110 in three separate sections. These sections may be colored to indicate the degree of shift in green, yellow and red. In procedures where respiration is considered to be excessive, the user (eg, a surgeon) may limit the amount of respiration or facilitate overall patient breathing over a short period of time to help position the end effector more accurately. Anesthesiologist can be required to stop.

図20A、20B、および20Cは、ディスプレイ110上にグラフィックメータとして提供され得る呼吸ミータ構造の三つの実施形態を図示する。図20Aでは、ずれの度合いを表示する「針」2001aを有する、丸みを帯びたダイヤル構成を使用したメータが図示され得る。図20Bでは、ずれの度合いを表示する「針」2001bを有する、水平なバー構成を使用したメータが図示され得る。図20Cでは、ずれの度合いを表示する「針」2001cを有する、垂直なバー構成を使用したメータが図示され得る。図20A〜Cの実施形態のいずれかにおいて、「針」は、照射がずれの度合いを表示するのに使用されていれば省略してもよい。例えば、緑色領域(またはその一部分)は、低度のずれを表示するのに(黄色および赤色領域を照らすことなく)照射され得、緑色領域および黄色領域(または黄色領域の一部分)は、中度のずれの度合いを表示するのに(赤色領域を照らすことなく)照射され得、緑色領域、黄色領域、および赤色領域(または赤色領域の一部分)は、高度のずれの度合いを表示するのに照射され得る。さらに、メータは、リアルタイムで変化するずれ(例えば、呼吸による)を動的に表示するのに使用され得る。   20A, 20B, and 20C illustrate three embodiments of a breathing meterer structure that may be provided as a graphic meter on display 110. FIG. In FIG. 20A, a meter using a rounded dial configuration may be illustrated having a "needle" 2001a indicating the degree of deviation. In FIG. 20B, a meter using a horizontal bar configuration can be illustrated with a "needle" 2001b indicating the degree of deviation. In FIG. 20C, a meter using a vertical bar configuration can be illustrated with a “needle” 2001 c indicating the degree of deviation. In any of the embodiments of FIGS. 20A-C, the “needle” may be omitted if the illumination is used to indicate the degree of deviation. For example, the green area (or a portion thereof) can be illuminated (without illuminating the yellow and red areas) to indicate low deviations, the green area and the yellow area (or a portion of the yellow area) being moderate The green area, the yellow area, and the red area (or a portion of the red area) may be illuminated to indicate the degree of misalignment (the red area may not be illuminated). It can be done. In addition, the meter can be used to dynamically display changing deviations (eg, due to respiration) in real time.

さらに、またはあるいは、手術用ロボットシステムは、メータまたはその他の視覚的または聴覚的出力を使用して、計画位置に対するずれによって生成される定常エラーを低減させるため、いつエンドエフェクタの位置を更新すべきかを表示し得る。例えば、DRBは患者に固定されるため、メータは、手術ベッド上の患者の動作の結果として生じる、標的軌道からの定常ずれを反映し得る。この情報をユーザ(例えば、外科医または手術チームのその他のメンバー)に提供することにより、定常ずれを低減させるためにロボットアームをいつ作動させるか(すなわち、フィードバックループを閉じる)、ユーザが選択するのを可能にし得る。   Additionally or alternatively, when the robotic system should update the position of the end effector to reduce steady-state errors generated by deviations from the planned position using a meter or other visual or auditory output Can be displayed. For example, because the DRB is fixed to the patient, the meter may reflect a steady deviation from the target trajectory that results from the patient's motion on the surgical bed. By providing this information to the user (e.g., a surgeon or other member of the surgical team) when the user selects when to activate the robotic arm (i.e., close the feedback loop) to reduce steady-state misalignment. May be possible.

すべての人が同じ方法で、同じ強度で呼吸するわけではないため、実際の軌道と標的軌道との間のずれの大きさは、様々な患者の間で大きく変化し得る。さらに、エンドエフェクタの標的軌道と実際の軌道との間の所望のずれ(最適ずれはゼロと見なされる)は、メータの緑色端部で表示され得、エンドエフェクタの標的軌道と実際の軌道との間の極度のずれは、メータの赤色端部で表示され得る。さらに、所望のずれと極度のずれとの間の差異は、DRBのほんの1〜2ミリメートルの動きから生じ得る。   The magnitude of the deviation between the actual trajectory and the target trajectory can vary widely among different patients, as not everyone will breathe with the same intensity in the same way. Furthermore, the desired deviation between the end effector's target trajectory and the actual trajectory (the optimum deviation is considered to be zero) can be displayed at the green end of the meter, so that the end effector's target trajectory and the actual trajectory Extreme misalignment between can be displayed at the red end of the meter. Furthermore, the difference between the desired and the extreme deviation can result from the movement of only one to two millimeters of the DRB.

したがって、メータは、エンドエフェクタの実際の軌道と標的軌道との間のリアルタイムのずれ(例えば、呼吸による周期的な動作、および/または、患者の身体をずらすといった一回の動作によって起こる)を表示するのに使用され得る。表示されたこうしたずれは、ロボット制御によりエンドエフェクタを標的軌道に移動させ、エンドエフェクタの標的軌道によって画定される正確な標的(計画)位置に定着させることを可能にするための認識をユーザ(例えば、外科医またはその他の手術チームメンバー)に与え得る。DRBを使用して動作を追跡することによって、任意の器具の使用により患者の位置に有意なシフトが起こる場合、メータが変化を表示することになり、したがって、ユーザに再度ロボット制御によりエンドエフェクタを標的軌道に移動させるよう通知し、それによって、そのようないかなるずれも許容範囲内となるまで、実際の軌道と標的軌道との間のずれを低減させる。   Thus, the meter displays the real-time deviation between the end effector's actual trajectory and the target trajectory (e.g., caused by a single cycle of a breathing movement and / or a single movement of the patient's body). Can be used to Such offsets displayed are robotically controlled to move the end effector to the target trajectory and allow the user (e.g., a recognition (e.g., a user) to be able to settle to the correct target (plan) position defined by the end effector's target trajectory). , Or other surgical team members). By tracking the motion using the DRB, if the use of any instrument causes a significant shift in the patient's position, the meter will display a change, and thus the user is again required to robotically control the end effector Informing it to move to the target trajectory, thereby reducing the offset between the actual trajectory and the target trajectory until any such offset is within tolerance.

いくつかの実施形態では、手術用ロボットシステムは、遠隔センサ(例えば、追跡カメラ200)からのフィードバックを使用して、DRBおよびロボットアームエンドエフェクタの位置を決定し得、解剖学的位置に対するDRBの位置が実質的に固定される場合で、DRBに対する患者の特定の解剖学的位置を決定するのに固定オフセットが使用され得る。例えば、DRBが脊椎に固定され、解剖学的位置がスクリューの配置のために脊椎上の位置である場合、解剖学的位置に対するDRBの位置は、固定オフセットが呼吸のすべての段階の間のDRBの位置に基づいて解剖学的位置を決定するのに使用され得るように、実質的に固定され得(脊椎が呼吸のために動くとしても)。   In some embodiments, the surgical robotic system may use feedback from a remote sensor (eg, tracking camera 200) to determine the position of the DRB and the robotic arm end effector, and to adjust the DRB relative to the anatomical position. Where the position is substantially fixed, a fixed offset may be used to determine a particular anatomical position of the patient relative to the DRB. For example, if the DRB is fixed to the spine and the anatomical position is a position on the spine due to the placement of the screw, then the position of the DRB relative to the anatomical position is fixed at the DRB during all stages of respiration. Can be substantially fixed (even if the spine moves for breathing) so that it can be used to determine an anatomic position based on the position of the

その他いくつかの実施形態では、DRBと解剖学的位置との間のオフセットは可変であってもよい。例えば、DRBが脊椎に固定され、解剖学的位置がDRBから離間した軟組織(例えば、肺のような器官)内にある場合、DRBと解剖学的位置との間のオフセットは、呼吸サイクルの様々な段階にわたって変化し得る。そのような事例では、DRBの位置は、標的とされた解剖学的構造を追跡するためだけに使用されることはできない。手術用ロボットシステムは、呼吸サイクルの様々な段階の間のDRBの位置に基づいて標的解剖学的位置の位置を決定するのに使用される可変オフセットを提供するモデリングを使用し得る。   In some other embodiments, the offset between the DRB and the anatomical location may be variable. For example, if the DRB is fixed to the spine and the anatomical location is in soft tissue (e.g., an organ such as the lung) remote from the DRB, the offset between the DRB and the anatomical location may vary between respiratory cycles. Can change over various stages. In such cases, the position of the DRB can not only be used to track the targeted anatomical structure. The robotic robot system may use modeling to provide a variable offset that is used to determine the position of the target anatomical position based on the position of the DRB during various stages of the breathing cycle.

発明概念のいくつかの実施形態では、図20A、20B、および/または20Cのメータ、および/または、エンドエフェクタの標的軌道と実際の軌道との間のずれの決定は、肺または器官の生検またはその他の軟組織の処置といった、呼吸によって影響され得る処置中に、ロボットガイダンスの向上を提供するのに使用され得る。図21Aおよび21Bに示すように、生検対象となる病変の動きが呼吸中にDRBの移動に対して固定されない(すなわち、DRBと病変との間のオフセットが呼吸サイクルを通して可変である)場合、さらに、呼吸の様々な段階におけるDRBの取付位置に対する標的針軌道のオフセットの数学的または実験的予測が役立ち得る。例えば、図21Aに示すような肺が収縮するときのDRBと病変との間のオフセットは、図21Bに示すような肺が膨張するときのDRBと病変との間のオフセットとは異なり得る。そのような予測は、組織のモデリングおよび/または肺の様々な部分が呼吸中に動く場合をモデル化した推定に基づいてもよい。つまり、肺が通常、呼吸の各段階中にどのように機能するかを調べることによって、呼吸サイクル全体における肺の任意の位置の位置を提供する演算モデルが作成され得る。次いで、モデルは、特定の位置に病変を有する特定の患者に適用され得る。代替では、X線またはその他のタイプの画像を撮影しながら、同時に呼吸の段階を記録することによって、病変移動の経路が患者のために実験的に取得され得る。呼吸段階と共に画像を含むデータフレームが編集され得、病変オフセット対段階のルックアップテーブルまたは適した数式が作成され、外科施術中の後に参照されて、エンドエフェクタを位置決めするロボットアームをガイドする。この情報は、DRBの位置の知識が、呼吸の様々な段階にわたる病変の、対応する位置を決定するのに使用され得るように、呼吸の様々な段階において病変に対するDRBのオフセットを決定するのに使用され得る。   In some embodiments of the inventive concept, the determination of the deviation between the target trajectory and the actual trajectory of the meter of Figures 20A, 20B, and / or 20C and / or the end effector is a biopsy of the lung or organ It may be used to provide improved robotic guidance during procedures that may be affected by respiration, such as other soft tissue treatments. As shown in FIGS. 21A and 21B, if the motion of the lesion to be biopsied is not fixed relative to the movement of the DRB during respiration (ie, the offset between the DRB and the lesion is variable throughout the breathing cycle), In addition, mathematical or experimental predictions of the offset of the target needle trajectory relative to the attachment position of the DRB at various stages of respiration may be helpful. For example, the offset between the DRB and the lesion when the lungs contract as shown in FIG. 21A may be different than the offset between the DRB and the lesion when the lungs as shown in FIG. 21B. Such predictions may be based on modeling of the tissue and / or estimations that model when different parts of the lung move during respiration. That is, by examining how the lungs normally function during each phase of respiration, a computational model can be created that provides the location of any position of the lungs throughout the respiratory cycle. The model may then be applied to a particular patient having a lesion at a particular location. Alternatively, the path of lesion movement may be obtained experimentally for the patient by taking x-rays or other types of images while simultaneously recording the stages of breathing. Data frames containing images with respiratory stages may be compiled, and a lesion offset vs. stage look-up table or suitable formula is created and referenced during the surgical procedure to guide the robotic arm positioning the end effector. This information can be used to determine the offset of the DRB relative to the lesion at various stages of respiration, such that knowledge of the location of the DRB can be used to determine the corresponding position of the lesion over different stages of respiration. It can be used.

図21A(肺が収縮した状態)および図21B(肺が膨張した状態)は、DRBたい病変の空間位置における呼吸の効果を示す、軸方向の観点から見た胴部の概略図である。この例では、DRBからの固定オフセットに基づいて病変を追跡することが、病変の位置を正確に追跡するには不十分となり得るよう、DRBが取り付けられる骨の動作の大きさと方向が、肺の病変の移動の大きさと方向とは異なってもよい。肺の病変位置は呼吸の様々な段階の間に直接追跡されることはできないが、DRBの固定点(anchor point)に対する肺の病変の位置はモデル化されるか、そうでなければ決定され得、ロボットガイドチューブ(またはその他のエンドエフェクタ)位置は、その軌道が肺の収縮/膨張の複数の/すべての段階の間の実際の病変の位置と交差するように調整され得る。   FIG. 21A (lung contracted) and FIG. 21B (lung expanded) are schematic views of the torso from an axial perspective showing the effect of respiration at the spatial location of the lesion to be DRB. In this example, tracking the lesion based on a fixed offset from the DRB may not be sufficient to accurately track the location of the lesion so that the size and direction of motion of the bone to which the DRB is attached is that of the lung The size and direction of movement of the lesion may be different. Although the location of lung lesions can not be tracked directly during the various stages of respiration, the location of lung lesions relative to the anchor point of the DRB can be modeled or otherwise determined. The robotic guide tube (or other end effector) position may be adjusted so that its trajectory intersects the actual lesion position during multiple / all stages of lung contraction / inflation.

機能的には、ロボットシステムは基礎座標として直接DRBを追跡し、さらに、可変オフセットのルックアップテーブルまたは数学的モデル(すなわち、位置的オフセット)および呼吸の段階位置に基づいて、軟組織生検のためにガイドチューブの位置を調整し得る。一実施形態では、ロボットシステムは追跡された呼吸に基づいて、継続的および自動的にその位置を調整し得るため、外科医はいつでも、生検針を配備し、正確に病変を標的にできる。別の実施形態では、ロボットは、特定の段階に対応する位置において現状維持し、さらに、生検針が外科医によって手動で配備されるよう適切な位置にあるとき、メータ(例えば、図20A、20B、および/または20Cのメータ)を通ってユーザに表示し得る。外科医はメータを確認し、適宜生検針を配備することになる。別の実施形態では、ロボットシステムは、特定の段階に対応した位置において現状維持し、また、外科医が手動で介入することなく適切な時に自動的に生検針を配備し得る。   Functionally, the robotic system tracks the DRB directly as base coordinates, and also for soft tissue biopsy based on variable offset look-up tables or mathematical models (ie positional offsets) and respiratory staging. The position of the guide tube can be adjusted. In one embodiment, the robot system can adjust its position continuously and automatically based on the tracked respiration so that the surgeon can deploy a biopsy needle at any time to accurately target the lesion. In another embodiment, the robot is maintained at a position corresponding to a particular stage, and when the biopsy needle is in the proper position for manual deployment by the surgeon, a meter (eg, FIGS. 20A, 20B, And / or can be displayed to the user through a 20C meter). The surgeon will check the meter and will deploy a biopsy needle as appropriate. In another embodiment, the robotic system can be kept current at a position corresponding to a particular stage, and automatically deploy a biopsy needle at the appropriate time without manual intervention by the surgeon.

よって、発明概念の実施形態は、補正すべき患者の呼吸レベルをどのくらい制限するか、またはロボットアーム上のエンドエフェクタのDRBおよび/または軌道におけるシフトをどのくらい低減/除去するかを決定する際に、外科医を助けるよう使用され得る。さらに、グラフィックメータは、DRBのシフトを引き起こすエンドエフェクタガイドチューブ内の器具を使用することによる、実際の軌道と標的軌道との間のずれを示すのに使用され得る。さらに、可変オフセットのモデリングは、DRBと解剖学的位置(例えば、病変)との間の位置的オフセットが呼吸の様々な段階にわたって変化する状況では、DRBに対する解剖学的位置の位置をより正確に決定するのに使用され得る。例えば、第一オフセットは、呼吸の第一段階(例えば、収縮)中のDRBの位置に基づいて、解剖学的位置の位置を決定するのに使用され得、第二オフセットは、呼吸の第二段階(例えば、膨張)中のDRBの位置に基づいて、解剖学的位置の位置を決定するのに使用され得る。よってこの情報は、呼吸サイクルにわたってエンドエフェクタを自動的および継続的に位置決め/再位置決めして、移動する解剖学的位置(例えば、病変)に対する標的軌道上にエンドエフェクタを維持し、および/または、解剖学的位置(例えば、病変)に対して標的軌道上に適切に整列するとき、エンドエフェクタから外科用ツールを自動的に配備するよう、手術用ロボットシステムによって使用され得る。   Thus, embodiments of the inventive concept, in determining how to limit the patient's breathing level to be corrected, or how to reduce / eliminate the shift in the DRB and / or trajectory of the end effector on the robotic arm, It can be used to help the surgeon. In addition, a graphic meter can be used to indicate the deviation between the actual trajectory and the target trajectory by using an instrument in the end effector guide tube that causes a shift in the DRB. Furthermore, modeling of variable offsets more accurately locates the anatomical location relative to the DRB in situations where the positional offset between the DRB and the anatomical location (e.g., the lesion) changes over various stages of respiration. It can be used to make decisions. For example, the first offset may be used to determine the position of the anatomical location based on the position of the DRB during the first phase of respiration (e.g., contraction), and the second offset may be used to determine the second position of respiration. It can be used to determine the position of the anatomical position based on the position of the DRB during the phase (eg, dilation). Thus, this information automatically and continuously positions / repositions the end effector over the respiratory cycle to maintain the end effector on the target trajectory relative to the moving anatomical location (eg, a lesion) and / or It can be used by the surgical robotic system to automatically deploy the surgical tool from the end effector when properly aligned on the target trajectory relative to the anatomical location (e.g., a lesion).

図22は、手術用ロボットシステムコントローラの要素(例えば、コンピュータ408内に実装される)を図示するブロック図である。示すように、コントローラは、入力インターフェース回路2201(入力インターフェースとも称される)と、出力インターフェース回路2203(出力インターフェースとも称される)と、制御インターフェース回路2205(制御インターフェースとも称される)と、メモリ回路2209(メモリとも称される)とに結合されるプロセッサ回路2207(プロセッサとも称される)を含み得る。メモリ回路2209は、プロセッサ回路2207によって実行されると、本明細書に開示された実施形態において、プロセッサ回路に動作を実施させるコンピュータ可読プログラムコードを含み得る。その他の実施形態では、プロセッサ回路2207は、別のメモリ回路が必要とされないよう、メモリを含んで画定され得る。   FIG. 22 is a block diagram illustrating elements of a robotic system controller (eg, implemented within computer 408). As shown, the controller includes an input interface circuit 2201 (also referred to as an input interface), an output interface circuit 2203 (also referred to as an output interface), a control interface circuit 2205 (also referred to as a control interface), and a memory. It may include processor circuitry 2207 (also referred to as a processor) coupled to circuitry 2209 (also referred to as memory). Memory circuit 2209 may include computer readable program code that, when executed by processor circuit 2207, causes the processor circuit to perform operations in the embodiments disclosed herein. In other embodiments, processor circuitry 2207 may be defined to include memory such that no additional memory circuitry is required.

本明細書に記載のように、ワイヤレス端子UEの動作は、プロセッサ2207、入力インターフェース2201、出力インターフェース2203、および/または制御インターフェース2205によって実施され得る。例えば、プロセッサ2207は、入力インターフェース2201を通してユーザ入力を受信し得、そうしたユーザ入力は、フットペダル544、タブレット546、等を通して受信されるユーザ入力を含み得る。プロセッサ2207はまた、追跡システム532および/またはカメラ200から入力インターフェース2201を通して受信された位置センサ入力を受信し得る。プロセッサ2207は、出力インターフェース2203を通して出力を提供し得、そのようなアウト(out)は、ディスプレイ304上のグラフィック/視覚的情報および/またはスピーカ536を通して提供されることになる音声出力を表示する情報を含み得る。プロセッサ2207は、制御インターフェース2205を通してモーション制御サブシステム506へロボット制御情報を提供し得、ロボット制御情報は、ロボットアーム104(ロボットアーム(Robotic arm)とも称される)および/またはエンドエフェクタ112の動作を制御するのに使用され得る。   As described herein, the operation of the wireless terminal UE may be performed by the processor 2207, the input interface 2201, the output interface 2203, and / or the control interface 2205. For example, processor 2207 may receive user input through input interface 2201, such user input may include user input received through foot pedal 544, tablet 546, etc. Processor 2207 may also receive position sensor input received from tracking system 532 and / or camera 200 through input interface 2201. The processor 2207 may provide an output through the output interface 2203 and such out is information displaying the graphic / visual information on the display 304 and / or the audio output to be provided through the speaker 536 May be included. Processor 2207 may provide robot control information to motion control subsystem 506 through control interface 2205, which may be robot arm 104 (also referred to as Robotic arm) and / or motion of end effector 112. Can be used to control

手術用ロボットシステムの動作(患者の解剖学的位置に対して手術用エンドエフェクタを位置付けるよう構成されるロボットアームを含む)は、発明概念のいくつかの実施形態において、図23のフローチャートを参照してここで説明される。例えば、モジュールは、図22のメモリ2209に保存され得、これらのモジュールは、モジュールの命令がプロセッサ2207によって実行されると、プロセッサ2207が図23のフローチャートのそれぞれの動作を実施するよう、命令を提供し得る。   Operation of the robotic robot system (including a robotic arm configured to position the surgical end effector relative to the patient's anatomical position) may, in some embodiments of the inventive concept, with reference to the flowchart of FIG. Is described here. For example, the modules may be stored in memory 2209 of FIG. 22 and these modules may cause the processor 2207 to perform the operations of the flowchart of FIG. 23 when the instructions of the module are executed by the processor 2207. Can be provided.

ブロック2301では、プロセッサ2207は、ユーザ入力(例えば、外科医または手術チームのその他のメンバーからの入力)を入力インターフェース2201を通して受信し、患者の解剖学的位置に対して標的軌道まで手術用エンドエフェクタを移動させ得る。標的軌道は、外科施術を実施するのに使用される解剖学的位置に対するエンドエフェクタの位置および/またはアライメントであり得る。さらに、エンドエフェクタ112を位置決めするのに使用されるロボットアーム104のモーションを可能にするには、ユーザからのアクティブ入力が求められるよう、「通常はオフ」であるフットペダル544といった入力装置を介してユーザ入力が提供され得る。フットペダルの例では、例えば、ユーザは、フットペダルを能動的に押下して、ロボットアームおよび/またはエンドエフェクタのモーションを許可するよう求められ得、ロボットアームおよびエンドエフェクタの位置は、フットペダルを能動的に押下していないときはロックされ得る。   At block 2301, the processor 2207 receives user input (eg, input from a surgeon or other member of the surgical team) through the input interface 2201 and moves the surgical end effector to the target trajectory relative to the patient's anatomical position. It can be moved. The target trajectory may be the position and / or alignment of the end effector relative to the anatomic position used to perform the surgical procedure. Furthermore, to enable motion of the robotic arm 104 used to position the end effector 112, an input device such as a "normally off" foot pedal 544 is required to request an active input from the user. User input may be provided. In the foot pedal example, for example, the user may be asked to actively depress the foot pedal to allow motion of the robotic arm and / or end effector, and the positions of the robotic arm and end effector may It can be locked when not actively pressed.

ブロック2303では、プロセッサ2207は、ロボットアーム104から離れた、および、患者から離れたセンサシステム(例えば、カメラシステム200)を使用して生成される位置情報を受信し得る。位置情報は、入力インターフェース2201を通して受信され得る。位置情報は、追跡装置(例えば、基準ベースまたは患者に固定された動的基準ベース(DRB))に関連した位置情報および手術用エンドエフェクタ112に関連した位置情報を含み得る。   At block 2303, the processor 2207 may receive position information generated using a sensor system (eg, camera system 200) remote from the robotic arm 104 and remote from the patient. Location information may be received through input interface 2201. The position information may include position information associated with the tracking device (eg, a reference base or a dynamic reference base (DRB) fixed to the patient) and position information associated with the surgical end effector 112.

ブロック2305では、プロセッサ2207は、ロボットアーム104を制御して(例えば、制御インターフェース2205を通して送信/受信を知らせることを介して)、センサシステムを使用して生成される位置情報に基づいて、患者の解剖学的位置に対する標的軌道へ手術用エンドエフェクタ112を移動させ得る。さらに、プロセッサ2207は、説明されるように、ロボットアームを制御して、手術用エンドエフェクタを移動させるためのユーザ入力を受信することに応答して、手術用エンドエフェクタを標的軌道まで移動させ得る。よって、モーションを許可するユーザ入力が維持される限り、ブロック2303および2305の動作は、エンドエフェクタが標的軌道に位置決めされるまで、ブロック2307を通して手術用エンドエフェクタまで継続し得る。標的軌道に到達する前にモーションを可能にするユーザ入力が止む(例えば、ユーザの足がペダル544から外れる)と、ロボットアームは、標的軌道に到達する前に、ブロック2307および2309においてロックされ得る。   At block 2305, the processor 2207 controls the robotic arm 104 (eg, via signaling transmission / reception through the control interface 2205) to generate the patient's information based on the position information generated using the sensor system. The surgical end effector 112 may be moved to a target trajectory for anatomical position. Further, the processor 2207 may control the robotic arm to move the surgical end effector to the target trajectory in response to receiving user input to move the surgical end effector as described. . Thus, as long as the user input permitting motion is maintained, the operations of blocks 2303 and 2305 may continue through block 2307 to the surgical end effector until the end effector is positioned in the target trajectory. When the user input enabling motion is stopped before reaching the target trajectory (eg, the user's foot disengages from the pedal 544), the robotic arm may be locked at blocks 2307 and 2309 before reaching the target trajectory .

手術用エンドエフェクタが一旦標的軌道に位置決めされると、プロセッサ2207は、入力インターフェース2201を通してユーザ入力を受信して、ブロック2307において手術用エンドエフェクタの位置をロックし得る。そのような入力は、ブロック2307においてモーションを可能にする入力をユーザが止める(例えば、フットペダル544から足を外すことによって)ことに応答し得る。そのような入力に応答して、プロセッサ2207はロボットアームを制御し、ブロック2309において手術用エンドエフェクタの位置をロックし得る(例えば、制御インターフェース2205を通して送信/受信を知らせる制御を介して)。   Once the surgical end effector is positioned in the target trajectory, the processor 2207 may receive user input through the input interface 2201 to lock the position of the surgical end effector at block 2307. Such input may be responsive to the user stopping the input enabling motion at block 2307 (eg, by removing foot from foot pedal 544). In response to such input, processor 2207 may control the robotic arm to lock the position of the surgical end effector at block 2309 (eg, via control to signal transmission / reception through control interface 2205).

手術用エンドエフェクタの位置がロックされる間は、プロセッサ2207は、ロボットアーム104から離れた、および、患者から離れたセンサシステム(例えば、カメラシステム200)を使用して生成される位置情報を受信し続け得る。位置情報は、入力インターフェース2201を通して受信され得る。位置情報は、患者に固定された追跡装置(例えば、DRB)に関する位置情報および手術用エンドエフェクタ112に関する位置情報を含み得る。エンドエフェクタの位置がロックされたブロック2313では、プロセッサ2207は、手術用エンドエフェクの解剖学的位置に対する実際の軌道と、手術用エンドエフェクの解剖学的位置に対する標的軌道との間のずれを決定し得、そのずれは、手術用エンドエフェクタの位置をロックした後、センサシステムを使用して生成される位置決め情報に基づいて決定される。   While the position of the surgical end effector is locked, the processor 2207 receives position information generated using a sensor system (eg, camera system 200) remote from the robotic arm 104 and remote from the patient You can keep doing. Location information may be received through input interface 2201. The position information may include position information regarding the tracking device (e.g., DRB) fixed to the patient and position information regarding the surgical end effector 112. In block 2313 where the position of the end effector is locked, processor 2207 determines the deviation between the actual trajectory for the anatomic position of the surgical end effector and the target trajectory for the anatomic position of the surgical end effector. The offset may be determined based on positioning information generated using the sensor system after locking the position of the surgical end effector.

ブロック2315では、プロセッサ2207は、ずれを表示するユーザ出力を生成し得、そのユーザ出力は、ずれを決定することに応答して生成される。ユーザ出力は、例えば、図20A、20B、および/または20Cに関して上述されたディスプレイ構成を使用して、ディスプレイ304上にグラフィックメータとして表示され得る。さらに、ユーザ出力(例えば、グラフィックメータ)は、手術用エンドエフェクタの位置がブロック2309、2311、2313、および2315においてロックされる間(例えば、手術用エンドエフェクタを移動させるためのさらなる入力がブロック2321において受信されない限り)、変化するずれを反映するよう、動的に更新され得る。   At block 2315, the processor 2207 may generate a user output indicative of the offset, the user output being generated in response to determining the offset. The user output may be displayed as a graphic meter on display 304 using, for example, the display configuration described above with respect to FIGS. 20A, 20B, and / or 20C. In addition, user output (eg, a graphic meter) may be used while the position of the surgical end effector is locked at blocks 2309, 2311, 2313, and 2315 (eg, additional input to move the surgical end effector is at block 2321). Can be dynamically updated to reflect changing deviations).

いくつかの実施形態では、ブロック2313においてずれを決定することは、呼吸サイクルの複数の段階のための追跡装置に対する解剖学的位置の動作のモデルに基づいて、動的にずれを決定することを含み得る。モデルは、呼吸サイクルの第一段階のための標的軌道を決定するのに使用される追跡装置に対する解剖学的位置の第一オフセット(すなわち、位置的オフセット)と、呼吸サイクルの第二段階のための標的軌道を決定するのに使用される追跡装置に対する解剖学的位置の第二オフセット(すなわち、位置的オフセット)とを提供し得る。よって、ユーザ出力を生成することは、リアルタイムの呼吸サイクルの複数の段階のためのオフセットに基づいて、ずれを表示するユーザ出力を動的に生成することを含み得る。例えば、ベローズベルトは、プロセッサ2207が患者の呼吸の段階(例えば、肺の膨張または肺の収縮)を決定するのを可能にする入力インターフェース2201を通して入力を提供し得る。ベローズベルトの使用は、例えば、米国特許第9,782,229号に記載され、その開示全体が参照により本明細書に組み込まれる。   In some embodiments, determining the deviation at block 2313 dynamically determines the deviation based on a model of movement of the anatomic position relative to the tracking device for multiple phases of the breathing cycle. May be included. The model is based on a first offset (ie, positional offset) of the anatomic position relative to the tracking device used to determine the target trajectory for the first phase of the respiratory cycle and a second phase of the respiratory cycle A second offset (ie, positional offset) of the anatomical position relative to the tracking device used to determine the target trajectory of the Thus, generating the user output may include dynamically generating a user output that displays the deviation based on the offsets for the multiple phases of the real-time breathing cycle. For example, the bellows belt may provide input through input interface 2201 that enables processor 2207 to determine the patient's breathing phase (eg, lung inflation or lung contraction). The use of bellows belts is described, for example, in US Pat. No. 9,782,229, the entire disclosure of which is incorporated herein by reference.

この呼吸段階情報に基づいて、プロセッサ2207は、第一オフセットを使用して第一呼吸段階(例えば、肺の膨張)中の第一時点での解剖学的位置の位置を決定し得、プロセッサ2207は、第二オフセットを使用して第二呼吸段階(例えば、肺の収縮)中の第二時点での解剖学的位置の位置を決定し得る。よって、プロセッサ2207は、ブロック2313において、第一オフセットを使用して決定される標的軌道に基づいて第一時点での第一ずれを生成し得、プロセッサ2207は、ブロック2313において、第二オフセットを使用して決定される標的軌道に基づいて第二時点での第二ずれを生成し得、プロセッサ2207は、リアルタイムでの第一および第二ずれに対応する、対応するユーザ出力を生成し得る。   Based on this respiratory stage information, processor 2207 may use the first offset to determine the location of the anatomical location at a first point in time during the first respiratory phase (eg, inflation of the lungs), processor 2207 The second offset may be used to determine the position of the anatomical location at a second point in time during a second breathing phase (eg, contraction of the lungs). Thus, processor 2207 may generate a first offset at a first point in time based on the target trajectory determined at block 2313 using the first offset, and processor 2207 may generate a second offset at block 2313. The second offset at the second time may be generated based on the target trajectory determined using, and the processor 2207 may generate corresponding user output corresponding to the first and second offsets in real time.

エンドエフェクタが所定位置にロックされる間は、プロセッサ2207は、ブロック2317において、ずれが閾値を超えるかどうかを決定し得る。ブロック2317における閾値を超えるずれに応答して、プロセッサ2207は、手術用エンドエフェクタの位置がロックされる間は、超過したずれの通知を提供するユーザ出力を生成し得る。そのような通知は、スピーカ536を使用した可聴出力/警告として、または、ディスプレイ304を使用した視覚的出力/警告として、出力インターフェース2203を通して供給され得る。閾値を超えたそのようなずれは、例えば、患者が動くか、または、手術台で動かされる場合、生じ得る。そのような警告に応答して、またはその他の理由のため、ユーザは、ブロック2321において手術用エンドエフェクタを移動させる入力を提供することによって(例えば、フットペダル544を押下することによって)、手術用エンドエフェクタを再位置決めするよう決定し得る。ブロック2321において入力インターフェース2201を通してそのようなユーザ入力を受信することに応答して、および、ブロック2303において入力インターフェースを通して位置情報を受信することに応答して、プロセッサ2207は、センサシステムを使用して生成される第二位置情報および追跡装置の第二位置に基づいて、ブロック2305においてロボットアームを制御し、手術用エンドエフェクタを患者の解剖学的位置に対する標的軌道に移動させ得る。   While the end effector is locked in place, the processor 2207 may determine at block 2317 whether the deviation exceeds a threshold. In response to the deviation exceeding the threshold at block 2317, the processor 2207 may generate a user output providing notification of the excess deviation while the position of the surgical end effector is locked. Such notification may be provided through output interface 2203 as an audible output / alert using speaker 536 or as a visual output / alert using display 304. Such deviations above the threshold may occur, for example, if the patient moves or is moved on the operating table. In response to such an alert, or for other reasons, the user can use the block 2321 to provide input for moving the surgical end effector (eg, by depressing the foot pedal 544) It may be decided to reposition the end effector. In response to receiving such user input through input interface 2201 in block 2321 and in response to receiving location information through the input interface in block 2303, processor 2207 uses the sensor system Based on the generated second position information and the second position of the tracking device, the robotic arm may be controlled at block 2305 to move the surgical end effector to a target trajectory relative to the patient's anatomical position.

図23のいくつかの実施形態では、手術用エンドエフェクタは、ガイドチューブを通して手動で挿入される外科用器具の配置をガイドするよう構成されるガイドを含み得る。一旦手術用エンドエフェクタがロックされ、ユーザが配置に満足したら、ユーザは、ガイドを通して外科用器具を挿入し、医療処置を行い得る。ユーザは、例えば、処置を実行する前にエンドエフェクタが適切に配置されていることを決定するためにグラフィックメータを使用し得る。   In some embodiments of FIG. 23, the surgical end effector may include a guide configured to guide the placement of the surgical instrument manually inserted through the guide tube. Once the surgical end effector is locked and the user is satisfied with the placement, the user can insert a surgical instrument through the guide and perform a medical procedure. The user may, for example, use the graphic meter to determine that the end effector is properly positioned prior to performing the procedure.

その他いくつかの実施形態では、プロセッサ2207は、センサシステムを使用して生成される位置決め情報に基づいて、手術用エンドエフェクタの実際の軌道と手術用エンドエフェクタの標的軌道との間のずれのパターンを決定し得る。そのようなずれのパターンは、例えば、手術用エンドエフェクタが所定の位置にロックされる間は、解剖学的位置および追跡装置を移動させる呼吸によって生じ得る。さらに、エンドエフェクタは外科用器具(例えば、生検針)であってもよく、プロセッサ2207は、ずれのパターン(エンドエフェクタが位置にロックされる間)に基づいて、エンドエフェクタを制御して外科用器具を自動的に配備し、患者の解剖学的位置との物理的な接触を行い得る。言い換えれば、プロセッサ2207は、ロックされたエンドエフェクタの外科用器具と整列するよう解剖学的位置を配置する、解剖学的位置の移動と一致するよう、配備のタイミングを選択し得る。   In some other embodiments, the processor 2207 may use a pattern of deviations between the actual trajectory of the surgical end effector and the target trajectory of the surgical end effector based on positioning information generated using the sensor system. Can be determined. Such a pattern of misalignment may occur, for example, by breathing the anatomical position and tracking device while the surgical end effector is locked in place. Further, the end effector may be a surgical instrument (eg, a biopsy needle) and the processor 2207 controls the end effector to surgically operate based on the offset pattern (while the end effector is locked in position). The device can be deployed automatically to make physical contact with the patient's anatomical location. In other words, the processor 2207 may select the timing of deployment to coincide with the movement of the anatomical position, placing the anatomical position to align with the surgical instrument of the locked end effector.

手術用ロボットシステムの動作(患者の解剖学的位置に対して手術用エンドエフェクタを位置付けるよう構成されるロボットアームを含む)は、発明概念のいくつかの実施形態において、図24のフローチャートを参照してここで説明される。上述のように、モジュールは図22のメモリ2209に保存され得、これらのモジュールはモジュールの命令がプロセッサ2207によって実行されると、プロセッサ2207が図23のフローチャートのそれぞれの動作を実施するよう、命令を提供し得る。   Operation of the robotic robotic system (including a robotic arm configured to position the surgical end effector relative to the patient's anatomical position) may, in some embodiments of the inventive concept, refer to the flowchart of FIG. Is described here. As mentioned above, the modules may be stored in memory 2209 of FIG. 22 and these modules are instructions such that when the instructions of the module are executed by processor 2207, processor 2207 performs the operations of the flowchart of FIG. Can be provided.

ブロック2401において、プロセッサ2207は、患者の呼吸サイクルの複数の段階のための追跡装置に対する解剖学的位置の移動のモデルへのアクセスを提供し得る。モデルは、複数のオフセットのそれぞれ一つが、呼吸サイクルの複数の段階のそれぞれ一つに関連付けられるよう、追跡装置に対する解剖学的位置の複数のオフセットを提供し得る。例えば、モデルは追跡装置に対する解剖学的位置の第一オフセットを提供し得、その第一オフセットが呼吸サイクルの第一段階(例えば、図21Aに示すように肺が収縮した)の標的軌道を決定されるのに使用され、モデルは、追跡装置に対する解剖学的位置の第二オフセットを含み得、第二オフセットが呼吸サイクルの第二段階(例えば、図21Bに示すように肺が膨張した)の標的軌道を決定されるのに使用される。さらに、それぞれのオフセットは、例えば、完全に膨張している、完全に収縮している、一部膨張/収縮している、等を含む、呼吸サイクルの任意の数の段階に対して提供されてもよい。   At block 2401, the processor 2207 may provide access to a model of movement of an anatomical position relative to a tracking device for multiple stages of a patient's respiratory cycle. The model may provide multiple offsets of anatomical position relative to the tracking device such that each one of the plurality of offsets is associated with each one of the multiple phases of the breathing cycle. For example, the model may provide a first offset of anatomical position relative to the tracking device, which first offset determines the target trajectory of the first phase of the breathing cycle (e.g., lungs contracted as shown in FIG. 21A). The model may include a second offset of the anatomical position relative to the tracking device, the second offset being a second phase of the breathing cycle (e.g., lungs dilated as shown in FIG. 21B). Used to determine the target trajectory. In addition, each offset is provided for any number of stages of the breathing cycle, including, for example, fully inflated, fully contracted, partially inflated / contracted, etc. It is also good.

モデルは、コントローラメモリ2209において提供されるか、または、メモリおよび/またはコントローラの外部のデータベースからアクセスされ得る。モデルは、呼吸の段階およびそれぞれのオフセットのルックアップテーブルを使用して提供され得るか、または、モデルは、呼吸の段階とそれぞれのオフセットとの間の数学的関係として提供され得る。モデルは、処置前に、呼吸段階を検出するためのベローズべルトを使用する間は、呼吸サイクルの様々な段階において解剖学的な医療画像を撮影することによって作成され得る。次に、医療画像は、それぞれの呼吸の段階の、様々なオフセットを決定するのに使用され得る。   The model may be provided in controller memory 2209 or may be accessed from a memory and / or a database external to the controller. The model may be provided using a look-up table of respiratory stages and respective offsets, or the model may be provided as a mathematical relationship between respiratory stages and respective offsets. The model may be created by taking anatomical medical images at various stages of the respiratory cycle while using a bellows belt to detect the respiratory stage prior to treatment. The medical image may then be used to determine various offsets of each breathing stage.

ブロック2405、2407、2409、および2411において、プロセッサ2207は、位置情報を受信し、呼吸段階を検出し、処置がブロック2411において完了するまで、ロボットアームを制御して標的軌道を維持する動作を実施し得る。   At blocks 2405, 2407, 2409, and 2411, processor 2207 receives position information, detects a respiration phase, and performs actions to control the robotic arm to maintain a target trajectory until treatment is complete at block 2411. It can.

ブロック2405において、プロセッサ2207は、ロボットアームから離れた、および、患者から離れたセンサシステムを使用して生成される位置情報を受信し得、位置情報は、追跡装置が患者の呼吸により移動するとき、患者に固定された追跡装置の位置および手術用エンドエフェクタの位置に関する情報を含み得る。   At block 2405, the processor 2207 may receive position information generated using the sensor system away from the robotic arm and away from the patient, and the location information may be used as the tracking device moves with the patient's breath. And information regarding the position of the tracking device fixed to the patient and the position of the surgical end effector.

ブロック2407において、プロセッサ2207は、追跡装置が患者の呼吸により移動するとき、呼吸サイクルの複数の段階を検出し得る。プロセッサ2207は、例えば、ベローズベルトから受信した情報に基づいて、呼吸の段階を検出し得る。   At block 2407, the processor 2207 may detect multiple stages of the breathing cycle as the tracking device moves with the patient's breath. Processor 2207 may detect a stage of breathing based on, for example, information received from a bellows belt.

ブロック2409において、プロセッサ2209は、追跡装置が患者の呼吸によって移動するとき、ロボットアームを制御して、患者の解剖学的位置に対する標的軌道に手術用エンドエフェクタを維持し得る。制御することは、位置情報を受信すること、複数の段階を検出すること、および、患者の呼吸によって追跡装置が移動するとき、複数のオフセットを使用して解剖学的位置の位置を決定すること、に基づき得る。   At block 2409, the processor 2209 may control the robotic arm to maintain the surgical end effector in a target trajectory relative to the patient's anatomical location as the tracking device moves with patient respiration. Controlling receiving positional information, detecting multiple steps, and using multiple offsets to determine the location of the anatomical location when the tracking device is moved by the patient's breathing , Based on.

一例として、第一位置情報は、ブロック2405において受信され得、第一呼吸段階は、ブロック2407において検出され得る。第一位置情報および第一呼吸段階を検出することに応答して、プロセッサ2207は、センサシステムを使用して生成される第一位置情報に基づいて、および、呼吸サイクルの第一段階を検出することに応答して追跡装置の第一位置から解剖学的位置の第一位置を決定するための第一オフセットを使用することに基づいて、ブロック2409においてロボットアームを制御して、患者の解剖学的位置に対する標的軌道に手術用エンドエフェクタを維持し得る。   As an example, first position information may be received at block 2405 and a first respiration phase may be detected at block 2407. In response to detecting the first position information and the first breathing stage, the processor 2207 detects the first stage of the breathing cycle based on the first position information generated using the sensor system Controlling the robotic arm at block 2409 based on using the first offset to determine the first position of the anatomical position from the first position of the tracking device in response to the patient's anatomy The surgical end effector can be maintained in the target trajectory relative to the target position.

処置がブロック2411において継続されている場合、第二位置情報はブロック2405において受信され得、第二呼吸段階はブロック2407において検出され得る。第二位置情報および第二呼吸段階を検出することに応答して、プロセッサ2207は、センサシステムを使用して生成される第二位置情報に基づいて、および、呼吸サイクルの第二段階を検出することに応答して追跡装置の第二位置から解剖学的位置の第二位置を決定するための第二オフセットを使用することに基づいて、ブロック2409においてロボットアームを制御して、患者の解剖学的位置に対する標的軌道に手術用エンドエフェクタを維持し得る。   If treatment is being continued at block 2411, second position information may be received at block 2405 and a second breathing phase may be detected at block 2407. In response to detecting the second position information and the second breathing phase, the processor 2207 detects the second phase of the breathing cycle based on the second position information generated using the sensor system Controlling the robotic arm at block 2409 based on using the second offset to determine the second position of the anatomical position from the second position of the tracking device in response to the patient's anatomy The surgical end effector can be maintained in the target trajectory relative to the target position.

ブロック2405、2407、2409、および2411において、エンドエフェクタを標的軌道に維持する間は、医療処置は手動または自動で完了され得る。いくつかの実施形態によると、エンドエフェクタは、処置を完了させるのに必要とされる期間にわたって医療器具をさらに正確に配置しやすくするよう、ガイドが継続的および自動的に標的軌道に維持される間は、ユーザ(例えば、外科医)は、ガイドを通して医療器具を手動で挿入できるよう、ガイドであってもよい。その他いくつかの実施形態において、エンドエフェクタが標的軌道に維持される間は、エンドエフェクタはロボットシステムによって自動的に配備され得る医療器具(例えば、生検針)を含み得る。   At blocks 2405, 2407, 2409, and 2411, the medical procedure may be completed manually or automatically while maintaining the end effector in the target trajectory. According to some embodiments, the end effector continuously and automatically maintains the guide in the target trajectory to facilitate more accurate placement of the medical device over the period required to complete the procedure. In the meantime, the user (e.g., a surgeon) may be a guide so that the medical instrument can be manually inserted through the guide. In other embodiments, the end effector may include a medical instrument (eg, a biopsy needle) that may be automatically deployed by the robotic system while the end effector is maintained in the target trajectory.

本発明の概念の様々な実施形態の上記の説明において、本明細書で使用される用語は、特定の実施形態を説明する目的のみのものであり、本発明の概念を限定するものではないことを理解されたい。他に定義されない限り、本明細書で使用される全ての用語(技術用語および科学用語を含む)は、本発明の概念が属する当業者によって一般に理解されるのと同じ意味を有する。一般的に使用される辞書に定義されているもののような用語は、明細書および関連技術の文脈における意味と一致する意味と有すると解釈されるべきであり、本明細書において明確に定義されていない限り、理想的または過度に形式的に解釈されるうべきではないことも理解されよう。   In the above description of various embodiments of the inventive concept, the terms used herein are for the purpose of describing the specific embodiments only, and are not intended to limit the inventive concept. I want you to understand. Unless otherwise defined, all terms (including technical and scientific terms) used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this inventive concept belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having meanings consistent with the meanings in the specification and the context of the relevant art, and are clearly defined in the present specification. It will also be appreciated that unless it is to be interpreted as ideal or overly formal.

ある要素が、別の要素に「接続されている(connected)」、「結合されている(coupled)」「応答している(responsive)」、またはその変形として称される場合、別の要素の直接接続され、結合され、または、応答してもよく、あるいは、介在要素が存在してもよい。対照的に、ある要素が別の要素に「直接接続されている(directly connected)」、「直接結合されている(directly coupled)」、「直接応答している(directly responsive)」、またはその変形として称される場合、介在要素は存在しない。同一番号は、全体を通して同一要素を指す。さらには、本明細書で使用されるように、「結合された(coupled)」、「接続された(connected)」、「応答した(responsive)」、またはその変形は、無線で結合され、接続され、または応答しすることを含み得る。本明細書で使用されているように、単数形「一つの(a、an)」および「その(the)」は、文脈が明らかにそうでないことを示さない限りは、複数形も含むものとする。周知の機能または構成は、簡潔さおよび/または明瞭さのために、詳細に説明され得ない。用語「および/または(and/or)」は、関連して列挙した項目の一つまたは複数の組み合わせのいずれかおよびすべてを含む。   When one element is referred to as "connected", "coupled", "responsive" to another element, or as a variant thereof, It may be directly connected, coupled or responsive, or there may be intervening elements. In contrast, an element is “directly connected”, “directly coupled”, “directly responsive”, or a variation of “directly connected” to another element. When referred to as, there are no intervening elements. The same numbers refer to the same elements throughout. Furthermore, as used herein, “coupled,” “connected,” “responsive,” or a variant thereof is wirelessly coupled and connected. Or include responding. As used herein, the singular forms "a, an" and "the" are intended to include the plural as well, unless the context clearly indicates otherwise. Well-known functions or configurations may not be described in detail for brevity and / or clarity. The term "and / or" includes any and all combinations of one or more of the associated listed items.

用語第一、第二、第三等が様々な要素/動作を説明するために本明細書において使用され得るが、これらの要素/動作はこれらの用語に限定されるべきではないことが理解されよう。これらの用語は、ある要素/動作を別の要素/動作から区別するためにのみ使用される。よって、いくつかの実施形態における第一要素/動作は、本発明概念の教示から逸脱することなく、他の実施形態において第二の要素/動作と称されてもよい。同一参照番号または同一参照指定子は、明細書全体を通して、同一または類似の要素を示す。   Although the terms first, second, third, etc. may be used herein to describe various elements / actions, it is understood that these elements / actions should not be limited to these terms You see. These terms are only used to distinguish one element / action from another. Thus, a first element / operation in some embodiments may be referred to as a second element / operation in other embodiments without departing from the teachings of the inventive concept. The same reference numbers or the same reference designators indicate the same or similar elements throughout the specification.

本明細書中で使用される場合、用語「含む(comprise)」、「含む(comprising)」、「含む(comprises)」、「含む(include)」、「含む(including)」、「含む(includes)」、「有する(have)」、「有する(has)」、「有する(having)」またはそれらの変形は、オープンエンドであり、一つまたは複数の述べられた特徴、整数、要素、ステップ、構成要素、機能を含むが、一つまたは複数の他の特徴、整数、要素、ステップ、構成要素、機能またはそれらのグループの存在または追加を排除するものではない。さらに、本明細書で使用されるように、ラテン語の句「例示的なグラシア」に由来する一般的な略語「e.g.」は、前述のアイテムの一般的な例を導入または特定するために使用されてもよく、そのような項目を限定することを意図しない。ラテン語句「id est」に由来する一般的な略語「i.e.」を使用し、より一般的な暗唱から特定の項目を指定することができる。   As used herein, the terms "comprise", "comprising", "comprises", "include", "including", "includes" ), “Have”, “has”, “having” or variants thereof are open ended and one or more of the stated features, integers, elements, steps, It does not exclude the presence or addition of components, functions, but one or more other features, integers, elements, steps, components, functions or groups thereof. Furthermore, as used herein, the generic abbreviation "eg" derived from the Latin phrase "exemplary Gracia" is intended to introduce or identify a generic example of the aforementioned item. May not be used to limit such items. Specific items can be specified from the more general recitation, using the general abbreviation "i.e." derived from the Latin phrase "id est".

例示的な実施形態は、本明細書において、コンピュータ実装方法、装置(システムおよび/または装置)および/またはコンピュータプログラム製品のブロック図および/またはフローチャート図を参照して説明される。ブロック図および/またはフローチャート図のブロック、およびブロック図および/またはフローチャート図のブロックの組み合わせは、一つまたは複数のコンピュータ回路によって実行されるコンピュータプログラム命令によって実装できることが理解される。これらのコンピュータプログラム命令は、汎用コンピュータ回路、専用コンピュータ回路、および/または他のプログラム可能データ処理回路のプロセッサ回路に供給され、コンピュータおよび/または他のプログラム可能なデータ処理装置のプロセッサを介して実行されるこれらの命令が、トランジスタ、メモリ位置に格納された値、およびブロック図および/またはフローチャートブロックまたはブロックに指定された機能/動作を実現するための回路内の他のハードウェア構成要素を変換し、制御し、故に、ブロック図および/またはフローチャートブロックまたはブロックに指定された機能/動作を実現するための手段(機能)および/または構造を作成することができる。   The exemplary embodiments are described herein with reference to block diagrams and / or flowchart illustrations of computer-implemented methods, apparatus (systems and / or apparatus) and / or computer program products. It will be understood that the blocks of the block diagrams and / or flowchart illustrations, and combinations of blocks of the block diagrams and / or flowchart illustrations can be implemented by computer program instructions executed by one or more computer circuits. These computer program instructions are provided to processor circuitry of general purpose computer circuitry, special purpose computer circuitry, and / or other programmable data processing circuitry, for execution through a computer and / or other programmable data processing device processor These instructions translate the transistor, the value stored in the memory location, and other hardware components in the circuit to realize the function / operation specified in the block diagram and / or the block and / or block block. It is possible to create means (functions) and / or structures for implementing the functions / operations specified in the block diagram and / or the flowchart block or block, thus controlling and / or controlling.

これらのコンピュータプログラム命令はまた、コンピュータまたは他のプログラム可能なデータ処理装置に特定のやり方で機能するよう指示する有形のコンピュータ可読媒体に格納することができ、コンピュータ可読媒体に格納されたこれらの命令は、ブロック図および/またはフローチャートブロックまたはブロックで指定された機能/動作を実装する命令を含む製造品を生成することができる。したがって、本発明の概念の実施形態は、「回路」、「モジュール」またはその変形と総称することができる、デジタル信号プロセッサなどのプロセッサ上で動作するハードウェアおよび/またはソフトウェア(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)で実施することができる。   These computer program instructions may also be stored on a tangible computer readable medium instructing the computer or other programmable data processing device to function in a particular manner, and those instructions stored on the computer readable medium May produce an article of manufacture containing instructions that implement the functions / acts specified in the block diagrams and / or flowchart blocks or blocks. Thus, embodiments of the inventive concept may be collectively referred to as “circuits”, “modules” or variants thereof hardware and / or software (firmware, resident software, etc.) running on a processor such as a digital signal processor (Including microcode etc.).

また、いくつかの代替実施例では、ブロックに記されている機能/動作が、フローチャートに記載された順序から外れてもよいことにも留意されたい。例えば、連続して示された二つのブロックは、実際には実質的に同時に実行されてもよく、あるいは、関連する機能/動作に応じてブロックが時々逆の順序で実行されてもよい。さらに、フローチャートおよび/またはブロック図の所与のブロックの機能性は、複数のブロックに分離されてもよく、および/またはフローチャートおよび/またはブロック図の二つ以上のブロックの機能性が少なくとも部分的に統合されてもよい。最後に、図示されたブロック間に他のブロックが追加/挿入されてもよく、および/またはブロック/動作が本発明の概念の範囲から逸脱することなく省略されてもよい。さらに、図のいくつかは、通信の主要な方向を示すために通信経路上に矢印を含むが、図示された矢印とは反対の方向に通信が行われてもよいことを理解されたい。   It should also be noted that in some alternative implementations, the functions / acts noted in the blocks may occur out of the order noted in the flowcharts. For example, two blocks shown in succession may in fact be executed substantially simultaneously, or the blocks may sometimes be executed in the reverse order, depending on the function / operation involved. Further, the functionality of a given block of the flowchart and / or block diagram may be separated into multiple blocks, and / or the functionality of two or more blocks of the flowchart and / or block diagram is at least partially May be integrated into the Finally, other blocks may be added / inserted between the illustrated blocks and / or blocks / operations may be omitted without departing from the scope of the inventive concept. Furthermore, although some of the figures include arrows on the communication path to indicate the main direction of communication, it should be understood that communication may occur in the opposite direction to the illustrated arrows.

本発明の概念のいくつかの実施形態が前述の明細書に開示されているが、本発明の概念の多くの変更および他の実施形態が、発明の概念に関係することが想定され、前述の説明および関連する図面に提示された教示の利益を享受する。したがって、本発明の概念は、上に開示された特定の実施形態に限定されず、多くの修正および他の実施形態が添付の特許請求の範囲内に含まれることが意図されることが理解される。一実施形態の特徴は、本明細書に記載された異なる実施形態の特徴と組み合わせることができ、または使用することがさらに想定される。さらに、特定の用語が、本明細書および以下の特許請求の範囲で用いられているが、それらは包括的で説明的な意味でのみ使用され、記載された発明概念または以下の特許請求の範囲を限定する目的で使用されるものではない。本明細書に引用された各特許および特許公報の開示全体は、あたかもそのような各特許または特許公報が参照により個々に本明細書に組み込まれているかのように、その全体が参照により本明細書に組み込まれる。本発明の概念の様々な特徴および/または潜在的な利点は、添付の特許請求の範囲に記載されている。   While several embodiments of the inventive concept are disclosed in the foregoing specification, it is envisioned that many variations of the inventive concept and other embodiments pertain to the inventive concept, as described above. It benefits from the teachings presented in the description and the associated drawings. Thus, it is understood that the inventive concepts are not limited to the specific embodiments disclosed above, but that many modifications and other embodiments are intended to be included within the scope of the appended claims. Ru. It is further envisioned that features of one embodiment may be combined or used with features of the different embodiments described herein. Furthermore, although specific terms are employed herein and in the following claims, they are used in a generic and descriptive sense only and the inventive concepts described or the following claims. It is not used for the purpose of limiting. The entire disclosure of each patent and patent publication cited herein is hereby incorporated by reference in its entirety as if such each patent or patent publication was individually incorporated herein by reference. Incorporated into the book. Various features and / or potential advantages of the inventive concept are set out in the accompanying claims.

Claims (20)

患者の解剖学的位置に対して手術用エンドエフェクタを位置付けるよう構成されるロボットアームを含む手術用ロボットシステムを操作する方法であって、
前記ロボットアームから離れた、および、前記患者から離れたセンサシステムを使用して生成される位置情報を受信することであって、前記位置情報が、前記患者に固定された追跡装置に関する位置情報と前記手術用エンドエフェクタに関する位置情報とを含む、受信することと、
前記センサシステムを使用して生成される前記位置情報に基づいて、前記手術用エンドエフェクタを前記患者の前記解剖学的位置に対する標的軌道に移動させるよう前記ロボットアームを制御することと、
前記ロボットアームを制御して前記患者の前記解剖学的位置に対する前記標的軌道に移動させた後、前記手術用エンドエフェクタの位置をロックするよう、前記ロボットアームを制御することと、
前記手術用エンドエフェクタの位置がロックされている間は、前記手術用エンドエフェクタの、前記解剖学的位置に対する実際の軌道と、前記手術用エンドエフェクタの、前記解剖学的位置に対する標的軌道との間のずれを決定することであって、前記ずれが、前記手術用エンドエフェクタの前記位置をロックした後、前記センサシステムを使用して生成される前記位置決め情報に基づいて決定される、決定することと、
前記ずれを表示するユーザ出力を生成することであって、前記ユーザ出力が前記ずれを決定することに応答して生成される、生成することと、を含む方法。
A method of operating a surgical robotic system including a robotic arm configured to position a surgical end effector with respect to an anatomical position of a patient, comprising:
Receiving position information generated using a sensor system remote from the robot arm and from the patient, the position information being relative to a tracking device fixed to the patient Receiving, including positional information regarding the surgical end effector;
Controlling the robotic arm to move the surgical end effector to a target trajectory relative to the anatomical position of the patient based on the position information generated using the sensor system;
Controlling the robotic arm to lock the position of the surgical end effector after controlling the robotic arm to move to the target trajectory relative to the anatomical position of the patient;
While the position of the surgical end effector is locked, the actual trajectory of the surgical end effector with respect to the anatomical position and the target trajectory of the surgical end effector with respect to the anatomical position Determining an offset between them, wherein the offset is determined based on the positioning information generated using the sensor system after locking the position of the surgical end effector And
Generating a user output indicative of the deviation, wherein the user output is generated in response to determining the deviation.
前記手術用エンドエフェクタを前記患者の前記解剖学的位置に対する前記標的軌道に移動させるユーザ入力を受信することをさらに含む方法であって、
前記手術用エンドエフェクタを前記標的軌道に移動させるよう前記ロボットアームを制御することが、前記手術用エンドエフェクタを移動させる前記ユーザ入力を受信することに応答して、前記手術用エンドエフェクタを前記標的軌道に移動させるよう前記ロボットアームを制御することを含む、請求項1に記載の方法。
Receiving the user input to move the surgical end effector to the target trajectory relative to the anatomical location of the patient;
Controlling the robotic arm to move the surgical end effector to the target trajectory is responsive to receiving the user input to move the surgical end effector to the target The method of claim 1, comprising controlling the robotic arm to move to a trajectory.
前記ユーザ入力が第一ユーザ入力を含む方法であって、
前記標的軌道に移動させるよう前記ロボットアームを制御した後、前記手術用エンドエフェクタの前記位置をロックする第二ユーザ入力を受信することであって、
前記手術用エンドエフェクタの前記位置をロックするよう前記ロボットアームを制御することが、前記手術用エンドエフェクタの前記位置をロックする前記第二ユーザ入力を受信することに応答して、前記手術用エンドエフェクタの前記位置をロックするよう前記ロボットアームを制御することを含む、受信することをさらに含む、請求項2に記載の方法。
The method wherein the user input comprises a first user input,
Receiving a second user input to lock the position of the surgical end effector after controlling the robotic arm to move to the target trajectory;
Controlling the robotic arm to lock the position of the surgical end effector in response to receiving the second user input locking the position of the surgical end effector The method according to claim 2, further comprising: receiving, controlling the robotic arm to lock the position of an effector.
前記手術用エンドエフェクタを前記標的軌道に移動させるよう前記ロボットアームを制御することが、前記センサシステムを使用して生成される第一位置情報および前記追跡装置の第一位置に基づいて、前記手術用エンドエフェクタを前記標的軌道に移動させるよう前記ロボットアームを制御することを含み、前記方法が、
前記ずれを表示する前記ユーザ出力を生成した後、前記手術用エンドエフェクタを前記標的軌道に移動させる第三ユーザ入力を受信することと、
前記第三ユーザ入力を受信することに応答して、前記センサシステムを使用して生成される第二位置情報および前記追跡装置の第二位置に基づいて、前記手術用エンドエフェクタを前記患者の前記解剖学的位置に対する前記標的軌道に移動させるよう前記ロボットアームを制御することと、をさらに含む、請求項3に記載の方法。
Controlling the robotic arm to move the surgical end effector to the target trajectory based on first position information generated using the sensor system and a first position of the tracking device Controlling the robotic arm to move the fore end effector to the target trajectory, the method comprising
Receiving a third user input to move the surgical end effector to the target trajectory after generating the user output indicating the offset;
The surgical end effector is configured to receive the third user information based on second position information generated using the sensor system and a second position of the tracking device in response to receiving the third user input. 4. The method of claim 3, further comprising: controlling the robotic arm to move to the target trajectory relative to an anatomical position.
ユーザ出力を生成することが、ディスプレイ上の提示のために前記ユーザ出力を表示することを含む、請求項1に記載の方法。   The method of claim 1, wherein generating a user output comprises displaying the user output for presentation on a display. 前記ユーザ出力が、前記ディスプレイ上のグラフィックメータとして表示される、請求項5に記載の方法。   6. The method of claim 5, wherein the user output is displayed as a graphic meter on the display. 前記グラフィックメータが、前記手術用エンドエフェクタの位置がロックされる間は、動的に更新される、請求項6に記載の方法。   The method according to claim 6, wherein the graphic meter is dynamically updated while the position of the surgical end effector is locked. 前記手術用エンドエフェクタの位置がロックされる間は、閾値を超えた前記ずれに応答して、超過したずれの通知を提供するユーザ出力を生成することをさらに含む、請求項1に記載の方法。   The method of claim 1, further comprising generating a user output providing a notification of the excess deviation in response to the deviation exceeding a threshold while the position of the surgical end effector is locked. . 前記手術用エンドエフェクタが、ガイドチューブを通して手動で挿入される外科用器具の配置をガイドするよう構成される前記ガイドを備える、請求項1に記載の方法。   The method according to claim 1, wherein the surgical end effector comprises the guide configured to guide the placement of a surgical instrument manually inserted through a guide tube. 前記ずれを決定することが、前記センサシステムを使用して生成される前記位置決め情報に基づいて、前記手術用エンドエフェクタの前記実際の軌道と前記手術用エンドエフェクタの前記標的軌道との間の前記ずれのパターンを決定することを含み、前記エンドエフェクタが外科用器具を備え、前記方法が、
前記ずれの前記パターンに基づいて、前記患者の前記解剖学的位置との物理的接触を行うよう、前記外科用器具を自動的に配備することをさらに含む、請求項1に記載の方法。
The determining between the deviation may be based on the positioning information generated using the sensor system, between the actual trajectory of the surgical end effector and the target trajectory of the surgical end effector. Determining the pattern of misalignment, the end effector comprising a surgical instrument, the method comprising
The method according to claim 1, further comprising: automatically deploying the surgical instrument to make physical contact with the patient's anatomical location based on the pattern of misalignment.
前記ずれを決定することが、前記追跡装置に対する前記解剖学的位置の第一オフセットが呼吸サイクルの第一段階のための前記標的軌道を決定するよう使用され、前記追跡装置に対する前記解剖学的位置の第二オフセットが呼吸サイクルの第二段階のための前記標的軌道を決定するよう使用されるよう、呼吸サイクルの複数の段階のための前記追跡装置に対する前記解剖学的位置の移動のモデルに基づいて、前記ずれを動的に決定することを含み、前記ユーザ出力を生成することが、前記モデルに基づいて前記ずれを表示する、前記ユーザ出力を動的に生成することを含む、請求項1に記載の方法。   Determining the offset is used such that a first offset of the anatomical position relative to the tracking device determines the target trajectory for a first phase of a respiratory cycle, the anatomical position relative to the tracking device Based on a model of movement of said anatomical position relative to said tracking device for multiple phases of the respiratory cycle, such that a second offset of is used to determine said target trajectory for the second phase of the respiratory cycle The method of claim 1, further comprising: dynamically determining the offset, wherein generating the user output comprises dynamically generating the user output that displays the offset based on the model. The method described in. 患者の解剖学的位置に対して手術用エンドエフェクタを位置付けるよう構成されるロボットアームと、
前記ロボットアームに結合されるコントローラと、を備える手術用ロボットシステムであって、前記コントローラが、
前記ロボットアームから離れた、および、前記患者から離れたセンサシステムを使用して生成される位置情報を受信し、前記位置情報が前記患者に固定された追跡装置に関する位置情報と前記手術用エンドエフェクタに関する位置情報とを含み、
前記センサシステムを使用して生成される前記位置情報に基づいて、前記手術用エンドエフェクタを前記患者の前記解剖学的位置に対する標的軌道に移動させるよう前記ロボットアームを制御し、
前記患者の前記解剖学的位置に対する前記標的軌道に移動させるよう前記ロボットアームを制御した後、前記手術用エンドエフェクタの位置をロックするよう前記ロボットアームを制御し、
前記手術用エンドエフェクタの位置がロックされる間は、前記手術用エンドエフェクタの、前記解剖学的位置に対する実際の軌道と、前記手術用エンドエフェクタの、前記解剖学的位置に対する標的軌道との間のずれを決定し、前記手術用エンドエフェクタの前記位置をロックした後、前記センサシステムを使用して生成される前記位置決め情報に基づいて前記ずれが決定され、
前記ずれを表示するユーザ出力を生成し、前記ユーザ出力が前記ずれを決定することに応答して生成されるよう構成される、手術用ロボットシステム。
A robotic arm configured to position the surgical end effector relative to the patient's anatomical position;
A controller coupled to the robot arm, wherein the controller is configured to:
Position information generated using a sensor system remote from the robotic arm and remote from the patient, wherein the position information is relative to a tracking device fixed to the patient and the surgical end effector Containing location information about
Controlling the robotic arm to move the surgical end effector to a target trajectory relative to the anatomical position of the patient based on the position information generated using the sensor system;
Controlling the robotic arm to move it to the target trajectory relative to the anatomical position of the patient, and then control the robotic arm to lock the position of the surgical end effector;
While the position of the surgical end effector is locked, between the actual trajectory of the surgical end effector with respect to the anatomical position and the target trajectory of the surgical end effector with respect to the anatomical position And determining the position of the surgical end effector, and then determining the position based on the positioning information generated using the sensor system;
A surgical robotic system configured to generate a user output indicative of the offset, and wherein the user output is generated in response to determining the offset.
前記コントローラが、
前記手術用エンドエフェクタを前記患者の前記解剖学的位置に対する前記標的軌道に移動させるユーザ入力を受信し、
前記手術用エンドエフェクタを前記標的軌道に移動させるよう前記ロボットアームを制御することが、前記手術用エンドエフェクタを移動させる前記ユーザ入力を受信することに応答して、前記手術用エンドエフェクタを前記標的軌道に移動させるよう前記ロボットアームを制御することを含むようさらに構成される、請求項12に記載の手術用ロボットシステム。
The controller
Receiving user input to move the surgical end effector to the target trajectory relative to the anatomical position of the patient;
Controlling the robotic arm to move the surgical end effector to the target trajectory is responsive to receiving the user input to move the surgical end effector to the target The surgical robotic system according to claim 12, further comprising: controlling the robotic arm to move to a trajectory.
前記ユーザ入力が第一ユーザ入力を含み、前記コントローラが、
前記標的軌道に移動させるよう前記ロボットアームを制御した後、前記手術用エンドエフェクタの前記位置をロックする第二ユーザ入力を受信するようさらに構成され、
前記手術用エンドエフェクタの前記位置をロックするよう前記ロボットアームを制御することが、前記手術用エンドエフェクタの前記位置をロックする前記第二ユーザ入力を受信することに応答して、前記手術用エンドエフェクタの前記位置をロックするよう前記ロボットアームを制御することを含む、請求項13に記載の手術用ロボットシステム。
The user input comprises a first user input and the controller
Further configured to receive a second user input that locks the position of the surgical end effector after controlling the robotic arm to move to the target trajectory;
Controlling the robotic arm to lock the position of the surgical end effector in response to receiving the second user input locking the position of the surgical end effector The surgical robotic system according to claim 13, comprising controlling the robotic arm to lock the position of an effector.
前記手術用エンドエフェクタを前記標的軌道に移動させるよう前記ロボットアームを制御することが、前記センサシステムおよび前記追跡装置の第一位置を使用して生成される第一位置情報に基づいて、前記手術用エンドエフェクタを前記標的軌道に移動させるよう前記ロボットアームを制御することを含み、前記コントローラが、
前記ずれを表示する前記ユーザ出力を生成した後、前記手術用エンドエフェクタを前記標的軌道に移動させるよう第三ユーザ入力を受信し、
前記第三ユーザ入力を受信することに応答して、前記センサシステムおよび前記追跡装置の第二位置を使用して生成される第二位置情報に基づいて、前記手術用エンドエフェクタを前記患者の前記解剖学的位置に対する前記標的軌道に移動させるよう前記ロボットアームを制御するようさらに構成される、請求項14に記載の手術用ロボットシステム。
Controlling the robotic arm to move the surgical end effector to the target trajectory based on first position information generated using the sensor system and a first position of the tracking device. Controlling the robotic arm to move the fore end effector to the target trajectory, the controller including:
Receiving a third user input to move the surgical end effector to the target trajectory after generating the user output indicating the offset;
The surgical end effector is configured to receive the third user information based on second position information generated using the sensor system and the second position of the tracking device in response to receiving the third user input. The surgical robotic system according to claim 14, further configured to control the robotic arm to move the target trajectory relative to an anatomical position.
前記ずれを決定することが、前記センサシステムを使用して生成される前記位置決め情報に基づいて、前記手術用エンドエフェクタの前記実際の軌道と前記手術用エンドエフェクタの前記標的軌道との間の前記ずれのパターンを決定することを含み、前記エンドエフェクタが、前記外科用器具を備え、前記コントローラが、
前記ずれの前記パターンに基づいて、前記患者の前記解剖学的位置との物理的接触を行うよう、前記外科用器具を自動的に配備するようさらに構成される、請求項12に記載の手術用ロボットシステム。
The determining between the deviation may be based on the positioning information generated using the sensor system, between the actual trajectory of the surgical end effector and the target trajectory of the surgical end effector. Determining the pattern of misalignment, wherein the end effector comprises the surgical instrument and the controller is configured to:
13. The surgical device of claim 12, further configured to automatically deploy the surgical instrument to make physical contact with the patient's anatomical location based on the pattern of misalignment. Robot system.
患者の解剖学的位置に対して手術用エンドエフェクタを位置付けるよう構成されるロボットアームを含む手術用ロボットシステムを操作する方法であって、
呼吸サイクルの複数の段階のための追跡装置に対する前記解剖学的位置の移動のモデルへのアクセスを提供することであって、前記モデルが、複数のオフセットのそれぞれ一つが、前記呼吸サイクルの前記複数の段階のそれぞれ一つに関連付けられるよう、前記追跡装置に対する前記解剖学的位置の前記複数のオフセットを提供する、提供することと、
前記ロボットアームから離れた、および、前記患者から離れたセンサシステムを使用して生成される位置情報を受信することであって、前記位置情報が、前記追跡装置が前記患者の呼吸によって移動するとき、前記患者に固定された前記追跡装置の位置および前記手術用エンドエフェクタの位置に関する情報を含む、受信することと、
前記追跡装置が前記患者の呼吸によって移動するとき、前記呼吸サイクルの前記複数の段階を検出することと、
前記追跡装置が前記患者の呼吸によって移動するとき、前記患者の前記解剖学的位置に対する標的軌道において前記手術用エンドエフェクタを維持するよう前記ロボットアームを制御することであって、前記制御することが、前記位置情報を受信すること、前記複数の段階を検出すること、および、前記追跡装置が前記患者の呼吸によって移動するとき、前記複数のオフセットを使用して前記解剖学的位置の位置を決定することに基づく、制御することと、を含む方法。
A method of operating a surgical robotic system including a robotic arm configured to position a surgical end effector with respect to an anatomical position of a patient, comprising:
Providing access to a model of movement of said anatomical location to a tracking device for multiple phases of a respiratory cycle, wherein each of said plurality of offsets comprises a plurality of said plurality of respiratory cycles. Providing the plurality of offsets of the anatomical position relative to the tracking device to be associated with each one of the stages of
Receiving position information generated using a sensor system away from the robot arm and away from the patient, wherein the position information is when the tracking device is moved by the patient's breathing Receiving, including information regarding the position of the tracking device fixed to the patient and the position of the surgical end effector;
Detecting the plurality of stages of the breathing cycle as the tracking device moves with the patient's breath;
Controlling the robotic arm to maintain the surgical end effector in a target trajectory relative to the patient's anatomical location as the tracking device moves by the patient's breathing Receiving the position information, detecting the plurality of steps, and using the plurality of offsets to determine the position of the anatomical position as the tracking device moves with the patient's breath. And controlling based on.
前記モデルが、呼吸サイクルの第一段階のための前記標的軌道を決定するのに使用される、前記追跡装置に対する前記解剖学的位置の第一オフセットと、前記呼吸サイクルの第二段階のための前記標的軌道を決定するのに使用される、前記追跡装置に対する前記解剖学的位置の第二オフセットとを提供し、前記ロボットアームを制御することが、
センサシステムを使用して生成される第一位置情報に基づいて、および、前記呼吸サイクルの前記第一段階を検出することに応答して前記追跡装置の第一位置から前記解剖学的位置の第一位置を決定するよう前記第一オフセットを使用することに基づいて、前記手術用エンドエフェクタを前記患者の前記解剖学的位置に対する前記標的軌道に維持するよう前記ロボットアームを制御することと、
センサシステムを使用して生成される第二位置情報に基づいて、および、前記呼吸サイクルの前記第二段階を検出することに応答して前記追跡装置の第二位置から前記解剖学的位置の第二位置を決定するよう前記第二オフセットを使用することに基づいて、前記手術用エンドエフェクタを前記患者の前記解剖学的位置に対する前記標的軌道に維持するよう前記ロボットアームを制御することと、を含む、請求項17に記載の方法。
The model is used to determine the target trajectory for a first phase of a respiratory cycle, a first offset of the anatomical position relative to the tracking device, and a second phase of the respiratory cycle Providing a second offset of the anatomical position with respect to the tracking device used to determine the target trajectory, and controlling the robotic arm;
A first position of the anatomic position from a first position of the tracking device based on first position information generated using a sensor system and in response to detecting the first phase of the breathing cycle Controlling the robotic arm to maintain the surgical end effector in the target trajectory relative to the anatomic position of the patient based on using the first offset to determine a position;
A second position of the anatomic position from a second position of the tracking device based on second position information generated using a sensor system and in response to detecting the second phase of the respiratory cycle Controlling the robotic arm to maintain the surgical end effector in the target trajectory relative to the anatomic position of the patient based on using the second offset to determine two positions; 21. The method of claim 17 comprising.
患者の解剖学的位置に対して手術用エンドエフェクタを位置付けるよう構成されるロボットアームと、
前記ロボットアームに結合されるコントローラと、を備える手術用ロボットシステムであって、前記コントローラが、
呼吸サイクルの複数の段階のための追跡装置に対する前記解剖学的位置の移動のモデルへのアクセスを提供し、前記モデルが、複数のオフセットのそれぞれ一つが、前記呼吸サイクルの前記複数の段階のそれぞれ一つに関連付けられるよう、前記追跡装置に対する前記解剖学的位置の前記複数のオフセットを提供し、
前記ロボットアームから離れた、および、前記患者から離れたセンサシステムを使用して生成される位置情報を受信し、前記位置情報が、前記追跡装置が前記患者の呼吸によって移動するとき、前記患者に固定された前記追跡装置の位置および前記手術用エンドエフェクタの位置に関する情報と、を含み、
前記追跡装置が前記患者の呼吸によって移動するとき、前記呼吸サイクルの前記複数の段階を検出し、
前記追跡装置が前記患者の呼吸によって移動するとき、前記患者の前記解剖学的位置に対する標的軌道に前記手術用エンドエフェクタを維持するよう前記ロボットアームを制御し、前記制御することが、前記位置情報を受信することと、前記複数の段階を検出することと、前記追跡装置が前記患者の呼吸によって移動するとき、前記複数のオフセットを使用して前記解剖学的位置の位置を決定することとに基づくよう構成される、手術用ロボットシステム。
A robotic arm configured to position the surgical end effector relative to the patient's anatomical position;
A controller coupled to the robot arm, wherein the controller is configured to:
Providing access to a model of the movement of said anatomical position to a tracking device for multiple phases of a respiratory cycle, wherein said model comprises one each of a plurality of offsets, each of said plurality of phases of said respiratory cycle Providing the plurality of offsets of the anatomical position relative to the tracking device to be associated with one;
Receiving location information generated using a sensor system away from the robot arm and away from the patient, the location information being transferred to the patient as the tracking device moves by the patient's breathing Information on the position of the fixed tracking device and the position of the surgical end effector;
Detecting the plurality of stages of the breathing cycle as the tracking device moves with the patient's breath;
Controlling the robotic arm to maintain the surgical end effector in a target trajectory relative to the anatomical location of the patient as the tracking device moves by breathing the patient, the controlling being performed Receiving the plurality of stages, and using the plurality of offsets to determine the location of the anatomical location as the tracking device moves with the patient's breath. A surgical robotic system configured to be based on:
前記モデルが、呼吸サイクルの第一段階のための前記標的軌道を決定するのに使用される、前記追跡装置に対する前記解剖学的位置の第一オフセットと、前記呼吸サイクルの第二段階のための前記標的軌道を決定するのに使用される、前記追跡装置に対する前記解剖学的位置の第二オフセットとを提供し、前記ロボットアームを制御することが、センサシステムを使用して生成される第一位置情報に基づいて、および、前記呼吸サイクルの前記第一段階を検出することに応答して前記追跡装置の第一位置から前記解剖学的位置の第一位置を決定するよう前記第一オフセットを使用することに基づいて、前記患者の前記解剖学的位置に対する前記標的軌道に前記手術用エンドエフェクタを維持するよう、前記ロボットアームを制御することと、センサシステムを使用して生成される第二位置情報に基づいて、および、前記呼吸サイクルの前記第二段階を検出することに応答して前記追跡装置の第二位置から前記解剖学的位置の第二位置を決定するよう前記第二オフセットを使用することに基づいて、前記患者の前記解剖学的位置に対する前記標的軌道に前記手術用エンドエフェクタを維持するよう、前記ロボットアームを制御することと、を含む、請求項19に記載の手術用ロボットシステム。

The model is used to determine the target trajectory for a first phase of a respiratory cycle, a first offset of the anatomical position relative to the tracking device, and a second phase of the respiratory cycle Providing a second offset of the anatomical position with respect to the tracking device, used to determine the target trajectory, and controlling the robotic arm is generated using a sensor system The first offset is determined to determine a first position of the anatomical position from a first position of the tracking device based on position information, and in response to detecting the first phase of the respiratory cycle. Controlling the robotic arm to maintain the surgical end effector in the target trajectory relative to the anatomical position of the patient based on use; A second position of the anatomic position from a second position of the tracking device based on second position information generated using a sensor system and in response to detecting the second phase of the respiratory cycle Controlling the robotic arm to maintain the surgical end effector in the target trajectory relative to the patient's anatomical position based on using the second offset to determine a two position; 20. The surgical robotic system of claim 19, comprising:

JP2019002513A 2018-01-10 2019-01-10 Surgical robot system and related method for monitoring target trajectory deviation Active JP6714737B2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862615513P 2018-01-10 2018-01-10
US62/615,513 2018-01-10
US15/948,013 2018-04-09
US15/948,013 US11857149B2 (en) 2012-06-21 2018-04-09 Surgical robotic systems with target trajectory deviation monitoring and related methods

Publications (2)

Publication Number Publication Date
JP2019122768A true JP2019122768A (en) 2019-07-25
JP6714737B2 JP6714737B2 (en) 2020-06-24

Family

ID=65010559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019002513A Active JP6714737B2 (en) 2018-01-10 2019-01-10 Surgical robot system and related method for monitoring target trajectory deviation

Country Status (3)

Country Link
EP (1) EP3510927A1 (en)
JP (1) JP6714737B2 (en)
CN (1) CN110013313B (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023502727A (en) * 2019-11-21 2023-01-25 マイクロポート ナビボット(スーチョウ)カンパニー,リミテッド Osteotomy calibration method, calibration device, readable storage medium, and orthopedic surgical system
US11918194B2 (en) 2019-11-21 2024-03-05 Suzhou MicroPort Orthobot Co., Ltd. Osteotomy calibration method, calibration device and orthopedic surgery system

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11931119B1 (en) 2019-11-15 2024-03-19 Verily Life Sciences Llc Integrating applications in a surgeon console user interface of a robotic surgical system
US11918307B1 (en) * 2019-11-15 2024-03-05 Verily Life Sciences Llc Integrating applications in a surgeon console user interface of a robotic surgical system
JP2023526004A (en) * 2020-05-11 2023-06-20 シンク サージカル,インク. Measurement-guided resurfacing during robotic resection
CN111563932B (en) * 2020-05-18 2022-03-11 常州市第二人民医院 Overlapping coaxial surgical operation control method, system and readable storage medium
WO2022094076A1 (en) * 2020-10-30 2022-05-05 Mako Surgical Corp. Robotic surgical system with cut selection logic
CN112587243B (en) * 2020-12-15 2022-06-07 深圳市精锋医疗科技股份有限公司 Surgical robot and control method and control device thereof
US20230023449A1 (en) * 2021-07-20 2023-01-26 Globus Medical, Inc. Interlaminar lumbar interbody fusion system and associated robotic systems
US20230278209A1 (en) * 2022-02-02 2023-09-07 Mazor Robotics Ltd. Systems and methods for controlling a robotic arm

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080154389A1 (en) * 2006-02-16 2008-06-26 Catholic Healthcare West (D/B/A St. Joseph's Hospital And Medical Center) Method and system for performing invasive medical procedures using a surgical robot
WO2015052718A1 (en) * 2013-10-07 2015-04-16 Technion Research & Development Foundation Ltd. Gripper for robotic image guided needle insertion
JP2015528713A (en) * 2012-06-21 2015-10-01 グローバス メディカル インコーポレイティッド Surgical robot platform
WO2017127202A1 (en) * 2016-01-20 2017-07-27 Intuitive Surgical Operations, Inc. System and method for rapid halt and recovery of motion deviations in medical device repositionable arms
US20170265952A1 (en) * 2014-07-28 2017-09-21 Intuitive Surgical Operations, Inc. Systems and Methods for Planning Multiple Interventional Procedures

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6144875A (en) * 1999-03-16 2000-11-07 Accuray Incorporated Apparatus and method for compensating for respiratory and patient motion during treatment
US6501981B1 (en) * 1999-03-16 2002-12-31 Accuray, Inc. Apparatus and method for compensating for respiratory and patient motions during treatment
US8353933B2 (en) 2007-04-17 2013-01-15 Gmedelaware 2 Llc Facet joint replacement
US20050267359A1 (en) * 2004-05-27 2005-12-01 General Electric Company System, method, and article of manufacture for guiding an end effector to a target position within a person
US7674296B2 (en) 2005-04-21 2010-03-09 Globus Medical, Inc. Expandable vertebral prosthesis
US8992425B2 (en) 2006-06-06 2015-03-31 Globus Medical, Inc. Surgical retractor system
US8926664B1 (en) 2006-11-07 2015-01-06 Globus Medical, Inc. Laminoplasty fixaction devices
US8328872B2 (en) 2008-09-02 2012-12-11 Globus Medical, Inc. Intervertebral fusion implant
US8545566B2 (en) 2008-10-13 2013-10-01 Globus Medical, Inc. Articulating spacer
US8721723B2 (en) 2009-01-12 2014-05-13 Globus Medical, Inc. Expandable vertebral prosthesis
US8882803B2 (en) 2009-04-01 2014-11-11 Globus Medical, Inc. Orthopedic clamp and extension rod
US9402656B2 (en) 2009-09-11 2016-08-02 Globus Medical, Inc. Spinous process fusion devices
US8685098B2 (en) 2010-06-25 2014-04-01 Globus Medical, Inc. Expandable fusion device and method of installation thereof
US8709086B2 (en) 2009-10-15 2014-04-29 Globus Medical, Inc. Expandable fusion device and method of installation thereof
US8062375B2 (en) 2009-10-15 2011-11-22 Globus Medical, Inc. Expandable fusion device and method of installation thereof
US8968363B2 (en) 2010-03-11 2015-03-03 Globus Medical, Inc. Tissue retractor and methods of use
US8491659B2 (en) 2010-09-03 2013-07-23 Globus Medical, Inc. Expandable fusion device and method of installation thereof
US8845734B2 (en) 2010-09-03 2014-09-30 Globus Medical, Inc. Expandable fusion device and method of installation thereof
US9456906B2 (en) 2013-03-15 2016-10-04 Globus Medical, Inc. Expandable intervertebral implant
US9440076B2 (en) 2013-03-15 2016-09-13 Globus Medical, Inc. Spinal cord stimulator system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080154389A1 (en) * 2006-02-16 2008-06-26 Catholic Healthcare West (D/B/A St. Joseph's Hospital And Medical Center) Method and system for performing invasive medical procedures using a surgical robot
JP2015528713A (en) * 2012-06-21 2015-10-01 グローバス メディカル インコーポレイティッド Surgical robot platform
WO2015052718A1 (en) * 2013-10-07 2015-04-16 Technion Research & Development Foundation Ltd. Gripper for robotic image guided needle insertion
US20170265952A1 (en) * 2014-07-28 2017-09-21 Intuitive Surgical Operations, Inc. Systems and Methods for Planning Multiple Interventional Procedures
WO2017127202A1 (en) * 2016-01-20 2017-07-27 Intuitive Surgical Operations, Inc. System and method for rapid halt and recovery of motion deviations in medical device repositionable arms

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023502727A (en) * 2019-11-21 2023-01-25 マイクロポート ナビボット(スーチョウ)カンパニー,リミテッド Osteotomy calibration method, calibration device, readable storage medium, and orthopedic surgical system
US11918194B2 (en) 2019-11-21 2024-03-05 Suzhou MicroPort Orthobot Co., Ltd. Osteotomy calibration method, calibration device and orthopedic surgery system

Also Published As

Publication number Publication date
CN110013313B (en) 2023-04-07
CN110013313A (en) 2019-07-16
EP3510927A1 (en) 2019-07-17
JP6714737B2 (en) 2020-06-24

Similar Documents

Publication Publication Date Title
US20220096177A1 (en) Surgical robotic systems with target trajectory deviation monitoring and related methods
US20210282874A1 (en) Surgical robotic automation with tracking markers
JP6840815B2 (en) Surgical robot automation with tracking markers
US11864839B2 (en) Methods of adjusting a virtual implant and related surgical navigation systems
JP6714737B2 (en) Surgical robot system and related method for monitoring target trajectory deviation
US20190029765A1 (en) Surgical robotic systems providing transfer of registration and related methods and computer program products
US20190000569A1 (en) Controlling a surgical robot to avoid robotic arm collision
US20180279993A1 (en) Medical imaging systems using robotic actuators and related methods
US11793570B2 (en) Surgical robotic automation with tracking markers
JP6936282B2 (en) Controlling surgical robots to avoid robot arm collisions
EP3636195B1 (en) Surgical robotic automation with tracking markers
JP7019658B2 (en) Surgical robot automation with tracking markers
JP2020096829A (en) Drill guide fixtures, cranial insertion fixtures, and related methods and robotic systems
JP6704034B2 (en) Surgical robot system with retractor
US20190000571A1 (en) Surgical robotic automation with tracking markers
US20200289224A1 (en) Active end effectors for surgical robots
JP6970154B2 (en) Surgical robot automation with tracking markers
JP2019202130A (en) Systems and methods related to robotic guidance in surgery
JP6751461B2 (en) Surgical robot automation with tracking markers
EP3586784B1 (en) Methods of adjusting a virtual implant and related surgical navigation systems
JP2020022730A (en) Robotic systems providing co-registration using natural fiducials and related methods
US20210251591A1 (en) System and method of determining optimal 3-dimensional position and orientation of imaging device for imaging patient bones
US20240008928A1 (en) Surgical robotic automation with tracking markers

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200605

R150 Certificate of patent or registration of utility model

Ref document number: 6714737

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250