JP2018158104A - ロボット外科システムのロボットナビゲーション - Google Patents

ロボット外科システムのロボットナビゲーション Download PDF

Info

Publication number
JP2018158104A
JP2018158104A JP2018049251A JP2018049251A JP2018158104A JP 2018158104 A JP2018158104 A JP 2018158104A JP 2018049251 A JP2018049251 A JP 2018049251A JP 2018049251 A JP2018049251 A JP 2018049251A JP 2018158104 A JP2018158104 A JP 2018158104A
Authority
JP
Japan
Prior art keywords
patient
surgical
anatomy
volume
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018049251A
Other languages
English (en)
Inventor
コストルズースキ ジモン
Kostrzewski Szymon
コストルズースキ ジモン
ヴィスメル ジャン−マルク
Wismer Jean-Marc
ヴィスメル ジャン−マルク
ゲリゲル ダニエル
Gehriger Daniel
ゲリゲル ダニエル
ベルセリン ロデリク
Berthelin Roderik
ベルセリン ロデリク
パテル チェタン
Patel Chetan
パテル チェタン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KB Medical SA
Original Assignee
KB Medical SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KB Medical SA filed Critical KB Medical SA
Publication of JP2018158104A publication Critical patent/JP2018158104A/ja
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/17Guides or aligning means for drills, mills, pins or wires
    • A61B17/1703Guides or aligning means for drills, mills, pins or wires using imaging means, e.g. by X-rays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/76Manipulators having means for providing feel, e.g. force or tactile feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00725Calibration or performance testing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2059Mechanical position encoders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • A61B2034/207Divots for calibration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • A61B2090/065Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension for measuring contact or contact pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Robotics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Manipulator (AREA)

Abstract

【課題】処置を妨げることなく、その瞬間の患者の状態を正確に反映するために、患者の位置合わせが外科処置を通して容易に更新され得る、器具のガイダンス及びナビゲーション用ロボット外科システムならびにそれらの使用方法を提供する。
【解決手段】外科処置中の外科ロボット102のナビゲーションは、容易な位置合わせ、手術量の識別、及び追跡を可能とする。外科ロボットの軌道を表示する表示スクリーン110を含む。トラッキング検出器108は患者104及び外科ロボットの配置を監視する。外科ロボットは手術台112に取り付けられることなく手術台に近接して外科医に手術領域と可動性を提供する。加えて、手術量、患者−ロボットの方位関係、及び患者の解剖学的構造モデルなどの、手術前に定義されたデータを見直すことによって、より高度な精度及び合併症ならびに深刻な医療ミスのリスクの低減が、達成され得る。
【選択図】図1

Description

本出願は、2017年3月16日に出願された米国仮特許出願第62/472,492号に対して優先権を主張する非仮出願であり、その全体が本明細書に組み込まれる。
本発明は、概して、ロボット外科システムに関する。例えば、ある実施形態において、本発明は、外科処置中の位置追跡のための内蔵ナビゲーション能力を有するロボット外科システムに関する。
多くの外科処置(例えば、脊髄及び整形外科手術)は、リアルタイムで外科医に表示された医用画像を利用する。医用画像は、処置中、外科医に視覚的な参照を提供する。外科処置中に使用される外科器具及び/またはロボットアームの位置を患者の解剖学的構造の医用画像に関連付けることにより、外科医は、患者に対する合併症の可能性及び/または苦痛を低減する一方で外科処置の正確性を向上することを補助する役立つナビゲーション情報を得ることができる。外科処置を通して外科器具の位置を医用画像に関連付けるために、患者の解剖学的構造は外科ナビゲーションシステムに位置合わせされなければならず、さらに、そのような外科システムは、位置合わせを正確に維持するために、外科器具の位置及び方向ならびに患者の解剖学的構造の変更を、経時的に追跡することができなければならない。
現行の外科ナビゲーションシステムは、外科処置中にロボット外科システムを操作する外科医にナビゲーション支援を提供するために、特殊なマーカ(例えば、基準マーカ)の動作または移動を追跡するように設計されている。加えて、そのようなマーカは、また、患者をロボット外科システムに方向付けるために使用されてもよい。例えば、ナビゲーションシステムは、外科器具、ロボットアーム、及び患者(例えば、患者の解剖学的構造の一部)の位置を含む複数の位置が計測されることを可能にする、複数のそのような特殊なマーカを含む。
現行の外科ナビゲーションシステムは、一般に、特殊なマーカの位置を追跡するために、光学追跡技術及び電磁追跡技術という2種類のテクニックのうちの1つを使用する。光学追跡は、特殊なマーカ上に配列される基準要素(例えば、反射範囲、LED)を測定するカメラシステムを使用し、基準要素は予め画定され、マーカ上の物理的な空間配列を認識している。このように、マーカの位置及び方向が、判定され得、そのため、それらが添付される要素(例えば、外科器具、患者の解剖学的構造)の位置及び方向が、同様に追跡され得る。電磁追跡において、カメラの機能は、磁場発生装置に取って代わられる。これらの技術において、マーカは、発生した磁場における空間の変更を測定するセンサユニット(例えば、コイル)である。このように、EMマーカの位置及び方向は、磁場発生装置を参照して判定され得る。
ナビゲーションシステムを使用するための典型的な作業は、外科医にリアルタイムのフィードバックを示すために、患者の画像を獲得するステップ、患者の上に参照画を固定するステップ、患者を位置合わせするステップ、及び器具ならびに患者を追跡するステップ、を踏む。患者の画像は、例えば、CT、MRI、または平面蛍光透視法(例えば、O−Arm)によって生成され得る。患者に固定された参照画は、基準マークを有する光学マーカまたは電磁マーカを含む。マーカは、例えば、骨ねじまたは骨固定を使用して固定される。
そのようなナビゲーションシステムの使用における最も重要なステップは、患者の解剖学的構造の位置合わせである。正確な位置合わせは、外科処置中に外科医に正確なナビゲーション支援が提供されることを確実にする。患者の位置または方向が処置中に変化するとき、位置合わせは容易に更新されなければならない。さらに、特定の処置において、処置中の患者の解剖学的構造の変化は、正確なナビゲーション支援を提供するために位置合わせされる必要がある。
前述のシステムを使用して、患者の画像と1つ以上の固定されたマーカとの間の関係が、固定されたマーカ上の対応する基準要素に画像上のポイントを関連付けることにより、位置合わせ中に画定される。位置合わせは、2地点間方法、面合わせ、または固定されたマーカで(例えば、患者の解剖学的構造上で)取られた画像に基づく自動位置合わせを使用して実行され得る。一般に、既知のナビゲーションシステムを使用する位置合わせ中に関連付けに使用されるポイントは、ナビゲーションシステムのカメラ(または磁場発生装置)を使用する外科環境の医用画像とキャプチャされた画像の両方において、画像認識を使用して判定される。同様に、例えば、患者の位置、方向、及び/または解剖学的構造の変化による、患者の再位置合わせのために、追加のポイントは処置を通して収集及び関連付けられ得る。さらに、患者の解剖学的構造に対する外科器具のリアルタイムの位置を正確に表示するために、処置を通して外科器具が辺りを移動される際に、追加のポイントは収集される。しかしながら、現行のナビゲーションシステムは、そのようなポイントのそれらの正確な収集に制限され、加えて、必要な基準要素を含むように設計された特別な外科位置合わせ器具の使用を頻繁に必要とする。
現行のナビゲーションシステムは、正確な位置合わせを阻害する多くの制限を有し、外科処置を妨げる。明らかに、現行の光学ナビゲーションシステムは、全ての追跡された器具が、追跡されるためにカメラに可視の状態のままとならなければならない、見通し線条件を有する。十分な基準(例えば、範囲、LED)がない場合、可視マーカ位置は、判定され得ず、位置合わせを低減するか阻害する。さらなるリスクが、基準位置が、難読化(例えば、一滴の血液または透明なドレープ)のためにナビゲーションシステムによって誤読され得ることである。電磁ナビゲーションシステムは、磁場に影響を及ぼし、そのためマーカ位置測定にエラーを与え得る、磁場内に設置された金属及び強磁性材料による類似の「見通し線」問題を有する。さらに、測定の精度は、例えば、位置測定のための0.3mmRMSエラーのレベルにおいて、商業用ステーションでは比較的低く、一方で、測定の音は騒々しい。加えて、追加のポイントの収集のために、位置合わせ(例えば、再位置合わせ)は、外科処置を中断することを必要とするか、最高の場合でも、測定の周波数は非常に低い(例えば、およそ20Hz)。
現行のナビゲーションシステムは、加えて、高価で、大きく及び目障りで、ならびに複雑である。それらが、混雑した手術室内で著しい空間を消費する。例えば、手術室内の貴重な不動産が、追跡カメラを有するスタンドアロンナビゲーションステーション/コンソール、視覚的なフィードバックのために使用されるスクリーン、コード及びプラグ、電力システム、ならびにコントローラなどによって占められ得て、それによりさらなる乱雑さを作り出す。これは、外科環境における外科医の移動または位置付けを制限し得て、現行の外科ナビゲーションシステムが外科処置を妨害する追加の機構として機能する。現行の外科システムは、使用することが概して難しく、それらの適切な手術のためにさらなる外科医及び/またはスタッフの訓練が必要となる。さらに、必要な任意の器具または装置に加えて購入されなければならない多数の構成部品及び周辺機器により、現行のナビゲーションシステムは、高価である。
多くの前述の制限の影響にも関わらず、既知のナビゲーションシステムの最も厳しい制限は、ナビゲーションシステムが経時的に同期ずれすることである。外科医は、外科処置を始める際、患者の解剖学的構造に取り付けられた1つ以上のマーカを使用して、患者を位置合わせする。外科処置を通して、患者の解剖学的構造は、患者の動きのため、または外科処置そのものの結果として、推移する。例えば、伸長ステップまたは再調整ステップを含む外科手術において、患者の解剖学的構造は、伸長または再調整後、基準マーカ(複数可)に対して異なる位置及び方向を有するはずである。基準マーカ(複数可)に対してローカルな領域のみが、患者の解剖学的構造の物理的実体に対して正確なままとなる。患者の解剖学的構造の実体と初期位置合わせに基づく仮の実体との間のエラーは、基準マーカ(複数可)からの距離で増える。そのため、既知のナビゲーションシステムを有するロボット外科システムを使用する今日実行されている多くの外科処置において、処置が進むにつれて、ナビゲーションシステムは、より同期ずれし、そのため、ロボット外科システムと患者の解剖学的構造との間の物理的な関係が反映されにくくなるにつれて、ナビゲーション援助として外科医にとって使いづらくなる。同様に、同期ずれするにつれて、漸次、ナビゲーションシステムによって提供される、より貧弱なナビゲーションのため、合併症の可能性及び深刻な医療ミスも増える。これらのネガティブな転帰は、最低侵襲性外科処置において特に拡大され、外科医は、外科部位への直接の見通し線を頻繁に低減または最小化してきた。
ロボットアームの使用は、正確な動きをすることで外科医を援助するが、システムは、ナビゲーションシステムの欠点、特に、訓練の必要性、必要とされる空間、見通し線、価格、一連の外科処置にわたる光学ナビゲーションの低精度などを引き継ぐ。同期ずれによる合併症の可能性及び深刻な医療ミスは、そのようなロボット外科システムにとって、重大なままである。
このように、処置を妨げることなく、その瞬間の患者の状態を正確に反映するために、患者の位置合わせが外科処置を通して容易に更新され得る、器具のガイダンス及びナビゲーション用ロボット外科システムならびにそれらの使用方法が必要とされる。
ある実施形態において、本明細書で開示されたシステム、装置、及び方法は、患者の位置追跡、及び別のナビゲーションシステムを必要としない、外科処置中の外科器具ガイダンスのための内蔵ナビゲーション能力を有するロボット外科システムに関する。外科処置中の外科器具のロボットベースのナビゲーションは、容易な位置合わせ、手術量の識別、及び追跡を可能とする。本明細書のシステム、装置、及び方法は、外科作業の流れに対して最小限の中断で手術中に、再位置合わせ、モデルの更新、及び手術量の実行を可能とする。ある実施形態において、ナビゲーション支援は、患者の解剖学的構造に関する外科器具の位置を表示することによって、外科医に提供され得る。加えて、手術量、患者−ロボットの方位関係、及び患者の解剖学的構造モデルなどの、手術前に定義されたデータを見直すことによって、より高度な精度及び合併症ならびに深刻な医療ミスのリスクの低減が、達成され得る。
ある実施形態において、本明細書に記載されるのは、患者の解剖学的構造の空間座標を収集するために使用される、直接または間接的に取り付けられた力センサを有するロボットアームを備えるロボット外科システムである。外科医は、空間内の異なるポイント間でロボットアームを操作し、ロボットアームに取り付けられた器具で、患者の解剖学的構造上の異なるポイントにおいて患者に接触することができる。ある実施形態において、器具は、力センサを備える。接触は、力センサによって位置合わせされた触覚フィードバックに基づいて判定される。ある実施形態において、閾値(例えば、触覚フィードバックの大きさ)は、患者の解剖学的構造に属する接点を位置合わせするために上回らなければならない。さらに、このように、触覚フィードバックの大きさは、接触されている組織の種類を判定するために使用され得る(例えば、なぜなら骨は柔らかい組織よりもより固い)。いくつかの実施形態において、器具は、1つ以上の一組の標定接触点(例えば、くぼみ)において患者の解剖学的構造に取り付けられた専門的に設計された基準マーカに接触し、基準マーカは、患者の解剖学的構造と確立された空間的関係(例えば、その既知の大きさを与えられ、患者の解剖学的構造上の特定の既知の配置での取り付けを意図された)を有する。複数の空間座標が、患者の解剖学的構造に対する複数の器具の接点を電子的に使用して、記録され、かつ記憶され得る。
器具の患者の解剖学的構造との接触から記録された一組の空間座標は、位置合わせ、モデリング体積除去、再位置合わせ、手術可能な体積を画定すること、再位置合わせ後の手術可能な体積を修正すること、記憶された体積モデルを物理的な配置に変換すること、及びナビゲーションスクリーン上に患者の解剖学的構造に対する外科器具を表示することなどの、多くのナビゲーション用、及び外科ガイダンス機能を実行するために使用され得る。
患者の解剖学的構造に接触することによって獲得されたいくつかの組の座標によって画定された表面を、それらの解剖学的構造のモデル(例えば、医用画像データからの)にマッピングすることによって、モデルの座標システムと物理的実体との間を移行する座標マッピングが記録され得る。例えば、モデルが、医用画像データ座標システム内で、及び物理的な実体が、ロボット座標システム内で提示され得る。このように、ロボット外科システムは、それに取り付けられた外科器具に対する患者の解剖学的構造の物理的な配置を知ることができる。触覚フィードバックで生成された、いくつかの組の空間座標と、患者の解剖学的構造の表面をモデリングしたいくつかの組の医用画像データ座標との組み合わせを使用して、前述のナビゲーション用かつ外科ガイダンス機能は、迅速に、及び手術前及び/または手術中に高精度で実行され得る。
一組の空間座標が、医用画像データから由来する患者の解剖学的構造のモデルと患者の解剖学的構造を位置合わせするために使用され得る。医用画像データは、任意の関連する技術から使用され得る。実施例は、これらに限定するわけではないが、X線データ、断層撮影データ(例えば、CTデータ)、磁気共鳴映像法(MRI)データ、平面蛍光透視法(例えば、O−Arm)データを含む。いくつかの実施形態において、このような医用画像データは、手術中に撮られる。このように、患者の解剖学的構造の物理的な位置及び方向は、患者の解剖学的構造のモデルにマッピングされ得、ロボット外科システムは、どこが解剖学的構造に関係しているかを常に知ることができる。
一組の空間座標は、器具と患者の解剖学的構造との間の付加的な接触を使用して体積が除去されることを判定することによって、体積の除去後、患者の解剖学的構造のモデルを更新するために使用され得る。モデルの体積内部の座標に対応する解剖学的構造の新しい表面上に作製されるように判定された接触は、患者の新しい解剖学的構造を反映するように、モデルの表面を更新するために使用され得る。
手術中に収集された一組の空間座標は、患者の解剖学的構造を再位置合わせするために使用され得る。このように、解剖学的構造の全てまたは一部の再配向、または再位置決めなどの、解剖学的構造において発生する変更は、患者の解剖学的構造のモデルと同様に、ロボット座標システムと医用画像データ座標システムとの間のマッピングを更新するために使用され得る。
一組の空間座標が、手術可能な体積を画定するために使用され得、外科器具の移動は、処置の間、手術可能な体積内となるように限定される。例えば、このことは、外科医によって除去される骨の体積を限定するために使用され得る。手術可能な体積は、患者の解剖学的構造上のポイントに接触すること、及び表面の交点としてそれらを使用することによって、または解剖学的構造体積のモデルを一組の空間座標にマッピングすること、及びその後ロボット外科システムの座標システム内で表された、マッピングされた解剖学的構造モデルとして手術可能な体積を画定することによって、画定され得る。手術可能な体積は、患者の現在の解剖学的構造及び/または解剖学的構造位置ならびに方向を正確に反映するために再位置合わせ後更新され得る。同様に、記憶されたモデル(例えば、医用画像データから生成されたモデル)は、座標マッピングを使用することによって、そのモデルの一部(または全体)の物理的な配置を画定するために使用され得る。
患者の解剖学的構造及び解剖学的構造に対する外科器具の位置のレンダリングは、本明細書に記載された方法及びシステムを使用する外科医による使用及び/または参照のために、ナビゲーションスクリーン上に表示され得る。座標マッピングを使用することによって、外科器具の終点の配置は、外科医が終点と患者の解剖学的構造との間の空間または距離の正確な表現を観察できるように、患者の解剖学的構造のレンダリングに沿って表示され得る。このことは、患者の解剖学的構造に対する外科器具の軌道、位置、及び方向を視覚化するために使用され得る。外科医は、外科処置の進み具合を観察し、深刻な医療ミスを防ぎ、及び/または計画された外科処置を修正することによって患者の転帰を向上させるためにこれを使用し得る。例えば、外科医は、体積を除去するとき、除去に計画された体積、または外科ツールの計画された方向または軌道を変更するための決定にナビゲーションディスプレイを使用し得る。このことは、手術中に行われ得る。
別の態様において、開示された技術は、処置(例えば、外科処置、例えば、脊髄手術)中の患者の位置(例えば、患者の脊椎の位置)のリアルタイムで動的な再位置合わせのためのロボットベースのナビゲーションシステム(例えば、組み合わされたナビゲーション/ロボットシステム)を含み、システムは、(a):(i)エンドエフェクタと、[例えば、該エンドエフェクタが、外科器具をその中に挿入するまたはそこに取り付けるための外科器具ホルダーを含み、例えば、該ロボットアームが、外科器具がエンドエフェクタの外科器具ホルダーに挿入されている/取り付けられているとき、操作者(例えば、外科医)による該外科器具の直接操作を可能とするように設計され、該操作は、患者に対するエンドエフェクタ(及び/または外科器具)の位置に基づいて触覚制限を受けやすく、例えば、該外科器具は、外科器具ホルダーに対する既知の幾何学形状及び固定された位置を有する]と、(ii)エンドエフェクタの位置を動的に追跡するための位置センサ[例えば、外科処置中)(及び/または、例えば、3D空間において、例えば、外科処置中、外科器具の1つ以上のポイントを動的に追跡するために、)(例えば、少なくとも100Hz、例えば、250Hz以上、例えば500Hz以上、例えば、1000Hz以上(毎秒の位置決定)のレートで]と、(iii)エンドエフェクタを操作している(例えば、エンドエフェクタの器具ホルダーに挿入された外科器具を操作すること)ユーザに力覚を届けるための(例えば、センサ(複数可)、アクチュエータ(複数可)、コントローラ(複数可)、サーボ(複数可)及び/または他の機構を含む)力フィードバックサブシステム(例えば、力フィードバックサブシステムは、後述の(I)〜(IV):(I)患者の組織に接触し、抗して移動し、貫通し、及び/または中で移動する外科器具によって引き起こされた抵抗力を検出すること、(II)接触された組織の種類を識別すること(例えば、接触された組織が抵抗閾値に達するまたは超えるとき、例えば、組織が骨のときに判定すること)、(III)(例えば、外科器具、したがって、エンドエフェクタの移動をもたらすため、)操作者(例えば、外科医)によって届けられた(例えば、エンドエフェクタの外科器具ホルダー内に挿入された外科器具の直接操作によって届けられた)力を検出すること、及び(IV)操作者によって届けられた力と、患者の組織に対する外科器具の移動によってもたらされた抵抗力とを識別することと、のうちの1つ以上を実行するための1つ以上のセンサを含む)と、を含む、ロボットアーム(例えば、3、4、5、6、または7つの自由度を有する)と、(b)ディスプレイ[例えば、処置中に操作者への妨げられない視覚フィードバックを可能とするために、操作者(例えば、外科医)によって直接操作されているロボットアームに対して取り付けられ、その中に埋め込まれ、またはそれ以外の様式で位置付けられ、例えば、ディスプレイが、透明または半透明の無菌ドレープの下に位置決めされており、例えば、ディスプレイが、使用中にディスプレイを制御するためのタッチセンサを有する]と、(c)一組の命令を実行するようにプログラムされた計算デバイスのプロセッサと、を含み、一組の命令が、(i)(例えば、ディスプレイ上に患者の状態(例えば、目標の解剖学的構造)のリアルタイムの図式表現を表示して使用するための、及び/または、力フィードバックサブシステムを介して、例えば、外科処置の間、操作者に届けられた力フィードバックを動的に判定して使用するための、初期の患者の状態の3D表現、例えば、3D図式表現及び/または3D触覚表現であって、例えば、3D図式表現が3D触覚表現と同じまたは異なる、3D表現を記憶及び/またはレンダリングするために)患者の位置(例えば、患者の脊椎の位置)の初期位置合わせ(例えば、患者の医用画像、例えば、MRI、CT、X線、SPECT、超音波などの、例えば、手術前に得られた医用画像、を介した)にアクセスする(例えば、及びディスプレイ上に図式的にレンダリングする)ことと、(ii)エンドエフェクタの位置を動的に判定する(例えば、エンドエフェクタの器具ホルダー内で、例えば、エンドエフェクタに対して位置決めされた外科器具の1つ以上のポイントの3D位置を動的に判定する)ことと、(iii)エンドエフェクタによって受容された力及び/またはエンドエフェクタに届けられる力を動的に判定する[例えば、外科器具を介してエンドエフェクタによって受容された力及び/またはエンドエフェクタに届けられる力に、例えば、後述の(I)〜(IV):(I)患者の組織に接触し、抗して移動し、貫通し、及び/または中で移動する外科器具によって引き起こされた抵抗力を判定すること、(II)接触された組織の種類を識別すること(例えば、接触された組織が抵抗閾値に達するまたは超えるとき、例えば、組織が骨のときに判定すること)、(III)(例えば、外科器具、したがって、エンドエフェクタの移動をもたらすため、)操作者(例えば、外科医)によって届けられた(例えば、エンドエフェクタの外科器具ホルダー内に挿入された外科器具の直接操作によって届けられた)力を検出すること、及び(IV)操作者によって届けられた力と、患者の組織に対する外科器具の移動によってもたらされた抵抗力とを識別すること(例えば、少なくとも100Hz、例えば、250Hz以上、例えば、500Hz以上、例えば、1000Hz以上のレートで動的に判定される力を、例えば、力フィードバックサブシステムを使用して)のうちの1つ以上を動的に実行する]ことと、(iv)エンドエフェクタを動的に追跡するためにロボットアームの位置センサの位置を動的に判定する(例えば、患者の骨組織、または患者の他の目標組織との外科器具の接触時に、ロボットアームの位置センサの位置を判定する)(例えば、少なくとも100Hz、例えば、250Hz以上、例えば、500Hz以上、例えば、1000Hz以上のレートで位置センサの記録された位置を動的に更新する)ことと、(v)位置センサによって判定されたエンドエフェクタの更新された位置に少なくとも一部基づいて、患者の位置を動的に再位置合わせする[(例えば、外科処置中に)(例えば、外科器具が、目標の解剖学的構造と接触している、例えば、患者の骨と接触しているということが(例えば、力フィードバックサブシステムを介して)判定されるとき、エンドエフェクタの更新された位置の少なくとも一部に基づいて、患者の状態の3D表現、例えば、3D図式表現及び/または3D触覚表現を更新する)(例えば、初期の(または前回の)位置合わせと一致している面合わせアルゴリズムを使用して)(例えば、エンドエフェクタ、外科器具、または外科器具もしくはエンドエフェクタの一部もしくは構成部品の接触の検出時に、患者の位置を予め計画された基準(例えば、機械的マーカ、例えば、患者に固定された、例えば、目標の解剖学的構造に取り付けられた、例えば、脊椎に取り付けられたマーカ)と動的に再位置合わせする)(例えば、エンドエフェクタ、外科器具、または外科器具もしくはエンドエフェクタの一部もしくは構成部品の近接の検出時に、患者の位置を予め計画された基準(例えば、機械的マーカ、例えば、患者に固定された、例えば、目標の解剖学的構造に取り付けられた、例えば、脊椎に取り付けられたマーカ)と、動的に再位置合わせする)(例えば、再位置合わせされた表現が所望されているとき、操作者コマンドにより、例えば、外科医がボタンを押すか、またはそれ以外の様式で図式または触覚ユーザインターフェースを起動させて、判定された、エンドエフェクタの更新された位置に基づいて、患者の位置を動的に再位置合わせする)]ことと、(vi)ディスプレイ上で見るために再位置合わせされた患者の位置を図式的にレンダリングする(例えば、更新された3D図式表現を図式的にレンダリングする)ことと、(vii)再位置合わせされた患者の位置に少なくとも一部基づいて、力フィードバックサブシステムを介して(例えば、外科処置中のロボットアームの操作者に)届けるための力フィードバックを動的に判定する[(例えば、患者の状態及びエンドエフェクタ(及び/または外科器具)の現在の位置の少なくとも更新された3D表現に基づいて、(例えば、所定の侵入可/侵入不可ゾーンを条件とする)(例えば、それによって許可する、促進する、指示する(例えば、触覚的な戻り止めまたは穴を課す)、禁止する(例えば、速度制限を課す)、及び/または、例えば、操作者、例えば外科医による、外科器具の直接操作によって、侵入可/侵入不可ゾーンにおける外科器具の移動を許可しない)]ことと、を行う。
別の態様において、開示された技術は、ロボット外科システムのロボットアームのエンドエフェクタに取り付けられた器具と患者の解剖学的構造を位置合わせする方法を含み、本方法は、計算デバイスのプロセッサによって、(例えば、患者に向かう)エンドエフェクタの移動によって促された、ロボットアームに直接または間接的に取り付けられた力センサからの触覚フィードバックを受信するステップと、プロセッサによって、触覚フィードバックが、器具の、(例えば、ある特定の密度またはある特定の機械的特性を有する)材料との接触に対応することを(例えば、少なくとも閾値を超える触覚フィードバックの大きさに基づいて)(例えば加えて、器具の少なくとも1つのポイントの配置に基づいて)(例えば、材料が骨である)判定するステップと、プロセッサによって、一組の空間座標を判定するステップと、一組の空間座標が、(例えば、エンドエフェクタの位置に対する)ロボット座標システムを使用して表された、器具の材料との各接触についての空間座標を含み、各空間座標が、解剖学的構造体積の表面上のポイント(例えば、骨の表面上のポイント)に対応し、プロセッサによって、(例えば、断層撮影患者データ(例えば、CTデータ、MRIデータ)から判定された)患者の解剖学的構造の表面に対応する医用画像データ座標システムを使用して表された一組の医用画像データ座標を受信するステップと、プロセッサによって、一組の空間座標に対応する表面を、(例えば、変換アレイまたは変換マトリクスを生成することによって)一組の医用画像データ座標に対応する患者の解剖学的構造の表面に(例えば、面合わせを使用して)マッピングするステップと、プロセッサによって、一組の空間座標に対応する表面と、一組の医用画像データ座標に対応する表面との間のマッピングに基づいて、ロボット座標システムと医用画像データ座標システムとの間の座標マッピングを生成するステップと、プロセッサによって、座標マッピングを記憶し、それにより(例えば、外科処置中の外科医によるナビゲーション使用のために)患者の解剖学的構造を位置合わせするステップと、を含む。
ある実施形態において、本方法は以下のステップを含む。
プロセッサによって、ディスプレイ用のレンダリングデータを(例えば、ロボット外科システムのディスプレイ上に、例えば、ロボットアーム上のディスプレイ上に)出力するステップを含み、レンダリングデータが、部材の位置及び座標マッピングに基づく医用画像データの少なくとも一部の表現に対応し、部材が、エンドエフェクタ、器具、及び外科器具からなる群から選択される。
ある実施形態において、本方法は、プロセッサによって、エンドエフェクタの位置における変更に基づきレンダリングデータを修正することによって新しいレンダリングデータを生成することと、プロセッサによって、新しいレンダリングデータを表示用に出力することと、を含む。
ある実施形態において、基準マーカは、材料を含む(例えば、空間座標が基準マーカと患者の解剖学的構造との間の空間関係を使用して判定されるように、エンドエフェクタが既知のサイズ及び形状を有する基準マーカと接触する)。ある実施形態において、基準マーカの複数のうちのそれぞれが、材料を識別する。ある実施形態において、複数の基準マーカの各々は、コース位置合わせの実行に必要な最小距離(例えば、最小距離は少なくとも5cm、少なくとも10cm、少なくとも15cm)だけ離間する。
ある実施形態において、ロボットアームは、能動的であり、逆駆動不可能である。
ある実施形態において、ロボット外科システムは、プロセッサを含む。
ある実施形態において、本発明は、プロセッサによって、患者の解剖学的構造モデルを記憶することを含み、患者の解剖学的構造モデルは、ロボット座標システムにおいて表された患者の解剖学的構造の表面によって画定される。
一態様において、開示された技術は、患者の解剖学的構造を器具と位置合わせするためのロボット外科システムを含み、その器具は、ロボット外科システムのロボットアームのエンドエフェクタに取り付けられ、そのシステムは、エンドエフェクタを備え、そこに器具を取り付けたロボットアームと、ロボットアームに直接または間接的に取り付けられた(例えば、力センサが器具とロボットアームとの間に位置付けられる)力センサと、プロセッサ及び内部に命令を記憶させたメモリと、を備え、命令が、プロセッサによって実行されたとき、プロセッサに、エンドエフェクタの(例えば、患者に向かう)移動によって促された力センサからの触覚フィードバックを受信することと、触覚フィードバックが、器具の、(例えば、ある特定の密度またはある特定の機械的特性を有する)材料との接触に対応することを、(例えば、少なくとも閾値を超える触覚フィードバックの大きさに基づいて)(例えば加えて、器具の少なくとも1つのポイントの配置に基づいて)(例えば、材料が骨である)判定することと、一組の空間座標を判定することと、一組の空間座標が、(例えば、エンドエフェクタの位置に対する)ロボット座標システムを使用して表された、器具の材料との各接触についての空間座標を含み、各空間座標が、解剖学的構造体積の表面上のポイント(例えば、骨の表面上のポイント)に対応し、(例えば、断層撮影患者データ(例えば、CTデータ、MRIデータ)から判定された)患者の解剖学的構造の表面に対応する医用画像データ座標システムを使用して表された一組の医用画像データ座標を判定することと、一組の空間座標に対応する表面を、(例えば、変換アレイまたは変換マトリクスを生成することによって)一組の医用画像データ座標に対応する患者の解剖学的構造の表面に(例えば、面合わせを使用して)マッピングすることと、一組の空間座標に対応する表面と、一組の医用画像データ座標に対応する表面との間のマッピングに基づいて、ロボット座標システムと医用画像データ座標システムとの間の座標マッピングを生成することと、座標マッピングを記憶することと、それにより(例えば、外科処置中の外科医によるナビゲーション使用のために)患者の解剖学的構造を位置合わせすることと、を行わせる。
ある実施形態において、命令は、プロセッサによって実行されたとき、プロセッサに、(例えば、ロボット外科システムのディスプレイ上に、例えば、ロボットアーム上のディスプレイ上に)ディスプレイ用のレンダリングデータを出力させ、レンダリングデータは、座標マッピングに基づく部材の位置の表現及び医用画像データの少なくとも一部に対応し、部材は、エンドエフェクタ、器具、及び外科器具からなる群から選択される。
ある実施形態において、命令は、プロセッサによって実行されたとき、プロセッサに、エンドエフェクタの位置の変更に基づくレンダリングデータの修正によって新しいレンダリングデータを生成させ、新しいレンダリングデータをディスプレイ用に出力させる。
ある実施形態において、基準マーカは、材料を含む(例えば、空間座標が基準マーカと患者の解剖学的構造との間の空間関係を使用して判定されるように、エンドエフェクタが既知のサイズ及び形状を有する基準マーカと接触する)。
ある実施形態において、基準マーカの複数のうちのそれぞれが、材料を識別する。ある実施形態において、複数の基準マーカの各々は、コース位置合わせの実行に必要な最小距離(例えば、最小距離は少なくとも5cm、少なくとも10cm、少なくとも15cm)だけ離間する。
ある実施形態において、ロボットアームは、能動的であり、逆駆動不可能である。
ある実施形態において、ロボット外科システムは、プロセッサを含む。
ある実施形態において、命令は、プロセッサによって実行されたとき、プロセッサに、患者の解剖学的構造モデルを記憶させ、患者の解剖学的構造モデルは、ロボット座標システムにおいて表された患者の解剖学的構造表面によって画定される。
一態様において、開示された技術は、ロボット手術システムのロボットアームのエンドエフェクタに取り付けられた器具での体積除去後の患者の解剖学的構造のモデルを更新する方法を含み、本方法は、計算デバイスのプロセッサによって、(例えば、患者に向かう)エンドエフェクタの移動によって促された、ロボットアームに直接または間接的に取り付けられた力センサからの触覚フィードバックを受信するステップと、プロセッサによって、触覚フィードバックが、器具の、(例えば、ある特定の密度またはある特定の機械的特性を有する)材料との接触に対応することを(例えば、少なくとも閾値を超える触覚フィードバックの大きさに基づいて)(例えば加えて、器具の少なくとも1つのポイントの配置に基づいて)(例えば、材料が骨である)判定するステップと、プロセッサによって、一組の空間座標を判定するステップと、一組の空間座標が、(例えば、エンドエフェクタの位置に対する)ロボット座標システムを使用して表された、器具の材料との各接触のための空間座標を含み、各空間座標が、解剖学的構造体積の表面上のポイント(例えば、骨の表面上のポイント)に対応し、プロセッサによって、患者の解剖学的構造の体積の表面に対応する一組の医用画像データ座標を受信するステップと、一組の医用画像データ座標内の各医用画像データ座標は、医用画像データ座標システムを使用して表され、プロセッサによって、ロボット座標システムと医用画像データ座標システムとの間の座標マッピング(例えば、変換アレイまたは変換マトリクス)を受信するステップと、プロセッサによって、一組の医用画像データ座標及び座標マッピングに基づき患者の解剖学的構造の体積の表面内部のポイントに対応する、一組の空間座標における1つ以上の内部空間座標を判定するステップと、プロセッサによって、一組の内部医用画像データ座標を生成するステップと、一組の内部医用画像データ座標が、座標マッピングを使用して1つ以上の各内部空間座標のための内部医用画像データ座標を含み、プロセッサによって、一組の医用画像データ座標によって画定された第1の体積が、修正された一組の医用画像データ座標によって画定された第2の体積よりも大きくなるように、一組の医用画像データ座標で患者の解剖学的構造の体積の表面を画定する一組の医用画像データ座標を修正するステップと、プロセッサによって、(例えば、外科医に表示するために)修正された一組の医用画像データ座標を記憶し、それにより患者の解剖学的構造のモデルを更新するステップと、を含む。
一態様において、開示された技術は、ロボット外科システムのロボットアームのエンドエフェクタに取り付けられた器具での体積除去後の患者の解剖学的構造のモデルを更新するためのシステムを含み、システムは、エンドエフェクタを備え、そこに器具を取り付けたロボットアームと、ロボットアームに直接または間接的に取り付けられた(例えば、力センサは器具とロボットアームとの間に位置付けされる)力センサと、プロセッサ及び内部に命令を記憶させたメモリと、を備え、命令が、プロセッサによって実行されたとき、プロセッサに、エンドエフェクタの(例えば、患者に向かう)移動によって促された力センサからの触覚フィードバックを受信することと、触覚フィードバックが、器具の、(例えば、ある特定の密度またはある特定の機械的特性を有する)材料との接触に対応することを、(例えば、少なくとも閾値を超える触覚フィードバックの大きさに基づいて)(例えば加えて、器具の少なくとも1つのポイントの配置に基づいて)(例えば、材料が骨である)判定することと、(例えば、エンドエフェクタの位置に対する)ロボット座標システムを使用して表された、器具の材料との各接触のための空間座標を含み、各空間座標が、解剖学的構造体積の表面上のポイント(例えば、骨の表面上のポイント)に対応する、一組の空間座標を判定することと、患者の解剖学的構造の体積の表面に対応する一組の医用画像データ座標を受信することであって、一組の医用画像データ座標内の各医用画像データ座標が、医用画像データ座標システムを使用して表される、受信することと、ロボット座標システムと医用画像データ座標システムとの間の座標マッピング(例えば、変換アレイまたは変換マトリクス)を受信することと、一組の医用画像データ座標及び座標マッピングに基づき患者の解剖学的構造の体積の表面内部のポイントに対応する、一組の空間座標における1つ以上の内部空間座標を判定することと、1つ以上の内部空間座標を使用して除去された患者の解剖学的構造の体積の一部を判定することと、一組の内部医用画像データ座標を生成することであって、一組の内部医用画像データ座標が、座標マッピングを使用した1つ以上の各内部空間座標のための内部医用画像データ座標を含む、生成することと、一組の医用画像データ座標によって画定された第1の体積が、修正された一組の医用画像データ座標によって画定された第2の体積よりも大きくなるように、一組の医用画像データ座標で患者の解剖学的構造の体積の表面を画定する一組の医用画像データ座標を修正することと、(例えば、外科医に表示するために)修正された一組の医用画像データ座標を記憶し、それにより患者の解剖学的構造のモデルを更新することと、を行わせる。
一態様において、開示された技術は、ロボット外科システムのロボットアームのエンドエフェクタに取り付けられた器具と、患者の解剖学的構造を外科処置中に再位置合わせする方法を含み、本方法は、計算デバイスのプロセッサによって、(例えば、患者に向かう)エンドエフェクタの移動によって促された、ロボットアームに直接または間接的に取り付けられた力センサからの触覚フィードバックを受信するステップと、プロセッサによって、触覚フィードバックが、器具の、(例えば、ある特定の密度またはある特定の機械的特性を有する)材料との接触に対応することを(例えば、少なくとも閾値を超える触覚フィードバックの大きさに基づいて)(例えば加えて、器具の少なくとも1つのポイントの配置に基づいて)(例えば、材料が骨である)判定するステップと、プロセッサによって、一組の空間座標を判定するステップと、一組の空間座標が、(例えば、エンドエフェクタの位置に対する)ロボット座標システムを使用して表された、器具の材料との各接触のための空間座標を含み、各空間座標が、解剖学的構造体積の表面上のポイント(例えば、骨の表面上のポイント)に対応し、プロセッサによって、ロボット座標システムと医用画像データ座標システムとの間の座標マッピング(例えば、変換アレイまたは変換マトリクス)を受信するステップと、ロボット座標システムがエンドエフェクタの物理的な座標システムに対応し、プロセッサによって、一組の空間座標に対応する表面のマッピングに基づいて座標マッピングを更新するステップと、プロセッサによって、(例えば、外科処置中の外科医による使用の際に、正確なナビゲーションモデルを提供するために)更新された座標マッピングを記憶し、それにより患者の解剖学的構造を再位置合わせするステップと、を含む。ある実施形態において、方法は、自動的に(例えば、自律的に)ユーザ入力の選択を進む。
ある実施形態において、マッピングは、面合わせを使用して生成される。
ある実施形態において、更新ステップは、プロセッサによって、患者の解剖学的構造の体積の表面を画定している一組の医用画像モデリング座標を、座標マッピングを使用して変換することによって判定することと、ここにおいて、一組のモデリング座標が、ロボット座標システムにおいて表され、体積の表面の予想配置を画定し、一組の医用画像モデリング座標が、医用画像データから生成され、プロセッサによって、一組の空間座標に対応する表面を、(例えば、変換アレイまたは変換マトリクスを生成することによって)一組の医用画像データ座標に対応する患者の解剖学的構造の表面に(例えば、面合わせを使用して)マッピングすることと、プロセッサによって、一組の空間座標に対応する表面を一組のモデリング座標にマッピングすることに基づき座標マッピングを更新することと、を含む。
ある実施形態において、更新ステップは、プロセッサによって、一組のモデリング座標を受信することと、一組のモデリング座標が、ロボット座標システム内で表され、患者の解剖学的構造の体積の表面を画定し、プロセッサによって、一組の空間座標に対応する表面を、(例えば、変換アレイまたは変換マトリクスを生成することによって)一組の医用画像データ座標に対応する患者の解剖学的構造の表面に(例えば、面合わせを使用して)マッピングすることと、プロセッサによって、一組の空間座標に対応する表面を一組のモデリング座標にマッピングすることに基づき座標マッピングを更新することと、を含む。
ある実施形態において、方法は、プロセッサによって、一組の空間座標のサイズが座標の抵抗閾値を超えることと、一組のサイズが閾値数を超えることを判定するときに、プロセッサによって、方法のステップ(d)〜(f)を自動的に実行することと、を含む。ある実施形態において、方法は、プロセッサによって、一組の空間座標が空間座標のサブセットを含むことを判定することであって、サブセットの空間座標の各組が、最小距離(例えば、少なくとも5cm、少なくとも10cm、少なくとも15cm)だけ離間し、空間座標のサブセットのサイズが座標の閾値数を超える、判定することと、サブセットのサイズが閾値数を超えること判定するときに、プロセッサによって、方法のステップ(d)〜(f)を自動的に実行することと、を含む。
ある実施形態において、基準マーカは、材料を備える(例えば、空間座標が基準マーカと患者の解剖学的構造との間の空間関係を使用して判定されるように、エンドエフェクタが既知のサイズ及び形状を有する基準マーカと接触する)。ある実施形態において、基準マーカの複数のうちのそれぞれが、材料を識別する。ある実施形態において、複数の基準マーカの各々は、コース位置合わせの実行に必要な最小距離(例えば、最小距離は少なくとも5cm、少なくとも10cm、少なくとも15cm)だけ離間する。
一態様において、開示された技術は、ロボット外科システムのロボットアームのエンドエフェクタに取り付けられた器具と患者の解剖学的構造を、外科処置中に再位置合わせするためのシステムを含み、システムは、エンドエフェクタを備え、そこに器具を取り付けたロボットアームと、ロボットアームに直接または間接的に取り付けられた(例えば、力センサは器具とロボットアームとの間に位置付けされる)力センサと、プロセッサ及び内部に命令を記憶させたメモリと、を備え、命令が、プロセッサによって実行されたとき、プロセッサに、エンドエフェクタの(例えば、患者に向かう)移動によって促された力センサからの触覚フィードバックを受信することと、触覚フィードバックが、器具の、(例えば、ある特定の密度またはある特定の機械的特性を有する)材料との接触に対応することを、(例えば、少なくとも閾値を超える触覚フィードバックの大きさに基づいて)(例えば加えて、器具の少なくとも1つのポイントの配置に基づいて)(例えば、材料が骨である)判定することと、(例えば、エンドエフェクタの位置に対する)ロボット座標システムを使用して表された、器具の材料との各接触のための空間座標を含み、各空間座標が、解剖学的構造体積の表面上のポイント(例えば、骨の表面上のポイント)に対応する、一組の空間座標を判定することと、ロボット座標システムと医用画像データ座標システムとの間の座標マッピング(例えば、変換アレイまたは変換マトリクス)を受信することであって、ロボット座標システムがエンドエフェクタの物理的な座標システムに対応する、受信することと、一組の空間座標に対応する表面のマッピングに基づく座標マッピングを更新することと、(例えば、外科処置中の外科医による使用の際に、正確なナビゲーションモデルを提供するために)更新された座標マッピングを記憶し、それにより患者の解剖学的構造を再位置合わせすることと、を行わせる。
ある実施形態において、マッピングは、面合わせを使用して生成される。
ある実施形態において、更新ステップは、プロセッサによって、実行されたとき、プロセッサに、患者の解剖学的構造の体積の表面を画定している一組の医用画像モデリング座標を、座標マッピングを使用して変換することによって判定することであって、一組のモデリング座標が、ロボット座標システムにおいて表され、体積の表面の予想配置を画定し、一組の医用画像モデリング座標が、医用画像データから生成される、判定することと、一組の空間座標に対応する表面を、(例えば、変換アレイまたは変換マトリクスを生成することによって)一組のモデリング座標に対応する患者の解剖学的構造の表面に(例えば、面合わせを使用して)マッピングすることと、一組の空間座標に対応する表面を一組のモデリング座標にマッピングすることに基づき座標マッピングを更新することと、を行わせる命令を含む。
ある実施形態において、更新ステップは、プロセッサによって実行されたとき、プロセッサに、一組のモデリング座標を受信することであって、一組のモデリング座標が、ロボット座標システム内で表され、患者の解剖学的構造の体積の表面を画定する、受信することと、一組の空間座標に対応する表面を、(例えば、変換アレイまたは変換マトリクスを生成することによって)一組のモデリング座標に対応する患者の解剖学的構造の表面に(例えば、面合わせを使用して)マッピングすることと、一組の空間座標に対応する表面を一組のモデリング座標にマッピングすることに基づき座標マッピングを更新することと、を行わせる命令を含む。
ある実施形態において、命令は、プロセッサによって実行されたとき、プロセッサに、プロセッサによって、一組の空間座標のサイズが座標の閾値数を超えることを判定することと、一組のサイズが閾値数を超えることを判定するときに、プロセッサによって、命令のステップ(d)〜(f)を自動的に実行することと、を行わせる。ある実施形態において、命令は、プロセッサによって実行されたとき、プロセッサに、プロセッサによって、一組の空間座標が空間座標のサブセットを含むことであって、サブセットの空間座標の各組が、最小距離(例えば、少なくとも5cm、少なくとも10cm、少なくとも15cm)だけ離間し、空間座標のサブセットのサイズが座標の閾値数を超える、判定することと、サブセットのサイズが閾値数を超えることを判定するときに、プロセッサによって、命令のステップ(d)〜(f)を自動的に実行することと、を行わせることを含む。
ある実施形態において、基準マーカは、材料を備える(例えば、空間座標が基準マーカと患者の解剖学的構造との間の空間関係を使用して判定されるように、エンドエフェクタが既知のサイズ及び形状を有する基準マーカと接触する)。ある実施形態において、基準マーカの複数のうちのそれぞれが、材料を識別する。ある実施形態において、複数の基準マーカの各々は、コース位置合わせの実行に必要な最小距離(例えば、最小距離は少なくとも5cm、少なくとも10cm、少なくとも15cm)だけ離間する。
一態様において、開示された技術は、ロボット外科システムのロボットアームのエンドエフェクタに取り付けられた外科器具が操作され得る、手術可能な体積を画定する方法を含み、本方法は、計算デバイスのプロセッサによって、(例えば、患者に向かう)エンドエフェクタの移動によって促された、ロボットアームに直接または間接的に取り付けられた力センサからの触覚フィードバックを受信するステップと、プロセッサによって、触覚フィードバックが、器具の、(例えば、ある特定の密度またはある特定の機械的特性を有する)患者の解剖学的構造との接触に対応することを(例えば、少なくとも閾値を超える触覚フィードバックの大きさに基づいて)(例えば加えて、器具の少なくとも1つのポイントの配置に基づいて)(例えば、患者の解剖学的構造が骨である)判定するステップと、プロセッサによって、一組の空間座標を判定するステップと、一組の空間座標が、(例えば、エンドエフェクタの位置に対する)ロボット座標システムを使用して表された、器具の患者の解剖学的構造との各接触のための空間座標を含み、各空間座標が、解剖学的構造体積の表面上のポイント(例えば、骨の表面上のポイント)に対応し、プロセッサによって、ユーザにより選択されたモデル体積(例えば、除去される骨の一部のモデル)を受信するステップと、モデル体積は、ロボット座標システムで表され、プロセッサによって、モデル体積の表面を一組の空間座標にマッピングするステップと、プロセッサによって、更新されたモデル体積を生成するステップと、更新されたモデル体積の座標は、モデル体積の表面のマッピングを使用してモデル体積の座標を一組の空間座標に変換することによって生成され、プロセッサによって、更新されたモデル体積を記録するステップと、を含む。ある実施形態において、メモリは、内部に記憶された自律的な命令を有し、自律的な命令は、プロセッサによって実行されたとき、プロセッサに、自動的に(例えば、自律的に)患者の解剖学的構造の再位置合わせを行わせる。
ある実施形態において、更新されたモデル体積は、制限された手術可能な体積であり、外科器具の終点が、制限された手術可能な体積内に一時的に制限される。
ある実施形態において、モデル体積は、座標マッピングを使用して医用画像データから生成される。
ある実施形態において、本方法は、プロセッサによって、更新されたモデル体積(例えば、除去される骨の一部のモデル)を受信することと、記憶されたモデル体積は、第1のロボット座標システム内で表され、プロセッサによって、第2のロボット座標システムにおいて表された、更新された座標マッピングを受信することと、プロセッサによって、第1のロボット座標システムを第2のロボット座標システムにマッピングすることと、プロセッサによって、第1のロボット座標システムと第2のロボット座標システムとの間のマッピングを使用して、更新されたモデル体積の座標を第2のロボット座標システムにおいて表された更新された座標に変換することによって第2の更新されたモデル体積を生成することと、プロセッサによって、第2の更新されたモデル体積を記録することと、を含む。
一態様において、開示された技術は、ロボット外科システムのロボットアームのエンドエフェクタに取り付けられた外科器具が操作され得る、手術可能な体積を画定するためのシステムを含み、システムは、それに取り付けられた器具を有する、エンドエフェクタを備えるロボットアームと、ロボットアームに直接または間接的に取り付けられた(例えば、力センサは器具とロボットアームとの間に位置付けされる)力センサと、プロセッサ及び内部に命令を記憶させたメモリと、を備え、命令が、プロセッサによって実行されたとき、プロセッサに、エンドエフェクタの(例えば、患者に向かう)移動によって促された力センサからの触覚フィードバックを受信することと、触覚フィードバックが、器具の、(例えば、ある特定の密度またはある特定の機械的特性を有する)患者の解剖学的構造との接触に対応することを、(例えば、少なくとも閾値を超える触覚フィードバックの大きさに基づいて)(例えば加えて、器具の少なくとも1つのポイントの配置に基づいて)(例えば、患者の解剖学的構造が骨である)判定することと、(例えば、エンドエフェクタの位置に対する)ロボット座標システムを使用して表された、器具の患者の解剖学的構造との各接触のための空間座標を含み、各空間座標が、体積の表面上のポイント(例えば、骨の表面上のポイント)に対応する、一組の空間座標を判定することと、ユーザにより選択されたモデル体積(例えば、除去される骨の一部のモデル)を受信することであって、モデル体積が、ロボット座標システムで表される、受信することと、モデル体積の表面を一組の空間座標にマッピングすることと、更新されたモデル体積を生成することであって、更新されたモデル体積の座標が、モデル体積の表面のマッピングを使用してモデル体積の座標を一組の空間座標に変換することによって生成される、生成することと、更新されたモデル体積を記憶することと、を行わせる。
ある実施形態において、更新されたモデル体積は、制限された手術可能な体積であり、外科器具の終点が、制限された手術可能な体積内に一時的に制限される。
ある実施形態において、モデル体積は、座標マッピングを使用して医用画像データから生成される。
ある実施形態において、命令が、プロセッサによって実行されたとき、プロセッサに、更新されたモデル体積(例えば、除去される骨の一部のモデル)を受信することであって、記憶されたモデル体積が、第1のロボット座標システム内で表される、受信することと、第2のロボット座標システムにおいて表された、更新された座標マッピングを受信することと、第1のロボット座標システムを第2のロボット座標システムにマッピングすることと、第1のロボット座標システムと第2のロボット座標システムとの間のマッピングを使用して、更新されたモデル体積の座標を第2のロボット座標システムにおいて表された更新された座標に変換することによって第2の更新されたモデル体積を生成することと、第2の更新されたモデル体積を記憶することと、を行わせる。
一態様において、開示された技術は、ロボット補助付きの外科処置中のナビゲーションのために、患者の解剖学的構造に対してロボットアームに取り付けられた外科器具の位置を表示する方法を含み、方法は、計算デバイスのプロセッサによって、外科ツールの終点の配置(例えば、終点の配置は、プロセッサによって、既知の(例えば、記憶された)ロボットアームの配置と終点との距離を使用して判定される)を受信することと、配置は、ロボット座標システムにおいて表され、プロセッサによって、ロボット座標システムと医用画像データ座標システムとの間の座標マッピング(例えば、変換アレイまたは変換マトリクス)を受信することと、プロセッサによって、終点の変換後の配置が医用画像データ座標システム内で表されるように、座標マッピングを使用して終点の配置を変換することと、プロセッサによって、終点の変換後の配置を含むレンダリングデータを生成することと、プロセッサによって、レンダリングデータを出力することと、を含み、レンダリングデータの表示は、患者の解剖学的構造の表現及び終点の配置の表現を含み、患者の解剖学的構造の表現上のポイントと終点の表現との間のシミュレート後の距離は、終点と患者の解剖学的構造の対応するポイントとの間の空間的距離に比例する。
ある実施形態において、患者の解剖学的構造の表現に対応するレンダリングデータは、医用画像データから生成された医用画像データ座標から生成され、医用画像データ座標は、医用画像データ座標システムにおいて表される。
一態様において、開示された技術は、ロボット補助付きの外科処置中のナビゲーションのために、患者の解剖学的構造に対してロボットアームに取り付けられた外科器具の一部を表示するシステムを含み、システムは、それに取り付けられた器具を有する、エンドエフェクタを備えるロボットアームと、ロボットアームに直接または間接的に取り付けられた(例えば、力センサは器具とロボットアームとの間に位置付けされる)力センサと、プロセッサ及び内部に命令を記憶させたメモリと、を備え、命令が、プロセッサによって実行されたとき、プロセッサに、外科ツールの終点の配置(例えば、終点の配置は、プロセッサによって、既知の(例えば、記憶された)ロボットアームの配置と終点との距離を使用して判定される)を受信することと、配置は、ロボット座標システムにおいて表され、ロボット座標システムと医用画像データ座標システムとの間の座標マッピング(例えば、変換アレイまたは変換マトリクス)を受信することと、終点の変換後の配置が医用画像データ座標システム内で表されるように、座標マッピングを使用して終点の配置を変換することと、終点の変換後の配置を含むレンダリングデータを生成することと、レンダリングデータを出力することと、をもたらし、レンダリングデータの表示は、患者の解剖学的構造の表現及び終点の配置の表現を含み、患者の解剖学的構造の表現上のポイントと終点の表現との間のシミュレート後の距離は、終点と患者の解剖学的構造の対応するポイントとの間の空間的距離に比例する。
ある実施形態において、患者の解剖学的構造の表現に対応するレンダリングデータは、医用画像データから生成された医用画像データ座標から生成され、医用画像データ座標は、医用画像データ座標システムにおいて表される。
一態様において、開示された技術は、1つ以上の器具で体積除去手術を実行する方法を含み、1つ以上の器具は、ロボット外科システムのロボットアームのエンドエフェクタに取り付けることによって使用され、本方法は、ロボット座標システム内に患者の解剖学的構造のモデルを表すために、患者の解剖学的構造を位置合わせすることと、患者の解剖学的構造の第1の体積の除去に続いて、複数の配置においてエンドエフェクタに取り付けられた器具を患者の解剖学的構造に接触させることと、接触は、ロボットアームに直接または間接的に取り付けられた力センサからの触覚フィードバックによって判定され、触覚フィードバックは、(例えば、患者に向かう)エンドエフェクタの移動によって促され、接触された複数の配置に対応する空間座標を使用して、除去された患者の解剖学的構造の第1の体積に対応するモデルの一部を決定することによって、患者の解剖学的構造のモデルを更新することと、任意で、複数の再位置合わせ配置を器具と接触させることによって患者の解剖学的構造を再位置合わせすることと、接触は、ロボットアームに直接または間接的に取り付けられた力センサからの触覚フィードバックによって判定され、触覚フィードバックは、(例えば、患者に向かう)エンドエフェクタの動きによって促され、患者の解剖学的構造のモデルにおける座標は、再位置合わせに基づく新しいロボット座標システム内で表されるように変換され手術可能な体積を画定することと、手術可能な体積は、ロボット座標システムまたは新しいロボット座標システム(例えば、再位置合わせステップが実行される場合)のいずれかにおいて表され、外科器具の予め画定された終点が第2の体積の除去期間の間、手術可能な体積内に制限されるようにロボットアームを操作することと、のステップを含む。
ある実施形態において、位置合わせステップは、計算デバイスのプロセッサによって、(例えば、患者に向かう)エンドエフェクタの移動によって促された、ロボットアームに直接または間接的に取り付けられた力センサからの触覚フィードバックを受信することと、プロセッサによって、触覚フィードバックが、器具の、(例えば、ある特定の密度またはある特定の機械的特性を有する)材料との接触に対応することを(例えば、少なくとも閾値を超える触覚フィードバックの大きさに基づいて)(例えば加えて、器具の少なくとも1つのポイントの配置に基づいて)(例えば、材料が骨である)判定することと、プロセッサによって、一組の空間座標を判定することと、一組の空間座標が、(例えば、エンドエフェクタの位置に対する)ロボット座標システムを使用して表された、器具の材料との各接触のための空間座標を含み、各空間座標が、解剖学的構造体積の表面上のポイント(例えば、骨の表面上のポイント)に対応し、プロセッサによって、(例えば、断層撮影患者データ(例えば、CTデータ、MRIデータ)から判定された)患者の解剖学的構造の表面に対応する医用画像データ座標システムを使用して表された一組の医用画像データ座標を受信することと、プロセッサによって、一組の空間座標に対応する表面を、(例えば、変換アレイまたは変換マトリクスを生成することによって)一組の医用画像データ座標に対応する患者の解剖学的構造の表面に(例えば、面合わせを使用して)マッピングすることと、プロセッサによって、一組の空間座標に対応する表面と、一組の医用画像データ座標に対応する表面との間のマッピングに基づいて、ロボット座標システムと医用画像データ座標システムとの間の座標マッピングを生成することと、プロセッサによって、(例えば、外科処置中の外科医によるナビゲーション使用のために)座標マッピングを記憶することと、を含む。
ある実施形態において、本方法は、プロセッサによって、表示用のレンダリングデータを出力することのステップを含み、レンダリングデータは、部材の位置の表現及び座標マッピングに基づく医用画像データの少なくとも一部に対応し、部材は、エンドエフェクタ、器具、及び外科器具からなる群から選択される。ある実施形態において、本方法は、プロセッサによって、エンドエフェクタの位置における変更に基づきレンダリングデータを修正することによって新しいレンダリングデータを生成することと、プロセッサによって、新しいレンダリングデータを表示用に出力することと、を含む。
ある実施形態において、基準マーカは、材料を含む(例えば、空間座標が基準マーカと患者の解剖学的構造との間の空間関係を使用して判定されるように、エンドエフェクタが既知のサイズ及び形状を有する基準マーカと接触する)。
ある実施形態において、ロボットアームは、能動的であり、逆駆動不可能である。
ある実施形態において、ロボット外科システムは、プロセッサを含む。
ある実施形態において、本発明は、プロセッサによって、患者の解剖学的構造モデルを記憶することを含み、患者の解剖学的構造モデルは、ロボット座標システムにおいて表された患者の解剖学的構造の表面によって画定される。
ある実施形態において、更新ステップは、プロセッサによって、一組の空間座標を判定することと、一組の空間座標が、(例えば、エンドエフェクタの位置に対する)ロボット座標システムを使用して表された、器具の材料との各接触のための空間座標を含み、各空間座標が、解剖学的構造体積の表面上のポイント(例えば、骨の表面上のポイント)に対応し、プロセッサによって、患者の解剖学的構造の体積の表面に対応する一組の医用画像データ座標を受信することと、一組の医用画像データ座標内の各医用画像データ座標は、医用画像データ座標システムを使用して表され、プロセッサによって、ロボット座標システムと医用画像データ座標システムとの間の座標マッピング(例えば、変換アレイまたは変換マトリクス)を受信することと、プロセッサによって、一組の医用画像データ座標及び座標マッピングに基づき患者の解剖学的構造の体積の表面内部のポイントに対応する、一組の空間座標における1つ以上の内部空間座標を判定することと、プロセッサによって、1つ以上の内部空間座標を使用して除去された患者の解剖学的構造の体積の一部を判定することと、プロセッサによって、一組の内部医用画像データ座標を生成することと、一組の内部医用画像データ座標が、座標マッピングを使用して1つ以上の各内部空間座標のための内部医用画像データ座標を含み、プロセッサによって、一組の医用画像データ座標によって画定された第1の体積が、修正された一組の医用画像データ座標によって画定された第2の体積よりも大きくなるように、一組の内部医用画像データ座標で患者の解剖学的構造の体積の表面を画定する一組の医用画像データ座標を修正することと、プロセッサによって、(例えば、外科医に表示するために)修正された一組の医用画像データ座標を記憶し、それにより患者の解剖学的構造のモデルを更新することと、を含む。
ある実施形態において、画定ステップは、計算デバイスのプロセッサによって、(例えば、患者に向かう)エンドエフェクタの移動によって促された、ロボットアームに直接または間接的に取り付けられた力センサからの触覚フィードバックを受信することと、プロセッサによって、触覚フィードバックが、器具の、(例えば、ある特定の密度またはある特定の機械的特性を有する)材料との接触に対応することを(例えば、少なくとも閾値を超える触覚フィードバックの大きさに基づいて)(例えば加えて、器具の少なくとも1つのポイントの配置に基づいて)(例えば、材料が骨である)判定することと、プロセッサによって、一組の空間座標を判定することと、一組の空間座標が、(例えば、エンドエフェクタの位置に対する)ロボット座標システムを使用して表された、器具の材料との各接触のための空間座標を含み、各空間座標が、解剖学的構造体積の表面上のポイント(例えば、骨の表面上のポイント)に対応し、プロセッサによって、ユーザにより選択されたモデル体積(例えば、除去される骨の一部のモデル)を受信することと、モデル体積は、ロボット座標システムで表され、プロセッサによって、モデル体積の表面を一組の空間座標にマッピングすることと、プロセッサによって、更新されたモデル体積を生成することと、更新されたモデル体積の座標は、モデル体積の表面のマッピングを使用してモデル体積の座標を一組の空間座標に変換することによって生成され、プロセッサによって、更新されたモデル体積を記録することと、を含む。
ある実施形態において、更新されたモデル体積は、制限された手術可能な体積であり、外科器具の終点が、制限された手術可能な体積内に一時的に制限される。
ある実施形態において、モデル体積は、座標マッピングを使用して医用画像データから生成される。
ある実施形態において、本方法は、プロセッサによって、更新されたモデル体積(例えば、除去される骨の一部のモデル)を受信することと、記憶されたモデル体積は、第1のロボット座標システム内で表され、プロセッサによって、第2のロボット座標システムにおいて表された、更新された座標マッピングを受信することと、プロセッサによって、第1のロボット座標システムを第2のロボット座標システムにマッピングすることと、プロセッサによって、第1のロボット座標システムと第2のロボット座標システムとの間のマッピングを使用して、更新されたモデル体積の座標を第2のロボット座標システムにおいて表された更新された座標に変換することによって第2の更新されたモデル体積を生成することと、プロセッサによって、第2の更新されたモデル体積を記録することと、を含む。
ある実施形態において、再位置合わせステップは、計算デバイスのプロセッサによって、(例えば、患者に向かう)エンドエフェクタの移動によって促された、ロボットアームに直接または間接的に取り付けられた力センサからの触覚フィードバックを受信することと、プロセッサによって、触覚フィードバックが、器具の、(例えば、ある特定の密度またはある特定の機械的特性を有する)材料との接触に対応することを(例えば、少なくとも閾値を超える触覚フィードバックの大きさに基づいて)(例えば加えて、器具の少なくとも1つのポイントの配置に基づいて)(例えば、材料が骨である)判定することと、プロセッサによって、一組の空間座標を判定することと、ここにおいて、一組の空間座標が、(例えば、エンドエフェクタの位置に対する)ロボット座標システムを使用して表された、器具の材料との各接触のための空間座標を含み、各空間座標が、解剖学的構造体積の表面上のポイント(例えば、骨の表面上のポイント)に対応し、プロセッサによって、ロボット座標システムと医用画像データ座標システムとの間の座標マッピング(例えば、変換アレイまたは変換マトリクス)を受信することと、ここにおいて、ロボット座標システムがエンドエフェクタの物理的な座標システムに対応し、プロセッサによって、一組の空間座標に対応する表面のマッピングに基づく座標マッピングを更新することと、プロセッサによって、(例えば、外科処置中の外科医による使用の際に、正確なナビゲーションモデルを提供するために)更新された座標マッピングを記憶し、患者の解剖学的構造を再位置合わせすることと、を含む。
ある実施形態において、マッピングは、面合わせを使用して生成される。
ある実施形態において、更新ステップは、プロセッサによって、患者の解剖学的構造の体積の表面を画定している一組の医用画像モデリング座標を、座標マッピングを使用して変換することによって判定することと、ここにおいて、一組のモデリング座標が、ロボット座標システムにおいて表され、体積の表面の予想配置を画定し、一組の医用画像モデリング座標が、医用画像データから生成され、プロセッサによって、一組の空間座標に対応する表面を、(例えば、変換アレイまたは変換マトリクスを生成することによって)一組の医用画像データ座標に対応する患者の解剖学的構造の表面に(例えば、面合わせを使用して)マッピングすることと、プロセッサによって、一組の空間座標に対応する表面を一組のモデリング座標にマッピングすることに基づき座標マッピングを更新することと、を含む。
ある実施形態において、更新ステップは、プロセッサによって、一組のモデリング座標を受信することと、一組のモデリング座標が、ロボット座標システム内で表され、患者の解剖学的構造の体積の表面を画定し、プロセッサによって、一組の空間座標に対応する表面を、(例えば、変換アレイまたは変換マトリクスを生成することによって)一組の医用画像データ座標に対応する患者の解剖学的構造の表面に(例えば、面合わせを使用して)マッピングすることと、プロセッサによって、一組の空間座標に対応する表面を一組のモデリング座標にマッピングすることに基づき座標マッピングを更新することと、を含む。
ある実施形態において、基準マーカは、材料を含む(例えば、空間座標が基準マーカと患者の解剖学的構造との間の空間関係を使用して判定されるように、エンドエフェクタが既知のサイズ及び形状を有する基準マーカと接触する)。ある実施形態において、基準マーカの複数のうちのそれぞれが、材料を識別する。ある実施形態において、複数の基準マーカの各々は、コース位置合わせの実行に必要な最小距離(例えば、最小距離は少なくとも5cm、少なくとも10cm、少なくとも15cm)だけ離間する。
一態様において、開示された技術は、ロボット外科システムのロボットアームのエンドエフェクタに取り付けられた外科器具が操作され得る手術可能な体積を更新する方法を含み、本方法は、プロセッサによって、座標を含む記憶されたモデル体積(例えば、除去される骨の一部のモデル)を受信するステップであって、記憶されたモデルが、第1のロボット座標システムで表される、受信するステップと、プロセッサによって、第2のロボット座標システム内で表された更新された座標マッピングを受信するステップと、プロセッサによって、更新された座標マッピングを使用して、記憶されたモデル体積の各座標を第2のロボット座標システム内で表されるために変換するステップと、プロセッサによって、変換された座標を含む更新されたモデル体積を記憶するステップと、を含む。
一態様において、開示された技術は、ロボット外科システムの位置合わせまたは再位置合わせのための基準マーカを含み、基準マーカは、方向部材の複数の面を横切って分配された複数の方向ポイントを備える方向部材と、方向部材が患者の解剖学的構造に対する方向及び位置を認識するように、基準マーカを患者の解剖学的構造に確実かつ開放可能に取り付けるための取り付け部材と、を備える。ある実施形態において、複数の方向ポイントは、方向部材の表面上のくぼみである。ある実施形態において、患者の解剖学的構造の一部は、骨である。ある実施形態において、複数の方向ポイントは、ロボット座標システム(例えば、医用画像データ座標システムへのロボット座標システムのマッピングに使用するため)を画定する。
一態様において、開示された技術は、ロボット外科システムのロボットアームのエンドエフェクタに取り付けられた器具で、手術中に手術可能な体積を画定するための方法を含み、本方法は、計算デバイスのプロセッサによって、(例えば、患者に向かう)エンドエフェクタの移動によって促された、ロボットアームに直接または間接的に取り付けられた力センサからの触覚フィードバックを受信することと、プロセッサによって、触覚フィードバックが、器具の、(例えば、ある特定の密度またはある特定の機械的特性を有する)材料との接触に対応することを(例えば、少なくとも閾値を超える触覚フィードバックの大きさに基づいて)(例えば加えて、器具の少なくとも1つのポイントの配置に基づいて)(例えば、材料が骨である)判定することと、プロセッサによって、一組の空間座標を判定することと、一組の空間座標が、(例えば、エンドエフェクタの位置に対する)ロボット座標システムを使用して表された、器具の材料との各接触のための空間座標を含み、各空間座標が、解剖学的構造体積の表面上のポイント(例えば、骨の表面上のポイント)に対応し、プロセッサによって、一組の空間座標に基づいて手術可能な体積を画定することと、プロセッサによって、外科ツールの動作を手術可能な体積内に一時的に制限するために使用するため、手術可能な体積を記憶することと、を含む。ある実施形態において、手術可能な体積は、制限された手術可能な体積であり、外科器具の終点が、制限された手術可能な体積内に一時的に制限される。
一態様において、開示された技術は、ロボット外科システムのロボットアームのエンドエフェクタに取り付けられた器具で、手術中に手術可能な体積を画定するためのシステムを含み、システムは、エンドエフェクタを備え、そこに器具を取り付けたロボットアームと、ロボットアームに直接または間接的に取り付けられた(例えば、力センサは器具とロボットアームとの間に位置付けされる)力センサと、プロセッサ及び内部に命令を記憶させたメモリと、を備え、命令が、プロセッサによって実行されたとき、プロセッサに、プロセッサによって、エンドエフェクタの(例えば、患者に向かう)移動によって促された、ロボットアームに直接または間接的に取り付けられた力センサからの触覚フィードバックを受信することと、プロセッサによって、触覚フィードバックが、器具の、(例えば、ある特定の密度またはある特定の機械的特性を有する)材料との接触に対応することを、(例えば、少なくとも閾値を超える触覚フィードバックの大きさに基づいて)(例えば加えて、器具の少なくとも1つのポイントの配置に基づいて)(例えば、材料が骨である)判定することと、プロセッサによって、(例えば、エンドエフェクタの位置に対する)ロボット座標システムを使用して表された、器具の材料との各接触のための空間座標を含み、各空間座標が、解剖学的構造体積の表面上のポイント(例えば、骨の表面上のポイント)に対応する、一組の空間座標を判定することと、プロセッサによって、一組の空間座標に基づいて手術可能な体積を画定することと、外科ツールの動作を手術可能な体積内に一時的に制限するために使用するため、手術可能な体積を記憶することと、を行わせる。ある実施形態において、手術可能な体積は、制限された手術可能な体積であり、外科器具の終点が、制限された手術可能な体積内に一時的に制限される。
定義
本開示をより容易に理解されるように、本明細書において使用されたある特定の用語が、以下に定義される。以下の用語及びその他の用語のための付加的な定義は、明細書を通して説明され得る。
本アプリケーションにおいて、「or」の使用は、別の記述がない限り「and/or」を意味する。本アプリケーション内で使用されるように、用語「comprise」及び「comprising」ならびに「comprises」などのこの用語の変化形は、他の添加物、構成部品、整数、またはステップを除外することを意図しない。本アプリケーション内で使用されるように、用語「about」及び「approximately」は、同義語として使用される。about/approximatelyの有無にかかわらす本アプリケーションにおいて使用されるいずれの数値は、当業者のうちの一人によって理解されたいずれの通常の変動をカバーすることを意図されている。ある実施形態において、用語「approximately」または「about」は、別に記述がない限り、また文脈から他に明らかである限り(その数が可能な数の100%を超える場合を除き)、いずれの方向において、述べられた参照値の25%、20%、19%、18%、17%、16%、15%、14%、13%、12%、11%、10%、9%、8%、7%、6%、5%、4%、3%、2%、1%以下(超または未満)内にある値の範囲に言及する。
マッピング: 本明細書において使用されるように、「マッピング」は、二組の座標または二組の座標に対応するデータの間に関数を確立することを指す。二組の間の関数は、離散または連続となり得る。マッピングは、1つの座標システム内で記録及び/または記憶された座標が、別の座標システム内の座標に変換されることを可能とし、逆もまた同様に可能とする。同様の座標システム内で表された二組の座標は、同様に互いにマッピングされ得る。マップまたはマッピングは、データのアレイまたはマトリクスとして、コンピュータ可読媒体上で記憶され得る。ある実施形態において、マップまたはマッピングは、コンピュータ可読媒体上のアレイとして記憶された線形変換である。ある実施形態において、マップまたはマッピングは、座標システム間で変換するために使用される。ある実施形態において、座標システムは、デカルトである。いくつかの実施形態において、少なくとも1つの座標システムは、非デカルトである。マッピングは、最適化された関数となり得、マッピングは、マッピング方法(例えば、面合わせ)に従う最小エラー、または閾値以下のエラーの関数を提示する。ある実施形態において、マッピングは、面合わせを含む。本明細書において、「マップ」及び「マッピング」は、互換性をもって使用される。
図面は、本明細書において、例示の目的で存在し、限定するためではない。本発明の前述のならびに他の目的、態様、特徴、及び利点は、より明らかとなり、添付の図面と共に以下の説明を参照することによってよりよく理解され得るはずである。
本発明の例示的な実施形態に従って、手術室内のロボット外科システムの図である。 本発明の例示的な実施形態に従って、外科処置においてロボットベースのナビゲーションを有するロボット外科システムの使用の図である。 本発明の例示的な実施形態に従って、外科処置の補助をするためにロボット外科システムを使用するプロセスの図である。 本発明の例示的な実施形態に従って、画像作成プロセスのための様々なオプションの図である。 本発明の例示的な実施形態に従って、力センサ実装の図である。 本発明の例示的な実施形態に従って、力センサ実装の図である。 本発明の例示的な実施形態に従って、力センサ実装の図である。 本発明の例示的な実施形態に従って、外科器具の図である。 本発明の例示的な実施形態に従って、外科ドリル内で統合された力センサの実装の図である。 本発明の例示的な実施形態に従って、外科ドリル内で統合された力センサの実装の図である。 本発明の例示的な実施形態に従って、外科ドリル内で統合された力センサの実装の図である。 本発明の例示的な実施形態に従って、外科ドリル内で統合された力センサの実装の図である。 本発明の例示的な実施形態に従って、目標の解剖学的構造の位置を判定するためのプロセスの図である。 本発明の例示的な実施形態に従って、例示的な機械的マーカの図である。 本発明の例示的な実施形態に従って、自動再位置合わせに基づく目標の解剖学的構造の位置を判定するためのプロセスの図である。 本発明の例示的な実施形態に従って、操作者へのフィードバックをレンダリングするためのプロセスの図である。 本発明の例示的な実施形態に従って、器具を追跡するためのプロセスの図である。 本発明の例示的な実施形態に従って、器具をガイドするためのプロセスの図である。 本発明の例示的な実施形態に従って、ロボット外科システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科ロボットシステムの図である。 本発明の例示的な実施形態に従って、例示的なクラウド計算環境のブロック図を示す。 本発明の例示的な実施形態に従って、計算デバイスのブロック図及び移動式計算デバイスである。 本発明の例示的な実施形態に従って、例示的なロボット外科システムの図である。 本発明の例示的な実施形態に従って、コース位置合わせを得るために使用され得る基準の集まりである。 本発明の例示的な実施形態に従って、コース位置合わせを実施することに使用するため、患者の解剖学的構造に取り付けられた、図39に従った基準マーカを示す。 本発明の例示的な実施形態に従って、基準マーカが、図39に従って、コース位置合わせを実施するために使用されている、ナビゲーションスクリーンのスクリーンショットを示す。 本発明の例示的な実施形態に従って、コース位置合わせを実施するために使用される外科開創器を示す。 本発明の例示的な実施形態に従って、図42の外科開創器の代替的な図を示す。 本発明の例示的な実施形態に従って、患者を位置合わせするための方法のブロック図である。 本発明の例示的な実施形態に従って、体積の除去の後に患者の解剖学的構造のモデルを更新するための方法のブロック図である。 本発明の例示的な実施形態に従って、患者を位置合わせするための方法のブロック図である。 本発明の例示的な実施形態に従って、手術可能な体積を画定するための方法のブロック図である。 本発明の例示的な実施形態に従って、患者の位置を表示するための方法のブロック図である。 本発明の例示的な実施形態に従って、体積の除去を実施するためにロボット外科システムを使用する方法のブロック図である。 本発明の例示的な実施形態に従って、手術ツールの接触に基づいて手術可能な体積を画定する方法のブロック図である。
請求された発明のシステム、デバイス、方法、及びプロセスは、本明細書において記載された実施形態からの情報を使用して進展した変化及び適応を包含すると考えられる。本明細書において記載されたシステム、デバイス、方法、及びプロセスの適合及び/または修正は、当業者によって実行され得る。
説明を通して、物品、デバイス、及びシステムが特定の構成部品を有する、含む、または備えるとして記載される場合、もしくはプロセス及び方法が、特定のステップを有する、含む、または備えるとして記載される場合、付加的に、本発明の物品、デバイス及びシステムが引用された構成部品から主体としてなる、または構成部品からなる、及び本発明に従うプロセス及び方法が引用されたプロセスのステップから主体としてなる、またはプロセスのステップからなることが考えられる。
ステップの順序またはある特定の行動を実行するための順序(例えば、方法の中のステップ)は、本発明が操作可能である限り重要ではないということが理解されるはずである。
さらに、2つ以上のステップまたは行動は、同時に行われ得る。
本明細書の、例えば、背景部におけるいずれの公開の言及も、本明細書において提示されたいずれの請求項に関して先行技術として公開されたことの許可ではない。背景部は、明示目的のために提示されており、いずれの請求項に関する先行技術の記載を意図するものではない。ヘッダーは、読者の利便性のために提供され、請求された主題に関して限定するように意図するものではない。
図1は、手術室100内の例示的なロボット外科システムを示す。いくつかの実装において、一人以上の外科医、外科助手、外科技術者、及び/またはその他の検査助手(106a〜c)が、ロボット補助外科システムを使用して、患者104への手術を実行する。手術室において、外科医は、手術を正確に遂行するためにロボットシステムによってガイドされ得る。このことは、ツール(例えば、ドリルまたはねじ)の適切な軌道を確実にすることを含む、外科ツールのロボットガイドによって達成され得る。いくつかの実装において、外科医は、わずかな手術前計画で、または手術前計画なしで、手術中に軌道を画定する。システムは、外科医が、外科処置の重大なステップを実行するためのツールの適切な調整を安全に達成するために、ツールホルダーを物理的に操作することを可能とする。力制御モードにおける外科医(または他の操作者)によるロボットアームの操作は、ツールを外科医の予想外な、小さな動きも無視する、測定された、均一な様式でツールの移動を許可する。外科医は、手術または患者の中へツールを挿入する前に、ツール(例えば、ドリルまたはねじ)の適切な軌道を達成するためにツールホルダーを移動する。ロボットアームが所望の位置にあると、アームは所望の軌道を維持するために固定される。ツールホルダーは、ツールが正確な角度でその中を通って移動または摺動され得る安定し、安全なガイドとして作用する。そのため、開示された技術は、外科医に、彼または彼女の手術をうまく実行するための信頼できる器具及び技巧を備える。
いくつかの実施形態において、手術は、椎間板切除、椎間孔拡大、椎弓切除、または脊椎融合などの、脊髄手術となり得る。いくつかの実装において、外科ロボットシステムは、移動カート上の外科ロボット102を含む。外科ロボット102は、手術台に取り付けられることなく手術台112に近接して位置決めされ得、それにより手術台の周りで外科医に最大の手術領域と可動性を提供し、手術台上の混乱も削減する。代替的な実施形態において、外科ロボット(またはカート)は、手術台に固定可能である。ある実施形態において、手術台及びカートの両方が、共通の基部に個性され、地面のかすかな揺れのような事象においてさえ、互いの関係においてカートまたは台のいずれの移動も防ぐ。
移動カートは、手術室内の検査助手、看護師、外科医、またはいずれの他の医療関係者などの、ユーザ(操作者)106aが、外科ロボット102を外科処置前、外科処置中、及び/または外科処置後に異なる配置に移動させることを可能とし得る。移動カートは、外科ロボット102が手術室100内外に容易に運ばれることを可能とする。例えば、ユーザ106aは、保管配置から手術室内へ外科ロボットを移動することができる。いくつかの実装において、移動カートは、連続トラック推進システム、またはカートの移行のための他の類似の可動性システムなどの、車輪、軌道システムを含み得る。移動カートは、操作者による移動カートの運動のために取り付けられまたは埋め込まれたハンドルを含み得る。
安全性理由のため、移動カートは、外科処置が外科ロボットで実行される間に使用され得る、安定化システムを備えることができる。安定化システムは、外科処置の正確性を確実なものとするために床に対する移動カートの全体的な剛性を高める。いくつかの実装において、車輪は、カートの移動を防止する係止システムを含む。安定化、制動、及び/または係止システムは、機械の電源が入るとき活性化され得る。いくつかの実装において、移動カートは、複合的な安定化、制動、及び/または係止システムを含む。いくつかの実装において、安定化システムは、電子起動を有する電気機械である。安定化、制動、及び/または係止システム(複数可)は、全体に機械的となり得る。安定化、制動、及び/または係止システム(複数可)は、電子的に活性化、及び不活性化され得る。いくつかの実装において、外科ロボット102は、移動カートに取り付けられたロボットアームを含む。アクチュエータは、ロボットアームを移動させ得る。ロボットアームは、外科ツールを保持するように構成された力制御エンドエフェクタを含み得る。ロボットは、少なくとも4つの自由度(例えば、6つの自由度、3つの移動、及び3つの回転)を有するエンドエフェクタの位置決め及び/または移動を、制御及び/または可能とするように構成され得る。いくつかの実装において、ロボットアームは、能動的であり、逆駆動不可能である。そのような能動的及び逆駆動不可能なロボットアームは、力センサを備える。所定の最小の力を超えるエンドエフェクタに適用された力の検出時、ロボット外科システムのプロセッサは、ロボットアームのアクチュエータがエンドエフェクタを(例えば、力の適用の方向に対応する方向に)所定の計測されたペースで(例えば、安定した、遅い速度で、または、最初は非常に遅い速度で、徐々により大きな速度に制御された仕方で増大する)外科ツールの位置及び/またはエンドエフェクタの位置を位置決めするために、移動するように制御するように命令される。ある実施形態において、能動的で逆駆動不可能なロボットアームの動作は、外科医によって適用された力に応じて所定の計測されたペースで移動するエンドエフェクタを促進する1つ以上のモータによって制御される。
いくつかの実装において、ロボットアームは、外科ツールが除去され、第2の外科ツールに取って代わられることを可能とするように、外科ツールを開放可能に保持するように構成される。システムは、外科ツールが再位置合わせ無しで、またはエンドエフェクタの位置の自動または半自動再位置合わせを有して交換されることを可能とし得る。
いくつかの実装において、外科システムは、外科ロボット102、患者及び外科ロボット102の異なる構成部品の位置をキャプチャする、トラッキング検出器108、及び、例えばリアルタイムの患者のデータ、及び/またはリアルタイムの外科ロボットの軌道を表示する表示スクリーン110を含む。
いくつかの実装において、トラッキング検出器108は、患者104及び外科ロボット102の配置を監視する。トラッキング検出器は、カメラ、ビデオカメラ、赤外線検出器、電磁気トラッキング用磁場発生器及びセンサ、またはいずれの他の動作検出装置となり得る。トラッキング検出器は、患者及び/または患者に対する外科ロボットの一般的な方向のような態様を判定する患者及び/または外科ロボットのマクロスケールトラッキングのために使用され得る。開示された技術は、処置(例えば、外科処置、例えば、脊髄手術)中の患者の位置(例えば、患者の脊椎の位置)のリアルタイムで動的な位置合わせ及び再位置合わせのためのロボットベースのナビゲーションシステムを含む。例示的なロボット外科システムは、図38において示される。ロボット外科システム3800は、ロボットアーム3802を含む。ロボットアームは、3、4、5、6、または7つの自由度を有することができる。ロボットアーム3802は、エンドエフェクタ3804を有する。ある実施形態において、ロボットアーム3802は、外科処置中のエンドエフェクタ3804及び/または外科器具の位置を動的に追跡するための位置センサ3806を含む。加えて、外科器具の1つ以上のポイントは、例えば、少なくとも100Hz、250Hz以上、500Hz以上、または1000Hz以上(例えば、毎秒の位置決定)のレートで動的に追跡され得る。
ある実施形態において、システム3800は、力フィードバックサブシステム3808を含む。力フィードバックサブシステム3808は、エンドエフェクタまたはエンドエフェクタの器具ホルダー内に挿入された外科器具を操作しているユーザに、力覚を届けるためのセンサ(複数可)、アクチュエータ(複数可)、コントローラ(複数可)、サーボ(複数可)、及び/または他の機構を含むことができる。力フィードバックサブシステム3808は、患者の組織に接触し、抗して移動し、貫通し、及び/または中で移動する外科器具によって引き起こされた抵抗力を検出することができる。さらに、力フィードバックサブシステム3808は、接触された組織の種類を識別すること(例えば、接触された組織が抵抗閾値に達するまたは超えるとき、例えば、前記組織が骨のときに判定すること)ができる。
力フィードバックサブシステム3808はまた、操作者によって届けられた力を検出することができる。例えば、外科器具及び、したがって、エンドエフェクタの移動をもたらす、エンドエフェクタの外科器具ホルダー内に挿入された外科器具の直接操作によって届けられた力を検出することができる。力フィードバックサブシステム3808は、操作者によって届けられた力と、患者の組織に対する外科器具の移動によってもたらされた抵抗力とをさらに識別することができる。このことは、操作者が、システムに力を適用すると同時に、外科器具が患者の組織に接触することによる(例えば、触覚フィードバックを介した)抵抗を感じることの両方を可能とする。
ある実施形態において、ロボット外科システム3800は、処置中に操作者への妨げられない視覚フィードバックを可能とするために、操作者(例えば、外科医)によって直接操作されているロボットアームに対して取り付けられ、その中に埋め込まれ、またはそれ以外の様式で位置付けられるディスプレイ3810を含む。
操作者がシステムを使用するとき、システムは、患者の脊椎などの、目標の体積の初期位置合わせに、まずアクセスする(例えば、ディスプレイ上で図式的にレンダリングする)。このことは、本明細書で下に記載される方法と共に、MRI、CT、X線、SPECT、超音波、などを含む、患者の医用画像を使用して達成され得る。これらの画像は、手術前または手術中に獲得され得る。
手術者がエンドエフェクタの位置を移動させると、エンドエフェクタの位置は、(例えば、プロセッサ3812によって)動的に判定される。特に、いくつかの実装において、システムは、外科器具の1つ以上のポイントの3D位置を動的に判定する。外科器具によって受容された力は、外科器具が、患者に接触し、抗して移動し、貫通し、及び/またはその中で移動するとき、動的に判定される。システムは、これらの力を測定し、接触した組織の種類間で識別することができる。このことは、例えば、接触された組織が、抵抗閾値に達するまたは超えるとき、組織が骨のときに判定することによって達成され得る。システムは、操作者によって外科器具に適用された力をさらに検出し、操作者によって届けられた力と患者の組織に対する外科器具の移動によってもたらされた抵抗力とを識別することができる。
ある実施形態において、システムは、位置センサによって判定されたエンドエフェクタの更新された位置に少なくとも一部基づいて、患者位置を動的に再位置合わせすることができる。このことは、外科器具が目標の解剖学的構造と接触していることが(例えば、力フィードバックサブシステムを介して)判定されるとき、エンドエフェクタの更新された位置の少なくとも一部に基づいて、患者の状態の3D表現を更新するために使用され得る。このことは、初期の(または前の)位置合わせと一致している面合わせアルゴリズムを使用して達成され得る。
例えば、システムは、機械的マーカ、患者に固定されたマーカなどの、予め計画された基準で、エンドエフェクタ、外科器具、または外科器具もしくはエンドエフェクタの一部もしくは構成部品の接触または近接が検出されることで患者の位置を動的に再位置合わせすることができる。代替的に、システムは、再位置合わせされた表現が所望されるとき、操作者がボタンを押す、またはそれ以外の様式で図式的なまたは立体的なユーザインターフェースを活性化させるなどの、操作者コマンドが判定され、エンドエフェクタの更新された位置に基づいて患者の位置を動的に再位置合わせすることができる。
外科器具ホルダーは、外科器具をその中に挿入するまたはそこに取り付けるためのエンドエフェクタに接続されることができる。器具ホルダーは、取り外し可能である。このような場合、エンドエフェクタへの器具ホルダーの取り付けは、常に同じ位置に接続されるように正確で予想可能である。
ロボットアームは、外科器具がエンドエフェクタの外科器具ホルダーに挿入/取り付けられるとき、操作者によって(例えば、外科医によって)外科器具の直接操作を可能とするように設計される。器具の操作は、患者に対するエンドエフェクタ(及び/または外科器具)の位置に基づく触覚制限を受けやすくなり得る。外科器具は、器具(例えば、器具の先端)の配置が、ロボット外科システムによって既知となるように、外科器具ホルダーに対して既知の幾何学形状及び位置を有する。例えば、外科器具が器具ホルダーに完全に挿入されるとき、エンドエフェクタの位置が外科器具及び器具ホルダーに関する情報と同様に既知であるため、器具の位置は、ロボット外科システムに既知である。
ある実施形態において、ツール中心ポイント(TCP)は、外科器具ホルダーを通して挿入された、または取り付けられた外科器具ガイド及び外科器具のための正確な位置決め及び軌道計画を利用する。外科器具は、外科器具ホルダー内に挿入されたとき、ロボットアームに対する既知の座標を有する画定されたツール中心ポイントがあるように、設計され得る。ツール中心ポイントを画定するために使用された座標システムの原点は、ロボットアームのフランジに位置付けされ得る。加えて、ロボット外科システムの構成部品のインターフェース、接合点、または端子などのポイントを画定するために便利に位置付けられ得る。
ある実施形態において、外科ガイドまたは外科器具が外科器具ホルダーを有して使用されているかどうかに関わらず、TCPがロボットアームに対して一定の位置にあるために、外科医は、外科器具ホルダーを有して使用された器具または器具ガイドの方向、軌道、及び位置の視覚化を提供され得る。設計された外科器具システムの使用は、患者の解剖学的構造に対する外科器具ガイドの位置、方向、及び軌道を正確に判定するために、外科ガイドまたはツールの端部に取り付けられるナビゲーションマーカの必要性をなくす。
加えて、外科器具ホルダーに取り付けられたナビゲーションマーカは、外科医によるロボットアームの操作に基づいて位置、方向、及び現在の軌道を更新するために、全体的な外科器具ガイドの位置及び方向を追跡するために使用され得る。患者の体に取り付けられたナビゲーションマーカと同様に、手術前または手術中に撮られる患者の画像(例えば、CTデータ、無線画像データ、または類似のもの)によって提供された追加の情報は、ユニバーサル外科器具ガイドに取り付けられたナビゲーションマーカからのデータと組み合わされ、外科医が、患者の解剖学的構造の必要な特性の配置、及び前記解剖学的構造に対する外科器具または外科器具ガイドの位置、軌道、ならびに方向を見ることができるように、外科医によって可視なスクリーン上に表示され得る。
図5A〜Cは、力センサ(例えば、力/トルクセンサ430)を取り付けるための例示的な配置を示す。いくつかの実装において、図5Aにおいて示されるように、力センサ502aは、ツールホルダー506aとロボット504aとの間に位置付けされる。この構成を使用して、無菌カバー508aは、滅菌を確実にするために、ロボットアームの周り、及び力センサとツールホルダーの間に巻きつけられ得る。力センサ502aは、ツール上の力(例えば、力及び/またはトルク)の直接測定のために提供し得る。力センサ502aは、屈曲に抵抗するように設計され得る。力センサ502aは、ある特定の外力のストレス下で屈曲するように設計され得る。外力が適用されるときにもたらされた変位は、ツールに適用された力及び/またはトルク、半径方向力剛性、軸方向トルク剛性、ならびにツールが取り付けられるホルダーの直径に基づいて計算され得る。
図5B及び5Cにおいてそれぞれ示されるように、力センサ(例えば、図5Bにおける502b、または図5Cにおける502c)は、それぞれロボットまたはツールホルダー上に位置付けられ得る。これらの構成は、ユーザによって適用された力及び/またはトルクを排他的に測定し得る。力センサ508は、力及びトルクを測定し、ネットワーク(例えば、イーサネット(登録商標)、CAN、無線、インターネット、プライベートLAN、公衆LANなど)を介してそれらを送信する、中間アナログボックスでロボットに接続され得る。上記の力センサの位置の組み合わせは、予め画定された動き(例えば、図5A基部の第1のセンサ及び図5Bハンドルの第2のセンサは、ユーザによって適用された力及び/またはトルクから外科ツールに適用された力を切り離すためにフィードバック制御システムを可能とするように位置決めされ得る)を達成することが可能となる。
加えて、いくつかの実装において、力センサは、外科器具内で直接統合される。例えば、力センサは、図6で示されるように、外科ドリルビット内に直接統合され得る。図6に示されるように力センサ604の実装がドリルビット602に対して記載される一方で、力センサ604は、他の外科器具に同様に統合され得る。ドリルビット602などの外科器具に力センサ604を統合することは、ドリルビットに適用される力を測定するための外乱の影響を最小限に抑えるためにより堅固となり得る。
図6において示される例示的な構成において、力センサ604は、ドリルビット602の軸に統合される。いくつかの実装において、力センサ604は、図6において示されるように、ドリルの本体610の外部でドリルビット602上に位置付けられる。他の実装において、力センサ604は、ドリルの本体610の内部に位置付けられ、それにより外部の影響から力センサ604をよりよく保護する。力センサは、例えば、1〜3力及び/または1〜3トルクの多自由度及び量を有することができる。力は、コネクタ606を通り回転軸から送信される。コネクタは、いくつかの実装において、力センサ604に電気接続を提供する1つ以上のブラシである。力センサが光学センサの場合、コネクタは光送信機(例えば、LED)及び/または光受信機(例えば、光ダイオード)となり得る。この実施例において、ブラシは、ドリルビットに接触し、それによって力センサ604と電気接続を形成する。いくつかの実装において、ブラシは、電気接続を形成するためにドリルビット上の1つ以上の接点に触れる。
電気または空気圧モータ608は、ドリルビット602軸を回転させる。いくつかの実装において、センサ612(例えば、エンコーダ)は、軸の位置を測定する。センサ612は、力センサによって測定された力を軸の相対位置に相互に関係させるために、軸の位置を測定する。例えば、力センサがドリル内に位置付けられる場合、力の方向の測定値は、ドリルビットが回転すると変化するであろう。特に、力センサは、力及び力の方向を周期的に(例えば、ミリ秒毎、マイクロ秒毎、またはそれらの間のどこか)測定する。ドリルビットは、外科医がそれを骨の中で押すと回転する。ドリルが骨に接触するとき、力センサは、方向(D1)でいくつかの力(F1)を示すであろう。1つの期間後(例えば、1ミリ秒)、ドリルビットはわずかに回転し、そのため力センサが異なる方向(D2)において同じ値(F1)を示すであろう(定力が適用されると仮定する)。力の方向は、たとえ外科医が骨に定力で押す場合でも、ドリルビットが回転すると単一の視点に対して変更し続けるであろう。絶えず変更している力方向は、受け入れられない。方向(例えば、D1、D2)を(外科医、ロボットシステムなどによって見られる)骨からの力の全体的な方向(D)と相互に関連させるために、全体的なスペース内のドリルの位置は、ドリルビットが回転すると計算されなくてはならない。センサ612は、シャフトの位置を測定し、力(D)の全体的な方向を判定するために使用される。センサ612は、図6において示されるようにモータ608の背後に位置付けられ得る。センサ612は、同様にモータ608に対する他の配置で位置付けられ得る。力センサ604は、図7Aにおいて示されるように様々な構成で提供され得る。各構成において、目標は、ツール(例えば、ドリルビット超音波ビットなど)の先端上の力を測定することである。図7Aにおいて示される実施例において、力センサ604は、図6に関して記載されるようにドリルビット602の軸内に統合される。力センサセンサ604は、センサケーブル702を介して(図6において示される)コネクタ606と通信し得る。センサケーブル702は、いくつかの実装において、ドリルビット602内部に送られる。いくつかの実装において、コネクタ606(図6において示される)は、1つ以上の接続パッドを介してセンサケーブル702に電気的に接続される。
本実施例の力センサ604は、例えば、変換器を使用して力及びトルクの全て6つの構成部品を測定する小型工業用センサ(例えば、Apex,N.C.のATI Industrial Automation,Inc.製の多軸力/トルクセンサ)となり得る。代替的に、力センサ604は、光学センサとなり得る。代替的に、力センサ604は、図7Bにおいて示されるように、ドリルビット602の軸内に直接統合された歪みゲージ706を備え得る。
図7Cにおいて示されるように、力センサ604は、いくつかの実装において、ドリルビット602自体の力を測定する代わりにモータ上の力を測定する。図7Dにおいて示されるように、ドリルビット602の軸は、いくつかの実装において、ドリルビット602の軸のふれの後、力が力センサ604によって測定され得るように、ドリルビット602が(例えば、わずかに)屈曲することを可能とする可撓性要素708を含む。いくつかの実装において、図7C及び7Dにおいて示される構成用に、(例えば、図6において示されるセンサ612による)軸の位置の測定は、力が器具の座標フレーム内で直接測定されるとき省略され得る。
ある実施形態において、ロボットベースのナビゲーションの1つの目的は、患者の目標の解剖学的構造への変更をもたらす外科処置中の外科医を補助することである。インプラント及び外科器具が、本目的のために使用され、ロボットシステムが、これらの器具が外科処置中に使用される際に正確性を向上させるために外科医を補助する。図2は、いくつかの実施形態において、手術で補助する全てのシステムの概略図を示す。
外科医と外科システムの構成部品の相互作用は、図3においてさらに概要が述べられる。図3を参照すると、外科処置が始まる前に、患者の目標の解剖学的構造の医用画像は、(例えば、患者の解剖学的構造のモデルを生成するために使用され得る)適切な画像化テクニックを使用して獲得され、後述のプロセスにおいて使用される。目標の解剖学的構造の位置を判定するプロセスは、目標の解剖学的構造の入力を受け取る。目標の解剖学的構造は、医用画像を使用してモデル化され得、医用画像は、医用画像化テクニックまたはスキャンに基づいたテクニックを使用して得られる。結果として、目標の解剖学的構造の位置を判定することは、いずれの時点でも正確な目標の解剖学的構造の解剖学的構造位置を提供する。フィードバックをレンダリングするプロセスは、医用画像、解剖学的構造の位置、及び器具(複数可)の位置に基づいて外科医に情報を提供する。レンダリングは、外科医に視覚的に表示される。器具のプロセスを追跡することは、外科器具を取り、結果としてそれらの位置を計算する。同時に器具は、ガイドされ、つまりそれらの空間的位置は、ロボットシステムによって(すなわち、手術可能な体積を使用して)いくらか制限される。ロボットシステムは、これら4つのプロセスを実装し、外科医は、それらのうちの2つ、ガイダンス及びフィードバックのレンダリングに加わる。
画像化プロセスのための異なるオプションが、図4に示される。画像化プロセスの目的は、患者の目標の解剖学的構造の表現を獲得することである。いくつかの実装において、画像化は、患者の目標の解剖学的構造の表現を獲得するために使用される。画像は、MRI、CT、またはX線などの、様々なモダリティを使用して手術前に獲得され得る。代替的に、画像は、平面蛍光透視法技術(例えば、ミネソタ州、ミネアポリスのMedtronic製O−Arm)、術中CT、MRI、及び超音波を使用するなどの、術中画像化テクニックを使用して手術中に獲得され得る。例えば、術中画像は、術中蛍光透視法デバイス(例えば、C−Arm)を使用してキャプチャされ得る。
目標の解剖学的構造についての情報を獲得する他の方法がある。例えば、目標の解剖学的構造についての情報は、触覚デバイス及び力フィードバックを使用する表面スキャニングによって収集され得る。ロボット上に取り付けられたこのようなデバイスを使用することは、ユーザが組織の表面及び硬さについての空間的情報を提供することができる力を測定することを可能とする。レーザスキャナなどの、表面スキャニングの代替的に既知のテクニックも、使用され得る。加えて、目でみる、直接の診査も、患者の解剖学的構造の診察に使用され得る。これらのテクニックの転帰は、使用された場合、患者の解剖学的構造のモデル化に使用される医用画像データとして記憶される。
図8は、目標の解剖学的構造の位置を画定する(すなわち、位置合わせ)ために使用され得るプロセスの範囲を示す。典型的に、目標の解剖学的構造の位置は、解剖学的構造固定のマーカ及び後に追跡(例えば、光学、または電磁)マーカを参照して解剖学的構造の位置を識別するための位置合わせ処置を使用して、及びマーカが目標の解剖学的構造の位置を判定するために解剖学的構造に対して適切に移動することを推定して管理される。背景において上記で論じられるように、この方法には欠点がある。ある実施形態において、開示された技術は、これらの弱点に対処するために力に基づく解剖学的構造位置合わせ及び再位置合わせを利用する。この間で再位置合わせロボットエンコーダは、高周波(例えば、200〜500Hz、500〜800Hz、または800Hz〜1200Hz)で器具の位置を迅速に獲得するために使用され得る。
初期の位置合わせデータは、目標の解剖学的構造に対するエンドエフェクタの配置を管理するために安定性モジュールに沿って使用され得る。安定性モジュールは、ある実施形態において、外科医がいずれの特別な行動をとることなく、バックグラウンドにおいて(例えば、自動的に)常に作動することができる。このような安定性モジュールの実施例は、一組のポイント(例えば、測定されたポイント)を取り、一組のポイント(例えば、医用画像上の脊椎の表面からの)と別の一組のポイントとの間で最もよい一致を見つける面合わせ方法を含む。ある実施形態において、他のアルゴリズムが、安定性モジュール用に使用される。
再位置合わせは、他の方法を使用して同様に達成され得る。例えば、ある実施形態において、再位置合わせは、基準を使用する周期的な再検証によって達成され得る。ある実施形態において、必要であれば、外科医が、予め設置された基準に接し、ロボットアームに取り付けられた器具と再位置合わせすることができる。
ある実施形態において、特別に設計された基準マーカまたは一組の基準マーカは、患者に固定され得る。例示的な基準マーカ及び基準マーカの組が、図9、39〜40、及び42〜43に示される。図9及び42〜43のマーカは、力センサを有するロボットによって容易に発見され得る一組の円錐孔を有する。例えば、外科医は、ロボットが再位置合わせをするようにボタンを押すことができる。その後ロボットが自動的に、または外科医が手動で、ロボットをマーカ(複数可)内の孔に持っていく。少なくとも3つの孔を識別後、再位置合わせが見出され得、外科医は手術を続けることができる。
図10は、自動再位置合わせに基づく位置の判定のプロセスの概略図である。図10の再位置合わせ方法は、初期の位置合わせデータ、患者の医用画像、及びロボットシステムからの目標の解剖学的構造についての情報(例えば、骨の表面上で測定されたポイント)を利用して、この情報に基づいて、目標の解剖学的構造の位置を提供するための解剖学的構造追跡プロセスによって使用された位置合わせデータを更新する。
フィードバックをレンダリングする様々な方法が、図11において示される。例えば、フィードバックは、手術室内でアクセス可能なスクリーンを使用してレンダリングされ得る。一実施例において、フィードバックは、その内容がその全体における参照によって本明細書に組み込まれる、2015年9月18日に出願された、米国特許出願第14/858,325号、表題「Robot−Mounted User Interface for Interacting with Operation Room Equipment」において記載されたユーザインターフェースなどの、ロボット保持型ユーザインターフェースを使用するレンダリングとなり得る。
図12は、器具の追跡のための例示的なプロセスの図である。いくつかの実施形態において、追跡は、器具及び光学/電磁トラッカーに取り付けられたマーカを使用して達成され得る。ある実施形態において、器具は、空間におけるそれらの位置を提供するロボットシステムを使用して追跡される。ロボットは、エンドエフェクタの位置の位置を判定するために使用される測定システムを有するため、器具の位置を「知る」。所定の器具の既知の幾何学形状と結合して、エンドエフェクタに(例えば、断定できる様式で)取り付けられた器具の位置は、ロボット外科システムによって既知である。機械的テンプレート追跡は、目標の解剖学的構造の上部の1つの位置のみに嵌まり、ガイド器具用のガイドを収容する機械的で、オーダーメードのテンプレートを参照する。受動アームは、手術室内にあらかじめ画定された位置に固定され得る標準的な外科アームである。
図13は、外科処置中に器具をガイドするための例示的なシステムを示す。ある実施形態において、外科器具はロボットガイダンスでガイドされる。ある実施形態において、ロボットガイダンスは、ロボット外科システムで患者の解剖学的構造の位置合わせ後、自動的に(すなわち、外科医からの入力無しで)発生する。ある実施形態において、手動ガイダンス及び受動ガイダンスが、いくつかの外科処置の段階中に使用される。ある実施形態において、手動ガイダンス及び受動ガイダンスは、外科処置の全ての段階において使用される。
取り付けられた器具を有するロボット外科システムは、ロボット外科システムのロボットアームに直接または間接的に取り付けられた力センサからの触覚フィードバックを使用して判定された複数の接触ポイントにおいて、患者の解剖学的構造に接触するために使用され得る。複数の接点の座標は、一組の空間座標を画定する。空間座標の値は、接触が判定されるとき、ロボットの座標システム内のロボット外科システム(例えば、器具、外科器具、またはロボットアームの終点)の一部の位置を記憶することによって判定される。
器具の患者の解剖学的構造との接触から記録された一組の空間座標は、位置合わせ、モデリング体積除去、再位置合わせ、手術可能な体積を画定すること、再位置合わせ後の手術可能な体積を修正すること、記憶された体積モデルを物理的な配置に変換すること、及びナビゲーションスクリーン上に患者の解剖学的構造に対する外科器具を表示することなどの、多くのナビゲーション用、及び外科ガイダンス機能を実行するために使用され得る。ロボット外科システムの一部、または遠隔計算デバイス(例えば、サーバ上で)の一部などであるプロセッサは、一組の空間座標と組み合わされた適切な座標マッピングを生成及び使用することによって、外科器具、器具、及び/または患者の解剖学的構造を相互に関連付けるために使用され得る。いくつかの実施形態において、一組の空間座標は、さらなる使用のために提供され得、一組の空間座標が、ロボットアームに取り付けられた器具と患者の解剖学的構造の触覚フィードバックに基づく接触以外のテクニックを使用して生成される。例えば、一組の空間座標は、既知の位置合わせテクニックの結果として提供され得る。
患者の解剖学的構造は、医用画像データを使用して生成された患者のモデルと相互に関連付けられ得る一組の空間座標を生成するために、患者の解剖学的構造に器具を接触させることによる別のナビゲーションシステムを使用することなく、ロボット外科システムと位置合わせされ得る。ある実施形態において、外科医は、位置合わせ中を含み、患者に接触するために外科器具を使用する。いくつかの実施形態において、一つ以上のナビゲーションマーカが位置合わせ中の参照に使用される。プロセッサが、一組の空間座標を判定すると、各空間座標が解剖学的構造体積(例えば、患者の脊椎(複数可))の表面上のポイントに対応し、一組の空間座標が、患者の解剖学的構造のモデルにマッピングされ得る。患者の解剖学的構造は、医用画像データを使用してモデル化され得る。ある実施形態において、CT、MRI、またはX線データは、患者の解剖学的構造の3Dモデルを手術前に生成するために使用される。いくつかの実施形態において、患者の解剖学的構造モデルを生成するために使用された医用画像は、手術中に撮られる。医用画像データは、そのサブセットが一組の空間座標に患者の解剖学的構造のモデルをマッピングするために使用され得る、患者の解剖学的構造のモデルを画定する一組の医用画像データ座標を生成するために使用される。
一組の空間座標は、モデル内のポイントをロボット座標システム内の座標(すなわち、物理的な実体)に変換するための機能を判定することによって、患者の解剖学的構造のモデルにマッピングされ得、逆も同様である。ある実施形態において、マッピングは、一組の空間座標によって画定された表面と解剖学的構造モデルの表面との面合わせを使用して作製される。患者の解剖学的構造の表面上のポイント、または患者の解剖学的構造の解剖学的構造モデルは、既知のポイント(すなわち、患者の解剖学的構造に器具で接触することによって測定されたポイント、または医用画像化中に収集されたデータポイント)から挿入または推定され得る。推定されたポイントは、マッピングを生成するために使用され得る。面合わせ方法の実施例は、“A Robotic System for Cervical Spine Surgery,” Szymon Kostrzewski,Warsaw University of Technology(2011)のSection 4.5.3において記載されたIterative Closest Point(ICP)である。Section 4.5.3の内容は、その全体が本明細書において参照によって組み込まれる。概して、1つの座標システムから別に(すなわち、線形変換によって)ポイントを変換するために使用され得る機能を生成するいずれのアルゴリズムまたは方法も、使用に適している。閾値が特定され得、マッピングが使用されるためにそれより下になければならないエラー測定値を画定する。この閾値は、高精度マッピング(例えば、位置合わせ)のために十分であり、かつそのようなマッピングが高周波数で生成され得る(すなわち、マッピングの生成の速度は、外科処置を限定するものではない)値に設定され得る。
位置合わせの前に、医用画像データにおいて患者の解剖学的構造モデルを画定する座標システムと、ロボット外科システムのロボットアームに取り付けられた外科器具の配置を画定する座標システムとの間に画定された関係はない。ロボット座標システムから医用画像データ座標システムへの座標マッピングを生成し、座標マッピングを記憶することによって、プロセッサは、解剖学的構造モデルに提示された患者の解剖学的構造の各ポイントのための物理的な配置を判定することができる。このように、患者は、ロボット外科システムと位置合わせされる。
一度患者が位置合わせされると、空間の各ポイントにおいて、ロボット外科システムは、そのポイントが、患者の解剖学的構造の表面上か、患者の解剖学的構造内か、または患者の解剖学的構造の外側かどうか既知である。この情報は、外科ガイダンス及びナビゲーションにおける補助のためのさらなるプロセスに使用され得る。例えば、この情報は、患者の解剖学的構造が全体的に避けられる、または患者の解剖学的構造の一部のみが外科器具にアクセス可能となる場合、外科器具に対する「侵入不可」ゾーンを画定するために使用され得る。加えて、外科器具は、患者の解剖学的構造の表面上にある、線、平面、または曲面をトレースすることができる。
上述のように、触覚フィードバックに基づく接触を使用して患者を正確に位置合わせするために、わずか少数のポイントが接触されることが必要である。例えば、ある実施形態において、わずか30のポイントが、手術を進めるために十分な精度でロボット外科システムに患者の解剖学的構造を位置合わせするために必要とされる。ある実施形態において、わずか5〜10接点が、必要とされる。必要な接点の数は、実行される特定の外科処置で変化する。概して、より正確な外科器具の位置決めを必要する外科手術は、より大きな空間座標一組を生成するためにより多くの接点が作製されることを必要とする。患者の解剖学的構造へ接触するためにロボット外科システムを使用する際の簡潔さにより、位置合わせのために十分な量の接点が、短期間で作製され得、そのため全体の外科処置の効率が良くなる。
図44は、ロボット外科システムのロボットアームに取り付けられた外科器具の触覚フィードバックに基づく接触を使用して、患者の解剖学的構造をロボット外科システムに位置合わせするための例示的方法4400のブロック図である。ステップ4402において、計算デバイスのプロセッサは、ロボットアームに直接または間接的に取り付けられた力センサから触覚フィードバックを受信する。ステップ4404において、プロセッサは、触覚フィードバックが、器具の、(例えば、ある特定の密度またはある特定の機械的特性を有する)特定の材料との接触に対応することを、(例えば、少なくとも閾値を超える触覚フィードバックの大きさに基づいて)(例えば加えて、器具の少なくとも1つのポイントの配置に基づいて)判定する。特定の材料は、患者の解剖学的構造の一部または基準マーカであり、既知のこの2つの間の空間関係で患者の解剖学的構造に取り付けられた基準マーカであり得る。例えば、ステップ4404において、外科器具が骨に接触していることが判定され得る。ロボットアームに取り付けられた力センサは、材料に対する接触が行われるとき(例えば、機械的特性を判定することによって)プロセッサが判定するために、材料によって行使される力に対して、外科医によって適用される力を測定するために使用され得る。ある実施形態において、これは、複数の力センサユニット(例えば、外科器具及び別の外科医によって適用されたセンサユニットの力からのフィードバックを測るための1つのセンサユニット)を備える力センサで達成される。ステップ4402及び4404は、複数の別個の場所で複数回繰り返されてもよい。
ステップ4406において、プロセッサは、ステップ4402及び4404に判定された接触の位置に基づいて、ロボット外科システムの座標システムで表される一組の空間座標を判定する。空間座標の一組は、患者の解剖学的構造の解剖学的体積の表面に対応する。ステップ4408において、プロセッサは、患者の解剖学的構造の表面に対応する一組の医用画像データ座標を受信する(例えば、患者の解剖学的構造の表面のモデルをレンダリング及び/または画定するために使用される)。一組の医用画像データ座標は、ロボット座標システムからの異なる座標システムである、医療画像データ座標システムで表される。
ステップ4410において、プロセッサは、一組の空間座標に対応する表面を、一組の医用画像データ座標によって判定される患者の解剖学的表面にマッピングする。マッピングは、面合わせを使用して行われ得る。ステップ4410の間、中間点は、マッピング中に使用するための、一組の空間座標または一組の医用画像データ座標から推定され得る。ステップ4412において、プロセッサは、ロボット座標システムと医用画像データ座標システムとの間の変換に使用され得る座標マッピングを生成する。ステップ4414において、プロセッサは、将来の参照のための座標マッピングを記憶する。このようにして、他のものの中で、患者の撮られた医用画像に基づいて判定される患者の解剖学的構造のモデルは、患者の解剖学的構造の一部が予想されるロボット外科システムに知らせるために使用され得る。
ある実施形態において、座標マッピングが、ディスプレイ上にナビゲーションのレンダリングを生成するために使用され、例えば、外科器具の終点が患者の解剖学的構造に正確な関係で示される。このレンダリングは、外科ツールの位置が推移するにつれてライブで更新され得る。このことは、外科ツールの配置が、位置合わせから既知であるため、ナビゲーションのマーカを必要とせず行われる。図48は、外科処置中にナビゲーションで使用するための外科ツールと患者の解剖学的構造との間のそのような空間関係を表示するための例示的方法のブロック図である。
例示的方法4800は、ステップ4802で始まり、計算デバイスのプロセッサが、(例えば、システムのロボットアームへの取り付けによって)外科ツールが取り付けられたロボット外科システムの座標システムで表される外科ツールの終点の物理的な配置を受信する。終点の物理的な配置は、外科ツールとロボットアームとの間の既知のサイズ及び空間関係に基づいて計算され得る。例えば、ロボットアームへの外科ツールの取り付けポイントに対する外科ツールの長さ及びロボット座標システムの原点に対する取り付けポイントの既知の配置に基づいて、配置は計算され得る。ステップ4804において、プロセッサは、ロボット座標システムと医用画像データシステムとの間の座標マッピングを受信する。ステップ4806において、プロセッサは、終点の物理的な配置を変換し、医用画像データ座標システムで表されるようにする。ステップ4808において、プロセッサは、終点の変換された物理的な配置を備える外科ツールのレンダリングデータを生成する。ステップ4810において、プロセッサは、表示されるときの患者の解剖学的構造と外科ツールとの空間関係を(例えば、比例して)提示するために、ディスプレイのためのレンダリングデータを出力する。空間関係は、患者の解剖学的構造に対する外科ツールの終点及び/または配置及び配向の配置を含み得る。
ある実施形態において、一組の空間座標が、基準マーカを(例えば、マーカの表面上に分配された)マーカ上の複数の標定ポイント(例えば、くぼみ)に接触させることによって収集され、標定ポイントは、マーカが患者の解剖学的構造上の特定の配置において取り付けられるように設計されているため(図9を参照)、患者の解剖学的構造に対して既知の配置となる。このようにして、基準マーカは、患者に取り付けられたときの患者の解剖学的構造の伸長と見なされる。ある実施形態において、特定の配置が、脊椎の棘突起である。
本明細に記載された方法及びシステムのいくつかの実施形態において、位置合わせは、当該技術で既知のテクニックを使用して実行される。
ある特定の外科処置中、患者の解剖学的構造のモデルにもともと含まれていた患者の解剖学的構造の一部(すなわち、第1の体積)は、例えば、付加的な体積へのアクセスが増えるため、付加的な体積の除去の前に、手術中に除去される。第1の体積の除去は、除去中高い精度を必要とし得ない。第1の体積の除去は、手動で行うことができる。患者の解剖学的構造のモデルは、この除去を反映するために更新され得る。モデルの更新は、正確な患者の記録(すなわち、医用履歴)を維持するために必要となり得る。モデルの更新は、付加的な体積の除去の術中計画に対しても必要とされ得る。
一組の空間座標は、体積除去後の患者の解剖学的構造のモデルを更新するために使用され得る。ある実施形態において、一組の空間座標は、ロボットアームに取り付けられた器具と患者の解剖学的構造の触覚フィードバックに基づく接触を使用して生成される。
モデルの座標システムと空間座標の座標システム(すなわち、ロボットの座標システム)との間の座標マッピングが生成されている場合、一組の空間座標及び患者の解剖学的構造のモデルを使用して、元は解剖学的構造の表面内部にあった患者の解剖学的構造のポイントが、判定され得る。座標マッピングは、例えば位置合わせ中に、生成され得る。一組の空間座標は、座標マッピングを使用してモデルの座標システム内に表されるために変換され得る。その後、モデルの表面の内部に位置付けられると判定された座標は、モデルの新しい表面を画定するために使用され得る。例えば、直方体の半分が除去される場合、ロボット外科システムに取り付けられた器具は、以前直方体の内部にあったポイントに接触することができ、そのため、モデルの座標システムに変換されるときポイントの座標は、モデルの内部に位置付けられるはずである。これらのポイントが、モデル用の新しい表面を判定するために使用され得る。そのため、モデルの体積は、モデルから除去された体積における全てのポイントを除くことによって縮むはずである。更新されたモデルは、体積の除去のため発生した大きさの変更を正確に反映して、元のモデルよりも小さな体積を有するであろう。
ある座標は、モデル(すなわち、更新前のモデル)内の内部座標であると判定されない一組の座標内に含まれ得る。この座標は、存在する表面の一部となるため、新しい表面を画定するために使用されるものではない。この座標は、そのためモデルの更新に使用されるものではない。
体積の除去後の患者の解剖学的構造の新しい表面を画定する修正された一組の座標は、将来の参照のために更新されたモデルとして記憶され得る。この更新されたモデルは、元のモデルに追加、または書き換えて記憶され得る。患者のデータが、体積除去前の元のモデル及び体積除去後の更新されたモデルの両方を備えて拡大するとき、比較が表示され得る。この比較は、元のモデル、更新されたモデル、及び除去された部分を表示することを含む。例示的な元のモデルが、図16において示される。除去された部分を強調している例示的なモデルは、図17において示される。例示的な体積除去後の更新されたモデルは、図28において示される。
図45は、体積除去後の患者の解剖学的構造のモデルを更新するための例示的方法4500のブロック図である。ステップ4502において、計算デバイスのプロセッサは、ロボットアームに直接または間接的に取り付けられた力センサから触覚フィードバックを受信する。ステップ4504において、プロセッサは、触覚フィードバックが、器具の、(例えば、ある特定の密度またはある特定の機械的特性を有する)特定の材料との接触に対応することを、(例えば、少なくとも閾値を超える触覚フィードバックの大きさに基づいて)(例えば加えて、器具の少なくとも1つのポイントの配置に基づいて)判定する。特定の材料は、患者の解剖学的構造の一部または基準マーカであり、既知のこの2つの間の空間関係で患者の解剖学的構造に取り付けられた基準マーカであり得る。例えば、ステップ4504において、外科器具が骨に接触していることが判定され得る。ステップ4502及び4504は、複数の別個の場所で複数回繰り返されてもよい。
ステップ4506において、プロセッサは、ステップ4502及び4504に判定された接触の位置に基づいて、ロボット外科システムの座標システムで表される一組の空間座標を判定する。空間座標の一組は、患者の解剖学的構造の解剖学的体積の表面に対応する。ステップ4508において、プロセッサは、患者の解剖学的構造の表面に対応する一組の医用画像データ座標を受信する(例えば、患者の解剖学的構造の表面のモデルをレンダリング及び/または画定するために使用される)。一組の医用画像データ座標は、ロボット座標システムからの異なる座標システムである、医療画像データ座標システムで表される。
ステップ4510において、プロセッサは、ロボット座標システムと医用画像データ座標システムとの間にマッピングする記憶された座標マッピングを受信する。ステップ4512において、プロセッサは、ステップ4508で受信された一組の医用画像データ座標、及びステップ4510で受信された座標マッピングを使用して、ステップ4506で全ての座標を共通の座標システムに変換することによって判定された一組の空間座標に基づいた、内部空間座標である空間座標の一組のうちの1つ以上を、判定する。一組の空間座標のポイントのいくつかは、内部ポイントでなくてもよい。外科医は、一般的に、体積除去後の患者の解剖学的構造の変更を正確に反映するために、形式上は内部ポイントである少なくともいくつかの点で、外科器具に接触することになる。患者の解剖学的構造の体積が、以前は患者の解剖学的構造のモデルに反映される内部体積であったものに基づいて、内部にあるポイントは、判定される。ステップ4514において、一組の空間座標の1つ以上の内部空間座標は、座標マッピングを使用して、一組の内部医用画像データ座標に変換される。
ステップ4516において、元のモデルに対して内部にあると判定されるポイントが、更新されたモデルの表面上に含まれるように、一組の医用画像データ座標は、患者の解剖学的構造のモデルの表面を再画定するために修正される。このようにして、ステップ4516の後の医用画像データ座標の修正された組は、ステップ4516の前の一組の医用画像データ座標によって画定される体積よりも小さい体積を画定し、体積除去から発生する患者の解剖学的構造の変更を反映する。ステップ4518において、医用画像データ座標の修正された組は記憶される。
典型的な位置合わせ処置が長く、遮るもののない視線(視覚的にまたは電磁的に遮るもののない視線)を必要とするため、ナビゲーションシステム及び/またはロボット外科システムは、外科処置中、最初に典型的に一度位置合わせするのみである。しかしながら、これらのシステムに対する患者の方向及び/または位置は、処置中に推移し得る。加えて、処置の種類によって、患者の解剖学的構造は、位置合わせにおいて反映されるべき物理的な変更を受け得る。深刻な医療ミスは、物理的な実体と初期の位置合わせとの間に発生するいずれの同期ずれのために、外科処置中にもたらされ得る。概して、多くのステップを含むより複雑な処置が、より大きく同期ずれとなる傾向がある。深刻な医療ミスは、同期ずれのため傷つきやすい解剖学的構造特性(例えば、神経または動脈)上または近くでの外科処置中に起こりやすい。そのため、手術中に実行され得る容易で迅速な再位置合わせは、非常にプラスとなり得る。
再位置合わせは、起こり得るいずれの同期ずれに対して作用し、従来式の位置合わせ方法とは違い、ロボット外科システムを用いた触覚フィードバックに基づく接触に基づいた方法は、外科処置への統合が容易な再位置合わせのための方法である。例えば、ある実施形態において、再位置合わせは、外科器具を切り替える必要なしで、迅速に手術中に進み得る。ある実施形態において、再位置合わせは、再位置合わせの接触が行われた後1〜2秒で処理され得る。ある実施形態において、再位置合わせは、5秒未満で処理され得る。再位置合わせは、いずれの複数のポイントにおいて患者の解剖学的構造に接触することによって、そのようなシステムで、またはそのような方法を使用して実行され得る。特定のポイントで、例えば、初期の位置合わせ中に接触したポイントで、患者の解剖学的構造に接触する必要がない。ある実施形態において、ユーザが自律的再位置合わせを始めることを(例えば、物理的なボタンまたは図式ユーザインターフェースのアイコンを選択することによって)選択した後に、再位置合わせは、自律的に(すなわち、自動的に)進み得る。自律的再位置合わせにおいて接触したポイントは、外科処置中に使用される患者の解剖学的構造のモデルに基づいて、アルゴリズム的に判定され得る。
ロボットの座標システムと患者の解剖学的構造のモデルの座標システムとの間の座標マップを画定する初期の位置合わせが実行された後、再位置合わせが、実行され得る。患者の解剖学的構造の各座標は、座標マッピングを使用するロボットの座標システム内において、患者の解剖学的構造モデルの座標を表すことによって位置合わせ後ロボット外科システムに既知となる。一組の空間座標を収集することによって、ロボット座標システム内に表された患者の解剖学的構造の表面は、一組の空間座標によって画定された表面にマッピングされ得る。マッピングは、座標マッピングを更新するために使用され得る。
更新された座標マッピングは、患者の解剖学的構造、方向、または位置における変更を反映し得る。例えば、患者が軸を中心に回転される場合、患者の物理的な解剖学的構造は、ロボットの座標システムにおいて表されたとき、患者の解剖学的構造モデルが反映するものに対して傾くはずである。器具は、患者の解剖学的構造上の一組のポイント(例えば、5〜10ポイント)における回転の後、患者の解剖学的構造に接触することができる。ロボット座標システム内で表された現在の患者の解剖学的構造モデルと一組のポイントによって画定された表面との間の再位置合わせマップが、生成される。座標マップは、更新された座標マップを生成するために位置合わせマップを使用して修正され得る。例えば、座標マップ及び再位置合わせマップの両方が、配列として記憶された線形変換の場合、更新された座標マップは、2つの配列の生成物である。同様に、位置における変更は、再位置合わせ中の変換として反映され、患者の解剖学的構造における変更は、スケーリング変換として反映され得る。例えば、患者の脊椎の空間は、体積除去の後変化し得、外科医に再位置合わせを実行させるように促す。
ある実施形態において、患者の解剖学的構造のモデルは、一組以上の空間座標が、モデルの内部座標である(すなわち、モデルが再位置合わせ前に存在していた)と判定される場合、再位置合わせ中に同時に更新される。例えば、ある実施形態において、再位置合わせは、再位置合わせ及びモデルの更新が1つの同時の方法で処理される、体積除去後に実行され得る。再位置合わせは、このような大きな外科ステップ中に身体構造上推移する可能性が高いため、体積除去後が有益である。
ある実施形態において、上記で論じられるように、ロボット外科システムの慣習的使用中に再位置合わせは自動的に行われる。ロボット外科システムのロボットアームに取り付けられた外科器具がその一般的な方法で使用される際、器具は、規則的に患者の解剖学的構造に接触する。ロボット外科システムは、外科器具が患者の解剖学的構造(例えば、骨)の特定の部分と接触したかどうかを自動的に判定し、その特定の部分に対すると判定される各接触ポイントを記録することができる。ある実施形態において、配置が以前に記録されたポイントからの最小の分離を有する場合、接触ポイントは自動再位置合わせの間にのみ記録される。例えば、ポイントは、新たな接触が以前に記録されたポイントから少なくとも0.5cm、1cm、2cm、または5cmである場合にのみ記録され得る。閾値数の配置が接触されたと判定されると、再位置合わせプロセスは、自動的に行われてもよい。例えば、最低5ポイント(すなわち、配置)または10ポイント以上が接触された(例えば、接触の5ポイント毎に対して)後、自動再位置合わせが動作されることができる。ある実施形態において、全ての接触が記録されるが、自動再位置合わせは、少なくとも最小の対の分離を記録させる配置の最小の数につき1回のみ動作される。これらの実施形態において、自動再位置合わせは、全ての記録された接触を利用し得る。したがって、ある実施形態において、1つ以上の再位置合わせは、ロボット外科システムに顕著な中断を伴わない外科処置を通して自動的に発生する。任意の理論に限定されることを望むものではなく、自動再位置合わせは、外科処置の全体の正確性を向上させ、これは合併症の可能性を低減する。
図46は、ロボット外科システムに患者を再位置合わせするための例示的方法4600のブロック図である。ステップ4602において、計算デバイスのプロセッサは、ロボットアームに直接または間接的に取り付けられた力センサから触覚フィードバックを受信する。ステップ4604において、プロセッサは、触覚フィードバックが、器具の、(例えば、ある特定の密度またはある特定の機械的特性を有する)特定の材料との接触に対応することを、(例えば、少なくとも閾値を超える触覚フィードバックの大きさに基づいて)(例えば加えて、器具の少なくとも1つのポイントの配置に基づいて)判定する。特定の材料は、患者の解剖学的構造の一部または基準マーカであり、既知のこの2つの間の空間関係で患者の解剖学的構造に取り付けられた基準マーカであり得る。例えば、ステップ4604において、外科器具が骨に接触していることが判定され得る。ステップ4602及び4604は、複数の別個の場所で複数回繰り返されてもよい。ステップ4606において、プロセッサは、ステップ4602及び4604に判定された接触の位置に基づいて、ロボット外科システムの座標システムで表される一組の空間座標を判定する。空間座標の一組は、患者の解剖学的構造の解剖学的体積の表面に対応する。
ステップ4608において、プロセッサは、ロボット座標システムと医用画像データ座標システムとの間でマッピングする記憶された座標マッピングを受信する。ステップ4610において、プロセッサは、一組の空間座標によって画定される表面のマッピングに基づいて座標マッピングを更新する。このことは、例えば、まずは患者の解剖学的構造の記憶されたモデルを使用して、(例えば、記憶された座標マッピングを使用して)ロボット座標システムで表される患者の解剖学的構造の予想配置を判定することによって達成され得る。次いで、一組の空間座標によって画定された表面は、表面の予想配置にマッピングされ得る。最後に、更新された座標マッピングは、元の座標マッピング及び測定された表面と予想される表面との間のマッピングの合成関数として生成され得る。このようにして、(解剖学的構造のモデルを元の座標マッピングを使用してロボット座標システムで表すことに基づいた)古い位置合わせに従って、プロセッサは、(触覚フィードバックの接触によって判定されるように)関連する患者の解剖学的構造がどこにあるか及び患者の解剖学的構造がどこにあるべきかに基づいて、座標マッピングを更新する。更新された座標マッピングは、患者の解剖学的構造の配置に関するより正確な参照をロボット外科システムに提供する。ステップ4612において、更新された座標マッピングが更なる使用のために記憶される。
ある外科処置において、外科器具の使用は、患者の解剖学的構造の手術箇所に応じる特別な手術可能な体積にのみ制限されるべきである。手術可能な体積は、物理的な体積であり、物理的な体積は、ロボットの座標システムを使用して画定される。外科器具が制限される物理的な体積は、患者の解剖学的構造に対するということが明らかである。ある実施形態において、ロボット外科システムは、外科医が外科器具を手術可能な体積の外部に移動させようとするとき、触覚フィードバックを提供する。このように、外科器具が手術可能な体積の境界にあるとき、外科医は抵抗を感じ、外科ツールを境界から離して向けなおすことができる。このことは、例えば、骨の除去中に、外科医が意図された体積の外の配置から骨を除去したくない場合に、有益である。ある実施形態において、ロボット外科システムは、手術可能な体積の外へ外科器具が移動することを避けるためロボット外科システムの動作の制御に使用される1つ以上のモータを、脱係合または切り離し得るように、ロボット外科システムは能動的で逆駆動不可能である。手術可能な体積は、外科処置中外科医に対する触覚フィードバックを提供する及び/または外科処置中の所望の体積の外側での外科器具の動作を物理的に阻害する際に使用するための非一時的コンピュータ可読媒体上に記憶される。
座標マッピングを使用して、患者の解剖学的構造の体積及び/または患者の解剖学的構造の周りの体積によって占められた物理的な手術可能な体積は、患者の解剖学的構造モデルを使用して正確に画定され得る。意図された手術可能な体積は、手術中に画定され得る。外科医は、手術可能な体積の境界を画定する一組の空間座標を生成するために、患者の解剖学的構造上の一組のポイントに接触することができる。多くの外科処置において、手術可能な体積は、患者の解剖学的構造の解剖学的構造特性に対応する。例えば、特定の骨または骨の部分である。そのため、ある実施形態において、外科医は、患者の解剖学的構造のモデルから解剖学的構造特性を選択する。患者の解剖学的構造特性のモデルは、外科医の所望の手術可能な体積の境界に対応する一組の空間座標にマッピングされ得る。ある実施形態において、患者の解剖学的構造特性のモデル内の各座標は、マッピングに基づきロボットの座標システムを使用して表され得る。その後、手術可能な体積が画定され、患者の解剖学的構造特性のモデルの一組の空間座標へのマッピングを使用して、ロボットの座標システム内に表され得る。いくつかの実施形態において、患者の解剖学的構造特性のモデルの表面の各座標は、手術可能な体積の表面を画定するために使用される。
図50は、患者の解剖学的構造を有するロボット外科システムのロボットアームに取り付けられた外科器具の接触に基づいて手術可能な体積を画定するために使用され得る、例示的方法5000のブロック図である。ステップ5002において、計算デバイスのプロセッサは、ロボットアームに直接または間接的に取り付けられた力センサから触覚フィードバックを受信する。ステップ5004において、プロセッサが、触覚フィードバックが患者の解剖学的構造との器具の接触に対応することを、判定する。接触は、力センサで測定されるような、外科器具で適用される力に対する解剖学的構造の応答性(例えば、機械的特性)に基づいて、判定され得る。ある実施形態において、外科器具が骨に(例えば、骨の機械的特性(例えば、硬度または引張り応力)に基づいて)接触するときに作製されるように、接触は判定される。ステップ5002及び5004は、複数の別個の場所で複数回繰り返されてもよい。ステップ5006において、プロセッサは、ステップ5002及び5004に判定された接触の位置に基づいて、ロボット外科システムの座標システムで表される一組の空間座標を判定する。ステップ5008において、プロセッサは、ステップ5006において判定された一組の空間座標に基づいて、ロボットアームに取り付けられた外科器具の動作を制限するための手術可能な体積を画定する。したがって、方法5000によれば、外科医は、その後、外科器具の将来の移動が制限される体積の外側境界面を画定する、患者の解剖学的構造上の任意の数のポイントを選択することができる。例えば、外科医は、棘突起の除去を含む外科処置における手術可能な体積を画定するために、患者の脊椎の棘突起上の様々なポイントに接してもよい。
ある実施形態において、手術可能な体積は、一組の空間座標によって画定された表面によって画定された体積である。そのため、手術可能な体積を生成するためのそれらの方法は、医用画像データまたは患者の解剖学的構造の構成前のモデルを必要としない。例えば、外科医は、一組の空間座標として判定される患者上の10のポイントに接触し得る。一組の空間座標は、体積を画定する一組の頂点(すなわち、表面のポイント)として使用され得る。これが手術可能な体積として使用され得、ロボット外科システムのロボットアームに取り付けられた外科器具の移動は、手術可能な体積に制限される。このことはいずれの位置合わせと共にまたは位置合わせ無しで行われ得る。
手術可能な体積は、一組の空間座標を生成することなく(すなわち、患者の解剖学的構造に接触することなく)患者の解剖学的構造モデルの体積を外科医が選択することによって画定され得る。外科医は、患者の解剖学的構造モデルを見ることが可能なソフトウェアを使用して体積を選択し得る。一旦体積が選択されると、解剖学的構造モデルをロボットの座標システムにマッピングする座標マッピングが、手術可能な体積を画定する一組の座標を生成するために使用され得る。そのため、手術可能な体積は、例えば、位置合わせまたは再位置合わせ中に生成された座標マッピングを使用して画定され、外科医が患者の解剖学的構造に接触することによって手術可能な体積を画定して使用するための一組の空間座標を分けて生成する必要がない。
記憶された手術可能な体積は、座標マッピングが更新されるとき(例えば、再位置合わせの後)、または後に更新された座標マッピングを使用するときに更新され得る。座標マッピングは、例えば、患者の解剖学的構造における位置、方向の推移、または変更を反映するために再位置合わせ中に更新される。記憶された手術可能な体積の座標は、新しいロボット座標システムを記憶された手術可能な体積が表されたロボット座標システムにマッピングすることによって、及びそのマッピングを使用する(すなわち、手術可能な体積の各座標を新しい座標システムに変換し、変換された座標を更新された手術可能な体積として記憶する)ことによって、新しいロボット座標システムに変換され得る。
図47は、ロボット外科システムに取り付けられた外科ツールを患者の解剖学的構造またはそこに取り付けられた基準マーカに接触することによって提供された入力を基準にして、外科器具の動作の制限に使用するための手術可能な体積を更新するための例示的方法4700を示す。患者の解剖学的構造への変更または患者の解剖学的構造とロボット外科システムとの間の空間関係の変更に基づいて、手術可能な体積は、更新され得る。ステップ4702において、触覚フィードバックは、ロボット外科システムのロボットアームに直接または間接的に取り付けられた力センサから、計算デバイスのプロセッサによって受信される。ステップ4704において、プロセッサが、触覚フィードバックが患者の解剖学的構造との外科器具の接触に対応することを、判定する。接触は、力センサで測定されるような、外科器具で適用される力に対する解剖学的構造の応答性(例えば、機械的特性)に基づいて、判定され得る。ある実施形態において、外科器具が骨に(例えば、骨の機械的特性(例えば、硬度または引張り応力)に基づいて)接触するときに作製されるように、接触は判定される。ステップ4702及び4704は、複数の別個の場所で複数回繰り返されてもよい。外科医が接触する別個の場所は、手術可能な体積を画定するモデル体積に一致または近接するように選ばれる。例えば、方法4700中に(例えば、ステップ4702及び4704の発生を促して)、外科医は骨のその部分上の配置に接触するために選ぶように、外科医は、一部の骨を除去し得る。
ステップ4706において、一組の空間座標が、材料の外科器具の判定された物理的接触の一組から判定される。空間座標の一組は、患者の解剖学的構造の解剖学的体積の表面に対応する。位置合わせプロセス中に確立された座標マッピングまたは同様の変換を使用して、一組の空間座標は判定され得る。ステップ4708において、ユーザに選択されたモデル体積は、受信される。モデル体積は、以前に画定され、記憶されていてもよい。ステップ4708において受信されたモデル体積は、ロボット外科システムの座標システムで表され得、またはロボット外科システムの座標システムで表されるように変換し得る。ステップ4710において、モデル体積の表面は、ステップ4706において判定された空間座標の組にマッピングされる。
ステップ4712において、ステップ4710に定義されたマッピングを使用して、更新されたモデル体積は、プロセッサによって生成される。ステップ4714において、更新されたモデル体積は、外科器具の動作を限定するように手術可能な体積として使用するために記憶される。
同様に、医用画像データ座標システム内に表されるいずれの記憶されたモデル体積も、座標マッピングを使用してロボット座標システム内にモデル体積の座標を表すことによって空間体積に変換され得る。このことは、ロボット外科システムがモデル体積に対応する物理的な体積内でのみトレースし、入力し、操作し、または物理的な体積外でのみ操作することを可能とする。
外科医は、外科処置中のナビゲーション及び方針決定において補助するために、患者の解剖学的構造に対する外科器具の位置の視覚化から利益を得る。外科器具の終点が、ロボット座標システムの原点に対して予め画定された位置を有するとき、終点は、ロボットアームの位置を使用するロボット座標システムと医用画像データ座標システムとの間の座標マッピングを有する医用画像データ座標システム内の位置に変換され得る。ある実施形態において、終点は、ロボットアームの位置を提示するために使用される。ある実施形態において、全ての外科器具は、ロボットアームに取り付けられるとき、同じ終点を有する。終点を医用画像データ座標システム内に表すために変換後、終点は、患者の解剖学的構造のモデルに対して描かれ得、物理的な空間における終点と患者の解剖学的構造との間の距離を正確に反映する。これを使用して、レンダリングデータが生成され、表示されるとき、終点(及び、任意で、外科器具)及び患者の解剖学的構造のモデルの表現を示す。そのため、外科器具及び患者解剖学的構造に対するその位置の視覚化は、外科器具に取り付けられたナビゲーションマーカを使用することなく、及び画像認識テクニックを使用することなく、作製され得る。
レンダリングデータは、ロボット外科システムの一部であるスクリーンまたは手術室内外から見ることが可能なスクリーン上で表示され得る。スクリーンは、ロボットアームに取り付けられ得る。レンダリングデータは、ディスプレイをリアルタイムで、または実質的にリアルタイム(すなわち、患者のビデオフィードとして作用する)でリフレッシュするために更新され得る。終点及び/または外科器具の表現は、患者の解剖学的構造のモデルの表現の上に及び/または手術前もしくは手術中に撮られた医用画像の上に重ねられ得る。ディスプレイ上の終点の位置は、ロボットアームの位置が調整されるときに更新されるであろう。
図9は、位置合わせ及び/または再位置合わせにおいて使用され得る例示的な基準マーカを示す。基準マーカ900は、方向部材910の異なる面にわたって分配されたくぼみ(例えば、くぼみ915)を有する。方向部材910は、立方体である。基準マーカ900の取り付け部材920は、脊椎の棘突起に取り付けられる。同様の取り付け部材は、患者の解剖学的構造上の任意の所望のポイントに取り付けるために作製され得る。外科医が、本明細書に記載された触覚フィードバック接触方法を使用して方向ポイント(すなわち、くぼみ)に接触するとき、座標マッピングは、方向ポイントが患者の解剖学的構造に対して画定された空間的関係を有する場合に生成され得る。ある実施形態において、患者は、基準マーカ900のような基準マーカを使用して、位置合わせまたは再位置合わせをされ得る。ある実施形態において、基準マーカは、コース位置合わせ(例えば、最初のコース位置合わせ)を実施するために使用される。
図39は、例示的な基準マーカの代替的な実施形態を示す。基準マーカ3900は、様々な配置で患者の解剖学的構造に取り付けることができる。基準マーカ3910は、基準マーカ900内のくぼみと同様に機能する孔を有する。外科医は、本明細書に記載の方法において使用され得る一組の空間座標を収集するために、ロボットアームに取り付けられたツールを有する孔の中心でマーカに接触することができる。例えば、位置合わせ方法中に、基準マーカ3910と接触する場合、外科医が接触する材料は、直接的に基準マーカの一部である材料であり得るか、またはマーカによって(例えば、マーカ内の孔によって)識別される患者の解剖学的構造(例えば、患者の肌)の一部であり得る。基準マーカ3920は、基準マーカ3910と共に使用される場合、追加の正確性を提供するために使用され得る。ある実施形態において、マーカ上の任意の配置で基準マーカ3920に接触することは、コース位置合わせを実施するために十分な正確性を提供し得る(例えば、基準マーカ3910内に孔をガイドする精度は、コースの再位置合わせをうまく実施するために必要ではない)。
基準マーカ3900は、全て同じ大きさ及び色であり得て、または、それぞれに固有の大きさ及び/または色であり得る。固有のサイズ及び/または色の使用は、例えば、画像認識テクニックを使用して、個々のマーカの、使用される連続的な位置合わせ処置及び/または容易な識別を可能にする。マーカは、術中及び/または手術前の画像化(例えば、透視法またはCT)中に可視であるように設計されるが、画像の品質の低下をもたらし得る画像化のアーティファクトを引き起こさない。
図40に示されるように、複数のマーカは、患者の解剖学的構造に取り付けられ得る。基準マーカ4010a〜cは、患者の脊椎で外科部位に隣接して、患者に添付される。ある実施形態において、3つのマーカが、最小で使用される。ある実施形態において、4〜6つのマーカは、コース位置合わせまたは患者の再位置合わせのための最適な数を提供する。図41は、基準マーカ4110a〜bが患者の解剖学的構造に取り付けられている外科処置中に使用されるナビゲーションスクリーンを示す。マーカ4110aが、他の3つのパネルで示される医用画像において明確に識別される一方で、マーカ4110a〜bは、右上のパネルで識別され、患者の解剖学的構造のレンダリングされたモデルを示す。マーカ4110aの配置は、当該技術分野で既知の画像認識アルゴリズムを使用して、自動的に識別され得る。
図42及び43は、脊髄処置における外科部位へのアクセスを提供するために使用され得、加えて、本明細書に記述される方法に従って、患者のコース位置合わせ中に補助し得る、外科開創器4200の2つの図を示す。外科開創器4200は、患者の椎骨への外科器具のアクセスを促進するために、患者の解剖学的構造の切開を広げるために使用される。外科開創器4200は、本明細書に記載の方法に従って、再位置合わせ処置中に、所定の接触ポイントとして使用され得るくぼみ4210a及び4210bを有する。事前に画定されたポイントの配置は、開創器と患者の解剖学的構造との間に存在する特定の空間関係から、または患者の解剖学的構造に取り付けられた開創器の手術前または術中の画像化から、認識され得る。ある実施形態において、開創器は、放射線透視材料(例えば、PEEKのカーボンファイバー)から画像の品質を向上するために作製される。ある実施形態において、位置合わせ処置中に外科ツールを接触するための追加の事前に画定されたポイントを提供するために、追加のくぼみまたは孔は、外科開創器に作製される。
図39〜41に従った複数のマーカ及び/または図43〜44に従った外科器具が、最初のコース位置合わせを実施するために使用され得る。ある実施形態において、外科部位(例えば、脊椎)は、最初によく露出されていなくてもよく、または解剖学的構造の初期の事前評価がない場合がある。例えば、多数の最低侵襲性外科処置は、外科部位への限定されたアクセスを提供する。したがって、特定の位置合わせプロセスは、最初のコース位置合わせなしで患者の解剖学的構造を適切に位置合わせしない場合がある。例えば、最初の参照フレームの前が確立される前に、位置合わせプロセスは、脊椎が、患者の解剖学的構造の再位置合わせ中に、ロボットアームに接触され得ることを、誤って解釈し得る。したがって、再位置合わせが方法のエラー範囲内で進行するが、位置合わせにおける大きな並進運動エラーが存在するだろう。そのようなエラーは、位置合わせ及び/または再位置合わせが、それ以外の小さいまたは限定された体積であるときに、発生し得る。
ある実施形態において、同じ方法は、後の位置合わせ(例えば、再位置合わせ)のように、より大きな範囲または体積が開けられたポイントに接触することによって、最初のコース位置合わせのために使用され得る。ある実施形態において、同じ方法は、最初のコース位置合わせ及び後続の位置合わせのために使用され、この方法の許容可能なエラーまたは精度は、それぞれ、最初のコース位置合わせ中に、より大きくまたは小さくなる。ある実施形態において、厳密な位置合わせアルゴリズムまたは同様に既知のアルゴリズムが、コース位置合わせの方法において使用される。ある実施形態において、(例えば、図39〜40に従った)複数の基準マーカは、最初のコース位置合わせにおける使用のために、患者の解剖学的構造上に設置され、マーカはいくつかの明らかな距離を(例えば、少なくとも10または15cm離して)開けられる。
ある実施形態において、最初のコース再位置合わせに使用するために適用される外科開創器は、術中スキャンが実施される前に、患者に設置される。本明細書に記載のシステム及び方法の目的のために、基準マーカが使用されるとき、基準マーカは、基準マーカの表面が解剖学的体積の表面の一部であるように、患者の関連する解剖学的体積の一部(例えば、患者の解剖学的構造の延長として作用する)であると見なされる。加えて、基準マーカに対応するそれに由来する医用画像データ及び座標は、(例えば、解剖学的モデルの画定及び/またはレンダリングに使用するための)患者の解剖学的表面の一部であると見なされる。このようにして、外科医は、例えば、1つ以上の基準マーカ上の複数のポイントに直接患者の解剖学的構造に接触することなく接触することによる患者の位置合わせ及び再位置合わせのために、本明細書で記述される方法及びシステムを使用することができる。さらに、ある実施形態において、少なくとも部分的に、医用画像の基準マーカの画像認識に基づいて、位置合わせに使用される医用画像データ座標が判定される一方で、外科医が患者の解剖学的構造に直接接触するように、基準マーカは、接触させられている材料を識別するために使用される。
図49は、椎弓切除のようなロボット外科システムを用いて外科処置を実施するための方法のブロック図である。方法4900に従った外科処置は、2ステッププロセスにおける体積除去を実施する。ある実施形態において、他の外科処置は、方法4900の工程から適用された方法を使用して、1つのステッププロセスにおける体積を除去する。ステップ4902において、患者の解剖学的構造は、本明細書に記載の方法に従ってロボット外科システムに位置合わせされる。ある実施形態において、位置合わせプロセスは、第2の細かい位置合わせの後に続く、最初のコース位置合わせの2ステップ処置である。ステップ4904において、外科医による第1の体積の除去後、器具は、第1の体積の除去によって晒される患者の解剖学的構造の配置を含む患者の解剖学的構造上で、複数の配置に接触される。第1の体積は、ロボット外科システムを使用して、除去されてもよく、または外科医によって、手動で除去されてもよい。例えば、椎弓切除において、棘突起は、外科処置の効率を良くするために、外科医によって手動で除去され得る。ステップ4906において、第1の体積の除去中に除去された患者の解剖学的構造の一部は、ステップ4904で接触された複数の配置を使用して、判定される。その後、患者の解剖学的構造のモデルは、第1の体積除去中に除去された部分を反映するように更新される。ある実施形態において、第1の体積除去後の外科処置中に、外科医が元の位置で再位置合わせを実施することを選択するように、患者の解剖学的構造からの第1の体積の除去は、患者またはロボット外科システムを妨げる。
任意選択のステップ4908において、外科医は、本明細書に記載の方法に従って、複数のポイントに接触することによって、患者の解剖学的構造を再位置合わせする。再位置合わせ後の位置合わせの正確性を向上するために、再位置合わせを実施するとき、第1の体積除去を反映する患者の解剖学的構造の更新されたモデルを有することが有用である。
ステップ4910において、ロボット外科システムの座標システムを使用して、手術可能な体積が画定される。手術可能な体積は、外側境界面を画定する複数のポイントに接触する外科医によって、画定され得る。代替的に、動作可能な体積は、患者の解剖学的構造のモデルの一部のユーザの選択に基づいて、画定され得る。ステップ4912において、第2の体積が除去される間の移動を通して、外科器具(例えば、外科器具上の固定されたまたは事前に選択されたポイント)が手術可能な体積内に維持されるように、外科医は、ロボット外科システムのロボットアームを操作する。ある実施形態において、ユーザが手術可能な体積の外部に移動させようとするとき、触覚フィードバックは、ユーザに提供される。ある実施形態において、ロボット外科システムは、手術可能な体積の外へ外科器具が移動することを避けるためロボット外科システムの動作の制御に使用される1つ以上のモータを、脱係合または切り離し得るように、ロボット外科システムは能動的で逆駆動不可能である。
下記は、方法4900に従って椎弓切除を実行するための例示的な外科方法の説明であるが、本方法は他の種類の体積除去手術にも容易に適用され得ることが理解される。加えて、この例示的方法において論じられたステップの多くは、体積除去を含まない、または体積除去以外の外科的転帰を含む外科処置に適用可能である。外科方法の態様が、図14〜35において示される。
図14は、ロボットベースナビゲーションを使用して椎弓切除を実行するために使用され得る例示的なロボット外科システムを示す。図15は、例えば、ディスプレイ上に表示された患者の解剖学的構造のモデルを使用して患者の解剖学的構造の手術可能な体積を識別するために、手術前計画のために外科医により使用され得る例示的なナビゲーションディスプレイを示す。図16は、分節された脊椎が椎弓切除の箇所である、追加の例示的なナビゲーションディスプレイを示す。手術前計画を使用して、除去される初期体積を、患者の解剖学的構造のモデル内で識別する。初期体積を、図17において水色で識別する。図18は、リアルタイムのフィードバックを受信するためにロボット外科システムを使用する外科医を示す。リアルタイムフィードバックは、ロボット外科システムに取り付けられた外科器具からの触覚フィードバック及びロボットアームに取り付けられたナビゲーションスクリーン上の視覚フィードバックを備える。
図19〜24は、患者をロボット外科システムに位置合わせしている外科医を示す。図19〜22は、患者が位置合わせされる間のナビゲーションディスプレイの画面を示す。ナビゲーションは、患者の解剖学的構造及び外科器具の表現を合わせる医用画像データの2つの視点を示す。これらの図において、外科器具は、患者の解剖学的構造(すなわち、患者の脊椎)のポイントに接している。図23及び24は、位置合わせ中に一組の空間座標を生成するために患者の解剖学的構造に接触する様々なステージにおける外科器具及びロボットアームを示す。
図25は、脊椎の棘突起を手動で除去している外科医を示す。体積除去は、手動または外科器具を有して実行され得る。加えて、体積除去は、外科医によってガイドされるのみで(すなわち、手術可能な体積を画定することなく)自由に実行され得る。椎弓切除の場合、棘突起は重要ではなく、患者の解剖学的構造の傷つきやすい部分の近くでもない、そのため手動の除去で十分である。図26〜27は、一組の空間座標を生成するために複数のポイントにおいて患者の解剖学的構造に接触することによって患者の解剖学的構造のモデルを更新するプロセス中の外科医を示す。図26〜27において示されるプロセス中に生成された一組の空間座標が、以前患者の解剖学的構造の内部ポイントであったポイント用の空間座標を含むはずであるため、患者の解剖学的構造モデルがそれに従って更新され得る。図28は、中間の青色で協調された新しい表面の近くのモデルの領域を有する、更新された解剖学的構造モデルを示す。
図29は、患者の再位置合わせをするプロセス中の外科医を示す。外科医は、任意のポイントで患者の解剖学的構造に接触することができる。良好な再位置合わせをするために、特定のポイントで患者に接触する必要は無い。例示的な方法の場合、再位置合わせは、棘突起の除去を反映するために更新された患者のモデルに基づき実行されるであろう。図30及び31は、再位置合わせプロセス中の外科医によって見られたナビゲーションディスプレイを示す。外科医は、位置合わせが正確であるか追加のチェックを提供するために患者の骨に接触している外科器具を見ることができる。例えば、外科医が外科器具で患者の解剖学的構造に物理的に接触しているのに、ナビゲーションディスプレイが患者の解剖学的構造の表面に外科器具の終点を示さない場合、外科医は、外科方法を進める前に再位置合わせが必要であることがわかる。
図32は、手術可能な体積内で外科器具を操作している外科医を示す。外科器具は、周囲体積に対するリスクを無くし、手術可能な体積内の体積を除去するために使用され得る。椎弓切除の間、外科医は、脊髄の神経に近接して手術を行うため、精度は外科的転帰にとって重要である。外科医が手術可能な体積の境界に達する場合、ロボットアームがさらなる移動を防止し、触覚フィードバックが、境界から離れ、また内部へ向けなおすために外科医に信号を送るであろう。図33は、例示的な方法における体積除去中に外科医が使用するナビゲーションディスプレイを示す。外科医は、外科器具ならびにその終点、患者の解剖学的構造をモデリングする医用画像データ、及び現在の処置の手術可能な体積の表現を見ることができる。外科医は、元の手術可能な体積がどこかで不十分または不完全であると判定される場合、手術可能な体積を手術中に再度画定するためにこれを使用することができる。終点及び手術可能な体積のオーバーレイもまた、位置合わせが正確であるという外科医用視覚チェックを提供する。外科医が触覚フィードバックを感じているのに、終点が手術可能な体積内に現れる場合、手術可能な体積は再度画定される必要があり、及び/または患者が再位置合わせされる必要がある。
図34及び35は、椎弓切除完了後の患者の脊椎を示す。必要な体積を除去する。体積除去中にロボット外科システムの使用と組み合わせて手術可能な体積を使用することによって、体積除去は、既知のテクニックを有する同様の体積除去に比べて明らかにより早く行われ得る。例えば、ある実施形態において、椎弓切除の体積除去は、概して30分以上かかる以前の既知のテクニックと比較すると、5分以下で行う。
本明細書において記載された外科方法が例示であることが理解される。多くの外科処置は、患者の解剖学的構造と外科器具との良好に画定された空間的関係、と同様に外科器具の移動を制限する手術体積を必要とする。他の整形外科及び非整形外科方法は、本明細書に記載された方法の統合を容易に適合される。ロボットベースナビゲーションシステム及び方法を使用することが考えられる他の外科手術は、これらに限定することはないが、整形外科処置、ENT処置、及び神経外科処置を含む。このような処置が、開放型、経皮、侵襲性外科(MIS)方法を使用して実行され得ることが、当業者によって容易に理解される。また本明細書において記載された関連する座標システムを使用して座標及び/または体積を判定するためのいずれの方法も、本明細書において記載されたいずれの外科方法において使用され得るということが理解される。
図36は、本明細書に記載された方法及びシステムにおいて使用するための例示的なネットワーク環境3600を示す。概略において、図36を参照すると、例示的なクラウド計算環境3600のブロック図が、示され、記載される。クラウド計算環境3600は、1つ以上のリソースプロバイダ3602a、3602b、3602c(集合的に、3602)を含み得る。各リソースプロバイダ3602は、計算リソースを含み得る。いくつかの実装において、計算リソースは、データを処理するために使用された任意のハードウェア及び/またはソフトウェアを含み得る。例えば、計算リソースは、アルゴリズム、計算プログラム、及び/または計算アプリケーションを実行することが可能なハードウェア及び/またはソフトウェアを含み得る。いくつかの実装において、例示的な計算リソースは、アプリケーションサーバ及び/または記憶及び検索能力を備えるデータベースを含み得る。各リソースプロバイダ3602は、クラウド計算環境3600内で任意の他のリソースプロバイダ3602に接続され得る。いくつかの実装において、リソースプロバイダ3602は、コンピュータネットワーク3608上で接続され得る。各リソースプロバイダ3602は、コンピュータネットワーク3608上で1つ以上の計算デバイス3604a、3604b、3604c(集合的に、3604)に接続され得る。
クラウド計算環境3600は、リソースマネジャ3606を含み得る。リソースマネジャ3606は、コンピュータネットワーク3608上でリソースプロバイダ3602及び計算デバイス3604に接続され得る。いくつかの実装において、リソースマネジャ3606は、1つ以上のリソースプロバイダ3602によって1つ以上の計算デバイス3604への計算リソースの提供を促進し得る。リソースマネジャ3606は、特定の計算デバイス3604からの計算リソースに対するリクエストを受信し得る。リソースマネジャ3606は、計算デバイス3604によってリクエストされた計算リソースを提供することができる1つ以上のリソースプロバイダ3602を識別し得る。リソースマネジャ3606は、計算リソースを提供するためにリソースプロバイダ3602を選択し得る。リソースマネジャ3606は、リソースプロバイダ3602と特定の計算デバイス3604との接続を促進し得る。いくつかの実装において、リソースマネジャ3606は、特定のリソースプロバイダ3602と特定の計算デバイス3604との接続を確立し得る。いくつかの実装において、リソースマネジャ3606は、リクエストされた計算リソースを有する特定のリソースプロバイダ3602に特定の計算デバイス3604をリダイレクトすることができる。
図37は、本開示において記載された方法及びシステムにおいて使用され得る計算デバイス3700及び移動式計算デバイス3750の実施例を示す。計算デバイス3700は、ラップトップ、デスクトップ、ワークステーション、携帯情報端末、サーバ、ブレードサーバ、メインフレーム、及び他の適切なコンピュータなどの、様々な形態のデジタルコンピュータを提示するように意図される。移動式計算デバイス3750は、携帯情報端末、携帯電話、スマートフォン、及び他の同様の計算デバイスなどの、様々な形態の移動式デバイスを提示するように意図される。ここで示される構成部品、それらの接続ならびに関係、及びそれらの機能は、単に例にすぎず、これらに限定することを意味するものではない。
計算デバイス3700は、プロセッサ3702、メモリ3704、記憶デバイス3706、メモリ3704及び多重高速拡張ポート3710に接続する高速インターフェース3708、及び低速拡張ポート3714及び記憶デバイス3706に接続する低速インターフェース3712を含む。各プロセッサ3702、メモリ3704、記憶デバイス3706、高速インターフェース3708、高速拡張ポート3710、及び低速インターフェース3712は、様々なバスを使用して相互接続され、共通のマザーボードまたは他の適切な方法で搭載され得る。プロセッサ3702は、高速インターフェース3708に結合されたディスプレイ3716などの外部入/出力デバイス上のGUIのための図式情報を表示するために、メモリ内3704または記憶デバイス3706上に記憶された命令を含む、計算デバイス3700内で実行するための命令を処理することができる。他の実装において、多重プロセッサ及び/または多重バスが、多重メモリ及びメモリの種類に沿って適切に使用され得る。また、多重計算デバイスは、必要な動作(例えば、サーババンク、ブレードサーバのグループ、または多重プロセッサシステムとしての)の一部を提供する各デバイスと接続され得る。
メモリ3704は、計算デバイス3700内で情報を記憶する。いくつかの実装において、メモリ3704は、揮発性メモリユニットまたは複数のユニットである。いくつかの実装において、メモリ3704は、不揮発性メモリユニットまたは複数のユニットである。メモリ3704はまた、磁気または光学ディスクなどの、コンピュータ可読媒体の別の形態となり得る。
記憶デバイス3706は、計算デバイス3700用の大容量記憶装置を提供することが可能である。いくつかの実装において、記憶デバイス3706は、フロッピー(登録商標)ディスクデバイス、ハードディスクデバイス、光学ディスクデバイス、またはテープデバイス、フラッシュメモリもしくは他の類似の固体メモリデバイス、または記憶領域ネットワークまたは他の構成におけるデバイスを含む、デバイスの配列など、コンピュータ可読媒体となり得、またはそれを収容し得る。命令は、情報担体内に記憶され得る。命令は、1つ以上の処理デバイス(例えば、プロセッサ3702)によって実行されるとき、上記で記載されたような、1つ以上の方法を実行する。命令はまた、コンピュータ可読媒体、または機械可読媒体(例えば、メモリ3704、記憶デバイス3706、またはプロセッサ3702上のメモリ)などの1つ以上の記憶デバイスによって記憶され得る。
高速インターフェース3708は、計算デバイス3700のための帯域集中操作を管理し、一方で低速インターフェース3712は、より低い帯域集中操作を管理する。このような機能の配分は、単に実施例である。いくつかの実装において、高速インターフェース3708は、メモリ3704、ディスプレイ3716(例えば、図式プロセッサまたはアクセラレータ)、及び様々な拡張カード(図示せず)を受容し得る、高速拡張ポート3710に結合される。実装において、低速インターフェース3712は、記憶デバイス3706及び低速拡張ポート3714に結合される。様々な通信ポート(例えば、USB、ブルートゥース(登録商標)、イーサネット(登録商標)、無線イーサネット(登録商標))を含み得る低速拡張ポート3714は、キーボード、ポインティングデバイス、スキャナなどの1つ以上の入/出力デバイス、またはスイッチもしくはルータなどの、例えばネットワークアダプタを通る1つのネットワークデバイスと結合され得る。
計算デバイス3700は、図で示されるように多くの異なる形態において実装され得る。例えば、標準サーバ3720、またはそのようなサーバの一群において多数実装され得る。加えて、ラップトップコンピュータ3722などのパソコンにも実装され得る。またラックサーバシステム3724の一部としても実装され得る。代替的に、計算デバイス3700からの構成部品は、移動式計算デバイス3750などの、移動式デバイス(図示せず)内の他の構成部品とも組み合わせられ得る。そのようなデバイスの各々は、1つ以上の計算デバイス3700及び移動式計算デバイス3750を収容し得、システム全体が、互いに通信する多くの計算デバイスで構成され得る。
移動式計算デバイス3750は、プロセッサ3752、メモリ3764、ディスプレイ3754などの入/出力デバイス、通信インターフェース3766、及び他の構成部品の間のトランシーバ3768を含む。移動式計算デバイス3750はまた、付加的な記憶装置を提供するために、マイクロドライブまたは他のデバイスなどの、記憶デバイスを備えることができる。プロセッサ3752、メモリ3764、ディスプレイ3754、通信インターフェース3766、及びトランシーバ3768の各々は、様々なバスを使用して相互接続され、いくつかの構成部品は、共通のマザーボードまたは他の適切な方法で搭載され得る。
プロセッサ3752は、メモリ内3764内に記憶された命令を含む、移動式計算デバイス3750内で命令を実行することができる。プロセッサ3752は、別の多くのアナログ及びデジタルプロセッサを含むチップのチップ集合として実装され得る。プロセッサ3752は、例えば、ユーザインターフェース、移動式計算デバイス3750によって動作するアプリケーション、及び移動式計算デバイス3750による無線通信など、移動式計算デバイス3750の他の構成部品の調整のために提供され得る。
プロセッサ3752は、制御インターフェース3758及びディスプレイ3754に結合されたディスプレイインターフェース3756を通してユーザと通信し得る。ディスプレイ3754は、例えば、TFT(Thin−Film−Transistor Liquid Crystal Display)ディスプレイまたはOLED(Organic Light Emitting Diode)ディスプレイ、または他の適切なディスプレイ技術となり得る。ディスプレイインターフェース3756は、ユーザに図式及び他の情報を提示するためにディスプレイ3754を駆動するための適切な回路を備え得る。制御インターフェース3758は、ユーザからのコマンドを受信し、それらをプロセッサ3752へ提出するために変換し得る。加えて、外部インターフェース3762は、プロセッサ3752との通信を提供し得、移動式計算デバイス3750の他のデバイスとの近距離通信を可能とする。外部インターフェース3762は、例えば、いくつかの実装における有線通信のため、または他の実装における無線通信のために提供し得、及び多重インターフェースもまた使用され得る。
メモリ3764は、移動式計算デバイス3750内部の情報を記憶する。メモリ3764は、コンピュータ可読媒体、揮発性メモリユニットもしくは複数のユニット、または不揮発性メモリユニットもしくは複数のユニットのうちの1つ以上として実装され得る。拡張メモリ3774もまた、例えば、SIMM(Single In Line Memory Module)カードインターフェースを含み得る、拡張インターフェース3772を通して移動式計算デバイス3750に提供され、接続され得る。拡張メモリ3774は、移動式計算デバイス3750のための予備の記憶空間を提供し得、または移動式計算デバイス3750のためのアプリケーションもしくは他の情報を記憶し得る。特に、拡張メモリ3774は、上記に記載されたプロセスを実行または補完するための命令を含み得、また安全情報を含み得る。そのため、例えば、拡張メモリ3774は、移動式計算デバイス3750のためのセキュリティモジュールとして提供され得、移動式計算デバイス3750の使用の安全性を認める命令をプログラムされ得る。加えて、安全アプリケーションが、追加の情報、ハック不可方式でSIMMカード上に識別情報を配置することなどと共に、SIMMカードを介して提供され得る。
メモリは、下記で論じられるように、例えば、フラッシュメモリ及び/またはNVRAMメモリ(不揮発性ランダムアクセスメモリ)を含み得る。いくつかの実装において、命令は、情報キャリア内に記憶され、1つ以上の処理デバイス(例えば、プロセッサ3752)によって実行されるとき、上記で記述されたような、1つ以上の方法を実行する。命令はまた、1つ以上のコンピュータ可読媒体または機械可読媒体(例えば、メモリ3764、拡張メモリ3774、またはプロセッサ3752上のメモリ)など、1つ以上の記憶デバイスによって記憶され得る。いくつかの実装において、命令は、例えば、トランシーバ3768または外部インターフェース3762上で、伝搬信号で受信され得る。
移動式計算デバイス3750は、必要な場合にデジタル信号処理回路を含み得る、通信インターフェース3766を通して無線で通信し得る。通信インターフェース3766は、GSM(登録商標)ボイスコール(移動式通信のためのGlobal System)、SMS(Short Message Service)、EMS(Enhanced Messaging Service)、またはMMSメッセージ(Multimedia Messaging Service)、CDMA(符号分割多重アクセス)、TDMA(時分割多重アクセス)、PDC(Personal Digital Cellular)、WCDMA(登録商標)(Wideband Code Division Multiple Access)、CDMA2000、またはGPRS(General Packet Radio Service)、他、などの様々なモードまたはプロトコル下での通信を提供し得る。このような通信は、例えば、無線周波数を使用してトランシーバ3768を通して発生し得る。加えて、短距離通信も、Bluetooth(登録商標)、Wi−Fi(登録商標)、または他のこのようなトランシーバ(図示せず)を使用して、発生し得る。加えて、GPS(Global Positioning System)受信モジュール3770は、移動式計算デバイス3750に付加的なナビゲーションに関する無線データ及び配置に関する無線データを提供し得、これは移動式計算デバイス3750上で動作しているアプリケーションによって適切に使用され得る。
移動式計算デバイス3750はまた、オーディオコーデック3760を使用して音声認識しながら通信し得、これはユーザからの口頭の情報を受信し、それを使用可能なデジタル情報に変換し得る。オーディオコーデック3760は、例えば、移動式計算デバイス3750のハンドセットの中のスピーカなどを通して、ユーザ用の可聴音を同じように生成し得る。このような音声は、音声電話からの音声を含み得、録音された音声(例えば、ボイスメッセージ、音楽ファイルなど)を含み得、また移動式計算デバイス3750上で動作するアプリケーションによって生成された音声を含み得る。
移動式計算デバイス3750は、図において示されるように、たくさんの異なる形態で実装され得る。例えば、携帯電話3780として実装され得る。またスマートフォン3782、携帯情報端末、または他の類似の移動式デバイスの一部として実装され得る。
ここで記載されたシステム及びテクニックの様々な実装は、デジタル電子回路、集積回路、特別設計ASIC(特定用途集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/またはそれらの組み合わせにおいて実現され得る。これらの様々な実装は、少なくとも1つのプログラム可能なプロセッサを含むプログラム可能なシステム上で実行可能及び/または解釈可能な1つ以上のコンピュータプログラムにおける実装を含むことができ、これは記憶システム、少なくとも1つの入力デバイス、及び少なくとも1つの出力デバイスからデータならびに命令を受信するため、及び送信するために結合され、特別なまたは汎用となり得る。
これらのコンピュータプログラム(またプログラム、ソフトウェア、ソフトウェアアプリケーション、またはコードとして既知である)は、プログラム可能なプロセッサ用の機械命令を含み、高水準手続き型及び/またはオブジェクト志向プログラミング言語、及び/またはアセンブリ/機械言語において実装され得る。本明細書で使用されるように、用語、機械可読及びコンピュータ可読媒体は、機械命令を機械可読シグナルとして受信する機械可読媒体を含む、プログラム可能なプロセッサに機械命令及び/またはデータを提供するために使用された、いずれのコンピュータプログラム製品、装置及び/またはデバイス(例えば、磁気ディスク、光学ディスク、メモリ、プログラム可能なロジックデバイス(PLD))のことを指す。用語、機械可読信号は、プログラム可能なプロセッサに機械命令及び/またはデータを提供するために使用されたいずれの信号のことを指す。
ユーザとの相互作用を提供するために、ここに記載されたシステム及びテクニックは、ユーザに情報を表示するための表示デバイス(例えば、CRT(陰極線管)またはLCD(液晶ディスプレイ)モニタ)、及びそれによってユーザがコンピュータへの入力を提供することができるキーボードならびにポインティングデバイス(例えば、マウスまたはトラックボール)を有するコンピュータ上に実装され得る。他の種類のデバイスも同様に、ユーザとの相互作用を提供するために使用され得、たとえば、ユーザに提供されたフィードバックは、いずれの形態の感覚フィードバック(例えば、視覚フィードバック、聴覚フィードバック、または触覚フィードバック)となり得、ユーザからの入力は、音、スピーチ、または触覚入力を含む任意の形態で受信され得る。
ここに記載されたシステム及びテクニックは、バックエンド構成部品(例えば、データサーバとして)を含む、またはミドルウェア構成部品(例えば、アプリケーション、サーバ)を含む、またはフロントエンド構成部品(例えば、ユーザがここに記載されたシステム及びテクニックの実装とこれを通して相互作用することができる、図式ユーザインターフェースまたはウエブブラウザを有するクライアントコンピュータ)を含む、またはこのようなバックエンド、ミドルウェア、またはフロントエンド構成部品の組み合わせを含む計算システム内に実装され得る。システムの構成部品は、デジタルデータ通信(例えば、通信ネットワーク)の任意の形態または媒体によって相互接続され得る。通信ネットワークの実施例は、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、及びインターネットを含む。
計算システムは、クライアント及びサーバを含むことができる。クライアント及びサーバは、互いに概して離れており、通信ネットワークを通して典型的に相互作用する。クライアント及びサーバの関係は、それぞれのコンピュータ上で動作し、互いにクライアント−サーバ関係を有するコンピュータプログラムのおかげで成り立つ。
本発明のある実施形態が、上記に記載された。しかしながら、本発明は、それらの実施形態に限定するものではなく、本明細書に明示的に記載されたことへの追加及び修正はまた本発明の範囲内に含まれることが意図されるということが明示的に理解される。さらに、本明細書に記載された様々な実施形態の特性は、互いに排他的ではなく、例えばそのような組み合わせまたは配置が本明細書において明示されなくとも、本発明の趣旨及び範囲から逸脱することなく様々な組み合わせ及び配置で存在することができる。実際に、本明細書に記載されたことの変化、修正、及び他の実装が、本発明の趣旨及び範囲から逸脱することなく同業者が気づくであろう。このように、本発明は、前述の例示的な説明によってのみ定義されるものではない。
ロボット外科システムのロボットナビゲーションのための方法及び装置のある実装を説明すると、同業者には本発明のコンセプトを組み込む他の実装が使用され得るということが明らかとなるであろう。したがって、開示は、ある実装に限定されるべきではなく、むしろ下記請求項の趣旨及び範囲によってのみ限定されるべきである。

Claims (17)

  1. 外科処置中に患者の解剖学的構造を、ロボット外科システムのロボットアームのエンドエフェクタに取り付けられた器具と再位置合わせするための方法であって、
    ロボットアームに、器具を取り付けたエンドエフェクタを提供することであって、力センサが前記ロボットアームに結合される(例えば、前記力センサが前記器具と前記ロボットアームとの間に位置する)、エンドエフェクタを提供することと、
    プロセッサ及び内部に命令を記憶させたメモリを提供することと、を含み、前記命令が、
    前記プロセッサによって実行されたとき、前記プロセッサに、
    前記エンドエフェクタの移動によって促された、前記力センサからの触覚フィードバックを受信することと、
    前記触覚フィードバックが前記器具の材料との接触に対応することを判定することと、
    ロボット座標システムを使用して表された、前記器具の前記材料との各接触についての空間座標を含み、各空間座標が、解剖学的構造の体積の表面上のポイントに対応する、一組の空間座標を判定することと、
    ロボット座標システムと医用画像データ座標システムとの間の座標マッピングを受信することであって、前記ロボット座標システムが前記エンドエフェクタの物理的な座標システムに対応する、座標マッピングを受信することと、
    前記一組の空間座標に対応する前記表面のマッピングに基づいて前記座標マッピングを更新することと、
    前記更新された座標マッピングを記憶させ、それにより前記患者の解剖学的構造を再位置合わせすることと、を行わせる、方法。
  2. 前記マッピングが、面合わせを使用して生成される、請求項1に記載の方法。
  3. 前記更新ステップが、
    前記座標マッピングを使用して、患者の解剖学的構造の体積の前記表面を画定している一組の医用画像モデリング座標を変換することによって、一組のモデリング座標を判定し、前記一組の空間座標に対応する前記表面の前記一組のモデリング座標への前記マッピングに基づいて前記座標マッピングを更新するステップをさらに含む、請求項1に記載の方法。
  4. 前記更新ステップが、
    前記ロボット座標システムにおいて表され、患者の解剖学的構造の体積の前記表面を画定する、一組のモデリング座標を受信するステップと、
    前記一組の空間座標に対応する前記表面を、前記一組のモデリング座標に対応する前記患者の解剖学的構造の表面にマッピングするステップと、
    前記一組の空間座標に対応する前記表面の前記一組のモデリング座標への前記マッピングに基づいて前記座標マッピングを更新するステップと、をさらに含む、請求項1に記載の方法。
  5. 医療処置中の患者の位置のリアルタイムで動的な再位置合わせのためのロボットナビゲーションシステムであって、
    ロボットアームを備え、前記ロボットアームが、
    エンドエフェクタと、
    前記エンドエフェクタの位置を動的に追跡するための位置センサと、
    前記エンドエフェクタを操作しているユーザに力覚を届けるための力フィードバックサブシステムと、
    ディスプレイと、を備え、
    前記力フィードバックサブシステムが、前記患者の組織に接触し、抗して移動し、貫通し、及び/または中で移動する外科器具によって引き起こされた抵抗力を検出し、接触された組織の種類を識別し、前記操作者によって届けられた力を検出し、前記操作者によって届けられた前記力と前記患者の前記組織に対する前記外科器具の移動によってもたらされた前記抵抗力とを識別するための、1つ以上のセンサを備える、ロボットナビゲーションシステム。
  6. 器具が、前記ロボット外科システムの前記ロボットアームの前記エンドエフェクタに取り付けられている、請求項5に記載のロボットナビゲーションシステム。
  7. 前記器具が、外科ツールである、請求項6に記載のロボットナビゲーションシステム。
  8. 前記ロボットナビゲーションシステムの位置合わせまたは再位置合わせのための基準マーカをさらに含み、前記基準マーカが、
    方向部材であって、前記方向部材の複数の面を横切って分配された複数の方向ポイントを備える、方向部材と、
    前記方向部材が患者の解剖学的構造に対する方向及び位置を認識するように、前記基準マーカを前記患者の解剖学的構造に確実かつ開放可能に取り付けるための取り付け部材と、を備える、請求項1に記載のロボットナビゲーションシステム。
  9. 前記複数の方向ポイントが、前記方向部材の表面上のくぼみである、請求項8に記載のロボットナビゲーションシステム。
  10. 前記複数の方向ポイントが、ロボット座標システムを画定する、請求項8に記載のロボットナビゲーションシステム。
  11. 前記基準マーカと前記患者の解剖学的構造との間の空間関係を使用して、前記空間座標が判定されるように、前記エンドエフェクタが、既知のサイズ及び形状を有する前記基準マーカと接触する、請求項8に記載のロボットナビゲーションシステム。
  12. 前記システムが、コース位置合わせの実行に必要な最小距離だけ離間した複数の基準マーカを含む(例えば、前記最小距離は、少なくとも5cm、少なくとも10cm、少なくとも15cmである)、請求項5に記載のロボットナビゲーションシステム。
  13. 前記最小距離が、5cm以下、10cm以下、または15cm以下である、請求項12に記載のロボットナビゲーションシステム。
  14. ロボット外科システムのロボットアームのエンドエフェクタに取り付けられた外科器具が操作され得る、手術可能な体積を画定する患者の位置のリアルタイムで動的な再位置合わせのためのロボット外科システムであって、
    器具を取り付けたエンドエフェクタを有するロボットアームと、
    前記ロボットアームに直接または間接的に取り付けられた力センサと、
    プロセッサ及び内部に命令を記憶させたメモリと、を備え、前記命令が、前記プロセッサによって実行されたとき、前記プロセッサに、
    前記エンドエフェクタの移動によって促された、前記力センサからの触覚フィードバックを受信することと、
    前記触覚フィードバックが、患者の解剖学的構造との前記器具の接触に対応することを判定することと、
    ロボット座標システムを使用して表された、前記患者の解剖学的構造との前記器具の各接触のための空間座標を含み、各空間座標がある体積の表面上のポイントに対応する、一組の空間座標を判定することと、
    ユーザによって選択されたモデル体積であって、ロボット座標システムで表される、モデル体積を受信することと、
    前記モデル体積の前記表面を前記一組の空間座標にマッピングすることと、
    更新されたモデル体積を生成することであって、前記モデル体積の前記表面の前記一組の空間座標への前記マッピングを使用して、前記モデル体積の座標を変換することによって、前記更新されたモデル体積の座標が生成される、更新されたモデル体積を生成することと、
    前記更新されたモデル体積を記憶することと、を行わせる、システム。
  15. 前記更新されたモデル体積が、制限された手術可能な体積であり、前記外科器具の終点が、前記制限された手術可能な体積内に一時的に制限される、請求項14に記載のシステム。
  16. 前記モデル体積が、座標マッピングを使用して、医用画像データから生成される、請求項14に記載のシステム。
  17. 前記命令が、前記プロセッサによって実行されたとき、前記プロセッサに、
    前記更新されたモデル体積を受信することであって、前記記憶されたモデル体積が、第1のロボット座標システムで表される、前記更新されたモデル体積を受信することと、
    第2のロボット座標システムで表される更新された座標マッピングを受信することと、
    前記第1のロボット座標システムを、前記第2のロボット座標システムにマッピングすることと、
    前記更新されたモデルの座標を変換することによって、第2の更新されたモデル体積、及び
    前記第1のロボット座標システムと前記第2のロボット座標システムとの間の前記マッピングを使用して、前記第2のロボット座標システムで表された更新された座標に対する体積を生成することと、前記第2の更新されたモデル体積を記憶することと、を行わせる、請求項14に記載のシステム。
JP2018049251A 2017-03-16 2018-03-16 ロボット外科システムのロボットナビゲーション Pending JP2018158104A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201762472492P 2017-03-16 2017-03-16
US62/472,492 2017-03-16

Publications (1)

Publication Number Publication Date
JP2018158104A true JP2018158104A (ja) 2018-10-11

Family

ID=61691356

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018049251A Pending JP2018158104A (ja) 2017-03-16 2018-03-16 ロボット外科システムのロボットナビゲーション

Country Status (3)

Country Link
US (3) US11071594B2 (ja)
EP (1) EP3375400A3 (ja)
JP (1) JP2018158104A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020146373A (ja) * 2019-03-15 2020-09-17 リバーフィールド株式会社 医用ロボットシステムの力覚表示装置および力覚表示方法
WO2020189120A1 (ja) 2019-03-15 2020-09-24 リバーフィールド株式会社 力覚表示装置および力覚表示方法
WO2021106859A1 (ja) * 2019-11-25 2021-06-03 Cyberdyne株式会社 器具監視装置および器具監視方法
US11123088B2 (en) 2020-01-16 2021-09-21 Spinal Innovations, Llc Pressure activated surgical tool for use in spinal decompression procedures and methods of using the same
JP2022019688A (ja) * 2020-07-17 2022-01-27 雅客智慧(北京)科技有限公司 歯科ロボットおよび口腔ナビゲーション方法
JP2023508452A (ja) * 2019-12-26 2023-03-02 蘇州微創暢行機器人有限公司 骨登録方法、手術用ロボットおよび読み取り可能記憶媒体
US12023052B2 (en) 2021-08-24 2024-07-02 Spinal Innovations, Llc Pressure activated surgical tool for use in spinal decompression procedures and methods of using the same

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8332072B1 (en) 2008-08-22 2012-12-11 Titan Medical Inc. Robotic hand controller
US10532466B2 (en) * 2008-08-22 2020-01-14 Titan Medical Inc. Robotic hand controller
US8672837B2 (en) 2010-06-24 2014-03-18 Hansen Medical, Inc. Methods and devices for controlling a shapeable medical device
US9057600B2 (en) 2013-03-13 2015-06-16 Hansen Medical, Inc. Reducing incremental measurement sensor error
US9014851B2 (en) 2013-03-15 2015-04-21 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
US10562191B2 (en) * 2015-12-29 2020-02-18 Robomotive Laboratories LLC Method of controlling devices with sensation of applied force
US11350995B2 (en) 2016-10-05 2022-06-07 Nuvasive, Inc. Surgical navigation systems and methods
WO2018175737A1 (en) * 2017-03-22 2018-09-27 Intuitive Surgical Operations, Inc. Systems and methods for intelligently seeding registration
US11033341B2 (en) 2017-05-10 2021-06-15 Mako Surgical Corp. Robotic spine surgery system and methods
AU2018265160B2 (en) 2017-05-10 2023-11-16 Mako Surgical Corp. Robotic spine surgery system and methods
US10678338B2 (en) * 2017-06-09 2020-06-09 At&T Intellectual Property I, L.P. Determining and evaluating data representing an action to be performed by a robot
US10022192B1 (en) 2017-06-23 2018-07-17 Auris Health, Inc. Automatically-initialized robotic systems for navigation of luminal networks
KR20200115518A (ko) 2018-01-26 2020-10-07 마코 서지컬 코포레이션 수술 로봇에 의해 가이드된 보철물에 충격을 가하기 위한 엔드 이펙터, 시스템 및 방법
US10517681B2 (en) * 2018-02-27 2019-12-31 NavLab, Inc. Artificial intelligence guidance system for robotic surgery
US10827913B2 (en) 2018-03-28 2020-11-10 Auris Health, Inc. Systems and methods for displaying estimated location of instrument
KR102455671B1 (ko) 2018-05-31 2022-10-20 아우리스 헬스, 인코포레이티드 이미지-기반 기도 분석 및 매핑
US11298186B2 (en) * 2018-08-02 2022-04-12 Point Robotics Medtech Inc. Surgery assistive system and method for obtaining surface information thereof
US11918297B2 (en) 2019-01-10 2024-03-05 Mazor Robotics Ltd. System and method for registration between coordinate systems and navigation
US11135025B2 (en) * 2019-01-10 2021-10-05 Medtronic Navigation, Inc. System and method for registration between coordinate systems and navigation
CN109620415B (zh) 2019-02-14 2024-03-26 北京水木天蓬医疗技术有限公司 机器人辅助超声骨动力系统
WO2020219459A1 (en) * 2019-04-23 2020-10-29 Edwards Lifesciences Corporation Motorized implant delivery system
US20210039262A1 (en) * 2019-08-09 2021-02-11 Medtech S.A. Robotic controls for a surgical robot
US11147633B2 (en) 2019-08-30 2021-10-19 Auris Health, Inc. Instrument image reliability systems and methods
CN114340542B (zh) * 2019-08-30 2023-07-21 奥瑞斯健康公司 用于位置传感器的基于权重的配准的系统和方法
US11612440B2 (en) 2019-09-05 2023-03-28 Nuvasive, Inc. Surgical instrument tracking devices and related methods
WO2021059100A1 (en) * 2019-09-26 2021-04-01 Auris Health, Inc. Systems and methods for collision avoidance using object models
EP3811889B1 (en) * 2019-10-24 2024-06-12 Point Robotics (Singapore) Pte. Ltd. Surgery assistive system for obtaining surface information
EP4287978A1 (en) * 2021-02-08 2023-12-13 Medtronic Navigation, Inc. Systems and methods for intraoperative re-registration
CN113413214B (zh) * 2021-05-24 2022-12-30 上海交通大学 一种基于混合现实的引导的手术机器人力反馈方法和装置
US11832897B2 (en) * 2021-07-30 2023-12-05 Remex Medical Corp. Method and system for surgical navigation
CN113679472B (zh) * 2021-08-27 2022-11-01 深圳市牛耳机器人有限公司 一种用于自然腔道远程手术的人机协作方法及装置
CN113729949A (zh) * 2021-09-10 2021-12-03 武汉联影智融医疗科技有限公司 空间注册方法、手术机器人和空间注册系统
CN113768627A (zh) * 2021-09-14 2021-12-10 武汉联影智融医疗科技有限公司 视觉导航仪感受野获取方法、设备、手术机器人
CN114750163B (zh) * 2022-05-23 2024-01-30 杭州柳叶刀机器人有限公司 机器人末端坐标系切换方法、装置、机器人及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005537583A (ja) * 2002-09-03 2005-12-08 バリアン・メディカル・システムズ・テクノロジーズ・インコーポレイテッド 物体の単一カメラ追跡方法及び装置
JP2010519635A (ja) * 2007-02-26 2010-06-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 医学的画像形成のためのポインティングデバイス
US20120209117A1 (en) * 2006-03-08 2012-08-16 Orthosensor, Inc. Surgical Measurement Apparatus and System
WO2016087539A2 (en) * 2014-12-02 2016-06-09 KB Medical SA Robot assisted volume removal during surgery

Family Cites Families (561)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2614083B2 (de) 1976-04-01 1979-02-08 Siemens Ag, 1000 Berlin Und 8000 Muenchen Röntgenschichtgerät zur Herstellung von Transversalschichtbildern
US5354314A (en) 1988-12-23 1994-10-11 Medical Instrumentation And Diagnostics Corporation Three-dimensional beam localization apparatus and microscope for stereotactic diagnoses or surgery mounted on robotic type arm
US5246010A (en) 1990-12-11 1993-09-21 Biotrine Corporation Method and apparatus for exhalation analysis
US5417210A (en) 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5631973A (en) 1994-05-05 1997-05-20 Sri International Method for telemanipulation with telepresence
US6963792B1 (en) 1992-01-21 2005-11-08 Sri International Surgical method
US5657429A (en) 1992-08-10 1997-08-12 Computer Motion, Inc. Automated endoscope system optimal positioning
US5397323A (en) 1992-10-30 1995-03-14 International Business Machines Corporation Remote center-of-motion robot for surgery
EP0699053B1 (en) 1993-05-14 1999-03-17 Sri International Surgical apparatus
JP3378401B2 (ja) 1994-08-30 2003-02-17 株式会社日立メディコ X線装置
US6646541B1 (en) 1996-06-24 2003-11-11 Computer Motion, Inc. General purpose distributed operating room control system
US6978166B2 (en) 1994-10-07 2005-12-20 Saint Louis University System for use in displaying images of a body part
DE29521895U1 (de) 1994-10-07 1998-09-10 St. Louis University, St. Louis, Mo. Chirurgisches Navigationssystem umfassend Referenz- und Lokalisationsrahmen
US5882206A (en) 1995-03-29 1999-03-16 Gillio; Robert G. Virtual surgery system
US5887121A (en) 1995-04-21 1999-03-23 International Business Machines Corporation Method of constrained Cartesian control of robotic mechanisms with active and passive joints
US6122541A (en) 1995-05-04 2000-09-19 Radionics, Inc. Head band for frameless stereotactic registration
US5649956A (en) 1995-06-07 1997-07-22 Sri International System and method for releasably holding a surgical instrument
US5825982A (en) 1995-09-15 1998-10-20 Wright; James Head cursor control interface for an automated endoscope system for optimal positioning
US5772594A (en) 1995-10-17 1998-06-30 Barrick; Earl F. Fluoroscopic image guided orthopaedic surgery system with intraoperative registration
US5855583A (en) 1996-02-20 1999-01-05 Computer Motion, Inc. Method and apparatus for performing minimally invasive cardiac procedures
SG64340A1 (en) 1996-02-27 1999-04-27 Inst Of Systems Science Nation Curved surgical instruments and methods of mapping a curved path for stereotactic surgery
US6167145A (en) 1996-03-29 2000-12-26 Surgical Navigation Technologies, Inc. Bone navigation system
US5792135A (en) 1996-05-20 1998-08-11 Intuitive Surgical, Inc. Articulated surgical instrument for performing minimally invasive surgery with enhanced dexterity and sensitivity
US6167296A (en) 1996-06-28 2000-12-26 The Board Of Trustees Of The Leland Stanford Junior University Method for volumetric image navigation
US7302288B1 (en) 1996-11-25 2007-11-27 Z-Kat, Inc. Tool position indicator
US9050119B2 (en) 2005-12-20 2015-06-09 Intuitive Surgical Operations, Inc. Cable tensioning in a robotic surgical system
US7727244B2 (en) 1997-11-21 2010-06-01 Intuitive Surgical Operation, Inc. Sterile surgical drape
US8529582B2 (en) 1996-12-12 2013-09-10 Intuitive Surgical Operations, Inc. Instrument interface of a robotic surgical system
US6205411B1 (en) 1997-02-21 2001-03-20 Carnegie Mellon University Computer-assisted surgery planner and intra-operative guidance system
US6012216A (en) 1997-04-30 2000-01-11 Ethicon, Inc. Stand alone swage apparatus
US5820559A (en) 1997-03-20 1998-10-13 Ng; Wan Sing Computerized boundary estimation in medical images
US5911449A (en) 1997-04-30 1999-06-15 Ethicon, Inc. Semi-automated needle feed method and apparatus
US6231565B1 (en) 1997-06-18 2001-05-15 United States Surgical Corporation Robotic arm DLUs for performing surgical tasks
EP2362285B1 (en) 1997-09-19 2015-03-25 Massachusetts Institute of Technology Robotic apparatus
US6226548B1 (en) 1997-09-24 2001-05-01 Surgical Navigation Technologies, Inc. Percutaneous registration apparatus and method for use in computer-assisted surgical navigation
US5951475A (en) 1997-09-25 1999-09-14 International Business Machines Corporation Methods and apparatus for registering CT-scan data to multiple fluoroscopic images
US5987960A (en) 1997-09-26 1999-11-23 Picker International, Inc. Tool calibrator
US6212419B1 (en) 1997-11-12 2001-04-03 Walter M. Blume Method and apparatus using shaped field of repositionable magnet to guide implant
US6157853A (en) 1997-11-12 2000-12-05 Stereotaxis, Inc. Method and apparatus using shaped field of repositionable magnet to guide implant
US6031888A (en) 1997-11-26 2000-02-29 Picker International, Inc. Fluoro-assist feature for a diagnostic imaging device
US6165170A (en) 1998-01-29 2000-12-26 International Business Machines Corporation Laser dermablator and dermablation
US7371210B2 (en) 1998-02-24 2008-05-13 Hansen Medical, Inc. Flexible instrument
FR2779339B1 (fr) 1998-06-09 2000-10-13 Integrated Surgical Systems Sa Procede et appareil de mise en correspondance pour la chirurgie robotisee, et dispositif de mise en correspondance en comportant application
US6477400B1 (en) 1998-08-20 2002-11-05 Sofamor Danek Holdings, Inc. Fluoroscopic image guided orthopaedic surgery system with intraoperative registration
DE19839825C1 (de) 1998-09-01 1999-10-07 Siemens Ag Röntgendiagnostikgerät mit an einer bogenförmigen Halterung einander gegenüberliegend gelagertem Strahlensender und Strahlenempfänger
US6033415A (en) 1998-09-14 2000-03-07 Integrated Surgical Systems System and method for performing image directed robotic orthopaedic procedures without a fiducial reference system
DE19842798C1 (de) 1998-09-18 2000-05-04 Howmedica Leibinger Gmbh & Co Kalibriervorrichtung
US6340363B1 (en) 1998-10-09 2002-01-22 Surgical Navigation Technologies, Inc. Image guided vertebral distractor and method for tracking the position of vertebrae
US8527094B2 (en) 1998-11-20 2013-09-03 Intuitive Surgical Operations, Inc. Multi-user medical robotic system for collaboration or training in minimally invasive surgical procedures
US6659939B2 (en) 1998-11-20 2003-12-09 Intuitive Surgical, Inc. Cooperative minimally invasive telesurgical system
US7125403B2 (en) 1998-12-08 2006-10-24 Intuitive Surgical In vivo accessories for minimally invasive robotic surgery
US6325808B1 (en) 1998-12-08 2001-12-04 Advanced Realtime Control Systems, Inc. Robotic system, docking station, and surgical tool for collaborative control in minimally invasive surgery
US6322567B1 (en) 1998-12-14 2001-11-27 Integrated Surgical Systems, Inc. Bone motion tracking system
US6451027B1 (en) 1998-12-16 2002-09-17 Intuitive Surgical, Inc. Devices and methods for moving an image capture device in telesurgical systems
US7016457B1 (en) 1998-12-31 2006-03-21 General Electric Company Multimode imaging system for generating high quality images
DE19905974A1 (de) 1999-02-12 2000-09-07 Siemens Ag Verfahren zur Abtastung eines Untersuchungsobjekts mittels eines CT-Geräts
US6560354B1 (en) 1999-02-16 2003-05-06 University Of Rochester Apparatus and method for registration of images to physical space using a weighted combination of points and surfaces
US6144875A (en) 1999-03-16 2000-11-07 Accuray Incorporated Apparatus and method for compensating for respiratory and patient motion during treatment
US6778850B1 (en) 1999-03-16 2004-08-17 Accuray, Inc. Frameless radiosurgery treatment system and method
US6501981B1 (en) 1999-03-16 2002-12-31 Accuray, Inc. Apparatus and method for compensating for respiratory and patient motions during treatment
US6470207B1 (en) 1999-03-23 2002-10-22 Surgical Navigation Technologies, Inc. Navigational guidance via computer-assisted fluoroscopic imaging
JP2000271110A (ja) 1999-03-26 2000-10-03 Hitachi Medical Corp 医用x線装置
US6594552B1 (en) 1999-04-07 2003-07-15 Intuitive Surgical, Inc. Grip strength with tactile feedback for robotic surgery
US6565554B1 (en) 1999-04-07 2003-05-20 Intuitive Surgical, Inc. Friction compensation in a minimally invasive surgical apparatus
US6424885B1 (en) 1999-04-07 2002-07-23 Intuitive Surgical, Inc. Camera referenced control in a minimally invasive surgical apparatus
US6301495B1 (en) 1999-04-27 2001-10-09 International Business Machines Corporation System and method for intra-operative, image-based, interactive verification of a pre-operative surgical plan
DE19927953A1 (de) 1999-06-18 2001-01-11 Siemens Ag Röntgendiagnostikgerät
US6314311B1 (en) 1999-07-28 2001-11-06 Picker International, Inc. Movable mirror laser registration system
US6788018B1 (en) 1999-08-03 2004-09-07 Intuitive Surgical, Inc. Ceiling and floor mounted surgical robot set-up arms
US8004229B2 (en) 2005-05-19 2011-08-23 Intuitive Surgical Operations, Inc. Software center and highly configurable robotic systems for surgery and other uses
US9492235B2 (en) 1999-09-17 2016-11-15 Intuitive Surgical Operations, Inc. Manipulator arm-to-patient collision avoidance using a null-space
US8271130B2 (en) 2009-03-09 2012-09-18 Intuitive Surgical Operations, Inc. Master controller having redundant degrees of freedom and added forces to create internal motion
US7594912B2 (en) 2004-09-30 2009-09-29 Intuitive Surgical, Inc. Offset remote center manipulator for robotic surgery
US6312435B1 (en) 1999-10-08 2001-11-06 Intuitive Surgical, Inc. Surgical instrument with extended reach for use in minimally invasive surgery
US8644907B2 (en) 1999-10-28 2014-02-04 Medtronic Navigaton, Inc. Method and apparatus for surgical navigation
US6235038B1 (en) 1999-10-28 2001-05-22 Medtronic Surgical Navigation Technologies System for translation of electromagnetic and optical localization systems
US7366562B2 (en) 2003-10-17 2008-04-29 Medtronic Navigation, Inc. Method and apparatus for surgical navigation
US8239001B2 (en) 2003-10-17 2012-08-07 Medtronic Navigation, Inc. Method and apparatus for surgical navigation
US6499488B1 (en) 1999-10-28 2002-12-31 Winchester Development Associates Surgical sensor
US6379302B1 (en) 1999-10-28 2002-04-30 Surgical Navigation Technologies Inc. Navigation information overlay onto ultrasound imagery
WO2001043070A2 (en) 1999-12-10 2001-06-14 Miller Michael I Method and apparatus for cross modality image registration
US7635390B1 (en) 2000-01-14 2009-12-22 Marctec, Llc Joint replacement component having a modular articulating surface
US6377011B1 (en) 2000-01-26 2002-04-23 Massachusetts Institute Of Technology Force feedback user interface for minimally invasive surgical simulator and teleoperator and other similar apparatus
US6757068B2 (en) 2000-01-28 2004-06-29 Intersense, Inc. Self-referenced tracking
AU2001243237A1 (en) 2000-02-25 2001-09-03 The Board Of Trustees Of The Leland Stanford Junior University Methods and apparatuses for maintaining a trajectory in sterotaxi for tracking a target inside a body
WO2001064124A1 (en) 2000-03-01 2001-09-07 Surgical Navigation Technologies, Inc. Multiple cannula image guided tool for image guided procedures
US6996487B2 (en) 2000-03-15 2006-02-07 Orthosoft Inc. Automatic calibration system for computer-aided surgical instruments
US6535756B1 (en) 2000-04-07 2003-03-18 Surgical Navigation Technologies, Inc. Trajectory storage apparatus and method for surgical navigation system
US6856826B2 (en) 2000-04-28 2005-02-15 Ge Medical Systems Global Technology Company, Llc Fluoroscopic tracking and visualization system
US6490475B1 (en) 2000-04-28 2002-12-03 Ge Medical Systems Global Technology Company, Llc Fluoroscopic tracking and visualization system
US6856827B2 (en) 2000-04-28 2005-02-15 Ge Medical Systems Global Technology Company, Llc Fluoroscopic tracking and visualization system
US6614453B1 (en) 2000-05-05 2003-09-02 Koninklijke Philips Electronics, N.V. Method and apparatus for medical image display for surgical tool planning and navigation in clinical environments
US6645196B1 (en) 2000-06-16 2003-11-11 Intuitive Surgical, Inc. Guided tool change
US6782287B2 (en) 2000-06-27 2004-08-24 The Board Of Trustees Of The Leland Stanford Junior University Method and apparatus for tracking a medical instrument based on image registration
US6837892B2 (en) 2000-07-24 2005-01-04 Mazor Surgical Technologies Ltd. Miniature bone-mounted surgical robot
US6902560B1 (en) 2000-07-27 2005-06-07 Intuitive Surgical, Inc. Roll-pitch-roll surgical tool
DE10037491A1 (de) 2000-08-01 2002-02-14 Stryker Leibinger Gmbh & Co Kg Verfahren zum dreidimensionalen Visualisieren von Strukturen im Körperinneren
US6823207B1 (en) 2000-08-26 2004-11-23 Ge Medical Systems Global Technology Company, Llc Integrated fluoroscopic surgical navigation and imaging workstation with command protocol
CA2422950A1 (en) 2000-09-25 2002-05-02 Rony A. Abovitz Fluoroscopic registration artifact with optical and/or magnetic markers
EP1328208A1 (de) 2000-10-23 2003-07-23 Deutsches Krebsforschungszentrum Stiftung des öffentlichen Rechts Verfahren, vorrichtung und navigationshilfe zur navigation bei medizinischen eingriffen
US6718194B2 (en) 2000-11-17 2004-04-06 Ge Medical Systems Global Technology Company, Llc Computer assisted intramedullary rod surgery system with enhanced features
US6666579B2 (en) 2000-12-28 2003-12-23 Ge Medical Systems Global Technology Company, Llc Method and apparatus for obtaining and displaying computed tomography images using a fluoroscopy imaging system
US6840938B1 (en) 2000-12-29 2005-01-11 Intuitive Surgical, Inc. Bipolar cauterizing instrument
EP1364183B1 (en) 2001-01-30 2013-11-06 Mako Surgical Corp. Tool calibrator and tracker system
US7220262B1 (en) 2001-03-16 2007-05-22 Sdgi Holdings, Inc. Spinal fixation system and related methods
FR2822674B1 (fr) 2001-04-03 2003-06-27 Scient X Systeme stabilise de fusion intersomatique pour vertebres
WO2002083003A1 (en) 2001-04-11 2002-10-24 Clarke Dana S Tissue structure identification in advance of instrument
US7824401B2 (en) 2004-10-08 2010-11-02 Intuitive Surgical Operations, Inc. Robotic tool with wristed monopolar electrosurgical end effectors
US6783524B2 (en) 2001-04-19 2004-08-31 Intuitive Surgical, Inc. Robotic surgical tool with ultrasound cauterizing and cutting instrument
US8398634B2 (en) 2002-04-18 2013-03-19 Intuitive Surgical Operations, Inc. Wristed robotic surgical tool for pluggable end-effectors
US6994708B2 (en) 2001-04-19 2006-02-07 Intuitive Surgical Robotic tool with monopolar electro-surgical scissors
US6636757B1 (en) 2001-06-04 2003-10-21 Surgical Navigation Technologies, Inc. Method and apparatus for electromagnetic navigation of a surgical probe near a metal object
US7607440B2 (en) 2001-06-07 2009-10-27 Intuitive Surgical, Inc. Methods and apparatus for surgical planning
DE60130264T2 (de) 2001-06-13 2008-05-21 Volume Interactions Pte. Ltd. Führungssystem
US6584339B2 (en) 2001-06-27 2003-06-24 Vanderbilt University Method and apparatus for collecting and processing physical space data for use while performing image-guided surgery
US7063705B2 (en) 2001-06-29 2006-06-20 Sdgi Holdings, Inc. Fluoroscopic locator and registration device
JP4347043B2 (ja) 2001-06-29 2009-10-21 イントゥイティブ・サージカル・インコーポレーテッド プラットフォーム関節手首
US20040243147A1 (en) 2001-07-03 2004-12-02 Lipow Kenneth I. Surgical robot and robotic controller
ITMI20011759A1 (it) 2001-08-09 2003-02-09 Nuovo Pignone Spa Dispositivo raschiaiolo per asta di stantuffo di compressori alternativi
US7708741B1 (en) 2001-08-28 2010-05-04 Marctec, Llc Method of preparing bones for knee replacement surgery
US6728599B2 (en) 2001-09-07 2004-04-27 Computer Motion, Inc. Modularity system for computer assisted surgery
US6587750B2 (en) 2001-09-25 2003-07-01 Intuitive Surgical, Inc. Removable infinite roll master grip handle and touch sensor for robotic surgery
US6619840B2 (en) 2001-10-15 2003-09-16 Koninklijke Philips Electronics N.V. Interventional volume scanner
US6839612B2 (en) 2001-12-07 2005-01-04 Institute Surgical, Inc. Microwrist system for surgical procedures
US6947786B2 (en) 2002-02-28 2005-09-20 Surgical Navigation Technologies, Inc. Method and apparatus for perspective inversion
WO2003077101A2 (en) 2002-03-06 2003-09-18 Z-Kat, Inc. System and method for using a haptic device in combination with a computer-assisted surgery system
US8010180B2 (en) 2002-03-06 2011-08-30 Mako Surgical Corp. Haptic guidance system and method
US8996169B2 (en) 2011-12-29 2015-03-31 Mako Surgical Corp. Neural monitor-based dynamic haptics
EP1485697A2 (en) 2002-03-19 2004-12-15 Breakaway Imaging, Llc Computer tomograph with a detector following the movement of a pivotable x-ray source
AU2003224882A1 (en) 2002-04-05 2003-10-27 The Trustees Of Columbia University In The City Of New York Robotic scrub nurse
US7099428B2 (en) 2002-06-25 2006-08-29 The Regents Of The University Of Michigan High spatial resolution X-ray computed tomography (CT) system
US7248914B2 (en) 2002-06-28 2007-07-24 Stereotaxis, Inc. Method of navigating medical devices in the presence of radiopaque material
US7630752B2 (en) 2002-08-06 2009-12-08 Stereotaxis, Inc. Remote control of medical devices using a virtual device interface
US6922632B2 (en) 2002-08-09 2005-07-26 Intersense, Inc. Tracking, auto-calibration, and map-building system
US7231063B2 (en) 2002-08-09 2007-06-12 Intersense, Inc. Fiducial detection system
US7155316B2 (en) 2002-08-13 2006-12-26 Microbotics Corporation Microsurgical robot system
US6892090B2 (en) 2002-08-19 2005-05-10 Surgical Navigation Technologies, Inc. Method and apparatus for virtual endoscopy
US7331967B2 (en) 2002-09-09 2008-02-19 Hansen Medical, Inc. Surgical instrument coupling mechanism
ES2204322B1 (es) 2002-10-01 2005-07-16 Consejo Sup. De Invest. Cientificas Navegador funcional.
JP3821435B2 (ja) 2002-10-18 2006-09-13 松下電器産業株式会社 超音波探触子
US7319897B2 (en) 2002-12-02 2008-01-15 Aesculap Ag & Co. Kg Localization device display method and apparatus
US7318827B2 (en) 2002-12-02 2008-01-15 Aesculap Ag & Co. Kg Osteotomy procedure
US8814793B2 (en) 2002-12-03 2014-08-26 Neorad As Respiration monitor
US7386365B2 (en) 2004-05-04 2008-06-10 Intuitive Surgical, Inc. Tool grip calibration for robotic surgery
US7945021B2 (en) 2002-12-18 2011-05-17 Varian Medical Systems, Inc. Multi-mode cone beam CT radiotherapy simulator and treatment machine with a flat panel imager
US7505809B2 (en) 2003-01-13 2009-03-17 Mediguide Ltd. Method and system for registering a first image with a second image relative to the body of a patient
US7660623B2 (en) 2003-01-30 2010-02-09 Medtronic Navigation, Inc. Six degree of freedom alignment display for medical procedures
US7542791B2 (en) 2003-01-30 2009-06-02 Medtronic Navigation, Inc. Method and apparatus for preplanning a surgical procedure
US6988009B2 (en) 2003-02-04 2006-01-17 Zimmer Technology, Inc. Implant registration device for surgical navigation system
WO2004069040A2 (en) 2003-02-04 2004-08-19 Z-Kat, Inc. Method and apparatus for computer assistance with intramedullary nail procedure
US7083615B2 (en) 2003-02-24 2006-08-01 Intuitive Surgical Inc Surgical tool having electrocautery energy supply conductor with inhibited current leakage
JP4163991B2 (ja) 2003-04-30 2008-10-08 株式会社モリタ製作所 X線ct撮影装置及び撮影方法
US9060770B2 (en) 2003-05-20 2015-06-23 Ethicon Endo-Surgery, Inc. Robotically-driven surgical instrument with E-beam driver
US7194120B2 (en) 2003-05-29 2007-03-20 Board Of Regents, The University Of Texas System Methods and systems for image-guided placement of implants
US7171257B2 (en) 2003-06-11 2007-01-30 Accuray Incorporated Apparatus and method for radiosurgery
US9002518B2 (en) 2003-06-30 2015-04-07 Intuitive Surgical Operations, Inc. Maximum torque driving of robotic surgical tools in robotic surgical systems
US7960935B2 (en) 2003-07-08 2011-06-14 The Board Of Regents Of The University Of Nebraska Robotic devices with agent delivery components and related methods
US7042184B2 (en) 2003-07-08 2006-05-09 Board Of Regents Of The University Of Nebraska Microrobot for surgical applications
JP2007530085A (ja) 2003-07-15 2007-11-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 大きなガントリボアを有するコンピュータトモグラフィスキャナ
US7313430B2 (en) 2003-08-28 2007-12-25 Medtronic Navigation, Inc. Method and apparatus for performing stereotactic surgery
US7835778B2 (en) 2003-10-16 2010-11-16 Medtronic Navigation, Inc. Method and apparatus for surgical navigation of a multiple piece construct for implantation
US7840253B2 (en) 2003-10-17 2010-11-23 Medtronic Navigation, Inc. Method and apparatus for surgical navigation
US20050171558A1 (en) 2003-10-17 2005-08-04 Abovitz Rony A. Neurosurgery targeting and delivery system for brain structures
US20050096502A1 (en) 2003-10-29 2005-05-05 Khalili Theodore M. Robotic surgical device
US9393039B2 (en) 2003-12-17 2016-07-19 Brainlab Ag Universal instrument or instrument set for computer guided surgery
US7466303B2 (en) 2004-02-10 2008-12-16 Sunnybrook Health Sciences Center Device and process for manipulating real and virtual objects in three-dimensional space
US7974681B2 (en) 2004-03-05 2011-07-05 Hansen Medical, Inc. Robotic catheter system
US20080287781A1 (en) 2004-03-05 2008-11-20 Depuy International Limited Registration Methods and Apparatus
EP1722705A2 (en) 2004-03-10 2006-11-22 Depuy International Limited Orthopaedic operating systems, methods, implants and instruments
US7657298B2 (en) 2004-03-11 2010-02-02 Stryker Leibinger Gmbh & Co. Kg System, device, and method for determining a position of an object
US8475495B2 (en) 2004-04-08 2013-07-02 Globus Medical Polyaxial screw
US8860753B2 (en) 2004-04-13 2014-10-14 University Of Georgia Research Foundation, Inc. Virtual surgical system and methods
KR100617974B1 (ko) 2004-04-22 2006-08-31 한국과학기술원 명령추종이 가능한 복강경 장치
US7567834B2 (en) 2004-05-03 2009-07-28 Medtronic Navigation, Inc. Method and apparatus for implantation between two vertebral bodies
US7379790B2 (en) 2004-05-04 2008-05-27 Intuitive Surgical, Inc. Tool memory-based software upgrades for robotic surgery
US8528565B2 (en) 2004-05-28 2013-09-10 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic surgical system and method for automated therapy delivery
US7974674B2 (en) 2004-05-28 2011-07-05 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic surgical system and method for surface modeling
FR2871363B1 (fr) 2004-06-15 2006-09-01 Medtech Sa Dispositif robotise de guidage pour outil chirurgical
US7327865B2 (en) 2004-06-30 2008-02-05 Accuray, Inc. Fiducial-less tracking with non-rigid image registration
ITMI20041448A1 (it) 2004-07-20 2004-10-20 Milano Politecnico Apparato per la fusione e navigazione di immagini ecografiche e volumetriche di un paziente che utilizza una combinazione di marcatori ottici attivi e passivi per la localizzazione di sonde ecografiche e strumenti chirurgici rispetto al paziente
US7440793B2 (en) 2004-07-22 2008-10-21 Sunita Chauhan Apparatus and method for removing abnormal tissue
US7979157B2 (en) 2004-07-23 2011-07-12 Mcmaster University Multi-purpose robotic operating system and method
US9072535B2 (en) 2011-05-27 2015-07-07 Ethicon Endo-Surgery, Inc. Surgical stapling instruments with rotatable staple deployment arrangements
GB2422759B (en) 2004-08-05 2008-07-16 Elekta Ab Rotatable X-ray scan apparatus with cone beam offset
US7702379B2 (en) 2004-08-25 2010-04-20 General Electric Company System and method for hybrid tracking in surgical navigation
US7555331B2 (en) 2004-08-26 2009-06-30 Stereotaxis, Inc. Method for surgical navigation utilizing scale-invariant registration between a navigation system and a localization system
DE102004042489B4 (de) 2004-08-31 2012-03-29 Siemens Ag Medizinische Untersuchungs- oder Behandlungseinrichtung mit dazugehörigem Verfahren
WO2006029541A1 (de) 2004-09-15 2006-03-23 Ao Technology Ag Kalibriervorrichtung
EP1799107A1 (en) 2004-10-06 2007-06-27 Philips Intellectual Property & Standards GmbH Computed tomography method
US7831294B2 (en) 2004-10-07 2010-11-09 Stereotaxis, Inc. System and method of surgical imagining with anatomical overlay for navigation of surgical devices
US7983733B2 (en) 2004-10-26 2011-07-19 Stereotaxis, Inc. Surgical navigation using a three-dimensional user interface
US7062006B1 (en) 2005-01-19 2006-06-13 The Board Of Trustees Of The Leland Stanford Junior University Computed tomography with increased field of view
US7837674B2 (en) 2005-01-24 2010-11-23 Intuitive Surgical Operations, Inc. Compact counter balance for robotic surgical systems
US7763015B2 (en) 2005-01-24 2010-07-27 Intuitive Surgical Operations, Inc. Modular manipulator support for robotic surgery
US20060184396A1 (en) 2005-01-28 2006-08-17 Dennis Charles L System and method for surgical navigation
US7231014B2 (en) 2005-02-14 2007-06-12 Varian Medical Systems Technologies, Inc. Multiple mode flat panel X-ray imaging system
CA2826925C (en) 2005-02-22 2017-01-24 Mako Surgical Corp. Haptic guidance system and method
KR101121387B1 (ko) 2005-03-07 2012-03-09 헥터 오. 파체코 경피적 척추후굴풍선복원술, 경피적 척추성형술, 척추골 몸통 생검 또는 나사 배치에서 척추골 몸통으로의 개량된 접근을 위한 시스템 및 방법
US8375808B2 (en) 2005-12-30 2013-02-19 Intuitive Surgical Operations, Inc. Force sensing for surgical instruments
US8496647B2 (en) 2007-12-18 2013-07-30 Intuitive Surgical Operations, Inc. Ribbed force sensor
WO2006102756A1 (en) 2005-03-30 2006-10-05 University Western Ontario Anisotropic hydrogels
US7720523B2 (en) 2005-04-20 2010-05-18 General Electric Company System and method for managing power deactivation within a medical imaging system
US8208988B2 (en) 2005-05-13 2012-06-26 General Electric Company System and method for controlling a medical imaging device
US8398541B2 (en) 2006-06-06 2013-03-19 Intuitive Surgical Operations, Inc. Interactive user interfaces for robotic minimally invasive surgical systems
EP3679882A1 (en) 2005-06-06 2020-07-15 Intuitive Surgical Operations, Inc. Laparoscopic ultrasound robotic surgical system
JP2007000406A (ja) 2005-06-24 2007-01-11 Ge Medical Systems Global Technology Co Llc X線ct撮影方法およびx線ct装置
US7840256B2 (en) 2005-06-27 2010-11-23 Biomet Manufacturing Corporation Image guided tracking array and method
US20070005002A1 (en) 2005-06-30 2007-01-04 Intuitive Surgical Inc. Robotic surgical instruments for irrigation, aspiration, and blowing
US20070038059A1 (en) 2005-07-07 2007-02-15 Garrett Sheffer Implant and instrument morphing
WO2007022081A2 (en) 2005-08-11 2007-02-22 The Brigham And Women's Hospital, Inc. System and method for performing single photon emission computed tomography (spect) with a focal-length cone-beam collimation
US7787699B2 (en) 2005-08-17 2010-08-31 General Electric Company Real-time integration and recording of surgical image data
US8800838B2 (en) 2005-08-31 2014-08-12 Ethicon Endo-Surgery, Inc. Robotically-controlled cable-based surgical end effectors
US20070073133A1 (en) 2005-09-15 2007-03-29 Schoenefeld Ryan J Virtual mouse for use in surgical navigation
US7643862B2 (en) 2005-09-15 2010-01-05 Biomet Manufacturing Corporation Virtual mouse for use in surgical navigation
US7835784B2 (en) 2005-09-21 2010-11-16 Medtronic Navigation, Inc. Method and apparatus for positioning a reference frame
US8079950B2 (en) 2005-09-29 2011-12-20 Intuitive Surgical Operations, Inc. Autofocus and/or autoscaling in telesurgery
EP1946243A2 (en) 2005-10-04 2008-07-23 Intersense, Inc. Tracking objects with markers
US20090216113A1 (en) 2005-11-17 2009-08-27 Eric Meier Apparatus and Methods for Using an Electromagnetic Transponder in Orthopedic Procedures
US7711406B2 (en) 2005-11-23 2010-05-04 General Electric Company System and method for detection of electromagnetic radiation by amorphous silicon x-ray detector for metal detection in x-ray imaging
DE602005007509D1 (de) 2005-11-24 2008-07-24 Brainlab Ag Medizinisches Referenzierungssystem mit gamma-Kamera
US7819859B2 (en) 2005-12-20 2010-10-26 Intuitive Surgical Operations, Inc. Control system for reducing internally generated frictional and inertial resistance to manual positioning of a surgical manipulator
US7762825B2 (en) 2005-12-20 2010-07-27 Intuitive Surgical Operations, Inc. Electro-mechanical interfaces to mount robotic surgical arms
US7689320B2 (en) 2005-12-20 2010-03-30 Intuitive Surgical Operations, Inc. Robotic surgical system with joint motion controller adapted to reduce instrument tip vibrations
US8672922B2 (en) 2005-12-20 2014-03-18 Intuitive Surgical Operations, Inc. Wireless communication in a robotic surgical system
US8182470B2 (en) 2005-12-20 2012-05-22 Intuitive Surgical Operations, Inc. Telescoping insertion axis of a robotic surgical system
US8054752B2 (en) 2005-12-22 2011-11-08 Intuitive Surgical Operations, Inc. Synchronous data communication
ES2292327B1 (es) 2005-12-26 2009-04-01 Consejo Superior Investigaciones Cientificas Mini camara gamma autonoma y con sistema de localizacion, para uso intraquirurgico.
US7907166B2 (en) 2005-12-30 2011-03-15 Intuitive Surgical Operations, Inc. Stereo telestration for robotic surgery
US7930065B2 (en) 2005-12-30 2011-04-19 Intuitive Surgical Operations, Inc. Robotic surgery system including position sensors using fiber bragg gratings
JP5152993B2 (ja) 2005-12-30 2013-02-27 インテュイティブ サージカル インコーポレイテッド モジュール式力センサ
US7533892B2 (en) 2006-01-05 2009-05-19 Intuitive Surgical, Inc. Steering system for heavy mobile medical equipment
KR100731052B1 (ko) 2006-01-23 2007-06-22 한양대학교 산학협력단 미세침습 수술을 위한 컴퓨터통합 수술 보조시스템
US8162926B2 (en) 2006-01-25 2012-04-24 Intuitive Surgical Operations Inc. Robotic arm with five-bar spherical linkage
US8142420B2 (en) 2006-01-25 2012-03-27 Intuitive Surgical Operations Inc. Robotic arm with five-bar spherical linkage
US7845537B2 (en) 2006-01-31 2010-12-07 Ethicon Endo-Surgery, Inc. Surgical instrument having recording capabilities
US20110290856A1 (en) 2006-01-31 2011-12-01 Ethicon Endo-Surgery, Inc. Robotically-controlled surgical instrument with force-feedback capabilities
EP1815950A1 (en) 2006-02-03 2007-08-08 The European Atomic Energy Community (EURATOM), represented by the European Commission Robotic surgical system for performing minimally invasive medical procedures
US8219177B2 (en) 2006-02-16 2012-07-10 Catholic Healthcare West Method and system for performing invasive medical procedures using a surgical robot
US8219178B2 (en) 2007-02-16 2012-07-10 Catholic Healthcare West Method and system for performing invasive medical procedures using a surgical robot
US8526688B2 (en) 2006-03-09 2013-09-03 General Electric Company Methods and systems for registration of surgical navigation data and image data
US8208708B2 (en) 2006-03-30 2012-06-26 Koninklijke Philips Electronics N.V. Targeting method, targeting device, computer readable medium and program element
US20070233238A1 (en) 2006-03-31 2007-10-04 Medtronic Vascular, Inc. Devices for Imaging and Navigation During Minimally Invasive Non-Bypass Cardiac Procedures
CN101466313B (zh) 2006-04-14 2012-11-14 威廉博蒙特医院 扫描狭槽锥形束计算机断层摄影以及扫描聚焦光斑锥形束计算机断层摄影
US8112292B2 (en) 2006-04-21 2012-02-07 Medtronic Navigation, Inc. Method and apparatus for optimizing a therapy
US8021310B2 (en) 2006-04-21 2011-09-20 Nellcor Puritan Bennett Llc Work of breathing display for a ventilation system
US7940999B2 (en) 2006-04-24 2011-05-10 Siemens Medical Solutions Usa, Inc. System and method for learning-based 2D/3D rigid registration for image-guided surgery using Jensen-Shannon divergence
WO2007131561A2 (en) 2006-05-16 2007-11-22 Surgiceye Gmbh Method and device for 3d acquisition, 3d visualization and computer guided surgery using nuclear probes
US8560047B2 (en) 2006-06-16 2013-10-15 Board Of Regents Of The University Of Nebraska Method and apparatus for computer aided surgery
US20080004523A1 (en) 2006-06-29 2008-01-03 General Electric Company Surgical tool guide
DE102006032127B4 (de) 2006-07-05 2008-04-30 Aesculap Ag & Co. Kg Kalibrierverfahren und Kalibriervorrichtung für eine chirurgische Referenzierungseinheit
US20080013809A1 (en) 2006-07-14 2008-01-17 Bracco Imaging, Spa Methods and apparatuses for registration in image guided surgery
EP1886640B1 (de) 2006-08-08 2009-11-18 BrainLAB AG Planungsverfahren und System zur Freiform-Implantatsanpassung
EP2053972B1 (en) 2006-08-17 2013-09-11 Koninklijke Philips Electronics N.V. Computed tomography image acquisition
DE102006041033B4 (de) 2006-09-01 2017-01-19 Siemens Healthcare Gmbh Verfahren zur Rekonstruktion eines dreidimensionalen Bildvolumens
US8231610B2 (en) 2006-09-06 2012-07-31 National Cancer Center Robotic surgical system for laparoscopic surgery
US8150497B2 (en) 2006-09-08 2012-04-03 Medtronic, Inc. System for navigating a planned procedure within a body
US8150498B2 (en) 2006-09-08 2012-04-03 Medtronic, Inc. System for identification of anatomical landmarks
WO2008031077A2 (en) 2006-09-08 2008-03-13 Hansen Medical, Inc. Robotic surgical system with forward-oriented field of view guide instrument navigation
US8532741B2 (en) 2006-09-08 2013-09-10 Medtronic, Inc. Method and apparatus to optimize electrode placement for neurological stimulation
US8248413B2 (en) 2006-09-18 2012-08-21 Stryker Corporation Visual navigation system for endoscopic surgery
KR101525259B1 (ko) 2006-09-25 2015-06-02 메이저 로보틱스 엘티디. C―아암 컴퓨터 x선 단층 촬영 시스템
US8660635B2 (en) 2006-09-29 2014-02-25 Medtronic, Inc. Method and apparatus for optimizing a computer assisted surgical procedure
US8052688B2 (en) 2006-10-06 2011-11-08 Wolf Ii Erich Electromagnetic apparatus and method for nerve localization during spinal surgery
US20080144906A1 (en) 2006-10-09 2008-06-19 General Electric Company System and method for video capture for fluoroscopy and navigation
US20080109012A1 (en) 2006-11-03 2008-05-08 General Electric Company System, method and apparatus for tableside remote connections of medical instruments and systems using wireless communications
US8551114B2 (en) 2006-11-06 2013-10-08 Human Robotics S.A. De C.V. Robotic surgical device
US20080108912A1 (en) 2006-11-07 2008-05-08 General Electric Company System and method for measurement of clinical parameters of the knee for use during knee replacement surgery
US20080108991A1 (en) 2006-11-08 2008-05-08 General Electric Company Method and apparatus for performing pedicle screw fusion surgery
US8682413B2 (en) 2006-11-15 2014-03-25 General Electric Company Systems and methods for automated tracker-driven image selection
EP2081494B1 (en) 2006-11-16 2018-07-11 Vanderbilt University System and method of compensating for organ deformation
US7935130B2 (en) 2006-11-16 2011-05-03 Intuitive Surgical Operations, Inc. Two-piece end-effectors for robotic surgical tools
US8727618B2 (en) 2006-11-22 2014-05-20 Siemens Aktiengesellschaft Robotic device and method for trauma patient diagnosis and therapy
US7835557B2 (en) 2006-11-28 2010-11-16 Medtronic Navigation, Inc. System and method for detecting status of imaging device
US8320991B2 (en) 2006-12-01 2012-11-27 Medtronic Navigation Inc. Portable electromagnetic navigation system
US7683332B2 (en) 2006-12-08 2010-03-23 Rush University Medical Center Integrated single photon emission computed tomography (SPECT)/transmission computed tomography (TCT) system for cardiac imaging
US7683331B2 (en) 2006-12-08 2010-03-23 Rush University Medical Center Single photon emission computed tomography (SPECT) system for cardiac imaging
US8556807B2 (en) 2006-12-21 2013-10-15 Intuitive Surgical Operations, Inc. Hermetically sealed distal sensor endoscope
DE102006061178A1 (de) 2006-12-22 2008-06-26 Siemens Ag System zur Durchführung und Überwachung minimal-invasiver Eingriffe
US20080177203A1 (en) 2006-12-22 2008-07-24 General Electric Company Surgical navigation planning system and method for placement of percutaneous instrumentation and implants
US20080161680A1 (en) 2006-12-29 2008-07-03 General Electric Company System and method for surgical navigation of motion preservation prosthesis
US9220573B2 (en) 2007-01-02 2015-12-29 Medtronic Navigation, Inc. System and method for tracking positions of uniform marker geometries
US8684253B2 (en) 2007-01-10 2014-04-01 Ethicon Endo-Surgery, Inc. Surgical instrument with wireless communication between a control unit of a robotic system and remote sensor
US8374673B2 (en) 2007-01-25 2013-02-12 Warsaw Orthopedic, Inc. Integrated surgical navigational and neuromonitoring system having automated surgical assistance and control
CA2920567C (en) 2007-02-01 2019-03-05 Ravish V. Patwardhan Surgical navigation system for guiding an access member
US20080195081A1 (en) 2007-02-02 2008-08-14 Hansen Medical, Inc. Spinal surgery methods using a robotic instrument system
US8233963B2 (en) 2007-02-19 2012-07-31 Medtronic Navigation, Inc. Automatic identification of tracked surgical devices using an electromagnetic localization system
US8600478B2 (en) 2007-02-19 2013-12-03 Medtronic Navigation, Inc. Automatic identification of instruments used with a surgical navigation system
DE102007009017B3 (de) 2007-02-23 2008-09-25 Siemens Ag Anordnung zur Unterstützung eines perkutanen Eingriffs
US10039613B2 (en) 2007-03-01 2018-08-07 Surgical Navigation Technologies, Inc. Method for localizing an imaging device with a surgical navigation system
US8098914B2 (en) 2007-03-05 2012-01-17 Siemens Aktiengesellschaft Registration of CT volumes with fluoroscopic images
US20080228068A1 (en) 2007-03-13 2008-09-18 Viswanathan Raju R Automated Surgical Navigation with Electro-Anatomical and Pre-Operative Image Data
US8821511B2 (en) 2007-03-15 2014-09-02 General Electric Company Instrument guide for use with a surgical navigation system
US20080235052A1 (en) 2007-03-19 2008-09-25 General Electric Company System and method for sharing medical information between image-guided surgery systems
JP4953303B2 (ja) 2007-03-29 2012-06-13 学校法人早稲田大学 病変部位の位置特定システム
US8150494B2 (en) 2007-03-29 2012-04-03 Medtronic Navigation, Inc. Apparatus for registering a physical space to image space
US7879045B2 (en) 2007-04-10 2011-02-01 Medtronic, Inc. System for guiding instruments having different sizes
US8560118B2 (en) 2007-04-16 2013-10-15 Neuroarm Surgical Ltd. Methods, devices, and systems for non-mechanically restricting and/or programming movement of a tool of a manipulator along a single axis
US8738181B2 (en) 2007-04-16 2014-05-27 Alexander Greer Methods, devices, and systems for automated movements involving medical robots
US8010177B2 (en) 2007-04-24 2011-08-30 Medtronic, Inc. Intraoperative image registration
US8301226B2 (en) 2007-04-24 2012-10-30 Medtronic, Inc. Method and apparatus for performing a navigated procedure
US8311611B2 (en) 2007-04-24 2012-11-13 Medtronic, Inc. Method for performing multiple registrations in a navigated procedure
US20090012509A1 (en) 2007-04-24 2009-01-08 Medtronic, Inc. Navigated Soft Tissue Penetrating Laser System
US8108025B2 (en) 2007-04-24 2012-01-31 Medtronic, Inc. Flexible array for use in navigated surgery
US8062364B1 (en) 2007-04-27 2011-11-22 Knee Creations, Llc Osteoarthritis treatment and device
DE102007022122B4 (de) 2007-05-11 2019-07-11 Deutsches Zentrum für Luft- und Raumfahrt e.V. Greifvorrichtung für eine Chirurgie-Roboter-Anordnung
US8057397B2 (en) 2007-05-16 2011-11-15 General Electric Company Navigation and imaging system sychronized with respiratory and/or cardiac activity
US20080287771A1 (en) 2007-05-17 2008-11-20 General Electric Company Surgical navigation system with electrostatic shield
US8934961B2 (en) 2007-05-18 2015-01-13 Biomet Manufacturing, Llc Trackable diagnostic scope apparatus and methods of use
US20080300477A1 (en) 2007-05-30 2008-12-04 General Electric Company System and method for correction of automated image registration
US20080300478A1 (en) 2007-05-30 2008-12-04 General Electric Company System and method for displaying real-time state of imaged anatomy during a surgical procedure
US9096033B2 (en) 2007-06-13 2015-08-04 Intuitive Surgical Operations, Inc. Surgical system instrument sterile adapter
US9468412B2 (en) 2007-06-22 2016-10-18 General Electric Company System and method for accuracy verification for image based surgical navigation
WO2009014917A2 (en) 2007-07-12 2009-01-29 Board Of Regents Of The University Of Nebraska Methods and systems of actuation in robotic devices
US7834484B2 (en) 2007-07-16 2010-11-16 Tyco Healthcare Group Lp Connection cable and method for activating a voltage-controlled generator
JP2009045428A (ja) 2007-07-25 2009-03-05 Terumo Corp 操作機構、医療用マニピュレータ及び手術用ロボットシステム
WO2009018086A2 (en) 2007-07-27 2009-02-05 The Cleveland Clinic Foundation Oblique lumbar interbody fusion
US8035685B2 (en) 2007-07-30 2011-10-11 General Electric Company Systems and methods for communicating video data between a mobile imaging system and a fixed monitor system
US8328818B1 (en) 2007-08-31 2012-12-11 Globus Medical, Inc. Devices and methods for treating bone
WO2009039428A2 (en) 2007-09-19 2009-03-26 Roberts Walter A Direct visualization robotic intra-operative radiation therapy applicator device
US20090080737A1 (en) 2007-09-25 2009-03-26 General Electric Company System and Method for Use of Fluoroscope and Computed Tomography Registration for Sinuplasty Navigation
US8224484B2 (en) 2007-09-30 2012-07-17 Intuitive Surgical Operations, Inc. Methods of user interface with alternate tool mode for robotic surgical tools
US9522046B2 (en) 2010-08-23 2016-12-20 Gip Robotic surgery system
EP2217147B1 (en) 2007-11-06 2012-06-27 Koninklijke Philips Electronics N.V. Nuclear medicine spect-ct machine with integrated asymmetric flat panel cone-beam ct and spect system
DE102007055203A1 (de) 2007-11-19 2009-05-20 Kuka Roboter Gmbh Einen Roboter aufweisende Vorrichtung, medizinischer Arbeitsplatz und Verfahren zum Registrieren eines Objekts
US8561473B2 (en) 2007-12-18 2013-10-22 Intuitive Surgical Operations, Inc. Force sensor temperature compensation
US8400094B2 (en) 2007-12-21 2013-03-19 Intuitive Surgical Operations, Inc. Robotic surgical system with patient support
EP2224852A1 (en) 2007-12-21 2010-09-08 Koninklijke Philips Electronics N.V. Synchronous interventional scanner
US8864798B2 (en) 2008-01-18 2014-10-21 Globus Medical, Inc. Transverse connector
WO2009097539A2 (en) 2008-01-30 2009-08-06 The Trustees Of Columbia University In The City Of New York Systems, devices, and methods for robot-assisted micro-surgical stenting
US20090198121A1 (en) 2008-02-01 2009-08-06 Martin Hoheisel Method and apparatus for coordinating contrast agent injection and image acquisition in c-arm computed tomography
US8573465B2 (en) 2008-02-14 2013-11-05 Ethicon Endo-Surgery, Inc. Robotically-controlled surgical end effector system with rotary actuated closure systems
US8696458B2 (en) 2008-02-15 2014-04-15 Thales Visionix, Inc. Motion tracking system and method using camera and non-camera sensors
US7925653B2 (en) 2008-02-27 2011-04-12 General Electric Company Method and system for accessing a group of objects in an electronic document
US20090228019A1 (en) 2008-03-10 2009-09-10 Yosef Gross Robotic surgical system
US8282653B2 (en) 2008-03-24 2012-10-09 Board Of Regents Of The University Of Nebraska System and methods for controlling surgical tool elements
US8808164B2 (en) 2008-03-28 2014-08-19 Intuitive Surgical Operations, Inc. Controlling a robotic surgical tool with a display monitor
ES2569501T3 (es) 2008-03-28 2016-05-11 Telefonaktiebolaget Lm Ericsson (Publ) Identificación de una estación base manipulada o con defectos durante un traspaso
US7886743B2 (en) 2008-03-31 2011-02-15 Intuitive Surgical Operations, Inc. Sterile drape interface for robotic surgical instrument
US7843158B2 (en) 2008-03-31 2010-11-30 Intuitive Surgical Operations, Inc. Medical robotic system adapted to inhibit motions resulting in excessive end effector forces
US8333755B2 (en) 2008-03-31 2012-12-18 Intuitive Surgical Operations, Inc. Coupler to transfer controller motion from a robotic manipulator to an attached instrument
US9002076B2 (en) 2008-04-15 2015-04-07 Medtronic, Inc. Method and apparatus for optimal trajectory planning
US9345875B2 (en) 2008-04-17 2016-05-24 Medtronic, Inc. Method and apparatus for cannula fixation for an array insertion tube set
US8169468B2 (en) 2008-04-26 2012-05-01 Intuitive Surgical Operations, Inc. Augmented stereoscopic visualization for a surgical robot
ES2764964T3 (es) 2008-04-30 2020-06-05 Nanosys Inc Superficies resistentes al ensuciamiento para esferas reflectivas
US9579161B2 (en) 2008-05-06 2017-02-28 Medtronic Navigation, Inc. Method and apparatus for tracking a patient
US20110022229A1 (en) 2008-06-09 2011-01-27 Bae Sang Jang Master interface and driving method of surgical robot
TW201004607A (en) 2008-07-25 2010-02-01 Been-Der Yang Image guided navigation system and method thereof
US8054184B2 (en) 2008-07-31 2011-11-08 Intuitive Surgical Operations, Inc. Identification of surgical instrument attached to surgical robot
US8771170B2 (en) 2008-08-01 2014-07-08 Microaccess, Inc. Methods and apparatus for transesophageal microaccess surgery
JP2010035984A (ja) 2008-08-08 2010-02-18 Canon Inc X線撮影装置
ES2608820T3 (es) 2008-08-15 2017-04-17 Stryker European Holdings I, Llc Sistema y método de visualización del interior de un cuerpo
EP2323578B1 (en) 2008-08-18 2018-10-03 Encision, Inc. Enhanced control systems including flexible shielding and support systems for electrosurgical applications
DE102008041813B4 (de) 2008-09-04 2013-06-20 Carl Zeiss Microscopy Gmbh Verfahren zur Tiefenanalyse einer organischen Probe
US7900524B2 (en) 2008-09-09 2011-03-08 Intersense, Inc. Monitoring tools
EP2165671B1 (de) 2008-09-19 2011-06-01 BrainLAB AG Chirurgisches Pointerinstrument mit Spitzensensor
US8165658B2 (en) 2008-09-26 2012-04-24 Medtronic, Inc. Method and apparatus for positioning a guide relative to a base
US8073335B2 (en) 2008-09-30 2011-12-06 Intuitive Surgical Operations, Inc. Operator input device for a robotic surgical system
WO2010041193A2 (en) 2008-10-10 2010-04-15 Koninklijke Philips Electronics N.V. Method and apparatus to improve ct image acquisition using a displaced geometry
KR100944412B1 (ko) 2008-10-13 2010-02-25 (주)미래컴퍼니 수술용 슬레이브 로봇
US8781630B2 (en) 2008-10-14 2014-07-15 University Of Florida Research Foundation, Inc. Imaging platform to provide integrated navigation capabilities for surgical guidance
CN102238916B (zh) 2008-10-20 2013-12-04 约翰霍普金斯大学 环境特性估计和图形显示
EP2455038B1 (de) 2008-10-21 2015-04-01 Brainlab AG Integration von chirurgischem Instrument und Anzeigevorrichtung zur Unterstützung der bildgeführten Chirurgie
US8798932B2 (en) 2008-10-31 2014-08-05 The Invention Science Fund I, Llc Frozen compositions and methods for piercing a substrate
KR101075363B1 (ko) 2008-10-31 2011-10-19 정창욱 최소 침습 수술 도구를 포함하는 수술용 로봇 시스템
US9033958B2 (en) 2008-11-11 2015-05-19 Perception Raisonnement Action En Medecine Surgical robotic system
TWI435705B (zh) 2008-11-20 2014-05-01 Been Der Yang 手術用定位裝置及應用其之影像導航系統
US8787520B2 (en) 2008-11-27 2014-07-22 Hitachi Medical Corporation Radiation imaging device
US8483800B2 (en) 2008-11-29 2013-07-09 General Electric Company Surgical navigation enabled imaging table environment
CN102300512B (zh) 2008-12-01 2016-01-20 马佐尔机器人有限公司 机器人引导的倾斜脊柱稳定化
ES2341079B1 (es) 2008-12-11 2011-07-13 Fundacio Clinic Per A La Recerca Biomedica Equipo para vision mejorada por infrarrojo de estructuras vasculares,aplicable para asistir intervenciones fetoscopicas, laparoscopicas y endoscopicas y proceso de tratamiento de la señal para mejorar dicha vision.
US8021393B2 (en) 2008-12-12 2011-09-20 Globus Medical, Inc. Lateral spinous process spacer with deployable wings
US8830224B2 (en) 2008-12-31 2014-09-09 Intuitive Surgical Operations, Inc. Efficient 3-D telestration for local robotic proctoring
US8374723B2 (en) 2008-12-31 2013-02-12 Intuitive Surgical Operations, Inc. Obtaining force information in a minimally invasive surgical procedure
US8184880B2 (en) 2008-12-31 2012-05-22 Intuitive Surgical Operations, Inc. Robust sparse image matching for robotic surgery
US8594841B2 (en) 2008-12-31 2013-11-26 Intuitive Surgical Operations, Inc. Visual force feedback in a minimally invasive surgical procedure
CN102325499B (zh) 2009-01-21 2014-07-16 皇家飞利浦电子股份有限公司 用于大视场成像及运动伪影的探测和补偿的方法和装置
EP2381877B1 (en) 2009-01-29 2018-02-28 Imactis Method and device for navigation of a surgical tool
KR101038417B1 (ko) 2009-02-11 2011-06-01 주식회사 이턴 수술 로봇 시스템 및 그 제어 방법
US8418073B2 (en) 2009-03-09 2013-04-09 Intuitive Surgical Operations, Inc. User interfaces for electrosurgical tools in robotic surgical systems
US8120301B2 (en) 2009-03-09 2012-02-21 Intuitive Surgical Operations, Inc. Ergonomic surgeon control console in robotic surgical systems
US9737235B2 (en) 2009-03-09 2017-08-22 Medtronic Navigation, Inc. System and method for image-guided navigation
US8918207B2 (en) 2009-03-09 2014-12-23 Intuitive Surgical Operations, Inc. Operator input device for a robotic surgical system
US20120053597A1 (en) 2009-03-10 2012-03-01 Mcmaster University Mobile robotic surgical system
US8335552B2 (en) 2009-03-20 2012-12-18 Medtronic, Inc. Method and apparatus for instrument placement
CN105342705A (zh) 2009-03-24 2016-02-24 伊顿株式会社 利用增强现实技术的手术机器人系统及其控制方法
US20100249571A1 (en) 2009-03-31 2010-09-30 General Electric Company Surgical navigation system with wireless magnetoresistance tracking sensors
US8882803B2 (en) 2009-04-01 2014-11-11 Globus Medical, Inc. Orthopedic clamp and extension rod
US20100280363A1 (en) 2009-04-24 2010-11-04 Medtronic, Inc. Electromagnetic Navigation of Medical Instruments for Cardiothoracic Surgery
AU2010259131B2 (en) 2009-05-18 2012-11-22 Teleflex Medical Incorporated Method and devices for performing minimally invasive surgery
ES2388029B1 (es) 2009-05-22 2013-08-13 Universitat Politècnica De Catalunya Sistema robótico para cirugia laparoscópica.
CN101897593B (zh) 2009-05-26 2014-08-13 清华大学 一种计算机层析成像设备和方法
WO2010141839A2 (en) 2009-06-04 2010-12-09 Virginia Tech Intellectual Properties, Inc. Multi-parameter x-ray computed tomography
WO2011013164A1 (ja) 2009-07-27 2011-02-03 株式会社島津製作所 放射線撮影装置
BR212012002342U2 (pt) 2009-08-06 2015-11-03 Koninkl Philips Electronics Nv método de geração de uma imagem de um objeto com o uso de um aparelho de imagens que ten um detector, aparelho de formação de imagens médicas adaptado para gerar uma imagem de um objeto, e, sistema de formação de imagens combinadas de raios x e spect
WO2011021192A1 (en) 2009-08-17 2011-02-24 Mazor Surgical Technologies Ltd. Device for improving the accuracy of manual operations
US9844414B2 (en) 2009-08-31 2017-12-19 Gregory S. Fischer System and method for robotic surgical intervention in a magnetic resonance imager
EP2298223A1 (en) 2009-09-21 2011-03-23 Stryker Leibinger GmbH & Co. KG Technique for registering image data of an object
US8465476B2 (en) 2009-09-23 2013-06-18 Intuitive Surgical Operations, Inc. Cannula mounting fixture
US9044269B2 (en) 2009-09-30 2015-06-02 Brainlab Ag Two-part medical tracking marker
NL1037348C2 (en) 2009-10-02 2011-04-05 Univ Eindhoven Tech Surgical robot, instrument manipulator, combination of an operating table and a surgical robot, and master-slave operating system.
US8062375B2 (en) 2009-10-15 2011-11-22 Globus Medical, Inc. Expandable fusion device and method of installation thereof
US8679183B2 (en) 2010-06-25 2014-03-25 Globus Medical Expandable fusion device and method of installation thereof
US8556979B2 (en) 2009-10-15 2013-10-15 Globus Medical, Inc. Expandable fusion device and method of installation thereof
US8685098B2 (en) 2010-06-25 2014-04-01 Globus Medical, Inc. Expandable fusion device and method of installation thereof
US20110098553A1 (en) 2009-10-28 2011-04-28 Steven Robbins Automatic registration of images for image guided surgery
USD631966S1 (en) 2009-11-10 2011-02-01 Globus Medical, Inc. Basilar invagination implant
US8521331B2 (en) 2009-11-13 2013-08-27 Intuitive Surgical Operations, Inc. Patient-side surgeon interface for a minimally invasive, teleoperated surgical instrument
US20110137152A1 (en) 2009-12-03 2011-06-09 General Electric Company System and method for cooling components of a surgical navigation system
US8277509B2 (en) 2009-12-07 2012-10-02 Globus Medical, Inc. Transforaminal prosthetic spinal disc apparatus
CN102651998B (zh) 2009-12-10 2015-08-05 皇家飞利浦电子股份有限公司 用于微分相衬成像的扫描系统
US8694075B2 (en) 2009-12-21 2014-04-08 General Electric Company Intra-operative registration for navigated surgical procedures
US8353963B2 (en) 2010-01-12 2013-01-15 Globus Medical Expandable spacer and method for use thereof
US9381045B2 (en) 2010-01-13 2016-07-05 Jcbd, Llc Sacroiliac joint implant and sacroiliac joint instrument for fusing a sacroiliac joint
BR112012016973A2 (pt) 2010-01-13 2017-09-26 Koninl Philips Electronics Nv sistema de navegação cirúrgica para a integração de uma pluralidade de imagens de uma região anatômica de um corpo, incluíndo uma imagem pré-operatótia digitalizada, uma imagem intra-operatória fluoroscópia e uma imagem intra-operatória endoscópica
WO2011085814A1 (en) 2010-01-14 2011-07-21 Brainlab Ag Controlling and/or operating a medical device by means of a light pointer
US9039769B2 (en) 2010-03-17 2015-05-26 Globus Medical, Inc. Intervertebral nucleus and annulus implants and method of use thereof
US20140330288A1 (en) 2010-03-25 2014-11-06 Precision Automation And Robotics India Ltd. Articulating Arm for a Robotic Surgical Instrument System
US20110238080A1 (en) 2010-03-25 2011-09-29 Date Ranjit Robotic Surgical Instrument System
IT1401669B1 (it) 2010-04-07 2013-08-02 Sofar Spa Sistema di chirurgia robotizzata con controllo perfezionato.
US8870880B2 (en) 2010-04-12 2014-10-28 Globus Medical, Inc. Angling inserter tool for expandable vertebral implant
US8717430B2 (en) 2010-04-26 2014-05-06 Medtronic Navigation, Inc. System and method for radio-frequency imaging, registration, and localization
IT1399603B1 (it) 2010-04-26 2013-04-26 Scuola Superiore Di Studi Universitari E Di Perfez Apparato robotico per interventi di chirurgia minimamente invasiva
CA2797302C (en) 2010-04-28 2019-01-15 Ryerson University System and methods for intraoperative guidance feedback
WO2012169990A2 (en) 2010-05-04 2012-12-13 Pathfinder Therapeutics, Inc. System and method for abdominal surface matching using pseudo-features
US8738115B2 (en) 2010-05-11 2014-05-27 Siemens Aktiengesellschaft Method and apparatus for selective internal radiation therapy planning and implementation
DE102010020284A1 (de) 2010-05-12 2011-11-17 Siemens Aktiengesellschaft Bestimmung von 3D-Positionen und -Orientierungen von chirurgischen Objekten aus 2D-Röntgenbildern
US8883210B1 (en) 2010-05-14 2014-11-11 Musculoskeletal Transplant Foundation Tissue-derived tissuegenic implants, and methods of fabricating and using same
US8603077B2 (en) 2010-05-14 2013-12-10 Intuitive Surgical Operations, Inc. Force transmission for robotic surgical instrument
KR101181569B1 (ko) 2010-05-25 2012-09-10 정창욱 단일 통로 수술 모드와 다통로 수술 모드를 실현할 수 있는 수술용 로봇 시스템 및 그 제어 방법
US20110295370A1 (en) 2010-06-01 2011-12-01 Sean Suh Spinal Implants and Methods of Use Thereof
DE102010026674B4 (de) 2010-07-09 2012-09-27 Siemens Aktiengesellschaft Bildgebungsvorrichtung und Strahlentherapiegerät
US8675939B2 (en) 2010-07-13 2014-03-18 Stryker Leibinger Gmbh & Co. Kg Registration of anatomical data sets
EP2593922A1 (en) 2010-07-14 2013-05-22 BrainLAB AG Method and system for determining an imaging direction and calibration of an imaging apparatus
US20120035507A1 (en) 2010-07-22 2012-02-09 Ivan George Device and method for measuring anatomic geometries
US8740882B2 (en) 2010-07-30 2014-06-03 Lg Electronics Inc. Medical robotic system and method of controlling the same
US8696549B2 (en) 2010-08-20 2014-04-15 Veran Medical Technologies, Inc. Apparatus and method for four dimensional soft tissue navigation in endoscopic applications
JP2012045278A (ja) 2010-08-30 2012-03-08 Fujifilm Corp X線画像撮影装置およびx線画像撮影方法
WO2012030304A1 (en) 2010-09-01 2012-03-08 Agency For Science, Technology And Research A robotic device for use in image-guided robot assisted surgical training
KR20120030174A (ko) 2010-09-17 2012-03-28 삼성전자주식회사 촉각 피드백을 제공하는 수술 로봇 시스템 및 수술 장치, 그리고 그의 촉각 피드백 제공 방법
EP2431003B1 (en) 2010-09-21 2018-03-21 Medizinische Universität Innsbruck Registration device, system, kit and method for a patient registration
US8679125B2 (en) 2010-09-22 2014-03-25 Biomet Manufacturing, Llc Robotic guided femoral head reshaping
US8657809B2 (en) 2010-09-29 2014-02-25 Stryker Leibinger Gmbh & Co., Kg Surgical navigation system
US8718346B2 (en) 2011-10-05 2014-05-06 Saferay Spine Llc Imaging system and method for use in surgical and interventional medical procedures
US8526700B2 (en) 2010-10-06 2013-09-03 Robert E. Isaacs Imaging system and method for surgical and interventional medical procedures
US9913693B2 (en) 2010-10-29 2018-03-13 Medtronic, Inc. Error correction techniques in surgical navigation
EP2651295A4 (en) 2010-12-13 2015-11-18 Ortho Kinematics Inc METHODS, SYSTEMS AND DEVICES FOR CLINICAL DATA REPORTING AND SURGICAL NAVIGATION
US8876866B2 (en) 2010-12-13 2014-11-04 Globus Medical, Inc. Spinous process fusion devices and methods thereof
EP2654574B1 (en) 2010-12-22 2017-05-03 ViewRay Technologies, Inc. System and method for image guidance during medical procedures
EP2663252A1 (en) 2011-01-13 2013-11-20 Koninklijke Philips N.V. Intraoperative camera calibration for endoscopic surgery
KR101181613B1 (ko) 2011-02-21 2012-09-10 윤상진 사용자 지정에 따라 결정되는 변위 정보에 기초하여 수술을 수행하는 수술용 로봇 시스템과 그 제어 방법
US20120226145A1 (en) 2011-03-03 2012-09-06 National University Of Singapore Transcutaneous robot-assisted ablation-device insertion navigation system
US9026247B2 (en) 2011-03-30 2015-05-05 University of Washington through its Center for Communication Motion and video capture for tracking and evaluating robotic surgery and associated systems and methods
WO2012131660A1 (en) 2011-04-01 2012-10-04 Ecole Polytechnique Federale De Lausanne (Epfl) Robotic system for spinal and other surgeries
US20120256092A1 (en) 2011-04-06 2012-10-11 General Electric Company Ct system for use in multi-modality imaging system
US20150213633A1 (en) 2011-04-06 2015-07-30 The Trustees Of Columbia University In The City Of New York System, method and computer-accessible medium for providing a panoramic cone beam computed tomography (cbct)
US10426554B2 (en) 2011-04-29 2019-10-01 The Johns Hopkins University System and method for tracking and navigation
WO2012169642A1 (ja) 2011-06-06 2012-12-13 株式会社大野興業 レジストレーション用テンプレートの製造方法
US8498744B2 (en) 2011-06-30 2013-07-30 Mako Surgical Corporation Surgical robotic systems with manual and haptic and/or active control modes
CA3082073C (en) 2011-07-11 2023-07-25 Board Of Regents Of The University Of Nebraska Robotic surgical devices, systems, and related methods
US8818105B2 (en) 2011-07-14 2014-08-26 Accuray Incorporated Image registration for image-guided surgery
KR20130015146A (ko) 2011-08-02 2013-02-13 삼성전자주식회사 의료 영상 처리 방법 및 장치, 영상 유도를 이용한 로봇 수술 시스템
US10866783B2 (en) 2011-08-21 2020-12-15 Transenterix Europe S.A.R.L. Vocally activated surgical control system
US9427330B2 (en) 2011-09-06 2016-08-30 Globus Medical, Inc. Spinal plate
US8864833B2 (en) 2011-09-30 2014-10-21 Globus Medical, Inc. Expandable fusion device and method of installation thereof
US9060794B2 (en) 2011-10-18 2015-06-23 Mako Surgical Corp. System and method for robotic surgery
US8894688B2 (en) 2011-10-27 2014-11-25 Globus Medical Inc. Adjustable rod devices and methods of using the same
DE102011054910B4 (de) 2011-10-28 2013-10-10 Ovesco Endoscopy Ag Magnetischer Endeffektor und Einrichtung zur Führung und Positionierung desselben
US8693730B2 (en) 2011-11-15 2014-04-08 Macdonald Dettwiler & Associates Inc. Method of real-time tracking of moving/flexible surfaces
FR2983059B1 (fr) 2011-11-30 2014-11-28 Medtech Procede assiste par robotique de positionnement d'instrument chirurgical par rapport au corps d'un patient et dispositif de mise en oeuvre.
EP2787910B1 (en) 2011-12-05 2022-08-03 Mazor Robotics Ltd. Active bed mount for surgical robot
KR101901580B1 (ko) 2011-12-23 2018-09-28 삼성전자주식회사 수술 로봇 및 그 제어 방법
ES2648762T3 (es) 2011-12-30 2018-01-05 Mako Surgical Corp. Sistema para cirugía robótica basada en imágenes
US9265583B2 (en) 2011-12-30 2016-02-23 Mako Surgical Corp. Method for image-based robotic surgery
FR2985167A1 (fr) 2011-12-30 2013-07-05 Medtech Procede medical robotise de surveillance de la respiration d'un patient et de correction de la trajectoire robotisee.
KR20130080909A (ko) 2012-01-06 2013-07-16 삼성전자주식회사 수술 로봇 및 그 제어 방법
US9138297B2 (en) 2012-02-02 2015-09-22 Intuitive Surgical Operations, Inc. Systems and methods for controlling a robotic surgical system
US10249036B2 (en) 2012-02-22 2019-04-02 Veran Medical Technologies, Inc. Surgical catheter having side exiting medical instrument and related systems and methods for four dimensional soft tissue navigation
US11207132B2 (en) 2012-03-12 2021-12-28 Nuvasive, Inc. Systems and methods for performing spinal surgery
US8855822B2 (en) 2012-03-23 2014-10-07 Innovative Surgical Solutions, Llc Robotic surgical system with mechanomyography feedback
KR101946000B1 (ko) 2012-03-28 2019-02-08 삼성전자주식회사 수술용 로봇 시스템 및 로봇 시스템의 제어방법
US8888821B2 (en) 2012-04-05 2014-11-18 Warsaw Orthopedic, Inc. Spinal implant measuring system and method
WO2013158655A1 (en) 2012-04-16 2013-10-24 Neurologica Corp. Imaging system with rigidly mounted fiducial markers
JP2015521056A (ja) 2012-04-16 2015-07-27 ニューロロジカ・コーポレーション ワイヤレスイメージングシステム
US20140142591A1 (en) 2012-04-24 2014-05-22 Auris Surgical Robotics, Inc. Method, apparatus and a system for robotic assisted surgery
US10383765B2 (en) 2012-04-24 2019-08-20 Auris Health, Inc. Apparatus and method for a global coordinate system for use in robotic surgery
US9020613B2 (en) 2012-05-01 2015-04-28 The Johns Hopkins University Method and apparatus for robotically assisted cochlear implant surgery
US20140234804A1 (en) 2012-05-02 2014-08-21 Eped Inc. Assisted Guidance and Navigation Method in Intraoral Surgery
US9125556B2 (en) 2012-05-14 2015-09-08 Mazor Robotics Ltd. Robotic guided endoscope
EP2849650A4 (en) 2012-05-18 2016-01-20 Carestream Health Inc VOLUMETRIC IMAGING SYSTEM THROUGH TOMODENSITOMETRY WITH TAPERED BEAM
KR20130132109A (ko) 2012-05-25 2013-12-04 삼성전자주식회사 서포터 장치 및 이를 채용한 수술 로봇 시스템
KR102309822B1 (ko) 2012-06-01 2021-10-08 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 멀티­포트 수술 로봇 시스템 구조
US9010214B2 (en) 2012-06-22 2015-04-21 Board Of Regents Of The University Of Nebraska Local control robotic surgical devices and related methods
US20130345757A1 (en) 2012-06-22 2013-12-26 Shawn D. Stad Image Guided Intra-Operative Contouring Aid
US20140001234A1 (en) 2012-06-28 2014-01-02 Ethicon Endo-Surgery, Inc. Coupling arrangements for attaching surgical end effectors to drive systems therefor
US8880223B2 (en) 2012-07-16 2014-11-04 Florida Institute for Human & Maching Cognition Anthro-centric multisensory interface for sensory augmentation of telesurgery
US20140031664A1 (en) 2012-07-30 2014-01-30 Mako Surgical Corp. Radiographic imaging device
KR101997566B1 (ko) 2012-08-07 2019-07-08 삼성전자주식회사 수술 로봇 시스템 및 그 제어방법
JP2015526171A (ja) 2012-08-08 2015-09-10 ボード オブ リージェンツ オブ ザ ユニバーシティ オブ ネブラスカ ロボット手術用デバイス、システム及び関連の方法
US9770305B2 (en) 2012-08-08 2017-09-26 Board Of Regents Of The University Of Nebraska Robotic surgical devices, systems, and related methods
US10110785B2 (en) 2012-08-10 2018-10-23 Karl Storz Imaging, Inc. Deployable imaging system equipped with solid state imager
WO2014028703A1 (en) 2012-08-15 2014-02-20 Intuitive Surgical Operations, Inc. Systems and methods for cancellation of joint motion using the null-space
EP2887903A4 (en) 2012-08-24 2016-06-08 Univ Houston System ROBOTIC DEVICE AND SYSTEMS FOR IMAGING AND ROBOT ASSISTED SURGERY
US20140080086A1 (en) 2012-09-20 2014-03-20 Roger Chen Image Navigation Integrated Dental Implant System
US8892259B2 (en) 2012-09-26 2014-11-18 Innovative Surgical Solutions, LLC. Robotic surgical system with mechanomyography feedback
US9757160B2 (en) 2012-09-28 2017-09-12 Globus Medical, Inc. Device and method for treatment of spinal deformity
WO2014062890A1 (en) * 2012-10-17 2014-04-24 Worcester Polytechnic Institute System and method for underactuated control of insertion path for asymmetric tip needles
KR102038632B1 (ko) 2012-11-06 2019-10-30 삼성전자주식회사 수술용 인스트루먼트, 서포터 장치, 및 수술 로봇 시스템
US20140130810A1 (en) 2012-11-14 2014-05-15 Intuitive Surgical Operations, Inc. Smart drapes for collision avoidance
KR102079945B1 (ko) 2012-11-22 2020-02-21 삼성전자주식회사 수술 로봇 및 수술 로봇 제어 방법
US9008752B2 (en) 2012-12-14 2015-04-14 Medtronic, Inc. Method to determine distribution of a material by an infused magnetic resonance image contrast agent
US9393361B2 (en) 2012-12-14 2016-07-19 Medtronic, Inc. Method to determine a material distribution
DE102012025101A1 (de) 2012-12-20 2014-06-26 avateramedical GmBH Aktive Positioniereinrichtung eines chirurgischen Instruments und ein diese umfassendes chirurgisches Robotersystem
US9001962B2 (en) 2012-12-20 2015-04-07 Triple Ring Technologies, Inc. Method and apparatus for multiple X-ray imaging applications
US20150005784A2 (en) 2012-12-20 2015-01-01 avateramedical GmBH Device for Supporting and Positioning of a Surgical Instrument and/or an Endoscope for Use in Minimal-Invasive Surgery and a Surgical Robotic System
US9002437B2 (en) 2012-12-27 2015-04-07 General Electric Company Method and system for position orientation correction in navigation
CA2896873A1 (en) 2012-12-31 2014-07-03 Mako Surgical Corp. System for image-based robotic surgery
KR20140090374A (ko) 2013-01-08 2014-07-17 삼성전자주식회사 싱글 포트 수술 로봇 및 그 제어 방법
CN103969269B (zh) 2013-01-31 2018-09-18 Ge医疗系统环球技术有限公司 用于几何校准ct扫描仪的方法和装置
US20140221819A1 (en) 2013-02-01 2014-08-07 David SARMENT Apparatus, system and method for surgical navigation
CN105101903B (zh) 2013-02-04 2018-08-24 儿童国家医疗中心 混合控制外科机器人系统
KR20140102465A (ko) 2013-02-14 2014-08-22 삼성전자주식회사 수술 로봇 및 그 제어방법
KR102117270B1 (ko) 2013-03-06 2020-06-01 삼성전자주식회사 수술 로봇 시스템 및 그 제어방법
KR20140110685A (ko) 2013-03-08 2014-09-17 삼성전자주식회사 싱글 포트 수술 로봇의 제어 방법
KR20140110620A (ko) 2013-03-08 2014-09-17 삼성전자주식회사 수술 로봇 시스템 및 그 작동 방법
KR102119534B1 (ko) 2013-03-13 2020-06-05 삼성전자주식회사 수술 로봇 및 그 제어방법
US9314308B2 (en) 2013-03-13 2016-04-19 Ethicon Endo-Surgery, Llc Robotic ultrasonic surgical device with articulating end effector
KR20140112207A (ko) 2013-03-13 2014-09-23 삼성전자주식회사 증강현실 영상 표시 시스템 및 이를 포함하는 수술 로봇 시스템
CA2905948C (en) 2013-03-14 2022-01-11 Board Of Regents Of The University Of Nebraska Methods, systems, and devices relating to robotic surgical devices, end effectors, and controllers
US9629595B2 (en) 2013-03-15 2017-04-25 Hansen Medical, Inc. Systems and methods for localizing, tracking and/or controlling medical instruments
US10667883B2 (en) 2013-03-15 2020-06-02 Virtual Incision Corporation Robotic surgical devices, systems, and related methods
KR102117273B1 (ko) 2013-03-21 2020-06-01 삼성전자주식회사 수술 로봇 시스템 및 그 제어 방법
KR20140121581A (ko) 2013-04-08 2014-10-16 삼성전자주식회사 수술 로봇 시스템
KR20140123122A (ko) 2013-04-10 2014-10-22 삼성전자주식회사 수술용 로봇 및 그 제어 방법
US9414859B2 (en) 2013-04-19 2016-08-16 Warsaw Orthopedic, Inc. Surgical rod measuring system and method
US8964934B2 (en) 2013-04-25 2015-02-24 Moshe Ein-Gal Cone beam CT scanning
KR20140129702A (ko) 2013-04-30 2014-11-07 삼성전자주식회사 수술 로봇 시스템 및 그 제어방법
US20140364720A1 (en) 2013-06-10 2014-12-11 General Electric Company Systems and methods for interactive magnetic resonance imaging
DE102013012397B4 (de) 2013-07-26 2018-05-24 Rg Mechatronics Gmbh OP-Robotersystem
US10786283B2 (en) 2013-08-01 2020-09-29 Musc Foundation For Research Development Skeletal bone fixation mechanism
US20150085970A1 (en) 2013-09-23 2015-03-26 General Electric Company Systems and methods for hybrid scanning
JP6581973B2 (ja) 2013-10-07 2019-09-25 テクニオン リサーチ アンド ディベロップメント ファンデーション リミテッド 針の挿入及び操縦のためのシステム
US9848922B2 (en) 2013-10-09 2017-12-26 Nuvasive, Inc. Systems and methods for performing spine surgery
CN110123448A (zh) 2013-10-09 2019-08-16 纽文思公司 在手术脊椎程序期间术中设计并评定脊椎畸形矫正的方法
ITBO20130599A1 (it) 2013-10-31 2015-05-01 Cefla Coop Metodo e apparato per aumentare il campo di vista in una acquisizione tomografica computerizzata con tecnica cone-beam
US20150146847A1 (en) 2013-11-26 2015-05-28 General Electric Company Systems and methods for providing an x-ray imaging system with nearly continuous zooming capability
EP3682837B1 (en) 2014-03-17 2023-09-27 Intuitive Surgical Operations, Inc. System and method for breakaway clutching in an articulated arm
CN110367988A (zh) 2014-06-17 2019-10-25 纽文思公司 手术脊椎程序期间手术中计划和评估脊椎变形矫正的装置
WO2016044574A1 (en) 2014-09-17 2016-03-24 Intuitive Surgical Operations, Inc. Systems and methods for utilizing augmented jacobian to control manipulator joint movement
US10631907B2 (en) 2014-12-04 2020-04-28 Mazor Robotics Ltd. Shaper for vertebral fixation rods
US20160166329A1 (en) 2014-12-15 2016-06-16 General Electric Company Tomographic imaging for interventional tool guidance
EP3878392B1 (en) 2015-04-15 2024-06-12 Mobius Imaging LLC Integrated medical imaging and surgical robotic system
US10180404B2 (en) 2015-04-30 2019-01-15 Shimadzu Corporation X-ray analysis device
US20170143284A1 (en) 2015-11-25 2017-05-25 Carestream Health, Inc. Method to detect a retained surgical object
US10070939B2 (en) 2015-12-04 2018-09-11 Zaki G. Ibrahim Methods for performing minimally invasive transforaminal lumbar interbody fusion using guidance
AU2017210124B2 (en) 2016-01-22 2021-05-20 Nuvasive, Inc. Systems and methods for facilitating spine surgery
US10448910B2 (en) 2016-02-03 2019-10-22 Globus Medical, Inc. Portable medical imaging system
US10842453B2 (en) 2016-02-03 2020-11-24 Globus Medical, Inc. Portable medical imaging system
US11058378B2 (en) 2016-02-03 2021-07-13 Globus Medical, Inc. Portable medical imaging system
US9962133B2 (en) 2016-03-09 2018-05-08 Medtronic Navigation, Inc. Transformable imaging system
US9931025B1 (en) 2016-09-30 2018-04-03 Auris Surgical Robotics, Inc. Automated calibration of endoscopes with pull wires
EP3360502A3 (en) 2017-01-18 2018-10-31 KB Medical SA Robotic navigation of robotic surgical systems

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005537583A (ja) * 2002-09-03 2005-12-08 バリアン・メディカル・システムズ・テクノロジーズ・インコーポレイテッド 物体の単一カメラ追跡方法及び装置
US20120209117A1 (en) * 2006-03-08 2012-08-16 Orthosensor, Inc. Surgical Measurement Apparatus and System
JP2010519635A (ja) * 2007-02-26 2010-06-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 医学的画像形成のためのポインティングデバイス
WO2016087539A2 (en) * 2014-12-02 2016-06-09 KB Medical SA Robot assisted volume removal during surgery

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020146373A (ja) * 2019-03-15 2020-09-17 リバーフィールド株式会社 医用ロボットシステムの力覚表示装置および力覚表示方法
WO2020189120A1 (ja) 2019-03-15 2020-09-24 リバーフィールド株式会社 力覚表示装置および力覚表示方法
WO2020189110A1 (ja) 2019-03-15 2020-09-24 リバーフィールド株式会社 医用ロボットシステムの力覚表示装置および力覚表示方法
CN113906496A (zh) * 2019-03-15 2022-01-07 瑞德医疗机器股份有限公司 医用机器人系统的力觉显示装置以及力觉显示方法
US12011243B2 (en) 2019-03-15 2024-06-18 Riverfield Inc. Force sense display device and force sense display method of medical robot system
WO2021106859A1 (ja) * 2019-11-25 2021-06-03 Cyberdyne株式会社 器具監視装置および器具監視方法
JP2023508452A (ja) * 2019-12-26 2023-03-02 蘇州微創暢行機器人有限公司 骨登録方法、手術用ロボットおよび読み取り可能記憶媒体
US11123088B2 (en) 2020-01-16 2021-09-21 Spinal Innovations, Llc Pressure activated surgical tool for use in spinal decompression procedures and methods of using the same
US12016577B2 (en) 2020-01-16 2024-06-25 Spinal Innovations, Llc Pressure activated surgical tool for use in spinal decompression procedures and methods of using the same
JP2022019688A (ja) * 2020-07-17 2022-01-27 雅客智慧(北京)科技有限公司 歯科ロボットおよび口腔ナビゲーション方法
US12023052B2 (en) 2021-08-24 2024-07-02 Spinal Innovations, Llc Pressure activated surgical tool for use in spinal decompression procedures and methods of using the same

Also Published As

Publication number Publication date
US11813030B2 (en) 2023-11-14
US20180263714A1 (en) 2018-09-20
US20210322109A1 (en) 2021-10-21
EP3375400A3 (en) 2018-09-26
US20240122656A1 (en) 2024-04-18
EP3375400A2 (en) 2018-09-19
US11071594B2 (en) 2021-07-27

Similar Documents

Publication Publication Date Title
JP7233841B2 (ja) ロボット外科手術システムのロボットナビゲーション
JP2018158104A (ja) ロボット外科システムのロボットナビゲーション
US20210038333A1 (en) Systems and methods for performing minimally invasive surgery
US20230363833A1 (en) Methods And Systems For Robot-Assisted Surgery
CN110876643B (zh) 医疗手术导航系统及方法
US20230048496A1 (en) Systems and methods for implantation of spinal plate
JP7094727B2 (ja) カテーテルアブレーション治療中の視野角の自動追跡及び調節
US20210236207A1 (en) Methods And Systems For Controlling A Surgical Robot
JP2017536909A (ja) 外科手術中のロボット支援式体積除去
US20220378526A1 (en) Robotic positioning of a device
KR20170125360A (ko) 가상의 환경에서 대응하는 가상의 대상을 조작하도록 물리적 대상을 이용하기 위한 방법 및 관련 장치와 컴퓨터 프로그램 제품
US20200030991A1 (en) End effector force sensor and manual actuation assistance
US20050267722A1 (en) Computer-assisted external fixation apparatus and method
JP2020512116A (ja) マーカーレスロボット追跡システム、制御装置、及び方法
EP3984487A1 (en) Technique for visualization of a spherically shaped tip of a tracked instrument relative to a tracked object
CN112512455A (zh) 基于介入仪器加载的最佳成像视点
WO2024088898A2 (en) Laser trajectory marker
WO2022079524A1 (en) Procedure visualization and guidance

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211116

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220712