JP7233841B2 - ロボット外科手術システムのロボットナビゲーション - Google Patents

ロボット外科手術システムのロボットナビゲーション Download PDF

Info

Publication number
JP7233841B2
JP7233841B2 JP2018005533A JP2018005533A JP7233841B2 JP 7233841 B2 JP7233841 B2 JP 7233841B2 JP 2018005533 A JP2018005533 A JP 2018005533A JP 2018005533 A JP2018005533 A JP 2018005533A JP 7233841 B2 JP7233841 B2 JP 7233841B2
Authority
JP
Japan
Prior art keywords
patient
anatomy
surgical
robotic
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018005533A
Other languages
English (en)
Other versions
JP2018126498A (ja
Inventor
シモン,コストルチェフスキー
ジャン-マルク,ウィズメル
ダニエル,ゲリゲ
ロデリク,ベルトゥラン
Original Assignee
ケービー メディカル エスアー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ケービー メディカル エスアー filed Critical ケービー メディカル エスアー
Publication of JP2018126498A publication Critical patent/JP2018126498A/ja
Application granted granted Critical
Publication of JP7233841B2 publication Critical patent/JP7233841B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/76Manipulators having means for providing feel, e.g. force or tactile feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B46/00Surgical drapes
    • A61B46/10Surgical drapes specially adapted for instruments, e.g. microscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/04Contact lenses for the eyes
    • G02C7/049Contact lenses having special fitting or structural features achieved by special materials or material structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/1613Component parts
    • A61B17/1615Drill bits, i.e. rotating tools extending from a handpiece to contact the worked material
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/1662Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans for particular parts of the body
    • A61B17/1671Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans for particular parts of the body for the spine
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00694Aspects not otherwise provided for with means correcting for movement of or for synchronisation with the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00831Material properties
    • A61B2017/00902Material properties transparent or translucent
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • A61B2034/104Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2059Mechanical position encoders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • A61B2034/207Divots for calibration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/252User interfaces for surgical systems indicating steps of a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • A61B2090/065Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension for measuring contact or contact pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B1/00Optical elements characterised by the material of which they are made; Optical coatings for optical elements
    • G02B1/04Optical elements characterised by the material of which they are made; Optical coatings for optical elements made of organic materials, e.g. plastics
    • G02B1/041Lenses
    • G02B1/043Contact lenses
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C2202/00Generic optical aspects applicable to one or more of the subgroups of G02C7/00
    • G02C2202/16Laminated or compound lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • G06T2207/30012Spine; Backbone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Description

本発明は、概して、ロボット外科手術システムに関する。例えば、ある実施形態において、本発明は、外科処置中の位置追跡のための内蔵ナビゲーション能力を有するロボット外科手術システムに関する。
多くの外科手術(例えば、脊髄及び整形外科手術)は、外科的行動、ジェスチャ、及び意思決定に視覚的なナビゲーションを提供するために、リアルタイムで外科医に表示された医用画像の使用が現在必要である。医用画像を使用して、外科医は、(医用画像によって写された)患者の解剖学的構造を参照して、外科器具の位置のリアルタイムフィードバックを備えることができる。
現行の外科的ナビゲーションシステムは、追跡の原則に基づく。例えば、ナビゲーションシステムは、外科器具及び患者の位置をリアルタイムで測定する追跡デバイスを概して収容する。異なる追跡デバイスは、異なる原則で操作する。最も一般的なものは、光学追跡及び電磁追跡である。光学追跡は、画定され、既知の解剖学的構造を有するマーカー上で構成された基準(例えば、反射範囲、LED)を測定するカメラシステムを使用する。このように、マーカーの位置及び方向が、判定され得、そのため、それらが添付される要素(例えば、外科器具、患者の解剖学的構造)の位置及び方向が、同様に追跡され得る。電磁追跡において、光学追跡システムのカメラは、磁場発生装置に取って代わられる。マーカーは、発生した磁場における空間の変更を測定するセンサユニット(例えば、コイル)である。このように、EMマーカーの位置及び方向は、磁場発生装置を参照して判定され得る。
商用のナビゲーションシステム、例えば、Medtronic製のStealthstation S7、Brainlab製のCurve、Brainlab及び他製の電磁Kick EMなどが、市販されている。これらのナビゲーションシステムを使用するための典型的な作業は、外科医にリアルタイムのフィードバックを示すために、患者の画像を獲得するステップ、患者の上に参照画を固定するステップ、患者を位置合わせするステップ、及び器具ならびに患者を追跡するステップ、を踏む。患者の画像は、例えば、CT、MRI、または平面蛍光透視法(例えば、O-Arm)によって生成され得る。患者に固定された参照画は、基準マークを有する光学マーカーまたは電磁マーカーを含む。マーカーは、例えば、骨ねじまたは骨固定を使用して固定される。患者の位置合わせは、患者の画像と固定されたマーカーとの間の関係を画定することを必要とする。位置合わせは、2地点間方法、面合わせ、または固定されたマーカー(例えば、患者の解剖学的構造上で)取られた画像に基づく自動位置合わせを使用して実行され得る。
現行のナビゲーションシステムは、多くの制限を有する。これらのナビゲーションシステムは、使用することが概して難しく、それらの手術のためにさらなる外科医及び/またはスタッフの訓練が必要となる。ナビゲーションシステムは、手術室
内で多くの空間を占める。例えば、手術室空間内の貴重な不動産が、追跡カメラを有するスタンドアロンナビゲーションステーション/コンソール、視覚的なフィードバックのために使用されるスクリーン、さらなる混乱物を作り出すコードならびにプラグ、電力システム、コントローラ、などによって占められ得る。また現行の光学ナビゲーションシステムは、全ての追跡された器具が、追跡されるためにカメラに可視の状態のままとならなければならない、見通し線条件を有する。十分な基準(例えば、範囲、LED)がない場合、可視マーカー位置は、判定され得ない。さらなるリスクが、基準位置が、難読化(例えば、一滴の血液または透明なドレープ)のためにナビゲーションシステムによって誤読され得ることである。電磁ナビゲーションシステムは、磁場に影響を及ぼし、そのためマーカー位置測定にエラーを与え得る、磁場内に設置された金属及び強磁性材料による問題を有する。さらに、ナビゲーションシステムは、およそ200,000ドル以上のコストがかかり、高価である。測定の精度は、例えば、位置測定のための0.3mmRMSエラーのレベルにおいて、商業用ステーションでは比較的低い。加えて、測定は、うるさい音がでる。測定の周波数は、低い(すなわち、およそ20Hzである)。
既知のナビゲーションシステムの最も厳しい制限は、ナビゲーションシステムが経時的に同期ずれすることである。外科医は、外科処置を始める際、患者の解剖学的構造に取り付けられた1つ以上のマーカーを使用して、患者を初期位置合わせする。外科処置を通して、患者の解剖学的構造は、患者の動きのため、または外科処置そのものの結果として、推移する。例えば、伸長ステップまたは再調整ステップを含む外科手術において、患者の解剖学的構造は、伸長または再調整後、基準マーカー(複数可)に対して異なる位置及び方向を有するはずである。基準マーカー(複数化)に対してローカルな領域のみが、患者の解剖学的構造の物理的実体に対して正確なままとなる。患者の解剖学的構造の実体と初期位置合わせに基づく仮の実体との間のエラーは、基準マーカー(複数可)からの距離で増える。そのため、既知のナビゲーションシステムを有するロボット外科手術システムを使用する今日実行されている多くの外科処置において、処置が進むにつれて、ナビゲーションシステムは、より同期ずれし、そのため、事実を反映されにくくなるにつれて、外科医にとって使いづらくなる。同様に、合併症の可能性及び深刻な医療ミスも増える。
ナビゲーションシステム、例えば、Globus製のExcelsius GPS、Medtech(現在はZimmer/Biomet)製のROSA SPINE、Stryker製のMAKO、他と組み合わされる、ロボット外科手術システムがある。しかしながら、これらのシステムは、前述の既知のシステムと同じナビゲーションシステムの方法を使用する。ロボットアームの使用は、正確なジェスチャをすることで外科医を援助するが、システムは、ナビゲーションシステムの欠点、特に、訓練の必要性、必要とされる空間、見通し線、価格、一連の外科処置にわたる光学ナビゲーションの低精度などを引き継ぐ。同期ずれによる合併症の可能性及び深刻な医療ミスは、これらのロボット外科手術システムにおいて、減少されない。
このように、その瞬間の患者の状態を正確に反映するために、患者位置合わせが経時的に更新され得る、器具のガイダンス及びナビゲーション用ロボット外科手術システムが必要とされる。
ある実施形態において、本明細書で開示されたシステム、装置、及び方法は、患者の位置追跡、及び別のナビゲーションシステムを必要としない、外科処置中の外科器具ガイダンスのための内蔵ナビゲーション能力を有するロボット外科手術システムに関する。外科処置中の外科器具のロボットベースのナビゲーションは、容易な位置合わせ、手術量の識別、及び追跡を可能とする。本明細書のシステム、装置、及び方法は、外科的作業の流れに対する最小限の中断で手術中に実行される、再位置合わせ、モデルの更新、及びを可能とする。ある実施形態において、ナビゲーション支援は、患者の解剖学的構造に関する外科器具の位置を表示することによって、外科医に提供され得る。加えて、手術量、患者-ロボットの方位関係、及び患者の解剖学的構造モデルなどの、手術前に定義されたデータを見直すことによって、より高度な正確性及び合併症ならびに深刻な医療ミスのリスクの低減が、達成され得る。
ある実施形態において、本明細書に記載されるのは、患者の解剖学的構造の空間座標を収集するために使用される、直接または間接的に取り付けられた力センサを有するロボットアームを備えるロボット外科手術システムである。外科医は、空間内の異なるポイント間でロボットアームを操作し、ロボットアームに取り付けられた器具で、患者の解剖学的構造上の異なるポイントにおいて患者に接触することができる。ある実施形態において、器具は、力センサを備える。接触は、力センサによって位置合わせされた触覚フィードバックに基づいて判定される。ある実施形態において、閾値(例えば、触覚フィードバックの大きさ)は、患者の解剖学的構造に属する接点を位置合わせするために上回らなければならない。さらに、このように、触覚フィードバックの大きさは、接触されている組織の種類を判定するために使用され得る(例えば、なぜなら骨は柔らかい組織よりもより固い)。いくつかの実施形態において、器具は、1つ以上の一組の標定接触点(例えば、くぼみ)において患者の解剖学的構造に取り付けられた専門的に設計された基準マーカーに接触し、基準マーカーは、患者の解剖学的構造と確立された空間的関係(例えば、その既知の大きさを与えられ、患者の解剖学的構造上の特定の既知の配置での取り付けを意図された)を有する。複数の空間座標が、患者の解剖学的構造に対する複数の器具の接点を電子的に使用して、記録され、かつ記憶され得る。
器具と患者の解剖学的構造との接触から記録された一組の座標空間が、位置合わせ、モデリング体積除去、再位置合わせ、手術可能な体積を画定すること、再位置合わせ後の手術可能な体積を修正すること、記憶された体積モデルを物理的な配置に変換すること、及びナビゲーションスクリーン上に患者の解剖学的構造に対する外科器具を表示することなどの、多くのナビゲーション用、及び外科的ガイダンス機能を実行するために使用され得る。
患者の解剖学的構造に接触することによって獲得されたいくつかの組の座標によって画定された表面を、それらの解剖学的構造のモデル(例えば、医用画像データからの)にマッピングすることによって、モデルの座標システムと物理的実体との間を移行する座標マッピングが記録され得る。例えば、モデルが、医用画像データ座標システム内で、及び物理的な実体が、ロボット座標システム内で提示され得る。このように、ロボット外科手術システムは、それに取り付けられた外科器具に対する患者の解剖学的構造の物理的な配置を知ることができる。触覚フィードバックで生成された、いくつかの組の空間座標と、患者の解剖学的構造の表面をモデリングしたいくつかの組の医用画像データ座標との組み合わせを使用して、前述のナビゲーション用かつ外科的ガイダンス機能は、迅速に、及び手術前及び/または手術中に高精度で実行され得る。
一組の空間座標が、医用画像データから由来する患者の解剖学的構造のモデルと患者の解剖学的構造を位置合わせするために使用され得る。医用画像データは、任意の関連する技術から使用され得る。実施例は、これらに限定するわけではないが、X線データ、断層撮影データ(例えば、CTデータ)、磁気共鳴映像法(MRI)データ、平面蛍光透視法(例えば、O-Arm)データを含む。いくつかの実施形態において、このような医用画像データは、手術中に撮られる。このように、患者の解剖学的構造の物理的な位置及び方向は、患者の解剖学的構造のモデルにマッピングされ得、ロボット外科手術システムは、どこが解剖学的構造に関係しているかを常に知ることができる。
一組の空間座標は、器具と患者の解剖学的構造との間の付加的な接触を使用して体積が除去されることを判定することによって、体積の除去後、患者の解剖学的構造のモデルを更新するために使用され得る。モデルの体積内部の座標に対応する解剖学的構造の新しい表面上に作成されるように判定された接触は、患者の新しい解剖学的構造を反映するように、モデルの表面を更新するために使用され得る。
手術中に収集された一組の空間座標は、患者の解剖学的構造を再位置合わせするために使用され得る。このように、解剖学的構造の全てまたは一部の再配向、または再位置決めなどの、解剖学的構造において発生する変更は、患者の解剖学的構造のモデルと同様に、ロボット座標システムと医用画像データ座標システムとの間のマッピングを更新するために使用され得る。
一組の空間座標が、手術可能な体積を画定するために使用され得、外科器具の移動は、処置の間、手術可能な体積内となるように限定される。例えば、このことは、外科医によって除去される骨の体積を限定するために使用され得る。手術可能な体積は、患者の解剖学的構造上のポイントに接触すること、及び表面の交点としてそれらを使用することによって、または解剖学的構造体積のモデルを一組の空間座標にマッピングすること、及びその後ロボット外科手術システムの座標システム内で表された、マッピングされた解剖学的構造モデルとして手術可能な体積を画定することによって、画定され得る。手術可能な体積は、患者の現在の解剖学的構造及び/または解剖学的構造位置ならびに方向を正確に反映するために再位置合わせ後更新され得る。同様に、記憶されたモデル(例えば、医用画像データから生成されたモデル)は、座標マッピングを使用することによって、そのモデルの一部(または全体)の物理的な配置を画定するために使用され得る。
患者の解剖学的構造及び解剖学的構造に対する外科器具の位置のレンダリングは、本明細書に記載された方法及びシステムを使用する外科医による使用及び/または参照のために、ナビゲーションスクリーン上に表示され得る。座標マッピングを使用することによって、外科器具の終点の配置は、外科医が終点と患者の解剖学的構造との間の空間または距離の正確な表現を観察できるように、患者の解剖学的構造のレンダリングに沿って表示され得る。このことは、患者の解剖学的構造に対する外科器具の軌道、位置、及び方向を視覚化するために使用され得る。外科医は、外科処置の進み具合を観察し、深刻な医療ミスを防ぎ、及び/または計画された外科処置を修正することによって患者の転帰を向上させるためにこれを使用し得る。例えば、外科医は、体積を除去するとき、除去に計画された体積、または外科ツールの計画された方向または軌道を変更するための決定にナビゲーションディスプレイを使用し得る。このことは、手術中に行われ得る。
別の態様において、開示された技術は、処置(例えば、外科処置、例えば、脊髄手術)中の患者の位置(例えば、患者の脊椎の位置)のリアルタイムで動的な再位置合わせのためのロボットベースのナビゲーションシステム(例えば、組み合わされたナビゲーション/ロボットシステム)を含み、システムは、(a):(i)エンドエフェクタと、[例えば、前記エンドエフェクタが、外科器具をその中に挿入するまたはそこに取り付けるための外科器具ホルダーを備え、例えば、前記ロボットアームが、外科器具がエンドエフェクタの外科器具ホルダーに挿入されている/取り付けられているとき、操作者(例えば、外科医)による外科器具の直接操作を可能とするように設計され、操作は、患者に対するエンドエフェクタ(及び/または外科器具)の位置に基づく触覚制限を受けやすく、例えば、外科器具は、外科器具ホルダーに対する既知の幾何学形状及び固定された位置を有する]と、(ii)エンドエフェクタの位置を動的に追跡するための位置センサ[例えば、外科処置中)(及び/または、例えば、3D空間において、例えば、外科処置中、外科器具の1つ以上のポイントを動的に追跡するために、)(例えば、少なくとも100Hz、例えば、250Hz以上、例えば500Hz以上、例えば、1000Hz以上(毎秒の位置決定)のレートで]と、(iii)エンドエフェクタを操作している(例えば、エンドエフェクタの器具ホルダーに挿入された外科器具を操作すること)ユーザに触覚を届けるための(例えば、センサ(複数可)、アクチュエータ(複数可)、コントローラ(複数可)、サーボ(複数可)及び/または他の機構を備える)力フィードバックサブシステム(例えば、力フィードバックサブシステムは、後述の(I)~(IV):(I)患者の組織に接触し、抗して移動し、貫通し、及び/または中で移動する外科器具によって引き起こされた抵抗力を検出すること、(II)接触された組織の種類を識別すること(例えば、接触された組織が抵抗閾値に達するまたは超えるとき、例えば、組織が骨のときに判定すること)、(III)(例えば、外科用器具、したがって、エンドエフェクタの移動をもたらすため、)操作者(例えば、外科医)によって届けられた(例えば、エンドエフェクタの外科器具ホルダー内に挿入された外科器具の直接操作によって届けられた)力を検出すること、及び(IV)操作者によって届けられた力と、患者の組織に対する外科器具の移動によってもたらされた抵抗力とを識別することと、のうちの1つ以上を実行するための1つ以上のセンサを備える)と、を含む、ロボットアーム(例えば、3、4、5、6、または7つの自由度を有する)と、(b)ディスプレイ[例えば、処置中に操作者への妨げられない視覚フィードバックを可能とするために、操作者(例えば、外科医)によって直接操作されているロボットアームに対して取り付けられ、その中に埋め込まれ、またはそれ以外の様式で位置付けられ、例えば、ディスプレイが、透明または半透明の無菌ドレープの下に位置決めされており、例えば、ディスプレイが、使用中にディスプレイを制御するためのタッチセンサを有する]と、(c)一組の命令を実行するようにプログラムされた計算デバイスのプロセッサと、を含み、一組の命令が、(i)(例えば、ディスプレイ上に患者の状態(例えば、目標の解剖学的構造)のリアルタイムの図式表現を表示して使用するための、及び/または、力フィードバックサブシステムを介して、例えば、外科処置の間、操作者に届けられた力フィードバックを動的に判定して使用するための、初期の患者の状態の3D表現、例えば、3D図式表現及び/または3D触覚表現であって、例えば、3D図式表現が3D触覚表現と同じまたは異なる、3D表現を記憶及び/またはレンダリングするために)患者の位置(例えば、患者の脊椎の位置)の初期位置合わせ(例えば、患者の医用画像、例えば、MRI、CT、X線、SPECT、超音波などの、例えば、手術前に得られた医用画像、を介した)にアクセスする(例えば、及びディスプレイ上に図式的にレンダリングする)ことと、(ii)エンドエフェクタの位置を動的に判定する(例えば、エンドエフェクタの器具ホルダー内で、例えば、エンドエフェクタに対して位置決めされた外科器具の1つ以上のポイントの3D位置を動的に判定する)ことと、(iii)エンドエフェクタによって受容された力及び/またはエンドエフェクタに届けられる力を動的に判定する[例えば、外科器具を介してエンドエフェクタによって受容された力及び/またはエンドエフェクタに届けられる力に、例えば、後述の(I)~(IV):(I)患者の組織に接触し、抗して移動し、貫通し、及び/または中で移動する外科器具によって引き起こされた抵抗力を判定すること、(II)接触された組織の種類を識別すること(例えば、接触された組織が抵抗閾値に達するまたは超えるとき、例えば、組織が骨のときに判定すること)、(III)(例えば、外科用器具、したがって、エンドエフェクタの移動をもたらすため、)操作者(例えば、外科医)によって届けられた(例えば、エンドエフェクタの外科器具ホルダー内に挿入された外科器具の直接操作によって届けられた)力を検出すること、及び(IV)操作者によって届けられた力と、患者の組織に対する外科器具の移動によってもたらされた抵抗力とを識別すること(例えば、少なくとも100Hz、例えば、250Hz以上、例えば、500Hz以上、例えば、1000Hz以上のレートで動的に判定される力を、例えば、力フィードバックサブシステムを使用して)のうちの1つ以上を動的に実行する]ことと、(iv)エンドエフェクタを動的に追跡するためにロボットアームの位置センサの位置を動的に判定する(例えば、患者の骨組織、または患者の他の目標組織との外科器具の接触時に、ロボットアームの位置センサの位置を判定する)(例えば、少なくとも100Hz、例えば、250Hz以上、例えば、500Hz以上、例えば、1000Hz以上のレートで位置センサの記録された位置を動的に更新する)ことと、(v)位置センサによって判定されたエンドエフェクタの更新された位置に少なくとも一部基づいて、患者の位置を動的に再位置合わせする[(例えば、外科処置中に)(例えば、外科器具が、目標の解剖学的構造と接触している、例えば、患者の骨と接触しているということが(例えば、力フィードバックサブシステムを介して)判定されるとき、エンドエフェクタの更新された位置の少なくとも一部に基づいて、患者の状態の3D表現、例えば、3D図式表現及び/または3D触覚表現を更新する)(例えば、初期の(または前回の)位置合わせと一致している面合わせアルゴリズムを使用して)(例えば、エンドエフェクタ、外科器具、または外科器具もしくはエンドエフェクタの一部もしくは構成部品の接触の検出時に、患者の位置を予め計画された基準(例えば、機械的マーカー、例えば、患者に固定された、例えば、目標の解剖学的構造に取り付けられた、例えば、脊椎に取り付けられたマーカー)と動的に再位置合わせする)(例えば、エンドエフェクタ、外科器具、または外科器具もしくはエンドエフェクタの一部もしくは構成部品の近接の検出時に、患者の位置を予め計画された基準(例えば、機械的マーカー、例えば、患者に固定された、例えば、目標の解剖学的構造に取り付けられた、例えば、脊椎に取り付けられたマーカー)と、動的に再位置合わせする)(例えば、再位置合わせされた表現が所望されているとき、操作者コマンドにより、例えば、外科医がボタンを押すか、またはそれ以外の様式で図式または触覚ユーザインターフェースを起動させて、判定された、エンドエフェクタの更新された位置に基づいて、患者の位置を動的に再位置合わせする)]ことと、(vi)ディスプレイ上で見るために再位置合わせされた患者の位置を図式的にレンダリングする(例えば、更新された3D図式表現を図式的にレンダリングする)ことと、(vii)再位置合わせされた患者の位置に少なくとも一部基づいて、力フィードバックサブシステムを介して(例えば、外科処置中のロボットアームの操作者に)届けるための力フィードバックを動的に判定する[(例えば、患者の状態及びエンドエフェクタ(及び/または外科器具)の現在の位置の少なくとも更新された3D表現に基づいて、(例えば、所定の侵入可/侵入不可ゾーンを条件とする)(例えば、それによって許可する、促進する、指示する(例えば、触覚的な戻り止めまたは穴を課す)、禁止する(例えば、速度制限を課す)、及び/または、例えば、操作者、例えば外科医による、外科器具の直接操作によって、侵入可/侵入不可ゾーンにおける外科器具の移動を許可しない)]ことと、を行う。
別の態様において、開示された技術は、ロボット外科手術システムのロボットアームのエンドエフェクタに取り付けられた器具と患者の解剖学的構造を位置合わせする方法を含み、本方法は、計算デバイスのプロセッサによって、(例えば、患者に向かう)エンドエフェクタの移動によって促された、ロボットアームに直接または間接的に取り付けられた力センサからの触覚フィードバックを受信するステップと、プロセッサによって、触覚フィードバックが、器具の、(例えば、ある特定の密度またはある特定の機械的特性を有する)材料との接触に対応することを(例えば、少なくとも閾値を超える触覚フィードバックの大きさに基づいて)(例えば加えて、器具の少なくとも1つのポイントの配置に基づいて)(例えば、材料が骨である)判定するステップと、プロセッサによって、一組の空間座標を判定するステップと、一組の空間座標が、(例えば、エンドエフェクタの位置に対する)ロボット座標システムを使用して表された、器具の材料との各接触についての空間座標を含み、各空間座標が、解剖学的構造体積の表面上のポイント(例えば、骨の表面上のポイント)に対応し、プロセッサによって、(例えば、断層撮影患者データ(例えば、CTデータ、MRIデータ)から判定された)患者の解剖学的構造の表面に対応する医用画像データ座標システムを使用して表された一組の医用画像データ座標を受信するステップと、プロセッサによって、一組の空間座標に対応する表面を、(例えば、変換アレイまたは変換マトリクスを生成することによって)一組の医用画像データ座標に対応する患者の解剖学的構造の表面に(例えば、面合わせを使用して)マッピングするステップと、プロセッサによって、一組の空間座標に対応する表面と、一組の医用画像データ座標に対応する表面との間のマッピングに基づいて、ロボット座標システムと医用画像データ座標システムとの間の座標マッピングを生成するステップと、プロセッサによって、座標マッピングを記憶し、それにより(例えば、外科処置中の外科医によるナビゲーション使用のために)患者の解剖学的構造を位置合わせするステップと、を含む。
ある実施形態において、本方法は以下のステップを含む。
プロセッサによって、ディスプレイ用のレンダリングデータを(例えば、ロボット外科手術システムのディスプレイ上に、例えば、ロボットアーム上のディスプレイ上に)出力するステップを含み、レンダリングデータが、部材の位置及び座標マッピングに基づく医用画像データの少なくとも一部の表現に対応し、部材が、エンドエフェクタ、器具、及び外科器具からなる群から選択される。
ある実施形態において、本方法は、プロセッサによって、エンドエフェクタの位置の変更に基づいてレンダリングデータを修正することによって新しいレンダリングデータを生成するステップと、プロセッサによって、新しいレンダリングデータをディスプレイ用に出力するステップと、を含む。
ある実施形態において、基準マーカーは、材料を含む(例えば、空間座標が基準マーカーと患者の解剖学的構造との間の空間関係を使用して判定されるように、エンドエフェクタが既知のサイズ及び形状を有する基準マーカーと接触する)。
ある実施形態において、ロボットアームが、能動的であり、逆駆動不可能である。
ある実施形態において、ロボット外科手術システムは、プロセッサを含む。
ある実施形態において、本方法は、プロセッサによって、患者の解剖学的構造モデルを記憶することを含み、患者の解剖学的構造モデルは、ロボット座標システムにおいて表された患者の解剖学的構造表面によって画定される。
一態様において、開示された技術は、患者の解剖学的構造を器具と位置合わせするためのロボット外科手術システムを含み、その器具は、ロボット外科手術システムのロボットアームのエンドエフェクタに取り付けられ、そのシステムは、エンドエフェクタを備え、そこに器具を取り付けたロボットアームと、ロボットアームに直接または間接的に取り付けられた(例えば、力センサが器具とロボットアームとの間に位置付けられる)力センサと、プロセッサ及び内部に命令を記憶させたメモリと、を備え、命令が、プロセッサによって実行されたとき、プロセッサに、エンドエフェクタの(例えば、患者に向かう)移動によって促された力センサからの触覚フィードバックを受信することと、触覚フィードバックが、器具の、(例えば、ある特定の密度またはある特定の機械的特性を有する)材料との接触に対応することを、(例えば、少なくとも閾値を超える触覚フィードバックの大きさに基づいて)(例えば加えて、器具の少なくとも1つのポイントの配置に基づいて)(例えば、材料が骨である)判定することと、一組の空間座標を判定することと、一組の空間座標が、(例えば、エンドエフェクタの位置に対する)ロボット座標システムを使用して表された、器具の材料との各接触についての空間座標を含み、各空間座標が、解剖学的構造体積の表面上のポイント(例えば、骨の表面上のポイント)に対応し、(例えば、断層撮影患者データ(例えば、CTデータ、MRIデータ)から判定された)患者の解剖学的構造の表面に対応する医用画像データ座標システムを使用して表された一組の医用画像データ座標を判定することと、一組の空間座標に対応する表面を、(例えば、変換アレイまたは変換マトリクスを生成することによって)一組の医用画像データ座標に対応する患者の解剖学的構造の表面に(例えば、面合わせを使用して)マッピングすることと、一組の空間座標に対応する表面と、一組の医用画像データ座標に対応する表面との間のマッピングに基づいて、ロボット座標システムと医用画像データ座標システムとの間の座標マッピングを生成することと、座標マッピングを記憶することと、それにより(例えば、外科処置中の外科医によるナビゲーション使用のために)患者の解剖学的構造を位置合わせすることと、を行わせる。
ある実施形態において、命令は、プロセッサによって実行されたとき、プロセッサに、(例えば、ロボット外科手術システムのディスプレイ上に、例えば、ロボットアーム上のディスプレイ上に)ディスプレイ用のレンダリングデータを出力させ、レンダリングデータは、座標マッピングに基づく部材の位置の表現及び医用画像データの少なくとも一部に対応し、部材は、エンドエフェクタ、器具、及び外科器具からなる群から選択される。
ある実施形態において、命令は、プロセッサによって実行されたとき、プロセッサに、エンドエフェクタの位置の変更に基づくレンダリングデータの修正によって新しいレンダリングデータを生成させ、新しいレンダリングデータをディスプレイ用に出力させる。
ある実施形態において、基準マーカーは、材料を含む(例えば、空間座標が基準マーカーと患者の解剖学的構造との間の空間関係を使用して判定されるように、エンドエフェクタが既知のサイズ及び形状を有する基準マーカーと接触する)。
ある実施形態において、ロボットアームが、能動的であり、逆駆動不可能である。
ある実施形態において、ロボット外科手術システムは、プロセッサを含む。
ある実施形態において、命令は、プロセッサによって実行されたとき、プロセッサに、患者の解剖学的構造モデルを記憶させ、患者の解剖学的構造モデルは、ロボット座標システムにおいて表された患者の解剖学的構造表面によって画定される。
一態様において、開示された技術は、ロボット外科手術システムのロボットアームのエンドエフェクタに取り付けられた器具での体積除去後の患者の解剖学的構造のモデルを更新する方法を含み、本方法は、計算デバイスのプロセッサによって、(例えば、患者に向かう)エンドエフェクタの移動によって促された、ロボットアームに直接または間接的に取り付けられた力センサからの触覚フィードバックを受信するステップと、プロセッサによって、触覚フィードバックが、器具の、(例えば、ある特定の密度またはある特定の機械的特性を有する)材料との接触に対応することを(例えば、少なくとも閾値を超える触覚フィードバックの大きさに基づいて)(例えば加えて、器具の少なくとも1つのポイントの配置に基づいて)(例えば、材料が骨である)判定するステップと、プロセッサによって、一組の空間座標を判定するステップと、一組の空間座標が、(例えば、エンドエフェクタの位置に対する)ロボット座標システムを使用して表された、器具の材料との各接触のための空間座標を含み、各空間座標が、解剖学的構造体積の表面上のポイント(例えば、骨の表面上のポイント)に対応し、プロセッサによって、患者の解剖学的構造の体積の表面に対応する一組の医用画像データ座標を受信するステップと、一組の医用画像データ座標内の各医用画像データ座標は、医用画像データ座標システムを使用して表され、プロセッサによって、ロボット座標システムと医用画像データ座標システムとの間の座標マッピング(例えば、変換アレイまたは変換マトリクス)を受信するステップと、プロセッサによって、一組の医用画像データ座標及び座標マッピングに基づき患者の解剖学的構造の体積の表面内部のポイントに対応する、一組の空間座標における1つ以上の内部空間座標を判定するステップと、プロセッサによって、一組の内部医用画像データ座標を生成するステップと、一組の内部医用画像データ座標が、座標マッピングを使用して1つ以上の各内部空間座標のための内部医用画像データ座標を含み、プロセッサによって、一組の医用画像データ座標によって画定された第1の体積が、修正された一組の医用画像データ座標によって画定された第2の体積よりも大きくなるように、一組の医用画像データ座標で患者の解剖学的構造の体積の表面を画定する一組の医用画像データ座標を修正するステップと、プロセッサによって、(例えば、外科医に表示するために)修正された一組の医用画像データ座標を記憶し、それにより患者の解剖学的構造のモデルを更新するステップと、を含む。
一態様において、開示された技術は、ロボット外科手術システムのロボットアームのエンドエフェクタに取り付けられた器具での体積除去後の患者の解剖学的構造のモデルを更新するためのシステムを含み、システムは、エンドエフェクタを備え、そこに器具を取り付けたロボットアームと、ロボットアームに直接または間接的に取り付けられた(例えば、力センサは器具とロボットアームとの間に位置付けされる)力センサと、プロセッサ及び内部に命令を記憶させたメモリと、を備え、命令が、プロセッサによって実行されたとき、プロセッサに、エンドエフェクタの(例えば、患者に向かう)移動によって促された力センサからの触覚フィードバックを受信することと、触覚フィードバックが、器具の、(例えば、ある特定の密度またはある特定の機械的特性を有する)材料との接触に対応することを、(例えば、少なくとも閾値を超える触覚フィードバックの大きさに基づいて)(例えば加えて、器具の少なくとも1つのポイントの配置に基づいて)(例えば、材料が骨である)判定することと、一組の空間座標を判定することであって、一組の空間座標が、(例えば、エンドエフェクタの位置に対する)ロボット座標システムを使用して表された、器具の材料との各接触のための空間座標を含み、各空間座標が、解剖学的構造体積の表面上のポイント(例えば、骨の表面上のポイント)に対応する、判定することと、患者の解剖学的構造の体積の表面に対応する一組の医用画像データ座標を受信することであって、一組の医用画像データ座標内の各医用画像データ座標が、医用画像データ座標システムを使用して表される、受信することと、ロボット座標システムと医用画像データ座標システムとの間の座標マッピング(例えば、変換アレイまたは変換マトリクス)を受信することと、一組の医用画像データ座標及び座標マッピングに基づき患者の解剖学的構造の体積の表面内部のポイントに対応する、一組の空間座標における1つ以上の内部空間座標を判定することと、1つ以上の内部空間座標を使用して除去された患者の解剖学的構造の体積の一部を判定することと、一組の内部医用画像データ座標を生成することであって、一組の内部医用画像データ座標が、座標マッピングを使用した1つ以上の各内部空間座標のための内部医用画像データ座標を含む、生成することと、一組の医用画像データ座標によって画定された第1の体積が、修正された一組の医用画像データ座標によって画定された第2の体積よりも大きくなるように、一組の医用画像データ座標で患者の解剖学的構造の体積の表面を画定する一組の医用画像データ座標を修正することと、(例えば、外科医に表示するために)修正された一組の医用画像データ座標を記憶し、それにより患者の解剖学的構造のモデルを更新することと、を行わせる。
一態様において、開示された技術は、ロボット外科手術システムのロボットアームのエンドエフェクタに取り付けられた器具と、患者の解剖学的構造を外科処置中に再位置合わせする方法を含み、本方法は、計算デバイスのプロセッサによって、(例えば、患者に向かう)エンドエフェクタの移動によって促された、ロボットアームに直接または間接的に取り付けられた力センサからの触覚フィードバックを受信するステップと、プロセッサによって、触覚フィードバックが、器具の、(例えば、ある特定の密度またはある特定の機械的特性を有する)材料との接触に対応することを(例えば、少なくとも閾値を超える触覚フィードバックの大きさに基づいて)(例えば加えて、器具の少なくとも1つのポイントの配置に基づいて)(例えば、材料が骨である)判定するステップと、プロセッサによって、一組の空間座標を判定するステップと、一組の空間座標が、(例えば、エンドエフェクタの位置に対する)ロボット座標システムを使用して表された、器具の材料との各接触のための空間座標を含み、各空間座標が、解剖学的構造体積の表面上のポイント(例えば、骨の表面上のポイント)に対応し、プロセッサによって、ロボット座標システムと医用画像データ座標システムとの間の座標マッピング(例えば、変換アレイまたは変換マトリクス)を受信するステップと、ロボット座標システムがエンドエフェクタの物理的な座標システムに対応し、プロセッサによって、一組の空間座標に対応する表面のマッピングに基づいて座標マッピングを更新するステップと、プロセッサによって、(例えば、外科処置中の外科医による使用の際に、正確なナビゲーションモデルを提供するために)更新された座標マッピングを記憶し、それにより患者の解剖学的構造を再位置合わせするステップと、を含む。
ある実施形態において、マッピングは、面合わせを使用して生成される。
ある実施形態において、更新ステップは、プロセッサによって、患者の解剖学的構造の体積の表面を画定している一組の医用画像モデリング座標を、座標マッピングを使用して変換することによって判定することと、一組のモデリング座標が、ロボット座標システムにおいて表され、体積の表面の予想配置を画定し、一組の医用画像モデリング座標が、医用画像データから生成され、プロセッサによって、一組の空間座標に対応する表面を、(例えば、変換アレイまたは変換マトリクスを生成することによって)一組の医用画像データ座標に対応する患者の解剖学的構造の表面に(例えば、面合わせを使用して)マッピングすることと、プロセッサによって、一組の空間座標に対応する表面を一組のモデリング座標にマッピングすることに基づき座標マッピングを更新することと、を含む。
ある実施形態において、更新ステップは、プロセッサによって、一組のモデリング座標を受信することと、一組のモデリング座標が、ロボット座標システム内で表され、患者の解剖学的構造の体積の表面を画定し、プロセッサによって、一組の空間座標に対応する表面を、(例えば、変換アレイまたは変換マトリクスを生成することによって)一組のモデリング座標に対応する患者の解剖学的構造の表面に(例えば、面合わせを使用して)マッピングすることと、プロセッサによって、一組の空間座標に対応する表面を一組のモデリング座標にマッピングすることに基づき座標マッピングを更新することと、を含む。
一態様において、開示された技術は、ロボット外科手術システムのロボットアームのエンドエフェクタに取り付けられた器具と患者の解剖学的構造を、外科処置中に再位置合わせするためのシステムを含み、システムは、エンドエフェクタを備え、そこに器具を取り付けたロボットアームと、ロボットアームに直接または間接的に取り付けられた(例えば、力センサは器具とロボットアームとの間に位置付けされる)力センサと、プロセッサ及び内部に命令を記憶させたメモリと、を備え、命令が、プロセッサによって実行されたとき、プロセッサに、エンドエフェクタの(例えば、患者に向かう)移動によって促された力センサからの触覚フィードバックを受信することと、触覚フィードバックが、器具の、(例えば、ある特定の密度またはある特定の機械的特性を有する)材料との接触に対応することを、(例えば、少なくとも閾値を超える触覚フィードバックの大きさに基づいて)(例えば加えて、器具の少なくとも1つのポイントの配置に基づいて)(例えば、材料が骨である)判定することと、一組の空間座標を判定することであって、一組の空間座標が、(例えば、エンドエフェクタの位置に対する)ロボット座標システムを使用して表された、器具の材料との各接触のための空間座標を含み、各空間座標が、解剖学的構造体積の表面上のポイント(例えば、骨の表面上のポイント)に対応する、判定することと、ロボット座標システムと医用画像データ座標システムとの間の座標マッピング(例えば、変換アレイまたは変換マトリクス)を受信することであって、ロボット座標システムがエンドエフェクタの物理的な座標システムに対応する、受信することと、一組の空間座標に対応する表面のマッピングに基づく座標マッピングを更新することと、(例えば、外科処置中の外科医による使用の際に、正確なナビゲーションモデルを提供するために)更新された座標マッピングを記憶し、それにより患者の解剖学的構造を再位置合わせすることと、を行わせる。
ある実施形態において、マッピングは、面合わせを使用して生成される。
ある実施形態において、更新ステップは、プロセッサによって、実行されたとき、プロセッサに、患者の解剖学的構造の体積の表面を画定している一組の医用画像モデリング座標を、座標マッピングを使用して変換することによって判定することであって、一組のモデリング座標が、ロボット座標システムにおいて表され、体積の表面の予想配置を画定し、一組の医用画像モデリング座標が、医用画像データから生成される、判定することと、一組の空間座標に対応する表面を、(例えば、変換アレイまたは変換マトリクスを生成することによって)一組のモデリング座標に対応する患者の解剖学的構造の表面に(例えば、面合わせを使用して)マッピングすることと、一組の空間座標に対応する表面を一組のモデリング座標にマッピングすることに基づき座標マッピングを更新することと、を行わせる命令を含む。
ある実施形態において、更新ステップは、プロセッサによって実行されたとき、プロセッサに、一組のモデリング座標を受信することであって、一組のモデリング座標が、ロボット座標システム内で表され、患者の解剖学的構造の体積の表面を画定する、受信することと、一組の空間座標に対応する表面を、(例えば、変換アレイまたは変換マトリクスを生成することによって)一組のモデリング座標に対応する患者の解剖学的構造の表面に(例えば、面合わせを使用して)マッピングすることと、一組の空間座標に対応する表面を一組のモデリング座標にマッピングすることに基づき座標マッピングを更新することと、を行わせる命令を含む。
一態様において、開示された技術は、ロボット外科手術システムのロボットアームのエンドエフェクタに取り付けられた外科器具が操作され得る、手術可能な体積を画定する方法を含み、本方法は、計算デバイスのプロセッサによって、(例えば、患者に向かう)エンドエフェクタの移動によって促された、ロボットアームに直接または間接的に取り付けられた力センサからの触覚フィードバックを受信するステップと、プロセッサによって、触覚フィードバックが、器具の、(例えば、ある特定の密度またはある特定の機械的特性を有する)材料との接触に対応することを(例えば、少なくとも閾値を超える触覚フィードバックの大きさに基づいて)(例えば加えて、器具の少なくとも1つのポイントの配置に基づいて)(例えば、材料が骨である)判定するステップと、プロセッサによって、一組の空間座標を判定するステップと、一組の空間座標が、(例えば、エンドエフェクタの位置に対する)ロボット座標システムを使用して表された、器具の材料との各接触のための空間座標を含み、各空間座標が、解剖学的構造体積の表面上のポイント(例えば、骨の表面上のポイント)に対応し、プロセッサによって、ユーザにより選択されたモデル体積(例えば、除去される骨の一部のモデル)を受信するステップと、モデル体積は、ロボット座標システムで表され、プロセッサによって、モデル体積の表面を一組の空間座標にマッピングするステップと、プロセッサによって、更新されたモデル体積を生成するステップと、更新されたモデル体積の座標は、モデル体積の表面のマッピングを使用してモデル体積の座標を一組の空間座標に変換することによって生成され、プロセッサによって、更新されたモデル体積を記録するステップと、を含む。
ある実施形態において、更新されたモデル体積は、制限された手術可能な体積であり、外科器具の終点が、制限された手術可能な体積内に一時的に制限される。
ある実施形態において、モデル体積は、座標マッピングを使用して医用画像データから生成される。
ある実施形態において、本方法は、プロセッサによって、更新されたモデル体積(例えば、除去される骨の一部のモデル)を受信することと、記憶されたモデル体積は、第1のロボット座標システム内で表され、プロセッサによって、第2のロボット座標システムにおいて表された、更新された座標マッピングを受信することと、プロセッサによって、第1のロボット座標システムを第2のロボット座標システムにマッピングすることと、プロセッサによって、第1のロボット座標システムと第2のロボット座標システムとの間のマッピングを使用して、更新されたモデル体積の座標を第2のロボット座標システムにおいて表された更新された座標に変換することによって第2の更新されたモデル体積を生成することと、プロセッサによって、第2の更新されたモデル体積を記録することと、を含む。
一態様において、開示された技術は、ロボット外科手術システムのロボットアームのエンドエフェクタに取り付けられた外科器具が操作され得る、手術可能な体積を画定するためのシステムを含み、システムは、それに取り付けられた器具を有する、エンドエフェクタを備えるロボットアームと、ロボットアームに直接または間接的に取り付けられた(例えば、力センサは器具とロボットアームとの間に位置付けされる)力センサと、プロセッサ及び内部に命令を記憶させたメモリと、を備え、命令が、プロセッサによって実行されたとき、プロセッサに、エンドエフェクタの(例えば、患者に向かう)移動によって促された力センサからの触覚フィードバックを受信することと、触覚フィードバックが、器具の、(例えば、ある特定の密度またはある特定の機械的特性を有する)材料との接触に対応することを、(例えば、少なくとも閾値を超える触覚フィードバックの大きさに基づいて)(例えば加えて、器具の少なくとも1つのポイントの配置に基づいて)(例えば、材料が骨である)判定することと、一組の空間座標を判定することであって、一組の空間座標が、(例えば、エンドエフェクタの位置に対する)ロボット座標システムを使用して表された、器具の材料との各接触のための空間座標を含み、各空間座標が、体積の表面上のポイント(例えば、骨の表面上のポイント)に対応する、判定することと、ユーザにより選択されたモデル体積(例えば、除去される骨の一部のモデル)を受信することであって、モデル体積が、ロボット座標システムで表される、受信することと、モデル体積の表面を一組の空間座標にマッピングすることと、更新されたモデル体積を生成することであって、更新されたモデル体積の座標が、モデル体積の表面のマッピングを使用してモデル体積の座標を一組の空間座標に変換することによって生成される、生成することと、更新されたモデル体積を記憶することと、を行わせる。
ある実施形態において、更新されたモデル体積は、制限された手術可能な体積であり、外科器具の終点が、制限された手術可能な体積内に一時的に制限される。
ある実施形態において、モデル体積は、座標マッピングを使用して医用画像データから生成される。
ある実施形態において、命令が、プロセッサによって実行されたとき、プロセッサに、更新されたモデル体積(例えば、除去される骨の一部のモデル)を受信することであって、記憶されたモデル体積が、第1のロボット座標システム内で表される、受信することと、第2のロボット座標システムにおいて表された、更新された座標マッピングを受信することと、第1のロボット座標システムを第2のロボット座標システムにマッピングすることと、第1のロボット座標システムと第2のロボット座標システムとの間のマッピングを使用して、更新されたモデル体積の座標を第2のロボット座標システムにおいて表された更新された座標に変換することによって第2の更新されたモデル体積を生成することと、第2の更新されたモデル体積を記憶することと、を行わせる。
一態様において、開示された技術は、ロボット補助付きの外科処置中のナビゲーションのために、患者の解剖学的構造に対してロボットアームに取り付けられた外科器具の位置を表示する方法を含み、方法は、計算デバイスのプロセッサによって、外科ツールの終点の配置(例えば、終点の配置は、プロセッサによって、既知の(例えば、記憶された)ロボットアームの配置と終点との距離を使用して判定される)を受信することと、配置は、ロボット座標システムにおいて表され、プロセッサによって、ロボット座標システムと医用画像データ座標システムとの間の座標マッピング(例えば、変換アレイまたは変換マトリクス)を受信することと、プロセッサによって、終点の変換後の配置が医用画像データ座標システム内で表されるように、座標マッピングを使用して終点の配置を変換することと、プロセッサによって、終点の変換後の配置を含むレンダリングデータを生成することと、プロセッサによって、レンダリングデータを出力することと、を含み、レンダリングデータの表示は、患者の解剖学的構造の表現及び終点の配置の表現を含み、患者の解剖学的構造の表現上のポイントと終点の表現との間のシミュレート後の距離は、終点と患者の解剖学的構造の対応するポイントとの間の空間的距離に比例する。
ある実施形態において、患者の解剖学的構造の表現に対応するレンダリングデータは、医用画像データから生成された医用画像データ座標から生成され、医用画像データ座標は、医用画像データ座標システムにおいて表される。
一態様において、開示された技術は、ロボット補助付きの外科処置中のナビゲーションのために、患者の解剖学的構造に対してロボットアームに取り付けられた外科器具の一部を表示するシステムを含み、システムは、それに取り付けられた器具を有する、エンドエフェクタを備えるロボットアームと、ロボットアームに直接または間接的に取り付けられた(例えば、力センサは器具とロボットアームとの間に位置付けされる)力センサと、プロセッサ及び内部に命令を記憶させたメモリと、を備え、命令が、プロセッサによって実行されたとき、プロセッサに、外科ツールの終点の配置(例えば、終点の配置は、プロセッサによって、既知の(例えば、記憶された)ロボットアームの配置と終点との距離を使用して判定される)を受信することと、配置は、ロボット座標システムにおいて表され、ロボット座標システムと医用画像データ座標システムとの間の座標マッピング(例えば、変換アレイまたは変換マトリクス)を受信することと、終点の変換後の配置が医用画像データ座標システム内で表されるように、座標マッピングを使用して終点の配置を変換することと、終点の変換後の配置を含むレンダリングデータを生成することと、レンダリングデータを出力することと、をもたらし、レンダリングデータの表示は、患者の解剖学的構造の表現及び終点の配置の表現を含み、患者の解剖学的構造の表現上のポイントと終点の表現との間のシミュレート後の距離は、終点と患者の解剖学的構造の対応するポイントとの間の空間的距離に比例する。
ある実施形態において、患者の解剖学的構造の表現に対応するレンダリングデータは、医用画像データから生成された医用画像データ座標から生成され、医用画像データ座標は、医用画像データ座標システムにおいて表される。
一態様において、開示された技術は、1つ以上の器具で体積除去手術を実行する方法を含み、1つ以上の器具は、ロボット外科手術システムのロボットアームのエンドエフェクタに取り付けることによって使用され、本方法は、ロボット座標システム内に患者の解剖学的構造のモデルを表すために、患者の解剖学的構造を位置合わせすることと、患者の解剖学的構造の第1の体積の除去に続いて、複数の配置においてエンドエフェクタに取り付けられた器具を患者の解剖学的構造に接触させることと、接触は、ロボットアームに直接または間接的に取り付けられた力センサからの触覚フィードバックによって判定され、触覚フィードバックは、(例えば、患者に向かう)エンドエフェクタの移動によって促され、接触された複数の配置に対応する空間座標を使用して、除去された患者の解剖学的構造の第1の体積に対応するモデルの一部を決定することによって、患者の解剖学的構造のモデルを更新することと、任意で、複数の再位置合わせ配置を器具と接触させることによって患者の解剖学的構造を再位置合わせすることと、接触は、ロボットアームに直接または間接的に取り付けられた力センサからの触覚フィードバックによって判定され、触覚フィードバックは、(例えば、患者に向かう)エンドエフェクタの動きによって促され、患者の解剖学的構造のモデルにおける座標は、再位置合わせに基づく新しいロボット座標システム内で表されるように変換され手術可能な体積を画定することと、手術可能な体積は、ロボット座標システムまたは新しいロボット座標システム(例えば、再位置合わせステップが実行される場合)のいずれかにおいて表され、外科器具の予め画定された終点が第2の体積の除去期間の間、手術可能な体積内に制限されるようにロボットアームを操作することと、のステップを含む。
ある実施形態において、位置合わせステップは、計算デバイスのプロセッサによって、(例えば、患者に向かう)エンドエフェクタの移動によって促された、ロボットアームに直接または間接的に取り付けられた力センサからの触覚フィードバックを受信することと、プロセッサによって、触覚フィードバックが、器具の、(例えば、ある特定の密度またはある特定の機械的特性を有する)材料との接触に対応することを(例えば、少なくとも閾値を超える触覚フィードバックの大きさに基づいて)(例えば加えて、器具の少なくとも1つのポイントの配置に基づいて)(例えば、材料が骨である)判定することと、プロセッサによって、一組の空間座標を判定することと、一組の空間座標が、(例えば、エンドエフェクタの位置に対する)ロボット座標システムを使用して表された、器具の材料との各接触のための空間座標を含み、各空間座標が、解剖学的構造体積の表面上のポイント(例えば、骨の表面上のポイント)に対応し、プロセッサによって、(例えば、断層撮影患者データ(例えば、CTデータ、MRIデータ)から判定された)患者の解剖学的構造の表面に対応する医用画像データ座標システムを使用して表された一組の医用画像データ座標を受信することと、プロセッサによって、一組の空間座標に対応する表面を、(例えば、変換アレイまたは変換マトリクスを生成することによって)一組の医用画像データ座標に対応する患者の解剖学的構造の表面に(例えば、面合わせを使用して)マッピングすることと、プロセッサによって、一組の空間座標に対応する表面と、一組の医用画像データ座標に対応する表面との間のマッピングに基づいて、ロボット座標システムと医用画像データ座標システムとの間の座標マッピングを生成することと、プロセッサによって、(例えば、外科処置中の外科医によるナビゲーション使用のために)座標マッピングを記憶することと、を含む。
ある実施形態において、本方法は、プロセッサによって、表示用のレンダリングデータを出力することのステップを含み、レンダリングデータは、部材の位置の表現及び座標マッピングに基づく医用画像データの少なくとも一部に対応し、部材は、エンドエフェクタ、器具、及び外科器具からなる群から選択される。ある実施形態において、本方法は、プロセッサによって、エンドエフェクタの位置における変更に基づきレンダリングデータを修正することによって新しいレンダリングデータを生成することと、プロセッサによって、新しいレンダリングデータを表示用に出力することと、を含む。
ある実施形態において、基準マーカーは、材料を含む(例えば、空間座標が基準マーカーと患者の解剖学的構造との間の空間関係を使用して判定されるように、エンドエフェクタが既知のサイズ及び形状を有する基準マーカーと接触する)。
ある実施形態において、ロボットアームは、能動的であり、逆駆動不可能である。
ある実施形態において、ロボット外科手術システムは、プロセッサを含む。
ある実施形態において、本発明は、プロセッサによって、患者の解剖学的構造モデルを記憶することを含み、患者の解剖学的構造モデルは、ロボット座標システムにおいて表された患者の解剖学的構造の表面によって画定される。
ある実施形態において、更新ステップは、プロセッサによって、一組の空間座標を判定することと、一組の空間座標が、(例えば、エンドエフェクタの位置に対する)ロボット座標システムを使用して表された、器具の材料との各接触のための空間座標を含み、各空間座標が、解剖学的構造体積の表面上のポイント(例えば、骨の表面上のポイント)に対応し、プロセッサによって、患者の解剖学的構造の体積の表面に対応する一組の医用画像データ座標を受信することと、一組の医用画像データ座標内の各医用画像データ座標は、医用画像データ座標システムを使用して表され、プロセッサによって、ロボット座標システムと医用画像データ座標システムとの間の座標マッピング(例えば、変換アレイまたは変換マトリクス)を受信することと、プロセッサによって、一組の医用画像データ座標及び座標マッピングに基づき患者の解剖学的構造の体積の表面内部のポイントに対応する、一組の空間座標における1つ以上の内部空間座標を判定することと、プロセッサによって、1つ以上の内部空間座標を使用して除去された患者の解剖学的構造の体積の一部を判定することと、プロセッサによって、一組の内部医用画像データ座標を生成することと、一組の内部医用画像データ座標が、座標マッピングを使用して1つ以上の各内部空間座標のための内部医用画像データ座標を含み、プロセッサによって、一組の医用画像データ座標によって画定された第1の体積が、修正された一組の医用画像データ座標によって画定された第2の体積よりも大きくなるように、一組の内部医用画像データ座標で患者の解剖学的構造の体積の表面を画定する一組の医用画像データ座標を修正することと、プロセッサによって、(例えば、外科医に表示するために)修正された一組の医用画像データ座標を記憶し、それにより患者の解剖学的構造のモデルを更新することと、を含む。
ある実施形態において、画定ステップは、計算デバイスのプロセッサによって、(例えば、患者に向かう)エンドエフェクタの移動によって促された、ロボットアームに直接または間接的に取り付けられた力センサからの触覚フィードバックを受信することと、プロセッサによって、触覚フィードバックが、器具の、(例えば、ある特定の密度またはある特定の機械的特性を有する)材料との接触に対応することを(例えば、少なくとも閾値を超える触覚フィードバックの大きさに基づいて)(例えば加えて、器具の少なくとも1つのポイントの配置に基づいて)(例えば、材料が骨である)判定することと、プロセッサによって、一組の空間座標を判定することと、一組の空間座標が、(例えば、エンドエフェクタの位置に対する)ロボット座標システムを使用して表された、器具の材料との各接触のための空間座標を含み、各空間座標が、解剖学的構造体積の表面上のポイント(例えば、骨の表面上のポイント)に対応し、プロセッサによって、ユーザにより選択されたモデル体積(例えば、除去される骨の一部のモデル)を受信することと、モデル体積は、ロボット座標システムで表され、プロセッサによって、モデル体積の表面を一組の空間座標にマッピングすることと、プロセッサによって、更新されたモデル体積を生成することと、更新されたモデル体積の座標は、モデル体積の表面のマッピングを使用してモデル体積の座標を一組の空間座標に変換することによって生成され、プロセッサによって、更新されたモデル体積を記録することと、を含む。
ある実施形態において、更新されたモデル体積は、制限された手術可能な体積であり、外科器具の終点が、制限された手術可能な体積内に一時的に制限される。
ある実施形態において、モデル体積は、座標マッピングを使用して医用画像データから生成される。
ある実施形態において、本方法は、プロセッサによって、更新されたモデル体積(例えば、除去される骨の一部のモデル)を受信することと、記憶されたモデル体積は、第1のロボット座標システム内で表され、プロセッサによって、第2のロボット座標システムにおいて表された、更新された座標マッピングを受信することと、プロセッサによって、第1のロボット座標システムを第2のロボット座標システムにマッピングすることと、プロセッサによって、第1のロボット座標システムと第2のロボット座標システムとの間のマッピングを使用して、更新されたモデル体積の座標を第2のロボット座標システムにおいて表された更新された座標に変換することによって第2の更新されたモデル体積を生成することと、プロセッサによって、第2の更新されたモデル体積を記録することと、を含む。
ある実施形態において、再位置合わせステップは、計算デバイスのプロセッサによって、(例えば、患者に向かう)エンドエフェクタの移動によって促された、ロボットアームに直接または間接的に取り付けられた力センサからの触覚フィードバックを受信することと、プロセッサによって、触覚フィードバックが、器具の、(例えば、ある特定の密度またはある特定の機械的特性を有する)材料との接触に対応することを(例えば、少なくとも閾値を超える触覚フィードバックの大きさに基づいて)(例えば加えて、器具の少なくとも1つのポイントの配置に基づいて)(例えば、材料が骨である)判定することと、プロセッサによって、一組の空間座標を判定することと、ここにおいて、一組の空間座標が、(例えば、エンドエフェクタの位置に対する)ロボット座標システムを使用して表された、器具の材料との各接触のための空間座標を含み、各空間座標が、解剖学的構造体積の表面上のポイント(例えば、骨の表面上のポイント)に対応し、プロセッサによって、ロボット座標システムと医用画像データ座標システムとの間の座標マッピング(例えば、変換アレイまたは変換マトリクス)を受信することと、ここにおいて、ロボット座標システムがエンドエフェクタの物理的な座標システムに対応し、プロセッサによって、一組の空間座標に対応する表面のマッピングに基づく座標マッピングを更新することと、プロセッサによって、(例えば、外科処置中の外科医による使用の際に、正確なナビゲーションモデルを提供するために)更新された座標マッピングを記憶し、患者の解剖学的構造を再位置合わせすることと、を含む。
ある実施形態において、マッピングは、面合わせを使用して生成される。
ある実施形態において、更新ステップは、プロセッサによって、患者の解剖学的構造の体積の表面を画定している一組の医用画像モデリング座標を、座標マッピングを使用して変換することによって判定することと、ここにおいて、一組のモデリング座標が、ロボット座標システムにおいて表され、体積の表面の予想配置を画定し、一組の医用画像モデリング座標が、医用画像データから生成され、プロセッサによって、一組の空間座標に対応する表面を、(例えば、変換アレイまたは変換マトリクスを生成することによって)一組の医用画像データ座標に対応する患者の解剖学的構造の表面に(例えば、面合わせを使用して)マッピングすることと、プロセッサによって、一組の空間座標に対応する表面を一組のモデリング座標にマッピングすることに基づき座標マッピングを更新することと、を含む。
ある実施形態において、更新ステップは、プロセッサによって、一組のモデリング座標を受信することと、一組のモデリング座標が、ロボット座標システム内で表され、患者の解剖学的構造の体積の表面を画定し、プロセッサによって、一組の空間座標に対応する表面を、(例えば、変換アレイまたは変換マトリクスを生成することによって)一組の医用画像データ座標に対応する患者の解剖学的構造の表面に(例えば、面合わせを使用して)マッピングすることと、プロセッサによって、一組の空間座標に対応する表面を一組のモデリング座標にマッピングすることに基づき座標マッピングを更新することと、を含む。
別の態様において、開示された技術は、ロボット外科手術システムのロボットアームのエンドエフェクタに取り付けられた外科器具が操作され得る手術可能な体積を更新する方法を含み、本方法は、プロセッサによって、座標を含む記憶されたモデル体積(例えば、除去される骨の一部のモデル)を受信するステップと、プロセッサによって、第2のロボット座標システム内で表された更新された座標マッピングを受信するステップと、プロセッサによって、更新された座標マッピングを使用して、記憶されたモデル体積の各座標を第2のロボット座標システム内で表されるために変換するステップと、プロセッサによって、変換された座標を含む更新されたモデル体積を記憶するステップと、を含む。
定義
本開示をより容易に理解されるように、本明細書において使用されたある特定の用語が、以下に定義される。以下の用語及びその他の用語のための付加的な定義は、明細書を通して説明され得る。
本アプリケーションにおいて、「or」の使用は、別の記述がない限り「and/or」を意味する。本アプリケーション内で使用されるように、用語「comprise」及び「comprising」ならびに「comprises」などのこの用語の変化形は、他の添加物、構成部品、整数、またはステップを除外することを意図しない。本アプリケーション内で使用されるように、用語「about」及び「approximately」は、同義語として使用される。about/approximatelyの有無にかかわらす本アプリケーションにおいて使用されるいずれの数値は、当業者のうちの一人によって理解されたいずれの通常の変動をカバーすることを意図されている。ある実施形態において、用語「approximately」または「about」は、別に記述がない限り、また文脈から他に明らかである限り(その数が可能な数の100%を超える場合を除き)、いずれの方向において、述べられた参照値の25%、20%、19%、18%、17%、16%、15%、14%、13%、12%、11%、10%、9%、8%、7%、6%、5%、4%、3%、2%、1%以下(超または未満)内にある値の範囲に言及する。
マッピング、本明細書において使用されるように、「マッピング」は、二組の座標または二組の座標に対応するデータの間に関数を確立することを指す。二組の間の関数は、離散または連続となり得る。マッピングは、1つの座標システム内で記録及び/または記憶された座標が、別の座標システム内の座標に変換されることを可能とし、逆もまた同様に可能とする。同様の座標システム内で表された二組の座標は、同様に互いにマッピングされ得る。マップまたはマッピングは、データのアレイまたはマトリクスとして、コンピュータ可読媒体上で記憶され得る。ある実施形態において、マップまたはマッピングは、コンピュータ可読媒体上のアレイとして記憶された線形変換である。ある実施形態において、マップまたはマッピングは、座標システム間で変換するために使用される。ある実施形態において、座標システムは、デカルトである。いくつかの実施形態において、少なくとも1つの座標システムは、非デカルトである。マッピングは、最適化された関数となり得、マッピングは、マッピング方法(例えば、面合わせ)に従う最小エラー、または閾値以下のエラーの関数を提示する。ある実施形態において、マッピングは、面合わせを含む。本明細書において、「マップ」及び「マッピング」は、互換性をもって使用される。
図面は、本明細書において、例示の目的で存在し、限定するためではない。本発明の前述のならびに他の目的、態様、特徴、及び利点は、より明らかとなり、添付の図面とともに以下の説明を参照することによってよりよく理解され得るはずである。
本発明の例示的な実施形態に従って、手術室内のロボット外科手術システムの図である。 本発明の例示的な実施形態に従って、外科処置においてロボットベースのナビゲーションを有するロボット外科手術システムの使用の図である。 本発明の例示的な実施形態に従って、外科処置の補助をするためにロボット外科手術システムを使用するプロセスの図である。 本発明の例示的な実施形態に従って、画像作成プロセスのための様々なオプションの図である。 本発明の例示的な実施形態に従って、力センサ実装の図である。 本発明の例示的な実施形態に従って、力センサ実装の図である。 本発明の例示的な実施形態に従って、力センサ実装の図である。 本発明の例示的な実施形態に従って、外科器具の図である。 本発明の例示的な実施形態に従って、外科用ドリル内で統合された力センサの実装の図である。 本発明の例示的な実施形態に従って、外科用ドリル内で統合された力センサの実装の図である。 本発明の例示的な実施形態に従って、外科用ドリル内で統合された力センサの実装の図である。 本発明の例示的な実施形態に従って、外科用ドリル内で統合された力センサの実装の図である。 本発明の例示的な実施形態に従って、目標の解剖学的構造の位置を判定するためのプロセスの図である。 本発明の例示的な実施形態に従って、例示的な機械的マーカーの図である。 本発明の例示的な実施形態に従って、自動再位置合わせに基づく目標の解剖学的構造の位置を判定するためのプロセスの図である。 本発明の例示的な実施形態に従って、操作者へのフィードバックをレンダリングするためのプロセスの図である。 本発明の例示的な実施形態に従って、器具を追跡するためのプロセスの図である。 本発明の例示的な実施形態に従って、器具をガイドするためのプロセスの図である。 本発明の例示的な実施形態に従って、ロボット外科手術システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科的ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科手術システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科的ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科手術システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科的ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科手術システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科的ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科手術システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科的ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科手術システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科的ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科手術システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科的ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科手術システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科的ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科手術システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科的ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科手術システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科的ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科手術システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科的ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科手術システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科的ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科手術システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科的ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科手術システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科的ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科手術システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科的ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科手術システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科的ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科手術システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科的ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科手術システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科的ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科手術システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科的ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科手術システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科的ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科手術システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科的ロボットシステムの図である。 本発明の例示的な実施形態に従って、ロボット外科手術システム及びロボットナビゲーションを使用して、患者の脊椎上で外科処置を実行する方法の間の、患者の解剖学的構造及び外科的ロボットシステムの図である。 本発明の例示的な実施形態に従って、例示的なクラウド計算環境のブロック図を示す。 本発明の例示的な実施形態に従って、計算デバイスのブロック図及び移動式計算デバイスである。 本発明の例示的な実施形態に従って、例示的なロボット外科手術システムの図である。
請求された発明のシステム、デバイス、方法、及びプロセスは、本明細書において記載された実施形態からの情報を使用して進展した変化及び適応を包含すると考えられる。本明細書において記載されたシステム、デバイス、方法、及びプロセスの適合及び/または修正は、当業者によって実行され得る。
説明を通して、物品、デバイス、及びシステムが特定の構成部品を有する、含む、または備えるとして記載される場合、もしくはプロセス及び方法が、特定のステップを有する、含む、または備えるとして記載される場合、付加的に、本発明の物品、デバイス及びシステムが引用された構成部品から主体としてなる、または構成部品からなる、及び本発明に従うプロセス及び方法が引用されたプロセスのステップから主体としてなる、またはプロセスのステップからなることが考えられる。
ステップの順序またはある特定の行動を実行するための順序は、本発明が操作可能である限り重要ではないということが理解されるはずである。さらに、2つ以上のステップまたは行動は、同時に行われ得る。
本明細書の、例えば、背景部におけるいずれの公開の言及も、本明細書において提示されたいずれの請求項に関して先行技術として公開されたことの許可ではない。背景部は、明示目的のために提示されており、いずれの請求項に関する先行技術の記載を意図するものではない。ヘッダーは、読者の利便性のために提供され、請求された主題に関して限定するように意図するものではない。
図1は、手術室100内の例示的なロボット外科手術システムを示す。いくつかの実装において、一人以上の外科医、外科助手、外科技術者、及び/またはその他の検査助手(106a~c)が、ロボット補助外科システムを使用して、患者104への手術を実行する。手術室において、外科医は、手術を正確に遂行するためにロボットシステムによってガイドされ得る。このことは、ツール(例えば、ドリルまたはねじ)の適切な軌道を確実にすることを含む、外科ツールのロボットガイドによって達成され得る。いくつかの実装において、外科医は、わずかな手術前計画で、または手術前計画なしで、手術中に軌道を画定する。システムは、外科医が、外科処置の重大なステップを実行するためのツールの適切な調整を安全に達成するために、ツールホルダーを物理的に操作することを可能とする。力制御モードにおける外科医(または他の操作者)によるロボットアームの操作は、ツールを外科医の予想外な、小さな動きも無視する、測定された、均一な様式でツールの移動を許可する。外科医は、手術または患者の中へツールを挿入する前に、ツール(例えば、ドリルまたはねじ)の適切な軌道を達成するためにツールホルダーを移動する。ロボットアームが所望の位置にあると、アームは所望の軌道を維持するために固定される。ツールホルダーは、ツールが正確な角度でその中を通って移動または摺動され得る安定し、安全なガイドとして作用する。そのため、開示された技術は、外科医に、彼または彼女の手術をうまく実行するための信頼できる器具及び技巧を備える。
いくつかの実施形態において、手術は、椎間板切除、椎間孔拡大、椎弓切除、または脊椎融合などの、脊髄手術となり得る。いくつかの実装において、外科ロボットシステムは、移動カート上の外科ロボット102を含む。外科ロボット102は、手術台に取り付けられることなく手術台112に近接して位置決めされ得、それにより手術台の周りで外科医に最大の手術領域と可動性を提供し、手術台上の混乱も削減する。代替的な実施形態において、外科ロボット(またはカート)は、手術台に固定可能である。ある実施形態において、手術台及びカートの両方が、共通の基部に個性され、地面のかすかな揺れのような事象においてさえ、互いの関係においてカートまたは台のいずれの移動も防ぐ。
移動カートは、手術室内の検査助手、看護師、外科医、またはいずれの他の医療関係者などの、ユーザ(操作者)106aが、外科ロボット102を外科処置前、外科処置中、及び/または外科処置後に異なる配置に移動させることを可能とし得る。移動カートは、外科ロボット102が手術室100内外に容易に運ばれることを可能とする。例えば、ユーザ106aは、保管配置から手術室内へ外科ロボットを移動することができる。いくつかの実装において、移動カートは、連続トラック推進システム、またはカートの移行のための他の類似の可動性システムなどの、車輪、軌道システムを含み得る。移動カートは、操作者による移動カートの運動のために取り付けられまたは埋め込まれたハンドルを含み得る。
安全性理由のため、移動カートは、外科処置が外科ロボットで実行される間に使用され得る、安定化システムを備えることができる。安定化システムは、外科処置の正確性を確実なものとするために床に対する移動カートの全体的な剛性を高める。いくつかの実装において、車輪は、カートの移動を防止する係止システムを含む。安定化、制動、及び/または係止システムは、機械の電源が入るとき活性化され得る。いくつかの実装において、移動カートは、複合的な安定化、制動、及び/または係止システムを含む。いくつかの実装において、安定化システムは、電子起動を有する電気機械である。安定化、制動、及び/または係止システム(複数可)は、全体に機械的となり得る。安定化、制動、及び/または係止システム(複数可)は、電子的に活性化、及び不活性化され得る。
いくつかの実装において、外科ロボット102は、移動カートに取り付けられたロボットアームを含む。アクチュエータは、ロボットアームを移動させ得る。ロボットアームは、外科ツールを保持するように構成された力制御エンドエフェクタを含み得る。ロボットは、少なくとも4つの自由度(例えば、6つの自由度、3つの移動、及び3つの回転)を有するエンドエフェクタの位置決め及び/または移動を、制御及び/または可能とするように構成され得る。
いくつかの実装において、ロボットアームは、外科ツールが除去され、第2の外科ツールに取って代わられることを可能とするように、外科ツールを開放可能に保持するように構成される。システムは、外科ツールが再位置合わせ無しで、またはエンドエフェクタの位置の自動または半自動再位置合わせを有して交換されることを可能とし得る。
いくつかの実装において、外科システムは、外科ロボット102、患者及び外科ロボット102の異なる構成部品の位置をキャプチャする、トラッキング検出器108、及び、例えばリアルタイムの患者のデータ、及び/またはリアルタイムの外科ロボットの軌道を表示する表示スクリーン110を含む。
いくつかの実装において、トラッキング検出器108は、患者104及び外科ロボット102の配置を監視する。トラッキング検出器は、カメラ、ビデオカメラ、赤外線検出器、電磁気トラッキング用磁場発生器及びセンサ、またはいずれの他の動作検出装置となり得る。いくつかの実装において、患者及びロボットの位置に基づき、表示スクリーンは、患者の手術配置の現在の配置からロボット102のロボットアームのための投影された軌道及び/または提案された軌道を表示する。トラッキング検出器108を使用して、患者及びロボットアームの位置を連続して監視することによって、外科システムは、更新された軌道を計算することができ、外科ロボットを使用している手術室内の外科医及び/または検査助手に知らせ、ガイドするために、表示スクリーン110上にこれらの軌道を視覚的に表示することができる。加えて、ある実施形態において、外科ロボット102はまた、トラッキング検出器108を使用してキャプチャされたリアルタイムの患者及びロボットアームの位置から計算された軌道に基づいて、その位置を変更し、それ自身も自動的に位置決めし得る。例えば、エンドエフェクタの軌道は、外科処置中の患者の脊椎または他の部分の動きを把握するために、リアルタイムで自動的に調整され得る。開示された技術は、処置(例えば、外科処置、例えば、脊髄手術)中の患者の位置(例えば、患者の脊椎の位置)のリアルタイムで動的な再位置合わせのためのロボットベースのナビゲーションシステムを含む。例示的なロボット外科手術システムは、図38において示される。ロボット外科手術システム3800は、ロボットアーム3802を含む。ロボットアームは、3、4、5、6、または7つの自由度を有することができる。ロボットアーム3802は、エンドエフェクタ3804を有する。ある実施形態において、ロボットアーム3802は、外科処置中のエンドエフェクタ3804及び/または外科器具の位置を動的に追跡するための位置センサ3806を含む。加えて、外科器具の1つ以上のポイントは、例えば、少なくとも100Hz、250Hz以上、500Hz以上、または1000Hz以上(例えば、毎秒の位置決定)のレートで動的に追跡され得る。ある実施形態において、システム3800は、力フィードバックサブシステム3808を含む。力フィードバックサブシステム3808は、エンドエフェクタまたはエンドエフェクタの器具ホルダー内に挿入された外科器具を操作しているユーザに、触覚を届けるためのセンサ(複数可)、アクチュエータ(複数可)、コントローラ(複数可)、サーボ(複数可)、及び/または他の機構を含むことができる。力フィードバックサブシステム3808は、患者の組織に接触し、抗して移動し、貫通し、及び/または中で移動する外科器具によって引き起こされた抵抗力を検出することができる。さらに、力フィードバックサブシステム3808は、接触された組織の種類を識別すること(例えば、接触された組織が抵抗閾値に達するまたは超えるとき、例えば、前記組織が骨のときに判定すること)ができる。力フィードバックサブシステム3808はまた、操作者によって届けられた力を検出することができる。例えば、外科器具及び、したがって、エンドエフェクタの移動をもたらす、エンドエフェクタの外科器具ホルダー内に挿入された外科器具の直接操作によって届けられた力を検出することができる。力フィードバックサブシステム3808は、操作者によって届けられた力と、患者の組織に対する外科器具の移動によってもたらされた抵抗力とをさらに識別することができる。このことは、操作者が、システムに力を適用すると同時に、外科器具が患者の組織に接触することによる(例えば、触覚フィードバックを介した)抵抗を感じることの両方を可能とする。ある実施形態において、ロボット外科手術システム3800は、処置中に操作者への妨げられない視覚フィードバックを可能とするために、操作者(例えば、外科医)によって直接操作されているロボットアームに対して取り付けられ、その中に埋め込まれ、またはそれ以外の様式で位置付けられるディスプレイ3810を含む。操作者がシステムを使用するとき、システムは、患者の脊椎などの、目標の体積の初期位置合わせに、まずアクセスする(例えば、ディスプレイ上で図式的にレンダリングする)。このことは、MRI、CT、X線、SPECT、超音波、などを含む、患者の医用画像を使用して達成され得る。これらの画像は、手術前または手術中に獲得され得る。手術者がエンドエフェクタの位置を移動させると、エンドエフェクタの位置は、(例えば、プロセッサ3812によって)動的に判定される。特に、いくつかの実装において、システムは、外科器具の1つ以上のポイントの3D位置を動的に判定する。外科器具によって受容された力は、外科器具が、患者に接触し、抗して移動し、貫通し、及び/またはその中で移動するとき、動的に判定される。システムは、これらの力を測定し、接触した組織の種類間で識別することができる。このことは、例えば、接触された組織が、抵抗閾値に達するまたは超えるとき、組織が骨のときに判定することによって達成され得る。システムは、操作者によって外科器具に適用された力をさらに検出し、操作者によって届けられた力と患者の組織に対する外科器具の移動によってもたらされた抵抗力とを識別することができる。ある実施形態において、システムは、位置センサによって判定されたエンドエフェクタの更新された位置に少なくとも一部基づいて、患者位置を動的に再位置合わせすることができる。このことは、外科器具が目標の解剖学的構造と接触していることが(例えば、力フィードバックサブシステムを介して)判定されるとき、エンドエフェクタの更新された位置の少なくとも一部に基づいて、患者の状態の3D表現を更新するために使用され得る。このことは、初期の(または前の)位置合わせと一致している面合わせアルゴリズムを使用して達成され得る。例えば、システムは、機械的マーカー、患者に固定されたマーカーなどの、予め計画された基準で、エンドエフェクタ、外科器具、または外科器具もしくはエンドエフェクタの一部もしくは構成部品の接触または近接が検出されることで患者の位置を動的に再位置合わせすることができる。代替的に、システムは、再位置合わせされた表現が所望されるとき、操作者がボタンを押す、またはそれ以外の様式で図式的なまたは立体的なユーザインターフェースを活性化させるなどの、操作者コマンドが判定され、エンドエフェクタの更新された位置に基づいて患者の位置を動的に再位置合わせすることができる。外科器具ホルダーは、外科器具をその中に挿入するまたはそこに取り付けるためのエンドエフェクタに接続されることができる。器具ホルダーは、取り外し可能である。このような場合、エンドエフェクタへの器具ホルダーの取り付けは、常に同じ位置に接続されるように正確で予想可能である。ロボットアームは、外科器具がエンドエフェクタの外科器具ホルダーに挿入/取り付けられるとき、操作者によって(例えば、外科医によって)外科器具の直接操作を可能とするように設計される。器具の操作は、患者に対するエンドエフェクタ(及び/または外科器具)の位置に基づく触覚制限を受けやすくなり得る。外科器具は、器具(例えば、器具の先端)の配置が、ロボット外科手術システムによって既知となるように、外科器具ホルダーに対して既知の幾何学形状及び位置を有する。例えば、外科器具が器具ホルダーに完全に挿入されるとき、エンドエフェクタの位置が外科器具及び器具ホルダーに関する情報と同様に既知であるため、器具の位置は、ロボット外科手術システムに既知である。ある実施形態において、ツール中心ポイント(TCP)は、外科器具ホルダーを通して挿入された、または取り付けられた外科器具ガイド及び外科器具のための正確な位置決め及び軌道計画を利用する。外科器具は、外科器具ホルダー内に挿入されたとき、ロボットアームに対する既知の座標を有する画定されたツール中心ポイントがあるように、設計され得る。ツール中心ポイントを画定するために使用された座標システムの原点は、ロボットアームのフランジに位置付けされ得る。加えて、ロボット外科手術システムの構成部品のインターフェース、接合点、または端子などのポイントを画定するために便利に位置付けられ得る。ある実施形態において、外科ガイドまたは外科器具が外科器具ホルダーを有して使用されているかどうかに関わらず、TCPがロボットアームに対して一定の位置にあるために、外科医は、外科器具ホルダーを有して使用された器具または器具ガイドの方向、軌道、及び位置の視覚化を提供され得る。設計された外科器具システムの使用は、患者の解剖学的構造に対する外科器具ガイドの位置、方向、及び軌道を正確に判定するために、外科ガイドまたはツールの端部に取り付けられるナビゲーションマーカーの必要性をなくす。加えて、外科器具ホルダーに取り付けられたナビゲーションマーカーは、外科医によるロボットアームの操作に基づいて位置、方向、及び現在の軌道を更新するために、全体的な外科器具ガイドの位置及び方向を追跡するために使用され得る。患者の体に取り付けられたナビゲーションマーカーと同様に、手術前または手術中に撮られる患者の画像(例えば、CTデータ、無線画像データ、または類似のもの)によって提供された追加の情報は、ユニバーサル外科器具ガイドに取り付けられたナビゲーションマーカーからのデータと組み合わされ、外科医が、患者の解剖学的構造の必要な特性の配置、及び前記解剖学的構造に対する外科器具または外科器具ガイドの位置、軌道、ならびに方向を見ることができるように、外科医によって可視なスクリーン上に表示され得る。図5A~Cは、力センサ(例えば、力/トルクセンサ430)を取り付けるための例示的な配置を示す。いくつかの実装において、図5Aにおいて示されるように、力センサ502aは、ツールホルダー506aとロボット504aとの間に位置付けされる。この構成を使用して、無菌カバー508aは、滅菌を確実にするために、ロボットアームの周り、及び力センサとツールホルダーの間に巻きつけられ得る。力センサ502aは、ツール上の力(例えば、力及び/またはトルク)の直接測定のために提供し得る。力センサ502aは、屈曲に抵抗するように設計され得る。力センサ502aは、ある特定の外力のストレス下で屈曲するように設計され得る。外力が適用されるときにもたらされた変位は、ツールに適用された力及び/またはトルク、半径方向力剛性、軸方向トルク剛性、ならびにツールが取り付けられるホルダーの直径に基づいて計算され得る。図5B及び5Cにおいてそれぞれ示されるように、力センサ(例えば、図5Bにおける502b、または図5Cにおける502c)は、それぞれロボットまたはツールホルダー上に位置付けられ得る。これらの構成は、ユーザによって適用された力及び/またはトルクを排他的に測定し得る。力センサ508は、力及びトルクを測定し、ネットワーク(例えば、イーサネット(登録商標)、CAN、無線、インターネット、プライベートLAN、公衆LANなど)を介してそれらを送信する、中間アナログボックスでロボットに接続され得る。上記の力センサの位置の組み合わせは、予め画定された動き(例えば、図5A基部の第1のセンサ及び図5Bハンドルの第2のセンサは、ユーザによって適用された力及び/またはトルクから外科ツールに適用された力を切り離すためにフィードバック制御システムを可能とするように位置決めされ得る)を達成することが可能となる。加えて、いくつかの実装において、力センサは、外科器具内で直接統合される。例えば、力センサは、図6で示されるように、外科ドリルビット内に直接統合され得る。図6に示されるように力センサ604の実装がドリルビット602に対して記載される一方で、力センサ604は、他の外科器具に同様に統合され得る。ドリルビット602などの外科器具に力センサ604を統合することは、ドリルビットに適用される力を測定するための外乱の影響を最小限に


抑えるためにより堅固となり得る。図6において示される例示的な構成において、力センサ604は、ドリルビット602の軸に統合される。いくつかの実装において、力センサ604は、図6において示されるように、ドリルの本体610の外部でドリルビット602上に位置付けられる。他の実装において、力センサ604は、ドリルの本体610の内部に位置付けられ、それにより外部の影響から力センサ604をよりよく保護する。力センサは、例えば、1~3力及び/または1~3トルクの多自由度及び量を有することができる。力は、コネクタ606を通り回転軸から送信される。コネクタは、いくつかの実装において、力センサ604に電気接続を提供する1つ以上のブラシである。力センサが光学センサの場合、コネクタは光送信機(例えば、LED)及び/または光受信機(例えば、光ダイオード)となり得る。この実施例において、ブラシは、ドリルビットに接触し、それによって力センサ604と電気接続を形成する。いくつかの実装において、ブラシは、電気接続を形成するためにドリルビット上の1つ以上の接点に触れる。電気または空気圧モータ608は、ドリルビット602軸を回転させる。いくつかの実装において、センサ612(例えば、エンコーダ)は、軸の位置を測定する。センサ612は、力センサによって測定された力を軸の相対位置に相互に関係させるために、軸の位置を測定する。例えば、力センサがドリル内に位置付けられる場合、力の方向の測定値は、ドリルビットが回転すると変化するであろう。特に、力センサは、力及び力の方向を周期的に(例えば、ミリ秒毎、マイクロ秒毎、またはそれらの間のどこか)測定する。ドリルビットは、外科医がそれを骨の中で押すと回転する。ドリルが骨に接触するとき、力センサは、方向(D1)でいくつかの力(F1)を示すであろう。1つの期間後(例えば、1ミリ秒)、ドリルビットはわずかに回転し、そのため力センサが異なる方向(D2)において同じ値(F1)を示すであろう(定力が適用されると仮定する)。力の方向は、たとえ外科医が骨に定力で押す場合でも、ドリルビットが回転すると単一の視点に対して変更し続けるであろう。絶えず変更している力方向は、受け入れられない。方向(例えば、D1、D2)を(外科医、ロボットシステムなどによって見られる)骨からの力の全体的な方向(D)と相互に関連させるために、全体的なスペース内のドリルの位置は、ドリルビットが回転すると計算されなくてはならない。センサ612は、シャフトの位置を測定し、力(D)の全体的な方向を判定するために使用される。センサ612は、図6において示されるようにモータ608の背後に位置付けられ得る。センサ612は、同様にモータ608に対する他の配置で位置付けられ得る。力センサ604は、図7A~Dにおいて示されるように様々な構成で提供され得る。各構成において、目標は、ツール(例えば、ドリルビット超音波ビットなど)の先端上の力を測定することである。図7Aにおいて示される実施例において、力センサ604は、図6に関して記載されるようにドリルビット602の軸内に統合される。力センサ604は、センサケーブル702を介して(図6において示される)コネクタ606と通信し得る。センサケーブル702は、いくつかの実装において、ドリルビット602内部に送られる。いくつかの実装において、コネクタ606(図6において示される)は、1つ以上の接続パッドを介してセンサケーブル702に電気的に接続される。本実施例の力センサ604は、例えば、変換器を使用して力及びトルクの全て6つの構成部品を測定する小型工業用センサ(例えば、Apex,N.C.のATI Industrial Automation,Inc.製の多軸力/トルクセンサ)となり得る。代替的に、力センサ604は、光学センサとなり得る。代替的に、力センサ604は、図7Bにおいて示されるように、ドリルビット602の軸内に直接統合された歪みゲージ706を備え得る。
図7Cにおいて示されるように、力センサ604は、いくつかの実装において、ドリルビット602自体の力を測定する代わりにモータ上の力を測定する。図7Dにおいて示されるように、ドリルビット602の軸は、いくつかの実装において、ドリルビット602の軸のふれの後、力が力センサ604によって測定され得るように、ドリルビット602が(例えば、わずかに)屈曲することを可能とする可撓性要素708を含む。いくつかの実装において、図7C及び7Dにおいて示される構成用に、(例えば、図6において示されるセンサ612による)軸の位置の測定は、力が器具の座標フレーム内で直接測定されるとき省略され得る。
ロボットベースのナビゲーションの目的は、患者の目標の解剖学的構造への変更をもたらす外科処置中の外科医を補助することである。インプラント及び外科器具が、本目的のために使用され、ロボットシステムが、これらの器具が外科処置中に使用される際に正確性を向上させるために外科医を補助する。図2は、いくつかの実施形態において、手術で補助する全てのシステムの概略図を示す。
外科医と外科システムの構成部品の相互作用は、図3においてさらに概要が述べられる。図3を参照すると、外科処置が始まる前に、患者の目標の解剖学的構造の医用画像は、(例えば、患者の解剖学的構造のモデルを生成するために使用され得る)適切な画像化テクニックを使用して獲得され、後述のプロセスにおいて使用される。目標の解剖学的構造の位置を判定するプロセスは、目標の解剖学的構造の入力を受け取る。目標の解剖学的構造は、医用画像を使用してモデル化され得、医用画像は、医用画像化テクニックまたはスキャンに基づいたテクニックを使用して得られる。結果として、目標の解剖学的構造の位置を判定することは、いずれの時点でも正確な目標の解剖学的構造の解剖学的構造位置を提供する。フィードバックをレンダリングするプロセスは、医用画像、解剖学的構造の位置、及び器具(複数可)の位置に基づいて外科医に情報を提供する。レンダリングは、外科医に視覚的に表示される。器具のプロセスを追跡することは、外科器具を取り、結果としてそれらの位置を計算する。同時に器具は、ガイドされ、つまりそれらの空間的位置は、ロボットシステムによって(すなわち、手術可能な体積を使用して)いくらか制限される。ロボットシステムは、これら4つのプロセスを実装し、外科医は、それらのうちの2つ、ガイダンス及びフィードバックのレンダリングに加わる。
画像化プロセスのための異なるオプションが、図4に示される。画像化プロセスの目的は、患者の目標の解剖学的構造の表現を獲得することである。いくつかの実装において、画像化は、患者の目標の解剖学的構造の表現を獲得するために使用される。画像は、MRI、CT、またはX線などの、様々なモダリティを使用して手術前に獲得され得る。代替的に、画像は、平面蛍光透視法技術(例えば、ミネソタ州、ミネアポリスのMedtronic製O-Arm)、術中CT、MRI、及び超音波を使用するなどの、術中画像化テクニックを使用して手術中に獲得され得る。例えば、術中画像は、術中蛍光透視法デバイス(例えば、C-Arm)を使用してキャプチャされ得る。
目標の解剖学的構造についての情報を獲得する他の方法がある。例えば、目標の解剖学的構造についての情報は、触覚デバイス及び力フィードバックを使用する表面スキャニングによって収集され得る。ロボット上に取り付けられたこのようなデバイスを使用することは、ユーザが組織の表面及び硬さについての空間的情報を提供することができる力を測定することを可能とする。レーザスキャナなどの、表面スキャニングの代替的に既知のテクニックも、使用され得る。加えて、目でみる、直接の診査も、患者の解剖学的構造の診察に使用され得る。これらのテクニックの転帰は、使用された場合、患者の解剖学的構造のモデル化に使用される医用画像データとして記憶される。
図8は、目標の解剖学的構造の位置を画定する(すなわち、位置合わせ)ために使用され得るプロセスの範囲を示す。典型的に、目標の解剖学的構造の位置は、解剖学的構造固定のマーカー及び後に追跡(例えば、光学、または電磁)マーカーを参照して解剖学的構造の位置を識別するための位置合わせ処置を使用して、及びマーカーが目標の解剖学的構造の位置を判定するために解剖学的構造に対して適切に移動することを推定して管理される。背景において上記で論じられるように、この方法には欠点がある。ある実施形態において、開示された技術は、これらの弱点に対処するために力に基づく解剖学的構造位置合わせ及び再位置合わせを利用する。この間で再位置合わせロボットエンコーダは、高周波(例えば、200~500Hz、500~800Hz、または800Hz~1200Hz)で器具の位置を迅速に獲得するために使用され得る。
初期の位置合わせデータは、目標の解剖学的構造に対するエンドエフェクタの配置を管理するために安定性モジュールに沿って使用され得る。安定性モジュールは、ある実施形態において、外科医がいずれの特別な行動をとることなく、バックグラウンドにおいて(例えば、自動的に)常に作動することができる。このような安定性モジュールの実施例は、一組のポイント(例えば、測定されたポイント)を取り、一組のポイント(例えば、医用画像上の脊椎の表面からの)と別の一組のポイントとの間で最もよい一致を見つける面合わせ方法を含む。面合わせ用の例示的なアルゴリズムは、“A Robotic System for Cervical Spine Surgery”,Szymon Kostrzewski, Warsaw University of Technology(2011)のSection 4.5.3において記載されたIterative Closet Point方法である。ある実施形態において、他のアルゴリズムが、安定性モジュール用に使用される。
再位置合わせは、他の方法を使用して同様に達成され得る。例えば、ある実施形態において、再位置合わせは、基準を使用する周期的な再認証によって達成され得る。ある実施形態において、必要であれば、外科医が、予め設置された基準に接し、ロボットアームに取り付けられた器具と再位置合わせすることができる。
ある実施形態において、特別に設計されたマーカーが、図9において示されるように患者に固定され得る。このマーカーは、力センサを有するロボットによって容易に発見され得る一組の円錐孔を有する。例えば、外科医は、ロボットが再位置合わせをするようにボタンを押すことができる。その後ロボットが自動的に、または外科医が手動で、ロボットをマーカー内の孔に持っていく。少なくとも3つの孔を識別後、再位置合わせが見出され得、外科医は手術を続けることができる。
図10は、自動再位置合わせに基づく位置の判定のプロセスの概略図である。図10の再位置合わせ方法は、初期の位置合わせデータ、患者の医用画像、及びロボットシステムからの目標の解剖学的構造についての情報(例えば、骨の表面上で測定されたポイント)を利用して、この情報に基づいて、目標の解剖学的構造の位置を提供するための解剖学的構造追跡プロセスによって使用された位置合わせデータを更新する。
フィードバックをレンダリングする様々な方法が、図11において示される。例えば、フィードバックは、手術室内でアクセス可能なスクリーンを使用してレンダリングされ得る。一実施例において、フィードバックは、その内容がその全体における参照によって本明細書に組み込まれる、2015年9月18日に出願された、米国特許出願第14/858,325号、表題「Robot-Mounted User Interface for Interacting with Operation Room Equipment」において記載されたユーザインターフェースなどの、ロボット保持型ユーザインターフェースを使用するレンダリングとなり得る。
図12は、器具の追跡のための例示的なプロセスの図である。いくつかの実施形態において、追跡は、器具及び光学/電磁トラッカーに取り付けられたマーカーを使用して達成され得る。ある実施形態において、器具は、空間におけるそれらの位置を提供するロボットシステムを使用して追跡される。ロボットは、エンドエフェクタの位置の位置を判定するために使用される測定システムを有するため、器具の位置を「知る」。所定の器具の既知の幾何学形状と結合して、エンドエフェクタに(例えば、断定できる様式で)取り付けられた器具の位置は、ロボット外科手術システムによって既知である。機械的テンプレート追跡は、目標の解剖学的構造の上部の1つの位置のみに嵌まり、ガイド器具用のガイドを収容する機械的で、オーダーメードのテンプレートを参照する。受動アームは、手術室内にあらかじめ画定された位置に固定され得る標準的な外科アームである。
図13は、外科処置中に器具をガイドするための例示的なシステムを示す。ある実施形態において、外科器具はロボットガイダンスでガイドされる。ある実施形態において、ロボットガイダンスは、ロボット外科手術システムで患者の解剖学的構造の位置合わせ後、自動的に(すなわち、外科医からの入力無しで)発生する。ある実施形態において、手動ガイダンス及び受動ガイダンスが、いくつかの外科処置の段階中に使用される。ある実施形態において、手動ガイダンス及び受動ガイダンスは、外科処置の全ての段階において使用される。
取り付けられた器具を有するロボット外科手術システムは、ロボット外科手術システムのロボットアームに直接または間接的に取り付けられた力センサからの触覚フィードバックを使用して判定された複数の接触ポイントにおいて、患者の解剖学的構造に接触するために使用され得る。複数の接点の座標は、一組の空間座標を画定する。空間座標の値は、接触が判定されるとき、ロボットの座標システム内のロボット外科手術システム(例えば、器具、外科器具、またはロボットアームの終点)の一部の位置を記憶することによって判定される。
器具の患者の解剖学的構造との接触から記録された一組の空間座標は、位置合わせ、モデリング体積除去、再位置合わせ、手術可能な体積を画定すること、再位置合わせ後の手術可能な体積を修正すること、記憶された体積モデルを物理的な配置に変換すること、及びナビゲーションスクリーン上に患者の解剖学的構造に対する外科器具を表示することなどの、多くのナビゲーション用、及び外科的ガイダンス機能を実行するために使用され得る。ロボット外科手術システムの一部、または遠隔計算デバイス(例えば、サーバ上で)の一部などであるプロセッサは、一組の空間座標と組み合わされた適切な座標マッピングを生成及び使用することによって、外科器具、器具、及び/または患者の解剖学的構造を相互に関連付けるために使用され得る。いくつかの実施形態において、一組の空間座標は、さらなる使用のために提供され得、一組の空間座標が、ロボットアームに取り付けられた器具と患者の解剖学的構造の触覚フィードバックに基づく接触以外のテクニックを使用して生成される。例えば、一組の空間座標は、既知の位置合わせテクニックの結果として提供され得る。
患者の解剖学的構造は、医用画像データを使用して生成された患者のモデルと相互に関連付けられ得る一組の空間座標を生成するために、患者の解剖学的構造に器具を接触させることによる別のナビゲーションシステムを使用することなく、ロボット外科手術システムと位置合わせされ得る。ある実施形態において、外科医は、位置合わせ中を含み、患者に接触するために外科器具を使用する。いくつかの実施形態において、一つ以上のナビゲーションマーカーが位置合わせ中の参照に使用される。プロセッサが、一組の空間座標を判定すると、各空間座標が解剖学的構造体積(例えば、患者の脊椎(複数可))の表面上のポイントに対応し、一組の空間座標が、患者の解剖学的構造のモデルにマッピングされ得る。患者の解剖学的構造は、医用画像データを使用してモデル化され得る。ある実施形態において、CT、MRI、またはX線データは、患者の解剖学的構造の3Dモデルを手術前に生成するために使用される。いくつかの実施形態において、患者の解剖学的構造モデルを生成するために使用された医用画像は、手術中に撮られる。
一組の空間座標は、モデル内のポイントをロボット座標システム内の座標(すなわち、物理的な実体)に変換するための機能を判定することによって、患者の解剖学的構造のモデルにマッピングされ得、逆も同様である。ある実施形態において、マッピングは、一組の空間座標によって画定された表面と解剖学的構造モデルの表面との面合わせを使用して作成される。患者の解剖学的構造の表面上のポイント、または患者の解剖学的構造の解剖学的構造モデルは、既知のポイント(すなわち、患者の解剖学的構造に器具で接触することによって測定されたポイント、または医用画像化中に収集されたデータポイント)から推定され得る。推定されたポイントは、マッピングを生成するために使用され得る。面合わせ方法の実施例は、“A Robotic System for Cervical Spine Surgery,” Szymon Kostrzewski,Warsaw University of Technology(2011)のSection 4.5.3において記載されたIterative Closest Point(ICP)である。Section 4.5.3の内容は、その全体が本明細書において参照によって組み込まれる。概して、1つの座標システムから別に(すなわち、線形変換によって)ポイントを変換するために使用され得る機能を生成するいずれのアルゴリズムまたは方法も、使用に適している。閾値が特定され得、マッピングが使用されるためにそれより下になければならないエラー測定値を画定する。この閾値は、高精度マッピング(例えば、位置合わせ)のために十分であり、かつそのようなマッピングが高周波数で生成され得る(すなわち、マッピングの生成の速度は、外科処置を限定するものではない)値に設定され得る。
位置合わせの前に、医用画像データにおいて患者の解剖学的構造モデルを画定する座標システムと、ロボット外科手術システムのロボットアームに取り付けられた外科器具の配置を画定する座標システムとの間に画定された関係はない。ロボット座標システムから医用画像データ座標システムへの座標マッピングを生成し、座標マッピングを記憶することによって、プロセッサは、解剖学的構造モデルに提示された患者の解剖学的構造の各ポイントのための物理的な配置を判定することができる。このように、患者は、ロボット外科手術システムと位置合わせされる。
一度患者が位置合わせされると、空間の各ポイントにおいて、ロボット外科手術システムは、そのポイントが、患者の解剖学的構造の表面上か、患者の解剖学的構造内か、または患者の解剖学的構造の外側かどうか既知である。この情報は、外科的ガイダンス及びナビゲーションにおける補助のためのさらなるプロセスに使用され得る。例えば、この情報は、患者の解剖学的構造が全体的に避けられる、または患者の解剖学的構造の一部のみが外科器具にアクセス可能となる場合、外科器具に対する「侵入不可」ゾーンを画定するために使用され得る。加えて、外科器具は、患者の解剖学的構造の表面上にある、線、平面、または曲面をトレースすることができる。
上述のように、触覚フィードバックに基づく接触を使用して患者を正確に位置合わせするために、わずか少数のポイントが接触されることが必要である。例えば、ある実施形態において、わずか30のポイントが、手術を進めるために十分な精度でロボット外科手術システムに患者の解剖学的構造を位置合わせするために必要とされる。ある実施形態において、わずか5~10接点が、必要とされる。必要な接点の数は、実行される特定の外科処置で変化する。概して、より正確な外科器具の位置決めを必要する外科手術は、より大きな空間座標一組を生成するためにより多くの接点が作成されることを必要とする。患者の解剖学的構造へ接触するためにロボット外科手術システムを使用する際の簡潔さにより、位置合わせのために十分な量の接点が、短期間で作成され得、そのため全体の外科処置の効率が良くなる。
ある実施形態において、座標マッピングが、ディスプレイ上にナビゲーションのレンダリングを生成するために使用され、例えば、外科器具の終点が患者の解剖学的構造に正確な関係で示される。このレンダリングは、外科ツールの位置が推移するにつれてライブで更新され得る。このことは、外科ツールの配置が、位置合わせから既知であるため、ナビゲーションのマーカーを必要とせず行われる。ある実施形態において、一組の空間座標が、基準マーカーを(例えば、マーカーの表面上に分配された)マーカー上の複数の標定ポイント(例えば、くぼみ)に接触させることによって収集され、標定ポイントは、マーカーが患者の解剖学的構造上の特定の配置において取り付けられるように設計されているため(図9を参照)、患者の解剖学的構造に対して既知の配置となる。ある実施形態において、特定の配置が、脊椎の棘突起である。
本明細に記載された方法及びシステムのいくつかの実施形態において、位置合わせは、当該技術で既知のテクニックを使用して実行される。
ある特定の外科処置中、患者の解剖学的構造のモデルにもともと含まれていた患者の解剖学的構造の一部(すなわち、第1の体積)は、例えば、付加的な体積へのアクセスが増えるため、付加的な体積の除去の前に、手術中に除去される。第1の体積の除去は、除去中高い精度を必要とし得ない。第1の体積の除去は、手動で行うことができる。患者の解剖学的構造のモデルは、この除去を反映するために更新され得る。モデルの更新は、正確な患者の記録(すなわち、医用履歴)を維持するために必要となり得る。モデルの更新は、付加的な体積の除去の術中計画に対しても必要とされ得る。
一組の空間座標は、体積除去後の患者の解剖学的構造のモデルを更新するために使用され得る。ある実施形態において、一組の空間座標は、ロボットアームに取り付けられた器具と患者の解剖学的構造の触覚フィードバックに基づく接触を使用して生成される。
モデルの座標システムと空間座標の座標システム(すなわち、ロボットの座標システム)との間の座標マッピングが生成されている場合、一組の空間座標及び患者の解剖学的構造のモデルを使用して、元は解剖学的構造の表面内部にあった患者の解剖学的構造のポイントが、判定され得る。座標マッピングは、例えば位置合わせ中に、生成され得る。一組の空間座標は、座標マッピングを使用してモデルの座標システム内に表されるために変換され得る。その後、モデルの表面の内部に位置付けられると判定された座標は、モデルの新しい表面を画定するために使用され得る。例えば、直方体の半分が除去される場合、ロボット外科手術システムに取り付けられた器具は、以前直方体の内部にあったポイントに接触することができ、そのため、モデルの座標システムに変換されるときポイントの座標は、モデルの内部に位置付けられるはずである。これらのポイントが、モデル用の新しい表面を判定するために使用され得る。そのため、モデルの体積は、モデルから除去された体積における全てのポイントを除くことによって縮むはずである。更新されたモデルは、体積の除去のため発生した大きさの変更を正確に反映して、元のモデルよりも小さな体積を有するであろう。
ある座標は、モデル(すなわち、更新前のモデル)内の内部座標であると判定されない一組の座標内に含まれ得る。この座標は、存在する表面の一部となるため、新しい表面を画定するために使用されるものではない。この座標は、そのためモデルの更新に使用されるものではない。
体積の除去後の患者の解剖学的構造の新しい表面を画定する修正された一組の座標は、将来の参照のために更新されたモデルとして記憶され得る。この更新されたモデルは、元のモデルに追加、または書き換えて記憶され得る。患者のデータが、体積除去前の元のモデル及び体積除去後の更新されたモデルの両方を備えて拡大するとき、比較が表示され得る。この比較は、元のモデル、更新されたモデル、及び除去された部分を表示することを含む。例示的な元のモデルが、図16において示される。除去された部分を強調している例示的なモデルは、図17において示される。例示的な体積除去後の更新されたモデルは、図28において示される。
典型的な位置合わせ処置が長く、遮るもののない視線(視覚的にまたは電磁的に遮るもののない視線)を必要とするため、ナビゲーションシステム及び/またはロボット外科手術システムは、外科処置中、最初に典型的に一度位置合わせするのみである。しかしながら、これらのシステムに対する患者の方向及び/または位置は、処置中に推移し得る。加えて、処置の種類によって、患者の解剖学的構造は、位置合わせにおいて反映されるべき物理的な変更を受け得る。深刻な医療ミスは、物理的な実体と初期の位置合わせとの間に発生するいずれの同期ずれのために、外科処置中にもたらされ得る。概して、多くのステップを含むより複雑な処置が、より大きく同期ずれとなる傾向がある。深刻な医療ミスは、同期ずれのため傷つきやすい解剖学的構造特性(例えば、神経または動脈)上または近くでの外科処置中に起こりやすい。そのため、手術中に実行され得る容易で迅速な再位置合わせは、非常にプラスとなり得る。
再位置合わせは、起こり得るいずれの同期ずれに対して作用し、従来式の位置合わせ方法とは違い、ロボット外科手術システムによる触覚フィードバックの基づく接触が、再位置合わせのための方法を統合することも容易である。ある実施形態において、再位置合わせは、再位置合わせの接触が行われた後1~2秒で処理され得る。ある実施形態において、再位置合わせは、5秒未満で処理され得る。再位置合わせは、いずれの複数のポイントにおいて患者の解剖学的構造に接触することによって、そのようなシステムで、またはそのような方法を使用して実行され得る。特定のポイントで、例えば、初期の位置合わせ中に接触したポイントで、患者の解剖学的構造に接触する必要がない。
ロボットの座標システムと患者の解剖学的構造のモデルの座標システムとの間の座標マップを画定する初期の位置合わせが実行された後、再位置合わせが、実行され得る。患者の解剖学的構造の各座標は、座標マッピングを使用するロボットの座標システム内において、患者の解剖学的構造モデルの座標を表すことによって位置合わせ後ロボット外科手術システムに既知となる。一組の空間座標を収集することによって、ロボット座標システム内に表された患者の解剖学的構造の表面は、一組の空間座標によって画定された表面にマッピングされ得る。マッピングは、座標マッピングを更新するために使用され得る。
更新された座標マッピングは、患者の解剖学的構造、方向、または位置における変更を反映し得る。例えば、患者が軸を中心に回転される場合、患者の物理的な解剖学的構造は、ロボットの座標システムにおいて表されたとき、患者の解剖学的構造モデルが反映するものに対して傾くはずである。器具は、患者の解剖学的構造上の一組のポイント(例えば、5~10ポイント)における回転の後、患者の解剖学的構造に接触することができる。ロボット座標システム内で表された現在の患者の解剖学的構造モデルと一組のポイントによって画定された表面との間の再位置合わせマップが、生成される。座標マップは、更新された座標マップを生成するために位置合わせマップを使用して修正され得る。例えば、座標マップ及び再位置合わせマップの両方が、配列として記憶された線形変換の場合、更新された座標マップは、2つの配列の生成物である。同様に、位置における変更は、再位置合わせ中の変換として反映され、患者の解剖学的構造における変更は、スケーリング変換として反映され得る。例えば、患者の脊椎の空間は、体積除去の後変化し得、外科医に再位置合わせを実行させるように促す。
ある実施形態において、患者の解剖学的構造のモデルは、一組以上の空間座標が、モデルの内部座標である(すなわち、モデルが再位置合わせ前に存在していた)と判定される場合、再位置合わせ中に同時に更新される。例えば、ある実施形態において、再位置合わせは、再位置合わせ及びモデルの更新が1つの同時の方法で処理される、体積除去後に実行され得る。再位置合わせは、このような大きな外科的ステップ中に身体構造上推移する可能性が高いため、体積除去後が有益である。
ある外科処置において、外科器具の使用は、患者の解剖学的構造の手術箇所に応じる特別な手術可能な体積にのみ制限されるべきである。手術可能な体積は、物理的な体積であり、物理的な体積は、ロボットの座標システムを使用して画定される。外科器具が制限される物理的な体積は、患者の解剖学的構造に対するということが明らかである。ある実施形態において、ロボット外科手術システムは、外科医が外科器具を手術可能な体積の外部に移動させようとするとき、触覚フィードバックを提供する。このように、外科器具が手術可能な体積の境界にあるとき、外科医は抵抗を感じ、外科ツールを境界から離して向けなおすことができる。このことは、例えば、骨の除去中に、外科医が意図された体積の外の配置から骨を除去したくない場合に、有益である。手術可能な体積は、外科処置中外科医に対する触覚フィードバックを提供する際に使用するための非一時的コンピュータ可読媒体上に記憶される。
座標マッピングを使用して、患者の解剖学的構造の体積及び/または患者の解剖学的構造の周りの体積によって占められた物理的な手術可能な体積は、患者の解剖学的構造モデルを使用して正確に画定され得る。意図された手術可能な体積は、手術中に画定され得る。外科医は、手術可能な体積の境界を画定する一組の空間座標を生成するために、患者の解剖学的構造上の一組のポイントに接触することができる。多くの外科処置において、手術可能な体積は、患者の解剖学的構造の解剖学的構造特性に対応する。例えば、特定の骨または骨の部分である。そのため、ある実施形態において、外科医は、患者の解剖学的構造のモデルから解剖学的構造特性を選択する。患者の解剖学的構造特性のモデルは、外科医の所望の手術可能な体積の境界に対応する一組の空間座標にマッピングされ得る。ある実施形態において、患者の解剖学的構造特性のモデル内の各座標は、マッピングに基づきロボットの座標システムを使用して表され得る。その後、手術可能な体積が画定され、患者の解剖学的構造特性のモデルの一組の空間座標へのマッピングを使用して、ロボットの座標システム内に表され得る。いくつかの実施形態において、患者の解剖学的構造特性のモデルの表面の各座標は、手術可能な体積の表面を画定するために使用される。
ある実施形態において、手術可能な体積は、一組の空間座標によって画定された表面によって画定された体積である。そのため、手術可能な体積を生成するためのそれらの方法は、医用画像データまたは患者の解剖学的構造の構成前のモデルを必要としない。例えば、外科医は、一組の空間座標として判定される患者上の10のポイントに接触し得る。一組の空間座標は、体積を画定する一組の頂点(すなわち、表面のポイント)として使用され得る。これが手術可能な体積として使用され得、ロボット外科手術システムのロボットアームに取り付けられた外科器具の移動は、手術可能な体積に制限される。このことはいずれの位置合わせと共にまたは位置合わせ無しで行われ得る。
手術可能な体積は、一組の空間座標を生成することなく(すなわち、患者の解剖学的構造に接触することなく)患者の解剖学的構造モデルの体積を外科医が選択することによって画定され得る。外科医は、患者の解剖学的構造モデルを見ることが可能なソフトウェアを使用して体積を選択し得る。一旦体積が選択されると、解剖学的構造モデルをロボットの座標システムにマッピングする座標マッピングが、手術可能な体積を画定する一組の座標を生成するために使用され得る。そのため、手術可能な体積は、例えば、位置合わせまたは再位置合わせ中に生成された座標マッピングを使用して画定され、外科医が患者の解剖学的構造に接触することによって手術可能な体積を画定して使用するための一組の空間座標を分けて生成する必要がない。
記憶された手術可能な体積は、座標マッピングが更新されるとき、または後に更新された座標マッピングを使用するときに更新され得る。座標マッピングは、例えば、患者の解剖学的構造における位置、方向の推移、または変更を反映するために再位置合わせ中に更新される。記憶された手術可能な体積の座標は、新しいロボット座標システムを記憶された手術可能な体積が表されたロボット座標システムにマッピングすることによって、及びそのマッピングを使用する(すなわち、手術可能な体積の各座標を新しい座標システムに変換し、変換された座標を更新された手術可能な体積として記憶する)ことによって、新しいロボット座標システムに変換され得る。
同様に、医用画像データ座標システム内に表されるいずれの記憶されたモデル体積も、座標マッピングを使用してロボット座標システム内にモデル体積の座標を表すことによって空間体積に変換され得る。このことは、ロボット外科手術システムがモデル体積に対応する物理的な体積内でのみトレースし、入力し、操作し、または物理的な体積外でのみ操作することを可能とする。
外科医は、外科処置中のナビゲーション及び方針決定において補助するために、患者の解剖学的構造に対する外科器具の位置の視覚化から利益を得る。外科器具の終点が、ロボット座標システムの原点に対して予め画定された位置を有するとき、終点は、ロボットアームの位置を使用するロボット座標システムと医用画像データ座標システムとの間の座標マッピングを有する医用画像データ座標システム内の位置に変換され得る。ある実施形態において、終点は、ロボットアームの位置を提示するために使用される。ある実施形態において、全ての外科器具は、ロボットアームに取り付けられるとき、同じ終点を有する。終点を医用画像データ座標システム内に表すために変換後、終点は、患者の解剖学的構造のモデルに対して描かれ得、物理的な空間における終点と患者の解剖学的構造との間の距離を正確に反映する。これを使用して、レンダリングデータが生成され、表示されるとき、終点(及び、任意で、外科器具)及び患者の解剖学的構造のモデルの表現を示す。そのため、外科器具及び患者解剖学的構造に対するその位置の視覚化は、外科器具に取り付けられたナビゲーションマーカーを使用することなく、及び画像認識テクニックを使用することなく、作製され得る。
レンダリングデータは、ロボット外科手術システムの一部であるスクリーンまたは手術室内外から見ることが可能なスクリーン上で表示され得る。スクリーンは、ロボットアームに取り付けられ得る。レンダリングデータは、ディスプレイをリアルタイムで、または実質的にリアルタイム(すなわち、患者のビデオフィードとして作用する)でリフレッシュするために更新され得る。終点及び/または外科器具の表現は、患者の解剖学的構造のモデルの表現の上に及び/または手術前もしくは手術中に撮られた医用画像の上に重ねられ得る。ディスプレイ上の終点の位置は、ロボットアームの位置が調整されるときに更新されるであろう。
図9は、位置合わせ及び/または再位置合わせにおいて使用され得る例示的な基準マーカーを示す。基準マーカーは、方向部材の異なる面を横切って分配されたくぼみを有する。ここで、方向部材は、立方体である。基準マーカーの取り付け部材は、脊椎の棘突起に取り付けられるが、患者の解剖学的構造のいずれの所望のポイントに取り付けられるように等しく適合され得る。外科医が、本明細書に記載された触覚フィードバック接触方法を使用して方向ポイント(すなわち、くぼみ)に接触するとき、座標マッピングは、方向ポイントが患者の解剖学的構造に対して画定された空間的関係を有する場合に生成され得る。
下記は、椎弓切除を実行するための例示的な外科方法の説明であるが、本方法は他の種類の体積除去手術にも容易に適用され得ることが理解される。加えて、この例示的方法において論じられたステップの多くは、体積除去を含まない、または体積除去以外の外科的転帰を含む外科処置に適用可能である。外科方法の態様が、図14~35において示される。
図14は、ロボットベースナビゲーションを使用して椎弓切除を実行するために使用され得る例示的なロボット外科手術システムを示す。図15は、例えば、ディスプレイ上に表示された患者の解剖学的構造のモデルを使用して患者の解剖学的構造の手術可能な体積を識別するために、手術前計画のために外科医により使用され得る例示的なナビゲーションディスプレイを示す。図16は、分節された脊椎が椎弓切除の箇所である、追加の例示的なナビゲーションディスプレイを示す。手術前計画を使用して、除去される初期体積を、患者の解剖学的構造のモデル内で識別する。初期体積を、図17において水色で識別する。図18は、リアルタイムのフィードバックを受信するためにロボット外科手術システムを使用する外科医を示す。リアルタイムフィードバックは、ロボット外科手術システムに取り付けられた外科器具からの触覚フィードバック及びロボットアームに取り付けられたナビゲーションスクリーン上の視覚フィードバックを備える。
図19~24は、患者をロボット外科手術システムに位置合わせしている外科医を示す。図19~22は、患者が位置合わせされる間のナビゲーションディスプレイの画面を示す。ナビゲーションは、患者の解剖学的構造及び外科器具の表現を合わせる医用画像データの2つの視点を示す。これらの図において、外科器具は、患者の解剖学的構造(すなわち、患者の脊椎)のポイントに接している。図23及び24は、位置合わせ中に一組の空間座標を生成するために患者の解剖学的構造に接触する様々なステージにおける外科器具及びロボットアームを示す。
図25は、脊椎の棘突起を手動で除去している外科医を示す。体積除去は、手動または外科器具を有して実行され得る。加えて、体積除去は、外科医によってガイドされるのみで(すなわち、手術可能な体積を画定することなく)自由に実行され得る。椎弓切除の場合、棘突起は重要ではなく、患者の解剖学的構造の傷つきやすい部分の近くでもない、そのため手動の除去で十分である。図26~27は、一組の空間座標を生成するために複数のポイントにおいて患者の解剖学的構造に接触することによって患者の解剖学的構造のモデルを更新するプロセス中の外科医を示す。図26~27において示されるプロセス中に生成された一組の空間座標が、以前患者の解剖学的構造の内部ポイントであったポイント用の空間座標を含むはずであるため、患者の解剖学的構造モデルがそれに従って更新され得る。図28は、中間の青色で協調された新しい表面の近くのモデルの領域を有する、更新された解剖学的構造モデルを示す。
図29は、患者の再位置合わせをするプロセス中の外科医を示す。外科医は、任意のポイントで患者の解剖学的構造に接触することができる。良好な再位置合わせをするために、特定のポイントで患者に接触する必要は無い。例示的な方法の場合、再位置合わせは、棘突起の除去を反映するために更新された患者のモデルに基づき実行されるであろう。図30及び31は、再位置合わせプロセス中の外科医によって見られたナビゲーションディスプレイを示す。外科医は、位置合わせが正確であるか追加のチェックを提供するために患者の骨に接触している外科器具を見ることができる。例えば、外科医が外科器具で患者の解剖学的構造に物理的に接触しているのに、ナビゲーションディスプレイが患者の解剖学的構造の表面に外科器具の終点を示さない場合、外科医は、外科方法を進める前に再位置合わせが必要であることがわかる。
図32は、手術可能な体積内で外科器具を操作している外科医を示す。外科器具は、周囲体積に対するリスクを無くし、手術可能な体積内の体積を除去するために使用され得る。椎弓切除の間、外科医は、脊髄の神経に近接して手術を行うため、精度は外科的転帰にとって重要である。外科医が手術可能な体積の境界に達する場合、ロボットアームがさらなる移動を防止し、触覚フィードバックが、境界から離れ、また内部へ向けなおすために外科医に信号を送るであろう。図33は、例示的な方法における体積除去中に外科医が使用するナビゲーションディスプレイを示す。外科医は、外科器具ならびにその終点、患者の解剖学的構造をモデリングする医用画像データ、及び現在の処置の手術可能な体積の表現を見ることができる。外科医は、元の手術可能な体積がどこかで不十分または不完全であると判定される場合、手術可能な体積を手術中に再度画定するためにこれを使用することができる。終点及び手術可能な体積のオーバーレイもまた、位置合わせが正確であるという外科医用視覚チェックを提供する。外科医が触覚フィードバックを感じているのに、終点が手術可能な体積内に現れる場合、手術可能な体積は再度画定される必要があり、及び/または患者が再位置合わせされる必要がある。
図34及び35は、椎弓切除完了後の患者の脊椎を示す。必要な体積を除去する。体積除去中にロボット外科手術システムの使用と組み合わせて手術可能な体積を使用することによって、体積除去は、既知のテクニックを有する同様の体積除去に比べて明らかにより早く行われ得る。例えば、ある実施形態において、椎弓切除の体積除去は、概して30分以上かかる以前の既知のテクニックと比較すると、5分以下で行う。
本明細書において記載された外科方法が例示であることが理解される。多くの外科処置は、患者の解剖学的構造と外科器具との良好に画定された空間的関係、と同様に外科器具の移動を制限する手術体積を必要とする。他の整形外科及び非整形外科方法は、本明細書に記載された方法の統合を容易に適合される。ロボットベースナビゲーションシステム及び方法を使用することが考えられる他の外科手術は、これらに限定することはないが、整形外科処置、ENT処置、及び神経外科処置を含む。このような処置が、開放型、経皮、侵襲性外科(MIS)方法を使用して実行され得ることが、当業者によって容易に理解される。また本明細書において記載された関連する座標システムを使用して座標及び/または体積を判定するためのいずれの方法も、本明細書において記載されたいずれの外科方法において使用され得るということが理解される。
図36は、本明細書に記載された方法及びシステムにおいて使用するための例示的なネットワーク環境3600を示す。概略において、図36を参照すると、例示的なクラウド計算環境3600のブロック図が、示され、記載される。クラウド計算環境3600は、1つ以上のリソースプロバイダ3602a、3602b、3602c(集合的に、3602)を含み得る。各リソースプロバイダ3602は、計算リソースを含み得る。いくつかの実装において、計算リソースは、データを処理するために使用された任意のハードウェア及び/またはソフトウェアを含み得る。例えば、計算リソースは、アルゴリズム、計算プログラム、及び/または計算アプリケーションを実行することが可能なハードウェア及び/またはソフトウェアを含み得る。いくつかの実装において、例示的な計算リソースは、アプリケーションサーバ及び/または記憶及び検索能力を備えるデータベースを含み得る。各リソースプロバイダ3602は、クラウド計算環境3600内で任意の他のリソースプロバイダ3602に接続され得る。いくつかの実装において、リソースプロバイダ3602は、コンピュータネットワーク3608上で接続され得る。各リソースプロバイダ3602は、コンピュータネットワーク3608上で1つ以上の計算デバイス3604a、3604b、3604c(集合的に、3604)に接続され得る。
クラウド計算環境3600は、リソースマネジャ3606を含み得る。リソースマネジャ3606は、コンピュータネットワーク3608上でリソースプロバイダ3602及び計算デバイス3604に接続され得る。いくつかの実装において、リソースマネジャ3606は、1つ以上のリソースプロバイダ3602によって1つ以上の計算デバイス3604への計算リソースの提供を促進し得る。リソースマネジャ3606は、特定の計算デバイス3604からの計算リソースに対するリクエストを受信し得る。リソースマネジャ3606は、計算デバイス3604によってリクエストされた計算リソースを提供することができる1つ以上のリソースプロバイダ3602を識別し得る。リソースマネジャ3606は、計算リソースを提供するためにリソースプロバイダ3602を選択し得る。リソースマネジャ3606は、リソースプロバイダ3602と特定の計算デバイス3604との接続を促進し得る。いくつかの実装において、リソースマネジャ3606は、特定のリソースプロバイダ3602と特定の計算デバイス3604との接続を確立し得る。いくつかの実装において、リソースマネジャ3606は、リクエストされた計算リソースを有する特定のリソースプロバイダ3602に特定の計算デバイス3604をリダイレクトすることができる。
図37は、本開示において記載された方法及びシステムにおいて使用され得る計算デバイス3700及び移動式計算デバイス3750の実施例を示す。計算デバイス3700は、ラップトップ、デスクトップ、ワークステーション、携帯情報端末、サーバ、ブレードサーバ、メインフレーム、及び他の適切なコンピュータなどの、様々な形態のデジタルコンピュータを提示するように意図される。移動式計算デバイス3750は、携帯情報端末、携帯電話、スマートフォン、及び他の同様の計算デバイスなどの、様々な形態の移動式デバイスを提示するように意図される。ここで示される構成部品、それらの接続ならびに関係、及びそれらの機能は、単に例にすぎず、これらに限定することを意味するものではない。
計算デバイス3700は、プロセッサ3702、メモリ3704、記憶デバイス3706、メモリ3704及び多重高速拡張ポート3710に接続する高速インターフェース3708、及び低速拡張ポート3714及び記憶デバイス3706に接続する低速インターフェース3712を含む。各プロセッサ3702、メモリ3704、記憶デバイス3706、高速インターフェース3708、高速拡張ポート3710、及び低速インターフェース3712は、様々なバスを使用して相互接続され、共通のマザーボードまたは他の適切な方法で搭載され得る。プロセッサ3702は、高速インターフェース3708に結合されたディスプレイ3716などの外部入/出力デバイス上のGUIのための図式情報を表示するために、メモリ内3704または記憶デバイス3706上に記憶された命令を含む、計算デバイス3700内で実行するための命令を処理することができる。他の実装において、多重プロセッサ及び/または多重バスが、多重メモリ及びメモリの種類に沿って適切に使用され得る。また、多重計算デバイスは、必要な動作(例えば、サーババンク、ブレードサーバのグループ、または多重プロセッサシステムとしての)の一部を提供する各デバイスと接続され得る。
メモリ3704は、計算デバイス3700内で情報を記憶する。いくつかの実装において、メモリ3704は、揮発性メモリユニットまたは複数のユニットである。いくつかの実装において、メモリ3704は、不揮発性メモリユニットまたは複数のユニットである。メモリ3704はまた、磁気または光学ディスクなどの、コンピュータ可読媒体の別の形態となり得る。
記憶デバイス3706は、計算デバイス3700用の大容量記憶装置を提供することが可能である。いくつかの実装において、記憶デバイス3706は、フロッピー(登録商標)ディスクデバイス、ハードディスクデバイス、光学ディスクデバイス、またはテープデバイス、フラッシュメモリもしくは他の類似の固体メモリデバイス、または記憶領域ネットワークまたは他の構成におけるデバイスを含む、デバイスの配列など、コンピュータ可読媒体となり得、またはそれを収容し得る。命令は、情報担体内に記憶され得る。命令は、1つ以上の処理デバイス(例えば、プロセッサ3702)によって実行されるとき、上記で記載されたような、1つ以上の方法を実行する。命令はまた、コンピュータ可読媒体、または機械可読媒体(例えば、メモリ3704、記憶デバイス3706、またはプロセッサ3702上のメモリ)などの1つ以上の記憶デバイスによって記憶され得る。
高速インターフェース3708は、計算デバイス3700のための帯域集中操作を管理し、一方で低速インターフェース3712は、より低い帯域集中操作を管理する。このような機能の配分は、単に実施例である。いくつかの実装において、高速インターフェース3708は、メモリ3704、ディスプレイ3716(例えば、図式プロセッサまたはアクセラレータ)、及び様々な拡張カード(図示せず)を受容し得る、高速拡張ポート3710に結合される。実装において、低速インターフェース3712は、記憶デバイス3706及び低速拡張ポート3714に結合される。様々な通信ポート(例えば、USB、ブルートゥース(登録商標)、イーサネット(登録商標)、無線イーサネット(登録商標))を含み得る低速拡張ポート3714は、キーボード、ポインティングデバイス、スキャナなどの1つ以上の入/出力デバイス、またはスイッチもしくはルータなどの、例えばネットワークアダプタを通る1つのネットワークデバイスと結合され得る。
計算デバイス3700は、図で示されるように多くの異なる形態において実装され得る。例えば、標準サーバ3720、またはそのようなサーバの一群において多数実装され得る。加えて、ラップトップコンピュータ3722などのパソコンにも実装され得る。またラックサーバシステム3724の一部としても実装され得る。代替的に、計算デバイス3700からの構成部品は、移動式計算デバイス3750などの、移動式デバイス(図示せず)内の他の構成部品とも組み合わせられ得る。そのようなデバイスの各々は、1つ以上の計算デバイス3700及び移動式計算デバイス3750を収容し得、システム全体が、互いに通信する多くの計算デバイスで構成され得る。
移動式計算デバイス3750は、プロセッサ3752、メモリ3764、ディスプレイ3754などの入/出力デバイス、通信インターフェース3766、及び他の構成部品の間のトランシーバ3768を含む。移動式計算デバイス3750はまた、付加的な記憶装置を提供するために、マイクロドライブまたは他のデバイスなどの、記憶デバイスを備えることができる。プロセッサ3752、メモリ3764、ディスプレイ3754、通信インターフェース3766、及びトランシーバ3768の各々は、様々なバスを使用して相互接続され、いくつかの構成部品は、共通のマザーボードまたは他の適切な方法で搭載され得る。
プロセッサ3752は、メモリ内3764内に記憶された命令を含む、移動式計算デバイス3750内で命令を実行することができる。プロセッサ3752は、別の多くのアナログ及びデジタルプロセッサを含むチップのチップセットとして実装され得る。プロセッサ3752は、例えば、ユーザインターフェース、移動式計算デバイス3750によって動作するアプリケーション、及び移動式計算デバイス3750による無線通信など、移動式計算デバイス3750の他の構成部品の調整のために提供され得る。
プロセッサ3752は、制御インターフェース3758及びディスプレイ3754に結合されたディスプレイインターフェース3756を通してユーザと通信し得る。ディスプレイ3754は、例えば、TFT(Thin-Film-Transistor Liquid Crystal Display)ディスプレイまたはOLED(Organic Light Emitting Diode)ディスプレイ、または他の適切なディスプレイ技術となり得る。ディスプレイインターフェース3756は、ユーザに図式及び他の情報を提示するためにディスプレイ3754を駆動するための適切な回路を備え得る。制御インターフェース3758は、ユーザからのコマンドを受信し、それらをプロセッサ3752へ提出するために変換し得る。加えて、外部インターフェース3762は、プロセッサ3752との通信を提供し得、移動式計算デバイス3750の他のデバイスとの近距離通信を可能とする。外部インターフェース3762は、例えば、いくつかの実装における有線通信のため、または他の実装における無線通信のために提供し得、及び多重インターフェースもまた使用され得る。
メモリ3764は、移動式計算デバイス3750内部の情報を記憶する。メモリ3764は、コンピュータ可読媒体、揮発性メモリユニットもしくは複数のユニット、または不揮発性メモリユニットもしくは複数のユニットのうちの1つ以上として実装され得る。拡張メモリ3774もまた、例えば、SIMM(Single In Line Memory Module)カードインターフェースを含み得る、拡張インターフェース3772を通して移動式計算デバイス3750に提供され、接続され得る。拡張メモリ3774は、移動式計算デバイス3750のための予備の記憶空間を提供し得、または移動式計算デバイス3750のためのアプリケーションもしくは他の情報を記憶し得る。特に、拡張メモリ3774は、上記に記載されたプロセスを実行または補完するための命令を含み得、また安全情報を含み得る。そのため、例えば、拡張メモリ3774は、移動式計算デバイス3750のためのセキュリティモジュールとして提供され得、移動式計算デバイス3750の使用の安全性を認める命令をプログラムされ得る。加えて、安全アプリケーションが、追加の情報、ハック不可方式でSIMMカード上に識別情報を配置することなどと共に、SIMMカードを介して提供され得る。
メモリは、下記で論じられるように、例えば、フラッシュメモリ及び/またはNVRAMメモリ(不揮発性ランダムアクセスメモリ)を含み得る。いくつかの実装において、命令は、情報キャリア内に記憶され、1つ以上の処理デバイス(例えば、プロセッサ3752)によって実行されるとき、上記で記述されたような、1つ以上の方法を実行する。命令はまた、1つ以上のコンピュータ可読媒体または機械可読媒体(例えば、メモリ3764、拡張メモリ3774、またはプロセッサ3752上のメモリ)など、1つ以上の記憶デバイスによって記憶され得る。いくつかの実装において、命令は、例えば、トランシーバ3768または外部インターフェース3762上で、伝搬信号で受信され得る。
移動式計算デバイス3750は、必要な場合にデジタル信号処理回路を含み得る、通信インターフェース3766を通して無線で通信し得る。通信インターフェース3766は、GSM(登録商標)ボイスコール(移動式通信のためのGlobal System)、SMS(Short Message Service)、EMS(Enhanced Messaging Service)、またはMMSメッセージ(Multimedia Messaging Service)、CDMA(符号分割多重アクセス)、TDMA(時分割多重アクセス)、PDC(Personal Digital Cellular)、WCDMA(登録商標)(Wideband Code Division Multiple Access)、CDMA2000、またはGPRS(General Packet Radio Service)、他、などの様々なモードまたはプロトコル下での通信を提供し得る。このような通信は、例えば、無線周波数を使用してトランシーバ3768を通して発生し得る。加えて、短距離通信も、Bluetooth(登録商標)、Wi-Fi(登録商標)、または他のこのようなトランシーバ(図示せず)を使用して、発生し得る。加えて、GPS(Global Positioning System)受信モジュール3770は、移動式計算デバイス3750に付加的なナビゲーションに関する無線データ及び配置に関する無線データを提供し得、これは移動式計算デバイス3750上で動作しているアプリケーションによって適切に使用され得る。
移動式計算デバイス3750はまた、オーディオコーデック3760を使用して音声認識しながら通信し得、これはユーザからの口頭の情報を受信し、それを使用可能なデジタル情報に変換し得る。オーディオコーデック3760は、例えば、移動式計算デバイス3750のハンドセットをしている、話し手を通してなど、ユーザ用の可聴音を同じように生成し得る。このような音声は、音声電話からの音声を含み得、録音された音声(例えば、ボイスメッセージ、音楽ファイルなど)を含み得、また移動式計算デバイス3750上で動作するアプリケーションによって生成された音声を含み得る。
移動式計算デバイス3750は、図において示されるように、たくさんの異なる形態で実装され得る。例えば、携帯電話3780として実装され得る。またスマートフォン3782、携帯情報端末、または他の類似の移動式デバイスの一部として実装され得る。
ここで記載されたシステム及びテクニックの様々な実装は、デジタル電子回路、集積回路、特別設計ASIC(特定用途集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/またはそれらの組み合わせにおいて実現され得る。これらの様々な実装は、少なくとも1つのプログラム可能なプロセッサを含むプログラム可能なシステム上で実行可能及び/または解釈可能な1つ以上のコンピュータプログラムにおける実装を含むことができ、これは記憶システム、少なくとも1つの入力デバイス、及び少なくとも1つの出力デバイスからデータならびに命令を受信するため、及び送信するために結合され、特別なまたは汎用となり得る。
これらのコンピュータプログラム(またプログラム、ソフトウェア、ソフトウェアアプリケーション、またはコードとして既知である)は、プログラム可能なプロセッサ用の機械命令を含み、高水準手続き型及び/またはオブジェクト志向プログラミング言語、及び/またはアセンブリ/機械言語において実装され得る。本明細書で使用されるように、用語、機械可読及びコンピュータ可読媒体は、機械命令を機械可読シグナルとして受信する機械可読媒体を含む、プログラム可能なプロセッサに機械命令及び/またはデータを提供するために使用された、いずれのコンピュータプログラム製品、装置及び/またはデバイス(例えば、磁気ディスク、光学ディスク、メモリ、プログラム可能なロジックデバイス(PLD))のことを指す。用語、機械可読信号は、プログラム可能なプロセッサに機械命令及び/またはデータを提供するために使用されたいずれの信号のことを指す。
ユーザとの相互作用を提供するために、ここに記載されたシステム及びテクニックは、ユーザに情報を表示するための表示デバイス(例えば、CRT(陰極線管)またはLCD(液晶ディスプレイ)モニタ)、及びそれによってユーザがコンピュータへの入力を提供することができるキーボードならびにポインティングデバイス(例えば、マウスまたはトラックボール)を有するコンピュータ上に実装され得る。他の種類のデバイスも同様に、ユーザとの相互作用を提供するために使用され得、たとえば、ユーザに提供されたフィードバックは、いずれの形態の感覚フィードバック(例えば、視覚フィードバック、聴覚フィードバック、または触覚フィードバック)となり得、ユーザからの入力は、音、スピーチ、または触覚入力を含む任意の形態で受信され得る。
ここに記載されたシステム及びテクニックは、バックエンド構成部品(例えば、データサーバとして)を含む、またはミドルウェア構成部品(例えば、アプリケーション、サーバ)を含む、またはフロントエンド構成部品(例えば、ユーザがここに記載されたシステム及びテクニックの実装とこれを通して相互作用することができる、図式ユーザインターフェースまたはウエブブラウザを有するクライアントコンピュータ)を含む、またはこのようなバックエンド、ミドルウェア、またはフロントエンド構成部品の組み合わせを含む計算システム内に実装され得る。システムの構成部品は、デジタルデータ通信(例えば、通信ネットワーク)の任意の形態または媒体によって相互接続され得る。通信ネットワークの実施例は、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、及びインターネットを含む。
計算システムは、クライアント及びサーバを含むことができる。クライアント及びサーバは、互いに概して離れており、通信ネットワークを通して典型的に相互作用する。クライアント及びサーバの関係は、それぞれのコンピュータ上で動作し、互いにクライアント-サーバ関係を有するコンピュータプログラムのおかげで成り立つ。
本発明のある実施形態が、上記に記載された。しかしながら、本発明は、それらの実施形態に限定するものではなく、本明細書に明示的に記載されたことへの追加及び修正はまた本発明の範囲内に含まれることが意図されるということが明示的に理解される。さらに、本明細書に記載された様々な実施形態の特性は、互いに排他的ではなく、例えばそのような組み合わせまたは配置が本明細書において明示されなくとも、本発明の趣旨及び範囲から逸脱することなく様々な組み合わせ及び配置で存在することができる。実際に、本明細書に記載されたことの変化、修正、及び他の実装が、本発明の趣旨及び範囲から逸脱することなく同業者が気づくであろう。このように、本発明は、前述の例示的な説明によってのみ定義されるものではない。
ロボット外科手術システムのロボットナビゲーションのための方法及び装置のある実装を説明すると、同業者には本発明のコンセプトを組み込む他の実装が使用され得るということが明らかとなるであろう。したがって、開示は、ある実装に限定されるべきではなく、むしろ下記請求項の趣旨及び範囲によってのみ限定されるべきである。

Claims (8)

  1. 処置中の患者の位置のリアルタイムで動的な再位置合わせのためのロボットベースのナビゲーションシステムであって、
    (a)ロボットアームであって、
    (i)エンドエフェクタと、
    (ii)前記エンドエフェクタの位置を動的に追跡するための位置センサ、および前記エンドエフェクタを操作しているユーザに触覚を届けるための力フィードバックサブシステムとを備え、
    前記力フィードバックサブシステムは、後述の(I)~(IV):(I)前記患者の組織に接触し、抗して移動し、貫通し、及び/または中で移動する外科器具によって引き起こされた抵抗力を検出すること、(II)接触された組織の種類を識別すること、(III)操作者によって届けられた力を検出すること、及び(IV)前記操作者によって届けられた前記力と、前記患者の前記組織に対する前記外科器具の移動によってもたらされた前記抵抗力とを識別すること、のうちの1つ以上を実行するための1つ以上のセンサを備える、ロボットアームと、
    (b)ディスプレイであって、前記ディスプレイが、使用中に前記ディスプレイを制御するためのタッチセンサを有するディスプレイと、
    (c)一組の命令を実行するようにプログラムされた計算デバイスのプロセッサと、を備え、前記一組の命令が、
    (i)初期の前記患者の状態の3D表現である3D図式表現及び/または3D触覚表現であって、前記3D図式表現が前記3D触覚表現と同じまたは異なる、前記患者の位置の初期位置合わせにアクセスすることと、
    (ii)前記エンドエフェクタの位置を動的に判定し、前記エンドエフェクタによって受容された力及び/または前記エンドエフェクタに届けられる力を動的に判定することと、
    (iii)前記エンドエフェクタを動的に追跡するために前記ロボットアームの前記位置センサの位置を動的に判定することと、
    (iv)前記位置センサによって判定された前記エンドエフェクタの更新された位置に少なくとも一部基づいて、前記患者の位置を動的に再位置合わせすることと、
    (v)前記ディスプレイ上で見るために前記再位置合わせされた患者の位置を図式的にレンダリングすることと、
    (vi)前記再位置合わせされた患者の位置に少なくとも一部基づいて、前記力フィードバックサブシステムを介して、前記操作者に届けるための力フィードバックを動的に判定することと、を行うためのものである、システム。
  2. 患者の解剖学的構造を器具と位置合わせするためのロボット外科手術システムであって、前記器具が、前記ロボット外科手術システムのロボットアームのエンドエフェクタに取り付けられており、前記システムが
    エンドエフェクタを備え、そこに器具を取り付けたロボットアームと、
    前記ロボットアームに直接または間接的に取り付けられた力センサと、
    プロセッサ及び内部に命令を記憶させたメモリと、を備え、前記命令が、前記プロセッサによって実行されたとき前記プロセッサに、
    前記エンドエフェクタの移動によって促された、前記力センサからの触覚フィードバックを受信することと、
    前記触覚フィードバックが、前記器具の、材料との接触に対応することを判定することと、
    一組の空間座標を判定することであって、前記一組の空間座標が、ロボット座標システムを使用して表された、前記器具の前記材料との各接触についての空間座標を含み、各空間座標が、解剖学的構造体積の表面上のポイントに対応する、判定することと、
    患者の解剖学的構造の表面に対応する医用画像データ座標システムを使用して表された一組の医用画像データ座標を判定することと、
    前記一組の空間座標に対応する前記表面を、前記一組の医用画像データ座標に対応する前記患者の解剖学的構造の表面にマッピングすることと、
    前記一組の空間座標に対応する前記表面と、前記一組の医用画像データ座標に対応する前記表面との間の前記マッピングに基づいて、前記ロボット座標システムと前記医用画像データ座標システムとの間の座標マッピングを生成することと、
    前記座標マッピングを記憶し、それにより前記患者の解剖学的構造を位置合わせすることと、を行わせる、ロボット外科手術システム。
  3. 前記命令が、前記プロセッサによって実行されたとき、前記プロセッサに、
    ディスプレイ用のレンダリングデータを出力させ、前記レンダリングデータが、部材の位置及び前記座標マッピングに基づく医用画像データの少なくとも一部の表現に対応し、前記部材が、前記エンドエフェクタ、前記器具、及び外科器具からなる群から選択される、請求項2に記載のシステム。
  4. 前記命令が、前記プロセッサによって実行されたとき、前記プロセッサに、
    前記エンドエフェクタの位置の変更に基づいて前記レンダリングデータを修正することによって新しいレンダリングデータを生成することと、
    前記新しいレンダリングデータをディスプレイ用に出力することと、を行わせる、請求項3に記載のシステム。
  5. 基準マーカーが、前記材料を含む、請求項2に記載のシステム。
  6. 前記ロボットアームが、能動的であり、逆駆動不可能である、請求項2に記載のシステム。
  7. 前記ロボット外科手術システムが、前記プロセッサを備える、請求項2に記載のシステム。
  8. 前記命令が、前記プロセッサによって実行されたとき、前記プロセッサに、
    患者の解剖学的構造モデルを記憶させ、前記患者の解剖学的構造モデルが、前記ロボット座標システムにおいて表された前記患者の解剖学的構造表面によって画定される、請求項2に記載のシステム。
JP2018005533A 2017-01-18 2018-01-17 ロボット外科手術システムのロボットナビゲーション Active JP7233841B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201762447884P 2017-01-18 2017-01-18
US62/447,884 2017-01-18

Publications (2)

Publication Number Publication Date
JP2018126498A JP2018126498A (ja) 2018-08-16
JP7233841B2 true JP7233841B2 (ja) 2023-03-07

Family

ID=62838598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018005533A Active JP7233841B2 (ja) 2017-01-18 2018-01-17 ロボット外科手術システムのロボットナビゲーション

Country Status (3)

Country Link
US (4) US10420616B2 (ja)
EP (1) EP3360502A3 (ja)
JP (1) JP7233841B2 (ja)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8332072B1 (en) 2008-08-22 2012-12-11 Titan Medical Inc. Robotic hand controller
US10532466B2 (en) * 2008-08-22 2020-01-14 Titan Medical Inc. Robotic hand controller
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
CN109952070B (zh) 2016-10-05 2022-02-01 纽文思公司 手术导航系统及相关方法
US10987808B1 (en) * 2016-12-14 2021-04-27 The Board Of Trustees Of The Leland Stanford Junior University Systems and methods for providing a control solution for an actuator
US10568701B2 (en) * 2016-12-19 2020-02-25 Ethicon Llc Robotic surgical system with virtual control panel for tool actuation
JP7233841B2 (ja) 2017-01-18 2023-03-07 ケービー メディカル エスアー ロボット外科手術システムのロボットナビゲーション
US11071594B2 (en) 2017-03-16 2021-07-27 KB Medical SA Robotic navigation of robotic surgical systems
AU2018265160B2 (en) 2017-05-10 2023-11-16 Mako Surgical Corp. Robotic spine surgery system and methods
US11033341B2 (en) 2017-05-10 2021-06-15 Mako Surgical Corp. Robotic spine surgery system and methods
US10588644B2 (en) * 2017-08-31 2020-03-17 DePuy Synthes Products, Inc. Guide attachment for power tools
US10603118B2 (en) * 2017-10-27 2020-03-31 Synaptive Medical (Barbados) Inc. Method for recovering patient registration
US20190175061A1 (en) * 2017-12-11 2019-06-13 Covidien Lp Systems, methods, and computer-readable media for non-rigid registration of electromagnetic navigation space to ct volume
US11234775B2 (en) 2018-01-26 2022-02-01 Mako Surgical Corp. End effectors, systems, and methods for impacting prosthetics guided by surgical robots
US11123139B2 (en) 2018-02-14 2021-09-21 Epica International, Inc. Method for determination of surgical procedure access
US10751127B2 (en) * 2018-02-14 2020-08-25 Warsaw Orthopedic, Inc. Spinal implant system and methods of use
EP3810013A1 (en) * 2018-06-19 2021-04-28 Tornier, Inc. Neural network for recommendation of shoulder surgery type
US11298186B2 (en) 2018-08-02 2022-04-12 Point Robotics Medtech Inc. Surgery assistive system and method for obtaining surface information thereof
US11789099B2 (en) * 2018-08-20 2023-10-17 Children's Hospital Medical Center System and method for guiding an invasive device
US11497566B2 (en) * 2018-10-26 2022-11-15 Biosense Webster (Israel) Ltd. Loose mode for robot
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US10939977B2 (en) 2018-11-26 2021-03-09 Augmedics Ltd. Positioning marker
FR3092984A1 (fr) * 2019-02-25 2020-08-28 Fondation B-Com Procédé et dispositif d’assistance à la manipulation d’un instrument médical par un utilisateur
US11608148B2 (en) * 2019-04-05 2023-03-21 Fmc Technologies, Inc. Submersible remote operated vehicle tool change control
WO2020207583A1 (en) * 2019-04-10 2020-10-15 Brainlab Ag Method of sampling relevant surface points of a subject
US20210030511A1 (en) 2019-07-29 2021-02-04 Augmedics Ltd. Fiducial marker
US20210039262A1 (en) * 2019-08-09 2021-02-11 Medtech S.A. Robotic controls for a surgical robot
US11612440B2 (en) 2019-09-05 2023-03-28 Nuvasive, Inc. Surgical instrument tracking devices and related methods
JP7444569B2 (ja) * 2019-09-18 2024-03-06 ザイオソフト株式会社 鏡視下手術支援装置、鏡視下手術支援方法、及びプログラム
EP3811889A1 (en) * 2019-10-24 2021-04-28 Point Robotics Medtech Inc. Surgery assistive system for obtaining surface information
CN112971982B (zh) * 2019-12-12 2022-08-19 珠海横乐医学科技有限公司 基于肝内血管配准的手术导航系统
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
WO2021130670A1 (en) * 2019-12-23 2021-07-01 Mazor Robotics Ltd. Multi-arm robotic system for spine surgery with imaging guidance
CN111227945B (zh) * 2020-02-13 2021-08-27 京东方科技集团股份有限公司 用于整形手术平台的机器人系统和整形手术平台
WO2021186217A1 (en) * 2020-03-19 2021-09-23 Stryker European Holdings I, Llc Computer assisted surgery device having a robot arm and method for operating the same
JP2021153773A (ja) * 2020-03-26 2021-10-07 株式会社メディカロイド ロボット手術支援装置、手術支援ロボット、ロボット手術支援方法、及びプログラム
US11389252B2 (en) 2020-06-15 2022-07-19 Augmedics Ltd. Rotating marker for image guided surgery
US20220215578A1 (en) * 2021-01-07 2022-07-07 Mazor Robotics Ltd. Systems and methods for single image registration update
CN113040908B (zh) * 2021-02-02 2022-03-25 武汉联影智融医疗科技有限公司 手术导航的配准方法、装置、计算机设备和存储介质
US11819302B2 (en) 2021-03-31 2023-11-21 Moon Surgical Sas Co-manipulation surgical system having user guided stage control
US11832909B2 (en) 2021-03-31 2023-12-05 Moon Surgical Sas Co-manipulation surgical system having actuatable setup joints
WO2022208414A1 (en) 2021-03-31 2022-10-06 Moon Surgical Sas Co-manipulation surgical system for use with surgical instruments for performing laparoscopic surgery
US11844583B2 (en) 2021-03-31 2023-12-19 Moon Surgical Sas Co-manipulation surgical system having an instrument centering mode for automatic scope movements
US11812938B2 (en) 2021-03-31 2023-11-14 Moon Surgical Sas Co-manipulation surgical system having a coupling mechanism removeably attachable to surgical instruments
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
CN114137955B (zh) * 2021-10-26 2023-04-28 中国人民解放军军事科学院国防科技创新研究院 基于改进市场法的多机器人快速协同建图方法
US20220222835A1 (en) * 2022-02-06 2022-07-14 Real Image Technology Co., Ltd Endoscopic image registration
CN114948203B (zh) * 2022-05-31 2023-11-14 杭州键嘉医疗科技股份有限公司 一种可以远程调用机械臂控制功能的方法及电子设备
US11832910B1 (en) 2023-01-09 2023-12-05 Moon Surgical Sas Co-manipulation surgical system having adaptive gravity compensation
CN116672082B (zh) * 2023-07-24 2024-03-01 苏州铸正机器人有限公司 一种手术导航标尺的导航配准方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008237784A (ja) 2007-03-29 2008-10-09 Univ Waseda 病変部位の位置特定システム
JP2008538184A (ja) 2005-02-22 2008-10-16 マコ サージカル コーポレーション 触覚誘導システムおよび方法
US20160151120A1 (en) 2014-12-02 2016-06-02 KB Medical SA Robot Assisted Volume Removal During Surgery

Family Cites Families (585)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3004121A (en) 1958-09-10 1961-10-10 Bendix Corp Electrical relay
US3046057A (en) 1960-05-27 1962-07-24 Francis M Smetko Head rest for seat backs
DE2614083B2 (de) 1976-04-01 1979-02-08 Siemens Ag, 1000 Berlin Und 8000 Muenchen Röntgenschichtgerät zur Herstellung von Transversalschichtbildern
US5354314A (en) 1988-12-23 1994-10-11 Medical Instrumentation And Diagnostics Corporation Three-dimensional beam localization apparatus and microscope for stereotactic diagnoses or surgery mounted on robotic type arm
US5246010A (en) 1990-12-11 1993-09-21 Biotrine Corporation Method and apparatus for exhalation analysis
US5417210A (en) 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US6963792B1 (en) 1992-01-21 2005-11-08 Sri International Surgical method
US5631973A (en) 1994-05-05 1997-05-20 Sri International Method for telemanipulation with telepresence
US5657429A (en) 1992-08-10 1997-08-12 Computer Motion, Inc. Automated endoscope system optimal positioning
US5397323A (en) 1992-10-30 1995-03-14 International Business Machines Corporation Remote center-of-motion robot for surgery
DE69417229T2 (de) 1993-05-14 1999-07-08 Stanford Res Inst Int Chirurgiegerät
JP3378401B2 (ja) 1994-08-30 2003-02-17 株式会社日立メディコ X線装置
US6646541B1 (en) 1996-06-24 2003-11-11 Computer Motion, Inc. General purpose distributed operating room control system
US6978166B2 (en) 1994-10-07 2005-12-20 Saint Louis University System for use in displaying images of a body part
EP0869745B8 (en) 1994-10-07 2003-04-16 St. Louis University Surgical navigation systems including reference and localization frames
US5882206A (en) 1995-03-29 1999-03-16 Gillio; Robert G. Virtual surgery system
US5887121A (en) 1995-04-21 1999-03-23 International Business Machines Corporation Method of constrained Cartesian control of robotic mechanisms with active and passive joints
US6122541A (en) 1995-05-04 2000-09-19 Radionics, Inc. Head band for frameless stereotactic registration
US5649956A (en) 1995-06-07 1997-07-22 Sri International System and method for releasably holding a surgical instrument
US5825982A (en) 1995-09-15 1998-10-20 Wright; James Head cursor control interface for an automated endoscope system for optimal positioning
US5772594A (en) 1995-10-17 1998-06-30 Barrick; Earl F. Fluoroscopic image guided orthopaedic surgery system with intraoperative registration
US5855583A (en) 1996-02-20 1999-01-05 Computer Motion, Inc. Method and apparatus for performing minimally invasive cardiac procedures
SG64340A1 (en) 1996-02-27 1999-04-27 Inst Of Systems Science Nation Curved surgical instruments and methods of mapping a curved path for stereotactic surgery
US6167145A (en) 1996-03-29 2000-12-26 Surgical Navigation Technologies, Inc. Bone navigation system
US5792135A (en) 1996-05-20 1998-08-11 Intuitive Surgical, Inc. Articulated surgical instrument for performing minimally invasive surgery with enhanced dexterity and sensitivity
US6786896B1 (en) 1997-09-19 2004-09-07 Massachusetts Institute Of Technology Robotic apparatus
US6167296A (en) 1996-06-28 2000-12-26 The Board Of Trustees Of The Leland Stanford Junior University Method for volumetric image navigation
US7302288B1 (en) 1996-11-25 2007-11-27 Z-Kat, Inc. Tool position indicator
US8529582B2 (en) 1996-12-12 2013-09-10 Intuitive Surgical Operations, Inc. Instrument interface of a robotic surgical system
US7727244B2 (en) 1997-11-21 2010-06-01 Intuitive Surgical Operation, Inc. Sterile surgical drape
US6205411B1 (en) 1997-02-21 2001-03-20 Carnegie Mellon University Computer-assisted surgery planner and intra-operative guidance system
US6012216A (en) 1997-04-30 2000-01-11 Ethicon, Inc. Stand alone swage apparatus
US5820559A (en) 1997-03-20 1998-10-13 Ng; Wan Sing Computerized boundary estimation in medical images
US5911449A (en) 1997-04-30 1999-06-15 Ethicon, Inc. Semi-automated needle feed method and apparatus
US6231565B1 (en) 1997-06-18 2001-05-15 United States Surgical Corporation Robotic arm DLUs for performing surgical tasks
US6226548B1 (en) 1997-09-24 2001-05-01 Surgical Navigation Technologies, Inc. Percutaneous registration apparatus and method for use in computer-assisted surgical navigation
US5951475A (en) 1997-09-25 1999-09-14 International Business Machines Corporation Methods and apparatus for registering CT-scan data to multiple fluoroscopic images
US5987960A (en) 1997-09-26 1999-11-23 Picker International, Inc. Tool calibrator
US6212419B1 (en) 1997-11-12 2001-04-03 Walter M. Blume Method and apparatus using shaped field of repositionable magnet to guide implant
US6157853A (en) 1997-11-12 2000-12-05 Stereotaxis, Inc. Method and apparatus using shaped field of repositionable magnet to guide implant
US6031888A (en) 1997-11-26 2000-02-29 Picker International, Inc. Fluoro-assist feature for a diagnostic imaging device
US6165170A (en) 1998-01-29 2000-12-26 International Business Machines Corporation Laser dermablator and dermablation
US7169141B2 (en) 1998-02-24 2007-01-30 Hansen Medical, Inc. Surgical instrument
FR2779339B1 (fr) 1998-06-09 2000-10-13 Integrated Surgical Systems Sa Procede et appareil de mise en correspondance pour la chirurgie robotisee, et dispositif de mise en correspondance en comportant application
US6477400B1 (en) 1998-08-20 2002-11-05 Sofamor Danek Holdings, Inc. Fluoroscopic image guided orthopaedic surgery system with intraoperative registration
DE19839825C1 (de) 1998-09-01 1999-10-07 Siemens Ag Röntgendiagnostikgerät mit an einer bogenförmigen Halterung einander gegenüberliegend gelagertem Strahlensender und Strahlenempfänger
US6033415A (en) 1998-09-14 2000-03-07 Integrated Surgical Systems System and method for performing image directed robotic orthopaedic procedures without a fiducial reference system
DE19842798C1 (de) 1998-09-18 2000-05-04 Howmedica Leibinger Gmbh & Co Kalibriervorrichtung
AU6421599A (en) 1998-10-09 2000-05-01 Surgical Navigation Technologies, Inc. Image guided vertebral distractor
US6973202B2 (en) 1998-10-23 2005-12-06 Varian Medical Systems Technologies, Inc. Single-camera tracking of an object
US8527094B2 (en) 1998-11-20 2013-09-03 Intuitive Surgical Operations, Inc. Multi-user medical robotic system for collaboration or training in minimally invasive surgical procedures
US6659939B2 (en) 1998-11-20 2003-12-09 Intuitive Surgical, Inc. Cooperative minimally invasive telesurgical system
US6325808B1 (en) 1998-12-08 2001-12-04 Advanced Realtime Control Systems, Inc. Robotic system, docking station, and surgical tool for collaborative control in minimally invasive surgery
US7125403B2 (en) 1998-12-08 2006-10-24 Intuitive Surgical In vivo accessories for minimally invasive robotic surgery
US6322567B1 (en) 1998-12-14 2001-11-27 Integrated Surgical Systems, Inc. Bone motion tracking system
US6451027B1 (en) 1998-12-16 2002-09-17 Intuitive Surgical, Inc. Devices and methods for moving an image capture device in telesurgical systems
US7016457B1 (en) 1998-12-31 2006-03-21 General Electric Company Multimode imaging system for generating high quality images
DE19905974A1 (de) 1999-02-12 2000-09-07 Siemens Ag Verfahren zur Abtastung eines Untersuchungsobjekts mittels eines CT-Geräts
US6560354B1 (en) 1999-02-16 2003-05-06 University Of Rochester Apparatus and method for registration of images to physical space using a weighted combination of points and surfaces
US6144875A (en) 1999-03-16 2000-11-07 Accuray Incorporated Apparatus and method for compensating for respiratory and patient motion during treatment
US6501981B1 (en) 1999-03-16 2002-12-31 Accuray, Inc. Apparatus and method for compensating for respiratory and patient motions during treatment
US6778850B1 (en) 1999-03-16 2004-08-17 Accuray, Inc. Frameless radiosurgery treatment system and method
US6470207B1 (en) 1999-03-23 2002-10-22 Surgical Navigation Technologies, Inc. Navigational guidance via computer-assisted fluoroscopic imaging
JP2000271110A (ja) 1999-03-26 2000-10-03 Hitachi Medical Corp 医用x線装置
US6594552B1 (en) 1999-04-07 2003-07-15 Intuitive Surgical, Inc. Grip strength with tactile feedback for robotic surgery
US6565554B1 (en) 1999-04-07 2003-05-20 Intuitive Surgical, Inc. Friction compensation in a minimally invasive surgical apparatus
US6424885B1 (en) 1999-04-07 2002-07-23 Intuitive Surgical, Inc. Camera referenced control in a minimally invasive surgical apparatus
US6301495B1 (en) 1999-04-27 2001-10-09 International Business Machines Corporation System and method for intra-operative, image-based, interactive verification of a pre-operative surgical plan
DE19927953A1 (de) 1999-06-18 2001-01-11 Siemens Ag Röntgendiagnostikgerät
US6314311B1 (en) 1999-07-28 2001-11-06 Picker International, Inc. Movable mirror laser registration system
US6788018B1 (en) 1999-08-03 2004-09-07 Intuitive Surgical, Inc. Ceiling and floor mounted surgical robot set-up arms
US8004229B2 (en) 2005-05-19 2011-08-23 Intuitive Surgical Operations, Inc. Software center and highly configurable robotic systems for surgery and other uses
US7594912B2 (en) 2004-09-30 2009-09-29 Intuitive Surgical, Inc. Offset remote center manipulator for robotic surgery
US8271130B2 (en) 2009-03-09 2012-09-18 Intuitive Surgical Operations, Inc. Master controller having redundant degrees of freedom and added forces to create internal motion
US6312435B1 (en) 1999-10-08 2001-11-06 Intuitive Surgical, Inc. Surgical instrument with extended reach for use in minimally invasive surgery
US8644907B2 (en) 1999-10-28 2014-02-04 Medtronic Navigaton, Inc. Method and apparatus for surgical navigation
US7366562B2 (en) 2003-10-17 2008-04-29 Medtronic Navigation, Inc. Method and apparatus for surgical navigation
US6499488B1 (en) 1999-10-28 2002-12-31 Winchester Development Associates Surgical sensor
US6235038B1 (en) 1999-10-28 2001-05-22 Medtronic Surgical Navigation Technologies System for translation of electromagnetic and optical localization systems
US8239001B2 (en) 2003-10-17 2012-08-07 Medtronic Navigation, Inc. Method and apparatus for surgical navigation
US6379302B1 (en) 1999-10-28 2002-04-30 Surgical Navigation Technologies Inc. Navigation information overlay onto ultrasound imagery
AU4311901A (en) 1999-12-10 2001-06-18 Michael I. Miller Method and apparatus for cross modality image registration
US7635390B1 (en) 2000-01-14 2009-12-22 Marctec, Llc Joint replacement component having a modular articulating surface
US6377011B1 (en) 2000-01-26 2002-04-23 Massachusetts Institute Of Technology Force feedback user interface for minimally invasive surgical simulator and teleoperator and other similar apparatus
US6757068B2 (en) 2000-01-28 2004-06-29 Intersense, Inc. Self-referenced tracking
AU2001243237A1 (en) 2000-02-25 2001-09-03 The Board Of Trustees Of The Leland Stanford Junior University Methods and apparatuses for maintaining a trajectory in sterotaxi for tracking a target inside a body
WO2001064124A1 (en) 2000-03-01 2001-09-07 Surgical Navigation Technologies, Inc. Multiple cannula image guided tool for image guided procedures
US6996487B2 (en) 2000-03-15 2006-02-07 Orthosoft Inc. Automatic calibration system for computer-aided surgical instruments
US6535756B1 (en) 2000-04-07 2003-03-18 Surgical Navigation Technologies, Inc. Trajectory storage apparatus and method for surgical navigation system
US6490475B1 (en) 2000-04-28 2002-12-03 Ge Medical Systems Global Technology Company, Llc Fluoroscopic tracking and visualization system
US6856826B2 (en) 2000-04-28 2005-02-15 Ge Medical Systems Global Technology Company, Llc Fluoroscopic tracking and visualization system
US6856827B2 (en) 2000-04-28 2005-02-15 Ge Medical Systems Global Technology Company, Llc Fluoroscopic tracking and visualization system
US6614453B1 (en) 2000-05-05 2003-09-02 Koninklijke Philips Electronics, N.V. Method and apparatus for medical image display for surgical tool planning and navigation in clinical environments
US6645196B1 (en) 2000-06-16 2003-11-11 Intuitive Surgical, Inc. Guided tool change
US6782287B2 (en) 2000-06-27 2004-08-24 The Board Of Trustees Of The Leland Stanford Junior University Method and apparatus for tracking a medical instrument based on image registration
US6837892B2 (en) 2000-07-24 2005-01-04 Mazor Surgical Technologies Ltd. Miniature bone-mounted surgical robot
US6902560B1 (en) 2000-07-27 2005-06-07 Intuitive Surgical, Inc. Roll-pitch-roll surgical tool
DE10037491A1 (de) 2000-08-01 2002-02-14 Stryker Leibinger Gmbh & Co Kg Verfahren zum dreidimensionalen Visualisieren von Strukturen im Körperinneren
US6823207B1 (en) 2000-08-26 2004-11-23 Ge Medical Systems Global Technology Company, Llc Integrated fluoroscopic surgical navigation and imaging workstation with command protocol
EP1323120B1 (en) 2000-09-25 2018-11-14 Z-Kat Inc. Fluoroscopic registration artifact with optical and/or magnetic markers
WO2002034152A1 (de) 2000-10-23 2002-05-02 Deutsches Krebsforschungszentrum Stiftung des öffentlichen Rechts Verfahren, vorrichtung und navigationshilfe zur navigation bei medizinischen eingriffen
US6718194B2 (en) 2000-11-17 2004-04-06 Ge Medical Systems Global Technology Company, Llc Computer assisted intramedullary rod surgery system with enhanced features
US6666579B2 (en) 2000-12-28 2003-12-23 Ge Medical Systems Global Technology Company, Llc Method and apparatus for obtaining and displaying computed tomography images using a fluoroscopy imaging system
US6840938B1 (en) 2000-12-29 2005-01-11 Intuitive Surgical, Inc. Bipolar cauterizing instrument
WO2002061371A1 (en) 2001-01-30 2002-08-08 Z-Kat, Inc. Tool calibrator and tracker system
US7220262B1 (en) 2001-03-16 2007-05-22 Sdgi Holdings, Inc. Spinal fixation system and related methods
FR2822674B1 (fr) 2001-04-03 2003-06-27 Scient X Systeme stabilise de fusion intersomatique pour vertebres
WO2002083003A1 (en) 2001-04-11 2002-10-24 Clarke Dana S Tissue structure identification in advance of instrument
US6783524B2 (en) 2001-04-19 2004-08-31 Intuitive Surgical, Inc. Robotic surgical tool with ultrasound cauterizing and cutting instrument
US7824401B2 (en) 2004-10-08 2010-11-02 Intuitive Surgical Operations, Inc. Robotic tool with wristed monopolar electrosurgical end effectors
US8398634B2 (en) 2002-04-18 2013-03-19 Intuitive Surgical Operations, Inc. Wristed robotic surgical tool for pluggable end-effectors
US6994708B2 (en) 2001-04-19 2006-02-07 Intuitive Surgical Robotic tool with monopolar electro-surgical scissors
US6636757B1 (en) 2001-06-04 2003-10-21 Surgical Navigation Technologies, Inc. Method and apparatus for electromagnetic navigation of a surgical probe near a metal object
US7607440B2 (en) 2001-06-07 2009-10-27 Intuitive Surgical, Inc. Methods and apparatus for surgical planning
ATE371414T1 (de) 2001-06-13 2007-09-15 Volume Interactions Pte Ltd Führungssystem
US6584339B2 (en) 2001-06-27 2003-06-24 Vanderbilt University Method and apparatus for collecting and processing physical space data for use while performing image-guided surgery
CA2792000C (en) 2001-06-29 2016-08-16 Intuitive Surgical, Inc. Platform link wrist mechanism
US7063705B2 (en) 2001-06-29 2006-06-20 Sdgi Holdings, Inc. Fluoroscopic locator and registration device
US20040243147A1 (en) 2001-07-03 2004-12-02 Lipow Kenneth I. Surgical robot and robotic controller
ITMI20011759A1 (it) 2001-08-09 2003-02-09 Nuovo Pignone Spa Dispositivo raschiaiolo per asta di stantuffo di compressori alternativi
US7708741B1 (en) 2001-08-28 2010-05-04 Marctec, Llc Method of preparing bones for knee replacement surgery
US6728599B2 (en) 2001-09-07 2004-04-27 Computer Motion, Inc. Modularity system for computer assisted surgery
US6587750B2 (en) 2001-09-25 2003-07-01 Intuitive Surgical, Inc. Removable infinite roll master grip handle and touch sensor for robotic surgery
US6619840B2 (en) 2001-10-15 2003-09-16 Koninklijke Philips Electronics N.V. Interventional volume scanner
US6839612B2 (en) 2001-12-07 2005-01-04 Institute Surgical, Inc. Microwrist system for surgical procedures
US6947786B2 (en) 2002-02-28 2005-09-20 Surgical Navigation Technologies, Inc. Method and apparatus for perspective inversion
US7206627B2 (en) 2002-03-06 2007-04-17 Z-Kat, Inc. System and method for intra-operative haptic planning of a medical procedure
US8996169B2 (en) 2011-12-29 2015-03-31 Mako Surgical Corp. Neural monitor-based dynamic haptics
US8010180B2 (en) * 2002-03-06 2011-08-30 Mako Surgical Corp. Haptic guidance system and method
US7831292B2 (en) * 2002-03-06 2010-11-09 Mako Surgical Corp. Guidance system and method for surgical procedures with improved feedback
US7108421B2 (en) 2002-03-19 2006-09-19 Breakaway Imaging, Llc Systems and methods for imaging large field-of-view objects
US7164968B2 (en) 2002-04-05 2007-01-16 The Trustees Of Columbia University In The City Of New York Robotic scrub nurse
US7099428B2 (en) 2002-06-25 2006-08-29 The Regents Of The University Of Michigan High spatial resolution X-ray computed tomography (CT) system
US7248914B2 (en) 2002-06-28 2007-07-24 Stereotaxis, Inc. Method of navigating medical devices in the presence of radiopaque material
US7630752B2 (en) 2002-08-06 2009-12-08 Stereotaxis, Inc. Remote control of medical devices using a virtual device interface
US6922632B2 (en) 2002-08-09 2005-07-26 Intersense, Inc. Tracking, auto-calibration, and map-building system
US7231063B2 (en) 2002-08-09 2007-06-12 Intersense, Inc. Fiducial detection system
US7155316B2 (en) 2002-08-13 2006-12-26 Microbotics Corporation Microsurgical robot system
US6892090B2 (en) 2002-08-19 2005-05-10 Surgical Navigation Technologies, Inc. Method and apparatus for virtual endoscopy
US7331967B2 (en) 2002-09-09 2008-02-19 Hansen Medical, Inc. Surgical instrument coupling mechanism
ES2204322B1 (es) 2002-10-01 2005-07-16 Consejo Sup. De Invest. Cientificas Navegador funcional.
JP3821435B2 (ja) 2002-10-18 2006-09-13 松下電器産業株式会社 超音波探触子
US7319897B2 (en) 2002-12-02 2008-01-15 Aesculap Ag & Co. Kg Localization device display method and apparatus
US7318827B2 (en) 2002-12-02 2008-01-15 Aesculap Ag & Co. Kg Osteotomy procedure
US8814793B2 (en) 2002-12-03 2014-08-26 Neorad As Respiration monitor
US7386365B2 (en) 2004-05-04 2008-06-10 Intuitive Surgical, Inc. Tool grip calibration for robotic surgery
US7945021B2 (en) 2002-12-18 2011-05-17 Varian Medical Systems, Inc. Multi-mode cone beam CT radiotherapy simulator and treatment machine with a flat panel imager
US7505809B2 (en) 2003-01-13 2009-03-17 Mediguide Ltd. Method and system for registering a first image with a second image relative to the body of a patient
US7542791B2 (en) 2003-01-30 2009-06-02 Medtronic Navigation, Inc. Method and apparatus for preplanning a surgical procedure
US7660623B2 (en) 2003-01-30 2010-02-09 Medtronic Navigation, Inc. Six degree of freedom alignment display for medical procedures
US6988009B2 (en) 2003-02-04 2006-01-17 Zimmer Technology, Inc. Implant registration device for surgical navigation system
WO2004069040A2 (en) 2003-02-04 2004-08-19 Z-Kat, Inc. Method and apparatus for computer assistance with intramedullary nail procedure
US7083615B2 (en) 2003-02-24 2006-08-01 Intuitive Surgical Inc Surgical tool having electrocautery energy supply conductor with inhibited current leakage
JP4163991B2 (ja) 2003-04-30 2008-10-08 株式会社モリタ製作所 X線ct撮影装置及び撮影方法
US9060770B2 (en) 2003-05-20 2015-06-23 Ethicon Endo-Surgery, Inc. Robotically-driven surgical instrument with E-beam driver
US7194120B2 (en) 2003-05-29 2007-03-20 Board Of Regents, The University Of Texas System Methods and systems for image-guided placement of implants
US7171257B2 (en) 2003-06-11 2007-01-30 Accuray Incorporated Apparatus and method for radiosurgery
US9002518B2 (en) 2003-06-30 2015-04-07 Intuitive Surgical Operations, Inc. Maximum torque driving of robotic surgical tools in robotic surgical systems
US7960935B2 (en) 2003-07-08 2011-06-14 The Board Of Regents Of The University Of Nebraska Robotic devices with agent delivery components and related methods
US7042184B2 (en) 2003-07-08 2006-05-09 Board Of Regents Of The University Of Nebraska Microrobot for surgical applications
ATE451874T1 (de) 2003-07-15 2010-01-15 Koninkl Philips Electronics Nv Computertomographie-scanner mit grosser rahmenöffnung
US7313430B2 (en) 2003-08-28 2007-12-25 Medtronic Navigation, Inc. Method and apparatus for performing stereotactic surgery
US7835778B2 (en) 2003-10-16 2010-11-16 Medtronic Navigation, Inc. Method and apparatus for surgical navigation of a multiple piece construct for implantation
US20050171558A1 (en) 2003-10-17 2005-08-04 Abovitz Rony A. Neurosurgery targeting and delivery system for brain structures
US7840253B2 (en) 2003-10-17 2010-11-23 Medtronic Navigation, Inc. Method and apparatus for surgical navigation
US20050096502A1 (en) 2003-10-29 2005-05-05 Khalili Theodore M. Robotic surgical device
US9393039B2 (en) 2003-12-17 2016-07-19 Brainlab Ag Universal instrument or instrument set for computer guided surgery
US7466303B2 (en) 2004-02-10 2008-12-16 Sunnybrook Health Sciences Center Device and process for manipulating real and virtual objects in three-dimensional space
US7974681B2 (en) 2004-03-05 2011-07-05 Hansen Medical, Inc. Robotic catheter system
EP1720479B1 (en) 2004-03-05 2014-04-23 Depuy International Limited Registration methods and apparatus
WO2005087125A2 (en) 2004-03-10 2005-09-22 Depuy International Ltd Orthopaedic operating systems, methods, implants and instruments
US7657298B2 (en) 2004-03-11 2010-02-02 Stryker Leibinger Gmbh & Co. Kg System, device, and method for determining a position of an object
US8475495B2 (en) 2004-04-08 2013-07-02 Globus Medical Polyaxial screw
US8860753B2 (en) 2004-04-13 2014-10-14 University Of Georgia Research Foundation, Inc. Virtual surgical system and methods
KR100617974B1 (ko) 2004-04-22 2006-08-31 한국과학기술원 명령추종이 가능한 복강경 장치
US7567834B2 (en) 2004-05-03 2009-07-28 Medtronic Navigation, Inc. Method and apparatus for implantation between two vertebral bodies
US7379790B2 (en) 2004-05-04 2008-05-27 Intuitive Surgical, Inc. Tool memory-based software upgrades for robotic surgery
US8528565B2 (en) 2004-05-28 2013-09-10 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic surgical system and method for automated therapy delivery
US7974674B2 (en) 2004-05-28 2011-07-05 St. Jude Medical, Atrial Fibrillation Division, Inc. Robotic surgical system and method for surface modeling
FR2871363B1 (fr) 2004-06-15 2006-09-01 Medtech Sa Dispositif robotise de guidage pour outil chirurgical
US7327865B2 (en) 2004-06-30 2008-02-05 Accuray, Inc. Fiducial-less tracking with non-rigid image registration
ITMI20041448A1 (it) 2004-07-20 2004-10-20 Milano Politecnico Apparato per la fusione e navigazione di immagini ecografiche e volumetriche di un paziente che utilizza una combinazione di marcatori ottici attivi e passivi per la localizzazione di sonde ecografiche e strumenti chirurgici rispetto al paziente
US7440793B2 (en) 2004-07-22 2008-10-21 Sunita Chauhan Apparatus and method for removing abnormal tissue
US7979157B2 (en) 2004-07-23 2011-07-12 Mcmaster University Multi-purpose robotic operating system and method
GB2422759B (en) 2004-08-05 2008-07-16 Elekta Ab Rotatable X-ray scan apparatus with cone beam offset
US7702379B2 (en) 2004-08-25 2010-04-20 General Electric Company System and method for hybrid tracking in surgical navigation
US7555331B2 (en) 2004-08-26 2009-06-30 Stereotaxis, Inc. Method for surgical navigation utilizing scale-invariant registration between a navigation system and a localization system
DE102004042489B4 (de) 2004-08-31 2012-03-29 Siemens Ag Medizinische Untersuchungs- oder Behandlungseinrichtung mit dazugehörigem Verfahren
CA2581009C (en) 2004-09-15 2011-10-04 Synthes (U.S.A.) Calibrating device
JP2008515513A (ja) 2004-10-06 2008-05-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ コンピュータ断層撮影方法
US7831294B2 (en) 2004-10-07 2010-11-09 Stereotaxis, Inc. System and method of surgical imagining with anatomical overlay for navigation of surgical devices
US7983733B2 (en) 2004-10-26 2011-07-19 Stereotaxis, Inc. Surgical navigation using a three-dimensional user interface
US7062006B1 (en) 2005-01-19 2006-06-13 The Board Of Trustees Of The Leland Stanford Junior University Computed tomography with increased field of view
US7837674B2 (en) 2005-01-24 2010-11-23 Intuitive Surgical Operations, Inc. Compact counter balance for robotic surgical systems
US7763015B2 (en) 2005-01-24 2010-07-27 Intuitive Surgical Operations, Inc. Modular manipulator support for robotic surgery
US20060184396A1 (en) 2005-01-28 2006-08-17 Dennis Charles L System and method for surgical navigation
US7231014B2 (en) 2005-02-14 2007-06-12 Varian Medical Systems Technologies, Inc. Multiple mode flat panel X-ray imaging system
ES2784219T3 (es) 2005-03-07 2020-09-23 Hector O Pacheco Cánula para el acceso mejorado a cuerpos vertebrales para cifoplastia, vertebroplastia, biopsia de cuerpo vertebral o colocación de tornillos
WO2006102756A1 (en) 2005-03-30 2006-10-05 University Western Ontario Anisotropic hydrogels
US8496647B2 (en) 2007-12-18 2013-07-30 Intuitive Surgical Operations, Inc. Ribbed force sensor
US8375808B2 (en) 2005-12-30 2013-02-19 Intuitive Surgical Operations, Inc. Force sensing for surgical instruments
US7720523B2 (en) 2005-04-20 2010-05-18 General Electric Company System and method for managing power deactivation within a medical imaging system
US8208988B2 (en) 2005-05-13 2012-06-26 General Electric Company System and method for controlling a medical imaging device
KR101258912B1 (ko) 2005-06-06 2013-04-30 인튜어티브 서지컬 인코포레이티드 복강경의 초음파 로보트 수술 시스템
US8398541B2 (en) 2006-06-06 2013-03-19 Intuitive Surgical Operations, Inc. Interactive user interfaces for robotic minimally invasive surgical systems
JP2007000406A (ja) 2005-06-24 2007-01-11 Ge Medical Systems Global Technology Co Llc X線ct撮影方法およびx線ct装置
US7840256B2 (en) 2005-06-27 2010-11-23 Biomet Manufacturing Corporation Image guided tracking array and method
US8241271B2 (en) 2005-06-30 2012-08-14 Intuitive Surgical Operations, Inc. Robotic surgical instruments with a fluid flow control system for irrigation, aspiration, and blowing
US20070038059A1 (en) 2005-07-07 2007-02-15 Garrett Sheffer Implant and instrument morphing
US20080302950A1 (en) 2005-08-11 2008-12-11 The Brigham And Women's Hospital, Inc. System and Method for Performing Single Photon Emission Computed Tomography (Spect) with a Focal-Length Cone-Beam Collimation
US7787699B2 (en) 2005-08-17 2010-08-31 General Electric Company Real-time integration and recording of surgical image data
US8800838B2 (en) 2005-08-31 2014-08-12 Ethicon Endo-Surgery, Inc. Robotically-controlled cable-based surgical end effectors
US7643862B2 (en) 2005-09-15 2010-01-05 Biomet Manufacturing Corporation Virtual mouse for use in surgical navigation
US20070073133A1 (en) 2005-09-15 2007-03-29 Schoenefeld Ryan J Virtual mouse for use in surgical navigation
US7835784B2 (en) 2005-09-21 2010-11-16 Medtronic Navigation, Inc. Method and apparatus for positioning a reference frame
US8079950B2 (en) 2005-09-29 2011-12-20 Intuitive Surgical Operations, Inc. Autofocus and/or autoscaling in telesurgery
WO2007044301A2 (en) 2005-10-04 2007-04-19 Intersense, Inc. Tracking objects with markers
US20090216113A1 (en) 2005-11-17 2009-08-27 Eric Meier Apparatus and Methods for Using an Electromagnetic Transponder in Orthopedic Procedures
US7711406B2 (en) 2005-11-23 2010-05-04 General Electric Company System and method for detection of electromagnetic radiation by amorphous silicon x-ray detector for metal detection in x-ray imaging
DE602005007509D1 (de) 2005-11-24 2008-07-24 Brainlab Ag Medizinisches Referenzierungssystem mit gamma-Kamera
US7689320B2 (en) 2005-12-20 2010-03-30 Intuitive Surgical Operations, Inc. Robotic surgical system with joint motion controller adapted to reduce instrument tip vibrations
US7819859B2 (en) 2005-12-20 2010-10-26 Intuitive Surgical Operations, Inc. Control system for reducing internally generated frictional and inertial resistance to manual positioning of a surgical manipulator
US7762825B2 (en) 2005-12-20 2010-07-27 Intuitive Surgical Operations, Inc. Electro-mechanical interfaces to mount robotic surgical arms
US7955322B2 (en) 2005-12-20 2011-06-07 Intuitive Surgical Operations, Inc. Wireless communication in a robotic surgical system
US8672922B2 (en) 2005-12-20 2014-03-18 Intuitive Surgical Operations, Inc. Wireless communication in a robotic surgical system
US8182470B2 (en) 2005-12-20 2012-05-22 Intuitive Surgical Operations, Inc. Telescoping insertion axis of a robotic surgical system
US8054752B2 (en) 2005-12-22 2011-11-08 Intuitive Surgical Operations, Inc. Synchronous data communication
ES2292327B1 (es) 2005-12-26 2009-04-01 Consejo Superior Investigaciones Cientificas Mini camara gamma autonoma y con sistema de localizacion, para uso intraquirurgico.
KR101296220B1 (ko) 2005-12-30 2013-08-13 인튜어티브 서지컬 인코포레이티드 모듈식 힘센서
US7930065B2 (en) 2005-12-30 2011-04-19 Intuitive Surgical Operations, Inc. Robotic surgery system including position sensors using fiber bragg gratings
US7907166B2 (en) 2005-12-30 2011-03-15 Intuitive Surgical Operations, Inc. Stereo telestration for robotic surgery
US7533892B2 (en) 2006-01-05 2009-05-19 Intuitive Surgical, Inc. Steering system for heavy mobile medical equipment
KR100731052B1 (ko) 2006-01-23 2007-06-22 한양대학교 산학협력단 미세침습 수술을 위한 컴퓨터통합 수술 보조시스템
US8142420B2 (en) 2006-01-25 2012-03-27 Intuitive Surgical Operations Inc. Robotic arm with five-bar spherical linkage
US8162926B2 (en) 2006-01-25 2012-04-24 Intuitive Surgical Operations Inc. Robotic arm with five-bar spherical linkage
US7845537B2 (en) 2006-01-31 2010-12-07 Ethicon Endo-Surgery, Inc. Surgical instrument having recording capabilities
US20110295295A1 (en) 2006-01-31 2011-12-01 Ethicon Endo-Surgery, Inc. Robotically-controlled surgical instrument having recording capabilities
EP1815950A1 (en) 2006-02-03 2007-08-08 The European Atomic Energy Community (EURATOM), represented by the European Commission Robotic surgical system for performing minimally invasive medical procedures
US8219178B2 (en) 2007-02-16 2012-07-10 Catholic Healthcare West Method and system for performing invasive medical procedures using a surgical robot
US8219177B2 (en) 2006-02-16 2012-07-10 Catholic Healthcare West Method and system for performing invasive medical procedures using a surgical robot
US20120209117A1 (en) 2006-03-08 2012-08-16 Orthosensor, Inc. Surgical Measurement Apparatus and System
US8526688B2 (en) 2006-03-09 2013-09-03 General Electric Company Methods and systems for registration of surgical navigation data and image data
JP5248474B2 (ja) 2006-03-30 2013-07-31 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ターゲッティング方法、ターゲッティング装置、コンピュータ読取り可能な媒体、及びプログラムエレメント
US20070233238A1 (en) 2006-03-31 2007-10-04 Medtronic Vascular, Inc. Devices for Imaging and Navigation During Minimally Invasive Non-Bypass Cardiac Procedures
JP5538880B2 (ja) 2006-04-14 2014-07-02 ウィリアム・ボーモント・ホスピタル 4面体ビームコンピュータ断層撮影
US8021310B2 (en) 2006-04-21 2011-09-20 Nellcor Puritan Bennett Llc Work of breathing display for a ventilation system
US8112292B2 (en) 2006-04-21 2012-02-07 Medtronic Navigation, Inc. Method and apparatus for optimizing a therapy
US7940999B2 (en) 2006-04-24 2011-05-10 Siemens Medical Solutions Usa, Inc. System and method for learning-based 2D/3D rigid registration for image-guided surgery using Jensen-Shannon divergence
WO2007131561A2 (en) 2006-05-16 2007-11-22 Surgiceye Gmbh Method and device for 3d acquisition, 3d visualization and computer guided surgery using nuclear probes
US8560047B2 (en) 2006-06-16 2013-10-15 Board Of Regents Of The University Of Nebraska Method and apparatus for computer aided surgery
US20080004523A1 (en) * 2006-06-29 2008-01-03 General Electric Company Surgical tool guide
DE102006032127B4 (de) 2006-07-05 2008-04-30 Aesculap Ag & Co. Kg Kalibrierverfahren und Kalibriervorrichtung für eine chirurgische Referenzierungseinheit
US20080013809A1 (en) 2006-07-14 2008-01-17 Bracco Imaging, Spa Methods and apparatuses for registration in image guided surgery
DE502006005408D1 (de) 2006-08-08 2009-12-31 Brainlab Ag Planungsverfahren und System zur Freiform-Implantatsanpassung
RU2452385C2 (ru) 2006-08-17 2012-06-10 Конинклейке Филипс Электроникс Н.В. Получение компьютерно-томографических изображений
DE102006041033B4 (de) 2006-09-01 2017-01-19 Siemens Healthcare Gmbh Verfahren zur Rekonstruktion eines dreidimensionalen Bildvolumens
US8231610B2 (en) 2006-09-06 2012-07-31 National Cancer Center Robotic surgical system for laparoscopic surgery
US20080082109A1 (en) 2006-09-08 2008-04-03 Hansen Medical, Inc. Robotic surgical system with forward-oriented field of view guide instrument navigation
US8150498B2 (en) 2006-09-08 2012-04-03 Medtronic, Inc. System for identification of anatomical landmarks
US8532741B2 (en) 2006-09-08 2013-09-10 Medtronic, Inc. Method and apparatus to optimize electrode placement for neurological stimulation
US8150497B2 (en) 2006-09-08 2012-04-03 Medtronic, Inc. System for navigating a planned procedure within a body
US8248413B2 (en) 2006-09-18 2012-08-21 Stryker Corporation Visual navigation system for endoscopic surgery
WO2008038283A2 (en) 2006-09-25 2008-04-03 Mazor Surgical Technologies Ltd. C-arm computerized tomography system
US8660635B2 (en) 2006-09-29 2014-02-25 Medtronic, Inc. Method and apparatus for optimizing a computer assisted surgical procedure
US8052688B2 (en) 2006-10-06 2011-11-08 Wolf Ii Erich Electromagnetic apparatus and method for nerve localization during spinal surgery
US20080144906A1 (en) 2006-10-09 2008-06-19 General Electric Company System and method for video capture for fluoroscopy and navigation
US20080109012A1 (en) 2006-11-03 2008-05-08 General Electric Company System, method and apparatus for tableside remote connections of medical instruments and systems using wireless communications
US8551114B2 (en) 2006-11-06 2013-10-08 Human Robotics S.A. De C.V. Robotic surgical device
US20080108912A1 (en) 2006-11-07 2008-05-08 General Electric Company System and method for measurement of clinical parameters of the knee for use during knee replacement surgery
US20080108991A1 (en) 2006-11-08 2008-05-08 General Electric Company Method and apparatus for performing pedicle screw fusion surgery
US8682413B2 (en) 2006-11-15 2014-03-25 General Electric Company Systems and methods for automated tracker-driven image selection
EP2081494B1 (en) 2006-11-16 2018-07-11 Vanderbilt University System and method of compensating for organ deformation
US7935130B2 (en) 2006-11-16 2011-05-03 Intuitive Surgical Operations, Inc. Two-piece end-effectors for robotic surgical tools
US8727618B2 (en) 2006-11-22 2014-05-20 Siemens Aktiengesellschaft Robotic device and method for trauma patient diagnosis and therapy
US7835557B2 (en) 2006-11-28 2010-11-16 Medtronic Navigation, Inc. System and method for detecting status of imaging device
US8320991B2 (en) 2006-12-01 2012-11-27 Medtronic Navigation Inc. Portable electromagnetic navigation system
US7683332B2 (en) 2006-12-08 2010-03-23 Rush University Medical Center Integrated single photon emission computed tomography (SPECT)/transmission computed tomography (TCT) system for cardiac imaging
US7683331B2 (en) 2006-12-08 2010-03-23 Rush University Medical Center Single photon emission computed tomography (SPECT) system for cardiac imaging
US8556807B2 (en) 2006-12-21 2013-10-15 Intuitive Surgical Operations, Inc. Hermetically sealed distal sensor endoscope
US20080177203A1 (en) 2006-12-22 2008-07-24 General Electric Company Surgical navigation planning system and method for placement of percutaneous instrumentation and implants
DE102006061178A1 (de) 2006-12-22 2008-06-26 Siemens Ag System zur Durchführung und Überwachung minimal-invasiver Eingriffe
US20080161680A1 (en) 2006-12-29 2008-07-03 General Electric Company System and method for surgical navigation of motion preservation prosthesis
US9220573B2 (en) 2007-01-02 2015-12-29 Medtronic Navigation, Inc. System and method for tracking positions of uniform marker geometries
US8684253B2 (en) 2007-01-10 2014-04-01 Ethicon Endo-Surgery, Inc. Surgical instrument with wireless communication between a control unit of a robotic system and remote sensor
US8374673B2 (en) 2007-01-25 2013-02-12 Warsaw Orthopedic, Inc. Integrated surgical navigational and neuromonitoring system having automated surgical assistance and control
EP2124799B1 (en) 2007-02-01 2012-10-31 Interactive Neuroscience Center, Llc Surgical navigation
WO2008097853A2 (en) * 2007-02-02 2008-08-14 Hansen Medical, Inc. Mounting support assembly for suspending a medical instrument driver above an operating table
US8600478B2 (en) 2007-02-19 2013-12-03 Medtronic Navigation, Inc. Automatic identification of instruments used with a surgical navigation system
US8233963B2 (en) 2007-02-19 2012-07-31 Medtronic Navigation, Inc. Automatic identification of tracked surgical devices using an electromagnetic localization system
DE102007009017B3 (de) 2007-02-23 2008-09-25 Siemens Ag Anordnung zur Unterstützung eines perkutanen Eingriffs
CN101621968B (zh) 2007-02-26 2013-06-19 皇家飞利浦电子股份有限公司 用于医学成像的定点设备
US10039613B2 (en) 2007-03-01 2018-08-07 Surgical Navigation Technologies, Inc. Method for localizing an imaging device with a surgical navigation system
US8098914B2 (en) 2007-03-05 2012-01-17 Siemens Aktiengesellschaft Registration of CT volumes with fluoroscopic images
US20080228068A1 (en) 2007-03-13 2008-09-18 Viswanathan Raju R Automated Surgical Navigation with Electro-Anatomical and Pre-Operative Image Data
US8821511B2 (en) 2007-03-15 2014-09-02 General Electric Company Instrument guide for use with a surgical navigation system
US20080235052A1 (en) 2007-03-19 2008-09-25 General Electric Company System and method for sharing medical information between image-guided surgery systems
US8150494B2 (en) 2007-03-29 2012-04-03 Medtronic Navigation, Inc. Apparatus for registering a physical space to image space
US7879045B2 (en) 2007-04-10 2011-02-01 Medtronic, Inc. System for guiding instruments having different sizes
US8560118B2 (en) 2007-04-16 2013-10-15 Neuroarm Surgical Ltd. Methods, devices, and systems for non-mechanically restricting and/or programming movement of a tool of a manipulator along a single axis
JP2010524547A (ja) 2007-04-16 2010-07-22 ニューロアーム サージカル リミテッド 医療用ロボットに関する自動化された動作のための方法、装置、及びシステム
US8311611B2 (en) 2007-04-24 2012-11-13 Medtronic, Inc. Method for performing multiple registrations in a navigated procedure
US8010177B2 (en) 2007-04-24 2011-08-30 Medtronic, Inc. Intraoperative image registration
US8301226B2 (en) 2007-04-24 2012-10-30 Medtronic, Inc. Method and apparatus for performing a navigated procedure
US8108025B2 (en) 2007-04-24 2012-01-31 Medtronic, Inc. Flexible array for use in navigated surgery
US20090012509A1 (en) 2007-04-24 2009-01-08 Medtronic, Inc. Navigated Soft Tissue Penetrating Laser System
US8062364B1 (en) 2007-04-27 2011-11-22 Knee Creations, Llc Osteoarthritis treatment and device
DE102007022122B4 (de) 2007-05-11 2019-07-11 Deutsches Zentrum für Luft- und Raumfahrt e.V. Greifvorrichtung für eine Chirurgie-Roboter-Anordnung
US8057397B2 (en) 2007-05-16 2011-11-15 General Electric Company Navigation and imaging system sychronized with respiratory and/or cardiac activity
US20080287771A1 (en) 2007-05-17 2008-11-20 General Electric Company Surgical navigation system with electrostatic shield
US8934961B2 (en) 2007-05-18 2015-01-13 Biomet Manufacturing, Llc Trackable diagnostic scope apparatus and methods of use
US20080300477A1 (en) 2007-05-30 2008-12-04 General Electric Company System and method for correction of automated image registration
US20080300478A1 (en) 2007-05-30 2008-12-04 General Electric Company System and method for displaying real-time state of imaged anatomy during a surgical procedure
US9468412B2 (en) 2007-06-22 2016-10-18 General Electric Company System and method for accuracy verification for image based surgical navigation
JP5591696B2 (ja) 2007-07-12 2014-09-17 ボード オブ リージェンツ オブ ザ ユニバーシティ オブ ネブラスカ 生検要素、アーム装置、および医療装置
US7834484B2 (en) 2007-07-16 2010-11-16 Tyco Healthcare Group Lp Connection cable and method for activating a voltage-controlled generator
JP2009045428A (ja) 2007-07-25 2009-03-05 Terumo Corp 操作機構、医療用マニピュレータ及び手術用ロボットシステム
WO2009018086A2 (en) 2007-07-27 2009-02-05 The Cleveland Clinic Foundation Oblique lumbar interbody fusion
US8035685B2 (en) 2007-07-30 2011-10-11 General Electric Company Systems and methods for communicating video data between a mobile imaging system and a fixed monitor system
US8328818B1 (en) 2007-08-31 2012-12-11 Globus Medical, Inc. Devices and methods for treating bone
EP2197548B1 (en) 2007-09-19 2012-11-14 Walter A. Roberts Direct visualization robotic intra-operative radiation therapy applicator device
US20090080737A1 (en) 2007-09-25 2009-03-26 General Electric Company System and Method for Use of Fluoroscope and Computed Tomography Registration for Sinuplasty Navigation
US8224484B2 (en) 2007-09-30 2012-07-17 Intuitive Surgical Operations, Inc. Methods of user interface with alternate tool mode for robotic surgical tools
US9522046B2 (en) 2010-08-23 2016-12-20 Gip Robotic surgery system
JP2011502567A (ja) 2007-11-06 2011-01-27 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 一体化された非対称平面パネル型コーンビームct及びspectシステムを備えた核医学spect−ct装置
DE102007055203A1 (de) 2007-11-19 2009-05-20 Kuka Roboter Gmbh Einen Roboter aufweisende Vorrichtung, medizinischer Arbeitsplatz und Verfahren zum Registrieren eines Objekts
US8561473B2 (en) 2007-12-18 2013-10-22 Intuitive Surgical Operations, Inc. Force sensor temperature compensation
US8400094B2 (en) 2007-12-21 2013-03-19 Intuitive Surgical Operations, Inc. Robotic surgical system with patient support
RU2010130474A (ru) 2007-12-21 2012-01-27 Конинклейке Филипс Электроникс, Н.В. (Nl) Синхронный интервенционный сканер
US8864798B2 (en) 2008-01-18 2014-10-21 Globus Medical, Inc. Transverse connector
WO2009097539A2 (en) 2008-01-30 2009-08-06 The Trustees Of Columbia University In The City Of New York Systems, devices, and methods for robot-assisted micro-surgical stenting
US20090198121A1 (en) 2008-02-01 2009-08-06 Martin Hoheisel Method and apparatus for coordinating contrast agent injection and image acquisition in c-arm computed tomography
US8573465B2 (en) 2008-02-14 2013-11-05 Ethicon Endo-Surgery, Inc. Robotically-controlled surgical end effector system with rotary actuated closure systems
US8696458B2 (en) 2008-02-15 2014-04-15 Thales Visionix, Inc. Motion tracking system and method using camera and non-camera sensors
US7925653B2 (en) 2008-02-27 2011-04-12 General Electric Company Method and system for accessing a group of objects in an electronic document
US20090228019A1 (en) 2008-03-10 2009-09-10 Yosef Gross Robotic surgical system
US8282653B2 (en) 2008-03-24 2012-10-09 Board Of Regents Of The University Of Nebraska System and methods for controlling surgical tool elements
US8808164B2 (en) 2008-03-28 2014-08-19 Intuitive Surgical Operations, Inc. Controlling a robotic surgical tool with a display monitor
BRPI0822423B1 (pt) 2008-03-28 2020-09-24 Telefonaktiebolaget Lm Ericsson (Publ) Métodos para habilitar detecção e para detecção de uma estação base, estação base de uma rede de comunicação, e, nó da rede de núcleo
US7886743B2 (en) 2008-03-31 2011-02-15 Intuitive Surgical Operations, Inc. Sterile drape interface for robotic surgical instrument
US8333755B2 (en) 2008-03-31 2012-12-18 Intuitive Surgical Operations, Inc. Coupler to transfer controller motion from a robotic manipulator to an attached instrument
US7843158B2 (en) 2008-03-31 2010-11-30 Intuitive Surgical Operations, Inc. Medical robotic system adapted to inhibit motions resulting in excessive end effector forces
US9002076B2 (en) 2008-04-15 2015-04-07 Medtronic, Inc. Method and apparatus for optimal trajectory planning
US9345875B2 (en) 2008-04-17 2016-05-24 Medtronic, Inc. Method and apparatus for cannula fixation for an array insertion tube set
US8810631B2 (en) 2008-04-26 2014-08-19 Intuitive Surgical Operations, Inc. Augmented stereoscopic visualization for a surgical robot using a captured visible image combined with a fluorescence image and a captured visible image
US8364243B2 (en) 2008-04-30 2013-01-29 Nanosys, Inc. Non-fouling surfaces for reflective spheres
US9579161B2 (en) 2008-05-06 2017-02-28 Medtronic Navigation, Inc. Method and apparatus for tracking a patient
WO2009151206A1 (ko) 2008-06-09 2009-12-17 (주)미래컴퍼니 수술용 로봇의 마스터 인터페이스 및 구동방법
TW201004607A (en) 2008-07-25 2010-02-01 Been-Der Yang Image guided navigation system and method thereof
US8054184B2 (en) 2008-07-31 2011-11-08 Intuitive Surgical Operations, Inc. Identification of surgical instrument attached to surgical robot
US8771170B2 (en) 2008-08-01 2014-07-08 Microaccess, Inc. Methods and apparatus for transesophageal microaccess surgery
JP2010035984A (ja) 2008-08-08 2010-02-18 Canon Inc X線撮影装置
EP2153794B1 (en) 2008-08-15 2016-11-09 Stryker European Holdings I, LLC System for and method of visualizing an interior of a body
EP2323578B1 (en) 2008-08-18 2018-10-03 Encision, Inc. Enhanced control systems including flexible shielding and support systems for electrosurgical applications
DE102008041813B4 (de) 2008-09-04 2013-06-20 Carl Zeiss Microscopy Gmbh Verfahren zur Tiefenanalyse einer organischen Probe
US7900524B2 (en) 2008-09-09 2011-03-08 Intersense, Inc. Monitoring tools
EP2165671B1 (de) 2008-09-19 2011-06-01 BrainLAB AG Chirurgisches Pointerinstrument mit Spitzensensor
US8165658B2 (en) 2008-09-26 2012-04-24 Medtronic, Inc. Method and apparatus for positioning a guide relative to a base
US8073335B2 (en) 2008-09-30 2011-12-06 Intuitive Surgical Operations, Inc. Operator input device for a robotic surgical system
CN102177430B (zh) 2008-10-10 2014-04-02 皇家飞利浦电子股份有限公司 使用经移位的几何结构改进ct图像采集的方法和设备
KR100944412B1 (ko) 2008-10-13 2010-02-25 (주)미래컴퍼니 수술용 슬레이브 로봇
WO2010044852A2 (en) 2008-10-14 2010-04-22 University Of Florida Research Foundation, Inc. Imaging platform to provide integrated navigation capabilities for surgical guidance
EP2355711B1 (en) 2008-10-20 2019-09-11 The Johns Hopkins University Environment property estimation and graphical display
EP2179703B1 (de) 2008-10-21 2012-03-28 BrainLAB AG Integration von chirurgischem Instrument und Anzeigevorrichtung zur Unterstützung der bildgeführten Chirurgie
US8568363B2 (en) 2008-10-31 2013-10-29 The Invention Science Fund I, Llc Frozen compositions and methods for piercing a substrate
KR101075363B1 (ko) 2008-10-31 2011-10-19 정창욱 최소 침습 수술 도구를 포함하는 수술용 로봇 시스템
US9033958B2 (en) 2008-11-11 2015-05-19 Perception Raisonnement Action En Medecine Surgical robotic system
TWI435705B (zh) 2008-11-20 2014-05-01 Been Der Yang 手術用定位裝置及應用其之影像導航系統
JP5384521B2 (ja) 2008-11-27 2014-01-08 株式会社日立メディコ 放射線撮像装置
US8483800B2 (en) 2008-11-29 2013-07-09 General Electric Company Surgical navigation enabled imaging table environment
CN102300512B (zh) 2008-12-01 2016-01-20 马佐尔机器人有限公司 机器人引导的倾斜脊柱稳定化
ES2341079B1 (es) 2008-12-11 2011-07-13 Fundacio Clinic Per A La Recerca Biomedica Equipo para vision mejorada por infrarrojo de estructuras vasculares,aplicable para asistir intervenciones fetoscopicas, laparoscopicas y endoscopicas y proceso de tratamiento de la señal para mejorar dicha vision.
US8021393B2 (en) 2008-12-12 2011-09-20 Globus Medical, Inc. Lateral spinous process spacer with deployable wings
CN102256555B (zh) * 2008-12-23 2015-09-09 马科外科公司 具有松开启动器的末端执行器
US8374723B2 (en) 2008-12-31 2013-02-12 Intuitive Surgical Operations, Inc. Obtaining force information in a minimally invasive surgical procedure
US8830224B2 (en) 2008-12-31 2014-09-09 Intuitive Surgical Operations, Inc. Efficient 3-D telestration for local robotic proctoring
US8594841B2 (en) 2008-12-31 2013-11-26 Intuitive Surgical Operations, Inc. Visual force feedback in a minimally invasive surgical procedure
US8184880B2 (en) 2008-12-31 2012-05-22 Intuitive Surgical Operations, Inc. Robust sparse image matching for robotic surgery
EP2389114A1 (en) 2009-01-21 2011-11-30 Koninklijke Philips Electronics N.V. Method and apparatus for large field of view imaging and detection and compensation of motion artifacts
EP2381877B1 (en) 2009-01-29 2018-02-28 Imactis Method and device for navigation of a surgical tool
KR101038417B1 (ko) 2009-02-11 2011-06-01 주식회사 이턴 수술 로봇 시스템 및 그 제어 방법
US8120301B2 (en) 2009-03-09 2012-02-21 Intuitive Surgical Operations, Inc. Ergonomic surgeon control console in robotic surgical systems
US8418073B2 (en) 2009-03-09 2013-04-09 Intuitive Surgical Operations, Inc. User interfaces for electrosurgical tools in robotic surgical systems
US8918207B2 (en) 2009-03-09 2014-12-23 Intuitive Surgical Operations, Inc. Operator input device for a robotic surgical system
US9737235B2 (en) 2009-03-09 2017-08-22 Medtronic Navigation, Inc. System and method for image-guided navigation
US8504139B2 (en) * 2009-03-10 2013-08-06 Medtronic Xomed, Inc. Navigating a surgical instrument
US20120053597A1 (en) 2009-03-10 2012-03-01 Mcmaster University Mobile robotic surgical system
US8335552B2 (en) 2009-03-20 2012-12-18 Medtronic, Inc. Method and apparatus for instrument placement
US20110306986A1 (en) 2009-03-24 2011-12-15 Min Kyu Lee Surgical robot system using augmented reality, and method for controlling same
US20100249571A1 (en) 2009-03-31 2010-09-30 General Electric Company Surgical navigation system with wireless magnetoresistance tracking sensors
US8882803B2 (en) 2009-04-01 2014-11-11 Globus Medical, Inc. Orthopedic clamp and extension rod
EP2429438A1 (en) 2009-04-24 2012-03-21 Medtronic, Inc. Electromagnetic navigation of medical instruments for cardiothoracic surgery
WO2010144219A1 (en) 2009-05-18 2010-12-16 Loma Linda University Method and devices for performing minimally invasive surgery
ES2388029B1 (es) 2009-05-22 2013-08-13 Universitat Politècnica De Catalunya Sistema robótico para cirugia laparoscópica.
CN101897593B (zh) 2009-05-26 2014-08-13 清华大学 一种计算机层析成像设备和方法
US8121249B2 (en) 2009-06-04 2012-02-21 Virginia Tech Intellectual Properties, Inc. Multi-parameter X-ray computed tomography
WO2011013164A1 (ja) 2009-07-27 2011-02-03 株式会社島津製作所 放射線撮影装置
BR212012002342U2 (pt) 2009-08-06 2015-11-03 Koninkl Philips Electronics Nv método de geração de uma imagem de um objeto com o uso de um aparelho de imagens que ten um detector, aparelho de formação de imagens médicas adaptado para gerar uma imagem de um objeto, e, sistema de formação de imagens combinadas de raios x e spect
WO2011021192A1 (en) 2009-08-17 2011-02-24 Mazor Surgical Technologies Ltd. Device for improving the accuracy of manual operations
US9844414B2 (en) 2009-08-31 2017-12-19 Gregory S. Fischer System and method for robotic surgical intervention in a magnetic resonance imager
EP2298223A1 (en) 2009-09-21 2011-03-23 Stryker Leibinger GmbH & Co. KG Technique for registering image data of an object
US8465476B2 (en) 2009-09-23 2013-06-18 Intuitive Surgical Operations, Inc. Cannula mounting fixture
EP2482745B1 (en) 2009-09-30 2013-12-18 Brainlab AG Two-part medical tracking marker
NL1037348C2 (en) 2009-10-02 2011-04-05 Univ Eindhoven Tech Surgical robot, instrument manipulator, combination of an operating table and a surgical robot, and master-slave operating system.
US8685098B2 (en) 2010-06-25 2014-04-01 Globus Medical, Inc. Expandable fusion device and method of installation thereof
US8679183B2 (en) 2010-06-25 2014-03-25 Globus Medical Expandable fusion device and method of installation thereof
US8556979B2 (en) 2009-10-15 2013-10-15 Globus Medical, Inc. Expandable fusion device and method of installation thereof
US8062375B2 (en) 2009-10-15 2011-11-22 Globus Medical, Inc. Expandable fusion device and method of installation thereof
WO2011050456A1 (en) 2009-10-28 2011-05-05 Imris Inc. Automatic registration of images for image guided surgery
USD631966S1 (en) 2009-11-10 2011-02-01 Globus Medical, Inc. Basilar invagination implant
US8521331B2 (en) 2009-11-13 2013-08-27 Intuitive Surgical Operations, Inc. Patient-side surgeon interface for a minimally invasive, teleoperated surgical instrument
US20110137152A1 (en) 2009-12-03 2011-06-09 General Electric Company System and method for cooling components of a surgical navigation system
US8277509B2 (en) 2009-12-07 2012-10-02 Globus Medical, Inc. Transforaminal prosthetic spinal disc apparatus
CN102651998B (zh) 2009-12-10 2015-08-05 皇家飞利浦电子股份有限公司 用于微分相衬成像的扫描系统
US8694075B2 (en) 2009-12-21 2014-04-08 General Electric Company Intra-operative registration for navigated surgical procedures
US20110160569A1 (en) * 2009-12-31 2011-06-30 Amit Cohen system and method for real-time surface and volume mapping of anatomical structures
US8353963B2 (en) 2010-01-12 2013-01-15 Globus Medical Expandable spacer and method for use thereof
BR112012016973A2 (pt) 2010-01-13 2017-09-26 Koninl Philips Electronics Nv sistema de navegação cirúrgica para a integração de uma pluralidade de imagens de uma região anatômica de um corpo, incluíndo uma imagem pré-operatótia digitalizada, uma imagem intra-operatória fluoroscópia e uma imagem intra-operatória endoscópica
US9381045B2 (en) 2010-01-13 2016-07-05 Jcbd, Llc Sacroiliac joint implant and sacroiliac joint instrument for fusing a sacroiliac joint
US9030444B2 (en) 2010-01-14 2015-05-12 Brainlab Ag Controlling and/or operating a medical device by means of a light pointer
US9039769B2 (en) 2010-03-17 2015-05-26 Globus Medical, Inc. Intervertebral nucleus and annulus implants and method of use thereof
US20110238080A1 (en) 2010-03-25 2011-09-29 Date Ranjit Robotic Surgical Instrument System
US20140330288A1 (en) 2010-03-25 2014-11-06 Precision Automation And Robotics India Ltd. Articulating Arm for a Robotic Surgical Instrument System
IT1401669B1 (it) 2010-04-07 2013-08-02 Sofar Spa Sistema di chirurgia robotizzata con controllo perfezionato.
US8870880B2 (en) 2010-04-12 2014-10-28 Globus Medical, Inc. Angling inserter tool for expandable vertebral implant
IT1399603B1 (it) 2010-04-26 2013-04-26 Scuola Superiore Di Studi Universitari E Di Perfez Apparato robotico per interventi di chirurgia minimamente invasiva
US8717430B2 (en) 2010-04-26 2014-05-06 Medtronic Navigation, Inc. System and method for radio-frequency imaging, registration, and localization
CA2797302C (en) 2010-04-28 2019-01-15 Ryerson University System and methods for intraoperative guidance feedback
JP2013530028A (ja) 2010-05-04 2013-07-25 パスファインダー セラピューティクス,インコーポレイテッド 擬似特徴を使用する腹部表面マッチングのためのシステムおよび方法
US8738115B2 (en) 2010-05-11 2014-05-27 Siemens Aktiengesellschaft Method and apparatus for selective internal radiation therapy planning and implementation
DE102010020284A1 (de) 2010-05-12 2011-11-17 Siemens Aktiengesellschaft Bestimmung von 3D-Positionen und -Orientierungen von chirurgischen Objekten aus 2D-Röntgenbildern
US8603077B2 (en) 2010-05-14 2013-12-10 Intuitive Surgical Operations, Inc. Force transmission for robotic surgical instrument
US8746252B2 (en) 2010-05-14 2014-06-10 Intuitive Surgical Operations, Inc. Surgical system sterile drape
US8883210B1 (en) 2010-05-14 2014-11-11 Musculoskeletal Transplant Foundation Tissue-derived tissuegenic implants, and methods of fabricating and using same
KR101181569B1 (ko) 2010-05-25 2012-09-10 정창욱 단일 통로 수술 모드와 다통로 수술 모드를 실현할 수 있는 수술용 로봇 시스템 및 그 제어 방법
US20110295370A1 (en) 2010-06-01 2011-12-01 Sean Suh Spinal Implants and Methods of Use Thereof
DE102010026674B4 (de) 2010-07-09 2012-09-27 Siemens Aktiengesellschaft Bildgebungsvorrichtung und Strahlentherapiegerät
US8675939B2 (en) 2010-07-13 2014-03-18 Stryker Leibinger Gmbh & Co. Kg Registration of anatomical data sets
WO2012007036A1 (en) 2010-07-14 2012-01-19 Brainlab Ag Method and system for determining an imaging direction and calibration of an imaging apparatus
US20120035507A1 (en) 2010-07-22 2012-02-09 Ivan George Device and method for measuring anatomic geometries
US8740882B2 (en) 2010-07-30 2014-06-03 Lg Electronics Inc. Medical robotic system and method of controlling the same
EP3659490A1 (en) 2010-08-20 2020-06-03 Veran Medical Technologies, Inc. Apparatus and method for four dimensional soft tissue navigation
JP2012045278A (ja) 2010-08-30 2012-03-08 Fujifilm Corp X線画像撮影装置およびx線画像撮影方法
WO2012030304A1 (en) 2010-09-01 2012-03-08 Agency For Science, Technology And Research A robotic device for use in image-guided robot assisted surgical training
KR20120030174A (ko) 2010-09-17 2012-03-28 삼성전자주식회사 촉각 피드백을 제공하는 수술 로봇 시스템 및 수술 장치, 그리고 그의 촉각 피드백 제공 방법
EP2431003B1 (en) 2010-09-21 2018-03-21 Medizinische Universität Innsbruck Registration device, system, kit and method for a patient registration
US8679125B2 (en) 2010-09-22 2014-03-25 Biomet Manufacturing, Llc Robotic guided femoral head reshaping
US8657809B2 (en) 2010-09-29 2014-02-25 Stryker Leibinger Gmbh & Co., Kg Surgical navigation system
US8526700B2 (en) 2010-10-06 2013-09-03 Robert E. Isaacs Imaging system and method for surgical and interventional medical procedures
US8718346B2 (en) 2011-10-05 2014-05-06 Saferay Spine Llc Imaging system and method for use in surgical and interventional medical procedures
US9913693B2 (en) 2010-10-29 2018-03-13 Medtronic, Inc. Error correction techniques in surgical navigation
EP3150113A1 (en) 2010-12-13 2017-04-05 Ortho Kinematics, Inc. Methods, systems and devices for clinical data reporting and surgical navigation
US8876866B2 (en) 2010-12-13 2014-11-04 Globus Medical, Inc. Spinous process fusion devices and methods thereof
CN103281968B (zh) 2010-12-22 2017-04-12 优瑞技术公司 用于在医疗过程中进行图像引导的系统和方法
US9364171B2 (en) * 2010-12-22 2016-06-14 Veebot Systems, Inc. Systems and methods for autonomous intravenous needle insertion
US20130281821A1 (en) 2011-01-13 2013-10-24 Koninklijke Philips Electronics N.V. Intraoperative camera calibration for endoscopic surgery
US8918215B2 (en) * 2011-01-19 2014-12-23 Harris Corporation Telematic interface with control signal scaling based on force sensor feedback
KR101181613B1 (ko) 2011-02-21 2012-09-10 윤상진 사용자 지정에 따라 결정되는 변위 정보에 기초하여 수술을 수행하는 수술용 로봇 시스템과 그 제어 방법
US20120226145A1 (en) * 2011-03-03 2012-09-06 National University Of Singapore Transcutaneous robot-assisted ablation-device insertion navigation system
US9026247B2 (en) 2011-03-30 2015-05-05 University of Washington through its Center for Communication Motion and video capture for tracking and evaluating robotic surgery and associated systems and methods
WO2012131660A1 (en) 2011-04-01 2012-10-04 Ecole Polytechnique Federale De Lausanne (Epfl) Robotic system for spinal and other surgeries
US20120256092A1 (en) 2011-04-06 2012-10-11 General Electric Company Ct system for use in multi-modality imaging system
WO2012139031A1 (en) 2011-04-06 2012-10-11 The Trustees Of Columbia University In The City Of New York System, method and computer-accessible medium for providing a panoramic cone beam computed tomography (cbct)
WO2012149548A2 (en) 2011-04-29 2012-11-01 The Johns Hopkins University System and method for tracking and navigation
US9072535B2 (en) 2011-05-27 2015-07-07 Ethicon Endo-Surgery, Inc. Surgical stapling instruments with rotatable staple deployment arrangements
WO2012169642A1 (ja) 2011-06-06 2012-12-13 株式会社大野興業 レジストレーション用テンプレートの製造方法
US8498744B2 (en) 2011-06-30 2013-07-30 Mako Surgical Corporation Surgical robotic systems with manual and haptic and/or active control modes
US9188973B2 (en) * 2011-07-08 2015-11-17 Restoration Robotics, Inc. Calibration and transformation of a camera system's coordinate system
US9089353B2 (en) 2011-07-11 2015-07-28 Board Of Regents Of The University Of Nebraska Robotic surgical devices, systems, and related methods
US8818105B2 (en) 2011-07-14 2014-08-26 Accuray Incorporated Image registration for image-guided surgery
KR20130015146A (ko) 2011-08-02 2013-02-13 삼성전자주식회사 의료 영상 처리 방법 및 장치, 영상 유도를 이용한 로봇 수술 시스템
EP2739251A4 (en) * 2011-08-03 2015-07-29 Conformis Inc AUTOMATED DESIGN, SELECTION, MANUFACTURE AND IMPLANTATION OF PATIENT ADAPTED AND IMPROVED JOINT IMPLANTS, DESIGNS AND RELATED GUIDING TOOLS
US10866783B2 (en) 2011-08-21 2020-12-15 Transenterix Europe S.A.R.L. Vocally activated surgical control system
US9427330B2 (en) 2011-09-06 2016-08-30 Globus Medical, Inc. Spinal plate
US8864833B2 (en) 2011-09-30 2014-10-21 Globus Medical, Inc. Expandable fusion device and method of installation thereof
US10582973B2 (en) 2012-08-08 2020-03-10 Virtual Incision Corporation Robotic surgical devices, systems, and related methods
US10734116B2 (en) * 2011-10-04 2020-08-04 Quantant Technology, Inc. Remote cloud based medical image sharing and rendering semi-automated or fully automated network and/or web-based, 3D and/or 4D imaging of anatomy for training, rehearsing and/or conducting medical procedures, using multiple standard X-ray and/or other imaging projections, without a need for special hardware and/or systems and/or pre-processing/analysis of a captured image data
CA2852233C (en) * 2011-10-14 2023-08-08 Jointvue, Llc Real-time 3-d ultrasound reconstruction of knee and its implications for patient specific implants and 3-d joint injections
US20130096573A1 (en) * 2011-10-18 2013-04-18 Hyosig Kang System and method for surgical tool tracking
US9060794B2 (en) 2011-10-18 2015-06-23 Mako Surgical Corp. System and method for robotic surgery
US8894688B2 (en) 2011-10-27 2014-11-25 Globus Medical Inc. Adjustable rod devices and methods of using the same
DE102011054910B4 (de) 2011-10-28 2013-10-10 Ovesco Endoscopy Ag Magnetischer Endeffektor und Einrichtung zur Führung und Positionierung desselben
CA3041707C (en) 2011-11-15 2021-04-06 Manickam UMASUTHAN Method of real-time tracking of moving/flexible surfaces
FR2983059B1 (fr) 2011-11-30 2014-11-28 Medtech Procede assiste par robotique de positionnement d'instrument chirurgical par rapport au corps d'un patient et dispositif de mise en oeuvre.
US9713499B2 (en) 2011-12-05 2017-07-25 Mazor Robotics Ltd. Active bed mount for surgical robot
KR101901580B1 (ko) * 2011-12-23 2018-09-28 삼성전자주식회사 수술 로봇 및 그 제어 방법
US9265583B2 (en) 2011-12-30 2016-02-23 Mako Surgical Corp. Method for image-based robotic surgery
FR2985167A1 (fr) 2011-12-30 2013-07-05 Medtech Procede medical robotise de surveillance de la respiration d'un patient et de correction de la trajectoire robotisee.
CN106923903B (zh) 2011-12-30 2020-09-29 玛口外科股份有限公司 用于基于图像的机器人外科手术的系统
KR20130080909A (ko) 2012-01-06 2013-07-16 삼성전자주식회사 수술 로봇 및 그 제어 방법
US9138297B2 (en) 2012-02-02 2015-09-22 Intuitive Surgical Operations, Inc. Systems and methods for controlling a robotic surgical system
EP4056111A3 (en) 2012-02-22 2022-12-07 Veran Medical Technologies, Inc. Systems, methods, and devices for four dimensional soft tissue navigation
US11207132B2 (en) 2012-03-12 2021-12-28 Nuvasive, Inc. Systems and methods for performing spinal surgery
US8855822B2 (en) 2012-03-23 2014-10-07 Innovative Surgical Solutions, Llc Robotic surgical system with mechanomyography feedback
KR101946000B1 (ko) 2012-03-28 2019-02-08 삼성전자주식회사 수술용 로봇 시스템 및 로봇 시스템의 제어방법
US8888821B2 (en) 2012-04-05 2014-11-18 Warsaw Orthopedic, Inc. Spinal implant measuring system and method
EP2838432A4 (en) 2012-04-16 2015-12-30 Neurologica Corp WIRELESS IMAGING SYSTEM
EP2838433B1 (en) 2012-04-16 2017-10-11 Neurologica Corp. Imaging system with rigidly mounted fiducial markers
US20140142591A1 (en) 2012-04-24 2014-05-22 Auris Surgical Robotics, Inc. Method, apparatus and a system for robotic assisted surgery
US10383765B2 (en) * 2012-04-24 2019-08-20 Auris Health, Inc. Apparatus and method for a global coordinate system for use in robotic surgery
US9020613B2 (en) 2012-05-01 2015-04-28 The Johns Hopkins University Method and apparatus for robotically assisted cochlear implant surgery
JP2015519108A (ja) 2012-05-02 2015-07-09 医百科技股▲ふん▼有限公司 口腔内手術中の補助ガイド方法
US9125556B2 (en) 2012-05-14 2015-09-08 Mazor Robotics Ltd. Robotic guided endoscope
JP2015516278A (ja) 2012-05-18 2015-06-11 ケアストリーム ヘルス インク コーンビームのコンピュータ断層撮影の容積測定撮像システム
KR20130132109A (ko) 2012-05-25 2013-12-04 삼성전자주식회사 서포터 장치 및 이를 채용한 수술 로봇 시스템
KR102145236B1 (ko) 2012-06-01 2020-08-18 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 영-공간을 이용하여 매니퓰레이터 암 대 환자의 충돌을 회피하는 방법 및 시스템
US9358074B2 (en) 2012-06-01 2016-06-07 Intuitive Surgical Operations, Inc. Multi-port surgical robotic system architecture
US10842461B2 (en) * 2012-06-21 2020-11-24 Globus Medical, Inc. Systems and methods of checking registrations for surgical systems
US20130345757A1 (en) 2012-06-22 2013-12-26 Shawn D. Stad Image Guided Intra-Operative Contouring Aid
EP3189948B1 (en) 2012-06-22 2018-10-17 Board of Regents of the University of Nebraska Local control robotic surgical devices
US20140001234A1 (en) 2012-06-28 2014-01-02 Ethicon Endo-Surgery, Inc. Coupling arrangements for attaching surgical end effectors to drive systems therefor
US8880223B2 (en) 2012-07-16 2014-11-04 Florida Institute for Human & Maching Cognition Anthro-centric multisensory interface for sensory augmentation of telesurgery
US20140031664A1 (en) 2012-07-30 2014-01-30 Mako Surgical Corp. Radiographic imaging device
KR101997566B1 (ko) 2012-08-07 2019-07-08 삼성전자주식회사 수술 로봇 시스템 및 그 제어방법
US9770305B2 (en) 2012-08-08 2017-09-26 Board Of Regents Of The University Of Nebraska Robotic surgical devices, systems, and related methods
US10110785B2 (en) 2012-08-10 2018-10-23 Karl Storz Imaging, Inc. Deployable imaging system equipped with solid state imager
WO2014028703A1 (en) 2012-08-15 2014-02-20 Intuitive Surgical Operations, Inc. Systems and methods for cancellation of joint motion using the null-space
KR20150058250A (ko) 2012-08-24 2015-05-28 유니버시티 오브 휴스턴 로봇 장치 및 영상 안내 및 로봇 지원 수술을 위한 시스템
US20140080086A1 (en) 2012-09-20 2014-03-20 Roger Chen Image Navigation Integrated Dental Implant System
US8892259B2 (en) 2012-09-26 2014-11-18 Innovative Surgical Solutions, LLC. Robotic surgical system with mechanomyography feedback
US9757160B2 (en) 2012-09-28 2017-09-12 Globus Medical, Inc. Device and method for treatment of spinal deformity
KR102038632B1 (ko) 2012-11-06 2019-10-30 삼성전자주식회사 수술용 인스트루먼트, 서포터 장치, 및 수술 로봇 시스템
KR20150084801A (ko) 2012-11-14 2015-07-22 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 충돌 회피용 스마트 드레이프
KR102079945B1 (ko) 2012-11-22 2020-02-21 삼성전자주식회사 수술 로봇 및 수술 로봇 제어 방법
US9008752B2 (en) 2012-12-14 2015-04-14 Medtronic, Inc. Method to determine distribution of a material by an infused magnetic resonance image contrast agent
US9393361B2 (en) 2012-12-14 2016-07-19 Medtronic, Inc. Method to determine a material distribution
US9001962B2 (en) 2012-12-20 2015-04-07 Triple Ring Technologies, Inc. Method and apparatus for multiple X-ray imaging applications
DE102013004459A1 (de) 2012-12-20 2014-06-26 avateramedical GmBH Halterungs- und Positioniervorrichtung eines chirurgischen Instruments und/oder eines Endoskops für die minimal-invasive Chirurgie sowie ein chirurgisches Robotersystem
DE102012025101A1 (de) 2012-12-20 2014-06-26 avateramedical GmBH Aktive Positioniereinrichtung eines chirurgischen Instruments und ein diese umfassendes chirurgisches Robotersystem
US9002437B2 (en) 2012-12-27 2015-04-07 General Electric Company Method and system for position orientation correction in navigation
CA2896873A1 (en) 2012-12-31 2014-07-03 Mako Surgical Corp. System for image-based robotic surgery
KR20140090374A (ko) 2013-01-08 2014-07-17 삼성전자주식회사 싱글 포트 수술 로봇 및 그 제어 방법
CN103969269B (zh) 2013-01-31 2018-09-18 Ge医疗系统环球技术有限公司 用于几何校准ct扫描仪的方法和装置
US20140221819A1 (en) 2013-02-01 2014-08-07 David SARMENT Apparatus, system and method for surgical navigation
US9788903B2 (en) 2013-02-04 2017-10-17 Children's National Medical Center Hybrid control surgical robotic system
KR20140102465A (ko) 2013-02-14 2014-08-22 삼성전자주식회사 수술 로봇 및 그 제어방법
KR102117270B1 (ko) 2013-03-06 2020-06-01 삼성전자주식회사 수술 로봇 시스템 및 그 제어방법
KR20140110620A (ko) 2013-03-08 2014-09-17 삼성전자주식회사 수술 로봇 시스템 및 그 작동 방법
KR20140110685A (ko) 2013-03-08 2014-09-17 삼성전자주식회사 싱글 포트 수술 로봇의 제어 방법
KR20140112207A (ko) 2013-03-13 2014-09-23 삼성전자주식회사 증강현실 영상 표시 시스템 및 이를 포함하는 수술 로봇 시스템
US9314308B2 (en) 2013-03-13 2016-04-19 Ethicon Endo-Surgery, Llc Robotic ultrasonic surgical device with articulating end effector
KR102119534B1 (ko) 2013-03-13 2020-06-05 삼성전자주식회사 수술 로봇 및 그 제어방법
US9743987B2 (en) 2013-03-14 2017-08-29 Board Of Regents Of The University Of Nebraska Methods, systems, and devices relating to robotic surgical devices, end effectors, and controllers
US9629595B2 (en) 2013-03-15 2017-04-25 Hansen Medical, Inc. Systems and methods for localizing, tracking and/or controlling medical instruments
EP2996545B1 (en) 2013-03-15 2021-10-20 Board of Regents of the University of Nebraska Robotic surgical systems
KR102117273B1 (ko) 2013-03-21 2020-06-01 삼성전자주식회사 수술 로봇 시스템 및 그 제어 방법
KR20140121581A (ko) 2013-04-08 2014-10-16 삼성전자주식회사 수술 로봇 시스템
KR20140123122A (ko) 2013-04-10 2014-10-22 삼성전자주식회사 수술용 로봇 및 그 제어 방법
US9414859B2 (en) 2013-04-19 2016-08-16 Warsaw Orthopedic, Inc. Surgical rod measuring system and method
US8964934B2 (en) 2013-04-25 2015-02-24 Moshe Ein-Gal Cone beam CT scanning
KR20140129702A (ko) 2013-04-30 2014-11-07 삼성전자주식회사 수술 로봇 시스템 및 그 제어방법
US20140364720A1 (en) 2013-06-10 2014-12-11 General Electric Company Systems and methods for interactive magnetic resonance imaging
DE102013012397B4 (de) 2013-07-26 2018-05-24 Rg Mechatronics Gmbh OP-Robotersystem
US10786283B2 (en) 2013-08-01 2020-09-29 Musc Foundation For Research Development Skeletal bone fixation mechanism
US20150085970A1 (en) 2013-09-23 2015-03-26 General Electric Company Systems and methods for hybrid scanning
US9283048B2 (en) * 2013-10-04 2016-03-15 KB Medical SA Apparatus and systems for precise guidance of surgical tools
CA2926621C (en) 2013-10-07 2021-05-25 Technion Research & Development Foundation Ltd. Needle steering by shaft manipulation
US10561465B2 (en) 2013-10-09 2020-02-18 Nuvasive, Inc. Surgical spinal correction
US9848922B2 (en) 2013-10-09 2017-12-26 Nuvasive, Inc. Systems and methods for performing spine surgery
ITBO20130599A1 (it) 2013-10-31 2015-05-01 Cefla Coop Metodo e apparato per aumentare il campo di vista in una acquisizione tomografica computerizzata con tecnica cone-beam
US20150146847A1 (en) 2013-11-26 2015-05-28 General Electric Company Systems and methods for providing an x-ray imaging system with nearly continuous zooming capability
KR102639961B1 (ko) 2014-03-17 2024-02-27 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 관절방식 암에서 브레이크어웨이 클러칭을 위한 시스템 및 방법
US10026015B2 (en) * 2014-04-01 2018-07-17 Case Western Reserve University Imaging control to facilitate tracking objects and/or perform real-time intervention
CN110367988A (zh) 2014-06-17 2019-10-25 纽文思公司 手术脊椎程序期间手术中计划和评估脊椎变形矫正的装置
US10398494B2 (en) * 2014-07-30 2019-09-03 Medovex Corp. Surgical tools for spinal facet therapy to alleviate pain and related methods
CN106687062B (zh) 2014-09-17 2019-11-22 直观外科手术操作公司 用于利用增广雅可比矩阵控制操纵器接头移动的系统和方法
US10631907B2 (en) 2014-12-04 2020-04-28 Mazor Robotics Ltd. Shaper for vertebral fixation rods
US20160166329A1 (en) 2014-12-15 2016-06-16 General Electric Company Tomographic imaging for interventional tool guidance
EP3282997B1 (en) 2015-04-15 2021-06-16 Mobius Imaging, LLC Integrated medical imaging and surgical robotic system
US10180404B2 (en) 2015-04-30 2019-01-15 Shimadzu Corporation X-ray analysis device
US10881464B2 (en) * 2015-07-13 2021-01-05 Mako Surgical Corp. Lower extremities leg length calculation method
WO2017008119A1 (en) * 2015-07-15 2017-01-19 360 Knee Systems Pty Ltd Configuring a surgical tool
US10888389B2 (en) * 2015-09-10 2021-01-12 Duke University Systems and methods for arbitrary viewpoint robotic manipulation and robotic surgical assistance
US20170143284A1 (en) 2015-11-25 2017-05-25 Carestream Health, Inc. Method to detect a retained surgical object
US10143526B2 (en) * 2015-11-30 2018-12-04 Auris Health, Inc. Robot-assisted driving systems and methods
US10070939B2 (en) 2015-12-04 2018-09-11 Zaki G. Ibrahim Methods for performing minimally invasive transforaminal lumbar interbody fusion using guidance
EP3402433B1 (en) * 2016-01-12 2021-03-10 Intuitive Surgical Operations, Inc. Staged force feedback transitioning between control states
CN108601530A (zh) 2016-01-22 2018-09-28 纽文思公司 用于促进脊柱手术的系统和方法
US11058378B2 (en) 2016-02-03 2021-07-13 Globus Medical, Inc. Portable medical imaging system
US10842453B2 (en) 2016-02-03 2020-11-24 Globus Medical, Inc. Portable medical imaging system
US10448910B2 (en) 2016-02-03 2019-10-22 Globus Medical, Inc. Portable medical imaging system
US9962133B2 (en) 2016-03-09 2018-05-08 Medtronic Navigation, Inc. Transformable imaging system
US10357315B2 (en) * 2016-05-27 2019-07-23 Mako Surgical Corp. Preoperative planning and associated intraoperative registration for a surgical system
US9931025B1 (en) 2016-09-30 2018-04-03 Auris Surgical Robotics, Inc. Automated calibration of endoscopes with pull wires
JP7233841B2 (ja) * 2017-01-18 2023-03-07 ケービー メディカル エスアー ロボット外科手術システムのロボットナビゲーション
US20210244485A1 (en) * 2020-02-12 2021-08-12 Medtech S.A. Robotic guided 3d structured light-based camera

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008538184A (ja) 2005-02-22 2008-10-16 マコ サージカル コーポレーション 触覚誘導システムおよび方法
JP2008237784A (ja) 2007-03-29 2008-10-09 Univ Waseda 病変部位の位置特定システム
US20160151120A1 (en) 2014-12-02 2016-06-02 KB Medical SA Robot Assisted Volume Removal During Surgery

Also Published As

Publication number Publication date
US20240016553A1 (en) 2024-01-18
US11779408B2 (en) 2023-10-10
US20230123722A1 (en) 2023-04-20
US20180200002A1 (en) 2018-07-19
US10420616B2 (en) 2019-09-24
EP3360502A2 (en) 2018-08-15
EP3360502A3 (en) 2018-10-31
US20200030040A1 (en) 2020-01-30
US11529195B2 (en) 2022-12-20
JP2018126498A (ja) 2018-08-16

Similar Documents

Publication Publication Date Title
JP7233841B2 (ja) ロボット外科手術システムのロボットナビゲーション
US11813030B2 (en) Robotic navigation of robotic surgical systems
US11737850B2 (en) Methods and systems for display of patient data in computer-assisted surgery
CN110876643B (zh) 医疗手术导航系统及方法
US20220096189A1 (en) Image guided motion scaling for robot control
US20230048496A1 (en) Systems and methods for implantation of spinal plate
EP2931159B1 (en) Registration and navigation using a three-dimensional tracking sensor
CN111417354A (zh) 用于机器人辅助手术的方法及系统
CN111417352A (zh) 用于设定图像引导式外科手术的轨迹和目标位置的方法和系统
US20010037064A1 (en) Method and apparatuses for maintaining a trajectory in sterotaxi for tracking a target inside a body
US20220378526A1 (en) Robotic positioning of a device
WO2021254613A1 (en) Compensation of gravity-related displacements of medical carrier structures
EP4196036A1 (en) Determining an avoidance region for a reference device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230222

R150 Certificate of patent or registration of utility model

Ref document number: 7233841

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150