JP2022169764A - ロボット外科処置中に物理的オブジェクトの識別と追跡を行うシステムおよび方法 - Google Patents

ロボット外科処置中に物理的オブジェクトの識別と追跡を行うシステムおよび方法 Download PDF

Info

Publication number
JP2022169764A
JP2022169764A JP2022137689A JP2022137689A JP2022169764A JP 2022169764 A JP2022169764 A JP 2022169764A JP 2022137689 A JP2022137689 A JP 2022137689A JP 2022137689 A JP2022137689 A JP 2022137689A JP 2022169764 A JP2022169764 A JP 2022169764A
Authority
JP
Japan
Prior art keywords
physical object
vision
instrument
virtual
physical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022137689A
Other languages
English (en)
Inventor
レスラー,パトリック
Roessler Patrick
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mako Surgical Corp
Original Assignee
Mako Surgical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mako Surgical Corp filed Critical Mako Surgical Corp
Publication of JP2022169764A publication Critical patent/JP2022169764A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/02Surgical instruments, devices or methods, e.g. tourniquets for holding wounds open; Tractors
    • A61B17/0206Surgical instruments, devices or methods, e.g. tourniquets for holding wounds open; Tractors with antagonistic arms as supports for retractor elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/17Guides or aligning means for drills, mills, pins or wires
    • A61B17/1703Guides or aligning means for drills, mills, pins or wires using imaging means, e.g. by X-rays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/32Surgical robots operating autonomously
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/76Manipulators having means for providing feel, e.g. force or tactile feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2059Mechanical position encoders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • A61B2034/207Divots for calibration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • A61B2090/3612Image-producing devices, e.g. surgical cameras with images taken automatically

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Mechanical Engineering (AREA)
  • Radiology & Medical Imaging (AREA)
  • Dentistry (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Manipulator (AREA)

Abstract

【課題】外科処置中に、標的部位の近くにある物理的オブジェクトを追跡するためのナビゲーションシステムおよび方法を提供する。【解決手段】ナビゲーションシステムは、ロボット装置と、ロボット装置に取り付けられた器具とを備えている。ロボット装置または器具には、ビジョン装置が取り付けられており、ビジョン装置が複数のビジョンデータセットを生成する。ビジョンデータセットは、複数の視点から物理的オブジェクトを取り込んだものである。コンピュータシステムは、ビジョンデータセットにおいて識別可能な物理的オブジェクトの1つ以上の特徴に基づいて、物理的オブジェクトに仮想オブジェクトを関連付ける。仮想オブジェクトは、器具の仮想境界を少なくとも部分的に規定する。【選択図】図3

Description

関連出願
本出願は2016年5月23日に出願した米国特許仮出願第62/340176号の優
先権の利益を主張するものであり、そのすべての開示内容は引用することによって本明細
書の一部をなすものとする。
本発明は、一般に、ロボット外科処置中に物理的オブジェクトの識別と追跡を行うシス
テムおよび方法に関する。
ナビゲーションシステムは、ユーザがオブジェクト(対象物)の位置を正確に特定する
ことを支援するものである。例えば、ナビゲーションシステムは、工業用途や、航空宇宙
用途、医療用途で使用されている。医療分野においては、ナビゲーションシステムは、外
科医が患者の標的部位に対して外科器具を正確に配置するのを支援する。通常、標的部位
は、組織除去などの何らかの形の治療を必要としている部位である。従来のナビゲーショ
ンシステムでは、複数のトラッカと協働するローカライザを使用して、例えば除去すべき
骨の体積などの、外科器具や標的部位に関連する位置データ、向きデータまたはその両方
のデータが提供されている。通常、ローカライザは、トラッカを視野に収めるように配置
される。各トラッカは、外科器具や患者と一緒に動くように外科器具や患者に対して固定
される。患者に取り付けられるトラッカの多くは、治療中の骨に対して取り付けられるが
、骨が硬質であるため、標的部位に対するトラッカの固定的な関係が維持される。そして
、外科器具と患者に対してそれぞれ別個のトラッカを使用することによって、外科器具の
治療端を標的部位に正確に配置することが可能となる。
標的部位の近くには、開創器などの、外科手術中に避けるべき物理的オブジェクト(ph
ysical object)が配置される場合が多い。こうした開創器などの物理的オブジェクトは
、例えば、トラッカを別途用いることによって、外科器具と同じ方法で追跡することもで
きるが、開創器などの物理的オブジェクト用にトラッカを追加すれば、特に、ローカライ
ザの追跡対象のオブジェクトの数が増えてしまうなどのため、ナビゲーションシステムの
コストや複雑性の大幅な増大につながりかねない。さらに、こうした物理的オブジェクト
は通常、器具や患者に関連付けられたトラッカに対して動くことができるため、上述のよ
うなトラッカを基準に、これらの追加の物理的オブジェクトを追跡するのは容易ではない
。この点に関してこれまで、ローカライザに取り付けるなどの方法でローカライザに対し
て固定されたビデオカメラで取り込んだ画像に対して、オブジェクト認識技術を適用する
ことによって、これら追加の物理的オブジェクトを追跡することが提案されている。しか
しながら、この手法は、計算量が多く、難しい可能性がある。
ロボット外科手術中、特にロボット装置の自律動作中においては、ナビゲーションシス
テムが標的部位の近くにあるすべての物理的オブジェクトの位置を識別できていなければ
、これらの物理的オブジェクトを避けることは難しい。従って、現在、ロボット装置は、
そのような物理的オブジェクトとの衝突がないかを監視し、衝突時には、例えば衝突を示
すフォーストルクセンサからのフィードバックに依拠して停止するように制御されている
。しかしながら、この場合、衝突が発生して初めてロボット装置が停止されるため望まし
くない。衝突の結果、ツールが損傷してしまうか、あるいは例えば、回転バーまたは鋸が
開創器に当たるなどの衝突によって、破片が生じて患者を危険にさらしてしまう可能性も
ある。また、物理的オブジェクトとの衝突によって、外科処置が長引く可能性もある。外
科処置の長時間化は、患者の全身麻酔時間の延長につながる可能性があり、あるいは他の
形で外科処置に伴うリスクを増大させる可能性もある。
従って、本技術分野においては、ロボット外科手術中の物理的オブジェクトの識別と追
跡に対処するシステムおよび方法が必要とされている。
一実施形態では、外科処置中に、標的部位の近くにある物理的オブジェクトを追跡する
ためのナビゲーションシステムが提供される。ナビゲーションシステムは、ロボット装置
と、ロボット装置に取り付け可能な器具とを備えている。ロボット装置または器具のうち
いずれか一方には、ロボット装置と共に動かすことができるようにビジョン装置が取り付
けられている。ビジョン装置は、複数のビジョンデータセットを生成するように構成され
ている。ビジョンデータセットは、ロボット装置を動かした場合にビジョン装置が複数の
自由度で動かされることによって可能となる複数の視点から物理的オブジェクトを取り込
んだものである。コンピュータシステムは、ビジョン装置と通信を行う。コンピュータシ
ステムは、ビジョンデータセットにおいて識別可能な物理的オブジェクトの1つ以上の特
徴に基づいて、物理的オブジェクトに、仮想オブジェクトを関連付けるように構成されて
いる少なくとも1つのプロセッサを有している。仮想オブジェクトは、器具の仮想境界を
少なくとも部分的に規定する。
他の実施形態では、物理的オブジェクトを追跡する方法が提供される。本方法は、ロボ
ット装置の動きの結果得られるビジョン装置の動きに応じて、複数のビジョンデータセッ
トを生成するステップを含む。ビジョン装置の動きの結果、複数の視点から物理的オブジ
ェクトのビジョンデータセットが取り込まれる。また、本方法は、ビジョンデータセット
において識別可能な物理的オブジェクトの1つ以上の特徴に基づいて、物理的オブジェク
トに仮想オブジェクトを関連付けるステップをさらに含む。仮想オブジェクトは、器具の
仮想境界を規定する。
上述のシステムおよび方法によって、いくつかの利点が得られる。例えば、1つ以上の
特徴を有する物理的オブジェクトに対してビジョン装置を動かすことにより、コンピュー
タシステムは、物理的オブジェクトの識別および位置特定を行うと共に、物理的オブジェ
クトに対する器具の相対的な動きを追跡することが可能となる。物理的オブジェクトの位
置推定には、ビジョン装置によって取得する1つのビジョンデータセット(例えば、1つ
の画像)で十分である場合があるかもしれないが、その場合には、それ以降の複数のビジ
ョンデータセットは追跡結果の向上に用いることができる。これは、外科処置時に器具を
使って標的部位を治療している間、物理的オブジェクトを避けるのに役立つ場合がある。
さらに、可動性のあるロボット装置または器具にビジョン装置を取り付けることによって
、例えば、異なる複数の視点からの複数のビデオのコマのような、異なる複数の視点から
物理的オブジェクトの複数のビジョンデータセットを取得する手法を活用した低コストの
ビジョン装置を利用することができる。そしてこれにより、高コストのトラッカを別途設
ける必要なしに、これらの物理的オブジェクトの追跡が可能となる。
本発明の利点は、以下の詳細な説明を添付の図面と関連させて考察することにより、よ
りよく理解され、容易に理解されるであろう。
ロボット装置と、ローカライザと、ビジョン装置とを備えるロボット外科手術システムを示す斜視図である。 ロボット外科手術システムを制御するための制御システムを示す模式図である。 ロボット外科手術システムで使用される複数の座標系を示す斜視図である。 ビジョン装置によって視認される物理的オブジェクトと共に外科手術部位を示す説明図である。 物理的オブジェクト上の特徴の一例を示す図である。 物理的オブジェクト上の特徴の他の例を示す図である。 符号化された特徴を含む、特徴群の一例を示す図である。 符号化された特徴を含む、特徴セットの一例を示す図である。 物理的オブジェクトに関連付けられた仮想オブジェクトを示す説明図である。 本発明の方法によって実行されるステップのフローチャートである。
図1には、患者22を治療するためのシステム20が示されている。図1では、システ
ム20が、医療施設の手術室などの外科環境にある状態を示している。図示の実施形態に
おいて、システム20は、機械加工ステーション24と、案内ステーション26とを備え
ている。案内ステーション26は、手術室内の様々なオブジェクト(対象物)の動きを追
跡するように設定されている。そのようなオブジェクトとしては、例えば、外科器具30
や、患者の大腿骨F、患者の脛骨Tなどが挙げられる。案内ステーション26は、それら
の相対的な位置および向きをユーザに表示する目的のため、そして場合によっては、大腿
骨標的部位TSなどの標的部位に対する外科器具30の動きを制御または制限する目的の
ために、これらのオブジェクトを追跡する。図1では、外科器具30を機械加工ステーシ
ョン24の一部として示している。
案内ステーション26は、ナビゲーションコンピュータ34を収容するナビゲーション
カートアセンブリ32を備えている。ナビゲーションインターフェースは、ナビゲーショ
ンコンピュータ34と動作可能に通信を行う。ナビゲーションインターフェースは、滅菌
環境の外に設置するように適合された第1のディスプレイ36と、滅菌環境の中に設置す
るように適合された第2のディスプレイ38とを備えている。ディスプレイ36,38は
、ナビゲーションカートアセンブリ32に調整可能に取り付けられている。キーボードや
マウスなどの第1の入力装置40や第2の入力装置42を使用して、ナビゲーションコン
ピュータ34に情報を入力するか、あるいは、ナビゲーションコンピュータ34の何らか
の特性に対して他の選択や制御を行うことができる。なお、入力装置としては、タッチス
クリーン(図示せず)や音声駆動などの他の入力装置も考えられる。
ローカライザ44は、ナビゲーションコンピュータ34と通信を行う。図示の実施形態
では、ローカライザ44は光学ローカライザであり、ローカライザカメラユニット46を
備えている。ローカライザカメラユニット46は、1つ以上の光学位置センサ50を収容
する外部ケーシング48を有している。いくつかの実施形態では、少なくとも2つの光学
センサ50が使用され、好ましくは、3つまたはそれ以上の光学センサ50が使用される
。光学センサ50は、3つの別体の電荷結合素子(CCD)であってもよい。一実施形態
では、3つの1次元CCDが使用される。なお、他の実施形態では、それぞれが1つまた
は2つ以上の別体のCCDを有する、複数の別体のローカライザカメラユニットを、手術
室内の各所に配置することもできることを理解されたい。CCDによって赤外線信号が検
出される。さらに、ローカライザ44が異なるモダリティを採用していてもよく、電磁ロ
ーカライザや、RFローカライザ、超音波ローカライザ、あるいはオブジェクトの追跡が
可能な他の従来のローカライザであってもよい。
ローカライザカメラユニット46は調整可能なアームに取り付けられ、後述するトラッ
カを光学センサ50の(理想的には障害物がない)視野に収められるように光学センサ5
0が位置決めされる。いくつかの実施形態では、ローカライザカメラユニット46は、回
転関節を中心に回転することによって、少なくとも1つの自由度で調整可能とされている
。他の実施形態では、ローカライザカメラユニット46は、約2つ以上の自由度で調整可
能とされている。
ローカライザカメラユニット46は、光学センサ50と通信して光学センサ50から信
号を受信するローカライザカメラコントローラ52を備えている。ローカライザカメラコ
ントローラ52は、有線接続または無線接続(図示せず)のいずれかを介してナビゲーシ
ョンコンピュータ34と通信を行う。そのような接続の1つとして、高速通信およびアイ
ソクロナスリアルタイムデータ転送用のシリアルバスインターフェース規格であるIEE
E1394インターフェースを挙げることができる。接続には、企業独自のプロトコルを
使用することもできる。他の実施形態では、光学センサ50は、ナビゲーションコンピュ
ータ34と直接通信を行う。
オブジェクトを追跡する目的のため、位置や向きの信号、データ、あるいはその両方が
、ナビゲーションコンピュータ34に送信される。ナビゲーションカートアセンブリ32
、ディスプレイ36,38、およびローカライザカメラユニット46は、2010年5月
25日に「Surgery System(外科手術システム)」の名称で発行されているMalackowski
他による米国特許第7725162号明細書に記載されているものと同様のものであって
もよい。なお、同文献は、引用することによって本明細書の一部をなすものとする。
ナビゲーションコンピュータ34は、いずれも本明細書に記載の機能を実行するために
必要な、ディスプレイ36,38と、中央処理装置(CPU)などのプロセッサ62と、
メモリ(図示せず)と、(内部または外部の)記憶装置(図示せず)とを有している。ナ
ビゲーションコンピュータ34には、以下に説明するようなソフトウェアがロードされる
。このソフトウェアは、ローカライザカメラユニット46から受信した信号を、ローカラ
イザが追跡中のオブジェクトの位置および向きを表すローカライザデータに変換するもの
である。ナビゲーションコンピュータ34は、(ローカルエリアネットワーク(LAN)
、インターネットなどの)コンピュータネットワークとの間で、有線通信または無線通信
を行うことができる。また、ナビゲーションコンピュータ34には、ユニバーサルシリア
ルバス(USB)インターフェースや、CD?ROMまたはSDカードなどのデータ担持
媒体の読取装置などの1つ以上のデータインターフェースを設けることができる。そして
、内部記憶装置、外部記憶装置、またはその両方を、撮像装置で撮影した患者画像の画像
データを格納するように構成することができる。あるいは、これに代えてまたは加えて、
そのような画像データを、コンピュータネットワークを介して(例えばダウンロードなど
によって)受信することもできる。さらに、内部記憶装置、外部記憶装置、またはその両
方を、本明細書に記載の様々な項目の較正データや情報を格納するように構成することも
できる。このような較正データや情報によって、システム20の事前知識が構成されるが
、以下では、この較正データの様々な例についてより詳細に説明する。当然ながら、シス
テム20の事前知識は、これに代えてまたは加えて、他の情報項目を含むこともできる。
案内ステーション26は、複数の追跡装置(本明細書では「トラッカ」とも呼ぶ)54
,56,58と協働して動作することができる。図示の実施形態では、1つのトラッカ5
4が患者の大腿骨Fにしっかりと貼り付けられ、別のトラッカ56が患者の脛骨Tにしっ
かりと貼り付けられている。すなわち、トラッカ54,56は、それぞれ骨の各部にしっ
かりと貼り付けられている。トラッカ54,56は、米国特許第7725162号明細書
に示される方法で、大腿骨Fおよび脛骨Tに取り付けることができる。なお、同文献は、
引用することによって本明細書の一部をなすものとする。また、トラッカ54,56を、
2014年1月16日に「Navigation Systems and Methods for Indicating and Reduci
ng Line-of-Sight Errors(視線誤差を表示・低減するためのナビゲーションシステムお
よび方法)」の名称で出願されている米国特許出願公開第2014/0200621号明
細書に示されているトラッカと同様に取り付けることもできる。同文献も、引用すること
によって本明細書の一部をなすものとする。さらに別の実施形態では、トラッカ54,5
6を他の生体構造に取り付けることもできる。
器具トラッカ58は、外科器具30にしっかりと取り付けられる。器具トラッカ58は
、製造時に外科器具30に内蔵してもよく、あるいは外科処置の準備中に外科器具30に
別途取り付けてもよい。器具トラッカ58が追跡する外科器具30の治療端としては、回
転バー(回転切削器)や電気アブレーションチップ、超音波チップ、矢状鋸刃などの治療
エレメントが含まれ得る。
トラッカ54,56,58は、内蔵電池で駆動することができるほか、ナビゲーション
コンピュータ34を介して給電を受けるリードを有することもできる。なお、ナビゲーシ
ョンコンピュータ34は、ローカライザカメラユニット46と同様に、外部電力で給電さ
れるのが好ましい。
図示の実施形態では、外科器具30は、機械加工ステーション24のマニピュレータ6
6に取り付けられている。マニピュレータ66は、ロボット装置またはロボットアームと
も呼ばれるものである。そのような装置は、「Surgical Manipulator Capable of Contro
lling a Surgical Instrument in Multiple Modes(複数のモードで外科器具を制御可能
な外科マニピュレータ)」の名称で発行されている米国特許第9119655号明細書に
示されている。同文献の開示内容は、引用することによって本明細書の一部をなすものと
する。外科器具30は、医療処置や外科処置を行うのに有用な任意の外科器具(ツールと
も呼ぶ)であり得る。外科器具30は、切削器具、電気外科器具、超音波器具、リーマ、
インパクタ、矢状鋸などの器具であってもよい。いくつかの実施形態では、複数の外科器
具を使用して患者の治療が行われ、それぞれがローカライザ44によって個別に追跡され
る。
トラッカ54,56,58からの光信号は、ローカライザ44の光学センサ50によっ
て受信される。図示の実施形態では、トラッカ54,56,58は能動トラッカである。
この実施形態では、各トラッカ54,56,58は、光学センサ50に光信号を送信する
少なくとも3つの能動追跡素子(能動追跡マーカ)を有している。例えば、能動マーカは
、赤外線などの光を送信する発光ダイオード(LED)60であってもよい。光学センサ
50は、好ましくは100Hz以上、より好ましくは300Hz以上、最も好ましくは5
00Hz以上のサンプリングレートを有する。いくつかの実施形態では、光学センサ50
は、8000Hzのサンプリングレートを有する。サンプリングレートは、LED60か
ら順次発信される光信号を光学センサ50が受信する速度である。いくつかの実施形態で
は、LED60からの光信号は、各トラッカ54,56,58に対して異なる速度で発信
される。
ここで図2を参照して、各LED60はトラッカコントローラ61に接続されている。
トラッカコントローラ61は、対応するトラッカ54,56,58のハウジングに配置さ
れて、ナビゲーションコンピュータ34との間でデータを送受信するものである。一実施
形態では、トラッカコントローラ61は、ナビゲーションコンピュータ34との有線接続
を介して数メガバイト/秒程度でデータを送信する。他の実施形態では、無線接続を用い
ることもできる。これらの実施形態では、ナビゲーションコンピュータ34は、トラッカ
コントローラ61からのデータを受信する送受信機(図示せず)を有している。
他の実施形態では、トラッカ54,56,58は、ローカライザカメラユニット46か
らの光を反射する反射器などの受動マーカ(図示せず)を有していてもよい。反射された
光は、光学センサ50によって受信される。なお、能動構成あるいは受動構成については
、当該技術分野において公知である。
いくつかの実施形態では、2015年4月14日に「Navigation System Including Op
tical and Non-Optical Sensors(光学センサと非光学センサとを備えるナビゲーション
システム)」の名称で発行されているWuによる米国特許第9008757号明細書に示さ
れているトラッカなどのように、トラッカ54,56,58は、ジャイロセンサと加速度
センサとをさらに備えている。なお、同文献は、引用することによって本明細書の一部を
なすものとする。
ナビゲーションコンピュータ34は、ナビゲーションプロセッサ62を備えている。ナ
ビゲーションプロセッサ62は、ナビゲーションコンピュータ34の動作を制御するため
の1つ以上のプロセッサを備え得ることを理解されたい。これらのプロセッサは、任意の
種類のマイクロプロセッサまたはマルチプロセッサシステムであってもよい。いずれの実
施形態においても、「プロセッサ」という用語によって、実施形態の範囲を1つのプロセ
ッサに限定することは意図していない。
ローカライザカメラユニット46は、トラッカ54,56,58のLED60から光学
信号を受信し、ローカライザ44に対するトラッカ54,56,58のLED60の位置
に関する信号をナビゲーションプロセッサ62に出力する。受信した光学信号(いくつか
の実施形態では、これに加えて非光学信号)に基づいて、ナビゲーションプロセッサ62
は、三角測量法などの公知の手法によって、ローカライザ44に対するトラッカ54,5
6,58の相対的な位置および向きを示すデータを生成する。いくつかの実施形態では、
このデータは、ローカライザカメラコントローラ52によって生成され、ナビゲーション
コンピュータ34に送信される。
外科処置が開始される前に、ナビゲーションプロセッサ62には、追加のデータがロー
ドされる。ナビゲーションプロセッサ62は、トラッカ54,56,58の位置および向
きと、事前にロードされたデータとに基づいて、大腿骨標的部位TSなどの、外科器具3
0の治療端を当てるべき標的部位に対する治療端の位置(例えば、外科バーの重心など)
や、外科器具30の向きを決定する。いくつかの実施形態では、ナビゲーションプロセッ
サ62がこれらのデータをマニピュレータコントローラ64に転送する。これに対し、マ
ニピュレータコントローラ64は、これらのデータを使用して、「Surgical Manipulator
Capable of Controlling a Surgical Instrument in Multiple Modes(複数のモードで
外科器具を制御可能な外科マニピュレータ)」の名称で発行されている米国特許第911
9655号明細書に記載されているように、マニピュレータ66を制御することができる
。なお、同文献の開示内容は、引用することによって本明細書の一部をなすものとする。
一実施形態では、マニピュレータ66は、外科医が設定した仮想境界内に留まるように制
御される。本明細書に記載の実施形態では、そのような仮想境界の1つによって、外科器
具30で除去すべき大腿骨Fの物質の体積が規定されている。つまり、仮想境界とは、外
科器具30の治療端がその内部に留まるべき境界のことである。マニピュレータ66は、
「Surgical Manipulator Capable of Controlling a Surgical Instrument in Multiple
Modes(複数のモードで外科器具を制御可能な外科マニピュレータ)」の名称で発行され
ている米国特許第9119655号明細書に記載されているように、ユーザが器具30を
掴んで操作することによって器具30を動かす手動操作モードで動作するように制御する
ことも、あるいは自律的に動作するように制御することもできる。なお、同文献の開示内
容は、引用することによって本明細書の一部をなすものとする。
ナビゲーションプロセッサ62はまた、治療端の標的部位に対する相対位置を示す画像
信号を生成する。これらの画像信号は、ディスプレイ36,38に印加される。これらの
信号に基づいてディスプレイ36,38は、外科医やスタッフが、治療端の標的部位に対
する相対位置を仮想的に見ることを可能にする複数の画像を生成する。多くの場合、ある
時点における1つの標的部位に対する治療端の位置が、これら複数の画像で示される。例
えば、大腿骨Fと脛骨Tの両方を治療する外科処置の場合、大腿骨Fからの物質除去を行
っている間は、大腿骨標的部位TSと、大腿骨標的部位TSに対する外科器具30の治療
端の相対位置とを視覚的に示すことができる。同様に、ユーザが大腿骨Fからの物質の除
去を終えて、脛骨Tからの物質除去ができる状態になると、ディスプレイ36,38は、
外科器具30の治療端の、脛骨Tに関連する標的部位に対する位置のみを示すことができ
る。
ここで図3を参照して、オブジェクトの追跡は、主に、ローカライザ座標系LCLZを
参照して行われる。ローカライザ座標系LCLZは、原点と向き(x軸、y軸、z軸の組
)とを有している。処置中の目標の1つに、ローカライザ座標系LCLZを既知の位置に
保つことが挙げられる。ローカライザカメラユニット46に取り付けた加速度センサ(図
示せず)を使用して、外科手術の担当者が不注意でローカライザカメラユニット46にぶ
つかってしまった場合に起こり得るような、ローカライザ座標系LCLZの突発的な動き
や予想外の動きを追跡することができる。
ローカライザ座標系LCLZとは別に、トラッカ54,56,58および追跡対象のオ
ブジェクトもまた、それぞれ固有の座標系を有する。例えば、トラッカ54,56,58
は、それぞれ、骨トラッカ座標系BTRK1、骨トラッカ座標系BTRK2、および器具
トラッカ座標系TLTRを有している。
図示の実施形態では、案内ステーション26は、骨にしっかりと取り付けられた骨トラ
ッカ54,56の位置を監視することによって、患者の大腿骨Fと脛骨Tの位置を監視す
る。大腿骨の座標系はFBONE、脛骨の座標系はTBONEであり、それぞれ、骨トラ
ッカ54,56がしっかりと取り付けられている骨の座標系である。
外科器具30による治療の対象である標的部位は、仮想オブジェクトによって定義され
る。図示の実施形態では、大腿骨標的部位TSが大腿骨Fに関連付けられている。もちろ
ん、脛骨Tの標的部位などの他のいくつかの標的部位も可能であり、それぞれの標的部位
が、各標的部位に固有の別個の仮想オブジェクトによって定義される。標的部位を表す仮
想オブジェクトは、治療対象の物質の体積や、外科器具30の軌道、外科器具30で切断
する平面、穿孔する穴などを定義するように、ユーザが術前に設定することができる。図
示の実施形態では、仮想オブジェクトVB(図9参照)は、大腿骨Fから除去すべき物質
の体積を定義する。場合によっては、仮想オブジェクトは、術中すなわち外科処置の最中
に設定されたり、再設定されたりする。なお、以下では、整形外科処置に関連して説明を
行っているが、本明細書に記載のシステムおよび方法は、任意の種類の外科処置にも同様
に適していることを理解されたい。
処置が開始される前に、大腿骨Fと脛骨Tの(あるいは他の実施形態の場合、他の組織
または構造の)術前画像などの、関心対象の生体構造の術前画像が生成される。これらの
画像は、患者の生体構造のMRIスキャン、放射線スキャン、またはコンピュータ断層撮
影(CT)スキャンによるものであってもよい。これらの画像を使用して、大腿骨Fおよ
び脛骨Tの仮想モデル、外科器具30による治療の対象となる他の生体構造の仮想モデル
、あるいはそれらすべての仮想モデルなどの関心対象の生体構造の仮想モデルが構築され
る。また、ナビゲーションポインタなどの適切な装置を用いて、大腿骨Fや脛骨Tなどの
治療対象の生体構造の表面上の点を取り込むなどの方法によって、このような仮想モデル
を術中に生成することもできる。取り込んだ点をコンパイルし、点の間の隙間を埋めるこ
とによって、仮想モデルを生成する。また、このような点の集合体を標準骨モデルと複合
することにより、標準骨モデルを関心対象の生体構造により適合するように変形すること
もできる。
多くの場合、仮想モデルは、治療中の生体構造の全体あるいは治療対象の生体構造の少
なくとも一部を表すデータと、標的部位を定義する仮想オブジェクトを表すデータとを含
む3Dモデルである。図示の実施形態では、大腿骨の仮想モデルVMは、大腿骨Fの一部
と仮想オブジェクトVBとを表すモデルデータを含む3Dモデルである(図9参照)。仮
想オブジェクトVBは、標的部位TSと、外科処置中に大腿骨Fから除去すべき物質の体
積とを定義している。仮想オブジェクトは、仮想モデル内で定義することができ、メッシ
ュ面や、CSG(constructive solid geometry)モデル、ボクセルで表現できるほか、
他の仮想オブジェクト表現技術を用いて表現することもできる。
術前画像、仮想モデル、あるいはそのすべては、当技術分野において公知の方法を用い
て、大腿骨座標系FBONEと脛骨座標系TBONEとにマッピングされる。これらの術
前画像、仮想モデル、あるいはそのすべては、大腿骨座標系FBONEと脛骨座標系TB
ONEに対して固定される。術前画像を撮る代わりに、運動学的な検討や骨の追跡などの
方法によって手術室で治療計画を立案することもできる。また、同様の方法を用いて上述
の3D仮想モデルを生成することもできる。
本明細書に記載の処置においては、その初期段階において、骨トラッカ54,56が患
者の骨にしっかりと貼り付けられる。座標系FBONEと座標系TBONEの姿勢(位置
および向き)は、それぞれ座標系BTRK1と座標系BTRK2とにマッピングされる。
一実施形態では、固有のトラッカPT(図1参照)を有する、引用することによって本明
細書の一部をなすMalackowski他による米国特許第7725162号明細書に開示されて
いるようなポインタ器具P(図1参照)を使用して、大腿骨座標系FBONEと脛骨座標
系TBONEとを、骨トラッカ座標系BTRK1,BTRK2にそれぞれ登録する。これ
らの骨とそのトラッカ54,56との間に固定的な関係を確立させると、大腿骨座標系F
BONEにおける大腿骨Fの位置および向きは骨トラッカ座標系BTRK1に、脛骨座標
系TBONEにおける脛骨Tの位置および向きは骨トラッカ座標系BTRK2にそれぞれ
変換され、ローカライザカメラユニット46は、トラッカ54,56を追跡することによ
って、大腿骨Fや脛骨Tを追跡することができる。姿勢を記述したこれらのデータは、マ
ニピュレータコントローラ64およびナビゲーションプロセッサ62と一体のメモリに格
納される。
外科器具30の治療端(エネルギーアプリケータの遠位端とも呼ぶ)は、固有の座標系
EAPPを有している。例えば、座標系EAPPの原点が、外科切削バーの重心を表して
いてもよい。処置が開始される前に、座標系EAPPの姿勢は、器具トラッカ座標系TL
TRの姿勢に対して固定される。これにより、これらの座標系EAPP,TLTRの互い
に対して相対的な姿勢が特定される。これらの姿勢を記述したデータは、マニピュレータ
コントローラ64およびナビゲーションプロセッサ62と一体のメモリに格納される。
ここで図2を参照して、ローカライズエンジン100は、ナビゲーションコンピュータ
34の一部とみなすことができるソフトウェアモジュールである。ローカライズエンジン
100のコンポーネントは、ナビゲーションプロセッサ62上で実行される。ローカライ
ズエンジン100は、マニピュレータコントローラ64、ナビゲーションプロセッサ62
、またはこれら両方の上で実行されてもよい。
ローカライズエンジン100は、ローカライザカメラコントローラ52からの光学ベー
スの信号と、いくつかの実施形態ではこれに加えて、トラッカコントローラ61からの非
光学ベースの信号とを入力として受信する。これらの信号に基づいて、ローカライズエン
ジン100は、ローカライザ座標系LCLZにおける骨トラッカ座標系BTRK1,BT
RK2の姿勢を特定する。また、ローカライズエンジン100は、器具トラッカ58につ
いても同様の信号を受信し、これらの信号に基づいて、ローカライザ座標系LCLZにお
ける器具トラッカ座標系TLTRの姿勢を特定する。
ローカライズエンジン100は、トラッカ54,56,58の姿勢を表す信号を座標変
換器102に転送する。座標変換器102は、ナビゲーションプロセッサ62上で動作す
るソフトウェアモジュールである。座標変換器102は、術前画像と骨トラッカ54,5
6の関係を定義したデータ、患者の各仮想モデルと骨トラッカ54,56の関係を定義し
たデータ、あるいはこれらの関係をすべて定義したデータを参照する。座標変換器102
はまた、器具トラッカ58に対する外科器具30の治療端の姿勢を示すデータも格納する
。仮想オブジェクトと各仮想モデルとが分かれている場合には、座標変換器102は仮想
オブジェクトを定義するデータも参照する。
処置の最中、座標変換器102は、トラッカ54,56,58のローカライザ44に対
する相対的な姿勢を示すデータを受信する。これらのデータと事前にロードされたデータ
とに基づいて、座標変換器102は、座標系EAPPと骨座標系FBONE,TBONE
のローカライザ座標系LCLZに対する相対的な位置および向きを示すデータを生成する
その結果、座標変換器102は、外科器具30の治療端を当てている標的部位に対する
治療端の位置および向きを示すデータを生成する。これらのデータを表す画像信号は、デ
ィスプレイ36,38に転送され、外科医およびスタッフがこの情報を見ることが可能と
なる。特定の実施形態では、これらのデータを表す他の信号をマニピュレータコントロー
ラ64に転送して、マニピュレータ66を案内し、外科器具30がそれに応じた動きをす
るようにすることができる。従って、このデータは、他の仮想オブジェクトに対する外科
器具30の治療端の相対的な仮想位置を示すものでもあり、例えば、仮想ツールオブジェ
クトVIなどの別個の仮想オブジェクトとしてモデリングすることもできる。
ここで図1を再び参照して、案内ステーション26はビジョン装置72をさらに備えて
いる。図示の実施形態では、ビジョン装置は外科器具30に取り付けられている。他の実
施形態では、ビジョン装置72をロボットアームに取り付けることができ、例えば、ロボ
ットアームの遠位端に取り付けることもできる。ビジョン装置72は、好ましくは、障害
物がない視野に標的部位を収めるように配置される。ビジョン装置72は、ナビゲーショ
ンコンピュータ34と動作可能に通信を行うビジョンコントローラ73(図2を参照)を
有している。ビジョン装置72は、撮像装置またはデジタル撮像装置とも呼ばれるもので
ある。ビジョン装置72は、外部ハウジング76を有し、1つ以上の画像センサ78(図
2を参照)を支持するカメラ160を備えることができる。画像センサ78は、CMOS
センサなどの適切なセンサの形態をとることができる。
ナビゲーションコンピュータ34は、ビジョンコントローラ73と通信して、ビジョン
コントローラ73からカメラ160のビジョンデータセットを受信する。ビジョンデータ
セットは、ビジョン座標系VIS(図3を参照)上に配置される。ビジョンデータセット
は、カメラ160の患者に対する動きに合わせてカメラ160が取り込んだ、ビジョン座
標系VIS内のデータ点の集合である。これらのデータ点は、xyz座標によって定義さ
れ、ビジョンデータファイルとして保存(または格納)することができる。
図4に示すように、標的部位の近くには、大腿骨F、脛骨T、および外科器具30以外
に、複数の物理的オブジェクトが存在する。このような物理的オブジェクトは、開創器、
洗浄吸引器、手術ガイド、切開部周りの皮膚などの種類の物理的オブジェクトを含み得る
。本明細書に記載の実施形態では、ナビゲーションコンピュータ34とマニピュレータコ
ントローラ64の少なくとも一方がこれらの物理的オブジェクトを識別、追跡して、これ
により、システム20が、外科器具30や、大腿骨F、脛骨T、標的部位の近くにあるす
べての物理的オブジェクトの相対位置を特定して、例えば、外科処置の間に外科器具30
が物理的オブジェクトを避けられるようにしている。他の実施形態では、物理的オブジェ
クトがツールガイドである場合などの特定の状況においては、外科器具30が1つ以上の
物理的オブジェクトと係合することができるように、物理的オブジェクトを識別、追跡す
ることが望ましい場合もある。説明の便宜上、図示では、物理的オブジェクトを開創器1
62として示している。
図4を参照すると、各物理的オブジェクトは、特徴セット170を規定する複数の特徴
を備えており、これにより、外科処置の間に、ナビゲーションコンピュータ34とマニピ
ュレータコントローラ64の少なくとも一方が、カメラ160によって物理的オブジェク
トを識別、追跡することができる。特徴セット170は、カメラ160で撮影したビジョ
ンデータセットにおいて識別可能な複数の特徴を含んでいる。また、識別のため、ナビゲ
ーションコンピュータ34とマニピュレータコントローラ64の少なくとも一方が、パタ
ーン認識機能を有している。システム20は、検出対象の特徴の配置や符号化方式などの
特性についての事前知識を有している。
これらの特徴の1つ以上を、(例えば、カメラ160によって検出される放射線の放射
などの)能動マーキングとしてもよい。これに加えてまたは代えて、これらの特徴の1つ
以上を受動マーキングとすることもできる。受動マーキングは反射性であってもよく、あ
るいは非反射性であってもよい。受動マーキングは、印字やシールなどを、(例えば、切
開部の周りのまたは隣接する患者の皮膚や他の場所などの)物理的オブジェクトの任意の
硬い(例えば平面状の)基材や柔らかい基材上に施すことによって実現することができる
。また、物理的オブジェクト表面のコーティングや、物理的オブジェクトに作られている
表面粗さによって、特徴を定義することもできる。一方、システム20は、(例えば、較
正情報の形などで)特徴に関する事前知識を有している。事前知識は、いくつかの異なる
種類の物理的オブジェクトについての、特徴符号化方式や特徴間の相対的な位置のうちの
1つ以上に関するものであってよい。また、事前知識として得られる特徴は、例えば、物
理的オブジェクトの基材上に刻印や印字によって施された受動マーキングであってもよく
、あるいは能動マーキングであってもよい。事前知識として得られる特徴として、切開部
周りに印字シールなどの受動マーキングを施す場合には、切開口周りの皮膚などの組織を
避けて器具30を制御することができるように、この受動マーキングは、リング状に配置
されるなど、切開口に関連付けられていると理解される適切な場所に配置されると理解し
てよい。
カメラ160は、各ビジョンデータセットが特徴セット170を構成する特徴の少なく
とも一部を含むように、2方向以上の異なる視点からビジョンデータセットを取得するよ
うに構成されている。ここで、カメラ160の動きは、ビジョンデータセットの収集時に
おけるロボット装置と器具30の少なくとも一方の患者に対する動きの結果として得られ
るものである。このような動きは、ロボット装置と器具30の少なくとも一方の手動操作
による場合もあれば、ロボット装置と器具30の少なくとも一方の自律的な動きによる場
合もある。例えば、カメラ160は、(例えば、ビデオの各コマのような)連続ビデオデ
ータストリームの形でビジョンデータセットを提供可能なビデオカメラとして実現するこ
とができる。一変形例では、ロボット装置が自律的な動きをする間、ロボット装置が器具
30と一緒にカメラ160を動かすことができるように、カメラ160は器具30に固く
取り付けられる。他の変形例では、カメラ160は、ロボット装置と器具30の少なくと
も一方の手動操作によって器具30と一緒に動かされるように、器具30に固く取り付け
られる。カメラ160を外科器具30に取り付ける場合、カメラ160は、物理的オブジ
ェクトと、外科器具30が狙う患者の表面とを包含する視野を有する。例えば、外科器具
30の長手方向軸が患者に向けられている場合、カメラ160の視野は外科器具30の長
手方向軸に沿って延在することができる。
カメラ160を外科器具30に一体化することによって、カメラ160のビジョン座標
系VISの器具トラッカ座標系TLTRへの較正が容易になることを理解されたい。この
較正は、例えば製造時に較正データを定めるなどの方法によって、製造時に行うことがで
きるほか、従来の較正方法を用いて処置の開始前に行うこともできる。従って、ローカラ
イザ座標系LCLZに対するビジョン座標系VISの姿勢は、外科器具30に関連付けら
れた器具トラッカ58を使用して、上述の変換方法により特定することができる。そして
これにより、ビジョン座標系VISのローカライザ座標系LCLZへの変換やその逆方向
の変換も行うことができる。姿勢を記述したこれらのデータは、マニピュレータコントロ
ーラ64およびナビゲーションプロセッサ62と一体のメモリに格納される。
カメラ160が、外科器具30ではなくロボット装置に取り付けられる実施形態などの
他の実施形態においては、カメラ160が、ハウジング76に固く取り付けられたビジョ
ン装置トラッカ(図示せず)を有していてもよく、これによりビジョン座標系VISとロ
ーカライザ座標系LCLZとの間に確固たる関係を構築することができる。例えば、座標
変換器102に、ビジョン装置トラッカの座標系とビジョン座標系VISとの間の関係を
定義するデータを予めロードしておき、座標変換器102は、このデータを使用し、ロー
カライザ座標系LCLZ内のビジョン装置トラッカの位置および向きに基づいて、ビジョ
ン座標系VISをローカライザ座標系LCLZに変換することができる。あるいは、ジョ
イントエンコーダや、ロボット装置の基部に取り付けたロボット基部トラッカ(図示せず
)などによって、ロボット装置の追跡をローカライザ座標系LCLZにおいて別途行って
いる場合、(例えば、較正工程によって)カメラ160をロボット基部トラッカと関連付
けることができる。この場合、カメラ160に別途トラッカを設ける必要性はなくなる。
そして、ロボット装置の基部が動かず、ロボット基部トラッカが見えている限り、ローカ
ライザ44はカメラ160の位置および向きを決定することができる。
ナビゲーションコンピュータ34は、カメラ160から受信したビジョンデータセット
を外部または内部の記憶装置に格納するように構成され得る。上述したように、これらの
ビジョンデータセットはビデオデータストリームの形で受信することができ、ナビゲーシ
ョンプロセッサ62による処理に備えて少なくとも一時的に格納される。そのような処理
として、例えば、受信したビジョンデータセットに含まれる1つ以上の特徴を(例えば、
位置特定や復号などによって)識別するためのパターン認識を挙げることができる。
一実施形態では、ナビゲーションプロセッサ62は、パターン認識技術を使用して、ま
ずビジョンデータセットに含まれる複数の特徴を識別し、そしてビジョン座標系VISに
おける各特徴の座標を(例えば、キーポイント座標などの形で)特定する。ここで、較正
データとしてカメラ160の投影モデルを格納しておき、この投影モデルを利用して、カ
メラ160が提供するビジョンデータセットにおいて識別された1つ以上の特徴に対する
カメラ160の位置を特定することができる(例えば、米国特許出願公開第2008/0
208041号明細書を参照のこと。なお、同文献は、引用することによって本明細書の
一部をなすものとする。)特定の投影モデルの基礎となる変換パラメータは、各カメラの
製造業者、またはシステム20の販売業者から提供され得る。また、変換パラメータは、
現場に設置された較正治具で推定することができるほか、特定のカメラ機種向けに標準化
されていてもよい。いくつかの実施態様では、適切なインターフェースを介してカメラ1
60自体によって(例えば、現在選択中のズームレベルに応じてリアルタイムで)変換パ
ラメータが提供される場合もある。
また較正データとして、特徴セット170に関する情報も、例えばナビゲーションコン
ピュータ34の内部記憶装置などに提供される。このような情報は、各特徴の相対位置や
各特徴に適用された符号化方式を含み得る。各特徴の既知の相対位置と、カメラ160で
撮影した(例えば、画像などの)ビジョンデータセットにおける(すなわち、ビジョンデ
ータセットが関連付けられたビジョン座標系VISにおける)各特徴の(投影像の)相対
位置とに基づいて、当該ビジョン座標系VISを、関心対象の物理的オブジェクトの物理
的オブジェクト座標系POCS(図3参照)などの、各特徴の座標が与えられる任意の参
照系に変換する逆透視投影を行うことにより、さらなる変換の変換パラメータを(例えば
、リアルタイムで)特定することができる。このような変換を、カメラ160の変換T1
で示す。カメラ160の変換T1の変換パラメータは、各特徴jについて、それぞれ以下
の方程式系を解くことによって求められる。
j,160=T2・T1-1・Mj,cal
式中、Mj,160は、カメラ160のビジョンデータセット(例えば、ビデオの1コ
マ)において撮像された特徴jであり、ビジョン座標系VISに関連した座標を有してい
る。Mj,calは、較正データとして提供される特徴jの指標(例えば、キーポイント
)であり、物理的オブジェクト座標系POCSに関連した座標を有している。そして、第
2の変換T2は、カメラ160とそれに関連付けられたビジョン座標系VISとの間の変
換パラメータを指定するものである。
なお、上述の逆透視投影は、カメラ姿勢推定と呼ばれる場合があるほか、あるいはカメ
ラ姿勢推定との関連で行われるものである。図4に示す実施形態では、個々の特徴は黒い
点で記号化されている。また、複数の符号化された特徴(coded feature)を利用するこ
ともできる。各特徴は、固有のQR方式の拡張符号を含む2次元の拡張部(extension)
を有することができる(QR方式の拡張符号の場合、各特徴が重なっていても問題ない)
。図5では、ある1つの拡張特徴(extended feature)170Aが白いリング内にある状
態を図示しており、この場合、リングの中心が特徴のキーポイントとなる。一般に、各拡
張特徴によって、その特徴の位置(座標)を示す特定のキーポイントまたは中心を規定す
ることができる。コンピュータ画像認識(computer vision)の分野において、特徴(fea
ture)という用語は、キーポイントの周辺(すなわちの特徴の拡張部)を記述するものと
もみなされる。図6は、例示的なリング形状の拡張特徴についてのキーポイントの概念を
模式的に示す図である。このキーポイントの概念を、図5に示す種類の特徴に対して、容
易に拡大適用できることが理解されるであろう。また、代替的な実施形態では、個々の特
徴を他の方法で規定したり、符号化したりすることもできることが理解されるであろう。
例えば、図7において複数の特徴170Bで示すように、異なる数のダッシュを使ったり
、あるいはダッシュとドットの異なる組み合わせを使ったりして、各リングをダッシュ表
示することもできる。別の例として、色分けによって符号化した円またはドットを使用し
てもよい。特定の実施態様では、物理的オブジェクト上で平坦な面(すなわち平面)を成
す狭い領域内にある個々の特徴をグループ化することもできる。個々の特徴の間の相対位
置、ならびに(個々の特徴間の区別を可能にする)各特徴の符号化方式は、較正データと
して格納しておくことができる。
本実施形態では、図8に示すように、物理的オブジェクトの2次元表面上に(いくつか
の黒エリアといくつかの白エリアとの組み合わせの形で)設けられた特徴170Cによっ
て、物理的オブジェクト座標系POCSが定義される。すなわち、これらの特徴170C
が、物理的オブジェクト座標系POCS全体に広がっている。これは、カメラ160から
受信したビジョンデータセットにおいて、物理的オブジェクトの表面上に定められた特徴
(トラッカ特徴とも呼ぶ)の識別、復号が行われれば、直ちに、物理的オブジェクト座標
系POCSと、この物理的オブジェクト座標系POCS内のこれら特徴の座標とを一緒に
特定できることを意味する。また、通常、システム20は、物理的オブジェクトの上に設
けられる各特徴の相対位置と符号化方式に関する事前知識も(較正データの形で)有する
ことになる。
トラッカ特徴は、ナビゲーションコンピュータ34とマニピュレータコントローラ64
の少なくとも一方が、各トラッカ特徴のパターン認識や各特徴に埋め込まれた符号化され
た情報の利用などによって、各特徴に基づいて物理的オブジェクトの識別あるいは物理的
オブジェクトに関する情報の識別ができるように、一意に設定されるか、これに加えてま
たは代えて符号化されている。そのような情報には、物理的オブジェクト識別情報、物理
的オブジェクトの種類、物理的オブジェクトの大きさ、物理的オブジェクトの寸法、物理
的オブジェクトのシリアル番号、および物理的オブジェクトの製造業者のうちの1つ以上
が含まれ得る。
図9を参照すると、ある物理的オブジェクトが識別されると、ナビゲーションコンピュ
ータ34とマニピュレータコントローラ64の少なくとも一方が、メモリ内の、例えば物
理的オブジェクトデータベースなどから、この識別された物理的オブジェクトに関連付け
られた仮想オブジェクト164を物理的オブジェクト座標系POCS内に読み出すことが
できる。あるいは、物理的オブジェクト上の各特徴を、仮想オブジェクト識別情報、仮想
オブジェクトの種類、仮想オブジェクトの大きさ、または仮想オブジェクトの寸法などの
仮想オブジェクトに関する情報で符号化してもよい。例えば、ナビゲーションコンピュー
タ34に格納した物理的オブジェクトデータベースを、いくつかの異なる製造業者が製造
した、いくつかの異なる種類の、そしていくつかの異なる大きさと構成の複数の物理的オ
ブジェクトで構成することができる。そして、各特徴に埋め込まれた符号化された情報に
よって、ナビゲーションコンピュータ34は、ビジョンデータセット内に視認される物理
的オブジェクトの各特徴に基づいて、この特定の物理的オブジェクトに関する具体的な細
部を識別し、この物理的オブジェクトに関連付けられた特定の仮想オブジェクトを読み出
すことが可能となる。従って、例えば、物理的オブジェクトがある特定のサイズの開創器
であると識別された場合、これに関連付けられた仮想オブジェクトはそれと同程度のサイ
ズであり得る。
物理的オブジェクト座標系POCS内の特徴座標をビジョン座標系VISに変換するこ
とにより、仮想オブジェクト164をビジョン座標系VISに変換することもできる。ま
た(図9に示すように)、仮想オブジェクト164をローカライザ座標系LCLZにさら
に変換して、外科器具30の動きを、仮想オブジェクト164に対して追跡することもで
きる。この点に関して、仮想オブジェクト164は、特徴座標に対して事前に定義されて
いる。例えば、開創器の場合、各開創器の特徴に応じて定められた関連モデルデータを有
する複数の開創器の仮想オブジェクトが、3次元モデルとして製造時に事前に定義されて
おり、これにより、物理的オブジェクト座標系POCSにおいて、対象の仮想オブジェク
トの位置および向きを知ることができる。
代替的な実施形態では、ユーザがナビゲーションポインタまたは外科器具30を使用し
て仮想オブジェクト164を定義することができ、この場合、外科器具30の座標が既知
であることから、物理的オブジェクトに対する仮想オブジェクト164の事前知識は不要
となる。よってこの場合、ユーザは、ナビゲーションポインタを用いて輪郭線を描画する
だけで、「進入禁止(no-fly)」ゾーンの、例えば点、線、体積、面積などを定義するこ
とができる。そして、こうしてトレースした(輪郭線を描画した)ゾーンによって、仮想
オブジェクト164の追跡のために使用されている1つ以上の特徴に関連して、仮想オブ
ジェクト164が構築される。
仮想オブジェクト164は、開創器162が占める空間などの、外科手術中に避けるべ
き立体領域や平面領域を定義することができる。図9に示すように、仮想オブジェクト1
64は、ローカライザ座標系LCLZにおいて標的部位TSの外部に定義されてもよい。
また他の実施形態では、仮想オブジェクトの一部が標的部位TSの外部に存在してもよい
。仮想オブジェクト164は、ナビゲーションプロセッサ62によって処理されて、ディ
スプレイ36,38上に表示され、ユーザに示される。これによりユーザは、標的部位T
Sや、例えば開創器162などの仮想オブジェクト164に対する外科器具30の位置お
よび向きを視覚的に捉えることができる。場合によっては、仮想オブジェクト164は、
3次元モデル、2次元の面、点群、ボクセル立体、メッシュ面、平面、線、単点のうちの
1つ以上を含む。
なお、標的部位TSの近くにある組織の中には弾力性や柔軟性を有するものがあり、そ
のような弾力性や柔軟性のため、外科処置の間に、開創器162などの物理的オブジェク
トが標的部位TSに対して動く可能性がある。これを受けて、システム20は、ローカラ
イザ座標系LCLZなどの関心対象の座標系において、例えば開創器162に関連付けら
れた仮想オブジェクト164などの仮想オブジェクトについて特定した姿勢を、定期的に
最新のものに更新する。このような仮想オブジェクトの姿勢の更新は、ローカライザが行
う、トラッカ54,56,58の姿勢の更新と同じ頻度で行われてもよく、マニピュレー
タコントローラ64が行う、ツール経路に沿った外科器具の新たな指令位置の計算と同じ
頻度で行われてもよく、あるいは、任意の他の適切な頻度で行われてもよい。場合によっ
ては、一部の物理的オブジェクトの姿勢の更新を、他の物理的オブジェクトよりも遅くす
ることもできる。例えば、外科器具30の位置把握がより重要である場合があるため、開
創器162の位置の更新頻度を、標的部位TSに対する外科器具30の位置の更新頻度よ
りも低くすることもできる。
いくつかの実施形態では、仮想オブジェクトを、複数の物理的オブジェクトの位置に基
づいて作成することもできる。例えば、2つ以上の開創器162の位置によって、仮想切
開部168(図9を参照)を図示のように定義することができる。この場合の仮想切開部
168は、開創器162が描く輪郭を境界とする仮想開口部となり得る。従って、開創器
162に調整が加えられる度に、仮想切開部168の構成は変化し得る。つまり、仮想切
開部168は動的な性質を有しており、形状が変化する可能性があるが、本明細書に記載
のナビゲーション技術を用いれば、仮想切開部168が、新たなビジョンデータセットで
絶えず更新されるため、外科処置の間に標的部位TSの近くで変化が生じたとしても、器
具30は、物理的オブジェクト(つまり、当該物理的オブジェクトに関連付けられた仮想
オブジェクトが定義する境界)を避けることできる。
仮想オブジェクトは避けるべき立体領域または境界を定義することができることから、
仮想オブジェクトによって、外科器具30の治療端が進入できない「進入禁止」ゾーンを
作成することもできる。「進入禁止」ゾーンは、標的部位の近くに位置する、繊細な生体
的構造や、硬い構造、軟組織、骨のような温存すべき部位や、他のツールなどに関連付け
ることができる。マニピュレータ66は、ローカライザ座標系LCLZなどの共通座標系
における仮想オブジェクトの位置を把握しているため、マニピュレータ66が自律モード
で動作している場合には、マニピュレータ66が、仮想オブジェクトを避けるように外科
器具30の位置決めを制御して、標的部位の近くに位置する、繊細な生体的構造や、硬い
構造、軟組織、骨のような温存すべき部位や、他のツールなどを避けることができる。一
方、ロボット装置と器具30の少なくとも一方を手動操作している場合には、「進入禁止
」ゾーンは、触覚境界として機能し、ユーザが器具30を「進入禁止」ゾーンに入れてし
まうのを防ぐ触覚フィードバックをユーザに与える。例えば、各物理的オブジェクトが開
創器である場合、開創器の仮想3次元モデルの形をとる仮想オブジェクトが、各物理的オ
ブジェクトに関連付けられて設けられる。この物理的オブジェクトは、カメラ160によ
って追跡されているため、開創器に対する外科器具30の治療端の相対的な動きを追跡す
ることによって、この物理的オブジェクトを避けることが可能となる。そして、もし開創
器の1つが外科器具30のツール経路上に位置しているようなことがあれば、マニピュレ
ータコントローラ64が、当該ツール経路に調整を加えるか、あるいは外科器具30の動
きを停止させることができる。あるいは、手動操作モードの場合であれば、そのままでは
ロボット装置と器具30の少なくとも一方が開創器の1つと衝突してしまうような動きが
あれば、マニピュレータコントローラ64がその動きを制限または停止することができる
。これは、手動操作中に器具30が「進入禁止」ゾーンに差し掛かると、マニピュレータ
コントローラ64が、関節モータ、ブレーキなどのうち1つ以上を能動的に作動させて、
ユーザへの触覚フィードバックを生成するなどの方法で行われる。同様に、例えば開創器
の1つなどの物理的オブジェクトが、計画されたツール経路の妨げとなっている場合には
、ナビゲーションシステムが、それをユーザに警告して、当該物理的オブジェクトを移動
するようにユーザに通知することもできる。
ここで図10を参照すると、図10は、標的部位を基準に物理的オブジェクトを追跡す
る方法の一実施形態を示している。この実施形態では、ロボット装置を自律モードで動作
させている。第1のステップ300では、標的部位を治療するために外科器具30が標的
部位に対して自律的に動かされることによって、カメラ160が標的部位の近くの物理的
オブジェクトに対して相対的に動かされる。さらに、カメラ160自身も、物理的オブジ
ェクトに対して自律的に動き、ステップ302で、複数の視点から取得した物理的オブジ
ェクトのビジョンデータセットを生成する(ただし、1方向の視点のみで十分な場合もあ
る)。そして、ビジョンデータセットは、ビジョン座標系VIS上で定義される。
ステップ304では、1つ以上の特徴、好ましくは少なくとも3つまたは4つの特徴が
ビジョンデータセット内で識別される。そして、ステップ306で、カメラ160がビジ
ョン座標系VISにおける各特徴の特徴座標を特定することができるように、これらの特
徴を特徴セット170にグループ化してしてもよい。そして、これらの特徴や他の視覚的
識別子(一部の実施形態では、これらは符号化されている)が、パターン認識技術を使用
して認識される。この認識に基づいて、ステップ310では、ナビゲーションコンピュー
タ34とマニピュレータコントローラ64の少なくとも一方によって、物理的オブジェク
トに関する情報を取り込むことができる。この情報には、例えば、特徴座標に対する物理
的オブジェクト座標系POCSの位置および向きが含まれ得る。
そして、ステップ312では、座標変換器102によって、物理的オブジェクト座標系
POCSを、ビジョン座標系VISに変換し、そしてさらにローカライザ座標系LCLZ
に変換することができる。ステップ314では、仮想オブジェクトが物理的オブジェクト
に関連付けられる。仮想オブジェクトは、メモリから読み出されて、物理的オブジェクト
座標系POCSで定義され、さらに上述の座標変換によって、ビジョン座標系VISに対
して定義され、その後、ローカライザ座標系LCLZに対して定義される。ステップ31
6では、マニピュレータコントローラ64は、マニピュレータ66やこれに取り付けられ
た外科器具30の自律的な動きを制御することによって、外科器具30が物理的オブジェ
クトを避けるか、または物理的オブジェクトが規定する他の制限事項を満たすことができ
るようにする。
なお、上記では、物理的オブジェクトに関連付けた仮想オブジェクトを、ローカライザ
座標系LCLZに変換して、外科器具30の治療端および標的部位を基準に物理的オブジ
ェクトを追跡しているが、マニピュレータ座標系MNPLなどの任意の共通座標系を使用
して、外科器具30と、標的部位と、物理的オブジェクトとの間の相対的な動きや姿勢を
追跡することができることも理解されたい。
当業者であれば理解するように、本実施形態の各態様は、コンピュータ可読プログラム
コードが埋め込まれた1つ以上のコンピュータ可読媒体という形で実施されるコンピュー
タプログラム製品の形態をとることがある。本明細書に記載の方法を実行するための命令
またはコードを含むコンピュータソフトウェアは、(例えば、ROM、固定メモリ、着脱
式メモリなどの)関連メモリデバイスの1つ以上に格納しておき、利用準備が整えば、(
例えばRAMに)一部または全体をロードして、CPUが実行してもよい。そのようなソ
フトウェアとしては、ファームウェア、常駐ソフトウェア、マイクロコードなどを挙げる
ことができるが、これらに限定されない。
他の実施形態では、物理的オブジェクトの特徴座標やモデルの特定を、SfM(Struct
ure from Motion)技術やSLAM(Simultaneous Localization and Mapping)技術、姿
勢推定技術のうち1つ以上の技術を用いて行うことができる。例えば、SLAMは、特徴
群に対して適用することができる。また他の例として、SfMによって、異なる複数の視
点から取得したビジョンデータセットにおいて識別可能な個々の特徴(必ずしも特徴群で
なくてもよい)それぞれについて特徴の軌跡を構築することができる。そして、これら個
々の特徴の軌跡に対して、(カメラの)異なる複数の視点に基づいた三角測量を適用する
ことができる。三角測量を利用して、(例えば、物理的オブジェクト座標系上で)特徴座
標を3次元に復元し、そして場合によっては最適化することもできる。
以上のように、いくつかの実施形態について説明してきたが、本明細書の実施形態は、
本発明を包括的に説明することを意図したものではなく、また本発明を特定の形態に限定
することを意図したものでもない。上述の記載において使用した用語は、限定的なもので
はなく記述的なものであることを意図している。また、上述の教示に基づいて多くの変更
および変形が可能であり、上述において具体的に記載したものとは異なる方法によって本
発明を実施することも可能である。
以上のように、いくつかの実施形態について説明してきたが、本明細書の実施形態は、本発明を包括的に説明することを意図したものではなく、また本発明を特定の形態に限定することを意図したものでもない。上述の記載において使用した用語は、限定的なものではなく記述的なものであることを意図している。また、上述の教示に基づいて多くの変更および変形が可能であり、上述において具体的に記載したものとは異なる方法によって本発明を実施することも可能である。
なお、本願の出願当初の開示事項を維持するために、本願の出願当初の請求項1~28の記載内容を以下に追加する。
(請求項1)
物理的オブジェクトを追跡するためのナビゲーションシステムであって、
ロボット装置と、
前記ロボット装置に取り付け可能な器具と、
前記ロボット装置と共に動かすことができるように、前記ロボット装置と前記器具のうちいずれか一方に取り付けられるビジョン装置であって、前記ロボット装置を動かした場合に前記ビジョン装置が複数の自由度で動かされることによって可能となる複数の視点から取り込んだ前記物理的オブジェクトの複数のビジョンデータセットを生成するように構成されているビジョン装置と、
前記ビジョン装置と通信を行うコンピュータシステムであって、前記ビジョンデータセットにおいて識別可能な前記物理的オブジェクトの1つ以上の特徴に基づいて、前記物理的オブジェクトに、前記器具の仮想境界を少なくとも部分的に規定する仮想オブジェクトを関連付けるように構成されている少なくとも1つのプロセッサを有するコンピュータシステムと
を備えるナビゲーションシステム。
(請求項2)
前記ビジョン装置がカメラを備えている、請求項1に記載のナビゲーションシステム。
(請求項3)
前記コンピュータシステムが、前記ビジョンデータセットの生成時に前記ビジョン装置がとる各場所での前記ビジョン装置の位置および向きを追跡するように構成されている、請求項1または2に記載のナビゲーションシステム。
(請求項4)
前記コンピュータシステムが、前記物理的オブジェクトの前記1つ以上の特徴に基づいて、前記物理的オブジェクトの固有性を特定するように構成されている、請求項1~3のいずれか1項に記載のナビゲーションシステム。
(請求項5)
前記コンピュータシステムが、前記物理的オブジェクトの固有性に基づいて、前記物理的オブジェクトに前記仮想オブジェクトを関連付けるように構成されている、請求項4に記載のナビゲーションシステム。
(請求項6)
前記仮想オブジェクトが、3次元モデル、2次元の面、点群、ボクセル立体、メッシュ面、平面、線、単点のうちの1つ以上を含んでいる、請求項5に記載のナビゲーションシステム。
(請求項7)
前記1つ以上の特徴が、前記ビジョンデータセットにおいて識別可能な特徴セットを含み、
前記コンピュータシステムが前記特徴セットの位置および向きを特定して、前記物理的オブジェクトに関連付けられた第1の座標系の位置および向きを確立するように構成されている、請求項1~6のいずれか1項に記載のナビゲーションシステム。
(請求項8)
前記ビジョン装置が、前記ロボット装置と前記器具のうちいずれか一方に対して固定されて、前記ビジョンデータセットを前記ロボット装置と前記器具のうちの前記一方の第2の座標系に変換することができる、請求項7に記載のナビゲーションシステム。
(請求項9)
前記コンピュータシステムが座標変換器を備えており、
前記座標変換器は、前記第1の座標系と前記第2の座標系とのうちの1つを、前記コンピュータシステムが前記物理的オブジェクトに対する前記器具の相対的な動きを追跡することができるように変換するように構成されている、請求項8に記載のナビゲーションシステム。
(請求項10)
前記コンピュータシステムが、前記物理的オブジェクトに対する前記器具の相対的な動きを追跡することによって、前記物理的オブジェクトを避けながら標的部位の組織を治療する前記器具の動きを可能とするように構成されている、請求項9に記載のナビゲーションシステム。
(請求項11)
前記コンピュータシステムが、前記1つ以上の特徴に基づいて、前記物理的オブジェクトに関連する情報を特定するように構成されている、請求項1~10のいずれか1項に記載のナビゲーションシステム。
(請求項12)
前記情報が、物理的オブジェクト識別情報と、物理的オブジェクトの種類と、物理的オブジェクトの大きさと、物理的オブジェクトの寸法と、物理的オブジェクトのシリアル番号と、物理的オブジェクトの製造業者と、仮想オブジェクト識別情報と、仮想オブジェクトの種類と、仮想オブジェクトの大きさと、仮想オブジェクトの寸法とのうちの1つ以上を含んでいる、請求項11に記載のナビゲーションシステム。
(請求項13)
前記仮想オブジェクトが、ナビゲーションポインタと前記器具のうち少なくとも一方によって定義される、請求項1~12のいずれか1項に記載のナビゲーションシステム。
(請求項14)
前記ロボット装置は、自律モードで動作するように構成され、
前記ロボット装置が前記自律モードで動作している場合には、前記ビジョン装置が自律的に動く、請求項1~13のいずれか1項に記載のナビゲーションシステム。
(請求項15)
ロボット装置と、前記ロボット装置に取り付け可能な器具と、ビジョン装置と、少なくとも1つのプロセッサを有するコンピュータシステムを利用して、標的部位に対して物理的オブジェクトを追跡する方法であって、
前記ロボット装置の動きの結果得られる前記ビジョン装置の動きに応じて、複数の視点から取り込んだ前記物理的オブジェクトの複数のビジョンデータセットを生成するステップと、
前記ビジョンデータセットにおいて識別可能な前記物理的オブジェクトの1つ以上の特徴に基づいて、前記物理的オブジェクトに、前記器具の仮想境界を部分的に規定する仮想オブジェクトを関連付けるステップと
を含む方法。
(請求項16)
前記ビジョン装置がカメラを備えている、請求項15に記載の方法。
(請求項17)
前記ビジョンデータセットの生成時に前記ビジョン装置がとる各場所での前記ビジョン装置の位置および向きを追跡することを含む、請求項15または16に記載の方法。
(請求項18)
前記物理的オブジェクトの前記1つ以上の特徴に基づいて、前記物理的オブジェクトの固有性を特定することを含む、請求項15~17のいずれか1項に記載の方法。
(請求項19)
前記物理的オブジェクトの固有性に基づいて、前記物理的オブジェクトに前記仮想オブジェクトを関連付けることを含む、請求項18に記載の方法。
(請求項20)
前記仮想オブジェクトが、3次元モデル、2次元の面、点群、ボクセル立体、メッシュ面、平面、線、単点のうちの1つ以上を含んでいる、請求項19に記載の方法。
(請求項21)
前記ビジョンデータセットにおいて識別可能な特徴セットの位置および向きを特定して、前記物理的オブジェクトに関連付けられた第1の座標系の位置および向きを確立することを含む、請求項15~20のいずれか1項に記載の方法。
(請求項22)
前記ビジョンデータセットを前記ロボット装置と前記器具のうちの一方の第2の座標系に変換することを含む、請求項21に記載の方法。
(請求項23)
前記第1および第2の座標系のうち1つを、前記コンピュータシステムが前記物理的オブジェクトに対する前記器具の相対的な動きを追跡することができるように変換することを含む、請求項22に記載の方法。
(請求項24)
前記物理的オブジェクトに対する前記器具の相対的な動きを追跡することによって、前記物理的オブジェクトを避けながら標的部位の組織を治療する前記器具の動きを可能とすることを含む、請求項23に記載の方法。
(請求項25)
前記1つ以上の特徴に基づいて、前記物理的オブジェクトに関連する情報を特定することを含む、請求項15~24のいずれか1項に記載の方法。
(請求項26)
前記情報が、物理的オブジェクト識別情報、物理的オブジェクトの種類、物理的オブジェクトの大きさ、物理的オブジェクトの寸法、物理的オブジェクトのシリアル番号、物理的オブジェクトの製造業者、仮想オブジェクト識別情報、仮想オブジェクトの種類、仮想オブジェクトの大きさ、および仮想オブジェクトの寸法のうちの1つ以上を含んでいる、請求項25に記載の方法。
(請求項27)
ナビゲーションポインタと前記器具のうち少なくとも一方によって前記仮想オブジェクトを定義することを含む、請求項15~26のいずれか1項に記載の方法。
(請求項28)
前記ロボット装置を自律的に動かすことによって、前記ビジョン装置が自律的に動いて前記ビジョンデータセットを取り込むようにすることを含む、請求項15~27のいずれか1項に記載の方法。

Claims (28)

  1. 物理的オブジェクトを追跡するためのナビゲーションシステムであって、
    ロボット装置と、
    前記ロボット装置に取り付け可能な器具と、
    前記ロボット装置と共に動かすことができるように、前記ロボット装置と前記器具のう
    ちいずれか一方に取り付けられるビジョン装置であって、前記ロボット装置を動かした場
    合に前記ビジョン装置が複数の自由度で動かされることによって可能となる複数の視点か
    ら取り込んだ前記物理的オブジェクトの複数のビジョンデータセットを生成するように構
    成されているビジョン装置と、
    前記ビジョン装置と通信を行うコンピュータシステムであって、前記ビジョンデータセ
    ットにおいて識別可能な前記物理的オブジェクトの1つ以上の特徴に基づいて、前記物理
    的オブジェクトに、前記器具の仮想境界を少なくとも部分的に規定する仮想オブジェクト
    を関連付けるように構成されている少なくとも1つのプロセッサを有するコンピュータシ
    ステムと
    を備えるナビゲーションシステム。
  2. 前記ビジョン装置がカメラを備えている、請求項1に記載のナビゲーションシステム。
  3. 前記コンピュータシステムが、前記ビジョンデータセットの生成時に前記ビジョン装置
    がとる各場所での前記ビジョン装置の位置および向きを追跡するように構成されている、
    請求項1または2に記載のナビゲーションシステム。
  4. 前記コンピュータシステムが、前記物理的オブジェクトの前記1つ以上の特徴に基づい
    て、前記物理的オブジェクトの固有性を特定するように構成されている、請求項1~3の
    いずれか1項に記載のナビゲーションシステム。
  5. 前記コンピュータシステムが、前記物理的オブジェクトの固有性に基づいて、前記物理
    的オブジェクトに前記仮想オブジェクトを関連付けるように構成されている、請求項4に
    記載のナビゲーションシステム。
  6. 前記仮想オブジェクトが、3次元モデル、2次元の面、点群、ボクセル立体、メッシュ
    面、平面、線、単点のうちの1つ以上を含んでいる、請求項5に記載のナビゲーションシ
    ステム。
  7. 前記1つ以上の特徴が、前記ビジョンデータセットにおいて識別可能な特徴セットを含
    み、
    前記コンピュータシステムが前記特徴セットの位置および向きを特定して、前記物理的
    オブジェクトに関連付けられた第1の座標系の位置および向きを確立するように構成され
    ている、請求項1~6のいずれか1項に記載のナビゲーションシステム。
  8. 前記ビジョン装置が、前記ロボット装置と前記器具のうちいずれか一方に対して固定さ
    れて、前記ビジョンデータセットを前記ロボット装置と前記器具のうちの前記一方の第2
    の座標系に変換することができる、請求項7に記載のナビゲーションシステム。
  9. 前記コンピュータシステムが座標変換器を備えており、
    前記座標変換器は、前記第1の座標系と前記第2の座標系とのうちの1つを、前記コン
    ピュータシステムが前記物理的オブジェクトに対する前記器具の相対的な動きを追跡する
    ことができるように変換するように構成されている、請求項8に記載のナビゲーションシ
    ステム。
  10. 前記コンピュータシステムが、前記物理的オブジェクトに対する前記器具の相対的な動
    きを追跡することによって、前記物理的オブジェクトを避けながら標的部位の組織を治療
    する前記器具の動きを可能とするように構成されている、請求項9に記載のナビゲーショ
    ンシステム。
  11. 前記コンピュータシステムが、前記1つ以上の特徴に基づいて、前記物理的オブジェク
    トに関連する情報を特定するように構成されている、請求項1~10のいずれか1項に記
    載のナビゲーションシステム。
  12. 前記情報が、物理的オブジェクト識別情報と、物理的オブジェクトの種類と、物理的オ
    ブジェクトの大きさと、物理的オブジェクトの寸法と、物理的オブジェクトのシリアル番
    号と、物理的オブジェクトの製造業者と、仮想オブジェクト識別情報と、仮想オブジェク
    トの種類と、仮想オブジェクトの大きさと、仮想オブジェクトの寸法とのうちの1つ以上
    を含んでいる、請求項11に記載のナビゲーションシステム。
  13. 前記仮想オブジェクトが、ナビゲーションポインタと前記器具のうち少なくとも一方に
    よって定義される、請求項1~12のいずれか1項に記載のナビゲーションシステム。
  14. 前記ロボット装置は、自律モードで動作するように構成され、
    前記ロボット装置が前記自律モードで動作している場合には、前記ビジョン装置が自律
    的に動く、請求項1~13のいずれか1項に記載のナビゲーションシステム。
  15. ロボット装置と、前記ロボット装置に取り付け可能な器具と、ビジョン装置と、少なく
    とも1つのプロセッサを有するコンピュータシステムを利用して、標的部位に対して物理
    的オブジェクトを追跡する方法であって、
    前記ロボット装置の動きの結果得られる前記ビジョン装置の動きに応じて、複数の視点
    から取り込んだ前記物理的オブジェクトの複数のビジョンデータセットを生成するステッ
    プと、
    前記ビジョンデータセットにおいて識別可能な前記物理的オブジェクトの1つ以上の特
    徴に基づいて、前記物理的オブジェクトに、前記器具の仮想境界を部分的に規定する仮想
    オブジェクトを関連付けるステップと
    を含む方法。
  16. 前記ビジョン装置がカメラを備えている、請求項15に記載の方法。
  17. 前記ビジョンデータセットの生成時に前記ビジョン装置がとる各場所での前記ビジョン
    装置の位置および向きを追跡することを含む、請求項15または16に記載の方法。
  18. 前記物理的オブジェクトの前記1つ以上の特徴に基づいて、前記物理的オブジェクトの
    固有性を特定することを含む、請求項15~17のいずれか1項に記載の方法。
  19. 前記物理的オブジェクトの固有性に基づいて、前記物理的オブジェクトに前記仮想オブ
    ジェクトを関連付けることを含む、請求項18に記載の方法。
  20. 前記仮想オブジェクトが、3次元モデル、2次元の面、点群、ボクセル立体、メッシュ
    面、平面、線、単点のうちの1つ以上を含んでいる、請求項19に記載の方法。
  21. 前記ビジョンデータセットにおいて識別可能な特徴セットの位置および向きを特定して
    、前記物理的オブジェクトに関連付けられた第1の座標系の位置および向きを確立するこ
    とを含む、請求項15~20のいずれか1項に記載の方法。
  22. 前記ビジョンデータセットを前記ロボット装置と前記器具のうちの一方の第2の座標系
    に変換することを含む、請求項21に記載の方法。
  23. 前記第1および第2の座標系のうち1つを、前記コンピュータシステムが前記物理的オ
    ブジェクトに対する前記器具の相対的な動きを追跡することができるように変換すること
    を含む、請求項22に記載の方法。
  24. 前記物理的オブジェクトに対する前記器具の相対的な動きを追跡することによって、前
    記物理的オブジェクトを避けながら標的部位の組織を治療する前記器具の動きを可能とす
    ることを含む、請求項23に記載の方法。
  25. 前記1つ以上の特徴に基づいて、前記物理的オブジェクトに関連する情報を特定するこ
    とを含む、請求項15~24のいずれか1項に記載の方法。
  26. 前記情報が、物理的オブジェクト識別情報、物理的オブジェクトの種類、物理的オブジ
    ェクトの大きさ、物理的オブジェクトの寸法、物理的オブジェクトのシリアル番号、物理
    的オブジェクトの製造業者、仮想オブジェクト識別情報、仮想オブジェクトの種類、仮想
    オブジェクトの大きさ、および仮想オブジェクトの寸法のうちの1つ以上を含んでいる、
    請求項25に記載の方法。
  27. ナビゲーションポインタと前記器具のうち少なくとも一方によって前記仮想オブジェク
    トを定義することを含む、請求項15~26のいずれか1項に記載の方法。
  28. 前記ロボット装置を自律的に動かすことによって、前記ビジョン装置が自律的に動いて
    前記ビジョンデータセットを取り込むようにすることを含む、請求項15~27のいずれ
    か1項に記載の方法。
JP2022137689A 2016-05-23 2022-08-31 ロボット外科処置中に物理的オブジェクトの識別と追跡を行うシステムおよび方法 Pending JP2022169764A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201662340176P 2016-05-23 2016-05-23
US62/340,176 2016-05-23
PCT/US2017/033962 WO2017205351A1 (en) 2016-05-23 2017-05-23 Systems and methods for identifying and tracking physical objects during a robotic surgical procedure
JP2018561490A JP7134872B2 (ja) 2016-05-23 2017-05-23 ロボット外科処置中に物理的オブジェクトの識別と追跡を行うシステムおよび方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018561490A Division JP7134872B2 (ja) 2016-05-23 2017-05-23 ロボット外科処置中に物理的オブジェクトの識別と追跡を行うシステムおよび方法

Publications (1)

Publication Number Publication Date
JP2022169764A true JP2022169764A (ja) 2022-11-09

Family

ID=59021578

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018561490A Active JP7134872B2 (ja) 2016-05-23 2017-05-23 ロボット外科処置中に物理的オブジェクトの識別と追跡を行うシステムおよび方法
JP2022137689A Pending JP2022169764A (ja) 2016-05-23 2022-08-31 ロボット外科処置中に物理的オブジェクトの識別と追跡を行うシステムおよび方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018561490A Active JP7134872B2 (ja) 2016-05-23 2017-05-23 ロボット外科処置中に物理的オブジェクトの識別と追跡を行うシステムおよび方法

Country Status (8)

Country Link
US (3) US10531926B2 (ja)
EP (2) EP4186458A1 (ja)
JP (2) JP7134872B2 (ja)
KR (1) KR102488295B1 (ja)
CN (2) CN113616332A (ja)
AU (2) AU2017269937B2 (ja)
CA (1) CA3025300A1 (ja)
WO (1) WO2017205351A1 (ja)

Families Citing this family (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10799298B2 (en) 2012-06-21 2020-10-13 Globus Medical Inc. Robotic fluoroscopic navigation
US11896446B2 (en) 2012-06-21 2024-02-13 Globus Medical, Inc Surgical robotic automation with tracking markers
US11963755B2 (en) 2012-06-21 2024-04-23 Globus Medical Inc. Apparatus for recording probe movement
US11253327B2 (en) 2012-06-21 2022-02-22 Globus Medical, Inc. Systems and methods for automatically changing an end-effector on a surgical robot
US11045267B2 (en) 2012-06-21 2021-06-29 Globus Medical, Inc. Surgical robotic automation with tracking markers
US11786324B2 (en) 2012-06-21 2023-10-17 Globus Medical, Inc. Surgical robotic automation with tracking markers
US11399900B2 (en) 2012-06-21 2022-08-02 Globus Medical, Inc. Robotic systems providing co-registration using natural fiducials and related methods
US12004905B2 (en) 2012-06-21 2024-06-11 Globus Medical, Inc. Medical imaging systems using robotic actuators and related methods
US11864839B2 (en) 2012-06-21 2024-01-09 Globus Medical Inc. Methods of adjusting a virtual implant and related surgical navigation systems
US11793570B2 (en) 2012-06-21 2023-10-24 Globus Medical Inc. Surgical robotic automation with tracking markers
US11974822B2 (en) 2012-06-21 2024-05-07 Globus Medical Inc. Method for a surveillance marker in robotic-assisted surgery
US11857266B2 (en) 2012-06-21 2024-01-02 Globus Medical, Inc. System for a surveillance marker in robotic-assisted surgery
US11857149B2 (en) 2012-06-21 2024-01-02 Globus Medical, Inc. Surgical robotic systems with target trajectory deviation monitoring and related methods
US11864745B2 (en) 2012-06-21 2024-01-09 Globus Medical, Inc. Surgical robotic system with retractor
US11298196B2 (en) 2012-06-21 2022-04-12 Globus Medical Inc. Surgical robotic automation with tracking markers and controlled tool advancement
US10624710B2 (en) 2012-06-21 2020-04-21 Globus Medical, Inc. System and method for measuring depth of instrumentation
US11589771B2 (en) 2012-06-21 2023-02-28 Globus Medical Inc. Method for recording probe movement and determining an extent of matter removed
US11317971B2 (en) 2012-06-21 2022-05-03 Globus Medical, Inc. Systems and methods related to robotic guidance in surgery
WO2017028916A1 (en) * 2015-08-19 2017-02-23 Brainlab Ag Reference array holder
US10433921B2 (en) * 2015-12-28 2019-10-08 Mako Surgical Corp. Apparatus and methods for robot assisted bone treatment
EP3777749A3 (en) 2015-12-31 2021-07-21 Stryker Corporation System and method for preparing surgery on a patient at a target site defined by a virtual object
US11883217B2 (en) 2016-02-03 2024-01-30 Globus Medical, Inc. Portable medical imaging system and method
US11064904B2 (en) 2016-02-29 2021-07-20 Extremity Development Company, Llc Smart drill, jig, and method of orthopedic surgery
KR102488295B1 (ko) 2016-05-23 2023-01-16 마코 서지컬 코포레이션 로봇 수술 절차 동안 물리적 오브젝트를 식별하고 추적하기 위한 시스템 및 방법
ES2899284T3 (es) 2016-07-15 2022-03-10 Fastbrick Ip Pty Ltd Vehículo que incorpora una máquina de colocación de ladrillos
JP7108609B2 (ja) 2016-07-15 2022-07-28 ファストブリック・アイピー・プロプライエタリー・リミテッド 材料搬送用ブーム
JP7170631B2 (ja) 2016-10-05 2022-11-14 ニューヴェイジヴ,インコーポレイテッド 外科ナビゲーションシステム及び関連する方法
US11065069B2 (en) * 2017-05-10 2021-07-20 Mako Surgical Corp. Robotic spine surgery system and methods
US11033341B2 (en) 2017-05-10 2021-06-15 Mako Surgical Corp. Robotic spine surgery system and methods
CN111095355B (zh) 2017-07-05 2023-10-20 快砖知识产权私人有限公司 实时定位和定向跟踪器
US12011236B2 (en) * 2017-08-08 2024-06-18 Intuitive Surgical Operations, Inc. Systems and methods for rendering alerts in a display of a teleoperational system
CN111226090B (zh) 2017-08-17 2023-05-23 快砖知识产权私人有限公司 具有改进的横滚角测量的激光跟踪器
US11958193B2 (en) 2017-08-17 2024-04-16 Fastbrick Ip Pty Ltd Communication system for an interaction system
EP3672505A4 (en) * 2017-08-21 2021-02-17 Relign Corporation ARTHROSCOPY DEVICES AND METHODS
ES2971624T3 (es) 2017-10-11 2024-06-06 Fastbrick Ip Pty Ltd Máquina para transportar objetos
US11026751B2 (en) * 2017-12-28 2021-06-08 Cilag Gmbh International Display of alignment of staple cartridge to prior linear staple line
US11534242B2 (en) 2018-02-19 2022-12-27 Mako Surgical Corp. Surgical systems and methods for identifying tools guided by surgical robots
WO2019177711A1 (en) * 2018-03-13 2019-09-19 Intuitive Surgical Operations, Inc. Methods of guiding manual movement of medical systems
JP7082090B2 (ja) * 2018-06-27 2022-06-07 グローバス メディカル インコーポレイティッド 仮想インプラントを調整する方法および関連する手術用ナビゲーションシステム
DE102019004235B4 (de) 2018-07-16 2024-01-18 Mako Surgical Corp. System und verfahren zur bildbasierten registrierung und kalibrierung
JP6895128B2 (ja) * 2018-11-09 2021-06-30 オムロン株式会社 ロボット制御装置、シミュレーション方法、及びシミュレーションプログラム
US20200205911A1 (en) * 2019-01-01 2020-07-02 Transenterix Surgical, Inc. Determining Relative Robot Base Positions Using Computer Vision
CN118476870A (zh) * 2019-01-21 2024-08-13 华科精准(北京)医疗科技有限公司 一种手术机器人系统及其使用方法
US10959716B2 (en) * 2019-02-11 2021-03-30 Warsaw Orthopedic, Inc. Surgical retractor system and method
CN109758234B (zh) * 2019-02-15 2020-07-31 哈尔滨工业大学 用于微创手术移动腹腔镜自动控制系统及其控制方法
EP3920829A4 (en) * 2019-02-21 2022-11-16 Extremity Development Company, LLC INSTRUMENT-BORN OPTICAL KINEMATIC TIME OF FLIGHT POSITIONING SYSTEM FOR PRECISE TARGETING AND OPERATIONAL PROCEDURES
WO2020190832A1 (en) * 2019-03-20 2020-09-24 Covidien Lp Robotic surgical collision detection systems
EP3711699B1 (en) 2019-03-21 2024-01-03 Stryker European Operations Limited Technique for transferring a registration of image data of a surgical object from one surgical navigation system to another surgical navigation system
US11170526B2 (en) 2019-03-26 2021-11-09 Samsung Electronics Co., Ltd. Method and apparatus for estimating tool trajectories
CN111839619B (zh) * 2019-04-26 2024-04-02 华沙整形外科股份有限公司 手术牵开器和方法
FR3095331A1 (fr) * 2019-04-26 2020-10-30 Ganymed Robotics Procédé de chirurgie orthopédique assistée par ordinateur
WO2020243631A1 (en) 2019-05-30 2020-12-03 Icahn School Of Medicine At Mount Sinai Robot mounted camera registration and tracking system for orthopedic and neurological surgery
WO2020236937A1 (en) * 2019-05-20 2020-11-26 Icahn School Of Medicine At Mount Sinai A system and method for interaction and definition of tool pathways for a robotic cutting tool
US20220079687A1 (en) * 2019-05-20 2022-03-17 Icahn School Of Medicine At Mount Sinai Robot mounted camera registration and tracking system for orthopedic and neurological surgery
CN110251209B (zh) * 2019-05-24 2020-09-15 北京贝麦克斯科技有限公司 一种校正方法和装置
AU2020296088A1 (en) * 2019-06-18 2021-12-23 Nuvasive, Inc. Tissue retraction system
JP7356523B2 (ja) * 2019-07-03 2023-10-04 ストライカー・コーポレイション 手術ナビゲーションのための障害物回避技法
CN110533702B (zh) * 2019-08-12 2023-04-18 上海大学 一种基于光场多层折射模型的水下双目视觉立体匹配方法
US11612440B2 (en) 2019-09-05 2023-03-28 Nuvasive, Inc. Surgical instrument tracking devices and related methods
KR102361219B1 (ko) * 2019-09-09 2022-02-11 (주)미래컴퍼니 서브 블록 단위의 수술 데이터 획득 방법 및 그 장치
EP4034023A2 (en) 2019-09-26 2022-08-03 Stryker European Operations Limited Tracker for a surgical instrument
EP4034020A2 (en) 2019-09-26 2022-08-03 Stryker Corporation Surgical navigation systems
WO2021084484A2 (en) 2019-10-29 2021-05-06 Stryker European Operations Limited Surgical navigation tracker, system, and method
CN110956633B (zh) * 2020-02-26 2020-11-24 南京安科医疗科技有限公司 一种基于虚拟立体定位像的快速ct扫描方法及系统
CN111388087A (zh) * 2020-04-26 2020-07-10 深圳市鑫君特智能医疗器械有限公司 手术导航系统及执行手术导航方法的计算机与存储介质
CN111513849B (zh) * 2020-04-30 2022-04-19 京东方科技集团股份有限公司 一种用于穿刺的手术系统、控制方法及控制装置
US12089910B2 (en) * 2020-05-28 2024-09-17 The Chinese University Of Hong Kong Mobile-electromagnetic coil-based magnetic actuation systems
US11969218B2 (en) 2020-07-05 2024-04-30 Asensus Surgical Us, Inc. Augmented reality surgery set-up for robotic surgical procedures
CN111906784B (zh) * 2020-07-23 2023-04-07 湖南爱米家智能科技有限公司 一种基于机器视觉引导的咽拭子双臂采样机器人及采样方法
US11931113B2 (en) * 2020-08-03 2024-03-19 Mazor Robotics Ltd. Systems, devices, and methods for retractor interference avoidance
CN112155733B (zh) * 2020-09-29 2022-01-28 苏州微创畅行机器人有限公司 可读存储介质、骨建模配准系统及骨科手术系统
CN112402013A (zh) * 2020-11-20 2021-02-26 胡颖 自动识别超声影像的智能导航系统、电子装置及储存介质
US12035979B2 (en) * 2020-11-30 2024-07-16 Mazor Robotics Ltd. Autonomous robot tracking
US20240148447A1 (en) 2021-03-05 2024-05-09 Stryker European Operations Limited Systems And Methods For Associating Components Of A Surgical Instrument For Navigation-Assisted Surgery
CN113509268A (zh) * 2021-05-12 2021-10-19 上海交通大学 一种混合现实手术导航系统的标定装置及标定方法
CN113384347B (zh) * 2021-06-16 2022-07-08 瑞龙诺赋(上海)医疗科技有限公司 一种机器人标定方法、装置、设备及存储介质
US20230020476A1 (en) * 2021-07-15 2023-01-19 Mazor Robotics Ltd. Path planning based on work volume mapping
DE102021126484A1 (de) 2021-10-13 2023-04-13 B. Braun New Ventures GmbH Kalibrierungsverfahren zur automatisierten Kalibrierung von Kamera zu medizinischem Roboter und chirurgisches Assistenzsystem
US20230113312A1 (en) * 2021-10-13 2023-04-13 Mazor Robotics Ltd. Systems, methods, and devices for defining a path for a robotic arm
AU2022370478A1 (en) 2021-10-18 2024-05-02 Stryker European Operations Limited Attachment and system for tracking a surgical instrument
CN114022612A (zh) * 2021-11-02 2022-02-08 武汉联影智融医疗科技有限公司 模型构建方法、装置、计算机设备和存储介质
CN114378825B (zh) * 2022-01-21 2023-05-12 四川长虹智能制造技术有限公司 一种多相机视觉定位方法、系统及电子设备
CN116965937A (zh) * 2022-04-23 2023-10-31 深圳市精锋医疗科技股份有限公司 手术机器人系统及其控制装置
WO2023230349A1 (en) 2022-05-26 2023-11-30 Stryker Corporation Alert system behavior based on localization awareness
WO2023235483A1 (en) 2022-06-03 2023-12-07 Mako Surgical Corp. Surgical robotic system with compliance mechanism
WO2024006578A2 (en) 2022-07-01 2024-01-04 Stryker Corporation Methods and systems for zone and implant planning for a surgical procedure
WO2024052881A1 (en) 2022-09-08 2024-03-14 Stryker European Operations Limited Systems and methods for associating components of a surgical instrument for navigation-assisted surgery
US20240138808A1 (en) * 2022-10-31 2024-05-02 Procept Biorobotics Corporation Fiducial systems for probe tracking and identification
CN116919597B (zh) * 2023-09-15 2023-12-26 中南大学 基于多视觉融合采集信息的手术导航系统
CN118181306B (zh) * 2024-05-17 2024-08-30 上海术之道医疗器械有限公司 机器人控制方法、装置、控制设备及可读取存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060025677A1 (en) * 2003-10-17 2006-02-02 Verard Laurent G Method and apparatus for surgical navigation
JP2009509671A (ja) * 2005-09-30 2009-03-12 レストレーション ロボティクス,インク. 毛嚢ユニットの採収および移植用の自動システム
JP2016512084A (ja) * 2013-03-13 2016-04-25 ストライカー・コーポレイション 仮想制約境界を確立するシステム及び方法

Family Cites Families (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5662111A (en) 1991-01-28 1997-09-02 Cosman; Eric R. Process of stereotactic optical navigation
US6675040B1 (en) 1991-01-28 2004-01-06 Sherwood Services Ag Optical object tracking system
US5603318A (en) 1992-04-21 1997-02-18 University Of Utah Research Foundation Apparatus and method for photogrammetric surgical localization
US5732703A (en) 1992-11-30 1998-03-31 The Cleveland Clinic Foundation Stereotaxy wand and tool guide
US5682890A (en) 1995-01-26 1997-11-04 Picker International, Inc. Magnetic resonance stereotactic surgery with exoskeleton tissue stabilization
US6167296A (en) 1996-06-28 2000-12-26 The Board Of Trustees Of The Leland Stanford Junior University Method for volumetric image navigation
US5921992A (en) 1997-04-11 1999-07-13 Radionics, Inc. Method and system for frameless tool calibration
US6247812B1 (en) * 1997-09-25 2001-06-19 Vismed System and method for diagnosing and treating a target tissue
US6379302B1 (en) * 1999-10-28 2002-04-30 Surgical Navigation Technologies Inc. Navigation information overlay onto ultrasound imagery
US20010034530A1 (en) 2000-01-27 2001-10-25 Malackowski Donald W. Surgery system
US6484049B1 (en) 2000-04-28 2002-11-19 Ge Medical Systems Global Technology Company, Llc Fluoroscopic tracking and visualization system
WO2002029700A2 (en) 2000-10-05 2002-04-11 Siemens Corporate Research, Inc. Intra-operative image-guided neurosurgery with augmented reality visualization
US20030179308A1 (en) * 2002-03-19 2003-09-25 Lucia Zamorano Augmented tracking using video, computed data and/or sensing technologies
US6978167B2 (en) 2002-07-01 2005-12-20 Claron Technology Inc. Video pose tracking system and method
US7155316B2 (en) 2002-08-13 2006-12-26 Microbotics Corporation Microsurgical robot system
US20110015521A1 (en) 2003-03-27 2011-01-20 Boulder Innovation Group, Inc. Means of Tracking Movement of Bodies During Medical Treatment
DE10343826B4 (de) 2003-09-22 2006-02-09 Plus-Endoprothetik Ag Knochenfester Lokator und Navigationssystem
US7623250B2 (en) 2005-02-04 2009-11-24 Stryker Leibinger Gmbh & Co. Kg. Enhanced shape characterization device and method
CA2826925C (en) * 2005-02-22 2017-01-24 Mako Surgical Corp. Haptic guidance system and method
US8073528B2 (en) * 2007-09-30 2011-12-06 Intuitive Surgical Operations, Inc. Tool tracking systems, methods and computer products for image guided surgery
CA2611404C (en) 2005-06-09 2016-01-12 Ife Industrielle Forschung Und Entwicklung Gmbh Device and method for the contactless determination of spatial position/orientation of bodies
GB2428110A (en) 2005-07-06 2007-01-17 Armstrong Healthcare Ltd A robot and method of registering a robot.
JP4153528B2 (ja) * 2006-03-10 2008-09-24 ファナック株式会社 ロボットシミュレーションのための装置、プログラム、記録媒体及び方法
WO2007113815A2 (en) 2006-03-30 2007-10-11 Activiews Ltd System and method for optical position measurement and guidance of a rigid or semi flexible tool to a target
US9718190B2 (en) * 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
WO2009045827A2 (en) 2007-09-30 2009-04-09 Intuitive Surgical, Inc. Methods and systems for tool locating and tool tracking robotic instruments in robotic surgical systems
DE102007055203A1 (de) * 2007-11-19 2009-05-20 Kuka Roboter Gmbh Einen Roboter aufweisende Vorrichtung, medizinischer Arbeitsplatz und Verfahren zum Registrieren eines Objekts
US8238631B2 (en) * 2009-05-13 2012-08-07 Medtronic Navigation, Inc. System and method for automatic registration between an image and a subject
DE102010042540B4 (de) 2010-10-15 2014-09-04 Scopis Gmbh Verfahren und Vorrichtung zum Kalibrieren einer Abstandsbestimmungsvorrichtung eines optischen Systems
US9370332B2 (en) * 2010-11-10 2016-06-21 Siemens Medical Solutions Usa, Inc. Robotic navigated nuclear probe imaging
US9119655B2 (en) 2012-08-03 2015-09-01 Stryker Corporation Surgical manipulator capable of controlling a surgical instrument in multiple modes
US9921712B2 (en) * 2010-12-29 2018-03-20 Mako Surgical Corp. System and method for providing substantially stable control of a surgical tool
US8601380B2 (en) * 2011-03-16 2013-12-03 Nokia Corporation Method and apparatus for displaying interactive preview information in a location-based user interface
US9572539B2 (en) 2011-04-08 2017-02-21 Imactis Device and method for determining the position of an instrument in relation to medical images
US9188973B2 (en) * 2011-07-08 2015-11-17 Restoration Robotics, Inc. Calibration and transformation of a camera system's coordinate system
US10363102B2 (en) 2011-12-30 2019-07-30 Mako Surgical Corp. Integrated surgery method
CN106923903B (zh) * 2011-12-30 2020-09-29 玛口外科股份有限公司 用于基于图像的机器人外科手术的系统
DE102012208389A1 (de) 2012-05-18 2013-11-21 Fiagon Gmbh Registrierverfahren und -vorrichtung für ein Positionserfassungssystem
US20220346895A1 (en) * 2012-06-21 2022-11-03 Globus Medical, Inc. Robotic systems providing co-registration using natural fiducials and related methods
KR102603224B1 (ko) 2012-08-03 2023-11-16 스트리커 코포레이션 로봇 수술을 위한 시스템 및 방법
US9226796B2 (en) * 2012-08-03 2016-01-05 Stryker Corporation Method for detecting a disturbance as an energy applicator of a surgical instrument traverses a cutting path
US9008757B2 (en) 2012-09-26 2015-04-14 Stryker Corporation Navigation system including optical and non-optical sensors
US8848201B1 (en) * 2012-10-20 2014-09-30 Google Inc. Multi-modal three-dimensional scanning of objects
KR102218244B1 (ko) * 2012-12-10 2021-02-22 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 영상 포착 장치 및 조작 가능 장치 가동 아암들의 제어된 이동 중의 충돌 회피
DE102012025102A1 (de) * 2012-12-20 2014-06-26 avateramedical GmBH Endoskop mit einem Mehrkamerasystem für die minimal-invasive Chirurgie
WO2014113551A2 (en) 2013-01-16 2014-07-24 Stryker Corporation Navigation systems and methods for indicating and reducing line-of-sight errors
CN105377174A (zh) 2013-02-11 2016-03-02 尼奥梅德兹有限责任公司 用于相对于身体跟踪对象的跟踪设备
KR20230173231A (ko) * 2013-03-11 2023-12-26 매직 립, 인코포레이티드 증강 및 가상 현실을 위한 시스템 및 방법
CA2896381C (en) * 2013-03-15 2017-01-10 Synaptive Medical (Barbados) Inc. Intelligent positioning system and methods therefore
WO2014189969A1 (en) * 2013-05-21 2014-11-27 Camplex, Inc. Surgical visualization systems
US9675419B2 (en) * 2013-08-21 2017-06-13 Brachium, Inc. System and method for automating medical procedures
CN105658167B (zh) 2013-08-23 2018-05-04 斯瑞克欧洲控股I公司 用来对用于手术导航的坐标转换进行确定的计算机实现技术
US10786309B2 (en) 2013-12-10 2020-09-29 Koninklijke Philips N.V. Radiation-free registration of an optical shape sensing system to an imaging system
EP3243476B1 (en) * 2014-03-24 2019-11-06 Auris Health, Inc. Systems and devices for catheter driving instinctiveness
US10912523B2 (en) * 2014-03-24 2021-02-09 Intuitive Surgical Operations, Inc. Systems and methods for anatomic motion compensation
CN111184577A (zh) * 2014-03-28 2020-05-22 直观外科手术操作公司 器械在视野中的定量三维可视化
US20170079723A1 (en) 2014-05-14 2017-03-23 Brainlab Ag Method for determining the spatial position of objects
US9402691B2 (en) 2014-09-16 2016-08-02 X-Nav Technologies, LLC System for determining and tracking movement during a medical procedure
WO2016126914A1 (en) * 2015-02-05 2016-08-11 Intuitive Surgical Operations, Inc. System and method for anatomical markers
US10499996B2 (en) * 2015-03-26 2019-12-10 Universidade De Coimbra Methods and systems for computer-aided surgery using intra-operative video acquired by a free moving camera
EP3777749A3 (en) * 2015-12-31 2021-07-21 Stryker Corporation System and method for preparing surgery on a patient at a target site defined by a virtual object
KR102488295B1 (ko) 2016-05-23 2023-01-16 마코 서지컬 코포레이션 로봇 수술 절차 동안 물리적 오브젝트를 식별하고 추적하기 위한 시스템 및 방법
US10398514B2 (en) * 2016-08-16 2019-09-03 Insight Medical Systems, Inc. Systems and methods for sensory augmentation in medical procedures

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060025677A1 (en) * 2003-10-17 2006-02-02 Verard Laurent G Method and apparatus for surgical navigation
JP2009509671A (ja) * 2005-09-30 2009-03-12 レストレーション ロボティクス,インク. 毛嚢ユニットの採収および移植用の自動システム
JP2016512084A (ja) * 2013-03-13 2016-04-25 ストライカー・コーポレイション 仮想制約境界を確立するシステム及び方法

Also Published As

Publication number Publication date
AU2022231780A1 (en) 2022-10-13
US20240156543A1 (en) 2024-05-16
JP7134872B2 (ja) 2022-09-12
EP3463164B1 (en) 2023-01-11
KR102488295B1 (ko) 2023-01-16
US11937881B2 (en) 2024-03-26
AU2017269937B2 (en) 2022-06-16
WO2017205351A1 (en) 2017-11-30
CN109152615B (zh) 2021-08-17
EP4186458A1 (en) 2023-05-31
AU2017269937A1 (en) 2018-12-06
EP3463164A1 (en) 2019-04-10
US20200107887A1 (en) 2020-04-09
CN109152615A (zh) 2019-01-04
US10531926B2 (en) 2020-01-14
CA3025300A1 (en) 2017-11-30
KR20190010860A (ko) 2019-01-31
US20170333137A1 (en) 2017-11-23
CN113616332A (zh) 2021-11-09
JP2019523664A (ja) 2019-08-29

Similar Documents

Publication Publication Date Title
JP7134872B2 (ja) ロボット外科処置中に物理的オブジェクトの識別と追跡を行うシステムおよび方法
US11806089B2 (en) Merging localization and vision data for robotic control
US11806090B2 (en) System and method for image based registration and calibration
KR20220024055A (ko) 추적 시스템 시야 위치설정 시스템 및 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220928

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240422

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240802