JP2023179543A - 手術ナビゲーションのための障害物回避技法 - Google Patents

手術ナビゲーションのための障害物回避技法 Download PDF

Info

Publication number
JP2023179543A
JP2023179543A JP2023158428A JP2023158428A JP2023179543A JP 2023179543 A JP2023179543 A JP 2023179543A JP 2023158428 A JP2023158428 A JP 2023158428A JP 2023158428 A JP2023158428 A JP 2023158428A JP 2023179543 A JP2023179543 A JP 2023179543A
Authority
JP
Japan
Prior art keywords
depth map
coordinate system
localizer
surgical
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023158428A
Other languages
English (en)
Inventor
マラコブスキー,ドナルド・ダブリュー.
W Malackowski Donald
ボス,ジョセフ
Bos Joseph
デルーカ,リチャード・トーマス
Thomas Deluca Richard
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stryker Corp
Original Assignee
Stryker Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stryker Corp filed Critical Stryker Corp
Publication of JP2023179543A publication Critical patent/JP2023179543A/ja
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Master-slave robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/02Surgical instruments, devices or methods, e.g. tourniquets for holding wounds open; Tractors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00725Calibration or performance testing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/061Measuring instruments not otherwise provided for for measuring dimensions, e.g. length
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3966Radiopaque markers visible in an X-ray image

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Manipulator (AREA)

Abstract

【課題】ローカライザが第1のオブジェクトの位置を検出するように構成され、視覚デバイスが第1のオブジェクトの近くの表面の深度マップを生成するように構成されるシステム及び方法を提供する。【解決手段】第1のオブジェクトに対応する仮想モデルにアクセスされ、ローカライザと視覚デバイスとの共通座標系における位置関係が特定される。次に、検出された第1のオブジェクトの位置、仮想モデル、及び位置関係に基づいて、視覚デバイスの予想深度マップが生成される。実深度マップのうちの予想深度マップと一致しない部分が特定され、特定された部分に基づいて第2のオブジェクトが認識される。【選択図】図1

Description

関連出願の相互参照
本出願は、2019年7月3日に出願された米国仮特許出願第62/870,284号
に対する優先権及びこの仮出願の全ての利益を主張するものであり、この仮出願の内容を
全体として参照により本明細書に組み込む。
本開示は、一般に手術ナビゲーションシステムに関する。
手術ナビゲーションシステムは、治療のために患者の組織の標的体積に対する手術器具
の位置を特定することを支援するものである。外科処置中に、治療対象の標的体積が、避
けるべき傷つきやすい解剖構造や手術具にしばしば隣接して位置することがある。これら
の隣接した解剖構造の、取り付けられたトラッカを用いての追跡は、構造の柔軟性のため
に難しいことが多い。さらに、標的体積に隣接した各オブジェクトにトラッカを取り付け
ると、手術作業空間が混雑し、手術ナビゲーションシステムのコスト及び複雑さが増大す
る。
第1の態様では、第1のオブジェクトを検出するように構成されたローカライザと、第
1のオブジェクトの近傍の表面の実深度マップを生成するように構成された視覚デバイス
と、ローカライザ及び視覚デバイスに結合されたコントローラであって、コントローラが
、第1のオブジェクトに対応する仮想モデルにアクセスすることと、共通座標系でローカ
ライザと視覚デバイスとの位置関係を特定することと、第1のオブジェクトの検出位置、
仮想モデル、及び位置関係に基づいて、視覚デバイスの予想深度マップを生成することと
、予想深度マップと一致しない実深度マップの部分を特定することと、特定された部分に
基づいて第2のオブジェクトを認識することとを行うように構成される、コントローラと
、を備えるナビゲーションシステムが提供される。
第2の態様では、ロボットマニピュレータが第1の態様のナビゲーションシステムとと
もに利用され、ロボットマニピュレータは、手術具を支持し、複数のリンクと、リンクを
動かして手術具を動かすように構成された複数のアクチュエータとを備え、ロボットマニ
ピュレータは、第2のオブジェクトを回避するように制御される。
第3の態様では、ナビゲーションシステムを動作させる方法が提供され、ナビゲーショ
ンは、第1のオブジェクトの位置を検出するように構成されたローカライザと、第1のオ
ブジェクトの近傍の表面の実深度マップを生成するように構成された視覚デバイスと、ロ
ーカライザ及び視覚デバイスに結合されたコントローラとを含み、本方法は、第1のオブ
ジェクトに対応する仮想モデルにアクセスすることと、共通座標系でローカライザと視覚
デバイスとの位置関係を特定することと、第1のオブジェクトの検出位置、仮想モデル、
及び位置関係に基づいて、視覚デバイスの予想深度マップを生成することと、予想深度マ
ップと一致しない実深度マップの部分を特定することと、特定された部分に基づいて第2
のオブジェクトを認識することとを含む。
第4の態様では、1つ以上のプロセッサによって実行されるとき、第3の態様の方法を
実施するように構成された命令が格納された非一時的なコンピュータ可読媒体を含む、コ
ンピュータプログラム製品が提供される。
上記の態様のいずれかに関する一実施態様によれば、ローカライザは、第1のオブジェ
クトに関連する光学的特徴を検出するように構成された光学ローカライザ、第1のオブジ
ェクトに関連する電磁的特徴を検出するように構成された電磁ローカライザ、任意のトラ
ッカを有するか又は有しない第1のオブジェクトを検出するように構成された超音波ロー
カライザ、第1のオブジェクトに関連する慣性特徴を検出するように構成された慣性ロー
カライザ、又は前述の任意の組合せであるように構成される。
上記の態様のいずれかに関する一実施態様によれば、第1のオブジェクトは、患者の解
剖学的構造又は骨、ロボットマニピュレータ、手持ち器具、ロボットマニピュレータに取
り付けられたエンドエフェクタ又はツール、外科用テーブル、移動カート、患者が載せら
れ得る手術台、イメージングシステム、開創器、又は前述の任意の組み合わせなどの手術
室内の機器のいずれかであってもよく、これらに限定されない。
上記の態様のいずれかに関する一実施態様によれば、視覚デバイスは、ローカライザ、
ローカライザとは別のユニット、ナビゲーションシステムのカメラユニット、調整可能な
アーム、ロボットマニピュレータ、エンドエフェクタ、手持ちツール、天井に取り付けら
れたブームなどの手術用ブームシステム、肢保持装置、又は前述の任意の組み合わせのい
ずれかと結合されている。
上記の態様のいずれかに関する一実施態様によれば、第1のオブジェクトの近くの表面
は、第1のオブジェクトに隣接する表面、第1のオブジェクトからある距離だけ離れた表
面、第1のオブジェクトに触れる表面、第1のオブジェクトの上に直接ある表面、第1の
オブジェクトの近くの環境にある表面、第1のオブジェクトの後ろ又は周囲の環境にある
表面、第1のオブジェクトの閾値距離内、ローカライザの視野内、又は前述の任意の組合
せであり得る。
上記の態様のいずれかに関する一実施態様によれば、第2のオブジェクトは、周囲の軟
組織などの患者の解剖学的構造の第2の部分、ロボットマニピュレータ、ロボットマニピ
ュレータの1つ以上のアーム、第2のロボットマニピュレータ、手持ち器具、ロボットマ
ニピュレータ又は手持ち器具に取り付けられたエンドエフェクタ又はツール、外科用テー
ブル、移動カート、患者が載せられ得る手術台、イメージングシステム、開創器、追跡デ
バイス本体などの手術室内の機器(ただし、これらに限定されない)、手術室にいる人間
の身体部分、又は前述の任意の組み合わせ、のいずれかを含む、障害物を形成し得るオブ
ジェクトであり得る。
上記の態様のいずれかに係る一実施態様によれば、コントローラは、1つ以上のコント
ローラ又は制御システムであり得る。一実施態様によれば、コントローラは、共通座標系
における第1のオブジェクトに対する第2のオブジェクトの位置を特定するように構成さ
れる。一実施態様によれば、コントローラは、第1のオブジェクトの検出された位置、実
深度マップにおける第2のオブジェクトの場所、及び位置関係に基づいて、そのように特
定する。
一実施態様によれば、第1のオブジェクトは、手術計画に従って治療すべき患者組織の
標的体積を画定する。一実施態様によれば、コントローラは、共通座標系における標的体
積に対する第2のオブジェクトの位置と手術計画とに基づいて、第2のオブジェクトが、
手術計画に従って標的体積を治療することに対する障害物であるかどうかを判定するよう
に構成される。一実施態様によれば、第2のオブジェクトが手術計画にとっての障害物で
あると判定することに応答して、コントローラは、手術計画を修正すること、及び/又は
通知をトリガすること、及び/又は手術ナビゲーションを停止することを行うように構成
される。
一実施態様によれば、トラッカは、第1のオブジェクトに結合される。一実施態様によ
れば、コントローラは、ローカライザを介して、ローカライザに特定的な第1の座標系で
トラッカの位置を検出するように構成される。一実施態様によれば、コントローラは、第
1の座標系におけるトラッカの検出位置、及び第1の座標系におけるトラッカと第1のオ
ブジェクトとの位置関係に基づいて、第1の座標系における仮想モデルの位置を特定する
ことができる。一実施態様によれば、コントローラは、第1の座標系での仮想モデルの位
置と、第2の座標系でのローカライザと視覚デバイスとの位置関係とに基づいて、第1の
座標系における仮想モデルの位置を、視覚デバイスに特定的な第2の座標系における仮想
モデルの位置に変換する。一実施態様によれば、コントローラは、第2の座標系での仮想
モデルの位置に基づいて、予想深度マップを生成することができる。
一実施態様によれば、コントローラは、実深度マップと予想深度マップとを比較するよ
うに構成されることにより、予想深度マップに一致しない実深度マップの部分を特定する
ように構成される。いくつかの実施態様では、コントローラは、実深度マップと予想深度
マップとの差分を計算する。一実施態様によれば、コントローラは、差分の第1のセクシ
ョンが閾値深度よりも大きい絶対深度を示すかどうかを判定する。一実施態様によれば、
コントローラは、差分の第1のセクションが閾値深度よりも大きい絶対深度を示すと判定
することに応答して、差分の第1のセクションに対応する実深度マップの第2のセクショ
ンを部分として特定する。一実施態様によれば、閾値深度はゼロではない。
一実施態様によれば、コントローラは、予想深度マップと一致しない実深度マップの部
分を特定するように構成される。いくつかの実施態様では、コントローラは、第1のセク
ションのサイズが最小サイズ閾値よりも大きいかどうかを判定するように構成されること
によって、これを行う。いくつかの実施態様では、コントローラは、第1のセクションの
サイズが最小サイズ閾値よりも大きいと判定することに応答して、第2のセクションを部
分として特定する。
一実施態様によれば、コントローラは、特定された部分を第2のオブジェクトに対応す
る所定のプロファイルと一致させるように構成されることにより、特定された部分に基づ
いて第2のオブジェクトを認識するように構成される。
一実施態様によれば、実深度マップの部分は、第2のオブジェクトに対応し、実深度マ
ップの第1の位置に配置された特徴の配列を含む。一実施態様によれば、コントローラは
、特徴の配列が、第1の位置とは異なる第2の位置に移動するかどうかを監視することに
より、第2のオブジェクトの移動を追跡するように構成される。一実施態様によれば、コ
ントローラは、視覚デバイスによって続いて生成される追加の実深度マップにおいて、そ
のようなものを監視する。
一実施態様によれば、コントローラは、共通座標系の第2のオブジェクトに対応する仮
想境界を生成するように構成される。一実施態様によれば、仮想境界は、制約を提供する
。いくつかの実施例では、制約は、手術具、ロボットマニピュレータ、ロボット手持ち手
術装置の作業端、イメージングデバイス、又は手術室内の他の任意の可動装置などのオブ
ジェクトの動きに関するものである。いくつかの実施例では、制約は、キープアウト境界
又はキープイン境界である。
一実施態様によれば、コントローラは、仮想モデル、第1のオブジェクトの検出位置、
及び共通座標系でのローカライザと視覚デバイスとの位置関係に基づいて、実深度マップ
を関心領域にトリミングするように構成される。いくつかの実施態様では、コントローラ
は、トリミングされた実深度マップを比較するように構成されることにより、実深度マッ
プを比較するように構成される。
一実施態様によれば、コントローラは、視覚デバイスの視界内にあり、任意選択でロー
カライザの視界内にもある表面上にパターンを投影するように構成されることにより、共
通座標系におけるローカライザと視覚デバイスとの位置関係を特定するように構成される
。いくつかの実施態様では、コントローラは、ローカライザに特定的な第1の座標系にお
けるパターンの位置を示すローカライザを用いて位置特定データを生成する。いくつかの
実施態様では、コントローラは、視覚デバイスによって生成された投影パターンを示す較
正深度マップを受け取る。いくつかの実施態様では、コントローラは、較正深度マップに
基づいて、視覚デバイスに特定的な第2の座標系における投影パターンの位置を特定する
。いくつかの実施態様では、コントローラは、第1の座標系におけるパターンの位置と第
2の座標系におけるパターンの位置とに基づいて、共通座標系におけるローカライザと視
覚デバイスとの位置関係を特定する。いくつかの実施態様では、コントローラは、第1の
スペクトル帯で動作して、第1のオブジェクトの位置を検出するように構成されており、
視覚デバイスは、第2のスペクトル帯で動作して、第1のオブジェクトの近傍の表面の実
深度マップを生成するように構成されており、第1のスペクトル帯は第2のスペクトル帯
とは異なる。
上記の態様のいずれかを完全に又は部分的に組み合わせることができる。上記の態様の
いずれかを完全に又は部分的に組み合わせることができる。
上記の概要は、本明細書で論じられる本発明の特定の態様に関する基本的な理解を与え
るために、本発明のいくつかの態様を簡単に概説したものである場合がある。本概要は、
本発明の広範囲に及ぶ全体像を提供することを意図したものではなく、全ての重要要素も
しくは決定的要素を明らかにすること、又は本発明の範囲を明確化することを意図したも
のでもない。本概要の唯一の目的は、以下に示す詳細な説明の導入として、いくつかの概
念を単純化した形で提示することにある。
ローカライザ及び視覚デバイスを含む手術ナビゲーションシステムの斜視図である。 図1の手術ナビゲーションシステムを制御するための制御システムの概略図である。 図1の手術ナビゲーションシステムで使用される座標系の斜視図である。 トラッカをベースにした位置特定及び機械視覚を用いて標的部位の一例をナビゲートする方法のフローチャートである。 標的部位、例えば、外科処置中に治療される解剖学的構造の一例の説明図である。 図5の標的部位内のオブジェクトに対応する仮想モデルの位置の説明図である。 図6の仮想モデルに基づく予想深度マップの説明図である。 図1の視覚デバイスで取り込まれた実深度マップの説明図である。 関心領域にトリミングされた図8の実深度マップの説明図である。 図7の予想深度マップと図9の実深度マップとの差分の説明図である。 図9の実深度マップ内で特定された外科用開創器に対応する仮想モデルの説明図である。 図9の実深度マップ内で特定された靭帯に対応する仮想モデルの説明図である。 図9の実深度マップ内で特定された表皮組織に対応する仮想モデルの説明図である。 共通座標系における図6及び図11~図13の仮想モデルの説明図である。 図1の視覚デバイスで後に取り込まれた実深度マップの説明図である。 図15の実深度マップに基づいて位置決めを更新した図14の仮想モデルの説明図である。
図1は、患者を治療するための手術システム10を示す。手術システム10は、医療施
設の手術室などの外科的環境に設置され得る。手術システム10は、手術ナビゲーション
システム12及びロボットマニピュレータ14を含むことができる。ロボットマニピュレ
ータ14は、手術器具16に結合され得、患者組織の標的体積を治療するために、外科医
及び/又は手術ナビゲーションシステム12の指示などで手術器具16を操作するように
構成され得る。例えば、手術ナビゲーションシステム12により、ロボットマニピュレー
タ14が、他の医療用具及び隣接した解剖構造など、標的体積に隣接する他のオブジェク
トを避けながら患者組織の標的体積を切除するように、手術器具16を操作することがで
きる。あるいは、外科医が、手術ナビゲーションシステム12からの誘導を受けながら、
手術器具16を手動で保持し、操作することができる。いくつかの非限定的な実施例とし
て、手術器具16は、バーリング器具、電気手術器具、超音波器具、リーマ、インパクタ
、又は矢状面鋸であってもよい。
外科処置中に、手術ナビゲーションシステム12は、トラッカをベースにした位置特定
と機械視覚との組み合わせを使用して、手術作業空間内の着目したオブジェクトの位置(
場所及び向き)を追跡することができる。外科処置のための手術作業空間は、治療される
患者組織の標的体積と、治療に対する障害物が存在する可能性がある治療される標的体積
のすぐ周囲の領域とを含むものと考えられ得る。被追跡オブジェクトには、患者の解剖構
造、治療すべき解剖構造の標的体積、手術器具16などの手術器具、及び外科医の手又は
指などの外科的身体の解剖構造が含まれ得るが、これらに限定されない。追跡される患者
の解剖構造及び標的体積には、靭帯、筋肉、及び皮膚などの軟組織が含まれ得、骨などの
硬組織が含まれ得る。追跡される手術器具には、外科処置中に使用される開創器、切断工
具、及び廃棄物処理デバイスが含まれ得る。
手術作業空間内の着目したオブジェクトにトラッカを固定することで、手術ナビゲーシ
ョンシステム12が手術作業空間内のそのようなオブジェクトの位置を判定するための正
確かつ効率的な機構を提供することができる。処置中に、トラッカは、特定の非可視光帯
域(例えば、赤外線、紫外線)などで既知の信号パターンを生成し得る。手術ナビゲーシ
ョンシステム12は、特定の非可視光帯域内の信号を検出することに特化し、この帯域外
の光信号を無視するローカライザを含むことができる。ローカライザが、所与のトラッカ
に関連した信号パターンを検出することに応答して、手術ナビゲーションシステム12は
、パターンが検出された角度に基づいて、ローカライザに対するトラッカの位置を判定す
ることができる。そして、手術ナビゲーションシステム12は、判定されたトラッカの位
置と、オブジェクトとトラッカとの一定の位置関係とに基づいて、トラッカが取り付けら
れているオブジェクトの位置を割り出すことができる。
上記のトラッカは、手術ナビゲーションシステム12が、手術作業空間内の骨及び手術
器具などの硬組織オブジェクトを正確かつ効率的に追跡することを可能にし得るが、これ
らのトラッカは、一般に、皮膚及び靭帯などの軟組織オブジェクトの追跡には適していな
い。具体的には、軟組織オブジェクトの柔軟な性質のために、外科処置の過程で軟組織オ
ブジェクト全体とトラッカとの位置関係を一定に保つことが難しい。さらに、外科処置に
関わるいくつかの患者組織及び器具のそれぞれにトラッカを取り付けると、手術作業空間
が混雑してナビゲーションが困難となり、手術ナビゲーションシステム12のコスト及び
複雑さが増大する。そのために、トラッカをベースにした位置特定に加えて、手術ナビゲ
ーションシステム12は、外科処置中に手術作業空間内のオブジェクトを追跡するために
、機械視覚を実装することもできる。
具体的には、ローカライザ及び取り付けられたトラッカを使用して手術作業空間内のオ
ブジェクトの位置を検出することに加えて、手術ナビゲーションシステム12は、作業空
間(本明細書では標的部位とも呼ばれる)内の表面の深度マップを生成するように構成さ
れた視覚デバイスを含んでもよい。標的部位は、様々な異なるオブジェクト又は部位であ
る可能性がある。一実施例では、標的部位は、治療又は組織切除を必要とする解剖学的構
造の一部(例えば、骨)などの手術部位である。他の実施例では、標的部位は、ロボット
マニピュレータ、ロボットマニピュレータに取り付けられたエンドエフェクタもしくはツ
ール、外科用テーブル、移動カート、患者を載せることができる手術台、イメージングシ
ステム、又はこれらに類するものなど、手術室内の機器であることが可能である。
手術ナビゲーションシステム12はまた、共通座標系でのローカライザと視覚デバイス
との位置関係を特定するように構成され得、ローカライザ、オブジェクトに対応する仮想
モデル、及び位置関係を使用して、標的部位内のオブジェクトの検出位置に基づいて、視
覚デバイスの予想深度マップを生成するように構成され得る。その後、手術ナビゲーショ
ンシステム12は、予想深度マップを視覚デバイスによって生成された実深度マップと比
較し、その比較に基づいて、推定深度マップに一致しない実深度マップの部分を特定する
ように構成されてもよい。次に、手術ナビゲーションシステム12は、特定された部分に
基づいて標的部位にあるオブジェクトを特定し、そのオブジェクトが現在の手術計画にと
って障害物であるかどうかを判定するように構成されてもよい。
手術ナビゲーションシステム12は、外科医を支援するために、外科処置中に追跡され
るオブジェクトの相対位置を表示してもよい。手術ナビゲーションシステム12は、ロボ
ットマニピュレータ14及び/又は手術器具16の動きを、被追跡オブジェクトに関連す
る仮想境界に対し制御及び/又は制約することもできる。例えば、手術ナビゲーションシ
ステム12は、被追跡オブジェクトに基づいて、治療すべき患者組織の標的体積と手術作
業空間内の潜在的障害物とを特定してもよい。その結果、手術ナビゲーションシステム1
2は、手術具(例えば、手術器具16のエンドエフェクタEA)が、治療すべき患者組織
の標的体積を越えて何かに接触することを制限し、患者の安全性及び手術の正確性を向上
させることができる。手術ナビゲーションシステム12はまた、他のオブジェクトとの意
図的でない接触によって生じ、その結果、標的部位に望ましくない破片がもたらされる可
能性もある、手術器具への損傷を無くすことができる。
図1に示されるように、手術ナビゲーションシステム12は、ローカライザ18及びナ
ビゲーションカート組立体20を含むことができる。ナビゲーションカート組立体20は
、本明細書に記載される手術ナビゲーションシステム12の機能、特徴、及び処理を実施
するように構成されたナビゲーションコントローラ22を収容することができる。具体的
には、ナビゲーションコントローラ22は、本明細書に記載されるナビゲーションコント
ローラ22及び手術ナビゲーションシステム12の機能、特徴、及び処理を実施するよう
にプログラムされたプロセッサ23を含むことが可能である。例えば、プロセッサ23は
、ローカライザ18から受け取った光学ベース信号を、手術作業空間内のトラッカに取り
付けられたオブジェクトの位置を示すローカライザデータに変換するようにプログラムさ
れてもよい。
ナビゲーションコントローラ22は、手術ナビゲーションシステム12のユーザインタ
ーフェース24と作動的に通信し得る。ユーザインターフェース24は、手術ナビゲーシ
ョンシステム12及びナビゲーションコントローラ22とのユーザインタラクションを促
進し得る。例えば、ユーザインターフェース24は、ナビゲーションコントローラ22な
どからの情報をユーザに提供する1つ以上の出力デバイスを含むことができる。出力デバ
イスには、手術作業空間を含む滅菌野の外側に位置しているように適合させたディスプレ
イ25が含まれ得、滅菌野の内側に位置しているように適合させたディスプレイ26が含
まれ得る。ディスプレイ25、26は、ナビゲーションカート組立体20に調節可能であ
るように取り付けられてもよい。ユーザインターフェース24はまた、手術ナビゲーショ
ンシステム12へのユーザ入力を可能にする1つ以上の入力デバイスを含むことができる
。入力デバイスには、ユーザによってインタラクトされて、手術パラメータを入力し、ナ
ビゲーションコントローラ22の態様を制御することができるキーボード、マウス、及び
/又はタッチスクリーン28が含まれ得る。入力デバイスには、音声認識技術によるユー
ザ入力を可能にするマイクロフォンが含まれることもある。
ローカライザ18は、オブジェクトに取り付けられたトラッカの位置などを検出するこ
とにより、手術作業空間内のトラッカに取り付けられた1つ以上のオブジェクトの位置を
検出するように構成され得る。具体的には、ローカライザ18は、手術ナビゲーションシ
ステム12のナビゲーションコントローラ22に結合され得、手術作業空間内の1つ以上
のトラッカの位置を示す光学ベース信号を生成し、これをナビゲーションコントローラ2
2に伝達してもよい。その場合、ナビゲーションコントローラ22は、光学ベース信号と
、オブジェクトとトラッカとの一定の位置関係とに基づいて、手術作業空間内のトラッカ
に取り付けられたオブジェクトの位置を示すローカライザデータを生成するように構成さ
れてもよい。ローカライザ18で追跡される標的部位内のオブジェクトを、本明細書では
「局所オブジェクト」と称することがある。
ローカライザ18は、少なくとも2つの光学センサ32を収容するアウタケーシング3
0を有し得る。光学センサ32のそれぞれは、赤外線又は紫外線など、トラッカに固有の
特定の非可視光帯域の信号を検出するように適合させることができる。図1は、複数の光
学センサ32を備えた単一のユニットとしてローカライザ18を図示しているが、代替の
実施例では、ローカライザ18は手術作業空間の周りに配置された別個のユニットを含み
、それぞれが別個のアウタケーシング及び1つ以上の光学センサ32を備えてもよい。
光学センサ32は、1次元又は2次元の電荷結合デバイス(CCD)であってもよい。
例えば、アウタケーシング30は、手術作業場のトラッカの位置を三角法で測定するため
の2つの2次元CCDを収容してもよく、又は手術作業場のトラッカの位置を三角法で測
定するための3つの1次元CCDを収容してもよい。追加又は代替として、ローカライザ
18は、相補型金属酸化膜半導体(CMOS)アクティブピクセルなどの他の光センシン
グ技術を採用してもよい。
いくつかの実施態様では、ナビゲーションシステム及び/又はローカライザ18は、電
磁気(EM)をベースにしている。例えば、ナビゲーションシステムは、ナビゲーション
コントローラ22、及び/又は別のコンピューティングデバイス、コントローラなどに結
合されたEMトランシーバを含むことができる。ここで、トラッカは、それに取り付けら
れるEM構成要素(例えば、各種磁気トラッカ、電磁トラッカ、誘導トラッカなど)を含
むことができ、これはパッシブなものであってもよく、又は能動的に通電されるものであ
ってもよい。EMトランシーバはEM場を生成し、EM構成要素は、被追跡状態がナビゲ
ーションコントローラ22に伝達される(又は読み取られる)ように、EM信号に応答す
る。ナビゲーションコントローラ22は、受信したEM信号を分析して、関係のある状態
をそれに関連付けることができる。ここでも、EMをベースにしたナビゲーションシステ
ムの実施形態は、本明細書で説明されるアクティブなマーカベースのナビゲーションシス
テムとは異なる構造的構成を有し得ることが理解されよう。
他の実施態様では、ナビゲーションシステム及び/又はローカライザ18は、それに関
連する場所データを判定するために、必ずしもトラッカをオブジェクトに固定する必要が
ない、1つ以上のタイプのイメージングシステムに基づくことが可能である。例えば、被
追跡状態(例えば、位置、向きなど)が超音波画像に基づいてナビゲーションコントロー
ラ22に伝達される(又は読み取られる)ような、超音波画像(例えば、被追跡オブジェ
クトの特定の既知の構造的特徴、被追跡オブジェクトに固定されたマーカ又はステッカな
ど)の取得を容易にする、超音波ベースのイメージングシステムを提供することが可能で
ある。超音波画像は、2D、3D、又はそれらの組み合わせであってもよい。ナビゲーシ
ョンコントローラ22は、超音波画像をほぼリアルタイムで処理して、被追跡状態を判定
することができる。超音波イメージングデバイスは、任意の好適な構成を有することがで
き、図1に示すカメラユニットとは異なるものであってもよい。さらなる実施例として、
被追跡状態がX線像に基づいてナビゲーションコントローラ22に伝達される(又は読み
取られる)ような、放射線不透過性マーカ(例えば、被追跡オブジェクトに取り付けられ
る既知の構造的特徴を有するステッカ、タグなど)のX線像の取得を容易にする、蛍光透
視法ベースのイメージングシステムを提供することが可能である。ナビゲーションコント
ローラ22は、X線像をほぼリアルタイムで処理して、被追跡状態を判定することができ
る。同様に、被追跡状態がデジタル画像に基づいてナビゲーションコントローラ22に伝
達される(又は読み取られる)ような、特定の既知のオブジェクトのデジタル画像、ビデ
オなどを(例えば、被追跡オブジェクト又はその構造的な構成要素もしくは特徴の仮想表
現との比較に基づいて)取得すること、及び/又はマーカ(例えば、被追跡オブジェクト
に取り付けられるステッカ、タグなど)のデジタル画像、ビデオなどを取得することを容
易にする、他のタイプの光学ベースのイメージングシステムを提供することが可能である
。ナビゲーションコントローラ22は、デジタル画像をほぼリアルタイムで処理して、被
追跡状態を判定することができる。
したがって、同一又は異なるタイプの複数のイメージングシステムを含む様々なタイプ
のイメージングシステムが、本開示の範囲から逸脱することなく、ナビゲーションシステ
ムの一部を形成し得ることが理解されよう。当業者であれば、ナビゲーションシステム及
び/又はローカライザ18は、本明細書に具体的に記載されていない他の任意の好適な構
成要素又は構造を有し得ることを理解するであろう。例えば、ナビゲーションシステムは
、慣性追跡を単独で、又は追跡技法の任意の組み合わせを利用することができる。さらに
、図1に示されるナビゲーションシステムに関連する技法、方法、及び/又は構成要素の
いずれも、様々な方法で実装することができ、本開示によって他の構成が企図される。
ローカライザ18は、理想的には障害物がない手術作業空間及び標的体積を視野に入れ
た光学センサ32を選択的に配置するために、調節可能なアームに取り付けられてもよい
。ローカライザ18は、回転ジョイントを中心に回転することにより、少なくとも1つの
自由度で調節可能であってもよく、2つ以上の自由度について調節可能であってもよい。
上記のとおり、ローカライザ18は、本明細書でトラッカとも呼ばれる複数の追跡デバ
イスと連携して、トラッカが取り付けられた手術作業空間内のオブジェクトの位置を判定
することができる。一般に、各トラッカが取り付けられるオブジェクトは、固く柔軟性が
ないために、オブジェクトの動きにより、オブジェクトとトラッカとの位置関係が変化す
ることはあり得ず、又は変化しにくい可能性がある。言い換えれば、手術作業空間内のオ
ブジェクトの位置変化にかかわらず、手術作業空間内のトラッカとトラッカが取り付けら
れているオブジェクトとの関係は固定されたままであり得る。例えば、トラッカは、患者
の骨、ならびに開創器及び手術器具16などの手術器具に、しっかりと取り付けることが
可能である。このようにして、ローカライザ18を使用して手術作業空間におけるトラッ
カの位置を判定することに応答して、ナビゲーションコントローラ22は、トラッカの判
定された位置に基づいて、トラッカが取り付けられているオブジェクトの位置を割り出す
ことができる。
例えば、治療すべき標的体積が患者の膝部分に位置するときは、トラッカ34を患者の
大腿骨Fにしっかりと取り付けることができ、トラッカ36を患者の脛骨Tにしっかりと
取り付けることができ、トラッカ38を手術器具16にしっかりと取り付けることができ
る。トラッカ34、36は、参照により本明細書に組み込まれる米国特許第7,725,
162号に示されるようにして、大腿骨F及び脛骨Tに取り付けてもよい。トラッカ34
、36はまた、参照により本明細書に組み込まれる「Navigation Syste
ms and Methods for Indicating and Reduci
ng Line-of-Sight Errors」と題する、2014年1月16日に
出願された米国特許出願公開第2014/0200621号に示されるもののように搭載
することもできる。トラッカ38は、製造時に手術器具16に組み込んでもよく、又は外
科処置の準備として手術器具16に別途取り付けてもよい。
手術システム10を使用する外科処置の開始より前に、手術器具16によって治療すべ
き患者組織の標的体積を画定する解剖構造、及び/又はその標的体積に隣接する解剖構造
など、目的とする解剖学的構造に対して術前画像が生成されてもよい。例えば、治療すべ
き患者組織の標的体積が患者の膝部分のときは、患者の大腿骨F及び脛骨Tの術前画像を
撮影してもよい。これらの画像は、患者の解剖学的構造のMRIスキャン、放射線スキャ
ン、又はコンピュータ断層撮影(CT)スキャンに基づく場合があり、解剖構造の仮想モ
デルを構築するために使用される場合がある。解剖構造の各仮想モデルは、解剖構造の全
体又は少なくとも一部を表すデータ、及び/又は治療すべき解剖構造の標的体積を表すデ
ータを含む3次元モデル(例えば、点群、メッシュ、CAD)を含むことができる。これ
らの仮想モデルは、外科処置に先立って、ナビゲーションコントローラ22に提供され、
保存されてもよい。
術前画像の撮影に加えて、又はその撮影の代わりに、運動学的研究、骨トレース及び他
の方法から手術室で治療の計画を立てることができる。このような同じ方法を使用して、
上記の仮想モデルを生成することもできる。
外科処置より前に、対象となっている患者の解剖構造に対応する仮想モデルに加えて、
ナビゲーションコントローラ22は、手術作業空間に存在する可能性がある手術器具及び
その他のオブジェクト(例えば、外科医の手及び/又は指)など、外科処置にとって関心
がある他の被追跡オブジェクトの仮想モデルを受け取り、保存することができる。ナビゲ
ーションコントローラ22はまた、トラッカとトラッカに固定されたオブジェクトとの位
置関係、ローカライザ18と視覚デバイスとの位置関係、及び手術計画など、外科処置に
特有の手術データを受け取り、保存することもできる。手術計画により、外科処置に関与
する患者の解剖構造を特定することができ、外科処置で使われている器具を特定すること
ができ、外科処置中の器具の計画された軌道及び患者組織の計画された移動を規定するこ
とができる。
外科処置の間に、ローカライザ18の光学センサ32は、トラッカ34、36、38か
ら非可視光帯域(例えば、赤外線又は紫外線)などの光信号を検出することができ、検出
された光信号に基づいてローカライザ18に対するトラッカ34、36、38の位置を示
す光学ベース信号をナビゲーションコントローラ22へ出力することができる。そしてナ
ビゲーションコントローラ22は、判定されたトラッカ34、36、38の位置と、トラ
ッカ34、36、38とオブジェクトとの既知の位置関係とに基づいて、ローカライザ1
8に対するトラッカ34、36、38に固定されたオブジェクトの位置を示すローカライ
ザデータを生成することができる。
ローカライザ18によって提供されるトラッカベースのオブジェクト追跡を補完するた
めに、手術ナビゲーションシステム12は、視覚デバイス40を含むこともできる。視覚
デバイス40は、手術作業空間部位の3次元画像をリアルタイムで生成可能であってもよ
い。トラッカ34、36、38から伝送される非可視光信号の位置を検出して特定するこ
とに限定され得るローカライザ18とは異なり、視覚デバイス40は、深度マップの形式
などで、視覚デバイス40の視野内にある標的体積の内部及び周囲の表面の3次元画像を
生成するように構成されてもよい。視覚デバイス40は、1つ以上の画像センサ42と光
源44とを含むことができる。画像センサ42のそれぞれは、CMOSセンサであっても
よい。
例えば、視覚デバイス40は、赤外線光又は紫外線光などの非可視光で手術作業空間内
の露出表面を照らすことにより、手術作業空間の深度マップを生成することができる。そ
の場合、表面は非可視光を反射し返し、非可視光は視覚デバイス40の1つ以上の画像セ
ンサ42によって検出され得る。非可視光の伝送から視覚デバイス40による検出までの
飛行時間に基づいて、視覚デバイス40は、視覚デバイス40と手術作業空間の露出表面
の上のいくつかの点との間の距離を判定することができる。その結果、視覚デバイス40
は、視覚デバイス40と各表面点との間の距離及び角度を示す深度マップを生成してもよ
い。あるいは視覚デバイス40は、例えば構造化光投影、レーザ測距、又は立体視などで
あり、限定されるものではない、他のモダリティを利用して、深度マップを生成してもよ
い。
ローカライザ18と同様に、外科処置より前に、視覚デバイス40は、好ましくは障害
物のない手術作業空間を視野に入れて配置され得る。視覚デバイス40は、図1に示され
るように、ローカライザ18と一体にされてもよい。あるいは、視覚デバイス40を別個
の調節可能なアームに取り付けて、視覚デバイス40をローカライザ18とは別に配置し
てもよい。視覚デバイス40は、例えば、「Systems and Methods
for Identifying and Tracking Physical Ob
jects During a Robotic Surgical Procedur
e」と題する米国特許10,531,926(この米国特許の内容を全体として参照によ
り本明細書に組み込む)などに記載されているように、ロボットマニピュレータ14に直
接取り付けることもできる。視覚デバイス40はまた、ナビゲーションコントローラ22
と作動的に通信し得る。
上記のように、ナビゲーションコントローラ22は、ローカライザ18を用いて生成さ
れたトラッカベースの位置特定データ、及び視覚デバイス40によって生成された深度マ
ップに基づいて、手術作業空間内のオブジェクトを追跡し障害物を特定するように構成さ
れ得る。具体的には、視覚デバイス40が手術作業空間の深度マップを生成するのと同時
に、ローカライザ18は、ローカライザ18に対する手術作業空間のトラッカに固定され
たオブジェクトの位置を示すローカライザデータを生成するのに用いられる光学ベースの
データを生成してもよい。したがって、視覚デバイス40によって生成された深度マップ
と、ローカライザ18で生成されたローカライザデータとは、時間的にインターリーブさ
れてもよい。言い換えれば、ローカライザ18で生成されたローカライザデータの各イン
スタンスは、視覚デバイス40によって生成された異なる深度マップに時間的に関連付け
られ得、その結果、ローカライザデータに示されたオブジェクトの位置と、関連付けられ
た深度マップにおけるそれらのオブジェクトの位置とは、外科処置の間中の同じ瞬間に対
応する。
ローカライザデータを判定することに応答して、ナビゲーションコントローラ22は、
視覚デバイス40によって取り込まれ、位置特定データに関連付けられることになる予想
深度マップを生成するように構成されてもよい。予想深度マップとは、トラッカに固定さ
れたオブジェクトのみが手術作業空間に存在すると仮定して、ローカライザデータと時間
的に関連付けられた、視覚デバイス40によって生成されると予想される深度マップであ
り得る。ナビゲーションコントローラ22は、ローカライザデータに示される手術作業空
間内のトラッカに固定されたオブジェクトの検出位置、オブジェクトに対応する仮想モデ
ル、及びローカライザ18と視覚デバイス40との位置関係に基づいて予想深度マップを
判定するように構成されてもよい。
その後、ナビゲーションコントローラ22は、ローカライザデータと時間的に関連付け
られた、視覚デバイス40によって生成された実深度マップを取得することができ、予想
深度マップに一致しない実深度マップの部分を特定することができる。次いでナビゲーシ
ョンコントローラ22は、特定された部分に基づいて、治療すべき患者組織の標的体積に
隣接するトラッカに固定されたオブジェクト以外のオブジェクトなど、手術作業空間内の
オブジェクトを特定することができ、そのようないずれかのオブジェクトが現在の手術の
軌道に障害をもたらすかどうかを判定することができる。
手術器具16は、ロボットマニピュレータ14のエンドエフェクタの一部を形成しても
よい。ロボットマニピュレータ14は、ベース46と、ベース46から延在するいくつか
のリンク48と、ベース46に対して手術器具16を移動させるためのいくつかの能動ジ
ョイントとを含み得る。リンク48は、図1に示すシリアルアーム構造、パラレルアーム
構造(例えば図3に示す)、又は他の好適な構造を形成してもよい。ロボットマニピュレ
ータ14は、ユーザがロボットマニピュレータ14のエンドエフェクタを把持して(例え
ば、直接、又はロボットマニピュレータ14のアクティブ駆動を引き起こす力/トルクセ
ンサ測定を介して)手術器具16の移動を起こさせる手動モードで動作する能力を含むこ
とができる。ロボットマニピュレータ14はまた、手術器具16が、予め定められたツー
ル経路に沿ってロボットマニピュレータ14によって動かされる半自律モードを含むこと
ができる(例えば、ロボットマニピュレータ14の能動ジョイントは、ユーザからエンド
エフェクタへの力/トルクを必要とせずに手術器具16を移動させるように動作される)
。半自律モードでの動作の例が、参照により本明細書に援用される、Bowling,e
t alに対する米国特許第9,119,655号に記載されている。ローカライザ18
によるベース46の移動を追跡するために、ロボットマニピュレータ14のベース46に
別個のトラッカを取り付けてもよい。
手術ナビゲーションシステム12と同様に、ロボットマニピュレータ14は、本明細書
に記載されるロボットマニピュレータ14の処理、より詳細にはマニピュレータコントロ
ーラ50の処理を実施するようにプログラムされたプロセッサ52を含むマニピュレータ
コントローラ50を収容し得る。例えば、プロセッサ52は、手術ナビゲーションシステ
ム12の指示などで、リンク48の移動によって手術器具16の動作及び移動を制御する
ようにプログラムされてもよい。
外科処置中に、マニピュレータコントローラ50は、ナビゲーションコントローラ22
から受け取ったナビゲーションデータなどに基づいて、手術器具16が移動されるべき所
望の場所を判定するように構成され得る。この判定と、手術器具16の現在の位置に関す
る情報とに基づいて、マニピュレータコントローラ50は、手術器具16を現在の位置か
ら所望の位置に再配置するためにリンク48のそれぞれが動かされる必要がある範囲を判
定するように構成されてもよい。リンク48がどこに再配置されるべきかを示すデータは
、ロボットマニピュレータ14の能動ジョイントを制御するジョイントモータコントロー
ラ(例えば、各モータを制御するためのもの)に転送され得る。そのようなデータを受け
取ることに応答して、ジョイントモータコントローラは、データに従ってリンク48を動
かし、その結果として手術器具16を所望の位置に動かすように構成され得る。
ここで図2を参照すると、ローカライザ18及び視覚デバイス40は、それぞれローカ
ライザコントローラ62及び視覚コントローラ64を含むことができる。ローカライザコ
ントローラ62は、ローカライザ18の光学センサ32と、かつナビゲーションコントロ
ーラ22と通信可能に結合され得る。外科処置中に、ローカライザコントローラ62は、
光学センサ32を動作させて、光学センサ32にトラッカ34、36、38から受信した
光信号を示す光学ベースのデータを生成させるように構成され得る。
トラッカ34、36、38は、光信号を光学センサ32に送信するための少なくとも3
つのアクティブマーカをそれぞれが有するアクティブトラッカであってもよい。トラッカ
34、36、38は、内蔵電池によって電力を供給されてもよく、又はナビゲーションコ
ントローラ22を介して電力を受け取るためにリード線を有していてもよい。各トラッカ
34、36、38のアクティブマーカは、赤外線又は紫外線などの光を送出する発光ダイ
オード(LED)65であってもよい。トラッカ34、36、38のそれぞれは、トラッ
カ34、36、38のLED65とナビゲーションコントローラ22とに接続されたトラ
ッカコントローラ66を含むこともできる。トラッカコントローラ66は、ナビゲーショ
ンコントローラ22などの指示で、トラッカ34、36、38のLED65が発光するレ
ート及び順序を制御するように構成されてもよい。例えば、トラッカ34、36、38の
トラッカコントローラ66は、ナビゲーションコントローラ22によるトラッカ34、3
6、38の区別を容易にするために、各トラッカ34、36、38のLED65を異なる
レート及び/又は時間で発光させることができる。
光学センサ32のサンプリングレートは、光学センサ32が、順次発光するLED65
から光信号を受信するレートである。光学センサ32は、100Hz以上、又はより好ま
しくは300Hz以上、又は最も好ましくは500Hz以上のサンプリングレートを有す
ることができる。例えば、光学センサ32は、8000Hzのサンプリングレートを有し
てもよい。
トラッカ34、36、38は、アクティブトラッカではなく、ローカライザ18から発
せられた光(例えば、光源44(図1)から発せられた光)を反射する反射物などのパッ
シブマーカ(図示せず)を含むパッシブトラッカであってもよい。そして、その反射光を
光学センサ32によって受光してもよい。
光学センサ32がトラッカ34、36、38から光信号を受信することに応答して、光
学センサ32は、トラッカ34、36、38のローカライザ18に対する位置を示すとと
もに、それに対応して、トラッカ34、36、38にしっかりと取り付けられたオブジェ
クトのローカライザ18に対する位置を示す光学ベースのデータを、ローカライザコント
ローラ62に出力し得る。具体的には、各光学センサ32は、トラッカ34、36、38
からの光信号を検出し、それに応じて各光信号が検出されたセンサ領域内の位置を示す1
次元又は2次元のセンサ領域を含み得る。所与のセンサ領域内の各光信号の検出位置は、
センサ領域を含む光学センサ32により光信号が受信される角度に基づくことができ、同
様に、手術作業空間における光信号の発生源の位置に対応することができる。
したがって、トラッカ34、36、38からの光信号の受信に応答して、各光学センサ
32は、光信号が検出された光学センサ32のセンサ領域内の位置を示す光学ベースのデ
ータを生成することができる。光学センサ32は、そのような光学ベースのデータをロー
カライザコントローラ62に伝えることができ、次いでローカライザコントローラ62は
、その光学ベースのデータをナビゲーションコントローラ22に伝えることができる。次
に、ナビゲーションコントローラ22は、光学ベースのデータに基づいて、ローカライザ
18に対するトラッカ34、36、38の位置を示すトラッカ位置データを生成し得る。
例えば、ナビゲーションコントローラ22は、光学ベースのデータに基づいて、ローカラ
イザ18に対するLED65の位置を三角法で測定してもよく、トラッカ34、36、3
8とマーカとの間の保存された位置関係を適用して、測定されたLED65のローカライ
ザ18に対する位置を判定し、ローカライザ18に対するトラッカ34、36、38の位
置を判定してもよい。
その後、ナビゲーションコントローラ22は、トラッカ位置データに基づいて、トラッ
カ34、36、38にしっかりと取り付けられたオブジェクトのローカライザ18に対す
る位置を示すローカライザデータを生成することができる。具体的には、ナビゲーション
コントローラ22は、トラッカ34、36、38とトラッカ34、36、38が取り付け
られているオブジェクトとの保存された位置関係を取得することができ、これらの位置関
係をトラッカ位置データに適用して、トラッカ34、36、38に固定されているオブジ
ェクトのローカライザ18に対する位置を判定することができる。あるいは、ローカライ
ザコントローラ62は、受信した光学ベースのデータに基づいて、トラッカ位置データ及
び/又はローカライザデータを判定するように構成することができ、トラッカ位置データ
及び/又はローカライザデータをナビゲーションコントローラ22に伝送して、さらに処
理してもよい。
視覚コントローラ64は、視覚デバイス40の光源44及び1つ以上の画像センサ42
と、かつナビゲーションコントローラ22と通信可能に結合され得る。ローカライザコン
トローラ62によりローカライザ18が、手術作業空間におけるトラッカ34、36、3
8の位置を示す光学ベースのデータを生成するのと同時に、視覚コントローラ64により
視覚デバイス40が、手術作業空間の露出表面の深度マップを生成することができる。具
体的には、視覚コントローラ64が、画像センサ42に深度マップの基礎となる画像デー
タを生成させることができ、その画像データに基づいて深度マップを生成することができ
る。その後、視覚コントローラ64は、さらなる処理のために、深度マップをナビゲーシ
ョンコントローラ22に転送し得る。あるいは、視覚コントローラ64は、画像データを
ナビゲーションコントローラ22に伝えることができ、次いでナビゲーションコントロー
ラ22は、受け取った画像データに基づいて深度マップを生成してもよい。
一般に、視覚デバイス40によって生成された深度マップは、視覚デバイス40と視覚
デバイス40の視野内にある表面との間の距離を示し得る。言い換えれば、深度マップは
、視覚デバイス40の視点からの手術作業空間内の表面のトポグラフィを示すことができ
る。視覚デバイス40によって生成された各深度マップは、視覚デバイス40の画像フレ
ームを形成する複数の画像構成要素を含み得る。画像構成要素のそれぞれは、深度マップ
のピクセルに類似したものであってもよく、視覚デバイス40の中心から視覚デバイスの
視野内にある表面上の点までのベクトルを定め得る。例えば、視覚デバイス40の画像フ
レーム内の画像構成要素の場所は、画像構成要素によって定められたベクトルの水平成分
及び垂直成分に対応してもよく、画像構成要素の色は、画像構成要素によって定められた
ベクトルの深度成分に対応してもよい。一実施例を挙げると、視覚デバイス40により近
い手術作業空間内の表面点を表す画像構成要素は、視覚デバイス40からより遠い表面点
を表す画像構成要素よりも明るい色を有し得る。
視覚デバイス40は、1つ以上の深度センサ68を含む深度カメラであってもよい。深
度センサ68は、深度センサ68の視野内の表面に反射される非可視光などの光を検出す
るように適合されてもよい。外科処置中に、視覚コントローラ64により光源44は、赤
外線光又は紫外線光などの非可視光で標的部位を照らすようにしてもよい。その場合、深
度センサ68は、標的部位の表面からの非可視光の反射を検出することができ、これによ
り視覚コントローラ64は深度マップを生成することが可能になり得る。
例えば、視覚コントローラ64は、視覚デバイス40と種々の点との間の距離に対応し
得る、光源44から送出された光が標的部位内の露出表面上の点に反射する時間に基づい
て深度マップを生成してもよい(すなわち、飛行時間法)。次に、視覚コントローラ64
は、これらの判定された距離を利用して、深度マップを生成することができる。代替の実
施例として、光源44は、既知の構造化非可視光パターンを手術部位の露出表面に投射し
てもよい。その後、深度センサ68は、標的部位内の表面のトポグラフィに基づいて歪ん
でいる可能性がある既知のパターンの反射を検出し得る。したがって、視覚コントローラ
64は、既知のパターンと、深度センサ68によって検出された歪んだパターンのバージ
ョンとの比較に基づいて、標的部位の深度マップを生成するように構成されてもよい。
あるいは、視覚デバイス40は、1つ以上のRGBセンサ70を含むRGBカメラであ
ってもよい。RGBセンサ70は、標的部位における露出表面のカラー画像を生成するよ
うに構成され得、視覚コントローラ64は、そのカラー画像に基づいて深度マップを生成
するように構成されてもよい。
例えば、上記の構造化光方法論と同様に、視覚コントローラ64は、光源44に、標的
部位における色から外れた色などで、既知の構造化光パターンを標的部位に投影させるよ
うに構成されてもよい。次に、RGBセンサ70は、標的部位のRGB画像を生成するこ
とができ、この画像は、標的部位の表面トポグラフィに基づいて、既知の構造化光パター
ンの歪んだバージョンを表し得る。視覚コントローラ64は、パターン認識、エッジ検出
、及び色認識などを用いて、RGB画像から既知の構造化光パターンの歪んだバージョン
を抽出することができ、既知の構造化光パターンと抽出された歪んだバージョンとの比較
に基づいて、深度マップを判定してもよい。
さらなる代替として、視覚デバイス40は、立体視の原理を用いて標的部位の深度マッ
プを生成するように構成されてもよい。より詳細には、複数の深度センサ68又はRGB
センサ70などの複数の画像センサ42が、異なる角度からの標的部位の視野を有するよ
うに配置され得る。視覚コントローラ64は、各画像センサ42に、異なる角度からの標
的部位の画像を同時に生成させるように構成され得る。例えば、画像センサ42が深度セ
ンサ68である場合、視覚コントローラ64は、光源44に、非可視光のパターンで標的
部位の露出表面を照らさせるように構成され得、深度センサ68のそれぞれが、露出表面
に反射された非可視光のパターンを異なる角度から撮像してもよい。次に、視覚コントロ
ーラ64は、各画像における表面点の位置と画像センサ42間の既知の位置関係とに基づ
いて、標的部位における表面上の点の視覚デバイス40に対する3次元位置を判定しても
よい。その後、視覚コントローラ64は、判定された3次元位置に基づいて深度マップを
生成することができる。
外科手術中にローカライザ18と視覚デバイス40との間の干渉を減らすために、ロー
カライザ18と視覚デバイス40とは、異なるスペクトル帯で動作して標的部位内のオブ
ジェクトの位置を検出するように構成されてもよい。追加又は代替として、視覚デバイス
40が非可視光帯域で動作するときなど、視覚デバイス40が光源44を使用して標的部
位における露出表面を照らすとき、ローカライザ18は、視覚デバイス40の光源44が
ローカライザ18から見えないように、十分に短い時間的露光レートで動作するように構
成されてもよい。
上記のとおり、ナビゲーションコントローラ22は、ローカライザ18を使用して生成
されたローカライザデータに基づいて予想深度マップを計算すること、及び予想深度マッ
プを視覚デバイス40によって生成された実深度マップと比較することにより、手術部位
内の治療すべき患者組織の標的体積に隣接するオブジェクトを判定することなど、本明細
書に記載されたナビゲーションコントローラ22の機能、特徴、及び処理を行うようにプ
ログラムされたプロセッサ23を含むことができる。プロセッサ23に加えて、ナビゲー
ションコントローラ22は、それぞれプロセッサ23に動作可能なように結合されたメモ
リ72及び不揮発性ストレージ74を含むことができる。
プロセッサ23は、マイクロプロセッサ、マイクロコントローラ、デジタル信号プロセ
ッサ、マイクロコンピュータ、中央処理装置、フィールドプログラマブルゲートアレイ、
プログラマブル論理デバイス、ステートマシン、論理回路、アナログ回路、デジタル回路
、又はメモリ72に保存された動作命令に基づいて信号(アナログ又はデジタル)を操作
する他の任意のデバイスから選択された1つ以上のデバイスを含んでもよい。メモリ72
は、リードオンリーメモリ(ROM)、ランダムアクセスメモリ(RAM)、揮発性メモ
リ、不揮発性メモリ、スタティックランダムアクセスメモリ(SRAM)、ダイナミック
ランダムアクセスメモリ(DRAM)、フラッシュメモリ、キャッシュメモリ、又は情報
を保存できる他の任意のデバイスを含むが、これらに限定されない、単一のメモリデバイ
ス又は複数のメモリデバイスを含んでもよい。不揮発性ストレージ74は、ハードドライ
ブ、光学ドライブ、テープドライブ、不揮発性ソリッドステートデバイス、又は情報を永
続的に保存できる他の任意のデバイスなどの1つ以上の永続的データストレージデバイス
を含んでもよい。
不揮発性ストレージ74は、位置特定エンジン76、変換エンジン78、視覚エンジン
80、及び手術ナビゲータ81などのソフトウェアを保存することができる。ソフトウェ
アは、Java、C、C++、C#、Objective C、Fortran、Pas
cal、Java Script、Python、Perl、及びPL/SQLを、単独
で又は組み合わせて含むが、これらに限定されない、様々なプログラミング言語及び/又
は技術からコンパイル又は解釈されるコンピュータ実行可能命令によって具現化され得る
プロセッサ23は、不揮発性ストレージ74に保存されたソフトウェアの制御下で動作
することができる。具体的には、プロセッサ23は、メモリ72に読み込んでソフトウェ
アのコンピュータ実行可能命令を実行することにより、アクティブな実行プロセスとして
ソフトウェアを実行するように構成され得る。プロセッサ23によって実行されると、コ
ンピュータ実行可能命令は、プロセッサ23に、本明細書に記載されたナビゲーションコ
ントローラ22の構成された機能、特徴、及び処理を実施させるように構成され得る。し
たがって、本ソフトウェアは、プロセッサ23の実行時に、本明細書に記載されたナビゲ
ーションコントローラ22の処理をナビゲーションコントローラ22のプロセッサ23に
実施させるようにソフトウェアのコンピュータ実行可能命令が構成されることにより、本
明細書に記載されたナビゲーションコントローラ22の機能、特徴、及び処理をナビゲー
ションコントローラ22に実施させるように構成され得る。
ナビゲーションコントローラ22の不揮発性ストレージ74は、ナビゲーションコント
ローラ22の動作を容易にするデータを保存することもできる。具体的には、ナビゲーシ
ョンコントローラ22のソフトウェアは、不揮発性ストレージ74に保存されたデータに
アクセスし、そのデータに基づいて本明細書で説明されるナビゲーションコントローラ2
2の機能、特徴、及び処理を実施するように構成され得る。
例えば、限定するものではないが、不揮発性ストレージ74に保存されるデータには、
モデルデータ82、変換データ83、及び手術計画84が含まれ得る。モデルデータ82
は、上記のように、外科医の手又は指などの潜在的障害物の仮想モデル、及び外科処置で
使用されている手術器具の仮想モデルを含む、外科処置にとって関心がある解剖構造の仮
想モデルを含み得る。変換データ83は、本明細書における位置関係を含むことができ、
これにより、トラッカ34、36、38、又はローカライザ18、又は視覚デバイス40
など、あるデバイスに対する手術作業空間内のオブジェクトの位置を、別のデバイスに対
するオブジェクトの位置へ変換することが可能になり得る。例えば、変換データ83は、
トラッカ34、36、38とトラッカ34、36、38にしっかりと取り付けられたオブ
ジェクトとの一定の位置関係、及びローカライザ18と視覚デバイス40との位置関係を
定めてもよい。手術計画84により、外科処置に関与する患者の解剖構造の標的体積を特
定することができ、外科処置で使われている器具を特定することができ、外科処置中の器
具の計画された軌道及び患者組織の計画された移動を規定することができる。
ナビゲーションコントローラ22上で動作するソフトウェアを再び参照すると、位置特
定エンジン76は、ローカライザ18の光学センサ32によって生成された光学ベースの
データなどに基づいて、トラッカ34、36、38にしっかりと取り付けられたオブジェ
クトのローカライザ18に対する位置を示す位置特定データを生成するように構成され得
る。変換エンジン78は、変換データ83によって表される位置関係などに基づいて、手
術システム10の1つのデバイスに対するオブジェクトの位置を、手術システム10の別
のデバイスに対するオブジェクトの位置に変換するように構成され得る。視覚エンジン8
0は、位置特定エンジン76によって生成された位置特定データと変換データ83とに基
づいて予想深度マップを生成し、この予想深度マップを視覚デバイス40によって生成さ
れた実深度マップと比較して、手術作業空間内のオブジェクトを特定し追跡するように構
成され得る。手術ナビゲータ81は、視覚エンジン80によって判定された特定及び追跡
に基づいて手術ガイダンスを提供するように構成され得る。これらのソフトウェア構成要
素の機能の詳細については、後ほど詳しく説明する。
図示していないが、マニピュレータコントローラ50、ローカライザコントローラ62
、及び視覚コントローラ64のそれぞれは、そのコンピュータ実行可能命令の実行時に、
本明細書に記載されたコントローラの機能、特徴、及び処理を実施するように構成された
データ及びソフトウェアを含むプロセッサ、メモリ、及び不揮発性ストレージを含むこと
もできる。
手術システム10の実施例を図1に示し、さらに詳細を図2に示しているが、本実施例
は限定することを意図していない。実際には、手術システム10は、より多くの構成要素
又はより少ない構成要素を有していてもよく、代替の構成要素及び/又は実施態様を使用
してもよい。例えば、ローカライザエンジン76の全て又は一部は、ローカライザコント
ローラ62によって実施されてもよい。一実施例を挙げると、ローカライザコントローラ
62は、モデルデータ82に基づいて、トラッカ34、36、38にしっかりと取り付け
られたオブジェクトの位置を示すローカライザデータを生成するように構成されてもよい
図3は、手術システム10と共に使用される様々なオブジェクト及びデバイスの座標系
を示す。ナビゲーションコントローラ22は、変換エンジン78などを介して、ナビゲー
ションコントローラ22に保存された変換データ83において定められる位置関係などに
基づいて、ある座標系におけるオブジェクトの位置を別の座標系におけるオブジェクトの
位置に変換するように構成されてもよい。そのような変換は、ナビゲーションコントロー
ラ22が共通座標系に対して手術システム10内のオブジェクトを追跡することを可能に
し得る。さらに、この変換は、視覚エンジン80などを介して、ナビゲーションコントロ
ーラ22が、位置特定エンジン76によって生成された位置特定データに基づいて視覚デ
バイス40によって生成されることになる予想深度マップを計算し、視覚デバイス40に
よって生成された実深度マップと予想深度マップとの比較に基づいてオブジェクトを特定
し追跡することを可能にし得る。非限定的な一実施例として、変換データ83によって定
められ、座標系間の変換を可能にする位置関係のそれぞれは、変換データ83によって定
められる変換行列によって表されてもよい。
ナビゲーションコントローラ22は、ローカライザ座標系LCLZを基準にして、トラ
ッカ34、36、38に取り付けられた標的部位内のオブジェクトなど、標的部位内のオ
ブジェクトを追跡するように構成され得る。ローカライザ座標系LCLZは、原点及び向
きを含むことができ、これらは手術作業空間に対するx軸、y軸、及びz軸の位置によっ
て定められ得る。ローカライザ座標系LCLZは、ローカライザ18に固定され、ローカ
ライザ18を中心とすることができる。具体的には、ローカライザ18の中心点が、ロー
カライザ座標系LCLZの原点を定めてもよい。ローカライザデータは、上記のように、
ローカライザ18を用いて判定されたローカライザ18に対するオブジェクトの位置を示
すことができ、ローカライザ座標系LCLZにおけるそのようなオブジェクトの位置を同
様に示すことができる。
この処置を通して、ローカライザ座標系LCLZを既知の位置に保持することが1つの
目標である。ローカライザ18が手術要員によって不注意でぶつけられたときに起こり得
るような、ローカライザ座標系LCLZの突然の又は予期せぬ移動を検出するために、加
速度計がローカライザ18に取り付けられてもよい。ローカライザ座標LCLZの検出さ
れた移動に応答して、ナビゲーションコントローラ22は、手術ナビゲータ81などを介
して、ユーザインターフェース24によって外科医に対して警告を提示すること、手術ナ
ビゲーションを停止すること、及び/又は手術システム10が較正し直されるまで、マニ
ピュレータコントローラ50に手術器具16の移動を停止させる信号をマニピュレータコ
ントローラ50へ伝達するように構成されてもよい。
手術システム10によって追跡される各オブジェクトは、オブジェクトに固定されオブ
ジェクトを中心とする、ローカライザ座標系LCLZとは別の独自の座標系を有すること
もできる。例えば、トラッカ34、36、38は、それぞれ骨トラッカ座標系BTRK1
、骨トラッカ座標系BTRK2、及び器具トラッカ座標系TLTR内に固定され、その中
心に置かれてもよい。患者の大腿骨Fは、大腿骨座標系FBONE内に固定され、その中
心に置かれてもよく、患者の脛骨Tは、脛骨座標系TBONE内に固定され、中心が定め
られてもよい。外科処置より前に、大腿骨F、脛骨T、及び手術器具16などの各被追跡
オブジェクトの術前画像及び/又は仮想モデルは、オブジェクトの座標系における定位置
に従って、例えばオブジェクトの座標系にマッピングされ、その座標系内に固定されるな
どにより、オブジェクトにマッピングされてもよい。
外科処置の初期段階を通して、トラッカ34、36は、それぞれ患者の大腿骨F及び脛
骨Tにしっかりと取り付けられ得る。そして、座標系FBONE及びTBONEの位置を
、それぞれ座標系BTRK1及びBTRK2にマッピングすることができる。例えば、参
照により本明細書に組み込まれるMalackowski et al.に対する米国特
許第7,725,162号などに開示されている、独自のトラッカPTを有するポインタ
器具P(図1)を使用して、大腿骨座標系FBONE及び脛骨座標系TBONEを、それ
ぞれ骨トラッカ座標系BTRK1及びBTRK2へ位置合わせをしてもよい。大腿骨座標
系FBONEと骨トラッカ座標系BTRK1との一定の位置関係、及び脛骨座標系TBO
NEと骨トラッカ座標系BTRK2との一定の位置関係を、変換データ83としてナビゲ
ーションコントローラ22に保存することができる。
大腿骨F及び脛骨Tとそれらのトラッカ34、36との一定の空間的関係が与えられる
と、変換エンジン78などを介して、ナビゲーションコントローラ22は、大腿骨座標系
FBONEにおける大腿骨Fの位置を、骨トラッカ座標系BTRK1における大腿骨Fの
位置に変換することができ、脛骨座標系TBONEにおける脛骨Tの位置を、骨トラッカ
座標系BTRK2における脛骨Tの位置に変換することができる。このようにして、ロー
カライザ18を用いて位置特定座標系LCLZにおけるトラッカ34、36の位置を判定
することにより、ナビゲーションコントローラ22は、それぞれ位置特定座標系LCLZ
における大腿骨座標系FBONEの位置及び脛骨座標系TBONEの位置を判定すること
ができ、それに対応して、それぞれ位置特定座標系LCLZにおける大腿骨F及び脛骨T
の位置を判定することができる。
同様に、手術器具16の治療端は、その座標系EAPP内に固定され、その中心に置か
れ得る。座標系EAPPの原点は、例えば、外科用切削バーの重心に固定されてもよい。
座標系EAPPの位置と、それに対応して手術器具16の治療端の位置とは、処置が開始
する前に、トラッカ38の器具トラッカ座標系TLTR内に固定されてもよい。座標系E
APPと器具トラッカ座標系TLTRとの一定の位置関係はまた、変換データ83として
ナビゲーションコントローラ22に保存されてもよい。このようにして、ローカライザ1
8を用いて位置特定座標系LCLZにおける器具トラッカ座標系TLTRの位置を判定す
ることにより、変換エンジン78などを介して、ナビゲーションコントローラ22は、器
具トラッカ座標系TLTRと座標系EAAPとの位置関係に基づいて位置特定座標系LC
LZにおける座標系EAPPの位置を判定することができ、それに対応して、位置特定座
標系LCLZにおける手術器具16の治療端の位置を判定することができる。
視覚デバイス40は、同様に、視覚座標系VIS内に固定され、その中心に置かれ得る
。視覚座標系VISの原点は、視覚デバイス40の重心に相当してもよい。視覚デバイス
40によって生成された各実深度マップは、上記のように、視覚デバイス40に対する標
的部位内の露出表面の位置を示すことができ、座標系VISにおける露出表面の位置を同
様に示すことができる。
図1などに示されるように、視覚デバイス40がローカライザ18と一体化されている
ときには、視覚座標系VISとローカライザ座標系LCLZとは等価であるとみなされ得
る。言い換えれば、ローカライザ座標系LCLZ内のオブジェクト又は座標系の位置が、
視覚座標系VIS内のオブジェクト又は座標系の位置に非常に近いか又は等しいので、変
換は必要ない。あるいは、視覚座標系VISは、視覚デバイス40がローカライザ18と
一体化されているときには、ローカライザ座標系LCLZ内に固定され得、逆の場合も同
様であるので、視覚座標系VISとローカライザ座標系LCLZとの位置関係、及びそれ
に対応して視覚デバイス40とローカライザ18との位置関係は、手術システム10の製
造中に決定され得、変換データ83としてナビゲーションコントローラ22内に工場で記
憶されてもよい。
視覚デバイス40がローカライザ18から分離しているとき、視覚デバイス40は、視
覚座標系VISとローカライザ座標系LCLZとの位置関係、及びそれに対応して、視覚
デバイス40とローカライザ18との位置関係を確立するために、視覚デバイス40のハ
ウジングに堅固に取り付けられたトラッカ(図示せず)を含むことができる。ナビゲーシ
ョンコントローラ22には、トラッカの座標系と視覚座標系VISとの位置関係が変換デ
ータ83として予め登録されていてもよい。このようにして、ローカライザ18を用いて
位置特定座標系LCLZにおけるトラッカの座標系の位置を判定することにより、ナビゲ
ーションコントローラ22は、トラッカの座標系と視覚座標系VISとの保存されている
位置関係に基づいて、位置特定座標系LCLZにおける視覚座標系VISの位置を判定す
ることができ、それに対応して、ローカライザ座標系LCLZにおける視覚デバイス40
の位置を判定することができる。さらに、それに対応して、ナビゲーションコントローラ
22は、ローカライザ座標系LCLZ及び視覚座標系VISにおけるローカライザ18に
対する視覚デバイス40の位置を判定することができる。
あるいは、ナビゲーションコントローラ22は、標的部位に挿入され、ローカライザ1
8及び視覚デバイス40の両方によって検出可能な共通の光パターンに基づいて、ローカ
ライザ共通座標系LCLZと視覚座標系VISとの位置関係を特定するように構成されて
もよい。例えば、ローカライザ18及び視覚デバイス40が標的部位を視野に入れて配置
された後に、非可視光などの光のパターンが標的部位に投影されてもよく、その標的部位
が、その光のパターンをローカライザ18及び視覚デバイス40へ反射し返してもよい。
ナビゲーションコントローラ22は、視覚デバイス40の光源44に、この光パターンを
標的部位に投影させてもよく、又は別の光プロジェクタ(図示せず)を使用して光パター
ンを投影させてもよい。さらなる実施例として、ローカライザ18及び視覚デバイス40
によって検出可能な光のパターンを送出するように構成されたマーカを有する、トラッカ
、又はポインタPT(図1)などの他の物理デバイスを、標的部位内に、かつローカライ
ザ18及び視覚デバイス40の視野内に配置してもよい。
ナビゲーションコントローラ22は、ローカライザエンジン76などを介して、ローカ
ライザ18を用いて、ローカライザ18に特化したローカライザ座標系LCLZにおける
光パターンの位置を示す位置特定データを生成するように構成され得る。ナビゲーション
コントローラ22はまた、視覚デバイス40から光パターンを示す較正深度マップを受け
取ることができ、変換エンジン78などを介して、視覚座標系VISにおける光パターン
の位置を較正深度マップに基づいて特定するように構成されてもよい。そして、ナビゲー
ションコントローラ22は、変換エンジン78などを介して、回帰アルゴリズムなどを用
いて、位置特定座標系LCLZ及び視覚座標系LCLZにおける投影パターンの判定され
た位置に基づいて、位置特定座標系LCLZと視覚座標系LCLZとの位置関係を判定す
るように構成されてもよい。
図4は、トラッカをベースにした位置特定と機械視覚とを用いて、手術作業空間内のオ
ブジェクトを追跡し、オブジェクトが手術計画を妨害するかどうかを判定するための方法
100を示す。方法100は、手術ナビゲーションシステム12によって、より詳細には
、ナビゲーションコントローラ22によって実行され得る。
ブロック102では、共通座標系におけるローカライザ18と視覚デバイス40との位
置関係を特定することができる。具体的には、変換エンジン78などを介して、ナビゲー
ションコントローラ22は、上記の方法のいずれかを用いて、ローカライザ18と視覚デ
バイス40との位置関係を特定し、それに対応してローカライザ座標系LCLZと視覚座
標系VISとの位置関係を特定するように構成してもよい。例えば、視覚デバイス40に
トラッカを固定してもよく、又はローカライザ18及び視覚デバイス40の両方によって
検出可能な標的部位に光パターンを配置してもよい。あるいは、製造時にローカライザ1
8が視覚デバイス40と一体化されるか、又は別の方法で視覚デバイス40に対して固定
されるときには、製造時に位置関係を決定し、ナビゲーションコントローラ22に変換デ
ータ83として予め記憶してもよい。
ブロック104では、変換データ83などに基づいて、標的部位内の1つ以上のオブジ
ェクトに対応する仮想モデルにアクセスすることができる。変換データ83は、トラッカ
34、36、38などのトラッカが取り付けられる標的部位内のオブジェクトを示すこと
ができる。ナビゲーションコントローラ22は、トラッカに取り付けられたオブジェクト
のそれぞれについて仮想モデルを取得するように構成してもよい。いくつかの例では、こ
れらの取得された仮想モデルの1つ以上が、外科処置中に処理されることになる標的体積
を画定することもできる。
図5は、膝関節置換術を受けている患者の標的部位200を示す。標的部位200は、
手術器具(例えば、手術器具16)で除去すべき骨組織の標的体積202を含み得る、患
者の大腿骨Fの一部を含むことができる。標的部位200は、靭帯204及び表皮組織2
06など、標的体積202に隣接する軟組織をさらに含むことができる。標的部位200
は、表皮組織206を引き込み、患者の大腿骨Fへのアクセスを提供するように配置され
た開創器208などの手術具を含むこともできる。標的部位200は、さらに、患者の大
腿骨Fにしっかりと取り付けられたトラッカ209を含んでもよい。したがって、ナビゲ
ーションコントローラ22は、モデルデータ82から大腿骨Fに対応する仮想モデルを取
得することができ、その例が図6に示されている。
再び図4を参照すると、ブロック106では、標的部位内のトラッカに取り付けられた
オブジェクトの位置を、ローカライザ18を使用して検出することができる。具体的には
、ローカライザ18を、上記のように、ローカライザ座標系LCLZにおける各トラッカ
座標系の位置を示し、それに対応して各トラッカの位置を示す光学ベースのデータを生成
するように構成してもよい。そして、ナビゲーションコントローラ22は、位置特定エン
ジン76などを介して、例えばトラッカ及びそれらの座標系の検出位置、ならびに変換デ
ータ83に示されるトラッカとオブジェクトとの位置関係などに基づいて、ローカライザ
座標系LCLZにおける、トラッカに取り付けられたオブジェクトの座標系の位置を特定
し、それに対応してオブジェクトの位置を特定するように構成してもよい。トラッカに取
り付けられた各オブジェクトの仮想モデルは、変換データ83内のオブジェクトの座標系
にマッピングすることができるので、ナビゲーションコントローラ22は、同様に、オブ
ジェクトが取り付けられたトラッカの検出位置、及びトラッカとオブジェクトとの位置関
係に基づいて、トラッカに取り付けられた各オブジェクトの仮想モデルのローカライザ座
標系LCLZにおける位置を特定することができる。
図6は、図5の標的部位200の続きを示し、標的部位200内でトラッカ209に取
り付けられ得る、患者の大腿骨Fに対応し得る仮想モデル210を示す。仮想モデル21
0は、ローカライザ18で決定されたローカライザ座標系LCLZにおけるトラッカ20
9及び大腿骨Fの位置に応じて、ローカライザ座標系LCLZ内に配置されてもよい。仮
想モデル210は、治療中に大腿骨Fから切除されることになる仮想標的体積212を画
定することができ、これは図5に示す標的体積202に対応し得る。
ブロック108では、例えば、アクセスされた仮想モデル、ローカライザ座標系LCL
Zにおける仮想モデルに対応するオブジェクトの検出位置、及び共通座標系におけるロー
カライザ18と視覚デバイス40との位置関係などに基づいて、予想深度マップを生成す
る。上記のとおり、ローカライザ座標系LCLZにおける仮想モデルの位置は、ローカラ
イザ18を用いて決定されたローカライザ座標系LCLZにおけるオブジェクトの位置に
対応することができる。ナビゲーションコントローラ22は、視覚エンジン80などを介
して、共通座標系におけるローカライザ18と視覚デバイス40との位置関係、及びそれ
に対応してローカライザ座標系LCLZと視覚座標系VISとの位置関係に基づいて、ロ
ーカライザ座標系LCLZにおける仮想モデルの位置を視覚座標系VISにおける仮想モ
デルの位置へ変換するように構成してもよい。
その後、ナビゲーションコントローラ22は、視覚座標系VISにおける仮想モデルの
位置に基づいて、予想深度マップを生成することができる。上記のように、視覚デバイス
40によって生成された深度マップは、標的部位内のブ露出したオジェクト表面の視覚デ
バイス40に対する位置(例えば、深度及び場所)を示し得る。視覚座標系VISにおけ
る仮想モデルの位置は、仮想モデルによって表されるオブジェクト表面の視覚デバイス4
0に対する位置を直ちに示すことができ、視覚座標系VIS内に固定することができる。
したがって、ナビゲーションコントローラ22は、標的部位に他のオブジェクトが全く無
いと仮定して、視覚エンジン80などを介して、視覚座標系VISにおける仮想モデルの
判定された位置に基づいて、標的部位を視野に入れた視覚デバイス40が生成されると予
想される深度マップをシミュレートするように構成されてもよい。
図7は、図6の仮想モデル210に基づいて生成され得る予想深度マップを示す。図7
の予想深度マップは、靭帯204、表皮組織206、開創器208、及びトラッカ209
などの他のオブジェクトが標的部位に存在しないと仮定して、視覚座標系VISにおける
仮想モデル210の変換された位置に従って、患者の大腿骨Fの視覚デバイス40によっ
て生成されると予想される深度マップをシミュレートすることができる。図7の予想深度
マップはまた、より詳細に後述するが、関心領域にトリミングされている場合がある。
ブロック110では、視覚デバイス40によって取り込まれた実深度マップを受け取る
ことができる。具体的には、ブロック106において、ローカライザ18が、標的部位内
のトラッカに取り付けられたオブジェクトの位置を示すローカライザデータを生成するの
と同時に、視覚デバイス40が上記のように標的部位の深度マップを生成し得る。このよ
うにして、深度マップは、位置特定データと時間的にインターリーブされてもよく、位置
特定データに基づいて生成された推定深度マップとも時間的にインターリーブされてもよ
い。言い換えれば、実深度マップ及び予想深度マップは両方とも、外科処置中の実質的に
同一時点における標的部位を表すことができる。
図8は、図5に描かれた標的部位200を視野に入れた視覚デバイス40によって生成
され得る深度マップを示しており、分かりやすくするためにトラッカ209が除去されて
いる。深度マップは、ピクセルに類似して、マトリクス状に配列され、深度マップの画像
フレームを形成する、いくつかの画像構成要素を含むことができる。ボックス214は、
画像構成要素の1つの例を強調するために、図示された深度マップ上に人為的に配置され
たものである。深度マップ画像フレームにおける各画像構成要素の場所は、視覚デバイス
40の中心視点からの水平距離及び垂直距離を表し得、各画像構成要素の輝度は、画像構
成要素によって表されるオブジェクト表面点の視覚デバイス40からの距離に対応し得る
。図示の例では、明るい画像構成要素は、視覚デバイス40に近い標的部位の表面点を表
し、暗い画像構成要素は、視覚デバイス40から遠い標的部位の表面点を表す。
ブロック112では、実深度マップは、ブロック104においてアクセスされた仮想モ
デル、ローカライザ座標系LCLZにおける仮想モデルに対応するオブジェクトの検出位
置、及び共通座標系におけるローカライザ18と視覚デバイス40との位置関係などに基
づいて、外科処置のための関心領域(ROI)にトリミングすることができる。以下にさ
らに詳細に説明するように、実深度マップを予想深度マップと比較して、標的部位内のオ
ブジェクトを特定し、そのようないずれかのオブジェクトが標的部位内の標的体積の治療
を妨害する可能性があるかどうかを判定することができる。比較される実深度マップ及び
予想深度マップの寸法が大きいほど、比較に必要とされる計算量が多くなる。したがって
、ナビゲーションコントローラ22は、視覚エンジン80などを介して、比較された深度
画像の寸法を減らすために、視覚座標系VISにおける仮想モデルの位置に基づいて、実
深度マップをROIにトリミングするように構成されてもよい。上記のように、視覚座標
系VISにおける仮想モデルの位置は、決定されたオブジェクトローカライザ座標系LC
LZの位置と、共通座標系におけるローカライザ18と視覚デバイス40との位置関係と
に基づいて決定されてもよい。
例えば、ブロック104においてアクセスされた仮想モデルは、外科処置の間に治療す
べき標的体積を画定し得る。したがって、視覚座標系VISにおける仮想モデルの位置は
、視覚座標系VISにおける標的体積の位置を示すことができ、それに対応して、視覚デ
バイス40によって生成された実深度マップにおける標的体積の位置を示すことができる
。ナビゲーションコントローラ22は、視覚エンジン80などを介して、実深度マップを
トリミングして、視覚座標系VISにおける標的体積の位置から閾値距離よりも大きい任
意の領域を除去するように構成してもよい。追加又は代替として、視覚エンジン80など
を介して、ナビゲーションコントローラ22は、ユーザが選択した形状又は処置に特定的
な形状を実深度マップ内の標的体積の位置の中心に合わせ、実深度マップの形状外の領域
を除去するように構成してもよい。ナビゲーションコントローラ22は、予想深度マップ
の計算中又は計算後などに、予想深度マップの寸法及び形状を、トリミングされた実深度
マップの寸法及び形状に収めるように構成してもよい。
図9は、図6の大腿骨Fに対応する仮想モデル210に基づいてROIにトリミングさ
れた図8の実深度マップを示す。仮想モデル210は、外科処置中に治療すべき標的体積
202に対応する仮想標的体積212を画定し得る。ナビゲーションコントローラ22は
、実深度マップでの標的体積の位置を示し得る、視覚座標系VISにおける標的体積の決
定された位置に基づいて、例えば、深度マップにおける標的体積の中心に選択された形状
を置き、その形状の外側の深度マップの領域を除去することなどにより、図8の実深度マ
ップをトリミングすることができる。図7の予想深度マップも同様に、トリミングされた
実深度マップの寸法及び形状に収められる。
ブロック114及びブロック116では、予想深度マップに一致しない深度マップの部
分を特定する。具体的には、ブロック114では、実深度マップと予想深度マップとの差
分を計算することなどにより、実深度マップを予想深度マップと比較することができる。
ナビゲーションコントローラ22は、視覚エンジン80などを介して、予想深度マップ及
び実深度マップ内の各対応する画像構成要素のペアでの深度の差分を計算することにより
、予想深度マップと実際の深度との差分を計算するように構成してもよい。予想深度マッ
プ及び実深度マップ内の対応する画像構成要素のペアは、各深度マップの画像構成要素を
同じ水平方向の場所及び垂直方向の場所に含むことができる。ブロック112において実
深度マップがROIにトリミングされたと仮定すれば、ブロック114で比較される深度
マップはトリミングされた深度マップであってもよい。
実深度マップと推定深度との差分は、例えば、取り付けられたトラッカを使用して適切
に追跡されていないか、又は追跡できないオブジェクト(例えば、軟組織、外科医の手)
など、標的部位内に、まだ特定されておらず、追跡されていないオブジェクトがあること
を示している可能性がある。この差分は、差分深度マップによって表すことができ、差分
深度マップの各画像構成要素は、差分深度マップ内の画像構成要素と同じ水平位置及び垂
直位置で実深度マップ及び予想深度マップ内に位置する対応する画像構成要素について計
算された深度の差を示す。図10は、図9の実深度マップと図7の予想深度マップとの間
で計算された差分深度マップを示す図である。
同じ深度を示す実深度マップ及び予想深度マップからの対応する画像構成要素は、深度
差がゼロとなり、トラッカ及びローカライザ18などを使用して以前に特定され追跡され
たオブジェクトに対応する可能性がある。ゼロ深度差は、差分の深度マップでは、最大輝
度を有する、又はゼロ深度に特有の色及び/又は色相を有する、画像構成要素によって表
され得る。図10の差分深度マップでは、領域216、218、及び220は、ゼロの深
度差を有する実深度マップ及び予想深度マップからの対応する画像構成要素を表す。
同じ深度を示さない実深度マップ及び予想深度マップの対応する画像構成要素は、ゼロ
でない深度差となり、トラッカ及びローカライザ18などを使用して以前に特定されてお
らず追跡されていないオブジェクトに対応する可能性がある。ゼロでない深度差は、差分
の深度マップでは、最大輝度よりも小さい輝度の画像構成要素、又はゼロ深度に特有の色
及び/又は色相とは異なる色の画像構成要素を用いて表され得る。図10の差分深度マッ
プでは、領域216、218、及び210に隣接するより暗い領域は、深度差がゼロでな
い実深度マップ及び予想深度マップの対応する画像構成要素を表す。
ブロック116では、計算した差分を、1つ以上のオブジェクト閾値に基づいてフィル
タ処理することができる。オブジェクト閾値は、ノイズ又は無視できる較正の不正確さに
起因するゼロでない差分と、標的部位内の追加オブジェクトの存在に起因するゼロでない
差分とを区別するように設計することができる。オブジェクト閾値は、限定されないが、
閾値深度及び/又は最小サイズ閾値を含み得、これらのそれぞれは非ゼロであり得る。
一実施例を挙げると、差分深度マップの1つ以上の非ゼロセクションのそれぞれについ
て、ナビゲーションコントローラ22は、非ゼロセクションが深度閾値よりも大きい絶対
深度を示すかどうかを判定するように構成してもよい。具体的には、差分深度マップは、
1つ以上の非ゼロセクションを含み、非ゼロセクションのそれぞれは、それぞれが非ゼロ
の深度差を示す連続した画像構成要素の集合を含み得る。差分深度マップの非ゼロセクシ
ョンは、非ゼロセクションの各画像構成要素によって示される非ゼロ深度差の大きさ(符
号は参照しない)が深度閾値よりも大きい場合、深度閾値よりも大きい絶対深度を有する
と見なされ得る。差分の非ゼロセクションが閾値深度よりも大きい絶対深度を示すと判定
することに応答して、ナビゲーションコントローラ22は、例えば、実深度マップのセク
ションが、差分深度マップでの非ゼロセクションと実深度マップにおいて同じ水平位置及
び垂直位置にあることなどにより、推定深度マップに一致しない実深度マップの部分とし
て、差分の非ゼロセクションに対応する実深度マップのセクションを特定するように構成
してもよい。
さらなる実施例として、差分の各非ゼロセクションについて、ナビゲーションコントロ
ーラ22は、非ゼロセクションのサイズ(例えば、面積)が最小サイズ閾値よりも大きい
かどうかを判定するように構成してもよい。非ゼロセクションのサイズが最小サイズ閾値
よりも大きいと判定することに応答して、ナビゲーションコントローラ22は、視覚エン
ジン80などを介して、例えば、実深度マップのセクションが、差分深度マップでの非ゼ
ロセクションと実深度マップにおいて同じ水平位置及び垂直位置にあることなどにより、
予想深度マップに一致しない実深度マップの部分として、差分の非ゼロセクションに対応
する実深度マップのセクションを特定するように構成してもよい。
別の実施例では、ナビゲーションコントローラ22は、非ゼロセクションのサイズが最
小サイズ閾値よりも大きく、非ゼロセクションが閾値深度よりも大きい絶対深度を示すと
判定することに応答して、推定深度マップに一致しない実深度マップの部分として、差分
の非ゼロセクションに対応する実深度マップのセクションを特定するように構成してもよ
い。
ブロック118では、フィルタ処理された差分に基づいて、標的部位にオブジェクトが
存在するかどうかの判定を行うことができる。具体的には、視覚エンジン80などを介し
て、ナビゲーションコントローラ22は、予想深度マップと一致しない実深度マップの部
分が特定されたかどうかを判定するように構成してもよい。特定されていない場合(ブロ
ック118の「No」分岐)、方法100はブロック106に戻って、ローカライザ18
を使用して、トラッカが取り付けられたオブジェクトの位置を再び検出することができる
。特定されたならば(ブロック118の「Yes」分岐)、方法100はブロック120
に進み、予想深度マップに一致しない実深度マップの部分に機械視覚技法を適用すること
により、標的部位内のオブジェクトを認識することができる。
ブロック120では、視覚エンジン80などを介して、ナビゲーションコントローラ2
2は、機械視覚技法を、予想深度マップに一致しない実深度マップの特定された部分に適
用して、特定された部分から標的部位内のオブジェクトを認識するように構成してもよい
。例えば、限定するものではないが、ナビゲーションコントローラ22は、パターン認識
、エッジ検出、色認識、波長分析、画像構成要素強度分析(例えば、ピクセル又はボクセ
ル強度分析)、深度分析、及び機械学習を通じて生成された測定基準を利用して、実深度
マップの特定された部分で表されるオブジェクトの間をセグメント化するように構成して
もよい。いくつかの実施例として、エッジによって分けられた特定部分の領域、異なる規
則的なパターンを有する領域、異なるカラーパレットを有する領域、及び/又は異なる深
度範囲を示す領域は、異なるオブジェクトに対応し得る。さらなる実施例として、標的部
位内の異なるオブジェクト(例えば、異なる組織)の表面は、視覚デバイス40によって
反射されて検出される信号において、異なる波長及び/又は異なる強度を生じさせる可能
性がある。視覚デバイス40は、実深度マップの画像構成要素ごとにそのような情報を出
力するように構成してもよく、この情報に基づいて、ナビゲーションコントローラ22は
、実深度マップの特定された部分にわたって生じる様々な波長及び/又は信号強度に基づ
いて、特定された部分における異なるオブジェクトをセグメント化するように構成しても
よい。ナビゲーションコントローラ22が、機械視覚を用いて特定された部分に複数のオ
ブジェクトを発見できない場合には、ナビゲーションコントローラ22は、特定された部
分全体を標的部位内の単一のオブジェクトと見なすように構成してもよい。
加えて又は代わりに、ナビゲーションコントローラ22は、視覚エンジン80などを介
して、ナビゲーションコントローラ22に保存されたモデルデータ82などに基づいて、
実際の深度の特定された部分におけるオブジェクトを特定するように構成してもよい。特
定は、例えば、オブジェクトを靭帯、開創器、表皮組織などと特定することなど、オブジ
ェクトの種類を記述する実深度マップで表される各オブジェクトのラベルを特定すること
ができるという点で、特定はセグメント化とは異なり得る。標的部位における各オブジェ
クトを特定すると、視覚エンジン80などを介して、ナビゲーションコントローラ22が
、オブジェクトの表面だけとは対照的にオブジェクト全体をモデル化し、外科処置中のオ
ブジェクトの動き及び他の反応をより良く予測することが可能になる可能性があり、これ
により、ナビゲーションコントローラ22の手術ナビゲータ81が、ますます情報に基づ
いたナビゲーション決定を行うことができるようになる可能性がある。
上記のように、ナビゲーションコントローラ22に保存されたモデルデータ82は、標
的部位に潜在的に存在するオブジェクトに対応する3次元モデルを定義することができる
。モデルデータ82はまた、標的部位に潜在的に存在する様々なオブジェクトに対する所
定のプロファイルを定義することもでき、各プロファイルは、実深度マップからオブジェ
クトを特定する際にナビゲーションコントローラ22を支援する、オブジェクトに特定的
な1つ以上の特徴を定めるものである。例えば、所与のオブジェクトのプロファイルは、
限定されるものではないが、カラーパレット、波長範囲、信号強度範囲、距離又は深度範
囲、面積、体積、形状、偏光、及びオブジェクトに対応する学習又は統計モデルからのデ
ィープメトリック出力の1つ以上を含んでもよい。所与のオブジェクトのプロファイルは
また、上記の患者スキャンから生成されたものなど、オブジェクトの3次元モデルを含ん
でいてもよい。
したがって、ナビゲーションコントローラ22は、実深度マップの特定された部分に基
づいて、特定された部分の少なくとも一部を、予め定義されたプロファイルの1つ、すな
わちオブジェクトに対応する予め定義されたプロファイルと一致させることにより、推定
深度マップに一致しないオブジェクトを特定するように構成してもよい。そして、ナビゲ
ーションコントローラ22は、プロファイルに対応する特定のオブジェクトとして、実深
度マップの特定された部分の少なくとも一部にラベルを付けるように構成してもよく、そ
の結果、これはローカライザオブジェクトに隣接すると見なされ得る。
代替実施例では、ユーザは、ナビゲーションコントローラ22によってセグメント化さ
れた特定された部分のオブジェクトを手動で選択するために、及び/又は選択されたオブ
ジェクトに対する予め定義されたプロファイルを選択するために、ユーザインターフェー
ス24とインタラクトすることができる。ユーザはまた、ユーザインターフェース24と
インタラクトして、特定された部分などにおける実深度マップによって表されるオブジェ
クトを手動でトレースすること、及び/又はトレースされたオブジェクトのための予め定
義されたプロファイルを選択することができる。その後、ナビゲーションコントローラ2
2は、選択された、セグメント化されたオブジェクト、又はトレースされたオブジェクト
に、選択された予め定義されたプロファイルに対応するラベルを付け、それに応じて、選
択されたオブジェクト、又はトレースされたオブジェクトを追跡するように構成してもよ
い。
ブロック122では、実深度マップから認識された各オブジェクトの位置を、視覚座標
系VIS又はローカライザ座標系LCLZなど、局所オブジェクトと共通の座標系で判定
することができる。例えば、視覚エンジン80などを介して、ナビゲーションコントロー
ラ22は、深度マップから認識された各オブジェクトの位置と、局所オブジェクトによっ
て定義され得る標的体積に対する共通座標系における各局所オブジェクトの位置とを判定
するように構成することができ、ナビゲーションコントローラ22が、認識オブジェクト
及び/又は局所オブジェクトのいずれかが、標的体積を治療するための障害となるかどう
かを判定することができるようにする。
ナビゲーションコントローラ22は、ローカライザ18を用いたローカライザ座標系L
CLZにおける局所オブジェクトの検出された場所、実深度マップにおける認識オブジェ
クトの場所、及びナビゲーションコントローラ22に保存されている変換データ83によ
って定義され得る、共通座標系におけるローカライザ18と視覚デバイス40との位置関
係に基づいて、局所オブジェクトに対する各認識オブジェクトの位置を判定するように構
成してもよい。上記のとおり、実深度マップにおける認識オブジェクトの位置は、視覚座
標系VISにおける認識オブジェクトの位置を示すことができる。例えば、認識オブジェ
クトを形成する実深度マップの各画像構成要素は、視覚デバイス40の中心視点から視覚
座標系VISにおける位置までのベクトルを表し得る。実深度マップの画像フレームにお
ける各画像構成要素の位置は、ベクトルの水平成分及び垂直成分を示してもよく、各画像
構成要素によって示される深度は、ベクトルの深度成分を表してもよい。
したがって、ナビゲーションコントローラ22は、実深度マップにおけるオブジェクト
の位置に基づいて、視覚座標系VISにおける各認識オブジェクトの位置を判定してもよ
く、次に、ローカライザ18と視覚デバイス40との位置関係、視覚座標系VISにおけ
る各認識オブジェクトの位置、及び/又はローカライザ座標系LCLZにおける各局所オ
ブジェクトの位置を使用して、共通座標系における局所オブジェクトに対しての各認識オ
ブジェクトの位置を判定するように構成してもよい。
ブロック124では、実深度マップから認識されたオブジェクト、及びローカライザ1
8で局所化されたオブジェクトを含む各被追跡オブジェクトに対して、共通座標系におけ
るオブジェクトの判定された位置などに基づいて、共通座標系において、オブジェクトに
対応する仮想境界を生成することができる。具体的には、視覚エンジン80などを介して
、ナビゲーションコントローラ22は、共通座標系において仮想境界を生成して、手術器
具16などの手術具の動きに対して制約を与えるように構成してもよい。この目的のため
に、ナビゲーションコントローラ22はまた、ローカライザ18などを用いて、共通座標
系における手術器具16の移動を追跡するように構成してもよい。ナビゲーションコント
ローラ22によって生成される仮想境界は、傷つきやすい解剖構造及び他の手術具を含む
他のオブジェクトによって空間が占められる可能性があるため、手術器具16が中に又は
近くに移動すべきではない共通座標系の領域を画定することができる。
例えば、ナビゲーションコントローラ22は、共通座標系における局所オブジェクトの
判定された位置に従って、局所オブジェクトごとに記憶された3次元仮想モデルを共通座
標系に挿入するように構成してもよい。ナビゲーションコントローラ22に保存されたモ
デルデータ82が、実深度マップの特定された部分から認識された所与のオブジェクトに
対する3次元仮想モデルを定義するとき、ナビゲーションコントローラ22は、共通座標
系における所与の認識オブジェクトの判定された位置に従って、3次元仮想モデルを共通
座標系に挿入するように構成してもよい。追加又は代替として、モデルデータ82は、実
深度マップの特定された部分から認識された所与のオブジェクトに対する1つ以上の基本
幾何学的形状(例えば、球、円筒、ボックス)を示してもよい。この場合、ナビゲーショ
ンコントローラ22は、実深度マップによって示されるオブジェクトの表面トポグラフィ
に基づいて、示された基本幾何学的形状をサイズ調整及び/又は配置し、サイズ調整及び
/又は配置された基本幾何学的形状を、共通座標系における所与のオブジェクトの判定さ
れた位置に従って、共通座標系に挿入するように構成してもよい。追加又は代替として、
例えば、実深度マップの特定された部分から認識された所与のオブジェクトに対して仮想
モデル又は基本幾何学的形状が示されていないときなどでは、ナビゲーションコントロー
ラ22は、実深度マップに示されたオブジェクトの表面トポグラフィに基づいてメッシュ
境界を構築し、共通座標系における所与のオブジェクトの判定された位置に従って、メッ
シュ境界を共通座標系に挿入するように構成してもよい。
さらなる実施例として、上記の技法の1つ以上に加えて、又はその代わりに、ナビゲー
ションコントローラ22は、共通座標系における所与のオブジェクトの判定された位置に
従って、共通座標系に力粒子を挿入することにより、共通座標系における所与のオブジェ
クトの境界を近似するように構成してもよい。具体的には、ナビゲーションコントローラ
22は、認識オブジェクトの表面上の様々な点を選択し、共通座標系における様々な点の
判定された位置で、共通座標系に力粒子を配置するように構成してもよい。力粒子のそれ
ぞれは、共通座標系で力粒子の近傍を移動する他のオブジェクトが、所定の距離内に入る
ことなどによって、反発するように構成してもよい。したがって、共通座標系における手
術器具16の追跡移動の間、力粒子は手術器具16を反発させ、それによって手術器具1
6が、力粒子によって構成されるオブジェクトに衝突することを防止することができる。
認識オブジェクトの表面全体を表す仮想境界ではなく、認識オブジェクトの表面上の様々
な点に対応する力粒子を共通座標系に挿入することで、比較的少ない処理帯域幅と少ない
データ量とを使用して、オブジェクトの仮想境界を生成することをもたらし得る。
例として、図11~図13は、図10に示される差分に基づいて図7の予想深度マップ
に一致しない図9の実深度マップの特定された部分から認識された標的部位200(図5
)内のオブジェクトに対応する共通座標系内の仮想境界を示す。具体的には、図11は、
標的部位200の開創器208に対応し、実深度マップに描かれた開創器仮想モデルを共
通座標系で示した図、図12は、標的部位200の靭帯204に対応し、実深度マップに
描かれた靭帯仮想モデルを共通座標系で示した図、図13は、標的部位200の表皮組織
206に対応し、実深度マップに描かれた表皮組織仮想モデルを共通座標系で示した図で
ある。代替実施例として、標的部位200における靭帯204の仮想境界は、共通座標系
における靭帯204の判定された位置に従って共通座標系に挿入される円柱などの基本幾
何学的オブジェクトの形態であってもよく、標的部位200における表皮組織206の仮
想境界は、共通座標系における表皮組織206の判定された位置で共通座標系に挿入され
るメッシュ面又は力粒子の形態であってもよい。
図14は、実深度マップから認識されたオブジェクトと、ローカライザ18で局所化さ
れた患者の大腿骨Fとの相対位置を共通座標系で示す。具体的には、図は、図11~図1
3の仮想モデルと、図6に例示された患者の大腿骨Fの仮想モデル210とを含むもので
ある。外科処置の間、ナビゲーションコントローラ22は、例えば手術ナビゲータ81な
どを介して、共通座標系における手術器具16の現在の位置に、手術器具16に対する画
像又は仮想モデルと共に図14のイラストを表示し、ローカライザ18で追跡されるなど
、手術器具16を標的体積202に導く際に外科医を支援するように構成され得る。
ブロック126では、被追跡オブジェクト及び/又は手術計画84に基づいて、潜在的
障害物が標的部位に存在するかどうかの判定を行うことができる。具体的には、手術ナビ
ゲータ81などを介して、ナビゲーションコントローラ22は、実深度マップを形成する
認識されたオブジェクトなどの被追跡オブジェクトの1つが、共通座標系における標的体
積に対するオブジェクトの位置及び手術計画84に基づいて、手術計画84にとって障害
となるかどうかを判定するように構成してもよい。例えば、手術計画84は、標的体積を
治療するための共通座標系を通る手術器具16の計画された軌道を定義することができる
。計画された軌道が被追跡オブジェクトのための仮想境界の1つとの衝突を引き起こす場
合、ナビゲーションコントローラ22は、障害物が存在すると判定するように構成されて
もよい。
障害物が存在すると判定することに応答して(ブロック126の「Yes」分岐)、ブ
ロック128において、改善措置がトリガされることがある。手術ナビゲータ81などを
介して、ナビゲーションコントローラ22は、いくつかの利用可能なアクションのうちの
1つ以上を実行することにより、改善措置をトリガするように構成されてもよい。一実施
例を挙げると、オブジェクトが手術計画84にとって障害物であると判定することに応答
して、ナビゲーションコントローラ22は、障害物を回避するために手術計画84を変更
するように構成されてもよい。例えば、ナビゲーションコントローラ22は、障害物を回
避するために手術器具16の軌道を変更し、変更された手術計画84をマニピュレータコ
ントローラ50に伝送して実施するように構成されてもよい。別の実施例として、ナビゲ
ーションコントローラ22は、障害物が取り除かれたことが、ナビゲーションコントロー
ラ22によって検出されるまで、手術ナビゲーションシステム12によって提供される手
術ガイダンス及びロボットマニピュレータ14の移動を停止するように構成され得る。ナ
ビゲーションコントローラ22は、手術ナビゲーションシステム12のユーザインターフ
ェース24を介して、障害物のアラーム及び/又は通知をトリガするように構成してもよ
い。さらなる実施例として、障害の原因となるオブジェクトが軟組織と特定されたとき、
ナビゲーションコントローラ22は、ユーザインターフェース24を介して軟組織ガイダ
ンスを提供するように構成してもよい。例えば、ナビゲーションコントローラ22は、障
害を引き起こしている軟組織オブジェクトの、標的部位における他のオブジェクトに対す
る位置を図示し、障害物を取り除くために軟組織を移動させるための提案を提供するよう
に構成してもよい。ナビゲーションコントローラ22は、軟組織ガイダンスを提供しなが
ら、共通座標系における軟組織の位置を監視し続け、障害物の脅威が取り除かれたときに
ユーザに通知を行うように構成されてもよい。
改善措置のトリガ及び/又は克服(ブロック128)に続いて、又は障害物が識別され
ないことに応答して(ブロック126の「No」分岐)、ブロック130では、実深度か
ら認識されたオブジェクトの移動が視覚デバイス40を用いて追跡されてもよい。具体的
には、視覚エンジン80などを介して、ナビゲーションコントローラ22は、視覚デバイ
ス40によってその後生成される追加の実深度マップにおいて認識されたオブジェクトに
対応する実深度マップの部分の状態を監視するように構成されることにより、各認識オブ
ジェクトの動きを追跡するように構成してもよい。続いて生成された実深度マップごとに
予想深度マップを生成すること、予想深度マップと続く実深度マップとの差分を計算する
こと、及び保存されたプロファイルを差分に一致させることをするのではなく、続いて生
成された深度マップで、以前に認識されたオブジェクトに対応すると判定された実深度マ
ップの部分に対する変化に焦点を当てることにより、ナビゲーションコントローラ22は
、認識されたオブジェクトの移動を、ゆくゆくはスピードを上げて監視できる可能性があ
る。
より詳細には、認識されたオブジェクトに対応する実深度マップの各部分は、オブジェ
クトに特有の特徴の配列を示し、実深度マップの特定の位置に配置され得る。例えば、限
定はしないが、特徴の配列は、オブジェクトに特有の幾何学的関係を有する頂点の配列、
オブジェクトに特有の幾何学的関係を有するエッジ又はラインの配列、あるいはオブジェ
クトに特有の相対的及び幾何学的関係を有する深度の配列であり得る。さらに、オブジェ
クトの特徴の配列と、オブジェクトの他の部分との空間的関係が固定されていてもよい。
したがって、ナビゲーションコントローラ22は、実深度におけるオブジェクトに特有
の特徴の配列が、実深度マップにおける配置の位置と異なる追加の深度マップにおける位
置に移動するかどうかを監視することにより、実深度マップから認識されるオブジェクト
の移動を監視するように構成してもよい。移動する場合、ナビゲーションコントローラ2
2は、追加深度マップにおけるオブジェクトに対応する特徴の配列の新しい位置に基づい
て、共通座標系におけるオブジェクトの新しい位置を決定し、それに応じて共通座標系に
おけるオブジェクトに関連する仮想境界を更新するように構成してもよい。所与のオブジ
ェクトの動きを監視するための特徴の配列は、オブジェクトのモデルデータ82に示され
ていてもよく、又はユーザインターフェース24を用いて実深度マップのオブジェクトに
対応する部分の点を選択することにより、ユーザが手動で設定してもよい。
例えば、図15は、図9に例示された実深度マップが生成された後に、視覚デバイス4
0によって続いて生成される追加の実深度マップを例示する。図15の追加深度マップの
開創器208(図5)を表す部分の位置は、図9の深度マップのこの部分の位置と異なっ
ており、開創器208が移動したことを示す。ナビゲーションコントローラ22は、開創
器208を表す部分にあり、開創器208の残りの部分に対して位置的に固定されている
特定の特徴の配列の、以前の実深度マップに対する追加の深度マップにおける変化した位
置を監視することにより、開創器208の係る動きを追跡するように構成してもよい。例
えば、ナビゲーションコントローラ22は、開創器208のヘッドとボディとの間の頂点
222の配列の位置の変化について、追加の深度マップを監視してもよい。
頂点222の配列の位置の変化を判定することに応答して、ナビゲーションコントロー
ラ22は、図15の追加の深度マップにおける頂点222の配列の更新された位置と、頂
点222の配列と残りの開創器208との一定の位置関係とに基づいて、共通座標系にお
ける開創器208の更新された位置を判定するように構成してもよい。その後、ナビゲー
ションコントローラ22は、更新された位置に基づいて、共通座標系における開創器20
8に関連する仮想境界を調節するように構成され得る。図16は、図15の追加の深度マ
ップに描かれた頂点222の配列の新しい位置に応じて、共通座標系における開創器20
8の仮想境界、すなわち開創器208に対応する仮想モデルの位置を更新した図である。
本明細書では、機械視覚とトラッカベースの位置特定との組み合わせを使用して、手術
作業空間内のオブジェクトを追跡するためのシステム及び方法を開示する。筋肉、皮膚、
及び靭帯などの軟組織は柔軟な性質を持つため、通常、トラッカをベースにした位置特定
は軟組織の追跡に適しているとは言えない。したがって、手術ナビゲーションシステムは
、トラッカをベースにした位置特定を使用して手術作業空間内の剛性のオブジェクトの位
置を検出することに加えて、手術作業空間内の露出表面の深度マップを生成するように構
成された視覚デバイスを含むことができる。本手術ナビゲーションシステムは、位置特定
を用いた標的部位におけるオブジェクトの検出位置、オブジェクトに対応する仮想モデル
、及び共通座標系におけるローカライザと視覚デバイスとの位置関係に基づいて、視覚デ
バイスの予想深度マップを生成するようにさらに構成され得る。次に、本手術ナビゲーシ
ョンシステムは、推定深度マップに一致しない実深度マップの部分を特定し、特定された
部分に基づいて、標的部位の軟組織を含むオブジェクトを認識するように構成されてもよ
い。そして、本手術ナビゲーションシステムは、オブジェクトが現在の手術計画の障害と
なるかどうかを判定するように構成することができる。
一般に、本発明の実施形態を実施するために実行されるルーチンは、オペレーティング
システムの一部として実装されるか、特定のアプリケーション、コンポーネント、プログ
ラム、オブジェクト、モジュール、又は命令のシーケンスとして実装されるか、あるいは
そのサブセットであるかにかかわらず、本明細書では「コンピュータプログラムコード」
、又は単に「プログラムコード」と呼ぶことがある。プログラムコードは、典型的には、
コンピュータ内の様々なメモリ及び記憶装置に様々なタイミングで常駐し、コンピュータ
内の1つ以上のプロセッサによって読み出され実行されるとき、そのコンピュータに、本
発明の実施形態の様々な態様を具現化する動作及び/又は要素を実行するために必要な動
作を実行させるコンピュータ可読命令を含む。本発明の実施形態の動作を実行するための
コンピュータ可読プログラム命令は、例えば、アセンブリ言語、又は1つ以上のプログラ
ミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードであっ
てもよい。
本明細書に記載された様々なプログラムコードは、本発明の特定の実施形態においてそ
れが実装される範囲内で、アプリケーションに基づいて識別され得る。しかし、以下に示
す特定のプログラム命名法は、単に便宜のために使用されるものであり、したがって、本
発明は、そのような命名法によって特定され、及び/又は暗示される任意の特定の用途に
おける使用のみに限定されるべきではないことを理解されたい。さらに、コンピュータプ
ログラムをルーチン、手順、方法、モジュール、オブジェクトなどに編成することができ
る概して無限数の方法、ならびに典型的なコンピュータ内に常駐する様々なソフトウェア
層(例えば、オペレーティングシステム、ライブラリ、API、アプリケーション、アプ
レットなど)の間でプログラム機能を割り当てることができる様々な方法を前提とすれば
、本発明の実施形態は、本明細書に記載されるプログラム機能の特定の編成及び割り当て
に限定されないことが理解されよう。
本書に記載されたいずれかのアプリケーション/モジュールに具現化されたプログラム
コードは、個別に又は集合的に、様々な異なる形態のプログラム製品として配布すること
が可能である。特に、プログラムコードは、プロセッサに本発明の実施形態の態様を実行
させるためのコンピュータ可読プログラム命令をその媒体上に有するコンピュータ可読記
憶媒体を用いて配布してもよい。
本質的に非一時的であるコンピュータ可読記憶媒体は、コンピュータ可読命令、データ
構造、プログラムモジュール、又は他のデータなどの情報を記憶するための任意の方法又
は技術で実装された揮発性及び不揮発性、ならびに取り外し可能及び不可能な有形媒体を
含むことができる。コンピュータ可読記憶媒体は、さらに、RAM、ROM、消去可能プ
ログラマブル読み出し専用メモリ(EPROM)、電気的消去可能プログラマブル読み出
し専用メモリ(EEPROM)、フラッシュメモリ又は他の固体メモリ技術、ポータブル
コンパクトディスク読み出し専用メモリ(CD-ROM)、又は他の光学ストレージ、磁
気カセット、磁気テープ、磁気ディスクストレージ又は他の磁気ストレージデバイス、又
は所望の情報を記憶するために使用することができ、かつコンピュータによって読み出す
ことができる任意の他の媒体を含むことができる。コンピュータ可読記憶媒体は、一過性
の信号(例えば、電波もしくは他の伝搬電磁波、導波管などの伝送媒体を通って伝搬する
電磁波、又はワイヤを通って伝送される電気信号)そのものとして解釈されるべきではな
い。コンピュータ可読プログラム命令は、コンピュータ可読記憶媒体からコンピュータ、
別の種類のプログラム可能なデータ処理装置、もしくは別の装置にダウンロードされても
よく、又はネットワークを介して外部のコンピュータもしくは外部の記憶装置にダウンロ
ードされてもよい。
コンピュータ可読媒体に記憶されたコンピュータ可読プログラム命令は、コンピュータ
、他のタイプのプログラム可能なデータ処理装置、又は他の装置が特定の方法で機能する
ように指示するために使用され、コンピュータ可読媒体に記憶された命令が、フローチャ
ート、シーケンス図、及び/又はブロック図に指定された機能、行為、及び/又は動作を
実施する命令を含む製造品を製造するようにしてもよい。コンピュータプログラム命令は
、汎用コンピュータ、専用コンピュータ、又は他のプログラム可能なデータ処理装置の1
つ以上のプロセッサに提供され、1つ以上のプロセッサを介して実行される命令が、フロ
ーチャート、シーケンス図、及び/又はブロック図に指定された機能、行為、及び/又は
動作を実行するために一連の計算を行わせるように、機械を製造することができる。
特定の代替実施形態では、フローチャート、シーケンス図、及び/又はブロック図に指
定された機能、行為、及び/又は動作は、本発明の実施形態と一致して、並べ替えられ、
連続的に処理され、及び/又は同時に処理されてもよい。さらに、フローチャート、シー
ケンス図、及び/又はブロック図のいずれもが、本発明の実施形態と一致する図示された
ブロックよりも多いブロック、又は少ないブロックを含むことができる。
本明細書で使用される用語は、特定の実施形態を説明することのみを目的としており、
本発明の実施形態を限定することを意図するものではない。本明細書で使用するとき、単
数形の「a」、「an」、及び「the」は、文脈上明らかに他を示す場合を除き、複数
形も含むことを意図している。本明細書で使用する場合、用語「備える(compris
es)」及び/又は「備えている(comprising)」は、記載された機能、整数
、ステップ、動作、要素、及び/又は構成要素の存在を指定するが、1つ以上の他の機能
、整数、ステップ、動作、要素、構成要素、及び/又はそれらのグループの存在又は追加
を排除するものではないことが更に理解されよう。さらに、詳細な説明又は特許請求の範
囲のいずれかに、用語「含む(includes)」、「有している(having)」
、「有する(has)」、「備える(with)」、「からなる(comprised
of)」、又はその変形が使用されている限り、そのような用語は、用語「含んでいる(
comprising)」と同様に包括的であることを意図している。
本発明の全ては、様々な実施形態の説明によって示されており、これらの実施形態は、
かなり詳細に説明されてきたが、添付の特許請求の範囲の範囲を、そのような詳細に制限
すること、又はいかなる方法によっても制限することは、本出願人の意図ではない。さら
なる利点及び変更は、当業者には容易に理解されるであろう。したがって、本発明のより
広い態様は、具体的な詳細、代表的な装置及び方法、ならびに図示及び説明された例示的
な実施例に限定されない。したがって、本出願人の一般的な発明概念の趣旨又は範囲から
逸脱することなく、そのような詳細から逸脱することができる。
本発明の全ては、様々な実施形態の説明によって示されており、これらの実施形態は、かなり詳細に説明されてきたが、添付の特許請求の範囲の範囲を、そのような詳細に制限すること、又はいかなる方法によっても制限することは、本出願人の意図ではない。さらなる利点及び変更は、当業者には容易に理解されるであろう。したがって、本発明のより広い態様は、具体的な詳細、代表的な装置及び方法、ならびに図示及び説明された例示的な実施例に限定されない。したがって、本出願人の一般的な発明概念の趣旨又は範囲から逸脱することなく、そのような詳細から逸脱することができる。
なお、上記の実施形態から把握し得る技術的思想について、その態様を以下に記載する。
[態様1]
第1のオブジェクトの位置を検出するように構成されたローカライザと、
前記第1のオブジェクトの近傍の表面の実深度マップを生成するように構成された視覚デバイスと、
前記ローカライザ及び前記視覚デバイスに結合されたコントローラであって、前記コントローラが、
前記第1のオブジェクトに対応する仮想モデルにアクセスすることと、
共通座標系で前記ローカライザと前記視覚デバイスとの位置関係を特定することと、
前記第1のオブジェクトの前記検出位置、前記仮想モデル、及び前記位置関係に基づいて、前記視覚デバイスの予想深度マップを生成することと、
前記予想深度マップと一致しない前記実深度マップの部分を特定することと、
前記特定された部分に基づいて第2のオブジェクトを認識することと
を行うように構成される、前記コントローラと
を備える、ナビゲーションシステム。
[態様2]
前記コントローラは、前記第1のオブジェクトの前記検出位置、前記実深度マップにおける前記第2のオブジェクトの場所、及び前記位置関係に基づいて、前記共通座標系における前記第1のオブジェクトに対する前記第2のオブジェクトの位置を特定するように構成される、態様1に記載のナビゲーションシステム。
[態様3]
前記第1のオブジェクトは、手術計画に従って治療すべき患者組織の標的体積を画定しており、前記コントローラは、
前記共通座標系における前記標的体積に対する前記第2のオブジェクトの前記位置と前記手術計画と、に基づいて、前記第2のオブジェクトが、前記手術計画に従って前記標的体積を治療することに対する障害物であるかどうかを判定することと、
前記第2のオブジェクトが前記手術計画にとっての障害物であると判定することに応答して、前記手術計画を修正すること、及び/又は通知をトリガすること、及び/又は手術ナビゲーションを停止することと、
を行うように構成される、態様2に記載のナビゲーションシステム。
[態様4]
前記第1のオブジェクトにトラッカが堅固に結合されており、前記コントローラは、
前記ローカライザを介して、前記ローカライザに特定的な第1の座標系で前記トラッカの位置を検出することと、
前記第1の座標系における前記トラッカの前記検出位置、及び前記第1の座標系における前記トラッカと前記第1のオブジェクトとの位置関係に基づいて、前記第1の座標系における前記仮想モデルの位置を特定することと、
前記第1の座標系での前記仮想モデルの前記位置と、第2の座標系での前記ローカライザと前記視覚デバイスとの位置関係とに基づいて、前記第1の座標系における前記仮想モデルの前記位置を、前記視覚デバイスに特定的な前記第2の座標系における前記仮想モデルの位置に変換することと、
前記第2の座標系での前記仮想モデルの前記位置に基づいて、前記予想深度マップを生成することと、
を行うように構成される、態様1~3のいずれか1項に記載のナビゲーションシステム。
[態様5]
前記コントローラは、
前記実深度マップと前記予想深度マップとの差分を計算することと、
前記差分の第1のセクションが閾値深度よりも大きい絶対深度を示すかどうかを判定することと、
前記差分の前記第1のセクションが閾値深度よりも大きい絶対深度を示すと判定することに応答して、前記差分の前記第1のセクションに対応する前記実深度マップの第2のセクションを前記部分として特定することと、
を行うように構成されることにより、前記予想深度マップと一致しない前記実深度マップの部分を特定するように構成される、態様1~4のいずれか1項に記載のナビゲーションシステム。
[態様6]
前記閾値深度はゼロではない、態様5に記載のナビゲーションシステム。
[態様7]
前記コントローラは、
前記第1のセクションのサイズが最小サイズ閾値よりも大きいかどうかを判定することと、
前記第1のセクションの前記サイズが前記最小サイズ閾値よりも大きいと前記判定することに応答して、前記第2のセクションを前記部分として特定することと、
を行うように構成されることにより、前記予想深度マップと一致しない前記実深度マップの前記部分を特定するように構成される、態様5又は態様6に記載のナビゲーションシステム。
[態様8]
前記コントローラは、前記特定された部分を前記第2のオブジェクトに対応する所定のプロファイルと一致させるように構成されることにより、前記特定された部分に基づいて前記第2のオブジェクトを認識するように構成される、態様1~7のいずれか1項に記載のナビゲーションシステム。
[態様9]
前記実深度マップの前記部分は、前記第2のオブジェクトに対応し、前記実深度マップの第1の位置に配置された特徴の配列を含み、前記コントローラは、前記特徴の配列が、前記視覚デバイスによって後で生成される追加の実深度マップでの前記第1の位置とは異なる第2の位置に移動するかどうかを監視することにより、前記第2のオブジェクトの移動を追跡するように構成される、態様1~8のいずれか1項に記載のナビゲーションシステム。
[態様10]
前記コントローラは、前記共通座標系の前記第2のオブジェクトに対応する仮想境界を生成するように構成され、前記仮想境界は手術具の動きに対して制約を与える、態様1~9のいずれか1項に記載のナビゲーションシステム。
[態様11]
前記コントローラは、前記仮想モデル、前記第1のオブジェクトの前記検出位置、及び共通座標系での前記ローカライザと前記視覚デバイスとの前記位置関係に基づいて、前記実深度マップを関心領域にトリミングするように構成され、前記コントローラは、前記トリミングされた実深度マップを比較するように構成されることにより、前記実深度マップを比較するように構成される、態様1~10のいずれか1項に記載のナビゲーションシステム。
[態様12]
前記コントローラは、
前記ローカライザ及び前記視覚デバイスの視界内の表面にパターンを投影することと、
前記ローカライザに特定的な第1の座標系における前記パターンの位置を示す前記ローカライザを用いて位置特定データを生成することと、
前記視覚デバイスによって生成された前記投影パターンを示す較正深度マップを受け取ることと、
前記較正深度マップに基づいて、前記視覚デバイスに特定的な第2の座標系における前記投影パターンの位置を特定することと、
前記第1の座標系における前記パターンの前記位置と前記第2の座標系における前記パターンの前記位置とに基づいて、前記共通座標系における前記ローカライザと前記視覚デバイスとの前記位置関係を特定することと、
を行うように構成されることにより、前記共通座標系における前記ローカライザと前記視覚デバイスとの前記位置関係を特定するように構成される、態様1~11のいずれか1項に記載のナビゲーションシステム。
[態様13]
前記ローカライザは、第1のスペクトル帯で動作して、前記第1のオブジェクトの前記位置を検出するように構成されており、前記視覚デバイスは、第2のスペクトル帯で動作して、前記第1のオブジェクトの近傍の前記表面の前記実深度マップを生成するように構成されており、前記第1のスペクトル帯は前記第2のスペクトル帯とは異なる、態様1~12のいずれか1項に記載のナビゲーションシステム。
[態様14]
態様1~13のいずれか1項に記載のナビゲーションシステムで利用されるロボットマニピュレータであって、前記ロボットマニピュレータは、手術具を支持し、複数のリンクと、前記リンクを動かして前記手術具を動かすように構成された複数のアクチュエータとを備え、前記ロボットマニピュレータは、前記第2のオブジェクトを回避するように制御される、前記ロボットマニピュレータ。
[態様15]
第1のオブジェクトの位置を検出するように構成されたローカライザと、前記第1のオブジェクトの近傍の表面の実深度マップを生成するように構成された視覚デバイスと、前記ローカライザ及び前記視覚デバイスに結合されたコントローラとを含むナビゲーションシステムを動作させる方法であって、前記方法は、
前記第1のオブジェクトに対応する仮想モデルにアクセスすることと、
共通座標系で前記ローカライザと前記視覚デバイスとの位置関係を特定することと、
前記第1のオブジェクトの前記検出位置、前記仮想モデル、及び前記位置関係に基づいて、前記視覚デバイスの予想深度マップを生成することと、
前記予想深度マップと一致しない前記実深度マップの部分を特定することと、
前記特定された部分に基づいて第2のオブジェクトを認識することと
を含む、前記方法。
[態様16]
前記第1のオブジェクトの前記検出位置、前記実深度マップにおける前記第2のオブジェクトの場所、及び前記位置関係に基づいて、前記共通座標系における前記第1のオブジェクトに対する前記第2のオブジェクトの位置を特定することをさらに含む、態様15に記載の方法。
[態様17]
前記第1のオブジェクトは、手術計画に従って治療すべき患者組織の標的体積を画定しており、
前記共通座標系における前記標的体積に対する前記第2のオブジェクトの前記位置と前記手術計画とに基づいて、前記第2のオブジェクトが、前記手術計画に従って前記標的体積を治療することに対する障害物であるかどうかを判定することと、
前記第2のオブジェクトが前記手術計画にとっての障害物であると判定することに応答して、前記手術計画を修正すること、及び/又は通知をトリガすること、及び/又は手術ナビゲーションを停止することと、
をさらに含む、態様16に記載の方法。
[態様18]
前記第1のオブジェクトにトラッカが堅固に結合されており、
前記ローカライザを介して、前記ローカライザに特定的な第1の座標系で前記トラッカの位置を検出することと、
前記第1の座標系における前記トラッカの前記検出位置、及び前記第1の座標系における前記トラッカと前記第1のオブジェクトとの位置関係に基づいて、前記第1の座標系における前記仮想モデルの位置を特定することと、
前記第1の座標系での前記仮想モデルの前記位置と、第2の座標系での前記ローカライザと前記視覚デバイスとの位置関係とに基づいて、前記第1の座標系における前記仮想モデルの前記位置を、前記視覚デバイスに特定的な前記第2の座標系における前記仮想モデルの位置に変換することと、
前記第2の座標系での前記仮想モデルの前記位置に基づいて、前記予想深度マップを生成することと、
をさらに含む、態様15~17のいずれか1項に記載の方法。
[態様19]
前記予想深度マップと一致しない前記実深度マップの部分を特定することは、
前記実深度マップと前記予想深度マップとの差分を計算することと、
前記差分の第1のセクションが閾値深度よりも大きい絶対深度を示すかどうかを判定することと、
前記差分の前記第1のセクションが閾値深度よりも大きい絶対深度を示すと判定することに応答して、前記差分の前記第1のセクションに対応する前記実深度マップの第2のセクションを前記部分として特定することと
を含む、態様15~18のいずれか1項に記載の方法。
[態様20]
前記閾値深度はゼロではない、態様19に記載の方法。
[態様21]
前記予想深度マップと一致しない前記実深度マップの部分を特定することは、
前記第1のセクションのサイズが最小サイズ閾値よりも大きいかどうかを判定することと、
前記第1のセクションの前記サイズが前記最小サイズ閾値よりも大きいと前記判定することに応答して、前記第2のセクションを前記部分として特定することと
を含む、態様19又は態様20に記載の方法。
[態様22]
前記特定された部分に基づいて前記第2のオブジェクトを認識することは、前記特定された部分を前記第2のオブジェクトに対応する所定のプロファイルと一致させることを含む、態様15~21のいずれか1項に記載の方法。
[態様23]
前記実深度マップの前記部分は、前記第2のオブジェクトに対応し、前記実深度マップの第1の位置に配置された特徴の配列を含み、前記コントローラは、前記特徴の配列が、前記視覚デバイスによって後で生成される追加の実深度マップでの前記第1の位置とは異なる第2の位置に移動するかどうかを監視することにより、前記第2のオブジェクトの移動を追跡するように構成される、態様15~22のいずれか1項に記載の方法。
[態様24]
前記共通座標系の前記第2のオブジェクトに対応する仮想境界を生成することをさらに含み、前記仮想境界は手術具の動きに対して制約を与える、態様15~23のいずれか1項に記載の方法。
[態様25]
前記仮想モデル、前記第1のオブジェクトの前記検出位置、及び共通座標系での前記ローカライザと前記視覚デバイスとの前記位置関係に基づいて、前記実深度マップを関心領域にトリミングすることをさらに含み、前記実深度マップを比較することは、前記トリミングされた実深度マップを比較することを含む、態様15~24のいずれか1項に記載の方法。
[態様26]
前記共通座標で前記ローカライザと前記視覚デバイスとの前記位置関係を特定することは、
前記ローカライザ及び前記視覚デバイスの視界内の表面にパターンを投影することと、
前記ローカライザに特定的な第1の座標系における前記パターンの位置を示す前記ローカライザを用いて位置特定データを生成することと、
前記視覚デバイスによって生成された前記投影パターンに対応する較正深度マップを受け取ることと、
前記較正深度マップに基づいて、前記視覚デバイスに特定的な第2の座標系における前記投影パターンの位置を特定することと、
前記第1の座標系における前記パターンの前記位置と前記第2の座標系における前記パターンの前記位置とに基づいて、前記共通座標系における前記ローカライザと前記視覚デバイスとの前記位置関係を特定することと
を含む、態様15~25のいずれか1項に記載の方法。
[態様27]
前記ローカライザを第1のスペクトル帯で動作させて、前記第1のオブジェクトの前記位置を検出することと、
前記視覚デバイスを第2のスペクトル帯で動作させて、前記第1のオブジェクトの近傍の前記表面の前記実深度マップを生成することであって、前記第2のスペクトル帯は、前記第1のスペクトル帯とは異なる、前記生成することと、
をさらに含む、態様15~26のいずれか1項に記載の方法。
[態様28]
1つ以上のプロセッサによって実行されるとき、態様15~27のいずれか1項に記載の方法を実施するように構成された命令が格納された非一時的なコンピュータ可読媒体を含む、コンピュータプログラム製品。

Claims (28)

  1. 第1のオブジェクトの位置を検出するように構成されたローカライザと、
    前記第1のオブジェクトの近傍の表面の実深度マップを生成するように構成された視覚
    デバイスと、
    前記ローカライザ及び前記視覚デバイスに結合されたコントローラであって、前記コン
    トローラが、
    前記第1のオブジェクトに対応する仮想モデルにアクセスすることと、
    共通座標系で前記ローカライザと前記視覚デバイスとの位置関係を特定することと、
    前記第1のオブジェクトの前記検出位置、前記仮想モデル、及び前記位置関係に基づ
    いて、前記視覚デバイスの予想深度マップを生成することと、
    前記予想深度マップと一致しない前記実深度マップの部分を特定することと、
    前記特定された部分に基づいて第2のオブジェクトを認識することと
    を行うように構成される、前記コントローラと
    を備える、ナビゲーションシステム。
  2. 前記コントローラは、前記第1のオブジェクトの前記検出位置、前記実深度マップにお
    ける前記第2のオブジェクトの場所、及び前記位置関係に基づいて、前記共通座標系にお
    ける前記第1のオブジェクトに対する前記第2のオブジェクトの位置を特定するように構
    成される、請求項1に記載のナビゲーションシステム。
  3. 前記第1のオブジェクトは、手術計画に従って治療すべき患者組織の標的体積を画定し
    ており、前記コントローラは、
    前記共通座標系における前記標的体積に対する前記第2のオブジェクトの前記位置と前
    記手術計画と、に基づいて、前記第2のオブジェクトが、前記手術計画に従って前記標的
    体積を治療することに対する障害物であるかどうかを判定することと、
    前記第2のオブジェクトが前記手術計画にとっての障害物であると判定することに応答
    して、前記手術計画を修正すること、及び/又は通知をトリガすること、及び/又は手術
    ナビゲーションを停止することと、
    を行うように構成される、請求項2に記載のナビゲーションシステム。
  4. 前記第1のオブジェクトにトラッカが堅固に結合されており、前記コントローラは、
    前記ローカライザを介して、前記ローカライザに特定的な第1の座標系で前記トラッカ
    の位置を検出することと、
    前記第1の座標系における前記トラッカの前記検出位置、及び前記第1の座標系におけ
    る前記トラッカと前記第1のオブジェクトとの位置関係に基づいて、前記第1の座標系に
    おける前記仮想モデルの位置を特定することと、
    前記第1の座標系での前記仮想モデルの前記位置と、第2の座標系での前記ローカライ
    ザと前記視覚デバイスとの位置関係とに基づいて、前記第1の座標系における前記仮想モ
    デルの前記位置を、前記視覚デバイスに特定的な前記第2の座標系における前記仮想モデ
    ルの位置に変換することと、
    前記第2の座標系での前記仮想モデルの前記位置に基づいて、前記予想深度マップを生
    成することと、
    を行うように構成される、請求項1~3のいずれか1項に記載のナビゲーションシステム
  5. 前記コントローラは、
    前記実深度マップと前記予想深度マップとの差分を計算することと、
    前記差分の第1のセクションが閾値深度よりも大きい絶対深度を示すかどうかを判定す
    ることと、
    前記差分の前記第1のセクションが閾値深度よりも大きい絶対深度を示すと判定するこ
    とに応答して、前記差分の前記第1のセクションに対応する前記実深度マップの第2のセ
    クションを前記部分として特定することと、
    を行うように構成されることにより、前記予想深度マップと一致しない前記実深度マップ
    の部分を特定するように構成される、請求項1~4のいずれか1項に記載のナビゲーショ
    ンシステム。
  6. 前記閾値深度はゼロではない、請求項5に記載のナビゲーションシステム。
  7. 前記コントローラは、
    前記第1のセクションのサイズが最小サイズ閾値よりも大きいかどうかを判定すること
    と、
    前記第1のセクションの前記サイズが前記最小サイズ閾値よりも大きいと前記判定する
    ことに応答して、前記第2のセクションを前記部分として特定することと、
    を行うように構成されることにより、前記予想深度マップと一致しない前記実深度マップ
    の前記部分を特定するように構成される、請求項5又は請求項6に記載のナビゲーション
    システム。
  8. 前記コントローラは、前記特定された部分を前記第2のオブジェクトに対応する所定の
    プロファイルと一致させるように構成されることにより、前記特定された部分に基づいて
    前記第2のオブジェクトを認識するように構成される、請求項1~7のいずれか1項に記
    載のナビゲーションシステム。
  9. 前記実深度マップの前記部分は、前記第2のオブジェクトに対応し、前記実深度マップ
    の第1の位置に配置された特徴の配列を含み、前記コントローラは、前記特徴の配列が、
    前記視覚デバイスによって後で生成される追加の実深度マップでの前記第1の位置とは異
    なる第2の位置に移動するかどうかを監視することにより、前記第2のオブジェクトの移
    動を追跡するように構成される、請求項1~8のいずれか1項に記載のナビゲーションシ
    ステム。
  10. 前記コントローラは、前記共通座標系の前記第2のオブジェクトに対応する仮想境界を
    生成するように構成され、前記仮想境界は手術具の動きに対して制約を与える、請求項1
    ~9のいずれか1項に記載のナビゲーションシステム。
  11. 前記コントローラは、前記仮想モデル、前記第1のオブジェクトの前記検出位置、及び
    共通座標系での前記ローカライザと前記視覚デバイスとの前記位置関係に基づいて、前記
    実深度マップを関心領域にトリミングするように構成され、前記コントローラは、前記ト
    リミングされた実深度マップを比較するように構成されることにより、前記実深度マップ
    を比較するように構成される、請求項1~10のいずれか1項に記載のナビゲーションシ
    ステム。
  12. 前記コントローラは、
    前記ローカライザ及び前記視覚デバイスの視界内の表面にパターンを投影することと、
    前記ローカライザに特定的な第1の座標系における前記パターンの位置を示す前記ロー
    カライザを用いて位置特定データを生成することと、
    前記視覚デバイスによって生成された前記投影パターンを示す較正深度マップを受け取
    ることと、
    前記較正深度マップに基づいて、前記視覚デバイスに特定的な第2の座標系における前
    記投影パターンの位置を特定することと、
    前記第1の座標系における前記パターンの前記位置と前記第2の座標系における前記パ
    ターンの前記位置とに基づいて、前記共通座標系における前記ローカライザと前記視覚デ
    バイスとの前記位置関係を特定することと、
    を行うように構成されることにより、前記共通座標系における前記ローカライザと前記視
    覚デバイスとの前記位置関係を特定するように構成される、請求項1~11のいずれか1
    項に記載のナビゲーションシステム。
  13. 前記ローカライザは、第1のスペクトル帯で動作して、前記第1のオブジェクトの前記
    位置を検出するように構成されており、前記視覚デバイスは、第2のスペクトル帯で動作
    して、前記第1のオブジェクトの近傍の前記表面の前記実深度マップを生成するように構
    成されており、前記第1のスペクトル帯は前記第2のスペクトル帯とは異なる、請求項1
    ~12のいずれか1項に記載のナビゲーションシステム。
  14. 請求項1~13のいずれか1項に記載のナビゲーションシステムで利用されるロボット
    マニピュレータであって、前記ロボットマニピュレータは、手術具を支持し、複数のリン
    クと、前記リンクを動かして前記手術具を動かすように構成された複数のアクチュエータ
    とを備え、前記ロボットマニピュレータは、前記第2のオブジェクトを回避するように制
    御される、前記ロボットマニピュレータ。
  15. 第1のオブジェクトの位置を検出するように構成されたローカライザと、前記第1のオ
    ブジェクトの近傍の表面の実深度マップを生成するように構成された視覚デバイスと、前
    記ローカライザ及び前記視覚デバイスに結合されたコントローラとを含むナビゲーション
    システムを動作させる方法であって、前記方法は、
    前記第1のオブジェクトに対応する仮想モデルにアクセスすることと、
    共通座標系で前記ローカライザと前記視覚デバイスとの位置関係を特定することと、
    前記第1のオブジェクトの前記検出位置、前記仮想モデル、及び前記位置関係に基づい
    て、前記視覚デバイスの予想深度マップを生成することと、
    前記予想深度マップと一致しない前記実深度マップの部分を特定することと、
    前記特定された部分に基づいて第2のオブジェクトを認識することと
    を含む、前記方法。
  16. 前記第1のオブジェクトの前記検出位置、前記実深度マップにおける前記第2のオブジ
    ェクトの場所、及び前記位置関係に基づいて、前記共通座標系における前記第1のオブジ
    ェクトに対する前記第2のオブジェクトの位置を特定することをさらに含む、請求項15
    に記載の方法。
  17. 前記第1のオブジェクトは、手術計画に従って治療すべき患者組織の標的体積を画定し
    ており、
    前記共通座標系における前記標的体積に対する前記第2のオブジェクトの前記位置と前
    記手術計画とに基づいて、前記第2のオブジェクトが、前記手術計画に従って前記標的体
    積を治療することに対する障害物であるかどうかを判定することと、
    前記第2のオブジェクトが前記手術計画にとっての障害物であると判定することに応答
    して、前記手術計画を修正すること、及び/又は通知をトリガすること、及び/又は手術
    ナビゲーションを停止することと、
    をさらに含む、請求項16に記載の方法。
  18. 前記第1のオブジェクトにトラッカが堅固に結合されており、
    前記ローカライザを介して、前記ローカライザに特定的な第1の座標系で前記トラッカ
    の位置を検出することと、
    前記第1の座標系における前記トラッカの前記検出位置、及び前記第1の座標系におけ
    る前記トラッカと前記第1のオブジェクトとの位置関係に基づいて、前記第1の座標系に
    おける前記仮想モデルの位置を特定することと、
    前記第1の座標系での前記仮想モデルの前記位置と、第2の座標系での前記ローカライ
    ザと前記視覚デバイスとの位置関係とに基づいて、前記第1の座標系における前記仮想モ
    デルの前記位置を、前記視覚デバイスに特定的な前記第2の座標系における前記仮想モデ
    ルの位置に変換することと、
    前記第2の座標系での前記仮想モデルの前記位置に基づいて、前記予想深度マップを生
    成することと、
    をさらに含む、請求項15~17のいずれか1項に記載の方法。
  19. 前記予想深度マップと一致しない前記実深度マップの部分を特定することは、
    前記実深度マップと前記予想深度マップとの差分を計算することと、
    前記差分の第1のセクションが閾値深度よりも大きい絶対深度を示すかどうかを判定す
    ることと、
    前記差分の前記第1のセクションが閾値深度よりも大きい絶対深度を示すと判定するこ
    とに応答して、前記差分の前記第1のセクションに対応する前記実深度マップの第2のセ
    クションを前記部分として特定することと
    を含む、請求項15~18のいずれか1項に記載の方法。
  20. 前記閾値深度はゼロではない、請求項19に記載の方法。
  21. 前記予想深度マップと一致しない前記実深度マップの部分を特定することは、
    前記第1のセクションのサイズが最小サイズ閾値よりも大きいかどうかを判定すること
    と、
    前記第1のセクションの前記サイズが前記最小サイズ閾値よりも大きいと前記判定する
    ことに応答して、前記第2のセクションを前記部分として特定することと
    を含む、請求項19又は請求項20に記載の方法。
  22. 前記特定された部分に基づいて前記第2のオブジェクトを認識することは、前記特定さ
    れた部分を前記第2のオブジェクトに対応する所定のプロファイルと一致させることを含
    む、請求項15~21のいずれか1項に記載の方法。
  23. 前記実深度マップの前記部分は、前記第2のオブジェクトに対応し、前記実深度マップ
    の第1の位置に配置された特徴の配列を含み、前記コントローラは、前記特徴の配列が、
    前記視覚デバイスによって後で生成される追加の実深度マップでの前記第1の位置とは異
    なる第2の位置に移動するかどうかを監視することにより、前記第2のオブジェクトの移
    動を追跡するように構成される、請求項15~22のいずれか1項に記載の方法。
  24. 前記共通座標系の前記第2のオブジェクトに対応する仮想境界を生成することをさらに
    含み、前記仮想境界は手術具の動きに対して制約を与える、請求項15~23のいずれか
    1項に記載の方法。
  25. 前記仮想モデル、前記第1のオブジェクトの前記検出位置、及び共通座標系での前記ロ
    ーカライザと前記視覚デバイスとの前記位置関係に基づいて、前記実深度マップを関心領
    域にトリミングすることをさらに含み、前記実深度マップを比較することは、前記トリミ
    ングされた実深度マップを比較することを含む、請求項15~24のいずれか1項に記載
    の方法。
  26. 前記共通座標で前記ローカライザと前記視覚デバイスとの前記位置関係を特定すること
    は、
    前記ローカライザ及び前記視覚デバイスの視界内の表面にパターンを投影することと、
    前記ローカライザに特定的な第1の座標系における前記パターンの位置を示す前記ロー
    カライザを用いて位置特定データを生成することと、
    前記視覚デバイスによって生成された前記投影パターンに対応する較正深度マップを受
    け取ることと、
    前記較正深度マップに基づいて、前記視覚デバイスに特定的な第2の座標系における前
    記投影パターンの位置を特定することと、
    前記第1の座標系における前記パターンの前記位置と前記第2の座標系における前記パ
    ターンの前記位置とに基づいて、前記共通座標系における前記ローカライザと前記視覚デ
    バイスとの前記位置関係を特定することと
    を含む、請求項15~25のいずれか1項に記載の方法。
  27. 前記ローカライザを第1のスペクトル帯で動作させて、前記第1のオブジェクトの前記
    位置を検出することと、
    前記視覚デバイスを第2のスペクトル帯で動作させて、前記第1のオブジェクトの近傍
    の前記表面の前記実深度マップを生成することであって、前記第2のスペクトル帯は、前
    記第1のスペクトル帯とは異なる、前記生成することと、
    をさらに含む、請求項15~26のいずれか1項に記載の方法。
  28. 1つ以上のプロセッサによって実行されるとき、請求項15~27のいずれか1項に記
    載の方法を実施するように構成された命令が格納された非一時的なコンピュータ可読媒体
    を含む、コンピュータプログラム製品。
JP2023158428A 2019-07-03 2023-09-22 手術ナビゲーションのための障害物回避技法 Pending JP2023179543A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962870284P 2019-07-03 2019-07-03
US62/870,284 2019-07-03
JP2021578151A JP7356523B2 (ja) 2019-07-03 2020-07-02 手術ナビゲーションのための障害物回避技法
PCT/US2020/040717 WO2021003401A1 (en) 2019-07-03 2020-07-02 Obstacle avoidance techniques for surgical navigation

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021578151A Division JP7356523B2 (ja) 2019-07-03 2020-07-02 手術ナビゲーションのための障害物回避技法

Publications (1)

Publication Number Publication Date
JP2023179543A true JP2023179543A (ja) 2023-12-19

Family

ID=71895196

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021578151A Active JP7356523B2 (ja) 2019-07-03 2020-07-02 手術ナビゲーションのための障害物回避技法
JP2023158428A Pending JP2023179543A (ja) 2019-07-03 2023-09-22 手術ナビゲーションのための障害物回避技法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021578151A Active JP7356523B2 (ja) 2019-07-03 2020-07-02 手術ナビゲーションのための障害物回避技法

Country Status (7)

Country Link
US (1) US20220117682A1 (ja)
EP (1) EP3993725A1 (ja)
JP (2) JP7356523B2 (ja)
KR (1) KR20220031576A (ja)
CN (1) CN114173699A (ja)
AU (1) AU2020300612A1 (ja)
WO (1) WO2021003401A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7076447B2 (ja) 2016-11-24 2022-05-27 ユニヴァーシティ オブ ワシントン ヘッドマウントディスプレイのための光照射野キャプチャおよびレンダリング
WO2021211650A1 (en) * 2020-04-14 2021-10-21 Mobius Imaging, Llc Methods and systems for performing image registration in a computer-assisted surgery system
EP4138703A1 (en) * 2020-04-24 2023-03-01 Smith&Nephew, Inc. Optical tracking device with built-in structured light module
US10949986B1 (en) 2020-05-12 2021-03-16 Proprio, Inc. Methods and systems for imaging a scene, such as a medical scene, and tracking objects within the scene
US11622817B2 (en) * 2020-07-08 2023-04-11 Smith & Nephew, Inc. Easy to manufacture autoclavable LED for optical tracking
US11295460B1 (en) 2021-01-04 2022-04-05 Proprio, Inc. Methods and systems for registering preoperative image data to intraoperative image data of a scene, such as a surgical scene
EP4082469B8 (en) * 2021-04-26 2023-11-29 Institut National de la Santé et de la Recherche Médicale Automatic determination of an appropriate positioning of a patient-specific instrumentation with a depth camera
CN113476141B (zh) * 2021-06-30 2023-02-10 苏州微创畅行机器人有限公司 位姿控制方法及其适用的光学导航系统、手术机器人系统
US12016642B2 (en) 2021-09-08 2024-06-25 Proprio, Inc. Constellations for tracking instruments, such as surgical instruments, and associated systems and methods
US20230277256A1 (en) * 2022-03-02 2023-09-07 Mako Surgical Corp. Robotic System Including A Link Tracker
US11464573B1 (en) * 2022-04-27 2022-10-11 Ix Innovation Llc Methods and systems for real-time robotic surgical assistance in an operating room
CN115281699A (zh) * 2022-08-23 2022-11-04 上海涛影医疗科技有限公司 基于双平面x光系统的动态追踪方法及系统
CN116077182B (zh) * 2022-12-23 2024-05-28 北京纳通医用机器人科技有限公司 一种医用手术机器人控制方法、装置、设备及介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010034530A1 (en) 2000-01-27 2001-10-25 Malackowski Donald W. Surgery system
US20140031668A1 (en) * 2010-09-08 2014-01-30 Disruptive Navigational Technologies, Llc Surgical and Medical Instrument Tracking Using a Depth-Sensing Device
US9119655B2 (en) 2012-08-03 2015-09-01 Stryker Corporation Surgical manipulator capable of controlling a surgical instrument in multiple modes
WO2014113551A2 (en) 2013-01-16 2014-07-24 Stryker Corporation Navigation systems and methods for indicating and reducing line-of-sight errors
US10154239B2 (en) * 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
KR102491907B1 (ko) * 2015-02-25 2023-01-26 마코 서지컬 코포레이션 수술절차 중에 추적 방해를 감소시키기 위한 내비게이션 시스템 및 방법
EP3777749A3 (en) * 2015-12-31 2021-07-21 Stryker Corporation System and method for preparing surgery on a patient at a target site defined by a virtual object
KR102488295B1 (ko) * 2016-05-23 2023-01-16 마코 서지컬 코포레이션 로봇 수술 절차 동안 물리적 오브젝트를 식별하고 추적하기 위한 시스템 및 방법

Also Published As

Publication number Publication date
CN114173699A (zh) 2022-03-11
WO2021003401A1 (en) 2021-01-07
KR20220031576A (ko) 2022-03-11
JP7356523B2 (ja) 2023-10-04
JP2022538666A (ja) 2022-09-05
US20220117682A1 (en) 2022-04-21
EP3993725A1 (en) 2022-05-11
AU2020300612A1 (en) 2022-02-03

Similar Documents

Publication Publication Date Title
JP7356523B2 (ja) 手術ナビゲーションのための障害物回避技法
US11844574B2 (en) Patient-specific preoperative planning simulation techniques
CN109152615B (zh) 在机器人手术过程期间识别和跟踪物理对象的系统和方法
CN108472096B (zh) 用于在由虚拟对象限定的目标部位处对患者执行手术的系统和方法
EP1504399B1 (en) Methods and systems to control a shaping tool
AU2014248758B2 (en) System for establishing virtual constraint boundaries
US20220370150A1 (en) Optimization Of Tracker-Based Surgical Navigation
EP4389048A1 (en) Tool navigation in mixed reality computer-assisted surgery

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231020

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240906