JP2016503676A - 3次元トラッキングセンサを使用した位置決めおよびナビゲーション - Google Patents

3次元トラッキングセンサを使用した位置決めおよびナビゲーション Download PDF

Info

Publication number
JP2016503676A
JP2016503676A JP2015547494A JP2015547494A JP2016503676A JP 2016503676 A JP2016503676 A JP 2016503676A JP 2015547494 A JP2015547494 A JP 2015547494A JP 2015547494 A JP2015547494 A JP 2015547494A JP 2016503676 A JP2016503676 A JP 2016503676A
Authority
JP
Japan
Prior art keywords
surgical
tracking sensor
positioning
control device
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015547494A
Other languages
English (en)
Inventor
ヒョシグ カン
ヒョシグ カン
Original Assignee
マコ サージカル コーポレーション
マコ サージカル コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マコ サージカル コーポレーション, マコ サージカル コーポレーション filed Critical マコ サージカル コーポレーション
Publication of JP2016503676A publication Critical patent/JP2016503676A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots

Abstract

3Dトラッキングセンサを使用する、位置決めとナビゲーション用のシステムおよび方法を示し、説明する。このシステムおよび方法は、対象物に固定された追跡可能な要素を追跡するために、可搬型手術要素に連結された3Dトラッキングセンサを利用する。追跡可能な要素の姿勢は、3Dトラッキングセンサにより提供される情報に少なくとも部分的に基づいて決定され、対象物の3次元表現に対象物が位置決めされる。3Dトラッキングセンサは、また、外科手術手順の間に様々な対象物を追跡するために使用可能である。

Description

関連出願に対する相互参照
本出願は、2012年12月13日に出願された米国出願番号第13/714,066号の優先権を主張し、その全体を参照として本明細書に組み込む。
本発明は、主として対象物の位置決めおよびナビゲーションの分野に関し、より詳細には、3次元トラッキングセンサを使用した位置決めおよびナビゲーションに関する。
3次元トラッキングセンサ(「3Dトラッキングセンサ」)は、動く対象物の位置および方向(即ち、姿勢)の追跡を可能にする。例えば、WINDOWS用のKINECT 3Dトラッキングセンサは、カメラおよび赤外線深度センサを採用し、骨格トラッキングおよび顔トラッキングを可能にする。例えば、ゲーム業界(XBOX 360ゲームシステム用のKINECTトラッキングセンサなどの)においては、3Dトラッキングセンサによって、ユーザは、装置に物理的に触れることなくコンピュータまたはその他の装置と対話することができる。
3Dトラッキングセンサのもう一つの例としては、リープモーション社(Leap Motion, Inc.(カリフォルニア州サンフランシスコ))が開発した3Dトラッキングセンサがある。リープモーション社により開発された装置は、その装置の周りの3Dの「相互作用空間」内に配置された対象物を追跡することができる。相互作用空間内で対象物(例えば、手)を動かすことにより、ユーザは装置に通信可能にリンクされたソフトウェアと連動し、制御することができる。例えば、ユーザはラップトップコンピュータに装置を接続し、物理的にマウスやラップトップスクリーンに触れることなく3D空間内で身振りをすることによりクリックおよびスクロールをし得る。
3Dトラッキングセンサのもう一つの例は、米国特許公開番号第2010/0110165号(特許文献1)にて開示されており、その全体が参照として本明細書に組み込まれる。米国特許公開番号第2010/0110165号(特許文献1)は、1つ以上のターゲットの対象物に関して、3次元の情報を取得し計算するシステムおよび方法について開示している。
米国特許公開番号第2010/0110165号
本発明の一実施形態は、手術システムに関する。手術システムには、可搬型手術要素に連結された3Dトラッキングセンサおよび対象物に固定された追跡可能な要素とが含まれる。手術システムは更に、3Dトラッキングセンサにより提供された情報に少なくとも部分的に基づいた、追跡可能な要素の姿勢を決定し、対象物の3次元表現に対象物を位置決めするための手術制御装置を含む。
本発明の別の実施形態は、3Dトラッキングセンサを使用した位置決めの方法に関する。この方法は、3Dトラッキングセンサを使用する追跡可能な要素を含み、3Dトラッキングセンサは可搬型手術要素に連結され、追跡可能な要素が対象物に固定され、3Dトラッキングセンサによって提供された情報に基づいて追跡可能な要素の姿勢を決定し、対象物の3次元表現に対象物を位置決めする。
代替物な例示的実施形態は、請求項で主に説明され得るようなその他の特徴と特徴の組み合わせに関する。
本開示は、添付の図(同様の参照符号は同様の要素を表す)とともに、下記の詳細な説明から、より完全に理解されるだろう。
例示的一実施形態による手術制御装置のブロック図である。 例示的一実施形態による、位置決め用に3Dトラッキングセンサを使用した手術システムである。 追加の例示的一実施形態による、位置決め用に3Dトラッキングセンサを使用した手術システムである。 例示的一実施形態による、ナビゲーション用に3Dトラッキングセンサを使用した手術システムである。 別の例示的一実施形態による、ナビゲーション用に3Dトラッキングセンサを使用した手術システムである。 例示的一実施形態による、ナビゲーション用に3Dトラッキングセンサを複数使用した手術システムである。
例示的実施形態を詳細に示した図を参照する前に、本願は下記の本明細書または図に示された詳細または方法に限定されないことを理解すべきである。用語は説明する目的のためだけであり、限定するとみなされるべきではないことも理解すべきである。
本明細書で記載された例示的実施形態は、リープモーション社(上述)により開発された装置のような、3Dトラッキングセンサに対応して対象物の姿勢を追跡することができる、3Dトラッキングセンサを使用した手術の利用に関する。3Dトラッキングセンサを利用した2つの例示的な用途は、外科手術手順において位置決めおよびナビゲーションすることである。本発明の一実施形態によれば、3Dトラッキングセンサは患者の解剖学的構造の一部などの対象物を、外科手術手順の前に作られた患者の解剖学的構造の3次元表現に位置決めするために使用される。別の実施形態では、3Dトラッキングセンサは、外科手術手順において対象物(例えば、患者、手術器具)の追跡を容易にするために使用される。
図1を参照すると、手術制御装置10は、本明細書に記載される、様々な機能(例えば、計算、制御機構、プロセス)を実行するために使用することが可能である。手術制御装置10には、プロセッサ14およびメモリ16を有する、処理回路12が含まれる。プロセッサ14は、汎用プロセッサ、特定用途向け集積回路(ASIC)、1つ以上のフィールドブログラマブルゲートアレイ(FPGA)、処理構成要素群、またはその他の好適なエレクトリック処理コンポーネントとして実行可能である。メモリ16(例えば、メモリ、メモリ装置、記憶装置など)は、本出願において記載された、様々な処理を完成または容易にする、データ保存および/もしくはコンピュータコードのための、1つ以上の装置(例えば、RAM、ROM、フラッシュメモリ、ハードディスクストレージなど)である。メモリ16は、揮発性メモリまたは不揮発性メモリであってもよく、またはこれらを含んでもよい。メモリ16は、本出願にて記載した様々な機能を支援するためのデータベース構成要素、オブジェクトコード構成要素、スクリプト構成要素またはその他の種類の情報構造を含み得る。例示的実施形態によると、メモリ16は、プロセッサ14に通信可能に接続されており、本明細書で記載される1つ以上のプロセスを実行するためのコンピュータコードを含む。メモリ16は様々なモジュールを含有してもよく、各々が特定の種類の機能に関連してデータおよび/またはコンピュータコードを格納可能である。一実施形態では、メモリ16は、プランニング・モジュール24、ナビゲーションモジュール26、位置決めモジュール28およびロボット制御モジュール30などの外科手術手順に関連するいくつかのモジュールを含有する。
手術制御装置10は単一ハウジング内に含有される必要はないと理解すべきである。むしろ、手術制御装置10の構成要素は、図2に示した手術システム100の様々な箇所、または遠隔位置にさえ配置し得る。手術制御装置10の構成要素は、例えば、3Dトラッキングセンサ36または触覚装置32内に配置してもよい。
本開示は、各種操作を達成するために、任意の機械が読み取り可能な媒体についての方法、システムおよびプログラム製品を意図している。機械が読み取り可能な媒体は、手術制御装置10の一部であってもよく、または手術制御装置10とインターフェイスで接続してもよい。本開示の実施形態は、この目的もしくはその他の目的に組み込まれた、適切なシステムの既存のコンピュータ処理装置もしくは専用コンピュータ処理装置を使用することにより、またはハードワイヤードシステムにより実施し得る。本開示の範囲の実施形態には、機械で実行可能な指示または媒体上に保存されるデータ構造を保持するまたは有する、機械が読み取り可能な媒体を含む、プログラム製品が含まれる。このような機械で読み取り可能な媒体は、汎用もしくは専用コンピュータまたはその他の処理装置のついた機械によってアクセス可能な任意の入手可能な媒体であり得る。一例として、このような機械が読み取り可能な媒体は、RAM、ROM、EPROM、EEPROM、CD−ROMもしくはその他の光ディスク記憶装置、磁気ディスク記憶装置、その他の磁気記憶装置、固体記憶装置、または機械が実行可能な指示もしくはデータ構造の形態の所望のプログラムコードを保持するもしくは保存するために使用することが可能であり、かつ汎用もしくは専用コンピュータまたはその他の処理装置のついた機械によってアクセスすることができる任意のその他の媒体を含むことができる。情報が、ネットワーク上もしくはその他の通信接続(ハードワイヤード、ワイヤレスまたはハードワイヤードとワイヤレスの組み合わせ)で機械に転送または提供される際に、機械が読み取り可能な媒体として、接続を正しく参照する。したがって、任意のこのような接続は機械が読み取り可能な媒体と正確に称される。上記の組み合わせも、機械が読み取り可能な媒体の範囲内に含まれる。機械が実行可能な指示には、例えば、汎用コンピュータ、専用コンピュータまたは専用の処理装置に一定の機能または一連の機能を生じさせる指示およびデータが含まれる。
図1を再度参照すると、手術制御装置10は更に、通信インターフェイス18を含む。通信インターフェイス18は、ダイレクト接続またはネットワーク接続(例えば、インターネット接続、LAN、WANまたはWLAN接続など)を介して外部のソースとデータ通信を行うための有線またはワイヤレスインターフェース(例えば、ジャック、アンテナ、送信機、受信機、送受信機、ワイヤ端子などのいずれか)であるか、これらを含むことができる。例えば、通信インターフェイス18は、イーサネットによる通信リンクまたはネットワークを介してデータを送受信するためのイーサネットカードおよびポートを含むことができる。別の例としては、通信インターフェイス18は、無線通信ネットワークを介した通信のための、WiFiの送受信機を含むことができる。したがって、手術制御装置10が、3Dトラッキングセンサ36および触覚装置32などのような、図2に示された手術システム100のその他の構成要素から、物理的に分離されている場合には、通信インターフェイス18は手術制御装置10とこれらの分離された部品との間の無線通信を可能にする。
外科手術手順の前に、任意の形態の手術前画像データ20(例えば、2次元画像、3次元モデル)は、通信インターフェイス18を介して手術制御装置10へと転送してもよい。手術前画像データ20は、その後、手術計画を策定する間、利用することができる。手術前画像データ20を取得するためには、患者は、CT、MRIまたは超音波などの任意の公知の撮像技術を使用して走査されてもよい。走査データはその後、(手術制御装置10または任意の処理装置のいずれかによって)セグメント化され、患者の解剖学的構造の一部の3次元表現を取得する。例えば、膝関節の外科手術手順に入る前に、患者の大腿骨および脛骨が3次元表現で作成される。別の実施形態では、3次元表現は、データベースまたは骨モデルライブラリから3次元のモデルを選択することにより取得され得る。データベースから選択された骨モデルは、その後、患者の解剖学的構造の一部の3次元表現を取得するために、特定の患者の特徴に基づいて変形することができる。
手術制御装置10のメモリ16内に配置された、プランニング・モジュール24は、手術計画の間、受け取った手術前画像データ20を処理し、画像データ20を利用するために必要な指示を記憶することができる。一旦、患者の解剖学的構造の一部の3次元表現が作成されると、医師は3次元表現に基づいた手術計画を策定することができる。手術計画は、外科手術手順の間、骨に所望の変更(例えば、開穴、切開)を行うことを含むことが可能であり、更に、外科手術手順の間、任意のコンポーネントを移植するために所望の配置を含むことが可能である。一例として、1つ以上の膝関節の関節面をインプラントで再配置する外科手術手順の前に、計画された骨の除去およびインプラントの配置をモデルとして手術計画が作成され得る。
手術計画は触覚オブジェクトを更に含み得る。2011年8月30日付与の米国特許番号第8,010,180号、発明の名称「触覚誘導システムおよび方法」に記載されているように、外科手術手順の間、触覚オブジェクトは、手術器具34の動きを制御するために、触覚装置32(図2)に連結された手術器具34と連動し、その全体が参照により本明細書に組み込まれる。種々の実施形態では、触覚オブジェクトは手術器具34、骨に所望の変更(例えば、開穴や切開の境界)、または手術器具34によって取り除かれる骨の3次元部分の所望の軌道を表し得る。触覚装置32は、外科手術手順の間、医師を補助するために、医師によりインタラクティブな方法で使用され、触覚オブジェクトは手術器具34の動作を制御(例えば、誘導または抑制)する。手術制御装置10内のロボット制御モジュール10(図1)は、手術器具34を触覚で制御するのに必要な指示を記憶することができる。
外科手術手順の間、触覚装置32を利用する前に、患者の解剖学的構造は、患者の解剖学的構造の3次元表現に位置決めされなければならない。位置決めする過程は、患者の実解剖学的構造(物理的空間)の座標系を患者の解剖学的構造(仮想空間)の3次元表現の座標系に関連付けることを含む。一旦仮想表現が位置決めされると、患者の解剖学的構造の姿勢は、更に以下に記載するように、外科手術手順の間に実時間で追跡されることが可能となる。患者の解剖学的構造を追跡することは、手術器具34の配置と同様に手術器具34の触覚制御(かつゆえに手術計画の実行)を可能にするために必要である。
米国特許番号第8,010,180号に記載のポイントベースの位置決め方法などのような、ある種の位置決め方法では、位置決めされる患者の解剖学的構造の一部は、位置決めする過程でナビゲーションシステムによって追跡される。例えば、骨の位置決めをしている間は、ナビゲーションシステムは骨に固定された追跡可能な要素を追跡する。ナビゲーションシステムとしては通常、手術室の座標系に関連して固定されたカメラが挙げられる。これらのナビゲーション方法においては、固定されたカメラは、動作可能な対象物(例えば骨)を追跡できるよう、固定された追跡可能な要素を検出する。一旦対象物が位置決めされると、対象物の姿勢は、追跡可能な要素の位置、特有の形状および追跡される対象物への公知の幾何学的関係に基づいて計算されることが可能である。
図2および図3に示す位置決めの方法によると、対象物の位置決めは3Dトラッキングセンサ36を使用して行われる。位置決めのその他の方法とは対照的に、本明細書記載の方法は、対象物を追跡して位置決めするために、手術室に関連して固定されたカメラを有するナビゲーションシステムの使用を必要としない。むしろ、3Dトラッキングセンサ36は可搬型手術要素に連結される。可搬型手術要素は、外科手術手順の間に、3Dトラッキングセンサの能力に影響を及ぼすことなしに目的の機能を果たすことができる、位置を動かす、または動かすことが可能な任意の手術要素または対象物であり得る。可搬型手術要素の例としては、位置決めプローブ、手術器具、触覚装置または患者の解剖学的構造(例えば、骨)の一部が含まれる。図1を再度参照すると、3Dトラッキングセンサ36は手術制御装置10と無線で通信可能であり、3Dトラッキングセンサデータ22を手術制御装置10に送信することができる。本明細書で記載された追跡に関する機能を実行するための指示は、手術制御装置10のナビゲーションモジュール26内に記憶することができる。同様に、対象物の位置決めに関する機能を実行するための指示は、手術制御装置10の位置決めモジュール28内に記憶することができる。
図2を参照すると、3Dトラッキングセンサ36を使用する位置決めの一実施形態では、3Dトラッキングセンサ36はプローブ38に連結されている。したがって、3Dトラッキングセンサ36の座標系とプローブ38の座標系との間の関係は、公知である。追跡可能な要素40は、骨44などのような対象物上に位置決めするために配置される。追跡可能な要素40は、追跡可能な要素40の配向を伝達する認識可能な形状を有するアレイであり得る。プローブ38は次に、追跡可能な要素40が3Dトラッキングセンサ36の相互作用空間内になるように、骨44上に配置される。したがって、3Dトラッキングセンサ36は、追跡可能な要素40を「見る」ことができ、3Dトラッキングセンサ36に関連する追跡可能な要素40の姿勢を計算することが可能である。したがって、プローブ38の座標系と追跡可能な要素40との間の変化が計算可能である。このようにして、手術制御装置10は、位置決めプローブ38の先端が追跡可能な要素40に関連してどこに配置されているか決定することができる。
骨44の位置決めは、次に、位置決めプローブ38の先端を使用して骨44上でいくつかのポイントに接触することにより行うことができる。一実施形態では、医師はプローブ38で骨44を15〜20回接触させる。ポイントクラウドは、多数の接触ポイントを使用して作成される。次に、ポイントクラウドは、術前に作成され、骨44を3次元表現に位置決めするために骨44の3次元表現に合わせられることができる。
図3を参照すると、3Dトラッキングセンサ36を使用する位置決めの別の実施形態では、プローブ38は骨44上のポイントに接触して使用されない。その代わりに、3Dトラッキングセンサ36は、追跡可能な要素40および骨44の表面の少なくとも一部が3Dトラッキングセンサ36の相互作用空間内にあるように保持される。骨44上の多数のポイントを含むポイントクラウドはその後、骨44に物理的に接触するためにプローブ38を使用する必要なしに作成される。このポイントクラウドは次に、骨44を位置決めするために、骨44の3次元表現と位置合わせされる。追加の追跡可能な要素42およびその他の骨46の一部も、相互作用空間内にあってもよく、その場合には、骨46は骨44と同様に位置決めが可能である。
図3の実施形態では、CTスキャンは、3Dトラッキングセンサ36が、位置決めする間に十分に露出した骨を捕捉できる場合には、骨44および/または骨46またはそのいずれかの3次元表現を作成するために使用し得る。あるいは、MRIを3次元表現を作成するために使用できる可能性がある。位置決めが行われている間、3Dトラッキングセンサ36に露出された骨の一部が軟骨またはその他の柔組織によって覆われている場合には、骨44、46を取り囲む柔組織を示す3次元表現は有用であり得る。
骨44の位置決めに続いて、骨44の画像は、タブレット装置(図3)または標準的なコンピュータ用モニターなどのようなディスプレイ48に出力されてもよい。ディスプレイ48から物理的に分離している場合には、手術制御装置10(図1)は、通信インターフェイス18を介してディスプレイ48と通信できる。一実施形態では、ディスプレイ48は、3Dトラッキングセンサ36の透視図からデジタル方式で骨44を再構成した放射線写真(DRR)を示す。本実施形態では、医師は3Dトラッキングセンサ36を患者の解剖学的構造の周りで操作でき、様々な視点から解剖学的構造のDRRを見ることができる。
図4を参照すると、例示的実施形態において、3Dトラッキングセンサ36は手術器具34に連結され、外科手術手順の間、1つ以上の追跡可能な要素またはその他の対象物の姿勢を決定する。図2および図3の実施形態におけるような、追跡可能な要素40、42は、それぞれ骨44、46に固定されている。一実施形態では、図2にて示すように、手術器具34は触覚装置32に連結されている。ユーザが外科手術手順の間に手術器具34の位置を変えたときには、追跡可能な要素40、42は3Dトラッキングセンサ36の相互作用空間内に留まる。手術制御装置10は、3Dトラッキングセンサ36により受信した情報に少なくとも部分的に基づいた外科手術手順の間、1つ以上の追跡可能な要素40、42の姿勢を決定できる。したがって、3Dトラッキングセンサは、追跡可能な要素40、42を追跡する。骨44、46が既に位置決めされた場合には、手術システム100もまた、(追跡可能な要素40、42の姿勢を継続して決定することにより)外科手術手順の間、骨44、46を追跡する。したがって、外科手術手順の間は、手術器具34に連結された3Dトラッキングセンサ36は、手術システム100が様々な対象物(例えば、追跡可能な要素、患者の解剖学的構造の一部)を追跡することを可能にする。更に、手術室に関連して固定されたカメラを必要とするその他のナビゲーションシステムと異なり、3Dトラッキングセンサ36は手術システムの能力を阻害することなく対象物を追跡するために位置を自由に動かすことができる。
図5に示した例示的実施形態を参照すると、3Dトラッキングセンサ36は可搬型触覚装置32に連結されている。追跡可能な要素40、42は3Dトラッキングセンサ36の相互作用空間内にある。それぞれの追跡可能な要素は3Dトラッキングセンサ36の相互作用空間内にあるため、センサ36に関連したそれぞれのトラッキングされた対象物の姿勢は、手術制御装置10によって決定することができる。したがって、3Dトラッキングセンサ36は、手術システム100内で、骨44、46およびその他の追跡された対象物の姿勢を決定するために使用可能である。外科手術手順の間、基部と3Dトラッキングセンサ36との間の座標変換が公知であるように、3Dトラッキングセンサ36は触覚装置32の基部に関連して固定してもよい。手術制御装置10は次に、触覚装置32の基部に関連した位置および配向またはそのいずれかに基づいて手術器具34の位置を計算することができる。3Dトラッキングセンサは、(図5に示すように)アームに取り付けるかまたは直接触覚装置32に取り付けてもよい。アームは、追跡される任意の対象物が3Dトラッキングセンサ36の相互作用空間内にあることを確保するためにユーザが3Dトラッキングセンサを配置できるように調節可能であってもよい。
図6を参照すると、別の例示的実施形態では、3Dトラッキングセンサ36は患者の骨44、46上に配置され、追跡可能な要素52は手術器具34に関連して固定されている。したがって、追跡可能な要素52および手術器具34の姿勢は、1つ以上のトラッキングセンサ36により提供された情報に少なくとも部分的に基づいて決定されることが可能となる。その他の対象物はまた、患者の解剖学的構造に連結された3Dトラッキングセンサ36を使用してトラッキングされてもよい。
様々な例示的実施形態に示されたシステムおよび方法の構造と配列は、説明のみを目的としている。本開示では詳細に説明された実施形態は少ないが、多くの変更(例えば、様々な要素の寸法、構成要素および構造における変化、パラメータの値、取り付け方法、材料の使用、配向など)が可能である。例えば、要素の位置を逆にしたり、変化させたり、個々の要素の性質もしくは数または位置を変更したり変化させたりしてもよい。したがって、すべてのこうした変更は本発明の範囲内に含まれるものとする。代替実施形態では、任意の過程または方法、ステップの順序や順番は変化させたり再度順番に並べてもよい。例示的実施形態のデザイン、操作状態および調整におけるその他の置換、修正、変更および省略は、本開示の範囲を逸脱しない場合には行ってもよい。
方法のステップの特定の順序が記載されてもよいが、ステップの順序は記載されているものと異なってもよい。また、2つまたはそれ以上のステップが同時にまたは部分的に同時に行われてもよい。このような変化は選択されたソフトウェアおよびハードウェアシステムおよびデザイナの選択に依存するだろう。このような変化はいずれも本開示の範囲内に入るものである。同様に、ソフトウェアの導入は、様々な接続ステップ、処理ステップ、比較ステップおよび決定ステップを行うルールベースロジックおよびその他のロジックで標準的なプログラミング技術により行われ得る。

Claims (24)

  1. 手術システムであって、
    可搬型手術要素に連結された3Dトラッキングセンサと、
    対象物に固定された追跡可能な要素と、
    前記3Dトラッキングセンサにより提供された情報に少なくとも部分的に基づいて前記追跡可能な要素の姿勢を決定し、かつ
    前記対象物の3次元表現に前記対象物を位置決めするよう
    構成された手術制御装置と
    を備える、手術システム。
  2. 前記3Dトラッキングセンサが前記手術制御装置に無線で通信するよう構成されている、請求項1に記載の手術システム。
  3. 前記追跡可能な要素が、前記追跡可能な要素の配向を伝達するよう構成された形状を有するアレイである、請求項1に記載の手術システム。
  4. 外科手術手順の間に、前記3Dトラッキングセンサにより提供された情報に少なくとも部分的に基づいて、前記手術制御装置が更に前記対象物の姿勢を決定するよう構成された、請求項1に記載の手術システム。
  5. 前記手術制御装置が触覚装置を制御するよう構成された触覚装置を更に備える、請求項1に記載の手術システム。
  6. 前記可搬型手術要素が位置決めプローブである、請求項1に記載の手術システム。
  7. 前記手術制御装置がポイントクラウドを使用して前記対象物を位置決めするよう構成され、前記ポイントクラウドが前記位置決めプローブと前記対象物との間に複数の接点を含む、請求項6に記載の手術システム。
  8. 前記手術制御装置が前記3Dトラッキングセンサから取得されたポイントクラウドを使用して前記対象物を位置決めするよう構成された、請求項1に記載の手術システム。
  9. ディスプレイを更に備え、前記手術制御装置が、前記対象物に関連して前記3Dトラッキングセンサの姿勢に基づいた前記対象物の画像を前記ディスプレイに表示させる、請求項1に記載の手術システム。
  10. 前記可搬型手術要素が触覚装置または手術器具である、請求項1に記載の手術システム。
  11. 前記対象物が患者の解剖学的構造の一部である、請求項1に記載の手術システム。
  12. 前記3Dトラッキングセンサが、少なくとも前記追跡可能な要素の第1画像および第2画像を捕捉することにより前記追跡可能な要素に関連する3次元情報を取得するよう構成され、
    前記手術制御装置が、前記第1画像または前記第2画像の画像強度を比較することにより少なくとも部分的に前記追跡可能な要素の姿勢を決定する、
    請求項1に記載の手術システム。
  13. 3Dトラッキングセンサを使用して追跡可能な要素を追跡するステップであって、前記3Dトラッキングセンサが可搬型手術要素に連結し、かつ前記追跡可能な要素が対象物に固定されている、ステップ
    前記3Dトラッキングセンサによって提供された情報に少なくとも部分的に基づいて前記追跡可能な要素の姿勢を決定するステップ、および
    前記対象物の3次元表現に前記対象物を位置決めするステップ
    を含む、3Dトラッキングセンサを使用した位置決めのための方法。
  14. 前記3Dトラッキングセンサが手術制御装置に無線で通信するよう構成されている、請求項13に記載の方法。
  15. 前記追跡可能な要素が前記追跡可能な要素の配向を伝達するよう構成された形状を有するアレイである、請求項13に記載の方法。
  16. 外科手術手順の間に前記3Dトラッキングセンサを使用して前記対象物を追跡することを更に含む、請求項13に記載の方法。
  17. 触覚装置に連結された手術器具の動きを誘導または制限する触覚装置を制御することを更に含む、請求項16に記載の方法。
  18. 前記可搬型手術要素が位置決めプローブである、請求項13に記載の方法。
  19. 前記対象物を位置決めするステップが、複数の接点を取得するために前記対象物に前記位置決めプローブを接触させることを含む、請求項18に記載の方法。
  20. 前記対象物を位置決めするステップが、前記3Dトラッキングセンサを使用して前記対象物に関連する情報を取得することを含む、請求項13に記載の方法。
  21. ディスプレイ上で前記対象物の対応する画像を見るために、前記対象物に関連して前記3Dトラッキングセンサの姿勢を操作することを更に含む、請求項13に記載の方法。
  22. 前記可搬型手術要素が触覚装置または手術器具である、請求項13に記載の方法。
  23. 前記対象物が患者の解剖学的構造の一部である、請求項13に記載の方法。
  24. 前記3Dトラッキングセンサが少なくとも前記追跡可能な要素の第1画像および第2画像を捕捉することにより、追跡可能な要素を追跡し、かつ
    前記追跡可能な要素の姿勢が、前記第1および第2画像の画像強度を比較することにより、少なくとも部分的に決定される、
    請求項13に記載の方法。
JP2015547494A 2012-12-13 2013-12-11 3次元トラッキングセンサを使用した位置決めおよびナビゲーション Pending JP2016503676A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/714,066 US9192445B2 (en) 2012-12-13 2012-12-13 Registration and navigation using a three-dimensional tracking sensor
US13/714,066 2012-12-13
PCT/US2013/074373 WO2014093480A1 (en) 2012-12-13 2013-12-11 Registration and navigation using a three-dimensional tracking sensor

Publications (1)

Publication Number Publication Date
JP2016503676A true JP2016503676A (ja) 2016-02-08

Family

ID=49955479

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015547494A Pending JP2016503676A (ja) 2012-12-13 2013-12-11 3次元トラッキングセンサを使用した位置決めおよびナビゲーション

Country Status (7)

Country Link
US (1) US9192445B2 (ja)
EP (1) EP2931159B1 (ja)
JP (1) JP2016503676A (ja)
CN (1) CN104869934B (ja)
AU (1) AU2013359335B2 (ja)
CA (1) CA2893800A1 (ja)
WO (1) WO2014093480A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019534734A (ja) * 2016-09-22 2019-12-05 メドトロニック・ナビゲーション,インコーポレーテッド 誘導される処置システム
KR102115501B1 (ko) * 2018-12-04 2020-05-26 김정은 바디케어 모션 트래킹 장치 및 이를 이용한 바디케어 관리 방법
US11944272B2 (en) 2017-12-07 2024-04-02 Medtronic Xomed, Inc. System and method for assisting visualization during a procedure

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9510771B1 (en) 2011-10-28 2016-12-06 Nuvasive, Inc. Systems and methods for performing spine surgery
US10292887B2 (en) 2012-12-31 2019-05-21 Mako Surgical Corp. Motorized joint positioner
US9848922B2 (en) 2013-10-09 2017-12-26 Nuvasive, Inc. Systems and methods for performing spine surgery
EP3228254B1 (en) 2014-02-21 2020-01-01 3DIntegrated ApS A set comprising a surgical instrument
US9918798B2 (en) 2015-06-04 2018-03-20 Paul Beck Accurate three-dimensional instrument positioning
WO2016210081A1 (en) 2015-06-23 2016-12-29 Stryker Corporation Delivery system and method for delivering material to a target site
WO2017012624A1 (en) 2015-07-21 2017-01-26 3Dintegrated Aps Cannula assembly kit, trocar assembly kit, sleeve assembly, minimally invasive surgery system and method therefor
US11020144B2 (en) 2015-07-21 2021-06-01 3Dintegrated Aps Minimally invasive surgery system
DK178899B1 (en) 2015-10-09 2017-05-08 3Dintegrated Aps A depiction system
CN108348305A (zh) 2015-11-16 2018-07-31 思想外科有限公司 用于确认被追踪骨骼的配准的方法
WO2017115201A1 (en) * 2015-12-29 2017-07-06 Koninklijke Philips N.V. Registration system for medical navigation and method of operation thereof
US10257505B2 (en) * 2016-02-08 2019-04-09 Microsoft Technology Licensing, Llc Optimized object scanning using sensor fusion
CN106214256A (zh) * 2016-09-21 2016-12-14 华南理工大学 一种无标记点光学手术导航系统及其导航方法
CN109952070B (zh) 2016-10-05 2022-02-01 纽文思公司 手术导航系统及相关方法
US10806529B2 (en) * 2017-07-20 2020-10-20 Mako Surgical Corp. System and method for robotically assisting a surgical procedure
AU2020235100A1 (en) 2019-03-12 2021-09-30 Mako Surgical Corp. Systems and methods for robotic soft tissue evaluation
US11612440B2 (en) 2019-09-05 2023-03-28 Nuvasive, Inc. Surgical instrument tracking devices and related methods
CN110960321B (zh) * 2019-12-18 2021-07-02 苏州微创畅行机器人有限公司 注册靶标、注册方法、装置、电子设备和存储介质
CN111583314A (zh) * 2020-04-13 2020-08-25 艾瑞迈迪医疗科技(北京)有限公司 应用于手术导航系统中的同步配准框架获取方法及装置
CN112155732B (zh) * 2020-09-29 2022-05-17 苏州微创畅行机器人有限公司 可读存储介质、骨建模配准系统及骨科手术系统
WO2022094651A1 (en) * 2020-11-03 2022-05-12 Kico Knee Innovation Company Pty Limited Scanner for intraoperative application
US11430187B1 (en) * 2022-01-20 2022-08-30 Monsarrat, Inc. Enforcing virtual obstacles in a location-based experience
CN116725679A (zh) * 2022-08-12 2023-09-12 北京和华瑞博医疗科技有限公司 配准点确定以及配准方法、装置、设备、介质和程序产品

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006091494A1 (en) * 2005-02-22 2006-08-31 Mako Surgical Corp. Haptic guidance system and method
US20080208041A1 (en) * 2006-03-30 2008-08-28 Activiews Ltd. System and Method For Optical Position Measurement And Guidance Of A Rigid Or Semi-Flexible Tool To A Target
US20090068620A1 (en) * 2005-06-09 2009-03-12 Bruno Knobel System and method for the contactless determination and measurement of a spatial position and/or a spatial orientation of bodies, method for the calibration and testing , in particular, medical tools as well as patterns or structures on, in particular, medical tools
EP2436333A1 (en) * 2010-09-29 2012-04-04 Stryker Leibinger GmbH & Co. KG Surgical navigation system
US20120143049A1 (en) * 2009-08-20 2012-06-07 Timo Neubauer Integrated surgical device combining instrument, tracking system and navigation system
WO2012080840A1 (en) * 2010-12-17 2012-06-21 Avenir Medical Inc. Method and system for aligning a prosthesis during surgery

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6470207B1 (en) * 1999-03-23 2002-10-22 Surgical Navigation Technologies, Inc. Navigational guidance via computer-assisted fluoroscopic imaging
US6379302B1 (en) * 1999-10-28 2002-04-30 Surgical Navigation Technologies Inc. Navigation information overlay onto ultrasound imagery
US8010180B2 (en) * 2002-03-06 2011-08-30 Mako Surgical Corp. Haptic guidance system and method
US7206627B2 (en) 2002-03-06 2007-04-17 Z-Kat, Inc. System and method for intra-operative haptic planning of a medical procedure
EP1555963A4 (en) 2002-10-23 2008-12-31 Mako Surgical Corp MODULAR FEMORAL ELEMENT FOR REPLACING THE WHOLE KNEE JOINT BY MINIMALLY INVASIVE IMPLANTATION
US8290570B2 (en) 2004-09-10 2012-10-16 Stryker Leibinger Gmbh & Co., Kg System for ad hoc tracking of an object
US20060190086A1 (en) 2005-02-22 2006-08-24 Mako Surgical Corporation Knee implant
US20070239153A1 (en) * 2006-02-22 2007-10-11 Hodorek Robert A Computer assisted surgery system using alternative energy technology
JP2009529954A (ja) 2006-03-14 2009-08-27 マコ サージカル コーポレーション 補綴装置ならびに補綴装置を埋め込むためのシステムおよび方法
US20080231835A1 (en) 2007-03-23 2008-09-25 Keigo Iizuka Divergence ratio distance mapping camera
AU2007351804B2 (en) 2007-04-19 2013-09-05 Mako Surgical Corp. Implant planning using captured joint motion information
WO2009152055A2 (en) 2008-06-09 2009-12-17 Mako Surgical Corp. Self-detecting kinematic clamp assembly
US8249345B2 (en) 2008-06-27 2012-08-21 Mako Surgical Corp. Automatic image segmentation using contour propagation
US9364291B2 (en) 2008-12-11 2016-06-14 Mako Surgical Corp. Implant planning using areas representing cartilage
USD622854S1 (en) 2008-12-19 2010-08-31 Mako Surgical Corp. Patellofemoral implant
EP2379284B1 (en) 2008-12-23 2018-02-21 Mako Surgical Corp. Transmission with connection mechanism for varying tension force
USD616908S1 (en) 2009-01-30 2010-06-01 Mako Surgical Corp. Base
KR101609281B1 (ko) 2009-10-01 2016-04-05 마코 서지컬 코포레이션 도구, 다기능 도구용 부품들의 키트 및 다기능 도구용 로봇 시스템
CN102984998B (zh) * 2010-07-09 2018-04-27 美国医软科技公司 利用电子器官地图进行实时外科手术辅助的方法和系统
WO2012171555A1 (en) 2011-06-15 2012-12-20 Brainlab Ag Method and device for determining the mechanical axis of a bone
CN102440838A (zh) * 2011-09-05 2012-05-09 南京航空航天大学 用于实现小动物核磁共振图像和体内可见光三维图像融合的实验床
US9289264B2 (en) 2011-12-29 2016-03-22 Mako Surgical Corp. Systems and methods for guiding an instrument using haptic object with collapsing geometry
US9639156B2 (en) 2011-12-29 2017-05-02 Mako Surgical Corp. Systems and methods for selectively activating haptic guide zones
US9649195B2 (en) 2011-12-29 2017-05-16 Mako Surgical Corp. Femoral implant for preserving cruciate ligaments

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006091494A1 (en) * 2005-02-22 2006-08-31 Mako Surgical Corp. Haptic guidance system and method
US20090068620A1 (en) * 2005-06-09 2009-03-12 Bruno Knobel System and method for the contactless determination and measurement of a spatial position and/or a spatial orientation of bodies, method for the calibration and testing , in particular, medical tools as well as patterns or structures on, in particular, medical tools
US20080208041A1 (en) * 2006-03-30 2008-08-28 Activiews Ltd. System and Method For Optical Position Measurement And Guidance Of A Rigid Or Semi-Flexible Tool To A Target
US20120143049A1 (en) * 2009-08-20 2012-06-07 Timo Neubauer Integrated surgical device combining instrument, tracking system and navigation system
EP2436333A1 (en) * 2010-09-29 2012-04-04 Stryker Leibinger GmbH & Co. KG Surgical navigation system
WO2012080840A1 (en) * 2010-12-17 2012-06-21 Avenir Medical Inc. Method and system for aligning a prosthesis during surgery

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019534734A (ja) * 2016-09-22 2019-12-05 メドトロニック・ナビゲーション,インコーポレーテッド 誘導される処置システム
US11839433B2 (en) 2016-09-22 2023-12-12 Medtronic Navigation, Inc. System for guided procedures
US11944272B2 (en) 2017-12-07 2024-04-02 Medtronic Xomed, Inc. System and method for assisting visualization during a procedure
KR102115501B1 (ko) * 2018-12-04 2020-05-26 김정은 바디케어 모션 트래킹 장치 및 이를 이용한 바디케어 관리 방법
WO2020116808A1 (ko) * 2018-12-04 2020-06-11 (주)기림 바디케어 모션 트래킹 장치 및 이를 이용한 바디케어 관리 방법

Also Published As

Publication number Publication date
AU2013359335B2 (en) 2018-03-29
US20140171962A1 (en) 2014-06-19
US9192445B2 (en) 2015-11-24
CA2893800A1 (en) 2014-06-19
EP2931159A1 (en) 2015-10-21
AU2013359335A1 (en) 2014-06-19
WO2014093480A1 (en) 2014-06-19
CN104869934A (zh) 2015-08-26
CN104869934B (zh) 2017-11-07
EP2931159B1 (en) 2019-10-02

Similar Documents

Publication Publication Date Title
JP2016503676A (ja) 3次元トラッキングセンサを使用した位置決めおよびナビゲーション
US11844574B2 (en) Patient-specific preoperative planning simulation techniques
US11464574B2 (en) On-board tool tracking system and methods of computer assisted surgery
US10945795B2 (en) Method and system for computer assisted surgery
JP7233841B2 (ja) ロボット外科手術システムのロボットナビゲーション
CN109069208B (zh) 用于无线超声跟踪和通信的超宽带定位
US20150320514A1 (en) Surgical robots and control methods thereof
JP7399982B2 (ja) 手術中の3次元可視化
CN111227935A (zh) 一种手术机器人导航定位系统
US11911117B2 (en) On-board tool tracking system and methods of computer assisted surgery
JP2023530652A (ja) コンピュータ支援インターベンション用の空間認識ディスプレイ
JP7351915B2 (ja) ロボット装置のモーションプログラミング
JP2023548466A (ja) コンピュータ支援の手術における超音波ベースの複数の骨の位置決めの手術システム及び使用方法
JP2023520602A (ja) 二次元医用画像ベースの脊椎手術計画装置及び方法
CN114599301A (zh) 手术环境中的物体检测和避开
JP7414611B2 (ja) ロボット手術支援装置、処理方法、及びプログラム
US20230139425A1 (en) Systems and methods for optimizing configurations of a computer-assisted surgical system for reachability of target objects
KR20230135448A (ko) 관절 내부 뼈의 이동을 반영하는 관절경 네비게이션 장치 및 방법
CN113613538A (zh) 用于视图恢复的系统和方法
AU2022339494A1 (en) Using mixed-reality hardware for range of motion estimation during robot-assisted orthopedic surgery
Hong et al. Phantom experiment of an ear surgery robot for automatic mastoidectomy

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170816

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171114

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180213

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180723