JP2022516642A - 座標系とナビゲーションとの位置合わせのためのシステムおよび方法 - Google Patents
座標系とナビゲーションとの位置合わせのためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2022516642A JP2022516642A JP2021539426A JP2021539426A JP2022516642A JP 2022516642 A JP2022516642 A JP 2022516642A JP 2021539426 A JP2021539426 A JP 2021539426A JP 2021539426 A JP2021539426 A JP 2021539426A JP 2022516642 A JP2022516642 A JP 2022516642A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- navigation
- coordinate system
- space
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00681—Aspects not otherwise provided for
- A61B2017/00725—Calibration or performance testing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2059—Mechanical position encoders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2072—Reference field transducer attached to an instrument or patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3937—Visible markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3966—Radiopaque markers visible in an X-ray image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3983—Reference marker arrangements for use with image guided surgery
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Robotics (AREA)
- Pathology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Gynecology & Obstetrics (AREA)
- Radiology & Medical Imaging (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
被験体における処置の誘導および実施を補助するためのシステムが開示される。被験体は、非生命体および/または生命体などの任意の適切な被験体であり得る。ガイドおよびシステムは、ロボットシステムなどの様々な操作可能または可動部材を含み得、選択された座標系に位置合わせされ得る。【選択図】図1
Description
本開示は、一般に、追跡およびナビゲーションシステム関し、特に、座標系の位置合わせに関する。
本項は、必ずしも先行技術ではない本開示に関連する背景情報を提供する。
器械は、様々な処置を行うために、被験体に対して操縦され得る。例えば、被験体は、外科的処置が実施されている患者を含むことができる。外科的処置の間、器械は、オブジェクト空間または被験体空間内で追跡され得る。様々な実施形態では、被験体空間は、患者の近辺を画定した患者空間であり得る。追跡される器械の場所は、患者の画像に対して表示デバイス上に表示され得る。
患者の位置は、追跡システムを用いて特定され得る。一般に、患者に対して器械を追跡することによって患者を画像に位置合わせして、被験体空間またはオブジェクト空間(例えば、患者空間)と画像空間との並進マップを生成する。多くの場合、外科的処置中に、外科医などのユーザが、被験体空間内の1つ以上のポイントを識別し、画像空間内の大抵は同一のポイントを相関させるのに時間を必要とする。
位置合わせ後、器械の位置は、器械を追跡しながら、表示デバイス上に適切に表示され得る。被験体に対する器械の位置は、表示デバイス上にアイコンとも呼ばれるグラフィック表現として表示され得る。
本項は、本開示の一般的な概要を提供するものであり、本開示の全範囲またはすべての機能の包括的な開示ではない。
様々な実施形態によれば、基準オブジェクトは、撮像システムで撮像され得る。基準オブジェクトは、ロボットシステムなどの選択されたシステムに接続され得る。ロボットシステムは、Israelに事業所を有するMazor Robotics Ltdおよび/またはMinnesota,USAに事業所を有するMedtronic,Incによって販売されるMazorX(商標)Robotic Guidance System等の適切なロボットシステムを含んでよい。基準オブジェクトは、離散オブジェクトのアレイなどの1つ以上のオブジェクトを含み得る。離散オブジェクトは、球体、様々な形状のオブジェクト、すべてが1つの平面内にあるか、または1つの平面と交差することができる連続したおよび/または1つ以上のロッドを含み得る。基準オブジェクトは、3Dモデルとして3次元(3D)空間においてモデル化され得る。基準特徴は、3Dモデルから抽出され得る。基準特徴は、撮像された基準オブジェクトまたはその一部である画像基準特徴と比較することができ、またはそれらと協調することができる(例えば、画像基準特徴は、球の中心または円に関連するポイント、またはロッドと平面との交点に関連するポイントであり得る)。
様々な実施形態では、被験体に関連して使用される異なるシステムは、異なる座標系(例えば、位置決めシステム)を含み得る。例えば、ロボットシステムは、ロボット座標系を含む被験体に対して移動され得る。ロボットは、被験体に対して、ある位置に、取り外し可能に固定されることを含み、固定され得る。したがって、ロボットの基部(すなわち、ロボットの固定部分)に対してロボットの一部が移動することは、ロボットの様々な特徴により認識され得る。例えば、エンコーダ(例えば、光学エンコーダ、ポテンショメータエンコーダなど)を使用して、ロボットの様々な関節(例えば、ピボット)の移動または移動量を特定し得る。ロボットのエンドエフェクタ(例えば、終端)の位置は、ロボットの基部に対して認識され得る。基部に対して被験体の位置が認識され、基部および被験体の相対位置が不動である場合、ロボットの移動中および/またはエンドエフェクタの静止期間中に、被験体に対してエンドエフェクタの位置は認識され得る。したがって、ロボットは、被験体に対して座標系を画定し得る。
様々な他の部分もまた、被験体に対して追跡され得る。例えば、追跡システムは、被験体に対して追跡され得る1つ以上の器械を含むナビゲーションシステムに組み込まれ得る。このナビゲーションシステムは、器械に関連付けられた、追跡デバイスなどの様々な部分を追跡する1つ以上の追跡システムを含み得る。この追跡システムは、ナビゲーションシステム座標系において追跡デバイスの位置を特定するように構成されているローカライザを含み得る。ナビゲーションシステム座標系の特定は、米国特許第8,737,708号、米国特許第9,737,235号、米国特許第8,503,745号、および米国特許第8,175,681号を含む様々な参考文献に記載されているものを含み得、これらはすべて参照により本明細書に組み込まれる。特に、ローカライザは、被験体に対してボリューム内のオブジェクトを追跡することが可能であり得る。デバイスがその中で追跡され得るナビゲーションボリュームは、ナビゲーション座標系またはナビゲーション空間を含み得るか、またはナビゲーション空間と呼ばれ得る。2つの座標系間の特定または相関は、2つの座標系間の位置合わせを可能にするか、またはそれと呼ばれ得る。
様々な実施形態では、ロボット座標系であり得る第1の座標系は、ナビゲーション座標系であり得る第2の座標系に位置合わせされ得る。したがって、1つの座標系における座標は、次いで、位置合わせにより異なる座標系または第2の座標系に並進され得る。位置合わせは、2つの座標系の使用および/または2つの座標系間の切り替えを可能にし得る。例えば、処置の間、第1の座標系は、処置の第1の部分または選択された部分のために使用され得、第2の座標系は、処置の第2の部分の間に使用され得る。さらに、2つの座標系を使用して、追加情報の検証および/または収集のためなどの処置の単一部分を実行または追跡し得る。
さらに、画像は被験体の選択された部分から取得され得る。この画像は、外科医などのユーザによる視認のために表示され得る。この画像は、器械などの追跡された部分または部材のグラフィック表現を画像の一部に重畳され得る。様々な実施形態によれば、グラフィック表現は、画像空間(画像座標系とも呼ばれる)を被験体空間に位置合わせすることにより、適切な位置で画像に重畳され得る。被験体の近辺を画定した被験体空間を画像空間に位置合わせする方法は、米国特許第8,737,708号、米国特許第9,737,235号、米国特許第8,503,745号、および米国特許第8,175,681号に開示されているものを含み得、これらはすべて参照により本明細書に組み込まれる。
選択された処置の間、第1の座標系は、被験体の撮像などの選択された処置により、被験体空間または被験体座標系に位置合わせされ得る。様々な実施形態では、第1の座標系は、ロボットシステムなどの第1の部材またはシステムに対して固定された基準部分を用いて被験体を撮像することによって、被験体に位置合わせされ得る。ロボットシステムに対する基準の認識された位置を使用して、被験体の画像が基準部分を含むことにより、ロボットシステムに対して被験体空間を位置合わせし得る。したがって、エンドエフェクタなどのロボットシステムまたはその一部分の位置は、被験体に対して認識されるか、または特定され得る。第2の座標系をロボット座標系に位置合わせすることにより、ロボットによって特定または追跡された位置に対してロボットに固定されていない追加の要素を追跡することを可能にし得る。
外科的処置または手術処置などの処置中の器械の追跡は、処置の操縦を可能にする。画像データを使用して画像空間を画定する場合、画像データは、患者などの被験体の近辺を画定した物理空間と相関または位置合わせされ得る。したがって、様々な実施形態によれば、患者は、器械が追跡および操縦され得る患者空間を画定する。画像データによって画定される画像空間は、患者の近辺を画定した患者空間に位置合わせされ得る。この位置合わせは、画像データおよび患者空間において識別され得る基準を使用して行うことができる。
適用可能なさらなる領域は、本明細書で提供される説明から明らかになるであろう。本要約における説明および特定の例は、例示のみを目的とするものであり、本開示の範囲を限定することを意図するものではない。
本明細書に記載の図面は、選択された実施形態の例示のみを目的としており、すべての可能な実装を示すものではなく、本開示の範囲を限定することを意図するものではない。
対応する参照番号は、図面のいくつかの図にわたって対応する部品を示す。
ここで、例示的な実施形態を、添付の図面を参照してより完全に説明する。
本開示は、ヒト患者などの被験体における外科的処置の例示的な実施形態を対象とする。ただし、本明細書で説明されるシステムおよび方法は、単に例示であり、本明細書に含まれる請求項の範囲を限定することを意図するものではないことを理解されたい。様々な実施形態では、システムおよび方法が、非生命体に組み込まれ、および/またはその上で使用され得ることを理解されたい。本システムは、例えば、製造システム、保守システムなどで使用するために、2つのシステム間の座標系を位置合わせするために使用され得る。例えば、自動車組立体は、協調または連携動作のために一緒に位置合わせされ得る個々の座標系を含む1つ以上のロボットシステムを使用し得る。したがって、本明細書における外科的処置の例示的な図示は、添付の特許請求の範囲を限定することを意図するものではない。
本明細書では、様々な実施形態に従って、様々な座標系間の位置合わせを可能にするためのプロセスおよびシステムが説明される。様々な実施形態では、ロボットまたは第1の座標系は、画像座標系または空間に位置合わせされ得る。ナビゲーション空間またはナビゲーション座標系は、次いで、ロボット座標系または第1の座標系に位置合わせされ得、したがって、画像空間に別個にまたは独立して位置合わせされることなく、画像座標系に位置合わせされ得る。同様に、ナビゲーション空間またはナビゲーション座標系は、画像座標系または画像空間に直接または独立して位置合わせされ得る。ロボット座標系または第1の座標系は、次いで、ナビゲーション空間に位置合わせされ得、したがって、画像空間に別個にまたは独立して位置合わせされることなく、画像座標系または画像空間に位置合わせされ得る。
図1は、処置室または処置場の概要を示す概略図である。様々な実施形態では、処置室は、様々な処置に使用され得るロボットシステム20およびナビゲーションシステム26が配置され得る外科用部屋を含み得る。ロボットシステム20は、Medtronic,Incによって販売されるMazorX(商標)ロボット誘導システムを含んでよい。ロボットシステム20は、被験体30に対して、ドリル、ネジなどの選択された器械を誘導することを補助するために使用され得る。ロボットシステム20は、被験体30に対してロボット基部38などの一部を固定する取付台34を含み得る。ロボットシステム20は、エンドエフェクタ44を含むなど、被験体30に対して可動または枢動可能な1つ以上のアーム40を含み得る。エンドエフェクタは、チューブ、ガイド、または通路部材などの任意の適切な部分であり得る。エンドエフェクタ44は、1つ以上のモータを用いて基部38に対して移動され得る。エンドエフェクタ44の位置は、ロボットシステム20の手首関節48および/または肘関節52などの1つ以上の関節に1つ以上のエンコーダを有する基部38に対して認識されるか、または特定され得る。
ナビゲーションシステム26は、1つ以上の追跡デバイスの場所を追跡するために使用され得、追跡デバイスは、ロボット追跡デバイス54、被験体物追跡デバイス58、撮像システム追跡デバイス62、および/またはツール追跡デバイス66を含み得る。ツール68は、ドリル、鉗子、またはユーザ72によって作動される他のツールなどの任意の適切なツールであり得る。ツール68はまた、脊椎インプラントまたは整形外科用インプラントなどのインプラントを含み得る。ナビゲーションシステム26は、ガイドワイヤ、関節鏡システム、整形外科用インプラント、脊椎インプラント、脳深部刺激(DBS)プローブなどを含む、任意のタイプの器械、インプラント、または送達システムを操縦するために使用され得ることにさらに留意されたい。さらに、器械を使用して、身体の任意の領域を操縦またはマッピングし得る。ナビゲーションシステム26および様々な器械は、概して低侵襲的である処置または開放的処置などの任意の適切な処置で使用され得る。
撮像デバイス80を使用して、被験体30などの被験体の術前、術中、または術後またはリアルタイム画像データを取得し得る。ただし、任意の適切な被験体が撮像され得、任意の適切な処置が被験体に対して実行され得ることが理解されよう。図示された実施例では、撮像デバイス80は、Louiville,Colorado,USAに事業所を有するMedtronicNavigation,Incによって販売されているO-arm(登録商標)撮像デバイスを含む。この撮像デバイス80は、画像取込部分が可動に配置された、概して環状のガントリー筐体82を有し得る。画像取込部分は、一般的にまたは実質的に可能な限り互いに180度に位置し、トラックまたはレールに対して回転体に取り付けられたX線源または発光部、およびX線受信部または画像受信部を含み得る。画像取込部分は、画像取得中に360度回転するように動作可能であり得る。画像取込部分は、中心点または軸を中心に回転し得、被験体80の画像データが複数の方向または複数の平面から取得されることを可能にする。撮像デバイス80は、米国特許第7,188,998号、同第7,108,421号、同第7,106,825号、同第7,001,045号、および同第6,940,941号に開示されているものを含むことができ、これらのすべては、参照により、またはその任意の適切な部分が本明細書に組み込まれる。一実施例において、撮像デバイス80は、1,720×1,024ピクセルの視野領域を有する平板技術を利用することができる。
撮像デバイス80、および/または画像取込部分などのその中の部分の位置は、撮像デバイス80の任意の他の部分に対して正確に認識され得る。撮像デバイス80は、様々な実施形態によれば、固定座標系または選択座標系に対する正確な座標を認識し、想起することができる。これにより、撮像システム80は、患者30または他の基準に対してその位置を認識することができる。加えて、本明細書で説明されるように、画像取込部分の位置の正確な認識は、追跡システムと併せて使用されて、患者30などの追跡される被験体に対する画像取込部分の位置および画像データを特定することができる。
撮像システム80はまた、追跡デバイス62を用いて追跡され得る。様々な実施形態によれば、患者30から取得された画像空間を画定する画像データは、オブジェクト空間に対して本質的にまたは自動的に位置合わせされ得る。オブジェクト空間は、ナビゲーションシステム26内の患者30の近辺を画定した空間であり得る。自動位置合わせは、撮像デバイス80上の追跡デバイス62および/または画像取込部分の特定可能な正確な場所に含むことによって達成され得る。様々な実施形態によれば、本明細書で説明するように、撮像可能な部分、仮想基準ポイント、および他の特徴を使用して、自動またはそれ他の方法で、位置合わせを可能にすることができる。ただし、画像データは、被験体空間を画定する任意の被験体から取得され得ることが理解されよう。患者空間は、例示的な被験体空間である。位置合わせは、患者空間と画像空間との並進を可能にする。
患者80はまた、患者が患者追跡デバイス、DRF、またはトラッカー58とともに移動するときに追跡され得る。代替的に、またはそれに加えて、患者30を、ナビゲーションシステム26によって画定されたナビゲーション空間内に固定して、位置合わせを可能し得る。本明細書でさらに説明されるように、画像空間を患者空間または被験体空間に位置合わせすることは、画像データを用いて器械68を操縦することを可能にする。器械68を操縦するときは、器械68の位置が、表示デバイス84上で患者30から取得された画像データに対して示され得る。光学ローカライザ88または電磁(EM)ローカライザ92を含むものなどの様々な追跡システムを使用して、器械68を追跡することができる。
2つ以上の追跡システムを使用して、ナビゲーションシステム26において器械68を追跡することができる。様々な実施形態によれば、これらは、EMローカライザ94を有する電磁(EM)追跡システム、および/または光学ローカライザ88を有する光学追跡システムを含むことができる。本明細書で説明されるように、追跡システムのいずれかまたは両方を使用して、選択された追跡デバイスを追跡することができる。別様に説明されない限り、追跡デバイスは、選択された追跡システムで追跡可能な部分であり得ることが理解されるであろう。追跡デバイスは、追跡デバイスが付随または関連付けられている部材または構造全体を指す必要はない。
撮像デバイス80は、O-arm(登録商標)撮像デバイス以外の撮像デバイスであってもよく、蛍光透視Cアームに加えてまたは代替的に含み得ることをさらに理解されたい。他の例示的な撮像デバイスは、バイプレーン蛍光透視システム、天井搭載蛍光透視システム、カテーテルラボ蛍光透視システム、固定Cアーム蛍光透視システム、アイソセントリックCアーム蛍光透視システム、3D蛍光透視システムなどの蛍光透視デバイスを含み得る。他の適切な撮像デバイスには、MRI、CT、超音波なども含まれ得る。
様々な実施形態では、撮像デバイスコントローラ96は、撮像デバイス80を制御し得、画像取込部分で生成された画像データを受信し、後で使用するためにその画像を記憶することができる。このコントローラ96は、撮像デバイス80の画像取込部分の回転を制御することもできる。コントローラ96がガントリーハウジング82と一体である必要はなく、別体であってもよいことが理解されるであろう。例えば、コントローラは、処理ユニットまたは処理部分102を含む処理および/または制御システム98を含み得るナビゲーションシステム26の一部分であってもよい。ただし、コントローラ96は、ガントリー82と一体であってもよく、ポータブルコンピュータ内のものなどの第2の別個のプロセッサを含み得る。
患者30は、手術台104上に固定され得る。一実施例によれば、手術台104は、Tokyo,Japanに事業所を有するMizuho Ikakogyo Co.,Ltdの子会社であるOSI、またはCalifornia,USAに事業所を有するMizuho Orthopedic Systems,Incが販売するAxisJackson(登録商標)手術台であり得る。患者位置決めデバイスは手術台とともに使用することができ、Mayfield(登録商標)クランプまたは同一出願人による、2003年4月1日に出願された「An Integrated Electromagnetic Navigation and Patient Positioning Device」と題する米国特許出願第10/405,068号に記載されているものを含み、これは参照により本明細書に組み込まれる。
撮像デバイス80に対する患者30の位置は、ナビゲーションシステム26によって特定され得る。追跡デバイス62を使用して、撮像デバイス80の少なくとも一部分、例えば、ガントリーまたはハウジング82を追跡および位置を特定することができる。患者30は、本明細書でさらに説明されるように、動的基準フレーム58を用いて追跡され得る。したがって、撮像デバイス80に対する患者30の位置は特定され得る。さらに、撮像部分の場所は、ハウジング82内のレール上のその正確な位置、実質的に不柔軟な回転体等により、ハウジング82に対して特定され得る。撮像デバイス80は、例えば、撮像デバイス80が、Louiville,Coloradoに事業所を有するMedtronicNavigation,Incによって販売されているO-Arm(登録商標)撮像デバイスである場合、10ミクロン以内の精度を含むことができる。画像取込部分の正確な位置決めは、米国特許第7,188,998号、同第7,108,421号、同第7,106,825号、同第7,001,045号、および同第6,940,941号にさらに記載されており、これらのすべては参照により本明細書に組み込まれる。
様々な実施形態によれば、撮像デバイス80は、X線源からX線を生成および/または放出することができ、X線は、患者30を通って伝播し、X線撮像受信部分によって受光される。画像取込部分は、受光したX線の強度を表す画像データを生成する。一般的には、画像取込部分は、最初にX線を可視光に変換する画像増幅器、および可視光をデジタル画像データに変換するカメラ(例えば、電荷結合デバイス)を含むことができる。また、画像取込部分は、画像を形成するためにX線をデジタル画像データに直接変換するデジタルデバイスであってもよく、したがって、最初に可視光に変換することによってもたらされる歪みを潜在的に回避する。
撮像デバイス80によって撮影され得る2次元および/または3次元透視画像データは、撮像デバイスコントローラ96において取り込まれ記憶され得る。撮像デバイス80によって撮影された複数の画像データは、患者30の領域の一部分のみに向けられるのではなく、患者30の領域全体のより大きな視野または画像を提供するように取り込まれ、組み立てられ得る。例えば、患者の30の脊椎の複数の画像データを一緒に追加して、脊椎の完全な視野または画像データの一式を提供し得る。
画像データは、次いで、画像デバイスコントローラ96から、ディスプレイ84およびユーザインターフェース106を有するコントローラまたはワークステーション98の一部であり得るナビゲーションコンピュータおよび/またはプロセッサシステム102に転送され得る。また、画像データは、必ずしも最初にコントローラ96に保持される必要はなく、ワークステーション98に直接送信され得ることが理解されるであろう。ワークステーション98は、画像データを画像108としてディスプレイ84上に表示し、受信した画像データのハードコピー画像を保存する、デジタル操作する、または印刷する機能を提供することができる。キーボード、マウス、タッチペン、タッチスクリーン、または他の好適なデバイスであり得るユーザインターフェース106は、ユーザ72が、画像デバイスコントローラ96を介して撮像デバイス80を制御する、またはディスプレイ84の表示設定を調整するための入力を提供することを可能にする。ワークステーション98はまた、代表的な2次元および3次元画像データを生成するために、撮像デバイス80の画像取込部分を調整して、異なる平面に沿った様々な2次元画像を取得するように画像デバイスコントローラ96に指示し得る。
図1を引き続き参照すると、ナビゲーションシステム26は、電磁(EM)ローカライザ94および/または光学ローカライザ88のいずれかまたは両方を含む追跡システムをさらに含むことができる。追跡システムは、コントローラおよびインターフェース部分110を含み得る。このコントローラ110は、プロセッサ部分102に接続され得、このプロセッサ部分は、コンピュータ内に含まれるプロセッサを含むことができる。EM追跡システムは、Louisville,Coloradoに事業所を有するMedtronic Navigation,Incによって販売されているSTEALTHSTATION(登録商標)AXIEM(商標)Navigation Systemを含んでもよく、または2004年9月15日に出願され、「METHOD AND APPARATUS FOR SURGICAL NAVIGATION」と題する米国特許出願第10/941,782号、1999年6月22日に発行された「Position Location System」と題する米国特許第5,913,820号、および1997年1月14日に発行された「Method and System for Navigating a Catheter Probe」と題する米国特許第5,592,939号に記載されているEM追跡システムであってもよく、これらのすべては、参照により本明細書に組み込まれる。ナビゲーションシステム26はまた、光学ローカライザ88として使用され得、Louisville,ColoradoのMedtronic Navigation,Incによって販売される、光学ローカライザを有するSTEALTHSTATION(登録商標)TREON(登録商標)またはS7(商標)追跡システムを含む、任意の適切な追跡システムであるか、またはそれを含み得ることが理解されるであろう。他の追跡システムは、音響、放射線、レーダーなどを含む。追跡システムは、一般に知られている、または上記に組み込まれた参考文献において記載されている技術に従って使用され得る。本開示の選択された動作を明確にする場合を除き、詳細は本明細書には含まれない。
有線接続または物理接続は、追跡システム、撮像デバイス80などを相互接続することができる。代替的に、器械68などの様々な部分は、コントローラ110に直接結合されるのとは対照的に、参照により本明細書に組み込まれる、2002年11月5日に発行された「Surgical Communication Power System」と題する米国特許第6,474,341号に開示されるものなどの無線通信チャネルを採用してもよい。また、追跡デバイス62、66、54は、ローカライザ88、94によって検知されるフィールドおよび/または信号を生成することができる。
器械68などのナビゲーションシステム26の様々な部分、および以下に詳細に説明する他の部分は、少なくとも1つの、一般的には複数の追跡デバイス66を装備することができる。この器械はまた、EM追跡デバイスおよび/または光学追跡デバイスなど、2つ以上の種類または様式の追跡デバイス66を含むことができる。器械68は、近位端に把持可能または操作可能な部分を含むことができ、追跡デバイスは、器械68の操作可能な部分の近くに固定され得る。
追加の代表的または代替的な位置特定および追跡システムは、1999年11月9日に発行された「Catheter Location System and Method」と題する米国特許第5,983,126号に記載されており、これは参照により本明細書に組み込まれる。ナビゲーションシステム26は、様々な追跡システムからの構成要素を含むハイブリッドシステムであってもよい。
様々な実施形態によれば、ナビゲーションシステム26を使用して、患者30に対して器械68を追跡することができる。器械68は、上述のように、追跡システムを用いて追跡され得る。患者30または適切な被験体の画像データを使用して、機器68を誘導する際にユーザ72を支援することができる。ただし、画像データは患者30に位置合わせされる。画像データは、患者30の近辺を画定した患者空間に位置合わせされる画像空間を画定する。位置合わせは、本明細書で説明されるように、自動的に、手動で、またはそれらの組み合わせで実行され得る。
一般に、位置合わせは、画像データの画像空間に対して器械68の物理的場所の並進マップを生成することを可能にする。並進マップは、画像108に対して、器械68の追跡された位置が、表示デバイス84上に表示されることを可能にする。アイコンとも呼ばれるグラフィック表現68iを使用して、画像データ108に対して器械68の場所を示すことができる。
図1を引き続き参照し、図2および図3をさらに参照すると、被験体位置合わせのシステムまたは方法は、追跡デバイス58を使用することができる。追跡デバイス58は、追跡可能であり得るが、基準組立体としても機能し得るか、またはそれとして動作可能であり得る部分または部材120を含み得る。基準組立体120は、クランプまたは他の固定部分124および撮像可能な基準本体120を含むことができる。ただし、部材120は、追跡デバイス58から分離され得ることが理解されよう。固定部分124を提供して、解剖学的構造の一部分などの任意の適切な部分を固定し得る。図1および図2に示されるように、基準組立体120は、棘突起130などの脊椎126の一部分と相互接続され得る。
固定部分124は、任意の適切な様式で棘突起130と相互接続され得る。例えば、ピンまたはネジを、棘突起130に打ち込み得る。代替的にまたはそれに加えて、クランプ部分124を提供して棘突起130を相互接続し得る。基準部分120は、撮像デバイス80を用いて撮像され得る。ただし、被験体の様々な部分(棘突起など)も基準部分として使用され得ることを理解されたい。
様々な実施形態では、基準部分120が撮像デバイス80で撮像されると、基準部分120を含むか、またはそれを識別する画像データが生成される。基準部分120は、画像データにおいて自動的に(例えば、プログラムを実行するプロセッサを用いて)、手動で(例えば、ユーザ72による識別の選択によって)、またはそれらの組み合わせで(例えば、シードポイントのユーザ72による識別の選択、およびプロセッサがプログラムを実行することによるセグメント化によって)識別され得る。自動撮像可能部分識別の方法は、2012年4月3日に発行された米国特許第8,150,494号に開示されているものを含み、これは参照により本明細書に組み込まれる。手動識別は、撮像可能部分が撮像された画像データにおいて要素(例えば、ピクセル)または領域を選択することを含むことができる。いずれにせよ、画像データにおいて識別される基準部分120は、画像データまたは画像データの画像空間を患者空間に位置合わせするために使用され得る基準ポイントまたは基準位置として使用され得る。
様々な実施形態では、画像空間または画像座標系を、ナビゲーション空間などの別の空間または座標系に位置合わせするために、画像108において識別される基準部分120は、適切な方法で、被験体30の近辺を画定した被験体空間において識別され得る。例えば、ユーザ72は、画像データを取得して画像108を生成する間に、基準部分が同一の位置において被験体30に取り付けられている場合、被験体30に対して器械68を移動させて、基準部分120に接触し得る。様々な実施形態において上述したように、基準部分120は、被験体30に取り付けられてもよく、および/または被験体30の解剖学的部分を含んでもよいことが理解されよう。追加的に、追跡デバイスは、基準部分120に組み込まれてもよく、それらは、画像が取得された後に被験体30とともに維持されてもよい。この場合、被験体空間において基準部分120の位置合わせまたは識別が行われ得る。なお、様々な実施形態によれば、ユーザ72は、器械68を移動させて、基準部分120に接触し得る。光学ローカライザ88などを備える追跡システムは、それに取り付けられた追跡デバイス66により、器械68の位置を追跡し得る。これにより、ユーザ72は、画像108において識別される基準部分120の場所をナビゲーション空間において識別することを可能にする。被験体空間を含み得るナビゲーション空間において基準部分120の位置を識別した後、並進マップは、ナビゲーション空間において被験体30近辺を画定した被験体空間と、画像108によって画定された画像空間との間に作成され得る。したがって、識別されたまたは認識された場所は、本明細書でさらに説明されるように、位置合わせを可能にする。
位置合わせの間、並進マップは、画像108などの画像データの画像データ座標系と、患者30の近辺を画定した患者空間との間で特定される。位置合わせが行われると、器械68は、画像データに位置合わせされた追跡システムを用いて追跡され、追跡される器械68の位置を、画像データ上に重畳されたアイコンとして識別および図示することを可能にすることができる。画像108(または任意の選択された画像データ)の被験体30への位置合わせは、任意の適切な時点で行われ得る。
画像空間を患者空間に位置合わせした後、器械68は、画像108に対して追跡され得る。図1に示されるように、器械68の位置(6自由度の位置(3D場所および向きを含む)を含み得る)を表すアイコン68iは、ディスプレイ84上の画像108に対して表示され得る。画像空間を患者空間に位置合わせすることにより、画像108に対するアイコン68iの位置は、患者空間における患者30に対する器械68の場所を実質的に識別または模倣することができる。上述のように、これは、操縦された処置を行うことを可能にすることができる。
ロボットシステム座標系を有するロボットシステム20は、本明細書で説明されるように、基準追跡デバイス54(例えば、ロボットシステム20上またはロボットシステム20に対して認識された位置に固定された)により、および/またはスナップショット追跡デバイス160の追跡により、ナビゲーション空間座標系に位置合わせされ得る。スナップショット追跡デバイス160は、ローカライザ88または任意の適切なローカライザ(例えば、光学、EM、レーダー)を用いて追跡され得る1つ以上の追跡可能な部分164を含み得る。ただし、任意の適切な追跡システムを使用して、スナップショット追跡デバイス160を追跡することが理解されよう。固定基準追跡デバイスはまた、ナビゲーション空間内に位置付けられ得る。固定ナビゲーショントラッカーは、患者30に接続され得る患者トラッカー58、および/またはロボットシステム20の基部34に固定され得るロボットトラッカー54を含み得る。したがって、基準トラッカーは、位置合わせ期間中にナビゲーション座標空間内に場所するスナップショットトラッカー160に対して位置決めされる任意の適切なトラッカーであり得る。本明細書における説明のために、ロボットトラッカー54が参照されるが、患者トラッカー58もまた、基準トラッカーとして使用され得る。さらに、基準トラッカーは、スナップショットトラッカー160が基準トラッカーに対して追跡され得る限り、スナップショットトラッカー160に対して任意の位置で座標系内に位置付けられ得る。
様々な実施形態では、スナップショットトラッカー160は、エンドエフェクタ44に対して認識された位置に位置決めされ得る。例えば、図3に示されるように、追跡可能部分164を含むスナップショットトラッカー160は、ロッドまたは接続部材168から延在する。接続部材168は、エンドエフェクタ44のスロット174に係合し得る突出部172などの鍵付き部分を含み得る。エンドエフェクタ44は、コネクタ168を係合し得るカニューレまたは通路176を形成または画定し得る。コネクタ168は、エンドエフェクタ44の通路176内に位置付けられ得る。次いで、コネクタ168は、止めネジまたはクランプ部材180などの、エンドエフェクタ44の止めネジまたはクランプを含む固定部材などを用いて、エンドエフェクタ44に固定され得る。突出部172は、スロット174内で係合して、スナップショットトラッカー160をエンドエフェクタ44に対して回転可能に固定し得る。通路176内に位置決めされ、止めネジ180で所定の位置に係止されたコネクタ168は、次いで、エンドエフェクタ44に対してスナップショット追跡デバイス160を強固に固定し得る。したがって、エンドエフェクタ44に対するスナップショットトラッカー160の位置は固定され得る。
次いで、ローカライザ88は、基準追跡デバイス54および/または基準追跡デバイス58に対してスナップショット追跡デバイス160の位置を表示または特定し得る。ローカライザ88が、ナビゲーション空間を画定するか、またはナビゲーション空間を画定するために使用され得るとき、基準フレーム54に対してスナップショットローカライザ160の位置を特定または追跡することは、ナビゲーション空間内の位置とエンドエフェクタ44のロボット空間との関係を特定するために使用され得る。
したがって、図3を引き続き参照すると、ローカライザ88によって画定されるナビゲーション空間は、被験体トラッカー58などの被験体に対する部分、および器械68などのナビゲーション空間170の中で移動され得る他の部分を含み得る完全なナビゲーション空間170を含み得る。ロボット位置合わせ空間はより小さくてもよく、基準フレーム54およびスナップショットトラッカー160を含み得るロボット位置合わせ空間174を含み得る。ただし、上述したように、ロボット位置合わせナビゲーション空間は、位置合わせのためのスナップショットトラッカー160および患者トラッカー58を含み得る。したがって、例示的な位置合わせナビゲーション空間174は、単に現在の説明のためのものである。本明細書で説明するように、ロボット基準トラッカー54と患者トラッカー58の両方を同時に使用する必要はない。これは、患者30が、ロボットシステム20に対して固定されるなどの空間に固定される場合に特に当てはまる。
図2および図3を引き続き参照し、図4~図8をさらに参照すると、ロボットシステム20のロボット座標系をナビゲーションシステム26のナビゲーション空間またはナビゲーション座標系に調整または位置合わせするプロセスまたは方法が説明される。位置合わせは、本明細書で説明されるように、様々な部分または下位部分を含み得る。様々な部分は、任意の適切な順序で生じてもよく、本明細書で説明される順序は、単なる例示である。共位置合わせは、さらに、ロボットまたはナビゲーションの一方の座標系のみが、画像座標系などの第3の座標系に位置合わせされることを可能にし得るが、他方の座標系が第3の座標系に位置合わせされることを可能にし得る。
上述したように、ロボットシステム20は、処置の様々な部分のために、被験体30に対して位置決めされる。様々な実施形態では、ロボットシステム20は、被験体30および被験体30の画像108に位置合わせされ得、これは、表示デバイス84および/またはロボットシステム20に対して可動であり得る第2または補助表示デバイス84’上に表示され得る。撮像システム80または任意の適切な撮像システムを使用して、被験体30を撮像し得る。画像は、椎骨126のうちの1つ以上、およびロボットシステム20に固定され得る基準またはロボット基準アレイ140など、被験体の一部を含み得る。ロボット基準140は、基部34および/または固定部分38など、ロボットシステム20の選択された部分に固定され得る。ロボット基準140はまた、および/または代替的に、エンドエフェクタ44に接続されてもよい(図2の仮想線で示されている)。ロボット基準140は、基準140が画像において明白であるように、画像を取得するために被験体30に対して位置決めされ得る。ロボット基準140、および椎骨126などの被験体30の部分の画像を取得すると、椎骨126に対するロボット基準140の位置が特定され得る。ロボット基準140がロボットシステム20に固定される場合、ロボット座標系は、被験体空間座標系に対して特定され得る。様々な実施形態では、基準140がエンドエフェクタ44に接続される場合、ロボット座標系におけるエンドエフェクタの認識された位置は、画像をロボットシステム20のロボット座標系に位置合わせすることを可能にする。図2を引き続き参照し、図4をさらに参照すると、ロボット座標系は、説明したように、方法182において、被験体空間または被験体座標系に位置合わせされ得る。
一般に、位置合わせは、ブロック184において、被験体空間に対してロボットシステム20を位置決めすることを含み得る。被験体空間に対してロボットシステム20を位置決めすることは、図2に示されるように、被験体に対してロボットシステム30を位置決めすることを含み得る。さらに、ロボットシステム20を位置決めすることは、被験体30に対してロボット基準140を位置決めする、または取り外し可能に位置決めすることを含み得る。このロボット基準140は、様々な処置のためにロボットシステム20に対して位置に取り外し可能に配置され得、別の処置または後続の処置のために実質的に同一の位置に位置決めされ得る。被験体30がロボットシステム20に対して位置決めされた状態で、ブロック186において、撮像システム80を用いて、被験体30およびロボット基準140から基準画像が取得され得る。ブロック186において基準画像を取得することは、椎骨126および基準140などを用いて、被験体30から画像データが取得されることを可能にする。
ブロック188において、ブロック186においてロボット基準画像を取得した後、取得された基準画像においてロボット基準140の識別が行われる。ロボット基準画像においてロボット基準を識別することは、手動、自動、または自動と手動との組み合わせで行われてもよい。例えば、ユーザは、画像においてロボット基準を識別し得、選択された自動システムが、基準画像から基準をセグメント化し得るか、またはユーザが、1つのシードピクセルもしくはボクセルまたは複数のシードピクセルもしくはボクセルを識別し得、プロセッサシステムは、さらに、基準システムをセグメント化し得る。
様々な実施形態では、ブロック186において取得された画像は、処置を計画および/または実行するために使用され得る。例えば、撮像システム80は、選択された処置に十分な画像データを取得し得る。したがって、ブロック186において取得された画像は、被験体30に対して選択された処置を計画し操縦するために使用され得る。画像データは、2次元画像データ、再構築された3次元画像データ、および/または(2Dまたは3Dで取得され得る)被験体の動きを示すために経時的に取得された画像データを含み得る。
ただし、様々な実施形態では、ブロック186において取得された基準画像は、ブロック190において、被験体30のMRIまたはコンピュータ断層撮影走査など、ブロック186において基準画像を取得することに先立った他の時間または事前に取得された画像に任意選択的に位置合わせされ得る。ブロック186において、事前取得された画像は、基準画像を取得することに先立った任意の適切な時点で取得され得る。ただし、その画像は、基準画像の後に取得されてもよく、本明細書で説明されるものと同様の様式で基準画像に位置合わせされ得ることが理解されよう。基準画像を事前に取得された画像に位置合わせすることは、選択された椎骨のセグメント化、画像において選択された基準要素(例えば、解剖学的基準部分および/または位置決めまたは移植された基準部材)の位置合わせにおける識別、または他の適切な処置などの、任意の適切な様式で行われ得る。一般に、MazorX(登録商標)ロボットシステムは、概して、事前取得画像の基準画像への位置合わせを可能にし得、ブロック190において事前取得画像を基準画像に位置合わせする際の事前取得画像に、ブロック186における基準画像を位置合わせするのに適切であり得る。
ブロック188では画像において基準を識別し位置合わせするとともに、ブロック192ではロボット座標系を被験体空間に位置合わせし得る。ブロック186において基準画像で撮像されたロボット基準140は、基部34などのロボットシステム20に対して認識された位置において、および/またはロボット座標系において認識されたエンドエフェクタ44の位置を用いて、位置決めされる。基部34および/または固定部分38に対してロボットシステム20によって画定されるロボット座標系は、したがって、ロボット基準140がロボットシステム20に対して固定されているため、ロボット基準140に対して事前に特定され得るか、または認識され得る。エンドエフェクタ44を用いて位置決めする場合は、ロボット基準140の位置は、エンドエフェクタ44の移動が追跡されること(例えば、ロボットシステムが追跡する)によってロボット座標系において認識される。ブロック186において取得された基準画像はまた、患者空間を画定するのにも役立ち得るが、その患者空間に対して、特にエンドエフェクタ可動部分44が移動し得るが、ロボットシステム20も認識され得る。上述したように、エンドエフェクタ44は、ロボットシステム20の手首48または肘52などの様々な可動部分にエンコーダなどの様々な機構を含み得るロボット追跡システムにより、ロボット座標系において移動する。ブロック186における基準画像が操作のためなどの処置を実行するための画像であり、表示された画像108が得られる場合、被験体30がロボットシステム20に対して実質的に固定され(例えば、基部38から延在する固定要素を有する)、椎骨126などの被験体30に接続され得るため、位置合わせは実質的に自動であり得る。
したがって、ロボット座標系は、方法182に従って、被験体空間および/または画像空間に位置合わせされ得る。ロボット座標系を画像空間に位置合わせする場合、ロボット座標系位置合わせを使用して、画像108に対して、エンドエフェクタ44、および/またはエンドエフェクタ44を通してまたはエンドエフェクタ44を用いて位置決めされた部材の位置を特定し得る。したがって、画像108を使用して、重畳されたまたは画像108に対して重畳されたアイコン45iとして、部材または器械45のグラフィック表現などのグラフィック表現を表示し得る。
図5を参照すると、ローカライザ88によって画定される画像空間または画像座標系およびナビゲーション空間の位置合わせのためのフローチャートが示されている。方法200は、上述したものを含む様々な下位部分または下位ステップを含み得る。様々な下位ステップは、任意の適切な順序で発生し得、図5に示される順序は単なる例示であることが理解されよう。一般に、画像座標系とナビゲーション座標系との並進または位置合わせは、2つの座標系が互いに対して位置決め、または特定され得る任意のポイントで行い得る。
方法200は、画像と患者の位置合わせを含む。上述したように、画像と患者の位置合わせは、ブロック208において、基準を用いて被験体34などの被験体の画像データを取得することを含み得る。被験体34の画像データは、撮像システム80を用いて取得された画像データなど、任意の適切な画像データであり得る。さらに、基準は、上述のように、基準部分120、および/または被験体30の適切な解剖学的部分を含み得る。例えば、基準部分は、被験体30の棘突起130などの解剖学的構造の部分を含み得る。なお、取得された画像データは、その中に基準を含み得る。ブロック212において、画像データが基準を用いて被験体から取得されると、画像空間において基準を識別することが行われ得る。
上述のように、画像空間において基準を識別することが行われ得る。例えば、基準の自動識別は、画像内の基準部分の自動セグメント化などを通じて、画像空間を画定する画像データにおいて行われ得る。また、手動識別および/または手動および自動識別の組み合わせを使用して、画像空間において基準を特定し得る。その組み合わせは、ユーザ72が1つ以上のピクセルをシードピクセルとして識別することと、プロセッサがこのシードピクセルに基づいてセグメント化プログラムを実行すると、を含み得る。
被験体空間および/またはナビゲーション空間において基準を識別することは、ブロック216において行われる。被験体空間は、ナビゲーション空間と同一の広がりを有してもよく、および/または重複し得る。一般に、ナビゲーション空間は、ローカライザ88などの追跡システムを用いて追跡され得るボリュームであり、被験体または患者30のすべてまたは一部分を包含し得る。ナビゲーション空間において基準を識別することは、基準部分120(追跡デバイスであってもよい)および/または棘突起130に対して、器械68などの追跡可能な器械を移動させるなどの様々な様式で行われ得る。ナビゲーションシステム26の追跡システムは、器械68を追跡し得、ナビゲーションシステム26は、ナビゲーション空間において基準部分120である部分を入力するための入力を含み得る。次いで、ブロック220において、ナビゲーション空間において基準の位置を特定または識別することは、これを使用して、並進マップを形成し得る。
ブロック220において特定された並進マップを特定することは、被験体30に対して、および/または被験体30を含み、画像空間の座標系をナビゲーション空間の座標系に相関させることまたは位置合わせすることであり得る。この並進マップは、ナビゲーション空間において追跡される部分の特定された位置が、画像において同等または同一の位置に並進されることを可能にする。並進される位置が特定されると、この位置は、例えば、画像108上または画像108に対してアイコン68iを重畳させることなどによって、画像108に対してディスプレイを用いて示されるまたは表示され得る。
画像と患者の位置合わせは、画像108に対して追跡される器械またはアイテムを示すことを可能にする。ただし、位置合わせなしでは、画像108に対して追跡可能でない、または位置合わせされない任意の要素が、画像108に対して現実世界の位置で適切にまたは正確に示されないことがある。様々な実施形態では、したがって、ロボットシステム20のロボット座標系は、ナビゲーション空間に位置合わせされ得る。したがって、図6をさらに参照すると、方法224において、ロボット座標系または空間をナビゲーション空間に位置合わせすることが行われ得る。本明細書で説明されるように、ロボットをナビゲーションに位置合わせすることは、様々な部分を含み得る。
ロボットシステム20は、上述、および本明細書でさらに説明されるように、基部34に対して特定される座標系を有し得る。一般に、ロボット座標系は、基準または他の適切な部分などを用いて、被験体30に対して特定され得る。さらに、基準追跡デバイス54を使用して、ナビゲーションシステム26のナビゲーション座標系に対して場所を追跡または特定し得る。図6を参照すると、ロボット座標系は、プロセス224に従って、ナビゲーション空間またはナビゲーション座標系に位置合わせされ得る。
ロボット座標系とナビゲーション空間の位置合わせでは、ブロック226において、基部に対してエンドエフェクタ44の場所を特定することが行われ得る。上述のように、基部34に対してエンドエフェクタ44の位置を特定することが、任意の適切な方法で行われ得る。例えば、様々なエンコーダが、ロボットシステム20のロボットアーム40に沿って可動関節に位置決めされ得る。エンコーダは、電気エンコーダ、光学エンコーダ、物理エンコーダ、および他の適切なエンコーダを含み得る。エンコーダを使用して、ロボットシステム20の間隔部分38などのロボットシステム20の基部または他の適切な部分に対してエンドエフェクタ44の相対的および/または絶対的な移動または位置を測定および特定し得る。ロボットシステム20は、ロボットシステム20の部分の絶対的または相対的な移動を特定するために、エンコーダから信号を受信する1つ以上のプロセッサを含むか、またはそれと通信し得る。このプロセッサは、1つ以上の命令を実行して、エンドエフェクタ44などのロボットシステム20の位置を特定し得る。したがって、エンドエフェクタ44の場所は、ロボットシステム20の基部34または他の適切な部分に対して特定され得るロボット座標系においてロボットシステム20に対して特定され得る。
ロボット座標系をナビゲーション空間に位置合わせすることはまた、ブロック228において、ロボット座標系内にあるか、またはロボット座標系を画定するものとして、ロボットシステムの基部の場所を特定することを含み得る。上述のように、ロボットシステム20のロボット座標系は、選択された位置合わせおよび基準部分を用いて被験体30などの適切な部分に対して特定され得る。したがって、ロボット座標系は、ロボットシステム20の基部34または可動部分38に対してなど、ロボットシステム20に対して、またはロボットシステム20の可動部分38に対して特定され得る。したがって、ロボットシステムの座標系は、ブロック228において、ナビゲーションシステム26の追跡システムのローカライザ88または他の適切なローカライザに基づいて特定され得るナビゲーション空間に位置合わせする前に特定され得る。
基準デバイスの接続は、ナビゲーションシステム26によって追跡可能であり、ブロック230において行われ得る。上述のように、基準デバイス54は、ロボットシステム20に、例えばその不動部分38に接続され得る。基準デバイス54は、ロボット座標系内で認識されるなど、認識された位置でロボットシステム20に固定される。様々な実施形態では、ロボット基準54は、ロボットシステム20に対して任意のまたは非所定の位置に固定され得る。したがって、本明細書で説明されるように、スナップショットトラッカー160を使用することは、これを使用して、エンドエフェクタ44によって移動されるスナップショットトラッカーに対してロボット基準54の位置を特定し得る。ナビゲーションシステム26に含まれる追跡システムを使用して、ロボット基準54を用いて、ナビゲーションシステム26のナビゲーション空間においてまたはナビゲーション空間に対して実質的に固定された位置を追跡し得る。基準システムまたはデバイス54は、任意の適切な部分に接続され得、ロボットシステム20の可動部分に接続され得ることは、単なる例示であることが理解されよう。
ロボットのナビゲーション空間への位置合わせは、ブロック234において、ナビゲーション空間において基準フレーム54を追跡することを含み得る。次いで、基準フレーム54が、取付台34または基部アーム部分38などの不動または取り外し可能な固定部分などのロボットシステム20の選択された部分に対して認識された位置または所定の位置で接続されているかどうかの判定が行われる。ロボット基準54が、基部38などの不動部分に対して認識された位置または所定の位置に固定される場合、次いで、ナビゲーションシステム26を用いて基準54を追跡することは、ナビゲーション空間に対してロボット座標系の自動特定を可能にする。例えば、ロボット基準トラッカー54が追跡される(例えば、ナビゲーション空間において検知される)とき、ナビゲーションプロセッサ102は、メモリシステムにアクセスして、ロボット座標系においてロボット基準54の位置を想起し得る。ロボット基準が認識された位置にあるか、または所定の位置にあるかどうかの判定が、ブロック235において行われ得、入力106を用いて、または他の適切な特定(例えば、基準フレーム54が接続されているロボットシステム20上のスイッチ)を用いて、ナビゲーションシステム26への手動入力を含み得る。
判定が肯定である場合、YES経路237に従う。YES経路237は、ブロック238において、ロボット座標系のナビゲーション空間への位置合わせを特定することへとつながり得る。この位置合わせは、基準デバイス54の追跡される位置に基づいている。基準デバイス54が追跡される位置を有するため、その位置は、ナビゲーション空間において認識される。ロボットシステム上の基準デバイス54の位置もまた認識される。ロボットシステム20上の基準デバイス54の位置が認識されおり、ロボット座標が固定または取り外し可能な固定部分(例えば、基部38)に認識されているため、基準デバイス54がナビゲーション空間で追跡されると、ロボット座標系およびナビゲーション空間における基準デバイス54の位置が認識される。したがって、基準デバイス54の位置は、ロボット座標とナビゲーション空間との相関として使用され、並進マップおよび位置合わせを特定する。
ブロック235における特定が否定である場合、NO経路240に従う。様々な実施形態では、NO経路240に従い、ブロック241において、スナップショット追跡デバイス160は、次いで、ロボットシステム20のエンドエフェクタ44などの可動部分に接続され得る。次いで、ブロック242において、スナップショット追跡デバイス160は、ナビゲーション空間において追跡され得る。したがって、基準追跡デバイス54は、ブロック234で追跡され得、スナップショット追跡デバイス160は、ブロック242で追跡され得る。スナップショット追跡デバイス160は、基準追跡デバイス54に対して単一の場所で追跡され得る。スナップショット追跡デバイス160は、選択された期間にわたって行われたスナップショット追跡デバイス160の位置決めの複数のサンプル(例えば、スナップショット追跡デバイス160を意図的に移動させることなく)を有し得る。複数の位置が特定された場合は、スナップショット追跡デバイス160を使用する際の位置合わせには、その平均または選択された数が使用され得る。
ブロック242でスナップショット追跡デバイス160がナビゲーション空間において追跡され、ブロック234で基準追跡デバイス54が追跡されると、ブロック246で、スナップショット追跡デバイスの追跡された位置と基準追跡デバイスの追跡された位置との相関の特定が行われ得る。さらに、エンドエフェクタ44の位置は、エンドエフェクタがロボット座標系において(例えば、エンコーダを用いて)先行して追跡されるため、ナビゲーション空間において追跡される位置それぞれについてロボット座標系において認識される。この2つの追跡される位置に基づいて、特定された相関は、ナビゲーション空間において基準追跡デバイスに対してエンドエフェクタ44を含むロボットシステム20の可動部分の位置を特定することを可能にする。基準追跡デバイス54とスナップショット追跡デバイス160との互いに対する相関を使用して、ナビゲーション空間(例えば、ローカライザ88によって追跡される空間)において固定位置に対してエンドエフェクタ44またはロボットシステム20の他の可動部分の位置を特定し得る。繰り返しになるが、基準デバイス54の位置は、その位置がナビゲーション空間において追跡され、ロボットシステム20上に固定されるため、ナビゲーション空間において認識される。基準デバイスは、患者トラッカー58または他の適切な基準デバイスであってもよい。
図5および図6を引き続き参照し、図7をさらに参照すると、ロボット座標系を有するロボットシステム20はまた、一旦ナビゲーション空間に位置合わせされると、画像108に含まれる画像データ上の位置を示すまたは表すために使用され得る。ロボットシステム20を使用して、被験体30に対して処置を実行する際にユーザ32を支援し得る。様々な実施形態において、処置は、被験体30の椎骨126を含む1つ以上の椎骨に対してなど、被験体30に対して部分を位置決めすることを含み得る。椎骨126に対する、椎弓根スクリューなどの選択された要素の位置決めは、ロボットシステム20を用いて実行され得る。上述したように、基準部分140を使用して、被験体30に対してロボットシステム20の座標系を位置合わせし得る。したがって、ロボットシステム20は、被験体30に対してロボットシステム20を位置合わせすることにより、椎骨126または関連する椎骨など、被験体30に対してエンドエフェクタ44の位置を認識するか、または特定し得る。ロボットシステム20は、上述したように、例えば、エンコーダなどの選択された追跡システムを含む。
ナビゲーション座標系およびロボット座標系の独立した性質により、被験体30に対するエンドエフェクタ44(またはエンドエフェクタ44内および/またはエンドエフェクタ44を通して位置決めされる部材)の位置は、被験体30に対するロボットシステム20の位置合わせに基づいて、ナビゲーション座標系において直接認識されないことがある。図6に説明されるように、ロボットシステムをナビゲーション空間に位置合わせすること、および方法200において上述されるように、画像空間をナビゲーション/患者空間に位置合わせすることにより、被験体30に対するエンドエフェクタ44などのロボットシステム20の位置が、画像空間に対して特定され得る。この2つの位置合わせは、ロボット座標系を用いて特定されたエンドエフェクタの位置の第3の位置合わせまたは特定が画像空間に対して行われることを可能にし得る。ただし、ロボットシステム20のロボット座標系を使用して、画像108などの被験体30の画像を位置合わせし得ることがさらに理解されよう。上述のように、基準140を使用して、ロボットシステムを被験体30に位置合わせし得る。位置合わせ中に基準から取得された画像を使用して、画像108に同一の画像を位置合わせし得、この画像はディスプレイ84で開示される基準などの基準も含み得る。画像と画像の位置合わせは、上述した位置合わせおよび/またはMazorX(商標)Robotic Guidance Systemを用いて実行される位置合わせなどの位置合わせを含み得る。
ロボット座標系は、上述したように、方法224においてナビゲーション空間に位置合わせされる。したがって、方法300では、ブロック310において、ロボット座標系位置合わせの想起が行われ得る。ブロック310におけるロボット座標系位置合わせの想起は、任意の適切なメモリシステムを含む一時的メモリシステムなどのメモリシステムからの想起であり得る。さらに、ロボット座標系をナビゲーション空間に位置合わせすることは、選択された処置の間など、実質的に任意の適切な時間において実行され得る。一般に、ナビゲーションシステム26は、処置を実施するために、被験体30に対して位置決めされ得る。したがって、ナビゲーション空間は、処置においてポイントが選択される間に、ローカライザ88などのローカライザに対して特定され得、通常、少なくとも被験体30の対象領域を含む。ブロック310においてロボット座標系のナビゲーションシステムへの位置合わせを想起することは、これを行い、ナビゲーション空間においてロボットシステムの位置の特定を想起するまたは可能にし得る。
エンドエフェクタ44の位置の特定は、ブロック314でロボット座標系において行われ得る。このエンドエフェクタ44は、ロボットシステム20の任意の選択された可動部分であってもよい。ただし、ロボットシステム20の任意の適切な部分が可動部分であり得、エンドエフェクタ44が単なる例示であることが理解されよう。エンドエフェクタ44を使用して、椎骨126において椎弓根スクリューを位置決めするなど、インプラントの被験体30への位置決めを誘導するためのガイドなどの選択された処置の実施を補助し得る。さらに、上述のように、エンドエフェクタ44の位置は、ロボットシステム20のエンコーダを用いるなど、適切な機構を用いてロボット座標系において特定され得る。したがって、エンドエフェクタ44の位置は、ロボットシステム20を使用してロボット座標系において特定され得る。
ブロック314でロボット座標系においてエンドエフェクタ44の特定された位置は、ブロック310およびブロック318からの想起された位置合わせを用いてエンドエフェクタ44の特定された位置を並進することによって、ナビゲーション空間に並進され得る。ロボット座標系においてエンドエフェクタの位置をナビゲーション座標系に並進させることは、方法224においてロボット座標系をナビゲーション空間に位置合わせすることにより、ブロック310において想起される位置合わせに基づき得る。
一般に、並進を使用して、ナビゲーションシステム26が、ローカライザ88を用いるなど、ナビゲーションシステム26を用いてエンドエフェクタ44を直接追跡することなく、ナビゲーション空間においてエンドエフェクタ44の位置を特定し得る。ロボット座標系を有するロボットシステム20を用いてエンドエフェクタ44の場所を追跡することにより、エンドエフェクタ44の特定された位置は、方法224においてロボット座標系をナビゲーション座標系に位置合わせすることによりナビゲーション空間において特定され得る。ロボット座標系をナビゲーション座標系に並進させることは、エンドエフェクタ44の位置(例えば、3次元場所および向きを含む)とロボット座標系との相関または並進などの、ナビゲーション座標系内の位置への位置合わせに基づいて行われ得る。並進は、ブロック224において上述した位置合わせにより、数学的並進または他の適切な並進であってもよい。
ブロック318においてエンドエフェクタ44のロボット座標系からナビゲーション空間への並進が特定されると、エンドエフェクタの並進された位置の任意の記憶がブロック322において行われ得る。ブロック322におけるエンドエフェクタの並進位置の保存は、処置の部分のためなど、様々な目的のために、エンドエフェクタ44の並進された位置を記憶するために使用され得る。上述したように、ロボットシステム20を使用して、椎弓根スクリューを椎骨126内に位置決めするなど、インプラントの位置を被験体30内に誘導し得る。椎弓根スクリューの椎骨126内への位置決めは、ナビゲーションシステム26を用いずに実行され得る。ただし、ロボットシステム20の位置は、椎弓根スクリューを誘導するためにエンドエフェクタ44を配置する前など、任意の適切な時点でナビゲーションシステムに位置合わせされ得る。したがって、処置の選択された部分を実行するためにエンドエフェクタ44の位置が特定されると、ブロック224において、ロボット座標系をナビゲーション空間に位置合わせすることにより、ナビゲーション座標系26に対してエンドエフェクタの位置を並進させることが行われ得る。したがって、ブロック322においてエンドエフェクタの並進された位置を保存することは、方法224においてロボット座標系をナビゲーション空間に位置合わせするタイミングに応じて、任意選択であり得る。同様に、ブロック316においてエンドエフェクタおよびロボット座標系の位置を保存することは、エンドエフェクタ44の位置が、ブロック318において、任意の適切な時間に保存され得、その位置を使用してナビゲーションシステム空間に並進される得るため、任意選択であり得る。
ブロック318においてエンドエフェクタの位置が並進されて特定され、形成されると、ブロック330において、方法204から画像空間の患者空間/ナビゲーション空間への想起が行われ得る。方法204における画像空間の患者/ナビゲーション空間への位置合わせは、上述のように、ナビゲーション空間の位置を画像空間に並進させる。したがって、ナビゲーション空間における位置が、画像108に対して示され得る。例えば、上述したように、図1では、器械は、表示デバイス84を用いて画像108上に重畳されるなど、画像108に対するアイコン68iとして示され得る。ブロック204から画像空間の患者空間への位置合わせを想起することは、ナビゲーションシステムに対してロボット座標系の位置を特定するのを補助し得る。特に、上述のように、ロボット座標系がナビゲーションシステムに位置合わせされると、エンドエフェクタ44の位置は、ナビゲーション空間において特定され得る。ビゲーション空間が方法204において画像空間に位置合わせされると、ナビゲーションシステム26がエンドエフェクタ44を直接操縦していなくても、エンドエフェクタ44の位置は、画像108に対して特定され得る。したがって、ブロック330において方法204から画像空間の患者空間/ナビゲーション空間への位置合わせを想起することは、これを使用して、ブロック334において画像に対してエンドエフェクタの位置を特定し得る。
ブロック334において画像に対してエンドエフェクタ44の特定された位置は、これを使用して、ブロック346において画像に対して部材45および/またはエンドエフェクタ44のグラフィック表現45iを表示し得る。表現45iは、エンドエフェクタのものであってもよく、エンドエフェクタ44の直接的表現、エンドエフェクタ44を用いて位置決めされたインプラントの表現、または他の適切な表現であってもよい。なお、ブロック334において画像に対してエンドエフェクタの特定された位置は、ブロック346において、図1に示されるように、アイコンまたは他の適切なグラフィック表現45iなどの表現として表示され得る。これは、エンドエフェクタ44がナビゲーションシステム26を用いて直接操縦または追跡されなくても、方法300を含む上述のように、適切な位置合わせおよび並進を使用して、画像108上のエンドエフェクタ44を用いて位置決めされるか、またはエンドエフェクタ44に対して位置決めされる部分の表現を示し得ることを可能にする。これにより、ユーザ72または任意の適切な個人が、ナビゲーションシステム26を用いてエンドエフェクタ44を直接操縦または追跡することなく、エンドエフェクタ44および/またはエンドエフェクタ44を通して被験体30に対して位置決めされた部分の表示を、ディスプレイ84を用いて見ることが可能になり得る。
上述のように、ロボット座標系は、図6に示される方法224において、ナビゲーション空間に位置合わせされ得る。ロボットシステムの位置は、図7に示すように、方法300に従ってナビゲーション空間に位置合わせされた画像上に表示され得る。ただし、方法224におけるロボット座標系のナビゲーション空間への位置合わせはまた、方法182におけるロボット座標系の画像空間への位置合わせにより、ナビゲーションシステムが先行して画像に位置合わせされていなくても、ナビゲーション空間がロボット座標系に位置合わせされることを可能にして、画像108に対して操縦される器械を示すことを可能にするために使用され得ることが理解されよう。したがって、図4~図7を引き続き参照し、図8をさらに参照すると、方法340は、最初に方法204などの被験体空間位置合わせへの直接的な画像空間を実行することなく、ナビゲーション空間を画像空間に位置合わせすること、および画像108上に器械68などの追跡される器械を示すことを可能にする。
最初に、ナビゲーション空間または座標系は、ブロック342において画定され得る。ブロック342におけるナビゲーション空間の画定または形成は、被験体30に対するなど、選択された対象領域に対してローカライザを位置決めすることを含み得る。ナビゲーション空間またはナビゲーション座標系は、脊椎126および/またはロボットシステム20の一部分を含む、被験体30の対象領域を包含し得る。ナビゲーション空間342は、ローカライザ88などのローカライザ、および/または被験体基準デバイス58などの基準部材に対して画定され得る。上述のように、画像空間は、方法204においてナビゲーション空間に位置合わせされ得る。ただし、方法204において、ナビゲーション空間または被験体空間が画像空間に位置合わせされない場合、ブロック342において画定されたナビゲーション空間を使用して、方法224において上述されたように、ロボット座標系をナビゲーション空間に位置合わせするためにスナップショットトラッカー160を追跡し得る。したがって、ロボット空間またはロボット座標系のナビゲーション空間への位置合わせは、ブロック224’において実行されるかまたは想起され得、ロボットシステム20のロボット座標系に対してナビゲーション空間を特定することを可能にする。上述のように、スナップショットトラッカー160は、上述のような、ロボット追跡システムにより、ロボット座標系において認識された位置に場所する。したがって、スナップショットトラッカーは、ナビゲーション空間において追跡され得、ナビゲーション空間をロボット座標系に調整または位置合わせするために使用され得る。
次いで、方法182’においてロボット座標系の画像空間への位置合わせを想起および/または実行することは、方法340において行われ得る。上述のように、画像108などの画像空間は、ブロック186で取得されたロボット基準画像を使用してロボットシステム20に対して位置合わせされ得る。したがって、画像空間は、上述の方法182に従って、ブロック182’において位置合わせを実行または想起することによって、方法340においてロボット座標系に位置合わせされ得る。
ブロック224’におけるロボット座標系のナビゲーション空間への位置合わせ、ならびにブロック182’におけるロボット座標系の画像空間への想起および/または実行により、ブロック224’におけるロボット座標系のナビゲーション空間への位置合わせ、およびブロック182’におけるロボットシステムの画像空間への位置合わせに基づいて、ブロック346において画像空間へのナビゲーション空間の位置合わせが実行され得る。したがって、ナビゲーション空間は、図5の方法204において開示されたように、ナビゲーション空間において画像空間への直接の位置合わせを行わずに、画像空間に位置合わせされ得る。
次いで、ブロック347において、画像空間へのナビゲーション空間の並進が行われ得る。この並進は、ブロック182’およびブロック224’における事前の位置合わせにより、ナビゲーション空間における位置座標を画像空間に対して特定することであり得る。並進は、プロセッサシステム102などのプロセッサシステムによって実行され得、ナビゲーション空間と画像空間との関連座標を特定し得る。
ブロック347においてナビゲーション空間が画像空間に位置合わせされると、ブロック348において、追跡デバイス66を用いて器械68などの追跡可能な部材が追跡され得る。ブロック348における追跡可能な部材の追跡は、ブロック342においてナビゲーション空間を画定するナビゲーションシステムを用いてもよい。上述のように、ナビゲーションシステムによって画定されるナビゲーション空間は、画像空間に直接位置合わせされないことがあるが、方法340により、ナビゲーション空間は、画像空間に位置合わせされ得る。したがって、ブロック348において追跡される部材は、ブロック350において画像108に対して適切な場所に表示される表現を有し得る。機器68の表示は、図1に示されるように、アイコン68iを含み得る。すなわち、ブロック350における器械の表現の表示は、上述のように、画像空間に位置合わせされたロボット座標系へのナビゲーション空間の位置合わせにより、ナビゲーション空間において器械を追跡することによって実行され得る。
上述のように、ロボットシステム20は、操縦される器械が使用されていないときの処置の第1の部分の間に使用され得、操縦される器械が使用されるときの処置の第2の部分の間に除去され得る。ただし、処置の第2の部分の間、ユーザ72は、エンドエフェクタ44が処置の第2の部分において直接操縦されない、および/または存在しない場合でも、エンドエフェクタ44、および/またはエンドエフェクタ44を使用して位置決めされたインプラントの位置を示すように選択し得る。ロボット座標系からナビゲーション座標系へのエンドエフェクタ44の特定された位置の並進は、エンドエフェクタ44を直接操縦および/または追跡することなく、エンドエフェクタ44の表現を示すことを可能にする。
図2ならびにと図6および図8を引き続き参照し、図9を追加参照すると、ロボットシステム20は、方法224において上述したように、ナビゲーション空間に位置合わせされ得る。ただし、ロボットシステム20は、拡張可能なまたは動的なまたは可動な追跡可能スナップショット追跡センサを用いてナビゲーション空間に位置合わせされ得る。動的スナップショットトラッカー360は、選択された追跡部分または追跡部材364を含み得る。様々な実施形態では、追跡部材364は、光学ローカライザ88などの光学ローカライザを用いて追跡され得る光反射器または光エミッタを含み得る。上述のように、スナップショット追跡デバイス160は、ローカライザ88によってローカライズされたナビゲーション空間などのナビゲーション空間に対して位置決めされ得る。
様々な実施形態では、単一の位置に位置決めされ得る単一のスナップショットトラッカー160に加えて、または代替的に、可動スナップショット追跡デバイス360が、位置合わせのためにナビゲーション空間において移動され得る。様々な実施形態では、ローカライザ88は、例示的なナビゲーション空間370などのナビゲーション空間において追跡デバイスを画定または追跡することが可能であり得る。ナビゲーション空間370は、被験体30および/または手術台104などの任意の他の適切な部分に対して相対的であり得る。一般に、ナビゲーション空間370は、追跡され得る部屋または領域の中にあるか、またはナビゲーションシステム26のローカライザ88を含み、追跡システムを用いて追跡され得る、そこで位置決めされるデバイスを有するボリュームであり得る。
動的スナップショット追跡デバイス360は、ボリューム370において、第1の場所360iなどの任意の適切な場所に位置付けられ得る。図9に示されるように、動的スナップショット追跡デバイス360は、単一の追跡可能部材364を含み得る。単一の追跡可能な部材364は、実質的に小さくてもよく、外科手術室おいてなど、混雑した空間またはボリュームにおいて容易に位置決めすることを可能にする。例えば、図1に示されるように、手術室は、一般に、画像システム、1人以上のユーザ(例えば、外科医、外科看護師、技術者など)、および処置中に使用するための他の器械を有し得る。したがって、被験体30の周囲のボリュームまたは空間は、重要であり、実質的に緊密であり得る。したがって、大型すなわち邪魔なスナップショット追跡デバイスを含むことは、方法224に従って、ロボットシステム座標のナビゲーション空間またはナビゲーション座標への位置合わせを実行するのに非効率であり得る。
上述のように、ロボットシステム20は、エンドエフェクタ44の位置を特定することができる得るロボット座標系を含む。動的スナップショット追跡デバイス360は、エンドエフェクタ44に位置決めされ、ナビゲーションボリューム370内で移動され得る。図9に示されるように、動的スナップショット追跡デバイス360は、第1の位置360iに位置決められ得る。ローカライザ88を含むナビゲーションシステム26は、ナビゲーションボリューム370内の単一の追跡可能部材364を含む動的スナップショット追跡デバイス360を追跡し得る。次いで、ロボットシステム20は、動的スナップショット追跡デバイス360をナビゲーションボリューム370内の他の場所または位置に移動させ得る。例えば、ロボットシステム20は、動的スナップショット追跡デバイス360を第2の位置360ii、第3の位置360iii、および第4の位置360ivに移動させ得る。動的スナップショット追跡デバイス360は、ナビゲーションボリューム370内の4つの位置の各々で追跡され得る。ただし、動的スナップショット追跡デバイス360はまた、ナビゲーション空間370内の5つ以上または4つ未満の位置に移動され得ることが理解されよう。なお、動的スナップショット追跡デバイス360は、ローカライザ88などを用いて、ナビゲーションボリューム内の複数の位置で追跡され得る。
ナビゲーションボリューム370内の複数の位置で動的スナップショット追跡デバイス360を追跡することによって、より大きなボリュームが、動的スナップショット追跡デバイス360をナビゲーションボリューム370内の単一の場所または位置に位置決めするだけではなく、ナビゲーション空間370内の動的スナップショット追跡デバイス360の位置と関連付けられ得る。例示的な4つの位置360i~360ivを協調して使用して、ナビゲーションボリューム370内のより大きな4点スナップショット追跡デバイスなどにおいて、単一の部材よりも大きい仮想スナップショット追跡デバイスを画定し得る。仮想スナップショットトラッカーは、追跡デバイス160よりも大きい追跡可能な位置のアレイを形成または画定し得る。より大きな領域は、より高い精度、より少ない偏差などをもたらし得る。
ロボットシステム20が、動的スナップショット追跡デバイス360をナビゲーション空間370内の4つの位置(またはナビゲーション空間370内の任意の適切な数の位置)に正確に位置決めすることが可能であるため、スナップショット追跡デバイスは、ナビゲーション空間370内のより大きなボリュームを含むか、または画定し得る仮想スナップショット追跡デバイスを画定し得る。ローカライザ88を使用して、ナビゲーション空間370内の位置の各々において動的追跡デバイス360を追跡するときに、ナビゲーション空間370内にエンドエフェクタ44を含むロボットシステム20の位置は、より正確に特定され得る。例えば、ナビゲーションボリューム370のより多くを満たすより大きな追跡デバイスは、ナビゲーション空間370内でエンドエフェクタ44の位置をより精度よくもしくは正確に位置決めする、または特定することが可能であり得る。上述したように、方法224を参照すると、次いで、スナップショット追跡デバイス360の複数の位置を含む仮想スナップショット追跡デバイスを使用して、ロボット座標系をナビゲーション空間座標系に位置合わせし得る。この位置合わせは、ナビゲーション空間において、各位置360i~360ivにおけるエンドエフェクタ44の認識されたロボット座標、および各位置360i~360ivにおける追跡された位置に基づいて行われ得る。図9に示すように、スナップショット追跡デバイス360の単一の位置ではなく、複数の位置を位置合わせに使用し得る。ただし、スナップショット追跡デバイス360の複数の位置は、位置360i~360ivとして例示的に示されるように、ボリューム370内でスナップショット追跡デバイス360の追跡された位置のすべてを組み込んだ仮想スナップショット追跡デバイスである単一の大きなスナップショット追跡デバイスに調整され得る。
実施形態の前述の説明は、例示および説明の目的で提供されている。網羅的であること、または、本発明を限定することは意図されない。特定の実施形態の個々の要素または特徴は、概して、その特定の実施形態に限定されるものではないが、適用可能な場合には、具体的に示されていない、または説明されていない場合でも、交換可能であり、選択された実施形態で使用することができる。また、それらは、多くの点で多様であり得る。このような変形は、本開示からの逸脱とみなされるべきではなく、そのような変形はすべて本開示の範囲内に含まれることが意図されている。
本明細書に開示される様々な態様は、説明および添付の図面に具体的に提示される組み合わせとは異なる組み合わせで組み合わせられてもよいことを理解されたい。また、実施例に応じて、本明細書で説明されるプロセスまたは方法のいずれかの特定の行為またはイベントは、異なる順序で実行されてもよく、追加されてもよく、マージされてもよく、または完全に除外されてもよい(例えば、記載されるすべての行為またはイベントは、本技術を実行するために必要ではないことがある)ことも理解されたい。加えて、本開示の特定の態様は、明確な目的のために単一のモジュールまたはユニットによって実行されるものとして説明されているが、本開示の技術は、例えば、医療デバイスと関連するユニットまたはモジュールの組み合わせによって実行され得ることを理解されたい。
1つ以上の実施例では、説明される技術は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組み合わせで実装されてもよい。ソフトウェアで実装される場合、機能は、コンピュータ可読媒体上に1つ以上の命令またはコードとして記憶することができ、ハードウェアベースの処理ユニットによって実行され得る。コンピュータ可読媒体は、データ記憶媒体(例えば、RAM、ROM、EEPROM、フラッシュメモリ、または命令またはデータ構造の形態で所望のプログラムコードを記憶するために使用され得、コンピュータによってアクセスされ得る任意の他の媒体)などの有形媒体に対応する、非一時的なコンピュータ可読媒体を含み得る。
命令は、1つ以上のデジタル信号プロセッサ(Digital Signal Processor、DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(Application Specific Integrated Circuit、ASIC)、フィールドプログラマブルロジックアレイ(Field Programmable Logic Array、FPGA)、または他の同等の集積もしくは離散論理回路などの1つ以上のプロセッサによって実行され得る。したがって、本明細書で使用される「プロセッサ」という用語は、上述の構造のいずれか、または説明された技術の実装に好適な任意の他の物理構造のいずれかを指し得る。また、本技術は、1つ以上の回路または論理要素において完全に実装され得る。
Claims (18)
- ロボットシステムによって画定されるロボット座標系および追跡システムローカライザによって画定されるナビゲーション座標系を位置合わせするための方法であって、
ロボットシステムの固定部分を第1の位置に取り外し可能に固定することと、
前記ロボットシステムの前記固定部分に対して相対的なロボット座標系を特定することと、
前記ロボットシステムの前記固定部分に対して相対的な追跡システムを用いてナビゲーション座標系を有するナビゲーション空間を作成することと、
前記ロボットシステムの前記固定部分に対して相対的な前記追跡システムを用いて追跡可能な基準マーカーを接続することと、
前記ナビゲーション座標系内において、前記ロボットシステムの可動部分を用いて追跡可能なマーカーを移動させることと、
前記追跡システムを用いて前記ナビゲーション系内の前記基準マーカーおよび前記追跡可能マーカーを追跡することと、
少なくとも前記追跡される基準マーカーおよび前記追跡可能マーカーに基づいて、前記ロボット座標系と前記ナビゲーション座標系との位置合わせを特定することと、を含む、方法。 - 前記ロボット座標系を被験体に位置合わせすること、をさらに含み
前記ロボットシステムの可動部分が、少なくとも前記ロボットシステムの移動により前記ロボット座標系内で追跡される、請求項1に記載の方法。 - 前記ロボット座標系を前記被験体に前記位置合わせすることが、
前記第1の位置に対して前記被験体を位置決めすることと、
前記ロボットシステムの前記第1の部分および前記被験体に対して固定されたロボット基準の画像を取得することと、を含む、請求項2に記載の方法。 - 前記ロボット座標系を画像空間に位置合わせすることと、
前記ロボット座標系と前記ナビゲーション座標系との前記特定された位置合わせを介して前記ナビゲーション空間を前記画像空間に位置合わせすることと、
前記追跡システムを用いて前記ナビゲーション空間内の器械を追跡することと、
前記位置合わせおよび前記器械の前記追跡に基づいて、画像に対するグラフィック表現を表示することと、をさらに含む、請求項2または3のいずれか一項に記載の方法。 - 前記ロボットシステムの少なくとも第1の部分を移動させることと、
前記ロボット座標系と前記ナビゲーション座標系との前記特定された位置合わせに基づいて、前記ナビゲーション空間内の前記第1の部分の位置を特定することと、
前記画像に対して、前記第1の部分に伴って位置決めされた少なくとも部材のグラフィック表現を表示することと、をさらに含む、請求項4に記載の方法。 - 前記第1の部分が第1の時間に生じ、前記第1の部分に伴って位置決めされた少なくとも前記部材の前記グラフィック表現を前記表示することが、前記第1の時間の後の第2の時間に生じる、請求項5に記載の方法。
- 前記第1の時間の後、かつ前記第2の時間の前に、前記ロボットシステムを前記ナビゲーション空間の近傍から除去することと、をさらに含む、請求項6に記載の方法。
- 前記第1の部分によって誘導された前記被験体内に前記部材を位置決めすることと、
前記ロボット座標系に基づいて、前記被験体内の前記部材の位置を特定することと、をさらに含み、
少なくとも前記部材の前記グラフィック表現を表示することが、前記第1の部分に伴って前記部材を位置決めすることに基づいている、請求項7に記載の方法。 - ロボットシステムによって画定されるロボット座標系および追跡システムローカライザによって画定されるナビゲーション座標系を位置合わせするための方法であって、
前記ロボットシステムの第1の部分と、前記ロボットシステムの前記第1の部分から離れた被験体とのロボット座標系を特定することと、
追跡システムを用いてナビゲーション座標系を有するナビゲーション空間を特定することと、
前記ロボットシステムの前記第1の部分に対して、前記ロボット座標系において相対的である第1の認識された位置で前記追跡システムを用いて前記追跡可能な基準マーカーを結び付けることと、
前記ナビゲーション空間内の前記基準マーカーの第1の基準位置を特定することと、
前記ロボット座標系における前記基準マーカーの前記第1の固定位置と、前記ナビゲーション空間内の前記基準マーカーの前記特定された第1の基準位置とを相関させることと、
前記相関に基づいて、前記ロボット座標系と前記ナビゲーション空間との並進マップ(translation map)を特定することと、
少なくとも前記特定された並進マップに基づいて、前記ロボット座標系と前記ナビゲーション座標系との位置合わせを特定することと、を含む、方法。 - ロボットシステムの第1の部分を第1の位置に取り外し可能に固定することをさらに含む、請求項9に記載の方法。
- 前記第1の部分に対して前記ロボットシステムの第2の部分を移動させることと、
前記第2の部分に対して固定されたスナップショット追跡デバイスを追跡することと、
前記ナビゲーション空間内の前記スナップショット追跡デバイスの位置を特定することと、
ロボット追跡システムを用いて前記ロボット座標系における前記第2の部分の位置を特定することと、をさらに含む、請求項10に記載の方法。 - 前記ロボット追跡システムを用いて前記ロボット座標系内の前記第2の部分の前記位置を特定することが、
前記ロボットシステムに組み込まれたリンケージエンコーダから、前記第1の部分に対する前記第2の部分の移動に関する信号を受信することと、
前記受信信号を評価して前記位置を特定することと、を含む、請求項11に記載の方法。 - 前記ロボット座標系内の前記第2の部分の前記特定された位置と、前記ナビゲーション空間内の前記スナップショット追跡デバイスの前記特定された位置とを相関させることをさらに含む、請求項12に記載の方法。
- 前記ロボットシステムを前記第1の位置から移動させることと、
前記特定された位置合わせを想起することと、
前記想起された特定された位置合わせに基づいて、前記ロボット座標系における前記ロボットシステムの少なくとも第2の部分の以前の位置を前記ナビゲーション空間に相関させることと、
前記相関に基づいて表示デバイスを用いたグラフィック表現として前記以前の位置を図示することと、をさらに含む、請求項12に記載の方法。 - ロボット座標システムおよび画像座標システムを位置合わせするように動作可能なシステムであって、
ロボットシステムの第1の部分に対して画定されたロボット座標系を有するロボットシステムであって、前記ロボットシステムが、被験体に対して位置決めされるように構成されている、ロボットシステムと、
ナビゲーション座標を有するナビゲーション空間を画定する追跡システムと、
前記ロボットシステムの前記第1の部分に対して、前記ロボット座標系において相対的である第1の固定位置で前記追跡システムを用いて追跡可能な基準マーカーと、
ナビゲーションシステムであって、
前記ナビゲーション空間内の前記基準マーカーの第1の基準位置を特定することと、
前記ロボット座標系における前記基準マーカーの前記第1の固定位置と、前記ナビゲーション空間内の前記基準マーカーの前記特定された第1の基準位置とを相関させることと、
前記相関に基づいて、前記ロボット座標系と前記ナビゲーション空間との並進マップを特定することと、
少なくとも前記特定された並進マップに基づいて、前記ロボット座標系と前記ナビゲーション座標系との位置合わせを特定することと、を行うように操作可能な、ナビゲーションシステムと、
少なくとも1つの前記特定された位置合わせに基づいて、前記ロボットシステムとともに移動した少なくとも1つの部分のグラフィック表現を表示するように構成された表示デバイスと、を備える、システム。 - 前記ロボットシステムが、
前記第1の部分に対して可動な前記ロボットシステムの第2の部分と、
前記第2の部分に対して取り外し可能に固定されたスナップショット追跡デバイスと、をさらに備え、
前記ナビゲーションシステムが、前記ナビゲーション空間内において前記スナップショット追跡デバイスの位置を特定するようにさらに動作可能であり、
前記ロボットシステムが、前記ロボット座標系において前記第2の部分の位置を特定するように動作可能なロボットプロセッサを備える、請求項15に記載のシステム。 - 前記ロボットシステムが、
前記第1の部分に対して、前記第2の部分の移動に関する信号を生成するように動作可能な、前記ロボットシステムに組み込まれたリンケージエンコーダをさらに備え、
前記ロボットプロセッサが、前記信号を評価して前記位置を特定するように動作可能である、請求項16に記載のシステム。 - 前記ナビゲーションシステムが、前記ナビゲーション座標系に前記被験体の画像を位置合わせするためにさらに操作可能であり、
前記グラフィック表現が、少なくとも前記特定された並進マップにより、前記表示デバイスを用いて前記画像上に重畳される、請求項15~17のいずれか一項に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/244,330 US11135025B2 (en) | 2019-01-10 | 2019-01-10 | System and method for registration between coordinate systems and navigation |
US16/244,330 | 2019-01-10 | ||
PCT/US2020/012958 WO2020146651A2 (en) | 2019-01-10 | 2020-01-09 | System and method for registration between coordinate systems and navigation |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022516642A true JP2022516642A (ja) | 2022-03-01 |
Family
ID=69467778
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021539426A Pending JP2022516642A (ja) | 2019-01-10 | 2020-01-09 | 座標系とナビゲーションとの位置合わせのためのシステムおよび方法 |
Country Status (7)
Country | Link |
---|---|
US (2) | US11135025B2 (ja) |
EP (1) | EP3908220A2 (ja) |
JP (1) | JP2022516642A (ja) |
CN (1) | CN113316429A (ja) |
AU (1) | AU2020205689A1 (ja) |
CA (1) | CA3126142A1 (ja) |
WO (1) | WO2020146651A2 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11065065B2 (en) * | 2019-02-22 | 2021-07-20 | Warsaw Orthopedic, Inc. | Spinal implant system and methods of use |
US11357642B2 (en) * | 2020-05-08 | 2022-06-14 | Warsaw Orthopedic, Inc. | Spinal implant system and method |
CN115803153A (zh) * | 2020-06-30 | 2023-03-14 | 马佐尔机器人有限公司 | 时间间隔的机器人参考系 |
AU2021356662A1 (en) | 2020-10-07 | 2023-06-15 | Canary Medical Switzerland Ag | Providing medical devices with sensing functionality |
CN112618017B (zh) * | 2020-12-16 | 2022-05-03 | 苏州微创畅行机器人有限公司 | 导航手术系统、计算机可读存储介质及电子设备 |
WO2022127794A1 (zh) * | 2020-12-16 | 2022-06-23 | 苏州微创畅行机器人有限公司 | 导航手术系统及其注册方法、计算机可读存储介质及电子设备 |
CN112618018B (zh) * | 2020-12-16 | 2024-08-02 | 苏州微创畅行机器人有限公司 | 导航手术系统及其注册方法、计算机可读存储介质 |
WO2022234568A1 (en) * | 2021-05-05 | 2022-11-10 | Mazor Robotics Ltd. | Systems and methods for generating multiple registrations |
CN113288358B (zh) * | 2021-05-21 | 2022-11-15 | 中国医学科学院生物医学工程研究所 | 位姿信息确定方法、装置、电子设备及存储介质 |
CN114209433B (zh) * | 2021-12-31 | 2023-09-05 | 杭州三坛医疗科技有限公司 | 一种手术机器人导航定位装置 |
CN114732668B (zh) * | 2022-03-28 | 2023-08-11 | 上海神泰医疗科技有限公司 | 肢体康复训练机器人运动精度测量方法、系统、设备和介质 |
US20240277415A1 (en) | 2023-02-21 | 2024-08-22 | Mazor Robotics Ltd. | System and method for moving a guide system |
US20240277412A1 (en) | 2023-02-22 | 2024-08-22 | Medicrea International | System and method for validating a procedure |
US20240307131A1 (en) | 2023-03-15 | 2024-09-19 | Mazor Robotics Ltd. | Systems And Methods For An Image Guided Procedure |
Family Cites Families (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2786225B2 (ja) * | 1989-02-01 | 1998-08-13 | 株式会社日立製作所 | 工業用ロボットの制御方法及び装置 |
FR2652928B1 (fr) | 1989-10-05 | 1994-07-29 | Diadix Sa | Systeme interactif d'intervention locale a l'interieur d'une zone d'une structure non homogene. |
AU675077B2 (en) | 1992-08-14 | 1997-01-23 | British Telecommunications Public Limited Company | Position location system |
US5592939A (en) | 1995-06-14 | 1997-01-14 | Martinelli; Michael A. | Method and system for navigating a catheter probe |
US5697377A (en) | 1995-11-22 | 1997-12-16 | Medtronic, Inc. | Catheter mapping system and method |
US6026315A (en) | 1997-03-27 | 2000-02-15 | Siemens Aktiengesellschaft | Method and apparatus for calibrating a navigation system in relation to image data of a magnetic resonance apparatus |
US6474341B1 (en) | 1999-10-28 | 2002-11-05 | Surgical Navigation Technologies, Inc. | Surgical communication and power system |
EP1323120B1 (en) * | 2000-09-25 | 2018-11-14 | Z-Kat Inc. | Fluoroscopic registration artifact with optical and/or magnetic markers |
EP1875866A3 (en) | 2002-02-15 | 2008-07-30 | Breakaway Imaging, Llc | Gantry ring with detachable segment for multidimensional x-ray imaging |
EP1482837B1 (en) | 2002-03-13 | 2005-09-14 | Breakaway Imaging, Llc | Systems and methods for quasi-simultaneous multi-planar x-ray imaging |
EP1485697A2 (en) | 2002-03-19 | 2004-12-15 | Breakaway Imaging, Llc | Computer tomograph with a detector following the movement of a pivotable x-ray source |
CN100482165C (zh) | 2002-06-11 | 2009-04-29 | 分离成像有限责任公司 | 用于x射线成像的悬臂式支架装置 |
AU2003262726A1 (en) | 2002-08-21 | 2004-03-11 | Breakaway Imaging, Llc | Apparatus and method for reconstruction of volumetric images in a divergent scanning computed tomography system |
US20040199072A1 (en) | 2003-04-01 | 2004-10-07 | Stacy Sprouse | Integrated electromagnetic navigation and patient positioning device |
US8150494B2 (en) | 2007-03-29 | 2012-04-03 | Medtronic Navigation, Inc. | Apparatus for registering a physical space to image space |
US20080319491A1 (en) * | 2007-06-19 | 2008-12-25 | Ryan Schoenefeld | Patient-matched surgical component and methods of use |
US8457790B2 (en) | 2007-09-14 | 2013-06-04 | Zimmer, Inc. | Robotic calibration method |
EP2194836B1 (en) * | 2007-09-25 | 2015-11-04 | Perception Raisonnement Action En Medecine | Apparatus for assisting cartilage diagnostic and therapeutic procedures |
US8175681B2 (en) | 2008-12-16 | 2012-05-08 | Medtronic Navigation Inc. | Combination of electromagnetic and electropotential localization |
US9737235B2 (en) | 2009-03-09 | 2017-08-22 | Medtronic Navigation, Inc. | System and method for image-guided navigation |
US8503745B2 (en) | 2009-05-13 | 2013-08-06 | Medtronic Navigation, Inc. | System and method for automatic registration between an image and a subject |
US8737708B2 (en) | 2009-05-13 | 2014-05-27 | Medtronic Navigation, Inc. | System and method for automatic registration between an image and a subject |
US20110015483A1 (en) * | 2009-07-16 | 2011-01-20 | Federico Barbagli | Endoscopic robotic catheter system |
US8494613B2 (en) | 2009-08-31 | 2013-07-23 | Medtronic, Inc. | Combination localization system |
JP5928114B2 (ja) | 2012-04-12 | 2016-06-01 | セイコーエプソン株式会社 | ロボットシステム、ロボットシステムのキャリブレーション方法、ロボット |
US20180325610A1 (en) * | 2012-06-21 | 2018-11-15 | Globus Medical, Inc. | Methods for indicating and confirming a point of interest using surgical navigation systems |
US20190029765A1 (en) | 2012-06-21 | 2019-01-31 | Globus Medical, Inc. | Surgical robotic systems providing transfer of registration and related methods and computer program products |
US11589771B2 (en) | 2012-06-21 | 2023-02-28 | Globus Medical Inc. | Method for recording probe movement and determining an extent of matter removed |
US20140031664A1 (en) * | 2012-07-30 | 2014-01-30 | Mako Surgical Corp. | Radiographic imaging device |
EP2950877B1 (en) * | 2013-03-13 | 2020-02-26 | Kardium, Inc. | Detecting improper energy transmission configuration in medical device system |
JP2014180720A (ja) | 2013-03-19 | 2014-09-29 | Yaskawa Electric Corp | ロボットシステム及びキャリブレーション方法 |
JP2015174191A (ja) | 2014-03-17 | 2015-10-05 | 株式会社安川電機 | ロボットシステム、ロボットシステムのキャリブレーション方法およびロボットシステムの位置補正方法 |
WO2016044830A1 (en) * | 2014-09-19 | 2016-03-24 | Think Surgical, Inc. | System and process for ultrasonic determination of long bone orientation |
KR102296451B1 (ko) * | 2014-12-08 | 2021-09-06 | 큐렉소 주식회사 | 중재시술 로봇용 공간정합 시스템 |
JP6710946B2 (ja) * | 2015-12-01 | 2020-06-17 | セイコーエプソン株式会社 | 制御装置、ロボットおよびロボットシステム |
EP3241518B1 (en) * | 2016-04-11 | 2024-10-23 | Globus Medical, Inc | Surgical tool systems |
US10191615B2 (en) * | 2016-04-28 | 2019-01-29 | Medtronic Navigation, Inc. | Method and apparatus for image-based navigation |
US10716630B2 (en) * | 2016-07-15 | 2020-07-21 | Mako Surgical Corp. | Systems and methods for a robotic-assisted revision procedure |
EP3565497A1 (en) * | 2017-01-04 | 2019-11-13 | Medivation AG | A mobile surgical tracking system with an integrated fiducial marker for image guided interventions |
US11071594B2 (en) * | 2017-03-16 | 2021-07-27 | KB Medical SA | Robotic navigation of robotic surgical systems |
JP6880982B2 (ja) * | 2017-04-21 | 2021-06-02 | セイコーエプソン株式会社 | 制御装置およびロボットシステム |
JP7130927B2 (ja) * | 2017-08-31 | 2022-09-06 | セイコーエプソン株式会社 | 制御装置およびロボットシステム |
EP3613544A1 (en) | 2018-08-22 | 2020-02-26 | Hilti Aktiengesellschaft | Mobile construction robot |
-
2019
- 2019-01-10 US US16/244,330 patent/US11135025B2/en active Active
-
2020
- 2020-01-09 CA CA3126142A patent/CA3126142A1/en active Pending
- 2020-01-09 WO PCT/US2020/012958 patent/WO2020146651A2/en unknown
- 2020-01-09 JP JP2021539426A patent/JP2022516642A/ja active Pending
- 2020-01-09 CN CN202080008717.4A patent/CN113316429A/zh active Pending
- 2020-01-09 EP EP20703651.8A patent/EP3908220A2/en active Pending
- 2020-01-09 AU AU2020205689A patent/AU2020205689A1/en not_active Abandoned
-
2021
- 2021-10-04 US US17/493,436 patent/US11759272B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11135025B2 (en) | 2021-10-05 |
WO2020146651A2 (en) | 2020-07-16 |
US20200222127A1 (en) | 2020-07-16 |
US11759272B2 (en) | 2023-09-19 |
EP3908220A2 (en) | 2021-11-17 |
US20220022979A1 (en) | 2022-01-27 |
CN113316429A (zh) | 2021-08-27 |
AU2020205689A1 (en) | 2021-08-26 |
CA3126142A1 (en) | 2020-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022516642A (ja) | 座標系とナビゲーションとの位置合わせのためのシステムおよび方法 | |
US10102640B2 (en) | Registering three-dimensional image data of an imaged object with a set of two-dimensional projection images of the object | |
US8737708B2 (en) | System and method for automatic registration between an image and a subject | |
US8503745B2 (en) | System and method for automatic registration between an image and a subject | |
US8644570B2 (en) | System and method for automatic registration between an image and a subject | |
US11918297B2 (en) | System and method for registration between coordinate systems and navigation | |
EP2676627B1 (en) | System and method for automatic registration between an image and a subject | |
US11672607B2 (en) | Systems, devices, and methods for surgical navigation with anatomical tracking | |
JP2008126075A (ja) | Ctレジストレーション及びフィードバックの視覚的検証のためのシステム及び方法 | |
JP2008126063A (ja) | フルオロスコピィ画像投影への用具及び/又は埋植物の統合を備えた医用ナビゲーション・システム並びに方法 | |
JP2008119472A (ja) | 埋植物距離測定のシステム及び方法 | |
CN113507898A (zh) | 用于坐标系之间的配准和选定构件的导航的系统 | |
US20240277415A1 (en) | System and method for moving a guide system | |
US20240307131A1 (en) | Systems And Methods For An Image Guided Procedure | |
US12076172B2 (en) | System and method for imaging | |
US20220079537A1 (en) | System and method for imaging | |
EP4210579A1 (en) | System and method for imaging |