JP2021115483A - 可視および近赤外線スペクトルにおけるエクステンデッドリアリティの外科手術ナビゲーションのための姿勢測定連鎖 - Google Patents

可視および近赤外線スペクトルにおけるエクステンデッドリアリティの外科手術ナビゲーションのための姿勢測定連鎖 Download PDF

Info

Publication number
JP2021115483A
JP2021115483A JP2021012228A JP2021012228A JP2021115483A JP 2021115483 A JP2021115483 A JP 2021115483A JP 2021012228 A JP2021012228 A JP 2021012228A JP 2021012228 A JP2021012228 A JP 2021012228A JP 2021115483 A JP2021115483 A JP 2021115483A
Authority
JP
Japan
Prior art keywords
tracking
camera
posture
tracking camera
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021012228A
Other languages
English (en)
Other versions
JP7135128B2 (ja
Inventor
キャロウェイ トーマス
Calloway Thomas
キャロウェイ トーマス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Globus Medical Inc
Original Assignee
Globus Medical Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Globus Medical Inc filed Critical Globus Medical Inc
Publication of JP2021115483A publication Critical patent/JP2021115483A/ja
Application granted granted Critical
Publication of JP7135128B2 publication Critical patent/JP7135128B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems

Abstract

【課題】様々な姿勢連鎖動作を通じて、より高い堅牢性および広範囲の動きにより、器具および他のオブジェクトを追跡できるカメラ追跡システムを提供する。【解決手段】外科手術システムは、第1の追跡カメラからの第1のオブジェクト追跡情報に基づいて、第1のオブジェクト座標系と第1の追跡カメラ座標系との間の第1の姿勢変換を判定するカメラ追跡システム6を含む。カメラ追跡システムは、第2の追跡カメラからの第1のオブジェクト追跡情報に基づいて、第1のオブジェクト座標系と第2の追跡カメラ座標系との間の第2の姿勢変換を判定し、第2の追跡カメラからの第2のオブジェクト追跡情報に基づいて、第2のオブジェクト座標系と第2の追跡カメラ座標系との間の第3の姿勢変換を判定する。カメラ追跡システム6は、第1ないし3の姿勢変換の組み合わせに基づいて、第2のオブジェクト座標系と第1の追跡カメラ座標系との間の第4の姿勢変換を判定する。【選択図】図20

Description

本開示は、医療デバイスおよびシステム、より具体的には、外科手術におけるコンピュータ支援ナビゲーションに関する。
外科手術におけるコンピュータ支援ナビゲーションは、患者の生体構造の放射線写真画像に関して、外科医に外科器具の拡張された視覚化を提供する。ナビゲートされた手術は、通常、単一の近赤外線(NIR)ステレオカメラセットアップを使用して、ディスクまたは球のアレイを介して外科器具の位置および向きを追跡するためのコンポーネントを含む。このシナリオでは、(1)精度、(2)堅牢性、および(3)人間工学という最適化をめぐって共同で競合する3つのパラメータがある。
既存のナビゲーションシステムを使用したナビゲートされた外科手術手順は、人員および/またはオブジェクトが患者、ロボット、および外科器具の姿勢を追跡する追跡コンポーネントの能力を妨害する間、断続的な一時停止を引き起こすイベントを起こしやすい。ナビゲーションシステムの追跡性能を改善する必要がある。
本明細書に開示される様々な実施形態は、外科手術中のコンピュータ支援ナビゲーションの改善を対象とする。1つ以上のエクステンデットリアリティ(XR)ヘッドセットは、別のXRヘッドセット、補助追跡バー、または他の機器の一部とすることができる他の追跡カメラからの追跡情報と組み合わせるために、カメラ追跡システムに追跡情報を提供する追跡カメラを装備することができる。本明細書に開示される様々な姿勢連鎖動作を通じて、カメラ追跡システムは、より高い堅牢性によっておよび広範囲の動きを通じて、器具および他のオブジェクトを追跡することができる。
一実施形態では、外科手術システムは、外科手術中に第1の追跡カメラおよび第2の追跡カメラから追跡オブジェクトに関連する追跡情報を受信するように構成されたカメラ追跡システムを含む。カメラ追跡システムは、第1のオブジェクトの姿勢を示す第1の追跡カメラからの第1のオブジェクト追跡情報に基づいて、第1のオブジェクト座標系と第1の追跡カメラ座標系との間の第1の姿勢変換を判定するように構成される。カメラ追跡システムは、第1のオブジェクトの姿勢を示す第2の追跡カメラからの第1のオブジェクト追跡情報に基づいて、第1のオブジェクト座標系と第2の追跡カメラ座標系との間の第2の姿勢変換を判定し、第2のオブジェクトの姿勢を示す第2の追跡カメラからの第2のオブジェクト追跡情報に基づいて、第2のオブジェクト座標系と第2の追跡カメラ座標系との間の第3の姿勢変換を判定するように構成される。カメラ追跡システムは、第1、第2、および第3の姿勢変換の組み合わせに基づいて、第2のオブジェクト座標系と第1の追跡カメラ座標系との間の第4の姿勢変換を判定するように構成される。
カメラ追跡システムによる関連する方法および関連するコンピュータプログラム製品が開示される。
実施形態にかかる他の外科手術システム、方法、およびコンピュータプログラム製品は、以下の図面および詳細な説明を検討する際に当業者にとって明らかであるか、または明らかになるであろう。そのような全ての外科手術システム、方法、およびコンピュータプログラム製品は、本説明に含まれ、本開示の範囲内にあり、添付の特許請求の範囲によって保護されることが意図される。さらに、本明細書に開示される全ての実施形態が別々に実装されても、任意の方法および/または組み合わせで組み合わされてもよいことが意図される。
本開示のさらなる理解を提供するために含まれ、且つ本出願に組み込まれてその一部を構成する添付の図面は、本発明の概念の特定の非限定的な実施形態を例示する。図面では、以下のとおりである:
図1は、本開示のいくつかの実施形態にかかる外科手術システムの実施形態を示している。 図2は、本開示のいくつかの実施形態にかかる、図1の外科手術システムの外科手術ロボットコンポーネントを示している。 図3Aは、本開示のいくつかの実施形態にかかる、図1の外科手術システムのカメラ追跡システムコンポーネントを示している。 図3Bは、本開示のいくつかの実施形態にかかる、図1の外科手術システムとともに使用されることができる別のカメラ追跡システムコンポーネントの正面図を示している。 図3Cは、本開示のいくつかの実施形態にかかる、図1の外科手術システムとともに使用されることができる別のカメラ追跡システムコンポーネントの等角図を示している。 図4は、ロボットアームに接続可能であり、且つ本開示のいくつかの実施形態にしたがって構成されたエンドエフェクタの実施形態を示している。 図5は、外科手術ロボットおよびカメラシステムが患者の周りに配設されている医療手術を示している。 図6は、医療手術に使用される図5の外科手術システムのコンポーネントのブロック図を示している。 図7は、外科手術システムのナビゲーション機能を使用するときに図5および図6のディスプレイに表示されることができる様々な表示画面を示している。 図8は、本開示のいくつかの実施形態にかかる、外科手術ロボットのいくつかの電気的コンポーネントのブロック図を示している。 図9は、本開示のいくつかの実施形態にかかる、カメラ追跡システムおよび/または外科手術ロボットに動作可能に接続できるコンピュータプラットフォームに接続された撮像デバイスを含む外科手術システムのコンポーネントのブロック図を示している。 図10は、本開示のいくつかの実施形態にしたがって外科手術ロボットと組み合わせて使用できるCアーム撮像デバイスの実施形態を示している。 図11は、本開示のいくつかの実施形態にしたがって外科手術ロボットと組み合わせて使用できるOアーム撮像デバイスの実施形態を示している。 図12は、本開示のいくつかの実施形態にしたがって動作する1対のXRヘッドセットおよび補助追跡バーを含む外科手術システムのコンポーネントのブロック図を示している。 図13は、本開示のいくつかの実施形態にしたがって構成されたXRヘッドセットを示している。 図14は、本開示のいくつかの実施形態にしたがってコンピュータプラットフォーム、撮像デバイス(単数または複数)、および/または外科手術ロボットに動作可能に接続できるXRヘッドセットの電気的コンポーネントを示している。 図15は、本開示のいくつかの実施形態にかかる、XRヘッドセットの光学部品の配置を示すブロック図を示している。 図16は、本開示のいくつかの実施形態にしたがって医療処置中に外科手術器具を操作するためにナビゲーション支援を提供するためのXRヘッドセットの表示画面を介した例示的な図を示している。 図17は、本開示のいくつかの実施形態にしたがって構成された2対のステレオカメラを有する補助追跡バーの例示的な構成を示している。 図18は、本開示のいくつかの実施形態にしたがって集合的に動作する1対のXRヘッドセットおよび補助追跡バーにナビゲーションカメラを含む外科手術システムのコンポーネントのブロック図を示している。 図19は、本開示のいくつかの実施形態にかかる、カメラ追跡システムとともに動作して、いずれかのXRヘッドセットによって完全に直接観察することができない動的参照アレイ基準の姿勢を協調的に追跡する1対のXRヘッドセットを示している。 図20は、本開示のいくつかの実施形態にしたがって動作する外科手術システムの様々なコンポーネント間の情報フローのブロック図を示している。 図21は、本開示のいくつかの実施形態にかかる、カメラ追跡システムによって実行されることができる姿勢連鎖動作のフローチャートである。
ここで、本発明の概念の例示的な実施形態が示されている添付の図面を参照して、本発明の概念を以下でより完全に説明する。しかしながら、本発明の概念は、多くの異なる形態で具体化されてもよく、本明細書に記載される実施形態に限定されると解釈されるべきではない。むしろ、これらの実施形態は、本開示が徹底的且つ完全であり、様々な本発明の概念の範囲を当業者に完全に伝えるように提供される。これらの実施形態が相互に排他的ではないことにも留意されたい。1つの実施形態からのコンポーネントが、別の実施形態に存在するか、または別の実施形態で使用されると暗に想定され得る。
本明細書に開示される様々な実施形態は、外科手術中のコンピュータ支援ナビゲーションの改善を対象とする。エクステンデットリアリティ(XR)ヘッドセットは、外科手術システムに動作可能に接続され、外科医、助手、および/または他の従事者が患者の画像を視認し、および患者の画像内から選択し、コンピュータで生成された外科手術ナビゲーション情報を視認し、および外科手術ナビゲーション情報内から選択し、および/または手術室内の外科器具を制御することができるインタラクティブな環境を提供するように構成されている。以下に説明するように、XRヘッドセットは、コンピュータで生成されたXR画像によって実世界シーンを増強するように構成されることができる。XRヘッドセットは、コンピュータで生成されたXR画像を、実世界シーンからの光が通過してユーザによって組み合わせて視認することができるシースルー表示画面に表示することにより、拡張現実(AR)表示環境を提供するように構成されることができる。あるいは、XRヘッドセットは、ユーザがコンピュータで生成されたAR画像を表示画面上で視認している間、実世界シーンからの光がユーザによって直接視認されるのを防止または実質的に防止することによって、仮想現実(VR)表示環境を提供するように構成されることができる。XRヘッドセットは、ARおよびVR表示環境の双方を提供するように構成されることができる。一実施形態では、ARおよびVR表示環境の双方は、VR表示環境が不透明度の高いバンドに位置合わせされたXR画像に提供され、AR表示環境が不透明度の低いバンドに位置合わせされたXR画像に提供されるように、シースルー表示画面と実世界シーンとの間に配置された実質的に異なる不透明度の横方向バンドによって提供される。別の実施形態では、ARおよびVR表示環境の双方は、ユーザによって視認されるXR画像と組み合わせるために、実世界シーンからの光がシースルー表示画面を通過する量を可変的に制限する不透明度フィルタのコンピュータ調整可能な制御によって提供される。したがって、XRヘッドセットはまた、ARヘッドセットまたはVRヘッドセットと呼ばれることもできる。
図1は、本開示のいくつかの実施形態にかかる外科手術システム2の実施形態を示している。整形外科手術または他の外科的処置の実施前に、例えば、図10のCアーム撮像デバイス104または図11のOアーム撮像デバイス106を使用して、またはコンピュータ断層撮影(CT)画像もしくはMRIなどの別の医療撮像デバイスから、患者の計画された外科手術エリアの三次元(「3D」)画像スキャンを行うことができる。このスキャンは、術前(例えば、最も一般的には処置の数週間前)または術中に行うことができる。しかしながら、外科手術システム2の様々な実施形態にしたがって、任意の既知の3Dまたは2D画像スキャンを使用することができる。画像スキャンは、カメラ追跡システムコンポーネント6、外科手術ロボット4(例えば、図1のロボット2)、撮像デバイス(例えば、Cアーム104、Oアーム106など)、および患者の画像スキャンを保存するための画像データベース950を含むことができる外科手術システム900(図9)のコンピュータプラットフォーム910などの、外科手術システム2と通信するコンピュータプラットフォームに送信される。コンピュータプラットフォーム910(図9)のディスプレイデバイス上で画像スキャン(単数または複数)をレビューする外科医は、患者の解剖学的構造に対する外科的処置中に使用される手術道具の目標姿勢を定義する外科手術計画を生成する。器具とも呼ばれる例示的な外科手術器具として、ドリル、スクリュードライバ、開創器、および、スクリュー、スペーサ、椎体間固定デバイス、プレート、ロッドなどのインプラントを挙げることができるが、これらに限定されるものではない。いくつかの実施形態では、ターゲット平面を画定する外科手術平面は、ディスプレイデバイスに表示される3D画像スキャンで計画される。
本明細書で使用される場合、「姿勢」という用語は、別のオブジェクトおよび/または定義された座標系に対する、あるオブジェクト(例えば、動的参照アレイ、エンドエフェクタ、手術道具、解剖学的構造など)の位置および/または回転角度を指す。したがって、姿勢は、別のオブジェクトおよび/または定義された座標系に対するあるオブジェクトの多次元位置のみに基づいて、別のオブジェクトおよび/または定義された座標系に対するオブジェクトの多次元回転角度のみに基づいて、または多次元位置と多次元回転角度との組み合わせに基づいて定義されることができる。したがって、「姿勢」という用語は、位置、回転角度、またはそれらの組み合わせを指すために使用される。
図1の外科手術システム2は、例えば、器具を保持すること、使用するために器具を位置合わせすること、器具を使用すること、器具を誘導すること、および/または器具を位置決めすることによって、医療処置中に外科医を支援することができる。いくつかの実施形態では、外科手術システム2は、外科手術ロボット4と、カメラ追跡システムコンポーネント6と、を含む。外科手術ロボット4とカメラ追跡システムコンポーネント6とを機械的に結合する機能により、外科手術システム2を単一のユニットとして操作し、移動することが可能になり、外科手術システム2は、面積の小さいフットプリントを有することが可能になり、狭い通路および曲がり角を通る動きをより容易にすることが可能になり、ならびにより狭い面積内のストレージを可能にすることができる。
外科的処置は、外科手術システム2を医療ストレージから医療処置室まで移動させることで開始することができる。外科手術システム2は、出入口、ホール、およびエレベータから医療処置室に到達するまでずっと操作されることができる。部屋の中で、外科手術システム2は、2つの分離した別個のシステム、外科手術ロボット4およびカメラ追跡システムコンポーネント6に、物理的に分離されることができる。外科手術ロボット4は、医療従事者を適切に支援するために、任意の好適な場所で患者に隣接して位置決めされることができる。カメラ追跡システムコンポーネント6は、患者の基部、患者の肩、または、外科手術ロボット4および患者の部分の現在の姿勢と追跡位置の姿勢の移動とを追跡するのに好適な任意の他の場所に位置決めされることができる。外科手術ロボット4およびカメラ追跡システムコンポーネント6は、オンボード電源によって電力供給され、および/または外部壁コンセントに差し込まれることができる。
外科手術ロボット4を使用して、医療処置中に用具を保持および/または使用することによって外科医を支援することができる。器具を適切に利用および保持するために、外科手術ロボット4は、適切に機能する複数のモータ、コンピュータ、および/またはアクチュエータに依存することができる。図1に示されるように、ロボット本体8は、複数のモータ、コンピュータ、および/またはアクチュエータが外科手術ロボット4内に固設されることができる構造として作用することができる。ロボット本体8はまた、ロボット伸縮式支持アーム16のための支持を提供することができる。ロボット本体8のサイズは、取り付けられたコンポーネントを支持する強固なプラットフォームを提供することができ、且つ取り付けられたコンポーネントを動作させることができる複数のモータ、コンピュータ、および/またはアクチュエータを収容し、隠し、且つ保護することができる。
ロボット基部10は、外科手術ロボット4の下部支持として作用することができる。いくつかの実施形態では、ロボット基部10は、ロボット本体8を支持することができ、且つロボット本体8を複数の動力付きホイール12に取り付けることができる。ホイールへのこの取り付けにより、ロボット本体8は空間内を効率的に移動することができる。ロボット基部10は、ロボット本体8の長さおよび幅方向に延びていてもよい。ロボット基部10は、約2インチ〜約10インチの高さとすることができる。ロボット基部10は、動力付きホイール12を被覆、保護、および支持することができる。
いくつかの実施形態では、図1に示されるように、少なくとも1つの動力付きホイール12をロボット基部10に取り付けることができる。動力付きホイール12は、任意の場所でロボット基部10に取り付けられることができる。各個々の動力付きホイール12は、任意の方向に垂直軸を中心として回転することができる。モータは、動力付きホイール12の上、その中、またはそれに隣接して配設されることができる。このモータにより、外科手術システム2を任意の場所へと操作し、外科手術システム2を安定化し、および/または水平にすることができる。動力付きホイール12内またはそれに隣接して位置するロッドは、モータによって表面に押し込まれることができる。図示されていないロッドは、外科手術システム2を持ち上げるのに好適な任意の金属で作製されることができる。ロッドは、外科手術システム2を持ち上げることができる動力付きホイール12を、患者に対して外科手術システム2の向きを水平にするか、または別様に固定するのに必要な任意の高さまで持ち上げることができる。外科手術システム2の重量は、各ホイール上のロッドによって小さい接触面積で支持され、医療処置中に外科手術システム2が移動することを阻止する。この堅固な位置決めは、オブジェクトおよび/または人々が偶発的に外科手術システム2を移動させることを阻止することができる。
外科手術システム2の移動を、ロボットレール材14を使用して容易にすることができる。ロボットレール材14は、ロボット本体8を把持することなく、外科手術システム2を移動させる能力を人に提供する。図1に示されるように、ロボットレール材14は、ロボット本体8の長さ方向にロボット本体8よりも短く延びていてもよく、および/またはロボット本体8の長さよりも長く延びていてもよい。ロボットレール材14は、ロボット本体8に対する保護をさらに備え、オブジェクトおよび/または従事者がロボット本体8に接触すること、ぶつかること、または衝突することを阻止することができる。
ロボット本体8は、以後「スカラ」と称する水平多関節ロボットのための支持を提供することができる。スカラ24は、ロボットアームの同時再現性およびコンパクトさゆえに、外科手術システム2内で使用するのに有益であり得る。スカラのコンパクトさは、医療処置内に追加の空間を提供することができ、それにより、医療専門家は、過度な乱雑さと制限されたエリアなしに、医療処置を実施することが可能になる。スカラ24は、ロボット伸縮式支持16、ロボット支持アーム18、および/またはロボットアーム20を含むことができる。ロボット伸縮式支持16は、ロボット本体8に沿って配設されることができる。図1に示されるように、ロボット伸縮式支持16は、スカラ24およびディスプレイ34のための支持を提供することができる。いくつかの実施形態では、ロボット伸縮式支持16は、垂直方向に延在および収縮することができる。ロボット伸縮式支持16の本体は、本体に加えられる応力および重量を支持するように構成された任意の幅および/または高さとすることができる。
いくつかの実施形態では、医療従事者は、医療従事者によって提出されたコマンドを介してスカラ24を移動させることができる。コマンドは、以下にさらに詳細に説明するように、ディスプレイ34、タブレット、および/またはXRヘッドセット(例えば、図9のヘッドセット920)で受信された入力から発信されることができる。XRヘッドセットは、医療従事者がディスプレイ34またはタブレットなどの任意の他のディスプレイを参照する必要性を排除することができ、これにより、ディスプレイ34および/またはタブレットなしでスカラ24を構成することが可能になる。コマンドは、スイッチの押し下げおよび/または複数のスイッチの押し下げによって生成されることができ、および/または以下にさらに詳細に説明するように、XRヘッドセットによって感知されるハンドジェスチャコマンドおよび/またはボイスコマンドに基づいて生成されることができる。
図5に示されるように、起動アセンブリ60は、スイッチおよび/または複数のスイッチを含むことができる。起動アセンブリ60は、移動コマンドをスカラ24に送信して、オペレータがスカラ24を手動で操作することを可能にするように動作可能であり得る。スイッチまたは複数のスイッチが押し下げられると、医療従事者は、加えられた手の移動を介してスカラ24を移動させる能力を有することができる。これに代えて、またはこれに加えて、オペレータは、以下にさらに詳細に説明するように、XRヘッドセットによって感知されるハンドジェスチャコマンドおよび/またはボイスコマンドを介してスカラ24の移動を制御することができる。さらに、スカラ24が移動させるためのコマンドを受信していないとき、スカラ24は、従事者および/または他のオブジェクトによる偶発的な移動を阻止するように所定の位置にロックすることができる。所定の位置にロックすることにより、スカラ24は、エンドエフェクタ26が医療処置中に外科手術器具を誘導することができる堅固なプラットフォームを提供する。
ロボット支持アーム18は、様々な機構によってロボット伸縮式支持16に接続されることができる。いくつかの実施形態では、図1および図2に最もよく見られるように、ロボット支持アーム18は、ロボット伸縮式支持16に対して任意の方向に回転する。ロボット支持アーム18は、ロボット伸縮式支持16の周りで360度回転することができる。ロボットアーム20は、任意の好適な位置で、ロボット支持アーム18に対して任意の方向への回転を可能にする様々な機構によって、ロボット支持アーム18に接続することができる。一実施形態では、ロボットアーム20は、ロボット支持アーム18に対して360度回転することができる。この自由回転により、オペレータは、外科手術計画にしたがってロボットアーム20を位置決めすることができる。
図4および図5に示されるエンドエフェクタ26は、任意の好適な場所でロボットアーム20に取り付けられることができる。エンドエフェクタ26は、外科手術ロボット4によって位置決めされたロボットアーム20のエンドエフェクタカプラ22に取り付けられるように構成されることができる。例示的なエンドエフェクタ26は、外科的処置が実施される解剖学的構造に対して挿入された外科手術器具の移動を誘導する管状ガイドを含む。
いくつかの実施形態では、動的参照アレイ52は、エンドエフェクタ26に取り付けられている。本明細書で「DRA」とも呼ばれる動的参照アレイは、患者の解剖学的構造(例えば、骨)、手術室内の従事者によって着用されている1つ以上のXRヘッドセット、エンドエフェクタ、外科手術ロボット、ナビゲートされる外科的処置における外科手術器具上に配設されることができる剛性体である。カメラ追跡システムコンポーネント6または他の3D位置特定システムと組み合わされるコンピュータプラットフォーム910は、DRAの姿勢(例えば、位置および回転の向き)をリアルタイムで追跡するように構成されている。DRAは、例示されるボールの配列などの基準を含む。DRAの3D座標のこの追跡により、外科手術システム2は、図5の患者50の目標の解剖学的構造に関連する任意の多次元空間におけるDRAの姿勢を判定することができる。
図1に示されるように、光インジケータ28は、スカラ24の頂部上に位置決めされることができる。光インジケータ28は、外科手術システム2が現在動作している「状況」を示すために、任意のタイプの光として照明することができる。いくつかの実施形態では、光は、光インジケータ28の周りにリングを形成することができるLED電球によって生成されることができる。光インジケータ28は、光インジケータ28の全体にわたって光を輝かせることができる完全に透過性の材料を含むことができる。光インジケータ28は、下部ディスプレイ支持30に取り付けられることができる。図2に示されるように、下部ディスプレイ支持30により、オペレータは、ディスプレイ34を任意の好適な場所まで操作することが可能になる。下部ディスプレイ支持30は、任意の好適な機構によって光インジケータ28に取り付けられることができる。いくつかの実施形態では、下部ディスプレイ支持30は、光インジケータ28を中心として回転することができるか、または光インジケータ28に堅固に取り付けられることができる。上部ディスプレイ支持32は、任意の好適な機構によって下部ディスプレイ支持30に取り付けられることができる。
いくつかの実施形態では、タブレットをディスプレイ34と併せて、および/またはディスプレイ34なしで使用することができる。タブレットは、ディスプレイ34の代わりに上部ディスプレイ支持32上に配設されてもよく、医療手術中に上部ディスプレイ支持32から取り外し可能であってもよい。さらに、タブレットは、ディスプレイ34と通信することができる。タブレットは、任意の好適な無線および/または有線接続によって外科手術ロボット4に接続することができ得る。いくつかの実施形態では、タブレットは、医療手術中に外科手術システム2をプログラムおよび/または制御することができ得る。タブレットを用いて外科手術システム2を制御しているとき、全ての入力および出力コマンドをディスプレイ34上で複製することができる。タブレットの使用により、オペレータは、患者50の周りを移動し、および/または外科手術ロボット4まで移動する必要なしに、外科手術ロボット4を操作することができる。
以下に説明するように、いくつかの実施形態では、外科医および/または他の従事者は、ディスプレイ34および/またはタブレットと組み合わせて使用されることができるXRヘッドセットを着用することができるか、またはXRヘッド(単数または複数)は、ディスプレイ34および/またはタブレットの使用の必要性を排除することができる。
図3Aおよび図5に示されるように、カメラ追跡システムコンポーネント6は、有線または無線の通信ネットワークを介して外科手術ロボット4と協働する。図1、図3、および図5を参照すると、カメラ追跡システムコンポーネント6は、外科手術ロボット4と同様のいくつかのコンポーネントを含むことができる。例えば、カメラ本体36は、ロボット本体8に見られる機能を提供することができる。ロボット本体8は、カメラ46が取り付けられる補助追跡バーを提供することができる。ロボット本体8内の構造も、カメラ追跡システムコンポーネント6を動作させるために使用される電子機器、通信デバイス、および電源のための支持を提供することができる。カメラ本体36は、ロボット本体8と同じ材料で作製されることができる。カメラ追跡システムコンポーネント6は、無線および/または有線のネットワークによってXRヘッドセット、タブレット、および/またはディスプレイ34と直接通信して、XRヘッドセット、タブレット、および/またはディスプレイ34がカメラ追跡システムコンポーネント6の機能を制御することを可能にすることができる。
カメラ本体36は、カメラ基部38によって支持される。カメラ基部38は、ロボット基部10として機能することができる。図1の実施形態では、カメラ基部38は、ロボット基部10よりも広くてもよい。カメラ基部38の幅は、カメラ追跡システムコンポーネント6が外科手術ロボット4と接続することを可能にすることができる。図1に示されるように、カメラ基部38の幅は、ロボット基部10の外側に嵌合するのに十分な大きさとすることができる。カメラ追跡システムコンポーネント6と外科手術ロボット4とが接続されているとき、カメラ基部38の追加の幅は、外科手術システム2の追加の操作性と外科手術システム2の支持を可能にすることができる。
ロボット基部10と同様に、複数の動力付きホイール12がカメラ基部38に取り付けられることができる。動力付きホイール12により、カメラ追跡システムコンポーネント6は、ロボット基部10および動力付きホイール12の動作と同様に、患者50に対して固定された向きを安定化して水平にするか、またはそれを設定することができる。この安定化により、カメラ追跡システムコンポーネント6が医療処置中に移動することを防止することができ、図3Aおよび図5に示されるように、補助追跡バー上のカメラ46が、XRヘッドセットおよび/または外科手術ロボット4に接続されたDRAの軌跡を見失うこと、および/または指定されたエリア56内の解剖学的構造54および/または器具58に接続された1つ以上のDRA52の軌跡を見失うことを阻止することができる。追跡のこの安定性と維持は、カメラ追跡システムコンポーネント6で効果的に動作する外科手術ロボット4の能力を強化する。さらに、広いカメラ基部38は、カメラ追跡システムコンポーネント6に追加の支持を提供することができる。具体的には、図3Aおよび図5に示されるように、幅広のカメラ基部38により、カメラ46が患者の上に配設されたときに、カメラ追跡システムコンポーネント6が転倒するのを防止することができる。
カメラ伸縮式支持40は、補助追跡バー上のカメラ46を支持することができる。実施形態では、伸縮式支持40は、カメラ46を垂直方向に上下に移動させる。カメラハンドル48は、任意の好適な位置でカメラ伸縮式支持40に取り付けられることができ、オペレータが医療手術の前にカメラ追跡システムコンポーネント6を計画された位置に移動させることを可能にするように構成されることができる。実施形態では、カメラハンドル48を使用して、カメラ伸縮式支持40を下降および上昇させる。カメラハンドル48は、ボタン、スイッチ、レバー、および/またはそれらの任意の組み合わせの押し下げによって、カメラ伸縮式支持40の上昇および下降を実施することができる。
下部カメラ支持アーム42は、任意の好適な場所でカメラ伸縮式支持40に取り付けることができ、実施形態では、図1に示されるように、下部カメラ支持アーム42は、伸縮式支持40の周りで360度回転することができる。この自由な回転により、オペレータはカメラ46を任意の好適な場所に位置決めすることができる。下部カメラ支持アーム42は、任意の好適な機構によって伸縮式支持40に接続することができる。下部カメラ支持アーム42を使用して、カメラ46のための支持を提供することができる。カメラ46は、任意の好適な機構によって下部カメラ支持アーム42に取り付けられることができる。カメラ46は、カメラ46と下部カメラ支持アーム42との間の取り付け面積で任意の方向に旋回することができる。実施形態では、湾曲レール44は、下部カメラ支持アーム42上に配設されることができる。
湾曲レール44は、下部カメラ支持アーム42上の任意の好適な場所に配設されることができる。図3Aに示されるように、湾曲レール44は、任意の好適な機構によって下部カメラ支持アーム42に取り付けられることができる。湾曲レール44は、任意の好適な形状とすることができ、好適な形状は、三日月形、円形、卵形、楕円形、および/またはそれらの任意の組み合わせとすることができる。カメラ46は、湾曲レール44に沿って移動可能に配設されることができる。カメラ46は、例えば、ローラ、ブラケット、ブレース、モータ、および/またはそれらの任意の組み合わせによって、湾曲レール44に取り付けられることができる。例示されていないモータおよびローラを使用して、湾曲レール44に沿ってカメラ46を移動させることができる。図3Aに示されるように、医療処置中に、カメラ46が1つ以上のDRAを視認することをオブジェクトが阻止している場合、モータは、それに応答して湾曲レール44に沿ってカメラ46を移動させることができる。この電動化された動きにより、カメラ46は、カメラ追跡システムコンポーネント6を移動させることなく、オブジェクトによってもはや妨げられない新たな位置に移動することができる。カメラ46が1つ以上の追跡されるDRAを視認することが妨げられている間、カメラ追跡システムコンポーネント6は、停止信号を外科手術ロボット4、XRヘッドセット、ディスプレイ34、および/またはタブレットに送信することができる。停止信号は、カメラ46が追跡されるDRA52を再取得するまで、および/またはXRヘッドセットを装着しているおよび/またはディスプレイ34および/またはタブレットを視認しているオペレータに警告することができるまで、スカラ24が移動することを防止することができる。このスカラ24は、カメラ追跡システムがDRAの追跡を再開することができるまで、ベースおよび/またはエンドエフェクタカプラ22のさらなる移動を停止することによって、停止信号の受信に応答するように構成されることができる。
図3Bおよび図3Cは、図1の外科手術システムとともに使用されることができるか、または外科手術ロボットとは独立して使用されることができる別のカメラ追跡システムコンポーネント6’の正面図および等角図を示している。例えば、カメラ追跡システムコンポーネント6’は、ロボットガイダンスの使用を伴わないナビゲートされる外科手術を提供するために使用されることができる。図3Bおよび図3Cのカメラ追跡システムコンポーネント6’と図3Aのカメラ追跡システムコンポーネント6との違いの1つは、図3Bおよび図3Cのカメラ追跡システムコンポーネント6’が、コンピュータプラットフォーム910を運搬するハウジングを含むことである。コンピュータプラットフォーム910は、カメラ追跡動作を実行してDRAを追跡し、外科手術ナビゲーション情報をディスプレイデバイス、例えば、XRヘッドセットおよび/または他のディスプレイデバイスに提供するナビゲートされる外科手術動作を実行し、本明細書に開示される他の計算動作を実行するように構成されることができる。したがって、コンピュータプラットフォーム910は、図14の1つ以上のナビゲーションコンピュータなどのナビゲーションコンピュータを含むことができる。
図6は、医療手術に使用される図5の外科手術システムのコンポーネントのブロック図を示している。図6を参照すると、補助追跡バー上のナビゲーションカメラ46は、ナビゲーション視野600を有し、ここで、患者に取り付けられた参照アレイ602の姿勢(例えば、位置および向き)、外科手術器具に取り付けられた参照アレイ604、およびロボットアーム20が、追跡される。ナビゲーションカメラ46は、以下に記載される動作を実行するように構成されたコンピュータプラットフォーム910を含む、図3Bおよび図3Cのカメラ追跡システムコンポーネント6’の一部とすることができる。参照アレイは、既知のパターンで光を反射することによって追跡を可能にし、既知のパターンがデコードされて、外科手術ロボット4の追跡サブシステムによってそれぞれの姿勢を判定する。患者の参照アレイ602と補助追跡バー上のナビゲーションカメラ46との間の視線が(例えば、医療従事者、器具などによって)遮断された場合、外科手術器具のさらなるナビゲーションを実行することができない可能性があり、応答通知は、ロボットアーム20および外科手術ロボット4のさらなる移動を一時的に停止し、ディスプレイ34に警告を表示し、および/または医療従事者に可聴警告を提供することができる。ディスプレイ34は、外科医610および助手612がアクセス可能であるが、視認するには、患者から顔をそらし、眼の焦点を異なる距離および場所に変化させる必要がある。ナビゲーションソフトウェアは、外科医からの音声指示に基づいて、技術従事者614によって制御されることができる。
図7は、外科手術システム2のナビゲーション機能を使用するときに、外科手術ロボット4によって図5および図6のディスプレイ34に表示されることができる様々な表示画面を示している。表示画面は、開発された外科手術計画に基づいて、および/または追跡される参照アレイの姿勢に基づいて、解剖学的構造に対して表示画面に位置決めされた器具のモデルのグラフィック表現がオーバーレイされた患者の放射線写真、外科的処置の異なる段階および仮想的に投影されたインプラントの寸法パラメータ(例えば、長さ、幅、および/または直径)を制御するための様々なユーザ選択可能なメニューを含むことができるが、これに限定されるものではない。
ナビゲートされる外科手術のために、外科手術の術前計画、例えば、インプラント配置、および計画された外科的処置中の1人または複数のユーザにナビゲーション情報を提供するためのコンピュータプラットフォーム910への計画の電子転送を可能にする、以下に記載される様々な処理コンポーネント(例えば、コンピュータプラットフォーム910)および関連付けられたソフトウェアが提供される。
ロボットナビゲーションのために、外科手術の術前計画、例えば、インプラント配置、および外科手術ロボット4への計画の電子転送を可能にする、以下に記載される様々な処理コンポーネント(例えば、コンピュータプラットフォーム910)および関連付けられたソフトウェアが提供される。外科手術ロボット4は、計画を使用して、ロボットアーム20および接続されたエンドエフェクタ26を誘導して、計画された外科的処置のステップのための患者の解剖学的構造に対する外科手術器具の目標姿勢を提供する。
以下の様々な実施形態は、外科医610、助手612、および/または他の医療従事者が着用できる1つ以上のXRヘッドセットを使用して、外科手術ロボット、カメラ追跡システム6/6’、および/または手術室の他の医療機器から情報を受信し、および/またはこれらに制御コマンドを提供するための改善されたユーザインターフェースを提供することを対象とする。
図8は、本開示のいくつかの実施形態にかかる、外科手術ロボット4のいくつかの電気的コンポーネントのブロック図を示している。図8を参照すると、ロードセル(図示せず)は、エンドエフェクタカプラ22に加えられた力を追跡するように構成されることができる。いくつかの実施形態では、ロードセルは、複数のモータ850、851、852、853、および/または854と通信することができる。ロードセルが力を感知する際、加えられた力の量に関する情報が、スイッチアレイおよび/または複数のスイッチアレイからコントローラ846に配信されることができる。コントローラ846は、ロードセルから力情報を取得し、力情報をスイッチアルゴリズムで処理することができる。スイッチアルゴリズムは、コントローラ846によって使用されて、モータドライバ842を制御する。モータドライバ842は、モータ850、851、852、853、および854のうちの1つ以上の動作を制御する。モータドライバ842は、特定のモータに、例えば、モータを介してロードセルによって測定された等しい量の力を生成するように指示することができる。いくつかの実施形態では、生成される力は、コントローラ846の指示どおりに、複数のモータ、例えば、850〜854から生じることができる。さらに、モータドライバ842は、コントローラ846から入力を受信することができる。コントローラ846は、ロードセルによって感知された力の方向に関してロードセルから情報を受信することができる。コントローラ846は、運動コントローラアルゴリズムを使用して、この情報を処理することができる。このアルゴリズムを使用して、特定のモータドライバ842に情報を提供することができる。力の方向を複製するために、コントローラ846は、特定のモータドライバ842を起動および/または起動解除することができる。コントローラ846は、1つ以上のモータ、例えば850〜854のうちの1つ以上を制御して、ロードセルによって感知された力の方向にエンドエフェクタ26の運動を誘起することができる。この力によって制御される運動により、オペレータは、スカラ24および受動的なエンドエフェクタ26を楽に、および/またはほとんど抵抗なく移動させることができる。エンドエフェクタ26の移動は、医療従事者が使用するために、エンドエフェクタ26を任意の好適な姿勢(すなわち、規定された三次元(3D)直交基準軸に対する場所および角度の向き)に位置決めするように実行されることができる。
図5に最もよく例示されている起動アセンブリ60は、エンドエフェクタカプラ22を包むブレスレットの形態をなすことができる。起動アセンブリ60は、スカラ24の任意の部分、エンドエフェクタカプラ22の任意の部分に位置することができ、医療従事者および/またはそれらの任意の組み合わせによって着用される(および無線で通信する)ことができる。起動アセンブリ60は、一次ボタンおよび二次ボタンを備えることができる。
一次ボタンを押し下げることにより、オペレータは、スカラ24およびエンドエフェクタカプラ22を移動させることができ得る。一実施形態によれば、一旦設置されると、スカラ24およびエンドエフェクタカプラ22は、オペレータがスカラ24およびエンドエフェクタカプラ22を移動させるように外科手術ロボット4をプログラムするまで移動しないことが可能であるか、または一次ボタンを使用して移動される。いくつかの例では、スカラ24およびエンドエフェクタカプラ22がオペレータコマンドに応答する前に、少なくとも2つの隣接しない一次起動スイッチを押し下げることを必要とすることができる。少なくとも2つの一次起動スイッチを押し下げることにより、医療処置中のスカラ24およびエンドエフェクタカプラ22の偶発的な移動を防止することができる。
一次ボタンによって起動されると、ロードセルは、オペレータ、すなわち、医療従事者によってエンドエフェクタカプラ22に及ぼされる力の大きさおよび/または方向を測定することができる。この情報は、スカラ24およびエンドエフェクタカプラ22を移動させるために使用されることができる、スカラ24内の1つ以上のモータ、例えば850〜854のうちの1つ以上に転送されることができる。ロードセルによって測定された力の大きさおよび方向に関する情報は、1つ以上のモータ、例えば850〜854のうちの1つ以上に、ロードセルによって感知されるのと同じ方向にスカラ24およびエンドエフェクタカプラ22を移動させることができる。この力制御型の動きにより、モータがスカラ24およびエンドエフェクタカプラ22を移動させるのと同時に、オペレータがスカラ24およびエンドエフェクタカプラ22を移動させるため、オペレータは、楽に、且つ大きな労力なしに、スカラ24およびエンドエフェクタカプラ22を移動することが可能になり得る。
いくつかの例では、二次ボタンは、「選択」デバイスとしてオペレータによって使用されることができる。医療手術中、外科手術ロボット4は、XRヘッドセット(単数または複数)920、ディスプレイ34および/または光インジケータ28によって特定の状況を医療従事者に通知することができる。XRヘッドセット(単数または複数)920は各々、シースルー表示画面上に画像を表示して、シースルー表示画面を通して視認可能な実世界のオブジェクト上にオーバーレイされるエクステンデットリアリティ画像を形成するように構成されている。医療従事者は、外科手術ロボット4によって、機能、モードを選択し、および/または外科手術システム2の状況を評価するように促されることがある。二次ボタンを1回押し下げることにより、特定の機能、モードが起動され、および/またはXRヘッドセット(単数または複数)920、ディスプレイ34、および/もしくは光インジケータ28を介して医療従事者に伝達される情報が確認されることができる。これに加えて、二次ボタンを素早く連続して複数回押し下げると、追加の機能、モードを起動し、および/またはXRヘッドセット(単数または複数)920、ディスプレイ34、および/もしくは光インジケータ28を介して医療従事者に伝達される情報を選択することができる。
図8をさらに参照すると、外科手術ロボット4の電気的コンポーネントは、プラットフォームサブシステム802、コンピュータサブシステム820、運動制御サブシステム840、および追跡サブシステム830を含む。プラットフォームサブシステム802は、バッテリ806、配電モジュール804、コネクタパネル808、および充電ステーション810を含む。コンピュータサブシステム820は、コンピュータ822、ディスプレイ824、およびスピーカ826を含む。運動制御サブシステム840は、ドライバ回路842、モータ850、851、852、853、854、スタビライザ855、856、857、858、エンドエフェクタコネクタ844、およびコントローラ846を含む。追跡サブシステム830は、位置センサ832、およびカメラコンバータ834を含む。外科手術ロボット4はまた、取り外し可能なフットペダル880、および取り外し可能なタブレットコンピュータ890を含むことができる。
入力電力は、配電モジュール804に提供されることができる電源を介して外科手術ロボット4に供給される。配電モジュール804は、入力電力を受け取り、且つ外科手術ロボット4の他のモジュール、コンポーネント、およびサブシステムに提供される異なる電源電圧を生成するように構成されている。配電モジュール804は、コンピュータ822、ディスプレイ824、スピーカ826、ドライバ842などの他のコンポーネントに、例えば、動力モータ850〜854およびエンドエフェクタカプラ844に提供され、且つカメラコンバータ834および外科手術ロボット4の他のコンポーネントに提供されることができる、異なる電圧供給をコネクタパネル808に提供するように構成されることができる。配電モジュール804はまた、バッテリ806に接続されてもよく、バッテリは、配電モジュール804が入力電力から電力を受信しない場合の一時的な電源として役立つ。他の場合には、配電モジュール804は、バッテリ806を充電するのに役立つ場合がある。
コネクタパネル808は、異なるデバイスおよびコンポーネントを外科手術ロボット4ならびに/または関連付けられたコンポーネントおよびモジュールに接続するのに役立つことができる。コネクタパネル808は、異なるコンポーネントからの配線または接続部を受容する1つ以上のポートを含むことができる。例えば、コネクタパネル808は、外科手術ロボット4を他の機器に接地することができる接地端子ポートと、フットペダル880を接続するポートと、位置センサ832、カメラコンバータ834、およびDRA追跡カメラ870を含むことができる追跡サブシステム830に接続するポートと、を有することができる。コネクタパネル808はまた、コンピュータ822などの他のコンポーネントへのUSB、Ethernet、HDMI通信を可能にする他のポートを含むことができる。いくつかの実施形態に従えば、コネクタパネル808は、1つ以上のXRヘッドセット920を追跡サブシステム830および/またはコンピュータサブシステム820に動作可能に接続するための有線および/または無線インターフェースを含むことができる。
制御パネル816は、外科手術ロボット4の動作を制御し、および/またはオペレータが観察するための外科手術ロボット4からの情報を提供する、様々なボタンまたはインジケータを提供することができる。例えば、制御パネル816は、外科手術ロボット4の電源を入れたり切ったりするため、垂直支柱16を持ち上げたり下降させたりするため、ならびにキャスタ12と係合して外科手術ロボット4を物理的に移動しないようにロックするように設計されることができるスタビライザ855〜858を持ち上げたり下降させたりするための、ボタンを含むことができる。他のボタンは、緊急事態の際に外科手術ロボット4を停止することができ、これにより、全てのモータ電力を取り除いて、機械的ブレーキを適用して、全ての運動の発生を停止することができる。制御パネル816はまた、配線電力インジケータまたはバッテリ806の充電状態などの特定のシステムの状況をオペレータに通知するインジケータを有することができる。いくつかの実施形態によれば、1つ以上のXRヘッドセット920は、例えばコネクタパネル808を介して通信して、外科手術ロボット4の動作を制御し、および/またはXRヘッドセット920を装着している人による観察のために外科手術ロボット4によって生成された情報を受信および表示することができる。
コンピュータサブシステム820のコンピュータ822は、外科手術ロボット4の割り当てられた機能を動作させるためのオペレーティングシステムおよびソフトウェアを含む。コンピュータ822は、情報をオペレータに表示するために、他のコンポーネント(例えば、追跡サブシステム830、プラットフォームサブシステム802、および/または運動制御サブシステム840)から情報を受信して処理することができる。さらに、コンピュータサブシステム820は、スピーカ826を介してオペレータに出力を提供することができる。スピーカは、外科手術ロボットの一部とすることができるか、XRヘッドセット920の一部とすることができるか、または外科手術システム2の別のコンポーネント内にあることができる。ディスプレイ824は、図1および図2に示されるディスプレイ34に対応することができる。
追跡サブシステム830は、位置センサ832、およびカメラコンバータ834を含むことができる。追跡サブシステム830は、図3のカメラ追跡システムコンポーネント6に対応することができる。DRA追跡カメラ870は、位置センサ832とともに動作して、DRA52の姿勢を判定する。この追跡は、LEDまたは反射マーカなどのDRA52の能動的または受動的な要素の場所をそれぞれ追跡する赤外線または可視光技術の使用を含む、本開示に矛盾しない様式で行うことができる。
追跡サブシステム830およびコンピュータサブシステム820の機能的動作は、図3Aおよび図3Bのカメラ追跡システムコンポーネント6’によって運搬できるコンピュータプラットフォーム910に含めることができる。追跡サブシステム830は、姿勢、例えば、追跡されるDRAの位置および角度の向きを判定するように構成されることができる。コンピュータプラットフォーム910はまた、判定された姿勢を使用して、計画された外科的処置中に、位置登録された患者画像および/または追跡される解剖学的構造に対する追跡される器具の動きを誘導するナビゲーション情報をユーザに提供するように構成されたナビゲーションコントローラを含むことができる。コンピュータプラットフォーム910は、図3Bおよび図3Cのディスプレイ、および/または1つ以上のXRヘッドセット920に情報を表示することができる。コンピュータプラットフォーム910は、外科手術ロボットとともに使用される場合、コンピュータサブシステム820および図8の他のサブシステムと通信して、エンドエフェクタ26の移動を制御するように構成されることができる。例えば、以下に説明するように、コンピュータプラットフォーム910は、表示されるサイズ、形状、色、および/または姿勢を有する、患者の解剖学的構造、外科手術器具、ユーザの手などの、1つ以上の追跡されるDRAの判定された姿勢(単数または複数)に基づいて制御されるグラフィック表現を生成することができ、および表示されるそのグラフィック表現を動的に修正して、判定された姿勢の経時的な変化を追跡することができる。
運動制御サブシステム840は、垂直支柱16、上部アーム18、下部アーム20を物理的に移動させるか、またはエンドエフェクタカプラ22を回転させるように構成されることができる。物理的な動きは、1つ以上のモータ850〜854を使用することによって行うことができる。例えば、モータ850は、垂直支柱16を垂直に持ち上げるまたは下降させるように構成されることができる。モータ851は、図2に示されるように、垂直支柱16との係合点の周りで上部アーム18を横方向に移動させるように構成されることができる。モータ852は、図2に示されるように、上部アーム18との係合点の周りで下部アーム20を横方向に移動させるように構成されることができる。モータ853および854は、エンドエフェクタカプラ22を移動させて、三次元軸の周りに沿って並進の動きおよび回転を提供するように構成されることができる。図9に示されるコンピュータプラットフォーム910は、エンドエフェクタカプラ22の移動を誘導するコントローラ846に制御入力を提供して、エンドエフェクタカプラに接続された受動的なエンドエフェクタを、計画された外科的処置中に手術される解剖学的構造に対して、計画された姿勢(すなわち、定義された3D直交基準軸に対する場所および角度の向き)で位置決めすることができる。運動制御サブシステム840は、統合された位置センサ(例えば、エンコーダ)を使用して、エンドエフェクタカプラ22および/またはエンドエフェクタ26の位置を測定するように構成されることができる。
図9は、カメラ追跡システムコンポーネント6(図3A)または6’(図3B、図3C)、および/または本開示のいくつかの実施形態にかかる外科手術ロボット4に動作可能に接続されることができるコンピュータプラットフォーム910に接続された撮像デバイス(例えば、Cアーム104、Oアーム106など)を含む外科手術システムのコンポーネントのブロック図を示している。これに代えて、コンピュータプラットフォーム910によって実行されるものとして本明細書に開示される少なくともいくつかの動作は、追加的または代替的に、外科手術システムのコンポーネントによって実行されることができる。
図9を参照すると、コンピュータプラットフォーム910は、ディスプレイ912、少なくとも1つのプロセッサ回路914(簡潔にするためにプロセッサとも呼ばれる)、コンピュータ可読プログラムコード918を内包する少なくとも1つのメモリ回路916(簡潔にするためにメモリとも呼ばれる)、および少なくとも1つのネットワークインターフェース902(簡潔にするためにネットワークインターフェースとも呼ばれる)を含む。ディスプレイ912は、本開示のいくつかの実施形態にかかるXRヘッドセット920の一部とすることができる。ネットワークインターフェース902は、図10のCアーム撮像デバイス104、図11のOアーム撮像デバイス106、別の医療撮像デバイス、患者の医療画像を内包する画像データベース950、外科手術ロボット4のコンポーネント、および/または他の電子機器に接続するように構成されることができる。
外科手術ロボット4とともに使用される場合、ディスプレイ912は、図2のディスプレイ34、および/または図8のタブレット890、および/または外科手術ロボット4に動作可能に接続されたXRヘッドセット920に対応することができ、ネットワークインターフェース902は、図8のプラットフォームネットワークインターフェース812に対応することができ、プロセッサ914は、図8のコンピュータ822に対応することができる。XRヘッドセット920のネットワークインターフェース902は、有線ネットワーク、例えば、シンワイヤEthernetを介して、および/または1つ以上の無線通信プロトコル、例えば、WLAN、3GPP 4Gおよび/または5G(新無線)セルラー通信規格などにしたがって無線RF送受信リンクを介して通信するように構成されることができる。
プロセッサ914は、汎用および/または専用プロセッサ、例えば、マイクロプロセッサおよび/またはデジタル信号プロセッサなどの1つ以上のデータ処理回路を含むことができる。プロセッサ914は、メモリ916内のコンピュータ可読プログラムコード918を実行して、外科手術計画、ナビゲートされる外科手術、および/またはロボット外科手術のために実行されるものとして本明細書に記載される動作の一部または全てを含むことができる動作を実行するように構成されている。
コンピュータプラットフォーム910は、外科手術計画機能性を提供するように構成されることができる。プロセッサ914は、撮像デバイス104および106のうちの一方から、および/またはネットワークインターフェース902を介して画像データベース950から受信された解剖学的構造、例えば椎骨の画像をディスプレイデバイス912および/またはXRヘッドセット920に表示するように動作することができる。プロセッサ914は、計画された外科的処置のためにオペレータタッチがディスプレイ912上の場所を選択することによって、または計画された外科的処置のための場所を定義するためにマウスベースのカーソルを使用することなどによって、1つ以上の画像で示される解剖学的構造が、外科的処置、例えばスクリュー配置を受ける場所のオペレータの定義を受信する。画像がXRヘッドセット920に表示される場合、XRヘッドセットは、着用者によって形成されたジェスチャベースのコマンドで感知するように、および/または着用者によって話されたボイスベースのコマンドを感知するように構成されることができ、これを使用してメニュー項目間の選択を制御し、および/または以下にさらに詳述するように、XRヘッドセット920にオブジェクトがどのように表示されるかを制御することができる。
コンピュータプラットフォーム910は、股関節の中心、角度の中心、天然の目印(例えば、トランス上顆線、ホワイトサイド線、後顆線など)などを決定する様々な角度の測定のような、膝の外科手術に特に有用であり得る生体構造の測定を可能にするように構成されることができる。いくつかの測定は、自動とすることができる一方で、いくつかの他の測定は、人間の入力または支援を伴うことができる。コンピュータプラットフォーム910は、オペレータが、サイズおよび整列の選択を含む、患者のための正しいインプラントの選択を入力することを可能にするように構成されることができる。コンピュータプラットフォーム910は、CT画像または他の医療画像に対して自動または半自動(人間の入力を伴う)のセグメンテーション(画像処理)を実行するように構成されることができる。患者の外科手術計画は、外科手術ロボット4による検索のために、データベース950に対応することができるクラウドベースのサーバに記憶されることができる。
例えば、整形外科手術中に、外科医は、コンピュータ画面(例えば、タッチ画面)または例えばXRヘッドセット920を介したエクステンデットリアリティ(XR)インタラクション(例えば、ハンドジェスチャベースのコマンドおよび/またはボイスベースのコマンド)を使用して、どのカットを作成するか(例えば、後部大腿骨、近位脛骨など)を選択することができる。コンピュータプラットフォーム910は、外科的処置を実行するために外科医に視覚的ガイダンスを提供するナビゲーション情報を生成することができる。外科手術ロボット4とともに使用される場合、コンピュータプラットフォーム910は、外科手術ロボット4がエンドエフェクタ26を目標姿勢に自動的に移動させて、外科手術器具が目標場所に整列されて解剖学的構造に対する外科的処置を実行するようにすることを可能にするガイダンスを提供することができる。
いくつかの実施形態では、外科手術システム900は、2つのDRAを使用して、患者の脛骨に接続されたもの、および患者の大腿骨に接続されたものなど、患者の生体構造の位置を追跡することができる。システム900は、位置合わせおよび確認のための標準のナビゲート器具(例えば、脊椎外科手術のためにGlobus ExcelsiusGPSシステムで使用されるものと同様のポインタ)を使用することができる。
ナビゲートされる外科手術で特に難しい作業は、3D解剖学的構造の2D表現であるコンピュータ画面上で外科医が作業を実行するのに苦労する脊椎、膝、および他の解剖学的構造におけるインプラントの位置を計画する方法である。システム900は、XRヘッドセット920を使用して、解剖学的構造および候補インプラントデバイスのコンピュータで生成された三次元(3D)表現を表示することによって、この問題に対処することが可能である。コンピュータで生成された表現は、コンピュータプラットフォーム910のガイダンスの下で、表示画面上で互いに対してスケーリングおよび姿勢決めされ、XRヘッドセット920を介して視認される間、外科医によって操作されることができる。外科医は、例えば、XRヘッドセット920によって感知されるハンドジェスチャベースのコマンドおよび/またはボイスベースのコマンドを使用して、解剖学的構造、インプラント、外科手術器具などの、表示された、コンピュータで生成された表現を操作することができる。
例えば、外科医は、仮想インプラント上の表示された仮想ハンドルを視認することができ、仮想ハンドルを操作し(例えば、つかんで移動させ)て、仮想インプラントを所望の姿勢に移動させ、解剖学的構造のグラフィック表現に対する計画されたインプラントの配置を調整することができる。その後、外科手術中に、コンピュータプラットフォーム910は、XRヘッドセット920を介してナビゲーション情報を表示することが可能であり、これにより、インプラントを挿入するための外科的計画により正確に追従し、および/または解剖学的構造に対する別の外科的処置を実行する外科医の能力が増進される。外科的処置が骨除去を伴う場合、骨除去の進行、例えば切込みの深さを、XRヘッドセット920を介してリアルタイムで表示することができる。XRヘッドセット920を介して表示されることができる他の特徴として、関節運動の範囲に沿った間隙または靭帯のバランス、関節運動の範囲に沿ったインプラントの接触線、色または他のグラフィックレンダリングによる靭帯の緊張および/または弛緩などを挙げることができるが、これらに限定されるものではない。
いくつかの実施形態では、コンピュータプラットフォーム910は、標準の外科手術器具および/またはインプラント、例えば、後方安定化インプラントおよび十字型保持インプラント、セメント固定およびセメントレスインプラント、例えば、膝関節全置換もしくは部分置換術、および/または股関節置換術、および/または外傷に関連した外科手術のための是正システムの使用を計画することを可能にすることができる。
自動撮像システムをコンピュータプラットフォーム910と連携して使用して、解剖学的構造の術前、術中、術後、および/またはリアルタイムの画像データを取得することができる。例示的な自動撮像システムが、図10および図11に例示されている。いくつかの実施形態では、自動撮像システムは、Cアーム104(図10)撮像デバイスまたはOアーム(登録商標)106(図11)である。(Oアーム(登録商標)は、米国コロラド州ルイスビルに事業所を置くMedtronic Navigation,Inc.が著作権を所有している)。X線システムで必要とされることができる、患者の頻繁な手動による再位置決めを必要とすることなく、いくつかの異なる位置から患者のX線を撮像することが望ましい場合がある。Cアーム104のX線診断機器は、頻繁な手動による再位置決めの問題を解決することができ、外科手術および他の介在する処置の医療分野でよく知られている場合がある。図10に示されるように、Cアームは、「C」形状の対向する遠位端112で終端する細長いC形状の部材を含む。C形状の部材は、X線源114および画像受信器116に取り付けられている。アームのCアーム104内の空間は、X線支持構造からの干渉が実質的にない状態で医師が患者に付き添う余地を提供する。
Cアームは、2つの自由度における(すなわち、球面運動における2つの直交軸を中心とする)アームの回転の動きを可能にするように装着されている。Cアームは、X線支持構造に摺動可能に装着され、これにより、Cアームの曲率中心を中心とした周回回転方向の動きが可能になり、X線源114および画像受信器116を垂直および/または水平方向に選択的に向けることを可能にすることができる。Cアームはまた、横方向(すなわち、患者の幅および長さの双方に対するX線源114および画像受信器116の選択的に調節可能な位置決めを可能にする周回方向に対して直交方向)に回転可能であってもよい。Cアーム装置の球面回転の態様により、医師は、撮像されている特定の解剖学的状況に関して決定された最適な角度で患者のX線を撮像することができる。
図11に示されているOアーム(登録商標)106は、例示されていない画像キャプチャ部分を取り囲むことができるガントリハウジング124を含む。画像キャプチャ部分は、X線源および/または放射部分と、X線受信および/または画像受信部分と、を含み、これらを互いに約180度に配設し、画像キャプチャ部分の追跡に対してロータ(例示せず)上に装着することができる。画像キャプチャ部分は、画像取得中に360度回転するように動作可能であってもよい。画像キャプチャ部分は、中心点および/または軸を中心として回転することができ、患者の画像データが複数の方向から、または複数の平面で取得されることを可能にする。
ガントリハウジング124を備えたOアーム(登録商標)106は、撮像される物体の周りに位置決めするための中央開口部と、ガントリハウジング124の内部の周りで回転可能な放射線源と、を有し、放射線源は、複数の異なる投影角度から放射線を投影するように適合されることができる。検出器システムは、各投影角度で放射線を検出して、物体画像を複数の投影面から擬似的に同時に取得するように適合されている。ガントリは、カンチレバー様式で、ホイールを有するホイール付き移動式カートなどの支持構造Oアーム(登録商標)支持構造に取り付けることができる。位置決めユニットは、好ましくはコンピュータ化された運動制御システムの制御下で、ガントリを計画された位置および向きに並進および/または傾斜させる。ガントリは、ガントリ上で互いに対向して配設された供給源および検出器を含むことができる。供給源および検出器は、供給源および検出器を互いに協調させてガントリの内部の周りで回転させることができる電動ロータに固設されることができる。供給源は、ガントリの内側に位置する目標オブジェクトの多平面撮像のために、部分的および/または完全に360度の回転にわたって複数の位置および向きでパルス化されることができる。ガントリは、ロータが回転するときにロータを誘導するためのレールおよび支承システムをさらに備えることができ、これは、供給源および検出器を搬送することができる。Oアーム(登録商標)106およびCアーム104の双方および/またはいずれかを自動撮像システムとして使用して、患者をスキャンし、情報を外科手術システム2に送ることができる。
撮像システムによってキャプチャされた画像は、XRヘッドセット920および/またはコンピュータプラットフォーム910の別のディスプレイデバイス、外科手術ロボット4、および/または外科手術システム900の別のコンポーネントに表示されることができる。XRヘッドセット920は、例えば、コンピュータプラットフォーム910を介して、撮像デバイス104および/または106のうちの1つ以上、および/または画像データベース950に接続されて、画像データベース950からの画像を表示することができる。ユーザは、XRヘッドセット920を介して制御入力、例えば、ジェスチャおよび/またはボイスベースのコマンドを提供して、撮像デバイス104および/または106および/または画像データベース950のうちの1つ以上の動作を制御することができる。
図12は、図13に示されるXRヘッドセット920に対応し、且つ本開示のいくつかの実施形態にしたがって動作することができるXRヘッドセット1200および1210(ヘッドマウントディスプレイHMD1およびHMD2)の対を含む外科手術システムの構成要素のブロック図を示している。
図12の例示的なシナリオを参照すると、助手612および外科医610は、双方とも、それぞれXRヘッドセット1200および1210を着用している。助手612がXRヘッドセット1210を着用することは任意である。XRヘッドセット1200および1210は、着用者が、以下にさらに記載するように、外科的処置に関連した情報を視認し、および情報とインタラクトすることができるインタラクティブな環境を提供するように構成されている。このインタラクティブなXRベースの環境は、技術従事者614が手術室に存在する必要性を排除することができ、図6に示されるディスプレイ34の使用の必要性を排除することができる。各XRヘッドセット1200および1210は、器具、解剖学的構造、エンドエフェクタ26、および/または他の機器に取り付けられたDRAまたは他の参照アレイの追加の追跡ソースを提供するように構成された1つ以上のカメラを含むことができる。図12の例では、XRヘッドセット1200は、DRAおよび他のオブジェクトを追跡するための視野(FOV)1202を有し、XRヘッドセット1210は、DRAおよび他のオブジェクトを追跡するためのFOV1202と部分的に重なるFOV1212を有し、ナビゲーションカメラ46は、DRAおよび他のオブジェクトを追跡するために、FOV1202および1212と部分的に重複する別のFOV600を有する。
1つ以上のカメラが、追跡されるオブジェクト、例えば外科手術器具に取り付けられたDRAを視認するのを妨げられているが、DRAが1つ以上の他のカメラを視野に入れている場合、追跡サブシステム830および/またはナビゲーションコントローラ828は、ナビゲーションを喪失せずにシームレスにオブジェクトを追跡し続けることができる。これに加えて、1つのカメラの観点からDRAが部分的に隠れているが、DRA全体が複数のカメラソースを介して視認可能である場合、カメラの追跡入力を統合して、DRAのナビゲーションを続けることができる。XRヘッドセットおよび/またはナビゲーションカメラ46のうちの1つは、XRヘッドセットの別の1つでDRAを表示および追跡して、コンピュータプラットフォーム910(図9および図14)、追跡サブシステム830、および/または別のコンピューティングコンポーネントを有効にし、1つ以上の定義された座標系、例えば、XRヘッドセット1200/1210、ナビゲーションカメラ46、および/または患者、テーブル、および/または部屋に対して定義された別の座標系に対するDRAの姿勢を判定することができる。
XRヘッドセット1200および1210は、神経モニタリング、顕微鏡、ビデオカメラ、および麻酔システムを含むがこれらに限定されない手術室内の様々な機器から受信されたビデオ、写真、および/または他の情報を表示するように、および/またはこれらの機器を制御するコマンドを提供するように動作可能に接続されることができる。様々な機器からのデータは、例えば、患者のバイタルサインまたは顕微鏡フィードの表示など、ヘッドセット内で処理および表示されることができる。
例示的なXRヘッドセットコンポーネントと、ナビゲートされた外科手術、外科手術ロボット、およびその他の機器への統合
図13は、本開示のいくつかの実施形態にしたがって構成されたXRヘッドセット920を示している。XRヘッドセットは、XRヘッドセットを着用者の頭に固定するように構成されたヘッドバンド1306、ヘッドバンド1306によって支持される電子的コンポーネントエンクロージャ1304、および電子的コンポーネントエンクロージャ1304を横切って下向きに延びる表示画面1302を含む。表示画面1302は、シースルーLCDディスプレイデバイス、またはディスプレイデバイスによって着用者の眼に向けて投影された画像を反射する半反射レンズとすることができる。ヘッドセットの片側または両側に配置された既知の間隔を空けて、例えばドットなどのDRA基準のセットがペイントされるかまたは取り付けられる。ヘッドセットのDRAは、補助追跡バー上のナビゲーションカメラがヘッドセット920の姿勢を追跡することを可能にし、および/または別のXRヘッドセットがヘッドセット920の姿勢を追跡することを可能にする。
表示画面1302は、ディスプレイデバイスのディスプレイパネルからユーザの眼に向けて光を反射する、コンバイナとも呼ばれるシースルー表示画面として動作する。ディスプレイパネルを、電子的コンポーネントエンクロージャとユーザの頭との間に位置させることができ、ユーザの眼に向けた反射のために、表示画面1302に向けて仮想コンテンツを投影するように角度付けすることができる。表示画面1302が半透明および半反射であることにより、ユーザに、実世界シーンのユーザのビューに重畳された反射された仮想コンテンツが見えるようになる。表示画面1302は、下側横方向バンドよりも高い不透明度を有する図示の上側横方向バンドなど、異なる不透明度領域を有することができる。表示画面1302の不透明度は、実世界シーンからユーザの眼に通過する光の量を調整するために電子的に制御されることができる。表示画面1302の高不透明性構成は、実世界シーンの薄暗いビュー上にオーバーレイされた高コントラストの仮想画像をもたらす。表示画面1302の低不透明性構成は、実世界シーンのよりクリアなビュー上にオーバーレイされた、よりかすかな仮想画像をもたらすことができる。不透明度は、表示画面1302の表面に不透明な材料を適用することによって制御されることができる。
いくつかの実施形態によれば、外科手術システムは、XRヘッドセット920およびXRヘッドセットコントローラ、例えば、図14のコントローラ1430または図34のコントローラ3410を含む。XRヘッドセット920は、外科手術中にユーザが着用するように構成されており、XR画像を表示するように、且つ実世界シーンの少なくとも一部分がユーザによる視認のために通過できるように構成されたシースルー表示画面1302を有する。XRヘッドセット920はまた、ユーザがシースルー表示画面1302を視認するときに、ユーザの眼のうちの少なくとも1つと実世界シーンとの間に配置される不透明フィルタを含む。不透明フィルタは、実世界シーンからの光に対する不透明性を提供するように構成されている。XRヘッドセットコントローラは、ナビゲーションコントローラ、例えば、図14のコントローラ(単数または複数)828A、828B、および/または828Cと通信して、解剖学的構造に対する外科的処置中にユーザにガイダンスを提供するナビゲーションコントローラからナビゲーション情報を受信するように構成されており、シースルー表示画面1302に表示するためのナビゲーション情報に基づいてXR画像を生成するようにさらに構成されている。
表示画面1302の不透明度は、表示画面1302の上部から下向きの距離でより連続的に変化する不透明性を有する勾配として構成されることができる。勾配の最も暗い点は、表示画面1302の上部に位置することができ、不透明度が透明になるか、または存在しなくなるまで、表示画面1302上でさらに下方へと徐々に不透明度が低くなる。例示的なさらなる実施形態では、勾配は、表示画面1302のほぼ眼の中央のレベルで、約90%の不透明度から完全に透明に変化することができる。ヘッドセットが適切に調整および配置されている場合、眼の中央のレベルは、ユーザが真っ直ぐに見るポイントに対応し、勾配の端部は、眼の「水平」線に位置する。勾配の暗い部分は、仮想コンテンツの鮮明でクリアなビジュアルを可能にし、頭上の手術室ライトの邪魔な輝度を遮断するのに役立つ。
このように不透明フィルタを使用することにより、XRヘッドセット920は、表示画面1302の上部に沿って実世界シーンからの光を実質的または完全に遮断することによって仮想現実(VR)能力を提供し、且つ表示画面1302の中央または下部に沿ってAR能力を提供することが可能になる。これにより、ユーザは、必要に応じてARを半透明にできるようになり、処置中における患者の生体構造のクリアな光学系が可能になる。表示画面1302を、より一定の不透明性バンドに代えて勾配として構成することにより、着用者は、実世界シーンの輝度と、上向きのビューと下向きのビューとの間のより急速なシフト中などに、なければ眼を緊張させ得る被写界深度と、の急峻な変化を経験することなく、よりVRタイプのビューからよりARタイプのビューへのより自然な遷移を体験できるようになる。
ディスプレイパネルおよび表示画面1302は、広視野のシースルーXRディスプレイシステムを提供するように構成されることができる。例示的な一構成では、それらは、ユーザが仮想コンテンツを視認するための55°の垂直範囲を備えた80°の対角視野(FOV)を提供する。他の対角FOV角度および垂直カバレッジ角度は、異なるサイズのディスプレイパネル、異なる曲率レンズ、および/またはディスプレイパネルと湾曲表示画面1302との間の異なる距離および角度の向きを介して提供されることができる。
図14は、コンピュータプラットフォーム910に、Cアーム撮像デバイス104、Oアーム撮像デバイス106などの撮像デバイスのうちの1つ以上および/または画像データベース950に、および/または本開示の様々な実施形態にかかる外科手術ロボット800に動作可能に接続されることができるXRヘッドセット920の電気的コンポーネントを例示している。
XRヘッドセット920は、ナビゲートされる外科的処置を実行するための改善されたヒューマンインターフェースを提供する。XRヘッドセット920は、例えば、コンピュータプラットフォーム910を介して、以下のうちの1つ以上を含むがこれらに限定されない機能を提供するように構成されることができる:ハンドジェスチャベースのコマンドおよび/または音声ベースのコマンドの識別、ディスプレイデバイス1450上のXRグラフィカルオブジェクトの表示。ディスプレイデバイス1450は、表示されたXRグラフィックオブジェクトを表示画面1302に投影するビデオプロジェクタ、フラットパネルディスプレイなどとすることができる。ユーザは、XRグラフィカルオブジェクトを、表示画面1302(図13)を介して見られる特定の実世界のオブジェクトに固定されたオーバーレイとして見ることができる。XRヘッドセット920は、追加的または代替的に、1つ以上のXRヘッドセット920に取り付けられたカメラおよび他のカメラからのビデオフィードを表示画面1302に表示するように構成されることができる。
XRヘッドセット920の電気的コンポーネントは、複数のカメラ1440、マイクロフォン1442、ジェスチャセンサ1444、姿勢センサ(例えば、慣性測定ユニット(IMU))1446、ディスプレイデバイス1450を含むディスプレイモジュール1448、および無線/有線通信インターフェース1452を含むことができる。以下に説明するように、XRヘッドセットのカメラ1440は、可視光キャプチャカメラ、近赤外線キャプチャカメラ、または双方の組み合わせとすることができる。
カメラ1440は、カメラ(単数または複数)1440の視野内で実行されるユーザのハンドジェスチャの識別のためにキャプチャすることによって、ジェスチャセンサ1444として動作するように構成されることができる。これに代えて、ジェスチャセンサ1444は、近接センサ、および/またはジェスチャセンサ1444に近接して実行されるハンドジェスチャを感知し、および/または物理的接触、例えばセンサまたはエンクロージャ1304をタッピングすることを感知するタッチセンサとすることができる。姿勢センサ1446、例えばIMUは、1つ以上の定義された座標軸に沿ったXRヘッドセット920の回転および/または加速度を感知することができる多軸加速度計、傾斜センサ、および/または別のセンサを含むことができる。これらの電気的コンポーネントのいくつかまたは全ては、コンポーネントエンクロージャ1304に内包されることができるか、または腰もしくは肩などの他の箇所で着用されるように構成された別のエンクロージャに内包されることができる。
上で説明したように、外科手術システム2は、カメラ追跡システムコンポーネント6/6’と、コンピュータプラットフォーム910の一部とすることができる追跡サブシステム830とを含む。外科手術システムは、撮像デバイス(例えば、Cアーム104、Oアーム106、および/または画像データベース950)および/または外科手術ロボット4を含むことができる。追跡サブシステム830は、解剖学的構造、エンドエフェクタ、外科手術器具などに取り付けられたDRAの姿勢を判定するように構成される。ナビゲーションコントローラ828は、例えば、解剖学的構造上で外科手術器具を使用して且つ追跡サブシステム830によって判定された解剖学的構造の姿勢に基づいて外科的処置がどこで実行されるかを定義する、図9のコンピュータプラットフォーム910によって実行される外科的計画機能からの外科的計画に基づいて、解剖学的構造に対する外科手術器具の目標姿勢を判定するように構成される。ナビゲーションコントローラ828は、さらに、外科手術器具の目標姿勢、解剖学的構造の姿勢、および外科手術器具および/またはエンドエフェクタの姿勢に基づいて操舵情報を生成するように構成されることができ、ここで、操舵情報は、外科手術計画を実行するために外科手術器具および/または外科手術ロボットのエンドエフェクタが移動される必要がある場合を示す。
XRヘッドセット920の電気的コンポーネントは、有線/無線インターフェース1452を介してコンピュータプラットフォーム910の電気的コンポーネントに動作可能に接続されることができる。XRヘッドセット920の電気的コンポーネントは、例えば、様々な撮像デバイス、例えば、Cアーム撮像デバイス104、I/Oアーム撮像デバイス106、画像データベース950に、および/または有線/無線インターフェース1452を介して他の医療機器に対して、コンピュータプラットフォーム910を介して動作可能に接続されることができるかまたは直接接続されることができる。
外科手術システム2は、さらに、XRヘッドセット920、コンピュータプラットフォーム910、および/または有線ケーブルおよび/または無線通信リンクで接続された別のシステムコンポーネントに常駐することができる少なくとも1つのXRヘッドセットコントローラ1430(簡潔にするために「XRヘッドセットコントローラ」とも呼ばれる)を含む。様々な機能は、XRヘッドセットコントローラ1430によって実行されるソフトウェアによって提供される。XRヘッドセットコントローラ1430は、解剖学的構造に対する外科的処置中にユーザにガイダンスを提供するナビゲーションコントローラ828からナビゲーション情報を受信するように構成されており、シースルー表示画面1302での投影のためのディスプレイデバイス1450での表示のためにナビゲーション情報に基づいてXR画像を生成するように構成されている。
表示画面(「シースルー表示画面」とも呼ばれる)1302に対するディスプレイデバイス1450の構成は、XRヘッドセット920を装着しているユーザが、実世界にあるように見えるXR画像を、表示画面1302を介して見るようにXR画像を表示するように構成されている。表示画面1302は、ユーザの眼の前のヘッドバンド1306によって位置決めされることができる。
XRヘッドセットコントローラ1430は、表示画面1302を視認する間、ユーザの頭またはユーザの体の他の箇所に着用されるように構成されたハウジング内にあることができるか、または表示画面1302に通信可能に接続されている間に表示画面1302を視認しているユーザから遠隔に位置することができる。XRヘッドセットコントローラ1430は、カメラ1440、マイクロフォン142、および/または姿勢センサ1446からの信号伝達を動作可能に処理するように構成されることができ、表示画面1302上で視認するユーザのためにディスプレイデバイス1450にXR画像を表示するように接続されている。したがって、XRヘッドセット920内の回路ブロックとして例示されるXRヘッドセットコントローラ1430は、XRヘッドセット920の他の例示されるコンポーネントに動作可能に接続されているが、必ずしも共通のハウジング(例えば、図13の電子的コンポーネントエンクロージャ1304)内に存在しないか、またはユーザによって運搬可能ではないことを理解されたい。例えば、XRヘッドセットコントローラ1430は、ひいては図3Bおよび図3Cに示されるコンピュータ追跡システムコンポーネント6’のハウジング内に存在することができるコンピュータプラットフォーム910内に存在することができる。
XRヘッドセットコンポーネントの光学配置の例
図34は、本開示のいくつかの実施形態にかかる、XRヘッドセット920の光学コンポーネントの配置を示すブロック図を示している。図34を参照すると、ディスプレイデバイス1450は、そこからの光がXR画像1450として表示画面1302に向けて投影されるXRヘッドセットコントローラ1430によって生成されたXR画像を表示するように構成されている。表示画面1302は、XR画像1450の光と実世界シーン1502からの光とを組み合わせて、ユーザの眼1510に向けられる合成拡張ビュー1504となるように構成されている。このように構成された表示画面1302は、シースルー表示画面として動作する。XRヘッドセット920は、任意の複数のナビゲーションカメラ1440を含むことができる。カメラ1440は、可視光キャプチャカメラ、近赤外線キャプチャカメラ、または双方の組み合わせとすることができる。
XRヘッドセットを介したユーザビューの例
XRヘッドセットの動作は、2D画像および3Dモデルの双方を表示画面1302に表示することができる。2D画像は、好ましくは、表示画面1302のより不透明なバンド(上側バンド)に表示されることができ、3Dモデルは、より好ましくは、環境領域として別途知られる、表示画面1302のより透明なバンド(下側バンド)に表示されることができる。表示画面1302が終了する下側バンドの下方において、着用者は、手術室の遮るもののないビューを有する。XRコンテンツが表示画面1302に表示されている場合、流動的であり得ることに留意されたい。3Dコンテンツが表示されている場合、コンテンツに対するヘッドセットの位置に応じて、不透明なバンドに移動することができ、2Dコンテンツが表示されている場合、透明なバンドに配置されて実世界に安定することができる。これに加えて、表示画面1302の全体は、ヘッドセットを外科手術計画のための仮想現実に変換するために電子制御下で暗くされることができるか、または医療処置中に完全に透明にされることができる。上記で説明したように、XRヘッドセット920および関連付けられた動作は、ナビゲートされる処置をサポートするだけでなく、ロボットにより支援される処置と組み合わせて実行されることができる。
図16は、本開示のいくつかの実施形態にかかる、医療処置中に外科手術器具1602を操作しているユーザにナビゲーション支援を提供するためのXRヘッドセット920の表示画面1302を介した例示的なビューを示している。図16を参照すると、外科手術器具1602に接続された動的参照アレイ1630および1632がカメラ1440(図15)および/または46(図6)の視野内になるように、外科手術器具1602が追跡される解剖学的構造の近傍にもたらされると、器具のグラフィック表現1600は、解剖学的構造のグラフィック表現1610に関連して2Dおよび/または3D画像で表示されることができる。ユーザは、視認されたグラフィック表現を使用して、器具のグラフィック表現1600から解剖学的構造のグラフィック表現1610を通って延在するものとして例示されることができる外科手術器具1602の軌跡1620を調整することができる。XRヘッドセット920はまた、テキスト情報および他のオブジェクト1640を表示することができる。表示された表示画面を横切って延びる破線1650は、異なる不透明度レベルの上側バンドと下側バンドとの間の分割例を表す。
表示画面1302に表示されることができる他のタイプのXR画像(仮想コンテンツ)は、これらに限定されるものではないが、以下のいずれか1つ以上を含むことができる:
1)患者の生体構造の2Dの体軸ビュー、矢状ビュー、および/または冠状ビュー、
2)計画された器具と現在追跡されている器具との対比と、外科手術インプラント場所と、のオーバーレイ、
3)術前画像のギャラリー、
4)顕微鏡および他の同様のシステム、またはリモートビデオ会議からのビデオフィード、
5)オプションならびに構成の設定およびボタン、
6)外科手術計画情報を有する患者の生体構造の浮遊3Dモデル、
7)浮遊する患者の生体構造に関連する外科手術器具のリアルタイム追跡、
8)指示およびガイダンスを有する患者の生体構造の拡張オーバーレイ、および
9)外科手術機器の拡張オーバーレイ。
追跡システムコンポーネントのためのカメラの構成例
図17は、本開示のいくつかの実施形態にしたがって構成された2対のステレオナビゲーションカメラを有する補助追跡バー46の例示的な構成を示している。補助追跡バー46は、図3A、図3B、および図3Cのカメラ追跡システムコンポーネントの一部である。一実施形態にかかる、ステレオナビゲーションカメラは、間隔を置いて配置された可視光キャプチャカメラのステレオ対と、間隔を空けて配置された近赤外線キャプチャカメラの別のステレオ対とを含む。あるいは、可視光キャプチャカメラの1つのステレオ対のみ、または近赤外線キャプチャカメラの1つのステレオ対のみが補助追跡バー46において使用されることができる。任意の複数の近赤外線および/または可視光カメラを使用することができる。
姿勢測定連鎖
上で説明したように、ナビゲートされた外科手術は、例えば、既知の方法で配置されたディスクまたは球などの間隔を空けた基準を含む取り付けられたDRAの姿勢を判定することなどによる、外科手術器具のコンピュータビジョン追跡および姿勢(例えば、6自由度座標系における位置および向き)の判定を含むことができる。コンピュータビジョンは、近赤外線および/または可視光をキャプチャするように構成された、間隔を空けて配置されたナビゲーションカメラ、例えばステレオカメラを使用する。このシナリオでは、(1)精度、(2)堅牢性、および(3)外科手術中のユーザの人間工学という最適化をめぐって共同で競合する3つのパラメータがある。
本開示のいくつかのさらなる態様は、1つ以上のXRヘッドセットに取り付けられた追加のナビゲーションカメラを組み込むことによって、上記の3つのパラメータの1つ以上の最適化を改善することができる方法で測定された姿勢を組み合わせる(連鎖する)コンピュータ動作に関する。図17に示されるように、本開示のいくつかの実施形態にしたがって、可視光追跡カメラのステレオ対および近赤外線追跡ナビゲーションカメラの別のステレオ対を、カメラ追跡システムコンポーネントの補助追跡バーに取り付けることができる。完全に観察された、または部分的に観察された(例えば、DRAの全ての基準未満が1対のステレオカメラによって見られる場合)DRAの姿勢を分析し、観察された姿勢または部分的な姿勢を、ナビゲートされた外科手術中の精度、堅牢性、および/または人間工学を向上させることができる方法で組み合わせる動作アルゴリズムが開示される。
上で説明したように、XRヘッドセットは、コンピュータで生成されたXR画像によって実世界シーンを補強するように構成されることができる。XRヘッドセットは、コンピュータで生成されたXR画像をシースルー表示画面に表示することによってXR表示環境を提供するように構成されることができ、これにより、実世界シーンからの光がそこを通過してユーザによる複合表示を可能にする。あるいは、XRヘッドセットは、実世界シーンからの光が、表示されたXR画像の表示経路に沿ってユーザによって直接見られるのを防止または実質的に防止することによって、VR表示環境を提供するように構成されることができる。XRヘッドセットは、ARおよびVR表示環境の双方を提供するように構成されることができる。一実施形態では、ARおよびVR表示環境の双方は、不透明度の高いバンドに位置合わせされたXR画像のためにVR表示環境が提供され、不透明度の低いバンドに位置合わせされたXR画像のためにAR表示環境が提供されるように、シースルー表示画面と実世界シーンとの間に配置された実質的に異なる不透明度の横方向バンドによって提供される。別の実施形態では、ARおよびVR表示環境の双方は、ユーザによって見られるXR画像と組み合わせるために実世界シーンからの光がシースルー表示画面を通過する量を可変的に制限する不透明度フィルタのコンピュータ調整可能な制御によって提供される。したがって、XRヘッドセットはまた、ARヘッドセットまたはVRヘッドセットと呼ばれることもできる。
上でも説明したように、XRヘッドセットは、外科手術器具、患者の解剖学的構造、他のXRヘッドセット、および/またはロボットエンドエフェクタに接続されたDRAの基準を追跡するように構成された近赤外線追跡カメラおよび/または可視光追跡カメラを含むことができる。XRヘッドセットで近赤外線追跡および/または可視光追跡を使用すると、単一の補助追跡バー上のカメラが提供することができる範囲を超える追加の追跡ボリュームカバレッジを提供する。既存の補助追跡バーに近赤外線追跡カメラを追加すると、ヘッドセットの位置を可視光よりも確実に追跡することができるが、精度は低くなる。可視および近赤外線追跡座標系を機械的に較正することにより、座標系を十分に位置合わせして、ステレオマッチングを使用して3D DRA基準三角測量動作を実行し、可視および近赤外線追跡座標系間のDRA基準の姿勢を共同で識別することができる。可視および近赤外線追跡座標系の双方を使用すると、以下のいずれか1つ以上を有効にすることができる:(a)単一の座標系を使用して識別されない器具の識別、(b)姿勢追跡精度の向上、(c)外科手術器具、患者の解剖学的構造、および/またはロボットエンドエフェクタの追跡を失うことなく、より広い範囲の動きを可能にすること、および(d)ナビゲートされた外科手術器具と同じ座標系でXRヘッドセットを自然に追跡すること。
図18は、XRヘッドセット1200および1210の対のナビゲーションカメラ(ヘッドマウントディスプレイHMD1およびHMD2)およびコンピュータプラットフォーム910を収容するカメラ追跡システムコンポーネント6’のカメラ追跡バーのナビゲーションカメラを含む外科手術システムのコンポーネントのブロック図を示している。コンピュータプラットフォーム910は、図14に先に示したように、追跡サブシステム830、ナビゲーションコントローラ828、およびXRヘッドセットコントローラ1430を含むことができる。
図18の外科手術システムを参照すると、外科医および助手は、双方とも、それぞれが図13に示すように構成されることができるナビゲーションカメラを含む場合、XRヘッドセットHMD1 1200およびHMD2 1210をそれぞれ着用している。助手がXRヘッドセットHMD2 1210を着用することは任意である。
XRヘッドセットHMD1 1200およびHMD2 1210と補助追跡バー上のナビゲーションカメラ46との組み合わせは、コンピュータプラットフォーム910と連動して、患者参照アレイ(R)、ロボットエンドエフェクタ(E)、および外科手術器具(T)または器具の例示的なオブジェクトをより確実に追跡することができる。XRヘッドセットHMD1 1200およびHMD2 1210と、補助追跡バー上のナビゲーションカメラ46によって提供される、異なる視点からの重なり合うビューを図12に示す。
図18においてラベル付けされている各項目は、固有の座標系を表している。座標系ラベルの説明は、以下のとおりである:
A=第2のヘッドセットHMD2 1210の可視光座標系、
N3=第2のヘッドセットHMD2 1210のNIR座標系、
S=主ヘッドセットHMD1 1200の可視光座標系、
N2=主ヘッドセットHMD1 1200のNIR座標系、
N=補助ナビゲーションバー46のNIR座標系、
V=補助ナビゲーションバー46の可視光座標系、
R=患者参照基準アレイ602のNIR座標系、
T=追跡された器具604のNIR座標系、
E=ロボットアーム20上の追跡されたロボットエンドエフェクタのNIR座標系、および
W=安定した重力ベクトルを有する慣性的にナビゲートされる世界座標系。
これらのラベル付けされたオブジェクトの一部(およびひいては座標系)の空間的関係は、製造プロセス中、機器が手術室に設置されているとき、および/または外科的処置が実行される前に測定および較正されることができる。開示されたシステムでは、以下の座標系が較正される:
Figure 2021115483
ここで、「T」という用語は、示された2つの座標系間の6自由度(6DOF)のT均一変換として定義される。したがって、例えば、用語
Figure 2021115483
は、主ヘッドセットHMD1 1200の可視光座標系と主ヘッドセットHMD1 1200のNIR座標系との間の6自由度の均一変換である。
一実施形態では、XRヘッドセットHMD1 1200およびHMD2 1210は、図13に示されるDRA基準1310など、それらにペイントされるかまたは他の方法で取り付けられた受動可視光マーカ(座標系SおよびA)を有する。ナビゲーションカメラは、これらの受動基準(座標系N2およびN3)に合わせて空間的に較正される。
上で説明したように、XRヘッドセットHMD1 1200およびHMD2 1210上のカメラ、ならびに補助追跡バー上のナビゲーションカメラ46は、部分的に重なり合う視野を有する。XRヘッドセットHMD1 1200の1つ以上のカメラが、例えば追跡される器具(T)などの追跡されるオブジェクトに取り付けられたDRAの表示を妨げられているが、DRAが他のXRヘッドセットHMD2 1210のカメラおよび/または補助追跡バー上のナビゲーションカメラ46を表示している場合、コンピュータプラットフォーム910は、ナビゲーションを失うことなく、DRAをシームレスに追跡し続けることができる。これに加えて、XRヘッドセットHMD1 1200のカメラの視点からDRAが部分的に閉塞しているが、DRA全体が他のXRヘッドセットHMD2 1210のカメラおよび/または補助追跡バー上のナビゲーションカメラ46を介して見える場合、カメラの追跡入力をマージして、DRAのナビゲーションを続行することができる。
より具体的には、様々な座標系は、XRヘッドセットHMD1 1200およびHMD2 1210ならびに補助追跡バー上のナビゲーションカメラ46によって提供される様々なカメラシステムを独立して観察することにより、一体に連鎖されることができる。例えば、XRヘッドセットHMD1 1200およびHMD2 1210のそれぞれは、ロボットエンドエフェクタ(E)の仮想拡張を必要とする場合がある。1つのXRヘッドセットHMD1 1200(N2)および補助追跡バー(N)上のナビゲーションカメラ46は、(E)を見ることができるが、おそらく他のXRヘッドセットHMD2 1210(N3)は見ることができない。(N3)に対する(E)の位置は、いくつかの異なる動作方法の1つを介して計算されることができる。患者参照(R)から姿勢の連鎖を実行する一実施形態にかかる動作。患者参照(R)が(N3)と(N)または(N2)のいずれかによって見られる場合、(N3)に対する(E)の姿勢は、以下の2つの式のいずれかによって直接解くことができる。
Figure 2021115483
この姿勢連鎖の鍵となるのは、各連鎖の最後にあるフレーム間の関係が推測されることである(下方に丸で囲まれて移動される)。連鎖は、任意の長さとすることができ、複数のステレオカメラシステム(例えば、N、N2、N3)を有することによって有効にされる。
図21は、いくつかの実施形態にかかるカメラ追跡システムによって実行されることができる対応する動作のフローチャートである。図21を参照すると、カメラ追跡システムは、外科的処置中に、第1の追跡カメラ(例えば、N3)および第2の追跡カメラ(例えば、N2)から追跡されるオブジェクトに関連する追跡情報を受信する(2100)ように構成されることができる。カメラ追跡システムは、第1のオブジェクト(例えば、R)の姿勢を示す第1の追跡カメラ(例えば、N3)からの第1のオブジェクト追跡情報に基づいて、第1のオブジェクト(例えば、R)座標系と、第1の追跡カメラ(例えば、N3)座標系との間の第1の姿勢変換
Figure 2021115483
を判定することができる(2102)。カメラ追跡システムは、第1のオブジェクト(例えば、R)の姿勢を示す第2の追跡カメラ(例えば、N2)からの第1のオブジェクト追跡情報に基づいて、第1のオブジェクト(例えば、R)座標系と、第2の追跡カメラ(例えば、N2)座標系との間の第2の姿勢変換
Figure 2021115483
を判定することができる(2104)。カメラ追跡システムは、第2のオブジェクト(例えば、E)の姿勢を示す第2の追跡カメラ(例えば、N2)からの第2のオブジェクト追跡情報に基づいて、第2のオブジェクト(例えば、E)座標系と、第2の追跡カメラ(例えば、N2)座標系との間の第3の姿勢変換
Figure 2021115483
を判定することができる(2106)。カメラ追跡システムは、第1、第2、および第3の姿勢変換の組み合わせに基づいて、第2のオブジェクト(例えば、E)座標系と、第1の追跡カメラ(例えば、N3)座標系との間の第4の姿勢変換
Figure 2021115483
を判定することができる(2108)。
いくつかのさらなる実施形態では、カメラシステムは、第4の姿勢変換を介した追跡情報の処理に基づいて、第2のオブジェクト(例えば、E)および第1の追跡カメラシステム(例えば、N3)座標系の姿勢をさらに判定することができる(2110)。
様々なカメラシステムの視野が重複しているため、カメラ追跡システムは、第1のカメラが第2のオブジェクト(例えば、E)を見るのを妨げられたときに、第1の追跡カメラ(例えば、N3)に対する第2のオブジェクト(例えば、E)の姿勢を判定することができる。例えば、いくつかの実施形態では、カメラ追跡システムは、第2のオブジェクト(例えば、E)の姿勢を示す第1の追跡カメラ(例えば、N3)からの追跡情報を使用せずに、第2のオブジェクト(例えば、E)座標系と、第1の追跡カメラ(例えば、N3)座標系との間の第4の姿勢変換
Figure 2021115483
を判定するようにさらに構成される。
カメラ追跡システムは、第1のオブジェクト(例えば、R)の姿勢を示す第1の追跡カメラ(例えば、N3)からの追跡情報の第4の姿勢変換を介した処理に基づいて、第1のオブジェクト(例えば、R)の姿勢を示す第2の追跡カメラ(例えば、N2)からの追跡情報の第4の姿勢変換
Figure 2021115483
を介した処理に基づいて、および第2のオブジェクト(例えば、E)の姿勢を示す第2の追跡カメラ(例えば、N2)からの追跡情報の第4の姿勢変換を介した処理に基づいて、第1の追跡カメラ(例えば、N3)座標系における第2のオブジェクト(例えば、E)の姿勢を判定するようにさらに構成されることができる。
カメラ追跡システムは、複数のカメラシステムからの同期された画像をマージすることによって、より高い追跡精度を達成することができる。例えば、カメラ追跡システムは、複数の視点(第1および第2の追跡カメラ)からの第2のオブジェクト(例えば、E)の同期画像をマージすることによって、第1の追跡カメラ(例えば、N3)に対する第2のオブジェクト(例えば、E)の姿勢を判定することができ、それぞれのカメラの精度仕様に基づいて判定されることができる重み付けを使用することができる。より具体的には、カメラ追跡システムは、第2のオブジェクト(例えば、E)の姿勢を示す第1の追跡カメラ(例えば、N3)からの第2のオブジェクト追跡情報に基づいて、さらに、第1、第2、および第3の姿勢変換の組み合わせの結果に基づいて、第2のオブジェクト(例えば、E)座標系と、第1の追跡カメラ(例えば、N3)座標系との間の第4の姿勢変換
Figure 2021115483
を判定するようにさらに構成されることができる。
追跡システムは、第1の追跡カメラ(例えば、N3)からの第1および第2のオブジェクト追跡情報への第1の重みの適用、第2の追跡カメラ(例えば、N2)からの第1および第2のオブジェクト追跡情報への第2の重みの適用、および第1の追跡カメラからの第1の重み付けされた第1および第2のオブジェクト追跡情報、および第2の追跡カメラからの第2の重み付けされた第1および第2のオブジェクト追跡情報の第4の姿勢変換
Figure 2021115483
を介した処理に基づいて、第2のオブジェクト(例えば、E)の姿勢を判定するようにさらに構成されることができる。第1の重みの値は、第1の追跡カメラ(例えば、N3)の姿勢判定精度を示し、第2の重みの値は、第2の追跡カメラ(例えば、N2)の姿勢判定精度を示す。
カメラ追跡システムは、カメラ追跡システムの動作中の第1の追跡カメラ(例えば、N3)の姿勢判定精度の判定された変化に応答して、経時的に第1の重みの値を適応させ、カメラ追跡システムの動作中の第2の追跡カメラ(例えば、N2)の姿勢判定精度の判定された変化に応答して、経時的に第2の重みの値を適応させるようにさらに構成されることができる。
カメラ追跡システムは、以下のように構成されることができる:第1の追跡カメラ(例えば、N3)の姿勢判定精度が低減したと判定したことに基づいて、第1の重みの値を低減させ、第1の追跡カメラ(例えば、N3)の姿勢判定精度が増加したと判定したことに基づいて、第1の重みの値を増加させる。
カメラ追跡システムは、カメラ追跡システムの動作中の第2の追跡カメラ(例えば、N2)の姿勢判定精度と比較して、第1の追跡カメラ(例えば、N3)の姿勢判定精度の判定された変化に応答して、経時的に第1および第2の重みの少なくとも1つの値を適応させるようにさらに構成されることができる。
外科手術システムは、XRヘッドセットのシースルー表示画面上に、第4の姿勢変換に基づいて判定される姿勢を有するXR画像を表示するように構成されることができる。カメラ追跡システムは、第1および第2の追跡カメラからの第1のオブジェクト追跡情報ならびに第2の追跡カメラからの第2のオブジェクト追跡情報の第4の姿勢変換を介した処理に基づいてシースルー表示画面上に提示される第2のオブジェクト(例えば、E)のグラフィック表現としてXR画像を生成するようにさらに構成されることができる。
上で説明したように、カメラ追跡システムは、追跡情報を受信するために第1の追跡カメラ(例えば、N3)および第2の追跡カメラ(例えば、N2)に通信可能に接続され、第1、第2、第3、および第4の姿勢変換の判定を実行するように構成されたナビゲーションコントローラ828を含むことができる。
図19は、閉塞が双方のXRヘッドセットのカメラがエンドエフェクタ(E)に取り付けられた全てのDRA基準を直接見ることを防止する別のシナリオと、別の追跡されたDRA(例えば、R)に対するエンドエフェクタ(E)の姿勢を完全に解決するために実行されることができる関連する姿勢連鎖動作とを示している。ナビゲートされた器具(例えば、T)またはエンドエフェクタ(E)がXRヘッドセットのカメラのいずれによっても表示または認識されない場合であっても、ナビゲートされた器具(例えば、T)またはエンドエフェクタ(E)は、1つの接合座標系(例えば、R)に関連する複数の視点から観察可能なDRA基準を追跡することから得られた位置情報を融合することによって識別およびローカライズされることができる。
XRヘッドセットが、カメラの構成に応じて、近赤外線または可視光においていかなるオブジェクトも完全に識別していないが、1つ以上の漂遊DRA基準を識別している場合、追跡光システム(V、S、またはA)を使用して、1つ以上の漂遊DRA基準をそれぞれの画像に配置する予定の場所を大まかに知ることができる。この追加された追跡情報により、個々のDRA基準を識別し、小さな関心領域(ROI)内で適切にラベル付けすることができる。そして、異なる視点からキャプチャされた個々の漂遊DRA基準情報を組み合わせて、以前は識別できなかったDRAを識別することができるように相互に関連付けることができる。
図19のシナリオ例を参照すると、XRヘッドセット1200(座標系N2)は、患者参照DRA(R)の全ての基準を観察することができ、エンドエフェクタ(E)DRA基準(a)および(b)を部分的に観察することができるが、閉塞面1900が介在しているため、基準(c)および(d)を観察することができない。他のXRヘッドセット1210(座標系N3)もまた、患者参照DRA(R)の全ての基準を観察することができ、エンドエフェクタ(E)DRA基準(c)および(d)を部分的に観察することができるが、介在する閉塞面1900のため、基準(a)および(b)を観察することができない。
エンドエフェクタ(E)の姿勢の識別および解決は、追跡カメラ(N2)および(N3)から、(R)を使用してデータを同じ参照フレームに連鎖することによって達成されることができる。ヘッドセットカメラシステム(N2)も(N3)もエンドエフェクタ(E)を識別するのに十分なDRA基準を認識しない場合であっても、エンドエフェクタ(E)を構成する4つの個別のDRA基準(a、b、c、d)は、姿勢の連鎖に起因して参照(R)と同様に相互に関連して知られている。エンドエフェクタ(E)が外科手術において有効にナビゲートされるために必要なものは、エンドエフェクタ(E)と患者参照(R)との関係である。その情報は、どちらのカメラシステムからも以下のように独立して計算されることができる:
Figure 2021115483
姿勢連鎖は、
Figure 2021115483
を判定する。カメラ(N2およびN3)からエンドエフェクタ(E)の姿勢を検出して解決するために、ポイント(a、b、c、d)は、同じ座標系に配置される。以下の変換ベクトル動作は、見つかった漂遊DRA基準ごとに実行されることができる。これは、以下のように同じ患者参照(R)に関連する各DRA基準を提供する:
Figure 2021115483
患者参照に対する全ての漂遊DRA基準の位置が既知であると
Figure 2021115483
従来の3D「オブジェクトへのポイント」検出および姿勢回復アルゴリズムを実行して、患者参照オブジェクト(R)に対するロボットエンドエフェクタ(E)の位置および向きを判定することができる。検出および姿勢回復アルゴリズムの動作は、以下を含むことができる:基準間の定義されたセグメント長を含むDRA基準のパターンの事前定義されたモデルを取得すること、カメラで観測された基準間のセグメント長を測定すること、および観察された相対セグメント長を検索し、DRA基準のパターンの事前定義されたモデルから事前定義された相対セグメント長と比較すること。
いくつかの実施形態にかかるカメラ追跡システムによって実行されることができる様々な対応する動作を以下に説明する。上で説明したように、DRAは、それぞれ、第1のオブジェクト(例えば、R)、第2のオブジェクト(例えば、E)、第1の追跡カメラ(例えば、N3)、および第2の追跡カメラ(例えば、N2)のそれぞれに取り付けられる間隔を空けた基準を含むことができる。カメラ追跡システムは、さらに、第2のオブジェクト(例えば、E)に取り付けられた動的参照アレイの第1の部分的に隠された基準(例えば、a)が、第2の追跡カメラ(例えば、N2)によって見ることができるが、第1の追跡カメラ(例えば、N3)によって見ることができないとき、第2の追跡カメラ(例えば、N2)に取り付けられた基準に対する第1の部分的に隠された基準(例えば、a)の判定された姿勢と、第1のオブジェクト(例えば、R)に取り付けられた基準に対する第2の追跡カメラ(例えば、N2)に取り付けられた基準の判定された姿勢との組み合わせに基づいて、第1のオブジェクト(例えば、R)に取り付けられた基準に対する第1の部分的に隠された基準の姿勢を判定するように構成されている。
カメラ追跡システムは、さらに、第2のオブジェクト(例えば、E)に取り付けられた動的参照アレイの第2の部分的に隠された基準(例えば、b)が、第2の追跡カメラ(例えば、N2)によって見ることができるが、第1の追跡カメラ(例えば、N3)によって見ることができないとき、第2の追跡カメラ(例えば、N2)に取り付けられた基準に対する第2の部分的に隠された基準(例えば、b)の判定された姿勢と、第1のオブジェクト(例えば、R)に取り付けられた基準に対する第2の追跡カメラ(例えば、N2)に取り付けられた基準の判定された姿勢との組み合わせに基づいて、第1のオブジェクト(例えば、R)に取り付けられた基準に対する第2の部分的に隠された基準(例えば、b)の姿勢を判定するように構成されることができる。
カメラ追跡システムは、さらに、第2のオブジェクト(例えば、E)に取り付けられた動的参照アレイの第3の部分的に隠された基準(例えば、c)が、第2の追跡カメラ(例えば、N2)によって見ることができないが、第1の追跡カメラ(例えば、N3)によって見ることができるとき、第1の追跡カメラ(例えば、N3)に取り付けられた基準に対する第3の部分的に隠された基準(例えば、c)の判定された姿勢と、第1のオブジェクト(例えば、R)に取り付けられた基準に対する第1の追跡カメラ(例えば、N3)に取り付けられた基準の判定された姿勢との組み合わせに基づいて、第1のオブジェクト(例えば、R)に取り付けられた基準に対する第3の部分的に隠された基準(例えば、c)の判定された姿勢を判定するように構成されることができる。
カメラ追跡システムは、さらに、第1のオブジェクト(例えば、R)に対する第2のオブジェクト(例えば、E)の姿勢を判定するための姿勢回復動作を介して、第1のオブジェクト(例えば、R)に取り付けられた基準に対する第1の部分的に隠された基準の判定された姿勢を処理し、第1のオブジェクト(例えば、R)に取り付けられた基準に対する第3の部分的に隠された基準(例えば、c)の判定された姿勢を処理するように構成されることができる。
カメラ追跡システムは、さらに、第2のオブジェクト(例えば、E)に取り付けられた動的参照アレイの第4の部分的に隠された基準(例えば、d)が、第2の追跡カメラ(例えば、N2)によって見ることができないが、第1の追跡カメラ(例えば、N3)によって見ることができるとき、第1の追跡カメラ(例えば、N3)に取り付けられた基準に対する第4の部分的に隠された基準(例えば、d)の判定された姿勢と、第1のオブジェクト(例えば、R)に取り付けられた基準に対する第1の追跡カメラ(例えば、N3)に取り付けられた基準の判定された姿勢との組み合わせに基づいて、第1のオブジェクト(例えば、R)に取り付けられた基準に対する第4の部分的に隠された基準(例えば、d)の姿勢を判定するように構成されることができる。
本明細書に開示される様々な実施形態によって提供されることができる潜在的な利点は、以下のうちの任意の1つ以上を含むことができる:いくつかのシナリオでは以前は追跡できなかった器具を、同じ座標系で部分的に遮られたビューを共有することによってここでは確実に追跡することができる;複数の視点からの同期画像をマージすることにより、頭と器具の追跡の精度が向上する;全体的な追跡ボリュームが拡大するため、器具やロボットエンドエフェクタの追跡を失うことなく、はるかに広い範囲の動き(位置および向き)がサポートされる;XRヘッドセットが、いかなる追加のセットアップもなしで、ナビゲートされた器具と同じ座標系で自然に追跡されることができる;および、内蔵の追跡冗長性により、外科手術の安全性と結果が改善され、較正外またはその他の欠陥のあるステレオカメラの確実な識別を可能にする。
図20は、本開示のいくつかの実施形態にしたがって動作する外科手術システムの様々なコンポーネント間の情報フローのブロック図を示している。図20を参照すると、オブジェクト追跡情報は、XRヘッドセット1200および1210から姿勢変換連鎖モジュール2000に流れ、補助追跡バー上のナビゲーションカメラ46から姿勢変換連鎖モジュール2000に流れる。姿勢変換連鎖モジュール2000は、上で説明した様々な実施形態にかかる姿勢連鎖を実行するように構成される。XRヘッドセットコントローラ1430は、姿勢変換連鎖モジュール2000によって判定されたオブジェクト姿勢を使用して、表示のためにXRヘッドセット1200および1210に提供されることができるXR画像を生成する。XRヘッドセットコントローラ1430は、XRヘッドセット1200の現在の姿勢に基づいてXRヘッドセット1200に表示するためのXR画像を生成することができ、同様に、XRヘッドセット1210の現在の姿勢に基づいてXRヘッドセット1210に表示するためのXR画像を生成することができる。例えば、図16に示されるように、XRヘッドセット1200には、シースルー表示画面上に表示するためにスケーリングおよび提示される器具1602のコンピュータ生成グラフィック表現1600が提供されることができるため、ユーザは、外科的処置中に器具を使用して操作される解剖学的構造の別のグラフィック表現1610に対するグラフィック表現1600を見ながら器具1602を正確に操作することができる。
さらなる規定および実施形態:
本発明の概念の様々な実施形態の上記の説明において、本明細書において使用される用語は、特定の実施形態を説明することのみを目的とし、本発明の概念を限定することを意図しないことを理解されたい。別様に定義されない限り、本明細書において使用される全ての用語(技術用語および科学用語を含む)は、本発明の概念が属する技術の当業者によって一般に理解されるのと同じ意味を有する。一般的に使用される辞書に定義されるような用語は、本明細書および関連する技術分野の文脈におけるそれらの意味に矛盾しない意味を有するものとして解釈されるべきであり、本明細書で明確にそのように定義された理想化された、または過度に形式的な意味では解釈されないことがさらに理解されよう。
ある要素が別の要素に対して「接続された(connected)」、「結合された(coupled)」、「応答する(responsive)」、またはそれらの変異型であるように参照される場合、その要素は、他の要素に直接接続、結合、もしくは応答することができるか、または介在する要素が存在してもよい。対照的に、ある要素が別の要素に対して「直接接続された(directly connected)」、「直接結合された(directly coupled)」、「直接応答する(directly responsive)」、またはそれらの変異型であるように参照される場合、介在する要素は存在しない。同様の符号は、全体を通して同様の要素を指す。さらにまた、本明細書において使用される場合、「結合された(coupled)」、「接続された(connected)」、「応答する(responsive)」、またはそれらの変異型は、無線で結合、接続、または応答することを含むことができる。本明細書において使用される場合、単数形「a」、「an」、および「the」は、文脈がそうでないことを明確に示さない限り、複数形も含むことを意図している。周知の機能または構造は、簡潔さおよび/または明確さのために詳細に説明されない場合がある。「および/または」という用語は、関連する列挙された項目のうちの1つ以上のいずれかおよび全ての組み合わせを含む。
本明細書では、第1、第2、第3などの用語を使用して様々な要素/動作を説明することがあるが、これらの要素/動作は、これらの用語によって限定されるべきではないことが理解される。これらの用語は、ある要素/動作を他の要素/動作から区別するためにのみ使用される。したがって、いくつかの実施形態における第1の要素/動作は、本発明の概念の教示から逸脱することなく、他の実施形態における第2の要素/動作と呼ぶことができる。同じ参照番号または同じ参照符号は、明細書全体を通して同じまたは類似の要素を示す。
本明細書において使用される場合、「備える(comprise)」、「備える(comprising)」、「備える(comprises)」、「含む(include)」、「含む(including)」、「含む(includes)」、「有する(have)」、「有する(has)」、「有する(having)」という用語、またはそれらの変異型は、限定がなく、1つ以上の記された特徴、整数、要素、ステップ、コンポーネント、または機能を含むが、1つ以上の他の特徴、整数、要素、ステップ、コンポーネント、機能、またはそれらのグループの存在もしくは追加を排除するものではない。さらにまた、本明細書において使用される場合、ラテン語の「例えば(exempli gratia)」から派生した一般的な略語「例えば(e.g.)」は、前述の項目の全般的な例(複数可)を紹介または指定するために使用されてもよく、かかる項目を限定することを意図するものではない。ラテン語の「すなわち(id est)」から派生した一般的な略語「すなわち(i.e.)」は、より全般的な列挙から特定の項目を指定するために使用されてもよい。
例示的な実施形態は、コンピュータ実装方法、装置(システムおよび/もしくはデバイス)、ならびに/またはコンピュータプログラム製品を示すブロック図および/またはフローチャート図を参照して本明細書において説明される。ブロック図および/またはフローチャート図のブロック、ならびにブロック図および/またはフローチャート図におけるブロックの組み合わせは、1つ以上のコンピュータ回路によって実行されるコンピュータプログラム命令によって実装されることができることが理解される。これらのコンピュータプログラム命令を汎用コンピュータ回路、専用コンピュータ回路、および/または他のプログラム可能なデータ処理回路のプロセッサ回路に提供して機械を生成することができ、それにより、コンピュータのプロセッサおよび/または他のプログラム可能なデータ処理装置を介して実行される命令は、トランジスタ、メモリの場所に記憶された値、およびかかる回路網内の他のハードウェアコンポーネントを変換および制御して、ブロック図および/またはフローチャートブロック(複数可)において指定された機能/作用を実装し、且つそれによって、ブロック図および/またはフローチャートブロック(複数可)において指定された機能/作用を実装するための手段(機能)および/または構造を作り出す。
これらのコンピュータプログラム命令はまた、コンピュータ可読媒体に記憶された命令がブロック図および/またはフローチャートブロックまたは複数のブロックにおいて指定された機能/作用を実装する命令を含む製造物品を製造するように、コンピュータまたは他のプログラム可能なデータ処理装置が特定の方法で機能するように指示することができる有形のコンピュータ可読媒体に記憶されてもよい。したがって、本発明の概念の実施形態は、集合的に「回路網」、「モジュール」、またはそれらの変異型と称されることができる、デジタル信号プロセッサなどのプロセッサで動作するハードウェアおよび/またはソフトウェア(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)で具体化されることができる。
また、いくつかの代替実装形態では、ブロックに記載されている機能/作用が、フローチャートに記載されている順序とは異なる順序で発生する場合があることにも留意されたい。例えば、連続して示されている2つのブロックは、関与する機能/作用に応じて、実際には実質的に同時に実行されてもよいかまたはブロックが逆の順序で実行されてもよい。さらに、フローチャートおよび/またはブロック図の所与のブロックの機能は、複数のブロックに分離されてもよく、および/またはフローチャートおよび/またはブロック図の2つ以上のブロックの機能は、少なくとも部分的に統合されてもよい。最後に、本発明の概念の範囲から逸脱することなく、図示されているブロックの間に他のブロックが追加/挿入されてもよく、および/またはブロックまたは動作が省略されてもよい。さらに、いくつかの図は、通信の主要な方向を示すために通信経路上に矢印を含んでいるが、通信は、描かれた矢印と反対の方向で発生する場合があることを理解されたい。
本発明の概念の原理から実質的に逸脱することなく、実施形態に対して多くの変更および修正を行うことができる。全てのかかる変更および修正は、本発明の概念の範囲内で本明細書に含まれることが意図されている。したがって、上記で開示された主題は、限定的ではなく例示的であると見なされるべきであり、添付の実施形態の例は、本発明の概念の趣旨および範囲内にある全てのかかる修正例、強化例、および他の実施形態を網羅することを意図するものである。したがって、法律で許容される最大限の範囲で、本発明の概念の範囲は、以下の実施形態の例およびそれらの均等物を含む本開示の最も広い許容可能な解釈によって決定されるべきであり、前述の詳細な説明によって制限または限定されるべきではない。

Claims (20)

  1. 外科手術システムであって、
    カメラ追跡システムであって、
    外科的処置中に第1の追跡カメラおよび第2の追跡カメラから追跡されるオブジェクトに関連する追跡情報を受信し、
    第1のオブジェクトの姿勢を示す前記第1の追跡カメラからの第1のオブジェクト追跡情報に基づいて、前記第1のオブジェクト座標系と前記第1の追跡カメラ座標系との間の第1の姿勢変換を判定し、
    前記第1のオブジェクトの姿勢を示す前記第2の追跡カメラからの第1のオブジェクト追跡情報に基づいて、前記第1のオブジェクト座標系と前記第2の追跡カメラ座標系との間の第2の姿勢変換を判定し、
    第2のオブジェクトの姿勢を示す前記第2の追跡カメラからの第2のオブジェクト追跡情報に基づいて、前記第2のオブジェクト座標系と前記第2の追跡カメラ座標系との間の第3の姿勢変換を判定し、
    前記第1、第2、および第3の姿勢変換の組み合わせに基づいて、前記第2のオブジェクト座標系と前記第1の追跡カメラ座標系との間の第4の姿勢変換を判定する、ように構成されたカメラ追跡システムを備える、外科手術システム。
  2. 前記カメラ追跡システムが、さらに、前記第2のオブジェクトの姿勢を示す前記第1の追跡カメラからのいかなる追跡情報も使用せずに、前記第2のオブジェクト座標系と前記第1の追跡カメラ座標系との間の前記第4の姿勢変換を判定するように構成されている、請求項1に記載の外科手術システム。
  3. 前記カメラ追跡システムが、さらに、前記第1のオブジェクトの姿勢を示す前記第1の追跡カメラからの前記追跡情報の前記第4の姿勢変換を介した処理に基づいて、前記第1のオブジェクトの姿勢を示す前記第2の追跡カメラからの前記追跡情報の前記第4の姿勢変換を介した処理に基づいて、および、前記第2のオブジェクトの姿勢を示す前記第2の追跡カメラからの前記追跡情報の前記第4の姿勢変換を介した処理に基づいて、前記第1の追跡カメラ座標系における前記第2のオブジェクトの姿勢を判定するように構成されている、請求項1に記載の外科手術システム。
  4. 前記カメラ追跡システムが、さらに、前記第2のオブジェクトの姿勢を示す前記第1の追跡カメラからの第2のオブジェクト追跡情報に基づいて、さらに、前記第1、第2、第3の姿勢変換の組み合わせの結果に基づいて、前記第2のオブジェクト座標系と前記第1の追跡カメラ座標系との間の前記第4の姿勢変換を判定するように構成されている、請求項1に記載の外科手術システム。
  5. 前記カメラ追跡システムが、さらに、前記第1の追跡カメラからの前記第1および第2のオブジェクト追跡情報に第1の重みを適用すること、前記第2の追跡カメラからの前記第1および第2のオブジェクト追跡情報に第2の重みを適用すること、ならびに、前記第1の追跡カメラからの前記第1の重み付けされた第1および第2のオブジェクト追跡情報、および前記第2の追跡カメラからの前記第2の重み付けされた第1および第2のオブジェクト追跡情報の前記第4の姿勢変換を介した処理に基づいて、前記第2のオブジェクトの姿勢を判定するように構成されており、前記第1の重みの値が、前記第1の追跡カメラの姿勢判定精度を示し、前記第2の重みの値が、前記第2の追跡カメラの姿勢判定精度を示す、請求項4に記載の外科手術システム。
  6. 前記カメラ追跡システムが、さらに、前記カメラ追跡システムの動作中の前記第1の追跡カメラの姿勢判定精度の判定された変化に応答して、前記第1の重みの前記値を経時的に適応させ、前記カメラ追跡システムの動作中の前記第2の追跡カメラの姿勢判定精度の判定された変化に応答して、前記第2の重みの前記値を経時的に適応させるように構成されている、請求項5に記載の外科手術システム。
  7. 前記カメラ追跡システムが、
    前記第1の追跡カメラの前記姿勢判定精度が低下したと判定したことに基づいて、前記第1の重みの前記値を低減し、
    前記第1の追跡カメラの前記姿勢判定精度が増加したと判定したことに基づいて、前記第1の重みの前記値を増加する、ように構成されている、請求項6に記載の外科手術システム。
  8. 前記カメラ追跡システムが、さらに、前記カメラ追跡システムの動作中の前記第2の追跡カメラの姿勢判定精度に対する前記第1の追跡カメラの姿勢判定精度の判定された変化に応答して、前記第1および第2の重みのうちの少なくとも1つの前記値を経時的に適応させるように構成されている、請求項5に記載の外科手術システム。
  9. さらに、前記第1の追跡カメラおよびシースルー表示画面を含むエクステンデッドリアリティ(XR)ヘッドセットを備え、前記XRヘッドセットが、前記外科的処置中にユーザによって着用されるように構成され、前記カメラ追跡システムが、さらに、
    前記XRヘッドセットの前記シースルー表示画面に、前記第4の姿勢変換に基づいて判定された姿勢のXR画像を表示するように構成されている、請求項1に記載の外科手術システム。
  10. 前記カメラ追跡システムが、さらに、
    前記第1および第2の追跡カメラからの前記第1のオブジェクト追跡情報および前記第2の追跡カメラからの前記第2のオブジェクト追跡情報の前記第4の姿勢変換を介した処理に基づいて、前記シースルー表示画面上に提示される前記第2のオブジェクトのグラフィック表現として前記XR画像を生成するように構成されている、請求項9に記載の外科手術システム。
  11. 前記カメラ追跡システムが、前記追跡情報を受信するために前記第1および第2の追跡カメラに通信可能に接続され、前記第1、第2、第3、および第4の姿勢変換の判定を実行するように構成されたナビゲーションコントローラを備える、請求項9に記載の外科手術システム。
  12. 間隔を空けて配置された基準を含む動的参照アレイが、前記第1のオブジェクト、前記第2のオブジェクト、前記第1の追跡カメラ、および前記第2の追跡カメラのそれぞれに取り付けられており、
    前記カメラ追跡システムが、さらに、前記第2のオブジェクトに取り付けられた前記動的参照アレイの第1の部分的に隠された基準が、前記第2の追跡カメラによって見ることができるが、前記第1の追跡カメラによって見ることができないとき、前記第2の追跡カメラに取り付けられた基準に対する前記第1の部分的に隠された基準の判定された姿勢と、前記第1のオブジェクトに取り付けられた基準に対する前記第2の追跡カメラに取り付けられた基準の判定された姿勢との組み合わせに基づいて、前記第1のオブジェクトに取り付けられた基準に対する前記第1の部分的に隠された基準の姿勢を判定するように構成されている、請求項1に記載の外科手術システム。
  13. 前記カメラ追跡システムが、さらに、前記第2のオブジェクトに取り付けられた前記動的参照アレイの第2の部分的に隠された基準が、前記第2の追跡カメラによって見ることができるが、前記第1の追跡カメラによって見ることができないとき、前記第2の追跡カメラに取り付けられた基準に対する前記第2の部分的に隠された基準の判定された姿勢と、前記第1のオブジェクトに取り付けられた基準に対する前記第2の追跡カメラに取り付けられた基準の判定された姿勢との組み合わせに基づいて、前記第1のオブジェクトに取り付けられた基準に対する前記第2の部分的に隠された基準の姿勢を判定するように構成されている、請求項12に記載の外科手術システム。
  14. 前記カメラ追跡システムが、さらに、前記第2のオブジェクトに取り付けられた前記動的参照アレイの第3の部分的に隠された基準が、前記第2の追跡カメラによって見ることができないが、前記第1の追跡カメラによって見ることができるとき、前記第1の追跡カメラに取り付けられた基準に対する前記第3の部分的に隠された基準の判定された姿勢と、前記第1のオブジェクトに取り付けられた基準に対する前記第1の追跡カメラに取り付けられた基準の判定された姿勢との組み合わせに基づいて、前記第1のオブジェクトに取り付けられた基準に対する前記第3の部分的に隠された基準の姿勢を判定するように構成されている、請求項12に記載の外科手術システム。
  15. 前記カメラ追跡システムが、さらに、前記第1のオブジェクトに対する前記第2のオブジェクトの姿勢を判定するための姿勢回復動作を介して、前記第1のオブジェクトに取り付けられた基準に対する前記第1の部分的に隠された基準の前記判定された姿勢を処理し、前記第1のオブジェクトに取り付けられた基準に対する前記第3の部分的に隠された基準の前記判定された姿勢を処理するように構成されている、請求項14に記載の外科手術システム。
  16. 前記カメラ追跡システムが、さらに、前記第2のオブジェクトに取り付けられた前記動的参照アレイの第4の部分的に隠された基準が、前記第2の追跡カメラによって見ることができないが、前記第1の追跡カメラによって見ることができるとき、前記第1の追跡カメラに取り付けられた基準に対する前記第4の部分的に隠された基準の判定された姿勢と、前記第1のオブジェクトに取り付けられた基準に対する前記第1の追跡カメラに取り付けられた基準の判定された姿勢との組み合わせに基づいて、前記第1のオブジェクトに取り付けられた基準に対する前記第4の部分的に隠された基準の姿勢を判定するように構成されている、請求項14に記載の外科手術システム。
  17. カメラ追跡システムによる方法であって、
    外科的処置中に第1の追跡カメラおよび第2の追跡カメラから追跡されるオブジェクトに関連する追跡情報を受信することと、
    第1のオブジェクトの姿勢を示す前記第1の追跡カメラからの第1のオブジェクト追跡情報に基づいて、前記第1のオブジェクト座標系と前記第1の追跡カメラ座標系との間の第1の姿勢変換を判定することと、
    前記第1のオブジェクトの姿勢を示す前記第2の追跡カメラからの第1のオブジェクト追跡情報に基づいて、前記第1のオブジェクト座標系と前記第2の追跡カメラ座標系との間の第2の姿勢変換を判定することと、
    第2のオブジェクトの姿勢を示す前記第2の追跡カメラからの第2のオブジェクト追跡情報に基づいて、前記第2のオブジェクト座標系と前記第2の追跡カメラ座標系との間の第3の姿勢変換を判定することと、
    前記第1、第2、および第3の姿勢変換の組み合わせに基づいて、前記第2のオブジェクト座標系と前記第1の追跡カメラ座標系との間の第4の姿勢変換を判定することと、を備える、方法。
  18. さらに、前記第1のオブジェクトの姿勢を示す前記第1の追跡カメラからの前記追跡情報の前記第4の姿勢変換を介した処理に基づいて、前記第1のオブジェクトの姿勢を示す前記第2の追跡カメラからの前記追跡情報の前記第4の姿勢変換を介した処理に基づいて、および、前記第2のオブジェクトの姿勢を示す前記第2の追跡カメラからの前記追跡情報の前記第4の姿勢変換を介した処理に基づいて、前記第1の追跡カメラ座標系における前記第2のオブジェクトの姿勢を判定することを備える、請求項17に記載の方法。
  19. コンピュータプログラム製品であって、
    カメラ追跡システムの少なくとも1つのプロセッサによって実行可能なプログラムコードであって、
    外科的処置中に第1の追跡カメラおよび第2の追跡カメラから追跡されるオブジェクトに関連する追跡情報を受信し、
    第1のオブジェクトの姿勢を示す前記第1の追跡カメラからの第1のオブジェクト追跡情報に基づいて、前記第1のオブジェクト座標系と前記第1の追跡カメラ座標系との間の第1の姿勢変換を判定し、
    前記第1のオブジェクトの姿勢を示す前記第2の追跡カメラからの第1のオブジェクト追跡情報に基づいて、前記第1のオブジェクト座標系と前記第2の追跡カメラ座標系との間の第2の姿勢変換を判定し、
    第2のオブジェクトの姿勢を示す前記第2の追跡カメラからの第2のオブジェクト追跡情報に基づいて、前記第2のオブジェクト座標系と前記第2の追跡カメラ座標系との間の第3の姿勢変換を判定し、
    前記第1、第2、および第3の姿勢変換の組み合わせに基づいて、前記第2のオブジェクト座標系と前記第1の追跡カメラ座標系との間の第4の姿勢変換を判定するためのプログラムコードを記憶する非一時的コンピュータ可読媒体を備える、コンピュータプログラム製品。
  20. 前記プログラムコードが、さらに、前記第1のオブジェクトの姿勢を示す前記第1の追跡カメラからの前記追跡情報の前記第4の姿勢変換を介した処理に基づいて、前記第1のオブジェクトの姿勢を示す前記第2の追跡カメラからの前記追跡情報の前記第4の姿勢変換を介した処理に基づいて、および、前記第2のオブジェクトの姿勢を示す前記第2の追跡カメラからの前記追跡情報の前記第4の姿勢変換を介した処理に基づいて、前記第1の追跡カメラ座標系における前記第2のオブジェクトの姿勢を判定するように、前記カメラ追跡システムの前記少なくとも1つのプロセッサによって実行可能である、請求項19に記載のコンピュータプログラム製品。
JP2021012228A 2020-01-28 2021-01-28 可視および近赤外線スペクトルにおけるエクステンデッドリアリティの外科手術ナビゲーションのための姿勢測定連鎖 Active JP7135128B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/774,799 US11464581B2 (en) 2020-01-28 2020-01-28 Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US16/774,799 2020-01-28

Publications (2)

Publication Number Publication Date
JP2021115483A true JP2021115483A (ja) 2021-08-10
JP7135128B2 JP7135128B2 (ja) 2022-09-12

Family

ID=74347000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021012228A Active JP7135128B2 (ja) 2020-01-28 2021-01-28 可視および近赤外線スペクトルにおけるエクステンデッドリアリティの外科手術ナビゲーションのための姿勢測定連鎖

Country Status (4)

Country Link
US (2) US11464581B2 (ja)
EP (1) EP3858281A1 (ja)
JP (1) JP7135128B2 (ja)
CN (1) CN113243990A (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
WO2019211741A1 (en) 2018-05-02 2019-11-07 Augmedics Ltd. Registration of a fiducial marker for an augmented reality system
US11923084B2 (en) 2018-09-07 2024-03-05 Cilag Gmbh International First and second communication protocol arrangement for driving primary and secondary devices through a single port
US11804679B2 (en) 2018-09-07 2023-10-31 Cilag Gmbh International Flexible hand-switch circuit
US11684400B2 (en) 2018-09-07 2023-06-27 Cilag Gmbh International Grounding arrangement of energy modules
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
USD939545S1 (en) 2019-09-05 2021-12-28 Cilag Gmbh International Display panel or portion thereof with graphical user interface for energy module
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
US11464581B2 (en) * 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11452492B2 (en) * 2020-04-21 2022-09-27 Mazor Robotics Ltd. System and method for positioning an imaging device
US11963727B2 (en) 2021-03-30 2024-04-23 Cilag Gmbh International Method for system architecture for modular energy system
US11950860B2 (en) 2021-03-30 2024-04-09 Cilag Gmbh International User interface mitigation techniques for modular energy systems
US11968776B2 (en) 2021-03-30 2024-04-23 Cilag Gmbh International Method for mechanical packaging for modular energy system
US11978554B2 (en) 2021-03-30 2024-05-07 Cilag Gmbh International Radio frequency identification token for wireless surgical instruments
US11857252B2 (en) 2021-03-30 2024-01-02 Cilag Gmbh International Bezel with light blocking features for modular energy system
US20220335696A1 (en) * 2021-04-14 2022-10-20 Cilag Gmbh International Mixed reality feedback systems that cooperate to increase efficient perception of complex data feeds
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6006126A (en) * 1991-01-28 1999-12-21 Cosman; Eric R. System and method for stereotactic registration of image scan data
US20190038362A1 (en) * 2017-08-02 2019-02-07 Medtech S.A. Surgical field camera system

Family Cites Families (521)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2614083B2 (de) 1976-04-01 1979-02-08 Siemens Ag, 1000 Berlin Und 8000 Muenchen Röntgenschichtgerät zur Herstellung von Transversalschichtbildern
US4722056A (en) 1986-02-18 1988-01-26 Trustees Of Dartmouth College Reference display systems for superimposing a tomagraphic image onto the focal plane of an operating microscope
US5246010A (en) 1990-12-11 1993-09-21 Biotrine Corporation Method and apparatus for exhalation analysis
US5417210A (en) 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
WO1994024631A1 (en) 1993-04-20 1994-10-27 General Electric Company Computer graphic and live video system for enhancing visualisation of body structures during surgery
US5961456A (en) 1993-05-12 1999-10-05 Gildenberg; Philip L. System and method for displaying concurrent video and reconstructed surgical views
US5526812A (en) 1993-06-21 1996-06-18 General Electric Company Display system for enhancing visualization of body structures during medical procedures
JP3378401B2 (ja) 1994-08-30 2003-02-17 株式会社日立メディコ X線装置
US5622187A (en) * 1994-09-30 1997-04-22 Nomos Corporation Method and apparatus for patient positioning for radiation therapy
US5772594A (en) 1995-10-17 1998-06-30 Barrick; Earl F. Fluoroscopic image guided orthopaedic surgery system with intraoperative registration
US6167296A (en) 1996-06-28 2000-12-26 The Board Of Trustees Of The Leland Stanford Junior University Method for volumetric image navigation
US6226548B1 (en) 1997-09-24 2001-05-01 Surgical Navigation Technologies, Inc. Percutaneous registration apparatus and method for use in computer-assisted surgical navigation
US5987960A (en) 1997-09-26 1999-11-23 Picker International, Inc. Tool calibrator
EP1027627B1 (en) 1997-10-30 2009-02-11 MYVU Corporation Eyeglass interface system
US6031888A (en) 1997-11-26 2000-02-29 Picker International, Inc. Fluoro-assist feature for a diagnostic imaging device
US6477400B1 (en) 1998-08-20 2002-11-05 Sofamor Danek Holdings, Inc. Fluoroscopic image guided orthopaedic surgery system with intraoperative registration
DE19839825C1 (de) 1998-09-01 1999-10-07 Siemens Ag Röntgendiagnostikgerät mit an einer bogenförmigen Halterung einander gegenüberliegend gelagertem Strahlensender und Strahlenempfänger
DE19842798C1 (de) 1998-09-18 2000-05-04 Howmedica Leibinger Gmbh & Co Kalibriervorrichtung
US7016457B1 (en) 1998-12-31 2006-03-21 General Electric Company Multimode imaging system for generating high quality images
DE19905974A1 (de) 1999-02-12 2000-09-07 Siemens Ag Verfahren zur Abtastung eines Untersuchungsobjekts mittels eines CT-Geräts
US6144875A (en) 1999-03-16 2000-11-07 Accuray Incorporated Apparatus and method for compensating for respiratory and patient motion during treatment
US6501981B1 (en) 1999-03-16 2002-12-31 Accuray, Inc. Apparatus and method for compensating for respiratory and patient motions during treatment
US6778850B1 (en) 1999-03-16 2004-08-17 Accuray, Inc. Frameless radiosurgery treatment system and method
US6470207B1 (en) 1999-03-23 2002-10-22 Surgical Navigation Technologies, Inc. Navigational guidance via computer-assisted fluoroscopic imaging
JP2000271110A (ja) 1999-03-26 2000-10-03 Hitachi Medical Corp 医用x線装置
US6301495B1 (en) 1999-04-27 2001-10-09 International Business Machines Corporation System and method for intra-operative, image-based, interactive verification of a pre-operative surgical plan
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US6139544A (en) 1999-05-26 2000-10-31 Endocare, Inc. Computer guided cryosurgery
DE19927953A1 (de) 1999-06-18 2001-01-11 Siemens Ag Röntgendiagnostikgerät
US6314311B1 (en) 1999-07-28 2001-11-06 Picker International, Inc. Movable mirror laser registration system
US8004229B2 (en) 2005-05-19 2011-08-23 Intuitive Surgical Operations, Inc. Software center and highly configurable robotic systems for surgery and other uses
US6379302B1 (en) 1999-10-28 2002-04-30 Surgical Navigation Technologies Inc. Navigation information overlay onto ultrasound imagery
WO2001043070A2 (en) 1999-12-10 2001-06-14 Miller Michael I Method and apparatus for cross modality image registration
AU2001233019A1 (en) 2000-01-28 2001-08-07 Intersense, Inc. Self-referenced tracking
US6725080B2 (en) 2000-03-01 2004-04-20 Surgical Navigation Technologies, Inc. Multiple cannula image guided tool for image guided procedures
JP2003534035A (ja) 2000-03-15 2003-11-18 オーソソフト インコーポレイテッド コンピュータ支援手術器具の自動校正システム
US6535756B1 (en) 2000-04-07 2003-03-18 Surgical Navigation Technologies, Inc. Trajectory storage apparatus and method for surgical navigation system
US6856826B2 (en) 2000-04-28 2005-02-15 Ge Medical Systems Global Technology Company, Llc Fluoroscopic tracking and visualization system
US6856827B2 (en) 2000-04-28 2005-02-15 Ge Medical Systems Global Technology Company, Llc Fluoroscopic tracking and visualization system
US6490475B1 (en) 2000-04-28 2002-12-03 Ge Medical Systems Global Technology Company, Llc Fluoroscopic tracking and visualization system
US6614453B1 (en) 2000-05-05 2003-09-02 Koninklijke Philips Electronics, N.V. Method and apparatus for medical image display for surgical tool planning and navigation in clinical environments
US6782287B2 (en) 2000-06-27 2004-08-24 The Board Of Trustees Of The Leland Stanford Junior University Method and apparatus for tracking a medical instrument based on image registration
US6823207B1 (en) 2000-08-26 2004-11-23 Ge Medical Systems Global Technology Company, Llc Integrated fluoroscopic surgical navigation and imaging workstation with command protocol
US7139418B2 (en) 2000-09-25 2006-11-21 Z-Kat, Inc. Fluoroscopic registration artifact with optical and/or magnetic markers
DE10194615D2 (de) 2000-10-23 2003-10-02 Deutsches Krebsforsch Verfahren, Vorrichtung und Navigationshilfe zur Navigation bei Medizinischen Eingriffen
US6666579B2 (en) 2000-12-28 2003-12-23 Ge Medical Systems Global Technology Company, Llc Method and apparatus for obtaining and displaying computed tomography images using a fluoroscopy imaging system
EP1364183B1 (en) 2001-01-30 2013-11-06 Mako Surgical Corp. Tool calibrator and tracker system
US6856324B2 (en) 2001-03-27 2005-02-15 Siemens Corporate Research, Inc. Augmented reality guided instrument positioning with guiding graphics
US7605826B2 (en) 2001-03-27 2009-10-20 Siemens Corporate Research, Inc. Augmented reality guided instrument positioning with depth determining graphics
US7176936B2 (en) 2001-03-27 2007-02-13 Siemens Corporate Research, Inc. Augmented reality guided instrument positioning with modulated guiding graphics
US6919867B2 (en) 2001-03-29 2005-07-19 Siemens Corporate Research, Inc. Method and apparatus for augmented reality visualization
WO2002100284A1 (en) 2001-06-13 2002-12-19 Volume Interactions Pte Ltd A guide system
WO2002100285A1 (en) 2001-06-13 2002-12-19 Volume Interactions Pte Ltd A guide system and a probe therefor
US6584339B2 (en) 2001-06-27 2003-06-24 Vanderbilt University Method and apparatus for collecting and processing physical space data for use while performing image-guided surgery
US7063705B2 (en) 2001-06-29 2006-06-20 Sdgi Holdings, Inc. Fluoroscopic locator and registration device
US6619840B2 (en) 2001-10-15 2003-09-16 Koninklijke Philips Electronics N.V. Interventional volume scanner
DE50100535D1 (de) 2001-12-18 2003-09-25 Brainlab Ag Projektion von Patientenbilddaten aus Durchleuchtungs bzw. Schichtbilderfassungsverfahren auf Oberflächenvideobilder
US20030210812A1 (en) 2002-02-26 2003-11-13 Ali Khamene Apparatus and method for surgical navigation
US6947786B2 (en) 2002-02-28 2005-09-20 Surgical Navigation Technologies, Inc. Method and apparatus for perspective inversion
US8996169B2 (en) 2011-12-29 2015-03-31 Mako Surgical Corp. Neural monitor-based dynamic haptics
US7831292B2 (en) 2002-03-06 2010-11-09 Mako Surgical Corp. Guidance system and method for surgical procedures with improved feedback
US20030179308A1 (en) 2002-03-19 2003-09-25 Lucia Zamorano Augmented tracking using video, computed data and/or sensing technologies
EP2915488B1 (en) 2002-03-19 2019-06-05 Medtronic Navigation, Inc. Computer tomography with a detector following the movement of a pivotable x-ray source
US7099428B2 (en) 2002-06-25 2006-08-29 The Regents Of The University Of Michigan High spatial resolution X-ray computed tomography (CT) system
US6922632B2 (en) 2002-08-09 2005-07-26 Intersense, Inc. Tracking, auto-calibration, and map-building system
US7231063B2 (en) 2002-08-09 2007-06-12 Intersense, Inc. Fiducial detection system
US6867753B2 (en) 2002-10-28 2005-03-15 University Of Washington Virtual image registration in augmented display field
US7599730B2 (en) 2002-11-19 2009-10-06 Medtronic Navigation, Inc. Navigation system for cardiac therapies
US8814793B2 (en) 2002-12-03 2014-08-26 Neorad As Respiration monitor
US7945021B2 (en) 2002-12-18 2011-05-17 Varian Medical Systems, Inc. Multi-mode cone beam CT radiotherapy simulator and treatment machine with a flat panel imager
US7542791B2 (en) 2003-01-30 2009-06-02 Medtronic Navigation, Inc. Method and apparatus for preplanning a surgical procedure
US6988009B2 (en) 2003-02-04 2006-01-17 Zimmer Technology, Inc. Implant registration device for surgical navigation system
US7570791B2 (en) 2003-04-25 2009-08-04 Medtronic Navigation, Inc. Method and apparatus for performing 2D to 3D registration
JP4163991B2 (ja) 2003-04-30 2008-10-08 株式会社モリタ製作所 X線ct撮影装置及び撮影方法
US7194120B2 (en) 2003-05-29 2007-03-20 Board Of Regents, The University Of Texas System Methods and systems for image-guided placement of implants
US7171257B2 (en) 2003-06-11 2007-01-30 Accuray Incorporated Apparatus and method for radiosurgery
US20050054910A1 (en) 2003-07-14 2005-03-10 Sunnybrook And Women's College Health Sciences Centre Optical image-based position tracking for magnetic resonance imaging applications
US7324623B2 (en) 2003-07-15 2008-01-29 Koninklijke Philips Electronics N. V. Computed tomography scanner with large gantry bore
US7313430B2 (en) 2003-08-28 2007-12-25 Medtronic Navigation, Inc. Method and apparatus for performing stereotactic surgery
US7835778B2 (en) 2003-10-16 2010-11-16 Medtronic Navigation, Inc. Method and apparatus for surgical navigation of a multiple piece construct for implantation
US9393039B2 (en) 2003-12-17 2016-07-19 Brainlab Ag Universal instrument or instrument set for computer guided surgery
US7774044B2 (en) 2004-02-17 2010-08-10 Siemens Medical Solutions Usa, Inc. System and method for augmented reality navigation in a medical intervention procedure
WO2005086062A2 (en) 2004-03-05 2005-09-15 Depuy International Limited Registration methods and apparatus
EP1722705A2 (en) 2004-03-10 2006-11-22 Depuy International Limited Orthopaedic operating systems, methods, implants and instruments
CN1957373A (zh) 2004-03-12 2007-05-02 布拉科成像S.P.A.公司 基于视频的扩增实境增强型外科手术导航系统的精度评估
US9681925B2 (en) 2004-04-21 2017-06-20 Siemens Medical Solutions Usa, Inc. Method for augmented reality instrument placement using an image based navigation system
US7327865B2 (en) 2004-06-30 2008-02-05 Accuray, Inc. Fiducial-less tracking with non-rigid image registration
GB2422759B (en) 2004-08-05 2008-07-16 Elekta Ab Rotatable X-ray scan apparatus with cone beam offset
US7702379B2 (en) 2004-08-25 2010-04-20 General Electric Company System and method for hybrid tracking in surgical navigation
DE102004042489B4 (de) 2004-08-31 2012-03-29 Siemens Ag Medizinische Untersuchungs- oder Behandlungseinrichtung mit dazugehörigem Verfahren
CA2581009C (en) 2004-09-15 2011-10-04 Synthes (U.S.A.) Calibrating device
WO2006038145A1 (en) 2004-10-06 2006-04-13 Philips Intellectual Property & Standards Gmbh Computed tomography method
US7831294B2 (en) 2004-10-07 2010-11-09 Stereotaxis, Inc. System and method of surgical imagining with anatomical overlay for navigation of surgical devices
EP1681028B1 (de) * 2005-01-12 2014-03-26 Brainlab AG Video-tracking und -Registrierung
WO2006075331A2 (en) 2005-01-13 2006-07-20 Mazor Surgical Technologies Ltd. Image-guided robotic system for keyhole neurosurgery
US7062006B1 (en) 2005-01-19 2006-06-13 The Board Of Trustees Of The Leland Stanford Junior University Computed tomography with increased field of view
US20060184396A1 (en) 2005-01-28 2006-08-17 Dennis Charles L System and method for surgical navigation
WO2006086223A2 (en) 2005-02-08 2006-08-17 Blue Belt Technologies, Inc. Augmented reality device and method
US7231014B2 (en) 2005-02-14 2007-06-12 Varian Medical Systems Technologies, Inc. Multiple mode flat panel X-ray imaging system
EP1854303A1 (en) 2005-02-17 2007-11-14 Koninklijke Philips Electronics N.V. Autostereoscopic display
AU2006220664B2 (en) 2005-03-07 2010-07-08 Hector Pacheco System and methods for improved access to vertebral bodies for kyphoplasty, vertebroplasty, vertebral body biopsy or screw placement
JP2008532602A (ja) 2005-03-11 2008-08-21 ブラッコ・イメージング・ソシエタ・ペル・アチオニ 外科手術ナビゲーションと顕微鏡による可視化の方法と装置
WO2006111965A2 (en) 2005-04-20 2006-10-26 Visionsense Ltd. System and method for producing an augmented image of an organ of a patient
EP2289454B1 (en) 2005-06-06 2020-03-25 Intuitive Surgical Operations, Inc. Laparoscopic ultrasound robotic surgical system
US9289267B2 (en) 2005-06-14 2016-03-22 Siemens Medical Solutions Usa, Inc. Method and apparatus for minimally invasive surgery using endoscopes
JP2007000406A (ja) 2005-06-24 2007-01-11 Ge Medical Systems Global Technology Co Llc X線ct撮影方法およびx線ct装置
US7840256B2 (en) 2005-06-27 2010-11-23 Biomet Manufacturing Corporation Image guided tracking array and method
US20070038059A1 (en) 2005-07-07 2007-02-15 Garrett Sheffer Implant and instrument morphing
US20080302950A1 (en) 2005-08-11 2008-12-11 The Brigham And Women's Hospital, Inc. System and Method for Performing Single Photon Emission Computed Tomography (Spect) with a Focal-Length Cone-Beam Collimation
US7643862B2 (en) 2005-09-15 2010-01-05 Biomet Manufacturing Corporation Virtual mouse for use in surgical navigation
US20070073133A1 (en) 2005-09-15 2007-03-29 Schoenefeld Ryan J Virtual mouse for use in surgical navigation
US7835784B2 (en) 2005-09-21 2010-11-16 Medtronic Navigation, Inc. Method and apparatus for positioning a reference frame
EP1946243A2 (en) 2005-10-04 2008-07-23 Intersense, Inc. Tracking objects with markers
US20070167702A1 (en) 2005-12-30 2007-07-19 Intuitive Surgical Inc. Medical robotic system providing three-dimensional telestration
EP1966767A2 (en) 2005-12-31 2008-09-10 BRACCO IMAGING S.p.A. Systems and methods for collaborative interactive visualization of 3d data sets over a network ("dextronet")
US20070238981A1 (en) 2006-03-13 2007-10-11 Bracco Imaging Spa Methods and apparatuses for recording and reviewing surgical navigation processes
US20070236514A1 (en) 2006-03-29 2007-10-11 Bracco Imaging Spa Methods and Apparatuses for Stereoscopic Image Guided Surgical Navigation
EP2004071B1 (en) 2006-03-30 2013-05-15 Koninklijke Philips Electronics N.V. Targeting device, computer readable medium and program element
EP2046224A2 (en) 2006-04-12 2009-04-15 NAVAB, Nassir Virtual penetrating mirror device for visualizing of virtual objects within an augmented reality environment
EP2010058B1 (en) 2006-04-14 2017-05-17 William Beaumont Hospital Computed Tomography System and Method
US8021310B2 (en) 2006-04-21 2011-09-20 Nellcor Puritan Bennett Llc Work of breathing display for a ventilation system
US7940999B2 (en) 2006-04-24 2011-05-10 Siemens Medical Solutions Usa, Inc. System and method for learning-based 2D/3D rigid registration for image-guided surgery using Jensen-Shannon divergence
ATE499894T1 (de) 2006-05-04 2011-03-15 Navab Nassir Interaktive virtuelle spiegelvorrichtung zur visualisierung von virtuellen objekten in endoskopischen anwendungen
US20080004523A1 (en) 2006-06-29 2008-01-03 General Electric Company Surgical tool guide
DE102006032127B4 (de) 2006-07-05 2008-04-30 Aesculap Ag & Co. Kg Kalibrierverfahren und Kalibriervorrichtung für eine chirurgische Referenzierungseinheit
US20080013809A1 (en) 2006-07-14 2008-01-17 Bracco Imaging, Spa Methods and apparatuses for registration in image guided surgery
JP5337031B2 (ja) 2006-08-17 2013-11-06 コーニンクレッカ フィリップス エヌ ヴェ Ct画像取得
DE102006041033B4 (de) 2006-09-01 2017-01-19 Siemens Healthcare Gmbh Verfahren zur Rekonstruktion eines dreidimensionalen Bildvolumens
WO2008031077A2 (en) 2006-09-08 2008-03-13 Hansen Medical, Inc. Robotic surgical system with forward-oriented field of view guide instrument navigation
US8532741B2 (en) 2006-09-08 2013-09-10 Medtronic, Inc. Method and apparatus to optimize electrode placement for neurological stimulation
US20080123910A1 (en) 2006-09-19 2008-05-29 Bracco Imaging Spa Method and system for providing accuracy evaluation of image guided surgery
CN103961130B (zh) 2006-09-25 2017-08-15 马佐尔机器人有限公司 使得c型臂系统适应以提供三维成像信息的方法
US8660635B2 (en) 2006-09-29 2014-02-25 Medtronic, Inc. Method and apparatus for optimizing a computer assisted surgical procedure
US8052688B2 (en) 2006-10-06 2011-11-08 Wolf Ii Erich Electromagnetic apparatus and method for nerve localization during spinal surgery
US20080144906A1 (en) 2006-10-09 2008-06-19 General Electric Company System and method for video capture for fluoroscopy and navigation
US20080108991A1 (en) 2006-11-08 2008-05-08 General Electric Company Method and apparatus for performing pedicle screw fusion surgery
US8358818B2 (en) 2006-11-16 2013-01-22 Vanderbilt University Apparatus and methods of compensating for organ deformation, registration of internal structures to images, and applications of same
US8727618B2 (en) 2006-11-22 2014-05-20 Siemens Aktiengesellschaft Robotic device and method for trauma patient diagnosis and therapy
US7683331B2 (en) 2006-12-08 2010-03-23 Rush University Medical Center Single photon emission computed tomography (SPECT) system for cardiac imaging
US7683332B2 (en) 2006-12-08 2010-03-23 Rush University Medical Center Integrated single photon emission computed tomography (SPECT)/transmission computed tomography (TCT) system for cardiac imaging
DE102006061178A1 (de) 2006-12-22 2008-06-26 Siemens Ag System zur Durchführung und Überwachung minimal-invasiver Eingriffe
US20080161680A1 (en) 2006-12-29 2008-07-03 General Electric Company System and method for surgical navigation of motion preservation prosthesis
US20080183068A1 (en) 2007-01-25 2008-07-31 Warsaw Orthopedic, Inc. Integrated Visualization of Surgical Navigational and Neural Monitoring Information
US20080183074A1 (en) 2007-01-25 2008-07-31 Warsaw Orthopedic, Inc. Method and apparatus for coordinated display of anatomical and neuromonitoring information
US7987001B2 (en) 2007-01-25 2011-07-26 Warsaw Orthopedic, Inc. Surgical navigational and neuromonitoring instrument
US8374673B2 (en) 2007-01-25 2013-02-12 Warsaw Orthopedic, Inc. Integrated surgical navigational and neuromonitoring system having automated surgical assistance and control
US20080183188A1 (en) 2007-01-25 2008-07-31 Warsaw Orthopedic, Inc. Integrated Surgical Navigational and Neuromonitoring System
US8672836B2 (en) 2007-01-31 2014-03-18 The Penn State Research Foundation Method and apparatus for continuous guidance of endoscopy
TWI461176B (zh) 2007-02-01 2014-11-21 Interactive Neuroscience Ct Llc 手術導航
WO2008103383A1 (en) 2007-02-20 2008-08-28 Gildenberg Philip L Videotactic and audiotactic assisted surgical methods and procedures
DE102007009017B3 (de) 2007-02-23 2008-09-25 Siemens Ag Anordnung zur Unterstützung eines perkutanen Eingriffs
US8098914B2 (en) 2007-03-05 2012-01-17 Siemens Aktiengesellschaft Registration of CT volumes with fluoroscopic images
US8821511B2 (en) 2007-03-15 2014-09-02 General Electric Company Instrument guide for use with a surgical navigation system
US20080235052A1 (en) 2007-03-19 2008-09-25 General Electric Company System and method for sharing medical information between image-guided surgery systems
US8150494B2 (en) 2007-03-29 2012-04-03 Medtronic Navigation, Inc. Apparatus for registering a physical space to image space
EP2142132B1 (en) 2007-04-16 2012-09-26 NeuroArm Surgical, Ltd. System for non-mechanically restricting and/or programming movement of a tool of a manipulator along a single axis
US8311611B2 (en) 2007-04-24 2012-11-13 Medtronic, Inc. Method for performing multiple registrations in a navigated procedure
US8934961B2 (en) 2007-05-18 2015-01-13 Biomet Manufacturing, Llc Trackable diagnostic scope apparatus and methods of use
US20080300477A1 (en) 2007-05-30 2008-12-04 General Electric Company System and method for correction of automated image registration
FR2917598B1 (fr) 2007-06-19 2010-04-02 Medtech Plateforme robotisee multi-applicative pour la neurochirurgie et procede de recalage
US9468412B2 (en) 2007-06-22 2016-10-18 General Electric Company System and method for accuracy verification for image based surgical navigation
GB0712690D0 (en) 2007-06-29 2007-08-08 Imp Innovations Ltd Imagee processing
US8100950B2 (en) 2007-07-27 2012-01-24 The Cleveland Clinic Foundation Oblique lumbar interbody fusion
CN101848679B (zh) 2007-11-06 2014-08-06 皇家飞利浦电子股份有限公司 具有集成非对称平板锥形束ct和spect系统的核医学spect-ct机
RU2010130474A (ru) 2007-12-21 2012-01-27 Конинклейке Филипс Электроникс, Н.В. (Nl) Синхронный интервенционный сканер
US20090198121A1 (en) 2008-02-01 2009-08-06 Martin Hoheisel Method and apparatus for coordinating contrast agent injection and image acquisition in c-arm computed tomography
US8696458B2 (en) 2008-02-15 2014-04-15 Thales Visionix, Inc. Motion tracking system and method using camera and non-camera sensors
US9002076B2 (en) 2008-04-15 2015-04-07 Medtronic, Inc. Method and apparatus for optimal trajectory planning
US8532734B2 (en) 2008-04-18 2013-09-10 Regents Of The University Of Minnesota Method and apparatus for mapping a structure
US8228368B2 (en) 2008-04-26 2012-07-24 Intuitive Surgical Operations, Inc. Augmented stereoscopic visualization for a surgical robot using a captured fluorescence image and captured stereoscopic visible images
TW201004607A (en) 2008-07-25 2010-02-01 Been-Der Yang Image guided navigation system and method thereof
US20100030061A1 (en) 2008-07-31 2010-02-04 Canfield Monte R Navigation system for cardiac therapies using gating
JP2010035984A (ja) 2008-08-08 2010-02-18 Canon Inc X線撮影装置
ES2608820T3 (es) 2008-08-15 2017-04-17 Stryker European Holdings I, Llc Sistema y método de visualización del interior de un cuerpo
US7900524B2 (en) 2008-09-09 2011-03-08 Intersense, Inc. Monitoring tools
US8379791B2 (en) 2008-10-10 2013-02-19 Koninklijke Philips Electronics N.V. Method and apparatus to improve CT image acquisition using a displaced geometry
WO2010044852A2 (en) 2008-10-14 2010-04-22 University Of Florida Research Foundation, Inc. Imaging platform to provide integrated navigation capabilities for surgical guidance
US8700123B2 (en) 2008-10-20 2014-04-15 The Johns Hopkins University Environment property estimaton and graphical display
TWI435705B (zh) 2008-11-20 2014-05-01 Been Der Yang 手術用定位裝置及應用其之影像導航系統
WO2010061810A1 (ja) 2008-11-27 2010-06-03 株式会社 日立メディコ 放射線撮像装置
CA2745210C (en) 2008-12-01 2018-03-13 Mazor Robotics Ltd Robot guided oblique spinal stabilization
EP2586374B1 (en) 2009-01-21 2015-03-18 Koninklijke Philips N.V. Method and apparatus for large field of view imaging and detection and compensation of motion artifacts
WO2010086374A1 (en) 2009-01-29 2010-08-05 Imactis Method and device for navigation of a surgical tool
EP2403408B1 (en) 2009-03-06 2017-11-15 Koninklijke Philips N.V. Medical viewing system for displaying a region of interest on medical images
US9737235B2 (en) 2009-03-09 2017-08-22 Medtronic Navigation, Inc. System and method for image-guided navigation
CN102341046B (zh) 2009-03-24 2015-12-16 伊顿株式会社 利用增强现实技术的手术机器人系统及其控制方法
CN101897593B (zh) 2009-05-26 2014-08-13 清华大学 一种计算机层析成像设备和方法
JP5658747B2 (ja) 2009-05-28 2015-01-28 コーニンクレッカ フィリップス エヌ ヴェ 針装置を用いるインターベンション中の記録済画像の再較正
US8121249B2 (en) 2009-06-04 2012-02-21 Virginia Tech Intellectual Properties, Inc. Multi-parameter X-ray computed tomography
DE102009025077A1 (de) 2009-06-10 2010-12-16 Karl Storz Gmbh & Co. Kg System zur Orientierungsunterstützung und Darstellung eines Instruments im Inneren eines Untersuchungsobjektes insbesondere im menschlichen Körper
WO2011013164A1 (ja) 2009-07-27 2011-02-03 株式会社島津製作所 放射線撮影装置
BR212012002342U2 (pt) 2009-08-06 2015-11-03 Koninkl Philips Electronics Nv método de geração de uma imagem de um objeto com o uso de um aparelho de imagens que ten um detector, aparelho de formação de imagens médicas adaptado para gerar uma imagem de um objeto, e, sistema de formação de imagens combinadas de raios x e spect
WO2011021192A1 (en) 2009-08-17 2011-02-24 Mazor Surgical Technologies Ltd. Device for improving the accuracy of manual operations
US8504136B1 (en) 2009-10-06 2013-08-06 University Of South Florida See-through abdomen display for minimally invasive surgery
US8784443B2 (en) 2009-10-20 2014-07-22 Truevision Systems, Inc. Real-time surgical reference indicium apparatus and methods for astigmatism correction
JP2013508103A (ja) 2009-10-28 2013-03-07 イムリス インク. 画像誘導手術のための画像の自動登録
US20120059378A1 (en) 2009-11-25 2012-03-08 James David Farrell Efficient Sculpting System
JP5739902B2 (ja) 2009-12-10 2015-06-24 コーニンクレッカ フィリップス エヌ ヴェ X線デバイス及び方法
US8938301B2 (en) 2010-01-06 2015-01-20 Evoke Neuroscience, Inc. Headgear with displaceable sensors for electrophysiology measurement and training
WO2011086431A1 (en) 2010-01-13 2011-07-21 Koninklijke Philips Electronics N.V. Image integration based registration and navigation for endoscopic surgery
US9381045B2 (en) 2010-01-13 2016-07-05 Jcbd, Llc Sacroiliac joint implant and sacroiliac joint instrument for fusing a sacroiliac joint
EP2524289B1 (en) 2010-01-14 2016-12-07 Brainlab AG Controlling and/or operating a medical device by means of a light pointer
WO2011127379A2 (en) 2010-04-09 2011-10-13 University Of Florida Research Foundation Inc. Interactive mixed reality system and uses thereof
CA2797302C (en) 2010-04-28 2019-01-15 Ryerson University System and methods for intraoperative guidance feedback
US8842893B2 (en) 2010-04-30 2014-09-23 Medtronic Navigation, Inc. Method and apparatus for image-based navigation
US8781186B2 (en) 2010-05-04 2014-07-15 Pathfinder Therapeutics, Inc. System and method for abdominal surface matching using pseudo-features
US8738115B2 (en) 2010-05-11 2014-05-27 Siemens Aktiengesellschaft Method and apparatus for selective internal radiation therapy planning and implementation
DE102010020284A1 (de) 2010-05-12 2011-11-17 Siemens Aktiengesellschaft Bestimmung von 3D-Positionen und -Orientierungen von chirurgischen Objekten aus 2D-Röntgenbildern
US8945140B2 (en) 2010-06-18 2015-02-03 Vantage Surgical Systems, Inc. Surgical procedures using instrument to boundary spacing information extracted from real-time diagnostic scan data
DE102010026674B4 (de) 2010-07-09 2012-09-27 Siemens Aktiengesellschaft Bildgebungsvorrichtung und Strahlentherapiegerät
WO2012007036A1 (en) 2010-07-14 2012-01-19 Brainlab Ag Method and system for determining an imaging direction and calibration of an imaging apparatus
US20120035507A1 (en) 2010-07-22 2012-02-09 Ivan George Device and method for measuring anatomic geometries
US8740882B2 (en) 2010-07-30 2014-06-03 Lg Electronics Inc. Medical robotic system and method of controlling the same
JP2012045278A (ja) 2010-08-30 2012-03-08 Fujifilm Corp X線画像撮影装置およびx線画像撮影方法
US8718346B2 (en) 2011-10-05 2014-05-06 Saferay Spine Llc Imaging system and method for use in surgical and interventional medical procedures
US8526700B2 (en) 2010-10-06 2013-09-03 Robert E. Isaacs Imaging system and method for surgical and interventional medical procedures
US10456209B2 (en) 2010-10-13 2019-10-29 Gholam A. Peyman Remote laser treatment system with dynamic imaging
US8325873B2 (en) 2010-10-20 2012-12-04 Medtronic Navigation, Inc. Selected image acquisition technique to optimize patient model construction
EP2452649A1 (en) 2010-11-12 2012-05-16 Deutsches Krebsforschungszentrum Stiftung des Öffentlichen Rechts Visualization of anatomical data by augmented reality
WO2012078989A1 (en) 2010-12-10 2012-06-14 Wayne State University Intelligent autonomous camera control for robotics with medical, military, and space applications
EP2651295A4 (en) 2010-12-13 2015-11-18 Ortho Kinematics Inc METHODS, SYSTEMS AND DEVICES FOR CLINICAL DATA REPORTING AND SURGICAL NAVIGATION
EP2654574B1 (en) 2010-12-22 2017-05-03 ViewRay Technologies, Inc. System and method for image guidance during medical procedures
WO2012095755A1 (en) 2011-01-13 2012-07-19 Koninklijke Philips Electronics N.V. Intraoperative camera calibration for endoscopic surgery
EP2670291A4 (en) 2011-02-04 2015-02-25 Penn State Res Found METHOD AND DEVICE FOR DETERMINING THE LOCATION OF AN ENDOSCOPE
CN103379861B (zh) 2011-02-07 2016-08-10 皇家飞利浦有限公司 用于在血管介入程序中提供支持介入设备的准确定位的图像表示的医学成像设备
WO2012112907A2 (en) 2011-02-17 2012-08-23 Dartmouth College System and method for providing registration between breast shapes before and during surgery
US20120226145A1 (en) 2011-03-03 2012-09-06 National University Of Singapore Transcutaneous robot-assisted ablation-device insertion navigation system
US9308050B2 (en) 2011-04-01 2016-04-12 Ecole Polytechnique Federale De Lausanne (Epfl) Robotic system and method for spinal and other surgeries
WO2012139031A1 (en) 2011-04-06 2012-10-11 The Trustees Of Columbia University In The City Of New York System, method and computer-accessible medium for providing a panoramic cone beam computed tomography (cbct)
US10426554B2 (en) 2011-04-29 2019-10-01 The Johns Hopkins University System and method for tracking and navigation
US9265468B2 (en) 2011-05-11 2016-02-23 Broncus Medical, Inc. Fluoroscopy-based surgical device tracking method
WO2012169642A1 (ja) 2011-06-06 2012-12-13 株式会社大野興業 レジストレーション用テンプレートの製造方法
US8818105B2 (en) 2011-07-14 2014-08-26 Accuray Incorporated Image registration for image-guided surgery
DE102011079561B4 (de) 2011-07-21 2018-10-18 Siemens Healthcare Gmbh Verfahren und Röntgengerät zum zeitlich aktuellen Darstellen eines bewegten Abschnitts eines Körpers, Computerprogramm und Datenträger
MX2014000967A (es) 2011-07-29 2014-02-27 Koninkl Philips Nv Visualizacion precisa del movimiento de tejido blando en rayos x.
US9554866B2 (en) 2011-08-09 2017-01-31 Covidien Lp Apparatus and method for using a remote control system in surgical procedures
US9123155B2 (en) 2011-08-09 2015-09-01 Covidien Lp Apparatus and method for using augmented reality vision system in surgical procedures
US10866783B2 (en) 2011-08-21 2020-12-15 Transenterix Europe S.A.R.L. Vocally activated surgical control system
US10092164B2 (en) 2011-08-21 2018-10-09 M.S.T. Medical Surgery Technologies Ltd Device and method for assisting laparoscopic surgery—rule based approach
US9795282B2 (en) 2011-09-20 2017-10-24 M.S.T. Medical Surgery Technologies Ltd Device and method for maneuvering endoscope
DE102011054910B4 (de) 2011-10-28 2013-10-10 Ovesco Endoscopy Ag Magnetischer Endeffektor und Einrichtung zur Führung und Positionierung desselben
FR2983059B1 (fr) 2011-11-30 2014-11-28 Medtech Procede assiste par robotique de positionnement d'instrument chirurgical par rapport au corps d'un patient et dispositif de mise en oeuvre.
AU2012345588A1 (en) 2011-12-01 2014-05-22 Neochord, Inc. Surgical navigation for repair of heart valve leaflets
JP2015506188A (ja) 2011-12-21 2015-03-02 コーニンクレッカ フィリップス エヌ ヴェ 容積測定モダリティからの構造の未較正内視鏡のビデオへのオーバレイ及び動き補償
FR2985167A1 (fr) 2011-12-30 2013-07-05 Medtech Procede medical robotise de surveillance de la respiration d'un patient et de correction de la trajectoire robotisee.
US8891847B2 (en) 2012-01-23 2014-11-18 Medtronic Navigation, Inc. Automatic implant detection from image artifacts
US20130211232A1 (en) 2012-02-01 2013-08-15 The Johns Hopkins University Arthroscopic Surgical Planning and Execution with 3D Imaging
US9451915B1 (en) 2012-02-29 2016-09-27 Google Inc. Performance of a diagnostic procedure using a wearable computing device
WO2013134782A1 (en) 2012-03-09 2013-09-12 The Johns Hopkins University Photoacoustic tracking and registration in interventional ultrasound
US11207132B2 (en) 2012-03-12 2021-12-28 Nuvasive, Inc. Systems and methods for performing spinal surgery
US8888821B2 (en) 2012-04-05 2014-11-18 Warsaw Orthopedic, Inc. Spinal implant measuring system and method
US20130267838A1 (en) 2012-04-09 2013-10-10 Board Of Regents, The University Of Texas System Augmented Reality System for Use in Medical Procedures
CN104582622B (zh) 2012-04-16 2017-10-13 儿童国家医疗中心 用于外科和介入医疗程序中的跟踪和控制的双模立体成像系统
JP6174676B2 (ja) 2012-04-19 2017-08-02 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 術前及び術中3d画像を用いて内視鏡を手動操作するガイダンスツール及びガイド下内視鏡ナビゲーションのための装置の作動方法
US10383765B2 (en) 2012-04-24 2019-08-20 Auris Health, Inc. Apparatus and method for a global coordinate system for use in robotic surgery
KR101711358B1 (ko) 2012-05-02 2017-02-28 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 의학적 애플리케이션들에서 증강 현실을 위한 동적 모델을 이용한 4 차원 이미지 등록
WO2013163800A2 (zh) 2012-05-02 2013-11-07 医百科技股份有限公司 口腔内手术中辅助导引的方法
US9125556B2 (en) 2012-05-14 2015-09-08 Mazor Robotics Ltd. Robotic guided endoscope
EP2849650A4 (en) 2012-05-18 2016-01-20 Carestream Health Inc VOLUMETRIC IMAGING SYSTEM THROUGH TOMODENSITOMETRY WITH TAPERED BEAM
US11871901B2 (en) 2012-05-20 2024-01-16 Cilag Gmbh International Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage
US9773312B2 (en) 2012-05-25 2017-09-26 Koh Young Technology Inc. Method of registrating a camera of a surgical navigation system for an augmented reality
KR102145236B1 (ko) 2012-06-01 2020-08-18 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 영-공간을 이용하여 매니퓰레이터 암 대 환자의 충돌을 회피하는 방법 및 시스템
US20190029765A1 (en) * 2012-06-21 2019-01-31 Globus Medical, Inc. Surgical robotic systems providing transfer of registration and related methods and computer program products
US20130345757A1 (en) 2012-06-22 2013-12-26 Shawn D. Stad Image Guided Intra-Operative Contouring Aid
RU2015102613A (ru) 2012-06-28 2016-08-20 Конинклейке Филипс Н.В. Наложение и совмещение предоперационных данных на видео в реальном масштабе времени с использованием портативного устройства
US11278182B2 (en) 2012-06-28 2022-03-22 Koninklijke Philips N.V. Enhanced visualization of blood vessels using a robotically steered endoscope
WO2014013393A2 (en) 2012-07-17 2014-01-23 Koninklijke Philips N.V. Imaging system and method for enabling instrument guidance
US20140022283A1 (en) 2012-07-20 2014-01-23 University Health Network Augmented reality apparatus
US20120302875A1 (en) 2012-08-08 2012-11-29 Gregory Allen Kohring System and method for inserting intracranial catheters
US10110785B2 (en) 2012-08-10 2018-10-23 Karl Storz Imaging, Inc. Deployable imaging system equipped with solid state imager
EP2884937B1 (en) 2012-08-15 2022-10-05 Intuitive Surgical Operations, Inc. Systems for cancellation of joint motion using the null-space
US9855103B2 (en) 2012-08-27 2018-01-02 University Of Houston System Robotic device and system software, hardware and methods of use for image-guided and robot-assisted surgery
US20140081659A1 (en) 2012-09-17 2014-03-20 Depuy Orthopaedics, Inc. Systems and methods for surgical and interventional planning, support, post-operative follow-up, and functional recovery tracking
US20140080086A1 (en) 2012-09-20 2014-03-20 Roger Chen Image Navigation Integrated Dental Implant System
US9563266B2 (en) 2012-09-27 2017-02-07 Immersivetouch, Inc. Haptic augmented and virtual reality system for simulation of surgical procedures
US20150238276A1 (en) 2012-09-30 2015-08-27 M.S.T. Medical Surgery Technologies Ltd. Device and method for assisting laparoscopic surgery - directing and maneuvering articulating tool
US20140130810A1 (en) 2012-11-14 2014-05-15 Intuitive Surgical Operations, Inc. Smart drapes for collision avoidance
EP2732761A1 (en) 2012-11-14 2014-05-21 Hill-Rom Services, Inc. Augmented reality system in the patient care environment
US9001962B2 (en) 2012-12-20 2015-04-07 Triple Ring Technologies, Inc. Method and apparatus for multiple X-ray imaging applications
US8948935B1 (en) 2013-01-02 2015-02-03 Google Inc. Providing a medical support device via an unmanned aerial vehicle
CN103969269B (zh) 2013-01-31 2018-09-18 Ge医疗系统环球技术有限公司 用于几何校准ct扫描仪的方法和装置
US20140221819A1 (en) 2013-02-01 2014-08-07 David SARMENT Apparatus, system and method for surgical navigation
EP2996557B1 (en) 2013-03-11 2019-05-01 Institut Hospitalo-Universitaire de Chirurgie Mini -Invasive Guidee Par l'Image Anatomical site relocalisation using dual data synchronisation
KR20140112207A (ko) 2013-03-13 2014-09-23 삼성전자주식회사 증강현실 영상 표시 시스템 및 이를 포함하는 수술 로봇 시스템
EP2981205A4 (en) 2013-04-04 2017-02-15 Children's National Medical Center Device and method for generating composite images for endoscopic surgery of moving and deformable anatomy
US20150084990A1 (en) 2013-04-07 2015-03-26 Laor Consulting Llc Augmented reality medical procedure aid
US9414859B2 (en) 2013-04-19 2016-08-16 Warsaw Orthopedic, Inc. Surgical rod measuring system and method
US8964934B2 (en) 2013-04-25 2015-02-24 Moshe Ein-Gal Cone beam CT scanning
KR102171873B1 (ko) 2013-05-08 2020-10-29 삼성전자주식회사 햅틱 글로브 및 수술로봇 시스템
US10408613B2 (en) 2013-07-12 2019-09-10 Magic Leap, Inc. Method and system for rendering virtual content
JP6252004B2 (ja) 2013-07-16 2017-12-27 セイコーエプソン株式会社 情報処理装置、情報処理方法、および、情報処理システム
DE102013012397B4 (de) 2013-07-26 2018-05-24 Rg Mechatronics Gmbh OP-Robotersystem
US10786283B2 (en) 2013-08-01 2020-09-29 Musc Foundation For Research Development Skeletal bone fixation mechanism
KR101536115B1 (ko) 2013-08-26 2015-07-14 재단법인대구경북과학기술원 수술 내비게이션 시스템 운용 방법 및 수술 내비게이션 시스템
US10073515B2 (en) 2013-09-18 2018-09-11 Nanophthalmos, Llc Surgical navigation system and method
US20150085970A1 (en) 2013-09-23 2015-03-26 General Electric Company Systems and methods for hybrid scanning
JP6581973B2 (ja) 2013-10-07 2019-09-25 テクニオン リサーチ アンド ディベロップメント ファンデーション リミテッド 針の挿入及び操縦のためのシステム
EP3973899A1 (en) 2013-10-09 2022-03-30 Nuvasive, Inc. Surgical spinal correction
US9848922B2 (en) 2013-10-09 2017-12-26 Nuvasive, Inc. Systems and methods for performing spine surgery
ITBO20130599A1 (it) 2013-10-31 2015-05-01 Cefla Coop Metodo e apparato per aumentare il campo di vista in una acquisizione tomografica computerizzata con tecnica cone-beam
CN105682734B (zh) 2013-10-31 2018-08-17 波士顿科学神经调制公司 用于并入来自图像的引线信息的系统
US9949637B1 (en) 2013-11-25 2018-04-24 Verily Life Sciences Llc Fluorescent imaging on a head-mountable device
US20150146847A1 (en) 2013-11-26 2015-05-28 General Electric Company Systems and methods for providing an x-ray imaging system with nearly continuous zooming capability
CN106061424B (zh) 2013-12-20 2019-04-30 皇家飞利浦有限公司 用于跟踪穿刺器械的系统和方法
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US20160019715A1 (en) 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
EP3097448A1 (en) 2014-01-21 2016-11-30 Trophy Method for implant surgery using augmented visualization
WO2015121764A1 (en) 2014-02-11 2015-08-20 Koninklijke Philips N.V. Spatial visualization of internal mammary artery during minimally invasive bypass surgery
DE102014203097A1 (de) 2014-02-20 2015-08-20 Siemens Aktiengesellschaft Verfahren zum Unterstützen einer Navigation einer endoskopischen Vorrichtung
WO2015126466A1 (en) 2014-02-21 2015-08-27 The University Of Akron Imaging and display system for guiding medical interventions
JP6264087B2 (ja) 2014-02-21 2018-01-24 ソニー株式会社 表示制御装置、表示装置および表示制御システム
WO2015127464A1 (en) 2014-02-24 2015-08-27 H. Lee Moffitt Cancer Center And Research Institute, Inc. Methods and systems for performing segmentation and registration of images using neutrosophic similarity scores
US9280825B2 (en) 2014-03-10 2016-03-08 Sony Corporation Image processing system with registration mechanism and method of operation thereof
DE102014204702A1 (de) 2014-03-13 2015-09-17 Siemens Aktiengesellschaft Navigationshilfe für das Einbringen eines länglichen medizinischen Penetrationselements in einen Patienten
EP3116432B1 (en) 2014-03-14 2020-07-22 Brainlab AG Improved overlay of anatomical information in a microscope image
EP4248901A3 (en) 2014-03-17 2023-11-29 Intuitive Surgical Operations, Inc. System and method for breakaway clutching in an articulated arm
EP3126896A1 (en) 2014-03-28 2017-02-08 Alma Mater Studiorum - Università di Bologna Augmented reality glasses for medical applications and corresponding augmented reality system
DE102014206004A1 (de) 2014-03-31 2015-10-01 Siemens Aktiengesellschaft Triangulationsbasierte Tiefen- und Oberflächen-Visualisierung
CN105992996B (zh) 2014-04-04 2019-11-26 外科手术室公司 外科手术环境中的动态和交互式导航
KR101570857B1 (ko) 2014-04-29 2015-11-24 큐렉소 주식회사 로봇 수술 계획 조정 장치
EP3139843B1 (en) 2014-05-05 2023-08-30 Vicarious Surgical Inc. Virtual reality surgical device
JP2017523817A (ja) 2014-05-09 2017-08-24 ザ・チルドレンズ・ホスピタル・オブ・フィラデルフィアThe Children’S Hospital Of Philadelphia 可搬型外科手術の方法、システムおよび装置
GB201408582D0 (en) 2014-05-14 2014-06-25 Ucl Business Plc A system and method for computer-assisted planning of a trajectory for a surgical insertion into a skull
US9835862B1 (en) 2014-05-15 2017-12-05 Google Llc Graphic interface for real-time vision enhancement
CA2949241A1 (en) 2014-05-20 2015-11-26 University Of Washington Through Its Center For Commercialization Systems and methods for mediated-reality surgical visualization
WO2015189839A1 (en) 2014-06-08 2015-12-17 M.S.T. Medical Surgery Technologies Ltd. Device and method for assisting laparoscopic surgery utilizing a touch screen
CN110367988A (zh) 2014-06-17 2019-10-25 纽文思公司 手术脊椎程序期间手术中计划和评估脊椎变形矫正的装置
US20150366628A1 (en) 2014-06-18 2015-12-24 Covidien Lp Augmented surgical reality environment system
US10828120B2 (en) 2014-06-19 2020-11-10 Kb Medical, Sa Systems and methods for performing minimally invasive surgery
WO2016005988A1 (en) 2014-07-10 2016-01-14 M.S.T. Medical Surgery Technologies Ltd. Improved interface for laparoscopic surgeries - movement gestures
US20160015469A1 (en) 2014-07-17 2016-01-21 Kyphon Sarl Surgical tissue recognition and navigation apparatus and method
WO2016014385A2 (en) 2014-07-25 2016-01-28 Covidien Lp An augmented surgical reality environment for a robotic surgical system
CN112862775A (zh) 2014-07-25 2021-05-28 柯惠Lp公司 增强手术现实环境
US9707400B2 (en) 2014-08-15 2017-07-18 Medtronic, Inc. Systems, methods, and interfaces for configuring cardiac therapy
US9547940B1 (en) 2014-09-12 2017-01-17 University Of South Florida Systems and methods for providing augmented reality in minimally invasive surgery
JP6574939B2 (ja) 2014-09-16 2019-09-18 ソニー株式会社 表示制御装置、表示制御方法、表示制御システムおよび頭部装着ディスプレイ
US10327855B2 (en) 2014-09-17 2019-06-25 Intuitive Surgical Operations, Inc. Systems and methods for utilizing augmented Jacobian to control manipulator joint movement
EP3198330A4 (en) 2014-09-22 2018-04-11 Invuity, Inc. Hyperspectral imager
JP6480694B2 (ja) 2014-09-30 2019-03-13 京セラ株式会社 手術支援装置およびプログラム
US9486128B1 (en) 2014-10-03 2016-11-08 Verily Life Sciences Llc Sensing and avoiding surgical equipment
US9833254B1 (en) 2014-10-03 2017-12-05 Verily Life Sciences Llc Controlled dissection of biological tissue
EP3009097A1 (en) 2014-10-17 2016-04-20 Imactis Method for navigating a surgical instrument
CA3000759A1 (en) 2014-10-23 2016-04-28 Orpyx Medical Technologies Inc. Foot gesture-based control device
US10499992B2 (en) 2014-10-30 2019-12-10 Edda Technology, Inc. Method and system for estimating a deflated lung shape for video assisted thoracic surgery in augmented and mixed reality
GB201501157D0 (en) 2015-01-23 2015-03-11 Scopis Gmbh Instrument guidance system for sinus surgery
CN107004044A (zh) 2014-11-18 2017-08-01 皇家飞利浦有限公司 增强现实设备的用户引导系统和方法、使用
US10383654B2 (en) 2014-11-20 2019-08-20 Ohio State Innovation Foundation Methods and systems for performing navigation-assisted medical procedures
US9839365B1 (en) 2014-11-24 2017-12-12 Verily Life Sciences Llc Applications of vasculature mapping using laser speckle imaging
WO2016088130A1 (en) 2014-12-04 2016-06-09 Mazor Robotics Ltd. Shaper for vertebral fixation rods
US20160166329A1 (en) 2014-12-15 2016-06-16 General Electric Company Tomographic imaging for interventional tool guidance
US9298884B1 (en) 2014-12-17 2016-03-29 Vitaax Llc Remote instruction and monitoring of health care
US9645379B2 (en) 2014-12-29 2017-05-09 Novartis Ag Magnification in ophthalmic procedures and associated devices, systems, and methods
US10154239B2 (en) 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
US9538962B1 (en) 2014-12-31 2017-01-10 Verily Life Sciences Llc Heads-up displays for augmented reality network in a medical environment
US9931040B2 (en) 2015-01-14 2018-04-03 Verily Life Sciences Llc Applications of hyperspectral laser speckle imaging
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
JP6336929B2 (ja) 2015-02-16 2018-06-06 富士フイルム株式会社 仮想オブジェクト表示装置、方法、プログラムおよびシステム
CN113017836A (zh) 2015-02-20 2021-06-25 柯惠Lp公司 手术室和手术部位感知
WO2016140989A1 (en) 2015-03-01 2016-09-09 ARIS MD, Inc. Reality-augmented morphological procedure
US11103313B2 (en) 2015-03-05 2021-08-31 Atracsys Sarl Redundant reciprocal surgical tracking system with three optical trackers
KR101734094B1 (ko) 2015-03-09 2017-05-11 국립암센터 증강현실영상 투영 시스템
US20160324580A1 (en) 2015-03-23 2016-11-10 Justin Esterberg Systems and methods for assisted surgical navigation
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
CA3018919A1 (en) 2015-03-25 2016-09-29 Zaxis Labs Mixed reality simulation system and method for medical procedure planning
USRE49930E1 (en) 2015-03-26 2024-04-23 Universidade De Coimbra Methods and systems for computer-aided surgery using intra-operative video acquired by a free moving camera
US20160287337A1 (en) 2015-03-31 2016-10-06 Luke J. Aram Orthopaedic surgical system and method for patient-specific surgical procedure
EP3280344A2 (en) 2015-04-07 2018-02-14 King Abdullah University Of Science And Technology Method, apparatus, and system for utilizing augmented reality to improve surgery
WO2016168671A1 (en) 2015-04-15 2016-10-20 Mobius Imaging, Llc Integrated medical imaging and surgical robotic system
US9436993B1 (en) 2015-04-17 2016-09-06 Clear Guide Medical, Inc System and method for fused image based navigation with late marker placement
US9788756B2 (en) 2015-04-20 2017-10-17 Medtronic, Inc. Systems, devices, methods, and computer-readable storage facilitating locating an implantable medical device within a body
GB201506842D0 (en) 2015-04-22 2015-06-03 Ucl Business Plc And Schooling Steven Locally rigid vessel based registration for laparoscopic liver surgery
US10180404B2 (en) 2015-04-30 2019-01-15 Shimadzu Corporation X-ray analysis device
US10235737B2 (en) 2015-05-11 2019-03-19 Elwha Llc Interactive surgical drape, system, and related methods
US9970955B1 (en) 2015-05-26 2018-05-15 Verily Life Sciences Llc Methods for depth estimation in laser speckle imaging
US10197816B2 (en) 2015-05-26 2019-02-05 Lumenis Ltd. Laser safety glasses with an improved imaging system
JP6732807B2 (ja) 2015-06-26 2020-07-29 リ−コール,インコーポレイティド 生検標本蛍光イメージング装置及び方法
WO2017008137A1 (en) 2015-07-13 2017-01-19 Synaptive Medical (Barbados) Inc. System and method for providing a contour video with a 3d surface in a medical navigation system
US10176642B2 (en) 2015-07-17 2019-01-08 Bao Tran Systems and methods for computer assisted operation
WO2017015738A1 (en) 2015-07-27 2017-02-02 Synaptive Medical (Barbados) Inc. Navigational feedback for intraoperative waypoint
DE102015215587A1 (de) 2015-08-14 2017-02-16 Nt-Trading Gmbh & Co. Kg Verfahren zum Herstellen eines Knochenersatzstücks
EP3337419B1 (en) 2015-08-19 2020-08-12 Brainlab AG Reference array holder
US10105187B2 (en) 2015-08-27 2018-10-23 Medtronic, Inc. Systems, apparatus, methods and computer-readable storage media facilitating surgical procedures utilizing augmented reality
WO2017044965A1 (en) 2015-09-10 2017-03-16 Duke University Systems and methods for arbitrary viewpoint robotic manipulation and robotic surgical assistance
US10092361B2 (en) 2015-09-11 2018-10-09 AOD Holdings, LLC Intraoperative systems and methods for determining and providing for display a virtual image overlaid onto a visual image of a bone
CA2985221C (en) 2015-09-24 2019-02-26 Synaptive Medical (Barbados) Inc. Motorized full field adaptive microscope
DK178899B1 (en) 2015-10-09 2017-05-08 3Dintegrated Aps A depiction system
JP2018534011A (ja) 2015-10-14 2018-11-22 サージカル シアター エルエルシー 拡張現実感手術ナビゲーション
JP6712453B2 (ja) 2015-10-16 2020-06-24 富士フイルム株式会社 拡張現実提供システム及び方法、情報処理装置、並びにプログラム
US10912449B2 (en) 2015-10-23 2021-02-09 Covidien Lp Surgical system for detecting gradual changes in perfusion
US10195076B2 (en) 2015-10-23 2019-02-05 Eye Labs, LLC Head-mounted device providing diagnosis and treatment and multisensory experience
CN114795472A (zh) 2015-10-28 2022-07-29 安多卓思公司 用于在患者体内跟踪内窥镜的位置的装置和方法
JP6636629B2 (ja) 2015-10-29 2020-01-29 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 拡張現実眼鏡を介して空間的配置タスクを遠隔援助するためのユーザインターフェースを有する遠隔援助ワークステーション、方法、及びシステム
US10828125B2 (en) 2015-11-03 2020-11-10 Synaptive Medical (Barbados) Inc. Dual zoom and dual field-of-view microscope
US20170119471A1 (en) 2015-11-04 2017-05-04 Illusio, Inc. Augmented Reality Imaging System for Cosmetic Surgical Procedures
WO2017079387A1 (en) 2015-11-05 2017-05-11 Covidien Lp System and method for detecting subsurface blood
WO2017079732A1 (en) 2015-11-07 2017-05-11 Ji-Xin Cheng An intraoperative optoacoustic guide apparatus and method
DE102015222782A1 (de) 2015-11-18 2017-05-18 Sirona Dental Systems Gmbh Verfahren zur Visualisierung einer Zahnsituation
ITUB20155830A1 (it) 2015-11-23 2017-05-23 R A W Srl "sistema di navigazione, tracciamento, e guida per il posizionamento di strumenti operatori"
US20170143284A1 (en) 2015-11-25 2017-05-25 Carestream Health, Inc. Method to detect a retained surgical object
US10070939B2 (en) 2015-12-04 2018-09-11 Zaki G. Ibrahim Methods for performing minimally invasive transforaminal lumbar interbody fusion using guidance
US10052170B2 (en) 2015-12-18 2018-08-21 MediLux Capitol Holdings, S.A.R.L. Mixed reality imaging system, apparatus and surgical suite
DE102015226669B4 (de) 2015-12-23 2022-07-28 Siemens Healthcare Gmbh Verfahren und System zum Ausgeben einer Erweiterte-Realität-Information
JP2019511931A (ja) 2015-12-29 2019-05-09 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 輪郭シグネチャを用いた手術画像獲得デバイスの位置合わせ
WO2017114834A1 (en) 2015-12-29 2017-07-06 Koninklijke Philips N.V. System, controller and method using virtual reality device for robotic surgery
WO2017117517A1 (en) 2015-12-30 2017-07-06 The Johns Hopkins University System and method for medical imaging
US10426339B2 (en) 2016-01-13 2019-10-01 Novartis Ag Apparatuses and methods for parameter adjustment in surgical procedures
US9925013B2 (en) 2016-01-14 2018-03-27 Synaptive Medical (Barbados) Inc. System and method for configuring positions in a surgical positioning system
CN108601530A (zh) 2016-01-22 2018-09-28 纽文思公司 用于促进脊柱手术的系统和方法
US10448910B2 (en) 2016-02-03 2019-10-22 Globus Medical, Inc. Portable medical imaging system
US10842453B2 (en) 2016-02-03 2020-11-24 Globus Medical, Inc. Portable medical imaging system
US11058378B2 (en) 2016-02-03 2021-07-13 Globus Medical, Inc. Portable medical imaging system
US10864050B2 (en) 2016-02-26 2020-12-15 Think Surgical, Inc. Method and system for guiding user positioning of a robot
WO2017144934A1 (en) 2016-02-26 2017-08-31 Trophy Guided surgery apparatus and method
WO2017151778A1 (en) 2016-03-01 2017-09-08 ARIS MD, Inc. Systems and methods for rendering immersive environments
US20190090955A1 (en) 2016-03-01 2019-03-28 Mirus Llc Systems and methods for position and orientation tracking of anatomy and surgical instruments
WO2017151752A1 (en) 2016-03-01 2017-09-08 Mirus Llc Augmented visualization during surgery
US20170256095A1 (en) 2016-03-02 2017-09-07 Siemens Medical Solutions Usa, Inc. Blocking screen in Augmented Reality
WO2017151999A1 (en) 2016-03-04 2017-09-08 Covidien Lp Virtual and/or augmented reality to provide physical interaction training with a surgical robot
US9962133B2 (en) 2016-03-09 2018-05-08 Medtronic Navigation, Inc. Transformable imaging system
CN109310476B (zh) 2016-03-12 2020-04-03 P·K·朗 用于手术的装置与方法
US20170367766A1 (en) 2016-03-14 2017-12-28 Mohamed R. Mahfouz Ultra-wideband positioning for wireless ultrasound tracking and communication
CN108882854B (zh) 2016-03-21 2022-05-24 华盛顿大学 3d医学图像的虚拟现实或增强现实可视化
US10510268B2 (en) 2016-04-05 2019-12-17 Synaptive Medical (Barbados) Inc. Multi-metric surgery simulator and methods
WO2017179350A1 (ja) 2016-04-11 2017-10-19 富士フイルム株式会社 画像表示制御装置および方法並びにプログラム
US20170296292A1 (en) 2016-04-16 2017-10-19 Eitezaz MAHMOOD Systems and Methods for Surgical Imaging
JP2019514476A (ja) 2016-04-19 2019-06-06 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 超音波イメージングプローブの位置決め
US10194990B2 (en) 2016-04-27 2019-02-05 Arthrology Consulting, Llc Method for augmenting a surgical field with virtual guidance content
US10191615B2 (en) 2016-04-28 2019-01-29 Medtronic Navigation, Inc. Method and apparatus for image-based navigation
EP3882867A1 (en) 2016-05-03 2021-09-22 Affera, Inc. Anatomical model displaying
AU2017260192B2 (en) 2016-05-05 2022-11-10 James R. Watson Surgical stereoscopic visualization system with movable head mounted display
US10433915B2 (en) 2016-05-16 2019-10-08 TrackX Technology, LLC System and method for image localization of effecters during a medical procedure
CN106296805B (zh) 2016-06-06 2019-02-26 厦门铭微科技有限公司 一种基于实时反馈的增强现实人体定位导航方法及装置
EP3476102B1 (en) 2016-06-24 2020-06-17 Innogy Innovation Gmbh Augmented reality system
CN109416841B (zh) 2016-07-11 2023-03-31 台湾骨王生技股份有限公司 影像增强真实度的方法与应用该方法在可穿戴式眼镜的手术导引
US10610318B2 (en) 2016-07-25 2020-04-07 General Electric Company Augmented reality catheter interface
US10398514B2 (en) 2016-08-16 2019-09-03 Insight Medical Systems, Inc. Systems and methods for sensory augmentation in medical procedures
GB2568426B (en) 2016-08-17 2021-12-15 Synaptive Medical Inc Methods and systems for registration of virtual space with real space in an augmented reality system
DE202017104953U1 (de) 2016-08-18 2017-12-04 Google Inc. Verarbeiten von Fundusbildern unter Verwendung von Maschinenlernmodellen
JP7328653B2 (ja) 2016-09-07 2023-08-17 インテリジョイント サージカル インク. 患者の頭部の画像誘導ナビゲーションを含む手術ナビゲーションのシステム及び方法
US20180082480A1 (en) 2016-09-16 2018-03-22 John R. White Augmented reality surgical technique guidance
US11839433B2 (en) 2016-09-22 2023-12-12 Medtronic Navigation, Inc. System for guided procedures
KR101687821B1 (ko) 2016-09-22 2016-12-20 장원석 증강현실을 이용한 치과 수술 방법
US9931025B1 (en) 2016-09-30 2018-04-03 Auris Surgical Robotics, Inc. Automated calibration of endoscopes with pull wires
CN108289600A (zh) 2016-10-03 2018-07-17 威博外科公司 用于机器人外科手术的沉浸式三维显示器
US20180092698A1 (en) 2016-10-04 2018-04-05 WortheeMed, Inc. Enhanced Reality Medical Guidance Systems and Methods of Use
US20180116732A1 (en) 2016-10-18 2018-05-03 The Board Of Trustees Of The Leland Stanford Junior University Real-time Three Dimensional Display of Flexible Needles Using Augmented Reality
US10231784B2 (en) 2016-10-28 2019-03-19 Medtronic Ardian Luxembourg S.A.R.L. Methods and systems for optimizing perivascular neuromodulation therapy using computational fluid dynamics
KR101837301B1 (ko) 2016-10-28 2018-03-12 경북대학교 산학협력단 수술 항법 시스템
US10275927B2 (en) 2016-11-16 2019-04-30 Terarecon, Inc. System and method for three-dimensional printing, holographic and virtual reality rendering from medical image processing
US10918445B2 (en) 2016-12-19 2021-02-16 Ethicon Llc Surgical system with augmented reality display
US10499997B2 (en) 2017-01-03 2019-12-10 Mako Surgical Corp. Systems and methods for surgical navigation
US10412377B2 (en) 2017-01-11 2019-09-10 Koninklijke Philips N.V. Augmented display device for use in a medical imaging laboratory
EP3574361B1 (en) 2017-01-30 2022-04-20 Alcon Inc. Systems and method for augmented reality ophthalmic surgical microscope projection
US10643360B2 (en) 2017-02-10 2020-05-05 Arizona Board Of Regents On Behalf Of Arizona State University Real-time medical image visualization systems and related methods
CA2958163C (en) 2017-02-15 2019-02-12 Synaptive Medical (Barbados) Inc. Digitally enhanced surgical instruments
US11158415B2 (en) 2017-02-16 2021-10-26 Mako Surgical Corporation Surgical procedure planning system with multiple feedback loops
US10010379B1 (en) 2017-02-21 2018-07-03 Novarad Corporation Augmented reality viewing and tagging for medical procedures
KR101891704B1 (ko) 2017-02-28 2018-08-24 메디컬아이피 주식회사 3차원 의료영상 제어 방법 및 그 장치
AU2018230901B2 (en) 2017-03-10 2020-12-17 Biomet Manufacturing, Llc Augmented reality supported knee surgery
US20180263727A1 (en) 2017-03-15 2018-09-20 Coredent Advancements, LLC Surgical Guide and Associated Process for Dental Implants
US20210121237A1 (en) * 2017-03-17 2021-04-29 Intellijoint Surgical Inc. Systems and methods for augmented reality display in navigated surgeries
TWI634870B (zh) 2017-03-20 2018-09-11 承鋆生醫股份有限公司 影像定位及擴增實境系統及其擴增實境方法
US9892564B1 (en) 2017-03-30 2018-02-13 Novarad Corporation Augmenting real-time views of a patient with three-dimensional data
US20180289983A1 (en) 2017-04-05 2018-10-11 Sensus Healthcare Llc Augmented reality glasses to help doctors visualize radiation patterns and overall tumor shape/size
WO2018189725A1 (en) 2017-04-14 2018-10-18 Stryker Corporation Surgical systems and methods for facilitating ad-hoc intraoperative planning of surgical procedures
DE102017108235A1 (de) 2017-04-18 2018-10-18 Bredent Medical Gmbh & Co. Kg Brille mit wenigstens einem teiltransparenten Bildschirm und Verfahren zum Betrieb einer Brille
EP3612126A1 (en) 2017-04-20 2020-02-26 The Cleveland Clinic Foundation System and method for holographic image-guided non-vascular percutaneous procedures
US10716643B2 (en) 2017-05-05 2020-07-21 OrbisMV LLC Surgical projection system and method
US10667869B2 (en) 2017-05-17 2020-06-02 General Electric Company Guidance system for needle procedures
US10874327B2 (en) 2017-05-19 2020-12-29 Covidien Lp Systems and methods for tracking and imaging a treatment probe having an integrated sensor
US10432913B2 (en) 2017-05-31 2019-10-01 Proximie, Inc. Systems and methods for determining three dimensional measurements in telemedicine application
US10610179B2 (en) 2017-06-05 2020-04-07 Biosense Webster (Israel) Ltd. Augmented reality goggles having X-ray protection
EP3412242A1 (de) 2017-06-09 2018-12-12 Siemens Healthcare GmbH Ausgabe von positionsinformationen eines medizintechnischen instruments
US10390891B2 (en) 2017-06-13 2019-08-27 Biosense Webster (Israel) Ltd. Hologram lens for positioning an orthopedic implant
US10242292B2 (en) 2017-06-13 2019-03-26 Digital Surgery Limited Surgical simulation for training detection and classification neural networks
US20180360655A1 (en) 2017-06-16 2018-12-20 Michael S. Berlin Methods and systems for oct guided glaucoma surgery
US11229496B2 (en) 2017-06-22 2022-01-25 Navlab Holdings Ii, Llc Systems and methods of providing assistance to a surgeon for minimizing errors during a surgical procedure
US11589933B2 (en) 2017-06-29 2023-02-28 Ix Innovation Llc Guiding a robotic surgical system to perform a surgical procedure
US11071593B2 (en) 2017-07-14 2021-07-27 Synaptive Medical Inc. Methods and systems for providing visuospatial information
US11166764B2 (en) 2017-07-27 2021-11-09 Carlsmed, Inc. Systems and methods for assisting and augmenting surgical procedures
WO2019021236A1 (en) 2017-07-28 2019-01-31 Edda Technology, Inc. METHOD AND SYSTEM FOR SURGICAL PLANNING IN A MIXED REALITY ENVIRONMENT
EP4245250A3 (en) 2017-08-15 2023-09-27 Holo Surgical Inc. Surgical navigation system for providing an augmented reality image during operation
EP3336848B1 (en) 2017-08-15 2023-09-27 Siemens Healthcare GmbH Method for operating a medical imaging device and medical imaging device
EP3445048A1 (en) 2017-08-15 2019-02-20 Holo Surgical Inc. A graphical user interface for a surgical navigation system for providing an augmented reality image during operation
US11432879B2 (en) 2017-08-18 2022-09-06 Siemens Healthcare Gmbh Method and apparatus for wide area multi-body 6D pose tracking system
US10987016B2 (en) 2017-08-23 2021-04-27 The Boeing Company Visualization system for deep brain stimulation
US10607420B2 (en) 2017-08-30 2020-03-31 Dermagenesis, Llc Methods of using an imaging apparatus in augmented reality, in medical imaging and nonmedical imaging
EP3449830B1 (de) 2017-08-31 2020-01-29 Siemens Healthcare GmbH Steuerung eines medizintechnischen bildgebenden systems
US10861236B2 (en) 2017-09-08 2020-12-08 Surgical Theater, Inc. Dual mode augmented reality surgical system and method
US10265138B2 (en) 2017-09-18 2019-04-23 MediVis, Inc. Methods and systems for generating and using 3D images in surgical settings
US10874460B2 (en) 2017-09-29 2020-12-29 K2M, Inc. Systems and methods for modeling spines and treating spines based on spine models
US10806525B2 (en) 2017-10-02 2020-10-20 Mcginley Engineered Solutions, Llc Surgical instrument with real time navigation assistance
EP3467785A1 (en) 2017-10-06 2019-04-10 Thomson Licensing A method and apparatus for encoding a point cloud representing three-dimensional objects
US11801098B2 (en) 2017-10-30 2023-10-31 Cilag Gmbh International Method of hub communication with surgical instrument systems
US11911045B2 (en) 2017-10-30 2024-02-27 Cllag GmbH International Method for operating a powered articulating multi-clip applier
US11272985B2 (en) 2017-11-14 2022-03-15 Stryker Corporation Patient-specific preoperative planning simulation techniques
US11103314B2 (en) 2017-11-24 2021-08-31 Synaptive Medical Inc. Methods and devices for tracking objects by surgical navigation systems
WO2019104329A1 (en) 2017-11-27 2019-05-31 Optecks, Llc Medical three-dimensional (3d) scanning and mapping system
EP3720349A4 (en) 2017-12-04 2021-01-20 Bard Access Systems, Inc. SYSTEMS AND METHODS FOR VISUALIZATION OF ANATOMY, LOCATION OF MEDICAL DEVICES, OR POSITIONING OF MEDICAL DEVICES
US20190175059A1 (en) 2017-12-07 2019-06-13 Medtronic Xomed, Inc. System and Method for Assisting Visualization During a Procedure
EP3498212A1 (en) 2017-12-12 2019-06-19 Holo Surgical Inc. A method for patient registration, calibration, and real-time augmented reality image display during surgery
US10413363B2 (en) 2017-12-15 2019-09-17 Medtronic, Inc. Augmented reality solution to optimize the directional approach and therapy delivery of interventional cardiology tools
US11179200B2 (en) 2017-12-15 2021-11-23 Medtronic, Inc. Augmented reality solution to disrupt, transform and enhance cardiovascular surgical and/or procedural mapping navigation and diagnostics
US11058497B2 (en) 2017-12-26 2021-07-13 Biosense Webster (Israel) Ltd. Use of augmented reality to assist navigation during medical procedures
US11937769B2 (en) 2017-12-28 2024-03-26 Cilag Gmbh International Method of hub communication, processing, storage and display
US11424027B2 (en) 2017-12-28 2022-08-23 Cilag Gmbh International Method for operating surgical instrument systems
US11896443B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Control of a surgical system through a surgical barrier
US20190200977A1 (en) 2017-12-28 2019-07-04 Ethicon Llc Method for usage of the shroud as an aspect of sensing or controlling a powered surgical device, and a control algorithm to adjust its default operation
US11857152B2 (en) 2017-12-28 2024-01-02 Cilag Gmbh International Surgical hub spatial awareness to determine devices in operating theater
US10621733B2 (en) 2017-12-31 2020-04-14 Google Llc Enhanced visualization of breathing or heartbeat of an infant or other monitored subject
EP3509013A1 (en) 2018-01-04 2019-07-10 Holo Surgical Inc. Identification of a predefined object in a set of images from a medical image scanner during a surgical procedure
US10535427B2 (en) 2018-01-10 2020-01-14 Medtronic, Inc. System for planning implantation of a cranially mounted medical device
US11547481B2 (en) 2018-01-11 2023-01-10 Covidien Lp Systems and methods for laparoscopic planning and navigation
EP3743791A1 (en) 2018-01-25 2020-12-02 Neurosteer Inc. Systems and methods for analyzing brain activity and applications pertaining to augmented reality
US20190239850A1 (en) 2018-02-06 2019-08-08 Steven Philip Dalvin Augmented/mixed reality system and method for the guidance of a medical exam
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
EP3540494B1 (en) 2018-03-16 2022-11-23 Leica Instruments (Singapore) Pte. Ltd. Augmented reality surgical microscope and microscopy method
US20190307516A1 (en) 2018-04-06 2019-10-10 Medtronic, Inc. Image-based navigation system and method of using same
US11253181B2 (en) * 2018-08-03 2022-02-22 From Zero, LLC Method for objectively tracking and analyzing the social and emotional activity of a patient
CN110368090B (zh) * 2019-08-09 2024-04-12 扬州大学 一种截骨导航机器人末端标定装置及标定方法
US11464581B2 (en) * 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6006126A (en) * 1991-01-28 1999-12-21 Cosman; Eric R. System and method for stereotactic registration of image scan data
US20190038362A1 (en) * 2017-08-02 2019-02-07 Medtech S.A. Surgical field camera system

Also Published As

Publication number Publication date
US20230040292A1 (en) 2023-02-09
EP3858281A1 (en) 2021-08-04
US11883117B2 (en) 2024-01-30
US11464581B2 (en) 2022-10-11
CN113243990A (zh) 2021-08-13
US20210228281A1 (en) 2021-07-29
JP7135128B2 (ja) 2022-09-12

Similar Documents

Publication Publication Date Title
JP7478106B2 (ja) 外科手術におけるコンピュータ支援ナビゲーションのための光学器具追跡ボリュームのエクステンデッドリアリティ視覚化
JP7135128B2 (ja) 可視および近赤外線スペクトルにおけるエクステンデッドリアリティの外科手術ナビゲーションのための姿勢測定連鎖
JP7216768B2 (ja) 三次元のエクステンデットリアリティアプリケーションでの医療画像における二次元のデジタル撮像の活用および通信
US11839435B2 (en) Extended reality headset tool tracking and control
JP2021090753A (ja) ナビゲートされるロボット外科手術のための変動する不透明性を有する拡張現実ヘッドセット
US20210169581A1 (en) Extended reality instrument interaction zone for navigated robotic surgery
US11690697B2 (en) Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
JP7376533B2 (ja) 外科手術中のコンピュータ支援ナビゲーション用のカメラ追跡バー
JP2021176521A (ja) 外科手術におけるコンピュータ支援ナビゲーションのためのエクステンデッドリアリティヘッドセットカメラシステム
JP7216764B2 (ja) 手術中の支援されたナビゲーションのための拡張現実ヘッドセットのカメラによって追跡された参照アレイを備えた手術器具の位置合わせ
JP2021194538A (ja) 基準シードを介した可視光での外科手術での対象の追跡および合成画像登録
JP7282816B2 (ja) ナビゲートされたロボット外科手術のためのエクステンデッドリアリティ器具相互作用ゾーン

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220831

R150 Certificate of patent or registration of utility model

Ref document number: 7135128

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150