JP2023526716A - 外科手術ナビゲーションシステムおよびそのアプリケーション - Google Patents
外科手術ナビゲーションシステムおよびそのアプリケーション Download PDFInfo
- Publication number
- JP2023526716A JP2023526716A JP2022552261A JP2022552261A JP2023526716A JP 2023526716 A JP2023526716 A JP 2023526716A JP 2022552261 A JP2022552261 A JP 2022552261A JP 2022552261 A JP2022552261 A JP 2022552261A JP 2023526716 A JP2023526716 A JP 2023526716A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- surgical
- view
- navigation system
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/10—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
- A61B90/14—Fixators for body parts, e.g. skull clamps; Constructional details of fixators, e.g. pins
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/20—Surgical microscopes characterised by non-optical aspects
- A61B90/25—Supports therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/30—Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
- A61B2090/309—Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using white LEDs
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
- A61B2090/3616—Magnifying glass
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/372—Details of monitor hardware
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3937—Visible markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3983—Reference marker arrangements for use with image guided surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
- A61B2090/502—Headgear, e.g. helmet, spectacles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/20—Surgical microscopes characterised by non-optical aspects
Landscapes
- Health & Medical Sciences (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Pathology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Robotics (AREA)
- Neurosurgery (AREA)
- Processing Or Creating Images (AREA)
- Microscoopes, Condenser (AREA)
- Medical Treatment And Welfare Office Work (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本開示の態様は、外科手術ナビゲーション用に構成され、異なるロケーションで使用するためにポータブルである多機能プラットフォームのために提示される。システムは、ハードウェアコンポーネントおよびソフトウェアコンポーネントを含む。ハードウェアコンポーネントは、外科手術状況のリモート可視化において使用可能な複数タイプの入力データを得ることができるポータブルまたは装着可能デバイスを含むことができる。ハードウェアはヘッドセットを含むことができ、ヘッドセットは、2Dおよび3Dデータを取り込むための位置カメラおよび可視カメラ等の種々のタイプのカメラならびに2Dおよび3D画像を一緒に融合またはオーバーレイするための回路部を有する。他の場合、ハードウェアは、複数のカメラセンサが組み込まれている、スマートパッド等のモバイルデバイスに対するバーアタッチメントを含むことができる。幾つかの実施形態において、ハードウェアは、外科手術ナビゲーションおよび外科手術顕微鏡の両方の機能を果たすことができるポータブルナビゲーションシステムも含む。
Description
関連出願の相互参照
本出願は、2020年2月28日に出願され、「MULTIFUNCTIONAL SURGICAL NAVIGATION APPARATUS OR PLATFORM AND APPLICATIONS THEREOF」という名称の米国仮出願第62/983,405号;2020年2月28日に出願され、「SURGICAL NAVIGATION SYSTEM SOFTWARE AND APPLICATIONS THEREOF」という名称の米国仮出願第62/983,427号;および2020年2月28日に出願され、「SURGICAL NAVIGATION SYSTEM AND APPLICATIONS THEREOF」という名称の米国仮出願第62/983,432の利益を主張し、それらの開示は、その全体がまた全ての目的で参照により本明細書に組み込まれる。
本出願は、2020年2月28日に出願され、「MULTIFUNCTIONAL SURGICAL NAVIGATION APPARATUS OR PLATFORM AND APPLICATIONS THEREOF」という名称の米国仮出願第62/983,405号;2020年2月28日に出願され、「SURGICAL NAVIGATION SYSTEM SOFTWARE AND APPLICATIONS THEREOF」という名称の米国仮出願第62/983,427号;および2020年2月28日に出願され、「SURGICAL NAVIGATION SYSTEM AND APPLICATIONS THEREOF」という名称の米国仮出願第62/983,432の利益を主張し、それらの開示は、その全体がまた全ての目的で参照により本明細書に組み込まれる。
外科手術ナビゲーションおよび外科手術顕微鏡(マイクロスコープ)機械は、互いにほぼ独立している2つのかさばるデバイスであるが、多くの外科手術において現在使用されている。神経外科手術中にこれらのデバイス間でシフトすることは外科医の時間をとる。外科手術ナビゲーション機械は、手術室空間の平均10~15%を占め、外科手術顕微鏡は、その空間の平均15~20%を占める。図1は、外科手術手技中に非常に有用であるとすることができるが、使用するのが非常に面倒であるこれらのタイプの機械の例である。
これらのデバイスは共に、ホイール付きの重いカートであるという意味でのみポータブルである。それらは、容易に200kg以上の重量があるため、これらを、緊急または外科ICU内等、手術室の外で使用することは単に実用的でない。これらのデバイスは、手術室内にあると、それらの使用寿命の間、そこに留まる傾向がある。これらのデバイスが手術室内でおよびその周りで移動する場合、それらの重量故に医療従事者からの支援が必要とされる。
手術室において、外科医は、通常一度に1つのデバイスを使用する傾向があり、その後、外科医は、外科手術顕微鏡または外科手術ナビゲーションの間を、手技中のそれらの機能に応じて行き来し続けなければならない。この行き来は、外科医にとって不便を生じ、また同様に、外科手術時間を長くしてシステム非効率性を生じさせ、また、長い外科手術時間は長時間の麻酔を意味するためにより高濃度の麻酔の使用が増える。
外科医および介入専門医等の手技内科医(Procedural physhishian)は、筋骨格系疾患(MSD:musculoskeletal disorder)等の作業関連損傷について高リスクを有する。これは、反復移動を含む長い作業時間、静的かつぎこちない姿勢、および、特に多様化する要員の状況における急速な革新を考慮した器具デザインに関する課題に起因する。
人間工学者は、外科医の作業環境および作業条件を、特定の産業労働者のそれと同じ、時としてより過酷であると説明してきた。
この観察結果は、一般住民、ならびに、炭鉱夫、製造業労働者、および理学療法士等のさらに労働集約的な職業と比較した、リスクのある内科医の間での作業関連損傷のより高い頻度を立証する研究と矛盾しない。
疾病の負担を低減するために、産業人間工学は急速な進歩を遂げたが、医療は独特な難題であることが実証されており、このグループへの介入の欠如が、今や明らかになりつつある。
伝統的なシステムに関する見通し線の問題(line of sight issue)が存在するため、外科医は、ナビゲーションシステムと共に外科器具を使用するときも制限がある。外科器具がどんな理由であれ妨害される場合、ナビゲーションは停止する。光学追跡カメラは、典型的には、外科器具に対する直接見通し線を有する必要がある。
画像ガイド式外科手術を行う標準的な方法は、外科手術部位を見ることによるのではなく、ナビゲーションスクリーンを見、その後、スクリーンベース2Dディスプレイを見ることによって外科器具をターゲットロケーションに移動させることによる-これは、豊富な外科手術経験のみから得られる極めて注意深い操縦性を必要とする。
既存のナビゲーションシステムは、3つの角度(横断面(Transverse plane)、矢状面(Sagittal Plane)、および冠状面(Coronal Plane))から2D画像ビューを提供する。外科医は、その後、これの全てを患者器官内の3Dポイントに相関させる。外科医は、その後、自分の経験からこの2D情報を3D情報にマインドマッピングするという大変なタスクを有する。したがって、このプロセスは、適切な3D可視化が現在利用可能でないため、一貫性を欠く。
コレジストレーションを行うときに紛れ込む可能性がある手作業のエラーが存在する。コレジストレーションプロセスは、最初にソフトウェア上で、次に患者上で相関ポイントを選択することである。人的要素のせいで、ポイント選択にエラーがあることは一般的である。
現在の外科手術ナビゲーションおよび顕微鏡システムは、手術室の内部に留め置かれ、したがって、外科手術プランおよび術前プラニング議論が必要なので、セットアップ時にさらなるOR(オペ室)時間をとる。
現在のシステムは、単一機能-外科手術ナビゲーション、外科手術顕微鏡検査、蛍光可視化(Fluorescencevisualization)、ラマン分光法、共焦点顕微鏡検査を実施する。デバイス間で切り換える必要がないことで外科医の効率を大幅に上げる、これの全てを行うことができる1つのデバイスは存在しない。
介入治療スイートまたは外科ICU室は、脊椎の硬膜外注入および肝臓への標的注入のような患者の転帰および満足を大幅に改善できるそれらの手技の一部のためにこれらのナビゲーションシステムにアクセスできない。
したがって、複数の医療手技コンテキストを支援するよりモバイル性のあるナビゲーションシステムを提供することが望ましいであろう。外科医等のユーザが、改良型ナビゲーションシステムインターフェースの使用によってリモートで自分のタスクをより容易に実施することができることを可能にすることも望ましいであろう。
本開示の態様は、異なるロケーションで使用するためにポータブルである、外科手術ナビゲーション、外科手術顕微鏡、ルーペ、および/または蛍光可視化のために構成されている多機能プラットフォームのために提示される。幾つかの実装態様において、プラットフォームは130ポンド未満の重量である。システムは、ハードウェアコンポーネントおよびソフトウェアコンポーネントを含む。ハードウェアコンポーネントは、外科手術状況のリモート可視化において使用可能な複数タイプの入力データを得ることができるポータブルまたは装着可能(ウェアラブル)デバイスを含むことができる。幾つかの場合、ハードウェアはヘッドセットを含み、ヘッドセットは、2Dおよび3Dデータを取り込むための位置カメラおよび可視カメラ等の種々のタイプのカメラならびに2Dおよび3D画像を一緒に融合またはオーバーレイするための回路部を有する。他の場合、ハードウェアは、複数のカメラセンサが組み込まれている、スマートパッドまたはラップトップ等のモバイルデバイスに対するバーアタッチメントを含むことができる。幾つかの実施形態において、ハードウェアは、外科手術ナビゲーションおよび外科手術顕微鏡の両方の機能を果たすことができるポータブルナビゲーションシステムも含む。
本開示のソフトウェアは、ハードウェアコンポーネントのうちの1つまたは複数から受信される入力データを処理し、そのデータを、リモートユーザが外科手術手技の少なくとも一部を実施するのに利用可能な拡張現実(AR:augmented reality)または仮想現実(VR:virtual reality)体験に変換するためのモジュールを含むことができる。
幾つかの実施形態において、拡張現実デバイスが提示される。ARデバイスは、ハウジングと、ハウジングに結合され、3次元コンポーネントを有する画像データを提供するように構成される深度カメラと、ハウジングに結合され、人間ユーザが自然に見ることができない超感覚的画像データを提供するように構成される可視カメラと、画像データの少なくとも2つのセットを受信し、画像データの少なくとも2つのセットの両方を、ユーザの視野内の共通参照ポイント上にオーバーレイするように構成されているオーバーレイディスプレイコンポーネントとを含むことができる。
幾つかの実施形態において、拡張現実デバイスは、ハウジングを支持するように構成されているヘッドセットをさらに含む。
拡張現実デバイスの幾つかの実施形態において、深度カメラおよび可視カメラは、ユーザの視野が深度カメラの視野および可視カメラの視野の両方に一致するように、ヘッドセット上に位置決めされている。
拡張現実デバイスの幾つかの実施形態において、オーバーレイディスプレイコンポーネントは、ユーザがヘッドセットを装着するときにユーザの視野上に位置決めされている。
幾つかの実施形態において、拡張現実デバイスは、モバイルデバイスに取り付けるように構成されているバーアタッチメントをさらに含む。
拡張現実デバイスの幾つかの実施形態において、オーバーレイディスプレイコンポーネントは、モバイルデバイスの可視ディスプレイを利用する。
幾つかの実施形態において、外科手術ナビゲーションのためのシステムが提示される。システムは、ローカル地理的ロケーションに位置決めされた第1の拡張現実(AR)デバイスと、リモート地理的ロケーションに位置決めされ、第1のARデバイスと有線または無線で結合された第2の拡張現実デバイスと、ソフトウェアシステムであって、第1のARデバイスおよび第2のARデバイスの両方に結合され、第1のARデバイスによって生成されるリアルタイム画像データを処理し、前もって記録された固定医療画像データにアクセスし、リアルタイム画像データおよびリアルタイム画像データ上に重ね合わせた固定医療画像データを第2のARデバイスが表示するようにさせるように構成されている、ソフトウェアシステムとを含む。
システムの幾つかの実施形態において、第1のARデバイスは、視野内で固定参照マーカを識別し、固定参照マーカに関する画像データを第2のARデバイスに送信するように構成されている。
システムの幾つかの実施形態において、ソフトウェアシステムは、固定参照マーカに関する画像データを使用して、固定医療画像データをリアルタイム画像データに対して方向付けるように構成されている。
システムの幾つかの実施形態において、固定医療画像データは、2Dおよび3D画像データを含む。
システムの幾つかの実施形態において、ソフトウェアシステムは、リアルタイム画像データ上に重ね合わされた患者に関する2D画像データおよび3D画像データの両方を同時に表示させるように構成されている。
システムの幾つかの実施形態において、リアルタイム画像データ上の重ね合わされた2Dおよび3Dデータは、リアルタイム画像データのオブジェクト内部、または内側の物理的コンテンツの1つまたは複数のビューを示す。
幾つかの実施形態においては、オブジェクトのデジタル画像データをオブジェクトのリアルタイムビューに融合させる拡張現実(AR)の方法が提示される。方法は、オブジェクトのビューにリアルタイムにアクセスすることと、オブジェクトのデジタル画像データにアクセスすることを含み、オブジェクトのデジタル画像データは、オブジェクトの1つまたは複数の静的デジタル画像として予め取り込まれ記憶されたものであり、方法はさらに、拡張現実ディスプレイスクリーンを使用し、オブジェクトのビューが拡張現実ディスプレイスクリーン内で位置または方向が変化するとき、デジタル画像データがオブジェクトのビューにリアルタイムで固着されたままであるように、デジタル画像データをオブジェクトのビューにリアルタイムに固着させる融合技法を実施することを含む。
方法の幾つかの実施形態において、デジタル画像データはオブジェクトの3Dデジタル画像データを含む。
方法の幾つかの実施形態において、デジタル画像データはオブジェクトの2Dデジタル画像データを含む。
幾つかの実施形態において、方法は、オブジェクトの2Dデジタル画像データにアクセスすることと、3Dレンダリング技法を実施することにより、2Dデジタル画像データをオブジェクトの3Dデジタル画像データに変換することとをさらに含み、融合技法は、オブジェクトの3Dデジタル画像データをオブジェクトのビューにリアルタイムで固着させることを含む。
方法の幾つかの実施形態において、融合技法は、3Dデジタル画像データのサイズがオブジェクトのサイズに正しく比例して表示されるように、3Dデジタル画像データのサイズにオブジェクトのビューのサイズをリアルタイムで一致させることを含む。
方法の幾つかの実施形態において、融合技法は、3Dデジタル画像データの形状がオブジェクトの形状に正しく比例して表示されるように、3Dデジタル画像データの形状にオブジェクトのビューの形状をリアルタイムで一致させることを含む。
幾つかの実施形態において、方法は、オブジェクトのビューに近い固定参照マーカにリアルタイムでアクセスすることをさらに含み、固定参照マーカにより、オブジェクトのビューの位置または方向が変化するときでも、オブジェクトのビューの一意な3次元方向および深度を提供するのに十分なデータが提供される。
方法の幾つかの実施形態において、融合技法を実施することは、固定参照マーカを利用することにより、デジタル画像データをオブジェクトのビューにリアルタイムで固着させることを含む。
添付図面は、一定比例尺に従って描かれていることを意図されない。種々の図面における同様の参照数字および指定は、同様の要素を示す。明確にするために、全てのコンポーネントが全ての図面においてラベル付け可能であるわけではない。
以下の開示が、本開示の異なる特徴を実装するために、多くの異なる実施形態または例を提供することを理解されたい。コンポーネントおよび配置構成の特定の実施形態または例は、本開示を簡略化するために以下で説明される。これらは、もちろん、単に例であり、制限的であることを意図されない。例えば、要素の寸法は、開示される範囲または値に制限されるのではなく、プロセス条件および/またはデバイスの所望の特性に依存し得る。さらに、以下に続く説明における第2の特徴を覆うかまたはその上の第1の特徴の形成は、第1および第2の特徴が直接接触状態で形成される実施形態を含むことができ、第1および第2の特徴が直接接触状態でないように、さらなる特徴が、第1および第2の特徴に介在して形成可能である実施形態を含むこともできる。種々の特徴は、単純さおよび明確さのために、異なるスケールで任意に描かれることができる。
さらに、「の下に(beneath)」、「の下方に(below)」、「下部の(lower)」、「の上方に(above)」、「上部の(upper)」および同様なもの等の空間的な相対語は、図に示すように、1つの要素または特徴の別の要素または特徴に対する関係を説明するために説明の容易さのために本明細書で使用可能である。空間的に相対的な用語は、図に示す方向に加えて、使用または作業時のデバイスの異なる方向を包含することを意図される。デバイスは、他の方向に(90度回転してまたは他の方向に)方向付けることができ、本明細書で使用される空間的な相対関係の説明は、同様に、相応して解釈可能である。さらに、用語「で作られる(made of)」は、「を備える(comprising)」または「からなる(consisting of)」を意味することができる。
外科手術ナビゲーションを支援するための全体のハードウェアおよびソフトウェアシステムが開示される。システムは、リモートロケーションでの外科手術手技のAR/VRレンダリングを容易にするように構成され得る。システムには、1つまたは複数のハードウェアコンポーネントが含まれ、幾つかの実施形態において、それは、ヘッドセット等の装着可能デバイスの形で示される。他の実施形態において、それは、スマートパッドまたはラップトップ等のモバイルコンピュータに対するバーアタッチメントの形で示される。幾つかの実施形態において、ハードウェアは、1つの外科手術室から別の外科手術室へ容易に移動することができるポータブル外科手術ナビゲーションツールを含む。さらに、システムは、ハードウェアによって受信される入力データを変換または融合し、リモートロケーションのARまたはVR環境のために画像形成データを供給するように構成されるソフトウェアを含む。システムの種々のコンポーネントは、以下でより詳細に説明される。
システム概要
図2を参照すると、幾つかの実施形態による、幾つかの場合ではAR要素を使用し、幾つかの場合ではVRを通した外科手術部位のリモート観察を容易にする、外科手術ナビゲーションを支援するためのシステムの高レベルブロック図が示される。ローカル側(例えば、手術が実施されているロケーション)で、本開示の態様は、位置情報を収集する位置カメラ(例えば、深度カメラ)および可視またはIRカメラを有するヘッドセット等のデータ取り込みハードウェアを含む。収集された位置および可視情報を使用して、オーバーレイマネジャーは、画像をローカルでレンダリング処理し、画像を手術上にオーバーレイさせることができる。他の場合、データ取り込みハードウェアは、位置カメラおよび可視カメラ等の複数のセンサを有する、モバイルコンピュータに対するアタッチメントを含むことができる。他の場合、データ取り込みハードウェアは、配備可能外科手術ナビゲーションシステムを含むことができる。
データ取り込みハードウェアおよびオーバーレイマネジャーは、レンダリングされた画像をクラウドにアップロードすることができる。リモートロケーションにおいて、レンダリングされたAR画像は、リモートVRヘッドセットに送信可能である。リモートVRヘッドセットは、送信されたAR画像を、3次元(3D)仮想現実空間にレンダリングすることができる。リモートに位置する外科医等のリモート専門家は、VRディスプレイ空間と相互作用することができる。リモート外科医は、VR画像上で切開の程度および深さを指示することができる。リモート外科医によって提供され、指示された位置入力は、クラウドに送信され、医療学生やローカルデータ取り込みハードウェアを操作する技術者等のローカル非専門家に中継可能である。次いでローカルオーバーレイマネジャーは、非専門家が手技または手術においてVR位置入力を使用できるように、レンダリングされたAR画像にVR位置入力を付加することができる。
本開示のナビゲーションシステムの用途の1つは、一般に、医療手技のコンテキストにおいてであるが、これらのデバイスおよび手技が、専門家がローカル非専門家からリモートである、または、その逆である任意の作業について利用可能であることが理解されるべきである。幾つかの実施形態において、作業は任意のリモート作業とすることができる。例えば、作業は、ローカル製造業者が、特定の幾何形状を有するデバイスを製造するために専門家の命令を必要とする場合がある製造作業とすることができる。幾つかの例において、作業は、装薬をどこにどのように配置するかに関する命令を受信するローカル非専門家による破壊または掘削作業とすることができる。幾つかの例において、作業は、AR受信機に送信される、正確で、精密で、リアルタイムの空間的なまたは他の命令から利益を得る場合がある任意の他の特殊作業とすることができる。
図3は、例示的な外科手術ナビゲーションシステムの概略図である。種々の実施形態によれば、例示的な外科手術ナビゲーションシステムは、外科手術ナビゲーションシステム装置またはプラットフォーム、コンピュータデバイス、ディスプレイユニット、リアルタイムリモートガイド式精密外科手術(RTRGPS:real time remote guided precision surgery)、および/または、クラウドコンピューティングネットワークを含むことができる。
外科手術ナビゲーションシステムは、外科手術ナビゲーション、拡大、蛍光可視化、およびその他の機能を実現する多機能ポータブルデバイス、つまりオールインワンデバイスを含む。
幾つかの実施形態において、外科手術ナビゲーションシステムの重量は、例えば130lbs以下とすることができるが、その他のサイズまたは重量を、それぞれの個々の状況に基づいて企図することができる。製品は、必要である場合、病院の他のエリアに非常に容易に輸送可能な小さいカートの形態であるとすることができる。他の場合、製品は、バーアタッチメント等の、モバイルコンピュータに対するアタッチメントの形態であるとすることができる。他の場合、製品は、外科手術手技中にユーザが装着することができるヘッドセットの形態であるとすることができる。
以下は、種々の実施形態に従って、外科手術ナビゲーションシステム装置またはプラットフォームによって達成可能である機能の一部である。
デバイスは、種々の実施形態に従って、マーカの助けを借りてまたは顔検出を用いて、外科手術ナビゲーションを行うことが可能である。
デバイスは、種々の実施形態に従って、光学ズームレンズによって、最大20倍外科手術ターゲットエリアの拡大を行うことが可能である。
デバイスは、種々の実施形態に従って、蛍光可視化を行うことが可能である。
デバイスは、例えば、共焦点顕微鏡およびラマン分光法等の高度機能性を装備することができる。
多機能性は、外科医(ユーザ)が、好都合にかつ複雑な位置の身体的ストレスなく、外科手術手技を実施することを可能にする。
拡張現実ベースオーバーレイは、外科医が患者を見て外科手術を実施することを可能にするので、外科手術のための時間を低減し、患者の転帰(アウトカム)を改善する。
デバイスは、種々の実施形態による、外科手術視野内で拡張現実オーバーレイのために使用されることになる透明ディスプレイを有することができる。
デバイスはまた、種々の実施形態に従って、器官の解剖学的構造の人工知能ベースのセグメント化(セグメンテーション)を使用することができ、それを外科手術ナビゲーションで用いることにより、手技の効率を上げることができる。
図4は、幾つかの実施形態による、ナビゲーションシステムがリモートロケーションに機能性を提供する態様の例のブロック図を示す。図4は種々のモジュールの例を含み、本開示のハードウェアおよびソフトウェアの特定のバージョンにおいて利用可能とすることができる別々の機能性の群を示す。利用可能なモジュールの種類のより包括的な説明は図9に関して以下で述べられる。
ここで、ナビゲーションデバイスは、種々の実施形態に従って、クラウドまたはPACSシステムに接続される。
ユーザは、種々の実施形態に従って、サムドライブまたはCDあるいはさらにクラウドまたはPACSシステムのような一般的なファイル記憶システムの任意のシステムを使用してスキャンをロードする。
スキャンがロードされると、ユーザは、種々の実施形態に従って、プラニングを開始すること、またはコレジストレーションを開始すること、またはスキャンが他のナビゲーションシステム上で存続できるように他の形態にエキスポートすることを選択することができる。
ユーザは、種々の実施形態に従って、ユーザが行おうとプランしている手技をプランするために、プラニングオプションを選択し、ポイント選択、ウィンドウイング、着色画像処理、およびAIのような全てのツールを使用することによってプラニングを開始することができる。
ユーザは、種々の実施形態に従って、プランを承認させるために、プランを、自身の同僚または専門家と共有することもできる。
ユーザが、ARモジュールを最初に開始したいと思うと、ユーザは、種々の実施形態に従って、ポイントの初期セットが選択されるようにコレジストレーションモジュールを経ることができ、ARモジュールを開始しボリュームにオーバーレイすることができる(図16および関連説明を参照)。
ARモジュールが開始されると、ユーザは、プラニング、コレジストレーション、または拡張のような全てのモジュールの間で切り換えることができる。
ARモードにおいて、ユーザは、種々の実施形態に従って、提供されたオプションを使用して、ボリュームを患者上に0.1mmの高い精度で位置合わせすることができる。
全てのセットアップが行われると、ユーザは、種々の実施形態に従って、プロシージャを継続するために、システムを使用し続けるかまたはHoloLensもしくはMagic LeapのようなARデバイスの任意のデバイスに接続することができる。
システムは、種々の実施形態に従って、ロケーション2のユーザがロケーション1の厳密なコピーを得ることができるようにRTRGPSシステムにも接続可能である。
RTRGPSシステムとのこの接続を用いることよって、種々の実施形態に従って、アプリケーションの任意の部分と同期することができる。
図4に示すように、RTRGPSソフトウェアモジュールは、例えば、ロケーション2において深度認識を有するロケーションシーンを再現するために、ロケーションシーン1からデータを取得し、このデータを、エッジコンピューティングプロトコル(MQTT)を通じて転送することができる。RTRGPS機能性を含む本開示のソフトウェアコンポーネントのさらなる説明は、以下でさらに述べられる。
ロケーション1は、外科手術ナビゲーションシステムまたは以下のモジュール/コンポーネントを最低限有する任意の他のシステムを有することができる:
a.モジュール1:ステレオカメラ;
b.モジュール2:ホログラフィ投影;
c.剛体/マーカ;
d.マーカを有する外科器具。
ロケーション2は、外科手術ナビゲーションシステムまたは以下のモジュール/コンポーネントを最低限有する任意の他のシステムを有することができる:
a.モジュール1:ステレオカメラ;
b.モジュール2:ホログラフィ投影;
c.マーカを有する外科器具。
ロケーション1からのデータは、RTRGPSソフトウェアを介してエッジコンピューティングプロトコル(MQTT)で転送される。
データは最低限以下のものを含むが、それらに限定される訳ではない。
a.ロケーション1システム方向(オリエンテーション)、並進情報であってモジュール1によって取り込まれるもの。
これは、モジュール1が剛体/マーカを識別すると、RTRGPSソフトウェアによって取り出される。
これは、モジュール1が剛体/マーカを識別すると、RTRGPSソフトウェアによって取り出される。
b.モジュール1によって見られるとおりのロケーション1ビデオストリーム。
c.ロケーション1:方向、並進情報であってモジュール2が剛体/マーカを識別するときにモジュール2によって取り込まれるもの。
d.方向、変換情報であってマーカを有する外科器具がロケーション1シーンに入るときにモジュール1またはモジュール2によって取り込まれるもの。
e.ロケーション1シーンは、ユーザがタスクを実施しようとしているエリアである。
このデータは、その後、RTRGPSソフトウェアを介してエッジコンピューティングプロトコル(MQTT)でロケーション2に転送される。
ロケーション2において、このデータをRTRGPSソフトウェアはモジュール1およびモジュール2にロードし、モジュール2ホログラフィ投影をロケーション2のユーザに対してリアルな真の深度認識を提供するリアルライブ供給物と組み合わせて使用することにより、ロケーション1からのシーンを全深度認識付きで再現する。
任意の外科手術プラニングソフトウェアまたは外科手術ナビゲーションシステムソフトウェアは、外科手術プランに関連する全てのデータを提供する。外科手術プランは、患者スキャンおよび軌跡詳細(trajectory details)を含むが、それに限定されない。
このシナリオを継続することにより、2つのロケーションが同期される。同期は、5G速度に関して0レイテンシーであり、システム全体は、5G速度において60fpsより速いレンダリング速度を有することができる。
幾つかのシナリオにおいて、ロケーション1のユーザは、例えば、シミュレーションで、ロケーション2のユーザをガイドしている。
幾つかのシナリオにおいて、ロケーション2のユーザは、例えば、予見(prevision)付きのリモートガイダンス状況で、ロケーション1のユーザをガイドしている。
ロケーション1において:マーカを有する外科器具は、ロケーション1でのタスクを実行するためにユーザによって使用される。
各マーカ/剛体は、一意なマーカとすることができる。マーカ付きの外科器具さえも一意でなければならない。同じタイプの2つのマーカが、単一ロケーションに存在してはならない。一意性は、互いに一意な距離に配置された4つのポイントの組み合わせを有することで得られる。
RTRGPSは、両方のロケーションから、連続的にデータを送信し、データを受信しており、同時にそれらを同期させている。
幾つかのシナリオにおいて、外科器具は、空間内のポイントP(p1、p2、p3)で交差する。
空間は、ロケーション1またはロケーション2内のシーンである。このポイント座標は、モジュール1およびモジュール2によって精密に獲得される。同じポイントが他のロケーションではガイダンスのためにバーチャルでハイライトされる。精度は、空間内でポイント座標を識別する際のモジュール2の精度と同程度である。
幾つかのシナリオにおいて、3つ以上のロケーションが存在する可能性がある。RTRGPSソフトウェを通して接続可能なロケーションの数に対する制限は存在しない。
ロケーション1マーカ:マーカまたは剛体は、モジュール1およびモジュール2にとって常に見ることができなければならない。
幾つかのシナリオにおいて、ロケーション1での変化しないシーンの一意な特徴(フィーチャー)および輪郭も、剛体/マーカとして使用可能である。
可視化を利用できないロボティクスシステムでは、マーカを有する外科手術ナビゲーションシステムは、患者の内側でのロボティックアームの動作を可視化するのにも使用できる。これにより、ロボティクスシステムに追加の3D深度可視化が付加される。
研修生または医療学生のチームは、外科手術の際にロケーション1の外科医の、またはロケーション1の外科医をガイドしているロケーション2の外科医のガイダンスの下で、外科手術手技中に外科手術アプローチとニュアンスをリアルタイムで学ぶことができる。
ロケーション1およびロケーション2は、RTRGPSシステムによって、事前にセグメント化/ラベル付け/マーク付けされている必要はない。システムは、ホログラフィ深度投影および1シーン内のマーカを使用して、両方のロケーションでのリアルタイム深度シーンレンダリングおよび精密なガイダンスを可能にする。
これを用いてユーザは、本明細書で開示する種々の実施形態に従って、プラニングまたは外科手術で協働したり、或は、外科手術の教育やガイドを行うことができる。
固定マーカがシステムのビュー内に存在する限り、本明細書で開示する種々の実施形態に従って、AR追跡が可能である。
器具のうちの任意のものが使用される場合、本明細書で開示する種々の実施形態に従って、器具マーカを用いることにより、追跡後の器具を追跡可能である。
図5、6、7、および8は、本開示の外科手術ナビゲーションシステムが外科手術手技のコンテキストにおいて使用可能である態様の種々の例のシナリオを示す。図5は、外科手術室の一例の写真画像である。ナビゲーションシステムハードウェアは、従来のナビゲーションおよび顕微鏡機械と比較してより容易に異なる部屋に配備可能であることができるカートの形態をとる(図1を参照)。図6は、種々の実施形態による、外科手術が実施される外科手術プラットフォームの一例の図である。ここで、本開示のハードウェアは、外科医と患者との間に介在するスクリーンを含む。スクリーンによって、AR要素を患者のビュー上に付加することが可能になる。図7は、幾つかの実施形態による、ARスクリーンのより接近したビューの図である。図8は、AR要素が表示されることを可能にしつつも、スクリーンが透明であるか、または透明の外観を提供可能である態様の例を提示する。
ナビゲーションシステムのコンポーネント例のより具体的な詳細が、ここで提供される。この説明は、本明細書で説明する全体システムを確立する種々のハードウェアの例およびソフトウェアコンポーネントに的を絞る。
全体的なハードウェア説明
幾つかの実施形態において、本開示のハードウェアは、外科手術ナビゲーション、拡大、蛍光可視化、その他様々なものを実現する多機能ポータブルデバイス、つまりオールインワンデバイスを含む。
本明細書で開示する技術および方法は、例えば図9に示すように、外科手術ナビゲーション、外科手術顕微鏡、ルーペ、蛍光可視化、事前手術プラニングおよび/またはシミュレーションを含むが、それに限定されない複数の機能を実現可能な多機能ポータブルオールインワンデバイスに関する。
図9は、種々の実施形態による、外科手術ナビゲーションシステム装置またはプラットフォーム等のオールインワン多機能装置の種々のモジュールを示す概略図である。図9に示すように、外科手術ナビゲーションシステム装置またはプラットフォームは、最大6個のモジュール1~6を含むことができる。種々の実施形態において、モジュール1は、ナビゲーション機能性を実現するように構成されるステレオカメラを含むことができる。種々の実施形態において、モジュール2は、限定はしないが、Microsoft Hololens、Magic Leap等のようなホログラフィ投影システムを含むことができる。種々の実施形態において、モジュール3は、カメラ、光学レンズ、および/またはLED光を含み、外科手術顕微鏡として機能する、かつ/または、例えば非常な細部を見るために拡大するルーペ機能を提供するように構成可能である。種々の実施形態において、モジュール4は、赤外線(IR)フィルタ付きのカメラを含むことができ、蛍光可視化のために構成される。
種々の実施形態において、モジュール5は、共焦点顕微鏡のため、または共焦点顕微鏡検査のために構成可能である。種々の実施形態において、モジュール6は、ラマン分光器を含むか、またはラマン分光法のために構成することができる。
バーアタッチメントハードウェア
種々の実施形態において、図9に示すような外科手術ナビゲーションシステム装置またはプラットフォームのモジュールを組み合わせて、単一デバイス内のミニマルの水平バーフォームファクタに収めることにより、上記で論じたような種々の高度機能性の達成を助けることができる。種々の実施形態において、外科手術ナビゲーションシステム装置またはプラットフォームの種々のモジュールは、単一のラップトップ/デスクトップ/タブレット/高性能システムから給電可能である。種々の実施形態において、外科手術ナビゲーションシステム装置またはプラットフォームをフルカスタマイズ可能にして、全部のハードウェアモジュールを含めることができる。種々の実施形態において、外科手術ナビゲーションシステム装置またはプラットフォームには、ユーザ要件に応じて、一部のハードウェアモジュールだけを含めることができる。バーアタッチメントの形態の外科手術ナビゲーションシステム装置またはプラットフォームは、その立体形状故に人間工学的に優れており、かつデザインが非常に美的であり、ディスプレイまたはタブレット/ラップトップにラッチして/取り付けて機能させることができる。外科手術ナビゲーションシステム装置またはプラットフォームの独特なデザインは、外科手術視野内で全く制限なしに外科医が手術することを可能にし、外科手術視野内での器具の自由な動きを可能にする。
図10は、種々の実施形態による、外科手術ナビゲーションシステム装置またはプラットフォームの一例の概略図である。図10に示すように、バーアタッチメントは、ラップトップまたはタブレットの上部に接続することができる。このバーアタッチメントフォームファクタの外科手術ナビゲーションシステム装置またはプラットフォームは、モジュール1、3、および4を含む。種々の実施形態において、外科手術ナビゲーションシステム装置またはプラットフォームは、ディスプレイまたはラップトップまたはタブレットの任意の側に取り付けられるが、人間工学的に、ディスプレイ、ラップトップ、またはタブレットの上部は、取り付けたり、ラッチしたりするのにより直感的な場所であり得る。
図11は、種々の実施形態による、外科手術ナビゲーションシステム装置またはプラットフォームの一例の概略図である。図11に示すように、この例におけるバーアタッチメントの形態の外科手術ナビゲーションシステム装置またはプラットフォームは、例えば限定はしないがラップトップ、タブレット、またはディスプレイデバイスに取り付けられたモジュール1、例えば、ステレオカメラを含む。
図12は、種々の実施形態による、外科手術ナビゲーションシステム装置またはプラットフォームの一例の概略図である。図12に示すように、ナビゲーションシステムは、手術の様々なビューを示すラップトップを含むことができる。図12に示すように、バーアタッチメント部分は、例えば限定はしないがラップトップもしくはタブレットに取り付けたり、またはラッチすることができる。
図13は、種々の実施形態による、外科手術ナビゲーションシステム装置またはプラットフォームの一例の概略図である。図13に示すように、バーアタッチメントの形態の外科手術ナビゲーションシステム装置またはプラットフォームは、ディスプレイユニット、例えば、透明ディスプレイまたは不透明ディスプレイを含むことができ、手術の種々のビューを示す。図13に示すように、外科手術ナビゲーションシステム装置またはプラットフォームは、ディスプレイユニットに取り付け、またはラッチ可能である。
種々の実施形態において、外科手術ナビゲーションシステム装置またはプラットフォームは、種々のハードウェアモジュールを、USBまたは他の通信ポートを通して、図10、11、および12に示すようなコンピューティングデバイスに接続するように構成可能である。上記で述べたように、コンピューティングデバイスは、例えば限定はしないが、ラップトップ、タブレット、デスクトップ、または高性能コンピュータシステムとすることができる。代替的に、バーアタッチメントは、図13に示すように、表示のみのシステム(display only system)に取り付けられることもできる。種々の実施形態において、ディスプレイと、外科手術ナビゲーションシステム装置またはプラットフォームは、高性能コンピュータシステムに接続される。
ヘッドセットハードウェア
幾つかの実施形態において、外科手術ナビゲーションシステム装置またはプラットフォームは、手術室において装着可能なヘッドセットの形で示すことができる。リモート専門家によるローカル非専門家のリモート命令を容易にするのを助けるために、幾つかの実施形態によるヘッドセットナビゲーションシステムは、空間データと、可視または近IRデータとを収集するように構成可能である。データを収集するために、1つまたは複数のカメラを、ヘッドセットに取り付けることができる。ヘッドセットは、視野内にAR要素を表示するように構成可能である。カメラは、リモート非専門家が向いている方向で位置データと可視または近IRデータとを収集するように方向付けることができる。
図14は、幾つかの実施形態による、専門家または非専門家がヘッドセットナビゲーションシステムを装着する一例のシナリオを示す。ヘッドセット装着者は、ヘッドセットを通して表示されるとおりに視野内のAR要素も見ながら、手術テーブル上の患者を見ることができる。幾つかの実施形態において、カメラセンサの方向に基づいて、ヘッドセットによって取り込まれる画像データはユーザが見るものを反映可能である。これらの画像データは、例えばクラウドを通してリモートロケーションに送信され、OR内で見られているもののVR描出を、リモートロケーションの他のユーザに表示するために使用可能である。
図15は、幾つかの実施形態による、ナビゲーションシステムのアプリケーション例を示す。左の例のシナリオは、ヘッドセットの形態のナビゲーションシステムを装着しながら、患者の世話をする専門家を示す。専門家は、患者を見るが、他の要素を見ることもできる。右に示されるのは、AR要素も含む、ヘッドセットを通しての専門家の一人称ビューの例である。ここで、患者の脳のおおよその位置は、脳があると測定された、患者の他の参照ポイントとの相対的な位置で、患者上にオーバーレイされる。患者の脳のオーバーレイを3Dレンダリングすることができ、それにより、ヘッドセットを装着する専門家は患者の周りを歩き回ることができ、患者に対するヘッドセットの方向に従って脳の角度が様々にリアルタイムで変化することになる。このオーバーレイを達成するための実装態様例は、以下でさらに説明されるであろう。
幾つかの実施形態において、患者の画像データと、X線またはMRI等の他の形態での患者の1つまたは複数のスキャンとは全て、リモートロケーションに送信可能である。リモートロケーションのユーザは、ヘッドセットまたはバーアタッチメントの形態の本開示によるナビゲーションシステムを利用し、患者に対して精密に配置することで、患者の上部で1つまたは複数のスキャンのオーバーレイを見ることができる。これにより、リモートユーザが、リモートロケーションからであっても、患者をどのように処置するかに関してよりよい決定を行うことが可能になる。
ARヘッドセットに取り付けられたカメラは、任意のタイプの位置および/または可視もしくは近IRデータ検知カメラとすることができる。例えば、既存のカメラがARヘッドセットに接続可能である。幾つかの実施形態において、位置カメラは、位置および深度データを収集することができる任意のタイプのカメラとすることができる。例えば、位置カメラは、LIDARセンサまたは任意の他のタイプの位置カメラとすることができる。
幾つかの実施形態において、可視または近IRカメラは任意のタイプの可視カメラとすることができる。例えば、可視または近IRカメラは標準的な可視カメラとすることができ、1つまたは複数のフィルタを、近IR情報を収集するために可視カメラ上に配置することができる。幾つかの例において、カメラは、IRデータを特に収集するように構成可能である。
幾つかの実施形態において、ARヘッドセットにカメラを付加することは、ARヘッドセットにさらなる重量を付加する場合がある。ARヘッドセットに重量を付加することは、ユーザの快適さを減ずる場合がある。例えば、さらなる重量はユーザの首の疲労を増加させる場合がある。さらに、重量の増加により、ユーザの頭部上でのARヘッドセットの安定性が減じることによって、ヘッドセットがスリップし、収集されたデータの品質を低下させることがある。
幾つかの実施形態において、単一カメラまたは各カメラ用のカメラハウジングはヘッドセットに組み込まれ、位置データと可視または近IRデータとを収集するために使用可能である。ヘッドセットは、単一レンズを通してデータを収集する、同じハウジング内の2つのカメラを含むことができる。これにより、ARヘッドセットの重量を減らすことができる。ARヘッドセットの重量を減らすことは、ユーザの快適さを改善し、ユーザの頭部上のARヘッドセットがスリップすることを減らすのに役立つことができる。
種々の実施形態において、バーアタッチメントまたはヘッドセットまたは他の変形の形態の外科手術ナビゲーションシステム装置またはプラットフォームは、可搬性を極めて、例えば、小さな介入が非手術室のセッティングでユーザにより実施されるようにモジュール1(または、モジュール1のみ、図9を参照)を含むことができる。この構成は、ユーザ、例えば、外科医にナビゲーション機能性を提供する。種々の実施形態によれば、外科手術ナビゲーションシステム装置またはプラットフォームは、ナビゲーション機能のみを実施するように構成される。
医療介入の種々の場合に、ホログラフィ投影を提供するためにモジュール2(図9を参照)も外科手術ナビゲーションシステム装置またはプラットフォームに含めることができる。種々の実施形態において、ユーザまたは外科医は、ナビゲーション機能のために拡張現実オーバーレイを使用することができる。
例えば、ユーザが手術室にいて、外科手術を効果的に実施するために複数の機能のほとんどを要求する場合には、外科手術ナビゲーションシステム装置またはプラットフォームが全部のモジュール1~6を含むように構成可能である。
全部のまたは一部のモジュールのコンポーネントは、小型フォームファクタ化して可搬であるように製造された従来品を用いるものが入手できるが、これらのコンポーネントを直感的なフォームファクタになるように組み合わせ、これらの高度機能性を1つのデバイスで達成させることが可能である。例えば、バーアタッチメントは、単一ラップトップ/デスクトップ/タブレット/高性能システムから給電可能である。バーは、その形状故に人間工学的に優れており、かつデザインが非常に美的であり、AR頭部搭載式ディスプレイにラッチして/取り付けて機能させることができる。説明した実施形態でのモジュールの配置は、外科手術視野内で全く制限なしに外科医が手術することを可能にし、外科手術視野内での器具の自由な動きを可能にする。
画像収集およびレンダリングのためのソフトウェア
外科手術ナビゲーションシステムの一部として、幾つかの実施形態によれば、開示されたプラニングおよび処理ソフトウェアが、受信したステレオカメラデータ等のハードウェア入力データを、複数のデータセットを一緒にオーバーレイするより有用な視覚表示に変換するソリューションを提供する。さらに、本明細書で説明するソフトウェアは、手術室内のローカルビューへのリモート接続を可能にする。
幾つかの実施形態において、外科手術ナビゲーションシステムソフトウェアはプラニングソフトウェアを含む。任意の手技に先立って、プランが必要とされる。このプランは、手技を実施する外科医によって生成され承認される。プラニングソフトウェアは、患者の3Dスキャン(例えば、磁気共鳴(MR:magnetic resonanse)およびコンピュータ断層撮影(CT:computerized tomography))および/または2Dスキャン(例えば、X線および超音波)をしばしば必要とする。
全てのMRおよびCTスキャンは、一例として、国際的に認められたフォーマットである、医療におけるデジタル画像および通信(DICOM:Digital Imaging and Communications in Medicine)フォーマットで提供可能である。
幾つかの事例におけるソフトウェアは、ローカルシステム(例えば、ラップトップ、デスクトップ、タブレット)上でまたはクラウド上で利用可能とすることができる。
ソフトウェアは、医療画像を記憶するPACS(Picture and Archive Communication System、画像保存通信システム)に接続可能である。ソフトウェアは、PACSシステムに問い合わせを行い、患者3D画像をダウンロードすることができる。
ユーザは、ここで、ナビゲーションシステムの一部であってよいデバイス(例えば、ラップトップ、デスクトップ、タブレット)上で3Dスキャンを観察するオプションを有する。ユーザは、例えば、ウィンドウイング、ズーム、パン、スクロール、ライン、ポイント選択等の、DICOM画像を操作する標準的な画像処理ツールにアクセスすることができる。
ユーザがターゲットおよびエントリポイントを選択して軌跡を作成することにより、手技を支援するチームによる軌跡の検討ができる。
さらに、幾つかの実施形態において、ソフトウェアは、手術室内で患者のリアルタイム撮像データを処理し、3Dおよび/または2D画像を患者のリアルタイム画像データと組み合わせ、且つ3Dおよび2D画像を患者の身体の適切なロケーションコンテキスト内で示されるべき場所に精密にオーバーレイさせることができる。
このプランは、HIPAA適合データベースに保存可能であり、HIPAA適合データベースは、デバイス上でローカルであるとしたり、或いは、HIPAA適合クラウド上に保存したりすることができる。
プランは、ローカルデバイスからリムーバル記憶媒体にエキスポートして他の外科手術ナビゲーションプラニングステーションで使用できるようにしたり、或いは、他の外科手術ナビゲーションプラニングステーション上のクラウドから直接アクセスしたりすることができる。データベースに保存されたプランは、それをユーザによって保存されたとおりに再ロードするのに必要な全てのデータを有するので、手術室内で同じタスクを反復するのにかかる時間が節約される。
開示される外科手術ナビゲーションシステムソフトウェアは、医療画像処理のための幾つかの高度機能を有しており、ユーザ/外科医が精緻かつより迅速にプラニングするのを助ける。
図16は、幾つかの実施形態による、高レベルの外科手術ナビゲーションシステムソフトウェアのブロック図を示す。図16は、ソフトウェアシステム内のデータが、本明細書で開示される種々の実施形態に従って、システムの異なるモジュール間でどのように流れるかを示す。
図16を参照すると、幾つかの実施形態において、ソフトウェアは、その処理アルゴリズムの一部としてレジストレーションプロセスを実施する。レジストレーションは、同じ患者の2つのスキャンが、同じ座標系を有する(融合)ように重ね合わされ、それにより、2つのスキャンの特徴(フィーチャー)が重ね合わされるよう、プロセスを記述するのに用いることができる。例えばT1 MRI、T2 MRI、DWI MRI、CT PLAIN、CT CONTRAST、FMRI、DTI MRI等のように、スキャン毎に取得プロトコルが異なり得るため、取得されるスキャンは多数存在する。コレジストレーションは、患者に対する1つ、2つ、または3つ以上の共通参照ポイントにおいて連係(コーディネーション)されるように複数のデータセットを連係させることであると言える。ソフトウェアは、外科手術手技をどのように実施するかのプランと組み合わせて、患者上の外科手術部位のコンテキストでコレジストレーション済みデータの種々のセットを配置することができる。次いでソフトウェアが主にこのエリアに処理を向けるため、ユーザは、外科医またはナビゲーションシステムハードウェアの他のユーザに利用可能なARディスプレイを通して、外科手術部位に関連する種々のコレジストレーション済みデータセットを見ることができる。剛体マーカおよび/または硬質外科器具マーカは、コレジストレーションプロセス中に種々のデータセットを客観的に方向付けるのに使用できるので、リアルタイムARディスプレイを実施する間、信頼し続けることができる。
図17は、種々の実施形態による外科手術ナビゲーションシステムソフトウェアのレジストレーションモジュールを示し、これはレジストレーションプロセスのためのハイブリッドアプローチである。ここで、ソフトウェアは、記録された2Dまたは3D画像から固定画像にアクセスし、それらを、ナビゲーションシステムハードウェアを通して観察されるリアルタイムデータ等の可動画像と組み合わせることができる。ソフトウェアの用語では、融合される2つの患者スキャンが存在する場合、一方のスキャンが固定スキャンと呼ばれ、他のスキャンは可動スキャンであるのが一般的ある。可動スキャンは、典型的には、固定スキャンと融合されるように、アルゴリズムで導出される回転および並進(または共に変換とも呼ばれる)の適用対象となるスキャンである。
特徴抽出が両方の画像で実施可能されることにより、旋回基部となる(to pivotoff of)主要な特徴が識別される。変換は、高忠実度および低忠実度共に、画像を共通データセットに変換するのに実施される。次いでソフトウェアは可動画像に対して微細変換を適用し、画像は最も近いことが知られている固定画像によりよく調整(キャリブレーション)される。可動画像のリサンプリングは、固定画像とのベストマッチを見出すために実施される。リサンプリングされた画像はロードされ、固定画像と比較され、次いで、固定画像とブレンドされる。幾つかの実施形態に従って、所望により、ブレンドされた画像のうちの1つの画像の他の画像に対する不透明度を変更することができる。
レジストレーションプロセスのために使用されるアルゴリズムは、例えば、外科手術ナビゲーションシステムによって使用されるカスタムハイブリッドアルゴリズムとすることができる。例えば、2ステッププロセスにおいて、第1のステップは、2つのスキャンが同じ座標系に近づけるようにできる粗いレジストレーション法である。しかし、特定の状況において、この方法の出力は、このステップが特徴の小さいセットに対して実行され、粗い推定を行わなければならないだけであるので、要する時間は少ないが、この方法では先に進むための精密な結果は得られない。
第2のステップは、微調整レジストレーション法であり、できる限り近づくように2つのスキャンを微調整することにより、2つのスキャンが同じ座標系を共有し、特徴を重ね合わせることが可能になる。このステップは、2つのスキャン間でマッチしなければならない特徴の大きいセットを用いて実行される。
典型的なレジストレーションプロセスは3~4分かかるのに対し、本明細書で論じるレジストレーションプロセスは、種々の実施形態によれば、要する時間が平均計算で最大60%も低減する。
リアライメント:幾つかのシナリオにおいて、前述の方向で取得されたスキャンを、ユーザは別の好ましい方向に再整列させたいと思う。3D世界において、方向は、世界が認識される方法を変化させる。最も先進的なユーザでさえも、異なるアライメントから同じ器官/シーンを見ると、混乱する傾向がある。リアライメントは、平面の概念を用いて行われる。ユーザが提供する参照平面を使用することにより、3Dスキャンの再整列(リアライメント)が行われる。平面は、最小限の3つのポイントを用いて規定可能である。
外科手術ナビゲーションシステムリアライメントでは、2つのポイントをユーザから求めることができる。第3のポイントは、選択された2つのポイントの中間ポイントをz軸方向に0.1mm増分させたものとして、ソフトウェアにより自動的に選択可能である。ポイント1が、座標p1、p2、p3によって参照され、ポイント2が、座標a1、a2、a3によって参照される場合、平面を形成するための第3のポイントは、((p1+a1)/2、(p2+a2)/2、(p3+a3)/2+0.1 mm)の計算を行うことによって自動的に選択可能である。このアプローチにより、平面が非常に精密に得られる。
拡張現実オーバーレイを効果的に生成するために、コレジストレーションを用いて、ホログラムをリアルシーン上に重ね合わせることがしばしば行われる。図18は、種々の実施形態による、シーン中の剛体/固定マーカに基づいて拡張現実ナビゲーションを実現する外科手術ナビゲーションシステムソフトウェアのデータフローおよび作業の一例、ならびに、システムが複数のホログラフィデバイスと同時に通信可能である態様を示す。
コレジストレーションは、ポイントの2つのセットを入力としてとることができ、ポイントの第1のセットはスキャン上で選択されたポイントを含み、第2のセットは、拡張モジュールの助けを借りて選択されるリアル世界のポイントを含む。
ポイントが選択された後、システムは、3Dボリュームを0.1mmに近い高精度でオーバーレイする2つのステップをとることができる。
第1のステップではポイントがゆるく選択されるため、システムは、種々の実施形態に従って、ポイントの2つのセットを用いて粗い推定を行うことによって、3Dボリュームをできる限り近づける。
精緻化(refinement)ステップと呼ぶことができる第2のステップで、システムは、種々の実施形態に従って、拡張モジュールからの3Dポイントクラウド生成と、スキャンからの3Dポイントクラウド生成を行い、これを用いてコレジストレーションを精緻化することにより、オーバーレイの高い精度を得る。
ユーザが拡張オーバーレイを制御するために与えられる種々のオプションが存在する。これらのオプションは、例えば、不透明度、サイズのクリッピング、着色、ウィンドウイング、レジストレーションの精緻化、ARモードを含む。図21は、種々の実施形態に従って、器具(マーカを有する)がナビゲーションに使用される態様のデータフローおよび作業を示す。
ホログラフィモードでは、スキャンを用いてより詳細な3Dボリュームを作成することにより、スキャンの異なる部分を強調し、それらを異なるように着色することができる。これにより、種々の実施形態に従って、一部のユーザが解剖学的構造の異なる部分をより明瞭に可視化するのを助けることができる。
プランが作成され、3Dボリュームが精密にオーバーレイされると、システムは、種々の実施形態に従って、プランを自動的にロードし、3Dボリュームと共にそれもオーバーレイすることができる。
これが行われる間、固定3Dマーカが視野内に留まるのが通常であり、システムは、種々の実施形態に従って、固定マーカに対するオーバーレイの相対的な方向を用いて、オーバーレイを固定マーカのサブシステムにすることができる。
するとユーザは、種々の実施形態に従って、固定マーカに対するホログラフィオーバーレイの方向をシステムが更新している間に、固定マーカの周りを動き回ることができる。固定マーカの例は、図25および26に示され、後述する。
ユーザは、観察と手技の実施によい位置を選択すると、種々の実施形態に従って、ユーザが使用したいと思う器具に器具追跡マーカを固定することができる。これらの固定マーカは、例えば、図25または26に示すマーカと同様とすることができる。
システムは、器具をリアルタイムで追跡することができ、ホログラフィオーバーレイを相応して更新することができる。図21を参照。
このようにして、ユーザは、種々の実施形態に従って、患者の内側でのユーザの位置決めをより明瞭に見ることができる。
任意の時点で、ホログラフィオーバーレイが正しく整列しなくなる場合、ユーザが補正を始動させると、システムは問題を迅速に解決し、精度をほぼ0.1mmに戻す。
図19は、組み合わせアルゴリズムを使用してホログラフィ投影がリアルシーン上に重ね合わされる態様のデータフローおよび作業を示す。例えば、CPD(:Correlating point drift algorithm、コリレーティングポイントドリフトアルゴリズム)およびICP(:Iterative Closest Point algorithm、反復最接近点アルゴリズム)が、種々の実施形態に従って利用可能である。
図20は、種々の実施形態による、ホログラフィモードで可能にされる高度可視化機能セットの例を示す。本開示のソフトウェアは、これらの種々のセッティングに従って、AR環境内のセッティングも調整するように構成可能である。
ユーザはここで、HoloLensまたはMagic Leap(図18)のような、任意の数の他のARデバイスを接続し、且つ固定マーカを参照として使用することにより、利用可能なARオーバーレイを有意の補助として用いて手技を継続することができる。
図22は、幾つかの実施形態に従って、本開示のナビゲーションシステムを使用してユーザが見ることができるものの例を提示する。ここでテーブル上に、外科医等のユーザが普通に見ることができる頭蓋骨が示されている。次いで、ナビゲーションシステムハードウェアを使用し、バーアタッチメント付きディスプレイを通して、またはナビゲーションシステムヘッドセットを通して、ユーザは、前もって記録された画像データを用いることにより、頭蓋骨の内側に存在していた可能性があるもののスライスのオーバーレイされた画像を見ることができる。ここで、データは、磁気共鳴撮像を通して得られたであろう脳および内部通路(internal passageways)の断面を含む。さらに、本開示のナビゲーションシステムによれば、さらにより多くの撮像データセットを同時に一緒にオーバーレイすることが可能である。例えば、頭蓋骨のX線データをMRデータと共に重ね合わせることもできる。ユーザが従来のように頭部の異なるビューを、並んだこれらの3つの異なるビューで見るのではなく、本開示のナビゲーションシステムによれば、ビューが存在するだろう場所で精密に互いに重ね合わせることによって、全てのビューがスムーズに関連している様をユーザが理解することが可能になる。
図23は、幾つかの実施形態による、通常は視野内にある頭蓋骨上に重ね合わされた画像データセットのうちの1セットの不透明度の種々の程度の例を示す。図示するように、1セットのビューの透明度は、本開示のソフトウェアを使用して、所望に応じて増減可能である。
図24は、幾つかの実施形態による、複数のオーバーレイを提供するナビゲーションシステムの別の例を提供する。この例において、患者は手術室内にいて持ち上げられている。患者の頭部は、左に示すように、支持体上に載っている。患者の残りの部分は隠されている。本開示のナビゲーションシステムを使用する外科医は、左に示すように、患者の頭蓋骨の撮像データを患者の頭部のライブビュー上に重ね合わせて用いることができる。さらに、外科医は、右に示すように、患者の脳の断面の撮像データの一部分だけを同じビュー上に重ね合わすこともできる。指定された脳内物質のロケーションは、それが患者の頭部の内部に存在する場所のロケーションに精密に配置されるため、外科医は、患者の頭蓋骨の位置が、患者の脳の所望の部分にどのように関連しているかを理解することができる。上記ソフトウェアの節で論じたように、これら種々のコレジストレーション済みデータセットは、MRIおよびX線スキャンからのようにまず固定撮像技法から得ることができる。スキャンが2Dスライスで得られる場合でも、種々の3Dソフトウェア画像形成技法を先立って実施することで、2D画像データの3Dレンダリングを生成することができる。すると、画像データの3Dレンダリングを患者の通常ビューに対して正しい位置で重ね合わることができるので、外科医が患者の周りを動き回って異なる角度からデータセットの全てを観察することが可能になる。
図25および26は、幾つかの実施形態による、画像データの複数のセットが患者上に重ね合わされることを可能にするための、ユニバーサル参照ポイントを提供する固定マーカ例を提示する。図25では、ターゲット患者の近くの一定位置に配置可能な、非対称に並べられた4つのマーカを有するデバイスが示される。ソフトウェアは、視覚的キューとしてこれらの4つのポイントを探し、画像データの他のセットでこれらの同じ4つのポイントを再び参照することによって、画像を正しく方向付けることができる。別の例として、図26では、患者または手術テーブルの固定位置に取り付け可能な固定視覚的キューとしてやはり4つのポイントを有する器具が示される。これらは、AR画像が配置されるべき場所を較正(キャリブレーション)するために、ナビゲーションソフトウェアによって参照される。
幾つかの実施形態において、本開示のナビゲーションソフトウェアは、画像データ内および/またはユーザ、例えば外科医のリアルタイムビュー内の一意な特徴によって、固定参照ポイントを見出すことができる。例えば、ナビゲーションソフトウェアは、患者の眼または眼窩を、患者の頭蓋骨に対する参照ポイントとして識別してよい。これらの種類のキューは、患者の一部が隠されていて、人工的に配置された参照マーカのビューを維持することが常に保証となる訳ではない場合に有用であり得る。同様に、患者上の、または患者の近くにあるタイプの参照ポイントは、移動する外科医をソフトウェアが連続的に処理しているときに変更可能である。
図22、23、および24の例に示すように、本開示のナビゲーションシステムは、デジタル画像をライブ画像上にリアルタイムにオーバーレイし、観察者がオブジェクトの周りをリアルタイムに動き回るときでも、デジタル画像をライブオブジェクトの同じ位置に固定することが可能である。これは融合プロセスと呼ばれるものであり、ヘッドギアまたはバーアタッチメントを含むモバイルコンピュータ等のナビゲーションシステムハードウェアによりリアルタイムで実施される。図16~21、特に図17で説明するソフトウェアアルゴリズムと矛盾せずに、ナビゲーションシステムはまず、MRスキャンまたはCTスキャンの複合スライスの3Dレンダリング等の、オブジェクトに関連するデジタルコンテンツを受信することができる。ナビゲーションシステムは、デジタル画像の形状を、ライブオブジェクトのリアルタイムで見られるものにマッチさせることを含む3D融合技法を実施することができる。一例として、ナビゲーションシステムは、患者の頭蓋骨のX線データおよび患者の脳のMRデータにアクセスしながら、患者の頭部をリアルタイムで眺めることができる。現在眺めている患者の頭部のサイズを用いてデジタルコンテンツを正しくサイズ決定するために、ソフトウェアにより1つ以上の変換を行うことが必要な場合がある。
幾つかの場合、ナビゲーションシステムソフトウェアは、デジタル画像の2D融合プロセスを1つ以上実施することもできる。ナビゲーションシステムソフトウェアは、ライブオブジェクトの角度にマッチさせるために2D画像の1回または複数回の回転を実施することによってこれを達成することができる。そうすると、ナビゲーションシステムソフトウェアは、ライブオブジェクト上への3Dおよび2D画像の一方または両方のオーバーレイを表示するとともに、観察者がオブジェクトの周りを動き回る間、3Dおよび2D画像の適切な方向を絶えず保つことができるように、ライブオブジェクトの観察者の角度および位置を追跡することができる。上記で論じたように、融合を所望するオブジェクト毎の一意な参照マーカを用いることにより、ナビゲーションシステムはオブジェクトのその視野に対する現在の角度および位置がどのようなものかを識別することが可能である。これらのマーカの例は、図25および26に示される。上記で述べたように、本開示のナビゲーションシステムは、観察者がリアルタイムライブオブジェクトの周りを動き回るときの方向の正確さと、0.1mm以内の配置精度とで、これらのデジタル画像をリアルタイムライブオブジェクトに融合することができる。
幾つかの実施形態において、参照マーカは、患者の医療手技に伴われる外科または医療器具上にも含まれる。このため、ナビゲーションシステムが本明細書で説明する技法を用いて医療デバイスの動きを組み込むことにより、医療デバイスとライブオブジェクトおよびオーバーレイとの拡張現実相互作用が提供可能になる。こうして、リモートユーザは、患者から物理的に遠くにいても、医療デバイスが、患者および患者の内側の関連する部分とどのように相互作用可能であるか、または相互作用すべきかを示すことができる。これらの技法は、リモートロケーションからの練習または準備にも使用できる。したがって、本明細書の開示によれば、練習に患者データの精密なレプリカを提供することによって、および/または、他者を訓練する教育ツールを提供することによって、医療手技の準備を改善するための強力なツールが提供可能となる。
本明細書は多くの特定の実装態様詳細を含むが、これらは、任意の発明のまたは特許請求可能であるものの範囲に対する制限としてではなく、むしろ、特定の発明の特定の実装態様に固有の特徴の説明として解釈されるべきである。別個の実装態様のコンテキストにおいて本明細書で説明される或る特定の特徴は、単一実装態様のコンビネーションの形でも実装可能である。逆に、単一実装態様のコンテキストで説明される種々の特徴は、複数の実装態様の形で別々に、または任意の適切なサブコンビネーションの形でも実装可能である。さらに、特徴が特定のコンビネーションの形で作用するものとして上記で説明され、さらにまずはそのようなものとして特許請求されるとしても、特許請求されるコンビネーションからの1つまたは複数の特徴は、幾つかの場合、そのコンビネーションから切り出すことができるのであり、特許請求されるコンビネーションは、サブコンビネーションまたはサブコンビネーションの変形を対象とすることができる。
同様に、作業は、特定の順序で図面に示されるが、これは、望ましい結果を達成するために、そのような作業が、示す特定の順序でもしくは順番に実施されること、または、全ての示す作業が実施されることが必要であると理解されるべきではない。特定の状況において、マルチタスキングおよび並列処理が有利であり得る。さらに、上記で説明する実装態様における種々のシステムコンポーネントの分離は、全ての実装態様においてそのような分離を必要とするものとして理解されるべきでなく、説明するプログラムコンポーネントおよびシステムは、一般に、単一ソフトウェア製品への統合、または複数のソフトウェア製品へのパケージ化が可能であることが理解されるべきである。
「または(or)」への言及は、「または」を使用して説明される任意の用語が、説明される用語の単一、2つ以上、および全てのうちの任意のものであることができるように、包含的(inclusive)なものとして解釈可能である。「第1の(first)」、「第2の(second)」、「第3の(third)」等のラベルは、順序付けを示すことを必ずしも意味せず、一般的に単に同様のまたは類似のアイテムまたは要素を区別するために使用されている。
本開示で説明する実装態様に対する種々の変更は、当業者に容易に明らかになることができ、本明細書で規定される一般原理は、本開示の趣旨または範囲から逸脱することなく、他の実装態様に適用可能である。そのため、特許請求の範囲は、本明細書に示す実装態様に限定されることを意図されるのではなく、本開示、原理、および本明細書で開示される新規な特徴と矛盾しない最も広い範囲が与えられるべきである。
別段に特に述べられない限り、「処理する(processing)」、「計算する(computing)」、「計算する(calculating)」、「決定する(determining)」、「提示する(presenting)」、「表示する(displaying)」または同様なもの等の語を使用する本明細書の考察は、1つまたは複数のメモリ(例えば、揮発性メモリ、不揮発性メモリ、またはその任意の適切な組み合わせ)、レジスター、あるいは、情報を受信する、記憶する、送信する、または表示する他の機械コンポーネント内の物理的(例えば、電子、磁気、または光)量として表現されるデータを操作または変換する機械(例えば、コンピュータ)の行為またはプロセスを指すことができる。さらに、別段に特に述べられない限り、用語「1つの(a)」または「1つの(an)」は、特許文書において一般的であるように、1つまたは2つ以上のインスタンスを含むために本明細書で使用される。最後に、本明細書で使用するとき、接続詞「または」は、別段に特に述べられない限り、非排他的な「または」を指す。
本開示は、例証的であり、制限的でない。さらなる変更は、本開示に照らして当業者に明らかになることになり、添付特許請求項の範囲内に入ることを意図される。
関連出願の相互参照
本出願は、2020年2月28日に出願され、「MULTIFUNCTIONAL SURGICAL NAVIGATION APPARATUS OR PLATFORM AND APPLICATIONS THEREOF」という名称の米国仮出願第62/983,405号;2020年2月28日に出願され、「SURGICAL NAVIGATION SYSTEM SOFTWARE AND APPLICATIONS THEREOF」という名称の米国仮出願第62/983,427号;および2020年2月28日に出願され、「SURGICAL NAVIGATION SYSTEM AND APPLICATIONS THEREOF」という名称の米国仮出願第62/983,432の利益を主張し、それらの開示は、その全体がまた全ての目的で参照により本明細書に組み込まれる。
本出願は、2020年2月28日に出願され、「MULTIFUNCTIONAL SURGICAL NAVIGATION APPARATUS OR PLATFORM AND APPLICATIONS THEREOF」という名称の米国仮出願第62/983,405号;2020年2月28日に出願され、「SURGICAL NAVIGATION SYSTEM SOFTWARE AND APPLICATIONS THEREOF」という名称の米国仮出願第62/983,427号;および2020年2月28日に出願され、「SURGICAL NAVIGATION SYSTEM AND APPLICATIONS THEREOF」という名称の米国仮出願第62/983,432の利益を主張し、それらの開示は、その全体がまた全ての目的で参照により本明細書に組み込まれる。
外科手術ナビゲーションおよび外科手術顕微鏡(マイクロスコープ)機械は、互いにほぼ独立している2つのかさばるデバイスであるが、多くの外科手術において現在使用されている。神経外科手術中にこれらのデバイス間でシフトすることは外科医の時間をとる。外科手術ナビゲーション機械は、手術室空間の平均10~15%を占め、外科手術顕微鏡は、その空間の平均15~20%を占める。図1は、外科手術手技中に非常に有用であるとすることができるが、使用するのが非常に面倒であるこれらのタイプの機械の例である。
これらのデバイスは共に、ホイール付きの重いカートであるという意味でのみポータブルである。それらは、容易に200kg以上の重量があるため、これらを、緊急または外科ICU内等、手術室の外で使用することは単に実用的でない。これらのデバイスは、手術室内にあると、それらの使用寿命の間、そこに留まる傾向がある。これらのデバイスが手術室内でおよびその周りで移動する場合、それらの重量故に医療従事者からの支援が必要とされる。
手術室において、外科医は、通常一度に1つのデバイスを使用する傾向があり、その後、外科医は、外科手術顕微鏡または外科手術ナビゲーションの間を、手技中のそれらの機能に応じて行き来し続けなければならない。この行き来は、外科医にとって不便を生じ、また同様に、外科手術時間を長くしてシステム非効率性を生じさせ、また、長い外科手術時間は長時間の麻酔を意味するためにより高濃度の麻酔の使用が増える。
外科医および介入専門医等の手技内科医(Procedural physhishian)は、筋骨格系疾患(MSD:musculoskeletal disorder)等の作業関連損傷について高リスクを有する。これは、反復移動を含む長い作業時間、静的かつぎこちない姿勢、および、特に多様化する要員の状況における急速な革新を考慮した器具デザインに関する課題に起因する。
人間工学者は、外科医の作業環境および作業条件を、特定の産業労働者のそれと同じ、時としてより過酷であると説明してきた。
この観察結果は、一般住民、ならびに、炭鉱夫、製造業労働者、および理学療法士等のさらに労働集約的な職業と比較した、リスクのある内科医の間での作業関連損傷のより高い頻度を立証する研究と矛盾しない。
疾病の負担を低減するために、産業人間工学は急速な進歩を遂げたが、医療は独特な難題であることが実証されており、このグループへの介入の欠如が、今や明らかになりつつある。
伝統的なシステムに関する見通し線の問題(line of sight issue)が存在するため、外科医は、ナビゲーションシステムと共に外科器具を使用するときも制限がある。外科器具がどんな理由であれ妨害される場合、ナビゲーションは停止する。光学追跡カメラは、典型的には、外科器具に対する直接見通し線を有する必要がある。
画像ガイド式外科手術を行う標準的な方法は、外科手術部位を見ることによるのではなく、ナビゲーションスクリーンを見、その後、スクリーンベース2Dディスプレイを見ることによって外科器具をターゲットロケーションに移動させることによる-これは、豊富な外科手術経験のみから得られる極めて注意深い操縦性を必要とする。
既存のナビゲーションシステムは、3つの角度(横断面(Transverse plane)、矢状面(Sagittal Plane)、および冠状面(Coronal Plane))から2D画像ビューを提供する。外科医は、その後、これの全てを患者器官内の3Dポイントに相関させる。外科医は、その後、自分の経験からこの2D情報を3D情報にマインドマッピングするという大変なタスクを有する。したがって、このプロセスは、適切な3D可視化が現在利用可能でないため、一貫性を欠く。
コレジストレーションを行うときに紛れ込む可能性がある手作業のエラーが存在する。コレジストレーションプロセスは、最初にソフトウェア上で、次に患者上で相関ポイントを選択することである。人的要素のせいで、ポイント選択にエラーがあることは一般的である。
現在の外科手術ナビゲーションおよび顕微鏡システムは、手術室の内部に留め置かれ、したがって、外科手術プランおよび術前プラニング議論が必要なので、セットアップ時にさらなるOR(オペ室)時間をとる。
現在のシステムは、単一機能-外科手術ナビゲーション、外科手術顕微鏡検査、蛍光可視化(Fluorescence visualization)、ラマン分光法、共焦点顕微鏡検査を実施する。デバイス間で切り換える必要がないことで外科医の効率を大幅に上げる、これの全てを行うことができる1つのデバイスは存在しない。
介入治療スイートまたは外科ICU室は、脊椎の硬膜外注入および肝臓への標的注入のような患者の転帰および満足を大幅に改善できるそれらの手技の一部のためにこれらのナビゲーションシステムにアクセスできない。
したがって、複数の医療手技コンテキストを支援するよりモバイル性のあるナビゲーションシステムを提供することが望ましいであろう。外科医等のユーザが、改良型ナビゲーションシステムインターフェースの使用によってリモートで自分のタスクをより容易に実施することができることを可能にすることも望ましいであろう。
本開示の態様は、異なるロケーションで使用するためにポータブルである、外科手術ナビゲーション、外科手術顕微鏡、ルーペ、および/または蛍光可視化のために構成されている多機能プラットフォームのために提示される。幾つかの実装態様において、プラットフォームは130ポンド未満の重量である。システムは、ハードウェアコンポーネントおよびソフトウェアコンポーネントを含む。ハードウェアコンポーネントは、外科手術状況のリモート可視化において使用可能な複数タイプの入力データを得ることができるポータブルまたは装着可能(ウェアラブル)デバイスを含むことができる。幾つかの場合、ハードウェアはヘッドセットを含み、ヘッドセットは、2Dおよび3Dデータを取り込むための位置カメラおよび可視カメラ等の種々のタイプのカメラならびに2Dおよび3D画像を一緒に融合またはオーバーレイするための回路部を有する。他の場合、ハードウェアは、複数のカメラセンサが組み込まれている、スマートパッドまたはラップトップ等のモバイルデバイスに対するバーアタッチメントを含むことができる。幾つかの実施形態において、ハードウェアは、外科手術ナビゲーションおよび外科手術顕微鏡の両方の機能を果たすことができるポータブルナビゲーションシステムも含む。
本開示のソフトウェアは、ハードウェアコンポーネントのうちの1つまたは複数から受信される入力データを処理し、そのデータを、リモートユーザが外科手術手技の少なくとも一部を実施するのに利用可能な拡張現実(AR:augmented reality)または仮想現実(VR:virtual reality)体験に変換するためのモジュールを含むことができる。
幾つかの実施形態において、拡張現実デバイスが提示される。ARデバイスは、ハウジングと、ハウジングに結合され、3次元コンポーネントを有する画像データを提供するように構成される深度カメラと、ハウジングに結合され、人間ユーザが自然に見ることができない超感覚的画像データを提供するように構成される可視カメラと、画像データの少なくとも2つのセットを受信し、画像データの少なくとも2つのセットの両方を、ユーザの視野内の共通参照ポイント上にオーバーレイするように構成されているオーバーレイディスプレイコンポーネントとを含むことができる。
幾つかの実施形態において、拡張現実デバイスは、ハウジングを支持するように構成されているヘッドセットをさらに含む。
拡張現実デバイスの幾つかの実施形態において、深度カメラおよび可視カメラは、ユーザの視野が深度カメラの視野および可視カメラの視野の両方に一致するように、ヘッドセット上に位置決めされている。
拡張現実デバイスの幾つかの実施形態において、オーバーレイディスプレイコンポーネントは、ユーザがヘッドセットを装着するときにユーザの視野上に位置決めされている。
幾つかの実施形態において、拡張現実デバイスは、モバイルデバイスに取り付けるように構成されているバーアタッチメントをさらに含む。
拡張現実デバイスの幾つかの実施形態において、オーバーレイディスプレイコンポーネントは、モバイルデバイスの可視ディスプレイを利用する。
幾つかの実施形態において、外科手術ナビゲーションのためのシステムが提示される。システムは、ローカル地理的ロケーションに位置決めされた第1の拡張現実(AR)デバイスと、リモート地理的ロケーションに位置決めされ、第1のARデバイスと有線または無線で結合された第2の拡張現実デバイスと、ソフトウェアシステムであって、第1のARデバイスおよび第2のARデバイスの両方に結合され、第1のARデバイスによって生成されるリアルタイム画像データを処理し、前もって記録された固定医療画像データにアクセスし、リアルタイム画像データおよびリアルタイム画像データ上に重ね合わせた固定医療画像データを第2のARデバイスが表示するようにさせるように構成されている、ソフトウェアシステムとを含む。
システムの幾つかの実施形態において、第1のARデバイスは、視野内で固定参照マーカを識別し、固定参照マーカに関する画像データを第2のARデバイスに送信するように構成されている。
システムの幾つかの実施形態において、ソフトウェアシステムは、固定参照マーカに関する画像データを使用して、固定医療画像データをリアルタイム画像データに対して方向付けるように構成されている。
システムの幾つかの実施形態において、固定医療画像データは、2Dおよび3D画像データを含む。
システムの幾つかの実施形態において、ソフトウェアシステムは、リアルタイム画像データ上に重ね合わされた患者に関する2D画像データおよび3D画像データの両方を同時に表示させるように構成されている。
システムの幾つかの実施形態において、リアルタイム画像データ上の重ね合わされた2Dおよび3Dデータは、リアルタイム画像データのオブジェクト内部、または内側の物理的コンテンツの1つまたは複数のビューを示す。
幾つかの実施形態においては、オブジェクトのデジタル画像データをオブジェクトのリアルタイムビューに融合させる拡張現実(AR)の方法が提示される。方法は、オブジェクトのビューにリアルタイムにアクセスすることと、オブジェクトのデジタル画像データにアクセスすることを含み、オブジェクトのデジタル画像データは、オブジェクトの1つまたは複数の静的デジタル画像として予め取り込まれ記憶されたものであり、方法はさらに、拡張現実ディスプレイスクリーンを使用し、オブジェクトのビューが拡張現実ディスプレイスクリーン内で位置または方向が変化するとき、デジタル画像データがオブジェクトのビューにリアルタイムで固着されたままであるように、デジタル画像データをオブジェクトのビューにリアルタイムに固着させる融合技法を実施することを含む。
方法の幾つかの実施形態において、デジタル画像データはオブジェクトの3Dデジタル画像データを含む。
方法の幾つかの実施形態において、デジタル画像データはオブジェクトの2Dデジタル画像データを含む。
幾つかの実施形態において、方法は、オブジェクトの2Dデジタル画像データにアクセスすることと、3Dレンダリング技法を実施することにより、2Dデジタル画像データをオブジェクトの3Dデジタル画像データに変換することとをさらに含み、融合技法は、オブジェクトの3Dデジタル画像データをオブジェクトのビューにリアルタイムで固着させることを含む。
方法の幾つかの実施形態において、融合技法は、3Dデジタル画像データのサイズがオブジェクトのサイズに正しく比例して表示されるように、3Dデジタル画像データのサイズにオブジェクトのビューのサイズをリアルタイムで一致させることを含む。
方法の幾つかの実施形態において、融合技法は、3Dデジタル画像データの形状がオブジェクトの形状に正しく比例して表示されるように、3Dデジタル画像データの形状にオブジェクトのビューの形状をリアルタイムで一致させることを含む。
幾つかの実施形態において、方法は、オブジェクトのビューに近い固定参照マーカにリアルタイムでアクセスすることをさらに含み、固定参照マーカにより、オブジェクトのビューの位置または方向が変化するときでも、オブジェクトのビューの一意な3次元方向および深度を提供するのに十分なデータが提供される。
方法の幾つかの実施形態において、融合技法を実施することは、固定参照マーカを利用することにより、デジタル画像データをオブジェクトのビューにリアルタイムで固着させることを含む。
添付図面は、一定比例尺に従って描かれていることを意図されない。種々の図面における同様の参照数字および指定は、同様の要素を示す。明確にするために、全てのコンポーネントが全ての図面においてラベル付け可能であるわけではない。
以下の開示が、本開示の異なる特徴を実装するために、多くの異なる実施形態または例を提供することを理解されたい。コンポーネントおよび配置構成の特定の実施形態または例は、本開示を簡略化するために以下で説明される。これらは、もちろん、単に例であり、制限的であることを意図されない。例えば、要素の寸法は、開示される範囲または値に制限されるのではなく、プロセス条件および/またはデバイスの所望の特性に依存し得る。さらに、以下に続く説明における第2の特徴を覆うかまたはその上の第1の特徴の形成は、第1および第2の特徴が直接接触状態で形成される実施形態を含むことができ、第1および第2の特徴が直接接触状態でないように、さらなる特徴が、第1および第2の特徴に介在して形成可能である実施形態を含むこともできる。種々の特徴は、単純さおよび明確さのために、異なるスケールで任意に描かれることができる。
さらに、「の下に(beneath)」、「の下方に(below)」、「下部の(lower)」、「の上方に(above)」、「上部の(upper)」および同様なもの等の空間的な相対語は、図に示すように、1つの要素または特徴の別の要素または特徴に対する関係を説明するために説明の容易さのために本明細書で使用可能である。空間的に相対的な用語は、図に示す方向に加えて、使用または作業時のデバイスの異なる方向を包含することを意図される。デバイスは、他の方向に(90度回転してまたは他の方向に)方向付けることができ、本明細書で使用される空間的な相対関係の説明は、同様に、相応して解釈可能である。さらに、用語「で作られる(made of)」は、「を備える(comprising)」または「からなる(consisting of)」を意味することができる。
外科手術ナビゲーションを支援するための全体のハードウェアおよびソフトウェアシステムが開示される。システムは、リモートロケーションでの外科手術手技のAR/VRレンダリングを容易にするように構成され得る。システムには、1つまたは複数のハードウェアコンポーネントが含まれ、幾つかの実施形態において、それは、ヘッドセット等の装着可能デバイスの形で示される。他の実施形態において、それは、スマートパッドまたはラップトップ等のモバイルコンピュータに対するバーアタッチメントの形で示される。幾つかの実施形態において、ハードウェアは、1つの外科手術室から別の外科手術室へ容易に移動することができるポータブル外科手術ナビゲーションツールを含む。さらに、システムは、ハードウェアによって受信される入力データを変換または融合し、リモートロケーションのARまたはVR環境のために画像形成データを供給するように構成されるソフトウェアを含む。システムの種々のコンポーネントは、以下でより詳細に説明される。
システム概要
図2を参照すると、幾つかの実施形態による、幾つかの場合ではAR要素を使用し、幾つかの場合ではVRを通した外科手術部位のリモート観察を容易にする、外科手術ナビゲーションを支援するためのシステム200の高レベルブロック図が示される。ローカル側(例えば、手術が実施されているロケーション)で、本開示の態様は、位置情報を収集する位置カメラ(例えば、深度カメラ)208および可視またはIRカメラ210を有するヘッドセット等のデータ取り込みハードウェアを含む。収集された位置および可視情報を使用して、オーバーレイマネジャー211は、画像をローカルでレンダリング処理し、画像を手術上にオーバーレイさせることができる。他の場合、データ取り込みハードウェアは、位置カメラおよび可視カメラ等の複数のセンサを有する、モバイルコンピュータに対するアタッチメントを含むことができる。他の場合、データ取り込みハードウェアは、配備可能外科手術ナビゲーションシステムを含むことができる。
データ取り込みハードウェア208、210およびオーバーレイマネジャー211は、レンダリングされた画像をクラウド204にアップロードすることができる。リモートロケーションにおいて、レンダリングされたAR画像は、リモートVRヘッドセット218に送信可能である。リモートVRヘッドセット218は、送信されたAR画像を、3次元(3D)仮想現実空間にレンダリングすることができる。リモートに位置する外科医等のリモート専門家は、VRディスプレイ空間と相互作用することができる。リモート外科医は、VR画像上で切開の程度および深さを指示することができる。リモート外科医によって提供され、指示された位置入力は、クラウド204に送信され、医療学生やローカルデータ取り込みハードウェアを操作する技術者等のローカル非専門家に中継可能である。次いでローカルオーバーレイマネジャーは、非専門家が手技または手術においてVR位置入力を使用できるように、レンダリングされたAR画像にVR位置入力を付加することができる。
本開示のナビゲーションシステムの用途の1つは、一般に、医療手技のコンテキストにおいてであるが、これらのデバイスおよび手技が、専門家がローカル非専門家からリモートである、または、その逆である任意の作業について利用可能であることが理解されるべきである。幾つかの実施形態において、作業は任意のリモート作業とすることができる。例えば、作業は、ローカル製造業者が、特定の幾何形状を有するデバイスを製造するために専門家の命令を必要とする場合がある製造作業とすることができる。幾つかの例において、作業は、装薬をどこにどのように配置するかに関する命令を受信するローカル非専門家による破壊または掘削作業とすることができる。幾つかの例において、作業は、AR受信機に送信される、正確で、精密で、リアルタイムの空間的なまたは他の命令から利益を得る場合がある任意の他の特殊作業とすることができる。
図3は、例示的な外科手術ナビゲーションシステム300の概略図である。種々の実施形態によれば、例示的な外科手術ナビゲーションシステム300は、外科手術ナビゲーションシステム装置またはプラットフォーム302、コンピュータデバイス304、ディスプレイユニット306、リアルタイムリモートガイド式精密外科手術(RTRGPS:real time remote guided precision surgery)308、および/または、クラウドコンピューティングネットワーク310を含むことができる。
外科手術ナビゲーションシステム300は、外科手術ナビゲーション、拡大、蛍光可視化、およびその他の機能を実現する多機能ポータブルデバイス312、つまりオールインワンデバイスを含む。
幾つかの実施形態において、外科手術ナビゲーションシステム300の重量は、例えば130lbs以下とすることができるが、その他のサイズまたは重量を、それぞれの個々の状況に基づいて企図することができる。製品300は、必要である場合、病院の他のエリアに非常に容易に輸送可能な小さいカートの形態であるとすることができる。他の場合、製品は、バーアタッチメント等の、モバイルコンピュータに対するアタッチメントの形態であるとすることができる。他の場合、製品は、外科手術手技中にユーザが装着することができるヘッドセットの形態であるとすることができる。
以下は、種々の実施形態に従って、外科手術ナビゲーションシステム装置またはプラットフォームによって達成可能である機能の一部である。
デバイス300は、種々の実施形態に従って、マーカの助けを借りてまたは顔検出を用いて、外科手術ナビゲーションを行うことが可能である。
デバイス300は、種々の実施形態に従って、光学ズームレンズによって、最大20倍外科手術ターゲットエリアの拡大を行うことが可能である。
デバイス300は、種々の実施形態に従って、蛍光可視化を行うことが可能である。
デバイス300は、例えば、共焦点顕微鏡およびラマン分光法等の高度機能性を装備することができる。
多機能性は、外科医(ユーザ)が、好都合にかつ複雑な位置の身体的ストレスなく、外科手術手技を実施することを可能にする。
拡張現実ベースオーバーレイ316は、外科医が患者を見て外科手術を実施することを可能にするので、外科手術のための時間を低減し、患者の転帰(アウトカム)を改善する。
デバイス300は、種々の実施形態による、外科手術視野内で拡張現実オーバーレイのために使用されることになる透明ディスプレイを有することができる。
デバイス300はまた、種々の実施形態に従って、器官の解剖学的構造の人工知能ベースのセグメント化(セグメンテーション)を使用することができ、それを外科手術ナビゲーションで用いることにより、手技の効率を上げることができる。
図4は、幾つかの実施形態による、ナビゲーションシステム300(図3)がリモートロケーションに機能性を提供する態様の例のブロック図400を示す。図4は種々のモジュール402、403の例を含み、本開示のハードウェアおよびソフトウェアの特定のバージョンにおいて利用可能とすることができる別々の機能性の群を示す。利用可能なモジュールの種類のより包括的な説明は図9に関して以下で述べられる。
ここで、ナビゲーションデバイス300(図3)は、種々の実施形態に従って、クラウドまたはPACSシステムに接続される。
ユーザは、種々の実施形態に従って、サムドライブまたはCDあるいはさらにクラウドまたはPACSシステムのような一般的なファイル記憶システムの任意のシステムを使用してスキャンをロードする。
スキャンがロードされると、ユーザは、種々の実施形態に従って、プラニングを開始すること、またはコレジストレーションを開始すること、またはスキャンが他のナビゲーションシステム上で存続できるように他の形態にエキスポートすることを選択することができる。
ユーザは、種々の実施形態に従って、ユーザが行おうとプランしている手技をプランするために、プラニングオプションを選択し、ポイント選択、ウィンドウイング、着色画像処理、およびAIのような全てのツールを使用することによってプラニングを開始することができる。
ユーザは、種々の実施形態に従って、プランを承認させるために、プランを、自身の同僚または専門家と共有することもできる。
ユーザが、ARモジュール316(図3)を最初に開始したいと思うと、ユーザは、種々の実施形態に従って、ポイントの初期セットが選択されるようにコレジストレーションモジュールを経ることができ、ARモジュールを開始しボリュームにオーバーレイすることができる(図16および関連説明を参照)。
ARモジュールが開始されると、ユーザは、プラニング、コレジストレーション、または拡張316(図3)のような全てのモジュールの間で切り換えることができる。
ARモードにおいて、ユーザは、種々の実施形態に従って、提供されたオプションを使用して、ボリュームを患者上に0.1mmの高い精度で位置合わせすることができる。
全てのセットアップが行われると、ユーザは、種々の実施形態に従って、プロシージャを継続するために、システム300(図3)を使用し続けるかまたはHoloLensもしくはMagic LeapのようなARデバイス402の任意のデバイスに接続することができる。
システムは、種々の実施形態に従って、ロケーション2のユーザがロケーション1(400)の厳密なコピーを得ることができるようにRTRGPSシステム308にも接続可能である。
RTRGPSシステム308とのこの接続を用いることよって、種々の実施形態に従って、アプリケーションの任意の部分と同期することができる。
図4に示すように、RTRGPS308ソフトウェアモジュールは、例えば、ロケーション2(402)において深度認識を有するロケーションシーンを再現するために、ロケーションシーン1(400)からデータを取得し、このデータを、エッジコンピューティングプロトコル(MQTT)を通じて転送することができる。RTRGPS機能性を含む本開示のソフトウェアコンポーネントのさらなる説明は、以下でさらに述べられる。
ロケーション1(400)は、外科手術ナビゲーションシステム300または以下のモジュール/コンポーネントを最低限有する任意の他のシステムを有することができる:
a.モジュール1(403):ステレオカメラ;
b.モジュール2(402):ホログラフィ投影;
c.剛体/マーカ318a;
d.マーカを有する外科器具318b。
ロケーション2(404)は、外科手術ナビゲーションシステムまたは以下のモジュール/コンポーネントを最低限有する任意の他のシステムを有することができる:
a.モジュール1(406):ステレオカメラ;
b.モジュール2(408):ホログラフィ投影;
c.マーカを有する外科器具410。
ロケーション1からのデータは、RTRGPSソフトウェアを介してエッジコンピューティングプロトコル(MQTT)で転送される。
データは最低限以下のものを含むが、それらに限定される訳ではない。
a.ロケーション1(401)システム方向(オリエンテーション)、並進情報であってモジュール1(403)によって取り込まれるもの。
これは、モジュール1が剛体/マーカを識別すると、RTRGPSソフトウェアによって取り出される。
これは、モジュール1が剛体/マーカを識別すると、RTRGPSソフトウェアによって取り出される。
b.モジュール1(406)によって見られるとおりのロケーション1(401)ビデオストリーム。
c.ロケーション1(401):方向、並進情報であってモジュール2が剛体/マーカ314aを識別するときにモジュール2(402)によって取り込まれるもの。
d.方向、変換情報であってマーカを有する外科器具314bがロケーション1(401)シーンに入るときにモジュール1(403)またはモジュール2(402)によって取り込まれるもの。
e.ロケーション1(401)シーンは、ユーザがタスクを実施しようとしているエリアである。
このデータは、その後、RTRGPS308ソフトウェアを介してエッジコンピューティングプロトコル(MQTT)でロケーション2(404)に転送される。
ロケーション2(404)において、このデータをRTRGPS308ソフトウェアはモジュール1(406)およびモジュール2(408)にロードし、モジュール2(408)ホログラフィ投影をロケーション2(404)のユーザに対してリアルな真の深度認識を提供するリアルライブ供給物と組み合わせて使用することにより、ロケーション1(401)からのシーンを全深度認識付きで再現する。
任意の外科手術プラニングソフトウェアまたは外科手術ナビゲーションシステム300(図3)ソフトウェアは、外科手術プランに関連する全てのデータを提供する。外科手術プランは、患者スキャンおよび軌跡詳細(trajectory details)を含むが、それに限定されない。
このシナリオを継続することにより、2つのロケーション401、404が同期される。同期は、5G速度に関して0レイテンシーであり、システム全体は、5G速度において60fpsより速いレンダリング速度を有することができる。
幾つかのシナリオにおいて、ロケーション1(401)のユーザは、例えば、シミュレーションで、ロケーション2のユーザをガイドしている。
幾つかのシナリオにおいて、ロケーション2(404)のユーザは、例えば、予見(prevision)付きのリモートガイダンス状況で、ロケーション1のユーザをガイドしている。
ロケーション1において:マーカを有する外科器具314aは、ロケーション1(401)でのタスクを実行するためにユーザによって使用される。
各マーカ/剛体314aは、一意なマーカとすることができる。マーカ付きの外科器具314bさえも一意でなければならない。同じタイプの2つのマーカ314が、単一ロケーションに存在してはならない。一意性は、互いに一意な距離に配置された4つのポイントの組み合わせを有することで得られる。
RTRGPS308は、両方のロケーション401、404から、連続的にデータを送信し、データを受信しており、同時にそれらを同期させている。
幾つかのシナリオにおいて、外科器具は、空間内のポイントP(p1、p2、p3)で交差する。
空間は、ロケーション1(401)またはロケーション2(404)内のシーンである。このポイント座標は、モジュール1(403、406)およびモジュール2(402、408)によって精密に獲得される。同じポイントが他のロケーションではガイダンスのためにバーチャルでハイライトされる。精度は、空間内でポイント座標を識別する際のモジュール2(402、408)の精度と同程度である。
幾つかのシナリオにおいて、3つ以上のロケーションが存在する可能性がある。RTRGPS308ソフトウェを通して接続可能なロケーションの数に対する制限は存在しない。
ロケーション1(401)マーカ:マーカまたは剛体314a、314bは、モジュール1(404)およびモジュール2(402)にとって常に見ることができなければならない。
幾つかのシナリオにおいて、ロケーション1での変化しないシーンの一意な特徴(フィーチャー)および輪郭も、剛体/マーカ314a、314bとして使用可能である。
可視化を利用できないロボティクスシステムでは、マーカ314a、314bを有する外科手術ナビゲーションシステム300(図3)は、患者の内側でのロボティックアームの動作を可視化するのにも使用できる。これにより、ロボティクスシステムに追加の3D深度可視化が付加される。
研修生または医療学生のチームは、外科手術の際にロケーション1の外科医の、またはロケーション1(401)の外科医をガイドしているロケーション2(404)の外科医のガイダンスの下で、外科手術手技中に外科手術アプローチとニュアンスをリアルタイムで学ぶことができる。
ロケーション1(401)およびロケーション2(404)は、RTRGPSシステム308によって、事前にセグメント化/ラベル付け/マーク付けされている必要はない。システム300(図3)は、ホログラフィ深度投影および1シーン内のマーカを使用して、両方のロケーションでのリアルタイム深度シーンレンダリングおよび精密なガイダンスを可能にする。
これを用いてユーザは、本明細書で開示する種々の実施形態に従って、プラニングまたは外科手術で協働したり、或は、外科手術の教育やガイドを行うことができる。
固定マーカがシステムのビュー内に存在する限り、本明細書で開示する種々の実施形態に従って、AR追跡が可能である。
器具のうちの任意のものが使用される場合、本明細書で開示する種々の実施形態に従って、器具マーカを用いることにより、追跡後の器具を追跡可能である。
図5、6、7、および8は、本開示の外科手術ナビゲーションシステムが外科手術手技のコンテキストにおいて使用可能である態様の種々の例のシナリオを示す。図5は、外科手術室の一例の写真画像500である。ナビゲーションシステム300(図3)ハードウェアは、従来のナビゲーションおよび顕微鏡機械と比較してより容易に異なる部屋に配備可能であることができるカート502の形態をとる(図1を参照)。図6は、種々の実施形態による、外科手術が実施される外科手術プラットフォームの一例の図600である。ここで、本開示のハードウェアは、外科医604と患者606との間に介在するスクリーン602を含む。スクリーンによって、AR要素を患者606のビュー上に付加することが可能になる。図7は、幾つかの実施形態による、ARスクリーン602のより接近したビューの図である。図8は、AR要素が表示されることを可能にしつつも、スクリーン602が透明であるか、または透明の外観を提供可能である態様の例を提示する。
ナビゲーションシステム300(図3)のコンポーネント例のより具体的な詳細が、ここで提供される。この説明は、本明細書で説明する全体システムを確立する種々のハードウェアの例およびソフトウェアコンポーネントに的を絞る。
全体的なハードウェア説明
幾つかの実施形態において、本開示のハードウェアは、外科手術ナビゲーション、拡大、蛍光可視化、その他様々なものを実現する多機能ポータブルデバイス、つまりオールインワンデバイスを含む。
本明細書で開示する技術および方法は、例えば図9に示すように、外科手術ナビゲーション、外科手術顕微鏡、ルーペ、蛍光可視化、事前手術プラニングおよび/またはシミュレーションを含むが、それに限定されない複数の機能を実現可能な多機能ポータブルオールインワンデバイスに関する。
図9は、種々の実施形態による、外科手術ナビゲーションシステム装置またはプラットフォーム等のオールインワン多機能装置の種々のモジュール902、904、906、908、910、912を示す概略図900である。図9に示すように、外科手術ナビゲーションシステム装置またはプラットフォームは、最大6個のモジュール1~6(902、904、906、908、910、912)を含むことができる。種々の実施形態において、モジュール1(912)は、ナビゲーション機能性を実現するように構成されるステレオカメラを含むことができる。種々の実施形態において、モジュール2(906)は、限定はしないが、Microsoft Hololens、Magic Leap等のようなホログラフィ投影システムを含むことができる。種々の実施形態において、モジュール3(904)は、カメラ、光学レンズ、および/またはLED光を含み、外科手術顕微鏡として機能する、かつ/または、例えば非常な細部を見るために拡大するルーペ機能を提供するように構成可能である。種々の実施形態において、モジュール4(910)は、赤外線(IR)フィルタ付きのカメラを含むことができ、蛍光可視化のために構成される。
種々の実施形態において、モジュール5(902)は、共焦点顕微鏡のため、または共焦点顕微鏡検査のために構成可能である。種々の実施形態において、モジュール6(908)は、ラマン分光器を含むか、またはラマン分光法のために構成することができる。
バーアタッチメントハードウェア
種々の実施形態において、図9に示すような外科手術ナビゲーションシステム300(図3)装置またはプラットフォームのモジュール902、904、906、908、910、912を組み合わせて、単一デバイス内のミニマルの水平バーフォームファクタに収めることにより、上記で論じたような種々の高度機能性の達成を助けることができる。種々の実施形態において、外科手術ナビゲーションシステム300(図3)装置またはプラットフォームの種々のモジュール902、904、906、908、910、912は、単一のラップトップ/デスクトップ/タブレット/高性能システムから給電可能である。種々の実施形態において、外科手術ナビゲーションシステム300(図3)装置またはプラットフォームをフルカスタマイズ可能にして、全部のハードウェアモジュール902、904、906、908、910、912を含めることができる。種々の実施形態において、外科手術ナビゲーションシステム装置300(図3)またはプラットフォームには、ユーザ要件に応じて、一部のハードウェアモジュール902、904、906、908、910、912だけを含めることができる。バーアタッチメントの形態の外科手術ナビゲーションシステム300装置またはプラットフォームは、その立体形状故に人間工学的に優れており、かつデザインが非常に美的であり、ディスプレイ602(図6-8)またはタブレット/ラップトップにラッチして/取り付けて機能させることができる。外科手術ナビゲーションシステム300(図3)装置またはプラットフォームの独特なデザインは、外科手術視野内で全く制限なしに外科医が手術することを可能にし、外科手術視野内での器具の自由な動きを可能にする。
図10は、種々の実施形態による、外科手術ナビゲーションシステム装置またはプラットフォーム1000の一例の概略図である。図10に示すように、バーアタッチメント1002は、ラップトップまたはタブレットの上部に接続することができる。このバーアタッチメント1002フォームファクタの外科手術ナビゲーションシステム装置またはプラットフォーム1000は、モジュール1、3、および4(912、904、910)を含む。種々の実施形態において、外科手術ナビゲーションシステム装置またはプラットフォーム1000は、ディスプレイ602(図6-8)またはラップトップまたはタブレットの任意の側に取り付けられるが、人間工学的に、ディスプレイ602(図6-8)、ラップトップ、またはタブレットの上部は、取り付けたり、ラッチしたりするのにより直感的な場所であり得る。
図11は、種々の実施形態による、外科手術ナビゲーションシステム装置またはプラットフォーム1100の一例の概略図である。図11に示すように、この例におけるバーアタッチメント1102の形態の外科手術ナビゲーションシステム装置またはプラットフォーム1100は、例えば限定はしないがラップトップ、タブレット、またはディスプレイデバイスに取り付けられたモジュール1(912)、例えば、ステレオカメラを含む。
図12は、種々の実施形態による、外科手術ナビゲーションシステム装置またはプラットフォーム1200の一例の概略図である。図12に示すように、ナビゲーションシステム1200は、手術の様々なビューを示すラップトップ1202を含むことができる。図12に示すように、バーアタッチメント部分1204は、例えば限定はしないがラップトップもしくはタブレット1202に取り付けたり、またはラッチすることができる。
図13は、種々の実施形態による、外科手術ナビゲーションシステム装置またはプラットフォーム1300の一例の概略図である。図13に示すように、バーアタッチメント1304の形態の外科手術ナビゲーションシステム装置またはプラットフォーム1300は、ディスプレイユニット1302、例えば、透明ディスプレイまたは不透明ディスプレイを含むことができ、手術の種々のビューを示す。図13に示すように、外科手術ナビゲーションシステム装置またはプラットフォーム1300は、ディスプレイユニット1302に取り付け、またはラッチ可能である。
種々の実施形態において、外科手術ナビゲーションシステム装置またはプラットフォーム1300は、種々のハードウェアモジュールを、USBまたは他の通信ポートを通して、図10、11、および12に示すようなコンピューティングデバイス304(図3)に接続するように構成可能である。上記で述べたように、コンピューティングデバイス304(図3)は、例えば限定はしないが、ラップトップ、タブレット、デスクトップ、または高性能コンピュータシステムとすることができる。代替的に、バーアタッチメントは、図13に示すように、表示1302のみのシステム(display only system)に取り付けられることもできる。種々の実施形態において、ディスプレイと、外科手術ナビゲーションシステム装置またはプラットフォーム1300は、高性能コンピュータシステムに接続される。
ヘッドセットハードウェア
幾つかの実施形態において、外科手術ナビゲーションシステム装置またはプラットフォームは、手術室において装着可能なヘッドセットの形で示すことができる。リモート専門家によるローカル非専門家のリモート命令を容易にするのを助けるために、幾つかの実施形態によるヘッドセットナビゲーションシステムは、空間データと、可視または近IRデータとを収集するように構成可能である。データを収集するために、1つまたは複数のカメラを、ヘッドセットに取り付けることができる。ヘッドセットは、視野内にAR要素を表示するように構成可能である。カメラは、リモート非専門家が向いている方向で位置データと可視または近IRデータとを収集するように方向付けることができる。
図14は、幾つかの実施形態による、専門家または非専門家1402がヘッドセットナビゲーションシステム1404を装着する一例のシナリオ1400を示す。ヘッドセット装着者1402は、ヘッドセット1404を通して表示されるとおりに視野内のAR要素も見ながら、手術テーブル1408上の患者1406を見ることができる。幾つかの実施形態において、カメラセンサ1410の方向に基づいて、ヘッドセットによって取り込まれる画像データはユーザが見るものを反映可能である。これらの画像データは、例えばクラウドを通してリモートロケーションに送信され、OR内で見られているもののVR描出を、リモートロケーションの他のユーザに表示するために使用可能である。
図15は、幾つかの実施形態による、ナビゲーションシステムのアプリケーション1500例を示す。左の例のシナリオは、ヘッドセット1506の形態のナビゲーションシステムを装着しながら、患者1504の世話をする専門家1502を示す。専門家1502は、患者1504を見るが、他の要素を見ることもできる。右に示されるのは、AR要素1510も含む、ヘッドセット1506を通しての専門家1502の一人称ビュー1508の例である。ここで、患者の脳1510のおおよその位置は、脳1510があると測定された、患者1504の他の参照ポイントとの相対的な位置で、患者1504上にオーバーレイされる。患者の脳1510のオーバーレイを3Dレンダリングすることができ、それにより、ヘッドセット1506を装着する専門家1502は患者1504の周りを歩き回ることができ、患者1504に対するヘッドセット1506の方向に従って脳1510の角度が様々にリアルタイムで変化することになる。このオーバーレイ1508を達成するための実装態様例は、以下でさらに説明されるであろう。
幾つかの実施形態において、患者1504の画像データと、X線またはMRI等の他の形態での患者1504の1つまたは複数のスキャンとは全て、リモートロケーション(例えば図4のロケーション2(404))に送信可能である。リモートロケーションのユーザは、ヘッドセット1506またはバーアタッチメント(図10-12)の形態の本開示によるナビゲーションシステム(例えば図3のシステム300)を利用し、患者1504に対して精密に配置することで、患者1504の上部で1つまたは複数のスキャンのオーバーレイ(例えばオーバーレイ1508)を見ることができる。これにより、リモートユーザが、リモートロケーションからであっても、患者1504をどのように処置するかに関してよりよい決定を行うことが可能になる。
ARヘッドセット1506に取り付けられたカメラは、任意のタイプの位置および/または可視もしくは近IRデータ検知カメラとすることができる。例えば、既存のカメラがARヘッドセット1506に接続可能である。幾つかの実施形態において、位置カメラは、位置および深度データを収集することができる任意のタイプのカメラとすることができる。例えば、位置カメラは、LIDARセンサまたは任意の他のタイプの位置カメラとすることができる。
幾つかの実施形態において、可視または近IRカメラは任意のタイプの可視カメラとすることができる。例えば、可視または近IRカメラは標準的な可視カメラとすることができ、1つまたは複数のフィルタを、近IR情報を収集するために可視カメラ上に配置することができる。幾つかの例において、カメラは、IRデータを特に収集するように構成可能である。
幾つかの実施形態において、ARヘッドセット1506にカメラを付加することは、ARヘッドセット1506にさらなる重量を付加する場合がある。ARヘッドセット1506に重量を付加することは、ユーザの快適さを減ずる場合がある。例えば、さらなる重量はユーザの首の疲労を増加させる場合がある。さらに、重量の増加により、ユーザの頭部上でのARヘッドセット1506の安定性が減じることによって、ヘッドセットがスリップし、収集されたデータの品質を低下させることがある。
幾つかの実施形態において、単一カメラまたは各カメラ用のカメラハウジングはヘッドセット1506に組み込まれ、位置データと可視または近IRデータとを収集するために使用可能である。ヘッドセットは、単一レンズを通してデータを収集する、同じハウジング内の2つのカメラを含むことができる。これにより、ARヘッドセット1506の重量を減らすことができる。ARヘッドセット1506の重量を減らすことは、ユーザの快適さを改善し、ユーザの頭部上のARヘッドセット1506がスリップすることを減らすのに役立つことができる。
種々の実施形態において、バーアタッチメント(図10-12)またはヘッドセット1506または他の変形の形態の外科手術ナビゲーションシステム装置またはプラットフォーム(例えば図3のシステム300)は、可搬性を極めて、例えば、小さな介入が非手術室のセッティングでユーザにより実施されるようにモジュール1(または、モジュール1のみ、図9を参照)を含むことができる。この構成は、ユーザ、例えば、外科医にナビゲーション機能性を提供する。種々の実施形態によれば、外科手術ナビゲーションシステム装置またはプラットフォーム(例えば図3のシステム300)は、ナビゲーション機能のみを実施するように構成される。
医療介入の種々の場合に、ホログラフィ投影を提供するためにモジュール2(図9を参照)も外科手術ナビゲーションシステム装置またはプラットフォーム(例えば図3のシステム300)に含めることができる。種々の実施形態において、ユーザまたは外科医1502は、ナビゲーション機能のために拡張現実オーバーレイを使用することができる。
例えば、ユーザが手術室にいて、外科手術を効果的に実施するために複数の機能のほとんどを要求する場合には、外科手術ナビゲーションシステム装置またはプラットフォームが全部のモジュール1~6を含むように構成可能である。
全部のまたは一部のモジュールのコンポーネントは、小型フォームファクタ化して可搬であるように製造された従来品を用いるものが入手できるが、これらのコンポーネントを直感的なフォームファクタになるように組み合わせ、これらの高度機能性を1つのデバイスで達成させることが可能である。例えば、バーアタッチメント(図10-12)は、単一ラップトップ/デスクトップ/タブレット/高性能システムから給電可能である。バー(図10-12)は、その形状故に人間工学的に優れており、かつデザインが非常に美的であり、AR頭部搭載式ディスプレイにラッチして/取り付けて機能させることができる。説明した実施形態でのモジュールの配置は、外科手術視野内で全く制限なしに外科医1502が手術することを可能にし、外科手術視野内での器具の自由な動きを可能にする。
画像収集およびレンダリングのためのソフトウェア
外科手術ナビゲーションシステムの一部として、幾つかの実施形態によれば、開示されたプラニングおよび処理ソフトウェアが、受信したステレオカメラデータ等のハードウェア入力データを、複数のデータセットを一緒にオーバーレイするより有用な視覚表示に変換するソリューションを提供する。さらに、本明細書で説明するソフトウェアは、手術室内のローカルビューへのリモート接続を可能にする。
幾つかの実施形態において、外科手術ナビゲーションシステムソフトウェアはプラニングソフトウェアを含む。任意の手技に先立って、プランが必要とされる。このプランは、手技を実施する外科医によって生成され承認される。プラニングソフトウェアは、患者の3Dスキャン(例えば、磁気共鳴(MR:magnetic resonanse)およびコンピュータ断層撮影(CT:computerized tomography))および/または2Dスキャン(例えば、X線および超音波)をしばしば必要とする。
全てのMRおよびCTスキャンは、一例として、国際的に認められたフォーマットである、医療におけるデジタル画像および通信(DICOM:Digital Imaging and Communications in Medicine)フォーマットで提供可能である。
幾つかの事例におけるソフトウェアは、ローカルシステム(例えば、ラップトップ、デスクトップ、タブレット)上でまたはクラウド上で利用可能とすることができる。
ソフトウェアは、医療画像を記憶するPACS(Picture and Archive Communication System、画像保存通信システム)に接続可能である。ソフトウェアは、PACSシステムに問い合わせを行い、患者3D画像をダウンロードすることができる。
ユーザは、ここで、ナビゲーションシステムの一部であってよいデバイス(例えば、ラップトップ、デスクトップ、タブレット)上で3Dスキャンを観察するオプションを有する。ユーザは、例えば、ウィンドウイング、ズーム、パン、スクロール、ライン、ポイント選択等の、DICOM画像を操作する標準的な画像処理ツールにアクセスすることができる。
ユーザがターゲットおよびエントリポイントを選択して軌跡を作成することにより、手技を支援するチームによる軌跡の検討ができる。
さらに、幾つかの実施形態において、ソフトウェアは、手術室内で患者のリアルタイム撮像データを処理し、3Dおよび/または2D画像を患者のリアルタイム画像データと組み合わせ、且つ3Dおよび2D画像を患者の身体の適切なロケーションコンテキスト内で示されるべき場所に精密にオーバーレイさせることができる。
このプランは、HIPAA適合データベースに保存可能であり、HIPAA適合データベースは、デバイス上でローカルであるとしたり、或いは、HIPAA適合クラウド上に保存したりすることができる。
プランは、ローカルデバイスからリムーバル記憶媒体にエキスポートして他の外科手術ナビゲーションプラニングステーションで使用できるようにしたり、或いは、他の外科手術ナビゲーションプラニングステーション上のクラウドから直接アクセスしたりすることができる。データベースに保存されたプランは、それをユーザによって保存されたとおりに再ロードするのに必要な全てのデータを有するので、手術室内で同じタスクを反復するのにかかる時間が節約される。
開示される外科手術ナビゲーションシステムソフトウェアは、医療画像処理のための幾つかの高度機能を有しており、ユーザ/外科医が精緻かつより迅速にプラニングするのを助ける。
図16は、幾つかの実施形態による、高レベルの外科手術ナビゲーションシステム(例えば図3のシステム300)ソフトウェアのブロック図を示す。図16は、ソフトウェアシステム内のデータが、本明細書で開示される種々の実施形態に従って、システムの異なるモジュール間でどのように流れるかを示す。
図16を参照すると、幾つかの実施形態において、ソフトウェアは、その処理アルゴリズムの一部としてレジストレーションプロセス1600を実施する。レジストレーション1600は、同じ患者の2つのスキャンが、同じ座標系を有する(融合)ように重ね合わされ、それにより、2つのスキャンの特徴(フィーチャー)が重ね合わされるよう、プロセスを記述するのに用いることができる。例えばT1 MRI、T2 MRI、DWI MRI、CT PLAIN、CT CONTRAST、FMRI、DTI MRI等のように、スキャン毎に取得プロトコルが異なり得るため、取得されるスキャンは多数存在する。コレジストレーション1602は、患者に対する1つ、2つ、または3つ以上の共通参照ポイントにおいて連係(コーディネーション)されるように複数のデータセットを連係させることであると言える。ソフトウェアは、外科手術手技をどのように実施するかのプラン1604と組み合わせて、患者上の外科手術部位のコンテキストでコレジストレーション済みデータの種々のセットを配置することができる。次いでソフトウェアが主にこのエリアに処理を向けるため、ユーザは、外科医またはナビゲーションシステムハードウェアの他のユーザに利用可能なARディスプレイ1506(図15)を通して、外科手術部位に関連する種々のコレジストレーション済みデータセットを見ることができる。剛体マーカおよび/または硬質外科器具マーカは、コレジストレーションプロセス1602中に種々のデータセットを客観的に方向付けるのに使用できるので、リアルタイムARディスプレイを実施する間、信頼し続けることができる。
図17は、種々の実施形態による外科手術ナビゲーションシステムソフトウェアのレジストレーションモジュールを示し、これはレジストレーションプロセス1700のためのハイブリッドアプローチである。ここで、ソフトウェアは、記録された2Dまたは3D画像から固定画像1702にアクセスし、それらを、ナビゲーションシステムハードウェア(例えば図15のヘッドセット1506)を通して観察されるリアルタイムデータ等の可動画像1704と組み合わせることができる。ソフトウェアの用語では、融合される2つの患者スキャンが存在する場合、一方のスキャンが固定スキャンと呼ばれ、他のスキャンは可動スキャンであるのが一般的ある。可動スキャンは、典型的には、固定スキャンと融合されるように、アルゴリズムで導出される回転および並進(または共に変換とも呼ばれる)の適用対象となるスキャンである。
特徴抽出1706が両方の画像で実施可能されることにより、旋回基部となる(to pivot off of)主要な特徴が識別される。変換1708、1710は、高忠実度および低忠実度共に、画像を共通データセットに変換するのに実施される。次いでソフトウェア1700は可動画像1704に対して微細変換1712を適用し、画像は最も近いことが知られている固定画像によりよく調整(キャリブレーション)される。可動画像1704のリサンプリング1714は、固定画像とのベストマッチを見出すために実施される。リサンプリングされた画像はロードされ(1716)、固定画像1702と比較され、次いで、固定画像1702とブレンドされる(1718)。幾つかの実施形態に従って、所望により、ブレンドされた画像のうちの1つの画像の他の画像に対する不透明度を変更する(1720)ことができる。
レジストレーションプロセス1700のために使用されるアルゴリズムは、例えば、外科手術ナビゲーションシステムによって使用されるカスタムハイブリッドアルゴリズムとすることができる。例えば、2ステッププロセスにおいて、第1のステップは、2つのスキャンが同じ座標系に近づけるようにできる粗いレジストレーション法1700である。しかし、特定の状況において、この方法1700の出力は、このステップが特徴の小さいセットに対して実行され、粗い推定を行わなければならないだけであるので、要する時間は少ないが、この方法では先に進むための精密な結果は得られない。
第2のステップは、微調整レジストレーション法1710であり、できる限り近づくように2つのスキャンを微調整することにより、2つのスキャンが同じ座標系を共有し、特徴を重ね合わせることが可能になる。このステップは、2つのスキャン間でマッチしなければならない特徴の大きいセットを用いて実行される。
典型的なレジストレーションプロセスは3~4分かかるのに対し、本明細書で論じるレジストレーションプロセスは、種々の実施形態によれば、要する時間が平均計算で最大60%も低減する。
リアライメント:幾つかのシナリオにおいて、前述の方向で取得されたスキャンを、ユーザは別の好ましい方向に再整列させたいと思う。3D世界において、方向は、世界が認識される方法を変化させる。最も先進的なユーザでさえも、異なるアライメントから同じ器官/シーンを見ると、混乱する傾向がある。リアライメントは、平面の概念を用いて行われる。ユーザが提供する参照平面を使用することにより、3Dスキャンの再整列(リアライメント)が行われる。平面は、最小限の3つのポイントを用いて規定可能である。
外科手術ナビゲーションシステム(例えば図3のシステム300)リアライメントでは、2つのポイントをユーザから求めることができる。第3のポイントは、選択された2つのポイントの中間ポイントをz軸方向に0.1mm増分させたものとして、ソフトウェアにより自動的に選択可能である。ポイント1が、座標p1、p2、p3によって参照され、ポイント2が、座標a1、a2、a3によって参照される場合、平面を形成するための第3のポイントは、((p1+a1)/2、(p2+a2)/2、(p3+a3)/2+0.1 mm)の計算を行うことによって自動的に選択可能である。このアプローチにより、平面が非常に精密に得られる。
拡張現実オーバーレイを効果的に生成するために、コレジストレーションを用いて、ホログラムをリアルシーン上に重ね合わせることがしばしば行われる。図18は、種々の実施形態による、シーン中の剛体/固定マーカに基づいて拡張現実ナビゲーションを実現する外科手術ナビゲーションシステムソフトウェアのデータフローおよび作業の一例、ならびに、システムが複数のホログラフィデバイスと同時に通信可能である態様を示す。
コレジストレーション(例えば図16の1602)は、ポイントの2つのセットを入力としてとることができ、ポイントの第1のセットはスキャン上で選択されたポイントを含み、第2のセットは、拡張モジュールの助けを借りて選択されるリアル世界のポイントを含む。
ポイントが選択された後、システム(例えば図3のシステム300)は、3Dボリュームを0.1mmに近い高精度でオーバーレイする2つのステップをとることができる。
第1のステップではポイントがゆるく選択されるため、システム(例えば図3のシステム300)は、種々の実施形態に従って、ポイントの2つのセットを用いて粗い推定を行うことによって、3Dボリュームをできる限り近づける。
精緻化(refinement)ステップと呼ぶことができる第2のステップで、システム(例えば図3のシステム300)は、種々の実施形態に従って、拡張モジュールからの3Dポイントクラウド生成と、スキャンからの3Dポイントクラウド生成を行い、これを用いてコレジストレーションを精緻化することにより、オーバーレイの高い精度を得る。
ユーザが拡張オーバーレイを制御するために与えられる種々のオプションが存在する。これらのオプションは、例えば、不透明度、サイズのクリッピング、着色、ウィンドウイング、レジストレーションの精緻化、ARモードを含む。図21は、種々の実施形態に従って、器具(マーカを有する)がナビゲーションに使用される態様のデータフローおよび作業を示す。
ホログラフィモードでは、スキャンを用いてより詳細な3Dボリュームを作成することにより、スキャンの異なる部分を強調し、それらを異なるように着色することができる。これにより、種々の実施形態に従って、一部のユーザが解剖学的構造の異なる部分をより明瞭に可視化するのを助けることができる。
プランが作成され、3Dボリュームが精密にオーバーレイされると、システム(例えば図3のシステム300)は、種々の実施形態に従って、プランを自動的にロードし、3Dボリュームと共にそれもオーバーレイすることができる。
これが行われる間、固定3Dマーカが視野内に留まるのが通常であり、システムは、種々の実施形態に従って、固定マーカに対するオーバーレイの相対的な方向を用いて、オーバーレイを固定マーカのサブシステムにすることができる。
するとユーザは、種々の実施形態に従って、固定マーカに対するホログラフィオーバーレイの方向をシステムが更新している間に、固定マーカの周りを動き回ることができる。固定マーカの例は、図25および26に示され、後述する。
ユーザは、観察と手技の実施によい位置を選択すると、種々の実施形態に従って、ユーザが使用したいと思う器具に器具追跡マーカを固定することができる。これらの固定マーカは、例えば、図25または26に示すマーカと同様とすることができる。
システムは、器具をリアルタイムで追跡することができ、ホログラフィオーバーレイを相応して更新することができる。図21を参照。
このようにして、ユーザは、種々の実施形態に従って、患者の内側でのユーザの位置決めをより明瞭に見ることができる。
任意の時点で、ホログラフィオーバーレイが正しく整列しなくなる場合、ユーザが補正を始動させると、システムは問題を迅速に解決し、精度をほぼ0.1mmに戻す。
図19は、組み合わせアルゴリズムを使用してホログラフィ投影がリアルシーン上に重ね合わされる態様のデータフロー1900および作業を示す。例えば、CPD(:Correlating point drift algorithm、コリレーティングポイントドリフトアルゴリズム)およびICP(:Iterative Closest Point algorithm、反復最接近点アルゴリズム)が、種々の実施形態に従って利用可能である。
図20は、種々の実施形態による、ホログラフィモードで可能にされる高度可視化機能セットの例を示す。本開示のソフトウェアは、これらの種々のセッティングに従って、AR環境内のセッティングも調整するように構成可能である。
ユーザはここで、HoloLensまたはMagic Leap(図18)のような、任意の数の他のARデバイスを接続し、且つ固定マーカを参照として使用することにより、利用可能なARオーバーレイを有意の補助として用いて手技を継続することができる。
図22は、幾つかの実施形態に従って、本開示のナビゲーションシステム(例えば図3のシステム300)を使用してユーザが見ることができるものの例2200を提示する。ここでテーブル上に、外科医等のユーザが普通に見ることができる頭蓋骨2202が示されている。次いで、ナビゲーションシステムハードウェアを使用し、バーアタッチメント(図10-12)付きディスプレイを通して、またはナビゲーションシステムヘッドセット(例えば図15のヘッドセット1506)を通して、ユーザは、前もって記録された画像データを用いることにより、頭蓋骨2202の内側に存在していた可能性があるもののスライスのオーバーレイされた画像を見ることができる。ここで、データは、磁気共鳴撮像を通して得られたであろう脳および内部通路(internal passageways)の断面を含む。さらに、本開示のナビゲーションシステム(例えば図3のシステム300)によれば、さらにより多くの撮像データセットを同時に一緒にオーバーレイすることが可能である。例えば、頭蓋骨2202のX線データをMRデータと共に重ね合わせることもできる。ユーザが従来のように頭部の異なるビューを、並んだこれらの3つの異なるビューで見るのではなく、本開示のナビゲーションシステム(例えば図3のシステム300)によれば、ビューが存在するだろう場所で精密に互いに重ね合わせることによって、全てのビューがスムーズに関連している様をユーザが理解することが可能になる。
図23は、幾つかの実施形態による、通常は視野内にある頭蓋骨2302上に重ね合わされた画像データセットのうちの1セットの不透明度の種々の程度の例2300を示す。図示するように、1セットのビューの透明度は、本開示のソフトウェアを使用して、所望に応じて増減可能である。
図24は、幾つかの実施形態による、複数のオーバーレイを提供するナビゲーションシステムの別の例2400を提供する。この例において、患者は手術室内にいて持ち上げられている。患者の頭部2402は、左に示すように、支持体上に載っている。患者の残りの部分は隠されている。本開示のナビゲーションシステムを使用する外科医は、左に示すように、患者の頭蓋骨の撮像データを患者の頭部のライブビュー上に重ね合わせて用いることができる。さらに、外科医は、右に示すように、患者の脳2404の断面の撮像データの一部分だけを同じビュー上に重ね合わすこともできる。指定された脳内物質2404のロケーションは、それが患者の頭部2402の内部に存在する場所のロケーションに精密に配置されるため、外科医は、患者の頭蓋骨2402の位置が、患者の脳2404の所望の部分にどのように関連しているかを理解することができる。上記ソフトウェアの節で論じたように、これら種々のコレジストレーション済みデータセットは、MRIおよびX線スキャンからのようにまず固定撮像技法から得ることができる。スキャンが2Dスライスで得られる場合でも、種々の3Dソフトウェア画像形成技法を先立って実施することで、2D画像データの3Dレンダリングを生成することができる。すると、画像データの3Dレンダリングを患者の通常ビューに対して正しい位置で重ね合わることができるので、外科医が患者の周りを動き回って異なる角度からデータセットの全てを観察することが可能になる。
図25および26は、幾つかの実施形態による、画像データの複数のセットが患者上に重ね合わされることを可能にするための、ユニバーサル参照ポイントを提供する固定マーカ例2500、2600を提示する。図25では、ターゲット患者の近くの一定位置に配置可能な、非対称に並べられた4つのマーカ2502を有するデバイスが示される。ソフトウェアは、視覚的キューとしてこれらの4つのポイント2502を探し、画像データの他のセットでこれらの同じ4つのポイント2502を再び参照することによって、画像を正しく方向付けることができる。別の例として、図26では、患者または手術テーブルの固定位置に取り付け可能な固定視覚的キューとしてやはり4つのポイント2602を有する器具2600が示される。これらは、AR画像が配置されるべき場所を較正(キャリブレーション)するために、ナビゲーションソフトウェアによって参照される。
幾つかの実施形態において、本開示のナビゲーションソフトウェアは、画像データ内および/またはユーザ、例えば外科医のリアルタイムビュー内の一意な特徴によって、固定参照ポイントを見出すことができる。例えば、ナビゲーションソフトウェアは、患者の眼または眼窩を、患者の頭蓋骨に対する参照ポイントとして識別してよい。これらの種類のキューは、患者の一部が隠されていて、人工的に配置された参照マーカのビューを維持することが常に保証となる訳ではない場合に有用であり得る。同様に、患者上の、または患者の近くにあるタイプの参照ポイントは、移動する外科医をソフトウェアが連続的に処理しているときに変更可能である。
図22、23、および24の例に示すように、本開示のナビゲーションシステムは、デジタル画像をライブ画像上にリアルタイムにオーバーレイし、観察者がオブジェクトの周りをリアルタイムに動き回るときでも、デジタル画像をライブオブジェクトの同じ位置に固定することが可能である。これは融合プロセスと呼ばれるものであり、ヘッドギア(例えば図15のヘッドセット1506)またはバーアタッチメント(図10-12)を含むモバイルコンピュータ等のナビゲーションシステムハードウェアによりリアルタイムで実施される。図16~21、特に図17で説明するソフトウェアアルゴリズムと矛盾せずに、ナビゲーションシステム(例えば図3のシステム300)はまず、MRスキャンまたはCTスキャンの複合スライスの3Dレンダリング等の、オブジェクトに関連するデジタルコンテンツを受信することができる。ナビゲーションシステム(例えば図3のシステム300)は、デジタル画像の形状を、ライブオブジェクトのリアルタイムで見られるものにマッチさせることを含む3D融合技法を実施することができる。一例として、ナビゲーションシステム(例えば図3のシステム300)は、患者の頭蓋骨のX線データおよび患者の脳のMRデータにアクセスしながら、患者の頭部をリアルタイムで眺めることができる。現在眺めている患者の頭部のサイズを用いてデジタルコンテンツを正しくサイズ決定するために、ソフトウェアにより1つ以上の変換を行うことが必要な場合がある。
幾つかの場合、ナビゲーションシステム(例えば図3のシステム300)ソフトウェアは、デジタル画像の2D融合プロセスを1つ以上実施することもできる。ナビゲーションシステム(例えば図3のシステム300)ソフトウェアは、ライブオブジェクトの角度にマッチさせるために2D画像の1回または複数回の回転を実施することによってこれを達成することができる。そうすると、ナビゲーションシステム(例えば図3のシステム300)ソフトウェアは、ライブオブジェクト上への3Dおよび2D画像の一方または両方のオーバーレイを表示するとともに、観察者がオブジェクトの周りを動き回る間、3Dおよび2D画像の適切な方向を絶えず保つことができるように、ライブオブジェクトの観察者の角度および位置を追跡することができる。上記で論じたように、融合を所望するオブジェクト毎の一意な参照マーカを用いることにより、ナビゲーションシステムはオブジェクトのその視野に対する現在の角度および位置がどのようなものかを識別することが可能である。これらのマーカ2502、2602の例は、図25および26に示される。上記で述べたように、本開示のナビゲーションシステム(例えば図3のシステム300)は、観察者がリアルタイムライブオブジェクトの周りを動き回るときの方向の正確さと、0.1mm以内の配置精度とで、これらのデジタル画像をリアルタイムライブオブジェクトに融合することができる。
幾つかの実施形態において、参照マーカ(例えば図25、26のマーカ2502、2602)は、患者の医療手技に伴われる外科または医療器具上にも含まれる。このため、ナビゲーションシステム(例えば図3のシステム300)が本明細書で説明する技法を用いて医療デバイスの動きを組み込むことにより、医療デバイスとライブオブジェクトおよびオーバーレイとの拡張現実相互作用が提供可能になる。こうして、リモートユーザは、患者から物理的に遠くにいても、医療デバイスが、患者および患者の内側の関連する部分とどのように相互作用可能であるか、または相互作用すべきかを示すことができる。これらの技法は、リモートロケーションからの練習または準備にも使用できる。したがって、本明細書の開示によれば、練習に患者データの精密なレプリカを提供することによって、および/または、他者を訓練する教育ツールを提供することによって、医療手技の準備を改善するための強力なツールが提供可能となる。
本明細書は多くの特定の実装態様詳細を含むが、これらは、任意の発明のまたは特許請求可能であるものの範囲に対する制限としてではなく、むしろ、特定の発明の特定の実装態様に固有の特徴の説明として解釈されるべきである。別個の実装態様のコンテキストにおいて本明細書で説明される或る特定の特徴は、単一実装態様のコンビネーションの形でも実装可能である。逆に、単一実装態様のコンテキストで説明される種々の特徴は、複数の実装態様の形で別々に、または任意の適切なサブコンビネーションの形でも実装可能である。さらに、特徴が特定のコンビネーションの形で作用するものとして上記で説明され、さらにまずはそのようなものとして特許請求されるとしても、特許請求されるコンビネーションからの1つまたは複数の特徴は、幾つかの場合、そのコンビネーションから切り出すことができるのであり、特許請求されるコンビネーションは、サブコンビネーションまたはサブコンビネーションの変形を対象とすることができる。
同様に、作業は、特定の順序で図面に示されるが、これは、望ましい結果を達成するために、そのような作業が、示す特定の順序でもしくは順番に実施されること、または、全ての示す作業が実施されることが必要であると理解されるべきではない。特定の状況において、マルチタスキングおよび並列処理が有利であり得る。さらに、上記で説明する実装態様における種々のシステムコンポーネントの分離は、全ての実装態様においてそのような分離を必要とするものとして理解されるべきでなく、説明するプログラムコンポーネントおよびシステムは、一般に、単一ソフトウェア製品への統合、または複数のソフトウェア製品へのパケージ化が可能であることが理解されるべきである。
「または(or)」への言及は、「または」を使用して説明される任意の用語が、説明される用語の単一、2つ以上、および全てのうちの任意のものであることができるように、包含的(inclusive)なものとして解釈可能である。「第1の(first)」、「第2の(second)」、「第3の(third)」等のラベルは、順序付けを示すことを必ずしも意味せず、一般的に単に同様のまたは類似のアイテムまたは要素を区別するために使用されている。
本開示で説明する実装態様に対する種々の変更は、当業者に容易に明らかになることができ、本明細書で規定される一般原理は、本開示の趣旨または範囲から逸脱することなく、他の実装態様に適用可能である。そのため、特許請求の範囲は、本明細書に示す実装態様に限定されることを意図されるのではなく、本開示、原理、および本明細書で開示される新規な特徴と矛盾しない最も広い範囲が与えられるべきである。
別段に特に述べられない限り、「処理する(processing)」、「計算する(computing)」、「計算する(calculating)」、「決定する(determining)」、「提示する(presenting)」、「表示する(displaying)」または同様なもの等の語を使用する本明細書の考察は、1つまたは複数のメモリ(例えば、揮発性メモリ、不揮発性メモリ、またはその任意の適切な組み合わせ)、レジスター、あるいは、情報を受信する、記憶する、送信する、または表示する他の機械コンポーネント内の物理的(例えば、電子、磁気、または光)量として表現されるデータを操作または変換する機械(例えば、コンピュータ)の行為またはプロセスを指すことができる。さらに、別段に特に述べられない限り、用語「1つの(a)」または「1つの(an)」は、特許文書において一般的であるように、1つまたは2つ以上のインスタンスを含むために本明細書で使用される。最後に、本明細書で使用するとき、接続詞「または」は、別段に特に述べられない限り、非排他的な「または」を指す。
本開示は、例証的であり、制限的でない。さらなる変更は、本開示に照らして当業者に明らかになることになり、添付特許請求項の範囲内に入ることを意図される。
Claims (20)
- 拡張現実デバイスであって、
ハウジングと、
前記ハウジングに結合され、3次元コンポーネントを有する画像データを提供するように構成される深度カメラと、
前記ハウジングに結合され、人間ユーザが自然に見ることができない超感覚的画像データを提供するように構成される可視カメラと、
画像データの少なくとも2つのセットを受信し、画像データの該少なくとも2つのセットの両方を、ユーザの視野内の共通参照点上にオーバーレイするように構成されているオーバーレイディスプレイコンポーネントと
を備える、拡張現実デバイス。 - 前記ハウジングを支持するように構成されているヘッドセットをさらに備える、請求項1に記載の拡張現実デバイス。
- 前記深度カメラおよび前記可視カメラは、前記ユーザの視野が該深度カメラの視野および該可視カメラの視野の両方に一致するように、前記ヘッドセット上に位置決めされている、請求項2に記載の拡張現実デバイス。
- 前記オーバーレイディスプレイコンポーネントは、前記ユーザが前記ヘッドセットを装着するときに該ユーザの視野上に位置決めされている、請求項2に記載の拡張現実デバイス。
- モバイルデバイスに取り付けるように構成されているバーアタッチメントをさらに備える、請求項1に記載の拡張現実デバイス。
- 前記オーバーレイディスプレイコンポーネントは、前記モバイルデバイスの可視ディスプレイを利用する、請求項5に記載の拡張現実デバイス。
- 外科手術ナビゲーションのためのシステムであって、
ローカル地理的ロケーションに位置決めされた第1の拡張現実(AR)デバイスと、
リモート地理的ロケーションに位置決めされ、前記第1のARデバイスと有線または無線で結合された第2の拡張現実デバイスと、
ソフトウェアシステムであって、前記第1のARデバイスおよび前記第2のARデバイスの両方に結合され、
前記第1のARデバイスによって生成されるリアルタイム画像データを処理し、
前もって記録された固定医療画像データにアクセスし、
前記第2のARデバイスに、前記リアルタイム画像データおよび該リアルタイム画像データ上に重ね合わせた前記固定医療画像データを表示させる
ように構成されている、ソフトウェアシステムと
を備える、システム。 - 前記第1のARデバイスは、前記視野内で固定参照マーカを識別し、該固定参照マーカに関する画像データを前記第2のARデバイスに送信するように構成されている、請求項7に記載のシステム。
- 前記ソフトウェアシステムは、前記固定参照マーカに関する前記画像データを使用して、前記固定医療画像データを前記リアルタイム画像データに対して方向付けるように構成されている、請求項8に記載のシステム。
- 前記固定医療画像データは、2Dおよび3D画像データを含む、請求項7に記載のシステム。
- 前記ソフトウェアシステムは、前記リアルタイム画像データ上に重ね合わされた前記2D画像データおよび前記3D画像データの両方を同時に表示させるように構成されている、請求項7に記載のシステム。
- 前記リアルタイム画像データ上の前記重ね合わされた2Dおよび3Dデータは、前記リアルタイム画像データのオブジェクト内部、または内側の物理的コンテンツの1つまたは複数のビューを示す、請求項7に記載のシステム。
- オブジェクトのデジタル画像データを該オブジェクトのリアルタイムビューに融合させる拡張現実(AR)の方法であって、
前記オブジェクトのビューにリアルタイムにアクセスすることと、
前記オブジェクトの前記デジタル画像データにアクセスすることとを含み、前記オブジェクトの前記デジタル画像データは、前記オブジェクトの1つまたは複数の静的デジタル画像として予め取り込まれ記憶されたものであり、
前記方法がさらに、
拡張現実ディスプレイスクリーンを使用し、前記オブジェクトの前記ビューの前記拡張現実ディスプレイスクリーン内での位置または方向が変化するとき、前記デジタル画像データが前記オブジェクトの前記ビューにリアルタイムで固着されたままであるように、前記デジタル画像データを前記オブジェクトの前記ビューにリアルタイムに固着させる融合技法を実施することを含む、
方法。 - 前記デジタル画像データは前記オブジェクトの3Dデジタル画像データを含む、請求項13に記載の方法。
- 前記デジタル画像データは前記オブジェクトの2Dデジタル画像データを含む、請求項13に記載の方法。
- 前記オブジェクトの2Dデジタル画像データにアクセスすることと、
3Dレンダリング技法を実施することにより、前記2Dデジタル画像データを前記オブジェクトの3Dデジタル画像データに変換することと
をさらに含み、
前記融合技法は、前記オブジェクトの前記3Dデジタル画像データを前記オブジェクトの前記ビューにリアルタイムで固着させることを含む、請求項13に記載の方法。 - 前記融合技法は、前記3Dデジタル画像データの前記サイズが前記オブジェクトの前記サイズに正しく比例して表示されるように、前記3Dデジタル画像データのサイズに前記オブジェクトの前記ビューのサイズをリアルタイムで一致させることを含む、請求項14に記載の方法。
- 前記融合技法は、前記3Dデジタル画像データの前記形状が前記オブジェクトの前記形状に正しく比例して表示されるように、前記3Dデジタル画像データの形状に前記オブジェクトの前記ビューの形状をリアルタイムで一致させることを含む、請求項14に記載の方法。
- 前記オブジェクトの前記ビューに近い固定参照マーカにリアルタイムでアクセスすることをさらに含み、前記固定参照マーカは、前記オブジェクトの前記ビューの前記位置または方向が変化するときでも、前記オブジェクトの前記ビューの一意な3次元方向および深度を提供するのに十分なデータが提供される、請求項13に記載の方法。
- 前記融合技法を実施することは、前記固定参照マーカを利用することにより、前記デジタル画像データを前記オブジェクトの前記ビューにリアルタイムで固着させることを含む、請求項19に記載の方法。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202062983405P | 2020-02-28 | 2020-02-28 | |
US202062983432P | 2020-02-28 | 2020-02-28 | |
US202062983427P | 2020-02-28 | 2020-02-28 | |
US62/983,432 | 2020-02-28 | ||
US62/983,427 | 2020-02-28 | ||
US62/983,405 | 2020-02-28 | ||
PCT/US2021/020168 WO2021174172A1 (en) | 2020-02-28 | 2021-02-28 | Surgical navigation system and applications thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023526716A true JP2023526716A (ja) | 2023-06-23 |
Family
ID=75143752
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022552261A Pending JP2023526716A (ja) | 2020-02-28 | 2021-02-28 | 外科手術ナビゲーションシステムおよびそのアプリケーション |
Country Status (8)
Country | Link |
---|---|
US (1) | US20230355315A1 (ja) |
EP (1) | EP4110218A1 (ja) |
JP (1) | JP2023526716A (ja) |
KR (1) | KR20230037007A (ja) |
CN (1) | CN115515520A (ja) |
BR (1) | BR112022017198A2 (ja) |
CA (1) | CA3169768A1 (ja) |
WO (1) | WO2021174172A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113730715B (zh) * | 2021-10-15 | 2023-10-03 | 核工业总医院 | 一种遥控麻醉辅助控制方法、装置、电子设备及存储介质 |
US11850005B1 (en) * | 2022-10-27 | 2023-12-26 | Mammen Thomas | Use of immersive real-time metaverse and avatar and 3-D hologram for medical and veterinary applications using spatially coordinated multi-imager based 3-D imaging |
CN115954096B (zh) * | 2023-03-14 | 2023-05-30 | 南京诺源医疗器械有限公司 | 一种基于图像数据处理的腔镜vr成像系统 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170042631A1 (en) * | 2014-04-22 | 2017-02-16 | Surgerati, Llc | Intra-operative medical image viewing system and method |
CN107613897B (zh) * | 2015-10-14 | 2021-12-17 | 外科手术室公司 | 扩增实境的外科导航 |
WO2018049196A1 (en) * | 2016-09-09 | 2018-03-15 | GYS Tech, LLC d/b/a Cardan Robotics | Methods and systems for display of patient data in computer-assisted surgery |
CN117159116A (zh) * | 2017-08-14 | 2023-12-05 | 瑟西纳斯医疗技术有限责任公司 | 使用用于将医疗设备放置在骨骼中的具有形状对准的增强现实的系统和方法 |
EP3810008A2 (en) * | 2018-06-19 | 2021-04-28 | Tornier, Inc. | Mixed reality-aided depth tracking in orthopedic surgical procedures |
-
2021
- 2021-02-28 US US17/905,177 patent/US20230355315A1/en active Pending
- 2021-02-28 KR KR1020227033761A patent/KR20230037007A/ko unknown
- 2021-02-28 EP EP21713827.0A patent/EP4110218A1/en active Pending
- 2021-02-28 CN CN202180031526.4A patent/CN115515520A/zh active Pending
- 2021-02-28 JP JP2022552261A patent/JP2023526716A/ja active Pending
- 2021-02-28 CA CA3169768A patent/CA3169768A1/en active Pending
- 2021-02-28 WO PCT/US2021/020168 patent/WO2021174172A1/en active Search and Examination
- 2021-02-28 BR BR112022017198A patent/BR112022017198A2/pt not_active Application Discontinuation
Also Published As
Publication number | Publication date |
---|---|
BR112022017198A2 (pt) | 2022-11-01 |
KR20230037007A (ko) | 2023-03-15 |
EP4110218A1 (en) | 2023-01-04 |
US20230355315A1 (en) | 2023-11-09 |
WO2021174172A1 (en) | 2021-09-02 |
CN115515520A (zh) | 2022-12-23 |
CA3169768A1 (en) | 2021-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220346889A1 (en) | Graphical user interface for use in a surgical navigation system with a robot arm | |
EP3498212A1 (en) | A method for patient registration, calibration, and real-time augmented reality image display during surgery | |
KR101647467B1 (ko) | 증강현실을 이용한 외과 수술용 3d 안경 시스템 | |
US20190254753A1 (en) | Augmented reality navigation systems for use with robotic surgical systems and methods of their use | |
Sielhorst et al. | Advanced medical displays: A literature review of augmented reality | |
CA2486525C (en) | A guide system and a probe therefor | |
EP2671114B1 (en) | Imaging system and method for imaging and displaying an operator's work-site | |
US7774044B2 (en) | System and method for augmented reality navigation in a medical intervention procedure | |
JP2020518423A (ja) | 手術ナビゲーションシステム | |
US11963723B2 (en) | Visualization of medical data depending on viewing-characteristics | |
JP2023526716A (ja) | 外科手術ナビゲーションシステムおよびそのアプリケーション | |
Cutolo et al. | Software framework for customized augmented reality headsets in medicine | |
JP2007512854A (ja) | 手術用ナビゲーションシステム(カメラプローブ) | |
Hu et al. | Head-mounted augmented reality platform for markerless orthopaedic navigation | |
Vogt et al. | Reality augmentation for medical procedures: System architecture, single camera marker tracking, and system evaluation | |
Saucer et al. | A head-mounted display system for augmented reality image guidance: towards clinical evaluation for imri-guided nuerosurgery | |
US20230114385A1 (en) | Mri-based augmented reality assisted real-time surgery simulation and navigation | |
Gsaxner et al. | Augmented reality in oral and maxillofacial surgery | |
Danciu et al. | A survey of augmented reality in health care | |
Salb et al. | INPRES (intraoperative presentation of surgical planning and simulation results): augmented reality for craniofacial surgery | |
US20230363830A1 (en) | Auto-navigating digital surgical microscope | |
Sauer et al. | Augmented reality visualization for thoracoscopic spine surgery | |
CN116568219A (zh) | 自动导航数字手术显微镜 | |
Falcão | Surgical Navigation using an Optical See-Through Head Mounted Display |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A529 Effective date: 20221024 |