JP2020124501A - ターゲットに対する医療デバイスのナビゲーションを視覚化するためのシステムおよび方法 - Google Patents

ターゲットに対する医療デバイスのナビゲーションを視覚化するためのシステムおよび方法 Download PDF

Info

Publication number
JP2020124501A
JP2020124501A JP2020014721A JP2020014721A JP2020124501A JP 2020124501 A JP2020124501 A JP 2020124501A JP 2020014721 A JP2020014721 A JP 2020014721A JP 2020014721 A JP2020014721 A JP 2020014721A JP 2020124501 A JP2020124501 A JP 2020124501A
Authority
JP
Japan
Prior art keywords
target
medical device
model
displaying
live
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020014721A
Other languages
English (en)
Inventor
シェブレブ イリナ
Shevlev Irina
シェブレブ イリナ
アレクサンドロニ ガイ
Alexandroni Guy
アレクサンドロニ ガイ
コペル エブゲニー
Kopel Evgeni
コペル エブゲニー
ピー. ウェインガルテン オレン
P Weingarten Oren
ピー. ウェインガルテン オレン
フラッシュアワー スコット
Frushour Scott
フラッシュアワー スコット
マーディクス ダフナ
Mardix Dafna
マーディクス ダフナ
オバディア ダニエル
ovadia Daniel
オバディア ダニエル
ズバージェブスキー マーク
Zbarjevsky Mark
ズバージェブスキー マーク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Covidien LP
Original Assignee
Covidien LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Covidien LP filed Critical Covidien LP
Publication of JP2020124501A publication Critical patent/JP2020124501A/ja
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • A61B90/92Identification means for patients or instruments, e.g. tags coded with colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00743Type of operation; Specification of treatment sites
    • A61B2017/00809Lung operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/252User interfaces for surgical systems indicating steps of a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3966Radiopaque markers visible in an X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10121Fluoroscopy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Robotics (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Gynecology & Obstetrics (AREA)
  • Human Computer Interaction (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Surgical Instruments (AREA)

Abstract

【課題】ライブ蛍光透視ビューを使用して、ターゲットに対する医療デバイスのナビゲーションを視覚化するためのシステムおよび方法の提供。【解決手段】方法は、画面に、医療デバイス先端の視点からのターゲットの3次元(3D)モデルの3Dビューを表示することを含む。方法はまた、画面に、医療デバイスを示すライブ2次元(2D)蛍光透視ビューを表示することと、ターゲットの3Dモデルに対応するターゲットマークを、ライブ2D蛍光透視ビューに重ねて表示することと、をも含む。方法は、医療デバイス先端がターゲットと位置揃えされているか否かを判定することと、医療デバイス先端がターゲットと位置揃えされている場合、ターゲットマークを第1の色で表示することと、医療デバイス先端がターゲットと位置揃えされていない場合、ターゲットマークを第1の色とは異なる第2の色で表示することと、を含み得る。【選択図】なし

Description

本開示は、ターゲットに対する生検またはアブレーションツールなどの医療デバイスのナビゲーションを視覚化する分野に関する。
肝臓、脳、心臓、肺、胆嚢、腎臓、および骨を含む臓器に影響を及ぼすさまざまな病気を治療するために、内視鏡処置や低侵襲処置など、一般的に適用される医療方法がいくつかある。多くの場合、磁気共鳴画像法(MRI)、超音波画像法、コンピュータ断層撮影法(CT)、または蛍光透視法などの1つ以上の画像診断法が、患者内の関心対象領域、最終的には生検または治療のターゲットを同定し、そこまでナビゲートするために、臨床医によって採用される。いくつかの処置では、術前スキャンが、ターゲット同定と術中ガイダンスに利用され得る。しかしながら、ターゲット領域のより正確な現在画像を取得するには、リアルタイム画像化が必要となる場合がある。さらに、(例えば、他の臓器または組織に損傷を惹起することなく)安全かつ正確な方法で医療デバイスをターゲットまでナビゲートするために、ターゲットおよびその周囲に対する医療デバイスの現在位置を表示するリアルタイム画像データが必要となる場合がある。
例えば、内視鏡アプローチは、患者内の関心対象領域までナビゲートするのに有用であり、肺など、体の管腔網内の領域に対して特にそうであることが証明されている。内視鏡アプローチ、より具体的には肺の気管支鏡アプローチを可能にするために、従前に取得したMRIデータまたはCT画像データを使用して、肺などの特定の体の部分の3次元(3D)レンダリング、モデル、または容量体を生成する気管支内ナビゲーションシステムが開発された。
次いで、MRIスキャンまたはCTスキャンから生成された出来上がりの容量体を利用して、ナビゲーションカテーテル(または他の適切な医療デバイス)を気管支鏡および患者の気管支の分枝を通して関心対象領域まで前進させることを容易にするナビゲーション計画を作成する。電磁(EM)追跡システムなどの位置特定または追跡システムを、例えばCTデータと併せて利用して、ナビゲーションカテーテルを気管支の分枝を通して関心対象領域まで誘導することを容易にし得る。特定の例では、ナビゲーションカテーテルは、1つ以上の医療器具にアクセスを提供するために、関心対象領域に隣接するかまたは関心対象領域内の枝分かれした管腔網の気道のうちの1つ内に配置され得る。
しかしながら、CTスキャンなどの従前に取得されたスキャンから生成された患者の肺の3D容量体は、ナビゲーション処置中に医療デバイスまたは機器をターゲットまで正確に誘導するための十分な基盤を提供しない場合がある。場合によっては、不正確さは、従前に取得されたCTデータの取得時の肺に対する処置中の患者の肺の変形によって惹起される。この変形(CTから体への逸脱)は、例えば、鎮静状態と非鎮静状態との間の移行時の体の変化、気管支鏡が患者の姿勢を変えること、気管支鏡が組織を押圧すること、異なる肺容量(例えば、CTスキャンは吸入中に取得され、ナビゲーションは呼吸中に実行される)、異なるベッド、異なる日などを含む、多くの異なる要因によって惹起され得る。
したがって、医療デバイスおよびターゲットをリアルタイムで視覚化し、生体内ナビゲーション処置を強化するには、別の画像診断法が必要である。さらに、例えば生検や治療のために、医療デバイスを遠隔のターゲットまで正確かつ安全にナビゲートするためには、医療デバイスおよびターゲットの両方が誘導システムにおいて可視であるべきである。
本開示は、ライブ2D蛍光透視ビューを使用して、ターゲットに対する医療デバイスの体内ナビゲーションを視覚化するためのシステムおよび方法に関する。1つの一般的な態様は、ディスプレイと、ディスプレイに連結されたプロセッサと、プロセッサに連結され、その上に命令を格納したメモリとを含み、命令は、プロセッサによって実行されると、プロセッサに、ディスプレイ上に、医療デバイスの先端の視点からのターゲットの3次元(3D)モデルの3Dビューを含む画面を表示することと、画面に、医療デバイスを示すライブ2次元(2D)蛍光透視ビューを表示することと、ターゲットの3Dモデルに対応するターゲットマークをライブ2D蛍光透視ビューに重ねて表示することと、をさせるシステムを含む。
実施には、次の機能のうちの1つ以上が含まれ得る。医療デバイスが生検ツール、アブレーションツール、または組織を治療するツールであるシステム。ターゲットの3Dモデルが管腔網の3Dモデルから得られるシステム。管腔網の3Dモデルが前処理コンピュータ断層撮影画像データセットから生成されるシステム。命令が、プロセッサによって実行されると、プロセッサにさらに、医療デバイス先端がターゲットと位置揃えされていると判定させるシステム。医療デバイス先端がターゲットと位置揃えされていると判定したことに応答して、ターゲットマークが第1の色で表示されるシステム。命令が、プロセッサによって実行されると、プロセッサにさらに、医療デバイス先端がターゲットと位置揃えされていないと判定させるシステム。医療デバイス先端がターゲットと位置揃えされていないと判定したことに応答して、ターゲットマークが第1の色とは異なる第2の色で表示されるシステム。実施形態では、第1の色は緑であり得、第2の色はオレンジまたは赤であり得る。
命令が、プロセッサによって実行されると、プロセッサにさらに、蛍光透視画像内のターゲットマーキングのユーザ確認を受け取ったことに応答して、画面をナビゲーションユーザインターフェースに追加するか否かを入力するようユーザに促すメッセージを表示させるシステム。命令が、プロセッサによって実行されると、プロセッサにさらに、画面をナビゲーションユーザインターフェースに追加するユーザ入力を受け取ったこと応答して、ナビゲーションユーザインターフェースに、選択されると、画面が表示されるタブを表示させるシステム。
命令が、プロセッサによって実行されると、プロセッサにさらに、選択可能なボタンを表示させるシステム。選択可能なボタンの選択を検出したことに応答して、ターゲットマークがライブ2D蛍光透視ビューから削除されるシステム。命令が、プロセッサによって実行されると、プロセッサにさらに、選択可能なもののさらなる選択を検出したことに応答して、ターゲットマークをライブ2D蛍光透視ビューに重ねて表示させるシステム。命令が、プロセッサによって実行されると、プロセッサにさらに、医療デバイス先端とターゲットとの間の距離を計算させるシステム。計算された距離がターゲットの3Dモデルの3Dビュー内に表示されるシステム。命令が、プロセッサによって実行されると、プロセッサにさらに、ターゲットの3Dモデルを含む管腔網の3Dモデルとライブ2D蛍光透視ビューとの対応を決定させ、管腔網の3Dモデルとライブ2D蛍光透視ビューとの決定された対応に基づいて、医療デバイス先端がターゲットと位置揃えされていると判定させるシステム。蛍光透視撮像装置が、医療デバイス先端を含む領域のライブ2D蛍光透視ビューを撮影するように構成されているシステム。
システムは、医療デバイスを受容するように構成されたカテーテルをさらに含み得る。システムは、管腔網内にナビゲートされた拡張作業チャネルの位置を追跡し、その位置を管腔網の3Dモデルに対応させるように構成されたナビゲーションコンポーネントをさらに含み得る。ナビゲーションコンポーネントが電磁ナビゲーションシステムであるシステム。説明したシステムの実施には、ハードウェア、方法もしくはプロセス、またはコンピュータアクセス可能媒体上のコンピュータソフトウェアが含まれ得る。
別の一般的な態様は、ターゲットに対して医療デバイスを視覚化する方法を含み、画面に、医療デバイス先端の視点からのターゲットの3次元(3D)モデルの3Dビューを表示する。方法はまた、画面に、医療デバイスを示すライブ2次元(2D)蛍光透視ビューを表示することも含む。方法はまた、ターゲットの3Dモデルに対応するターゲットマークをライブ2D蛍光透視ビューに重ねて表示することも含む。この態様の他の実施形態は、各々が方法の動作を実行するように構成された、対応するコンピュータシステム、装置、および1つ以上のコンピュータ記憶装置に記録されたコンピュータプログラムを含む。
実施には、次の機能のうちの1つ以上が含まれ得る。方法は、医療デバイス先端がターゲットと位置揃えされていると判定することをさらに含み得る。方法はまた、医療デバイス先端がターゲットと位置揃えされていると判定したことに応答して、ターゲットマークを第1の色で表示することも含み得る。方法は、医療デバイス先端がターゲットと位置揃えされていないと判定することと、医療デバイス先端がターゲットと位置揃えされていないと判定したことに応答して、ターゲットマークを第1の色とは異なる第2の色で表示することと、をさらに含み得る。第1の色は緑であり得、第2の色はオレンジまたは赤であり得る。
方法はまた、蛍光透視画像内のターゲットマーキングのユーザ確認を受け取ったことに応答して、画面をナビゲーションユーザインターフェースに追加するか否かを入力するようユーザに促すメッセージを表示することも含み得る。方法はまた、画面をナビゲーションユーザインターフェースに追加するユーザ入力を受け取ったことに応答して、ナビゲーションユーザインターフェースに、選択されると、画面が表示されるタブを表示することも含み得る。方法は、選択可能なボタンを表示することと、選択可能なボタンの選択を検出したことに応答して、ターゲットマークをライブ2D蛍光透視ビューから削除することとをさらに含み得る。
方法は、選択可能なもののさらなる選択を検出したことに応答して、ターゲットマークをライブ2D蛍光透視ビュー上に重ねて表示することをさらに含み得る。方法は、医療デバイス先端とターゲットとの間の距離を計算することと、計算された距離をターゲットの3Dモデルの3Dビュー内に表示することとをさらに含み得る。方法は、ターゲットの3Dモデルを管腔網の3Dモデルから得ることをさらに含み得る。方法は、管腔網の3Dモデルを前処置コンピュータ断層撮影画像データセットから生成することをさらに含み得る。
方法は、ターゲットの3Dモデルを含む管腔網の3Dモデルとライブ2D蛍光透視ビューとの対応を決定することと、管腔網の3Dモデルとライブ2D蛍光透視ビューとの決定された対応に基づいて、医療デバイス先端がターゲットと位置揃えされていると判定することとをさらに含み得る。説明された方法の実施には、ハードウェア、方法もしくはプロセス、またはコンピュータアクセス可能媒体上のコンピュータソフトウェアが含まれ得る。
本発明は、例えば、以下を提供する。
(項目1)
ディスプレイと、
前記ディスプレイに連結されたプロセッサと、
前記プロセッサに連結され、その上に命令を格納したメモリとを備え、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、
前記ディスプレイ上に、医療デバイスの先端の視点からのターゲットの3次元(3D)モデルの3Dビューを含む画面を表示することと、
前記画面に、前記医療デバイスを示すライブ2次元(2D)蛍光透視ビューを表示することと、
前記ターゲットの前記3Dモデルに対応するターゲットマークを、前記ライブ2D蛍光透視ビューに重ねて表示することと、をさせるシステム。
(項目2)
前記ターゲットの前記3Dモデルは、管腔網の3Dモデルから得られ、
前記管腔網の前記3Dモデルは、前処理コンピュータ断層撮影画像データセットから生成される、上記項目に記載のシステム。
(項目3)
前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
前記医療デバイス先端が前記ターゲットと位置揃えされていると判定することと、
前記医療デバイス先端が前記ターゲットと位置揃えされていると判定したことに応答して、前記ターゲットマークを第1の色で表示することと、をさせる、上記項目のいずれか一項に記載のシステム。
(項目4)
前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
前記医療デバイス先端が前記ターゲットと位置揃えされていないと判定することと、
前記医療デバイス先端が前記ターゲットと位置揃えされていないと判定したことに応答して、前記ターゲットマークを第2の色で表示することと、をさせる、上記項目のいずれか一項に記載のシステム。
(項目5)
前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
局所位置合わせプロセスのユーザ確認を受け取ったことに応答して、ターゲットオーバーレイを可能にするか否かを入力するようユーザに促すメッセージを表示することと、
前記ターゲットオーバーレイを可能にするユーザ入力を受け取ったことに応答して、ナビゲーションユーザインターフェースにおいて、選択されると、前記画面が表示されるタブを表示することと、をさせる、上記項目のいずれか一項に記載のシステム。
(項目6)
前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
選択可能なボタンを表示することと、
前記選択可能なボタンの選択を検出したことに応答して、前記ターゲットマークを前記ライブ2D蛍光透視ビューから削除することか、または
前記選択可能なもののさらなる選択を検出したことに応答して、前記ターゲットマークを前記ライブ2D蛍光透視ビューに重ねて表示することと、をさせる、上記項目のいずれか一項に記載のシステム。
(項目7)
前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
前記医療デバイス先端と前記ターゲットとの間の距離を計算することと、
前記計算された距離を、前記ターゲットの前記3Dモデルの前記3Dビュー内に表示することと、をさせる、上記項目のいずれか一項に記載のシステム。
(項目8)
前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
前記ターゲットの前記3Dモデルを含む管腔網の3Dモデルと、前記ライブ2D蛍光透視ビューとの対応を決定することをさせ、
前記医療デバイス先端が前記ターゲットと位置揃えされていると判定することは、前記管腔網の3Dモデルと前記ライブ2D蛍光透視ビューとの前記決定された対応に基づいて実行される、上記項目のいずれか一項に記載のシステム。
(項目9)
前記医療デバイス先端を含む領域の前記ライブ2D蛍光透視ビューを撮影するように構成された蛍光透視撮像装置をさらに備える、上記項目のいずれか一項に記載のシステム。
(項目10)
前記医療デバイスを受容するように構成されたカテーテルをさらに備える、上記項目のいずれか一項に記載のシステム。
(項目11)
管腔網内にナビゲートされた前記カテーテルの位置を追跡し、前記位置を前記管腔網の前記3Dモデルに対応させるように構成されたナビゲーションコンポーネントをさらに備える、上記項目のいずれか一項に記載のシステム。
(項目12)
前記ナビゲーションコンポーネントは、電磁ナビゲーションシステムである、上記項目のいずれか一項に記載のシステム。
(項目13)
ターゲットに対して医療デバイスを視覚化する方法であって、
画面に、医療デバイス先端の視点からのターゲットの3次元(3D)モデルの3Dビューを表示することと、
前記画面に、医療デバイスを示すライブ2次元(2D)蛍光透視ビューを表示することと、
前記ターゲットの前記3Dモデルに対応するターゲットマークを、前記ライブ2D蛍光透視ビューに重ねて表示することと、を含む方法。
(項目14)
前記医療デバイス先端が前記ターゲットと位置揃えされていると判定することと、
前記医療デバイス先端が前記ターゲットと位置揃えされていると判定したことに応答して、前記ターゲットマークを第1の色で表示することと、
前記医療デバイス先端が前記ターゲットと位置揃えされていないと判定することと、
前記医療デバイス先端が前記ターゲットと位置揃えされていないと判定したことに応答して、前記ターゲットマークを第2の色で表示することと、をさらに含む、上記項目のいずれか一項に記載の方法。
(項目15)
局所位置合わせプロセスのユーザ確認を受け取ったことに応答して、ターゲットオーバーレイを可能にするか否かを入力するようユーザに促すメッセージを表示することと、
ターゲットオーバーレイを可能にするユーザ入力を受け取ったことに応答して、ナビゲーションユーザインターフェースにおいて、選択されると、前記画面が表示されるタブを表示することと、をさらに含む、上記項目のいずれか一項に記載の方法。
(項目16)
選択可能なボタンを表示することと、
前記選択可能なボタンの選択を検出したことに応答して、前記ターゲットマークを前記ライブ2D蛍光透視ビューから削除することか、または
前記選択可能なもののさらなる選択を検出したことに応答して、前記ターゲットマークを前記ライブ2D蛍光透視ビューに重ねて表示することと、をさらに含む、上記項目のいずれか一項に記載の方法。
(項目17)
前記医療デバイス先端と前記ターゲットとの間の距離を計算することと、
前記計算された距離を、前記ターゲットの前記3Dモデルの前記3Dビュー内に表示することと、をさらに含む、上記項目のいずれか一項に記載の方法。
(項目18)
前記ターゲットの前記3Dモデルを、管腔網の3Dモデルから得ることをさらに含む、上記項目のいずれか一項に記載の方法。
(項目19)
前記管腔網の前記3Dモデルを、前処理コンピュータ断層撮影画像データセットから生成することをさらに含む、上記項目のいずれか一項に記載の方法。
(項目20)
前記ターゲットの前記3Dモデルを含む管腔網の3Dモデルと、前記ライブ2D蛍光透視ビューとの対応を決定することをさらに含み、
前記医療デバイス先端が前記ターゲットと位置揃えされていると判定することは、前記管腔網の前記3Dモデルと前記ライブ2D蛍光透視ビューとの前記決定された対応に基づいて実行される、上記項目のいずれか一項に記載の方法。
(摘要)
ライブ蛍光透視ビューを使用して、ターゲットに対する医療デバイスのナビゲーションを視覚化するためのシステムおよび方法。方法は、画面に、医療デバイス先端の視点からのターゲットの3次元(3D)モデルの3Dビューを表示することを含む。方法はまた、画面に、医療デバイスを示すライブ2次元(2D)蛍光透視ビューを表示することと、ターゲットの3Dモデルに対応するターゲットマークを、ライブ2D蛍光透視ビューに重ねて表示することと、をも含む。方法は、医療デバイス先端がターゲットと位置揃えされているか否かを判定することと、医療デバイス先端がターゲットと位置揃えされている場合、ターゲットマークを第1の色で表示することと、医療デバイス先端がターゲットと位置揃えされていない場合、ターゲットマークを第1の色とは異なる第2の色で表示することと、を含み得る。
本開示のさまざまな態様および実施形態を添付の図面を参照して説明する。
本開示に従う、管腔網を介して柔組織ターゲットまでナビゲートするためのシステムの概略図である。 本開示に従う、局所位置合わせを確認するための例示的なユーザインターフェースの画面写真である。 本開示に従う、ターゲットオーバーレイ機能で継続するか否かについて質問するポップアップメッセージを有する例示的なナビゲーションユーザインターフェースの画面写真である。 本開示に従う、ターゲットオーバーレイ機能なしの、例示的なナビゲーションユーザインターフェースの画面写真である。 本開示に従う、ターゲットオーバーレイ機能ありの、例示的なナビゲーションユーザインターフェースの画面写真である。 本開示に従う、「ターゲットオーバーレイ」タブが選択されたときに現れる画面を示す例示的なナビゲーションユーザインターフェースの画面写真である。 本開示に従う、ターゲットをライブ蛍光透視画像上に呈示する例示的な方法のフロー図である。 本開示に従う、ターゲットマーカーをリアルタイム2次元(2D)蛍光透視ビュー上に重ねて示す例示的なナビゲーションユーザインターフェースの画面写真である。 ターゲットに対する医療デバイスのナビゲーションを視覚化する例示的な方法のフロー図である。 ターゲットまでナビゲーションし、本開示に従うユーザインターフェースを表示するための、本開示に従うシステムの概略図である。
蛍光透視撮像装置は、例えば、医療デバイスのナビゲーションを視覚化し、所望の位置までナビゲートされた後の医療デバイスの配置を確認するために、臨床医によって使用され得る。しがしながら、蛍光透視画像は、金属ツール、骨、大きな柔組織対象体、例えば心臓など、高度に密な対象体を示すが、蛍光透視画像は、病変など、小さな関心対象柔組織対象体をはっきり示さないことがある。さらに、蛍光透視画像は、2次元投影像である。したがって、柔組織対象体の同定およびそれらの対象体までの医療デバイスのナビゲーションを可能とするには、X線容量測定復元体が必要である。
3D容積復元体を提供するいくつかの解決策がある。1つの解決策は、校正された既知のX線源位置から、柔組織がより良く見える3D容量体への、複数のX線投影像をアルゴリズムを使って組合せるCT機である。例えば、CT機は、1つまたは複数のツールがターゲットに到達するまで、体を通しての誘導を提供する処置中に、反復スキャンで使用することができる。これは、いくつかの全CTスキャンと、専用のCT室と、スキャン間のブラインドナビゲーションとを必要とするので、面倒な処置である。さらに、各スキャンでは、高レベルの電離放射線のために担当者は部屋を出る必要があり、患者は放射線に暴露される。別の解決策は、円錐ビームCT機である。しかしながら、円錐ビームCT機は高価であり、CT機と同様に、スキャン間のブラインドナビゲーションを提供するのみであり、ナビゲーションに複数の反復を必要とし、スタッフは部屋を出る必要がある。いくつかの例示的な実施形態では、本開示のシステムおよび方法は、CT機および蛍光透視撮像装置の便益を組み合わせて、臨床医が、医療デバイスを、小さな柔組織対象体を含むターゲットまでナビゲートすることを助ける。
電磁ナビゲーション処置では、医療デバイス、例えば生検ツールが計画された経路をたどってターゲット、例えば病変に到達し、ターゲットの生検または治療が完了され得ることを保証するように、計画、位置合わせ、およびナビゲーションが実行される。ナビゲーション段階に続いて、蛍光透視画像が撮影され、CTから体への逸脱を低減するための局所位置合わせプロセスに利用され得る。局所位置合わせプロセスの後、位置決定可能ガイドが拡張された作業チャネルから取り外され得、医療デバイス、例えば生検ツールが、拡張された作業チャネルに導入され、ターゲット、例えば病変までナビゲートされて、その生検または治療が実行される。
医療デバイスをターゲットまでナビゲートする際、臨床医は、ターゲットに対する医療デバイスの位置を視覚化するためのライブ2D蛍光透視ビューを使用し得る。医療デバイスは、ライブ蛍光透視ビューでははっきりと見え得るが、一部のターゲット、例えば病変は、ライブ蛍光透視ビューでは見えない場合がある。また、一部の医療デバイスはセンサを含まないため、電磁ナビゲーションを使用できない。さらに、医療デバイスをターゲットに向かって前進させるまたはナビゲートするために使用されるユーザインターフェースは、医療デバイスがいつターゲットの近くになるかを含め、ターゲットに対する医療デバイスに関する十分な情報を提供しない。
本開示は、臨床医がターゲットに対する医療デバイス先端の位置を視覚化できるように、CTスキャンにおいて同定されたターゲットの3次元モデルに対応する2Dターゲットマーカーをライブ2D蛍光透視ビュー上に重ねるユーザインターフェースを特徴とする。ターゲットオーバーレイを含むライブ蛍光透視ビューは2次元ビューであり、医療デバイスがターゲットの上にあるかまたは下にあるかを必ずしも示さないので、同じユーザインターフェースはまた、ターゲットの3Dモデルの3次元医療デバイス先端ビューも含み、臨床医は、医療デバイスがターゲットの上または下にないことを確認できる。
ユーザインターフェースはまた、医療デバイスが3次元でターゲットと位置揃えされているか否かの図形的表示も提供する。例えば、医療デバイスがターゲットと3次元で位置揃えされている場合、ユーザインターフェースはターゲットオーバーレイを第1の色、例えば緑で示す。その一方、医療デバイスが3次元でターゲットと位置揃えされていない場合、ユーザインターフェースはターゲットオーバーレイを第1の色とは異なる第2の色、例えばオレンジまたは赤で示す。
本開示の態様によれば、ターゲット、例えば病変に向かっての医療デバイス、例えば生検ツールの体内ナビゲーションの視覚化は、電磁ナビゲーションシステムなどのナビゲーションシステムのより大きなワークフローの一部分であり得る。図1は、肺の気道を介した軟組織ターゲットまでの医療デバイス、例えば生検ツールのナビゲーションを容易にするための例示的なシステムの全体図である。システム100はさらに、2D蛍光透視画像から、ターゲット領域の蛍光透視ベース3次元容積測定データを構築するように構成され得る。システム100はさらに、電磁ナビゲーション気管支鏡検査(ENB)を使用することにより、ターゲット領域への医療デバイスの接近を容易にし、ターゲットに対する医療デバイスの位置を決定するように構成され得る。
システム100の一態様は、システム100とは別個に取得されたコンピュータ断層撮影(CT)画像データをレビューするためのソフトウェアコンポーネントである。CT画像データのレビューにより、ユーザが、1つ以上のターゲットを同定し、同定されたターゲットへの経路を計画し(計画段階)、ユーザインターフェースを使用してカテーテル102をターゲットまでナビゲートし(ナビゲーション段階)、ターゲットに対するセンサ104の配置を確認することが可能となる。1つのそのようなEMNシステムは、現在Medtronic PLCが販売しているELECTROMAGNETIC NAVIGATION BRONCHOSCOPY(登録商標)システムである。ターゲットは、計画段階中にCT画像データをレビューすることによって同定された関心対象組織であり得る。ナビゲーションに続いて、生検ツールまたは他のツールなどの医療デバイスをカテーテル102に挿入して、ターゲットにまたはそれに近接して位置する組織から組織サンプルを取得し得る。
図1に示したように、カテーテル102はカテーテルガイドアセンブリ106の一部である。実際には、カテーテル102は、患者Pの管腔網にアクセスするために気管支鏡108内に挿入される。具体的には、カテーテルガイドアセンブリ106のカテーテル102は、患者の管腔網を介してナビゲーションするために、気管支鏡108の作業チャネルに挿入され得る。センサ104を含む位置決定可能ガイド(LG)110が、カテーテル102に挿入され、センサ104がカテーテル102の遠位先端を越えて所望の距離だけ延びるような位置にロックされる。電磁場内での基準座標系、したがってカテーテル102の遠位部分に対するセンサ104の位置および配向を導出することができる。カテーテルガイドアセンブリ106は現在、SUPDERDIMENSION(登録商標)Procedure KitsまたはEDGE(商標)Procedure Kitsのブランド名でMedtronic PLCにより市販化および販売されており、本開示とともに使用可能であると考えられる。
システム100は一般に、患者Pを支持するように構成された手術台112と、患者Pの口を通して患者Pの気道に挿入するように構成された気管支鏡108と、気管支鏡108に連結されたモニタリング機器114(例えば、気管支鏡108のビデオ画像化システムから受信したビデオ画像を表示するためのビデオディスプレイ)と、位置決定モジュール116、複数の基準センサ18、および複数の組み込まれたマーカーを含む送信機マット120を含む位置決定または追跡システム114と、ターゲットの同定、ターゲットへの経路計画、ターゲットまでの医療デバイスのナビゲーション、および/またはターゲットに対する、カテーテル102もしくはそれを通る適切なデバイスの配置の確認および/または決定を容易にするために使用されるソフトウェアおよび/またはハードウェアを含むコンピューティングデバイス122とを含む。コンピューティングデバイス122は、図10のワークステーション1001と同様であり得、図9の方法を含む本開示の方法を実行するように構成され得る。
患者Pの蛍光透視またはX線の画像またはビデオを取得することができる蛍光透視撮像装置124も、システム100のこの特定の態様に含まれる。蛍光透視撮像装置124によって撮影された画像、一連の画像、またはビデオは、蛍光透視撮像装置124内に記憶されるか、または記憶、処理、および表示のためにコンピューティングデバイス122に送信され得る。さらに、蛍光透視撮像装置124は、患者Pに対して移動して、患者Pに対して異なる角度または視点から画像を取得して、蛍光透視ビデオなどの一連の蛍光透視画像を作成し得る。画像を撮影している間の患者Pに対する蛍光透視撮像装置124の姿勢は、送信機マット120に組み込まれたマーカーを介して推定され得る。マーカーは、患者Pの下方、患者Pと手術台112との間、および患者Pと蛍光透視撮像装置124の放射線源または検知ユニットとの間に配置されている。送信機マット120に組み込まれたマーカーは、2つの別個の要素であり得、それらは一定の方法で連結されてもよいし、または単一ユニットとして製造されてもよい。蛍光透視撮像装置124は、単一の撮像装置または複数の撮像装置を含み得る。
コンピューティングデバイス122は、プロセッサおよび記憶媒体を含む任意の適切なコンピューティングデバイスであり得、プロセッサは、記憶媒体に記憶された命令を実行することができる。コンピューティングデバイス122は、患者データと、CT画像を含むCTデータセットと、蛍光透視画像およびビデオを含む蛍光透視データセットと、蛍光透視3D復元体と、ナビゲーション計画と、任意の他のそのようなデータとを格納するように構成されたデータベースをさらに含み得る。明示的に示されていないが、コンピューティングデバイス122は、入力部を含み得るか、またはCTデータセット、蛍光透視画像/ビデオ、および本明細書に記載の他のデータを受信するように別様に構成され得る。さらに、コンピューティングデバイス122は、グラフィカルユーザインターフェースを表示するように構成されたディスプレイを含む。コンピューティングデバイス122は、1つ以上のネットワークに接続され得、それを通して1つ以上のデータベースがアクセスされ得る。
計画段階に関して、コンピューティングデバイス122は、患者Pの気道の3次元モデルまたはレンダリングを生成および目視するために従前に取得されたCT画像データを利用し、(自動、半自動、または手動で)3次元モデル上のターゲットの同定を可能にし、かつ患者Pの気道を通ってターゲットおよびその周囲にある組織に至る経路を決定することができる。より具体的には、従前のCTスキャンから取得されたCT画像を処理し、3次元CT容量体に組み入れ、次いで、それを利用して患者Pの気道の3次元モデルを生成する。3次元モデルは、コンピューティングデバイス122に関連付けられたディスプレイ上に、または任意の他の適切な方法で、表示され得る。コンピューティングデバイス122を使用して、3次元モデルのさまざまなビュー、または3次元モデルから生成された増強2次元画像が呈示される。増強2次元画像は、3次元データから生成されるため、いくつかの3次元機能を所有し得る。3次元モデルを操作して、3次元モデルまたは2次元画像上のターゲットの同定を容易し得、ターゲットに位置する組織にアクセスするための、患者Pの気道を通る適切な経路の選択が行い得る。一旦選択されると、経路計画、3次元モデル、およびそこから導出された画像は保存され、ナビゲーション段階で使用するためにナビゲーションシステムにエクスポートされ得る。1つのそのような計画ソフトウェアは、現在Medtronic PLCが販売しているILOGIC(登録商標)計画スイートである。
ナビゲーション段階に関して、6自由度の電磁位置特定または追跡システム114、または位置を決定するための他の適切なシステムが、画像とナビゲーションのための経路との位置合わせを実行するために利用されるが、他の構成も考えられる。追跡システム114は、追跡モジュール116と、複数の基準センサ118と、(マーカーを含む)送信機マット120とを含む。追跡システム114は、位置決定可能ガイド110、特にセンサ104とともに使用するように構成されている。上述したように、位置決定可能ガイド110およびセンサ104は、(気管支鏡108の有無にかかわらず)カテーテル102を通して患者Pの気道に挿入するように構成され、ロック機構を介して互いに対して選択的にロック可能である。
送信機マット120は、患者Pの真下に配置される。送信機マット120は、患者Pの少なくとも一部分の周りに電磁場を生成し、その中で、複数の基準センサ118およびセンサ104の位置を追跡モジュール116を使用して決定することができる。第2の電磁センサ126もカテーテル102の端部に組み込まれ得る。第2の電磁センサ126は、5自由度のセンサまたは6自由度のセンサであり得る。1つ以上の基準センサ118が患者Pの胸部に取り付けられる。基準センサ118の6自由度の座標は、(適切なソフトウェアを含む)コンピューティングデバイス122に送られ、そこで患者の基準座標フレームを計算するために使用される。一般に、位置合わせが実行され、気管支鏡108を通して観察しながら患者Pの気道について、計画段階からの3次元モデルおよび2次元画像の位置を調整し、気管支鏡108が到達できない気道の部分でさえ、センサ104の位置の正確な知識でナビゲーション段階が行われることを可能にする。
送信機マット120上の患者Pの位置の位置合わせは、患者Pの気道を通してセンサ104を動かすことにより実行され得る。より具体的には、位置決定可能ガイド110が気道中を移動している間、センサ104の位置に関するデータが、送信機マット120、基準センサ118、および追跡システム114を使用して記録される。この位置データから生じる形状が、計画段階で生成された3次元モデルの通路の内部ジオメトリと比較され、比較に基づく形状と3次元モデルとの位置相関が、例えばコンピューティングデバイス122上のソフトウェアを利用して決定される。さらに、ソフトウェアは、3次元モデル内の非組織空間(例えば、空気で満たされた空洞)を同定する。ソフトウェアは、センサ104の位置を表す画像を、3次元モデルおよび/または3次元モデルから生成された2次元画像と位置揃えまたは位置合わせするが、それは、記録された位置データと、位置決定可能ガイド110が患者Pの気道内の非組織空間に位置したままであるという仮定とに基づく。あるいは、気管支鏡108をセンサ104を用いて患者Pの肺内の事前に指定された位置までナビゲートし、気管支鏡からの画像を3次元モデルのモデルデータに手動で相関させることにより、手動位置合わせ技術が採用され得る。
本明細書ではEMセンサを使用するEMNシステムに関して説明されているが、本開示はそのように限定されず、可撓性センサ、超音波センサとともに、またはセンサなしで使用され得る。さらに、本明細書に記載の方法は、ロボットアクチュエータがカテーテル102または気管支鏡108をターゲットの近くで駆動するなど、ロボットシステムと併用され得る。
画像データおよび経路計画への患者Pの位置合わせに続いて、ユーザインターフェースが、臨床医がターゲットに到達するためにたどる経路を設定するナビゲーションソフトウェアにおいて表示される。カテーテル102が、ユーザインターフェースに描かれているようにターゲットの近くに首尾よくナビゲートされると、位置決定可能ガイド110がカテーテル102からロック解除されて取り外され、カテーテル102を、限定的ではないが、光学システム、超音波プローブ、マーカー配置ツール、生検ツール、アブレーションツール(すなわち、マイクロ波アブレーションデバイス)、レーザープローブ、極低温プローブ、センサプローブ、およびターゲットへの吸引針を含む、医療デバイスを誘導するための誘導チャネルとして、所定位置に残す。次いで、医療デバイスが、カテーテル102を通して挿入され、ターゲットまたはターゲットに隣接する特定の領域までナビゲートされ得る。
カテーテル102を通して医療デバイスを挿入する前に、CTから体への逸脱を低減するために、各ターゲットに対して局所位置合わせプロセスが実行され得る。局所位置合わせプロセスの撮影段階では、一連の蛍光透視画像が、任意選択でユーザによって、コンピューティングデバイス122を介して表示される指示に従って、蛍光透視撮像装置124を介して撮影および取得され得る。次いで、蛍光透視3D復元体がコンピューティングデバイス122を介して生成され得る。蛍光透視3D復元体の生成は、一連の蛍光透視画像と、一連の画像上の送信機マット120に組み込まれたマーカーの構造の投影とに基づく。次いで、3D復元体の1つ以上のスライスが、術前のCTスキャンに基づいて、コンピューティングデバイス122を介して、生成され得る。次いで、3D復元体および蛍光透視3D復元体の1つ以上のスライスが、任意選択で同時に、コンピューティングデバイス122を介してディスプレイ上にユーザに対して表示され得る。3D復元体のスライスは、ユーザがスライスを順次スクロールできるスクロール可能な形式でユーザインターフェースに呈示され得る。
局所位置合わせプロセスのマーキング段階では、臨床医は、3D復元体のスライスを基準として使用しながら、ターゲットを同定してマークするように指示され得る。また、ユーザは、一連の蛍光透視2D画像内のナビゲーションカテーテルの先端を同定してマークするように指示され得る。次いで、ターゲットの位置とナビゲーションカテーテル先端とのオフセットが、コンピュータデバイス122を介して決定または計算され得る。次いで、オフセットは、ディスプレイ上の(例えば、図4に示された「周辺ナビゲーション」タブ401を選択することによって見ることができる周辺ナビゲーション画面における)ナビゲーションカテーテルの位置および/または配向をターゲットに関して修正するため、および/またはターゲット領域内の3次元モデルと追跡システム114との位置合わせを修正するため、および/またはターゲット領域内の3次元モデルと蛍光透視3D復元体との間の局所位置合わせを生成するために、コンピューティングデバイス122を介して利用され得る。
局所位置合わせプロセスの確認段階では、蛍光透視3D復元体が、図2に示す確認画面202に表示される。確認画面202は、マークされたターゲットおよびナビゲーションカテーテル先端を異なる視点から示す蛍光透視3D復元体のビデオループをレビューするために、ユーザによって選択および移動され得るスライダ208を含む。ビデオ全体にわたってターゲットおよびナビゲーションカテーテル先端にマークがあることを確認した後、臨床医は「承認」ボタン210を選択し得、その時点で局所位置合わせプロセスが終了し、ナビゲーションカテーテルの位置が更新される。次いで、臨床医は、内視鏡処置を開始する前に、例えば図4に示す周辺ナビゲーション画面のナビゲーションビューを使用して、ターゲットに対するナビゲーションカテーテルの位置揃えを微調整し得る。
局所位置合わせプロセスの後、臨床医またはロボットは、カテーテル102に医療デバイスを挿入し、医療デバイスをターゲットに向かって前進させ得る。医療デバイスをターゲットに向かって前進させながら、臨床医は、(a)術前のCTスキャンに基づくターゲットの3Dモデルの3D医療デバイス先端ビューと、(b)ターゲットの3Dモデルに対応するターゲットマーカーが重ねられたライブ2D蛍光透視ビューとを含むユーザインターフェース画面を見ることができる。このユーザインターフェース画面は、臨床医が、医療デバイスをリアルタイムで見ることだけでなく、医療デバイスがターゲットと位置揃えされているか否かを確認することをも可能にする。ユーザインターフェース画面はまた、医療デバイスがターゲットと3次元で位置揃えされているか否かの図形的表示も提供し得る。例えば、医療デバイスがターゲットと3次元で位置揃えされている場合、ユーザインターフェースはターゲットオーバーレイを第1の色、例えば緑で示す。その一方、医療デバイスが3次元でターゲットと位置揃えされていない場合、ユーザインターフェースは、ターゲットオーバーレイを第1の色とは異なる第2の色、例えばオレンジまたは赤で示す。
図2は、局所位置合わせプロセスの確認段階中に現れる例示的な局所位置合わせユーザインターフェースの確認画面202の画面写真である。確認画面202は、局所位置合わせプロセスのマーキング段階中に臨床医によって従前にマーキングされたナビゲーションカテーテル先端マーク204およびターゲットマーク206を表示する。臨床医が「承認」ボタンを選択すると、図3のナビゲーションユーザインターフェースがポップアップメッセージ302とともに表示される。ポップアップメッセージ302は、臨床医が、ターゲットまでの医療デバイス、例えば生検ツールのナビゲーションを誘導するターゲットオーバーレイ機能を使用するか否かを選択できるようにするボタン304、306を含み得る。具体的には、臨床医は、ボタン304を選択してターゲットオーバーレイ機能を用いて続行してもよいし、ボタン306を選択してターゲットオーバーレイ機能を使用せずに続行してもよい。
臨床医がボタン306を選択すると、局所位置合わせプロセスを実行するに先立って従前に表示されていた図4のユーザインターフェース400の「周辺ナビゲーション」タブ401に関連付けられた周辺ナビゲーション画面が再表示され、位置合わせプロセスの結果として、ナビゲーションカテーテル先端405の位置および/または配向に対して、もしあれば、調整を示す。周辺ナビゲーション画面401は、ローカルCTビュー402、3Dナビゲーションカテーテル先端ビュー404、3Dマップビュー406、および気管支鏡ビュー408を含む。周辺ナビゲーション画面401はまた、ユーザが局所位置合わせを適用すること、および/または局所位置合わせを再起動することを可能にする局所位置合わせユーザ制御403も含む。ユーザインターフェース400は、「中央ナビゲーション」タブ411および「ターゲット位置揃え」タブ412も含み、これらは、中央ナビゲーションまたはターゲット位置揃えをそれぞれ実行するために個別に選択され得る。
臨床医がボタン304を選択すると、ユーザインターフェース400は、図5に示された周辺ナビゲーション画面および「ターゲットオーバーレイ」タブ502を表示する。ターゲットオーバーレイタブ502が選択されると、図6に見られるように、患者「P」内のカテーテル102のライブ蛍光透視ビュー602を含むターゲットオーバーレイ画面が表示される。
図7に示すように、ステップ702でのターゲット位置揃えタブ502の選択に続いて、ステップ704でライブ蛍光透視画像602(図6)が表示される。ライブ蛍光透視画像602が一旦表示されると、コンピューティングデバイス122は、ステップ706で、蛍光透視画像内のカテーテル102の先端604の位置のマーキングを要求し得る。代替として、先端602のマーキングは、画像分析アプリケーションによって自動的に実行されてもよいし、任意選択で、単に確認するためにユーザに提示されてもよい。例えば、これは、放射線不透過性カテーテルであろう、特定のしきい値のハウンズフィールド単位値を超える画像内のすべてのピクセルを同定することに基づき得る。カテーテル102を構成するピクセルのうちの最後の結合ピクセルは、カテーテル102の先端602である。もちろん、本開示の範囲から逸脱することなく、カテーテル102の先端602の検出に他のプロセスを使用し得る。
ステップ708では、蛍光透視画像602内のカテーテルの先端604の位置の受信に続いて、コンピューティングデバイスは、ライブ蛍光透視画像602および局所位置合わせプロセス中に取得された蛍光透視3D復元体の画像分析を実行する。ステップ708での画像処理は、ライブ2D蛍光透視画像602を蛍光透視3D復元体のスライスと比較して、最良の一致を決定する。この最良の一致は、ライブ蛍光透視画像内のカテーテル102の形状と比較したときの蛍光透視3D復元体のスライスの各々におけるカテーテル102の形状に基づき得る。追加で、または代替的に、最良の一致は、ライブ蛍光透視画像602内のカテーテル102の先端604のマークされた位置と、局所位置合わせプロセス中にマークされたものとに基づき得る。またさらに、コンピューティングデバイス122は、局所位置合わせの直後の追跡システム114によるカテーテル102の検出位置を、カテーテル102の現在の検出位置と比較し得る。これらの手法のいずれかを組み合わせて使用して、マッチングを支援し得る。
画像分析に続いて、コンピューティングデバイスは、図8に示すように、ステップ710で、局所位置合わせ中にカテーテル102に対する位置が決定されたターゲットの位置を表示し、ライブ蛍光透視画像602上にターゲットマーカー606を表示する。このターゲットマーカー606の位置は、蛍光透視3D復元体を採用する局所位置合わせプロセス中にマークされたターゲットの位置に基づく。
図8の例では、カテーテル102の先端604が、ライブ蛍光透視ビュー602に表示されているターゲットマーカー606と位置揃えされて示されている。さらに、医療デバイス先端ビュー608が、カメラがカテーテル102の先端604に配置されているかのようなビューを示している。医療デバイス先端ビュー608は、ターゲット606の3次元表示610を呈示している。カテーテル102の先端604がターゲットとほぼ位置揃えされている場合、ターゲットマーカー606は、第1の色(例えば、緑色)で表示され、ライブ蛍光透視ビュー602に重ねられ得る。その一方、カテーテル102の先端604がターゲットと位置揃えされていない場合(例えば、球状ターゲットが3Dナビゲーションカテーテル先端ビュー404の中央より右側に配置されている図4の3Dナビゲーションカテーテル先端ビュー404に示されているように)、ターゲットマーカー606は、異なる色、例えばオレンジまたは赤で表示され得る。同様に、カテーテル102の先端604がターゲットと位置揃えされていない医療デバイス先端ビュー608では、ターゲット606の3D表示610は画像内でずれて見え、そのビュー内には、その一部のみが見えるか、または全く見えない場合がある。さらに、カテーテル102の先端604とターゲットとの不揃いの重度に応じて、色は上述のように変化してもよい。
医療デバイス先端ビュー608は、カテーテル102の先端604とターゲットの中心との間の距離を示すテキストを表示するテキストボックス612も含み得る。実施形態では、コンピューティングデバイス122は、CTスキャンに基づき得、ターゲットを含む管腔網の3Dモデルと、ライブ蛍光透視ビューとを位置揃えさせるかまたはそれらの間の対応を見出だし、例えば、画像処理を使用して先端604とターゲットの3Dモデルの中心との距離を測定することにより、距離を計算し得る。3Dモデルとライブ蛍光透視ビューとの対応を見出す際に、局所位置合わせプロセスで生成およびマークされた蛍光透視3D復元体を使用し得る。実施形態では、距離は、ターゲットの中心または外縁から測定される。ターゲットオーバーレイ画面は、ターゲットオーバーレイ切り替えボタン614をさらに含み、選択されると、図8に示すようにターゲットマーカー606を表示するか、ターゲットマーカー606を表示しないかを切り替える。
図9は、医療デバイス先端がターゲットの近傍に運ばれた後、ターゲットへ向かう医療デバイス先端のナビゲーションを視覚化する例示的な方法900のフロー図である。ブロック901で、ターゲットに近接したナビゲーションに続いて、局所位置合わせプロセスが実行されて、ナビゲーション計画におけるカテーテル102の端部とターゲットとの相対位置が更新される。局所位置合わせに続いて、ブロック902で、コンピューティングデバイス122は、「ターゲットオーバーレイ」タブ502が選択されたか否かを判定する。「ターゲットオーバーレイ」タブ502が選択されると、コンピューティングデバイス122は、ブロック903で、ライブ蛍光透視画像内のカテーテル102の先端602と局所位置合わせプロセス中に同定されたターゲットとの相対位置を決定し、ライブ蛍光透視画像内の相対位置にターゲットを表示する。このプロセスは、例えば、図7に関して上述したステップを使用して実行される。
次に、コンピューティングデバイスは、ブロック904で、医療デバイス先端がターゲットと位置揃えされているか否かを判定する。コンピューティングデバイス122は、CTスキャンに基づき得、ターゲットを含む管腔網の3Dモデルと、ライブ蛍光透視ビューとを位置揃えさせるかまたはそれらの対応を見出し、そして、決定された位置揃えまたは対応に基づいて、医療デバイス先端がターゲットの3Dモデルと位置揃えされているか否かを判定し、例えば画像処理を適用することにより、医療デバイス先端がターゲットと位置揃えされているか否かを判定し得る。3Dモデルとライブ蛍光透視ビューとを位置揃えさせるかまたはそれらの対応を見出す際に、局所位置合わせプロセスで生成およびマークされた蛍光透視3D復元体を使用し得る。
コンピューティングデバイス122が、医療デバイス先端はターゲットと位置揃えされていると判定した場合、コンピューティングデバイス122は、ブロック906で、ターゲットマークの色を緑に設定し、そうでない場合、コンピューティングデバイス122は、ブロック908で、ターゲットマークの色をオレンジに設定する。ブロック910で、コンピューティングデバイス122は、ターゲットオーバーレイ画面に、少なくとも医療デバイスを示すライブ2D蛍光透視ビューを表示する。ブロック912で、コンピューティングデバイス122は、設定された色を有するターゲットマークをライブ2D蛍光透視ビュー上に重ねて表示する。ブロック914で、コンピューティングデバイス122は、同じターゲットオーバーレイ画面に、医療デバイス先端の視点からの、ターゲットマークに対応する3D仮想ターゲットを表示する。ブロック904〜914は、医療デバイス先端がターゲットの中心に配置されるまで、または生検または他の治療が完了するまで、繰り返され得る。この最終ナビゲーションにより、ユーザは、ターゲットがライブ画像上にマークされたライブ画像を得るための蛍光透視ナビゲーション技術を使用することができ、それで、ユーザは、医療デバイス先端がターゲットといかによく位置揃えされたか判断することができ、医療デバイス先端がターゲットに到達して、ターゲットのサンプルを採取したり、またはターゲットに治療を実行することが保証される。
本開示のさらなる態様では、局所位置合わせ(例えば、ステップ901)に続いて、コンピューティングデバイス122は、蛍光透視3D復元体の画像分析を行って、ターゲットオーバーレイタブに最適に連動し得るような蛍光透視撮像装置124の配置の角度を決定し得る。本開示のこの態様では、蛍光透視3D復元体の2つのスライスにおけるカテーテル102の先端の同定と、蛍光透視3D復元体におけるターゲットの同定および蛍光透視3D復元体におけるカテーテル102の先端とターゲットとの相対位置の決定とに続いて、コンピューティングデバイスは、3D復元体の画像分析を実行して、カテーテルおよびターゲットが見える3D復元体のスライスを決定する。これは、ターゲットおよびカテーテル102の両方が最も良く見えるか、またはある最小閾値を超えて最も良く見えるスライスであり得る。当業者は、カテーテルまたはターゲットのうちの一方または他方(または両方)が見えないスライスがあり、これらの画像は、この分析を実行するときにコンピューティングデバイス122によって無視される可能性が高いことを理解するであろう。
蛍光透視3D復元体の残りのスライスを分析した後、スライスのうちの1つは、カテーテル102およびターゲットの両方を最もはっきりと描写するものとして同定される。3D復元体のスライスが一旦決定されると、画像602などの対応する2D蛍光透視画像が撮影され得る蛍光透視撮像装置124の位置(例えば、患者Pまたは手術台112に対する角度)。この蛍光透視撮像装置124の位置は、「ターゲットオーバーレイ」タブ502に連動する前に、ユーザインターフェース上で臨床医に呈示され、蛍光透視撮像装置124をその位置まで手動で移動できる。あるいは、蛍光透視撮像装置124は、コンピューティングデバイス122によって決定された位置の表示を受け取り、蛍光透視撮像装置を自動的にその位置まで駆動し、そうして、ターゲットオーバーレイ」タブ502を選択すると、カテーテル102およびターゲットを見るために、蛍光透視画像602がこの事前に決定された最適位置で取得される。
本開示の別の態様は、蛍光透視撮像装置124に組み込まれ得るズーム機能の使用を可能にすることである。図6に示すように、ライブ2D蛍光透視画像602は、複数の放射線不透過性マーカー612を含む。これらの放射線不透過性マーカー612は、送信機マット120上に配置またはそこに埋め込まれ得る。放射線不透過性マーカー間の距離は固定されており、コンピューティングデバイス122によって知られている。放射線不透過性マーカー612間の距離は既知であるため、マーカーのうちのいずれかの間の距離が既知の距離を超えた場合、コンピューティングデバイス122は、蛍光透視撮像装置124のズーム機能が連動されていると判定できる。連動された正確なズーム量は、2D蛍光透視画像602内の放射線不透過性マーカー612の間隔を、送信機マット120内の放射線不透過性マーカー612の既知の間隔と比較することにより決定することができる。ズーム量が一旦決定されると、コンピューティングデバイスは、カテーテル102の先端604とターゲットとの相対位置のオフセットを計算でき、ターゲットマーカー606は、局所位置合わせプロセスが開始されたときから、ズームの変化にもかかわらず蛍光透視画像602内に正確に表示され得る。
ここで、図9の方法を含む本開示の方法で使用するように構成されたシステム1000の概略図である図10を参照する。システム1000は、ワークステーション1001と、任意選択で蛍光透視撮像装置または蛍光透視鏡1015とを含み得る。いくつかの実施形態では、ワークステーション1001は、例えば無線通信により、直接的または間接的に蛍光透視鏡1015と連結され得る。ワークステーション1001は、メモリ1002、プロセッサ1004、ディスプレイ1006、および入力デバイス1010を含み得る。プロセッサまたはハードウェアプロセッサ1004は、1つ以上のハードウェアプロセッサを含み得る。ワークステーション1001は、任意選択で、出力モジュール1012とネットワークインターフェース1008とを含み得る。メモリ1002は、アプリケーション1018および画像データ1014を格納し得る。アプリケーション1018は、図9の方法を含む本開示の方法を実行するためのプロセッサ1004によって実行可能な命令を含み得る。
アプリケーション1018は、ユーザインターフェース1016をさらに含み得る。画像データ1014は、CTスキャン、生成された、ターゲット領域の蛍光透視3D復元体および/または他の蛍光透視画像データおよび/または生成された、3D復元体の1つ以上のスライスを含み得る。プロセッサ1004は、メモリ1002、ディスプレイ1006、入力デバイス1010、出力モジュール1012、ネットワークインターフェース1008、および蛍光透視鏡1015と連結され得る。ワークステーション1001は、パーソナルコンピュータなどの固定式コンピューティングデバイス、またはタブレットコンピュータなどのポータブルコンピューティングデバイスであり得る。ワークステーション1001は、複数のコンピュータデバイスを埋め込み得る。
メモリ1002は、プロセッサ1004によって実行可能であり、ワークステーション1001の動作を制御し、いくつかの実施形態では蛍光透視鏡1015の動作も制御し得る命令を含むデータおよび/またはソフトウェアを格納するための任意の非一時的コンピュータ読み取り可能記憶媒体を含み得る。蛍光透視鏡1015を使用して、蛍光透視3D復元体がそれに基づいて生成される一連の蛍光透視画像を撮影し、かつ本開示に従ってライブ2D蛍光透視ビューを撮影し得る。一実施形態では、メモリ1002は、固体記憶装置、例えばフラッシュメモリチップなどの1つ以上の記憶装置を含み得る。代替として、または1つ以上の固体記憶装置に加えて、メモリ1002は、大容量記憶装置コントローラ(図示せず)および通信バス(図示せず)を介してプロセッサ1004に接続された1つ以上の大容量記憶装置を含み得る。
本明細書に含まれるコンピュータ読み取り可能媒体の説明は固体記憶装置に言及しているが、コンピュータ読み取り可能記憶媒体は、プロセッサ1004によってアクセスされ得る任意の利用可能な媒体であり得ることが当業者には理解されるべきである。すなわち、コンピュータ読み取り可能記憶媒体は、コンピュータ読み取り可能な命令、データ構造、プログラムモジュールまたは他のデータなどの情報を記憶するために、任意の方法または技術において実施される非一時的な揮発性の媒体、ならびに不揮発性で取り外し可能なおよび取り外し不可能な媒体を含み得る。例えば、コンピュータ読み取り可能記憶媒体には、RAM、ROM、EPROM、EEPROM、フラッシュメモリもしくは他の固体メモリ技術、CD−ROM、DVD、Blu−Rayもしくは他の光学記憶装置、磁気カセット、磁気テープ、磁気ディスクもしくは他の磁気記憶装置、または所望の情報を格納するために使用され得、かつワークステーション1001によってアクセスされ得る任意の他の媒体が含まれ得る。
アプリケーション1018は、プロセッサ1004によって実行されると、ディスプレイ1006にユーザインターフェース1016を呈示させ得る。ユーザインターフェース1016は、医療デバイスの先端の視点からのターゲットの3次元(3D)モデルの3Dビューと、医療デバイスを示すライブ2次元(2D)蛍光透視ビューと、例えば図7に示すように、ライブ2D蛍光透視ビュー上に重ねられた、ターゲットの3Dモデルに対応するターゲットマークとを含む単一の画面をユーザに呈示するように構成され得る。ユーザインターフェース1016はさらに、医療デバイス先端が3次元でターゲットと位置揃えされているか否かに応じて、ターゲットマークを異なる色で表示するように構成され得る。
ネットワークインターフェース1008は、有線ネットワークおよび/もしくは無線ネットワーク、広域ネットワーク(WAN)、無線モバイルネットワーク、Bluetooth(登録商標)ネットワークからなるローカルエリアネットワーク(LAN)、ならびに/またはインターネットなどのネットワークに接続するように構成され得る。ネットワークインターフェース1008を使用して、ワークステーション1001と蛍光透視鏡1015とを接続し得る。ネットワークインターフェース1008を使用して、画像データ1014を受信してもよい。入力デバイス1010は、例えば、マウス、キーボード、フットペダル、タッチスクリーン、および/または音声インターフェースなど、ユーザがワークステーション1001と対話し得る任意のデバイスであり得る。出力モジュール1012は、例えば、パラレルポート、シリアルポート、ユニバーサルシリアルバス(USB)、または当業者に周知の任意の他の同様の接続ポートなど、任意の接続ポートまたはバスを含み得る。前述から、およびさまざまな図を参照して、当業者は、本開示の範囲から逸脱することなく本開示に特定の修正を加えることができることを理解するであろう。
本明細書には詳細な実施形態が開示されているが、開示された実施形態は、本開示の単なる例であり、さまざまな形態および態様で実施され得る。例えば、ターゲットオーバーレイシステムおよび方法を組み込んだ電磁ナビゲーションシステムの実施形態が本明細書に開示されているが、但し、ターゲットオーバーレイシステムおよび方法は、当業者に周知の他のナビゲーションまたは追跡のシステムまたは方法に適用され得る。したがって、本明細書に開示された特定の構造および機能の詳細は、限定的として解釈されるべきではなく、単に特許請求の範囲の基礎として、および当業者に、事実上任意の適切に詳細な構造で本開示をさまざまに採用するよう教示するための代表的な基礎として解釈されるべきである。
本開示のいくつかの実施形態が図面に示されたが、本開示は当該技術分野で許容される程度に広範であり、本明細書も同様に読まれることが意図されるため、本開示がそれらに限定されることは意図されていない。したがって、上記の説明は、限定的として解釈されるべきではなく、単に実施形態の例示として解釈されるべきである。当業者は、本明細書に添付される特許請求の範囲および精神内で他の変更を想定するであろう。

Claims (20)

  1. ディスプレイと、
    前記ディスプレイに連結されたプロセッサと、
    前記プロセッサに連結され、その上に命令を格納したメモリとを備え、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、
    前記ディスプレイ上に、医療デバイスの先端の視点からのターゲットの3次元(3D)モデルの3Dビューを含む画面を表示することと、
    前記画面に、前記医療デバイスを示すライブ2次元(2D)蛍光透視ビューを表示することと、
    前記ターゲットの前記3Dモデルに対応するターゲットマークを、前記ライブ2D蛍光透視ビューに重ねて表示することと、をさせるシステム。
  2. 前記ターゲットの前記3Dモデルは、管腔網の3Dモデルから得られ、
    前記管腔網の前記3Dモデルは、前処理コンピュータ断層撮影画像データセットから生成される、請求項1に記載のシステム。
  3. 前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
    前記医療デバイス先端が前記ターゲットと位置揃えされていると判定することと、
    前記医療デバイス先端が前記ターゲットと位置揃えされていると判定したことに応答して、前記ターゲットマークを第1の色で表示することと、をさせる、請求項1に記載のシステム。
  4. 前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
    前記医療デバイス先端が前記ターゲットと位置揃えされていないと判定することと、
    前記医療デバイス先端が前記ターゲットと位置揃えされていないと判定したことに応答して、前記ターゲットマークを第2の色で表示することと、をさせる、請求項1に記載のシステム。
  5. 前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
    局所位置合わせプロセスのユーザ確認を受け取ったことに応答して、ターゲットオーバーレイを可能にするか否かを入力するようユーザに促すメッセージを表示することと、
    前記ターゲットオーバーレイを可能にするユーザ入力を受け取ったことに応答して、ナビゲーションユーザインターフェースにおいて、選択されると、前記画面が表示されるタブを表示することと、をさせる、請求項1に記載のシステム。
  6. 前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
    選択可能なボタンを表示することと、
    前記選択可能なボタンの選択を検出したことに応答して、前記ターゲットマークを前記ライブ2D蛍光透視ビューから削除することか、または
    前記選択可能なもののさらなる選択を検出したことに応答して、前記ターゲットマークを前記ライブ2D蛍光透視ビューに重ねて表示することと、をさせる、請求項1に記載のシステム。
  7. 前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
    前記医療デバイス先端と前記ターゲットとの間の距離を計算することと、
    前記計算された距離を、前記ターゲットの前記3Dモデルの前記3Dビュー内に表示することと、をさせる、請求項1に記載のシステム。
  8. 前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
    前記ターゲットの前記3Dモデルを含む管腔網の3Dモデルと、前記ライブ2D蛍光透視ビューとの対応を決定することをさせ、
    前記医療デバイス先端が前記ターゲットと位置揃えされていると判定することは、前記管腔網の3Dモデルと前記ライブ2D蛍光透視ビューとの前記決定された対応に基づいて実行される、請求項1に記載のシステム。
  9. 前記医療デバイス先端を含む領域の前記ライブ2D蛍光透視ビューを撮影するように構成された蛍光透視撮像装置をさらに備える、請求項1に記載のシステム。
  10. 前記医療デバイスを受容するように構成されたカテーテルをさらに備える、請求項1に記載のシステム。
  11. 管腔網内にナビゲートされた前記カテーテルの位置を追跡し、前記位置を前記管腔網の前記3Dモデルに対応させるように構成されたナビゲーションコンポーネントをさらに備える、請求項10に記載のシステム。
  12. 前記ナビゲーションコンポーネントは、電磁ナビゲーションシステムである、請求項11に記載のシステム。
  13. ターゲットに対して医療デバイスを視覚化する方法であって、
    画面に、医療デバイス先端の視点からのターゲットの3次元(3D)モデルの3Dビューを表示することと、
    前記画面に、医療デバイスを示すライブ2次元(2D)蛍光透視ビューを表示することと、
    前記ターゲットの前記3Dモデルに対応するターゲットマークを、前記ライブ2D蛍光透視ビューに重ねて表示することと、を含む方法。
  14. 前記医療デバイス先端が前記ターゲットと位置揃えされていると判定することと、
    前記医療デバイス先端が前記ターゲットと位置揃えされていると判定したことに応答して、前記ターゲットマークを第1の色で表示することと、
    前記医療デバイス先端が前記ターゲットと位置揃えされていないと判定することと、
    前記医療デバイス先端が前記ターゲットと位置揃えされていないと判定したことに応答して、前記ターゲットマークを第2の色で表示することと、をさらに含む、請求項13に記載の方法。
  15. 局所位置合わせプロセスのユーザ確認を受け取ったことに応答して、ターゲットオーバーレイを可能にするか否かを入力するようユーザに促すメッセージを表示することと、
    ターゲットオーバーレイを可能にするユーザ入力を受け取ったことに応答して、ナビゲーションユーザインターフェースにおいて、選択されると、前記画面が表示されるタブを表示することと、をさらに含む、請求項14に記載の方法。
  16. 選択可能なボタンを表示することと、
    前記選択可能なボタンの選択を検出したことに応答して、前記ターゲットマークを前記ライブ2D蛍光透視ビューから削除することか、または
    前記選択可能なもののさらなる選択を検出したことに応答して、前記ターゲットマークを前記ライブ2D蛍光透視ビューに重ねて表示することと、をさらに含む、請求項14に記載の方法。
  17. 前記医療デバイス先端と前記ターゲットとの間の距離を計算することと、
    前記計算された距離を、前記ターゲットの前記3Dモデルの前記3Dビュー内に表示することと、をさらに含む、請求項14に記載の方法。
  18. 前記ターゲットの前記3Dモデルを、管腔網の3Dモデルから得ることをさらに含む、請求項14に記載の方法。
  19. 前記管腔網の前記3Dモデルを、前処理コンピュータ断層撮影画像データセットから生成することをさらに含む、請求項18に記載の方法。
  20. 前記ターゲットの前記3Dモデルを含む管腔網の3Dモデルと、前記ライブ2D蛍光透視ビューとの対応を決定することをさらに含み、
    前記医療デバイス先端が前記ターゲットと位置揃えされていると判定することは、前記管腔網の前記3Dモデルと前記ライブ2D蛍光透視ビューとの前記決定された対応に基づいて実行される、請求項14に記載の方法。
JP2020014721A 2019-02-01 2020-01-31 ターゲットに対する医療デバイスのナビゲーションを視覚化するためのシステムおよび方法 Pending JP2020124501A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962800281P 2019-02-01 2019-02-01
US62/800,281 2019-02-01
US16/743,592 2020-01-15
US16/743,592 US11564751B2 (en) 2019-02-01 2020-01-15 Systems and methods for visualizing navigation of medical devices relative to targets

Publications (1)

Publication Number Publication Date
JP2020124501A true JP2020124501A (ja) 2020-08-20

Family

ID=69630117

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020014721A Pending JP2020124501A (ja) 2019-02-01 2020-01-31 ターゲットに対する医療デバイスのナビゲーションを視覚化するためのシステムおよび方法

Country Status (5)

Country Link
US (2) US11564751B2 (ja)
EP (1) EP3689285A1 (ja)
JP (1) JP2020124501A (ja)
CN (1) CN111568544A (ja)
AU (1) AU2020200740A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116322555A (zh) * 2020-08-13 2023-06-23 直观外科手术操作公司 警告和减轻解剖特征方位从之前图像到实时询问的偏差
CN113855287B (zh) * 2021-07-06 2023-09-26 上海优医基医疗影像设备有限公司 一种带评估种植精度的口腔种植手术机器人及控制方法
US11887306B2 (en) * 2021-08-11 2024-01-30 DePuy Synthes Products, Inc. System and method for intraoperatively determining image alignment
CN114041886A (zh) * 2021-10-26 2022-02-15 上海优医基医疗影像设备有限公司 一种磁导航口腔种植牙手术系统及方法
CN115068109B (zh) * 2022-06-13 2023-07-28 元化智能科技(深圳)有限公司 面向医疗手术导航的红外标靶识别方法和装置
WO2024006852A1 (en) * 2022-06-29 2024-01-04 Intuitive Surgical Operations, Inc. Systems and methods for determining a deployment location of a medical instrument
WO2024079639A1 (en) * 2022-10-14 2024-04-18 Covidien Lp Systems and methods for confirming position or orientation of medical device relative to target

Family Cites Families (109)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6413981B1 (en) 1999-08-12 2002-07-02 Ortho-Mcneil Pharamceutical, Inc. Bicyclic heterocyclic substituted phenyl oxazolidinone antibacterials, and related compositions and methods
US6472372B1 (en) 2000-12-06 2002-10-29 Ortho-Mcneil Pharmaceuticals, Inc. 6-O-Carbamoyl ketolide antibacterials
US20030013960A1 (en) 2001-05-29 2003-01-16 Makin Inder Raj. S. Guiding ultrasound end effector for medical treatment
US7607440B2 (en) 2001-06-07 2009-10-27 Intuitive Surgical, Inc. Methods and apparatus for surgical planning
JP2009500086A (ja) 2005-07-01 2009-01-08 ハンセン メディカル,インク. ロボットガイドカテーテルシステム
CN101325912B (zh) * 2005-12-15 2011-01-12 皇家飞利浦电子股份有限公司 用于在电生理标测和治疗期间显现心脏形态的系统和方法
US9055906B2 (en) 2006-06-14 2015-06-16 Intuitive Surgical Operations, Inc. In-vivo visualization systems
US8335359B2 (en) 2007-07-20 2012-12-18 General Electric Company Systems, apparatus and processes for automated medical image segmentation
US20090080737A1 (en) * 2007-09-25 2009-03-26 General Electric Company System and Method for Use of Fluoroscope and Computed Tomography Registration for Sinuplasty Navigation
US20180009767A9 (en) 2009-03-19 2018-01-11 The Johns Hopkins University Psma targeted fluorescent agents for image guided surgery
US10004387B2 (en) 2009-03-26 2018-06-26 Intuitive Surgical Operations, Inc. Method and system for assisting an operator in endoscopic navigation
US8706184B2 (en) 2009-10-07 2014-04-22 Intuitive Surgical Operations, Inc. Methods and apparatus for displaying enhanced imaging data on a clinical image
US9265468B2 (en) * 2011-05-11 2016-02-23 Broncus Medical, Inc. Fluoroscopy-based surgical device tracking method
US8900131B2 (en) 2011-05-13 2014-12-02 Intuitive Surgical Operations, Inc. Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery
US8827934B2 (en) 2011-05-13 2014-09-09 Intuitive Surgical Operations, Inc. Method and system for determining information of extrema during expansion and contraction cycles of an object
US20130303944A1 (en) 2012-05-14 2013-11-14 Intuitive Surgical Operations, Inc. Off-axis electromagnetic sensor
WO2013116140A1 (en) 2012-02-03 2013-08-08 Intuitive Surgical Operations, Inc. Steerable flexible needle with embedded shape sensing
EP2849669B1 (en) 2012-05-14 2018-11-28 Intuitive Surgical Operations Inc. Systems and methods for deformation compensation using shape sensing
WO2013173234A1 (en) 2012-05-14 2013-11-21 Intuitive Surgical Operations Systems and methods for registration of a medical device using rapid pose search
EP3524184B1 (en) 2012-05-14 2021-02-24 Intuitive Surgical Operations Inc. Systems for registration of a medical device using a reduced search space
US20130303945A1 (en) 2012-05-14 2013-11-14 Intuitive Surgical Operations, Inc. Electromagnetic tip sensor
US10039473B2 (en) 2012-05-14 2018-08-07 Intuitive Surgical Operations, Inc. Systems and methods for navigation based on ordered sensor records
US9429696B2 (en) 2012-06-25 2016-08-30 Intuitive Surgical Operations, Inc. Systems and methods for reducing measurement error in optical fiber shape sensors
US9801551B2 (en) 2012-07-20 2017-10-31 Intuitive Sugical Operations, Inc. Annular vision system
JP6074587B2 (ja) 2012-08-06 2017-02-08 株式会社Joled 表示パネル、表示装置ならびに電子機器
EP3679881A1 (en) 2012-08-14 2020-07-15 Intuitive Surgical Operations, Inc. Systems and methods for registration of multiple vision systems
CN108042092B (zh) 2012-10-12 2023-02-28 直观外科手术操作公司 确定医疗器械在分支解剖结构中的位置
US20140188440A1 (en) 2012-12-31 2014-07-03 Intuitive Surgical Operations, Inc. Systems And Methods For Interventional Procedure Planning
EP4049706A1 (en) 2013-03-15 2022-08-31 Intuitive Surgical Operations, Inc. Shape sensor systems for tracking interventional instruments and methods of use
CN114343608A (zh) 2013-07-29 2022-04-15 直观外科手术操作公司 具有冗余感测的形状传感器系统
EP3033132B1 (en) 2013-08-15 2021-01-06 Intuitive Surgical Operations, Inc. Graphical user interface for catheter positioning and insertion
US11166646B2 (en) 2013-08-15 2021-11-09 Intuitive Surgical Operations Inc. Systems and methods for medical procedure confirmation
CN111166274A (zh) 2013-10-24 2020-05-19 奥瑞斯健康公司 机器人辅助腔内外科手术系统及相关方法
CN105979899B (zh) 2013-12-09 2019-10-01 直观外科手术操作公司 用于设备感知柔性工具配准的系统和方法
WO2015101948A2 (en) 2014-01-06 2015-07-09 Body Vision Medical Ltd. Surgical devices and methods of use thereof
KR20210156301A (ko) 2014-02-04 2021-12-24 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 중재 도구의 가상 항행을 위한 조직의 비강체 변형을 위한 시스템 및 방법
US20150223765A1 (en) 2014-02-07 2015-08-13 Intuitive Surgical Operations, Inc. Systems and methods for using x-ray field emission to determine instrument position and orientation
EP3119321A4 (en) 2014-03-17 2017-12-06 Intuitive Surgical Operations, Inc. Surgical system including a non-white light general illuminator
US10912523B2 (en) 2014-03-24 2021-02-09 Intuitive Surgical Operations, Inc. Systems and methods for anatomic motion compensation
KR102397670B1 (ko) 2014-03-28 2022-05-16 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 정량적 3차원 영상화에 기초한 햅틱 피드백을 갖는 수술 시스템
KR20170038012A (ko) 2014-07-28 2017-04-05 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 수술중 세그먼트화를 위한 시스템 및 방법
WO2016018648A1 (en) 2014-07-28 2016-02-04 Intuitive Surgical Operations, Inc. Systems and methods for planning multiple interventional procedures
WO2016032846A1 (en) 2014-08-23 2016-03-03 Intuitive Surgical Operations, Inc. Systems and methods for display of pathological data in an image guided procedure
US10373719B2 (en) 2014-09-10 2019-08-06 Intuitive Surgical Operations, Inc. Systems and methods for pre-operative modeling
US10314513B2 (en) 2014-10-10 2019-06-11 Intuitive Surgical Operations, Inc. Systems and methods for reducing measurement error using optical fiber shape sensors
WO2016061431A1 (en) 2014-10-17 2016-04-21 Intuitive Surgical Operations, Inc. Systems and methods for reducing measurement error using optical fiber shape sensing
US20180263706A1 (en) 2014-10-20 2018-09-20 Body Vision Medical Ltd. Surgical devices and methods of use thereof
US9986983B2 (en) * 2014-10-31 2018-06-05 Covidien Lp Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same
JP7017931B2 (ja) 2014-11-13 2022-02-09 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 位置特定データをフィルタリングするシステム及び方法
US10512510B2 (en) 2014-12-22 2019-12-24 Intuitive Surgical Operations, Inc. Flexible electromagnetic sensor
KR102542190B1 (ko) 2015-04-06 2023-06-12 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 영상 안내 수술에서의 정합 보상의 시스템 및 방법
CN107660134B (zh) 2015-05-22 2021-06-29 直观外科手术操作公司 图像引导手术记录的系统和方法
US10674982B2 (en) * 2015-08-06 2020-06-09 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
CN108024699B (zh) 2015-08-14 2020-11-03 直观外科手术操作公司 用于图像引导外科手术的配准系统和方法
EP3334324B1 (en) 2015-08-14 2021-01-06 Intuitive Surgical Operations Inc. Systems and methods of registration for image-guided surgery
WO2017044874A1 (en) 2015-09-10 2017-03-16 Intuitive Surgical Operations, Inc. Systems and methods for using tracking in image-guided medical procedure
EP3349649B1 (en) 2015-09-18 2022-03-09 Auris Health, Inc. Navigation of tubular networks
US10405753B2 (en) 2015-11-10 2019-09-10 Intuitive Surgical Operations, Inc. Pharmaceutical compositions of near IR closed chain, sulfo-cyanine dyes
US11172895B2 (en) 2015-12-07 2021-11-16 Covidien Lp Visualization, navigation, and planning with electromagnetic navigation bronchoscopy and cone beam computed tomography integrated
EP3391030A4 (en) 2015-12-14 2019-06-12 Intuitive Surgical Operations Inc. APPARATUS AND METHOD FOR GENERATING ANATOMIC TARGET 3D DATA USING OPTICAL FIBER SHAPE DETECTION
US9996361B2 (en) 2015-12-23 2018-06-12 Intel Corporation Byte and nibble sort instructions that produce sorted destination register and destination index mapping
CN108024838B (zh) 2016-02-12 2021-10-01 直观外科手术操作公司 用于在图像引导手术中使用配准荧光透视图像的系统和方法
EP4375934A2 (en) 2016-02-12 2024-05-29 Intuitive Surgical Operations, Inc. Systems and methods of pose estimation and calibration of perspective imaging system in image guided surgery
US10674970B2 (en) 2016-03-10 2020-06-09 Body Vision Medical Ltd. Methods and systems for using multi view pose estimation
US10702137B2 (en) 2016-03-14 2020-07-07 Intuitive Surgical Operations, Inc.. Endoscopic instrument with compliant thermal interface
US20170296679A1 (en) 2016-04-18 2017-10-19 Intuitive Surgical Operations, Inc. Compositions of Near IR Closed Chain, Sulfo-Cyanine Dyes and Prostate Specific Membrane Antigen Ligands
WO2017218552A1 (en) 2016-06-15 2017-12-21 Intuitive Surgical Operations, Inc. Systems and methods of integrated real-time visualization
CN109414180B (zh) 2016-06-30 2022-01-07 直观外科手术操作公司 在图像引导程序期间以多种模式显示指导信息的图形用户界面
WO2018005861A1 (en) 2016-06-30 2018-01-04 Intuitive Surgical Operations, Inc. Graphical user interface for displaying guidance information during an image-guided procedure
CN109414155B (zh) 2016-08-16 2022-04-29 直观外科手术操作公司 使用第一和第二光纤感测柔性工具的形状
EP3503834B1 (en) 2016-08-23 2024-06-12 Intuitive Surgical Operations, Inc. Systems for monitoring patient motion during a medical procedure
US11980344B2 (en) 2016-09-21 2024-05-14 Intuitive Surgical Operations, Inc. Systems and methods for instrument buckling detection
US11219490B2 (en) 2016-09-30 2022-01-11 Intuitive Surgical Operations, Inc. Systems and methods for entry point localization
EP3529579B1 (en) 2016-10-21 2021-08-25 Intuitive Surgical Operations, Inc. Shape sensing with multi-core fiber sensor
JP7229155B2 (ja) 2016-11-02 2023-02-27 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 画像誘導手術のための連続的な位置合せのシステム及び方法
CN109922753B (zh) 2016-12-08 2023-04-14 直观外科手术操作公司 用于图像引导医疗程序中导航的系统和方法
JP7097883B2 (ja) 2016-12-09 2022-07-08 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 身体組織の熱流束分布感知のためのシステム及び方法
WO2018129532A1 (en) 2017-01-09 2018-07-12 Intuitive Surgical Operations, Inc. Systems and methods for registering elongate devices to three dimensional images in image-guided procedures
CN117717416A (zh) 2017-02-01 2024-03-19 直观外科手术操作公司 图像引导手术的配准系统和方法
US11882990B2 (en) 2017-02-01 2024-01-30 Intuitive Surgical Operations, Inc Systems and methods for data filtering of passageway sensor data
EP3576598B1 (en) 2017-02-01 2024-04-24 Intuitive Surgical Operations, Inc. System of registration for image-guided procedures
WO2018183727A1 (en) 2017-03-31 2018-10-04 Auris Health, Inc. Robotic systems for navigation of luminal networks that compensate for physiological noise
WO2018195221A1 (en) 2017-04-18 2018-10-25 Intuitive Surgical Operations, Inc. Graphical user interface for planning a procedure
EP3612121A4 (en) 2017-04-18 2021-04-07 Intuitive Surgical Operations, Inc. GRAPHIC USER INTERFACE TO MONITOR AN IMAGE GUIDED PROCEDURE
WO2018215832A2 (en) 2017-05-24 2018-11-29 Dorian Averbuch Methods for using radial endobronchial ultrasound probes for three-dimensional reconstruction of images and improved target localization
US10022192B1 (en) 2017-06-23 2018-07-17 Auris Health, Inc. Automatically-initialized robotic systems for navigation of luminal networks
EP3641686A4 (en) 2017-06-23 2021-03-24 Intuitive Surgical Operations, Inc. SYSTEMS AND PROCEDURES FOR NAVIGATION TO A DESTINATION DURING A MEDICAL OPERATION
CN116725667A (zh) 2017-06-28 2023-09-12 奥瑞斯健康公司 提供定位信息的系统和在解剖结构内定位器械的方法
KR102578978B1 (ko) 2017-06-28 2023-09-19 아우리스 헬스, 인코포레이티드 전자파 왜곡 검출
US10699448B2 (en) 2017-06-29 2020-06-30 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
US12004830B2 (en) 2017-08-16 2024-06-11 Intuitive Surgical Operations , Inc. Systems and methods for monitoring patient motion during a medical procedure
US10555778B2 (en) 2017-10-13 2020-02-11 Auris Health, Inc. Image-based branch detection and mapping for navigation
US11058493B2 (en) 2017-10-13 2021-07-13 Auris Health, Inc. Robotic system configured for navigation path tracing
CN110831534B (zh) 2017-12-08 2023-04-28 奥瑞斯健康公司 用于医疗仪器导航和瞄准的系统和方法
KR20200100613A (ko) 2017-12-14 2020-08-26 아우리스 헬스, 인코포레이티드 기구 위치 추정을 위한 시스템 및 방법
US11160615B2 (en) 2017-12-18 2021-11-02 Auris Health, Inc. Methods and systems for instrument tracking and navigation within luminal networks
US10885630B2 (en) 2018-03-01 2021-01-05 Intuitive Surgical Operations, Inc Systems and methods for segmentation of anatomical structures for image-guided surgery
US20190298451A1 (en) 2018-03-27 2019-10-03 Intuitive Surgical Operations, Inc. Systems and methods for delivering targeted therapy
US10827913B2 (en) 2018-03-28 2020-11-10 Auris Health, Inc. Systems and methods for displaying estimated location of instrument
JP7214747B2 (ja) 2018-03-28 2023-01-30 オーリス ヘルス インコーポレイテッド 位置センサの位置合わせのためのシステム及び方法
KR102499906B1 (ko) 2018-05-30 2023-02-16 아우리스 헬스, 인코포레이티드 위치 센서-기반 분지부 예측을 위한 시스템 및 방법
KR102455671B1 (ko) 2018-05-31 2022-10-20 아우리스 헬스, 인코포레이티드 이미지-기반 기도 분석 및 매핑
WO2019231891A1 (en) 2018-05-31 2019-12-05 Auris Health, Inc. Path-based navigation of tubular networks
WO2020028603A2 (en) 2018-08-01 2020-02-06 Sony Interactive Entertainment LLC Player induced counter-balancing of loads on a character in a virtual environment
US11080902B2 (en) 2018-08-03 2021-08-03 Intuitive Surgical Operations, Inc. Systems and methods for generating anatomical tree structures
CA3109584A1 (en) 2018-08-13 2020-02-20 Body Vision Medical Ltd. Methods and systems for multi view pose estimation using digital computational tomography
US11896316B2 (en) 2018-08-23 2024-02-13 Intuitive Surgical Operations, Inc. Systems and methods for generating anatomic tree structures using backward pathway growth
US11637378B2 (en) 2018-11-02 2023-04-25 Intuitive Surgical Operations, Inc. Coiled dipole antenna
US11633623B2 (en) 2019-04-19 2023-04-25 University Of Maryland, Baltimore System and method for radiation therapy using spatial-functional mapping and dose sensitivity of branching structures and functional sub-volumes

Also Published As

Publication number Publication date
CN111568544A (zh) 2020-08-25
EP3689285A1 (en) 2020-08-05
US20230172670A1 (en) 2023-06-08
AU2020200740A1 (en) 2020-08-20
US20200246079A1 (en) 2020-08-06
US11564751B2 (en) 2023-01-31

Similar Documents

Publication Publication Date Title
US11925493B2 (en) Visualization, navigation, and planning with electromagnetic navigation bronchoscopy and cone beam computed tomography integrated
US11341692B2 (en) System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
US11576588B2 (en) Method of using lung airway carina locations to improve ENB registration
US11564751B2 (en) Systems and methods for visualizing navigation of medical devices relative to targets
EP3500159B1 (en) System for the use of soft-point features to predict respiratory cycles and improve end registration
EP3689244B1 (en) Method for displaying tumor location within endoscopic images
US11950950B2 (en) Zoom detection and fluoroscope movement detection for target overlay
EP3607906A1 (en) Identification and notification of tool displacement during medical procedure
US20240215963A1 (en) System for fluoroscopic tracking of a catheter to update the relative position of a target and the catheter in a 3d model of a luminal network
US20240206980A1 (en) Volumetric filter of fluoroscopic sweep video
WO2024079584A1 (en) Systems and methods of moving a medical tool with a target in a visualization or robotic system for higher yields
WO2024079627A1 (en) Systems and methods of detecting and correcting for patient and/or imaging system movement for target overlay

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200318