JP2020124501A - ターゲットに対する医療デバイスのナビゲーションを視覚化するためのシステムおよび方法 - Google Patents
ターゲットに対する医療デバイスのナビゲーションを視覚化するためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2020124501A JP2020124501A JP2020014721A JP2020014721A JP2020124501A JP 2020124501 A JP2020124501 A JP 2020124501A JP 2020014721 A JP2020014721 A JP 2020014721A JP 2020014721 A JP2020014721 A JP 2020014721A JP 2020124501 A JP2020124501 A JP 2020124501A
- Authority
- JP
- Japan
- Prior art keywords
- target
- medical device
- model
- displaying
- live
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 101
- 238000002591 computed tomography Methods 0.000 claims description 43
- 230000004044 response Effects 0.000 claims description 35
- 230000008569 process Effects 0.000 claims description 29
- 238000012790 confirmation Methods 0.000 claims description 14
- 238000001574 biopsy Methods 0.000 description 14
- 239000003550 marker Substances 0.000 description 12
- 230000000875 corresponding effect Effects 0.000 description 11
- 238000002594 fluoroscopy Methods 0.000 description 10
- 210000004072 lung Anatomy 0.000 description 10
- 210000001519 tissue Anatomy 0.000 description 10
- 230000002093 peripheral effect Effects 0.000 description 7
- 210000004872 soft tissue Anatomy 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 239000000523 sample Substances 0.000 description 6
- 238000010191 image analysis Methods 0.000 description 5
- 230000003902 lesion Effects 0.000 description 5
- 238000002679 ablation Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000001727 in vivo Methods 0.000 description 3
- 238000002595 magnetic resonance imaging Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- 238000013276 bronchoscopy Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000005672 electromagnetic field Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000002216 heart Anatomy 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 210000000621 bronchi Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 210000000232 gallbladder Anatomy 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000005865 ionizing radiation Effects 0.000 description 1
- 210000003734 kidney Anatomy 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000002324 minimally invasive surgery Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 238000012285 ultrasound imaging Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/90—Identification means for patients or instruments, e.g. tags
- A61B90/92—Identification means for patients or instruments, e.g. tags coded with colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00743—Type of operation; Specification of treatment sites
- A61B2017/00809—Lung operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/102—Modelling of surgical devices, implants or prosthesis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/108—Computer aided selection or customisation of medical implants or cutting guides
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2072—Reference field transducer attached to an instrument or patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/252—User interfaces for surgical systems indicating steps of a surgical procedure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
- A61B2090/3762—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3966—Radiopaque markers visible in an X-ray image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
- G06T2207/10121—Fluoroscopy
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Robotics (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Radiology & Medical Imaging (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Pathology (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Radar, Positioning & Navigation (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Remote Sensing (AREA)
- Gynecology & Obstetrics (AREA)
- Human Computer Interaction (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Surgical Instruments (AREA)
Abstract
【課題】ライブ蛍光透視ビューを使用して、ターゲットに対する医療デバイスのナビゲーションを視覚化するためのシステムおよび方法の提供。【解決手段】方法は、画面に、医療デバイス先端の視点からのターゲットの3次元(3D)モデルの3Dビューを表示することを含む。方法はまた、画面に、医療デバイスを示すライブ2次元(2D)蛍光透視ビューを表示することと、ターゲットの3Dモデルに対応するターゲットマークを、ライブ2D蛍光透視ビューに重ねて表示することと、をも含む。方法は、医療デバイス先端がターゲットと位置揃えされているか否かを判定することと、医療デバイス先端がターゲットと位置揃えされている場合、ターゲットマークを第1の色で表示することと、医療デバイス先端がターゲットと位置揃えされていない場合、ターゲットマークを第1の色とは異なる第2の色で表示することと、を含み得る。【選択図】なし
Description
本開示は、ターゲットに対する生検またはアブレーションツールなどの医療デバイスのナビゲーションを視覚化する分野に関する。
肝臓、脳、心臓、肺、胆嚢、腎臓、および骨を含む臓器に影響を及ぼすさまざまな病気を治療するために、内視鏡処置や低侵襲処置など、一般的に適用される医療方法がいくつかある。多くの場合、磁気共鳴画像法(MRI)、超音波画像法、コンピュータ断層撮影法(CT)、または蛍光透視法などの1つ以上の画像診断法が、患者内の関心対象領域、最終的には生検または治療のターゲットを同定し、そこまでナビゲートするために、臨床医によって採用される。いくつかの処置では、術前スキャンが、ターゲット同定と術中ガイダンスに利用され得る。しかしながら、ターゲット領域のより正確な現在画像を取得するには、リアルタイム画像化が必要となる場合がある。さらに、(例えば、他の臓器または組織に損傷を惹起することなく)安全かつ正確な方法で医療デバイスをターゲットまでナビゲートするために、ターゲットおよびその周囲に対する医療デバイスの現在位置を表示するリアルタイム画像データが必要となる場合がある。
例えば、内視鏡アプローチは、患者内の関心対象領域までナビゲートするのに有用であり、肺など、体の管腔網内の領域に対して特にそうであることが証明されている。内視鏡アプローチ、より具体的には肺の気管支鏡アプローチを可能にするために、従前に取得したMRIデータまたはCT画像データを使用して、肺などの特定の体の部分の3次元(3D)レンダリング、モデル、または容量体を生成する気管支内ナビゲーションシステムが開発された。
次いで、MRIスキャンまたはCTスキャンから生成された出来上がりの容量体を利用して、ナビゲーションカテーテル(または他の適切な医療デバイス)を気管支鏡および患者の気管支の分枝を通して関心対象領域まで前進させることを容易にするナビゲーション計画を作成する。電磁(EM)追跡システムなどの位置特定または追跡システムを、例えばCTデータと併せて利用して、ナビゲーションカテーテルを気管支の分枝を通して関心対象領域まで誘導することを容易にし得る。特定の例では、ナビゲーションカテーテルは、1つ以上の医療器具にアクセスを提供するために、関心対象領域に隣接するかまたは関心対象領域内の枝分かれした管腔網の気道のうちの1つ内に配置され得る。
しかしながら、CTスキャンなどの従前に取得されたスキャンから生成された患者の肺の3D容量体は、ナビゲーション処置中に医療デバイスまたは機器をターゲットまで正確に誘導するための十分な基盤を提供しない場合がある。場合によっては、不正確さは、従前に取得されたCTデータの取得時の肺に対する処置中の患者の肺の変形によって惹起される。この変形(CTから体への逸脱)は、例えば、鎮静状態と非鎮静状態との間の移行時の体の変化、気管支鏡が患者の姿勢を変えること、気管支鏡が組織を押圧すること、異なる肺容量(例えば、CTスキャンは吸入中に取得され、ナビゲーションは呼吸中に実行される)、異なるベッド、異なる日などを含む、多くの異なる要因によって惹起され得る。
したがって、医療デバイスおよびターゲットをリアルタイムで視覚化し、生体内ナビゲーション処置を強化するには、別の画像診断法が必要である。さらに、例えば生検や治療のために、医療デバイスを遠隔のターゲットまで正確かつ安全にナビゲートするためには、医療デバイスおよびターゲットの両方が誘導システムにおいて可視であるべきである。
本開示は、ライブ2D蛍光透視ビューを使用して、ターゲットに対する医療デバイスの体内ナビゲーションを視覚化するためのシステムおよび方法に関する。1つの一般的な態様は、ディスプレイと、ディスプレイに連結されたプロセッサと、プロセッサに連結され、その上に命令を格納したメモリとを含み、命令は、プロセッサによって実行されると、プロセッサに、ディスプレイ上に、医療デバイスの先端の視点からのターゲットの3次元(3D)モデルの3Dビューを含む画面を表示することと、画面に、医療デバイスを示すライブ2次元(2D)蛍光透視ビューを表示することと、ターゲットの3Dモデルに対応するターゲットマークをライブ2D蛍光透視ビューに重ねて表示することと、をさせるシステムを含む。
実施には、次の機能のうちの1つ以上が含まれ得る。医療デバイスが生検ツール、アブレーションツール、または組織を治療するツールであるシステム。ターゲットの3Dモデルが管腔網の3Dモデルから得られるシステム。管腔網の3Dモデルが前処理コンピュータ断層撮影画像データセットから生成されるシステム。命令が、プロセッサによって実行されると、プロセッサにさらに、医療デバイス先端がターゲットと位置揃えされていると判定させるシステム。医療デバイス先端がターゲットと位置揃えされていると判定したことに応答して、ターゲットマークが第1の色で表示されるシステム。命令が、プロセッサによって実行されると、プロセッサにさらに、医療デバイス先端がターゲットと位置揃えされていないと判定させるシステム。医療デバイス先端がターゲットと位置揃えされていないと判定したことに応答して、ターゲットマークが第1の色とは異なる第2の色で表示されるシステム。実施形態では、第1の色は緑であり得、第2の色はオレンジまたは赤であり得る。
命令が、プロセッサによって実行されると、プロセッサにさらに、蛍光透視画像内のターゲットマーキングのユーザ確認を受け取ったことに応答して、画面をナビゲーションユーザインターフェースに追加するか否かを入力するようユーザに促すメッセージを表示させるシステム。命令が、プロセッサによって実行されると、プロセッサにさらに、画面をナビゲーションユーザインターフェースに追加するユーザ入力を受け取ったこと応答して、ナビゲーションユーザインターフェースに、選択されると、画面が表示されるタブを表示させるシステム。
命令が、プロセッサによって実行されると、プロセッサにさらに、選択可能なボタンを表示させるシステム。選択可能なボタンの選択を検出したことに応答して、ターゲットマークがライブ2D蛍光透視ビューから削除されるシステム。命令が、プロセッサによって実行されると、プロセッサにさらに、選択可能なもののさらなる選択を検出したことに応答して、ターゲットマークをライブ2D蛍光透視ビューに重ねて表示させるシステム。命令が、プロセッサによって実行されると、プロセッサにさらに、医療デバイス先端とターゲットとの間の距離を計算させるシステム。計算された距離がターゲットの3Dモデルの3Dビュー内に表示されるシステム。命令が、プロセッサによって実行されると、プロセッサにさらに、ターゲットの3Dモデルを含む管腔網の3Dモデルとライブ2D蛍光透視ビューとの対応を決定させ、管腔網の3Dモデルとライブ2D蛍光透視ビューとの決定された対応に基づいて、医療デバイス先端がターゲットと位置揃えされていると判定させるシステム。蛍光透視撮像装置が、医療デバイス先端を含む領域のライブ2D蛍光透視ビューを撮影するように構成されているシステム。
命令が、プロセッサによって実行されると、プロセッサにさらに、選択可能なボタンを表示させるシステム。選択可能なボタンの選択を検出したことに応答して、ターゲットマークがライブ2D蛍光透視ビューから削除されるシステム。命令が、プロセッサによって実行されると、プロセッサにさらに、選択可能なもののさらなる選択を検出したことに応答して、ターゲットマークをライブ2D蛍光透視ビューに重ねて表示させるシステム。命令が、プロセッサによって実行されると、プロセッサにさらに、医療デバイス先端とターゲットとの間の距離を計算させるシステム。計算された距離がターゲットの3Dモデルの3Dビュー内に表示されるシステム。命令が、プロセッサによって実行されると、プロセッサにさらに、ターゲットの3Dモデルを含む管腔網の3Dモデルとライブ2D蛍光透視ビューとの対応を決定させ、管腔網の3Dモデルとライブ2D蛍光透視ビューとの決定された対応に基づいて、医療デバイス先端がターゲットと位置揃えされていると判定させるシステム。蛍光透視撮像装置が、医療デバイス先端を含む領域のライブ2D蛍光透視ビューを撮影するように構成されているシステム。
システムは、医療デバイスを受容するように構成されたカテーテルをさらに含み得る。システムは、管腔網内にナビゲートされた拡張作業チャネルの位置を追跡し、その位置を管腔網の3Dモデルに対応させるように構成されたナビゲーションコンポーネントをさらに含み得る。ナビゲーションコンポーネントが電磁ナビゲーションシステムであるシステム。説明したシステムの実施には、ハードウェア、方法もしくはプロセス、またはコンピュータアクセス可能媒体上のコンピュータソフトウェアが含まれ得る。
別の一般的な態様は、ターゲットに対して医療デバイスを視覚化する方法を含み、画面に、医療デバイス先端の視点からのターゲットの3次元(3D)モデルの3Dビューを表示する。方法はまた、画面に、医療デバイスを示すライブ2次元(2D)蛍光透視ビューを表示することも含む。方法はまた、ターゲットの3Dモデルに対応するターゲットマークをライブ2D蛍光透視ビューに重ねて表示することも含む。この態様の他の実施形態は、各々が方法の動作を実行するように構成された、対応するコンピュータシステム、装置、および1つ以上のコンピュータ記憶装置に記録されたコンピュータプログラムを含む。
実施には、次の機能のうちの1つ以上が含まれ得る。方法は、医療デバイス先端がターゲットと位置揃えされていると判定することをさらに含み得る。方法はまた、医療デバイス先端がターゲットと位置揃えされていると判定したことに応答して、ターゲットマークを第1の色で表示することも含み得る。方法は、医療デバイス先端がターゲットと位置揃えされていないと判定することと、医療デバイス先端がターゲットと位置揃えされていないと判定したことに応答して、ターゲットマークを第1の色とは異なる第2の色で表示することと、をさらに含み得る。第1の色は緑であり得、第2の色はオレンジまたは赤であり得る。
方法はまた、蛍光透視画像内のターゲットマーキングのユーザ確認を受け取ったことに応答して、画面をナビゲーションユーザインターフェースに追加するか否かを入力するようユーザに促すメッセージを表示することも含み得る。方法はまた、画面をナビゲーションユーザインターフェースに追加するユーザ入力を受け取ったことに応答して、ナビゲーションユーザインターフェースに、選択されると、画面が表示されるタブを表示することも含み得る。方法は、選択可能なボタンを表示することと、選択可能なボタンの選択を検出したことに応答して、ターゲットマークをライブ2D蛍光透視ビューから削除することとをさらに含み得る。
方法は、選択可能なもののさらなる選択を検出したことに応答して、ターゲットマークをライブ2D蛍光透視ビュー上に重ねて表示することをさらに含み得る。方法は、医療デバイス先端とターゲットとの間の距離を計算することと、計算された距離をターゲットの3Dモデルの3Dビュー内に表示することとをさらに含み得る。方法は、ターゲットの3Dモデルを管腔網の3Dモデルから得ることをさらに含み得る。方法は、管腔網の3Dモデルを前処置コンピュータ断層撮影画像データセットから生成することをさらに含み得る。
方法は、ターゲットの3Dモデルを含む管腔網の3Dモデルとライブ2D蛍光透視ビューとの対応を決定することと、管腔網の3Dモデルとライブ2D蛍光透視ビューとの決定された対応に基づいて、医療デバイス先端がターゲットと位置揃えされていると判定することとをさらに含み得る。説明された方法の実施には、ハードウェア、方法もしくはプロセス、またはコンピュータアクセス可能媒体上のコンピュータソフトウェアが含まれ得る。
本発明は、例えば、以下を提供する。
(項目1)
ディスプレイと、
前記ディスプレイに連結されたプロセッサと、
前記プロセッサに連結され、その上に命令を格納したメモリとを備え、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、
前記ディスプレイ上に、医療デバイスの先端の視点からのターゲットの3次元(3D)モデルの3Dビューを含む画面を表示することと、
前記画面に、前記医療デバイスを示すライブ2次元(2D)蛍光透視ビューを表示することと、
前記ターゲットの前記3Dモデルに対応するターゲットマークを、前記ライブ2D蛍光透視ビューに重ねて表示することと、をさせるシステム。
(項目2)
前記ターゲットの前記3Dモデルは、管腔網の3Dモデルから得られ、
前記管腔網の前記3Dモデルは、前処理コンピュータ断層撮影画像データセットから生成される、上記項目に記載のシステム。
(項目3)
前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
前記医療デバイス先端が前記ターゲットと位置揃えされていると判定することと、
前記医療デバイス先端が前記ターゲットと位置揃えされていると判定したことに応答して、前記ターゲットマークを第1の色で表示することと、をさせる、上記項目のいずれか一項に記載のシステム。
(項目4)
前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
前記医療デバイス先端が前記ターゲットと位置揃えされていないと判定することと、
前記医療デバイス先端が前記ターゲットと位置揃えされていないと判定したことに応答して、前記ターゲットマークを第2の色で表示することと、をさせる、上記項目のいずれか一項に記載のシステム。
(項目5)
前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
局所位置合わせプロセスのユーザ確認を受け取ったことに応答して、ターゲットオーバーレイを可能にするか否かを入力するようユーザに促すメッセージを表示することと、
前記ターゲットオーバーレイを可能にするユーザ入力を受け取ったことに応答して、ナビゲーションユーザインターフェースにおいて、選択されると、前記画面が表示されるタブを表示することと、をさせる、上記項目のいずれか一項に記載のシステム。
(項目6)
前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
選択可能なボタンを表示することと、
前記選択可能なボタンの選択を検出したことに応答して、前記ターゲットマークを前記ライブ2D蛍光透視ビューから削除することか、または
前記選択可能なもののさらなる選択を検出したことに応答して、前記ターゲットマークを前記ライブ2D蛍光透視ビューに重ねて表示することと、をさせる、上記項目のいずれか一項に記載のシステム。
(項目7)
前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
前記医療デバイス先端と前記ターゲットとの間の距離を計算することと、
前記計算された距離を、前記ターゲットの前記3Dモデルの前記3Dビュー内に表示することと、をさせる、上記項目のいずれか一項に記載のシステム。
(項目8)
前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
前記ターゲットの前記3Dモデルを含む管腔網の3Dモデルと、前記ライブ2D蛍光透視ビューとの対応を決定することをさせ、
前記医療デバイス先端が前記ターゲットと位置揃えされていると判定することは、前記管腔網の3Dモデルと前記ライブ2D蛍光透視ビューとの前記決定された対応に基づいて実行される、上記項目のいずれか一項に記載のシステム。
(項目9)
前記医療デバイス先端を含む領域の前記ライブ2D蛍光透視ビューを撮影するように構成された蛍光透視撮像装置をさらに備える、上記項目のいずれか一項に記載のシステム。
(項目10)
前記医療デバイスを受容するように構成されたカテーテルをさらに備える、上記項目のいずれか一項に記載のシステム。
(項目11)
管腔網内にナビゲートされた前記カテーテルの位置を追跡し、前記位置を前記管腔網の前記3Dモデルに対応させるように構成されたナビゲーションコンポーネントをさらに備える、上記項目のいずれか一項に記載のシステム。
(項目12)
前記ナビゲーションコンポーネントは、電磁ナビゲーションシステムである、上記項目のいずれか一項に記載のシステム。
(項目13)
ターゲットに対して医療デバイスを視覚化する方法であって、
画面に、医療デバイス先端の視点からのターゲットの3次元(3D)モデルの3Dビューを表示することと、
前記画面に、医療デバイスを示すライブ2次元(2D)蛍光透視ビューを表示することと、
前記ターゲットの前記3Dモデルに対応するターゲットマークを、前記ライブ2D蛍光透視ビューに重ねて表示することと、を含む方法。
(項目14)
前記医療デバイス先端が前記ターゲットと位置揃えされていると判定することと、
前記医療デバイス先端が前記ターゲットと位置揃えされていると判定したことに応答して、前記ターゲットマークを第1の色で表示することと、
前記医療デバイス先端が前記ターゲットと位置揃えされていないと判定することと、
前記医療デバイス先端が前記ターゲットと位置揃えされていないと判定したことに応答して、前記ターゲットマークを第2の色で表示することと、をさらに含む、上記項目のいずれか一項に記載の方法。
(項目15)
局所位置合わせプロセスのユーザ確認を受け取ったことに応答して、ターゲットオーバーレイを可能にするか否かを入力するようユーザに促すメッセージを表示することと、
ターゲットオーバーレイを可能にするユーザ入力を受け取ったことに応答して、ナビゲーションユーザインターフェースにおいて、選択されると、前記画面が表示されるタブを表示することと、をさらに含む、上記項目のいずれか一項に記載の方法。
(項目16)
選択可能なボタンを表示することと、
前記選択可能なボタンの選択を検出したことに応答して、前記ターゲットマークを前記ライブ2D蛍光透視ビューから削除することか、または
前記選択可能なもののさらなる選択を検出したことに応答して、前記ターゲットマークを前記ライブ2D蛍光透視ビューに重ねて表示することと、をさらに含む、上記項目のいずれか一項に記載の方法。
(項目17)
前記医療デバイス先端と前記ターゲットとの間の距離を計算することと、
前記計算された距離を、前記ターゲットの前記3Dモデルの前記3Dビュー内に表示することと、をさらに含む、上記項目のいずれか一項に記載の方法。
(項目18)
前記ターゲットの前記3Dモデルを、管腔網の3Dモデルから得ることをさらに含む、上記項目のいずれか一項に記載の方法。
(項目19)
前記管腔網の前記3Dモデルを、前処理コンピュータ断層撮影画像データセットから生成することをさらに含む、上記項目のいずれか一項に記載の方法。
(項目20)
前記ターゲットの前記3Dモデルを含む管腔網の3Dモデルと、前記ライブ2D蛍光透視ビューとの対応を決定することをさらに含み、
前記医療デバイス先端が前記ターゲットと位置揃えされていると判定することは、前記管腔網の前記3Dモデルと前記ライブ2D蛍光透視ビューとの前記決定された対応に基づいて実行される、上記項目のいずれか一項に記載の方法。
(摘要)
ライブ蛍光透視ビューを使用して、ターゲットに対する医療デバイスのナビゲーションを視覚化するためのシステムおよび方法。方法は、画面に、医療デバイス先端の視点からのターゲットの3次元(3D)モデルの3Dビューを表示することを含む。方法はまた、画面に、医療デバイスを示すライブ2次元(2D)蛍光透視ビューを表示することと、ターゲットの3Dモデルに対応するターゲットマークを、ライブ2D蛍光透視ビューに重ねて表示することと、をも含む。方法は、医療デバイス先端がターゲットと位置揃えされているか否かを判定することと、医療デバイス先端がターゲットと位置揃えされている場合、ターゲットマークを第1の色で表示することと、医療デバイス先端がターゲットと位置揃えされていない場合、ターゲットマークを第1の色とは異なる第2の色で表示することと、を含み得る。
本発明は、例えば、以下を提供する。
(項目1)
ディスプレイと、
前記ディスプレイに連結されたプロセッサと、
前記プロセッサに連結され、その上に命令を格納したメモリとを備え、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、
前記ディスプレイ上に、医療デバイスの先端の視点からのターゲットの3次元(3D)モデルの3Dビューを含む画面を表示することと、
前記画面に、前記医療デバイスを示すライブ2次元(2D)蛍光透視ビューを表示することと、
前記ターゲットの前記3Dモデルに対応するターゲットマークを、前記ライブ2D蛍光透視ビューに重ねて表示することと、をさせるシステム。
(項目2)
前記ターゲットの前記3Dモデルは、管腔網の3Dモデルから得られ、
前記管腔網の前記3Dモデルは、前処理コンピュータ断層撮影画像データセットから生成される、上記項目に記載のシステム。
(項目3)
前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
前記医療デバイス先端が前記ターゲットと位置揃えされていると判定することと、
前記医療デバイス先端が前記ターゲットと位置揃えされていると判定したことに応答して、前記ターゲットマークを第1の色で表示することと、をさせる、上記項目のいずれか一項に記載のシステム。
(項目4)
前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
前記医療デバイス先端が前記ターゲットと位置揃えされていないと判定することと、
前記医療デバイス先端が前記ターゲットと位置揃えされていないと判定したことに応答して、前記ターゲットマークを第2の色で表示することと、をさせる、上記項目のいずれか一項に記載のシステム。
(項目5)
前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
局所位置合わせプロセスのユーザ確認を受け取ったことに応答して、ターゲットオーバーレイを可能にするか否かを入力するようユーザに促すメッセージを表示することと、
前記ターゲットオーバーレイを可能にするユーザ入力を受け取ったことに応答して、ナビゲーションユーザインターフェースにおいて、選択されると、前記画面が表示されるタブを表示することと、をさせる、上記項目のいずれか一項に記載のシステム。
(項目6)
前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
選択可能なボタンを表示することと、
前記選択可能なボタンの選択を検出したことに応答して、前記ターゲットマークを前記ライブ2D蛍光透視ビューから削除することか、または
前記選択可能なもののさらなる選択を検出したことに応答して、前記ターゲットマークを前記ライブ2D蛍光透視ビューに重ねて表示することと、をさせる、上記項目のいずれか一項に記載のシステム。
(項目7)
前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
前記医療デバイス先端と前記ターゲットとの間の距離を計算することと、
前記計算された距離を、前記ターゲットの前記3Dモデルの前記3Dビュー内に表示することと、をさせる、上記項目のいずれか一項に記載のシステム。
(項目8)
前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
前記ターゲットの前記3Dモデルを含む管腔網の3Dモデルと、前記ライブ2D蛍光透視ビューとの対応を決定することをさせ、
前記医療デバイス先端が前記ターゲットと位置揃えされていると判定することは、前記管腔網の3Dモデルと前記ライブ2D蛍光透視ビューとの前記決定された対応に基づいて実行される、上記項目のいずれか一項に記載のシステム。
(項目9)
前記医療デバイス先端を含む領域の前記ライブ2D蛍光透視ビューを撮影するように構成された蛍光透視撮像装置をさらに備える、上記項目のいずれか一項に記載のシステム。
(項目10)
前記医療デバイスを受容するように構成されたカテーテルをさらに備える、上記項目のいずれか一項に記載のシステム。
(項目11)
管腔網内にナビゲートされた前記カテーテルの位置を追跡し、前記位置を前記管腔網の前記3Dモデルに対応させるように構成されたナビゲーションコンポーネントをさらに備える、上記項目のいずれか一項に記載のシステム。
(項目12)
前記ナビゲーションコンポーネントは、電磁ナビゲーションシステムである、上記項目のいずれか一項に記載のシステム。
(項目13)
ターゲットに対して医療デバイスを視覚化する方法であって、
画面に、医療デバイス先端の視点からのターゲットの3次元(3D)モデルの3Dビューを表示することと、
前記画面に、医療デバイスを示すライブ2次元(2D)蛍光透視ビューを表示することと、
前記ターゲットの前記3Dモデルに対応するターゲットマークを、前記ライブ2D蛍光透視ビューに重ねて表示することと、を含む方法。
(項目14)
前記医療デバイス先端が前記ターゲットと位置揃えされていると判定することと、
前記医療デバイス先端が前記ターゲットと位置揃えされていると判定したことに応答して、前記ターゲットマークを第1の色で表示することと、
前記医療デバイス先端が前記ターゲットと位置揃えされていないと判定することと、
前記医療デバイス先端が前記ターゲットと位置揃えされていないと判定したことに応答して、前記ターゲットマークを第2の色で表示することと、をさらに含む、上記項目のいずれか一項に記載の方法。
(項目15)
局所位置合わせプロセスのユーザ確認を受け取ったことに応答して、ターゲットオーバーレイを可能にするか否かを入力するようユーザに促すメッセージを表示することと、
ターゲットオーバーレイを可能にするユーザ入力を受け取ったことに応答して、ナビゲーションユーザインターフェースにおいて、選択されると、前記画面が表示されるタブを表示することと、をさらに含む、上記項目のいずれか一項に記載の方法。
(項目16)
選択可能なボタンを表示することと、
前記選択可能なボタンの選択を検出したことに応答して、前記ターゲットマークを前記ライブ2D蛍光透視ビューから削除することか、または
前記選択可能なもののさらなる選択を検出したことに応答して、前記ターゲットマークを前記ライブ2D蛍光透視ビューに重ねて表示することと、をさらに含む、上記項目のいずれか一項に記載の方法。
(項目17)
前記医療デバイス先端と前記ターゲットとの間の距離を計算することと、
前記計算された距離を、前記ターゲットの前記3Dモデルの前記3Dビュー内に表示することと、をさらに含む、上記項目のいずれか一項に記載の方法。
(項目18)
前記ターゲットの前記3Dモデルを、管腔網の3Dモデルから得ることをさらに含む、上記項目のいずれか一項に記載の方法。
(項目19)
前記管腔網の前記3Dモデルを、前処理コンピュータ断層撮影画像データセットから生成することをさらに含む、上記項目のいずれか一項に記載の方法。
(項目20)
前記ターゲットの前記3Dモデルを含む管腔網の3Dモデルと、前記ライブ2D蛍光透視ビューとの対応を決定することをさらに含み、
前記医療デバイス先端が前記ターゲットと位置揃えされていると判定することは、前記管腔網の前記3Dモデルと前記ライブ2D蛍光透視ビューとの前記決定された対応に基づいて実行される、上記項目のいずれか一項に記載の方法。
(摘要)
ライブ蛍光透視ビューを使用して、ターゲットに対する医療デバイスのナビゲーションを視覚化するためのシステムおよび方法。方法は、画面に、医療デバイス先端の視点からのターゲットの3次元(3D)モデルの3Dビューを表示することを含む。方法はまた、画面に、医療デバイスを示すライブ2次元(2D)蛍光透視ビューを表示することと、ターゲットの3Dモデルに対応するターゲットマークを、ライブ2D蛍光透視ビューに重ねて表示することと、をも含む。方法は、医療デバイス先端がターゲットと位置揃えされているか否かを判定することと、医療デバイス先端がターゲットと位置揃えされている場合、ターゲットマークを第1の色で表示することと、医療デバイス先端がターゲットと位置揃えされていない場合、ターゲットマークを第1の色とは異なる第2の色で表示することと、を含み得る。
本開示のさまざまな態様および実施形態を添付の図面を参照して説明する。
蛍光透視撮像装置は、例えば、医療デバイスのナビゲーションを視覚化し、所望の位置までナビゲートされた後の医療デバイスの配置を確認するために、臨床医によって使用され得る。しがしながら、蛍光透視画像は、金属ツール、骨、大きな柔組織対象体、例えば心臓など、高度に密な対象体を示すが、蛍光透視画像は、病変など、小さな関心対象柔組織対象体をはっきり示さないことがある。さらに、蛍光透視画像は、2次元投影像である。したがって、柔組織対象体の同定およびそれらの対象体までの医療デバイスのナビゲーションを可能とするには、X線容量測定復元体が必要である。
3D容積復元体を提供するいくつかの解決策がある。1つの解決策は、校正された既知のX線源位置から、柔組織がより良く見える3D容量体への、複数のX線投影像をアルゴリズムを使って組合せるCT機である。例えば、CT機は、1つまたは複数のツールがターゲットに到達するまで、体を通しての誘導を提供する処置中に、反復スキャンで使用することができる。これは、いくつかの全CTスキャンと、専用のCT室と、スキャン間のブラインドナビゲーションとを必要とするので、面倒な処置である。さらに、各スキャンでは、高レベルの電離放射線のために担当者は部屋を出る必要があり、患者は放射線に暴露される。別の解決策は、円錐ビームCT機である。しかしながら、円錐ビームCT機は高価であり、CT機と同様に、スキャン間のブラインドナビゲーションを提供するのみであり、ナビゲーションに複数の反復を必要とし、スタッフは部屋を出る必要がある。いくつかの例示的な実施形態では、本開示のシステムおよび方法は、CT機および蛍光透視撮像装置の便益を組み合わせて、臨床医が、医療デバイスを、小さな柔組織対象体を含むターゲットまでナビゲートすることを助ける。
電磁ナビゲーション処置では、医療デバイス、例えば生検ツールが計画された経路をたどってターゲット、例えば病変に到達し、ターゲットの生検または治療が完了され得ることを保証するように、計画、位置合わせ、およびナビゲーションが実行される。ナビゲーション段階に続いて、蛍光透視画像が撮影され、CTから体への逸脱を低減するための局所位置合わせプロセスに利用され得る。局所位置合わせプロセスの後、位置決定可能ガイドが拡張された作業チャネルから取り外され得、医療デバイス、例えば生検ツールが、拡張された作業チャネルに導入され、ターゲット、例えば病変までナビゲートされて、その生検または治療が実行される。
医療デバイスをターゲットまでナビゲートする際、臨床医は、ターゲットに対する医療デバイスの位置を視覚化するためのライブ2D蛍光透視ビューを使用し得る。医療デバイスは、ライブ蛍光透視ビューでははっきりと見え得るが、一部のターゲット、例えば病変は、ライブ蛍光透視ビューでは見えない場合がある。また、一部の医療デバイスはセンサを含まないため、電磁ナビゲーションを使用できない。さらに、医療デバイスをターゲットに向かって前進させるまたはナビゲートするために使用されるユーザインターフェースは、医療デバイスがいつターゲットの近くになるかを含め、ターゲットに対する医療デバイスに関する十分な情報を提供しない。
本開示は、臨床医がターゲットに対する医療デバイス先端の位置を視覚化できるように、CTスキャンにおいて同定されたターゲットの3次元モデルに対応する2Dターゲットマーカーをライブ2D蛍光透視ビュー上に重ねるユーザインターフェースを特徴とする。ターゲットオーバーレイを含むライブ蛍光透視ビューは2次元ビューであり、医療デバイスがターゲットの上にあるかまたは下にあるかを必ずしも示さないので、同じユーザインターフェースはまた、ターゲットの3Dモデルの3次元医療デバイス先端ビューも含み、臨床医は、医療デバイスがターゲットの上または下にないことを確認できる。
ユーザインターフェースはまた、医療デバイスが3次元でターゲットと位置揃えされているか否かの図形的表示も提供する。例えば、医療デバイスがターゲットと3次元で位置揃えされている場合、ユーザインターフェースはターゲットオーバーレイを第1の色、例えば緑で示す。その一方、医療デバイスが3次元でターゲットと位置揃えされていない場合、ユーザインターフェースはターゲットオーバーレイを第1の色とは異なる第2の色、例えばオレンジまたは赤で示す。
本開示の態様によれば、ターゲット、例えば病変に向かっての医療デバイス、例えば生検ツールの体内ナビゲーションの視覚化は、電磁ナビゲーションシステムなどのナビゲーションシステムのより大きなワークフローの一部分であり得る。図1は、肺の気道を介した軟組織ターゲットまでの医療デバイス、例えば生検ツールのナビゲーションを容易にするための例示的なシステムの全体図である。システム100はさらに、2D蛍光透視画像から、ターゲット領域の蛍光透視ベース3次元容積測定データを構築するように構成され得る。システム100はさらに、電磁ナビゲーション気管支鏡検査(ENB)を使用することにより、ターゲット領域への医療デバイスの接近を容易にし、ターゲットに対する医療デバイスの位置を決定するように構成され得る。
システム100の一態様は、システム100とは別個に取得されたコンピュータ断層撮影(CT)画像データをレビューするためのソフトウェアコンポーネントである。CT画像データのレビューにより、ユーザが、1つ以上のターゲットを同定し、同定されたターゲットへの経路を計画し(計画段階)、ユーザインターフェースを使用してカテーテル102をターゲットまでナビゲートし(ナビゲーション段階)、ターゲットに対するセンサ104の配置を確認することが可能となる。1つのそのようなEMNシステムは、現在Medtronic PLCが販売しているELECTROMAGNETIC NAVIGATION BRONCHOSCOPY(登録商標)システムである。ターゲットは、計画段階中にCT画像データをレビューすることによって同定された関心対象組織であり得る。ナビゲーションに続いて、生検ツールまたは他のツールなどの医療デバイスをカテーテル102に挿入して、ターゲットにまたはそれに近接して位置する組織から組織サンプルを取得し得る。
図1に示したように、カテーテル102はカテーテルガイドアセンブリ106の一部である。実際には、カテーテル102は、患者Pの管腔網にアクセスするために気管支鏡108内に挿入される。具体的には、カテーテルガイドアセンブリ106のカテーテル102は、患者の管腔網を介してナビゲーションするために、気管支鏡108の作業チャネルに挿入され得る。センサ104を含む位置決定可能ガイド(LG)110が、カテーテル102に挿入され、センサ104がカテーテル102の遠位先端を越えて所望の距離だけ延びるような位置にロックされる。電磁場内での基準座標系、したがってカテーテル102の遠位部分に対するセンサ104の位置および配向を導出することができる。カテーテルガイドアセンブリ106は現在、SUPDERDIMENSION(登録商標)Procedure KitsまたはEDGE(商標)Procedure Kitsのブランド名でMedtronic PLCにより市販化および販売されており、本開示とともに使用可能であると考えられる。
システム100は一般に、患者Pを支持するように構成された手術台112と、患者Pの口を通して患者Pの気道に挿入するように構成された気管支鏡108と、気管支鏡108に連結されたモニタリング機器114(例えば、気管支鏡108のビデオ画像化システムから受信したビデオ画像を表示するためのビデオディスプレイ)と、位置決定モジュール116、複数の基準センサ18、および複数の組み込まれたマーカーを含む送信機マット120を含む位置決定または追跡システム114と、ターゲットの同定、ターゲットへの経路計画、ターゲットまでの医療デバイスのナビゲーション、および/またはターゲットに対する、カテーテル102もしくはそれを通る適切なデバイスの配置の確認および/または決定を容易にするために使用されるソフトウェアおよび/またはハードウェアを含むコンピューティングデバイス122とを含む。コンピューティングデバイス122は、図10のワークステーション1001と同様であり得、図9の方法を含む本開示の方法を実行するように構成され得る。
患者Pの蛍光透視またはX線の画像またはビデオを取得することができる蛍光透視撮像装置124も、システム100のこの特定の態様に含まれる。蛍光透視撮像装置124によって撮影された画像、一連の画像、またはビデオは、蛍光透視撮像装置124内に記憶されるか、または記憶、処理、および表示のためにコンピューティングデバイス122に送信され得る。さらに、蛍光透視撮像装置124は、患者Pに対して移動して、患者Pに対して異なる角度または視点から画像を取得して、蛍光透視ビデオなどの一連の蛍光透視画像を作成し得る。画像を撮影している間の患者Pに対する蛍光透視撮像装置124の姿勢は、送信機マット120に組み込まれたマーカーを介して推定され得る。マーカーは、患者Pの下方、患者Pと手術台112との間、および患者Pと蛍光透視撮像装置124の放射線源または検知ユニットとの間に配置されている。送信機マット120に組み込まれたマーカーは、2つの別個の要素であり得、それらは一定の方法で連結されてもよいし、または単一ユニットとして製造されてもよい。蛍光透視撮像装置124は、単一の撮像装置または複数の撮像装置を含み得る。
コンピューティングデバイス122は、プロセッサおよび記憶媒体を含む任意の適切なコンピューティングデバイスであり得、プロセッサは、記憶媒体に記憶された命令を実行することができる。コンピューティングデバイス122は、患者データと、CT画像を含むCTデータセットと、蛍光透視画像およびビデオを含む蛍光透視データセットと、蛍光透視3D復元体と、ナビゲーション計画と、任意の他のそのようなデータとを格納するように構成されたデータベースをさらに含み得る。明示的に示されていないが、コンピューティングデバイス122は、入力部を含み得るか、またはCTデータセット、蛍光透視画像/ビデオ、および本明細書に記載の他のデータを受信するように別様に構成され得る。さらに、コンピューティングデバイス122は、グラフィカルユーザインターフェースを表示するように構成されたディスプレイを含む。コンピューティングデバイス122は、1つ以上のネットワークに接続され得、それを通して1つ以上のデータベースがアクセスされ得る。
計画段階に関して、コンピューティングデバイス122は、患者Pの気道の3次元モデルまたはレンダリングを生成および目視するために従前に取得されたCT画像データを利用し、(自動、半自動、または手動で)3次元モデル上のターゲットの同定を可能にし、かつ患者Pの気道を通ってターゲットおよびその周囲にある組織に至る経路を決定することができる。より具体的には、従前のCTスキャンから取得されたCT画像を処理し、3次元CT容量体に組み入れ、次いで、それを利用して患者Pの気道の3次元モデルを生成する。3次元モデルは、コンピューティングデバイス122に関連付けられたディスプレイ上に、または任意の他の適切な方法で、表示され得る。コンピューティングデバイス122を使用して、3次元モデルのさまざまなビュー、または3次元モデルから生成された増強2次元画像が呈示される。増強2次元画像は、3次元データから生成されるため、いくつかの3次元機能を所有し得る。3次元モデルを操作して、3次元モデルまたは2次元画像上のターゲットの同定を容易し得、ターゲットに位置する組織にアクセスするための、患者Pの気道を通る適切な経路の選択が行い得る。一旦選択されると、経路計画、3次元モデル、およびそこから導出された画像は保存され、ナビゲーション段階で使用するためにナビゲーションシステムにエクスポートされ得る。1つのそのような計画ソフトウェアは、現在Medtronic PLCが販売しているILOGIC(登録商標)計画スイートである。
ナビゲーション段階に関して、6自由度の電磁位置特定または追跡システム114、または位置を決定するための他の適切なシステムが、画像とナビゲーションのための経路との位置合わせを実行するために利用されるが、他の構成も考えられる。追跡システム114は、追跡モジュール116と、複数の基準センサ118と、(マーカーを含む)送信機マット120とを含む。追跡システム114は、位置決定可能ガイド110、特にセンサ104とともに使用するように構成されている。上述したように、位置決定可能ガイド110およびセンサ104は、(気管支鏡108の有無にかかわらず)カテーテル102を通して患者Pの気道に挿入するように構成され、ロック機構を介して互いに対して選択的にロック可能である。
送信機マット120は、患者Pの真下に配置される。送信機マット120は、患者Pの少なくとも一部分の周りに電磁場を生成し、その中で、複数の基準センサ118およびセンサ104の位置を追跡モジュール116を使用して決定することができる。第2の電磁センサ126もカテーテル102の端部に組み込まれ得る。第2の電磁センサ126は、5自由度のセンサまたは6自由度のセンサであり得る。1つ以上の基準センサ118が患者Pの胸部に取り付けられる。基準センサ118の6自由度の座標は、(適切なソフトウェアを含む)コンピューティングデバイス122に送られ、そこで患者の基準座標フレームを計算するために使用される。一般に、位置合わせが実行され、気管支鏡108を通して観察しながら患者Pの気道について、計画段階からの3次元モデルおよび2次元画像の位置を調整し、気管支鏡108が到達できない気道の部分でさえ、センサ104の位置の正確な知識でナビゲーション段階が行われることを可能にする。
送信機マット120上の患者Pの位置の位置合わせは、患者Pの気道を通してセンサ104を動かすことにより実行され得る。より具体的には、位置決定可能ガイド110が気道中を移動している間、センサ104の位置に関するデータが、送信機マット120、基準センサ118、および追跡システム114を使用して記録される。この位置データから生じる形状が、計画段階で生成された3次元モデルの通路の内部ジオメトリと比較され、比較に基づく形状と3次元モデルとの位置相関が、例えばコンピューティングデバイス122上のソフトウェアを利用して決定される。さらに、ソフトウェアは、3次元モデル内の非組織空間(例えば、空気で満たされた空洞)を同定する。ソフトウェアは、センサ104の位置を表す画像を、3次元モデルおよび/または3次元モデルから生成された2次元画像と位置揃えまたは位置合わせするが、それは、記録された位置データと、位置決定可能ガイド110が患者Pの気道内の非組織空間に位置したままであるという仮定とに基づく。あるいは、気管支鏡108をセンサ104を用いて患者Pの肺内の事前に指定された位置までナビゲートし、気管支鏡からの画像を3次元モデルのモデルデータに手動で相関させることにより、手動位置合わせ技術が採用され得る。
本明細書ではEMセンサを使用するEMNシステムに関して説明されているが、本開示はそのように限定されず、可撓性センサ、超音波センサとともに、またはセンサなしで使用され得る。さらに、本明細書に記載の方法は、ロボットアクチュエータがカテーテル102または気管支鏡108をターゲットの近くで駆動するなど、ロボットシステムと併用され得る。
画像データおよび経路計画への患者Pの位置合わせに続いて、ユーザインターフェースが、臨床医がターゲットに到達するためにたどる経路を設定するナビゲーションソフトウェアにおいて表示される。カテーテル102が、ユーザインターフェースに描かれているようにターゲットの近くに首尾よくナビゲートされると、位置決定可能ガイド110がカテーテル102からロック解除されて取り外され、カテーテル102を、限定的ではないが、光学システム、超音波プローブ、マーカー配置ツール、生検ツール、アブレーションツール(すなわち、マイクロ波アブレーションデバイス)、レーザープローブ、極低温プローブ、センサプローブ、およびターゲットへの吸引針を含む、医療デバイスを誘導するための誘導チャネルとして、所定位置に残す。次いで、医療デバイスが、カテーテル102を通して挿入され、ターゲットまたはターゲットに隣接する特定の領域までナビゲートされ得る。
カテーテル102を通して医療デバイスを挿入する前に、CTから体への逸脱を低減するために、各ターゲットに対して局所位置合わせプロセスが実行され得る。局所位置合わせプロセスの撮影段階では、一連の蛍光透視画像が、任意選択でユーザによって、コンピューティングデバイス122を介して表示される指示に従って、蛍光透視撮像装置124を介して撮影および取得され得る。次いで、蛍光透視3D復元体がコンピューティングデバイス122を介して生成され得る。蛍光透視3D復元体の生成は、一連の蛍光透視画像と、一連の画像上の送信機マット120に組み込まれたマーカーの構造の投影とに基づく。次いで、3D復元体の1つ以上のスライスが、術前のCTスキャンに基づいて、コンピューティングデバイス122を介して、生成され得る。次いで、3D復元体および蛍光透視3D復元体の1つ以上のスライスが、任意選択で同時に、コンピューティングデバイス122を介してディスプレイ上にユーザに対して表示され得る。3D復元体のスライスは、ユーザがスライスを順次スクロールできるスクロール可能な形式でユーザインターフェースに呈示され得る。
局所位置合わせプロセスのマーキング段階では、臨床医は、3D復元体のスライスを基準として使用しながら、ターゲットを同定してマークするように指示され得る。また、ユーザは、一連の蛍光透視2D画像内のナビゲーションカテーテルの先端を同定してマークするように指示され得る。次いで、ターゲットの位置とナビゲーションカテーテル先端とのオフセットが、コンピュータデバイス122を介して決定または計算され得る。次いで、オフセットは、ディスプレイ上の(例えば、図4に示された「周辺ナビゲーション」タブ401を選択することによって見ることができる周辺ナビゲーション画面における)ナビゲーションカテーテルの位置および/または配向をターゲットに関して修正するため、および/またはターゲット領域内の3次元モデルと追跡システム114との位置合わせを修正するため、および/またはターゲット領域内の3次元モデルと蛍光透視3D復元体との間の局所位置合わせを生成するために、コンピューティングデバイス122を介して利用され得る。
局所位置合わせプロセスの確認段階では、蛍光透視3D復元体が、図2に示す確認画面202に表示される。確認画面202は、マークされたターゲットおよびナビゲーションカテーテル先端を異なる視点から示す蛍光透視3D復元体のビデオループをレビューするために、ユーザによって選択および移動され得るスライダ208を含む。ビデオ全体にわたってターゲットおよびナビゲーションカテーテル先端にマークがあることを確認した後、臨床医は「承認」ボタン210を選択し得、その時点で局所位置合わせプロセスが終了し、ナビゲーションカテーテルの位置が更新される。次いで、臨床医は、内視鏡処置を開始する前に、例えば図4に示す周辺ナビゲーション画面のナビゲーションビューを使用して、ターゲットに対するナビゲーションカテーテルの位置揃えを微調整し得る。
局所位置合わせプロセスの後、臨床医またはロボットは、カテーテル102に医療デバイスを挿入し、医療デバイスをターゲットに向かって前進させ得る。医療デバイスをターゲットに向かって前進させながら、臨床医は、(a)術前のCTスキャンに基づくターゲットの3Dモデルの3D医療デバイス先端ビューと、(b)ターゲットの3Dモデルに対応するターゲットマーカーが重ねられたライブ2D蛍光透視ビューとを含むユーザインターフェース画面を見ることができる。このユーザインターフェース画面は、臨床医が、医療デバイスをリアルタイムで見ることだけでなく、医療デバイスがターゲットと位置揃えされているか否かを確認することをも可能にする。ユーザインターフェース画面はまた、医療デバイスがターゲットと3次元で位置揃えされているか否かの図形的表示も提供し得る。例えば、医療デバイスがターゲットと3次元で位置揃えされている場合、ユーザインターフェースはターゲットオーバーレイを第1の色、例えば緑で示す。その一方、医療デバイスが3次元でターゲットと位置揃えされていない場合、ユーザインターフェースは、ターゲットオーバーレイを第1の色とは異なる第2の色、例えばオレンジまたは赤で示す。
図2は、局所位置合わせプロセスの確認段階中に現れる例示的な局所位置合わせユーザインターフェースの確認画面202の画面写真である。確認画面202は、局所位置合わせプロセスのマーキング段階中に臨床医によって従前にマーキングされたナビゲーションカテーテル先端マーク204およびターゲットマーク206を表示する。臨床医が「承認」ボタンを選択すると、図3のナビゲーションユーザインターフェースがポップアップメッセージ302とともに表示される。ポップアップメッセージ302は、臨床医が、ターゲットまでの医療デバイス、例えば生検ツールのナビゲーションを誘導するターゲットオーバーレイ機能を使用するか否かを選択できるようにするボタン304、306を含み得る。具体的には、臨床医は、ボタン304を選択してターゲットオーバーレイ機能を用いて続行してもよいし、ボタン306を選択してターゲットオーバーレイ機能を使用せずに続行してもよい。
臨床医がボタン306を選択すると、局所位置合わせプロセスを実行するに先立って従前に表示されていた図4のユーザインターフェース400の「周辺ナビゲーション」タブ401に関連付けられた周辺ナビゲーション画面が再表示され、位置合わせプロセスの結果として、ナビゲーションカテーテル先端405の位置および/または配向に対して、もしあれば、調整を示す。周辺ナビゲーション画面401は、ローカルCTビュー402、3Dナビゲーションカテーテル先端ビュー404、3Dマップビュー406、および気管支鏡ビュー408を含む。周辺ナビゲーション画面401はまた、ユーザが局所位置合わせを適用すること、および/または局所位置合わせを再起動することを可能にする局所位置合わせユーザ制御403も含む。ユーザインターフェース400は、「中央ナビゲーション」タブ411および「ターゲット位置揃え」タブ412も含み、これらは、中央ナビゲーションまたはターゲット位置揃えをそれぞれ実行するために個別に選択され得る。
臨床医がボタン304を選択すると、ユーザインターフェース400は、図5に示された周辺ナビゲーション画面および「ターゲットオーバーレイ」タブ502を表示する。ターゲットオーバーレイタブ502が選択されると、図6に見られるように、患者「P」内のカテーテル102のライブ蛍光透視ビュー602を含むターゲットオーバーレイ画面が表示される。
図7に示すように、ステップ702でのターゲット位置揃えタブ502の選択に続いて、ステップ704でライブ蛍光透視画像602(図6)が表示される。ライブ蛍光透視画像602が一旦表示されると、コンピューティングデバイス122は、ステップ706で、蛍光透視画像内のカテーテル102の先端604の位置のマーキングを要求し得る。代替として、先端602のマーキングは、画像分析アプリケーションによって自動的に実行されてもよいし、任意選択で、単に確認するためにユーザに提示されてもよい。例えば、これは、放射線不透過性カテーテルであろう、特定のしきい値のハウンズフィールド単位値を超える画像内のすべてのピクセルを同定することに基づき得る。カテーテル102を構成するピクセルのうちの最後の結合ピクセルは、カテーテル102の先端602である。もちろん、本開示の範囲から逸脱することなく、カテーテル102の先端602の検出に他のプロセスを使用し得る。
ステップ708では、蛍光透視画像602内のカテーテルの先端604の位置の受信に続いて、コンピューティングデバイスは、ライブ蛍光透視画像602および局所位置合わせプロセス中に取得された蛍光透視3D復元体の画像分析を実行する。ステップ708での画像処理は、ライブ2D蛍光透視画像602を蛍光透視3D復元体のスライスと比較して、最良の一致を決定する。この最良の一致は、ライブ蛍光透視画像内のカテーテル102の形状と比較したときの蛍光透視3D復元体のスライスの各々におけるカテーテル102の形状に基づき得る。追加で、または代替的に、最良の一致は、ライブ蛍光透視画像602内のカテーテル102の先端604のマークされた位置と、局所位置合わせプロセス中にマークされたものとに基づき得る。またさらに、コンピューティングデバイス122は、局所位置合わせの直後の追跡システム114によるカテーテル102の検出位置を、カテーテル102の現在の検出位置と比較し得る。これらの手法のいずれかを組み合わせて使用して、マッチングを支援し得る。
画像分析に続いて、コンピューティングデバイスは、図8に示すように、ステップ710で、局所位置合わせ中にカテーテル102に対する位置が決定されたターゲットの位置を表示し、ライブ蛍光透視画像602上にターゲットマーカー606を表示する。このターゲットマーカー606の位置は、蛍光透視3D復元体を採用する局所位置合わせプロセス中にマークされたターゲットの位置に基づく。
図8の例では、カテーテル102の先端604が、ライブ蛍光透視ビュー602に表示されているターゲットマーカー606と位置揃えされて示されている。さらに、医療デバイス先端ビュー608が、カメラがカテーテル102の先端604に配置されているかのようなビューを示している。医療デバイス先端ビュー608は、ターゲット606の3次元表示610を呈示している。カテーテル102の先端604がターゲットとほぼ位置揃えされている場合、ターゲットマーカー606は、第1の色(例えば、緑色)で表示され、ライブ蛍光透視ビュー602に重ねられ得る。その一方、カテーテル102の先端604がターゲットと位置揃えされていない場合(例えば、球状ターゲットが3Dナビゲーションカテーテル先端ビュー404の中央より右側に配置されている図4の3Dナビゲーションカテーテル先端ビュー404に示されているように)、ターゲットマーカー606は、異なる色、例えばオレンジまたは赤で表示され得る。同様に、カテーテル102の先端604がターゲットと位置揃えされていない医療デバイス先端ビュー608では、ターゲット606の3D表示610は画像内でずれて見え、そのビュー内には、その一部のみが見えるか、または全く見えない場合がある。さらに、カテーテル102の先端604とターゲットとの不揃いの重度に応じて、色は上述のように変化してもよい。
医療デバイス先端ビュー608は、カテーテル102の先端604とターゲットの中心との間の距離を示すテキストを表示するテキストボックス612も含み得る。実施形態では、コンピューティングデバイス122は、CTスキャンに基づき得、ターゲットを含む管腔網の3Dモデルと、ライブ蛍光透視ビューとを位置揃えさせるかまたはそれらの間の対応を見出だし、例えば、画像処理を使用して先端604とターゲットの3Dモデルの中心との距離を測定することにより、距離を計算し得る。3Dモデルとライブ蛍光透視ビューとの対応を見出す際に、局所位置合わせプロセスで生成およびマークされた蛍光透視3D復元体を使用し得る。実施形態では、距離は、ターゲットの中心または外縁から測定される。ターゲットオーバーレイ画面は、ターゲットオーバーレイ切り替えボタン614をさらに含み、選択されると、図8に示すようにターゲットマーカー606を表示するか、ターゲットマーカー606を表示しないかを切り替える。
図9は、医療デバイス先端がターゲットの近傍に運ばれた後、ターゲットへ向かう医療デバイス先端のナビゲーションを視覚化する例示的な方法900のフロー図である。ブロック901で、ターゲットに近接したナビゲーションに続いて、局所位置合わせプロセスが実行されて、ナビゲーション計画におけるカテーテル102の端部とターゲットとの相対位置が更新される。局所位置合わせに続いて、ブロック902で、コンピューティングデバイス122は、「ターゲットオーバーレイ」タブ502が選択されたか否かを判定する。「ターゲットオーバーレイ」タブ502が選択されると、コンピューティングデバイス122は、ブロック903で、ライブ蛍光透視画像内のカテーテル102の先端602と局所位置合わせプロセス中に同定されたターゲットとの相対位置を決定し、ライブ蛍光透視画像内の相対位置にターゲットを表示する。このプロセスは、例えば、図7に関して上述したステップを使用して実行される。
次に、コンピューティングデバイスは、ブロック904で、医療デバイス先端がターゲットと位置揃えされているか否かを判定する。コンピューティングデバイス122は、CTスキャンに基づき得、ターゲットを含む管腔網の3Dモデルと、ライブ蛍光透視ビューとを位置揃えさせるかまたはそれらの対応を見出し、そして、決定された位置揃えまたは対応に基づいて、医療デバイス先端がターゲットの3Dモデルと位置揃えされているか否かを判定し、例えば画像処理を適用することにより、医療デバイス先端がターゲットと位置揃えされているか否かを判定し得る。3Dモデルとライブ蛍光透視ビューとを位置揃えさせるかまたはそれらの対応を見出す際に、局所位置合わせプロセスで生成およびマークされた蛍光透視3D復元体を使用し得る。
コンピューティングデバイス122が、医療デバイス先端はターゲットと位置揃えされていると判定した場合、コンピューティングデバイス122は、ブロック906で、ターゲットマークの色を緑に設定し、そうでない場合、コンピューティングデバイス122は、ブロック908で、ターゲットマークの色をオレンジに設定する。ブロック910で、コンピューティングデバイス122は、ターゲットオーバーレイ画面に、少なくとも医療デバイスを示すライブ2D蛍光透視ビューを表示する。ブロック912で、コンピューティングデバイス122は、設定された色を有するターゲットマークをライブ2D蛍光透視ビュー上に重ねて表示する。ブロック914で、コンピューティングデバイス122は、同じターゲットオーバーレイ画面に、医療デバイス先端の視点からの、ターゲットマークに対応する3D仮想ターゲットを表示する。ブロック904〜914は、医療デバイス先端がターゲットの中心に配置されるまで、または生検または他の治療が完了するまで、繰り返され得る。この最終ナビゲーションにより、ユーザは、ターゲットがライブ画像上にマークされたライブ画像を得るための蛍光透視ナビゲーション技術を使用することができ、それで、ユーザは、医療デバイス先端がターゲットといかによく位置揃えされたか判断することができ、医療デバイス先端がターゲットに到達して、ターゲットのサンプルを採取したり、またはターゲットに治療を実行することが保証される。
本開示のさらなる態様では、局所位置合わせ(例えば、ステップ901)に続いて、コンピューティングデバイス122は、蛍光透視3D復元体の画像分析を行って、ターゲットオーバーレイタブに最適に連動し得るような蛍光透視撮像装置124の配置の角度を決定し得る。本開示のこの態様では、蛍光透視3D復元体の2つのスライスにおけるカテーテル102の先端の同定と、蛍光透視3D復元体におけるターゲットの同定および蛍光透視3D復元体におけるカテーテル102の先端とターゲットとの相対位置の決定とに続いて、コンピューティングデバイスは、3D復元体の画像分析を実行して、カテーテルおよびターゲットが見える3D復元体のスライスを決定する。これは、ターゲットおよびカテーテル102の両方が最も良く見えるか、またはある最小閾値を超えて最も良く見えるスライスであり得る。当業者は、カテーテルまたはターゲットのうちの一方または他方(または両方)が見えないスライスがあり、これらの画像は、この分析を実行するときにコンピューティングデバイス122によって無視される可能性が高いことを理解するであろう。
蛍光透視3D復元体の残りのスライスを分析した後、スライスのうちの1つは、カテーテル102およびターゲットの両方を最もはっきりと描写するものとして同定される。3D復元体のスライスが一旦決定されると、画像602などの対応する2D蛍光透視画像が撮影され得る蛍光透視撮像装置124の位置(例えば、患者Pまたは手術台112に対する角度)。この蛍光透視撮像装置124の位置は、「ターゲットオーバーレイ」タブ502に連動する前に、ユーザインターフェース上で臨床医に呈示され、蛍光透視撮像装置124をその位置まで手動で移動できる。あるいは、蛍光透視撮像装置124は、コンピューティングデバイス122によって決定された位置の表示を受け取り、蛍光透視撮像装置を自動的にその位置まで駆動し、そうして、ターゲットオーバーレイ」タブ502を選択すると、カテーテル102およびターゲットを見るために、蛍光透視画像602がこの事前に決定された最適位置で取得される。
本開示の別の態様は、蛍光透視撮像装置124に組み込まれ得るズーム機能の使用を可能にすることである。図6に示すように、ライブ2D蛍光透視画像602は、複数の放射線不透過性マーカー612を含む。これらの放射線不透過性マーカー612は、送信機マット120上に配置またはそこに埋め込まれ得る。放射線不透過性マーカー間の距離は固定されており、コンピューティングデバイス122によって知られている。放射線不透過性マーカー612間の距離は既知であるため、マーカーのうちのいずれかの間の距離が既知の距離を超えた場合、コンピューティングデバイス122は、蛍光透視撮像装置124のズーム機能が連動されていると判定できる。連動された正確なズーム量は、2D蛍光透視画像602内の放射線不透過性マーカー612の間隔を、送信機マット120内の放射線不透過性マーカー612の既知の間隔と比較することにより決定することができる。ズーム量が一旦決定されると、コンピューティングデバイスは、カテーテル102の先端604とターゲットとの相対位置のオフセットを計算でき、ターゲットマーカー606は、局所位置合わせプロセスが開始されたときから、ズームの変化にもかかわらず蛍光透視画像602内に正確に表示され得る。
ここで、図9の方法を含む本開示の方法で使用するように構成されたシステム1000の概略図である図10を参照する。システム1000は、ワークステーション1001と、任意選択で蛍光透視撮像装置または蛍光透視鏡1015とを含み得る。いくつかの実施形態では、ワークステーション1001は、例えば無線通信により、直接的または間接的に蛍光透視鏡1015と連結され得る。ワークステーション1001は、メモリ1002、プロセッサ1004、ディスプレイ1006、および入力デバイス1010を含み得る。プロセッサまたはハードウェアプロセッサ1004は、1つ以上のハードウェアプロセッサを含み得る。ワークステーション1001は、任意選択で、出力モジュール1012とネットワークインターフェース1008とを含み得る。メモリ1002は、アプリケーション1018および画像データ1014を格納し得る。アプリケーション1018は、図9の方法を含む本開示の方法を実行するためのプロセッサ1004によって実行可能な命令を含み得る。
アプリケーション1018は、ユーザインターフェース1016をさらに含み得る。画像データ1014は、CTスキャン、生成された、ターゲット領域の蛍光透視3D復元体および/または他の蛍光透視画像データおよび/または生成された、3D復元体の1つ以上のスライスを含み得る。プロセッサ1004は、メモリ1002、ディスプレイ1006、入力デバイス1010、出力モジュール1012、ネットワークインターフェース1008、および蛍光透視鏡1015と連結され得る。ワークステーション1001は、パーソナルコンピュータなどの固定式コンピューティングデバイス、またはタブレットコンピュータなどのポータブルコンピューティングデバイスであり得る。ワークステーション1001は、複数のコンピュータデバイスを埋め込み得る。
メモリ1002は、プロセッサ1004によって実行可能であり、ワークステーション1001の動作を制御し、いくつかの実施形態では蛍光透視鏡1015の動作も制御し得る命令を含むデータおよび/またはソフトウェアを格納するための任意の非一時的コンピュータ読み取り可能記憶媒体を含み得る。蛍光透視鏡1015を使用して、蛍光透視3D復元体がそれに基づいて生成される一連の蛍光透視画像を撮影し、かつ本開示に従ってライブ2D蛍光透視ビューを撮影し得る。一実施形態では、メモリ1002は、固体記憶装置、例えばフラッシュメモリチップなどの1つ以上の記憶装置を含み得る。代替として、または1つ以上の固体記憶装置に加えて、メモリ1002は、大容量記憶装置コントローラ(図示せず)および通信バス(図示せず)を介してプロセッサ1004に接続された1つ以上の大容量記憶装置を含み得る。
本明細書に含まれるコンピュータ読み取り可能媒体の説明は固体記憶装置に言及しているが、コンピュータ読み取り可能記憶媒体は、プロセッサ1004によってアクセスされ得る任意の利用可能な媒体であり得ることが当業者には理解されるべきである。すなわち、コンピュータ読み取り可能記憶媒体は、コンピュータ読み取り可能な命令、データ構造、プログラムモジュールまたは他のデータなどの情報を記憶するために、任意の方法または技術において実施される非一時的な揮発性の媒体、ならびに不揮発性で取り外し可能なおよび取り外し不可能な媒体を含み得る。例えば、コンピュータ読み取り可能記憶媒体には、RAM、ROM、EPROM、EEPROM、フラッシュメモリもしくは他の固体メモリ技術、CD−ROM、DVD、Blu−Rayもしくは他の光学記憶装置、磁気カセット、磁気テープ、磁気ディスクもしくは他の磁気記憶装置、または所望の情報を格納するために使用され得、かつワークステーション1001によってアクセスされ得る任意の他の媒体が含まれ得る。
アプリケーション1018は、プロセッサ1004によって実行されると、ディスプレイ1006にユーザインターフェース1016を呈示させ得る。ユーザインターフェース1016は、医療デバイスの先端の視点からのターゲットの3次元(3D)モデルの3Dビューと、医療デバイスを示すライブ2次元(2D)蛍光透視ビューと、例えば図7に示すように、ライブ2D蛍光透視ビュー上に重ねられた、ターゲットの3Dモデルに対応するターゲットマークとを含む単一の画面をユーザに呈示するように構成され得る。ユーザインターフェース1016はさらに、医療デバイス先端が3次元でターゲットと位置揃えされているか否かに応じて、ターゲットマークを異なる色で表示するように構成され得る。
ネットワークインターフェース1008は、有線ネットワークおよび/もしくは無線ネットワーク、広域ネットワーク(WAN)、無線モバイルネットワーク、Bluetooth(登録商標)ネットワークからなるローカルエリアネットワーク(LAN)、ならびに/またはインターネットなどのネットワークに接続するように構成され得る。ネットワークインターフェース1008を使用して、ワークステーション1001と蛍光透視鏡1015とを接続し得る。ネットワークインターフェース1008を使用して、画像データ1014を受信してもよい。入力デバイス1010は、例えば、マウス、キーボード、フットペダル、タッチスクリーン、および/または音声インターフェースなど、ユーザがワークステーション1001と対話し得る任意のデバイスであり得る。出力モジュール1012は、例えば、パラレルポート、シリアルポート、ユニバーサルシリアルバス(USB)、または当業者に周知の任意の他の同様の接続ポートなど、任意の接続ポートまたはバスを含み得る。前述から、およびさまざまな図を参照して、当業者は、本開示の範囲から逸脱することなく本開示に特定の修正を加えることができることを理解するであろう。
本明細書には詳細な実施形態が開示されているが、開示された実施形態は、本開示の単なる例であり、さまざまな形態および態様で実施され得る。例えば、ターゲットオーバーレイシステムおよび方法を組み込んだ電磁ナビゲーションシステムの実施形態が本明細書に開示されているが、但し、ターゲットオーバーレイシステムおよび方法は、当業者に周知の他のナビゲーションまたは追跡のシステムまたは方法に適用され得る。したがって、本明細書に開示された特定の構造および機能の詳細は、限定的として解釈されるべきではなく、単に特許請求の範囲の基礎として、および当業者に、事実上任意の適切に詳細な構造で本開示をさまざまに採用するよう教示するための代表的な基礎として解釈されるべきである。
本開示のいくつかの実施形態が図面に示されたが、本開示は当該技術分野で許容される程度に広範であり、本明細書も同様に読まれることが意図されるため、本開示がそれらに限定されることは意図されていない。したがって、上記の説明は、限定的として解釈されるべきではなく、単に実施形態の例示として解釈されるべきである。当業者は、本明細書に添付される特許請求の範囲および精神内で他の変更を想定するであろう。
Claims (20)
- ディスプレイと、
前記ディスプレイに連結されたプロセッサと、
前記プロセッサに連結され、その上に命令を格納したメモリとを備え、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、
前記ディスプレイ上に、医療デバイスの先端の視点からのターゲットの3次元(3D)モデルの3Dビューを含む画面を表示することと、
前記画面に、前記医療デバイスを示すライブ2次元(2D)蛍光透視ビューを表示することと、
前記ターゲットの前記3Dモデルに対応するターゲットマークを、前記ライブ2D蛍光透視ビューに重ねて表示することと、をさせるシステム。 - 前記ターゲットの前記3Dモデルは、管腔網の3Dモデルから得られ、
前記管腔網の前記3Dモデルは、前処理コンピュータ断層撮影画像データセットから生成される、請求項1に記載のシステム。 - 前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
前記医療デバイス先端が前記ターゲットと位置揃えされていると判定することと、
前記医療デバイス先端が前記ターゲットと位置揃えされていると判定したことに応答して、前記ターゲットマークを第1の色で表示することと、をさせる、請求項1に記載のシステム。 - 前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
前記医療デバイス先端が前記ターゲットと位置揃えされていないと判定することと、
前記医療デバイス先端が前記ターゲットと位置揃えされていないと判定したことに応答して、前記ターゲットマークを第2の色で表示することと、をさせる、請求項1に記載のシステム。 - 前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
局所位置合わせプロセスのユーザ確認を受け取ったことに応答して、ターゲットオーバーレイを可能にするか否かを入力するようユーザに促すメッセージを表示することと、
前記ターゲットオーバーレイを可能にするユーザ入力を受け取ったことに応答して、ナビゲーションユーザインターフェースにおいて、選択されると、前記画面が表示されるタブを表示することと、をさせる、請求項1に記載のシステム。 - 前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
選択可能なボタンを表示することと、
前記選択可能なボタンの選択を検出したことに応答して、前記ターゲットマークを前記ライブ2D蛍光透視ビューから削除することか、または
前記選択可能なもののさらなる選択を検出したことに応答して、前記ターゲットマークを前記ライブ2D蛍光透視ビューに重ねて表示することと、をさせる、請求項1に記載のシステム。 - 前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
前記医療デバイス先端と前記ターゲットとの間の距離を計算することと、
前記計算された距離を、前記ターゲットの前記3Dモデルの前記3Dビュー内に表示することと、をさせる、請求項1に記載のシステム。 - 前記命令は、前記プロセッサによって実行されると、前記プロセッサにさらに、
前記ターゲットの前記3Dモデルを含む管腔網の3Dモデルと、前記ライブ2D蛍光透視ビューとの対応を決定することをさせ、
前記医療デバイス先端が前記ターゲットと位置揃えされていると判定することは、前記管腔網の3Dモデルと前記ライブ2D蛍光透視ビューとの前記決定された対応に基づいて実行される、請求項1に記載のシステム。 - 前記医療デバイス先端を含む領域の前記ライブ2D蛍光透視ビューを撮影するように構成された蛍光透視撮像装置をさらに備える、請求項1に記載のシステム。
- 前記医療デバイスを受容するように構成されたカテーテルをさらに備える、請求項1に記載のシステム。
- 管腔網内にナビゲートされた前記カテーテルの位置を追跡し、前記位置を前記管腔網の前記3Dモデルに対応させるように構成されたナビゲーションコンポーネントをさらに備える、請求項10に記載のシステム。
- 前記ナビゲーションコンポーネントは、電磁ナビゲーションシステムである、請求項11に記載のシステム。
- ターゲットに対して医療デバイスを視覚化する方法であって、
画面に、医療デバイス先端の視点からのターゲットの3次元(3D)モデルの3Dビューを表示することと、
前記画面に、医療デバイスを示すライブ2次元(2D)蛍光透視ビューを表示することと、
前記ターゲットの前記3Dモデルに対応するターゲットマークを、前記ライブ2D蛍光透視ビューに重ねて表示することと、を含む方法。 - 前記医療デバイス先端が前記ターゲットと位置揃えされていると判定することと、
前記医療デバイス先端が前記ターゲットと位置揃えされていると判定したことに応答して、前記ターゲットマークを第1の色で表示することと、
前記医療デバイス先端が前記ターゲットと位置揃えされていないと判定することと、
前記医療デバイス先端が前記ターゲットと位置揃えされていないと判定したことに応答して、前記ターゲットマークを第2の色で表示することと、をさらに含む、請求項13に記載の方法。 - 局所位置合わせプロセスのユーザ確認を受け取ったことに応答して、ターゲットオーバーレイを可能にするか否かを入力するようユーザに促すメッセージを表示することと、
ターゲットオーバーレイを可能にするユーザ入力を受け取ったことに応答して、ナビゲーションユーザインターフェースにおいて、選択されると、前記画面が表示されるタブを表示することと、をさらに含む、請求項14に記載の方法。 - 選択可能なボタンを表示することと、
前記選択可能なボタンの選択を検出したことに応答して、前記ターゲットマークを前記ライブ2D蛍光透視ビューから削除することか、または
前記選択可能なもののさらなる選択を検出したことに応答して、前記ターゲットマークを前記ライブ2D蛍光透視ビューに重ねて表示することと、をさらに含む、請求項14に記載の方法。 - 前記医療デバイス先端と前記ターゲットとの間の距離を計算することと、
前記計算された距離を、前記ターゲットの前記3Dモデルの前記3Dビュー内に表示することと、をさらに含む、請求項14に記載の方法。 - 前記ターゲットの前記3Dモデルを、管腔網の3Dモデルから得ることをさらに含む、請求項14に記載の方法。
- 前記管腔網の前記3Dモデルを、前処理コンピュータ断層撮影画像データセットから生成することをさらに含む、請求項18に記載の方法。
- 前記ターゲットの前記3Dモデルを含む管腔網の3Dモデルと、前記ライブ2D蛍光透視ビューとの対応を決定することをさらに含み、
前記医療デバイス先端が前記ターゲットと位置揃えされていると判定することは、前記管腔網の前記3Dモデルと前記ライブ2D蛍光透視ビューとの前記決定された対応に基づいて実行される、請求項14に記載の方法。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962800281P | 2019-02-01 | 2019-02-01 | |
US62/800,281 | 2019-02-01 | ||
US16/743,592 | 2020-01-15 | ||
US16/743,592 US11564751B2 (en) | 2019-02-01 | 2020-01-15 | Systems and methods for visualizing navigation of medical devices relative to targets |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020124501A true JP2020124501A (ja) | 2020-08-20 |
Family
ID=69630117
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020014721A Pending JP2020124501A (ja) | 2019-02-01 | 2020-01-31 | ターゲットに対する医療デバイスのナビゲーションを視覚化するためのシステムおよび方法 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11564751B2 (ja) |
EP (1) | EP3689285A1 (ja) |
JP (1) | JP2020124501A (ja) |
CN (1) | CN111568544A (ja) |
AU (1) | AU2020200740A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116322555A (zh) * | 2020-08-13 | 2023-06-23 | 直观外科手术操作公司 | 警告和减轻解剖特征方位从之前图像到实时询问的偏差 |
CN113855287B (zh) * | 2021-07-06 | 2023-09-26 | 上海优医基医疗影像设备有限公司 | 一种带评估种植精度的口腔种植手术机器人及控制方法 |
US11887306B2 (en) * | 2021-08-11 | 2024-01-30 | DePuy Synthes Products, Inc. | System and method for intraoperatively determining image alignment |
CN114041886A (zh) * | 2021-10-26 | 2022-02-15 | 上海优医基医疗影像设备有限公司 | 一种磁导航口腔种植牙手术系统及方法 |
CN115068109B (zh) * | 2022-06-13 | 2023-07-28 | 元化智能科技(深圳)有限公司 | 面向医疗手术导航的红外标靶识别方法和装置 |
WO2024006852A1 (en) * | 2022-06-29 | 2024-01-04 | Intuitive Surgical Operations, Inc. | Systems and methods for determining a deployment location of a medical instrument |
WO2024079639A1 (en) * | 2022-10-14 | 2024-04-18 | Covidien Lp | Systems and methods for confirming position or orientation of medical device relative to target |
Family Cites Families (109)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6413981B1 (en) | 1999-08-12 | 2002-07-02 | Ortho-Mcneil Pharamceutical, Inc. | Bicyclic heterocyclic substituted phenyl oxazolidinone antibacterials, and related compositions and methods |
US6472372B1 (en) | 2000-12-06 | 2002-10-29 | Ortho-Mcneil Pharmaceuticals, Inc. | 6-O-Carbamoyl ketolide antibacterials |
US20030013960A1 (en) | 2001-05-29 | 2003-01-16 | Makin Inder Raj. S. | Guiding ultrasound end effector for medical treatment |
US7607440B2 (en) | 2001-06-07 | 2009-10-27 | Intuitive Surgical, Inc. | Methods and apparatus for surgical planning |
JP2009500086A (ja) | 2005-07-01 | 2009-01-08 | ハンセン メディカル,インク. | ロボットガイドカテーテルシステム |
CN101325912B (zh) * | 2005-12-15 | 2011-01-12 | 皇家飞利浦电子股份有限公司 | 用于在电生理标测和治疗期间显现心脏形态的系统和方法 |
US9055906B2 (en) | 2006-06-14 | 2015-06-16 | Intuitive Surgical Operations, Inc. | In-vivo visualization systems |
US8335359B2 (en) | 2007-07-20 | 2012-12-18 | General Electric Company | Systems, apparatus and processes for automated medical image segmentation |
US20090080737A1 (en) * | 2007-09-25 | 2009-03-26 | General Electric Company | System and Method for Use of Fluoroscope and Computed Tomography Registration for Sinuplasty Navigation |
US20180009767A9 (en) | 2009-03-19 | 2018-01-11 | The Johns Hopkins University | Psma targeted fluorescent agents for image guided surgery |
US10004387B2 (en) | 2009-03-26 | 2018-06-26 | Intuitive Surgical Operations, Inc. | Method and system for assisting an operator in endoscopic navigation |
US8706184B2 (en) | 2009-10-07 | 2014-04-22 | Intuitive Surgical Operations, Inc. | Methods and apparatus for displaying enhanced imaging data on a clinical image |
US9265468B2 (en) * | 2011-05-11 | 2016-02-23 | Broncus Medical, Inc. | Fluoroscopy-based surgical device tracking method |
US8900131B2 (en) | 2011-05-13 | 2014-12-02 | Intuitive Surgical Operations, Inc. | Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery |
US8827934B2 (en) | 2011-05-13 | 2014-09-09 | Intuitive Surgical Operations, Inc. | Method and system for determining information of extrema during expansion and contraction cycles of an object |
US20130303944A1 (en) | 2012-05-14 | 2013-11-14 | Intuitive Surgical Operations, Inc. | Off-axis electromagnetic sensor |
WO2013116140A1 (en) | 2012-02-03 | 2013-08-08 | Intuitive Surgical Operations, Inc. | Steerable flexible needle with embedded shape sensing |
EP2849669B1 (en) | 2012-05-14 | 2018-11-28 | Intuitive Surgical Operations Inc. | Systems and methods for deformation compensation using shape sensing |
WO2013173234A1 (en) | 2012-05-14 | 2013-11-21 | Intuitive Surgical Operations | Systems and methods for registration of a medical device using rapid pose search |
EP3524184B1 (en) | 2012-05-14 | 2021-02-24 | Intuitive Surgical Operations Inc. | Systems for registration of a medical device using a reduced search space |
US20130303945A1 (en) | 2012-05-14 | 2013-11-14 | Intuitive Surgical Operations, Inc. | Electromagnetic tip sensor |
US10039473B2 (en) | 2012-05-14 | 2018-08-07 | Intuitive Surgical Operations, Inc. | Systems and methods for navigation based on ordered sensor records |
US9429696B2 (en) | 2012-06-25 | 2016-08-30 | Intuitive Surgical Operations, Inc. | Systems and methods for reducing measurement error in optical fiber shape sensors |
US9801551B2 (en) | 2012-07-20 | 2017-10-31 | Intuitive Sugical Operations, Inc. | Annular vision system |
JP6074587B2 (ja) | 2012-08-06 | 2017-02-08 | 株式会社Joled | 表示パネル、表示装置ならびに電子機器 |
EP3679881A1 (en) | 2012-08-14 | 2020-07-15 | Intuitive Surgical Operations, Inc. | Systems and methods for registration of multiple vision systems |
CN108042092B (zh) | 2012-10-12 | 2023-02-28 | 直观外科手术操作公司 | 确定医疗器械在分支解剖结构中的位置 |
US20140188440A1 (en) | 2012-12-31 | 2014-07-03 | Intuitive Surgical Operations, Inc. | Systems And Methods For Interventional Procedure Planning |
EP4049706A1 (en) | 2013-03-15 | 2022-08-31 | Intuitive Surgical Operations, Inc. | Shape sensor systems for tracking interventional instruments and methods of use |
CN114343608A (zh) | 2013-07-29 | 2022-04-15 | 直观外科手术操作公司 | 具有冗余感测的形状传感器系统 |
EP3033132B1 (en) | 2013-08-15 | 2021-01-06 | Intuitive Surgical Operations, Inc. | Graphical user interface for catheter positioning and insertion |
US11166646B2 (en) | 2013-08-15 | 2021-11-09 | Intuitive Surgical Operations Inc. | Systems and methods for medical procedure confirmation |
CN111166274A (zh) | 2013-10-24 | 2020-05-19 | 奥瑞斯健康公司 | 机器人辅助腔内外科手术系统及相关方法 |
CN105979899B (zh) | 2013-12-09 | 2019-10-01 | 直观外科手术操作公司 | 用于设备感知柔性工具配准的系统和方法 |
WO2015101948A2 (en) | 2014-01-06 | 2015-07-09 | Body Vision Medical Ltd. | Surgical devices and methods of use thereof |
KR20210156301A (ko) | 2014-02-04 | 2021-12-24 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 중재 도구의 가상 항행을 위한 조직의 비강체 변형을 위한 시스템 및 방법 |
US20150223765A1 (en) | 2014-02-07 | 2015-08-13 | Intuitive Surgical Operations, Inc. | Systems and methods for using x-ray field emission to determine instrument position and orientation |
EP3119321A4 (en) | 2014-03-17 | 2017-12-06 | Intuitive Surgical Operations, Inc. | Surgical system including a non-white light general illuminator |
US10912523B2 (en) | 2014-03-24 | 2021-02-09 | Intuitive Surgical Operations, Inc. | Systems and methods for anatomic motion compensation |
KR102397670B1 (ko) | 2014-03-28 | 2022-05-16 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 정량적 3차원 영상화에 기초한 햅틱 피드백을 갖는 수술 시스템 |
KR20170038012A (ko) | 2014-07-28 | 2017-04-05 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 수술중 세그먼트화를 위한 시스템 및 방법 |
WO2016018648A1 (en) | 2014-07-28 | 2016-02-04 | Intuitive Surgical Operations, Inc. | Systems and methods for planning multiple interventional procedures |
WO2016032846A1 (en) | 2014-08-23 | 2016-03-03 | Intuitive Surgical Operations, Inc. | Systems and methods for display of pathological data in an image guided procedure |
US10373719B2 (en) | 2014-09-10 | 2019-08-06 | Intuitive Surgical Operations, Inc. | Systems and methods for pre-operative modeling |
US10314513B2 (en) | 2014-10-10 | 2019-06-11 | Intuitive Surgical Operations, Inc. | Systems and methods for reducing measurement error using optical fiber shape sensors |
WO2016061431A1 (en) | 2014-10-17 | 2016-04-21 | Intuitive Surgical Operations, Inc. | Systems and methods for reducing measurement error using optical fiber shape sensing |
US20180263706A1 (en) | 2014-10-20 | 2018-09-20 | Body Vision Medical Ltd. | Surgical devices and methods of use thereof |
US9986983B2 (en) * | 2014-10-31 | 2018-06-05 | Covidien Lp | Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same |
JP7017931B2 (ja) | 2014-11-13 | 2022-02-09 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 位置特定データをフィルタリングするシステム及び方法 |
US10512510B2 (en) | 2014-12-22 | 2019-12-24 | Intuitive Surgical Operations, Inc. | Flexible electromagnetic sensor |
KR102542190B1 (ko) | 2015-04-06 | 2023-06-12 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 영상 안내 수술에서의 정합 보상의 시스템 및 방법 |
CN107660134B (zh) | 2015-05-22 | 2021-06-29 | 直观外科手术操作公司 | 图像引导手术记录的系统和方法 |
US10674982B2 (en) * | 2015-08-06 | 2020-06-09 | Covidien Lp | System and method for local three dimensional volume reconstruction using a standard fluoroscope |
CN108024699B (zh) | 2015-08-14 | 2020-11-03 | 直观外科手术操作公司 | 用于图像引导外科手术的配准系统和方法 |
EP3334324B1 (en) | 2015-08-14 | 2021-01-06 | Intuitive Surgical Operations Inc. | Systems and methods of registration for image-guided surgery |
WO2017044874A1 (en) | 2015-09-10 | 2017-03-16 | Intuitive Surgical Operations, Inc. | Systems and methods for using tracking in image-guided medical procedure |
EP3349649B1 (en) | 2015-09-18 | 2022-03-09 | Auris Health, Inc. | Navigation of tubular networks |
US10405753B2 (en) | 2015-11-10 | 2019-09-10 | Intuitive Surgical Operations, Inc. | Pharmaceutical compositions of near IR closed chain, sulfo-cyanine dyes |
US11172895B2 (en) | 2015-12-07 | 2021-11-16 | Covidien Lp | Visualization, navigation, and planning with electromagnetic navigation bronchoscopy and cone beam computed tomography integrated |
EP3391030A4 (en) | 2015-12-14 | 2019-06-12 | Intuitive Surgical Operations Inc. | APPARATUS AND METHOD FOR GENERATING ANATOMIC TARGET 3D DATA USING OPTICAL FIBER SHAPE DETECTION |
US9996361B2 (en) | 2015-12-23 | 2018-06-12 | Intel Corporation | Byte and nibble sort instructions that produce sorted destination register and destination index mapping |
CN108024838B (zh) | 2016-02-12 | 2021-10-01 | 直观外科手术操作公司 | 用于在图像引导手术中使用配准荧光透视图像的系统和方法 |
EP4375934A2 (en) | 2016-02-12 | 2024-05-29 | Intuitive Surgical Operations, Inc. | Systems and methods of pose estimation and calibration of perspective imaging system in image guided surgery |
US10674970B2 (en) | 2016-03-10 | 2020-06-09 | Body Vision Medical Ltd. | Methods and systems for using multi view pose estimation |
US10702137B2 (en) | 2016-03-14 | 2020-07-07 | Intuitive Surgical Operations, Inc.. | Endoscopic instrument with compliant thermal interface |
US20170296679A1 (en) | 2016-04-18 | 2017-10-19 | Intuitive Surgical Operations, Inc. | Compositions of Near IR Closed Chain, Sulfo-Cyanine Dyes and Prostate Specific Membrane Antigen Ligands |
WO2017218552A1 (en) | 2016-06-15 | 2017-12-21 | Intuitive Surgical Operations, Inc. | Systems and methods of integrated real-time visualization |
CN109414180B (zh) | 2016-06-30 | 2022-01-07 | 直观外科手术操作公司 | 在图像引导程序期间以多种模式显示指导信息的图形用户界面 |
WO2018005861A1 (en) | 2016-06-30 | 2018-01-04 | Intuitive Surgical Operations, Inc. | Graphical user interface for displaying guidance information during an image-guided procedure |
CN109414155B (zh) | 2016-08-16 | 2022-04-29 | 直观外科手术操作公司 | 使用第一和第二光纤感测柔性工具的形状 |
EP3503834B1 (en) | 2016-08-23 | 2024-06-12 | Intuitive Surgical Operations, Inc. | Systems for monitoring patient motion during a medical procedure |
US11980344B2 (en) | 2016-09-21 | 2024-05-14 | Intuitive Surgical Operations, Inc. | Systems and methods for instrument buckling detection |
US11219490B2 (en) | 2016-09-30 | 2022-01-11 | Intuitive Surgical Operations, Inc. | Systems and methods for entry point localization |
EP3529579B1 (en) | 2016-10-21 | 2021-08-25 | Intuitive Surgical Operations, Inc. | Shape sensing with multi-core fiber sensor |
JP7229155B2 (ja) | 2016-11-02 | 2023-02-27 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 画像誘導手術のための連続的な位置合せのシステム及び方法 |
CN109922753B (zh) | 2016-12-08 | 2023-04-14 | 直观外科手术操作公司 | 用于图像引导医疗程序中导航的系统和方法 |
JP7097883B2 (ja) | 2016-12-09 | 2022-07-08 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 身体組織の熱流束分布感知のためのシステム及び方法 |
WO2018129532A1 (en) | 2017-01-09 | 2018-07-12 | Intuitive Surgical Operations, Inc. | Systems and methods for registering elongate devices to three dimensional images in image-guided procedures |
CN117717416A (zh) | 2017-02-01 | 2024-03-19 | 直观外科手术操作公司 | 图像引导手术的配准系统和方法 |
US11882990B2 (en) | 2017-02-01 | 2024-01-30 | Intuitive Surgical Operations, Inc | Systems and methods for data filtering of passageway sensor data |
EP3576598B1 (en) | 2017-02-01 | 2024-04-24 | Intuitive Surgical Operations, Inc. | System of registration for image-guided procedures |
WO2018183727A1 (en) | 2017-03-31 | 2018-10-04 | Auris Health, Inc. | Robotic systems for navigation of luminal networks that compensate for physiological noise |
WO2018195221A1 (en) | 2017-04-18 | 2018-10-25 | Intuitive Surgical Operations, Inc. | Graphical user interface for planning a procedure |
EP3612121A4 (en) | 2017-04-18 | 2021-04-07 | Intuitive Surgical Operations, Inc. | GRAPHIC USER INTERFACE TO MONITOR AN IMAGE GUIDED PROCEDURE |
WO2018215832A2 (en) | 2017-05-24 | 2018-11-29 | Dorian Averbuch | Methods for using radial endobronchial ultrasound probes for three-dimensional reconstruction of images and improved target localization |
US10022192B1 (en) | 2017-06-23 | 2018-07-17 | Auris Health, Inc. | Automatically-initialized robotic systems for navigation of luminal networks |
EP3641686A4 (en) | 2017-06-23 | 2021-03-24 | Intuitive Surgical Operations, Inc. | SYSTEMS AND PROCEDURES FOR NAVIGATION TO A DESTINATION DURING A MEDICAL OPERATION |
CN116725667A (zh) | 2017-06-28 | 2023-09-12 | 奥瑞斯健康公司 | 提供定位信息的系统和在解剖结构内定位器械的方法 |
KR102578978B1 (ko) | 2017-06-28 | 2023-09-19 | 아우리스 헬스, 인코포레이티드 | 전자파 왜곡 검출 |
US10699448B2 (en) | 2017-06-29 | 2020-06-30 | Covidien Lp | System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data |
US12004830B2 (en) | 2017-08-16 | 2024-06-11 | Intuitive Surgical Operations , Inc. | Systems and methods for monitoring patient motion during a medical procedure |
US10555778B2 (en) | 2017-10-13 | 2020-02-11 | Auris Health, Inc. | Image-based branch detection and mapping for navigation |
US11058493B2 (en) | 2017-10-13 | 2021-07-13 | Auris Health, Inc. | Robotic system configured for navigation path tracing |
CN110831534B (zh) | 2017-12-08 | 2023-04-28 | 奥瑞斯健康公司 | 用于医疗仪器导航和瞄准的系统和方法 |
KR20200100613A (ko) | 2017-12-14 | 2020-08-26 | 아우리스 헬스, 인코포레이티드 | 기구 위치 추정을 위한 시스템 및 방법 |
US11160615B2 (en) | 2017-12-18 | 2021-11-02 | Auris Health, Inc. | Methods and systems for instrument tracking and navigation within luminal networks |
US10885630B2 (en) | 2018-03-01 | 2021-01-05 | Intuitive Surgical Operations, Inc | Systems and methods for segmentation of anatomical structures for image-guided surgery |
US20190298451A1 (en) | 2018-03-27 | 2019-10-03 | Intuitive Surgical Operations, Inc. | Systems and methods for delivering targeted therapy |
US10827913B2 (en) | 2018-03-28 | 2020-11-10 | Auris Health, Inc. | Systems and methods for displaying estimated location of instrument |
JP7214747B2 (ja) | 2018-03-28 | 2023-01-30 | オーリス ヘルス インコーポレイテッド | 位置センサの位置合わせのためのシステム及び方法 |
KR102499906B1 (ko) | 2018-05-30 | 2023-02-16 | 아우리스 헬스, 인코포레이티드 | 위치 센서-기반 분지부 예측을 위한 시스템 및 방법 |
KR102455671B1 (ko) | 2018-05-31 | 2022-10-20 | 아우리스 헬스, 인코포레이티드 | 이미지-기반 기도 분석 및 매핑 |
WO2019231891A1 (en) | 2018-05-31 | 2019-12-05 | Auris Health, Inc. | Path-based navigation of tubular networks |
WO2020028603A2 (en) | 2018-08-01 | 2020-02-06 | Sony Interactive Entertainment LLC | Player induced counter-balancing of loads on a character in a virtual environment |
US11080902B2 (en) | 2018-08-03 | 2021-08-03 | Intuitive Surgical Operations, Inc. | Systems and methods for generating anatomical tree structures |
CA3109584A1 (en) | 2018-08-13 | 2020-02-20 | Body Vision Medical Ltd. | Methods and systems for multi view pose estimation using digital computational tomography |
US11896316B2 (en) | 2018-08-23 | 2024-02-13 | Intuitive Surgical Operations, Inc. | Systems and methods for generating anatomic tree structures using backward pathway growth |
US11637378B2 (en) | 2018-11-02 | 2023-04-25 | Intuitive Surgical Operations, Inc. | Coiled dipole antenna |
US11633623B2 (en) | 2019-04-19 | 2023-04-25 | University Of Maryland, Baltimore | System and method for radiation therapy using spatial-functional mapping and dose sensitivity of branching structures and functional sub-volumes |
-
2020
- 2020-01-15 US US16/743,592 patent/US11564751B2/en active Active
- 2020-01-31 EP EP20155010.0A patent/EP3689285A1/en active Pending
- 2020-01-31 JP JP2020014721A patent/JP2020124501A/ja active Pending
- 2020-01-31 AU AU2020200740A patent/AU2020200740A1/en not_active Abandoned
- 2020-02-03 CN CN202010078907.5A patent/CN111568544A/zh active Pending
-
2023
- 2023-01-31 US US18/103,834 patent/US20230172670A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
CN111568544A (zh) | 2020-08-25 |
EP3689285A1 (en) | 2020-08-05 |
US20230172670A1 (en) | 2023-06-08 |
AU2020200740A1 (en) | 2020-08-20 |
US20200246079A1 (en) | 2020-08-06 |
US11564751B2 (en) | 2023-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11925493B2 (en) | Visualization, navigation, and planning with electromagnetic navigation bronchoscopy and cone beam computed tomography integrated | |
US11341692B2 (en) | System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data | |
US11576588B2 (en) | Method of using lung airway carina locations to improve ENB registration | |
US11564751B2 (en) | Systems and methods for visualizing navigation of medical devices relative to targets | |
EP3500159B1 (en) | System for the use of soft-point features to predict respiratory cycles and improve end registration | |
EP3689244B1 (en) | Method for displaying tumor location within endoscopic images | |
US11950950B2 (en) | Zoom detection and fluoroscope movement detection for target overlay | |
EP3607906A1 (en) | Identification and notification of tool displacement during medical procedure | |
US20240215963A1 (en) | System for fluoroscopic tracking of a catheter to update the relative position of a target and the catheter in a 3d model of a luminal network | |
US20240206980A1 (en) | Volumetric filter of fluoroscopic sweep video | |
WO2024079584A1 (en) | Systems and methods of moving a medical tool with a target in a visualization or robotic system for higher yields | |
WO2024079627A1 (en) | Systems and methods of detecting and correcting for patient and/or imaging system movement for target overlay |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200318 |