JP2021533906A - デジタル・コンピュータ・トモグラフィを用いた多視点姿勢推定のための方法及びシステム - Google Patents

デジタル・コンピュータ・トモグラフィを用いた多視点姿勢推定のための方法及びシステム Download PDF

Info

Publication number
JP2021533906A
JP2021533906A JP2021507924A JP2021507924A JP2021533906A JP 2021533906 A JP2021533906 A JP 2021533906A JP 2021507924 A JP2021507924 A JP 2021507924A JP 2021507924 A JP2021507924 A JP 2021507924A JP 2021533906 A JP2021533906 A JP 2021533906A
Authority
JP
Japan
Prior art keywords
image
radiation opaque
imaging modality
opaque device
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021507924A
Other languages
English (en)
Inventor
ツァイスリアー、タル
ハーパス、エラン
アバーブック、ドリアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Body Vision Medical Ltd
Original Assignee
Body Vision Medical Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Body Vision Medical Ltd filed Critical Body Vision Medical Ltd
Publication of JP2021533906A publication Critical patent/JP2021533906A/ja
Priority to JP2023179482A priority Critical patent/JP2023181259A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/267Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the respiratory tract, e.g. laryngoscopes, bronchoscopes
    • A61B1/2676Bronchoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0037Performing a preliminary scan, e.g. a prescan for identifying a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/064Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00743Type of operation; Specification of treatment sites
    • A61B2017/00809Lung operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/302Surgical robots specifically adapted for manipulations within body cavities, e.g. within abdominal or thoracic cavities
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3966Radiopaque markers visible in an X-ray image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Pulmonology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Robotics (AREA)
  • Optics & Photonics (AREA)
  • Otolaryngology (AREA)
  • Physiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Endoscopes (AREA)

Abstract

本発明は、放射線不透過機器を自然の体腔を通して体内で案内することに関連する、いくつかの方法を開示する。方法のうちの1つでは、画像化デバイスの姿勢を異ならせて獲得した放射線不透過機器の複数の画像及び事前に獲得した画像を使用する、画像化デバイスの姿勢推定が開示される。他の1つの方法では、放射線不透過マーカ及び機器軌道追跡などのいくつかの手法を使用して、放射線不透過機器の位置特定の曖昧さが解決される。

Description

本願は、2018年8月13日に出願された「METHODS AND SYSTEMS FOR MULTI VIEW POSE ESTIMATION USING DIGITAL COMPUTATIONAL TOMOGRAPHY」と題する米国仮特許出願第62/718,346号の利益を主張する関連国際(PCT)出願であり、同仮出願の全体が参照によって本明細書に組み込まれる。
本発明の実施例は、介入性のデバイス及びその使用方法に関する。
内視鏡手技、ビデオ補助胸部手術、又は類似の医療手技といった最小侵襲性手技の用法を、疑わしい病巣の診断器具として又は癌性腫瘍の治療手段として使用することができる。
米国特許第9,743,896号 国際特許出願第WO/2016/067092号 国際出願第PCT/IB2015/000438号
「Three−dimensional Human Airway Segmentation Methods for Clinical Virtual Bronchoscopy」、Atilla P. Kiraly、William E. Higgins、Geoffrey McLennan、Eric A. Hoffman、Joseph M. Reinhardt B. Triggs、P. McLauchlan、R. Hartley、A. Fitzgibbon (1999)、「Bundle Adjustment−A Modern Synthesis」、ICCV’99:Proceedings of the International Workshop on Vision Algorithms、Springer−Verlag、298〜372頁 Moreno−Noguer、V. Lepetit、及びP. Fuaの論文「EPnP: Efficient Perspective−n−Point Camera Pose Estimation」 Sechopoulos、Ioannis (2013)、「A review of breast tomosynthesis. Part II. Image reconstruction, processing and analysis, and advanced applications」、Medical Physics40 (1): 014302
いくつかの実施例では、本発明は:
第1の画像化モダリティから第1の画像を取得することと、
第1の画像化モダリティからの第1の画像から少なくとも1つの要素を抽出することであって、
少なくとも1つの要素には、気道、血管、体腔、又はこれらの任意の組合せが含まれる、抽出することと、
第2の画像化モダリティから、少なくとも(i)第1の姿勢である放射線不透過機器の第1の画像、及び(ii)第2の姿勢である放射線不透過機器の第2の画像を取得することであって、
放射線不透過機器は患者の体腔内にある、取得することと、
少なくとも2つの拡張された気管支造影図を生成することであって、
第1の拡張された気管支造影図は、第1の姿勢である放射線不透過機器の第1の画像に対応しており、
第2の拡張された気管支造影図は、第2の姿勢である放射線不透過機器の第2の画像に対応している、生成することと、
以下の間、すなわち、
(i)放射線不透過機器の第1の姿勢と、
(ii)放射線不透過機器の第2の姿勢と、の間の、相互の幾何学的制約を決定することと、
放射線不透過機器の第1の姿勢及び放射線不透過機器の第2の姿勢を第1の画像化モダリティの第1の画像と比較することによって、放射線不透過機器の第1の姿勢及び放射線不透過機器の第2の姿勢を推定することであって、
比較することは、
(i)第1の拡張された気管支造影図、
(ii)第2の拡張された気管支造影図、及び
(iii)少なくとも1つの要素、を使用して行われ、
放射線不透過機器の推定された第1の姿勢及び放射線不透過機器の推定された第2の姿勢は決定された相互の幾何学的制約を満たす、推定することと、
第3の画像を生成することであって、第3の画像は、第2の画像化モダリティから導出される、対象領域を強調表示した拡張された画像である、生成することと、を含み、
対象領域は第1の画像化モダリティからのデータから決定される、方法、を提供する。
いくつかの実施例では、第1の画像化モダリティからの第1の画像からの少なくとも1つの要素には、肋骨、脊椎、横隔膜、又はこれらの任意の組合せが更に含まれる。いくつかの実施例では、相互の幾何学的制約は、以下によって生成される:
a. 放射線不透過機器の第1の画像と放射線不透過機器の第2の画像を比較することによって、(i)第1の姿勢と(ii)第2の姿勢との間の違いを推定することであって、
推定することは、角度計、加速度計、ジャイロスコープ、若しくはこれらの任意の組合せを含むデバイスを使用して行われ、デバイスは第2の画像化モダリティに取り付けられている、推定すること、
b. 相対的な姿勢変化を推定するべく複数の画像特徴を抽出することであって、
複数の画像特徴は、解剖学的要素、非解剖学的要素、若しくはこれらの任意の組合せを含み、
画像特徴は、患者に取り付けられたパッチ、第2の画像化モダリティの視野内に配置された放射線不透過マーカ、若しくはこれらの任意の組合せを含み、
画像特徴は、放射線不透過機器の第1の画像及び放射線不透過機器の第2の画像上に見えている、抽出すること、
c. (i)第1の姿勢と(ii)第2の姿勢との間の違いを、少なくとも1つのカメラを使用することであって、
カメラには、ビデオカメラ、赤外線カメラ、深度カメラ、若しくはこれらの任意の組合せが含まれ、
カメラは固定された位置にあり、
カメラは少なくとも1つの特徴を追跡するように構成されており、
少なくとも1つの特徴には、患者に取り付けられたマーカ、第2の画像化モダリティに取り付けられたマーカ、若しくはこれらの任意の組合せが含まれる、使用することと、
少なくとも1つの特徴を追跡することと、によって、推定すること、
d. 又は、これらの任意の組合せ。
いくつかの実施例では、方法は、軌道を特定するために放射線不透過機器を追跡することと、軌道を追加の幾何学的制約として使用することと、を更に含み、放射線不透過機器には、内視鏡、気管支内器具、又はロボット・アームが含まれる。
いくつかの実施例では、本発明は以下を含む方法である:
患者の少なくとも1つの体腔のマップを生成することであって、
マップは第1の画像化モダリティからの第1の画像を使用して生成される、生成することと、
第2の画像化モダリティから、少なくとも2つの取り付けられたマーカを備える放射線不透過機器の画像を取得することであって、
少なくとも2つの取り付けられたマーカは既知の距離だけ分離されている、取得することと、
患者の少なくとも1つの体腔のマップに対する、第2の画像化モダリティからの放射線不透過機器の姿勢を特定することと、
第2の画像化モダリティからの第2の画像上で、放射線不透過機器に取り付けられた第1のマーカの第1の位置を特定することと、
第2の画像化モダリティからの第2の画像上で、放射線不透過機器に取り付けられた第2のマーカの第2の位置を特定することと、
第1のマーカの第1の位置と第2のマーカの第2の位置との間の距離を測定することと、
第1のマーカと第2のマーカとの間の既知の距離を投影することと、
患者の少なくとも1つの体腔内での放射線不透過機器の明確な位置を特定するために、測定された距離を、第1のマーカと第2のマーカとの間の投影された既知の距離と比較すること。
いくつかの実施例では、放射線不透過機器には、内視鏡、気管支内器具、又はロボット・アームが含まれる。
いくつかの実施例では、方法は、放射線不透過機器の軌道を使用して放射線不透過機器の深度を特定することを更に含む。
いくつかの実施例では、第1の画像化モダリティからの第1の画像は術前画像である。いくつかの実施例では、第2の画像化モダリティからの放射線不透過機器の少なくとも1つの画像は、術中画像である。
いくつかの実施例では、本発明は以下を含む方法である:
第1の画像化モダリティから第1の画像を取得することと、
第1の画像化モダリティからの第1の画像から少なくとも1つの要素を抽出することであって、
少なくとも1つの要素には、気道、血管、体腔、又はこれらの任意の組合せが含まれる、抽出することと、
第2の画像化モダリティから、第2の画像化モダリティの2つの異なる姿勢において、少なくとも(i)放射線不透過機器の1つの画像及び(ii)放射線不透過機器のもう1つの画像を取得することであって、
放射線不透過機器の第1の画像は第2の画像化モダリティの第1の姿勢において撮影され、
放射線不透過機器の第2の画像は第2の画像化モダリティの第2の姿勢において撮影され、
放射線不透過機器は患者の体腔内にある、取得することと、
画像化デバイスの2つの姿勢の各々に対応している少なくとも2つの拡張された気管支造影図を生成することであって、第1の拡張された気管支造影図は放射線不透過機器の第1の画像から導出され、第2の拡張された気管支造影図は放射線不透過機器の第2の画像から導出される、生成することと、
以下の間、すなわち、
(i)第2の画像化モダリティの第1の姿勢と、
(ii)第2の画像化モダリティの第2の姿勢と、の間の、相互の幾何学的制約を決定することと、
対応している拡張された気管支造影図画像及び第1の画像化モダリティの第1の画像から抽出された少なくとも1つの要素を使用して、第1の画像化モダリティの第1の画像に対する第2の画像化モダリティの2つの姿勢を推定することであって、
2つの推定された姿勢は相互の幾何学的制約を満たす、推定することと、
第3の画像を生成することであって、第3の画像は、第1の画像化モダリティをソースとするデータに基づく、第2の画像化モダリティから導出される、対象領域を強調表示した拡張された画像である、生成すること。
いくつかの実施例では、肋骨、脊椎、横隔膜、又はこれらの任意の組合せなどの解剖学的要素が、第1の画像化モダリティから及び第2の画像化モダリティから抽出される。
いくつかの実施例では、相互の幾何学的制約は、以下によって生成される:
a. 放射線不透過機器の第1の画像と放射線不透過機器の第2の画像を比較することによって、(i)第1の姿勢と(ii)第2の姿勢との間の違いを推定することであって、
推定することは、角度計、加速度計、ジャイロスコープ、若しくはこれらの任意の組合せを含むデバイスを使用して行われ、デバイスは第2の画像化モダリティに取り付けられている、推定すること、
b. 相対的な姿勢変化を推定するために複数の画像特徴を抽出することであって、
複数の画像特徴は、解剖学的要素、非解剖学的要素、若しくはこれらの任意の組合せを含み、
画像特徴は、患者に取り付けられたパッチ、第2の画像化モダリティの視野内に配置された放射線不透過マーカ、若しくはこれらの任意の組合せを含み、
画像特徴は、放射線不透過機器の第1の画像及び放射線不透過機器の第2の画像上に見えている、抽出すること、
c. (i)第1の姿勢と(ii)第2の姿勢との間の違いを、少なくとも1つのカメラを使用することであって、
カメラには、ビデオカメラ、赤外線カメラ、深度カメラ、若しくはこれらの任意の組合せが含まれ、
カメラは固定された位置にあり、
カメラは少なくとも1つの特徴を追跡するように構成されており、
少なくとも1つの特徴には、患者に取り付けられたマーカ、第2の画像化モダリティに取り付けられたマーカ、若しくはこれらの任意の組合せが含まれる、使用することと、
少なくとも1つの特徴を追跡することと、によって、推定すること、
d. 又は、これらの任意の組合せ。
いくつかの実施例では、方法は、軌道を識別するために放射線不透過機器を追跡することと、かかる軌道を追加の幾何学的制約として使用することと、を更に含み、放射線不透過機器には、内視鏡、気管支内器具、又はロボット・アームが含まれる。
いくつかの実施例では、本発明は、以下を含む、患者の体内の機器の真の位置を特定するための方法である:
第1の画像化モダリティの第1の画像から生成された患者の少なくとも1つの体腔のマップを使用することと、
第2の画像化モダリティから、ある距離が間に定められている少なくとも2つのマーカが取り付けられている、放射線不透過機器の画像を取得することであって、
マーカは、患者の体内の少なくとも2つの異なる体腔内に位置付けられる画像から認識できる、取得することと、
マップに対する第2の画像化モダリティの姿勢を取得することと、
第2の画像化モダリティからの第2の画像上で、放射線不透過機器に取り付けられた第1のマーカの第1の位置を特定することと、
第2の画像化モダリティからの第2の画像上で、放射線不透過機器に取り付けられた第2のマーカの第2の位置を特定することと、
第1のマーカの第1の位置と第2のマーカの第2の位置との間の距離を測定することと、
第2の画像化モダリティの姿勢を使用して、放射線不透過機器の認識された位置の各々上に、マーカ同士の間の既知の距離を投影することと、
体内での機器の真の位置を特定するために、測定された距離と2つのマーカ同士の間の投影された距離の各々とを比較すること。
いくつかの実施例では、放射線不透過機器には、内視鏡、気管支内器具、又はロボット・アームが含まれる。
いくつかの実施例では、方法は、放射線不透過機器の軌道を使用して放射線不透過機器の深度を特定することを更に含む。
いくつかの実施例では、第1の画像化モダリティからの第1の画像は術前画像である。いくつかの実施例では、第2の画像化モダリティからの放射線不透過機器の少なくとも1つの画像は、術中画像である。
本発明について添付の図面を参照して更に説明するが、これらの図面においては、いくつかの図の全てにわたって、同様の構造は同様の数字によって言及される。示されている図面は必ずしも正確な縮尺で描かれておらず、代わりに本発明の原理を示すことが全体的に強調されている。更に、特定の構成要素の詳細を示すために、いくつかの特徴が誇張されている場合がある。
本発明の方法のいくつかの実施例において使用される多視点姿勢推定方法のブロック図である。 本発明の方法において使用される術中画像の例示的な実施例を示す図であり、1つの特定の姿勢から取得されるフルオロスコープ画像を示す。気管支鏡240、機器210、肋骨220、及び身体境界230が見えている。多視点姿勢推定方法は図2に見えている要素を入力として使用する。 本発明の方法において使用される術中画像の例示的な実施例を示す図であり、1つの特定の姿勢から取得されるフルオロスコープ画像を示す。気管支鏡340、機器310、肋骨320、及び身体境界330が見えている。多視点姿勢推定方法は図3に見えている要素を入力として使用する。 本発明の方法において使用される術中画像の例示的な実施例を示す図であり、Cアームの回転の結果、図2及び図3と比較して異なる姿勢において取得されたフルオロスコープ画像を示す。気管支鏡440、機器410、肋骨420、及び身体境界430が見えている。多視点姿勢推定方法は図4に見えている要素を入力として使用する。 本発明の方法において利用される気管支気道の構造の概略図である。気道中心線は530で表されている。カテーテルは気道の構造に挿入され、画像平面540を有するフルオロスコープ・デバイスによって画像化される。画像上のカテーテルの投影は曲線550によって示されており、これに取り付けられた放射線不透過マーカは点G及び点Fへと投影されている。 気管支鏡に取り付けられた気管支鏡デバイス先端部の画像であり、この気管支鏡は本発明の方法の実施例において使用可能である。 本発明の方法の実施例に係る図であり、この図は、気管支鏡手技においてそこから延びる手術器具(702)と共に使用される追跡型スコープ(tracked scope)(701)の、フルオロスコープ画像のものである。手術器具は、放射線不透過マーカ又はそれに取り付けられた固有のパターンを含み得る。 本発明の方法の実施例に係る2つのビューのエピポーラ幾何の図であり、この図は、気管支鏡手技においてそこから延びる手術器具(802)と共に使用されるスコープ(801)を含む、1対のフルオロスコープ画像のものである。手術器具は、放射線不透過マーカ又はこれに取り付けられた固有のパターンを含み得る(点P1及び点P2はそのようなパターンの一部を表す)。点P1は対応するエピポーラ線L1を有する。点P0はスコープの先端部を表し、点P3は手術器具の先端部を表す。O1及びO2は対応するビューの焦点を表す。
これらの図は本明細書の一部を構成し、本発明の例示的な実施例を含み、様々な目的及び特徴を示す。更に、これらの図は必ずしも正確な縮尺にはなっておらず、特定の構成要素の詳細を示すために、一部の特徴が誇張されている場合がある。更に、図に示されている測定値、仕様などは全て例示的であることを意図しており、制限的であることは意図していない。したがって、本明細書に開示する構造及び機能に関する具体的な詳細は限定するものではなく、当業者に本発明を様々に利用するよう教示するための、単なる代表的な基礎として解釈すべきである。
開示してきたこれらの利益及び改善の中で、本発明の他の目的及び利点が、添付の図と併せて解釈される以下の説明から明らかになるであろう。本明細書には本発明の詳細な実施例が開示されているが、開示される実施例は単に、様々な形態で具現化され得る本発明の例示であるに過ぎないことを理解されたい。更に、本発明の様々な実施例と関連して与えられる実例の各々は、例示的であることを意図しており、制限的であることは意図していない。
明細書及び特許請求の範囲の全体にわたって、以下の用語は、そうではないと文脈によって明確に規定されない限りは、本明細書中で明示的に関連付けられている意味をとる。「一実施例では」及び「いくつかの実施例では」という句は、本明細書で使用される場合、必ずしも同じ実施例を指す訳ではないが、指す場合もある。更に、「別の実施例では」及び「いくつかの他の実施例では」という句は、本明細書で使用される場合、必ずしも異なる実施例を指す訳ではないが、指す場合もある。この場合、以下に記載するように、本発明の様々な実施例は、本発明の範囲又は精神から逸脱することなく、容易に組み合わせることができる。
更に、本明細書で使用される場合、用語「又は」は包括的な「又は」として作用するものでありであり、そうではないと文脈によって明確に規定されない限りは、用語「及び/又は」と等価である。用語「に基づく」は排他的ではなく、そうではないと文脈によって明確に規定されない限りは、記載されていない追加の要因に基づくことが可能である。更に、本明細書の全体を通して、「1つの(a)」、「1つの(an)」、及び「その(the)
」の意味は、複数の言及対象を含む。「〜において(in)」の意味には、「〜の中に(in)」及び「〜の表面に(on)」が含まれる。
本明細書で使用される場合、「複数」とは、数が1よりも多いこと、例えば限定するものではないが、2、3、4、5、6、7、8、9、10、等を指す。例えば、複数の画像は、2つの画像、3つの画像、4つの画像、5つの画像、6つの画像、7つの画像、8つの画像、9つの画像、10個の画像、等であり得る。
本明細書で使用される場合、「解剖学的要素」とは目標物を指し、例えば、対象領域、切開点、分岐点、血管、気管支気道、肋骨、又は器官であり得る。
本明細書で使用される場合、「幾何学的な(geometrical)制約」又は「幾何学的(geometric)制約」又は「相互の制約」又は「相互の幾何学的制約」とは、対象者の身体内の身体器官(例えば少なくとも2つの身体器官)同士の間の幾何学的な関係を指し、これらの制約は対象者の体内の肋骨、身体の境界等の間で同様の幾何学上の関係を構築する。そのような幾何学的な関係は、異なる画像化モダリティを通して観察されるときに、変化しないままであるか、又はそれらの相対移動を無視若しくは定量化することができる。
本明細書で使用される場合、「姿勢」とは、光学カメラ・デバイスの代替としての術中画像化デバイス源の相対的な場所及び向きを決定する、6つのパラメータのセットを指す。非限定的な実例として、デバイスと患者ベッドと患者の間の相対移動の組合せとして、姿勢を取得することができる。そのような移動の別の非限定的な実例は、術中画像化デバイスの回転を、ベッド上で患者が静止している静止した患者ベッドの周囲でのその移動と組み合わせたものである。
本明細書で使用される場合、「場所」とは、3D空間内の画像化デバイス自体を含む、(任意の座標系、例えばx、y、及びzのデカルト座標系において測定可能な)任意の物体の位置を指す。
本明細書で使用される場合、「向き」とは、術中画像化デバイスの角度を指す。非限定的な実例として、術中画像化デバイスを、上方に、下方に、又は側方に面するように方向付けることができる。
本明細書で使用される場合、「姿勢推定方法」とは、第1の画像化モダリティの3D空間内で、第2の画像化モダリティと関連付けられるカメラのパラメータを推定するための方法を指す。そのような方法の非限定的な実例は、術前のCTの3D空間内での術中フルオロスコープ・カメラのパラメータを取得することである。数学的モデルにおいてそのような推定された姿勢を使用することで、術前のコンピュータ・トモグラフィ(CT:computed tomography)画像内の少なくとも1つの3D点が、術中X線画像内の対応する2D点に投影される。
本明細書で使用される場合、「多視点姿勢推定方法」とは、術中画像化デバイスの少なくとも2つの異なる姿勢のうちのいくつかの姿勢を推定するための方法を指す。その場合画像化デバイスは、同じシーン/対象者から画像を獲得する。
本明細書で使用される場合、「相対的な角度の違い」とは、画像化デバイスの2つの姿勢の角度方向の相対移動によって引き起こされる、それらの間の角度の違いを指す。
本明細書で使用される場合、「相対的な姿勢の違い」とは、対象者と画像化デバイスとの間の相対的な空間移動によって引き起こされる、画像化デバイスの2つの姿勢の間の位置及び相対的な角度の両方の違いを指す。
本明細書で使用される場合、「エピポーラ距離」とは、ある点と別のビュー内の同じ点のエピポーラ線との間の距離の測定値を指す。本明細書で使用される場合、「エピポーラ線」とは、あるビュー内の1つの点又は複数の点x,yベクトル又は2列の行列から計算されるものを指す。
本明細書で使用される場合、「類似性尺度」とは、2つの物体の間の類似性を定量化する実数値関数を指す。
いくつかの実施例では、本発明は:
第1の画像化モダリティから第1の画像を取得することと、
第1の画像化モダリティからの第1の画像から少なくとも1つの要素を抽出することであって、
少なくとも1つの要素には、気道、血管、体腔、又はこれらの任意の組合せが含まれる、抽出することと、
第2の画像化モダリティから、少なくとも(i)第1の姿勢である放射線不透過機器の第1の画像、及び(ii)第2の姿勢である放射線不透過機器の第2の画像を取得することであって、
放射線不透過機器は患者の体腔内にある、取得することと、
少なくとも2つの拡張された気管支造影図を生成することであって、
第1の拡張された気管支造影図は、第1の姿勢である放射線不透過機器の第1の画像に対応しており、
第2の拡張された気管支造影図は、第2の姿勢である放射線不透過機器の第2の画像に対応している、生成することと、
以下の間、すなわち、
(i)放射線不透過機器の第1の姿勢と、
(ii)放射線不透過機器の第2の姿勢と、の間の、相互の幾何学的制約を決定することと、
放射線不透過機器の第1の姿勢及び放射線不透過機器の第2の姿勢を第1の画像化モダリティの第1の画像と比較することによって、放射線不透過機器の第1の姿勢及び放射線不透過機器の第2の姿勢を推定することであって、
比較することは、
(i)第1の拡張された気管支造影図、
(ii)第2の拡張された気管支造影図、及び
(iii)少なくとも1つの要素、を使用して行われ、
放射線不透過機器の推定された第1の姿勢及び放射線不透過機器の推定された第2の姿勢は決定された相互の幾何学的制約を満たす、推定することと、
第3の画像を生成することであって、第3の画像は、第2の画像化モダリティから導出される、対象領域を強調表示した拡張された画像である、生成することと、を含み、
対象領域は第1の画像化モダリティからのデータから決定される、方法、を提供する。
いくつかの実施例では、第1の画像化モダリティからの第1の画像からの少なくとも1つの要素には、肋骨、脊椎、横隔膜、又はこれらの任意の組合せが更に含まれる。いくつかの実施例では、相互の幾何学的制約は、以下によって生成される:
a. 放射線不透過機器の第1の画像と放射線不透過機器の第2の画像を比較することによって、(i)第1の姿勢と(ii)第2の姿勢との間の違いを推定することであって、
推定することは、角度計、加速度計、ジャイロスコープ、若しくはこれらの任意の組合せを含むデバイスを使用して行われ、デバイスは第2の画像化モダリティに取り付けられている、推定すること、
b.相対的な姿勢変化を推定するために複数の画像特徴を抽出することであって、
複数の画像特徴は、解剖学的要素、非解剖学的要素、若しくはこれらの任意の組合せを含み、
画像特徴は、患者に取り付けられたパッチ、第2の画像化モダリティの視野内に配置された放射線不透過マーカ、若しくはこれらの任意の組合せを含み、
画像特徴は、放射線不透過機器の第1の画像及び放射線不透過機器の第2の画像上に見えている、抽出すること、
c. (i)第1の姿勢と(ii)第2の姿勢との間の違いを、少なくとも1つのカメラを使用することであって、
カメラには、ビデオカメラ、赤外線カメラ、深度カメラ、若しくはこれらの任意の組合せが含まれ、
カメラは固定された位置にあり、
カメラは少なくとも1つの特徴を追跡するように構成されており、
少なくとも1つの特徴には、患者に取り付けられたマーカ、第2の画像化モダリティに取り付けられたマーカ、若しくはこれらの任意の組合せが含まれる、使用することと、
少なくとも1つの特徴を追跡することと、によって、推定すること、
d. 又は、これらの任意の組合せ。
いくつかの実施例では、方法は、軌道を特定するために放射線不透過機器を追跡することと、軌道を追加の幾何学的制約として使用することと、を更に含み、放射線不透過機器には、内視鏡、気管支内器具、又はロボット・アームが含まれる。
いくつかの実施例では、本発明は以下を含む方法である:
患者の少なくとも1つの体腔のマップを生成することであって、
マップは第1の画像化モダリティからの第1の画像を使用して生成される、生成することと、
第2の画像化モダリティから、少なくとも2つの取り付けられたマーカを備える放射線不透過機器の画像を取得することであって、
少なくとも2つの取り付けられたマーカは既知の距離だけ分離されている、取得することと、
患者の少なくとも1つの体腔のマップに対する、第2の画像化モダリティからの放射線不透過機器の姿勢を特定することと、
第2の画像化モダリティからの第2の画像上で、放射線不透過機器に取り付けられた第1のマーカの第1の位置を特定することと、
第2の画像化モダリティからの第2の画像上で、放射線不透過機器に取り付けられた第2のマーカの第2の位置を特定することと、
第1のマーカの第1の位置と第2のマーカの第2の位置との間の距離を測定することと、
第1のマーカと第2のマーカとの間の既知の距離を投影することと、
患者の少なくとも1つの体腔内での放射線不透過機器の明確な位置を特定するために、測定された距離を、第1のマーカと第2のマーカとの間の投影された既知の距離と比較すること。
単一のビューから推測された3D情報はまだ曖昧であり、器具を肺の中の複数の位置に当てはめることがある可能性がある。計画される3D経路を実際の手技の前に分析し、案内中の曖昧さの大部分を回避するのに最も最適なフルオロスコープの向きを計算することによって、そのような状況の発生を減らすことができる。いくつかの実施例では、フルオロスコープの配置は米国特許第9,743,896号に記載されている方法に従って行われ、同特許はその内容の全体が参照により本明細書に組み込まれている。
いくつかの実施例では、放射線不透過機器には、内視鏡、気管支内器具、又はロボット・アームが含まれる。
いくつかの実施例では、方法は、放射線不透過機器の軌道を使用して放射線不透過機器の深度を特定することを更に含む。
いくつかの実施例では、第1の画像化モダリティからの第1の画像は術前画像である。いくつかの実施例では、第2の画像化モダリティからの放射線不透過機器の少なくとも1つの画像は、術中画像である。
いくつかの実施例では、本発明は以下を含む方法である:
第1の画像化モダリティから第1の画像を取得することと、
第1の画像化モダリティからの第1の画像から少なくとも1つの要素を抽出することであって、
少なくとも1つの要素には、気道、血管、体腔、又はこれらの任意の組合せが含まれる、抽出することと、
第2の画像化モダリティから、第2の画像化モダリティの2つの異なる姿勢において、少なくとも(i)放射線不透過機器の1つの画像及び(ii)放射線不透過機器のもう1つの画像を取得することであって、
放射線不透過機器の第1の画像は第2の画像化モダリティの第1の姿勢において撮影され
放射線不透過機器の第2の画像は第2の画像化モダリティの第2の姿勢において撮影され、
放射線不透過機器は患者の体腔内にある、取得することと、
画像化デバイスの2つの姿勢の各々に対応している少なくとも2つの拡張された気管支造影図を生成することであって、第1の拡張された気管支造影図は放射線不透過機器の第1の画像から導出され、第2の拡張された気管支造影図は放射線不透過機器の第2の画像から導出される、生成することと、
以下の間、すなわち、
(i)第2の画像化モダリティの第1の姿勢と、
(ii)第2の画像化モダリティの第2の姿勢と、の間の、相互の幾何学的制約を決定することと、
対応している拡張された気管支造影図画像及び第1の画像化モダリティの第1の画像から抽出された少なくとも1つの要素を使用して、第1の画像化モダリティの第1の画像に対する第2の画像化モダリティの2つの姿勢を推定することとであって、
2つの推定された姿勢は相互の幾何学的制約を満たす、推定することと、
第3の画像を生成することであって、第3の画像は、第1の画像化モダリティをソースとするデータに基づく、第2の画像化モダリティから導出される、対象領域を強調表示した拡張された画像である、生成すること。
気管支内器具の案内中、対象及び他の解剖学的構造に対する3Dでの器具の位置を検証する必要がある。いくつかの実施例では、肺内の何らかの位置に到達した後で、医師は、器具を同じ位置に維持したままで、フルオロスコープの場所を変えることができる。いくつかの実施例では、これらの術中画像を使用して、当業者は器具の位置を3Dで再構築し、3Dにおける対象に関連する器具の位置を医師に示すことができる。
いくつかの実施例では、器具の位置を3Dで再構築するためには、両方のビュー上の対応する点を拾い上げる必要がある。いくつかの実施例では、点は器具上の特別なマーカ、又は任意の機器上の識別可能な点、例えば、器具の先端部、若しくは気管支鏡の先端部である。いくつかの実施例では、これを達成するために、エピポーラ線を使用して、点同士の間の対応を見付けることができる。更に、いくつかの実施例では、エピポーラ制約を使用して、偽陽性マーカの検出をフィルタリングすること、及び更に、マーカ誤検出に起因して対応する対を有さないマーカを排除することができる(図8を参照)。
(エピポーラは、計算幾何学の特別な領域である立体視の幾何学に関連している)
いくつかの実施例では、仮想マーカは任意の機器、例えば見えている放射線不透過マーカのない機器上に生成される。いくつかの実施例では、仮想マーカは、(1)第1の画像上の機器上の任意の点を選択することと、(2)両画像間の既知の幾何学的関係を使用して第2の画像上でエピポーラ線を計算することと、(3)エピポーラ線を既知の又は第2の画像からの機器の軌道と交差させ、マッチング用の仮想マーカを与えることと、によって生成される。
いくつかの実施例では、本発明は以下を含む方法である:
第1の画像化モダリティから第1の画像を取得することと、
第1の画像化モダリティからの第1の画像から少なくとも1つの要素を抽出することであって、
少なくとも1つの要素には、気道、血管、体腔、又はこれらの任意の組合せが含まれる、抽出することと、
第2の画像化モダリティから、同じ放射線不透過機器の場所の第2の画像化モダリティの2つの異なる姿勢における少なくとも2つの画像を、少なくとも1つ又は複数の異なる機器の場所について取得することであって、
放射線不透過機器は患者の体腔内にある、取得することと、
対応する画像の姿勢同士の間の相互の幾何学的制約を使用して、基準座標系における同じ機器の場所の対応する複数の画像から、各機器の3D軌道を再構築することと、
再構築された放射線不透過機器の位置の3D軌道を第1の画像化モダリティの画像から抽出された3D軌道と整合させる変換を推定することによって、基準座標系と第1の画像化モダリティの画像との間の変換を推定することと、
第3の画像を生成することであって、第3の画像は、基準座標系と第1の画像化モダリティの画像との間の変換を使用する第1の画像化モダリティをソースとするデータに基づく、基準座標系における既知の姿勢を用いて第2の画像化モダリティから導出される、対象領域を強調表示した拡張された画像である、生成すること。
いくつかの実施例では、複数の放射線不透過機器の場所の、異なる姿勢からの画像を収集する方法は、以下を含む:(1)放射線不透過機器を第1の場所に配置することと、(2)第2の画像化モダリティの画像を取り込むことと、(3)第2のモダリティの画像化デバイスの姿勢を変えることと、(4)第2の画像化モダリティの別の画像を取り込むことと、(5)放射線不透過機器の場所を変えることと、(6)所望の数の固有の放射線不透過機器の場所が得られるまでステップ2を続けること。
いくつかの実施例では、2つの異なる姿勢の画像化デバイスから得られた少なくとも2つの術中画像上で特定可能な、任意の要素の位置を、再構築することが可能である。第1の画像化モダリティの第1の画像に対する第2の画像化モダリティの各姿勢が既知であるとき、第1の画像化モダリティの画像からの任意の解剖学的構造に対する、要素の再構築された3D場所を示すことが可能である。この技法の使用の実例として考えられるのは、対象に対する配備された基準点マーカの3D場所の確認である。
いくつかの実施例では、本発明は以下を含む方法である:
第1の画像化モダリティから第1の画像を取得することと、
第1の画像化モダリティからの第1の画像から少なくとも1つの要素を抽出することであって、
少なくとも1つの要素には、気道、血管、体腔、又はこれらの任意の組合せが含まれる、抽出することと、
第2の画像化モダリティから、第2の画像化モダリティの2つの異なる姿勢において、少なくとも(i)放射線不透過基準点の1つの画像及び(ii)その放射線不透過基準点のもう1つの画像を取得することであって、
放射線不透過基準点の第1の画像は第2の画像化モダリティの第1の姿勢において撮影され、
放射線不透過基準点の第2の画像は第2の画像化モダリティの第2の姿勢において撮影される、取得することと、
放射線不透過基準点の3D場所を、画像化デバイスの2つの姿勢から、
(i)第2の画像化モダリティの第1の姿勢と、
(ii)第2の画像化モダリティの第2の姿勢と、の間の相互の幾何学的制約を使用して、再構築することと、
第1の画像化モダリティをソースとするデータに基づく、対象領域に対する基準点の3Dの相対的な場所を示す第3の画像を生成すること。
いくつかの実施例では、肋骨、脊椎、横隔膜、又はこれらの任意の組合せなどの解剖学的要素が、第1の画像化モダリティから及び第2の画像化モダリティから抽出される。
いくつかの実施例では、相互の幾何学的制約は、以下によって生成される:
a. 放射線不透過機器の第1の画像と放射線不透過機器の第2の画像を比較することによって、(i)第1の姿勢と(ii)第2の姿勢との間の違いを推定することであって、
推定することは、角度計、加速度計、ジャイロスコープ、若しくはこれらの任意の組合せを含むデバイスを使用して行われ、デバイスは第2の画像化モダリティに取り付けられている、推定すること、
b. 相対的な姿勢変化を推定するために複数の画像特徴を抽出することであって、
複数の画像特徴は、解剖学的要素、非解剖学的要素、若しくはこれらの任意の組合せを含み、
画像特徴は、患者に取り付けられたパッチ、第2の画像化モダリティの視野内に配置された放射線不透過マーカ、若しくはこれらの任意の組合せを含み、
画像特徴は、放射線不透過機器の第1の画像及び放射線不透過機器の第2の画像上に見えている、抽出すること、
c. (i)第1の姿勢と(ii)第2の姿勢との間の違いを、少なくとも1つのカメラを使用することであって、
カメラには、ビデオカメラ、赤外線カメラ、深度カメラ、若しくはこれらの任意の組合せが含まれ、
カメラは固定された位置にあり、
カメラは少なくとも1つの特徴を追跡するように構成されており、
少なくとも1つの特徴には、患者に取り付けられたマーカ、第2の画像化モダリティに取り付けられたマーカ、若しくはこれらの任意の組合せが含まれる、使用することと、
少なくとも1つの特徴を追跡することと、によって、推定すること、
d. 又は、これらの任意の組合せ。
いくつかの実施例では、方法は、軌道を識別するために放射線不透過機器を追跡することと、そのような軌道を追加の幾何学的制約として使用することと、を更に含み、放射線不透過機器には、内視鏡、気管支内器具、又はロボット・アームが含まれる。
いくつかの実施例では、本発明は、以下を含む、患者の体内の機器の真の位置を特定するための方法である:
第1の画像化モダリティの第1の画像から生成された患者の少なくとも1つの体腔のマップを使用することと、
第2の画像化モダリティから、ある距離が間に定められている少なくとも2つのマーカが取り付けられている、放射線不透過機器の画像を取得することであって、
マーカは、患者の体内の少なくとも2つの異なる体腔内に位置付けられる画像から認識できる、取得することと、
マップに対する第2の画像化モダリティの姿勢を取得することと、
第2の画像化モダリティからの第2の画像上で、放射線不透過機器に取り付けられた第1のマーカの第1の位置を特定することと、
第2の画像化モダリティからの第2の画像上で、放射線不透過機器に取り付けられた第2のマーカの第2の位置を特定することと、
第1のマーカの第1の位置と第2のマーカの第2の位置との間の距離を測定することと、
第2の画像化モダリティの姿勢を使用して、放射線不透過機器の認識された位置の各々上に、マーカ同士の間の既知の距離を投影することと、
体内での機器の真の位置を特定するために、測定された距離と2つのマーカ同士の間の投影された距離の各々とを比較すること。
いくつかの実施例では、放射線不透過機器には、内視鏡、気管支内器具、又はロボット・アームが含まれる。
いくつかの実施例では、方法は、放射線不透過機器の軌道を使用して、放射線不透過機器の深度を特定することを更に含む。
いくつかの実施例では、第1の画像化モダリティからの第1の画像は術前画像である。いくつかの実施例では、第2の画像化モダリティからの放射線不透過機器の少なくとも1つの画像は、術中画像である。
多視点姿勢推定
米国特許第9,743,896号は内視鏡手技中のフルオロスコープ・デバイスの患者に対する姿勢情報(例えば、場所、向き)を推定するための方法の説明を含み、その全体が参照によって本明細書に組み込まれる。国際特許出願第WO/2016/067092号も同じく、その全体が参照によって本明細書に組み込まれる。
本発明は、術中画像のセットから抽出されたデータを含む方法であり、画像の各々は、画像化デバイスから得られた、少なくとも1つ(例えば、1つ、2つ、3つ、4つ、等)の未知の姿勢において獲得される。これらの画像は、姿勢推定方法に関する入力として使用される。例示的な実施例として、図3、図4、図5は、3つのフルオロスコープ画像の組の実例である。図4及び図5の画像は同じ未知の姿勢において獲得されたが、図3の画像は異なる未知の姿勢において獲得された。このセットには、例えば、画像化デバイスに関連する追加の既知の場所データが、含まれても含まれなくてもよい。例えば、あるセットはCアームの場所及び向きなどの場所データを含み得るが、これはフルオロスコープによって提供できるか、又は、フルオロスコープに取り付けられた測定デバイス、例えば角度計、加速度計、ジャイロスコープ、等を介して獲得できる。
いくつかの実施例では、解剖学的要素は追加の術中画像から抽出され、これらの解剖学的要素は、姿勢推定方法に導入可能な幾何学的な制約を示唆している。この結果、姿勢推定方法を使用する前に、単一の術中画像から抽出される要素の数を減らすことができる。
いくつかの実施例では、多視点姿勢推定方法は、術前のモダリティをソースとする情報を、術中画像のセットからの任意の画像の上に重ね合わせることを更に含む。
いくつかの実施例では、術前のモダリティをソースとする術中画像に対する重ね合わせ情報の説明を、その全体が参照によって本明細書に組み込まれる米国特許第9,743,896号に見出すことができる。
いくつかの実施例では、複数の第2の画像化モダリティによって、複数の画像を取得するために患者に対するフルオロスコープの姿勢を変えること(例えば、限定するものではないが、フルオロスコープのアームの回転若しくは直線移動、患者ベッドの回転及び移動、ベッド上の患者の相対移動、又は上記の任意の組合せ)が可能になり、この場合、ソースとしてのフルオロスコープの上述した相対的な姿勢から、患者とフルオロスコープ・デバイスの間の回転移動と直線移動の任意の組合せとして、複数の画像が取得される。
本発明のいくつかの実施例について記載してきたが、これらの実施例は例示的なものに過ぎず制限的ではないこと、及び、当業者には多くの修正が明らかになり得ることが、理解される。また更に、様々なステップを任意の所望の順序で実行してもよい(また、任意の所望のステップを追加してもよく、且つ/又は、任意の所望のステップを削除してもよい)。
ここで、上記の説明と共に本発明のいくつかの実施例を非限定的な様式で説明する、以下の実例を参照する。
実例:最小侵襲性の肺手技
本発明の非限定的な例示的な実施例を、最小侵襲性の肺手技に応用することができ、この場合、気管支内器具が、気管支鏡の作業チャネル(図6を参照)を通して患者の気管支気道に挿入される。診断手順の開始前に医師は設定プロセスを実施し、そこで医師はカテーテルを、対象領域の周囲のいくつかの(例えば、2つ、3つ、4つ等の)気管支気道内に設置する。図2、図3、及び図4に示すように、気管支内カテーテルの各位置のフルオロスコープ画像が獲得される。術中フルオロスコープ・デバイスの姿勢推定を行うために使用される案内システムの実例が国際出願第PCT/IB2015/000438号に記載されており、本発明の本方法は、抽出された要素(例えば、限定するものではないが、複数のカテーテル位置、肋骨の解剖学的構造、及び患者の身体境界)を使用する。
対象領域における姿勢の推定後、気管支鏡を挿入するための経路を手技前の画像化モダリティ上で特定することができ、強調表示すること又は術前画像からの情報を術中フルオロスコープ画像上に重ね合わせることによって、それらの経路をマーキングすることができる。気管支内カテーテルを対象領域へと案内した後で、医師は、例えばカテーテルが対象領域内に位置付けられていることを検証するために、フルオロスコープ・デバイスを回転させるか、そのズームのレベルを変えるか、又は動かすことができる。典型的には、図4が示すようなフルオロスコープ・デバイスのそのような姿勢変化によって、先に推定された姿勢が無効になり、医師が設定プロセスを繰り返すことが必要となる。しかしながら、カテーテルは既にあり得る対象領域内に位置付けられているので、設定プロセスを繰り返し行う必要はない。
図4は本発明の例示的な実施例を示し、図2及び図3から抽出された解剖学的要素を使用してフルオロスコープの角度の姿勢が推定されているのを示している(ここにおいて、例えば、図2及び図3は、初期の設定プロセスから取得された画像、並びに、カテーテルの位置、肋骨の解剖学的構造、及び身体境界といった、画像から抽出された追加の解剖学的要素を示している)。姿勢は例えば、(1)フルオロスコープを移動させること(例えば、ヘッドをCアームを中心に回転させること)、(2)フルオロスコープを前後に移動させることによって、又は別法として対象者の場所変化を介して、又は両方の組合せ等によって、変化させることができる。更に、図2と図4の間の相互の幾何学的制約、例えば画像化デバイスに関連する場所データを、推定プロセスにおいて使用することができる。
図1は本発明の例示的な実施例であり、以下を示す。
I. 構成要素120は、自動若しくは半自動セグメント化プロセス、又はこれらの任意の組合せを使用して、限定するものではないがCT、磁気共鳴画像化(MRI:magnetic resonance imaging)、陽電子放射トモグラフィ−コンピュータ・トモグラフィ(PET−CT)などの術前画像から、気管支気道、肋骨、横隔膜などの3D解剖学的要素を抽出する。自動又は半自動セグメント化プロセスの実例が、その全体が参照によって本明細書に組み込まれる「Three−dimensional Human Airway Segmentation Methods for Clinical Virtual Bronchoscopy」、Atilla P. Kiraly、William E. Higgins、Geoffrey McLennan、Eric A. Hoffman、Joseph M. Reinhardtに記載されている。
II. 構成要素130は、例えば限定するものではないがフルオロスコープ画像、超音波画像等の、術中画像のセットから、2Dの解剖学的要素を抽出する(それらは図4に更に示されており、例えば気管支気道410、肋骨420、身体境界430、及び横隔膜である)。
III. 構成要素140は、術中画像のセット中の画像の各サブセット間の相互の制約、例えば相対的な角度の違い、相対的な姿勢の違い、エピポーラ距離、等を計算する。
別の実施例では、方法は、術中画像のセット中の画像の各サブセット間の、相互の制約を推定することを含む。そのような方法の非限定的な実例は以下の通りである:(1)1対のフルオロスコープ画像の少なくとも2つの姿勢の間の相対的な姿勢変化を推定するための、術中画像化デバイスに取り付けられた測定デバイスの使用。(2)患者に取り付けられたパッチ(例えばECGパッチ)又は術中画像化デバイスの視野内に配置された放射線不透過マーカを含むがこれらに限定されない、両方の画像上に見えている解剖学的要素又は非解剖学的要素などの画像特徴の抽出、及び、これらの特徴を使用した相対的な姿勢変化の推定。(3)例えば患者に取り付けられたパッチ又はマーカ、画像化デバイスに取り付けられたマーカ等の特徴を追跡する、手技室において指定された位置に取り付けられた、ビデオカメラ、赤外線カメラ、深度カメラ、又はこれらの任意の組合せなどの1組のカメラの使用。かかる特徴を追跡することによって、その構成要素は画像化デバイスの相対的な姿勢変化を推定できる。
IV. 構成要素150は、術前画像から生成された3D要素を、術中画像から生成されたそれらの対応する2D要素にマッチングさせる。例えば、フルオロスコープ画像から抽出された所与の2D気管支気道の、CT画像から抽出された3D気道のセットへのマッチング。
V. 構成要素170は、例えば術前画像座標系、他の画像化又は案内デバイスによって形成された手術環境関連の座標系等の所望の座標系において、術中画像のセット中の画像の各々について姿勢を推定する。
この構成要素への入力は以下の通りである:
・患者術前画像から抽出された3D解剖学的要素。
・術中画像のセットから抽出された2D解剖学的要素。本明細書において述べるように、セット中の画像は、同じ又は異なる画像化デバイスの姿勢をソースとし得る。
・術中画像のセット中の画像の各サブセット間の相互の制約
構成要素170は、術中画像のセットからの各画像について、以下のように姿勢を評価する:
・2Dの抽出された要素は、対応し投影される3D解剖学的要素にマッチングされる。
・相互の制約条件140は推定される姿勢に適用される。
術前画像をソースとする投影される3D要素を術中画像からの対応する2D要素にマッチングさせるために、距離計量などの類似性尺度が必要となる。そのような距離計量によって、投影された3D要素とそれらの対応する2D要素との間の距離を評価するための尺度が提供される。例えば、2つのポリライン(例えば、単一のオブジェクトとして作成された接続された一連の線分)の間のユークリッド距離を、術前画像をソースとする3D投影された気管支気道と術中画像から抽出された2D気道との間の類似性尺度として使用することができる。
更に、本発明の方法のある実施例では、方法は、術中画像セットからの画像のサブセット間の相互の制約が満たされる場合に、類似性尺度を最適化するような姿勢を特定することによって、術中画像のセットに対応する姿勢のセットを推定することを含む。類似性尺度の最適化は最小2乗問題と見なすことができ、いくつかの方法で、例えば、(1)その全体:B. Triggs、P. McLauchlan、R. Hartley、A. Fitzgibbon (1999)、「Bundle Adjustment−A Modern Synthesis」、ICCV’99:Proceedings of the International Workshop on Vision Algorithms、Springer−Verlag、298〜372頁、が参照によって本明細書に組み込まれる、姿勢推定のための反復最小化法を実施する周知のバンドル調整アルゴリズムを用いて、及び(2)パラメータ空間を走査して類似性尺度を最適化する最適姿勢を探索するための、グリッド探索法を用いて、解くことができる。
マーカ
機器の場所についての3D情報を復元するために、放射線不透過マーカを医療機器上の所定の位置に設置することができる。気管支気道又は血管などの、体内の腔の3D構造のいくつかの経路を、術中画像上の同様の2D曲線へと投影することができる。例えば国際出願第PCT/IB2015/000438号に示されているように、マーカを用いて得られる3D情報を使用して、そのような経路同士の間の区別を行うことができる。
本発明の例示的な実施例では、図5が示すように、機器は術中デバイスによって画像化され、画像化平面505に投影される。両方の経路が画像平面505上の同じ曲線へと投影されているので、機器が経路520又は経路525内に設置されるかどうかは未知である。経路520と経路525を区別するために、マーカ同士の間に所定の距離「m」を有する、カテーテルに取り付けられた少なくとも2つの放射線不透過マーカを使用することが可能である。図5では、術前画像上に見られるマーカは「G」及び「F」と名付けられている。
520と525の間の区別のプロセスは、以下のように行うことができる。
(1)術中画像からの点Fを対応する気道520、525のあり得る候補上に投影して、A点及びB点を得る。
(2)術中画像からの点Gを対応する気道520、525のあり得る候補上に投影して、点C及び点Dを得る。
(3)投影されるマーカの対|AC|及び|BD|の間の距離を測定する。
(4)525上の距離|AC|及び520上の距離|BD|を、器具製造者によって事前に定められた距離mと比較する。距離類似性に従って適切な気道を選ぶ。
追跡型スコープ
非限定的な実例として、本明細書には、患者のCTスキャンをフルオロスコープ・デバイスと重ね合わせるための方法が開示されている。この方法は、フルオロスコープ画像中及びCTスキャン中の両方で検出される解剖学的要素を、CTスキャンに対するフルオロスコープ・デバイス姿勢(例えば、向き及び場所)を生み出す姿勢推定アルゴリズムへの入力として使用する。以下では、この方法を、気管支内デバイスの場所に対応する3D空間軌道を重ね合わせ方法の入力に追加することによって拡張する。これらの軌道は、スコープに沿って場所センサを取り付けることによって、又はロボット内視鏡アームを使用することによってなど、いくつかの手段によって獲得できる。そのような気管支内デバイスを以下では追跡型スコープと呼ぶ。追跡型スコープは、そこから延びる手術器具を対象エリアに導くために使用される(図7を参照)。診断器具は、カテーテル、鉗子、針等であり得る。以下では、本明細書で示される重ね合わせ方法の正確度及びロバスト性を改善するために、追跡型スコープによって獲得される場所の測定値を使用する方法について記載する。
一実施例では、追跡型スコープの軌道とフルオロスコープ・デバイスの座標系との間の重ね合わせは、追跡型スコープを空間内の様々な位置に位置決めし標準的な姿勢推定アルゴリズムを適用することによって達成される。姿勢推定アルゴリズムの参考文献として、その全体が参照によって本明細書に組み込まれる、以下の論文を参照されたい:F. Moreno−Noguer、V. Lepetit、及びP. Fuaの論文「EPnP: Efficient Perspective−n−Point Camera Pose Estimation」。
本明細書に開示する姿勢推定方法は、CTスキャン中の選択される要素がフルオロスコープ画像中のそれらの対応する要素上に投影されるように姿勢を推定することによって実行される。本発明の一実施例では、追跡型スコープの軌道を姿勢推定方法への入力として追加することによって、この方法が拡張される。これらの軌道を、本明細書の方法を用いてフルオロスコープ・デバイスの座標系へと変換することができる。軌道はフルオロスコープ・デバイス座標系に変換されると姿勢推定方法に対する追加の制約として機能するが、その理由は、重ね合わせたCTスキャンからセグメント化された気管支気道とそれらの軌道とが整合しなければならないという条件によって、推定される姿勢が制約されるからである。
フルオロスコープ・デバイスが推定した姿勢を使用することによって、術前のCTからの解剖学的要素をフルオロスコープの生動画に投影して、手術器具を肺の中の指定された対象に導くことができる。そのような解剖学的要素とは、限定するものではないが、対象病巣、病巣への経路、等である。投影された対象病巣への経路は医師に2次元情報しか提供せず、この結果深度が曖昧になる、すなわち、CT上でセグメント化されたいくつかの気道が、2Dのフルオロスコープ画像上の同じ投影に対応している可能性がある。手術器具が設置される気管支気道をCT上で適正に特定することが重要である。本明細書に記載する、そのような曖昧さを低減するために使用される1つの方法は、深度情報を提供する器具上に設置された放射線不透過マーカを使用することによって実行される。本発明の別の実施例では、追跡型スコープを使用して曖昧さを低減することができるが、その理由は、それが気管支気道内の3D場所を与えるからである。そのような手法は、分岐する気管支樹に適用されると、図7の追跡型スコープ先端部701までの潜在的な曖昧な選択肢を排除することを可能にする。図7の手術器具702が3D軌道を有さないと仮定すると、器具のこの部分702に関して上述の曖昧さが依然として生じることになるが、そのようなことが生じる可能性は遙かに低い。したがって、本発明のこの実施例によって、この器具の現在の場所を適正に特定する本明細書に記載する方法の能力が改善される。
デジタル・コンピュータ・トモグラフィ(DCT:Digital Computational Tomography)
いくつかの実施例では、術中画像からのトモグラフィ再構築を、基準座標系に対する対象の場所を計算するために使用することができる。幾何形状が既知である放射線不透過マーカを備えた治具によって、各術中画像の相対的な姿勢の計算が可能になるように、そのような基準座標系の非限定的な実例を定めることができる。いくつかの実施例では、トモグラフィ再構築の各入力フレームは基準座標系との幾何学的関係が既知であるので、対象の場所を基準座標系内に配置可能である。いくつかの実施例では、このことにより、対象を更なるフルオロスコープ画像上に投影することが可能になる。いくつかの実施例では、投影される対象の場所は、対象の領域内の組織を追跡することによって、呼吸運動に関して補正可能である。いくつかの実施例では、この運動の補正は米国特許第9,743,896号に記載されている例示的な方法に従って行われ、同特許はその内容の全体が参照により本明細書に組み込まれている。
ある実施例では、CアームベースのCT及び基準姿勢デバイスを使用して術中画像上の対象を拡張するための方法は、基準座標系との幾何学的関係が既知である複数の術中画像を収集することと、3D立体物(volume)を再構築することと、再構築された立体物上の対象エリアをマーキングすることと、対象を基準座標系との幾何学的関係が既知である更なる術中画像上に投影することと、を含む。
他の実施例では、トモグラフィで再構築された立体物を、術前のCT立体物と重ね合わせることができる。再構築された立体物において及び術前の立体物において、対象又は対象に付属する解剖学的構造、例えば血管又は気管支気道の、既知の中心場所が与えられれば、両方の立体物を最初に位置合わせすることができる。他の実施例では、初期の位置合わせを見出すために、両方の立体物から抽出された肋骨を使用することができる。立体物同士の間の適正な回転を見出すために、機器の再構築された場所及び軌道を、CTから抽出された考えられる全ての気道軌道にマッチングさせることができる。最良のマッチングは、立体物同士の間の最も最適な相対回転を定めるものである。
他の実施例では、フルオロスコープ画像化の品質の限界、他の組織による対象領域の妨害、手術環境の空間制約に起因して、DCTから一部の情報しか再構築されない可能性がある。そのような場合、対応している一部の情報は、術中画像化から再構築された部分的な3D立体物と術前のCTとの間で特定され得る。2つの画像ソースを1つに融合して、統合データ・セットを形成することができる。上述のデータ・セットは、追加の手技中画像で随時更新することができる。
他の実施例では、トモグラフィで再構築された立体物を、気管支内全方位超音波法(「REBUS:radial endobronchial ultrasound」)で再構築された3D対象形状と重ね合わせることができる。
いくつかの実施例では、トモグラフィを使用してCTとフルオロスコープの重ね合わせを行うための方法は、以下から成る:術前画像上に対象をマーキングし、気管支樹を抽出することと、内視鏡機器を対象の肺葉内に配置することと、器具が内側で安定している状態でCアームを使用してトモグラフィをスピンさせることと、再構築された立体物上に対象及び機器をマーキングすることと、術前の立体物と再構築された立体物とを、対象の場所によって又は付属の解剖学的構造の場所によって位置合わせすることと、CTから抽出された考えられる全ての気道軌道について、機器の再構築された軌道と各気道軌道との間の距離を最小にする、立体物同士の間の最適な回転を計算することと、最短距離に対応する回転を選択することと、2つの立体物同士の間の位置合わせを用いて、再構築された立体物を術前の立体物から得られた解剖学的情報で補強することと、更なる術中画像上で対象エリアを強調表示すること。
他の実施例では、先行する術前のCTスキャンの立体物を使用することによって、デジタル・トモシンセシスの品質を向上させることができる。術中画像と術前のCTスキャンとの間の既知の粗い重ね合わせを行うと、術前のCTスキャンの立体物から対象の関連領域を抽出することができる。周知の再構築アルゴリズムに制約を加えることによって再構築される画像の品質が大きく改善されるが、このことが全体として参照によって本明細書に組み込まれる:Sechopoulos、Ioannis (2013)、「A review of breast tomosynthesis. Part II. Image reconstruction, processing and analysis, and advanced applications」、Medical Physics40 (1): 014302。そのような制約の実例として、最初の立体物を、術前のCTから抽出された立体物を用いて初期化することができる。
いくつかの実施例では、先行する術前のCTスキャンの立体物を使用してトモグラフィ再構築を改善する方法は、術中画像と術前のCTスキャンとの間の重ね合わせを行うことと、術前のCTスキャンから対象立体物の領域を抽出することと、周知の再構築アルゴリズムに制約を加えることと、追加された制約を使用して画像を再構築することと、を含む。
(等価物)
本発明はとりわけ、軽度から中度の急性痛及び/又は炎症を治療するための、新規の方法及び組成物を提供する。主題の発明の具体的な実施例について検討してきたが、上記の明細書は例示的なものであって制限的なものではない。当業者には本明細書を精査することで本発明の多くの変形が明らかになるであろう。本発明の全範囲は、特許請求の範囲をそれらの等価物の全範囲と併せて、及び明細書をそのような変形と併せて参照して、決定されるべきである。
(参照による組み込み)
本明細書で言及する全ての刊行物、特許、及び配列データベースのエントリは、個々の各刊行物又は特許が参照により組み込まれるものと特定的且つ個別に示されているかのように、参照によりそれらの全体が本明細書に組み込まれる。
本発明のいくつかの実施例について記載してきたが、これらの実施例は例示的なものに過ぎず制限的ではないこと、及び、当業者には多くの変更が明らかになり得ることが、理解される。また更に、様々なステップを任意の所望の順序で実行してもよい(また、任意の所望のステップを追加してもよく、且つ/又は、任意の所望のステップを削除してもよい)。

Claims (18)

  1. 第1の画像化モダリティから第1の画像を取得することと、
    前記第1の画像化モダリティからの前記第1の画像から少なくとも1つの要素を抽出することであって、
    前記少なくとも1つの要素には、気道、血管、体腔、又はこれらの任意の組合せが含まれる、抽出することと、
    第2の画像化モダリティから、少なくとも(i)第1の姿勢である放射線不透過機器の第1の画像、及び(ii)第2の姿勢である前記放射線不透過機器の第2の画像を取得することであって、
    前記放射線不透過機器は患者の体腔内にある、取得することと、
    少なくとも2つの拡張された気管支造影図を生成することであって、
    第1の拡張された気管支造影図は、前記第1の姿勢である前記放射線不透過機器の前記第1の画像に対応しており、
    第2の拡張された気管支造影図は、前記第2の姿勢である前記放射線不透過機器の前記第2の画像に対応している、生成することと、
    以下の間、すなわち、
    (i)前記放射線不透過機器の前記第1の姿勢と、
    (ii)前記放射線不透過機器の前記第2の姿勢と、の間の、相互の幾何学的制約を決定することと、
    前記放射線不透過機器の前記第1の姿勢及び前記放射線不透過機器の前記第2の姿勢を前記第1の画像化モダリティの前記第1の画像と比較することによって、前記放射線不透過機器の前記第1の姿勢及び前記放射線不透過機器の前記第2の姿勢を推定することであって、
    前記比較することは、
    (i)前記第1の拡張された気管支造影図、
    (ii)前記第2の拡張された気管支造影図、及び
    (iii)前記少なくとも1つの要素、を使用して行われ、
    前記放射線不透過機器の前記推定された第1の姿勢及び前記放射線不透過機器の前記推定された第2の姿勢は前記決定された相互の幾何学的制約を満たす、推定することと、
    第3の画像を生成することであって、前記第3の画像は、前記第2の画像化モダリティから導出される、対象領域を強調表示した拡張された画像である、生成することと、を含み、
    前記対象領域は前記第1の画像化モダリティからのデータから決定される、
    方法。
  2. 前記第1の画像化モダリティからの前記第1の画像からの前記少なくとも1つの要素には、肋骨、脊椎、横隔膜、又はこれらの任意の組合せが更に含まれる、請求項1に記載の方法。
  3. 前記相互の幾何学的制約は、
    a. 前記放射線不透過機器の前記第1の画像と前記放射線不透過機器の前記第2の画像を比較することによって、(i)前記第1の姿勢と(ii)前記第2の姿勢との間の違いを推定することであって、
    前記推定することは、角度計、加速度計、ジャイロスコープ、若しくはこれらの任意の組合せを含むデバイスを使用して行われ、前記デバイスは前記第2の画像化モダリティに取り付けられている、推定すること、
    b. 相対的な姿勢変化を推定するべく複数の画像特徴を抽出することであって、
    前記複数の画像特徴は、解剖学的要素、非解剖学的要素、若しくはこれらの任意の組合せを含み、
    前記画像特徴は、患者に取り付けられたパッチ、前記第2の画像化モダリティの視野内に配置された放射線不透過マーカ、若しくはこれらの任意の組合せを含み、
    前記画像特徴は、前記放射線不透過機器の前記第1の画像及び前記放射線不透過機器の前記第2の画像上に見えている、抽出すること、
    c. (i)前記第1の姿勢と(ii)前記第2の姿勢との間の違いを、少なくとも1つのカメラを使用することであって、
    前記カメラには、ビデオカメラ、赤外線カメラ、深度カメラ、若しくはこれらの任意の組合せが含まれ、
    前記カメラは固定された位置にあり、
    前記カメラは少なくとも1つの特徴を追跡するように構成されており、
    前記少なくとも1つの特徴には、前記患者に取り付けられたマーカ、前記第2の画像化モダリティに取り付けられたマーカ、若しくはこれらの任意の組合せが含まれる、使用することと、
    前記少なくとも1つの特徴を追跡することと、によって、推定すること、
    d. 又は、これらの任意の組合せによって生成される、請求項1に記載の方法。
  4. 前記方法は、軌道を特定するために前記放射線不透過機器を追跡することと、前記軌道を更なる幾何学的制約として使用することと、を更に含み、前記放射線不透過機器には、内視鏡、気管支内器具、又はロボット・アームが含まれる、請求項1に記載の方法。
  5. 患者の少なくとも1つの体腔のマップを生成することであって、
    前記マップは第1の画像化モダリティからの第1の画像を使用して生成される、生成することと、
    第2の画像化モダリティから、少なくとも2つの取り付けられたマーカを備える放射線不透過機器の画像を取得することであって、
    前記少なくとも2つの取り付けられたマーカは既知の距離だけ分離されている、取得することと、
    患者の少なくとも1つの体腔のマップに対する、前記第2の画像化モダリティからの前記放射線不透過機器の姿勢を特定することと、
    前記第2の画像化モダリティからの前記第2の画像上で、前記放射線不透過機器に取り付けられた前記第1のマーカの第1の位置を特定することと、
    前記第2の画像化モダリティからの前記第2の画像上で、前記放射線不透過機器に取り付けられた前記第2のマーカの第2の位置を特定することと、
    前記第1のマーカの前記第1の位置と前記第2のマーカの前記第2の位置との間の距離を測定することと、
    前記第1のマーカと前記第2のマーカとの間の前記既知の距離を投影することと、
    前記患者の前記少なくとも1つの体腔内での前記放射線不透過機器の明確な位置を特定するために、前記測定された距離を、前記第1のマーカと前記第2のマーカとの間の前記投影された既知の距離と比較することと、
    を含む、方法。
  6. 前記放射線不透過機器には、内視鏡、気管支内器具、又はロボット・アームが含まれる、請求項5に記載の方法。
  7. 前記放射線不透過機器の軌道を使用して前記放射線不透過機器の深度を特定することを更に含む、請求項5に記載の方法。
  8. 前記第1の画像化モダリティからの前記第1の画像は術前画像である、請求項5に記載の方法。
  9. 前記第2の画像化モダリティからの前記放射線不透過機器の前記少なくとも1つの画像は、術中画像である、請求項5に記載の方法。
  10. 第1の画像化モダリティから第1の画像を取得することと、
    前記第1の画像化モダリティからの前記第1の画像から少なくとも1つの要素を抽出することであって、
    前記少なくとも1つの要素には、気道、血管、体腔、又はこれらの任意の組合せが含まれる、抽出することと、
    第2の画像化モダリティから、第2の画像化モダリティの2つの異なる姿勢において、少なくとも(i)放射線不透過機器の1つの画像及び(ii)前記放射線不透過機器のもう1つの画像を取得することであって、
    前記放射線不透過機器の前記第1の画像は第2の画像化モダリティの第1の姿勢において撮影され、
    前記放射線不透過機器の前記第2の画像は第2の画像化モダリティの第2の姿勢において撮影され、
    前記放射線不透過機器は患者の体腔内にある、取得することと、
    前記画像化デバイスの2つの姿勢の各々に対応している少なくとも2つの拡張された気管支造影図を生成することであって、第1の拡張された気管支造影図は前記放射線不透過機器の前記第1の画像から導出され、前記第2の拡張された気管支造影図は前記放射線不透過機器の前記第2の画像から導出される、生成することと、
    以下の間、すなわち、
    (i)前記第2の画像化モダリティの前記第1の姿勢と、
    (ii)前記第2の画像化モダリティの前記第2の姿勢と、の間の、相互の幾何学的制約を決定することと、
    前記対応している拡張された気管支造影図画像及び前記第1の画像化モダリティの前記第1の画像から抽出された少なくとも1つの要素を使用して、前記第1の画像化モダリティの前記第1の画像に対する前記第2の画像化モダリティの前記2つの姿勢を推定することであって、
    前記2つの推定された姿勢は前記相互の幾何学的制約を満たす、推定することと、
    第3の画像を生成することであって、前記第3の画像は、前記第1の画像化モダリティをソースとするデータに基づく、前記第2の画像化モダリティから導出される対象領域を強調表示した拡張された画像である、生成することと、
    を含む、方法。
  11. 肋骨、脊椎、横隔膜、又はこれらの任意の組合せなどの解剖学的要素が、前記第1の画像化モダリティから及び前記第2の画像化モダリティから抽出される、請求項10に記載の方法。
  12. 前記相互の幾何学的制約は、
    a. 前記放射線不透過機器の前記第1の画像と前記放射線不透過機器の前記第2の画像を比較することによって、(i)前記第1の姿勢と(ii)前記第2の姿勢との間の違いを推定することであって、
    前記推定することは、角度計、加速度計、ジャイロスコープ、若しくはこれらの任意の組合せを含むデバイスを使用して行われ、前記デバイスは前記第2の画像化モダリティに取り付けられている、推定すること、
    b. 相対的な姿勢変化を推定するべく複数の画像特徴を抽出することであって、
    前記複数の画像特徴は、解剖学的要素、非解剖学的要素、若しくはこれらの任意の組合せを含み、
    前記画像特徴は、患者に取り付けられたパッチ、前記第2の画像化モダリティの視野内に配置された放射線不透過マーカ、若しくはこれらの任意の組合せを含み、
    前記画像特徴は、前記放射線不透過機器の前記第1の画像及び前記放射線不透過機器の前記第2の画像上に見えている、抽出すること、
    c. (i)前記第1の姿勢と(ii)前記第2の姿勢との間の違いを、少なくとも1つのカメラを使用することであって、
    前記カメラには、ビデオカメラ、赤外線カメラ、深度カメラ、若しくはこれらの任意の組合せが含まれ、
    前記カメラは固定された位置にあり、
    前記カメラは少なくとも1つの特徴を追跡するように構成されており、
    前記少なくとも1つの特徴には、前記患者に取り付けられたマーカ、前記第2の画像化モダリティに取り付けられたマーカ、若しくはこれらの任意の組合せが含まれる、使用することと、
    前記少なくとも1つの特徴を追跡することと、によって、推定すること、
    d. 又は、これらの任意の組合せによって生成される、請求項10に記載の方法。
  13. 軌道を特定するために前記放射線不透過機器を追跡することと、前記軌道を追加の幾何学的制約として使用することと、を更に含み、前記放射線不透過機器には、内視鏡、気管支内器具、又はロボット・アームが含まれる、請求項10に記載の方法。
  14. 患者の体内の機器の真の位置を特定するための方法であって、
    第1の画像化モダリティの第1の画像から生成された患者の少なくとも1つの体腔のマップを使用することと、
    第2の画像化モダリティから、ある距離が間に定められている少なくとも2つのマーカが取り付けられている、放射線不透過機器の画像を取得することであって、
    前記マーカは、前記患者の体内の少なくとも2つの異なる体腔内に位置付けられる画像から認識できる、取得することと、
    前記マップに対する前記第2の画像化モダリティの姿勢を取得することと、
    前記第2の画像化モダリティからの第2の画像上で、前記放射線不透過機器に取り付けられた前記第1のマーカの第1の位置を特定することと、
    前記第2の画像化モダリティからの前記第2の画像上で、前記放射線不透過機器に取り付けられた前記第2のマーカの第2の位置を特定することと、
    前記第1のマーカの前記第1の位置と前記第2のマーカの前記第2の位置との間の距離を測定することと、
    前記第2の画像化モダリティの前記姿勢を使用して、前記放射線不透過機器の認識された位置の各々上に、マーカ同士の間の前記既知の距離を投影することと、
    体内での前記機器の真の位置を特定するために、前記測定された距離と前記2つのマーカ同士の間の投影された距離の各々とを比較することと、を含む、方法。
  15. 前記放射線不透過機器には、内視鏡、気管支内器具、又はロボット・アームが含まれる、請求項14に記載の方法。
  16. 前記放射線不透過機器の軌道を使用して前記放射線不透過機器の深度を特定することを更に含む、請求項14に記載の方法。
  17. 前記第1の画像化モダリティからの前記第1の画像は術前画像である、請求項14に記載の方法。
  18. 前記第2の画像化モダリティからの前記放射線不透過機器の前記少なくとも1つの画像は、術中画像である、請求項14に記載の方法。
JP2021507924A 2018-08-13 2019-08-13 デジタル・コンピュータ・トモグラフィを用いた多視点姿勢推定のための方法及びシステム Pending JP2021533906A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023179482A JP2023181259A (ja) 2018-08-13 2023-10-18 デジタル・コンピュータ・トモグラフィを用いた多視点姿勢推定のための方法及びシステム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862718346P 2018-08-13 2018-08-13
US62/718,346 2018-08-13
PCT/IB2019/000908 WO2020035730A2 (en) 2018-08-13 2019-08-13 Methods and systems for multi view pose estimation using digital computational tomography

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023179482A Division JP2023181259A (ja) 2018-08-13 2023-10-18 デジタル・コンピュータ・トモグラフィを用いた多視点姿勢推定のための方法及びシステム

Publications (1)

Publication Number Publication Date
JP2021533906A true JP2021533906A (ja) 2021-12-09

Family

ID=69405296

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021507924A Pending JP2021533906A (ja) 2018-08-13 2019-08-13 デジタル・コンピュータ・トモグラフィを用いた多視点姿勢推定のための方法及びシステム
JP2023179482A Pending JP2023181259A (ja) 2018-08-13 2023-10-18 デジタル・コンピュータ・トモグラフィを用いた多視点姿勢推定のための方法及びシステム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023179482A Pending JP2023181259A (ja) 2018-08-13 2023-10-18 デジタル・コンピュータ・トモグラフィを用いた多視点姿勢推定のための方法及びシステム

Country Status (7)

Country Link
US (1) US20200046436A1 (ja)
EP (1) EP3836839A4 (ja)
JP (2) JP2021533906A (ja)
CN (1) CN113164149A (ja)
AU (1) AU2019322080A1 (ja)
CA (1) CA3109584A1 (ja)
WO (1) WO2020035730A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023153144A1 (ja) * 2022-02-08 2023-08-17 株式会社島津製作所 X線撮影システム、および、デバイス表示方法

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8218847B2 (en) 2008-06-06 2012-07-10 Superdimension, Ltd. Hybrid registration method
WO2015101948A2 (en) * 2014-01-06 2015-07-09 Body Vision Medical Ltd. Surgical devices and methods of use thereof
US9603668B2 (en) 2014-07-02 2017-03-28 Covidien Lp Dynamic 3D lung map view for tool navigation inside the lung
US9633431B2 (en) 2014-07-02 2017-04-25 Covidien Lp Fluoroscopic pose estimation
US9986983B2 (en) 2014-10-31 2018-06-05 Covidien Lp Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same
US10702226B2 (en) 2015-08-06 2020-07-07 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10674982B2 (en) 2015-08-06 2020-06-09 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10716525B2 (en) 2015-08-06 2020-07-21 Covidien Lp System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction
US11793579B2 (en) 2017-02-22 2023-10-24 Covidien Lp Integration of multiple data sources for localization and navigation
US10699448B2 (en) 2017-06-29 2020-06-30 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
WO2019075074A1 (en) 2017-10-10 2019-04-18 Covidien Lp SYSTEM AND METHOD FOR IDENTIFICATION AND MARKING OF A TARGET IN A THREE-DIMENSIONAL FLUOROSCOPIC RECONSTRUCTION
US10905498B2 (en) 2018-02-08 2021-02-02 Covidien Lp System and method for catheter detection in fluoroscopic images and updating displayed position of catheter
US11364004B2 (en) 2018-02-08 2022-06-21 Covidien Lp System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target
US10930064B2 (en) 2018-02-08 2021-02-23 Covidien Lp Imaging reconstruction system and method
US11705238B2 (en) 2018-07-26 2023-07-18 Covidien Lp Systems and methods for providing assistance during surgery
US11071591B2 (en) 2018-07-26 2021-07-27 Covidien Lp Modeling a collapsed lung using CT data
US11944388B2 (en) 2018-09-28 2024-04-02 Covidien Lp Systems and methods for magnetic interference correction
EP3659514A1 (en) * 2018-11-29 2020-06-03 Koninklijke Philips N.V. Image-based device identification and localization
US11877806B2 (en) 2018-12-06 2024-01-23 Covidien Lp Deformable registration of computer-generated airway models to airway trees
US11045075B2 (en) 2018-12-10 2021-06-29 Covidien Lp System and method for generating a three-dimensional model of a surgical site
US11801113B2 (en) 2018-12-13 2023-10-31 Covidien Lp Thoracic imaging, distance measuring, and notification system and method
US11617493B2 (en) 2018-12-13 2023-04-04 Covidien Lp Thoracic imaging, distance measuring, surgical awareness, and notification system and method
US11357593B2 (en) 2019-01-10 2022-06-14 Covidien Lp Endoscopic imaging with augmented parallax
US11625825B2 (en) 2019-01-30 2023-04-11 Covidien Lp Method for displaying tumor location within endoscopic images
US11564751B2 (en) 2019-02-01 2023-01-31 Covidien Lp Systems and methods for visualizing navigation of medical devices relative to targets
US11925333B2 (en) 2019-02-01 2024-03-12 Covidien Lp System for fluoroscopic tracking of a catheter to update the relative position of a target and the catheter in a 3D model of a luminal network
US11744643B2 (en) 2019-02-04 2023-09-05 Covidien Lp Systems and methods facilitating pre-operative prediction of post-operative tissue function
US11819285B2 (en) 2019-04-05 2023-11-21 Covidien Lp Magnetic interference detection systems and methods
US11269173B2 (en) 2019-08-19 2022-03-08 Covidien Lp Systems and methods for displaying medical video images and/or medical 3D models
US11864935B2 (en) 2019-09-09 2024-01-09 Covidien Lp Systems and methods for pose estimation of a fluoroscopic imaging device and for three-dimensional imaging of body structures
US11931111B2 (en) 2019-09-09 2024-03-19 Covidien Lp Systems and methods for providing surgical guidance
US11627924B2 (en) 2019-09-24 2023-04-18 Covidien Lp Systems and methods for image-guided navigation of percutaneously-inserted devices
US11380060B2 (en) 2020-01-24 2022-07-05 Covidien Lp System and method for linking a segmentation graph to volumetric data
US11847730B2 (en) 2020-01-24 2023-12-19 Covidien Lp Orientation detection in fluoroscopic images
US11717173B2 (en) 2020-04-16 2023-08-08 Warsaw Orthopedic, Inc. Device for mapping a sensor's baseline coordinate reference frames to anatomical landmarks
US11950950B2 (en) 2020-07-24 2024-04-09 Covidien Lp Zoom detection and fluoroscope movement detection for target overlay
US20220319031A1 (en) * 2021-03-31 2022-10-06 Auris Health, Inc. Vision-based 6dof camera pose estimation in bronchoscopy
EP4319641A1 (en) 2021-04-09 2024-02-14 Pulmera, Inc. Medical imaging systems and associated devices and methods
US11816768B1 (en) 2022-12-06 2023-11-14 Body Vision Medical Ltd. System and method for medical imaging

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017153839A1 (en) * 2016-03-10 2017-09-14 Body Vision Medical Ltd. Methods and systems for using multi view pose estimation
WO2018078445A2 (en) * 2016-10-31 2018-05-03 Dorian Averbuch Jigs for use in medical imaging and methods for using thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9526587B2 (en) * 2008-12-31 2016-12-27 Intuitive Surgical Operations, Inc. Fiducial marker design and detection for locating surgical instrument in images
US9861271B2 (en) * 2010-02-18 2018-01-09 Koninklijke Philips N.V. System and method for tumor motion simulation and motion compensation using tracked bronchoscopy

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017153839A1 (en) * 2016-03-10 2017-09-14 Body Vision Medical Ltd. Methods and systems for using multi view pose estimation
WO2018078445A2 (en) * 2016-10-31 2018-05-03 Dorian Averbuch Jigs for use in medical imaging and methods for using thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023153144A1 (ja) * 2022-02-08 2023-08-17 株式会社島津製作所 X線撮影システム、および、デバイス表示方法

Also Published As

Publication number Publication date
CN113164149A (zh) 2021-07-23
CA3109584A1 (en) 2020-02-20
EP3836839A2 (en) 2021-06-23
EP3836839A4 (en) 2022-08-17
JP2023181259A (ja) 2023-12-21
WO2020035730A3 (en) 2020-05-07
US20200046436A1 (en) 2020-02-13
WO2020035730A2 (en) 2020-02-20
AU2019322080A1 (en) 2021-03-11

Similar Documents

Publication Publication Date Title
JP2021533906A (ja) デジタル・コンピュータ・トモグラフィを用いた多視点姿勢推定のための方法及びシステム
US11350893B2 (en) Methods and systems for using multi view pose estimation
JP7195279B2 (ja) 画像の三次元再構成及び改善された対象物定位のために、放射状気管支内超音波プローブを用いるための方法
US11896414B2 (en) System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target
CN110381841B (zh) 用于医疗成像的夹具及其使用方法
CN110123449B (zh) 使用标准荧光镜进行局部三维体积重建的系统和方法
US20240138783A1 (en) Systems and methods for pose estimation of a fluoroscopic imaging device and for three-dimensional imaging of body structures
US20230030343A1 (en) Methods and systems for using multi view pose estimation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230718

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230919

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231206