JP2017502807A - 外科装置及び該使用の方法 - Google Patents

外科装置及び該使用の方法 Download PDF

Info

Publication number
JP2017502807A
JP2017502807A JP2016562077A JP2016562077A JP2017502807A JP 2017502807 A JP2017502807 A JP 2017502807A JP 2016562077 A JP2016562077 A JP 2016562077A JP 2016562077 A JP2016562077 A JP 2016562077A JP 2017502807 A JP2017502807 A JP 2017502807A
Authority
JP
Japan
Prior art keywords
image
imaging modality
fluoroscopic
interest
registration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016562077A
Other languages
English (en)
Other versions
JP6509906B2 (ja
Inventor
ドリアン・アベルブフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Body Vision Medical Ltd
Original Assignee
Body Vision Medical Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Body Vision Medical Ltd filed Critical Body Vision Medical Ltd
Publication of JP2017502807A publication Critical patent/JP2017502807A/ja
Application granted granted Critical
Publication of JP6509906B2 publication Critical patent/JP6509906B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/486Diagnostic techniques involving generating temporal series of image data
    • A61B6/487Diagnostic techniques involving generating temporal series of image data involving fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/12Devices for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/547Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10121Fluoroscopy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Abstract

本発明は、第一画像化モダリティから第一画像を取得するステップ、第一画像化モダリティからの第一画像上に特定するステップ、第二画像化モダリティから第二画像を取得するステップ、第一画像化モダリティからの第一画像から互換性のある仮想画像を生成するステップ、互換性のある仮想画像上にプランニングデータをマッピングするステップ、第一画像化モダリティからの第一画像に第二画像化モダリティからの第二画像を粗く登録するステップ、互換性のある仮想画像からマップされるプランニングデータの少なくとも一つの要素を特定するステップ、第二画像化モダリティ上に少なくとも一つの対応する要素を特定するステップ、第二画像化モダリティ上に少なくとも一つの対応する要素をマッピングするステップ、第一画像化モダリティからの第一画像に第二画像化モダリティからの第二画像を細かく登録するステップ、第三画像を生成するステップを含む方法を提供する。

Description

本出願は、2014年1月6日出願の米国特許仮出願第61/923,956号発明の名称「AUGMENTED FLUOROSCOPY」、2014年6月18日出願の米国特許仮出願第62/013,726号発明の名称「AUGMENTED FLUOROSCOPY」、及び2014年9月18日出願の米国特許仮出願第62/052,039号発明の名称「AUGMENTED FLUOROSCOPY」の優先権を主張し、これらは、すべての目的のために、全体として参照の上、本明細書に組み込まれている。
本発明の実施形態は、外科装置及び該使用の方法に関する。
内視鏡外科処置の間にビデオ補助される胸部外科処置(VATS)の使用は、外科の別の領域と同様に、様々な呼吸器疾患の治療の間に使用され得る。
Zhou X, Fujita H,「Automatic localization of solid organs on 3D CT images by a collaborative majority voting decision based on ensemble learning」,Comput Med Imaging Graph,2012 Aviv Hurvitz,Leo Joskowicz,「Registration of a CT−like atlas to fluoroscopic X−ray images using intensity correspondences」,The Rachel and Selim Benin(School of Computer Science and Engineering The Hebrew University of Jerusalem,Israel,August,2008) Alexander Kubias,Thomas Brunner,「2D/3D Image Registration on the GPU」,University of Koblenz−Landau,Koblenz,Germany,Siemens Medical Solutions,Forchheim,Germany,2007 Di Xu,Sheng Xu,Daniel A.Herzka,Rex C.Yung,Martin Bergtholdt,Luis F.Gutierrez,Elliot R.McVeigh,「2D/3D Registration for X−ray Guided Bronchoscopy using Distance Map Classification」 Ali Khamene,Frank Sauer,「Automatic registration of portal images and volumetric CT for patient positioning in radiation therapy」,Medical Image Analysis 10,pp.96−112,2006 Andreas Tobergte,Gerd Hirzinger,「Robust Multi Sensor Pose Estimation for Medical Applications」,Intelligent Robots and Systems,2009.IROS 2009.IEEE/RSJ International Conference Bernhard Kainz,Markus Grabner,Matthias Ruther,「Fast Marker Based C−Arm Pose Estimation」,Institute for Computer Graphics and Vision,Graz University of Technology,Austria Alexander Kubias,Thomas Brunner,「2D/3D Image Registration on the GPU」,University of Koblenz−Landau,Koblenz,Germany,Siemens Medical Solutions,Forchheim,Germany,2007 Ali Khamene,Frank Sauer,「Automatic registration of portal images and volumetric CT for patient positioning in radiation therapy」,Medical Image Analysis 10,pp.96−112,2006 Robert A.,David J.Hawkesb,「Intensity−based Registration versus Feature−based Registration for Neurointerventions」,Medical Vision Laboratory,Dept of Engineering Science,University of Oxford,England T.Maharakshmi,R.Muthaiah,P.Swaminathan,「An Overview of Template Matching Technique in Image Processing」,School of Computing,SASTRA University,Thanjavur,Tamil Nadu,India,Research Journal of Applied Sciences,Engineering and Technology 4(24):pp.5469−5473,2012 Fonseca and Manjunath,「Registration techniques for multisensor remotely sensed imagery」,PE & RS−Photogrammetric Engineering & Remote Sensing 62(9),pp.1049−1056,1996
いくつかの実施形態において、本発明は、
第一の画像化モダリティから第一の画像を取得するステップと、
少なくとも一つの要素を、第一の画像化モダリティからの第一の画像上に特定するステップであって、少なくとも一つの要素は、ランドマーク、関心領域、切開ポイント、分岐点、器官又はそれらの任意の組み合わせを含むものである、第一の画像上に特定するステップと、
第二の画像化モダリティから第二の画像を取得するステップと、
第一の画像化モダリティからの第一の画像から、互換性のある仮想画像を生成するステップと、
互換性のある仮想画像上にプランニングデータをマッピングするステップであって、マップされるプランニングデータは、少なくとも一つの要素に対応するものである、プランニングデータをマッピングするステップと、
第一の画像化モダリティからの第一の画像に、第二の画像化モダリティからの第二の画像を粗く登録するステップと、
互換性のある仮想画像からのマップされるプランニングデータの少なくとも一つの要素を特定するステップと、
第二の画像化モダリティ上に少なくとも一つの対応する要素を特定するステップと、
第二の画像化モダリティ上に少なくとも一つの対応する要素をマッピングするステップと、
第一の画像化モダリティからの第一の画像に対して、第二の画像化モダリティからの第二の画像を細かく登録するステップと、
第三の画像を生成するステップであって、第三の画像はハイライトされた関心領域を含む拡張された画像である、第三の画像を生成するステップと、
を含む方法を提供する。
いくつかの実施形態において、その方法はさらに、少なくとも一つの画像、少なくとも一つの画像の一部又は第一の画像化モダリティから第二の画像化モダリティ上に、導出されるプランニング情報を重ね合わせるステップを含む。いくつかの実施形態において、その方法はさらに、少なくとも一つのインストラクションを用いるステップを含み、少なくとも一つのインストラクションは、ナビゲーション、ガイダンス、又はそれらの組み合わせに関する情報を含み得る。いくつかの実施形態において、ガイダンスは、装置のポジショニングが示される第二の画像化モダリティに関する情報を含み、その装置は、関心領域、切開ポイント、解剖構造又はツールアクセス方向のための視認性を達成する結果をもたらす蛍光透視C−Armを含む。いくつかの実施形態において、その方法はさらに、第二の画像化モダリティから導出される少なくとも一つの連続する画像を用いて、少なくとも一つの解剖構造をトラッキングするステップであって、第二の画像化モダリティは、同じ取得パラメータを実質的に有するように構成された蛍光透視ビデオを含み、並びに取得パラメータは、モード、ポジション、視界又はそれらの任意の組み合わせを含み、静的な解剖構造を抑制する及び/又は内在する軟組織のノイズに対して信号を改善することによって、拡張された蛍光透視画像を生成する、少なくとも一つの解剖構造をトラッキングするステップを含む、方法である。いくつかの実施形態において、その方法はさらに、マルチフェーズの登録を実行するステップを含み、少なくとも一つの実質的に静的な物体が第一に登録され、及び少なくとも一つの動的な物体が第二に登録され、その少なくとも一つの動的な物体は、隔膜、気管支、血管、又はそれらの任意の組み合わせを含む。いくつかの実施形態において、その方法はさらに、少なくとも一つの干渉構造における強調の度合いを弱めるステップを含む。いくつかの実施形態において、第一の画像化モダリティからのプランニングデータが画像登録を用いて第二の画像化モダリティに伝達される間には、互換性のある仮想画像は生成されない。
いくつかの実施形態において、本発明は、
処置中の画像から導出されたピクセルのグループ分けを生成するために、既知の相対的動作及び回転を伴う、少なくとも二つの処置中の画像を用いるステップであって、ピクセルのグループ分けは、(a)それぞれのピクセルの動作変動及び(b)それぞれのピクセルの強度値を用いるそれぞれのピクセルの個々の演算により決定される、少なくとも二つの処置中の画像を用いるステップと、関心領域内の構造を再構築するために、少なくとも二つの連続する処置中の画像を用いて登録を実行するステップと、関心領域において静的な構造から動的な構造を区別化するステップと、及び少なくとも一つの処置中の画像上の解剖構造をハイライトするステップと、を含む方法である。いくつかの実施形態において、その方法はさらに、胸部X線画像を第一の処置中の画像として用いるステップを含む方法である。
いくつかの実施形態において、本発明は、拡張された蛍光透視画像を生成するように構成された拡張された蛍光透視装置を含むシステムを提供し、(a)ビデオ及び画像処理ユニット、(b)ビデオインプットカード又は蛍光透視装置からビデオ信号をインプットするように構成された外部に接続された装置、(c)内部の又はDICOMフォーマットの3Dプランニングインプット、(d)拡張されたビデオ信号アウトプット、又はそれらの任意の組み合わせを含む。いくつかの実施形態において、システムは、(すなわち、ビデオインプットカードの代わりに)RAWデータを信号として取得するように構成されたRAWデータインプットカードを含むモジュールである、少なくとも一つの蛍光透視装置と統合する。いくつかの実施形態において、システムはコーンビームCTシステムと統合する。
いくつかの実施形態において、本発明は、自然の体腔の内側のナビゲートのための機器を含むシステムを提供し、その機器は、(a)先端にアンカリングを伴うガイド付きシース、及び/又は(b)ガイド付きワイヤを含む。いくつかの実施形態において、その機器は、アンカリングメカニズムとして作動するように構成されたインフレータブルバルーンである。
いくつかの実施形態において、本発明は方法を提供し、その方法は、(i)第一の画像化モダリティからの第一の画像上の関心ボリュームを選択するステップと、(ii)第二の画像化モダリティから第二の画像を生成するステップと、(iii)第一の画像化モダリティ及び第二の画像化モダリティを用いて粗い登録をするステップと、(iv)第一の画像化モダリティから少なくとも一つのパターンを生成するステップと、(v)第一の画像化モダリティから生成された単独の又は多数のパターンを用いて第二の画像化モダリティの使用によりマッチングパターンを生成するステップと、(vi)第三の画像化モダリティを生成するための関心ボリューム内の生体構造をハイライトするために、第二の画像化モダリティからのマッチングパターンを強調するステップと、を含む。いくつかの実施形態において、関心領域の外側に位置づけられた解剖構造は、同じ方法を実質的に用いて、見出され及び抑制される。いくつかの実施形態において、そのパターンは、解剖学的な特徴を含むものであり、解剖学的な特徴は、それらに限定されないが、気道、肋骨及び血管を含む。いくつかの実施形態において、第二の画像化モダリティからのマッチングの特徴は、関心領域の内側の少なくとも一つの機器のポジションのセットから導出される。
いくつかの実施形態において、本発明は、方法を提供し、その方法は、患者の胸部の少なくとも一つの第一の画像を取得するために、第一の画像化モダリティを用いるステップと、3D空間内の気管支気道を含む自然の体腔を区分するステップと、第二の画像化モダリティから少なくとも一つの画像を生成するステップと、情報を組み合わせることによって、第二の画像化モダリティから生成される二次元の拡張された画像を生成するステップであって、その情報は、気管支気道ツリーを含む自然の体腔の全体のマップ又は一部のマップを描くものである二次元の拡張された画像を生成するステップと、第二の画像化モダリティから生じる気管支気道の一部と第一の画像化モダリティから生じる気管支気道の区分されたマップとの間の姿勢推定として、第一の画像化モダリティと第二の画像化モダリティの間の、登録を演算するステップと、対応する特徴をマッピングすることによる姿勢評価を介して、第一の画像化モダリティと第二の画像化モダリティとの間の登録を演算するステップと、を含む。いくつかの実施形態において、拡張された気管支造影像は、体腔をハイライトするために注入されるX線不透過性の物質を用いて生成される。いくつかの実施形態において、拡張された気管支造影像は、体腔内側に位置づけられたX線不透過性の機器の少なくとも三つの二つの異なるポジションからの画像化の重ね合わせを通して生成される。いくつかの実施形態において、拡張された気管支造影像は、体腔の内側に位置づけられたX線不透過性の機器の少なくとも一つの異なるポジション及び患者のベッドに対するC−Arm配向の角度測定からの画像化の重ね合わせを介して生成される。いくつかの実施形態において、X線不透過性の機器は、単独の投影からその三次元空間を再構築するように設計され構成される。いくつかの実施形態において、それらに限定されないが、ヒドロゲル、逆熱ゲル化ポリマーなどの高い粘性を有するX線不透過性の物質は、拡張された気管支造影像を生成するために用いられ得る。
いくつかの実施形態において、本発明は方法を提供し、その方法は、それに限定されないが、DDRなどの第一の画像化モダリティから蛍光透視法に生じる互換性のある仮想画像のパラメータを提供するステップと、それに限定されないが、特定の位置におけるDDR上の肋骨の幅などの仮想画像上の物体サイズを決定するステップと、それらに限定されないが、仮想蛍光透視カメラなどの仮想カメラの姿勢及び視界を提供し、較正プロセスから演算される蛍光透視カメラなどの第二の画像化モダリティに対して第一の画像化モダリティを投影するステップと、特定の位置におけるDDR上の肋骨の幅などの仮想画像上の物体サイズを決定するステップと、第二の画像(例えば、蛍光透視画像)上で測定される物体サイズと、第一の画像(例えば、CT画像)から生じる既知の物体サイズとの間の比較を介して、深さ(例えば、それらに限定されないが、蛍光透視X線のソースからの特定の物体又は物体領域の距離)を演算するステップと、を含む。いくつかの実施形態において、物体サイズは、ツールの剛体部分の長さ又は幅などの互換性のある仮想画像上での測定の代わりに、又は、測定に加えて、技術的な仕様から決定される。いくつかの実施形態において、カテーテルタイプのツールは、第二の画像化モダリティカメラセンターからの深さ距離の組み合わせとして、軌道の演算を可能にするように設計される。
本発明はさらに、添付された図を参照して説明される。図は、本明細書の一部を構成し、実例となる本発明の実施形態を含み、様々な物体及びそれらの特徴を示す。本明細書にて開示される特定の機能的な詳細は、限定としてではなく、本発明を様々に採用するために、当業者に教示するための代表的な基礎としてのみ解釈されるべきである。
図1は、本発明の実施形態を示すフローチャートであり、外科及び診断処置のフローチャートを示す。 図2は、本発明の方法の実施形態の(例えば、拡張された蛍光透視システム及びデータフローを示す)図である。 図3(A)及び図3(B)は、本発明の方法の実施形態を示す画像である。 図4は、本発明の方法の実施形態を示すフローチャート(例えば、解剖構造強調フローチャート)である。 図5は、本発明の方法の実施形態を示す図であり、本発明の方法の3つの強度値測定を示す。図5(A)は参照画像化モダリティから取得されたパターンを示し、図5(B)は処置中のモダリティからの信号を示し、及び図5(C)は、処置中のモダリティからの強調された信号を示す。この図は、発明の方法の実施形態を示し、強度値測定は、少なくとも一つの信号強調を基にして、細かい登録(すなわち、テンプレートマッチング)のために用いられ得る。 図6Aは、本発明の方法の実施形態を示す略図であり、蛍光透視画像を示す。 図6Bは、本発明の方法の実施形態を示す略図であり、蛍光透視画像を示す。 図7は、本発明の方法の実施形態であり、登録ステップを示し、その登録ステップは、(1)気管支気道ツリーに関する情報であって、情報は処置前の画像(例えば、2次元又は3次元画像、例えば、CTスキャン)から抽出される、情報と、及び(2)少なくとも一つの気道に関する情報であって、情報は拡張された気管支造影像を用いて蛍光透視画像から抽出される、情報と、を用いる。 図8は、本発明の方法の実施形態を示し、X線不透過性の物質を注入した直後(例えば、注入した後0秒)の蛍光透視画像を示す。 図9は、本発明の方法の実施形態を示し、領域にX線不透過性の物質が注入された後30秒の領域の(例えば、画像はぼやけて見える)蛍光透視画像を示す。 図10Aは、本発明の方法の実施形態を示し、少なくとも一つの気管支及び/又は異なる気管支を通してナビゲーティングするステップ並びに個々のナビゲーティングイベントの蛍光透視画像を記録するステップを示す。 図10Bは、本発明の方法の実施形態を示し、少なくとも一つの気管支及び/又は異なる気管支を通してナビゲーティングするステップ並びに個々のナビゲーティングイベントの蛍光透視画像を記録するステップを示す。 図10Cは、本発明の方法の実施形態を示し、少なくとも一つの気管支及び/又は異なる気管支を通してナビゲーティングするステップ並びに個々のナビゲーティングイベントの蛍光透視画像を記録するステップを示す。 図11は、本発明の方法の実施形態を示し、画像の組み合わせ(例えば、それらに限定されないが、図10A、図10B及び図10C)から生成される/抽出される、拡張された気管支造影像を示すものであり、画像は例えば、それに限定されないが、少なくとも一つの気管支内の視認機器を含む。 図12は、本発明の方法の実施形態を示しており、蛍光透視画像平面に投射されるまっすぐな機器の部分を示す。 図13は、本発明の方法の実施形態を示し、解剖学的パス(例えば、気管支)に関する深さ情報の回復を示す。 図14は、本発明の実施形態における使用のためのアンカーを有するナビゲーションカテーテル(例えば、使い捨ての、又は使い捨てでないカテーテル)を示す。 図15Aは、本発明の方法を用いて取得される結果の実施形態を示す画像である。図15Aは第一の画像(例えば、元画像)である。 図15Bは、本発明の方法を用いて取得される結果の実施形態を示す画像である。図15Bはハイライトされた(例えば、破線の円に示された)セクションを有する第二の画像である。
本発明はさらに、添付された図を参照して説明され、同じ構造は、複数の図を通して同じ数字によって言及される。示される図は、必ずしもスケールに従うものではなく、その代わりに、本発明の原理を示すことを概略強調するものである。必ずしもスケールに従う必要はない。さらに、いくつかの特徴は、特定の要素の詳細を示すように強調され得る。
図は、本明細書の一部を構成し、本発明の実例となる実施形態を含み、様々な物体とそれらの特徴を図示する。さらに、図は必ずしもスケールに従っておらず、いくつかの特徴は、特定の要素の詳細を示すように強調され得る。加えて、図に示されるなどの、どの測定、仕様は、例示であることを意図しており、限定であることを意図している。それ故、本明細書に開示される特定の構造及び機能の詳細は、限定としてではなく、本発明を様々に用いる当業者に教示するための代表的な基礎としてのみ、解釈されるべきである。
開示されているそれらの利益及び改善のうちで、本発明の別の目的及び利点は、付随する図と共に解釈される以下の説明から明らかとなるだろう。本発明の詳細な実施形態は、本明細書に開示される。しかしながら、開示された実施形態は、様々な形で具体化され得る発明を単に図示したものであることが理解されるべきである。加えて、発明の様々な実施形態に関連して与えられる例のそれぞれは、例示であることを意図しており、限定であることを意図していない。
本明細書及び請求項を通して、文脈が明白に別途を示す場合を除いて、以下の用語は、本明細書に明確に関連する意味を取る。本明細書に使用されるような「ひとつの実施形態において」及び「いくつかの実施形態において」という表現は、そうであることもあるが、必ずしも同じ実施形態に言及するものではない。さらに、本明細書に使用されるような「別の実施形態において」及び「いくつかの他の実施形態において」は、そうであることもあるが、必ずしも異なる実施形態に言及するものではない。ひいては、以下に記載されるように、発明の様々な実施形態は、発明の範囲又は精神から逸脱すること無く、容易に組み合わされ得る。
加えて、本明細書で使用されるように、用語「or」は両立的な「or」演算子であり、文脈が明白に別途を示す場合を除いて、用語「and/or」と等価である。用語「based on」は、排他的でなく、文脈が明白に別途を示す場合を除いて、記述されない追加の要素に基づくことを許容する。加えて、本明細書を通して、「a」「an」及び「the」の意味は、複数リファレンスを含む。「in」の意味は、「in」及び「on」を含む。
本明細書で使用されるように、「粗い登録」とは、処置前及び処置中の画像の大まかなアライメントを言う。本発明の方法の実施形態において、粗い登録は広範囲の情報を使用し、呼吸により生じる局所的な組織変形、機器動作、処置前及び処置中の画像の間の姿勢差異などを考慮しない。
本明細書で使用されるように、「要素」は、メカニカルなプロパティ(例えば、それらに限定されないが、動作の硬直、柔軟性、強度)を例にみる共通するメカニカルな特徴を有する生体構造のユニットを言う。いくつかの実施形態において、要素は、それらに限定されないが、気管支、血管、肋骨、画像パターンなどであってもよい。
本明細書で使用されるように、「細かい登録」は、第一の画像(例えば、処置前の画像)の関心領域周りの局所的な組織(例えば、それに限定されないが、軟組織)の登録を言い、第一の画像の関心領域は、第二の画像(例えば、処置中の画像)の領域に対応する。本発明の方法のいくつかの実施形態において、細かい登録は、それらに限定されないが、ツールの先端の局所的近傍、予めマークされた小瘤領域などに例を見る関心領域内における局所的な組織の変形及び/又は相対的組織の動き(例えば、それに限定されないが、呼吸している間の、肋骨と肺との間の動きの相違)を訂正するように設計された技術/方法である。いくつかの実施形態において、変換マトリクス、生成される初期値、アウトプット画像などの粗い登録アウトプットが細かい登録の使用のためのインプットとして供給される間に、細かい登録はさらに、関心領域内の粗い登録上への局所的な登録の正確さの改善を許容する。
本明細書で使用されるように、「マッピング」は、第一の画像化モダリティの第一の画像からの複数の要素を、第二の画像化モダリティの第二の画像に送信することを言う。いくつかの実施形態において、マッピングは、(1)第一の画像の複数の要素を特定するステップと、(2)第二の画像の複数の要素を特定するステップと、(3)第一/第二の画像の複数の要素を、対応する第二/第一の複数の要素とペアリングするステップと、(4)第一/第二の画像の複数の要素を、第二/第一の画像の複数の要素の対応するペアに登録する(すなわち、登録)ステップと、を含み得る。いくつかの実施形態において、登録するステップは細かい及び/又は粗い登録を用いて実行される。非限定的な例として、マッピングは、(1)第一の画像(例えば、CT画像)からの複数(例えば、それらに限定されないが、2、3、4、5、6、7、8、9、10、などの、要素)の要素(例えば、気管支、肋骨など)を特定するステップと、(2)第一の画像(例えば、CT画像)上の複数の蛍光透視要素及び第二の画像(例えば、蛍光透視画像)上の複数の蛍光透視要素を特定するステップと、(3)第二の画像上の対応する要素(すなわち、気管支、肋骨と)である複数の要素のサブセットをペアリングするステップと、(4)その要素を第二の画像上の要素の対応するペアに登録するステップであって、そのマッピングは第一の画像の気道の表示もたらすものである、要素の対応するペアに登録するステップと、又はそれらの任意の組み合わせと、を含み得る。いくつかの実施形態において、画像は、RAW画像から導出され得るものであって、それらに限定されないが、DDR画像、編集された画像、処理された画像などに例を見る。
いくつかの実施形態において、用語「処置前画像」は本発明を記述するのに用いられているが、CT、MRI又はX線レントゲン画像化などの参照画像が処置中に取得される際に、同じコンセプトが適用され得ることが、当業者に対して、明白である。いくつかの実施形態において、本発明の方法は、造影剤を伴って又は伴わずに実行される画像化のために適用される。
いくつかの実施形態において、本発明は、(CT、MRIなどの)第一の画像化モダリティを用いるステップと、及びそれらに限定されないが、蛍光透視法、デジタルサブトラクション血管撮影(DSA)などの第二の画像化モダリティを用いて拡張された画像を生成することで情報をプランニングするステップと、を許容する方法である。いくつかの実施形態において、その方法はさらに、関心領域及び/又は構造をハイライトするステップを含む。いくつかの実施形態において、その方法は、追加の画像化をするステップ及び/又は情報をプランニングするステップを含み、追加の画像化をするステップ及び/又は情報をプランニングするステップは、第一の画像化モダリティから生成され/生成され得、並びに重ね合わせするステップを含み得、非限定的な例として、(i)胸部の少なくとも一つの第一の画像を取得することにおいて用いる第一の画像化モダリティと、(ii)ランドマーク、関心領域、切開ポイント、危険構造、分岐点、解剖学的器官などを明確にすることを通した外科処置の手動及び/又は自動プランニングと、(iii)それらに限定されないが、蛍光透視法及び/又はDSAなどの第二の画像化モダリティから取得された少なくとも一つの第二の画像、並びに第一の画像化モダリティからのデジタル再構成画像(DRR)などの互換性のある仮想画像の生成と、(iv)互換性のある仮想画像上の少なくとも一つの物体及び/又は構造へのプランニングデータのマップ(「マッピング」)と、(v)第二の画像化モダリティから第一の画像又は第一の画像化モダリティから調達されるその一部への少なくとも一つの第二の画像又はビデオフレームの登録と、(vi)互換性のある仮想画像から特定されるプランニングデータであって、画像登録を用いて、第一の画像化モダリティから、第二の画像化モダリティからの少なくとも一つの第二の画像に調達される、互換性のある仮想画像から特定されるプランニングデータと、(vii)互換性のある仮想画像からマップされるプランニングデータであって、画像登録を用いて、第一の画像化モダリティから、第二の画像化モダリティからの少なくとも一つの第二の画像に調達される互換性のある仮想画像からマップされるプランニングデータと、(viii)例えば、それに限定されないが、少なくとも一つの第三の画像を取得するために第二の画像化モダリティから調達される少なくとも一つの第二の画像上の少なくとも一つの解剖構造などの、ハイライトされた関心領域であって、少なくとも一つの第三の画像は拡張される、ハイライトされた関心領域と、又は、それらの任意の組み合わせと、を含み得る。
いくつかの実施形態において、その方法はさらに、少なくとも一つの画像若しくは少なくとも一つの画像の導出物、少なくとも一つの画像の一部、又は、画像を基にした、第一の画像化モダリティから調達されるプランニング情報の重ね合わせを含む。他の実施形態において、その方法はさらに、医療機器の動作を補助するナビゲーション及びガイダンス命令を含む。いくつかの実施形態において、その方法はさらに、蛍光透視C−Armの利用などの第二の画像化モダリティをポジショニングするためのガイダンスを含み、関心領域のために最適な視認性を維持することを許容する。いくつかの実施形態において、その方法はさらに、それに限定されないが、実質的に同じ取得パラメータを有する蛍光透視ビデオなどの第二の画像化モダリティからの連続するフレーム上の解剖構造をトラッキングすることを含み、取得パラメータは、それらに限定されないが、モード、ポジション、視野を含み得、拡張された蛍光透視画像を生成することをもたらし、拡張された蛍光透視画像は、静的な解剖構造を抑制することにより、及び/又は内在する軟組織のノイズ比率に対して信号を改善することにより、生成される。いくつかの実施形態において、その方法は、マルチフェーズの登録を実行するステップを含み、例えば、それに限定されないが、肋骨などの小さい動作(例えば、それらに限定されないが、2から5cm)を有する少なくとも一つの静的な物体が第一に登録される。いくつかの実施形態において、静的な物体が第一に登録された後に、それらに限定されないが、隔膜、気管支、血管などの、それ以上の動的な物体が、続いて繰り返される登録にて登録される。いくつかの実施形態において、その方法はさらに、(例えば、処置の身体構造上のフォーカスを妨げ得る(例えば、血管上にフォーカシングしている画像から肋骨を除去することに限られない)任意の構造)干渉構造が、強調の度合いを弱められるステップを含む。
いくつかの実施形態において、本発明の方法は、それらに限定されないが、処置中の蛍光透視画像、DSA画像などの、ハイライトされた関心領域及び構造を有する少なくとも一つの拡張された第三の画像の生成を許容し、それらに限定されないが、(i)少なくとも二つの処置中の画像の、動作の変動及び/又は強度の値に従って、少なくとも二つの処置中の画像のピクセルのグループ分けを許容する、既知の相対的動作及び/又は回転を伴う少なくとも二つの処置中の画像を用いるステップと、(ii)関心領域内の構造を再構築するために、少なくとも二つの連続する処置中の画像の間の登録及び/又は相互相関を実行するステップと、(iii)ユーザの要求に基づいて、関心領域内の動き及び静的な構造を区別化するステップと、(iv)処置中の画像の解剖構造をハイライトするステップと、又は、それらの任意の組み合わせと、を含み得る。
いくつかの実施形態において、本発明の方法はさらに、患者の胸部のX線画像を用いるステップを含み、X線放射画像は、類似のプロセス、すなわち、異なるエネルギレベルで取得されたX線画像からの情報の相互相関、を用いて、第二の画像上の少なくとも一つの解剖構造の強調を可能にする参照画像として機能し得る。
いくつかの実施形態において、本発明は、少なくとも一つの拡張された蛍光透視画像の生成を許容する拡張された蛍光透視装置であり、拡張された蛍光透視装置は、それらに限定されないが、(i)ビデオ及び画像処理ユニットと、(ii)ビデオインプットカード及び/又は蛍光透視装置からビデオ信号をインプットするように構成された、外部に接続された装置と、(iii)内部の及び/又はDICOMフォーマットの3Dプランニングインプットと、(iv)拡張されたビデオ信号アウトプットと、又はそれらの任意の組み合わせと、を含み得る。
いくつかの実施形態において、本発明の装置は、RAWデータを信号として取得するための蛍光透視装置の(すなわち、モジュールとして)内部に統合され、RAWデータインプットカードを含む。いくつかの実施形態において、その装置は、ビデオインプットカードの代わりにRAWデータカードを有する。いくつかの実施形態において、本発明は、コーンビームCTシステムの内部に統合される。
いくつかの実施形態において、本発明は、組織又は解剖構造をハイライトする方法であり、その方法は、(i)それらに限定されないが、CT及び/又はMRIなどの第一の画像化モダリティから調達される画像上に関心ボリュームを選択するステップと、(ii)第二の画像化モダリティから画像を取得するステップと、(iii)第二の画像化モダリティの一つと対応する第二の画像化モダリティの仮想カメラの姿勢を特定するために、第二の画像化モダリティと第一の画像化モダリティとの間に粗い登録を実行するステップと、(iv)関心ボリュームの周りの解剖構造に対して、第一の画像化モダリティから少なくとも一つのパターンを生成するステップと、(v)第一の画像化モダリティから生成された単独のパターン又は多重のパターンを用いて、第二の画像化モダリティのマッチングパターンを特定するステップと、(vi)第三の画像化モダリティ上に関心ボリュームの生体構造を強調するために、第二の画像化モダリティからのマッチングパターンをハイライトする(すなわち、強調する)ステップと、又はそれらの任意の組み合わせと、を含み得る。
いくつかの実施形態において、その方法は、関心領域の外側に位置づけられた解剖構造を探索するステップ及び抑制するステップを含む。
いくつかの実施形態において、本発明は、物体の深さの演算の方法を含み、物体の深さの演算の方法は、それらに限定されないが、(i)第一の画像化モダリティ(非限定的な例として、第一の画像化モダリティは、それに限定されないが、蛍光透視法へのDDR)から調達される互換性のある仮想画像のパラメータを提供するステップと、(ii)特定の位置におけるDDR上に肋骨の幅などの仮想画像上の物体サイズを決定するステップと、(iii)第二の画像(非限定的な例として、較正プロセスから演算された蛍光透視カメラ)の姿勢及び視界を提供するステップと、(iv)(a)第一の画像(例えば、それに限定されないが、CT画像)から調達された既知の物体サイズから、(b)第二の画像(例えば、それに限定されないが、蛍光透視画像)上で測定される物体の比較を用いることにより、(それらに限定されないが、蛍光透視X線源からの特定の物体又は物体領域の距離などの)深さを演算するステップと、又はそれらの任意の組み合わせと、を含む。
いくつかの実施形態において、物体サイズは、(1)技術的な仕様、及び/又は(2)それらに限定されないが、ツールの剛体部分の長さ又は幅などの互換性のある仮想画像上の測定、から決定される。いくつかの実施形態において、その方法は、第二の画像化モダリティカメラセンターからの深さの距離の組み合わせとして、軌道の演算を許容するように設計されるツールを含む。
いくつかの実施形態において、本発明は、診断及び治療医療処置において広く用いられる蛍光透視画像化モダリティの視覚化性能を拡大する方法を提供する。いくつかの実施形態において、提案された方法は、本明細書において「拡張された蛍光透視法」と呼ばれるものであり、リアルタイムに診断される患者の内部構造の範囲内の、特定の関心領域の視覚化を強調し得る。いくつかの実施形態において、本発明の方法は、軟組織視覚化のために利用される。いくつかの実施形態において、その方法は、施術者(例えば、それらに限定されないが、医者、看護師、専門家など)が、(例えば、軟組織視覚化での使用のための)医療処置における、蛍光透視の視覚化機能に関する向上された制御を有することを許容する。いくつかの実施形態において、研修生による本発明の方法の使用は、習熟曲線を削減する(例えば、それに限定されないが、訓練時間を削減し、演算間違いを削減する)。
いくつかの実施形態において、本発明において提案される装置は、以下の機能、すなわち、信号インプット、処理、及び表示機能を含み、それらの機能は、例えば、処置室内に設置され得る。いくつかの実施形態において、発明された装置は、高度な視覚化性能(能力)を提供する既存の画像化機器からの信号を統合するように構成されている。いくつかの実施形態において、本発明は、スタンドアローンの装置である。いくつかの実施形態において、本発明は、少なくとも一つのモジュールであって、最新の機器の内部に統合される。
いくつかの実施形態において、本発明の方法は、それらに限定されないが、CTスキャン又はMRIなどの処置前の画像化モダリティを用いて、処置前のプランニングを実施するステップを含む。いくつかの実施形態において、実施された処置前のプランニングは、関心領域、及び/又はリアルタイムの蛍光透視法の間に強調され得る組織の力学的性質を明示することに用いられ得る。いくつかの実施形態において、本発明の方法は、処置中の蛍光透視画像上に関心領域の強調/ハイライトに加えて、処置中の蛍光透視画像上にオーバーレイを生成し得る。いくつかの実施形態において、オーバーレイは、病変、及び/又は切除境界、切開ポイント、気管支気道、血管などの解剖構造を伴う、内部の、並びに外部のランドマークの位置情報を含み得る。いくつかの実施形態において、その方法は、(i)処置前のプランニングを実施するステップと、並びに(ii)診断処置及び/又は治療処置の間に処置前プランを用いるステップと、を含む。いくつかの実施形態において、本発明の方法の使用は、診断及び/又は治療の処置の有効性及び安全性を改善する。
いくつかの実施形態において、本明細書に開示される本発明は、リアルタイムに蛍光透視画像の要素又は関心領域をハイライトすることを許容する拡張された蛍光透視装置及び方法の形態に関する。ハイライトの典型的な実施形態は、選択的な重ね合わせ(例えば、それらに限定されないが、診断及び/又は治療処置のために用いられる、静的な又は動的な蛍光透視画像における処置前のプランニング要素)を含む。本発明の方法のいくつかの実施形態において、ハイライトの方法は、(i)選択された領域をボールディングするステップと、(ii)選択された領域をカラーリングするステップ(例えば、領域を選択するステップ及びピグメント(例えば、それらに限定されないが、黄色、青、赤、緑など)をグレースケール画像上に配置するステップ)と、(iii)(例えば、図3を参照のこと、「強調された画像」は「拡張された画像」である)組織/領域の画像を強調するステップと、(iv)蛍光透視画像上に画像を重ね合わせるステップ(例えば、それに限定されないが、CTスキャンの選択された領域における境界(例えば、点線、破線など)を重ね合わせるステップ)と、又はそれらの任意の組み合わせと、を含む。いくつかの実施形態において、ハイライトは、自動で、半自動で、手動で又はそれらの任意の組み合わせで、実行され得る。
従来の蛍光透視法は、医療処置の間に患者の内部構造のリアルタイム動画を取得するために一般的に用いられる。従来の蛍光透視法は、身体(例えば、それに限定されないが、人間の身体)の内側で医療機器をガイドするための可視及び検証の画像化ツールである。骨組織及び、それらに限定されないが、カテーテル、生体検査ツール、外科機器、較正ツールなどの医療機器は、蛍光透視画像上で明確に見えるが、軟組織、欠陥、疑わしい結節などの低密度の物質の特徴の物質は、従来の蛍光透視法にて特定することは困難である。一例として肺癌外科処置を取り上げると、CTスキャンは処置に先だって通常取得される。肺結節はCTスキャン上で明瞭に観察される一方で、これらのケースのほとんどにおいて蛍光透視画像上で明瞭に特定し得ない。診断及び/又は治療処置に先立って、ヘルスケア専門家(例えば、医者)は、これからの処置の間に扱われる必要がある関心領域を特定するために、一般的に、処置前のCTスキャン及び/又はMRI画像を観察する。3次元(「3D」)画像化情報及び専門的な知識/経験を用いて、そのようなプランの実際の詳細な参照文献無しに、医者はこれからの処置をプランする。
実際の診断又は治療処置の間に医者は、診断及び外科機器のポジション並びに/又は操作を確認する/特定するために、蛍光透視装置を頻繁に用いている。ターゲット領域は蛍光透視画像上で明瞭には確認できないため、医者はターゲット領域の位置を推量する/推定することが求められることがある。さらに、蛍光透視画像は、患者を通過したX線からの蓄積された情報を表すので、X線は身体の異なる内部の構造と作用する際に量を変化することにより弱められ、低い密度の軟組織は、高い密度の組織によって塞がれる。加えて、3次元の情報は蛍光透視画像から失われている。結果として、蛍光透視画像上に表示された視覚情報の誤った解釈によって引き起こされるユーザエラーの高い可能性がある。最後に、従来のアプローチは、一般的に、35%の低い診断率(すなわち、診断処置が、明確な診断を確立するために必要とされる情報を提供する可能性)と、実質的により大きい(例えば、それらに限定されないが、10%、20%、30%、40%、50%大きい)切除領域周辺と、従来の蛍光透視法を通して軟組織又は小瘤をターゲッティングしている間の、同じ医療施設内部のより長い処置時間及びつじつまの合わない結果をもたらす。
電磁ナビゲーションシステム(ENB)は、本発明の方法において、身体内部ナビゲーションをサポートするために用いられ得る。ENBは、一般的に、処置前の静的なCT画像を用いる。
本発明の方法は、リアルタイム蛍光透視画像(すなわち、静的な画像ではない)を用いる。いくつかの実施形態において、本発明は、ユーザ/施術者が、診断又は外科機器により診断及び/又は治療処置の軟組織ターゲット領域を(効果的に)可視化することを許容する、リアルタイムモダリティを達成するように構成された装置である。いくつかの実施形態において、リアルタイムの視覚化は、CT又はMRIなどの処置前の静的な画像情報が、呼吸している間の肺組織の大幅な動作及び/又は変形に起因してターゲット領域に対する機器の位置特定に対して不正確であるので、有利である。ここで、変形は、(a)処置前のCT画像化と(b)実際の診断又は治療処置との間で比較される、潜在的に、実質的に非類似の患者の状態に加えて、患者(例えば、人間の身体)の内側の診断機器又は外科機器の前進によって引き起こされる。
いくつかの実施形態において、本発明の方法は、第一の画像化モダリティ(例えば、それに限定されないが、処置前のCT)の使用と併せて、診断に関する治療又は治療処置の間の、第二の画像化モダリティ(例えば、それに限定されないが、リアルタイム蛍光透視法)を用いるように構成される、第三の画像化モダリティの使用を含み得る。いくつかの実施形態において、その方法は、診断及び/又は外科処置の間にハイライトされた関心の要素/特徴(すなわち、拡張された画像)を有する第三の画像を生成するように構成される、第三の画像化モダリティを含み得る。いくつかの実施形態において、その方法は、処置時間の削減及び/又は(例えば、新生期の施術者のための)そのような処置のラーニングカーブにおける改良を促進し得る。
いくつかの実施形態において、本発明の方法は、外科処置及び/又は関心領域のリアルタイム可視化に従うガイディングの間に用いられ得る。
いくつかの実施形態において、その方法は、情報の少なくとも一つの三次元の形態を第二の画像(例えば、従来の蛍光透視画像)に加えることによって、施術者が、第三の画像(例えば、蛍光透視画像)上の関心領域の特定の要素の視認性を制御すること許容する。いくつかの実施形態において、その方法は、ユーザが関心領域(いわゆる、外科処置の間に要求される正しい関心領域)に注目することを補助してもよく、例えば、それらに限定されないが、血管、気管支気道などの、関心領域周辺の付加構造の検査を含む。いくつかの実施形態において、本発明の方法は、診断及び/又は治療処置の時点にて、病変の視認性を増加するために最適な蛍光透視角度をユーザに提示するステップを含むものであり、その提示は、少なくとも一つのDDR処置前画像に基づくものである。
いくつかの実施形態において、本発明の方法は、外科処置の間に、医者により高い制御を提供でき、その制御は、処置前プランニング及び三次元画像化データに従う診断機器及び/又は外科機器に対して相対的に、治療領域及び/又は少なくとも一つの危険構造を正確に特定する、医者の能力を十分に改善することを含む。
いくつかの実施形態において、本発明の方法は、(例えば、処置前の)第一の画像及び(例えば、処置中の蛍光透視の)第二の画像の統合並びに処理と、並びに(例えば、拡張された蛍光透視法の)第三の画像のリアルタイム又はオフライン画像をアウトプット(すなわち、結果)上にレンダリングすることと、を許容するように構成されている、統合されたソフトウェアアルゴリズムを有するハードウェア機器を用いる。
いくつかの実施形態において、本発明の方法は、(a)蛍光透視装置のC−Armと(b)患者との間の空間的な相対角度及び/又は位置(姿勢)を決定することを許容するように構成されている、角度測定装置/センサ(例えば、直角センサ、加速度センサ、ジャイロスコープなど)を用いる。
いくつかの実施形態において、本発明の方法は、患者の内部の(例えば、それに限定されないが、患者の胸部内の)深さ、及び/又は蛍光透視カメラからの間隔を測定することを許容するように構成されている可動カテーテルを利用し得る。
いくつかの実施形態において、本発明の装置及び方法は、(a)第一の画像(例えば、処置前のCT画像)から生成される情報、及び(b)関心領域をハイライトするためのプランニング段階の間に作成される情報(例えば、決定)の使用を許容し、選択的に(a)第一の画像から生成される情報及び/又は(b)第二の画像(例えば、蛍光透視画像)へのプランニング段階の間に生成される情報を含む、リアルタイムの第三の画像化モダリティ(例えば、拡張された蛍光透視モダリティ)を提供する。
いくつかの実施形態において、本発明の方法は、それらに限定されないが、肺、肝臓、腎臓などの柔軟な、動作する組織に作用する診断及び/又は治療処置を補助するために用いられ得る。典型的な実施形態において、肺臓学において、末梢の小瘤は、蛍光透視画像上でハイライトされてもよく、及び/又は末梢の小瘤のデジタル再構成画像(DRR)は、リアルタイムに蛍光透視画像上に重ね合わせされてもよい。いくつかの実施形態において、三次元CT画像を、二次元(「2D」)の蛍光透視画像上の関心領域をハイライトするために用いるアプローチは、別の医療事例に適用できる。
いくつかの実施形態において、本発明の方法は、コーンビームCT装置を伴って用いられ得る。いくつかの実施形態において、本発明の方法をコーンビームCT装置と組み合わせることにより、より優れたナビゲーション精度、自動的な蛍光透視の姿勢制御、放射線量削減などが可能になる。
いくつかの実施形態において、本発明の方法により、施術者は、第三の画像(例えば、蛍光透視画像/拡張された画像)上にハイライトされるリアルタイム情報に従って、医療機器をナビゲートすること及び/又は動作することができるのであり、その第三の画像は、処置前の画像から抽出される重ね合わせられた解剖学的なデータ及び/又はプランニングデータを含み得る。
いくつかの実施形態において、本発明の方法は、実際の外科機器、及びハイライトされた関心領域、並びに/又は解剖学的な要素のリアルタイムの第三の画像(例えば、蛍光透視画像/拡張された画像)を提供する。いくつかの実施形態において、その方法は、拡張された画像上にオーバーレイされたターゲットの解剖学的な特徴を提供し得る。いくつかの実施形態において、その方法は、それらに限定されないが、切開ポイント、切断の領域境界、参照ポイントなどのプランニング情報を、拡張された画像上に提供する。
いくつかの実施形態において、本発明の方法及び装置により、ユーザ/施術者は、多様な画像化情報を組み合わせること、及び事前に取得された三次元のボリュームデータを、動作する及び静的な軟組織領域をハイライトすることに、利用すること(すなわち、拡張された画像を生成すること)ができる。
いくつかの実施形態において、本発明の方法は、ユーザ/施術者に、拡張された蛍光透視画像上の特定の構造を提供する拡張された蛍光透視画像を生成するステップを含み、拡張された蛍光透視画像は、蛍光透視ビデオ及び/又は連続する蛍光透視画像上のピクセルのグループ(例えば、異なるピクセルのグループ)の動作変動分析によって生成される。典型的な実施形態において、肺の内側の軟組織病変は、肋骨と比較して異なる方向に動作し、軟組織の動作の度合いは、一般的に、肋骨の動作の度合いよりも大きく、蛍光透視ビデオフレームによって測定されることで、軟組織及び肋骨構造の投影された動作は差異を有するという結果をもたらす。いくつかの実施形態において、それぞれのピクセル減衰値の情報と組み合わされる測定された差異により、身体的構造及び/又は物体へピクセルをグループ分けすることができる。いくつかの実施形態において、物体へグループ分けされる際に、その身体的構造は、ユーザ/施術者によって決定される医学的利用例を参照して蛍光透視画像上にハイライトされ又は強調の度合いを弱められ得る。いくつかの実施形態において、拡張された蛍光透視画像は、蛍光透視画像のシーケンスから物体情報を抽出することによってさらに強調されるものであってもよく、その蛍光透視画像のシーケンスは、それらに限定されないが、CT、MRI、胸部X線レントゲン画像、又はそれらの任意の組み合わせなどの処置前画像によって提供される情報により精緻化されても良い。
いくつかの実施形態において、本発明の方法は、少なくとも一つの静的な蛍光透視画像及び/又はリアルタイムビデオからのビデオフレームの、自動較正を含む。別の実施形態において、その方法は、(i)様々な角度において、処置中の蛍光透視法の間の、特定の解剖構造の品質又は関心領域の視認性の予測を生成するステップ、及び(ii)特定の解剖構造又は関心領域の視認性を改善するために蛍光透視C−Armを用いる角度を提言するステップであって、ユーザにガイダンスを提供し、例えば、画像の背景に対して構造/関心領域のより高い視認性を達成する、提言するステップを含む。
いくつかの実施形態において、本発明の方法は、全体の蛍光透視画像に基づいて、蛍光透視装置と統合された既存の自動ゲインアルゴリズムを変更することによって蛍光透視装置から取得されるRAWデータを処理するステップ、を含む。いくつかの実施形態において、その方法は、領域に基づくゲイン演算アルゴリズムの使用を含む。いくつかの実施形態において、特定の領域に基づくゲイン演算アルゴリズムは、関心領域の周辺の対応する三次元の生体構造情報の知識から導出されるものであり、この対応する三次元の生体構造は、CT又はMRI画像から取得され、さらに特定の領域に基づくゲイン演算アルゴリズムは、関心領域の身体的属性を評価するステップを含む。いくつかの実施形態において、その方法は、特定の信号処理を供給し、該特定の信号処理は、ターゲット領域(すなわち、拡張された画像)において結果として生じる蛍光透視画像上に提供される情報の損失を削減し、及びターゲット領域の視認性の向上をももたらし得る。
いくつかの実施形態において、本発明の方法及び装置は、二つ又はそれ以上の、処置のリアルタイムビデオ画像、及び/若しくは静的な処置前の画像の間に、正確な登録(すなわち、粗い登録及び/又は細かい登録)を維持する/生成するのに用いられ得る。
いくつかの実施形態において、本発明の方法及び装置は、処置前のデータ(すなわち、ユーザ/施術者によって生成される決定/情報)の使用を含んでも良いものであり、その情報は、スクリーン上に表示され、表示された情報の解像度及び/又は品質は、事例固有の又はユーザ固有の基準において、動的に決定され得る。
いくつかの実施形態において、本発明は、第三の画像化モダリティ画像(例えば、拡張された蛍光透視画像)をアウトプットとして生成する第一の画像化モダリティ(例えば、処置前の画像)及び第二の画像化モダリティ(例えば、処置中の蛍光透視画像)からのインプットを提供するように構成される、統合されたソフトウェアアルゴリズムを有するハードウェア装置を用いる方法である。
いくつかの実施形態において、本発明の方法は、構成可能なディスプレイ要素及びアウトプットビデオフォーマットを、リアルタイムのアウトプットの較正済み画像に提供する。
いくつかの実施形態において、本発明の方法は、スタンドアローンの及び/又はモジュールのアーキテクチャを有する、統合されたソフトウェアアルゴリズムを伴うハードウェア装置を用い得る。
いくつかの実施形態において、本発明の方法は、ユーザに対して、蛍光透視C−Armと患者の身体との間の相対的な空間的姿勢を決定する、角度測定を提供するように構成されているハードウェア装置を用いる。いくつかの実施形態において、その装置は、角度情報が、処置の間、利用できない又はアクセスできない、それらの蛍光透視モデルに適用できるものである。
別の実施形態において、本発明の方法は、処置前の画像(例えば、CTスキャン)から導出される対応する三次元の解剖構造を用いることによって、複数の蛍光透視画像(例えば、二枚の画像、三枚の画像、四枚の画像、五枚の画像、六枚の画像、七枚の画像、八枚の画像、九枚の画像、十枚の画像など)から三次元空間内の少なくとも一つの解剖構造を再構築するステップを含み得る。
図1を参照すると、本発明の実施形態の方法100を例示するフローチャートが示されている。
本発明の実施形態の方法100の101において、第一の画像(例えば、CT又はMRIなどの処置前の画像)は、取得され及び3D空間へ変換されるものであり、外科治療又は診断処置の間に、治療及び/又は診断をプランするために用いられる。
本発明の実施形態の方法100の102において、施術者(例えば、それらに限定されないが、呼吸器科医又は外科医)は、101において取得された処置前データに関して処置前プランニングを実行し、その101の間にて、施術者が、関心領域(例えば、疑わしい病変の周辺における切り取って調べる又は切除するための領域の境界、好ましいツール導入のためのアプローチ又は切開ポイント、危険構造(例えば、それらに限定されないが、大血管、限られた領域))、関心領域にアプローチするのに望ましい経路、をマークする。いくつかの実施形態において、その処置(すなわち、102)は、手動で、及び/又は、情報の一部がコンピュータソフトウェアによって自動的に特定されるときなどに半自動で、実行され得る。
本発明のいくつかの実施形態において、一旦プランニングが完了すると、104において、情報がマップされ(すなわち、「マッピング」)及び/又は関心領域を特定する(「特定」)ように処理され、マッピング及び/又は特定は、3D空間において要素をプランニングすることを許容し、及び/又は主要な解剖構造を特定する。いくつかの実施形態において、マッピングから収集された情報(すなわち、「マッピング情報」)は、(a)第一の画像化モダリティから生じる画像から、(b)第二の画像化モダリティから生じる画像に、伝達される。いくつかの実施形態において、マッピング情報は、粗い及び/又は細かい登録が第一の画像源及び第二の画像源上で実行された後に、伝達される。いくつかの実施形態において、画像源(例えば、それに限定されないが、第一の画像源)は、第二の画像化モダリティ(例えば、それに限定されないが、処置中の蛍光透視法)作動中のハイライト目的のために使用/再使用され得る。
人体器官のためのマッピング又は特定の技術に関する非限定的な例は、非特許文献1に開示されており、該文献は、全体として参照することによって、本明細書に組み込まれる。例えば、3D CTスキャンにおけるターゲットの器官の位置は、器官領域を厳密に且つ正確に境界付ける(例えば、少なくとも一つの器官のための境界として機能する)3D矩形として提示され得る。例えば、ターゲットの器官特有の(例えば、それに限定されないが、境界矩形に対する)3D矩形の位置は、自動的に検出される。複数の2D検出器は、アンサンブル学習を用いて訓練され、及び複数の2D検出器のアウトプットは、器官を位置特定するために、3Dにおける共同の多数決を用いて組み合わされる。例えば、異なる内部の器官の位置の検出は、別々で及び/又は単独で用いられ得る。典型的な方法は、3D CTスキャンにおける3D器官の位置特定を、一連の2D画像スライスにおける複数の独立した2D物体を検出するものとして処理するステップを含み、その方法は、アンサンブル学習の間に、(i)特徴次元を(3Dから2Dに)削減し、及び(ii)訓練サンプル(例えば、一つの3D訓練サンプルは大量の2D訓練サンプルから成る)の数を増加し得る。典型的な方法は、オッカムのかみそりに従って未知のサンプルのための訓練された検出器のロバスト性を増加し得る。例えば、未知の3D CTスキャンに関して、典型的な方法は、三つの直交する方向に沿ってターゲットの多数の2D対象を検出するために、異なる2D検出器をそれぞれのボクセルに独立して適用し、後ろが3D空間になっているそれらの2D対象に投票する。そのターゲットの存在及び概略のセンターポジションは、すべての2D検出器の応答の相互の一致をチェックすること及び3D投票空間内の関連する2D対象の範囲の大多数を、ターゲットの位置として選択することによって決定され得る。
人体器官のためのマッピング又は特定の技術の非限定的な例は、非特許文献2においても開示されており、該文献は、全体として参照することによって、本明細書に組み込まれる。この典型的な方法は、処置中の骨の位置特定を可能にし、その方法はどの処置前画像をも要求せず、多くの代替手段よりも侵襲的でない。例えば、処置前の段階において、関心の生体構造のCTのような強度値のアトラスは、サンプルCT画像から構成されている。処置中の段階において、新規の2D/3D変形可能な登録アルゴリズムは、アトラスを患者の生体構造の蛍光透視X線画像に登録するために用いられる。登録アルゴリズムは、蛍光透視X線画像において、アトラスのテンプレートの骨表面と骨外形との間に強度値に基づく対応を確立するように構成されている。登録アルゴリズムはさらに、対の特徴の間の距離を最小化する/削減する骨形状及び姿勢を探索するように構成されている。アルゴリズムは反復的に、骨形状及び姿勢推定が収束するまで骨形状及び姿勢推定を精緻化するように構成されている。
いくつかの実施形態において、その方法は、2D蛍光透視画像上のそれぞれのピクセルをCTスキャンから生じる3D構造に整合することにより、2D蛍光透視画像を用いて拡張された3D蛍光透視画像を生成するステップを含む。本発明の方法は、登録の間は、それらに限定されないが、装置に接続されたX線不透過性のマーカー、X線不透過性の微粒子スプレー、インフレータブルX線不透過性バルーン、X線不透過性のフィラメント、などのトレース要素及び/又はマーカーを利用しない。
いくつかの実施形態において、本発明の方法は、(i)外科処置の間に表示されるものとする視覚化データ、(ii)少なくとも一つの医療機器の導入のための推奨経路、(iii)解剖学の知識及び処置詳細に基づくガイダンスインストラクション、(iv)関心領域の視認性を最適化することをもたらすような、C−Armのための推奨角度又は姿勢、又はそれらの任意の組み合わせを生成し得る。
いくつかの実施形態において、蛍光透視画像は106にて処置の間に取得され、一方で医療機器は関心領域に導入される。いくつかの実施形態において、蛍光透視画像は、単独の画像及び/又はビデオとして取得され得る。
実施形態において、生成される蛍光透視画像及び/又はビデオは、蛍光透視画像処理のためのインプットとして、処理ユニット218(図2)に導入される。その実施形態において、蛍光透視C−Arm219(図2)と患者214(図2)との間の姿勢は、外側から送信されるか、又は処理ユニットによって演算されるかのどちらかである。その実施形態において、互換性のあるデジタル再構成画像(DRR)は、実際の蛍光透視装置と実質的に同じ仮想C−Arm姿勢及び実質的に同じカメラパラメータを用いて処置前画像から生成される。いくつかの実施形態において、画像は較正されるが、「較正される」は、蛍光透視画像のひずみに対して調整され、X線放射分析の先行技術知識に係る強度値における蛍光透視装置とCTとの間のX線エネルギ差異に対して補償されることを意味する。
いくつかの実施形態において、非特許文献3は、実際の蛍光透視画像に対するDDRシミュレーション、較正及び登録について説明し、該文献は、全体として参照することによって、本明細書に組み込まれる。例えば、該典型的な方法は、GPU(graphics processing unit(画像処理ユニット))上で、剛性2D/3D画像登録を効果的に実行する。登録アルゴリズムの一部、すなわち、DRR生成、及び類似性測定の演算の両方が、GPU上で実行される。加えて、非特許文献4は、全体として参照することによって、本明細書に組み込まれる。例えば、登録アルゴリズムは、(1)強度値に基づいたもの、及び(2)特徴に基づいたもの、の二つのカテゴリーにグループ分けされ得、特徴に基づいた登録は、本発明の方法に関連して用いられ得る。例えば、肋骨や脊椎のエッジは、X線及び/又はCT画像から抽出され得る。距離マップは、複数の(例えば、それに限定されないが、すべてのエッジポイントを用いる結果に終わる、それぞれの記録されたエッジポイント)X線画像のエッジポイントのためにさらに生成され得、CT画像のエッジ投影をX線画像における最も近いエッジに引きつけることによって、2D/3D登録を容易にする/許容する。距離マップがエッジの方向情報をも持たないとき、誤登録は、異なる構造のエッジの間で発生し得る。誤登録は、方向依存距離マップを用いて削減され得、改良されたキャプチャ範囲及び精度によりさらなる安定した登録を達成する。
いくつかの実施形態において、104にて生成されたマップは、空間的な情報を、DRR画像上のそれぞれの提示された要素に提供するために用いられる。いくつかの実施形態において、登録はDRRと実際の蛍光透視画像との間で実施される。登録の例、例えば、特徴に基づく又は強度値に基づく登録は、非特許文献5において記載され、該文献は、全体として参照することによって、本明細書に組み込まれる。例えば、特徴に基づく登録アプローチは、登録プロセスにおいて共有する画像化モダリティのそれぞれの特徴の間の、特徴の対応付けのステップを含み得る。登録の結果として、DRR画像のために生成される空間的な情報は、実際の蛍光透視画像上に伝達され得る。実際の蛍光透視画像に追加された3D空間的情報により、実際の蛍光透視画像に対してコンピュータ視覚アプローチを実行し、ひいてはピクセルの2D画像と連動するというよりはむしろ3D空間における物体と共に動作し得る。このアプローチを用いることにより、蛍光透視画像のそれぞれのピクセルが、既知の解剖構造を介して通過するX線ビームを統合することによって描写され得る。
いくつかの実施形態において、蛍光透視画像の取得の間に失われた情報は、本発明の方法を用いて、復元される。いくつかの実施形態において、関心領域は、実際の蛍光透視画像上でハイライトされ得、一方、骨、心臓、血管などの干渉構造は、強調の度合いを弱められ得る。いくつかの実施形態において、拡張された画像品質のさらなる改良は、連続するビデオフレームのトラッキングを通して達成され得、動作の特徴は、種々の解剖構造に対して異なり得る。
拡張された蛍光透視画像又はビデオフレームシーケンスは、本発明の方法の実施形態を用いて、110において生成される。いくつかの実施形態において、プランニングフェーズ中に生成される様々な要素は、ユーザ要求に従って又はシステム構成に依存して、拡張された蛍光透視画像上に表示され得る。
図2は、本発明の実施形態を示す図を示し、拡張された蛍光透視システム/方法及びデータフローを示す。
拡張された蛍光透視画像を生成する本発明の実施形態において、その方法は、以下の利用が含まれる。
(1)X線チューブ204及び増強装置208の添え付けられた蛍光透視のペアを伴うフレーム209の動作の原因となるC−Arm202。
(2)X線を生成するX線チューブ204であって、X線はコリメータ206を通過し、コリメータ206はX線ビームを狭めるように設計される、X線チューブ204。
(3)生成されたX線ビームは、ベッド212に添え付けられた患者の身体214を通過する。
(4)減衰したX線ビームはさらに、RAWデータ蛍光透視画像を形成するX線画像増強装置208によって吸収される。X線は208によって視認画像に変換される。及び/又は、
(5)ビデオ信号は、カメラ210によって常にキャプチャされ、及びモニター216に伝達される。
(6)インプットとしてCT画像220を取得する、プランニングステーション222は、前述の102、104(図1)によって特定されるように、ユーザが診断及び治療処置をプランすることを許容する。
(7)生成されたプランニングデータ、3Dボリュームデータは、ユニット218へ送信され、216からのビデオ信号又は別途の208からのRAWデータは、常に処理ユニット218に伝達される。
(8)拡張されたビデオ画像は、108、110(図1)によって特定されるように、218によって生成され、モニター224によって表示される。
(9)又は、これらの任意の組み合わせ。
本発明の実施形態において、以下の要素は、C−Armの姿勢測定を提供するために追加された。
(1)C−Armのフレーム209に添え付けられたセンサ211、並びに/若しくは
(2)患者の身体214に及び/又は患者のベッド212に添え付けられた参照センサ213
姿勢推定の評価を許容する本発明の実施形態における使用のために利用可能であるセンシングテクノロジーの例は、光学センサ、加速度計、電磁センサ、超音波センサ、(例えば、現代のスマートフォンにて利用可能な)ジャイロスコピックセンサ、などを含み得る。姿勢推定アプローチの使用の例は、本発明の方法にて用いられ得、非特許文献6において説明され、該文献は、全体として参照することによって、本明細書に組み込まれる。
いくつかの実施形態において、その方法は、非特許文献7において説明されるように、患者のベッドに添え付けられ得るものである所定の幾何学的な構成を伴う一連のマーカーを用い得、非特許文献7は、全体として参照することによって、本明細書に組み込まれる。
図3は、本発明の典型的な実施形態を示し、拡張された蛍光透視画像の図を示す。該実施形態において、ターゲット領域は不可視又は不鮮明であるが、診断機器及び骨は元画像上に鮮明に見られる。実施形態において、ターゲット領域は、例えば、右側にて、拡張された蛍光透視画像上でハイライトされる。実施形態において、その方法は、骨の強調の度合いを弱める一方で、血管をハイライトするステップを含む。
図4は、本発明の方法の実施形態を示し、方法400のフローチャートを示す。方法400の401においては、ユーザによって選択される、診断又は治療処置より前のCT又はMRIなどの処置前画像上の関心領域を示す。方法400の403においては、関心ボリュームが、処置前の画像上に生成される。実施形態において、ボリュームは、病変などの関心領域内の解剖構造、及び気管支又は血管などの付加解剖構造が、蛍光透視画像などの処置画像上で検出可能であり得るように、生成される。典型的な実施形態において、例えば、DDR画像は、蛍光透視画像上で検出可能性を評価することに用いられ得る。
本発明の方法のいくつかの実施形態において、方法400の405において、処置中の画像又はビデオは、取得される。実施形態において、処置中のモダリティの姿勢は、少なくとも一つの処置中の画像によって演算され又は記録される。実施形態において、方法400の407において、処置中の画像と処置前の画像との間の粗い登録、例えば、それに限定されないが、DDRへの蛍光透視法は、例えば、それらに限定されないが、CTボリュームなどの処置前画像データ内部のDDRのビューポイントを評価するために実施される。粗い登録の例は、非特許文献8において示され、該文献は、全体として参照することによって、本明細書に組み込まれる。本発明の方法のいくつかの実施形態は、例えば、肋骨に基づく剛性画像登録を用いる。例えば、2D/3D画像登録を用いて、処置前ボリューム(例えば、CT又はMRT)は、処置中のX線画像と共に登録される。剛性画像登録は、本発明の方法によって用いられてもよく、ボリュームは、三つの座標軸に従って変換され及び回転され得るのみであり、変形は、パラメータベクトルX=(t,t,t,r,r,r)によって与えられる。パラメータr,r,rが、ベクトルr=(r,r,r)に属する一方で、パラメータt,t,tは、X、Y及びZ軸に沿ったミリメートル(mm)での変換を表す。いくつかの実施形態において、粗い登録は、自動的に実施され得る。
いくつかの実施形態において、本発明の方法は、非特許文献9にて開示される登録技術を用いてもよく、その全体は、参照することによって、本明細書に組み込まれる。典型的な実施形態において、そのような登録は、強度値に基づくものとしての及び/又は特徴に基づくものとしての、非限定的な例として、特定の医療の転用によって、実行され得る。強度値に基づいた及び特徴に基づいた登録の例は、非特許文献10によって説明され、その全体は、参照することによって、本明細書に組み込まれる。
本発明の方法のいくつかの実施形態において、ポイントに基づいた登録は、患者の胸部上に既知の解剖ランドマークを用いて実行され得る。いくつかの実施形態において、少なくとも一つの既知のランドマークは、CT画像及び/又は蛍光透視画像上にマークされ得る。いくつかの実施形態において、特別なマーカーは、処置の間に、患者の胸部に添え付けられ、よって、蛍光透視画像における検出可能性を改善/向上できる。
いくつかの実施形態において、方法400の409において、一連の特徴及びパターンは、望ましい登録方法によって、処置前画像の関心ボリュームから生成される。いくつかの実施形態において、患者の軟組織構造が観察され及び患者の肋骨に対して動作するとき、407における粗い登録の間に演算されたビューポイントは、既知の許容誤差内で概算される。いくつかの実施形態において、409において生成される一連のパターンは、以降のステップにおける視覚領域の細かいチューニング(すなわち、細かい登録)を実行することを許容し得る。
いくつかの実施形態において、方法400の411において、細かい登録は、登録方法に依存して、409及び処置前画像上に関心領域において生成される特徴又はパターンのそれぞれの間の最良適合を見つけるように実行される。
典型的な実施形態において、細かい登録の方法は、例えば、図5に示される、強度値に基づく細かい登録(すなわち、テンプレートマッチング)を通して示され、そのアプローチは、図5(A)に示されるように、処置前又は参照画像化モダリティからの強度値に基づくパターンから開始される。実施形態において、図5(B)に示されるように、処置中の画像からの信号は、図5(A)に示されるパターンに対応するノイズ及びスケールを含み、関心領域の範囲内で測定される。実施形態において、図5(A)に示されるパターンは、図5(B)の信号からのパターンとマッチされる。
本発明の方法によって用いられ得る細かい登録(すなわち、テンプレートマッチング)技術の例は、非特許文献11にて説明され、該文献は、全体として参照することによって、本明細書に組み込まれる。本発明の方法のいくつかの実施形態は、領域に基づくアプローチを用いるものであり、該アプローチは、相関のような方法又は細かい登録(すなわち、テンプレートマッチング)とも称される。例えば、非特許文献12を参照されたい。非特許文献12は、特徴検出及び特徴マッチングの組み合わせを説明する。例えば、この方法は、テンプレートが値の大部分に関して直接動作するため、画像に対応する強い特徴を有さないテンプレートにふさわしい。マッチは、画像とテンプレート両方の強度値に基づいて見積もられる。本発明の方法によって用いられ得る技術は、修正された強度値の差異の二乗、訂正に基づく方法、最適化方法、共通の情報、又はそれらの任意の組み合わせを含む。いくつかの実施形態において、本発明の方法は、自動的に、細かい登録を実行し得る。
いくつかの実施形態において、本発明の方法は、自動的に、粗い登録を実行し得る。
典型的な実施形態において、本発明の方法は、細かい登録の方法を利用するものであってもよく、細かい登録の方法は、蛍光透視画像から抽出された対応する解剖構造を伴う粗い登録を通して取得されるCTスキャンからの解剖構造の2D画像を調整するステップを含む。
本発明の実施形態の方法400の413において、信号マッチングパターンは、図5(A)に示される。内部にて、信号(図5(B))は、401によって描かれるような関心領域内で見出される生体構造をハイライトするために強調される。いくつかの実施形態において、処置中の画像からの信号をハイライトすることに加えて、参照画像から生じる信号は、ディスプレイ/画像上にオーバーレイされ得る。別の実施形態において、処置中の画像からの元信号、参照画像からのシミュレートされた信号及びプランニング情報の組み合わせは、適用設定に従って、又はユーザの要求により表示され得る。いくつかの実施形態において、図5(C)に示される方法は、信号を抑制するために、別途用いられ得る。
図5は、本発明の方法の(図4のステップ411に示されるような)細かい登録(すなわち、テンプレートマッチング)の説明的な例を示す。該例示は、簡素化のために一次元にて示されるが、実施形態の元信号は、二次元である。いくつかの実施形態において、図4のステップ411及び413は、テンプレートマッチング登録アプローチを用いる方法を提供する。
図6に示される典型的な実施形態は、蛍光透視画像の模式図であり、図6A及び図6Bは、呼吸の間の2つの異なる肺のポジションのための蛍光透視画像を示す。その実施形態において、軟組織病変606及び608が、二つの呼吸のポジションの間で大幅に動作する一方で、肋骨602は依然としてほとんど静的である。実施形態において、気管支鏡612は、病変から遠くに位置づけられており、実質的に静的であり、二つの呼吸のポジションAとBとの間にて実質的に動かない一方で、鉗子604の先は、病変606の極近辺に位置づけられ、鉗子が病変606と共に動く結果となる。実施形態において、肋骨交差領域610は、肋骨602よりも暗く、従来の蛍光透視画像において、病変との区別が、潜在的に付けられ得ない。いくつかの実施形態において、連続する蛍光透視画像AとBの分析は、(i)動作、(ii)接続性、(iii)密度、又はそれらの任意の組み合わせによって、静的な物体と動作する物体を実質的に分離すること、静的な物体と動作する物体をグループ分けすることを許容し、及び/又は複数の蛍光透視画像からの解剖構造の再構築を実行することを許容する。
いくつかの実施形態において、本発明の方法は、それに限定されないが、以下の肺臓学に基づいた処置のために用いられるものであってもよい。
(1)呼吸器科医が、拡張された画像化において、最初に病変を特定する際の気管支内診断の生体検査。その後、拡張された画像化において、生体検査の鉗子は、ターゲット箇所まで前進し、検体が適切に採られることを保証する。
(2)拡張された画像化にガイドされる経皮の診断の生体検査。
(3)VATSにおける楔状切除術、又は外科医が、外科処置より前に、拡張された蛍光透視ガイダンスのマーカーを配置する際の開胸術。
(4)直視の経気管支針生体検査は、病変を可視化し及び気管支鏡をガイドするのに用いられる。生体検査される領域は、最初に、拡張された画像化において特定され、その後、その範囲は、ターゲットされた部分にできる限り前進される。拡張された画像化を用いることは、直視の範囲を超えて、鉗子を遠位でターゲット領域へガイドする助けとなる。
(5)拡張された画像化にガイドされる気管支内の又は経皮の切除。
(6)又は、それらの任意の組み合わせ。
いくつかの実施形態において、本発明は、2D蛍光透視画像から多次元の画像を生成するのに用いられる。いくつかの実施形態において、2D蛍光透視画像は、グレイレベルで表示され、及びピクセルで構成される。いくつかの実施形態において、それぞれのピクセルは、X線チューブによって生成されたX線が画像増強装置によって吸収される間に、少なくとも一つの組織の統合された密度を表す。
いくつかの実施形態において、高い密度の物体(例えば、骨及び血管)は、統合されたピクセル密度(色)において、例えば、空気及び/又は軟組織の統合されたピクセル密度と比較してより大きい重さを有する。いくつかの実施形態において、蛍光透視装置のために実行される自動ゲインアルゴリズムは、少なくとも一つの軟組織の視認性を削減する一方で、少なくとも一つの高い密度の組織を視認できるようにする。いくつかの実施形態において、少なくとも一つの疑わしい病変領域は、例えば、骨に対して小さいボリュームを有するが、少なくとも一つの通常の組織よりも高い組織密度を有する。いくつかの実施形態において、少なくとも一つの疑わしい病変領域は、少なくとも一つの通常の組織の周りの領域と比較して、増大した血液の活発性(例えば、フロー及び/又はボリューム)によって特徴付けられる。いくつかの実施形態において、(例えば、軟組織または濃い組織の)疑わしい病変領域の少なくとも一つの自然の解剖学的な特徴は、少なくとも一つの蛍光透視画像によって観察される、少なくとも一つの影及び/又は雲のような物体を含む。いくつかの実施形態において、少なくとも一つの蛍光透視画像(例えば、少なくとも一つの肋骨交差部、接合、大血管など)による、少なくとも一つの影及び/又は雲のような物体のためのさらなる起源物がある。
いくつかの実施形態において、本発明は、蛍光透視画像上で、視認できる(同じ又は異なる組織であり得る)組織の、少なくとも二つの異なる(例えば、同じでない)部分を分離し、蛍光透視ビデオ上での光学的なフローを用いる視認組織の区分及び追跡を通して、少なくとも二つの異なる部分を物体に組み合わせる方法である。いくつかの実施形態において、蛍光透視スクリーン上のピクセルは、(1)密度の範囲によって分類され、(2)ライブの蛍光透視ビデオを通して追跡され、及び(3)動作によって分類される。例えば、呼吸することは、肺の膨張及び収縮動作を含むものであり、肺の膨張及び収縮動作は、同じ肺において葉ごとに異なるものであり、肋骨の動作とも異なる。そのような動作は、肺の投影という結果をもたらし、本発明の発明方法から生成される蛍光透視ビデオ画像によって示され得、図6において示されるようなそれぞれ区別できる解剖構造に対する複数の(例えば、様々な)動作によって、特徴付けられる。
いくつかの実施形態において、本発明の方法は、プロセス/ステップを登録することを含み、そこで登録するプロセス/ステップは、インプットとして、(i)蛍光透視画像及び(ii)CTスキャンからの気管支気道の区分を用いる。いくつかの実施形態において、粗い及び/又は細かい登録は、登録ステップを用いて実施される。
いくつかの実施形態において、方法は、拡張された気管支造影像を用いて、処置前のCT画像から抽出された少なくとも一つの気管支気道ツリーと蛍光透視画像シーケンスから抽出された気道との間の登録を許容する。実施形態において、概略のフローは、図7に示される。
いくつかの実施形態において、本発明は、拡張された気管支造影像である。いくつかの実施形態において、拡張された気管支造影像は、不可視の(例えば、蛍光透視画像により目に見えない)気道の拡張された画像であり、蛍光透視画像から抽出される。
いくつかの実施形態において、拡張された気管支造影像は、気管支を視認できるように構成されたX線不透過性の物質(図8)を注入することによって生成される。実施形態において、視認できる気管支は、(1)蛍光透視画像から部分的な気管支ツリーを抽出し、(2)部分的な気管支ツリーを第二の画像、例えば、処置前画像から抽出された気管支ツリー、に登録するための情報を提供する。いくつかの実施形態において、気管支に注入されたX線不透過性の物質は、一様に、気道をハイライト(すなわち、視認できるように)しない。いくつかの実施形態において、X線不透過性の物質は、すぐに(例えば、それらに限定されないが、1〜60秒、1〜45秒、1〜30秒、1〜15秒以内など)、画像から見えなくなり、又は消失し、蛍光透視画像品質を劣化し(図9)、及び不鮮明な画像を生成する。本発明のいくつかの実施形態において、少なくとも一つの画像処理アルゴリズムは、気管支造影像を生成するために利用される。本発明のいくつかの実施形態において、少なくとも一つの画像処理アルゴリズムは、拡張された気管支造影像を生成するために利用される。
いくつかの実施形態において、拡張された気管支造影像は、少なくとも一つのX線不透過性の機器を用いて生成され、該機器は、図14によって描かれるようなアンカリングメカニズムを選択的に有し得る。いくつかの実施形態において、X線不透過性の機器は、蛍光透視画像内で視認できるものであり、気管支ツリーに登録され得る解剖構造を表し、気管支ツリーは、少なくとも一つの処置前画像から特定される。いくつかの実施形態において、該方法の直接的な拡張は、同じ処置(図11)の間に、一時的な蛍光透視画像シーケンスから抽出され及び蓄積される複数の機器のポジション(図10)を用いることである。いくつかの実施形態において、X線不透過性の機器は、マルチルーメンであってもよく、そこでルーメンは、(i)診断又は治療処置、(ii)複数のX線不透過性のガイドワイヤを同時に複数の気管支気道に導入すること、及びガイドワイヤを複数の登録の参照として用いることのために用いられ得る。いくつかの実施形態において、該技術は、登録精度及びロバスト性を改善する。
いくつかの実施形態において、拡張された気管支造影像は、増大した期間にて、X線不透過性の物質の灌流を視認できる及び適所に(例えば、実質的に静的に)残存することを許容する少なくとも一つの機器を用いて、生成される。いくつかの実施形態において、増大した期間は、ツールの外観上のブラシ又はスプリンクルを用いて、少なくとも一つのX線不透過性の物質を気管支の壁上に拡散する少なくとも一つの機器を用いることにより、達成される。いくつかの実施形態において、高い粘性を有する(例えば、ヒドロゲル状の)X線不透過性物質は、機器を通して注入され、気道上で消失される。いくつかの実施形態において、X線不透過性の材料は、X線不透過性の物質から段階的に放出されるように構成されている。いくつかの実施形態において、気道領域は、より長い期間にX線不透過性の特性を残存する。いくつかの実施形態において、逆熱ゲル化ポリマー又は類似の材料が用いられ、蛍光透視画像の品質劣化(図9)又は不鮮明な蛍光透視画像の防止と同時に、低温における液体物質の効果的な注入を許容する。注入される物質は温度が体温まで上昇するにつれて、半個体ゲルになるからである。
いくつかの実施形態において、本発明は、第三の次元(深さ)を2D蛍光透視画像上の機器の位置に加えることを含む方法である。いくつかの実施形態において、機器の少なくとも一区分の深さは、(1)(a)蛍光透視画像上の投影された機器の形状の(b)気管支気道の既知の解剖構造との比較と、(2)気管支ツリー(図13)内側の制約された機器の配置を推測することと、によって演算される。
いくつかの実施形態において、本発明は、蛍光透視画像に対して直交する方向に、機器の仰角(配向角)を追加することを含む方法である。いくつかの実施形態において、配向の大きさを演算するための少なくとも二つの方法があり、少なくとも二つの方法は、(1)X線不透過性の真っ直ぐな機器部分の投影された長さと実際の物理的な長さを比較するステップであって、X線不透過性の真っ直ぐな機器部分の実際の物理的な長さは、(例えば、利用可能な登録から)蛍光透視画像(図12)の既知の拡大(すなわち、拡大図)を用いる、長さを比較するステップと、及び(2)患者の身体に対する又は蛍光透視装置に対する機器の配向を演算するために、機器に添え付けられた配向センサを用いるステップと、である。
いくつかの実施形態において、本発明の方法は、患者(例えば、人間の身体)の内部の機器の6自由度(DOF)を決定するための3D位置及び配向を含む情報を統合することを含む。
いくつかの実施形態において、本発明は、先端に位置づけられた統合センサを用いて機器の先端の動き及び向きを追跡するための方法である。いくつかの実施形態において、センサは、ジャイロスコープ、加速度計及び/又は磁力計からなるグループから選択される。いくつかの実施形態において、これらのセンサから送信される情報により、リアルタイムで先端の配向及び位置を演算することができる。本発明のいくつかの実施形態において、位置演算のロバスト性は、気管支の内側にあることを推測すること/予測することによって、改善される(すなわち、精度が向上される)。いくつかの実施形態において、そのサンプルは、処置前のCT画像から抽出された3D気管支ツリーに対して登録される。
本発明の典型的な実施形態において、図7は、方法700を示すフローチャートである。いくつかの実施形態において、該フローチャートは、拡張された気管支造影像を用いて、処置前の画像(例えば、それらに限定されないが、CTスキャン/画像)から抽出された気管支気道ツリーと複数(例えば、2、3、4、5、6、7、8、9、10枚など)の蛍光透視画像から抽出された気道との間に、登録プロセスを表す。いくつかの実施形態において、方法700の710において、CT及び/又はMRIは、ソースの処置前の及び/又は処置中の画像である。いくつかの実施形態において、処置前の及び/又は処置中の画像は、取得され及び3D空間へ変換され、並びに治療及び/又は診断のための外科治療及び/又は診断処置の間に用いられる。典型的な実施形態において、方法700の720において、3D気管支ツリーは、(1)自動的な区分アルゴリズム及び/又は(2)外科医による手動的な書き取りを用いて、画像710から抽出される。典型的な実施形態において、方法700の705には、ソースの蛍光透視画像及び/又は蛍光透視装置からキャプチャされた蛍光透視ビデオがある。典型的な実施形態において、方法700の730において、拡張された気管支造影像は、本発明において開示される一つ又はそれ以上にアプローチによって、蛍光透視画像705を用いて演算される。
いくつかの実施形態において、本発明の方法は、軟組織、骨、機器、解剖物体及び背景の間に自動の分離/区分を含み、そこでは、その自動の分離/区分は、種々のタイプの組織/器官の間に、識別するための機器及び/若しくは組織の動作、並びに/又は、抽出された情報(例えば、気管支ツリー)の生成をもたらすための機器(例えば、動作及び/又は密度)を用いる。
典型的な実施形態において、720によって抽出された3D気管支ツリー及び730によって抽出された拡張された気管支造影像は、700に示す方法を用いて、740において登録される。典型的な実施形態において、登録プロセスは、2Dの拡張された気管支造影像を整合させるために3Dの気管支ツリーを投影する蛍光透視装置の姿勢情報(例えば、ポジション、向き及び/又はカメラパラメータ)を評価して、画像710の3D空間と画像705の2D空間との間の対応を生成する。
実施形態において、図8は、部分的な気管支ツリーをハイライトする注入されたX線不透過性の物質を含む、蛍光透視画像のシーケンスから取得された拡張された気管支造影像のサンプルを示す。
実施形態において、図9は、蛍光透視画像を示し、図8における同じ被写体であるが、画像は、注入の30秒後に取得された。示されるように、注入されたX線不透過性の物質は、周辺の部位に広がり、不鮮明な画像を生成する。実施形態において、拡張された気管支造影像は、注入の30秒後の明瞭な画像を生成する。
本発明の実施形態において、図10は、蛍光透視画像上に視認できるX線不透過性の機器の使用の方法の図を示す。実施形態において、画像、例えば、1005、1010及び1015は、異なる位置における視認機器及び現実の蛍光透視画像における目に見えない気管支ツリーの概略構造を含む蛍光透視画面を示し、提示のためにのみ本図面に示される。画面1005、1010及び1015に示される機器は、同じ機器でも異なる機器でもよい。
例において、画像化の重ね合わせは、身体動作、呼吸、機器導入などに起因するディストーション訂正を組み込む。いくつかの実施形態において、一時的な機器のポジションは、予め定義された呼吸フェーズにおける重ね合わせのために取得される。
典型的な実施形態において、図11は、図10からの画面1005、1010及び1015から導出される、拡張された気管支造影像を示す。実施形態において、それぞれの画面は、周辺の解剖構造に関する情報を加える。実施形態において、情報は、拡張された気管支造影像を生成するために組み合わされる。
実施形態において、図12は、機器1205の真っ直ぐな部分を示し、身体の内側における3次元空間に位置づけられる。実施形態において、機器は、蛍光透視画像平面1210上に投影され、及び投影画像1215が生成される。実施形態において、機器の真っ直ぐな部分1205と蛍光透視画像平面1210との間の角度は、「α」である。
実施形態において、図13は、3D気管支ツリー1315を示し、解剖学的パス1320を含み、気道の内側に位置づけられる。実施形態において、3D解剖学的パス1320が蛍光透視画像平面1315上に投影されている際に、投影1310は、元の深さ情報を失う。実施形態において、本発明は、該情報をリカバーする。
実施形態において、図14は、アンカリングを伴う使い捨てのナビゲーションカテーテルを示し、使い捨てのナビゲーションカテーテルは、気管支気道を通して予め曲げられた先端1410を用いてガイドされ得る。ツールハンドル1420は、ナビゲーションパフォーマンスを向上するために選択的に用いられ得る。カテーテルの先端は、インフレータブルバルーン又は拡張可能なスプリングとして設計されるアンカー1440を用いて気管支気道の内側に留められてもよく、医療機器による、カテーテルの先端の周辺の関心領域に対する即時の複数のアクセスを許容する。診断及び治療の機器は、エントリーポイント1430におけるナビゲーションカテーテルの内側に位置づけられるワーキングチャネルを通して導入され得る。
実施形態において、図15Aは、人間の肺における治療処置の蛍光透視画像を示す。生体検査針1502は、疑わしいターゲット小瘤を切り取って調べるために、気管支鏡1503のワーキングチャネルを通して突出するものであり、疑わしいターゲット小瘤は、外科医によって、暗い領域1503として把握される。拡張された蛍光透視画像(図15B)は、患者胸部の対応する処置前のCT画像に関する処置より前に、外科医によりマークされた実際の小瘤領域1504をハイライトするために生成される。拡張された画像は、気管支鏡1506及び針1505を元の位置に維持するが、しかしながら、実際の1506と把握された1503小瘤ポジションとの間の差異は、明白である。1506のハイライト技術は、図15B上に明示され、黄色は、蛍光透視画像の小瘤領域へ「注入」され、蛍光透視画像の小瘤領域は、CT画像の一つに対応し(及び破線によってさらに囲まれ)、その一方で蛍光透視画像の元の情報は、まだ保存される。
いくつかの実施形態において、本発明は、CT、MRIなどの第一の画像化モダリティ、及び蛍光透視法、デジタルサブトラクション血管撮影(DSA)などの第二の画像化モダリティからの拡張された画像の生成を介するプランニング情報を用いることがある、方法並びにフローであって、第一の画像化モダリティから生じるハイライトされた関心領域若しくは構造及び追加されることがある画像及び/又はプランニング情報を第一の画像化モダリティに対して重ねるのであり、
(i)少なくとも一つの胸部の第一の画像を取得するために第一の画像化モダリティを用いるステップと、
(ii)ランドマーク、関心領域、切開ポイント、危険構造、分岐点、解剖学的器官などを定義することを介して処置の手動的な又は自動的なプランニングをするステップと、
(iii)蛍光透視法又はDSAなどの第二の画像化モダリティからの少なくとも一つの第二の画像を取得し、第一の画像化モダリティからのDRRなどの互換性のある仮想画像の生成をするステップと、
(iv)互換性のある仮想画像上の物体及び構造へプランニングデータのマッピングをするステップと、
(v)第二の画像化モダリティからの少なくとも一つの第二の画像又はビデオフレームの、第一の画像又は第一の画像化モダリティから生じる第一の画像の一部への登録をするステップと、
(vi)画像登録を用いて、第一の画像化モダリティから生じる互換性のある仮想画像から、第二の画像化モダリティからの第二の画像に、プランニングデータのマッピング(すなわち、特定してマッピングすること)を、伝達するステップと、
(vii)第三の画像を取得するために、第二の画像化モダリティから生じる第二の画像上の関心領域、解剖構造をハイライトするステップであって、第三の画像は拡張されるものである、ハイライトするステップと、
を含む。
いくつかの実施形態において、その方法はさらに、少なくとも一つの画像又はその導出物の重ね合わせをするステップを含み、第一の画像化モダリティから生じるその一部又は画像に基づくプランニング情報は、第二の画像化モダリティに至るものである。いくつかの実施形態において、その方法はさらに、医療機器の動作を補助するナビゲーション及びガイダンス命令を含む。いくつかの実施形態において、その方法はさらに、蛍光透視C−Armなどの第二の画像化モダリティを位置付けるガイダンスを含み、関心領域、切開ポイント、解剖構造、ツールアクセス方向のための最適な視認性を維持することを可能にする。いくつかの実施形態において、その方法は、同じ取得パラメータ(モード、ポジション、視界)を有する、蛍光透視ビデオなどの第二の画像化モダリティからの連続するフレーム上に解剖構造のトラッキングを実行し、静的な解剖構造の抑制を介する拡張された蛍光透視画像の高い品質及び内在する軟組織のノイズに対する信号の改善を可能にする。いくつかの実施形態において、多数の登録は、実行され、肋骨などの小さい動作を伴う静的な物体は、最初に登録され、隔膜、気管支、血管などのより動的な物体は、その後の登録の反復において段階的に登録される。いくつかの実施形態において、干渉する構造は、強調の度合いを弱められる。いくつかの実施形態において、第一の画像化モダリティからのプランニングデータが画像登録を用いて第二の画像化モダリティに伝達される間には、互換性のある仮想画像は、生成されない。
いくつかの実施形態において、本発明は、ハイライトされた関心領域又は構造を伴う、処置中の蛍光透視法、DSAなどの拡張された第三の画像の生成を可能にする方法であり、(i)既知の相対的動作及び回転を伴う少なくとも二つの処置中の画像を用いて、処置中の画像のピクセルの動作変動及び強度値に従って処置中の画像のピクセルをグループ分けすることを可能にするステップと、(ii)関心領域内の構造を再構築するために、登録又は少なくとも二つの連続する処置中の画像の間の相互相関を実行するステップと、(iii)ユーザ要求によって関心領域内の移動する構造と静的な構造を区別化するステップと、(iv)処置中の画像上に解剖構造をハイライトするステップと、又はそれらの任意の組み合わせと、を含む。いくつかの実施形態において、その方法は、胸部X線画像が、X線画像からの情報の登録又は相互相関を介して第二の画像上の解剖構造を強調することを可能にする参照画像としての機能を果たす間に、胸部X線画像を用いるステップを含む。
いくつかの実施形態において、本発明は、拡張された蛍光透視画像の生成を可能にする拡張された蛍光透視装置であって、拡張された蛍光透視装置は、ビデオ及び画像処理ユニットと、ビデオインプットカード又は様々な蛍光透視装置からビデオ信号をインプットすることが可能である外部に接続された装置と、内部の又はDICOMフォーマットの3Dプランニングインプットと、拡張されたビデオ信号アウトプットと、又はそれらの任意の組み合わせと、を有する拡張された蛍光透視装置である。
いくつかの実施形態において、その装置は、モジュールとして蛍光透視装置に統合され、信号としてRAWデータを取得し、それゆえに、ビデオインプットカードの代わりのRAWデータインプットカードを有する。いくつかの実施形態において、その装置は、コーンビームCTシステムの内部に統合される。
いくつかの実施形態において、本発明は、組織又は解剖構造をハイライトする技術であり、関心ボリュームはCT又はMRIなどの第一の画像化モダリティから生じる画像上で選択され、第二の画像化モダリティからの画像が取得され、粗い登録は、第二の画像化モダリティの一つに対応する第二の画像化モダリティ内の仮想カメラの姿勢を特定するために、第二の画像化モダリティと第一の画像化モダリティとの間で実行され、少なくとも一つのパターンが関心ボリュームの周辺の解剖構造のために第一の画像化モダリティから生成され、マッチングパターンは、第一の画像化モダリティから生成される単独又は多数のパターンを用いて第二の画像化モダリティにて見出され、第二の画像化モダリティからのマッチングパターンは、第三の画像化モダリティを生成する関心ボリューム内で生体構造をハイライトするように、強調される。
本発明の方法のいくつかの実施形態において、解剖構造が関心領域の外部に配置されると、その関心領域は、同じ技術を用いて見出され抑制される。いくつかの実施形態において、パターンは、気道、肋骨及び血管などの解剖学的な特徴から構成される。いくつかの実施形態において、第二の画像化モダリティからのマッチングの特徴は、関心領域の内側における一連の少なくとも一つの機器のポジションから導出される。
物体の深さ演算の方法は、以下の通りである。DDRなどの第一の画像化モダリティから蛍光透視法に生じる互換性のある仮想画像のパラメータを前提とすること、仮想の蛍光透視カメラなどの仮想カメラの姿勢及び視界を前提として、第一の画像化モダリティを第二の画像化モダリティへ投影すること、特定の位置におけるDDR上の肋骨の幅などの仮想画像上の物体サイズを決定すること、第二の画像(例えば、蛍光透視画像)上で測定された物体サイズと、第一の画像(例えば、CT画像)から生じる既知の物体サイズとの間の比較を介して(蛍光透視のX線のソースからの特定の物体又は物体領域の距離などの)深さを演算すること、又はそれらの任意の組み合わせ、である。いくつかの実施形態において、物体サイズは、ツールの剛体部分の長さ又は幅などの互換性のある仮想画像上での測定に代わって又は加えて、技術的な仕様から決定される。いくつかの実施形態において、カテーテルタイプのツールは、第二の画像化モダリティカメラセンターからの深さ距離の組み合わせとして、軌道の演算を可能にするように設計される。
CT、MRIなどの第一の三次元画像化モダリティの蛍光透視法、デジタルサブトラクション血管撮影(DSA)などのリアルタイムのX線画像化の第二の二次元画像化モダリティとの登録を可能にする、方法及びフローは、少なくとも一つの胸部の画像を取得するために第一の画像化モダリティを用いるステップと、3D空間内の気管支気道などの自然の体腔の手動的な又は自動的な区分を実施するステップと、蛍光透視法又はDSAなどの第二の画像化モダリティから、少なくとも一つの画像又は連続するビデオフレームを取得するステップと、拡張された気管支造影像として上述した、気管支気道ツリーの一部などの自然の体腔の全体又は部分的なマップを描くために、固有の情報を組み合わせる第二の画像化モダリティから生成される二次元の拡張された画像を生成するステップと、上述の対応する特徴を適合することにより姿勢推定を介して第一の画像化モダリティと第二の画像化モダリティとの間の登録を演算するステップと、又はそれらの任意の組み合わせと、を含む。いくつかの実施形態において、拡張された気管支造影像は、体腔をハイライトするために注入されるX線不透過性の材料を用いて生成される。
いくつかの実施形態において、拡張された気管支造影像は、体腔の内側に位置づけられたX線不透過性の機器の少なくとも二つの異なる一時的なポジションからの画像化の重ね合わせを介して生成される。いくつかの実施形態において、拡張された気管支造影像は、体腔の内側に位置づけられた、X線不透過性の機器の少なくとも一つの異なるポジションと、患者のベッドに対するC−Arm配向の角度測定と、からの画像化の重ね合わせを介して生成される。いくつかの実施形態において、X線不透過性の機器は、単独の投影から三次元空間を再構築するように設計され及び構成される。いくつかの実施形態において、それらに限定されないが、ヒドロゲル、逆熱ゲル化ポリマーなどの高い粘性を有するX線不透過性の物質は、拡張された気管支造影像を生成するために用いられる。いくつかの実施形態において、画像化の重ね合わせは、身体の動作、呼吸、機器の導入などに起因するディストーション訂正を組み込む。いくつかの実施形態において、一時的な機器のポジションは、予め定義された呼吸フェーズにおける重ね合わせのために取得される。いくつかの実施形態において、本発明は、自然の体腔の内側のナビゲートのための装置であって、先端においてアンカリングを伴うガイド付きシース及びガイド付きワイヤを含む。いくつかの実施形態において、その装置は、アンカリングメカニズムとしての機能を果たすインフレータブルバルーンを含む。
いくつかの実施形態において、本発明は方法を提供し、その方法は、第一の画像化モダリティから第一の画像を取得するステップと、少なくとも一つの要素を第一の画像化モダリティから第一の画像上に特定するステップであって、少なくとも一つの要素は、ランドマーク、関心領域、切開ポイント、分岐点、器官、又はそれらの任意の組み合わせを含む、第一の画像上に特定するステップと、第二の画像化モダリティから第二の画像を取得するステップと、第一の画像化モダリティからの第一の画像から、互換性のある仮想画像を生成するステップと、互換性のある仮想画像上にプランニングデータをマッピングするステップであって、マップされるプランニングデータが、少なくとも一つの要素と対応する、マッピングするステップと、第一の画像化モダリティからの第一の画像に対して第二の画像化モダリティからの第二の画像を粗く登録するステップと、互換性のある仮想画像からのマップされたプランニングデータの少なくとも一つの要素を特定するステップと、第二の画像化モダリティ上に少なくとも一つの対応する要素を特定するステップと、第二の画像化モダリティ上に少なくとも一つの対応する要素をマッピングするステップと、第一の画像化モダリティからの第一の画像に対して第二の画像化モダリティからの第二の画像を細かく登録するステップと、第三の画像を生成するステップであって、第三の画像は、ハイライトされた関心領域を含む拡張された画像である、第三の画像を生成するステップと、を含む。
いくつかの実施形態において、その方法はさらに、少なくとも一つの画像、少なくとも一つの画像の一部又は第一の画像化モダリティから導出されたプランニング情報を、第二の画像化モダリティ上に重ね合わせるステップを含む。いくつかの実施形態において、その方法は、少なくとも一つのインストラクションを用いるステップを含み、少なくとも一つのインストラクションは、ナビゲーション、ガイダンス又はそれらの組み合わせに関する情報を含み得る。いくつかの実施形態において、ガイダンスは、第二の画像化モダリティが示される装置のポジショニングに関する情報を含み、その装置は、関心領域、切開ポイント、解剖構造又はツールアクセス方向のための視認性を達成することをもたらす、蛍光透視C−Armを含む。いくつかの実施形態において、その方法はさらに、第二の画像化モダリティから導出される少なくとも一つの連続する画像を用いて、少なくとも一つの解剖構造をトラッキングするステップを含み、第二の画像化モダリティは、同じ取得パラメータを実質的に有するように構成された蛍光透視ビデオを含むものであり、取得パラメータは、モード、ポジション、視界、又はそれらの任意の組み合わせを含むものであり、静的な解剖構造を抑制すること及び/又は内在する軟組織のノイズに対して信号を改善することによって、拡張された蛍光透視画像を生成する。いくつかの実施形態において、その方法はさらに、マルチフェーズの登録を実行するステップを含み、少なくとも一つの実質的に静的な物体は、最初に登録され、少なくとも一つの動的な物体は、第二に登録されるものであり、少なくとも一つの動的な物体は、隔膜、気管支、血管、又はそれらの任意の組み合わせを含む。いくつかの実施形態において、第一の画像化モダリティからのプランニングデータが、画像登録を用いて第二の画像化モダリティに伝達される間には、互換性のある仮想画像は、生成されない。
いくつかの実施形態において、本発明は方法を提供し、その方法は、処置中の画像から導出されたピクセルのグループ分けを生成するために、既知の相対的動作及び回転を伴う少なくとも二つの処置中の画像を用いるステップであって、ピクセルのグループ分けは、(a)それぞれのピクセルの動作変動及び(b)それぞれのピクセルの強度値を用いてそれぞれのピクセルの個々の演算によって決定される、少なくとも二つの処置中の画像を用いるステップと、関心領域内の構造を再構築するために少なくとも二つの連続する処置中の画像を用いて登録を実行するステップと、関心領域内の静的な構造から動作する構造を区別化するステップと、及び少なくとも一つの処置中の画像上の解剖構造をハイライトするステップと、を含む。いくつかの実施形態において、その方法はさらに、胸部X線蛍光透視画像を、第一の処置中の画像として用いるステップを含む。
いくつかの実施形態において、本発明は、拡張された蛍光透視画像を生成するように構成された拡張された蛍光透視装置を含むシステムを提供し、(a)ビデオ及び画像処理ユニット、(b)ビデオインプットカード又は蛍光透視装置からビデオ信号をインプットするように構成された外部に接続された装置、(c)内部の又はDICOMフォーマットの3Dプランニングインプット、(d)拡張されたビデオ信号アウトプット、又はそれらの任意の組み合わせを含む。いくつかの実施形態において、システムは、(すなわち、ビデオインプットカードの代わりに)RAWデータを信号として取得するように構成されたRAWデータインプットカードを含むモジュールである、少なくとも一つの蛍光透視装置と統合する。いくつかの実施形態において、システムはコーンビームCTシステムと統合する。
いくつかの実施形態において、本発明は、自然の体腔の内側のナビゲートのための機器を含むシステムを提供し、その機器は、(a)先端にアンカリングを伴うガイド付きシース、及び/又は(b)ガイド付きワイヤを含む。いくつかの実施形態において、その機器は、アンカリングメカニズムとして作動するように構成されたインフレータブルバルーンである。
いくつかの実施形態において、本発明は方法を提供し、その方法は、(i)第一の画像化モダリティからの第一の画像上の関心ボリュームを選択するステップと、(ii)第二の画像化モダリティから第二の画像を生成するステップと、(iii)第一の画像化モダリティ及び第二の画像化モダリティを用いて粗い登録をするステップと、(iv)第一の画像化モダリティから少なくとも一つのパターンを生成するステップと、(v)第一の画像化モダリティから生成された単独の又は多数のパターンを用いて第二の画像化モダリティの使用によりマッチングパターンを生成するステップと、(vi)第三の画像化モダリティを生成するための関心ボリューム内の生体構造をハイライトするために、第二の画像化モダリティからのマッチングパターンを強調するステップと、を含む。いくつかの実施形態において、関心領域の外側に位置づけられた解剖構造は、同じ方法を実質的に用いて、見出され及び抑制される。いくつかの実施形態において、そのパターンは、解剖学的な特徴を含むものであり、解剖学的な特徴は、それらに限定されないが、気道、肋骨及び血管を含む。いくつかの実施形態において、第二の画像化モダリティからのマッチングの特徴は、関心領域の内側の少なくとも一つの機器のポジションのセットから導出される。
いくつかの実施形態において、本発明は、方法を提供し、その方法は、患者の胸部の少なくとも一つの第一の画像を取得するために、第一の画像化モダリティを用いるステップと、3D空間内の気管支気道を含む自然の体腔を区分するステップと、第二の画像化モダリティから少なくとも一つの画像を生成するステップと、情報を組み合わせることによって、第二の画像化モダリティから生成される二次元の拡張された画像を生成するステップであって、その情報は、気管支気道ツリーを含む自然の体腔の全体のマップ又は一部のマップを描くものである二次元の拡張された画像を生成するステップと、第二の画像化モダリティから生じる気管支気道の一部と第一の画像化モダリティから生じる気管支気道の区分されたマップとの間の姿勢推定として、第一の画像化モダリティと第二の画像化モダリティの間の、登録を演算するステップと、対応する特徴をマッピングすることによる姿勢評価を介して、第一の画像化モダリティと第二の画像化モダリティとの間の登録を演算するステップと、を含む。いくつかの実施形態において、拡張された気管支造影像は、体腔をハイライトするために注入されるX線不透過性の物質を用いて生成される。いくつかの実施形態において、拡張された気管支造影像は、体腔内側に位置づけられたX線不透過性の機器の少なくとも三つの二つの異なるポジションからの画像化の重ね合わせを通して生成される。いくつかの実施形態において、拡張された気管支造影像は、体腔の内側に位置づけられたX線不透過性の機器の少なくとも一つの異なるポジション及び患者のベッドに対するC−Arm配向の角度測定からの画像化の重ね合わせを介して生成される。いくつかの実施形態において、X線不透過性の機器は、単独の投影からその三次元空間を再構築するように設計され構成される。いくつかの実施形態において、それらに限定されないが、ヒドロゲル、逆熱ゲル化ポリマーなどの高い粘性を有するX線不透過性の物質は、拡張された気管支造影像を生成するために用いられ得る。
いくつかの実施形態において、本発明は方法を提供し、その方法は、それに限定されないが、DDRなどの第一の画像化モダリティから蛍光透視法に生じる互換性のある仮想画像のパラメータを提供するステップと、それに限定されないが、特定の位置におけるDDR上の肋骨の幅などの仮想画像上の物体サイズを決定するステップと、それらに限定されないが、仮想蛍光透視カメラなどの仮想カメラの姿勢及び視界を提供し、較正プロセスから演算される蛍光透視カメラなどの第二の画像化モダリティに対して第一の画像化モダリティを投影するステップと、特定の位置におけるDDR上の肋骨の幅などの仮想画像上の物体サイズを決定するステップと、第二の画像(例えば、蛍光透視画像)上で測定される物体サイズと、第一の画像(例えば、CT画像)から生じる既知の物体サイズとの間の比較を介して、深さ(例えば、それらに限定されないが、蛍光透視X線のソースからの特定の物体又は物体領域の距離)を演算するステップと、を含む。いくつかの実施形態において、物体サイズは、ツールの剛体部分の長さ又は幅などの互換性のある仮想画像上での測定の代わりに、又は、測定に加えて、技術的な仕様から決定される。いくつかの実施形態において、カテーテルタイプのツールは、第二の画像化モダリティカメラセンターからの深さ距離の組み合わせとして、軌道の演算を可能にするように設計される。
本発明の多数の実施形態を説明してきたが、当然ながらこれらの実施形態は、単なる例示であり限定的なもので無く、多くの改良は当業者に対して明らかに成り得る。さらにまだ、様々なステップが、任意の所望の順序において実行され得る(及びいくつかの所望のステップは追加されてもよく、及び/又はいくつかの所望のステップは除外されてもよい。)。
本発明は、特定の実施形態及び実施例に関して説明されてきたが、当業者の一人が、本教示の知識の中で、発明の請求の範囲の精神から乖離する又は超過すること無しに、さらなる実施形態及び改良を生成し得る。その結果、図面及び本明細書の説明は、本発明の理解を促進するための例を経由して提案されるものであって、それらの範囲を限定するように解釈されるべきでないことが、理解されるべきである。

Claims (10)

  1. 第一の画像化モダリティから第一の画像を取得するステップと、
    少なくとも一つの要素を、第一の画像化モダリティからの第一の画像上に特定するステップであって、少なくとも一つの要素は、ランドマーク、関心領域、切開ポイント、分岐点、器官又はそれらの任意の組み合わせを含むものである、少なくとも一つの要素を特定するステップと、
    第二の画像化モダリティから第二の画像を取得するステップと、
    第一の画像化モダリティからの第一の画像から、互換性のある仮想画像を生成するステップと、
    互換性のある仮想画像上にプランニングデータをマッピングするステップであって、マップされるプランニングデータは、少なくとも一つの要素に対応するものである、プランニングデータをマッピングするステップと、
    第一の画像化モダリティからの第一の画像に、第二の画像化モダリティからの第二の画像を粗く登録するステップと、
    互換性のある仮想画像からのマップされるプランニングデータの少なくとも一つの要素を特定するステップと、
    第二の画像化モダリティ上に少なくとも一つの対応する要素を特定するステップと、
    第二の画像化モダリティ上に少なくとも一つの対応する要素をマッピングするステップと、
    第一の画像化モダリティからの第一の画像に対して、第二の画像化モダリティからの第二の画像を細かく登録するステップと、
    第三の画像を生成するステップと、を含み、
    第三の画像は、ハイライトされた関心領域を含む拡張された画像である、
    方法。
  2. さらに、少なくとも一つの画像、少なくとも一つの画像の一部、又は第一の画像化モダリティから第二の画像化モダリティ上に導出されるプランニング情報を重ね合わせるステップを含む、請求項1に記載の方法。
  3. さらに、少なくとも一つのインストラクションを用いるステップを含み、少なくとも一つのインストラクションは、ナビゲーション、ガイダンス又はそれらの組み合わせに関する情報を含み得る、請求項1に記載の方法。
  4. ガイダンスは、装置のポジショニングが示される第二の画像化モダリティに関する情報を含み、装置は、関心領域、切開ポイント、解剖構造又はツールアクセス方向のための視認性を達成する結果をもたらす蛍光透視C−Armを含む、請求項3に記載の方法。
  5. さらに、第二の画像化モダリティから導出される少なくとも一つの連続する画像を用いて、少なくとも一つの解剖構造をトラッキングするステップを含み、
    第二の画像化モダリティは、同じ取得パラメータを実質的に有するように構成された蛍光透視ビデオを含み、並びに
    取得パラメータは、モード、ポジション、視界又はそれらの任意の組み合わせを含み、静的な解剖構造を抑制すること及び/又は内在する軟組織のノイズに対して信号を改善することによって、拡張された蛍光透視画像を生成する、
    請求項1に記載の方法。
  6. さらに、マルチフェーズの登録を実行するステップを含み、
    少なくとも一つの実質的に静的な物体が第一に登録され、及び
    少なくとも一つの動的な物体が第二に登録され、
    その少なくとも一つの動的な物体は、隔膜、気管支、血管、又はそれらの任意の組み合わせ
    である、
    請求項1に記載の方法。
  7. さらに、少なくとも一つの干渉構造における強調の度合いを弱めるステップを含む、請求項1に記載の方法。
  8. 第一の画像化モダリティからのプランニングデータが画像登録を用いて第二の画像化モダリティに伝達される間には、互換性のある仮想画像は生成されない、請求項2に記載の方法。
  9. 処置中の画像から導出されたピクセルのグループ分けを生成するために、既知の相対的動作及び回転を伴う、少なくとも二つの処置中の画像を用いるステップであって、ピクセルのグループ分けは、(a)それぞれのピクセルの動作変動及び(b)それぞれのピクセルの強度値を用いるそれぞれのピクセルの個々の演算により決定される、少なくとも二つの処置中の画像を用いるステップと、
    関心領域内の構造を再構築するために、少なくとも二つの連続する処置中の画像を用いて登録を実行するステップと、
    関心領域内の静的な構造から動作する構造を区別化するステップと、及び
    少なくとも一つの処置中の画像上の解剖構造をハイライトするステップと、
    を含む、方法。
  10. さらに、胸部X線画像を第一の処置中の画像として用いるステップを含む、請求項9に記載の方法。
JP2016562077A 2014-01-06 2015-01-06 医療機器の作動方法 Active JP6509906B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201461923956P 2014-01-06 2014-01-06
US61/923,956 2014-01-06
US201462013726P 2014-06-18 2014-06-18
US62/013,726 2014-06-18
US201462052039P 2014-09-18 2014-09-18
US62/052,039 2014-09-18
PCT/IB2015/000438 WO2015101948A2 (en) 2014-01-06 2015-01-06 Surgical devices and methods of use thereof

Publications (2)

Publication Number Publication Date
JP2017502807A true JP2017502807A (ja) 2017-01-26
JP6509906B2 JP6509906B2 (ja) 2019-05-08

Family

ID=53494168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016562077A Active JP6509906B2 (ja) 2014-01-06 2015-01-06 医療機器の作動方法

Country Status (7)

Country Link
US (4) US9743896B2 (ja)
EP (2) EP3495805A3 (ja)
JP (1) JP6509906B2 (ja)
CN (2) CN111481292A (ja)
AU (1) AU2015204201B2 (ja)
CA (1) CA2935873C (ja)
WO (1) WO2015101948A2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019111207A (ja) * 2017-12-25 2019-07-11 キヤノンメディカルシステムズ株式会社 医用情報処理システム
US10929706B2 (en) 2018-03-19 2021-02-23 Ricoh Company, Ltd. Image processing device and projection system
JP2021122658A (ja) * 2020-02-07 2021-08-30 富士フイルム株式会社 放射線画像処理装置、方法およびプログラム
WO2021256168A1 (ja) * 2020-06-15 2021-12-23 ソニーグループ株式会社 医用画像処理システム、手術画像制御装置、及び、手術画像制御方法

Families Citing this family (84)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8218847B2 (en) 2008-06-06 2012-07-10 Superdimension, Ltd. Hybrid registration method
WO2015101948A2 (en) * 2014-01-06 2015-07-09 Body Vision Medical Ltd. Surgical devices and methods of use thereof
US11116383B2 (en) * 2014-04-02 2021-09-14 Asensus Surgical Europe S.à.R.L. Articulated structured light based-laparoscope
US9633431B2 (en) 2014-07-02 2017-04-25 Covidien Lp Fluoroscopic pose estimation
US9603668B2 (en) 2014-07-02 2017-03-28 Covidien Lp Dynamic 3D lung map view for tool navigation inside the lung
US9986983B2 (en) 2014-10-31 2018-06-05 Covidien Lp Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same
US10034610B2 (en) * 2014-12-24 2018-07-31 Infosys Limited System and method for registration of brain images
GB201502877D0 (en) * 2015-02-20 2015-04-08 Cydar Ltd Digital image remapping
US10716525B2 (en) 2015-08-06 2020-07-21 Covidien Lp System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction
US10674982B2 (en) * 2015-08-06 2020-06-09 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10702226B2 (en) 2015-08-06 2020-07-07 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10078889B2 (en) * 2015-08-25 2018-09-18 Shanghai United Imaging Healthcare Co., Ltd. System and method for image calibration
JP6392192B2 (ja) * 2015-09-29 2018-09-19 富士フイルム株式会社 画像位置合せ装置、画像位置合せ装置の作動方法およびプログラム
US9934570B2 (en) 2015-10-09 2018-04-03 Insightec, Ltd. Systems and methods for registering images obtained using various imaging modalities and verifying image registration
US10058393B2 (en) 2015-10-21 2018-08-28 P Tech, Llc Systems and methods for navigation and visualization
KR102202398B1 (ko) * 2015-12-11 2021-01-13 삼성전자주식회사 영상처리장치 및 그의 영상처리방법
US10052170B2 (en) * 2015-12-18 2018-08-21 MediLux Capitol Holdings, S.A.R.L. Mixed reality imaging system, apparatus and surgical suite
US10065049B2 (en) * 2016-01-25 2018-09-04 Accuray Incorporated Presenting a sequence of images associated with a motion model
WO2017139621A1 (en) * 2016-02-12 2017-08-17 Intuitive Surgical Operations, Inc. Systems and methods for using registered fluoroscopic images in image-guided surgery
JP6533991B2 (ja) * 2016-02-16 2019-06-26 東芝エネルギーシステムズ株式会社 医用画像処理装置、方法、プログラム及び放射線治療装置
AU2017231889A1 (en) 2016-03-10 2018-09-27 Body Vision Medical Ltd. Methods and systems for using multi view pose estimation
CN114376588A (zh) 2016-03-13 2022-04-22 乌泽医疗有限公司 用于与骨骼手术一起使用的设备及方法
JP6668902B2 (ja) * 2016-04-12 2020-03-18 株式会社島津製作所 位置決め装置および位置決め装置の作動方法
WO2018049196A1 (en) * 2016-09-09 2018-03-15 GYS Tech, LLC d/b/a Cardan Robotics Methods and systems for display of patient data in computer-assisted surgery
AU2017339213A1 (en) 2016-10-07 2019-05-02 Body Vision Medical Ltd Devices for use in interventional and surgical procedures and methods of use thereof
CN110381841B (zh) * 2016-10-31 2023-10-20 博迪维仁医疗有限公司 用于医疗成像的夹具及其使用方法
GB2559126A (en) * 2017-01-25 2018-08-01 Nwachukwu Dijemeni Esuabom An upper airway classification system
US11793579B2 (en) * 2017-02-22 2023-10-24 Covidien Lp Integration of multiple data sources for localization and navigation
US9892564B1 (en) 2017-03-30 2018-02-13 Novarad Corporation Augmenting real-time views of a patient with three-dimensional data
CN110892452A (zh) * 2017-05-04 2020-03-17 Mim软件有限公司 用于预测性融合的系统和方法
EP3629882A4 (en) * 2017-05-24 2021-05-19 Body Vision Medical Ltd. METHODS OF USING RADIAL ENDOBRONCHIC ULTRASONIC PROBES FOR THREE-DIMENSIONAL IMAGE RECONSTRUCTION AND IMPROVED TARGET LOCATION
CN110709943B (zh) * 2017-06-16 2023-11-28 珀金埃尔默细胞科技德国公司 使用沿骨骼的人造界标进行三维图像的自动失真校正和/或共同配准的系统和方法
US10699448B2 (en) 2017-06-29 2020-06-30 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
WO2019012520A1 (en) 2017-07-08 2019-01-17 Vuze Medical Ltd. APPARATUS AND METHODS FOR USE WITH IMAGE-GUIDED SKELETAL PROCEDURES
US11633235B2 (en) 2017-07-31 2023-04-25 Children's National Medical Center Hybrid hardware and computer vision-based tracking system and method
EP3332730B1 (de) * 2017-08-08 2021-11-03 Siemens Healthcare GmbH Verfahren und trackingsystem zum nachverfolgen eines medizinischen objekts
CN111163697B (zh) 2017-10-10 2023-10-03 柯惠有限合伙公司 用于在荧光三维重构中识别和标记目标的系统和方法
JP7178009B2 (ja) * 2017-12-20 2022-11-25 国立研究開発法人量子科学技術研究開発機構 医用装置、医用装置の制御方法、およびプログラム
US11151726B2 (en) * 2018-01-10 2021-10-19 Canon Medical Systems Corporation Medical image processing apparatus, X-ray diagnostic apparatus, and medical image processing method
US10930064B2 (en) 2018-02-08 2021-02-23 Covidien Lp Imaging reconstruction system and method
US10893842B2 (en) 2018-02-08 2021-01-19 Covidien Lp System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target
US10905498B2 (en) 2018-02-08 2021-02-02 Covidien Lp System and method for catheter detection in fluoroscopic images and updating displayed position of catheter
EP3527123B1 (en) * 2018-02-15 2022-08-31 Leica Instruments (Singapore) Pte. Ltd. Image processing method and apparatus using elastic mapping of vascular plexus structures
US20200405397A1 (en) * 2018-02-26 2020-12-31 Cornell University Augmented reality guidance system for cardiac interventional surgery
CN109065165B (zh) * 2018-07-25 2021-08-17 东北大学 一种基于重建气道树图像的慢性阻塞性肺病预测方法
US11071591B2 (en) 2018-07-26 2021-07-27 Covidien Lp Modeling a collapsed lung using CT data
US11705238B2 (en) 2018-07-26 2023-07-18 Covidien Lp Systems and methods for providing assistance during surgery
US10918885B2 (en) 2018-09-27 2021-02-16 Varian Medical Systems International Ag Systems, methods and devices for automated target volume generation
US11944388B2 (en) 2018-09-28 2024-04-02 Covidien Lp Systems and methods for magnetic interference correction
EP3883491A4 (en) * 2018-11-22 2022-08-24 Vuze Medical Ltd. DEVICE AND METHODS FOR USE WITH SKELETAL IMAGE-GUIDED PROCEDURES
JP6915605B2 (ja) * 2018-11-29 2021-08-04 オムロン株式会社 画像生成装置、ロボット訓練システム、画像生成方法、及び画像生成プログラム
US11877806B2 (en) 2018-12-06 2024-01-23 Covidien Lp Deformable registration of computer-generated airway models to airway trees
US11045075B2 (en) 2018-12-10 2021-06-29 Covidien Lp System and method for generating a three-dimensional model of a surgical site
US11801113B2 (en) 2018-12-13 2023-10-31 Covidien Lp Thoracic imaging, distance measuring, and notification system and method
US11617493B2 (en) 2018-12-13 2023-04-04 Covidien Lp Thoracic imaging, distance measuring, surgical awareness, and notification system and method
PL3669942T3 (pl) 2018-12-17 2022-05-16 Shanghai United Imaging Healthcare Co., Ltd. Systemy oraz sposoby określania obszaru będącego przedmiotem zainteresowania w badanym obiekcie
US11357593B2 (en) 2019-01-10 2022-06-14 Covidien Lp Endoscopic imaging with augmented parallax
US11625825B2 (en) 2019-01-30 2023-04-11 Covidien Lp Method for displaying tumor location within endoscopic images
WO2020159984A1 (en) * 2019-01-30 2020-08-06 Canon U.S.A., Inc. Apparatuses, systems, methods and storage mediums for performance of co-registration
US11925333B2 (en) 2019-02-01 2024-03-12 Covidien Lp System for fluoroscopic tracking of a catheter to update the relative position of a target and the catheter in a 3D model of a luminal network
US11564751B2 (en) 2019-02-01 2023-01-31 Covidien Lp Systems and methods for visualizing navigation of medical devices relative to targets
US11744643B2 (en) 2019-02-04 2023-09-05 Covidien Lp Systems and methods facilitating pre-operative prediction of post-operative tissue function
WO2020174284A1 (en) * 2019-02-27 2020-09-03 Body Vision Medical Ltd. Methods and systems for movement compensation during three-dimensional reconstruction of anatomical structures
WO2020180566A1 (en) * 2019-03-01 2020-09-10 The Johns Hopkins University Data analytics for predictive modeling of surgical outcomes
JP7239362B2 (ja) * 2019-03-20 2023-03-14 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置及び医療用観察システム
US11819285B2 (en) 2019-04-05 2023-11-21 Covidien Lp Magnetic interference detection systems and methods
US11269173B2 (en) 2019-08-19 2022-03-08 Covidien Lp Systems and methods for displaying medical video images and/or medical 3D models
US11931111B2 (en) * 2019-09-09 2024-03-19 Covidien Lp Systems and methods for providing surgical guidance
US11864935B2 (en) 2019-09-09 2024-01-09 Covidien Lp Systems and methods for pose estimation of a fluoroscopic imaging device and for three-dimensional imaging of body structures
US11627924B2 (en) 2019-09-24 2023-04-18 Covidien Lp Systems and methods for image-guided navigation of percutaneously-inserted devices
DE102019215001B4 (de) * 2019-09-30 2022-11-03 Siemens Healthcare Gmbh Verfahren zur Bildunterstützung bei der Navigation und System
CN110853082B (zh) * 2019-10-21 2023-12-01 科大讯飞股份有限公司 医学图像配准方法、装置、电子设备及计算机存储介质
DE102019218770A1 (de) * 2019-12-03 2021-06-10 Siemens Healthcare Gmbh Bereitstellen eines Gefäßbilddatensatzes
WO2021148881A2 (en) * 2020-01-24 2021-07-29 Body Vision Medical Ltd. Methods and systems for using multi view pose estimation
US11847730B2 (en) 2020-01-24 2023-12-19 Covidien Lp Orientation detection in fluoroscopic images
US11380060B2 (en) 2020-01-24 2022-07-05 Covidien Lp System and method for linking a segmentation graph to volumetric data
CN111513740B (zh) * 2020-04-13 2023-09-12 北京东软医疗设备有限公司 血管造影机的控制方法、装置、电子设备、存储介质
US11967036B2 (en) * 2020-05-15 2024-04-23 Mediview Xr, Inc. Dynamic registration of anatomy using augmented reality
US20210378759A1 (en) * 2020-06-03 2021-12-09 Covidien Lp Surgical tool navigation using sensor fusion
EP3936052A1 (en) * 2020-07-07 2022-01-12 Koninklijke Philips N.V. User interface for x-ray tube-detector alignment
WO2022013860A1 (en) * 2020-07-16 2022-01-20 Mazor Robotics Ltd. System and method for image generation based on calculated robotic arm positions
US11950950B2 (en) 2020-07-24 2024-04-09 Covidien Lp Zoom detection and fluoroscope movement detection for target overlay
US20230088132A1 (en) 2021-09-22 2023-03-23 NewWave Medical, Inc. Systems and methods for real-time image-based device localization
US11816768B1 (en) 2022-12-06 2023-11-14 Body Vision Medical Ltd. System and method for medical imaging

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006255217A (ja) * 2005-03-18 2006-09-28 Hitachi Medical Corp X線画像診断装置
US20070167721A1 (en) * 2005-12-14 2007-07-19 Siemens Aktiengesellschaft Method and device for correction motion in imaging during a medical intervention
US20080262342A1 (en) * 2007-03-26 2008-10-23 Superdimension, Ltd. CT-Enhanced Fluoroscopy
JP2011172710A (ja) * 2010-02-24 2011-09-08 Sendai City Medical Center 経皮穿刺支援システム
JP2012176140A (ja) * 2011-02-26 2012-09-13 Ge Medical Systems Global Technology Co Llc 画像処理装置およびプログラム並びに画像診断装置
US20130101196A1 (en) * 2010-01-12 2013-04-25 Koninklijke Philips Electronics N.V. Navigating an interventional device

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6167296A (en) * 1996-06-28 2000-12-26 The Board Of Trustees Of The Leland Stanford Junior University Method for volumetric image navigation
BR0014289A (pt) * 1999-09-24 2002-07-02 Ca Nat Research Council Método e aparelho para realizar angiografia intra-operativa
US8644907B2 (en) * 1999-10-28 2014-02-04 Medtronic Navigaton, Inc. Method and apparatus for surgical navigation
US8150495B2 (en) * 2003-08-11 2012-04-03 Veran Medical Technologies, Inc. Bodily sealants and methods and apparatus for image-guided delivery of same
US20050059887A1 (en) * 2003-09-16 2005-03-17 Hassan Mostafavi Localization of a target using in vivo markers
CN1933787A (zh) * 2004-01-23 2007-03-21 特拉克斯医疗有限公司 在体内目标位置上完成某些程序的方法和装置
US8073290B2 (en) * 2005-02-03 2011-12-06 Bracco Imaging S.P.A. Method and computer program product for registering biomedical images
US20090169080A1 (en) * 2005-08-09 2009-07-02 Koninklijke Philips Electronics, N.V. System and method for spatially enhancing structures in noisy images with blind de-convolution
GB0524974D0 (en) * 2005-12-07 2006-01-18 King S College London Interventional device location method and apparatus
CN100418478C (zh) * 2006-06-08 2008-09-17 上海交通大学 基于血流成像的虚拟内窥镜表面彩色映射方法
US8831706B2 (en) * 2006-11-03 2014-09-09 Accuray Incorporated Fiducial-less tracking of a volume of interest
US8333685B2 (en) * 2008-03-11 2012-12-18 Hologic, Inc. System and method for image-guided therapy planning and procedure
US20100061611A1 (en) * 2008-09-11 2010-03-11 Siemens Corporate Research, Inc. Co-registration of coronary artery computed tomography and fluoroscopic sequence
DE102009024652A1 (de) * 2009-06-12 2011-01-05 Siemens Aktiengesellschaft Hochauflösende, dreidimensionale medizinische Bildgebung mit dynamischen Echtzeitinformationen
WO2011134083A1 (en) * 2010-04-28 2011-11-03 Ryerson University System and methods for intraoperative guidance feedback
WO2012033530A2 (en) * 2010-09-08 2012-03-15 University Of Houston Devices, systems and methods for multimodal biosensing and imaging
EP2637555B1 (en) * 2010-11-08 2021-09-15 Conavi Medical Inc. Systems for improved visualization during minimally invasive procedures
WO2012065872A1 (en) * 2010-11-18 2012-05-24 Bae Systems Plc Change detection in video data
US9265468B2 (en) * 2011-05-11 2016-02-23 Broncus Medical, Inc. Fluoroscopy-based surgical device tracking method
EP2720636B8 (en) * 2011-06-17 2020-04-08 Koninklijke Philips N.V. System for guided injection during endoscopic surgery
DE102011079561B4 (de) * 2011-07-21 2018-10-18 Siemens Healthcare Gmbh Verfahren und Röntgengerät zum zeitlich aktuellen Darstellen eines bewegten Abschnitts eines Körpers, Computerprogramm und Datenträger
US9138165B2 (en) * 2012-02-22 2015-09-22 Veran Medical Technologies, Inc. Systems, methods and devices for forming respiratory-gated point cloud for four dimensional soft tissue navigation
KR20140136517A (ko) * 2012-05-02 2014-11-28 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 의학적 애플리케이션들에서 증강 현실을 위한 동적 모델을 이용한 4 차원 이미지 등록
CN108542499B (zh) * 2012-05-14 2020-12-04 直观外科手术操作公司 用于使用形状感测的变形补偿的系统和方法
CN104411248B (zh) 2012-06-28 2017-09-26 皇家飞利浦有限公司 在内窥镜外科手术中用于最佳图像采集的c型臂轨迹规划
WO2014139024A1 (en) * 2013-03-15 2014-09-18 Synaptive Medical (Barbados) Inc. Planning, navigation and simulation systems and methods for minimally invasive therapy
WO2015101948A2 (en) * 2014-01-06 2015-07-09 Body Vision Medical Ltd. Surgical devices and methods of use thereof
US10757394B1 (en) * 2015-11-09 2020-08-25 Cognex Corporation System and method for calibrating a plurality of 3D sensors with respect to a motion conveyance
US20200405397A1 (en) * 2018-02-26 2020-12-31 Cornell University Augmented reality guidance system for cardiac interventional surgery
US20200046436A1 (en) * 2018-08-13 2020-02-13 Body Vision Medical Ltd. Methods and systems for multi view pose estimation using digital computational tomography
PL3669942T3 (pl) * 2018-12-17 2022-05-16 Shanghai United Imaging Healthcare Co., Ltd. Systemy oraz sposoby określania obszaru będącego przedmiotem zainteresowania w badanym obiekcie

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006255217A (ja) * 2005-03-18 2006-09-28 Hitachi Medical Corp X線画像診断装置
US20070167721A1 (en) * 2005-12-14 2007-07-19 Siemens Aktiengesellschaft Method and device for correction motion in imaging during a medical intervention
US20080262342A1 (en) * 2007-03-26 2008-10-23 Superdimension, Ltd. CT-Enhanced Fluoroscopy
JP2010522597A (ja) * 2007-03-26 2010-07-08 スーパーディメンション, リミテッド Ct強化型x線透視
US20130101196A1 (en) * 2010-01-12 2013-04-25 Koninklijke Philips Electronics N.V. Navigating an interventional device
JP2013517012A (ja) * 2010-01-12 2013-05-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ インターベンション装置のナビゲーション
JP2011172710A (ja) * 2010-02-24 2011-09-08 Sendai City Medical Center 経皮穿刺支援システム
US20120327081A1 (en) * 2010-02-24 2012-12-27 Yuji Suda Percutaneous puncture support system
JP2012176140A (ja) * 2011-02-26 2012-09-13 Ge Medical Systems Global Technology Co Llc 画像処理装置およびプログラム並びに画像診断装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019111207A (ja) * 2017-12-25 2019-07-11 キヤノンメディカルシステムズ株式会社 医用情報処理システム
JP7039282B2 (ja) 2017-12-25 2022-03-22 キヤノンメディカルシステムズ株式会社 医用情報処理システム
US10929706B2 (en) 2018-03-19 2021-02-23 Ricoh Company, Ltd. Image processing device and projection system
JP2021122658A (ja) * 2020-02-07 2021-08-30 富士フイルム株式会社 放射線画像処理装置、方法およびプログラム
JP7266543B2 (ja) 2020-02-07 2023-04-28 富士フイルム株式会社 放射線画像処理装置、方法およびプログラム
WO2021256168A1 (ja) * 2020-06-15 2021-12-23 ソニーグループ株式会社 医用画像処理システム、手術画像制御装置、及び、手術画像制御方法

Also Published As

Publication number Publication date
US20160302747A1 (en) 2016-10-20
CA2935873A1 (en) 2015-07-09
US11071509B2 (en) 2021-07-27
AU2015204201B2 (en) 2019-11-28
EP3092479A2 (en) 2016-11-16
EP3495805A2 (en) 2019-06-12
US20170319165A1 (en) 2017-11-09
EP3092479A4 (en) 2017-11-22
WO2015101948A3 (en) 2016-01-14
US9743896B2 (en) 2017-08-29
CN111481292A (zh) 2020-08-04
WO2015101948A2 (en) 2015-07-09
CA2935873C (en) 2022-10-25
AU2015204201A1 (en) 2016-07-21
JP6509906B2 (ja) 2019-05-08
CN106068451B (zh) 2020-04-10
US20220015727A1 (en) 2022-01-20
EP3495805A3 (en) 2019-08-14
CN106068451A (zh) 2016-11-02
US20230355195A1 (en) 2023-11-09

Similar Documents

Publication Publication Date Title
US20220015727A1 (en) Surgical devices and methods of use thereof
CN107205691B (zh) 手术装置及其使用方法
US11883118B2 (en) Using augmented reality in surgical navigation
US20200170623A1 (en) Methods for using radial endobronchial ultrasound probes for three-dimensional reconstruction of images and improved target localization
JP7322039B2 (ja) 撮像デバイスのポーズ推定、およびターゲットに対する医療デバイスの位置を判定するためのシステムおよび方法
CN110123449B (zh) 使用标准荧光镜进行局部三维体积重建的系统和方法
CN111093505B (zh) 放射线拍摄装置以及图像处理方法
CN115668281A (zh) 使用多视图姿态估计的方法和系统
JP6703470B2 (ja) データ処理装置及びデータ処理方法
EP4346613A1 (en) Volumetric filter of fluoroscopic sweep video

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170829

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171129

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190403

R150 Certificate of patent or registration of utility model

Ref document number: 6509906

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250