JP6770655B2 - ライブ2次元x線画像において介入装置の空間情報を提供する装置及び対応する方法 - Google Patents

ライブ2次元x線画像において介入装置の空間情報を提供する装置及び対応する方法 Download PDF

Info

Publication number
JP6770655B2
JP6770655B2 JP2019564971A JP2019564971A JP6770655B2 JP 6770655 B2 JP6770655 B2 JP 6770655B2 JP 2019564971 A JP2019564971 A JP 2019564971A JP 2019564971 A JP2019564971 A JP 2019564971A JP 6770655 B2 JP6770655 B2 JP 6770655B2
Authority
JP
Japan
Prior art keywords
dimensional
ray image
real
target location
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019564971A
Other languages
English (en)
Other versions
JP2020520759A (ja
Inventor
オリヴィエ ピエール ネムポン
オリヴィエ ピエール ネムポン
パスカル イヴ フランソワ カシエール
パスカル イヴ フランソワ カシエール
ラウル フローラン
ラウル フローラン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2020520759A publication Critical patent/JP2020520759A/ja
Application granted granted Critical
Publication of JP6770655B2 publication Critical patent/JP6770655B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4417Constructional features of apparatus for radiation diagnosis related to combined acquisition of different diagnostic modalities
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/486Diagnostic techniques involving generating temporal series of image data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/503Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Clinical applications
    • A61B8/0833Clinical applications involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Clinical applications involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Clinical applications
    • A61B8/0883Clinical applications for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • A61B2090/3782Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30021Catheter; Guide wire
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Cardiology (AREA)
  • General Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • Dentistry (AREA)
  • Gynecology & Obstetrics (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本発明は、ライブ2次元X線画像において介入装置の空間情報を提供する装置、X線撮像システム、ライブ2次元X線画像において介入装置の空間情報を提供する方法、このような装置を制御するコンピュータプログラム要素及び前記プログラム要素を記憶したコンピュータ可読媒体に関する。
X線ガイド介入において、蛍光透視法が、介入中にツールを目標に向けてナビゲートするのに使用されうる。蛍光透視法は、対象のリアルタイムの動く画像を得ることができるようにX線を使用する撮像技術である。特に、人間の視覚により見えない挿入された介入装置は、対象に対して可視にされる。
深度情報を獲得するために、バイプレーン撮像のような、追加のX線画像が、要求される。しかしながら、これは、扱いにくいかもしれず、追加のX線照射を生じうる。
代わりに、3次元超音波撮像のような、第2の撮像モダリティが、使用されてもよい。WO2011/070477A1は、組み合わせられたX線及び超音波撮像システムを記載し、3次元超音波撮像データは、リアルタイムで、X線画像を補いうる。深度情報を提供するのに加えて、超音波データは、軟組織のような、低いX線可視性を持つ構造を可視にしうる。
したがって、対象の3次元情報を提供する容易化された視覚化技術を提供する必要性が、存在しうる。
本発明の目的は、独立請求項の対象物により解決され、更なる実施例は、従属請求項に組み込まれる。本発明の以下に記載される態様が、ライブ2次元X線画像において介入装置の空間情報を提供する装置、X線撮像システム、ライブ2次元X線画像において介入装置の空間情報を提供する方法、このような装置を制御するコンピュータプログラム要素及び前記プログラム要素を記憶したコンピュータ可読媒体にも適用されることに注意すべきである。
第1の態様によると、ライブ2次元X線画像において介入装置の空間情報を提供する装置が、提供される。前記装置は、入力ユニット及び処理ユニットを有する。前記入力ユニットは、患者の身体の一部に関連した関心領域のライブ2次元X線画像を提供するように構成される。目標場所は、前記関心領域内にある。前記入力ユニットは、前記関心領域の少なくとも一部及び介入装置の少なくとも一部のライブ3次元超音波データを提供するように更に構成される。前記処理ユニットは、前記ライブ2次元X線画像に対して前記ライブ3次元超音波データを位置合わせするように構成される。前記処理ユニットは、前記3次元超音波データにおいて前記目標場所を識別し、前記ライブ3次元超音波データに基づいて、前記介入装置の一部と前記目標場所との間の空間関係を決定するように構成される。前記処理ユニットは、前記空間関係を示すグラフィック表現を生成するように構成される。前記グラフィック表現は、前記ライブ2次元X線画像とともに表示されるように提供される。
この第1の態様の典型的な実施例として、ライブ2次元X線画像において介入装置の空間情報を提供する装置が、提供される。前記装置は、入力ユニット及び処理ユニットを有する。前記入力ユニットは、患者の身体の一部に関連した関心領域の現実の(又はライブ、又は現在の)2次元X線画像を提供するように構成される。目標場所は、前記関心領域内にある。介入装置の少なくとも一部は、前記関心領域内に配置される。前記入力ユニットは、前記関心領域の少なくとも前記一部及び前記介入装置の少なくとも一部の現実の(又はライブ、又は現在の)3次元超音波データを提供するように更に構成される。前記目標場所は、前記関心領域内にある。前記処理ユニットは、前記現実の2次元X線画像に対して前記現実の3次元超音波データを位置合わせするように構成される。前記処理ユニットは、前記3次元超音波データにおいて前記目標場所を識別し、前記現実の3次元超音波データに基づいて、前記介入装置の前記一部と前記目標場所との間の空間関係を決定するように構成される。前記処理ユニットは、前記空間関係から前記現実の2次元X線画像の投影方向における距離値を取り出すようにも構成される。前記処理ユニットは、前記距離値に基づいて、前記空間関係を示すグラフィック表現を生成するように構成される。前記グラフィック表現は、前記現実の2次元X線画像とともに表示されるように提供される。前記グラフィック表現は、したがって、前記現実の2次元X線画像とともに表示可能である。
用語「患者」は、例えば介入処置又は検査を受けている対象を指す。患者は、「対象」又は「個人」と称されることもできる。個人、すなわち対象は、したがって、前記処置に対する関心対象である。
一例において、前記入力ユニットは、前記現実の2次元X線画像及び前記現実の3次元超音波データを提供する。
用語「内に配置される」は、前記装置が少なくとも一部で前記関心対象内に存在することを指す。前記装置は、したがって、前記関心領域内に配置される又は備えられる。カテーテル、ガイドワイヤ又は針等である前記装置の一例において、前記装置は、例えば前記装置の先端又は他の所定の部分が前記関心領域内に、すなわち2次元及び3次元画像データ、すなわち前記2次元X線画像及び前記3次元超音波データによりカバーされる視野内にあるように挿入される。
一例において、前記2次元X線画像及び前記3次元超音波データは、同じ現実の時点若しくは瞬間、又は時間範囲若しくは時間期間を参照するので、それぞれの2次元及び3次元データは、異なる画像データ取得技術による異なるデータ情報を持つ、同じ関心領域を示す。したがって、例えば先端が前記関心領域内であるように配置された前記介入装置は、2次元及び3次元データの両方に存在する。
一例において、前記関心領域は、ユーザが前記介入装置を前記目標場所までナビゲートする患者の身体の一部である。前記介入装置の所定の点は、目標場所までナビゲートされるべきである。例えば、先端部分が、前記目標場所までナビゲートされるべきである。更なる例において、シャフト又は側部が、前記目標場所までナビゲートされるべきである。
一例において、(前記現実のX線画像により提供される)前記関心領域は、前記介入装置の前記所定の点を示し、すなわち、前記介入装置は、前記介入装置の前記所定の点が前記関心領域内に配置されるように移動される。
一例において、前記処理ユニットは、前記現実の2次元X線画像及び前記グラフィック表現を表示するための画像データを提供するように構成される。
一例において、前記介入装置の前記一部は、前記目標に向けてナビゲートされるべきである点又は部分を持つ前記介入装置の部分に関する。前記介入装置の前記一部は、したがって、前記介入装置の所定の点を有する。
一例において、前記3次元超音波データは、前記介入装置の前記所定の点の3次元超音波データを有し、すなわち、前記介入装置は、前記介入装置の前記所定の点が前記超音波データによりカバーされる部分内に配置されるように移動される。
前記目標場所は、目標又は目標位置として規定される所定の場所とも称される。一例において、前記ユーザは、前記介入装置の所定の点を前記所定の目標場所までナビゲートする。
用語「示す」は、前記ユーザが、好適に容易化された様式で現実の距離を近くすることを可能にする表現を指す。
一例において、前記グラフィック表現は、前記空間関係に基づく。
一例において、前記グラフィック表現は、前記現実の2次元X線画像とともに表示される。
一例において、用語「識別する」は、前記3次元超音波データにおいて前記目標場所を決定することに関する。これは、前記ユーザにより手動で提供されてもよい。他の例において、これは、により提供される。
用語「現実の」は、前記2次元X線画像及び前記3次元超音波データが取得される現在の状況を指す。
用語「ライブ」は、現実の(又は現在の)画像データを指す。ライブ、すなわち現実(現在)は、任意の変化、すなわち前記介入装置の移動が、前記2次元X線画像上で即座に示されることを意味する。
用語「ナビゲートする」は、前記目標場所に到達するような形でユーザにより前記介入装置を操作することに関する。
一例において、前記現在の2次元X線画像及び前記3次元超音波データの位置合わせは、それぞれの空間フレームを位置合わせすることにより提供される。一例において、それぞれの画像取得手段が、互いに位置合わせされる。他の例において、前記現在の2次元X線画像及び前記3次元超音波データの位置合わせは、両方の画像タイプにおいて可視であるランドマークにより提供される。他のオプションにおいて、前記位置合わせは、前記介入装置により提供される。
用語「目標場所」は、前記対象内の特定の関心点に関する。前記特定の関心点は、前記対象に関して静止していることができ、したがって前記対象に関して移動していない。他の例において、前記特定の関心点は、例えば患者運動により、前記対象とともに移動することができる。他の例において、前記特定の関心点は、前記対象に関して移動する、すなわち前記対象内で移動することができる。
前記グラフィック表現は、距離符号化と称されることもできる。これは、前記グラフィック表現が、前記目標場所に関して介入装置の一部の異なる深度レベルを示すように設計されることを意味する。例えば、異なる色が、符号パターンに対して規定されることができる。
前記2次元X線画像は、x−y平面内の前記患者の身体の投影画像と称されることもできる。
前記現実の3次元超音波データは、現実の3次元超音波画像データと称されることもできる。
前記3次元超音波データは、x−y平面内の空間情報に加えて、z方向における取得された画像の追加の空間情報を含む画像データに関することもできる。
前記介入装置の点及び前記目標場所の空間関係は、x、y及びz方向における距離値と称されることもできる。
前記現実の2次元X線画像の投影方向における距離値は、前記2次元X線画像のz方向における距離値又は深度又は深度値と称されることもできる。
一例において、前記処理ユニットは、前記現実の2次元X線画像の投影方向に対して前記現実の3次元超音波データを位置合わせするように構成される。
一例において、前記処理ユニットにより前記グラフィック表現を生成することは、前記距離値を前記グラフィック表現に変換することにより提供される。
他の例において、現実の2次元X線画像において介入装置の空間情報を提供する装置が、提供される。前記装置は、入力ユニット及び処理ユニットを有する。前記入力ユニットは、患者の身体の一部に関連した関心領域の現実の2次元X線画像を提供するように構成される。目標場所は、前記関心領域内にある。前記入力ユニットは、前記関心領域の少なくとも一部及び介入装置の少なくとも一部の現実の3次元超音波データを提供するように更に構成される。前記処理ユニットは、前記現実の2次元X線画像に対して前記現実の3次元超音波データを位置合わせするように構成される。前記処理ユニットは、前記3次元超音波データにおいて前記目標場所を識別し、前記介入装置の一部が前記関心領域内に配置されるように前記介入装置が移動される場合に、前記現実の3次元超音波データに基づいて、前記介入装置の一部と前記目標場所との間の空間関係を決定するようにも構成される。前記空間関係は、深度値又は前記2次元X線画像のz方向における距離値と称される。前記処理ユニットは、前記空間関係から前記現実の2次元X線画像の投影方向における距離値を取り出し、前記距離値に基づいてグラフィック表現を生成するように構成され、前記グラフィック表現は、前記現実の2次元X線画像とともに表示される。
一例において、前記処理ユニットは、前記介入装置の一部が前記関心領域内に配置されるように前記介入装置が移動される場合に、前記介入装置の一部と前記目標場所との間の前記空間関係を決定するように構成される。前記空間関係は、深度値又は前記2次元X線画像のz方向における距離値である。前記処理ユニットは、前記距離値に基づいてグラフィック表現を生成するように構成される。
一例によると、前記現実の2次元X線画像の前記投影方向における前記距離値は、前記2次元X線画像のz方向における距離値である。
z方向は、前記2次元X線画像に垂直である。
一例によると、前記処理ユニットは、前記現実の2次元X線画像及び前記現実の2次元X線画像内の前記グラフィック表現を有する画像データを生成するように構成される。
一例によると、前記グラフィック表現は、符号化されたグラフィック表現である。オプションにおいて、色符号又はパターン符号のような符号化された情報は、前記ユーザに近すぎる若しくは遠すぎる、又はX線投影の視線方向において、前記目標が配置される面の後ろ又は前のような、特定の相対距離を示す。他の例において、前記符号化された情報は、目標面の10mm後ろ又は7.5mm前のような、特定の絶対距離を示す。
一例において、前記符号化されたグラフィック表現は、色符号又はパターン符号の形の符号化された情報を有する。
一例によると、前記現実の2次元X線画像及び前記2次元X線画像内の前記グラフィック表現を有する前記画像データを表示するように構成された表示ユニットが、提供される。
一例によると、前記処理ユニットは、前記現実の2次元X線画像において前記目標場所を識別し、視覚的に示すように構成される。
一例によると、前記目標場所は、前記現実の3次元超音波データにおいて可視のマーカを備える。
したがって、前記装置は、現実の2次元X線画像において介入装置の空間情報を提供する装置と称されることもできる。
一例において、前記2次元X線画像は、表示ユニット上に示される。
一例において、前記表示ユニットは、スクリーンである。
一例において、前記グラフィック表現は、前記目標場所において表示される。
一例において、前記介入装置の所定の点は、前記介入装置の先端であることができる。
一例において、前記介入装置は、2次元X線及び3次元超音波の両方で取得される。
一例において、前記介入装置は、経カテーテル装置であることができる。
一例において、X線及び介入超音波座標系は、システムにより位置合わせされる。
例えば、このような位置合わせは、フィリップスによるエコーナビゲータ(登録商標)と称されるシステムにより提供される。
一例において、前記目標場所は、心臓の主要な血管であることができ、例えば、ステントが、前記介入装置のサポートでこの中に配置されるように入る。
結果として、X線画像を散らかすことなしに前記2次元X線画像に有用な3次元情報を持ち込む視覚化技術が、提供される。X線画像投影は、「深度」情報を示さないので、投影方向におけるこの次元は、ここで、X線2次元投影画像に戻され、すなわち、この2次元画像は、相対的な深度情報で強化又は拡張される。これは、前記ユーザ、例えばインターベンショニストが、前記介入装置を前記目標場所にナビゲートするのに前記2次元X線画像を信頼しうることを意味する。前記空間関係から、目標(すなわち目標場所、目標位置又は目標点)までの前記介入装置の投影方向における距離値、又はいわゆる相対深度をも取り出し、前記距離値をグラフィック表現に変換することにより、現実の2次元X線画像が生成され、前記2次元X線画像を散らかすことなしに前記相対深度情報に関する追加の視覚的情報とともに前記2次元X線画像上の前記介入装置の移動を示す。これにより、前記ユーザは、関連情報に集中することができ、気を散らされない。前記追加の情報が、超音波により提供されるので、更なるX線照射は、要求されない。
更に他の例において、現実の2次元X線画像において介入装置の空間情報を提供する装置が、提供される。前記装置は、入力ユニット及び処理ユニットを有する。前記入力ユニットは、異なるデータソースからの複数のデータを扱うように構成される。これは、異なるデータタイプを扱うようにも構成される。前記入力ユニットは、関心領域の現実の2次元X線画像を提供するように構成される。前記関心領域は、ユーザが介入装置をナビゲートする患者の身体の一部に関する。前記介入装置の所定の点は、前記関心領域内の所定の目標場所にナビゲートされるべきである。前記入力ユニットは、前記介入装置の前記所定の点を有する前記関心領域の少なくとも一部の現実の3次元超音波データを提供するように更に構成される。前記処理ユニットは、前記現実の2次元X線画像の投影方向に対して前記現実の3次元超音波データを位置合わせするように構成される。前記処理ユニットは、前記3次元超音波データ内の所定の目標場所を識別し、前記現実の3次元超音波データに基づいて、少なくとも前記現実の2次元X線画像の前記投影方向において前記介入装置の前記所定の点の現実の位置と前記所定の目標場所との間の空間関係を決定するように構成される。一例において、前記処理ユニットは、手術を開始する前に前記ユーザ、すなわち外科医からの幾何学的コマンドを処理することにより前記所定の目標場所を識別する。例えば、前記ユーザは、前記患者の身体の幾何学的情報を前記入力ユニットを介して前記装置の前記処理ユニットに送信する。一例において、前記処理ユニットは、一度前記介入装置の前記一部が、3次元超音波装置により取得されることができる領域内になると、前記目標場所と前記介入装置の前記一部との間の前記距離値を決定する。他の例において、前記処理ユニットは、一度両方が前記関心領域内になると、前記介入装置と前記目標場所との間の前記距離値を決定する。前記処理ユニットは、前記空間関係から前記現実の2次元X線画像の前記投影方向における距離値を取り出し、前記距離値を符号化されたグラフィック表現に変換するように構成される。前記処理ユニットは、前記現実の2次元X線画像内の前記目標場所を識別し、視覚的に示すように構成される。前記処理ユニットは、前記現実の2次元X線画像及び前記符号化されたグラフィック表現を表示するための画像データを提供するように構成される。
第2の態様によると、ライブ2次元X線画像において介入装置の空間情報を提供するX線撮像システムが、提供される。前記システムは、X線撮像装置と、超音波撮像装置と、上記の例の1つによるライブ2次元X線画像において介入装置の空間情報を提供する装置とを有する。前記X線撮像装置は、前記現実の2次元X線画像、すなわち患者の身体の一部に関する前記関心領域の前記現実の2次元X線画像を提供し、前記目標場所は、前記関心領域内にあり、前記介入装置の少なくとも前記一部が、関心領域内に配置される。前記超音波撮像装置は、現実の3次元超音波データ、すなわち前記介入装置の一部と前記関心領域の一部の前記現実の3次元超音波データを提供し、前記目標場所は、前記関心領域内にある。
一例において、前記関心領域は、ユーザが介入装置をナビゲートする前記患者の身体の一部に関する。前記介入装置の所定の点は、前記関心領域内の所定の目標場所にナビゲートされるべきである。
前記X線撮像システムは、ライブ2次元X線画像において介入装置の空間情報を表示するためのX線撮像システムと称されることもできる。
用語「提供する」は、X線画像を取得するとも称されることができる。
例において、前記X線撮像装置は、ユーザが介入装置をナビゲートする前記患者の身体の一部に関する関心領域の前記現実の2次元X線画像を提供する。前記介入装置の所定の点は、前記関心領域内の所定の目標場所にナビゲートされるべきである。
一例によると、前記超音波撮像装置は、患者の体内に挿入可能である。
更に他の例において、ライブ2次元X線画像において介入装置の空間情報を提供するシステムが、提供される。前記システムは、X線撮像装置と、超音波撮像装置と、上記の例によるライブ2次元X線画像において介入装置の空間情報を提供する装置とを有する。前記X線撮像装置は、関心領域の現実の2次元X線画像を提供する。前記関心領域は、ユーザが介入装置をナビゲートする前記患者の身体の一部に関する。前記介入装置の所定の点は、前記関心領域内の所定の目標場所にナビゲートされるべきである。前記超音波撮像装置は、前記介入装置の前記所定の点を有する前記関心領域の少なくとも一部の現実の3次元超音波データを提供する。
第3の態様によると、ライブ2次元X線画像において介入装置の空間情報を提供する方法が、提供される。前記方法は、以下のステップを有する。
a)第1のステップにおいて、前記患者の身体の一部に関する関心領域の現実の2次元X線画像が、提供され、目標場所は、前記関心領域内にある。介入装置の少なくとも一部は、前記関心領域内に配置される。
b)第2のステップにおいて、前記関心領域の少なくとも一部及び介入装置の少なくとも一部の現実の3次元超音波データが、提供される。
c1)第3のステップにおいて、前記現実の3次元超音波データが、前記現実の2次元X線画像に位置合わせされる。
c2)第4のステップにおいて、前記3次元超音波データ内の前記目標場所が、識別され、前記介入装置の前記一部と前記目標場所との間の前記空間関係が、前記現実の3次元超音波データに基づいて決定される。更に、前記現実の2次元X線画像の投影方向における距離値が、前記空間関係から取り出される。
c3)第5のステップにおいて、前記距離値に基づいて、前記現実の2次元X線画像とともに表示されるべきである前記空間関係を示すグラフィック表現が、生成される。
他の例において、前記現実の2次元X線画像内の前記目標場所が識別され、視覚的に示される、ステップd)とも称される更なる(第6の)ステップが、提供される。
ステップe)とも称される他の(第7の)ステップにおいて、前記現実の2次元X線画像及び前記グラフィック表現を表示するための画像データが、提供される。
一例において、前記関心領域は、ユーザが介入装置をナビゲートする患者の身体の一部に関する。例えば、前記介入装置の所定の点は、前記関心領域内の所定の目標場所にナビゲートされるべきである。
一例において、前記関心領域は、前記介入装置の前記所定の点を有する。
一例において、ステップc1)において、前記現実の2次元X線画像の投影方向に対して前記現実の3次元超音波データを位置合わせするステップが、提供される。
一例において、ステップc2)において、前記3次元超音波データ内の前記所定の目標場所を識別し、前記現実の3次元超音波データに基づいて、少なくとも前記現実の2次元X線画像の前記投影方向において前記介入装置の前記所定の点と前記所定の目標場所との間の空間関係を決定するステップが、提供される。
前記グラフィック表現は、符号化されたグラフィック表現であってもよい。
一例において、ステップe)において又はステップe)の後に続いて、前記現実の2次元X線画像及び前記グラフィック表現を有する前記画像データが、表示される。
一例において、ステップa)乃至e)は、前記ユーザが、前記患者の身体内の前記関心領域の即座の現実のデータを持つように、同時の連続的な形で提供される。
一例において、前記距離値、例えば、前記介入装置の前記点と前記目標場所との間の距離は、3次元超音波において決定される。例えば、前記投影方向における前記介入装置の前記点と前記目標場所との間の距離値は、前記投影方向における前記X線源までの前記目標場所の距離から前記投影方向における前記X線源までの前記介入装置の前記点の距離を、又はその逆を減算することにより計算される。
一例において、前記相対深度は、前記目標場所と、前記目標及び前記X線撮像装置の両方を通る線に対する前記介入装置の前記目標点の投影との間の距離として計算される。前記投影は、例えば、前記介入装置の前記点の標準的なユークリッド投影であってもよい。
他の例において、前記介入装置の向きの推定が前記介入装置の前記点の位置に加えて利用可能であると仮定して、前記介入装置の前記点を通る前記線に最も近い点が、提供され、前記介入装置とアラインされる。
したがって、前記方法は、現実の又はライブ2次元X線画像において介入装置の空間情報を表示する方法とも称されることができる。
一例によると、前記グラフィック表現は、前記目標場所に表示される。
一例において、第1の円は、前記2次元X線画像内の前記目標場所を示し、前記第1の円は、色符号化によって色を変える。
一例において、前記色符号化は、前記介入装置が前記目標場所に近すぎるか又は遠すぎるかを示す。
他の例によると、前記現実の2次元X線画像において前記介入装置の位置を識別し、視覚的に示すことを有するステップd)が、提供される。更に、前記グラフィック表現が前記介入装置の位置に表示されることを有するステップe)が、提供される。
オプションにおいて、前記グラフィック表現は、前記現実の2次元X線画像内の前記介入装置の位置の変化を追う。
更に他の例において、ライブ2次元X線画像において介入装置の空間情報を提供する方法が、提供される。前記方法は、以下のステップを有する。ステップa)とも称される第1のステップにおいて、関心領域の現実の2次元X線画像が、提供され、前記関心領域は、ユーザが介入装置をナビゲートする患者の身体の一部に関する。前記介入装置の所定の点は、前記関心領域内の所定の目標場所にナビゲートされるべきである。ステップb)とも称される第2のステップにおいて、前記介入装置の前記所定の点を有する前記関心領域の少なくとも一部の現実の3次元超音波データが、提供される。ステップc1)とも称される第3のステップにおいて、前記現実の3次元超音波データが、前記現実の2次元X線画像の投影方向に対して位置合わせされる。ステップc2)とも称される第4のステップにおいて、前記3次元超音波データ内の前記所定の目標場所は、識別され、少なくとも前記現実の2次元X線画像の投影方向における前記介入装置の前記所定の点の現実の位置と前記所定の目標場所との間の前記空間関係が、前記現実の3次元超音波データに基づいて決定される。ステップc3)とも称される第5のステップにおいて、前記空間関係から前記投影方向における距離が、取り出され、前記距離値は、符号化されたグラフィック表現に変換される。ステップd)とも称される第6のステップにおいて、前記現実の2次元X線画像内の前記目標場所が、識別され、視覚的に示される。ステップe)とも称される第7のステップにおいて、前記現実の2次元X線画像及び前記符号化されたグラフィック表現を表示するための画像データが、提供される。
一態様によると、グラフィック表現により前記現実の2次元X線画像に垂直な目標に対する介入装置の距離を視覚化することが、提供される。これにより、ユーザは、深度方向とも称されることができる前記2次元画像に垂直な方向における前記介入装置の位置に関する情報を提供される。例えば、前記現実の2次元X線画像上で、介入装置を目標点にナビゲートする場合、前記ユーザは、前記2次元面における前記目標に対する前記介入装置の位置を提供される。前記深度方向における前記介入装置の向きは、前記介入装置が前記目標点から遠いか又は近いかを示す色符号化を持つ円のような、グラフィック表現により視覚化される。前記X線画像に加えて、介入超音波は、したがって、3次元において生体構造及び介入ツールに関する有用な追加の情報を提供する。結果として、X線及び介入超音波からの情報の融合が、達成される。前者が投影的あり、後者が体積である、これらのモダリティの異なる幾何学的性質は、結合又は融合された情報を前記ユーザに提示するように結合される。超音波撮像からの3次元情報は、投影X線画像と融合され、(超音波からの)3次元情報をも有する2次元画像(X線投影画像)を提供する。
本発明のこれら及び他の態様は、以下に記載される実施例を参照して説明され、明らかになる。
本発明の典型的な実施例は、以下の図面を参照して以下に記載される。
ライブ2次元X線画像において介入装置の空間情報を提供する装置の一例を示す。 介入装置、超音波画像装置、目標場所及びグラフィック表現を持つ関心領域の2次元X線画像の一例を示す。 現実の2次元X線画像上のグラフィック表現の他の典型的な図を示す。 ライブ2次元X線画像において介入装置の空間情報を提供する方法の一例を示す。 図2の写真図を示す。 図3の写真図を示す。
図1は、2次元投影X線画像において介入装置の空間情報を表示する装置10を示す。装置10は、入力ユニット12及び処理ユニット16を有する。入力ユニット12は、(図2及び図3に示されるように)患者の身体の一部に関する関心領域の現実の2次元X線画像18を提供するように構成される。(図2及び図3に示される)目標場所22は、前記関心領域内にある。介入装置の少なくとも一部20は、前記関心領域内に配置される。入力ユニット12は、前記関心領域の少なくとも一部及び介入装置19の少なくとも一部20の現実の3次元超音波データを提供するように更に構成される。目標場所22は、前記関心領域内にある。処理ユニット16は、現実の2次元X線画像18に対して現実の3次元超音波データを位置合わせするように構成される。処理ユニット16は、前記3次元超音波データにおいて目標場所22を識別し、前記現実の3次元超音波データに基づいて、介入装置19の一部20と目標場所22との間の空間関係を決定するように構成される。処理ユニット16は、前記空間関係から前記現実の2次元X線画像の投影方向における距離値を取り出すように構成される。処理ユニット16は、前記距離値に基づいて、前記空間関係を示し、現実の2次元X線画像18とともに表示されるグラフィック表現32、例えば、符号化されたグラフィック表現を生成するように構成される。
図示されない例において、処理ユニット16は、現実の2次元X線画像18及びグラフィック表現32を表示するための画像データを提供するように構成される。一例において、介入装置19の一部20は、前記介入装置の所定の点を有する。
一例において、前記関心領域は、前記関心領域は、ユーザが介入装置19をナビゲートする前記患者の身体の一部に関する。
他の図示されない例において、前記処理ユニットは、前記空間関係から前記現実の2次元X線画像の投影方向26(図2に示される)における距離値を取り出し、前記距離値に基づいてグラフィック表現32を生成するように構成される。
他の図示されない例において、前記処理ユニットは、前記現実の2次元X線画像内の目標場所22を識別し、視覚的に示すように構成される。
他の図示されない例において、前記目標場所は、前記現実の3次元超音波データにおいて可視のマーカを備える。
オプションとして示される、一例において、現実の2次元X線画像18及び前記現実の2次元X線画像内のグラフィック表現32を有する前記画像データを表示するように構成された表示ユニット14が、提供される。
他の図示されない例において、ライブ2次元X線画像において介入装置の空間情報を提供するシステムが、提供される。前記システムは、図2又は図3に示されるように、X線撮像装置、超音波撮像装置36、及び現実の2次元X線画像18において介入装置19の空間情報を提供する装置10の一例を有する。前記X線撮像装置は、関心領域の前記現実の2次元X線画像を提供する。超音波撮像装置36は、介入装置19の少なくとも一部20を有する前記関心領域の少なくとも一部の現実の3次元超音波データを提供する。
一例において、超音波撮像装置36は、図2及び図3に示されるように患者の身体内に挿入可能である。
図2は、関心領域に対する現実の2次元X線画像18の一例を示す。介入装置19は、ユーザがナビゲートする患者の身体40の一部に関する関心領域において示される。一例において、超音波装置36は、前記患者の身体40内に挿入される。図2は、目標場所22及びグラフィック表現32を更に示す。一例において、グラフィック表現32は、前記2次元X線画像内の目標場所22に対する第1の円38を視覚化することを有する。これにより、前記ユーザは、2つのタイプの情報を提供される。第一に、前記ユーザは、前記現実の2次元X線画像内の目標場所22の情報を提供される。第二に、グラフィック表現32に基づいて、前記ユーザは、前記目標場所の深度情報を提供される。前記グラフィック表現は、例えば介入装置19の一部20と目標場所22との間の距離値に依存して色符号を変化させるように規定されることができる。
図3は、グラフィック表現32、すなわち距離符号化なしで、同様のグラフィック表現を持つ現実の2次元X線画像18内に視覚的に示される目標場所22を示す。
一例において、第1の円38は、中間色を持つ点及び/又は円又は他のグラフィックシンボルである。更に、第2の円42(又は他のグラフィックシンボル)も、前記2次元X線画像において視覚化される。ここで、第2の円42は、介入装置19の一部20と目標場所22との間の距離値に依存する色符号を持つグラフィック表現32を示す。
一例において、第2の円42は、現実の2次元X線画像18内の介入装置19の一部20の移動を追う。介入装置19の一部20の現実の位置の変化は、一部20の移動に関する。
前記グラフィック表現の選択は、例えば、ツールが近すぎる場合にはオレンジ、遠すぎる場合には青、及びツール及び目標が深度方向、すなわち前記X線画像の深度方向においてアラインされている場合には緑であることができる。
一例において、深度の感覚は、色より「柔軟な」遷移を持つ、サイズ変化、ぼけ及び透明度のような追加の視覚化技術により更に増大されることができる。他の視覚化技術も、提供される。
(図示されない)一例において、前記介入装置の前記一部と前記目標場所との間の距離値、例えば距離情報は、前記現実の2次元X線画像において数値形式で視覚化される。数値形式は、mm、cm等のような測定単位を参照することもできる。一例において、数値形式の前記距離値の視覚化は、前記現実の2次元X線画像において前記目標場所の近くに、例えば第1の円38又は第2の円42の隣に配置されることができる。
一例において、前記距離値は、前記介入装置の前記一部と前記目標場所との間の距離、すなわち相対距離又は距離(ベクトル)成分に関する。
他の例において、前記距離値は、前記介入装置の前記一部と前記目標場所との間の空間距離、すなわち現実の又は絶対距離に関する。
図4は、ライブ2次元X線画像において介入装置の空間情報を表示する対応する方法400を示す。前記方法は、以下のステップを有する。ステップa)とも称される第1のステップ402において、関心領域の現実の2次元X線画像が、提供され、前記関心領域は、患者の身体の一部に関し、目標場所は、前記関心領域内にある。介入装置の少なくとも一部は、前記関心領域内に配置される。ステップb)とも称される第2のステップ404において、前記関心領域の少なくとも一部及び前記介入装置の少なくとも一部の現実の3次元超音波データが、提供される。ステップc1とも称される第3のステップ406において、前記現実の3次元超音波データが、前記現実の2次元X線画像に対して位置合わせされる。ステップc2)とも称される第4のステップ408において、前記3次元超音波データ内の前記目標場所が、識別され、前記介入装置の前記一部と前記目標場所との間の空間関係が、前記現実の3次元超音波データに基づいて決定される。更に、前記現実の2次元X線画像の投影方向における距離値が、前記空間関係から取り出される。ステップc3)とも称される他のステップ410において、前記距離値に基づいて、前記現実の2次元X線画像とともに表示される前記空間関係を示すグラフィック表現が、生成される。
オプションとしてのみ提供され、示される、ステップd)とも称される他のステップ412において、前記現実の2次元X線画像内の前記目標場所が、識別され、視覚的に示される。オプションとして提供され、ステップe)とも称される他のステップ414において、前記現実の2次元X線画像及び前記グラフィック表現を表示するための画像データが、提供される。
他の図示されない例において、前記目標場所において前記グラフィック表現を表示することを有する更なるステップが、提供される。
一例において、前記現実の2次元X線画像及び前記グラフィック表現を有する前記画像データが、表示される。
一例において、前記グラフィック表現は、図2に示されるように前記目標場所において表示される。
一例において、前記現実の2次元X線画像において前記介入装置の位置を識別し、視覚的に示すことを有するステップ412が、提供され、介入装置19の位置、例えば介入装置19の所定の部分又は点において前記グラフィック表現を表示することを有するステップ414が、提供される。
(詳細には図示されない)一例において、好ましくは、前記グラフィック表現は、前記現実の2次元X線画像内の前記介入装置の位置の変化を追う。
一例において、ステップ414は、前記2次元X線画像において数値形式で介入装置19と前記目標との間の距離値を視覚化することを更に有する。
図5は、図2の写真図(photographic illustration)を示し、図6は、図3の写真図を示す。前記写真図は、前記X線撮像装置による前記取得された画像のグレイの影を示す。
上記のように、円38及び42は、それぞれ、前記色符号化を色符号に変化させる。結果として、介入装置19の点20及び目標場所22の相対深度は、前記取得された画像上で良好に強調されて示される。
本発明の他の典型的な実施例において、適切なシステム上で、先行する実施例の1つによる方法の方法ステップを実行するように構成されることを特徴とするコンピュータプログラム又はコンピュータプログラム要素が、提供される。
前記コンピュータプログラム要素は、したがって、本発明の一実施例の一部であってもよいコンピュータユニットに記憶されてもよい。このコンピューティングユニットは、上記の方法のステップを実行する又は実行するように誘導するように構成されうる。更に、上記の装置のコンポーネントを動作するように構成されてもよい。前記コンピューティングユニットは、自動的に動作するように及び/又はユーザのオーダを実行するように構成されることができる。コンピュータプログラムは、データプロセッサのワーキングメモリ内にロードされてもよい。前記データプロセッサは、したがって、本発明の方法を実行するように構成されうる。
本発明のこの典型的な実施例は、最初から本発明を使用するコンピュータプログラム及びアップデートを用いて既存のプログラムを、本発明を使用するプログラムにするコンピュータプログラムの両方をカバーする。
更に、前記コンピュータプログラム要素は、上記の方法の典型的な実施例の処置を満たすのに必要な全てのステップを提供することができる。
本発明の他の典型的な実施例によると、CD−ROMのようなコンピュータ可読媒体が、提示され、前記コンピュータ可読媒体は、記憶されたコンピュータプログラム要素を持ち、前記コンピュータプログラム要素は、先行するセクションにより記載されている。コンピュータプログラムは、他のハードウェアと一緒に又は一部として提供される光記憶媒体又は半導体媒体のような適切な媒体に記憶及び/又は分配されてもよいが、インターネット又は他の有線若しくは無線電気通信システムを介するような他の形で分配されてもよい。
しかしながら、前記コンピュータプログラムは、ワールドワイドウェブのようなネットワークを介して提示されてもよく、そのようなネットワークからデータプロセッサのワーキングメモリにダウンロードされてもよい。本発明の更なる例示的な実施例によれば、コンピュータプログラム要素をダウンロード可能にする媒体が提供され、そのコンピュータプログラム要素は、本発明の前述の実施例の1つによる方法を実行するように構成される。
本発明の実施例は、異なる対象物を参照して説明されることに留意されたい。特に、いくつかの実施例は、方法型請求項を参照して説明され、他の実施例は、装置型請求項を参照して説明される。しかしながら、当業者は、上記及び以下の説明から、特に断りのない限り、1つのタイプの対象物に属する特徴の組み合わせに加えて、異なる対象物に関連するフィーチャ間のいかなる組み合わせも、本出願で開示されていると見なされることを推測するであろう。しかしながら、全てのフィーチャは、組み合わされて、フィーチャの単純な合計以上の相乗効果を提供できる。
本発明は、図面及び前述の説明で詳細に図示及び説明されたが、そのような図示及び説明は、限定的ではなく、例示的又は典型的であると見なされるべきである。本発明は、開示された実施例に限定されない。開示された実施例に対する他の変形は、図面、開示、及び従属請求項の研究から、請求された発明を実施する際に当業者によって理解及び達成されることができる。
請求項において、単語「有する」は、他の要素又はステップを除外せず、不定冠詞「a」又は「an」は、複数を除外しない。単一のプロセッサ又は他のユニットが、請求項に記載されているいくつかのアイテムの機能を満たしてもよい。特定の手段が相互に異なる従属請求項に記載されているという単なる事実は、これらの手段の組み合わせが有利に使用されることができないことを示すものではない。請求項中の参照符号は、範囲を限定するものとして解釈されるべきではない。

Claims (15)

  1. ライブ2次元X線画像において介入装置の空間情報を提供する装置において、
    入力ユニットと、
    処理ユニットと、
    を有し、
    前記入力ユニットが、患者の身体の一部に関する関心領域の現実の2次元X線画像を提供し、目標場所が、前記関心領域内にあり、介入装置の少なくとも一部が、前記関心領域内に配置され、
    前記入力ユニットが、前記関心領域の一部及び前記介入装置の少なくとも前記一部の現実の3次元超音波データを提供し、前記目標場所が、前記関心領域内にあり、
    前記処理ユニットが、前記現実の2次元X線画像に対して前記現実の3次元超音波データを位置合わせし、前記3次元超音波データ内の前記目標場所を識別し、前記現実の3次元超音波データに基づいて、前記介入装置の前記一部と前記目標場所との間の空間関係を決定し、前記空間関係から前記現実の2次元X線画像の投影方向における距離値又は相対深度を取り出し、前記距離値又は相対深度に基づいて、前記空間関係を示し、前記現実の2次元X線画像とともに表示されるグラフィック表現を生成する、
    装置。
  2. 前記現実の2次元X線画像の前記投影方向における前記距離値が、前記2次元X線画像の深度方向における距離値である、請求項1に記載の装置。
  3. 前記処理ユニットが、前記現実の2次元X線画像及び前記現実の2次元X線画像内の前記グラフィック表現を有する画像データを生成する、請求項1又は2に記載の装置。
  4. 前記グラフィック表現が、色又はパターン符号化されたグラフィック表現であり、
    記符号化されたグラフィック表現が、
    i)i1)前記目標場所に近すぎるか若しくは遠すぎるか、又はi2)X線投影の視線方向において、目標が配置される面のどちら側であるかのグループの1つを有する特定の相対距離、又は
    ii)目標面の後ろ又は前の特定の絶対距離、
    を示す、
    請求項1、2又は3に記載の装置。
  5. 前記現実の2次元X線画像及び前記現実の2次元X線画像内の前記グラフィック表現を有する前記画像データを表示する表示ユニットが、提供される、請求項1乃至4のいずれか一項に記載の装置。
  6. 前記処理ユニットが、前記現実の2次元X線画像内の前記目標場所を識別し、前記現実の2次元X線画像内の前記目標場所を視覚的に示す、請求項1乃至5のいずれか一項に記載の装置。
  7. 前記目標場所が、現実の3次元超音波画像内で可視のマーカを備える、請求項1乃至6のいずれか一項に記載の装置。
  8. X線撮像装置と、
    超音波撮像装置と、
    請求項1乃至7のいずれか一項に記載の装置と、
    を有するX線撮像システムにおいて、
    前記X線撮像装置が、前記現実の2次元X線画像を提供し、
    前記超音波撮像装置が、前記現実の3次元超音波データを提供する、
    システム。
  9. 前記超音波撮像装置が、患者の身体内に挿入可能である、請求項7に記載のシステム。
  10. ライブ2次元X線画像において介入装置の空間情報を提供する装置の作動方法において、前記装置が、入力ユニット及び処理ユニットを有し、前記方法は、
    a)前記入力ユニットが、患者の身体の一部に関する関心領域の現実の2次元X線画像を提供するステップであって、目標場所が、前記関心領域内にあり、介入装置の少なくとも一部が、前記関心領域内に配置される、ステップと、
    b)前記入力ユニットが、前記関心領域の少なくとも一部及び前記介入装置の少なくとも前記一部の現実の3次元超音波データを提供するステップであって、前記目標場所が、前記関心領域内である、ステップと、
    c1)前記処理ユニットが、前記現実の2次元X線画像に対して前記現実の3次元超音波データを位置合わせするステップと、
    c2)前記処理ユニットが、前記現実の3次元超音波データ内の前記目標場所を識別し、前記現実の3次元超音波データに基づいて、前記介入装置の前記一部と前記目標場所との間の空間関係を決定し、前記空間関係から前記現実の2次元X線画像の投影方向における距離値又は相対深度を取り出すステップと、
    c3)前記処理ユニットが、前記距離値又は相対深度に基づいて、前記現実の2次元X線画像とともに表示されるように前記空間関係を示すグラフィック表現を生成するステップと、
    を有する、方法。
  11. 前記処理ユニットが、前記目標場所において前記グラフィック表現を表示するステップを有する、請求項10に記載の方法。
  12. 前記方法が、d)前記処理ユニットが、前記現実の2次元X線画像において前記介入装置の位置を識別し、視覚的に示すステップと、e)前記処理ユニットが、前記介入装置の位置において前記グラフィック表現を表示するステップとを有し、
    記グラフィック表現が、前記現実の2次元X線画像内の前記介入装置の位置の変化を追う、
    請求項10又は11に記載の方法。
  13. ステップe)が、前記2次元X線画像上に数値形式で前記介入装置と前記目標との間の前記距離値を視覚化することを更に有する、請求項10乃至12のいずれか一項に記載の方法。
  14. 処理ユニットにより実行される場合に、請求項10乃至13のいずれか一項に記載の方法を実行するように構成される、請求項1乃至9のいずれか一項に記載の装置を制御するコンピュータプログラム。
  15. 請求項14に記載のコンピュータプログラムを記憶したコンピュータ可読媒体。
JP2019564971A 2017-05-24 2018-05-23 ライブ2次元x線画像において介入装置の空間情報を提供する装置及び対応する方法 Active JP6770655B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP17305614.4 2017-05-24
EP17305614.4A EP3406195A1 (en) 2017-05-24 2017-05-24 Device and a corresponding method for providing spatial information of an interventional device in a live 2d x-ray image
PCT/EP2018/063431 WO2018215499A1 (en) 2017-05-24 2018-05-23 Device and a corresponding method for providing spatial information of an interventional device in a live 2d x-ray image

Publications (2)

Publication Number Publication Date
JP2020520759A JP2020520759A (ja) 2020-07-16
JP6770655B2 true JP6770655B2 (ja) 2020-10-14

Family

ID=59034673

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019564971A Active JP6770655B2 (ja) 2017-05-24 2018-05-23 ライブ2次元x線画像において介入装置の空間情報を提供する装置及び対応する方法

Country Status (5)

Country Link
US (1) US11291424B2 (ja)
EP (2) EP3406195A1 (ja)
JP (1) JP6770655B2 (ja)
CN (1) CN110650686B (ja)
WO (1) WO2018215499A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113538572A (zh) * 2020-04-17 2021-10-22 杭州三坛医疗科技有限公司 一种目标对象的坐标确定方法、装置和设备
JP2023176250A (ja) * 2022-05-31 2023-12-13 朝日インテック株式会社 手術支援装置、手術支援方法、及びコンピュータプログラム

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3857710B2 (ja) * 1993-11-26 2006-12-13 東芝医用システムエンジニアリング株式会社 手術支援システム
DE10033723C1 (de) * 2000-07-12 2002-02-21 Siemens Ag Visualisierung von Positionen und Orientierung von intrakorporal geführten Instrumenten während eines chirurgischen Eingriffs
JP2002119502A (ja) * 2000-10-17 2002-04-23 Toshiba Corp 医用装置
DE10240727A1 (de) * 2002-09-04 2004-03-18 Philips Intellectual Property & Standards Gmbh Bildgebendes System und Verfahren zur Optimierung einer Röntgenabbildung
US20080234570A1 (en) * 2004-03-05 2008-09-25 Koninklijke Philips Electronics, N.V. System For Guiding a Medical Instrument in a Patient Body
DE102005032523B4 (de) * 2005-07-12 2009-11-05 Siemens Ag Verfahren zur prä-interventionellen Planung einer 2D-Durchleuchtungsprojektion
WO2007113815A2 (en) * 2006-03-30 2007-10-11 Activiews Ltd System and method for optical position measurement and guidance of a rigid or semi flexible tool to a target
US8060186B2 (en) 2007-02-15 2011-11-15 Siemens Aktiengesellschaft System and method for intraoperative guidance of stent placement during endovascular interventions
US8364242B2 (en) * 2007-05-17 2013-01-29 General Electric Company System and method of combining ultrasound image acquisition with fluoroscopic image acquisition
JP5405045B2 (ja) * 2008-05-07 2014-02-05 株式会社東芝 X線撮影装置および画像処理装置
US20100111389A1 (en) * 2007-12-06 2010-05-06 Siemens Medical Solutions Usa, Inc. System and method for planning and guiding percutaneous procedures
JP5269500B2 (ja) * 2008-07-04 2013-08-21 株式会社東芝 画像処理装置
EP2391292B1 (en) * 2009-01-30 2017-01-04 Koninklijke Philips N.V. Examination apparatus
DE102009016482B4 (de) * 2009-04-06 2011-09-01 Siemens Aktiengesellschaft Vorrichtungen zur Unterstützung der Platzierung eines Implantats
US8731642B2 (en) * 2009-11-08 2014-05-20 Paieon Inc. Apparatus and method for locating a device tip within a volume
EP2509507B1 (en) 2009-12-09 2018-04-04 Koninklijke Philips N.V. Combination of ultrasound and x-ray systems
JP5685605B2 (ja) * 2010-01-12 2015-03-18 コーニンクレッカ フィリップス エヌ ヴェ インターベンション装置をナビゲートするシステム及びその作動方法、コンピュータプログラムエレメント並びにコンピュータ可読媒体
WO2012031275A2 (en) * 2010-09-03 2012-03-08 University Of Washington Neurosurgical devices and associated systems and methods
US9999399B2 (en) 2010-11-16 2018-06-19 Siemens Healthcare Gmbh Method and system for pigtail catheter motion prediction
WO2012117366A1 (en) * 2011-03-02 2012-09-07 Koninklijke Philips Electronics N.V. Visualization for navigation guidance
DE102011079561B4 (de) * 2011-07-21 2018-10-18 Siemens Healthcare Gmbh Verfahren und Röntgengerät zum zeitlich aktuellen Darstellen eines bewegten Abschnitts eines Körpers, Computerprogramm und Datenträger
JP6297289B2 (ja) * 2012-09-20 2018-03-20 キヤノンメディカルシステムズ株式会社 画像処理システム、x線診断装置及び画像処理装置の作動方法
EP2916740B1 (en) * 2012-11-06 2019-09-04 Koninklijke Philips N.V. Enhancing ultrasound images
US10157491B2 (en) * 2012-12-28 2018-12-18 Koninklijke Philips N.V. Real-time scene-modeling combining 3D ultrasound and 2D X-ray imagery
US9629595B2 (en) * 2013-03-15 2017-04-25 Hansen Medical, Inc. Systems and methods for localizing, tracking and/or controlling medical instruments
JP2015083082A (ja) * 2013-10-25 2015-04-30 株式会社東芝 X線診断装置
JP6420367B2 (ja) 2014-05-23 2018-11-07 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 第二オブジェクト内で第一オブジェクトをイメージングするためのイメージング装置
JP6331922B2 (ja) * 2014-09-22 2018-05-30 コニカミノルタ株式会社 医用画像システム及びプログラム
US10515449B2 (en) * 2016-11-04 2019-12-24 Siemens Medical Solutions Usa, Inc. Detection of 3D pose of a TEE probe in x-ray medical imaging

Also Published As

Publication number Publication date
WO2018215499A1 (en) 2018-11-29
US20200085398A1 (en) 2020-03-19
CN110650686B (zh) 2023-10-13
EP3406195A1 (en) 2018-11-28
JP2020520759A (ja) 2020-07-16
US11291424B2 (en) 2022-04-05
EP3629932A1 (en) 2020-04-08
EP3629932B1 (en) 2020-12-02
CN110650686A (zh) 2020-01-03

Similar Documents

Publication Publication Date Title
US11754971B2 (en) Method and system for displaying holographic images within a real object
JP7579403B2 (ja) 空間トラッキングシステムと拡張現実ディスプレイとのレジストレーション
US11547499B2 (en) Dynamic and interactive navigation in a surgical environment
CN107016717B (zh) 用于患者的透视视图的系统和方法
JP5844801B2 (ja) 物体の特定配向の決定
JP5694323B2 (ja) オブジェクトデータの生成
CN1672179B (zh) 最佳视图v.o.01
JP6972163B2 (ja) 奥行き知覚を高める仮想陰影
JP6166663B2 (ja) ナビゲーションガイダンスのための視覚化
US7860282B2 (en) Method for supporting an interventional medical operation
JP2016533832A (ja) 手術ナビゲーションシステム運用方法及び手術ナビゲーションシステム
JP2010532035A (ja) 拡張現実感の非写実的レンダリング
US10806520B2 (en) Imaging apparatus for imaging a first object within a second object
US20230113035A1 (en) 3d pathfinder visualization
US20230039532A1 (en) 2d pathfinder visualization
US20200036910A1 (en) Generating a stereoscopic representation
JP6770655B2 (ja) ライブ2次元x線画像において介入装置の空間情報を提供する装置及び対応する方法
JP2017205343A (ja) 内視鏡装置、内視鏡装置の作動方法
FI3911238T3 (en) PROCEDURAL RADIOLOGY MEDICAL DEVICE FOR GUIDED MEDICAL PROCEDURE NEEDLE INTO THE VOLUME
JP2006239253A (ja) 画像処理装置及び画像処理方法
Habert et al. Multi-layer visualization for medical mixed reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191122

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191122

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200915

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200925

R150 Certificate of patent or registration of utility model

Ref document number: 6770655

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250