CN110650686B - 用于提供实况2d x射线图像中介入设备的空间信息的设备和对应方法 - Google Patents

用于提供实况2d x射线图像中介入设备的空间信息的设备和对应方法 Download PDF

Info

Publication number
CN110650686B
CN110650686B CN201880033890.2A CN201880033890A CN110650686B CN 110650686 B CN110650686 B CN 110650686B CN 201880033890 A CN201880033890 A CN 201880033890A CN 110650686 B CN110650686 B CN 110650686B
Authority
CN
China
Prior art keywords
actual
radiographic image
interventional device
interest
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201880033890.2A
Other languages
English (en)
Other versions
CN110650686A (zh
Inventor
O·P·内姆蓬
P·Y·F·卡捷
R·弗洛朗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of CN110650686A publication Critical patent/CN110650686A/zh
Application granted granted Critical
Publication of CN110650686B publication Critical patent/CN110650686B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4417Constructional features of apparatus for radiation diagnosis related to combined acquisition of different diagnostic modalities
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/486Diagnostic techniques involving generating temporal series of image data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/503Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0883Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • A61B2090/3782Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30021Catheter; Guide wire
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Cardiology (AREA)
  • General Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • Dentistry (AREA)
  • Gynecology & Obstetrics (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本发明涉及在实况2D X射线图像中显示介入设备的空间信息。为了提供便利的可视化技术以提供对象的3D信息,提供了一种用于提供实况2D X射线图像中介入设备的空间信息的设备(10)。所述设备包括输入单元(12)和处理单元(16)。输入单元被配置为提供与患者身体的部分有关的感兴趣区域的实际2D X射线图像(18)。目标位置(22)位于感兴趣区域内。介入设备的至少部分(20)布置在感兴趣区域中。输入单元被配置为提供感兴趣区域的至少部分和介入设备(19)的至少部分的实际3D超声数据。目标位置(22)位于感兴趣区域内。处理单元被配置为将实际3D超声数据配准到实际2D X射线图像。处理单元还被配置为识别3D超声数据中的目标位置,并基于实际3D超声数据确定介入设备的部分与目标位置之间的空间关系,根据空间关系检索实际2D X射线图像的投影方向上的距离值,并基于距离值生成指示空间关系的图形表示(32),所述图形表示要与实际2D X射线图像一起显示。

Description

用于提供实况2D X射线图像中介入设备的空间信息的设备和 对应方法
技术领域
本发明涉及一种用于提供实况2D X射线图像中介入设备的空间信息的设备、X射线成像系统、用于提供实况2D X射线图像中介入设备的空间信息的方法、用于控制这种设备的计算机程序单元、以及存储有该程序单元的计算机可读介质。
背景技术
在X射线引导的介入中,荧光透视可以用于在介入期间将工具朝向其目标导航。荧光透视是一种成像技术,其使用X射线以能够获得物体的实时移动图像。具体地,使人眼不可见的插入的介入设备相对于物体是可见的。
为了获得深度信息,需要额外X射线图像,例如双平面成像。然而,这可能很麻烦并且可能导致额外X射线辐射。
备选地,可以使用第二成像模态,例如3D超声成像。WO 2011/070477A1描述了一种组合的X射线和超声成像系统,其中,3D超声成像数据可以实时地补充X射线图像。除了提供深度信息之外,超声数据还可以绘制具有低X射线可见性的可见结构,例如软组织。
发明内容
因此,能够需要提供一种便利的可视化技术以提供对象的3D信息。
本发明的目的通过独立权利要求的主题解决。从属权利要求中并入了另外的实施例。应当注意,本发明的以下描述的方面也适于用于提供实况2D X射线图像中介入设备的空间信息的设备、X射线成像系统、用于提供实况2D X射线图像中介入设备的空间信息的方法、用于控制这样的设备的计算机程序单元,以及存储有所述程序单元的计算机可读介质。
根据第一方面,提供了一种用于提供实况2D X射线图像中介入设备的空间信息的设备。所述设备包括输入单元和处理单元。输入单元被配置为提供与患者身体的部分有关的感兴趣区域的实况2D X射线图像。目标位置位于感兴趣区域内。输入单元还被配置为提供感兴趣区域的至少部分和介入设备的至少部分的实况3D超声数据。处理单元被配置为将实况3D超声数据配准到实况2D X射线图像。处理单元被配置为识别3D超声数据中的目标位置,并基于实况3D超声数据确定介入设备的部分与目标位置之间的空间关系。处理单元被配置为生成指示空间关系的图形表示。提供了图形表示,以与实况2D X射线图像一起显示。
作为该第一方面的示例性实施例,提供了一种用于提供实况2D X射线图像中介入设备的空间信息的设备。所述设备包括输入单元和处理单元。输入单元被配置为提供与患者身体的部分有关的感兴趣区域的实际(或实况或当前)2D X射线图像。目标位置位于感兴趣区域内。介入设备的至少部分布置在感兴趣区域中。输入单元还被配置为提供感兴趣区域的至少部分和介入设备的至少部分的实际(或实况或当前)3D超声数据。目标位置位于感兴趣区域内。处理单元被配置为将实际3D超声数据配准到实际2D X射线图像。处理单元被配置为识别3D超声数据中的目标位置,并基于实际3D超声数据确定介入设备的部分与目标位置之间的空间关系。处理单元还被配置为根据空间关系来检索实际2D X射线图像的投影方向上的距离值。处理单元被配置为基于距离值生成指示空间关系的图形表示。提供图形表示以与实际2D X射线图像一起显示。因此,图形表示可与实际2D X射线图像一起显示。
术语“患者”是指正在经历例如介入流程或检查的对象。患者也可以称为“对象”或“个体”。因此,个体,即对象,是针对流程的感兴趣物体。
在示例中,输入单元提供实际2D X射线图像和实际3D超声数据。
术语“布置在”是指设备至少部分地存在于感兴趣区域中。因此,设备被定位于或提供在感兴趣区域中。在所述设备是导管、导丝、针等的示例中,所述设备被插入使得设备的例如尖端或任何其他预定部分在感兴趣区域内,即在由2D和3D图像数据(即2D X射线图像和3D超声数据)覆盖的视场内。
在示例中,由于2D X射线图像和3D超声数据在时间、或时间范围或时间段中涉及相同的实际点或实例,因此相应的2D和3D数据示出相同的感兴趣区域,仅仅由于不同的图像数据采集技术而具有不同的数据信息。因此,将介入设备布置为例如具有感兴趣区域中的尖端部分将存在于2D和3D数据两者中。
在示例中,感兴趣区域是患者身体的部分,其中,用户正将介入设备导航到目标位置。介入设备的预定点要被导航到目标位置。例如,尖端部分要被导航到目标位置。在另外的示例中,杆身或侧部要被导航到目标位置。
在示例中,感兴趣区域(如由实际的X射线图像提供)示出介入设备的预定点,即,移动介入设备,使得介入设备的预定点被布置在感兴趣区域内。
在示例中,处理单元被配置为提供用于显示实际2D X射线图像和图形表示的图像数据。
在示例中,介入设备的部分涉及介入设备的具有要导航到目标的点或部分的部分。因此,介入设备的部分包括介入设备的预定点。
在示例中,3D超声数据包括介入设备的预定点的3D超声数据,即,移动介入设备,使得介入设备的预定点被布置在由超声数据覆盖的部分内。
目标位置也称为被定义为目标或目标位置的预定位置。在示例中,用户正在将介入设备的预定点导航到预定目标位置。
术语“指示”是指允许用户以优选地便利的方式感知实际距离的表示。
在示例中,图形表示基于空间关系。
在示例中,图形表示与实际2D X射线图像一起显示。
在示例中,术语“识别”涉及确定3D超声数据中的目标位置。这可以由用户手动提供。在另一示例中,这是提供的。
术语“实际”是指当前状态,其中,2D X射线图像和3D超声数据被采集。
术语“实况”涉及实际(或当前)图像数据。实况,即实际(当前)意味着在2D X射线图像上立即示出介入设备的任何改变,即移动。
术语“导航”涉及由用户以到达目标位置的方式来操纵介入设备。
在示例中,当前2D X射线图像和3D超声数据的配准是通过配准它们相应的空间帧来提供的。在示例中,相应图像采集模块彼此配准。在另一示例中,当前2D X射线图像和3D超声数据的配准由两种图像类型中可见的界标提供。在另外的选项中,由介入设备提供配准。
术语“目标位置”与物体内部的特定感兴趣点有关。特定感兴趣点在物体的关系中可以是静态的,即,相对于物体不移动。在另一示例中,特定感兴趣点可以与物体一起移动,例如由于患者运动。在另外的示例中,特定感兴趣点可以相对于物体移动,即在物体内移动。
图形表示也可以称为距离编码。这意味着图形表示被设计为指示介入设备的部分相对于目标位置的不同深度水平。例如,可以为代码图案定义不同的颜色。
2D X射线图像也可以称为患者身体在x-y平面上的投影图像。
实际3D超声数据也可以被称为实际3D超声图像数据。
3D超声数据可以与图像数据有关,除了在x-y平面中的空间信息之外,所述图像数据包括所采集图像的z方向上的额外空间信息。
介入设备的点与靶向位置的空间关系也可以称为x、y和z方向上的距离值。
实际2D X射线图像的投影方向上的距离值也可以称为深度或深度值,或者称为2DX射线图像的z方向上的距离值。
在示例中,处理单元被配置为将实际3D超声数据配准到实际2D X射线图像的投影方向。
在示例中,通过将距离值变换成图形表示来提供由处理单元生成图形表示。
在另一示例中,提供了一种用于提供实际2D X射线图像中介入设备的空间信息的设备。所述设备包括输入单元和处理单元。输入单元被配置为提供与患者身体的部分有关的感兴趣区域的实际2D X射线图像。目标位置位于感兴趣区域内。输入单元还被配置为提供感兴趣区域的至少部分和介入设备的至少部分的实际3D超声数据。处理单元被配置为将实际3D超声数据配准到实际2D X射线图像。处理单元还被配置为识别3D超声数据中的目标位置,并在介入设备被移动使得介入设备的部分被布置在感兴趣区域内的情况下基于实际3D超声数据确定介入设备的部分与目标位置之间的空间关系。空间关系被称为2D X射线图像的z方向上的深度值或距离值。处理单元被配置为根据空间关系来检索实际2D X射线图像的投影方向上的距离值,并基于所述距离值生成图形表示,所述图形表示要与实际2D X射线图像一起显示。
在示例中,处理单元被配置为在介入设备被移动使得介入设备的部分被布置在感兴趣区域内的情况下,确定介入设备的部分与目标位置之间的空间关系。空间关系是2D X射线图像的z方向上的深度值或距离值。处理单元被配置为基于距离值生成图形表示。
根据示例,实际2D X射线图像的投影方向上的距离值是2D X射线图像的z方向上的距离值。
z方向垂直于2D X射线图像平面。
根据示例,处理单元被配置为生成包括实际2D X射线图像和实际2D X射线图像内的图形表示的图像数据。
根据示例,所述图形表示是编码的图形表示。在选项中,诸如颜色代码或图案代码的编码信息指示特定相对距离,例如朝向用户太近或离用户太远,或者在X射线投影的查看方向上在目标被布置的平面的后面或前面。在另一示例中,编码信息指示特定绝对距离,如目标平面后10mm或目标平面前7.5mm。
在示例中,编码的图形表示包括颜色代码或图案代码形式的编码的信息。
根据示例,提供了显示单元,所述显示单元被配置为显示包括实际2D X射线图像和2D X射线图像内的图形表示的图像数据。
根据示例,处理单元被配置为识别并视觉指示实际2D X射线图像中的目标位置。
根据示例,目标位置被提供有在实际3D超声数据中可见的标记。
因此,所述设备也可以被称为用于在实际2D X射线图像中显示介入设备的空间信息的设备。
在示例中,2D X射线图像被示出在显示单元上。
在示例中,显示单元是屏幕。
在示例中,图形表示被显示在目标位置处。
在示例中,介入设备的预定点可以是介入设备的尖端。
在示例中,以2D X射线和3D超声两者捕获介入设备。
在示例中,介入设备可以是经导管设备。
在示例中,X射线和介入超声坐标系由系统配准。
例如,这种配准是由Philips的称为的系统提供的。
在示例中,目标位置可以是心脏的主血管,例如,将在介入设备的支撑下将支架放置在所述主血管中。
结果,提供了一种可视化技术,其将有用的3D信息带到2D X射线图像而不使X射线图像混乱。由于X射线图像投影未示出“深度”尺度,因此现在将投影方向上的该尺度带回到X射线2D投影图像,即,使用相对深度信息丰富或增强了2D图像。这意味着,用户(例如介入医师)可以依靠2D X射线图像以将介入设备导航到目标位置。通过还根据空间关系检索在介入设备的投影方向上到目标(即目标定位、目标位置或目标点)的距离值或所谓的相对深度,并将距离值变换为图形表示,实际2D X射线图像被生成,所述图像示出介入设备在2D X射线图像上的移动,具有关于相对深度信息的额外视觉信息,而不使2D X射线图像混乱。通过这样做,用户可以专注于相关信息,而不会分心。由于额外信息是由超声提供的,因此不需要另外的X射线辐射。
在又一示例中,提供了一种用于提供实际2D X射线图像中介入设备的空间信息的设备。所述设备包括输入单元和处理单元。输入单元适于操纵来自不同数据源的多个数据。其还被配置为操纵不同的数据类型。输入单元被配置为提供感兴趣区域的实际2D X射线图像。感兴趣区域与患者身体的用户正在导航介入设备的部分有关。介入设备的预定点要被导航到感兴趣区域内的预定目标位置。输入单元还被配置为提供包括介入设备的预定点的感兴趣区域的至少部分的实际3D超声数据。处理单元被配置为将实际3D超声数据配准到实际2D X射线图像的投影方向。处理单元被配置为识别3D超声数据中的预定目标位置,并基于实际3D超声数据确定介入设备的预定点的实际位置与预定目标位置之间至少在实际2DX射线图像的投影方向上的空间关系。在示例中,处理单元通过在开始操作之前通过处理来自用户(即外科医师)的几何命令来识别预定目标位置。例如,用户经由输入单元将患者身体的几何信息发送到设备的处理单元。在示例中,一旦介入设备的部分处于其可以被3D超声设备捕获的区域中,则处理单元确定目标位置与介入设备的部分之间的距离值。在另一示例中,一旦介入设备和目标位置两者位于感兴趣区域内,则处理单元确定介入设备与目标位置之间的距离值。处理单元被配置为根据空间关系来检索实际2D X射线图像的投影方向上的距离值,并将距离值变换为编码的图形表示。处理单元被配置为识别并视觉指示实际2D X射线图像中的目标位置。处理单元被配置为提供用于显示实际2D X射线图像和编码的图形表示的图像数据。
根据第二方面,提供了一种X射线成像系统,用于提供实况2D X射线图像中介入设备的空间信息。根据上述示例之一,系统包括X射线成像设备、超声成像设备以及用于提供实况2D X射线图像中介入设备的空间信息的设备。X射线成像设备提供实际2D X射线图像,即与患者身体的部分有关的感兴趣区域的实际2D X射线图像,其中,目标位置位于感兴趣区域内,并且其中,介入设备的至少部分布置在感兴趣区域中。超声成像设备提供实际3D超声数据,即,感兴趣区域的部分和介入设备的部分的实际3D超声数据,其中,目标位置位于感兴趣区域内。
在示例中,感兴趣区域与患者身体的部分有关,其中,用户正在导航介入设备。介入设备的预定点要被导航到感兴趣区域内的预定目标位置。
X射线成像系统也可以称为用于在实况2D X射线图像中显示介入设备的空间信息的X射线成像系统。
术语“提供”也可以涉及捕获X射线图像。
在范例中,X射线成像设备提供与患者身体的用户正在导航介入设备的部分有关的感兴趣区域的实际2D X射线图像。介入设备的预定点要被导航到感兴趣区域内的预定目标位置。
根据示例,超声成像设备可插入在患者身体中。
在又一示例中,提供了一种用于提供实况2D X射线图像中介入设备的空间信息的系统。根据以上示例,所述系统包括X射线成像设备、超声成像设备以及用于提供实况2D X射线图像中介入设备的空间信息的设备。X射线成像设备提供感兴趣区域的实际2D X射线图像。感兴趣区域与患者身体的用户正在导航介入设备的部分有关。介入设备的预定点要被导航到感兴趣区域内的预定目标位置。超声成像设备提供包括介入设备的预定点的感兴趣区域的至少部分的实际3D超声数据。
根据第三方面,提供了一种用于提供实况2D X射线图像中介入设备的空间信息的方法。所述方法包括以下步骤:
a)在第一步骤中,提供感兴趣区域的实际2D X射线图像,其与患者身体的部分有关,其中,目标位置位于感兴趣区域内。介入设备的至少部分布置在感兴趣区域中。
b)在第二步骤中,提供感兴趣区域的至少部分和介入设备的至少部分的实际3D超声数据。
c1)在第三步骤中,将实际3D超声数据配准到实际2D X射线图像。
c2)在第四步骤中,识别3D超声数据中的目标位置,并基于实际3D超声数据确定介入设备的部分与目标位置之间的空间关系。此外,根据空间关系来检索实际2D X射线图像的投影方向上的距离值。
c3)在第五步骤中,基于距离值,生成要与实际2D X射线图像一起显示的指示空间关系的图形表示。
在示例中,提供了另外的(第六)步骤,也称为步骤d),其中,在实际2D X射线图像中的目标位置被识别并视觉指示。
在也称为步骤e)的另一(第七)步骤中,提供了用于显示实际2D X射线图像和图形表示的图像数据。
在示例中,感兴趣区域与患者身体的用户正在导航介入设备的部分有关。例如,介入设备的预定点要被导航到感兴趣区域内的预定目标位置。
在示例中,感兴趣区域正在包括介入设备的预定点。
在示例中,在步骤c1)中,提供了将实际3D超声数据配准到实际2D X射线图像的投影方向的步骤。
在示例中,在步骤c2)中,提供了以下步骤:识别3D超声数据中的预定目标位置;并且基于实际3D超声数据来确定介入设备的预定点的实际位置与预定目标位置之间至少在实际2D X射线图像的投影方向上的空间关系。
图形表示可以是编码的图形表示。
在示例中,在步骤e)中或在步骤e)之后,显示包括实际2D X射线图像和图形表示的图像数据。
在示例中,以同步连续的方式提供步骤a)至e),使得用户具有患者身体内的感兴趣区域的瞬时实际数据。
在示例中,距离值是在3D超声中确定的,例如介入设备的点与目标位置之间的距离。例如,通过从目标位置到X射线源的距离减去介入设备的点到X射线源的距离,来计算投影方向上的介入设备的点与目标位置之间的距离值,或者反之亦然。
在示例中,在穿过目标和X射线成像设备两者的线上相对深度被计算为目标位置与介入设备的目标点的投影之间的距离。所述投影例如可以是介入设备的点的标准欧几里得投影。
在另一示例中,假设除介入设备的点的位置之外介入设备的取向的估计可用,提供与穿过介入设备的点的线的最接近点并将其与介入设备对准。
因此,所述方法也可以被称为用于在实际或实况2D X射线图像中显示介入设备的空间信息的方法。
根据示例,图形表示被显示在目标位置处。
在示例中,第一圆圈指示2D X射线图像中的目标位置,并且第一圆圈根据颜色编码改变其颜色。
在示例中,颜色编码指示介入设备离目标位置太近还是太远。
根据另一示例,提供了步骤d),其包括识别并视觉指示介入设备在实际2D X射线图像中的位置。还提供了步骤e),其包括将图形表示显示在介入设备的位置处。
在选项中,图形表示跟随在实际2D X射线图像内的介入设备的位置的改变。
在又一示例中,提供了一种用于提供实况2D X射线图像中介入设备的空间信息的方法。所述方法包括以下步骤。在也称为步骤a)的第一步骤中,提供感兴趣区域的实际2D X射线图像,其中,感兴趣区域与患者身体的用户正在导航介入设备的部分有关。介入设备的预定点要被导航到感兴趣区域内的预定目标位置。在也称为步骤b)的第二步骤中,提供包括介入设备的预定点的感兴趣区域的至少部分的实际3D超声数据。在也称为步骤c1)的第三步骤中,将实际3D超声数据配准到实际2D X射线图像的投影方向。在也称为步骤c2)的第四步骤中,识别3D超声数据中的预定目标位置,并且基于实际3D超声数据确定介入设备的预定点的实际位置与预定目标位置之间至少在实际2D X射线图像的投影方向上的空间关系。在也称为步骤c3)的第五步骤中,检索根据空间关系的投影方向上的距离值,并将所述距离值变换为编码的图形表示。在也称为步骤d)的第六步骤中,识别并视觉指示实际2D X射线图像中的目标位置。在也称为步骤e)的第七步骤中,提供用于显示实际2D X射线图像和编码的图形表示的图像数据。
根据一方面,提供了通过图形表示来可视化垂直于实际2D X射线图像平面的介入设备到目标的距离。通过这样做,向用户提供了关于介入设备在垂直于2D图像的方向上的定位的信息,所述方向也可以称为深度方向。例如,当在实际2D X射线图像上将介入设备导航到目标点时,向用户提供介入设备到在2D平面中的目标的位置。介入设备在深度方向上的取向通过图形表示来可视化,如带有颜色编码的圆圈,其指示介入设备是远离还是靠近目标点。因此,除了X射线图像外,介入超声提供关于在3D中的解剖结构和介入工具有用额外信息。结果,实现了来自X射线和来自介入超声的信息相关的融合。这些模态的不同几何性质(前者是投影的并且后者是体积的)被组合以向用户呈现组合或融合的信息。将来自超声成像的3D信息与投影X射线图像合并,以提供还包括3D信息(来自超声)的2D图像(X射线投影图像)。
参考下文描述的实施例,本发明的这些和其他方面将变得显而易见并且得到阐述。
附图说明
下面将参考以下附图描述本发明的示例性实施例:
图1示出了用于提供实况2D X射线图像中介入设备的空间信息的设备的示例。
图2示出了具有介入设备、超声图像设备、目标位置和图形表示的感兴趣区域的2DX射线图像的示例。
图3示出了实际2D X射线图像上的图形表示的另一示例性图示。
图4示出了用于提供实况2D X射线图像中介入设备的空间信息的方法的示例。
图5示出了图2的摄影图示。
图6示出了图3的摄影图示。
具体实施方式
图1示出了用于在2D投影X射线图像中显示介入设备的空间信息的设备10。设备10包括输入单元12和处理单元16。输入单元12被配置为提供与患者身体的部分有关的感兴趣区域的实际2D X射线图像18(如图2和图3所示)。目标位置22(如图2和图3所示)位于感兴趣区域内。介入设备的至少部分20布置在感兴趣区域中。输入单元12还被配置为提供感兴趣区域的至少部分和介入设备19的至少部分20的实际3D超声数据。目标位置22位于感兴趣区域内。处理单元16被配置为将实际3D超声数据配准到实际2D X射线图像18。处理单元16被配置为识别3D超声数据中的目标位置22,并基于实际3D超声数据确定介入设备19的部分20与目标位置22之间的空间关系。处理单元16被配置为根据空间关系来检索实际2D X射线图像的投影方向上的距离值。处理单元16被配置为基于距离值生成图形表示32,例如编码的图形表示,其指示空间关系并且将与实际2D X射线图像18一起显示。
在未示出的示例中,处理单元16被配置为提供用于显示实际2D X射线图像18和图形表示32的图像数据。在示例中,介入设备19的部分20包括介入设备的预定点。
在示例中,感兴趣区域与患者身体的部分有关,其中,用户正在导航介入设备19。
在另外的未示出的示例中,处理单元被配置为根据空间关系来检索实际2D X射线图像在投影方向26(如图2所示)上的距离值,并基于距离值生成图形表示32。
在另外的未示出的示例中,处理单元被配置为识别并视觉指示实际2D X射线图像中的目标位置22。
在另外的未示出的示例中,目标位置被提供有在实际3D超声数据中可见的标记。
在作为选项示出的示例中,提供了显示单元14,所述显示单元被配置为显示包括实际2D X射线图像18和实际2D X射线图像内的图形表示32的图像数据。
在另外的未示出的示例中,提供了一种用于提供实况2D X射线图像中介入设备的空间信息的系统。所述系统包括X射线成像设备、超声成像设备36(如图2或图3所示)以及设备10的示例,设备10被提供用于提供实际2D X射线图像18中介入设备19的空间信息。X射线成像设备提供感兴趣区域的实际2D X射线图像。超声成像设备36提供包括介入设备19的至少部分20的感兴趣区域的至少部分的实际3D超声数据。
在示例中,如图2和图3所示,超声成像设备36可插入患者身体内。
图2示出了针对感兴趣区域的实际2D X射线图像18的示例。介入设备19被示出在与患者身体40的部分有关的感兴趣区域中,其中,用户正导航。在示例中,超声设备36被插入在患者身体40中。图2还示出了目标位置22和图形表示32。在示例中,图形表示32包括可视化2D X射线图像中的目标位置22的第一圆圈38。通过这样做,向用户提供了两种类型的信息。首先,向用户提供实际2D X射线图像中的目标位置22的信息。其次,基于图形表示32,向用户提供目标位置的深度信息。定义图形表示可以被定义为诸如其改变,例如取决于介入设备19的部分20与目标位置22之间的距离值的其颜色代码。
图3示出了在实际2D X射线图像18中视觉指示的目标位置22,具有类似的图形表示,但是没有图形表示32,即距离编码。
在示例中,第一圆圈38是具有中性色的点和/或圆圈或另一图形符号。此外,在2DX射线图像中还可视化第二圆圈42(或另一图形符号)。现在,第二圆圈42示出了具有颜色代码的图形表示32,所述颜色代码取决于介入设备19的部分20与目标位置22之间的距离值。
在示例中,第二圆圈42跟随在实际2D X射线图像18中介入设备19的部分20的移动。介入设备19的部分20的实际位置的改变与部分20的移动有关。
图形表示的选择可以是,例如,当工具太靠近时为橙色,并且当其太远时为蓝色,并且当工具和目标在深度方向(即X射线图像的投影方向)上对齐时为绿色。
在示例中,还可以通过额外可视化技术(例如尺寸改变、模糊和透明)增加深度感,这将比颜色具有更“柔和”的过渡。还提供了其他可视化技术。
在示例(未示出)中,在实际2D X射线图像中以数字形式可视化介入设备的部分与目标位置之间的距离值,例如距离信息。数字形式也可以涉及诸如mm、cm等的测量单位。在示例中,数字形式的距离值的可视化可以布置在实际2D X射线图像中靠近目标位置,例如,紧邻第一圆圈38或第二圆圈42。
在一个示例中,距离值与在投影方向上的介入设备的部分和目标位置之间的距离,即相对距离或距离(向量)分量有关。
在另一示例中,距离值与介入设备的部分和目标位置之间的空间距离,即实际距离或绝对距离有关。
图4图示了用于在实况2D X射线图像中显示介入设备的空间信息的对应方法400。方法包括以下步骤。在第一步骤402(也称为步骤a))中,提供感兴趣区域的实际2D X射线图像,其中,感兴趣区域与患者身体的部分有关,其中,目标位置位于感兴趣区域内。介入设备的至少部分布置在感兴趣区域中。在第二步骤404(也称为步骤b))中,提供感兴趣区域的至少部分和介入设备的至少部分的实际3D超声数据。在第三步骤406(也称为步骤c1))中,将实际3D超声数据配准到实际2D X射线图像。在第四步骤408(也称为步骤c2))中,识别3D超声数据中的目标位置,并基于实际3D超声数据确定介入设备的部分与目标位置之间的空间关系。此外,根据空间关系来检索实际2D X射线图像的投影方向上的距离值。在另一个步骤410(也称为步骤c3))中,基于距离值,生成指示要与实际2D X射线图像一起显示的空间关系的图形表示。
在仅作为选项提供和示出的另一步骤412(也称为步骤d))中,识别并视觉指示实际2D X射线图像中的目标位置。在也作为选项提供的另一步骤414(也称为步骤e))中,提供了用于显示实际2D X射线图像和图形表示的图像数据。
在未另外示出的示例中,提供了另外的步骤,其包括在目标位置处显示图形表示。
在示例中,显示包括实际2D X射线图像和图形表示的图像数据。
在示例中,图形表示显示在目标位置处,如图2所示。
在示例中,提供了步骤412,包括在实际2D X射线图像中识别并视觉指示位置介入设备,并且提供了步骤414,其包括在介入设备19的位置(例如介入设备19的预定部分或点)处显示图形表示。
在示例(未详细示出)中,优选地,图形表示跟随在实际2D X射线图像内的介入设备的位置的改变。
在示例中,步骤414还包括在2D X射线图像中以数值形式可视化介入设备19与目标之间的距离值。
图5示出了图2的摄影图示;图6示出了图3的摄影图示。摄影图示示出了由X射线成像设备捕获的图像的灰色阴影。
如上所述,圆圈38和42分别将颜色编码改变为颜色代码。结果,介入设备19的点20和目标位置22的相对深度在所捕获的图像上被很好突出示出。
在本发明的另一示范性实施例中,提供了一种计算机程序或一种计算机程序单元,其特征在于适于在适当的系统上执行根据前面的实施例之一所述的方法的方法步骤。
因此,所述计算机程序单元可以被存储在计算机单元上,所述计算机单元也可以是本发明的实施例的部分。该计算单元可以适于执行以上描述的方法的步骤或诱发以上描述的方法的步骤的执行。此外,其可以适于操作以上描述的装置的部件。所述计算单元能够适于自动地操作和/或执行用户的命令。计算机程序可以被加载到数据处理器的工作存储器中。所述数据处理器由此可以被装备为执行本发明的方法。
本发明的该示范性实施例涵盖从一开始就使用本发明的计算机程序和借助于更新将现有程序转变为使用本发明的程序的计算机程序两者。
更进一步地,所述计算机程序单元能够提供实现如以上所描述的方法的示范性实施例的流程的所有必需步骤。
根据本发明的另一示范性实施例,提出了一种计算机可读介质,例如CD-ROM,其中,所述计算机可读介质具有存储在所述计算机可读介质上的计算机程序单元,所述计算机程序单元由前面部分描述。计算机程序可以被存储/分布在合适的介质上,例如与其他硬件一起提供或作为其他硬件的部分提供的光学存储介质或固态介质,但计算机程序可也可以以其他形式来分布,例如经由因特网或者其他有线或无线电信系统分布。
然而,所述计算机程序也可以存在于诸如万维网的网络上并能够从这样的网络中下载到数据处理器的工作存储器中。根据本发明的另一示范性实施例,提供了一种用于使得计算机程序单元可用于下载的介质,其中,所述计算机程序单元被布置为执行根据本发明的之前描述的实施例之一所述的方法。
必须指出,本发明的实施例参考不同主题加以描述。具体而言,一些实施例参考方法类型的权利要求加以描述,而其他实施例参考设备类型的权利要求加以描述。然而,本领域技术人员将从以上和下面的描述中了解到,除非另行指出,除了属于一种类型的主题的特征的任何组合之外,涉及不同主题的特征之间的任何组合也被认为由本申请公开。然而,所有特征能够被组合以提供超过特征的简单加和的协同效应。
尽管已经在附图和前面的描述中详细说明和描述了本发明,但这样的说明和描述被认为是说明性或示范性的而非限制性的。本发明不限于所公开的实施例。通过研究附图、说明书和从属权利要求,本领域的技术人员在实践请求保护的本发明时能够理解和实现所公开的实施例的其他变型。
在权利要求中,词语“包括”不排除其他单元或步骤,并且,词语“一”或“一个”并不排除多个。单个处理器或其他单元可以履行权利要求书中记载的若干项目的功能。尽管在互不相同的从属权利要求中记载了特定措施,但是这并不指示不能有利地使用这些措施的组合。权利要求中的任何附图标记不应被解释为对范围的限制。

Claims (17)

1.一种用于提供实况2D X射线图像中介入设备的空间信息的设备(10),所述设备包括:
输入单元(12);以及
处理单元(16);
其中,所述输入单元被配置为提供与患者身体的部分有关的感兴趣区域的实际2D X射线图像(18),其中,目标位置(22)位于所述感兴趣区域内,并且其中,介入设备的至少部分(20)被布置在所述感兴趣区域中;
其中,所述输入单元被配置为提供所述感兴趣区域的至少部分和所述介入设备(19)的至少所述部分(20)的实际3D超声数据,其中,所述目标位置(22)位于所述感兴趣区域内;并且
其中,所述处理单元被配置为:将所述实际3D超声数据与所述实际2D X射线图像进行配准;识别所述3D超声数据中的所述目标位置;基于所述实际3D超声数据来确定所述介入设备的所述部分与所述目标位置之间的空间关系;根据所述空间关系来检索所述实际2D X射线图像的投影方向上的距离值;并且基于所述距离值来生成指示所述空间关系的图形表示(32),所述图形表示要与所述实际2D X射线图像一起显示。
2.根据权利要求1所述的设备,其中,所述实际2D X射线图像的所述投影方向上的所述距离值是所述2D X射线图像的z方向上的距离值。
3.根据权利要求1或2所述的设备,其中,所述处理单元被配置为生成图像数据,所述图像数据包括所述实际2D X射线图像和所述实际2D X射线图像内的所述图形表示。
4.根据权利要求1或2所述的设备,其中,所述图形表示是颜色或图案编码的图形表示(32)。
5.根据权利要求4所述的设备,其中,所述编码的图形表示指示:
i)特定相对距离,其包括具有以下项的组中的一项:i1)太靠向或太远离所述目标位置,或者i2)在所述X射线投影的查看方向上在所述目标被布置的平面后面或前面;或者
ii)目标平面后面或前面的特定绝对距离。
6.根据权利要求1-2中的一项所述的设备,其中,显示单元被提供,所述显示单元被配置为显示包括所述实际2D X射线图像和所述实际2D X射线图像内的所述图形表示的所述图像数据。
7.根据权利要求1-2中的一项所述的设备,其中,所述处理单元被配置为识别并视觉指示所述实际2D X射线图像中的所述目标位置。
8.根据权利要求1-2中的一项所述的设备,其中,所述目标位置被提供有在所述实际3D超声数据中可见的标记。
9.一种X射线成像系统,包括:
X射线成像设备;
超声成像设备(36);以及
根据前述权利要求中的一项所述的设备(10);
其中,所述X射线成像设备提供所述实际2D X射线图像;
其中,所述超声成像设备提供所述实际3D超声数据。
10.根据权利要求9所述的X射线成像系统,其中,所述超声成像设备能插入在患者身体中。
11.一种用于提供实况2D X射线图像中介入设备的空间信息的方法(400),所述方法包括以下步骤:
a)提供(402)与患者身体的部分有关的感兴趣区域的实际2D X射线图像,其中,目标位置位于所述感兴趣区域内,并且其中,介入设备的至少部分被布置在所述感兴趣区域中;
b)提供(404)所述感兴趣区域的至少部分和所述介入设备的至少所述部分的实际3D超声数据,其中,所述目标位置位于所述感兴趣区域内;
c1)将所述实际3D超声数据与所述实际2D X射线图像进行配准(406);
c2)识别(408)所述实际3D超声数据中的所述目标位置;基于所述实际3D超声数据来确定所述介入设备的所述部分与所述目标位置之间的空间关系;并且根据所述空间关系来检索所述实际2D X射线图像的投影方向上的距离值;
c3)基于所述距离值来生成(410)指示所述空间关系的图形表示,所述图形表示要与所述实际2D X射线图像一起显示。
12.根据权利要求11所述的方法,其中,提供了包括在所述目标位置处显示所述图形表示的步骤。
13.根据权利要求11或12所述的方法,其中,提供了步骤d),所述步骤d)包括识别并视觉指示所述介入设备在所述实际2D X射线图像中的位置;并且提供了步骤e),所述步骤e)包括在所述介入设备的所述位置处显示所述图形表示。
14.根据权利要求13所述的方法,其中,所述图形表示跟随所述介入设备在所述实际2DX射线图像内的所述位置的改变。
15.根据权利要求11至12中的一项所述的方法,其中,步骤e)还包括在所述2D X射线图像上以数值形式可视化所述介入设备与所述目标之间的距离值。
16.一种用于控制根据权利要求1至8中的一项所述的设备或根据权利要求9至10中的一项所述的X射线成像系统的计算机程序单元,所述计算机程序单元当由处理单元运行时适于执行根据权利要求11至15中的一项所述的方法的步骤。
17.一种计算机可读介质,其存储有根据权利要求16所述的计算机程序单元。
CN201880033890.2A 2017-05-24 2018-05-23 用于提供实况2d x射线图像中介入设备的空间信息的设备和对应方法 Active CN110650686B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP17305614.4 2017-05-24
EP17305614.4A EP3406195A1 (en) 2017-05-24 2017-05-24 Device and a corresponding method for providing spatial information of an interventional device in a live 2d x-ray image
PCT/EP2018/063431 WO2018215499A1 (en) 2017-05-24 2018-05-23 Device and a corresponding method for providing spatial information of an interventional device in a live 2d x-ray image

Publications (2)

Publication Number Publication Date
CN110650686A CN110650686A (zh) 2020-01-03
CN110650686B true CN110650686B (zh) 2023-10-13

Family

ID=59034673

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880033890.2A Active CN110650686B (zh) 2017-05-24 2018-05-23 用于提供实况2d x射线图像中介入设备的空间信息的设备和对应方法

Country Status (5)

Country Link
US (1) US11291424B2 (zh)
EP (2) EP3406195A1 (zh)
JP (1) JP6770655B2 (zh)
CN (1) CN110650686B (zh)
WO (1) WO2018215499A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113538572A (zh) * 2020-04-17 2021-10-22 杭州三坛医疗科技有限公司 一种目标对象的坐标确定方法、装置和设备
JP2023176250A (ja) * 2022-05-31 2023-12-13 朝日インテック株式会社 手術支援装置、手術支援方法、及びコンピュータプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012117366A1 (en) * 2011-03-02 2012-09-07 Koninklijke Philips Electronics N.V. Visualization for navigation guidance
CN102885633A (zh) * 2011-07-21 2013-01-23 西门子公司 即时显示方法和x射线设备,计算机程序产品和数据载体
CN104780845A (zh) * 2012-11-06 2015-07-15 皇家飞利浦有限公司 增强超声图像

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3857710B2 (ja) * 1993-11-26 2006-12-13 東芝医用システムエンジニアリング株式会社 手術支援システム
DE10033723C1 (de) * 2000-07-12 2002-02-21 Siemens Ag Visualisierung von Positionen und Orientierung von intrakorporal geführten Instrumenten während eines chirurgischen Eingriffs
JP2002119502A (ja) * 2000-10-17 2002-04-23 Toshiba Corp 医用装置
DE10240727A1 (de) * 2002-09-04 2004-03-18 Philips Intellectual Property & Standards Gmbh Bildgebendes System und Verfahren zur Optimierung einer Röntgenabbildung
US20080234570A1 (en) * 2004-03-05 2008-09-25 Koninklijke Philips Electronics, N.V. System For Guiding a Medical Instrument in a Patient Body
DE102005032523B4 (de) * 2005-07-12 2009-11-05 Siemens Ag Verfahren zur prä-interventionellen Planung einer 2D-Durchleuchtungsprojektion
WO2007113815A2 (en) * 2006-03-30 2007-10-11 Activiews Ltd System and method for optical position measurement and guidance of a rigid or semi flexible tool to a target
US8060186B2 (en) 2007-02-15 2011-11-15 Siemens Aktiengesellschaft System and method for intraoperative guidance of stent placement during endovascular interventions
US8364242B2 (en) * 2007-05-17 2013-01-29 General Electric Company System and method of combining ultrasound image acquisition with fluoroscopic image acquisition
JP5405045B2 (ja) * 2008-05-07 2014-02-05 株式会社東芝 X線撮影装置および画像処理装置
US20100111389A1 (en) * 2007-12-06 2010-05-06 Siemens Medical Solutions Usa, Inc. System and method for planning and guiding percutaneous procedures
JP5269500B2 (ja) * 2008-07-04 2013-08-21 株式会社東芝 画像処理装置
WO2010086778A2 (en) * 2009-01-30 2010-08-05 Koninklijke Philips Electronics N.V. Examination apparatus
DE102009016482B4 (de) * 2009-04-06 2011-09-01 Siemens Aktiengesellschaft Vorrichtungen zur Unterstützung der Platzierung eines Implantats
US8731642B2 (en) * 2009-11-08 2014-05-20 Paieon Inc. Apparatus and method for locating a device tip within a volume
RU2556783C2 (ru) 2009-12-09 2015-07-20 Конинклейке Филипс Электроникс Н.В. Комбинация ультразвуковой и рентгеновской систем
JP5685605B2 (ja) * 2010-01-12 2015-03-18 コーニンクレッカ フィリップス エヌ ヴェ インターベンション装置をナビゲートするシステム及びその作動方法、コンピュータプログラムエレメント並びにコンピュータ可読媒体
WO2012031275A2 (en) * 2010-09-03 2012-03-08 University Of Washington Neurosurgical devices and associated systems and methods
US9999399B2 (en) 2010-11-16 2018-06-19 Siemens Healthcare Gmbh Method and system for pigtail catheter motion prediction
CN103857344B (zh) * 2012-09-20 2016-09-28 东芝医疗系统株式会社 图像处理系统、x射线诊断装置以及图像处理方法
EP2938260B1 (en) * 2012-12-28 2019-11-06 Koninklijke Philips N.V. Real-time scene-modeling combining 3d ultrasound and 2d x-ray imagery
US9629595B2 (en) * 2013-03-15 2017-04-25 Hansen Medical, Inc. Systems and methods for localizing, tracking and/or controlling medical instruments
JP2015083082A (ja) * 2013-10-25 2015-04-30 株式会社東芝 X線診断装置
US10806520B2 (en) * 2014-05-23 2020-10-20 Koninklijke Philips N.V. Imaging apparatus for imaging a first object within a second object
JP6331922B2 (ja) * 2014-09-22 2018-05-30 コニカミノルタ株式会社 医用画像システム及びプログラム
US10515449B2 (en) * 2016-11-04 2019-12-24 Siemens Medical Solutions Usa, Inc. Detection of 3D pose of a TEE probe in x-ray medical imaging

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012117366A1 (en) * 2011-03-02 2012-09-07 Koninklijke Philips Electronics N.V. Visualization for navigation guidance
CN102885633A (zh) * 2011-07-21 2013-01-23 西门子公司 即时显示方法和x射线设备,计算机程序产品和数据载体
CN104780845A (zh) * 2012-11-06 2015-07-15 皇家飞利浦有限公司 增强超声图像

Also Published As

Publication number Publication date
EP3406195A1 (en) 2018-11-28
JP2020520759A (ja) 2020-07-16
JP6770655B2 (ja) 2020-10-14
US20200085398A1 (en) 2020-03-19
WO2018215499A1 (en) 2018-11-29
US11291424B2 (en) 2022-04-05
CN110650686A (zh) 2020-01-03
EP3629932A1 (en) 2020-04-08
EP3629932B1 (en) 2020-12-02

Similar Documents

Publication Publication Date Title
US8611988B2 (en) Projection image generation apparatus and method, and computer readable recording medium on which is recorded program for the same
US8942457B2 (en) Navigating an interventional device
EP2854646B1 (en) Methods and apparatus for estimating the position and orientation of an implant using a mobile device
CN108601629A (zh) 外科手术期间减少辐射暴露的3d可视化
US20100061603A1 (en) Spatially varying 2d image processing based on 3d image data
US20070238959A1 (en) Method and device for visualizing 3D objects
EP3173023B1 (en) Locally applied transparency for a ct image
WO2013171441A2 (en) Virtual fiducial markers
US10806520B2 (en) Imaging apparatus for imaging a first object within a second object
CN113855059A (zh) 增强超声图像
WO2021130569A1 (en) 2d pathfinder visualization
CN110650686B (zh) 用于提供实况2d x射线图像中介入设备的空间信息的设备和对应方法
WO2021130572A1 (en) 3d pathfinder visualization
EP3195272B1 (en) Device for visualizing a 3d object
EP3944254A1 (en) System for displaying an augmented reality and method for generating an augmented reality
US20220096165A1 (en) Interventional device tracking
Jannin et al. A ray-traced texture mapping for enhanced virtuality in image-guided neurosurgery
CN113597289A (zh) 辅助在对象内移动插入元件

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant