ES2907465T3 - Reprogramación de imagen digital - Google Patents
Reprogramación de imagen digital Download PDFInfo
- Publication number
- ES2907465T3 ES2907465T3 ES16707667T ES16707667T ES2907465T3 ES 2907465 T3 ES2907465 T3 ES 2907465T3 ES 16707667 T ES16707667 T ES 16707667T ES 16707667 T ES16707667 T ES 16707667T ES 2907465 T3 ES2907465 T3 ES 2907465T3
- Authority
- ES
- Spain
- Prior art keywords
- image
- pixels
- remapping
- images
- view
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008672 reprogramming Effects 0.000 title description 2
- 238000003384 imaging method Methods 0.000 claims abstract description 27
- 238000000034 method Methods 0.000 claims description 66
- 238000002594 fluoroscopy Methods 0.000 claims description 43
- 238000002591 computed tomography Methods 0.000 claims description 36
- 210000000709 aorta Anatomy 0.000 claims description 19
- 238000002583 angiography Methods 0.000 claims description 18
- 210000004204 blood vessel Anatomy 0.000 claims description 15
- 238000007408 cone-beam computed tomography Methods 0.000 claims description 5
- 238000002595 magnetic resonance imaging Methods 0.000 claims 1
- 239000002872 contrast media Substances 0.000 description 15
- 230000005855 radiation Effects 0.000 description 12
- 239000000193 iodinated contrast media Substances 0.000 description 11
- 230000009466 transformation Effects 0.000 description 10
- 230000008901 benefit Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 206010073306 Exposure to radiation Diseases 0.000 description 7
- 238000012216 screening Methods 0.000 description 7
- 210000003484 anatomy Anatomy 0.000 description 6
- 210000005166 vasculature Anatomy 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 5
- 208000009304 Acute Kidney Injury Diseases 0.000 description 4
- 101150070878 Ereg gene Proteins 0.000 description 4
- 208000001647 Renal Insufficiency Diseases 0.000 description 4
- 208000033626 Renal failure acute Diseases 0.000 description 4
- 201000011040 acute kidney failure Diseases 0.000 description 4
- 201000006370 kidney failure Diseases 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 210000004872 soft tissue Anatomy 0.000 description 4
- 238000001356 surgical procedure Methods 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 210000000988 bone and bone Anatomy 0.000 description 3
- 238000002059 diagnostic imaging Methods 0.000 description 3
- 230000003589 nefrotoxic effect Effects 0.000 description 3
- 231100000381 nephrotoxic Toxicity 0.000 description 3
- 210000002254 renal artery Anatomy 0.000 description 3
- 210000001519 tissue Anatomy 0.000 description 3
- 238000007631 vascular surgery Methods 0.000 description 3
- ZCYVEMRRCGMTRW-UHFFFAOYSA-N 7553-56-2 Chemical compound [I] ZCYVEMRRCGMTRW-UHFFFAOYSA-N 0.000 description 2
- 230000002411 adverse Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 229940039231 contrast media Drugs 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 210000003090 iliac artery Anatomy 0.000 description 2
- 238000002347 injection Methods 0.000 description 2
- 239000007924 injection Substances 0.000 description 2
- 229910052740 iodine Inorganic materials 0.000 description 2
- 239000011630 iodine Substances 0.000 description 2
- 238000002324 minimally invasive surgery Methods 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 238000011282 treatment Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 230000002792 vascular Effects 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 229910052688 Gadolinium Inorganic materials 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000002399 angioplasty Methods 0.000 description 1
- 208000007474 aortic aneurysm Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 238000013153 catheter ablation Methods 0.000 description 1
- 208000020832 chronic kidney disease Diseases 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 210000004351 coronary vessel Anatomy 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 206010012601 diabetes mellitus Diseases 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 125000001153 fluoro group Chemical group F* 0.000 description 1
- UIWYJDYFSGRHKR-UHFFFAOYSA-N gadolinium atom Chemical compound [Gd] UIWYJDYFSGRHKR-UHFFFAOYSA-N 0.000 description 1
- 208000015181 infectious disease Diseases 0.000 description 1
- 238000013152 interventional procedure Methods 0.000 description 1
- 238000012977 invasive surgical procedure Methods 0.000 description 1
- 229960004359 iodixanol Drugs 0.000 description 1
- NBQNWMBBSKPBAY-UHFFFAOYSA-N iodixanol Chemical compound IC=1C(C(=O)NCC(O)CO)=C(I)C(C(=O)NCC(O)CO)=C(I)C=1N(C(=O)C)CC(O)CN(C(C)=O)C1=C(I)C(C(=O)NCC(O)CO)=C(I)C(C(=O)NCC(O)CO)=C1I NBQNWMBBSKPBAY-UHFFFAOYSA-N 0.000 description 1
- 229960001025 iohexol Drugs 0.000 description 1
- NTHXOOBQLCIOLC-UHFFFAOYSA-N iohexol Chemical compound OCC(O)CN(C(=O)C)C1=C(I)C(C(=O)NCC(O)CO)=C(I)C(C(=O)NCC(O)CO)=C1I NTHXOOBQLCIOLC-UHFFFAOYSA-N 0.000 description 1
- 238000012978 minimally invasive surgical procedure Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000006335 response to radiation Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000012418 validation experiment Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/008—Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/12—Arrangements for detecting or locating foreign bodies
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/40—Arrangements for generating radiation specially adapted for radiation diagnosis
- A61B6/4064—Arrangements for generating radiation specially adapted for radiation diagnosis specially adapted for producing a particular type of beam
- A61B6/4085—Cone-beams
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/44—Constructional features of apparatus for radiation diagnosis
- A61B6/4429—Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
- A61B6/4435—Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
- A61B6/4441—Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/48—Diagnostic techniques
- A61B6/481—Diagnostic techniques involving the use of contrast agents
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/48—Diagnostic techniques
- A61B6/486—Diagnostic techniques involving generating temporal series of image data
- A61B6/487—Diagnostic techniques involving generating temporal series of image data involving fluoroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/504—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of blood vessels, e.g. by angiography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5205—Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5223—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5229—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
- A61B6/5235—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/367—Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2576/00—Medical imaging apparatus involving image processing or analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
- G06T2207/10121—Fluoroscopy
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
- G06T2207/10124—Digitally reconstructed radiograph [DRR]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2211/00—Image generation
- G06T2211/40—Computed tomography
- G06T2211/404—Angiography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2211/00—Image generation
- G06T2211/40—Computed tomography
- G06T2211/421—Filtered back projection [FBP]
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Heart & Thoracic Surgery (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- High Energy & Nuclear Physics (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Vascular Medicine (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Pulmonology (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Un método de generación de imágenes que comprende: a) obtener imágenes 2D primera y segunda a través de un objeto del que se va a formar una imagen, en el que las imágenes son desde diferentes puntos de vista con respecto al objeto; b) proporcionar un conjunto de datos de imagen 3D del objeto del que se va a formar una imagen; c) registrar la primera y la segunda imagen 2D con el conjunto de datos de imagen 3D; d) en el que dicho registro se utiliza para facilitar la reasignación de píxeles de la primera imagen 2D para generar una imagen reasignada desde el punto de vista de la segunda imagen 2D.
Description
DESCRIPCIÓN
Reprogramación de imagen digital
[0001] La presente invención se refiere a la producción de imágenes digitales 2D adecuadas para su uso en imágenes médicas. La invención se refiere particularmente a la reasignación de imágenes de rayos X tomadas desde un primer punto de vista para que presenten la misma imagen que se ve desde un segundo punto de vista.
[0002] Los procedimientos quirúrgicos mínimamente invasivos guiados por fluoroscopia de rayos X, como la ablación cardíaca, la neuroembolización, la angioplastia de la arteria coronaria y la colocación de stents, se utilizan en una amplia gama de especialidades médicas, ya que son ventajosos en comparación con los procedimientos quirúrgicos invasivos, particularmente para pacientes no aptos para cirugía abierta.
[0003] Dichos procedimientos permiten una reducción sustancial del riesgo de infección y tiempos de recuperación más cortos porque la fluoroscopia intervencionista requiere, comparativamente, solo una incisión muy pequeña [1].
[0004] Durante las intervenciones endovasculares guiadas por fluoroscopia, se utilizan dosis bajas de rayos X (conocidas como detección de fluoroscopia) para proporcionar orientación después de insertar catéteres, cables guía u otros instrumentos de intervención en el vaso sanguíneo del paciente al monitorear su movimiento en tiempo real en un conjunto de pantallas en la sala de intervención. Sin embargo, solo los dispositivos intervencionistas y los tejidos densos, como el hueso, se visualizan adecuadamente mediante el examen de fluoroscopia. La anatomía de los tejidos blandos, como la vasculatura, no se visualiza adecuadamente.
[0005] Para mejorar la visualización de la vasculatura, se inyecta medio de contraste iodados (MCI) en los vasos sanguíneos, y se emplea una dosis de rayos X significativamente más alta que en la exploración estándar de fluoroscopia; esta técnica se conoce como cribado angiográfico [2]. Para visualizar solo el flujo de contraste y eliminar las estructuras de fondo, se adquiere una imagen de máscara antes de la inyección de MCI y luego se sustrae de las imágenes de angiografía subsiguientes, lo que produce una imagen de angiografía sustraída digitalmente (DSA) que muestra solo la vasculatura mejorada.
[0006] En resumen, la angiografía por sustracción digital (DSA) es una técnica conocida y ampliamente utilizada que aborda el problema de que los vasos sanguíneos no se visualizan bien usando el examen de fluoroscopia estándar. Esto se debe a que la diferencia en los coeficientes de atenuación entre la sangre y los tejidos blandos circundantes es muy pequeña. Para volver opaca la luz de un vaso sanguíneo, es necesario utilizar un medio de contraste con un alto coeficiente de atenuación. Uno de esos medios es MCI, que depende del yodo para su radioopacidad. Los objetos de fondo de alto contraste se restan de la imagen a medida que oscurecen los vasos sanguíneos de bajo contraste que contienen yodo diluido. Una vez que se han eliminado las estructuras de alto contraste, la imagen sustraída (es decir, la imagen DSA) se puede mejorar usando técnicas de presentación en ventanas. La Figura 1 ilustra el principio básico de la angiografía por sustracción digital que se puede dividir en estos pasos:
1. Se adquiere una imagen de máscara antes de la administración de MCI (Fig. 1 a).
2. Se inyecta MCI por vía intraarterial y se obtiene una angiografía de detección que muestra el flujo de contraste a lo largo del tiempo.
3. Todos los fotogramas individuales en la proyección de angiografía se restan, píxel por píxel, de la imagen de máscara para eliminar las estructuras de alto contraste de fondo (Fig. 1b1 ~ bn).
4. Los cuadros sustraídos luego se usan para generar una imagen DSA (Fig. 1c), usando el método de proyección de máxima intensidad (MIP). En MIP, solo los píxeles con los valores de intensidad más altos en los fotogramas sustraídos se proyectan en una sola imagen.
[0007] Si no se inyecta MCI, y si no hay movimiento de los tejidos blandos entre la toma de la máscara y las imágenes de angiografía subsiguientes, la imagen DSA estará en blanco. Sin embargo, en presencia de MCI, la imagen DSA mostrará las estructuras vasculares yodadas.
[0008] Sin embargo, una imagen DSA sólo es válida para esta vista particular actual. Una vez que se mueve (traduce y/o gira) el equipo de fluoroscopia (normalmente un arco en C que lleva la fuente de rayos X y el detector), la imagen DSA anterior no se corresponderá con la nueva vista. Este efecto es particularmente pronunciado porque los rayos X se generan desde, efectivamente, una fuente puntual. Por lo tanto, durante la mayoría de los procedimientos, se repiten las imágenes DSA, si se requiere la información posicional de la anatomía vascular después del movimiento del arco en C.
[0009] Otra limitación de esta técnica es que aparecen artefactos debido al movimiento entre las imágenes previas y posteriores a la inyección de MCI. En tales casos, la sustracción de la máscara no cancelará totalmente todas las estructuras de fondo y aparecerán artefactos de movimiento en la imagen DSA.
[0010] El uso de MCI es esencial durante los procedimientos de intervención. Sin embargo, el MCI es nefrotóxico y, en consecuencia, la lesión renal aguda es la principal complicación potencialmente mortal del uso de MCI. La lesión renal aguda inducida por MCI representa un número significativo de casos de insuficiencia renal adquirida en el hospital [3], y
se informó que es la tercera causa más común de insuficiencia renal adquirida en el hospital [4]. Además, los pacientes con lesión renal aguda inducida por MCI tienen un alto riesgo de complicaciones hospitalarias, incluida una tasa de mortalidad del 20% [5]. Estos riesgos son particularmente significativos para los pacientes con insuficiencia renal en los que la MCI aumenta las tasas de mortalidad y los eventos adversos. Es probable que este siga siendo el principal desafío para el cribado mediante angiografía, ya que la enfermedad renal crónica y la diabetes son cada vez más frecuentes en una población que envejece [3].
[0011] Además, también se encontró que la exposición a rayos X para producir imágenes DSA contribuye a la mayor parte de la dosis de radiación del paciente (81%) durante las intervenciones endovasculares, aunque MCI se usó lo menos posible [2]. Esto se debe a que la exploración por angiografía requiere una dosis de radiación significativamente mayor que la exploración por fluoroscopia estándar. Sumado a esto, la complejidad de los procedimientos es cada vez mayor. Se están realizando procedimientos más complejos con tiempos de detección más prolongados y más imágenes DSA y existe una creciente preocupación por la creciente exposición a la radiación tanto de los pacientes como del equipo intervencionista [1]. Se espera que las exposiciones a la radiación de este tipo aumenten drásticamente en el futuro [6]. Los riesgos de una mayor exposición a la radiación son particularmente significativos para los pacientes con alto riesgo de una respuesta adversa a la radiación, como los pacientes que recibieron una dosis alta de radiación de un tratamiento anterior.
[0012] Las técnicas para minimizar la exposición a la radiación en el curso de DSA incluyen el uso de algoritmos de registro 2D-3D para proporcionar una superposición preoperatoria 3D en las imágenes de fluoroscopia intraoperatoria 2D durante las intervenciones guiadas por fluoroscopia [7]. Sin embargo, la deformación intraoperatoria puede limitar la calidad de las imágenes obtenidas [8]. El documento WO 2013/132235 describe una técnica de registro 2D-3D de este tipo.
[0013] Este método de reasignación de DSA utiliza un algoritmo de registro 2D-3D basado en la intensidad bien establecido [9, 10] y usa el siguiente sistema de coordenadas:
• X3D: esto define posiciones 3D con respecto al conjunto de fluoroscopia de rayos X (es decir, fuente y detector de rayos X). Las coordenadas en X3D se denotan con letras mayúsculas (X, Y, Z).
• CT3d: define posiciones 3D en el volumen TC preoperatorio. Las coordenadas en CT3D se indican con letras minúsculas (x, y, z).
• I2D: define posiciones 2D en la imagen de proyección de rayos X. Las coordenadas en I2D se denotan con las letras minúsculas (u, v).
[0014] Este algoritmo de registro 2D-3D alinea un sistema de coordenadas de volumen TC preoperatorio CT3D con el sistema de coordenadas X3D del conjunto de fluoroscopia para mejorar la guía durante las intervenciones, como se ve en la Figura 3.
[0015] El algoritmo genera radiografías reconstruidas digitalmente (DRR) emitiendo rayos a través de una vértebra segmentada automáticamente desde la TC preoperatoria e integrando valores de vóxel por encima de un umbral (200 HU) a lo largo de cada rayo. A continuación, las DRR se pueden comparar con las imágenes de fluoroscopia intraoperatoria utilizando, por ejemplo, una medida de similitud de diferencia de gradiente [9].
[0016] La Figura 3 ilustra los 10 grados de libertad implicados en la transformación de la proyección en perspectiva. Estos se pueden dividir en 3 matrices:
• Una matriz de perspectiva de 3x4 P (cs,ls,k 1 ,k2), donde cs y ls marcan las posiciones 2D en el plano de imagen donde la normal a ese plano pasa por la fuente de rayos X. k1 y k¿ son la distancia entre la fuente y el detector dividida por los tamaños de píxeles de la imagen 2D.
• Una matriz rotacional R de 4x4 (Gx, Gy, Qz), donde Qx, Qy y Qz representan la orientación de CT3D con respecto a X3D. Matriz de traducción 4x4 T(X,Y,Z), donde X, Y y Z representan la posición de CT3D con respecto a X3D.
[0017] Estas 3 matrices se pueden combinar para producir una matriz de transformación de proyección M(w) como se muestra en la siguiente ecuación (Ecn. 1):
M(w) = P(cs,ls,kv k2)R(6x,ey,8z)T(X,Y,Z) (1)
[0018] La matriz M(w) relaciona posiciones (representadas como coordenadas homogéneas) entre CT3D y I2D, como se muestra en la ecuación. (2), donde A es un factor de escala:
M(w)(x,y,z, 1 ) T = A(u, v, 1 ) T ( 2 )
[0019] Por lo tanto, M(w) puede usarse para proyectar un punto 3D en CT3D a un punto 2D en I2D, o para transformar un punto 2D en I2D a una Línea 3D en CT3D.
[0020] Además, la captura repetida de imágenes DSA interrumpe el flujo de trabajo clínico, ya que para cada procesamiento de imágenes, el paciente debe permanecer inmóvil y los operadores del equipo y el resto del personal del quirófano deben retirarse lejos de la fuente de radiación y/o detrás del blindaje mientras el paciente. está expuesto a la radiación.
[0021] La Figura 2 ilustra el problema de la reasignación de datos de proyección. La Figura 2 ilustra la geometría 2D de la proyección en perspectiva utilizada en la formación de imágenes de fluoros
y el detector se mueven alrededor del paciente desde la vista 1 a la vista 2 para adquirir una nueva imagen de proyección 2D.
[0022] La Figura 2a muestra que la reasignación de la primera imagen en la segunda dirección de visión no puede lograrse con precisión utilizando únicamente el conocimiento de las direcciones de visión relativas 1 y 2.
[0023] Existe la necesidad de técnicas de formación de imágenes alternativas, preferiblemente mejoradas. Una necesidad abordada por formas de realización específicas es proporcionar técnicas de formación de imágenes que minimicen la necesidad de repetir los procedimientos de DSA y que tengan el beneficio concomitante de reducir el volumen de MCI nefrotóxico y exposición a la radiación, mientras se mantiene la calidad de imagen necesaria para realizar procedimientos complejos.
[0024] Por consiguiente, la descripción proporciona un método de generación de imágenes que comprende:
a) obtener imágenes 2D primera y segunda a través de un objeto del que se van a formar imágenes, en el que las imágenes son desde diferentes puntos de vista con respecto al objeto;
b) proporcionar un conjunto de datos de imagen 3D del objeto del que se va a formar una imagen; y c) registrar la primera y la segunda imagen 2D con el conjunto de datos de imagen 3D; y
d) reasignar píxeles de la primera imagen 2D para generar una imagen reasignada desde el punto de vista de la segunda imagen 2D.
[0025] El método también comprende definir una superficie de reasignación dentro del conjunto de datos de imagen 3D.
[0026] En ejemplos de la invención, se describe aquí el uso del registro de imágenes 2D-3D para facilitar la reasignación de DSA utilizando un sistema de fluoroscopia estándar. Esto permite repetir DSA sin MCI y da como resultado un uso mínimo de MCI y una dosis de radiación reducida, al tiempo que mejora el flujo de trabajo clínico. La reasignación se logra registrando imágenes 2D separadas tomadas desde el primer y segundo punto de vista de un área con un volumen de escaneo 3D de la misma región para determinar sus puntos de vista relativos con respecto al volumen de escaneo 3D. La imagen tomada con respecto al primer punto de vista se vuelve a mapear para producir la imagen vista desde el segundo punto de vista.
[0027] Por consiguiente, la invención también proporciona un método de generación de imágenes que comprende:
a) obtener imágenes 2D primera y segunda a través de un objeto del que se van a formar imágenes, en el que las imágenes son desde diferentes puntos de vista con respecto al objeto;
b) proporcionar un conjunto de datos de imagen 3D del objeto del que se va a formar una imagen;
c) definir una superficie de reasignación dentro del conjunto de datos de imagen 3D;
d) registrar las imágenes 2D primera y segunda con el conjunto de datos de imágenes 3D y determinar el punto de vista de las imágenes 2D primera y segunda con respecto al conjunto de datos de imágenes 3D;
e) reasignación de píxeles de la primera imagen 2D para generar una imagen desde el punto de vista de la segunda imagen 2D mediante:
i. rayos retroproyectados desde los píxeles de la primera imagen 2D y determinación de los puntos de intersección de los rayos retroproyectados con la superficie de reasignación; y
ii. reasignar los píxeles de la primera imagen 2D correspondientes a los puntos de intersección para generar la imagen reasignada, por lo que los píxeles se reasignan según la dirección de los rayos proyectados desde el punto de vista de la segunda imagen 2D a través de los puntos de intersección correspondientes a cada píxel.
[0028] Preferiblemente, la primera imagen es una imagen de angiografía por sustracción digital (DSA).
[0029] Preferiblemente, la segunda imagen 2D es una imagen de fluoroscopia.
[0030] La invención también proporciona un método de generación de imágenes que comprende:
a) obtener imágenes 2D primera y segunda a través de un objeto del que se van a formar imágenes, en el que las imágenes son desde diferentes puntos de vista con respecto al objeto;
b) obtener una tercera imagen 2D a través de un objeto del que se va a formar una imagen, en el que la tercera imagen comparte el punto de vista de la primera imagen y está alineada con la primera imagen;
c) proporcionar un conjunto de datos de imagen 3D del objeto del que se va a formar una imagen;
d) definir una superficie de reasignación dentro del conjunto de datos de imagen 3D;
e) registrar las imágenes 2D primera y segunda con el conjunto de datos de imágenes 3D y determinar el punto de vista de las imágenes 2D primera y segunda con respecto al conjunto de datos de imágenes 3D;
f) reasignación de píxeles de la tercera imagen 2D para generar una imagen desde el punto de vista de la segunda imagen 2D mediante:
i. determinar qué píxeles de la tercera imagen 2D corresponden a los píxeles de la primera imagen 2D; ii. rayos retroproyectados desde los píxeles de la primera imagen 2D y determinación de los puntos de intersección de los rayos retroproyectados con la superficie de reasignación; y
iii. reasignación de los píxeles de la tercera imagen 2D que se corresponden con los píxeles de la primera imagen 2D para generar la imagen reasignada, por lo que los píxeles se reasignan según la dirección de los rayos proyectados desde el punto de vista de la segunda imagen 2D a través de los puntos de intersección correspondientes a cada píxel.
[0031] La primera imagen 2D puede ser una imagen de fluoroscopia y la segunda imagen 2D puede ser una imagen de fluoroscopia.
[0032] Una ventaja de usar imágenes de fluoroscopia para registrar la posición de los puntos de vista de las imágenes 2D con el conjunto de datos de imágenes 3D es que las imágenes de fluoroscopia se toman con relativa facilidad usando una dosis de radiación relativamente baja. Además, la fluoroscopia se puede usar para la visualización en tiempo real y, por lo tanto, la fluoroscopia se puede usar para encontrar el punto de vista ideal antes de comprometerse a usar técnicas más complicadas, invasivas o potencialmente dañinas, por ejemplo, angiografía por sustracción digital (DSA).
[0033] Preferiblemente, la tercera imagen es una imagen de angiografía por sustracción digital (DSA).
[0034] La invención proporciona las siguientes ventajas que se derivan de la reducción del número de ejecuciones de DSA que se requieren durante una operación:
Primero, este método permite una reducción en la cantidad de medio de contraste iodado (MCI) que se debe usar durante una operación. El MCI es nefrotóxico y la lesión renal aguda es la principal complicación potencialmente mortal de la MCI y se informó que es la tercera causa más común de insuficiencia renal adquirida en el hospital.
Segundo, esta innovación en imágenes médicas permite una reducción de la exposición a la radiación tanto para los pacientes como para los operadores. Se encontró que la angiografía por sustracción digital (DSA) contribuye a la mayor parte de la dosis de radiación del paciente (81 %) durante la intervención endovascular, porque requiere una dosis de radiación significativamente más alta que el examen de fluoroscopia estándar.
[0035] Típicamente, las dosis de radiación requeridas para producir una imagen de fluoroscopia estándar frente a una imagen de DSA son:
- para una imagen de fluoroscopia de detección de dosis baja, aproximadamente 0,04 dGy.cm2 (deci Gray cm cuadrado) de radiación de rayos X;
- para una exploración DSA aproximadamente 50-150 dGy.cm2 de radiación.
[0036] Por lo tanto, la reducción del número de ejecuciones de DSA reduce muy significativamente la exposición a la radiación de rayos X tanto del paciente como del operador (basado en las cantidades de exposición establecidas anteriormente, esto está en cualquier lugar entre una reducción de 1250 y 3750 veces).
[0037] Otra ventaja de la reasignación de imágenes de DSA es que se mejora el flujo de trabajo clínico. Tomar una imagen DSA requiere una cantidad significativa de tiempo durante una operación porque el paciente debe permanecer quieto y los operadores deben retirarse a una distancia segura y/o detrás de un protector mientras se realiza la exploración DSA. La reasignación de una imagen DSA a una imagen de fluoroscopia más fácil de realizar y de menor radiación es necesariamente un proceso más eficiente y clínicamente preferible.
[0038] La técnica de registro 2D-3D descrita en el documento WO 2013/132235 es particularmente adecuada para su uso en el contexto de esta invención. Esto se debe a que esta técnica permite:
- verificación automática entre imágenes; no es necesario que un técnico alinee manualmente las diferentes imágenes; - un amplio rango de captura para las posiciones iniciales, es decir, los ángulos relativos desde los que se ve cada imagen.
[0039] Además, una ventaja de esta técnica es que no se requiere equipo no estándar en el quirófano. La computadora que se usa para el registro de imágenes 2D-3D también se puede usar para los métodos de reasignación de la invención.
[0040] Además de las ventajas de la fluoroscopia dadas anteriormente, la fluoroscopia es adecuada para localizar y visualizar partes de la anatomía que no se deforman fácilmente, por ejemplo, huesos. La cualidad de no deformarse significa que la ubicación de estas características anatómicas se puede determinar de manera consistente y precisa cuando los tejidos circundantes más blandos se han deformado con el tiempo o durante una operación.
[0041] El conjunto de datos 3D se puede obtener como parte de la generación de imágenes al llevar a cabo el método. También es opcional utilizar un conjunto de datos 3D obtenido de otro modo, por ejemplo, por adelantado.
[0042] El conjunto de datos de imagen 3D puede obtenerse a partir de una tomografía computarizada (TC), resonancia magnética (MR) o tomografía computarizada de haz cónico (CBCT).
[0043] Preferiblemente, el conjunto de datos de imagen 3D se obtiene a través de una tomografía computarizada (TC).
[0044] La tomografía computarizada es particularmente adecuada para usar con la invención porque es adecuada para localizar y visualizar con precisión partes de la anatomía que no se deforman fácilmente, por ejemplo, huesos, así como el tejido blando circundante. La precisión en la localización de las características anatómicas que aparecen en las imágenes de fluoroscopia 2D y las tomografías computarizadas en 3D permite un registro 2D-3D mejor (por ejemplo, más preciso y más rápido) de las tomografías fluoroscópicas en 2D con las tomografías computarizadas en 3D.
[0045] Se conocen otras técnicas de registro 2D-3D y son adecuadas para su uso en el contexto de esta invención. En particular, el método descrito en el documento WO 2013/132235. Otros métodos incluyen el seguimiento del arco en C y la mesa después de un proceso de registro inicial. El proceso de registro inicial puede llevarse a cabo de forma automática, semiautomática o manual para una imagen o imágenes 2D, o una imagen 3D (p. ej., CBCT) adquirida en el quirófano.
[0046] La superficie de reasignación puede ser cualquiera de:
i. plano en ángulo o multiplano;
ii. curvo; y/o
iii. discontinuo;
o cualquier combinación de los mismos.
[0047] La superficie de reasignación se puede moldear y/o definir para seguir sustancialmente una característica en el objeto del que se va a formar la imagen.
[0048] La superficie de reasignación que se define para seguir sustancialmente una característica en el objeto del que se va a formar una imagen es particularmente ventajosa cuando una característica que se va a ver no cae completamente dentro de un plano de imagen de los medios de formación de imágenes que se utilizan para verla. La definición de la forma de la superficie de reasignación permite ver todas o más características anatómicas de interés en una sola imagen o en un número reducido de imágenes.
[0049] Ventajosamente, la superficie de reasignación puede definirse para seguir un vaso sanguíneo, por ejemplo, la aorta. En particular, la superficie de reasignación puede definirse para seguir el lumen de un vaso sanguíneo.
[0050] Esto es particularmente ventajoso ya que las operaciones en redes tridimensionales conectadas de los vasos se simplifican si la necesidad de ajustar el plano de la imagen del aparato de visualización durante una operación para ver el área de interés inmediato se obvia mediante el uso de la invención, lo que trae sustancialmente todas las áreas de posible interés a la vista/enfoque sustancialmente simultáneamente.
[0051] Una o más características del objeto del que se va a formar la imagen dentro del conjunto de datos de imagen 3D del objeto del que se va a formar la imagen pueden mejorarse mediante el uso de un medio de contraste.
[0052] El medio de contraste se usa rutinariamente para muchas imágenes de diagnóstico de TC y RM para mejorar el contraste y el detalle de las imágenes de características específicas o estructuras clínicas vistas usando estas técnicas. En consecuencia, el uso de medios de contraste aumenta la precisión de la información posicional registrada en las imágenes de TC y RM. Esto aumenta la utilidad de los conjuntos de datos de imágenes 3D cuando se usan en el contexto de la invención. El medio de contraste puede usarse para mejorar las imágenes del sistema circulatorio, por ejemplo, la aorta y los vasos circundantes. Dichas imágenes pueden usarse para diagnóstico y/o planificación de cirugía, por ejemplo, para procedimientos endovasculares de aneurisma aórtico. El medio de contraste de TC puede ser iodado, preferiblemente el medio de contraste es Omnipaque™ (iohexol) o Visipaque™ (iodixanol). El medio de contraste de RM puede estar basado en gadolinio.
[0053] Una superficie de reasignación puede definirse según las señales obtenidas de una imagen de TC mejorada con contraste y definir que la superficie de reasignación sigue sustancialmente la característica o estructura clínica cuya visibilidad se mejora mediante el uso de medio de contraste.
[0054] También se puede usar un medio de contraste adecuado para visualizar las mismas características o estructuras clínicas, por ejemplo, vasos sanguíneos usando fluoroscopia para producir imágenes de angiografía por sustracción digital (DSA). Por lo tanto, las superficies de reasignación definidas en la TC preoperatoria en función de las estructuras clínicas o características realzadas con contraste clínicamente relevantes se pueden utilizar para reasignar imágenes DSA intraoperatorias. Preferiblemente, las características o estructuras clínicas son un vaso o vasos sanguíneos, por ejemplo, la aorta.
[0055] El uso de medio de contraste es ventajoso en el contexto de la presente invención porque permite que un usuario localice directamente las características o estructuras clínicas de interés. Otra ventaja es que esta información posicional derivada directamente también se puede usar directa y objetivamente para definir una superficie de reasignación para las características o estructuras clínicas relevantes.
[0056] En consecuencia, la descripción también proporciona un medio de contraste para usar en un método de generación de imágenes de la invención, en el que el medio de contraste se usa para definir una superficie de reasignación dentro de un conjunto de datos de imágenes en 3D, preferiblemente en el que el método es para el tratamiento o diagnóstico de un cuerpo humano o animal.
[0057] La invención proporciona adicionalmente el uso de un medio de contraste en un método de generación de imágenes de la invención, en el que el medio de contraste se usa para definir una superficie de reasignación dentro de un conjunto de datos de imágenes 3D.
[0058] Preferiblemente, una o más de las imágenes es una imagen digital. Mientras que otras formas de imagen usadas con la invención, las imágenes digitalizadas, y especialmente las imágenes digitales nativas, son particularmente preferidas.
[0059] Los píxeles reasignados se pueden reasignar a ubicaciones correspondientes en la segunda imagen 2D.
[0060] Ventajosamente, los píxeles reasignados pueden usarse para aumentar la totalidad o partes de la segunda imagen 2D. Los píxeles reasignados se pueden usar para marcar, resaltar o superponer características anatómicas de la segunda imagen 2D.
[0061] La intensidad de los píxeles puede ser variable.
[0062] Aunque una imagen se define por la ubicación de los píxeles entre sí, el grado de brillo o la intensidad de la señal de los píxeles proporciona información adicional. Este es particularmente el caso cuando un grupo de píxeles forma un gradiente de intensidad relacionado con una característica particular en una o ambas imágenes originales y reasignadas y/o la segunda imagen 2D.
[0063] El origen de los píxeles se puede marcar, preferiblemente con un color. En una imagen compuesta, esto tiene la ventaja de mostrar la información de la imagen original (por ejemplo, de un escaneo de fluoroscopia) superpuesta o combinada con la imagen de otra imagen reasignada (por ejemplo, una imagen DSA) de modo que las características de ambas se pueden ver con referencia entre sí en una sola imagen.
[0064] La invención proporciona además un sistema de formación de imágenes, que comprende:
un sistema de formación de imágenes en 2D dispuesto en uso para obtener imágenes en 2D;
un conjunto de datos de imagen 3D; y
un procesador, dispuesto en uso para:
a) obtener imágenes 2D primera y segunda a través de un objeto del que se va a formar una imagen, en el que las imágenes son desde diferentes puntos de vista con respecto al objeto;
b) registrar las imágenes 2D primera y segunda con el conjunto de datos de imágenes 3D y determinar el punto de vista de las imágenes 2D primera y segunda con respecto al conjunto de datos de imágenes 3D;
c) reasignar píxeles de la primera imagen 2D para generar una imagen reasignada desde el punto de vista de la segunda imagen 2D,
opcionalmente, dispuesto para operar de acuerdo con cualquiera de los métodos descritos en este documento [0065] Preferiblemente, el procesador del sistema de imágenes está dispuesto en se utiliza para definir una superficie de reasignación dentro del conjunto de datos de imagen 3D.
[0066] La invención también proporciona un sistema de formación de imágenes, que comprende:
un sistema de formación de imágenes en 2D dispuesto en uso para obtener imágenes en 2D para registrarlas con un conjunto de datos de imágenes en 3D; y
un procesador, dispuesto en uso para:
a) obtener imágenes 2D primera y segunda a través de un objeto del que se va a formar una imagen, en el que las imágenes son desde diferentes puntos de vista con respecto al objeto;
b) definir una superficie de reasignación dentro del conjunto de datos de imagen 3D;
c) registrar las imágenes 2D primera y segunda con el conjunto de datos de imágenes 3D y determinar el punto de vista de las imágenes 2D primera y segunda con respecto al conjunto de datos de imágenes 3D;
d) reasignar píxeles de la primera imagen 2D para generar una imagen desde el punto de vista de la segunda imagen 2D mediante:
i. rayos retroproyectados desde los píxeles de la primera imagen 2D y determinación de los puntos de intersección de los rayos retroproyectados con la superficie de reasignación; y ii. reasignar los píxeles de la primera imagen 2D correspondientes a los puntos de intersección para generar la imagen reasignada, por lo que los píxeles se reasignan según la dirección de los rayos proyectados desde el punto de vista de la segunda imagen 2D a través de los puntos de intersección correspondientes a cada píxel,
opcionalmente, dispuesto para operar de acuerdo con cualquiera de los métodos descritos en este documento.
[0067] La invención también proporciona un sistema de formación de imágenes, que comprende:
un sistema de formación de imágenes en 2D dispuesto en uso para obtener imágenes en 2D para registrarlas con un conjunto de datos de imágenes en 3D; y
un procesador, dispuesto en uso para:
a) obtener imágenes 2D primera y segunda a través de un objeto del que se va a formar una imagen, en el que las imágenes son desde diferentes puntos de vista con respecto al objeto;
b) obtener una tercera imagen 2D a través de un objeto del que se va a formar una imagen, en el que la tercera imagen comparte el punto de vista de la primera imagen y está alineada con la primera imagen; c) definir una superficie de reasignación dentro del conjunto de datos de imagen 3D;
d) registrar las imágenes 2D primera y segunda con el conjunto de datos de imágenes 3D y determinar el punto de vista de las imágenes 2D primera y segunda con respecto al conjunto de datos de imágenes 3D;
e) reasignar píxeles de la tercera imagen 2D para generar una imagen desde el punto de vista de la segunda imagen 2D mediante:
i. determinar qué píxeles de la tercera imagen 2D corresponden a los píxeles de la primera imagen 2D;
ii. rayos retroproyectados desde los píxeles de la primera imagen 2D y determinación de los puntos de intersección de los rayos retroproyectados con la superficie de reasignación; y iii. reasignación de los píxeles de la tercera imagen 2D que se corresponden con los píxeles de la primera imagen 2D para generar la imagen reasignada, en la que los píxeles se reasignan según la dirección de los rayos proyectados desde el punto de vista de la segunda imagen 2D a través de los puntos de intersección correspondientes a cada píxel,
opcionalmente, dispuesto para operar de acuerdo con cualquiera de los métodos descritos en este documento.
[0068] Preferiblemente, los sistemas de formación de imágenes descritos anteriormente son sistemas quirúrgicos guiados por imágenes.
[0069] Preferiblemente, los sistemas de formación de imágenes descritos anteriormente son sistemas utilizados en cirugía mínimamente invasiva.
[0070] La cirugía mínimamente invasiva es ventajosa por las razones expuestas anteriormente. Sin embargo, una desventaja concomitante es que las características de la anatomía pueden no ser directamente visibles para un cirujano durante una operación. Este es particularmente el caso durante la cirugía vascular donde no es posible tener una visión directa dentro de un vaso sanguíneo durante un procedimiento. Las imágenes de características anatómicas obtenidas indirectamente por medios técnicos como la fluoroscopia de rayos X son una herramienta útil y ampliamente utilizada por los cirujanos.
[0071] Por consiguiente, estos sistemas son adecuados para su uso en cirugía, en particular en cirugía vascular.
[0072] La cirugía vascular se refiere particularmente a tejidos que se mueven o deforman durante un procedimiento quirúrgico. Este movimiento y/o deformación puede deberse al movimiento del paciente durante una operación. Alternativamente o además, este movimiento y/o deformación puede deberse a la presión o fuerza ejercida sobre las
características de la anatomía, en particular los vasos sanguíneos, por instrumentos quirúrgicos u otros dispositivos médicos, en particular stents, sondas y/o cables guía, durante un operación.
[0073] La deformación, debida a instrumentos por ejemplo, puede ocurrir principalmente durante la fase o fases iniciales de una operación. La presente invención utiliza imágenes que se toman durante el proceso de una operación. En consecuencia, la presente invención no está limitada a utilizar información que solo se obtiene antes de la operación. Por lo tanto, las ventajas de la presente invención incluyen que se puede usar después de que se haya producido la mayor parte de la deformación durante la operación y, por lo tanto, puede producir imágenes más precisas, relevantes y útiles.
[0074] Se puede considerar que el documento US 2008/137924 A1 revela un método de generación de imágenes y el sistema correspondiente, que comprende:
a) obtener una primera imagen 2D a través de un objeto del que se va a formar una imagen;
b) proporcionar un conjunto de datos de imagen 3D del objeto del que se va a formar una imagen;
c) registrar la primera imagen con el conjunto de datos de imagen 3D;
d) proyectar píxeles de la primera imagen 2D sobre la superficie de una imagen de endoscopia virtual.
[0075] La invención se ilustra ahora con referencia a los siguientes ejemplos específicos y los dibujos adjuntos que muestran:
Figura 1 Imágenes que ilustran la angiografía por sustracción digital básica. La imagen de máscara (a) se sustrae píxel por píxel de todos los fotogramas individuales en la proyección de angiografía (b1 ~ bn). A continuación, se genera una imagen DSA (c) a partir de los fotogramas sustraídos utilizando el método de proyección de máxima intensidad.
Figura 2 Ilustración del problema de la reasignación de datos de proyección. (a) El círculo 2D en la vista 1 no se puede reasignar de la vista 1 a la vista 2 sin conocer su posición 3D (es decir, el círculo gris) a lo largo de la trayectoria del rayo para la vista 1. (b) Si se conoce una superficie de reasignación, el cuadrado, el triángulo y el círculo visto en la vista 1 se puede reasignar correctamente de la vista 1 a la vista 2.
Figura 3 Los 10 grados de libertad involucrados en la transformación de la proyección en perspectiva. Un volumen de TC preoperatorio es registrado con la imagen intraoperatoria utilizando un algoritmo de registro 2D-3D. cs e Is marcan las posiciones de intercepción entre el rayo proyectado desde la fuente de rayos X hacia el plano de imagen. 0X, 0Y y 0Z representan la orientación del objeto de la imagen, mientras que X, Y y Z representan su posición con respecto al sistema de coordenadas del conjunto de fluoroscopia X 3D.
Figura 4 Diagrama de flujo que muestra cómo el algoritmo de registro 2D-3D permite la reasignación de DSA. Las imágenes de entrada se muestran en la parte superior: (a) máscara DSA; (b) imagen DSA; (c) nueva imagen de fluoroscopia adquirida después de mover el arco en C a una nueva vista; y (d) un volumen de TC preoperatorio que comprende la superficie de reasignación. El centro y la parte inferior muestran el registro 2D-3D que permite el cálculo de las direcciones de visualización y el posicionamiento de la superficie de reasignación específica de la vasculatura del paciente (e).
Figura 5 Proceso de reasignación de DSA que se muestra en detalle para un píxel en la imagen de DSA: Idsa(u, v). Se vuelve a proyectar un rayo desde Idsa(u, v) en la superficie de reasignación usando Mdsa. La posición de intercepción 3D TC(x, y, z)int es entonces proyectada en la imagen de fluoroscopia usando la transformación Mfl para adquirir la posición de intercepción 2D en la imagen de fluoroscopia Ifl(u, v). Finalmente, la intensidad en Idsa(u, v) se reasigna a Ifl(u, v).
Figura 6 Error E 1 de reasignación de DSA tipo 1, en función del grosor de la característica y los cambios en las vías de los rayos. Tanto (a) como (b) muestran imágenes de la aorta adquiridas desde dos vistas diferentes con la flecha que apunta hacia arriba que se cruza con una parte diferente de la aorta que la flecha que apunta hacia abajo (indicada por líneas continuas), lo que provoca un error de tipo 1. Además, (b) muestra que cuando el grosor de una característica en (b) es mucho mayor que en (a), la línea sólida que se origina en la flecha que apunta hacia arriba está más alejada de la línea sólida que se origina en la flecha que apunta hacia abajo en comparación con (a).
Figura 7 Error E 2 de reasignación de DSA tipo 2 en relación con (a) los errores de registro 2D-3D Ereg, y (b) la deformación intraoperatoria (Def). En ambos casos se adquieren dos imágenes de la aorta desde diferentes vistas. La flecha que apunta hacia abajo se cruza con el volumen de TC en la posición de profundidad incorrecta, lo que provoca que E2 > 0 tanto en (a) como en (b).
Figura 8 Una superficie utilizada para la reasignación de DSA desde diferentes vistas anatómicas de una aorta: (a) anterior-posterior, (b) lateral y (c) posterior-anterior. La superficie se define a lo largo de la aorta mediante interpolación spline de placa delgada.
Figura 9 Ilustración de un método de validación utilizado. (a) Imagen de fluoroscopia con un punto que marca una guía. (b) Imagen de DSA reasignada en la que un punto marca el ostium renal. (c) Los rayos se proyectan hacia atrás desde los centros de cada uno de los puntos en la imagen de superposición en la superficie de reasignación utilizando la transformación Ifl, y el error se calcula en milímetros en CT 3D.
Figura 10 Resultados representativos de los pacientes 2, 4 y 8 respectivamente, (a) Idsa, (b) Ifl, (c) bsA(rem) y (d) bsA(rem) superpuestas en Ifl en rojo, con los orificios renales marcados con cruces negras (+) en bsA(rem) y cruces blancas (■0*') en Ifl.
[0076] Como se señaló anteriormente en relación con la Figura 2, la Figura 2a muestra que la reasignación de una primera imagen DSA a la segunda dirección de visualización no se puede lograr con precisión usando solo el conocimiento de las direcciones relativas de las vistas 1 y 2.
[0077] Se requiere conocimiento adicional: información sobre la posición de profundidad (es decir, la distancia a lo largo de la trayectoria del rayo) de las características anatómicas dentro del paciente. En la Figura 2a, el círculo gris dentro del paciente se proyecta en el detector a lo largo de la línea de puntos utilizando la primera dirección de vista. Sin embargo, cuando la fuente se mueve a la segunda dirección de vista, el círculo visto en la vista 1 no se puede reasignar directamente a la vista 2.
[0078] Para realizar dicha reasignación, se requiere información adicional sobre la posición del círculo gris dentro del paciente. Esto se debe a que el círculo que se ve en la vista 1 puede proyectarse desde cualquier punto a lo largo de la línea azul que intersecta al paciente, como los puntos marcados con , que si se usan para reasignar a lo largo de las líneas de rayos para la vista 2, dan como resultado múltiples ubicaciones posibles para el círculo en la vista 2.
[0079] Sin embargo, si toda la información de la imagen 2D se puede volver a proyectar en una sola superficie 2D conocida con precisión, como la que se muestra en la Figura 2b, entonces la imagen se puede reasignar con precisión para la vista 2. En la Figura 2b, el cuadrado, el triángulo y el círculo proyectados de la vista 1 se pueden reasignar correctamente a la vista 2 utilizando la información de posición proporcionada por la superficie de reasignación que intersecta estas características dentro del paciente.
[0080] Por lo tanto, es posible definir una superficie de reasignación dentro del volumen de TC preoperatorio y luego hacer coincidir esta superficie con el paciente usando el registro 2D-3D durante una operación o intervención. Esta superficie se usa luego para reasignar una imagen DSA a una nueva dirección de vista.
[0081] A medida que la información de profundidad se vuelve más tridimensional (es decir, no se origina simplemente a partir de una única superficie de reasignación 2D), y a medida que surgen errores en el posicionamiento de la superficie 2D, surgen errores en el proceso de reasignación. En consecuencia, la capacidad de definir dicha superficie con precisión es esencial para una correcta reasignación de la proyección en perspectiva.
Uso de un algoritmo de registro 2D-3D para facilitar la reasignación de DSA
[0082] La presente descripción utiliza el algoritmo de registro 2D-3D mencionado anteriormente para facilitar la reasignación de DSA. La Figura 4 demuestra cómo el algoritmo de registro 2D-3D permite la reasignación de DSA. Esto comienza en la parte superior con las imágenes de entrada: (a) una máscara DSA y (b) una imagen DSA (Idsa) producida a partir de una vista posterior-anterior; (c) una nueva imagen de fluoroscopia (Ifl) adquirida después de mover el arco en C; y (d) la tomografía computarizada preoperatoria con la superficie de reasignación definida en el interior. Las imágenes (a), (c) y (d) se introducen en el algoritmo de registro 2D-3D que calcula las transformaciones 2D-3D entre la tomografía computarizada {x,y,z, 1)7"y tanto la imagen DSA íu'vU)dsa como la nueva imagen de fluoroscopia v¡ Vrr, es decir:
MDSA(x,y,z.l)T = A(u ,v,1)£sa (3.1)
MFL{x,y,z, 1Y = X(u, v, 1 ) JFL (3.2)
[0083] Los tres recuadros de la Figura 4 muestran las etapas posteriores al registro 2D-3D que proporcionan la información necesaria para llevar a cabo el reasignación de DSA. Los números romanos que etiquetan cada casilla corresponden a los siguientes procesos:
I. Calcular la posición de la vista DSA: la transformación de Mdsa a la posición Idsa en relación con CT 3D se determina utilizando la máscara DSA. Tanto la máscara de DSA como la imagen de DSA tienen la misma transformación, ya que se adquieren en un solo examen de angiografía desde la misma dirección de vista.
II. Calcular nueva posición de vista de fluoroscopia: se determina la transformación Mfl a posición Ifl en relación con CT3D.
III. Las transformaciones Mdsa y Mfl pueden colocar la superficie de reasignación definida antes de la operación dentro del volumen de TC con respecto tanto a Idsa como a Ifl, lo que permite que se produzca la reasignación en una superficie específica de la vasculatura del paciente.
Reasignación de DSA
[0084] Por lo tanto, el registro 2D-3D permite la reasignación de DSA y se detalla en los pasos siguientes (I, II, III, IV, V) con referencia a la Figura 5; los números romanos en la Figura 5 corresponden a los siguientes pasos: I.
I. Segmentación de una superficie de reasignación del volumen de TC preoperatorio. La superficie debe contener los vasos sanguíneos de interés clínico que se han de reasignar.
II. Registro del volumen de TC con ambas imágenes, Idsa e Ifl, utilizando el algoritmo de registro 2D-3D como el aquí descrito. El registro permite el posicionamiento espacial de Idsa e Ifl en relación con la superficie de reasignación de TC segmentada como se describió anteriormente con referencia a los recuadros I y II de la Figura 4.
III. Rayos de retroproyección desde cada uno de los píxeles de la imagen DSA Idsa(u, v) usando Mdsa, y cálculo de las posiciones 3D en CT3D donde los rayos interceptan la superficie de reasignación (es decir, TC (x,y,z)int).
IV. Rayos de proyección desde las posiciones de intercepción 3D TC(x,y,z)int a Ifl para adquirir la posición de intercepción 2D en I2D (es decir, Ifl(u,v)). Esto se hace usando la transformación Mfl.
V. Finalmente, la intensidad en cada píxel de imagen DSA Idsa(u, v) se reasigna en la posición de intercepción 2D Ifl(u, v) correspondiente al mismo píxel. Esto produce automáticamente una imagen DSA reasignada correspondiente a la vista de fluoroscopia actual.
Errores de reasignación de DSA
[0085] Como se discutió anteriormente, reasignar una imagen de proyección en una nueva vista requiere el conocimiento de la posición de profundidad de las características anatómicas. Como se indica aquí, dicho conocimiento se puede proporcionar definiendo una superficie de reasignación dentro del volumen de TC para intersectar las características de interés. Esto supone que las entidades se encuentran en una sola superficie 2D y que la superficie se puede colocar correctamente. Sin embargo, cuando se violan estos supuestos, surgen tres tipos de errores:
I. Definimos que el error E1 de tipo 1 ocurre como resultado del grosor de la característica que se reasigna (es decir, el tamaño de la característica a lo largo de la dirección z en CT3D. E1 es una función del grosor de la característica y los cambios en las vías de los rayos (vía de rayos A) a lo largo de esa característica cuando el arco en C se mueve a una nueva dirección de vista, como:
Cuando la característica completa se encuentra en la superficie de reasignación, entonces, las vías de los rayos a lo largo de esa característica son similares desde cualquier dirección de vista y E1. Sin embargo, cuando el grosor de la característica aumenta, los cambios en las vías de los rayos aumentan cuando se mueve el arco en C y, por lo tanto, E1 aumenta como se ve en la Figura 6.
En Figura 6(a) y (b), se obtienen dos imágenes de una aorta aneurismática desde dos direcciones de vista diferentes. En ambos casos, el rayo proyectado para la vista 2 (flecha que apunta hacia arriba) no cruza la misma parte de la aorta como el rayo proyectado desde la vista 1 (flecha que apunta hacia abajo). Esto provoca un error de tipo 1 en la posición de las características entre la imagen reasignada de la vista 1 y la nueva imagen de la vista 2 cuando se superponen. Además, en (b), la intersección de la flecha que apunta hacia arriba con la aorta (línea continua) está más alejada de la intersección de la flecha que apunta hacia abajo (línea continua) en comparación con (a), esto se debe a que el grosor de la característica en (b) es mucho mayor que en (b). II. Definimos que el error de tipo 2 E2 se debe a errores en el posicionamiento de la superficie de reasignación. E2 es una función del error de registro 2D-3D (Ereg [9]), y la deformación intraoperatoria (Def [8]), como:
Ereg resulta de la desalineación de CT3D con X3D (es decir, errores en R(dx, dy, dz) y T(X,Y,Z). El error de traslación a lo largo del eje Z (ver Figura 3) es el mayor error observado en comparación con los otros errores de traslación y rotación (5 mm vs. 0,5 mm respectivamente [9]). Por lo tanto, pueden ocurrir errores al colocar la superficie de reasignación a lo largo del eje Z, como se muestra en la Figura 7(a). En la Figura 7(a), donde no se produce deformación (Def = 0, la flecha que apunta hacia abajo intersecta el volumen de TC en una posición de profundidad incorrecta debido al error de traslación Z que causa el error E2.
La Def es un problema común en todos los métodos que emplean la anatomía preoperatoria para la superposición. La Def puede ocurrir debido al movimiento de los alambres rígidos y sistemas de entrega dentro de la aorta durante la intervención (< 10 mm [8]), lo que podría causar errores en la posición de la superficie de reasignación, como se ilustra en la Figura 7(b). En la Figura 7(b), donde no ocurre ningún error de registro Ereg, la flecha que apunta hacia abajo interseca el volumen de TC en la posición de profundidad incorrecta debido a la deformación intraoperatoria de la superficie de reasignación que provoca el error E 2.
III. Definimos que el error E3 de tipo 3 se debe a un movimiento no rígido de las características de interés (en relación con las vértebras en las que se basa el registro) entre el momento en que se adquirió la imagen DSA Idsa y el momento en que se obtuvo la nueva imagen de fluoroscopia (Ifl) fue adquirida. E3 es una función de las
diferentes etapas durante una intervención que exhiben diferentes grados de deformación intraoperatoria dependiendo del tipo de dispositivos de intervención presentes.
E 3 es un mínimo cuando Idsa e Ifl se adquieren durante la misma etapa de la intervención, ya que la cantidad de deformación debe ser similar para ambas imágenes. Sin embargo, si Idsa e Ifl se adquieren durante diferentes etapas, entonces E 3 aumenta a medida que las dos imágenes experimentan diferentes grados de deformación. Además, el dispositivo de colocación con los stents no desplegados es la causa principal de la deformación. Por lo tanto, si se adquiere Idsa cuando el dispositivo de administración está presente e Ifl cuando no lo estaba, E 3 es un máximo.
EJEMPLOS
[0086] Los experimentos se llevaron a cabo usando datos de 9 pacientes que se sometieron a EVAR electivo en el hospital de St Thomas (Londres, Reino Unido). Los datos fueron procesados offline, es decir, no durante el procedimiento y fueron aprobados por el Servicio Nacional de Ética en Investigación con consentimiento informado del paciente. El registro 2D-3D se realizó en una computadora con dos tarjetas gráficas NVidia GTX 690 y cada tarjeta contenía dos GPU. Se completó un solo registro 2D-3D en 1,25 segundos, y el software de reasignación tardó alrededor de 1 segundo. Por lo tanto, el tiempo total del proceso de reasignación fue de alrededor de 3,5 segundos para cada imagen de fluoroscopia.
[0087] Cada conjunto de datos tenía una tomografía computarizada de diagnóstico preoperatorio, adquirida en una variedad de máquinas dependiendo del hospital de referencia, con tamaños de vóxel que oscilaban entre 0,683x0,683x0,7 mm3 y 1x1x1 mm3. Cada conjunto de datos también tenía una serie de imágenes intraoperatorias (detección de fluoroscopia, detección de angiografía y DSA) adquiridas en un sistema Siemens FP20 con una velocidad de cuadro baja que oscila entre 2 fps y 7 fps.
[0088] Para cada paciente, la aorta se segmentó a partir del volumen de TC preoperatorio usando un método semiautomático en ITK-SNAP [11]. A continuación, se definió la superficie de reasignación seleccionando puntos a lo largo de la línea media de las arterias aorta, ilíaca y renal y, a continuación, se produjo una superficie mediante interpolación spline de placa fina [12]. Un ejemplo de una superficie de reasignación de este tipo se puede ver en la Figura 8 desde diferentes vistas: (a) anterior-posterior, (b) lateral y (c) posterior-anterior. Esta superficie fue elegida para reasignar los vasos sanguíneos de interés, es decir, la aorta y las arterias renal e ilíaca.
[0089] Para cada conjunto de datos, se eligió para reasignación una imagen DSA producida a partir de una vista anteroposterior en una etapa temprana de la intervención. Estas imágenes de DSA muestran los dispositivos de colocación con las endoprótesis cubiertas no desplegadas, así como la vasculatura. Luego se llevó a cabo la reasignación de DSA, como se describe en este documento, para reasignar la imagen DSA elegida a varias imágenes de fluoroscopia adquiridas en diferentes etapas de la intervención después del movimiento del arco en C (pero aproximadamente desde vistas anteroposteriores).
Experimentos de validación
[0090] Se eligieron imágenes de validación para cada conjunto de datos que mostraban claramente la posición de las arterias renales, ya sea por la posición de un alambre guía o un injerto de stent, o por el uso de MCI. A continuación, se calculó la precisión de superposición en una posición clínicamente relevante: el ostium renal tanto en la imagen de fluoroscopia Ifl como en la imagen DSA reasignada iDSA(rem), como se muestra en la Figura 9. En la Figura 9, donde se usa un cable guía, se registró un valor de error de cero si el cable en Ifl (punto de tono claro en (a)) atravesó el ostium renal iDSA(rem) (punto de tono oscuro en (B)). De lo contrario, el valor de error se calculó como se describe en la Figura 9 (c). En la Figura 9(c), los rayos se proyectan hacia atrás desde la imagen superpuesta hacia la superficie de reasignación utilizando la transformación Ifl. A continuación, la distancia (es decir, el error) entre los dos puntos de intercepción con la superficie se calcula en mm en CT3D mediante la fórmula V(xi ~ xi)2 + (yi - y2)2 (zi - zt) 1 . Este método permite calcular el error en una distancia anatómica real (es decir, mm) y no en un error proyectado (es decir, píxeles).
[0091] En el caso de que se usara un injerto de stent o un MCI, los puntos medios de los orificios renales se ubicaron tanto en Ifl como en iDSA(rem), y se usó el mismo método de retroproyección para calcular el error en milímetros. Para cada conjunto de datos y en todos los casos (es decir, alambre/stent/MCI), las ubicaciones de los orificios renales fueron ubicadas visualmente por dos observadores de forma independiente. Luego se calcularon y promediaron dos conjuntos de errores para cada conjunto de datos.
[0092] La Figura 10 muestra los resultados de los pacientes 2, 4 y 8 respectivamente: (a) la imagen DSA (Idsa); (b) la imagen de fluoroscopia {Ifl)', (c) la imagen DSA reasignada (bsAfrem>)', y (d) ÍDSA(rem) superpuesto sobre Ifl en rojo, con los orificios renales marcados con cruces negras (+) en bsA(rem) y cruces blancas ((*)) en Ifl. Los pacientes presentados fueron elegidos para tener errores de reasignación que cubrieron el rango completo de errores promedio observados: 0,82 mm, 2,92 mm y 5,52 mm, respectivamente.
[0093] Para cada paciente, las precisiones de reasignación, como se describe anteriormente, se calcularon para todas las imágenes y se promediaron. La Tabla 1 enumera el número de reasignaciones de DSA para cada paciente y los
errores de reasignación máximos y promedio. También se presentan el número total de reasignaciones realizadas y el error promedio. Los resultados numéricos mostraron un promedio de error general de 2,50 mm en 41 imágenes reasignadas, con 1 caso con cero errores y otros 6 casos con errores promedio <3 mm. Para 2 pacientes, se observaron errores promedio mayores (> 4 mm). En 5 pacientes se observaron grandes errores máximos (> 4 mm); el paciente 8 obtuvo los errores máximos (11,57 mm) y promedio (5,52 mm) más altos.
[0094] Los resultados presentados en la Tabla 1 muestran un error de reasignación promedio de 2,50 mm en 41 reasignaciones realizadas. Se observaron variaciones de error entre diferentes reasignaciones para el mismo paciente. Esto puede explicarse por el hecho de que se realizaron reasignaciones en diferentes etapas del procedimiento para cada paciente (como se indicó anteriormente). Por lo tanto, la aorta experimentó diferentes grados de deformación intraoperatoria según el tipo de dispositivos intervencionistas presentes. Al superponer la aorta segmentada en la imagen DSA reasignada con el error de superposición más alto (es decir, 11,57 mm para el paciente 8), se encontró que este caso tenía la mayor deformación intraoperatoria en comparación con las otras reasignaciones DSA para el mismo paciente, lo que explica el error máximo mayor informado para el paciente 8.
Tabla 1. El número de reasignaciones de DSA realizadas, el error máximo y el error de reasignación promedio en milímetros (mm) para cada paciente.
[0095] La deformación de la aorta preoperatoria para que coincida con la escena intraoperatoria antes de segmentar la superficie de reasignación también se puede investigar mediante el empleo de un algoritmo de registro de imágenes 2D-3D no rígido (por ejemplo, [13]) para tener en cuenta la deformación intraoperatoria.
[0096] En consecuencia, la invención proporciona métodos y sistemas para la producción de imágenes digitales 2D adecuadas para su uso en imágenes médicas.
REFERENCIAS
[0097]
[1] Miller, D., "Interventional fluoroscopy: reducing radiation risks for patients and staff," J. Vasc. Interv. Radiol.
20(7), 274-274 (2009).
[2] Patel, A., Gallacher, D., Dourado, R., Lyons, O., Smith, A., Zayed, H., Waltham, M., Sabharwal, T., Bell, R., Carrell, T., et al., "Occupational radiation exposure during endovascular aortic procedures," Eur. J. Vasc. Endovasc. 46(4), 424-430 (2013).
[3] McCullough, P. A., "Contrast-induced acute kidney injury," J. Am. Coll. Cardiol. 51(15), 1419-1428 (2008).
[4 ] Nash, K., Hafeez, A., y Hou, S., "Hospital-acquired renal insufficiency," Am. J. Kidney. Dis. 39(5), 930-936 (2002).
[5] Seeliger, E., Sendeski, M., Rihal, C. y Persson, P., "Contrast-induced kidney injury: mechanisms, risk factors, and prevention," Eur. Heart. J. 33(16), 2007-2015 (2012).
[6] Bicknell, C., "Occupational radiation exposure and the vascular interventionalist," Eur. J. Vasc. 46, 431 (2013).
[7 ] Markelj, P., Tomavevivzc, D., Likar, B. y Pernuvs, F., "A review of 3D/2D registration methods for imageguided interventions," Med. Image. Anal. 16(3), 642-661 (2012).
[8] Carrell, T., Modarai, B., Brown, J. y Penney, G., "Feasibility and limitations of an automated 2D-3D rigid image registration system for complex endovascular aortic procedures," J. Endovasc. Ther. 17(4), 527-533 (2010).
[9] Penney, G., Weese, J., Little, J., Desmedt, P., Hill, D., et al., "A comparison of similarity measures for use in 2D/3D medical image registration," IEEE Trans. Med. Imag. 17(4), 586-595 (1998).
[10] Penney, G., Varnavas, A., Dastur, N. y Carrell, T., "An image-guided surgery system to aid endovascular treatment of complex aortic aneurysms: description and initial clinical experience," en [IPCAI], 6689, 13-24 (2011).
[11] Yushkevich, P. A., Piven, J., Hazlett, H. C., Smith, R. G., Ho, S., Gee, J. C. y Gerig, G., "User guided 3D active contour segmentation of anatomical structures: significantly improved efficiency and reliability," Neuroimage 31 (3), 1116-1128 (2006).
[12] Rohr, K., Fornefett, M. y Stiehl, H. S., "Approximating thin-plate splines for elastic registration: Integration of landmark errors and orientation attributes," in [Inf. Process. Med. Imaging], 1613, 252-265, Springer (1999).
[13] Guyot, A., Varnavas, A., Carrell, T. and Penney, G., "Non-rigid 2D-3D registration using anisotropic error ellipsoids to account for projection uncertainties during aortic surgery," en [MICCAI], 8151, 179-186, Springer (2013).
Claims (14)
1. Un método de generación de imágenes que comprende:
a) obtener imágenes 2D primera y segunda a través de un objeto del que se va a formar una imagen, en el que las imágenes son desde diferentes puntos de vista con respecto al objeto;
b) proporcionar un conjunto de datos de imagen 3D del objeto del que se va a formar una imagen;
c) registrar la primera y la segunda imagen 2D con el conjunto de datos de imagen 3D;
d) en el que dicho registro se utiliza para facilitar la reasignación de píxeles de la primera imagen 2D para generar una imagen reasignada desde el punto de vista de la segunda imagen 2D.
2. Un método de acuerdo con la reivindicación 1, que comprende definir una superficie de reasignación dentro del conjunto de datos de imagen 3D.
3. Un método de generación de imágenes, según la reivindicación 1 o la reivindicación 2, que comprende:
a) definir una superficie de reasignación dentro del conjunto de datos de imagen 3D;
b) determinar el punto de vista de las imágenes 2D primera y segunda con respecto al conjunto de datos de imágenes 3D;
c) en el que la reasignación de píxeles de la primera imagen 2D para generar una imagen reasignada desde el punto de vista de la segunda imagen 2D se realiza mediante:
i. rayos retroproyectados desde los píxeles de la primera imagen 2D y determinación de los puntos de intersección de los rayos retroproyectados con la superficie de reasignación; y
ii. reasignar los píxeles de la primera imagen 2D correspondientes a los puntos de intersección para generar la imagen reasignada, por lo que los píxeles se reasignan según la dirección de los rayos proyectados desde el punto de vista de la segunda imagen 2D a través de los puntos de intersección correspondientes a cada píxel, opcionalmente en el que la primera imagen es una imagen de angiografía por sustracción digital (DSA).
4. Un método de generación de imágenes, de acuerdo con la reivindicación 1 o la reivindicación 2, que comprende:
a) obtener una tercera imagen 2D a través de un objeto del que se va a formar una imagen, en el que la tercera imagen comparte el punto de vista de la primera imagen y está alineada con la primera imagen;
b) definir una superficie de reasignación dentro del conjunto de datos de imagen 3D;
c) determinar el punto de vista de la primera y segunda imagen 2D con respecto al conjunto de datos de imagen 3D;
d) reasignación de píxeles de la tercera imagen 2D para generar una imagen reasignada desde el punto de vista de la segunda imagen 2D, al:
i. determinar qué píxeles de la tercera imagen 2D corresponden a los píxeles de la primera imagen 2D; ii. rayos retroproyectados desde los píxeles de la primera imagen 2D y determinación de los puntos de intersección de los rayos retroproyectados con la superficie de reasignación; y
iii. reasignación de los píxeles de la tercera imagen 2D que se corresponden con los píxeles de la primera imagen 2D para generar la imagen reasignada, por lo que los píxeles se reasignan según la dirección de los rayos proyectados desde el punto de vista de la segunda imagen 2D a través de los puntos de intersección correspondientes a cada píxel,
opcionalmente donde la primera imagen es una imagen de angiografía por sustracción digital (DSA).
5. Un método según cualquiera de las reivindicaciones anteriores, en el que la primera o la segunda imagen 2D es una imagen de fluoroscopia.
6. Un método según cualquiera de las reivindicaciones anteriores, en el que el conjunto de datos de imagen 3D se obtiene a partir de una tomografía computarizada (TC) o una resonancia magnética (RM) o una tomografía computarizada de haz cónico (CBCT).
7. Un método según cualquiera de las reivindicaciones 2 a 6, en el que la superficie de reasignación es cualquiera de:
i. plano o multiplano en ángulo;
ii. curvo; y/o
iii. discontinuo;
o cualquier combinación de los mismos.
8. Un método según cualquiera de las reivindicaciones 2 a 6, en el que la superficie de reasignación está conformada
para seguir sustancialmente una característica del objeto del que se va a obtener la imagen, preferiblemente la característica es un vaso sanguíneo, lo más preferiblemente la aorta.
9. Un método según la reivindicación 8, en el que la característica del objeto del que se va a formar una imagen dentro del conjunto de datos de imagen 3D del objeto del que se va a formar una imagen se mejora mediante el uso de un medio de contraste.
10. Un método según cualquiera de las reivindicaciones anteriores, en el que se marca el origen de los píxeles, preferiblemente con un color.
11. Un sistema de formación de imágenes, que comprende:
un sistema de formación de imágenes en 2D dispuesto en uso para obtener imágenes en 2D;
un conjunto de datos de imagen 3D; y
un procesador, dispuesto en uso para:
a) obtener imágenes 2D primera y segunda a través de un objeto del que se va a formar una imagen, en el que las imágenes son desde diferentes puntos de vista con respecto al objeto;
b) registrar las imágenes 2D primera y segunda con el conjunto de datos de imágenes 3D y determinar el punto de vista de las imágenes 2D primera y segunda con respecto al conjunto de datos de imágenes 3D;
c) reasignar píxeles de la primera imagen 2D para generar una imagen reasignada desde el punto de vista de la segunda imagen 2D,
opcionalmente en el que el procesador está dispuesto para operar de acuerdo con el método de cualquiera de las reivindicaciones 1 a 10.
12. Un sistema de imágenes según según la reivindicación 11,
en el que el procesador está dispuesto en uso para definir una superficie de reasignación dentro del conjunto de datos de imagen 3D.
13. Un sistema de formación de imágenes según cualquiera de las reivindicaciones 11 o 12, que comprende:
un procesador, dispuesto en uso para:
a) definir una superficie de reasignación dentro del conjunto de datos de imagen 3D;
b) realizar la reasignación de píxeles de la primera imagen 2D para generar una imagen reasignada desde el punto de vista de la segunda imagen 2D mediante:
i. rayos retroproyectados desde los píxeles de la primera imagen 2D y determinación de los puntos de intersección de los rayos retroproyectados con la superficie de reasignación; y ii. reasignar los píxeles de la primera imagen 2D correspondientes a los puntos de intersección para generar la imagen reasignada, por lo que los píxeles se reasignan según la dirección de los rayos proyectados desde el punto de vista de la segunda imagen 2D a través de los puntos de intersección correspondientes a cada píxel,
opcionalmente, dispuesto para operar de acuerdo con el método de cualquiera de las reivindicaciones 3 y 5 a 10.
14. Un sistema de imágenes de acuerdo con cualquiera de las reivindicaciones 11 o 12, que comprende:
un procesador, dispuesto en uso para:
a) obtener una tercera imagen 2D a través de un objeto del que se va a formar una imagen, en el que la tercera imagen comparte el punto de vista de la primera imagen y está alineada con la primera imagen; b) definir una superficie de reasignación dentro del conjunto de datos de imagen 3D;
c) realizar la reasignación de píxeles de la tercera imagen 2D para generar una imagen reasignada desde el punto de vista de la segunda imagen 2D, al:
i. determinar qué píxeles de la tercera imagen 2D corresponden a los píxeles de la primera imagen 2D;
ii. rayos retroproyectados desde los píxeles de la primera imagen 2D y determinación de los puntos de intersección de los rayos retroproyectados con la superficie de reasignación; y iii. reasignación de los píxeles de la tercera imagen 2D que se corresponden con los píxeles de la primera imagen 2D para generar la imagen reasignada, por lo que los píxeles se reasignan según la dirección de los rayos proyectados desde el punto de vista de la segunda imagen 2D
a través de los puntos de intersección correspondientes a cada píxel, opcionalmente, dispuesto para operar de acuerdo con el método de cualquiera de las reivindicaciones 4 a 10.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB201502877A GB201502877D0 (en) | 2015-02-20 | 2015-02-20 | Digital image remapping |
PCT/EP2016/053558 WO2016131957A1 (en) | 2015-02-20 | 2016-02-19 | Digital image remapping |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2907465T3 true ES2907465T3 (es) | 2022-04-25 |
Family
ID=52821934
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES16707667T Active ES2907465T3 (es) | 2015-02-20 | 2016-02-19 | Reprogramación de imagen digital |
Country Status (5)
Country | Link |
---|---|
US (1) | US11308663B2 (es) |
EP (1) | EP3258851B1 (es) |
ES (1) | ES2907465T3 (es) |
GB (1) | GB201502877D0 (es) |
WO (1) | WO2016131957A1 (es) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5950619B2 (ja) * | 2011-04-06 | 2016-07-13 | キヤノン株式会社 | 情報処理装置 |
WO2017085529A1 (en) * | 2015-11-19 | 2017-05-26 | Eos Imaging | Method of preoperative planning to correct spine misalignment of a patient |
JP6632361B2 (ja) * | 2015-12-15 | 2020-01-22 | キヤノン株式会社 | 画像処理装置、画像処理システム、画像処理方法、及びプログラム。 |
DE102016203857B4 (de) * | 2016-03-09 | 2021-05-12 | Siemens Healthcare Gmbh | Verfahren zur Erfassung und Verarbeitung von Bilddaten eines Untersuchungsobjekts |
CN109195527B (zh) | 2016-03-13 | 2022-02-11 | 乌泽医疗有限公司 | 用于与骨骼手术一起使用的设备及方法 |
US10568587B2 (en) * | 2017-03-28 | 2020-02-25 | Canon Medical Systems Corporation | X-ray diagnostic apparatus, image processing apparatus, and image processing method |
US11406338B2 (en) | 2017-07-08 | 2022-08-09 | Vuze Medical Ltd. | Apparatus and methods for use with image-guided skeletal procedures |
DE102019200888A1 (de) * | 2019-01-24 | 2020-07-30 | Siemens Healthcare Gmbh | Bestimmen eines Bilddatensatzes |
CA3127005A1 (en) * | 2019-02-06 | 2020-08-13 | William E. Butler | Improved methods for angiography |
US11538574B2 (en) | 2019-04-04 | 2022-12-27 | Centerline Biomedical, Inc. | Registration of spatial tracking system with augmented reality display |
CA3131071A1 (en) | 2019-04-04 | 2020-10-08 | Centerline Biomedical, Inc. | Spatial registration of tracking system with an image using two-dimensional image projections |
US11980506B2 (en) | 2019-07-29 | 2024-05-14 | Augmedics Ltd. | Fiducial marker |
WO2022079715A1 (en) * | 2020-10-14 | 2022-04-21 | Vuze Medical Ltd. | Apparatus and methods for use with image-guided skeletal procedures |
CN115018806A (zh) * | 2022-06-21 | 2022-09-06 | 北京理工大学 | 一种克服内部光路遮挡的层析成像方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5274551A (en) * | 1991-11-29 | 1993-12-28 | General Electric Company | Method and apparatus for real-time navigation assist in interventional radiological procedures |
US5848121A (en) | 1996-10-28 | 1998-12-08 | General Electric Company | Method and apparatus for digital subtraction angiography |
GB2390792B (en) | 2002-07-08 | 2005-08-31 | Vision Rt Ltd | Image processing system for use with a patient positioning device |
US7366278B2 (en) * | 2004-06-30 | 2008-04-29 | Accuray, Inc. | DRR generation using a non-linear attenuation model |
US7327865B2 (en) * | 2004-06-30 | 2008-02-05 | Accuray, Inc. | Fiducial-less tracking with non-rigid image registration |
US7522779B2 (en) * | 2004-06-30 | 2009-04-21 | Accuray, Inc. | Image enhancement method and system for fiducial-less tracking of treatment targets |
DE102006046735A1 (de) * | 2006-09-29 | 2008-04-10 | Siemens Ag | Vorrichtung zur Fusion eines 2D-Durchleuchtungsbildes mit einem Bild aus einem 3D-Bilddatensatz |
US9427201B2 (en) * | 2007-06-30 | 2016-08-30 | Accuray Incorporated | Non-invasive method for using 2D angiographic images for radiosurgical target definition |
US20090012390A1 (en) * | 2007-07-02 | 2009-01-08 | General Electric Company | System and method to improve illustration of an object with respect to an imaged subject |
GB0714940D0 (en) * | 2007-08-01 | 2007-09-12 | Depuy Orthopaedie Gmbh | Image processing |
JP5224451B2 (ja) * | 2008-06-03 | 2013-07-03 | 富士フイルム株式会社 | 投影画像作成装置、方法およびプログラム |
JP2010246883A (ja) * | 2009-03-27 | 2010-11-04 | Mitsubishi Electric Corp | 患者位置決めシステム |
US9330490B2 (en) * | 2011-04-29 | 2016-05-03 | University Health Network | Methods and systems for visualization of 3D parametric data during 2D imaging |
GB201208886D0 (en) * | 2012-05-18 | 2012-07-04 | King S College London | Virtual fiducial markers |
KR20140131083A (ko) * | 2013-05-03 | 2014-11-12 | 삼성전자주식회사 | 의료 영상 장치 및 그 제어 방법 |
GB201313810D0 (en) * | 2013-08-01 | 2013-09-18 | King S College London | Method and system for tomosynthesis imaging |
WO2015101948A2 (en) * | 2014-01-06 | 2015-07-09 | Body Vision Medical Ltd. | Surgical devices and methods of use thereof |
-
2015
- 2015-02-20 GB GB201502877A patent/GB201502877D0/en not_active Ceased
-
2016
- 2016-02-19 ES ES16707667T patent/ES2907465T3/es active Active
- 2016-02-19 US US15/552,349 patent/US11308663B2/en active Active
- 2016-02-19 WO PCT/EP2016/053558 patent/WO2016131957A1/en active Application Filing
- 2016-02-19 EP EP16707667.8A patent/EP3258851B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP3258851A1 (en) | 2017-12-27 |
US11308663B2 (en) | 2022-04-19 |
WO2016131957A1 (en) | 2016-08-25 |
EP3258851B1 (en) | 2021-12-15 |
GB201502877D0 (en) | 2015-04-08 |
US20180040147A1 (en) | 2018-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2907465T3 (es) | Reprogramación de imagen digital | |
US10650513B2 (en) | Method and system for tomosynthesis imaging | |
JP5319188B2 (ja) | X線診断装置 | |
JP5739812B2 (ja) | 血管造影画像取得装置の作動方法、コリメータ制御ユニット、血管造影画像取得装置及びコンピュータソフトウェア | |
US8045780B2 (en) | Device for merging a 2D radioscopy image with an image from a 3D image data record | |
US7725165B2 (en) | Method and apparatus for visualizing anatomical structures | |
CN110248603B (zh) | 3d超声和计算机断层摄影结合用于引导介入医疗规程 | |
US9042628B2 (en) | 3D-originated cardiac roadmapping | |
EP2672895B1 (en) | Medical imaging device for providing an image representation supporting the accurate positioning of an invention device in vessel intervention procedures | |
US8090174B2 (en) | Virtual penetrating mirror device for visualizing virtual objects in angiographic applications | |
US9095308B2 (en) | Vascular roadmapping | |
US20100292565A1 (en) | Medical imaging medical device navigation from at least two 2d projections from different angles | |
JP2012505009A5 (es) | ||
JP2008532612A (ja) | 診療処理中の3次元ボリュームデータとの2次元情報の位置合わせのための画像処理システム及び方法 | |
JP4740348B2 (ja) | X線診断装置 | |
JP2000217035A (ja) | X線診断装置 | |
JP2009022754A (ja) | 放射線画像の位置揃えを補正する方法 | |
CN111657978A (zh) | 解剖体表示与实况图像的配对 | |
KR20170057141A (ko) | Ct 이미지를 위한 국소 적용 투명성 | |
Penney et al. | An image-guided surgery system to aid endovascular treatment of complex aortic aneurysms: description and initial clinical experience | |
KR101703564B1 (ko) | 혈관 정보를 포함하는 의료 영상을 디스플레이하는 장치 및 방법 | |
van den Berg | Update on new tools for three-dimensional navigation in endovascular procedures | |
CN107347249B (zh) | 自动移动检测 | |
Homan et al. | Automatic 2D-3D Registration without Contrast Agent during Neurovascular Interventions | |
Alhrishy et al. | Remapping of digital subtraction angiography on a standard fluoroscopy system using 2D-3D registration |