ES2908571T3 - Identificación de ramas de un vaso sanguíneo - Google Patents

Identificación de ramas de un vaso sanguíneo

Info

Publication number
ES2908571T3
ES2908571T3 ES17736788T ES17736788T ES2908571T3 ES 2908571 T3 ES2908571 T3 ES 2908571T3 ES 17736788 T ES17736788 T ES 17736788T ES 17736788 T ES17736788 T ES 17736788T ES 2908571 T3 ES2908571 T3 ES 2908571T3
Authority
ES
Spain
Prior art keywords
search
image
branch
region
branching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17736788T
Other languages
English (en)
Inventor
Ajay Gopinath
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LightLab Imaging Inc
Original Assignee
LightLab Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LightLab Imaging Inc filed Critical LightLab Imaging Inc
Application granted granted Critical
Publication of ES2908571T3 publication Critical patent/ES2908571T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0066Optical coherence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/02007Evaluating blood vessel condition, e.g. elasticity, compliance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20032Median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30021Catheter; Guide wire
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Vascular Medicine (AREA)
  • Cardiology (AREA)
  • Physiology (AREA)
  • Endoscopes (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Analysis (AREA)

Abstract

Un procedimiento implementado por ordenador de detección de una o más ramas de un vaso sanguíneo que comprende almacenar uno o más conjuntos de datos de imágenes intravasculares del vaso sanguíneo, comprendiendo cada conjunto de datos intravasculares una pluralidad de líneas A; detectar un límite de luz en una primera imagen de línea A generada a partir de un conjunto de líneas A de la pluralidad de líneas A, en el que la primera imagen de línea A tiene una dimensión r y una dimensión de línea A; especificar una distancia de búsqueda predeterminada T; definir una región de búsqueda, la región de búsqueda limitada por el límite de luz detectado y un límite compensado del mismo por la distancia predeterminada T; detectar bordes en la región de búsqueda; e identificar una región de ramificación candidata en respuesta a los bordes detectados.

Description

DESCRIPCIÓN
Identificación de ramas de un vaso sanguíneo
Referencia cruzada a solicitudes relacionadas
Esta solicitud reivindica la prioridad y el beneficio de la solicitud de patente provisional de EE. UU. n.° 62/322.771 presentada el 14 de abril de 2016.
Campo
La divulgación se refiere en general a sistemas y procedimientos adecuados para su uso en el campo del diagnóstico y formación de imágenes intravascular, más específicamente a sistemas y procedimientos que corroboran la identificación de ramas laterales, uniones u otras secciones o rasgos característicos de un vaso sanguíneo.
Antecedentes
La arteriopatía coronaria es una de las principales causas de muerte en todo el mundo. La posibilidad de diagnosticar, realizar un seguimiento y tratar mejor la arteriopatía coronaria puede ser de importancia vital. La tomografía de coherencia óptica (TCO) intravascular es una modalidad de formación de imágenes basada en catéter que usa luz para mirar dentro de las paredes de las arterias coronarias y generar imágenes de las mismas para su estudio. Utilizando luz coherente, interferometría y microóptica, la TCO puede proporcionar tomografía in vivo con velocidad de vídeo dentro de un vaso enfermo con resolución a nivel de micrómetro.
Ver las estructuras subsuperficiales con alta resolución usando sondas de fibra óptica hace que la TCO sea especialmente útil para la formación de imágenes mínimamente invasiva de tejidos y órganos internos. Este nivel de detalle hace posible que un médico use la TCO para diagnosticar, así como realizar un seguimiento de, la progresión de la arteriopatía coronaria. Las imágenes de TCO proporcionan visualización de alta resolución de la morfología de arteria coronaria y se pueden usar solas o en combinación con otra información tal como datos de angiografía y otras fuentes de datos de sujeto, para ayudar en el diagnóstico y la planificación de tratamiento.
La formación de imágenes de TCO de partes del cuerpo de un paciente proporciona una herramienta de diagnóstico útil para médicos y otros. Por ejemplo, la formación de imágenes de arterias coronarias por TCO intravascular puede revelar la localización de un estrechamiento o estenosis, lo que reduce el flujo sanguíneo e incrementa el riesgo de isquemia. Esta información ayuda a los cardiólogos a elegir entre una revascularización coronaria quirúrgica invasiva y un procedimiento basado en un catéter menos invasivo tal como angioplastia o implantación de endoprótesis vascular para mitigar la estenosis y restablecer el flujo sanguíneo. La presencia de ramas laterales arteriales en la región de la estenosis también afecta el flujo sanguíneo a través de la arteria y, por lo tanto, es un factor importante cuando se diseña un plan de tratamiento para el paciente.
La evaluación cuantitativa de patología vascular y su progresión implica el cálculo de diferentes medidas cuantitativas tales como descensos de presión, que se pueden basar en la identificación exacta del flujo de fluido y la geometría de la luz, incluyendo la geometría de rama lateral. Las ramas laterales que se extienden desde una luz en las imágenes de TCO a menudo no se identifican fácilmente. En parte, esto se debe a que las ramas laterales pueden estar oscurecidas por la aguja guía usada en diversas sondas de TCO u oscurecidas de otro modo por pilares de endoprótesis vascular, sangre y sombras.
Además, las sombras y otros artefactos de datos de formación de imágenes pueden ser difíciles de resolver y eliminar. Como resultado, los puntos de referencia importantes a lo largo de una arteria tales como ramas laterales se pueden confundir con tejido o simplemente no identificarse. Dado que la colocación de una endoprótesis vascular sobre una rama lateral puede ser perjudicial o, cuando se realiza, se debe hacer con conocimiento, existe la necesidad de una técnica fiable que pueda identificar ramas laterales.
Un artículo por Ancong Wang et al., "3D assessment of stent cell size and side branch access in intravascular optical coherence tomographic pullback runs", Computerized medical imaging and graphics: the official journal of the Computerized Medical Imaging Society, 7 de septiembre de 2013, páginas 113 - 122, Estados Unidos, DOI: 10.1016/j.compmedimag.2013.08.007, divulga la evaluación de estructuras de ramificación vascular cerca de células de endoprótesis vascular a partir de retrocesos de TCOIV. La segmentación de endoprótesis vascular asistida por el usuario tiene lugar por ajuste de elipse por mínimos cuadrados. Las ramas laterales se detectan después de enmascarar el catéter y el cable guía, filtrar y suavizar de forma gausiana la mediana y a continuación detectar cambios abruptos en la distancia.
El documento US 8 831 321 B1 se refiere a detección de ramas laterales en imágenes de TCOIV con generación de salida visual así como a detección de pared arterial. El sistema busca patrones de borde en dirección radial después de filtrar y suavizar la mediana y busca cambios de intensidad bruscos en varias tramas en 3 bandas de dirección radial. Se retira la aguja guía.
Un artículo por G. Unal et al., "Shape-Driven Segmentation of the Arterial Wall in Intravascular Ultrasound Images", IEEE TRANSACTIONS ON INFORMATION TECHNOLOGY IN BIOMEDICINE, IEEE SERVICE CENTER, LOS ALAMITOS, CA, US, vol. 12, n.° 3, 1 de mayo de 2008, páginas 335 - 347, ISSN: 1089-7771, DOI: 10.1109/TITB.2008.920620, divulga un análisis de secuencias de USIV con detección de ramas laterales. El sistema segmenta los límites de las luces, retira los artefactos de catéter y realiza la búsqueda radial en tres bandas espaciales. Las ramas luminales se detectan de acuerdo con rasgos característicos de intensidad radial.
La presente divulgación aborda estos retos y otros.
Sumario
En parte, la divulgación se refiere a un procedimiento de detección de una o más ramas de un vaso sanguíneo, como se expone en las reivindicaciones adjuntas. El procedimiento incluye almacenar uno o más conjuntos de datos de imágenes intravasculares del vaso sanguíneo, comprendiendo cada conjunto de datos intravasculares una pluralidad de líneas A; detectar un límite de luz en una primera imagen de línea A generada a partir de un conjunto de líneas A de la pluralidad de líneas A, en el que la primera imagen de línea A tiene una dimensión r y una dimensión de línea A; especificar una distancia de búsqueda predeterminada T: definir una región de búsqueda, la región de búsqueda limitada por el límite de luz detectado y un límite compensado de la misma por la distancia predeterminada T; detectar bordes en la región de búsqueda; e identificar la región de ramificación candidata en respuesta a los bordes detectados.
En un modo de realización, el procedimiento incluye aplanar la imagen de línea A usando un primer operador de procesamiento de imágenes; aplicar suavizado de mediana a la imagen de línea A usando un segundo operador de procesamiento de imágenes; y aplicar suavizado a la imagen de línea A usando un tercer operador de procesamiento de imágenes para generar una imagen filtrada. En un modo de realización, el procedimiento incluye identificar un primer par mínimo-máximo en la imagen filtrada, en el que una o más distancias entre el primer par mínimo-máximo define una primera ventana de búsqueda. En un modo de realización, el procedimiento incluye identificar un segundo par mínimo-máximo en la imagen filtrada, en el que una o más distancias entre el segundo par mínimo-máximo define una segunda ventana de búsqueda.
En un modo de realización, el procedimiento incluye buscar a lo largo de la dimensión r en la correspondiente imagen de entrada preprocesada dentro de la primera ventana de búsqueda. En un modo de realización, el procedimiento incluye designar píxeles por debajo del umbral de ruido de fondo localizados en la primera ventana de búsqueda como correspondientes a la región de ramificación candidata. El umbral de ruido de fondo puede ser menor que aproximadamente 2 mm. En un modo de realización, el procedimiento incluye dividir la región de rama candidata en tres bandas, en el que la suma de los anchos de las tres bandas es igual a T. En un modo de realización, el procedimiento incluye para cada banda, acumular píxeles a lo largo de cada línea A que corresponden a la región de ramificación candidata.
En un modo de realización, el procedimiento incluye en el que si una línea A particular tiene más de entre aproximadamente un 10 % y aproximadamente un 30 % de píxeles marcados como una rama candidata, marcar esa línea A en esa banda como correspondiente a una rama. En un modo de realización, el procedimiento incluye la salida de un conjunto de líneas A para cada banda que corresponde a una rama candidata.
En un modo de realización, el procedimiento incluye generar una matriz de ramificación usando tramas de un retroceso, comprendiendo las tramas líneas A y datos angulares. En un modo de realización, el procedimiento incluye aislar píxeles correspondientes a una agrupación de las tres bandas y una agrupación de las primeras dos bandas para seleccionar píxeles correspondientes a una rama lateral. En un modo de realización, el procedimiento incluye retirar una región de aguja guía de la matriz de ramificación. En un modo de realización, el procedimiento incluye eliminar ramas que aparecen solo en una trama. En un modo de realización, el procedimiento incluye replicar la matriz de ramificación para tener en cuenta la superposición en cero.
En un modo de realización, la primera banda varía de 0 a T/3, y en el que la segunda banda varía de T/3 a 2/3T, y en el que la tercera banda varía de 2/3T a T. En un modo de realización, la primera banda varía de 0 a T/3, y en el que la segunda banda varía de T/3 a 2/3T, y en el que la tercera banda varía de 2/3T a T. En un modo de realización, el procedimiento incluye visualizar una o más ramas laterales detectadas en una interfaz de usuario. En un modo de realización, el procedimiento incluye validar una o más ramas laterales candidatas usando una matriz de rama, la matriz de rama generada usando píxel seleccionado de dos o más bandas, en el que la suma de las bandas es T.
Otros rasgos característicos y ventajas de los modos de realización divulgados serán evidentes a partir de la siguiente descripción y los dibujos adjuntos.
Breve descripción de los dibujos
Las figuras no están necesariamente a escala sino que la atención se centra en general en los principios ilustrativos. Las figuras se deben considerar ilustrativas en todos los aspectos y no pretenden limitar la divulgación, de la que su alcance se define únicamente por las reivindicaciones.
La FIG. 1 es un diagrama de un sistema de formación de imágenes intravasculares, que incluye un módulo de detección de ramas laterales automatizado de acuerdo con un modo de realización ilustrativo de la divulgación.
La FIG. 2A es una imagen de línea A polar de una región de interés en un vaso sanguíneo que tiene una rama lateral de acuerdo con un modo de realización ilustrativo de la divulgación.
La FIG. 2B es una imagen en sección transversal de un vaso sanguíneo correspondiente a la imagen de línea A de la FIG. 2A de acuerdo con un modo de realización ilustrativo de la divulgación.
La FIG. 3 es una versión aplanada de la imagen mostrada en la FIG. 2A de acuerdo con un modo de realización ilustrativo de la divulgación.
La FIG. 4 es una imagen que muestra la detección de bordes de una rama lateral de acuerdo con un modo de realización ilustrativo de la divulgación.
Las FIGS. 5A, 5B, 5C y 5D son imágenes de línea A procesadas de imagen después del aplanamiento en las que una dimensión radial r es perpendicular a una dimensión de línea A y diversas curvas en relación con un ruido de fondo para diferentes valores de r de acuerdo con un modo de realización ilustrativo de la divulgación.
La FIG. 6 es una imagen que muestra diversas bandas o zonas seleccionadas para buscar ramas laterales en la que las bandas o zonas se especifican en función de diferentes profundidades de la luz.
La FIG. 7 es una vista de TCO en sección transversal, una vista de TCO longitudinal o en modo L, y una matriz de ramificación con ramas candidatas y una aguja guía.
La FIG. 8 es una matriz de ramificación que se analiza para identificar diversos candidatos a rama en una matriz de ramificación procesada u operada de acuerdo con un modo de realización ilustrativo de la divulgación.
Descripción detallada
La divulgación se refiere a un procedimiento automatizado de detección de ramas con respecto a un vaso sanguíneo con imágenes formadas usando una modalidad intravascular tal como TCO, USIV u otras modalidades de formación de imágenes. El término rama se refiere a una o más ramas de un vaso sanguíneo tal como una rama lateral. En un modo de realización, la divulgación se refiere a realizar la detección de ramas como etapa intermedia en una cadena de módulos de programa informático, operadores y fases. Las diversas fases transforman los datos intravasculares y realizan la detección de rasgos característicos tales como la detección de sombras y luces en las mismas. La detección de ramas se puede realizar después de un retroceso de TCO o USIV y los datos intravasculares resultantes se pueden procesar usando un módulo de programa informático de detección de luz para extraer datos de luz tales como información relacionada con un límite de luz.
La invención se refiere a diversos procedimientos de recopilación y procesamiento de datos tales como tramas de datos intravasculares. En un modo de realización, una trama de datos intravasculares o datos de imágenes incluye una imagen en sección transversal generada a partir de una pluralidad de líneas A (líneas de exploración) obtenidas usando una sonda intravascular rotatoria. Se forma una imagen en sección transversal del vaso sanguíneo por una colección de líneas de exploración a medida que la sonda rota.
En un modo de realización, antes de la detección de ramas, se realiza la detección de sombras para identificar regiones de interés a partir de los datos intravasculares subyacentes. Las sombras son de interés porque pueden corresponder a diferentes rasgos característicos tales como cúmulos sanguíneos, ramas tales como ramas laterales y segmentos de aguja guía. Los segmentos de aguja guía surgen de la aguja guía usada para colocar la sonda de formación de imágenes intravascular en la arteria. En un modo de realización, una vez se ha identificado y validado una aguja guía (o agujas guía), las marcas posicionales o de píxel generadas por la aguja guía en una trama o línea de exploración dadas se pueden proporcionar a otros módulos de procesamiento de datos intravasculares. Como ejemplo, las detecciones de aguja guía validadas pueden ser una entrada para un módulo de detección de ramas laterales. El proceso de detección de ramas laterales también se puede introducir en otras fases de procesamiento para generar información de interés con respecto a los datos de retroceso intravascular.
La divulgación describe diversos procedimientos y subprocedimientos relacionados con la detección de ramas y la evaluación de parámetros relacionados con la misma. En un modo de realización, el procedimiento es un procedimiento automatizado que opera sobre datos intravasculares basados en una entrada de interfaz de usuario para detectar ramas laterales o como parte de otro procesamiento de imágenes que usa detecciones de ramas laterales como entradas.
Las ramas laterales en arterias coronarias se pueden usar para modelar el diámetro normal de la arteria en cada segmento a medida que la arteria se estrecha. La localización y diámetro de la rama lateral es una entrada importante para calcular y predecir el flujo a lo largo de la arteria.
Se ha desarrollado un nuevo algoritmo de programa informático que detectará automáticamente la localización de ramas laterales en imágenes de TCO y proporcionará una estimación de su diámetro. El algoritmo identificará las tramas y las líneas de exploración de las tramas de TCO que son parte de la región de ramificación.
En un modo de realización, los procedimientos basados en programa informático funcionan en líneas de exploración en el espacio de coordenadas polares y usan una combinación de filtros y algoritmos de procesamiento de imágenes para detectar los gradientes de intensidad ascendentes y descendentes de la pared de rama lateral. En un modo de realización, el programa informático genera una matriz a partir de datos de línea de exploración que se organiza en base a tramas a lo largo del retroceso. La matriz incluye datos del retroceso que recopilan información más allá de la luz por una cantidad de compensación u otra distancia que se extiende hacia el tejido o las ramas laterales. Esta matriz (matriz de ramificación) se analiza para obtener información sobre las posibles localizaciones de ramas y se usa para medir los diámetros de ramas.
Como se muestra en la FIG. 1, un sistema de recopilación de datos 30 para su uso en la recopilación de datos intravasculares incluye una sonda de recopilación de datos 7 que se puede usar para formar imágenes de un vaso sanguíneo. El sistema puede ser un TCO, USIV u otro sistema basado en la modalidad de formación de imágenes intravascular. Se puede usar una aguja guía para introducir la sonda de recopilación de datos 7 en el vaso sanguíneo. La sonda de recopilación de datos 7 se puede introducir y retirar a lo largo del vaso sanguíneo mientras se recopilan los datos. A medida que la sonda de formación de imágenes se retrae (retrocede) a lo largo del vaso, se recopilan una pluralidad de exploraciones o conjuntos de datos intravasculares (TCO, USIV u otros datos) a medida que la sonda o una parte de la misma rota. Esto se denomina retroceso en un modo de realización.
En un modo de realización, estos conjuntos de datos, o colecciones de tramas de datos de imágenes, se pueden usar para identificar regiones de interés tales como una estenosis o una endoprótesis vascular desplegada. En un modo de realización, la sonda de recopilación de datos 7 es una sonda de TCO. La sonda 7 puede incluir una punta de sonda 17. Cuando se usa una sonda de TCO para la sonda 7, se configura para su uso con una versión del sistema 10 que incluye un interferómetro y un sistema de procesamiento de datos. Las mediciones de distancia recopiladas usando la sonda de recopilación de datos TCO 7 se pueden procesar para generar tramas de datos de imágenes tales como vistas en sección transversal o vistas longitudinales (vistas en modo L) del vaso sanguíneo. Para mayor claridad, una vista en sección transversal puede incluir sin limitación una vista longitudinal. Estas imágenes se pueden procesar usando uno o más módulos o etapas de procesamiento de datos de imágenes.
La sonda de recopilación de datos 7 se muestra antes de o después de la inserción en un vaso sanguíneo. La sonda de recopilación de datos 7 está en comunicación óptica con un sistema de TCO 10. El sistema de TCO 10 que se conecta a la sonda de recopilación de datos 7 por medio de una fibra óptica 15 puede incluir una fuente de luz tal como un láser, un interferómetro que tiene un brazo de muestra y un brazo de referencia, diversas trayectorias ópticas, un generador de reloj, fotodiodos y otros componentes del sistema de TCO. La sonda 7 está dispuesta en una arteria 8 que tiene ramas B y cúmulos sanguíneos BP.
En un modo de realización, un receptor óptico 31, tal como un sistema basado en un fotodiodo equilibrado, puede recibir la luz que sale de la sonda de recopilación de datos 7. Un dispositivo informático 40 tal como un ordenador, procesador, ASIC u otro dispositivo puede ser parte del sistema de TCO 10 o se puede incluir como un subsistema separado en comunicación eléctrica u óptica con el sistema de TCO 10. El dispositivo informático 40 puede incluir dispositivo(s) de memoria 41, almacenamiento, buses y otros componentes adecuados para procesar datos y componentes de programa informático 44 tales como fases de procesamiento de datos de imágenes configuradas para visualización de endoprótesis vascular, detección de posición anómala de endoprótesis vascular, detección de luz, generación de compensación, definición de región de búsqueda 151, detección de ramas laterales 45, detección de aguja guía, generación de matriz de ramificación, recopilación de datos de retroceso y otros. Aunque el módulo de detección de ramas 45 se muestra como un módulo de programa informático separado, también puede ser uno de los componentes de programa informático 44. El programa informático de generación de matriz de ramificación puede ser parte del módulo de detección de rama 45 o ser un módulo de programa informático separado.
En diversos modos de realización, el dispositivo informático 40 incluye o accede a módulos de programa informático o programas 44, tales como un módulo de detección de ramas laterales, un módulo de detección de aguja guía, un módulo de detección de luz, un módulo de detección de endoprótesis vascular, un módulo de aclaramiento de máscara de mediana, un módulo de promedio de intensidad, un módulo de detección de posición anómala de endoprótesis vascular, un módulo de detección de carina y otros módulos de programa informático. Por ejemplo, el dispositivo informático 40 puede acceder a un módulo de detección de ramas laterales 45 para detectar ramas laterales. En particular, el módulo se calibra para usar determinadas características de ramificación como firmas para mejorar la exactitud de ramificación.
En un modo de realización, el módulo de detección de ramas laterales 45 genera u opera sobre una matriz de ramificación bidimensional y aísla las ramas laterales candidatas usando la matriz o como se describe de otro modo en el presente documento. En un modo de realización, las características de ramificación pueden incluir una disposición de rasgos característicos detectados intravascularmente tales como un ruido de fondo y gradientes ascendentes o descendentes. Los módulos de programa informático o programas 44 pueden incluir una cadena de procesamiento de datos de imágenes o módulos componentes de la misma y una o más interfaces gráficas de usuario (GUI).
Se usa una cadena de procesamiento de imágenes ejemplar para transformar los datos intravasculares recopilados en vistas bidimensionales y tridimensionales de vasos sanguíneos y endoprótesis vasculares. La cadena de procesamiento de datos de imágenes o cualquiera de los procedimientos descritos en el presente documento se almacena en la memoria y se ejecuta usando uno o más dispositivos informáticos tales como un procesador, dispositivo u otro circuito integrado.
Los módulos de programa informático 44 también pueden incluir rasgos característicos adicionales en relación con la detección de flujo sanguíneo. Los módulos de programa informático 44 también pueden incluir o estar en comunicación con los componentes de programa informático de interfaz de usuario para alternar las vistas de flujo sanguíneo de rama lateral y visualizar y alternar los diversos modos de visualización de interfaz de usuario tales como planificación de endoprótesis vascular, ejecución y otros modos de visualización descritos en el presente documento.
Como se muestra en la fig. 1, una pantalla 46 también puede ser parte de un sistema de recopilación y procesamiento de datos intravasculares 10 para mostrar información 47 tal como vistas en sección transversal y longitudinal de un vaso sanguíneo generado usando datos de imágenes recopilados.
El sistema de recopilación de datos 10 se puede usar para visualizar datos de imágenes relacionados con el flujo sanguíneo asociado con ramas laterales detectadas para el vaso. En un modo de realización, una o más etapas se pueden realizar automáticamente o sin la entrada de usuario distinta de la entrada de usuario inicial para navegar en relación con una o más imágenes, introducir información, seleccionar o interactuar con una entrada tal como un controlador o componente de interfaz de usuario, o de otro modo indicar una o más salidas del sistema. En un modo de realización, se presenta una vista de flujo sanguíneo como una opción para seleccionar para facilitar la revisión de una vista bi o tridimensional de una representación del vaso y una o más ramas laterales. Alternar entre uno o más modos de visualización en respuesta a entradas de usuario se puede realizar en relación con diversas etapas descritas en el presente documento.
Las representaciones de una endoprótesis vascular y un límite de luz tales como imágenes de TCO o USIV de los mismos se pueden mostrar a un usuario por medio de la pantalla 46. La detección de ramas laterales, detección de sombras y detección de endoprótesis vasculares se realizan antes de la visualización de estos rasgos característicos y de cualquier codificación o marcado con indicaciones de identificación que se pueden incluir en la imagen visualizada. Esta información basada en TCO 47 se puede visualizar usando una o más interfaces gráficas de usuario (GUI). Las imágenes de las FIGS. 14A, 14B y 22-26 son ejemplos de información 47 que se puede visualizar y con la que se puede interactuar usando una GUI y diversos dispositivos de entrada.
Además, esta información 47 puede incluir, sin limitación, datos de exploración en sección transversal, exploraciones longitudinales, gráficos de diámetro, máscaras de imagen, regiones de sombras, endoprótesis vasculares, áreas de mala aposición, borde de luz, distancias perpendiculares medidas en relación con un borde de luz detectado automáticamente y una distancia perpendicular que se extiende desde el borde de luz que tiene una distancia T, y otras imágenes o representaciones de un vaso sanguíneo o las mediciones de distancia subyacentes obtenidas usando un sistema de TCO y una sonda de recopilación de datos.
El dispositivo informático 40 también puede incluir programa informático o programas 44, que se pueden almacenar en uno o más dispositivos de memoria 41, configurados para identificar los pilares de endoprótesis vascular y niveles de aposición anómala (tales como en base a un umbral y una comparación con la distancia medida) y otros rasgos característicos de vasos sanguíneos tales como como con texto, flechas, codificación de color, resaltado, líneas de contorno u otras indicaciones legibles por seres humanos o máquinas adecuadas.
La pantalla 46 representa diversas vistas del vaso sanguíneo, de acuerdo con un modo de realización. La pantalla puede incluir un menú para mostrar u ocultar diversos rasgos característicos, tales como un menú para seleccionar rasgos característicos de vasos sanguíneos para visualizar y un menú para seleccionar el ángulo de cámara virtual de la pantalla. El usuario puede alternar entre múltiples ángulos de visión en la pantalla de usuario. Además, el usuario puede alternar entre diferentes ramas laterales en la pantalla de usuario, tal como seleccionando ramas laterales particulares y/o seleccionando una vista asociada con una rama lateral particular.
Por ejemplo, el usuario puede seleccionar una vista de orificio, que puede ser la vista predeterminada en un modo de realización o una vista carinal/de carina para permitirle ver una carina para una o más ramas laterales. En un modo de realización, la cadena de procesamiento de imágenes y los módulos de programa informático asociados detectan el límite de luz, agujas guía, otras sombras, endoprótesis vasculares y las ramas laterales en la arteria de la que se forman imágenes usando los datos recopilados durante un retroceso.
Por ejemplo, el límite de luz se puede detectar usando mediciones de distancia obtenidas de las señales ópticas recopiladas en la punta de sonda 17 usando un módulo o componente de programa informático de detección de luz. En lugar de una fibra, se puede usar un transductor de ultrasonidos adecuado para recopilar señales de USIV con respecto a la pared del vaso y una o más endoprótesis vasculares.
El programa informático de detección de luz puede incluir uno o más etapas. Por ejemplo, para realizar la detección de luz en un modo de realización, se puede aplicar un filtro u otro dispositivo de procesamiento de imágenes a una imagen bidimensional para detectar bordes en las imágenes, los bordes indican un límite de luz. En otro modo de realización se usa un enfoque basado en líneas de exploración. Durante uno o más retrocesos, se recopilan señales ópticas o de ultrasonidos como líneas de exploración con respecto a un vaso sanguíneo y una o más endoprótesis vasculares dispuestas en la luz del vaso. En un modo de realización, el programa informático de detección de luz que ejecuta un dispositivo informático genera una o más imágenes a partir del conjunto de líneas de exploración usando un dispositivo informático.
Además, la detección de luz puede incluir generar una máscara binaria de la imagen vascular usando el dispositivo informático, en el que la máscara binaria se genera usando un umbral de intensidad. Como otra etapa, se define una pluralidad de líneas de exploración en la máscara binaria. Con respecto a cada línea de exploración de la pluralidad de líneas de exploración, en un modo de realización se identifica una región como tejido de límite de luz en la misma. Los segmentos de contorno del límite se identifican en base a la presencia de una región de tejido de límite de luz. En un modo de realización, el procedimiento identifica segmentos de contorno vecinos. El procedimiento de detección del límite de luz también puede incluir interpolar datos de contorno faltantes entre segmentos de contorno vecinos. Como resultado, en un modo de realización, los segmentos de contorno vecinos y los datos de contorno faltantes interpolados definen el límite de luz.
Una vez que los datos intravasculares, tales como tramas y líneas de exploración del retroceso, se obtienen con una sonda y se almacenan en la memoria 41, se pueden procesar para generar información 47, tal como una vista en sección transversal, longitudinal y/o tridimensional del vaso sanguíneo a lo largo de la región de retroceso o un subconjunto de la misma. Estas vistas se pueden representar como parte de una interfaz de usuario como se muestra en las figuras. Las imágenes del vaso sanguíneo generadas usando las mediciones de distancia obtenidas del sistema de recopilación de datos intravasculares proporcionan información sobre el vaso sanguíneo y los objetos dispuestos en él.
En consecuencia, en parte, la divulgación se refiere a procedimientos basados en programa informático y sistemas y dispositivos relacionados adecuados para evaluar y representar información con respecto a un vaso sanguíneo, una endoprótesis vascular u otra información vascular de interés. Los datos intravasculares se pueden usar para generar vistas 2D tales como vistas en sección transversal y longitudinal de un vaso sanguíneo antes o después de un despliegue de endoprótesis vascular inicial o procedimiento relacionado con endoprótesis vascular correctivo. Los datos intravasculares obtenidos usando una sonda de recopilación de datos y diversos módulos de programa informático de procesamiento de datos se pueden usar para identificar, caracterizar y visualizar una endoprótesis vascular y/o una o más propiedades relacionadas con la endoprótesis vascular y/o la luz en la que está dispuesta.
La posición de endoprótesis vascular en relación con la pared del vaso sanguíneo y en relación con las aberturas para ramas laterales en la pared del vaso sanguíneo se puede visualizar de modo que las aberturas de ramas laterales no estén bloqueadas por la endoprótesis vascular. En un modo de realización, las ramas laterales se identifican y visualizan para ayudar en la planificación del tratamiento y la colocación de la endoprótesis vascular.
La FIG. 2A es una imagen de TCO de línea A polar de una región de interés en un vaso sanguíneo que tiene una rama lateral 102. La luz del vaso sanguíneo 100 está en la parte superior de la imagen. El límite de luz 106 (es decir, el borde de la pared del vaso sanguíneo) está demarcado por una línea de puntos como se muestra, y el tejido de pared del vaso sanguíneo 120 llena la mayor parte de la imagen. La sombra de aguja guía 104 es el rasgo característico vertical en el lado derecho de la imagen. En la imagen, el límite de luz 106 proporciona la respuesta más brillante y la señal de TCO se atenúa hasta una profundidad de penetración en tejido. Las ramas laterales 102 aparecen como sombras verticales, o regiones sin señal, en la pared del vaso sanguíneo. En parte, la divulgación se refiere a detectar ramas laterales tales como la rama 102.
En un modo de realización, la detección de aguja guía se realiza inicialmente de modo que las sombras y segmentos de aguja guía se puedan excluir de las sombras de ramas laterales para incrementar la exactitud de detección. En diversos modos de realización, el sistema de recopilación de datos intravasculares y los módulos de programa informático asociados detectan características de ramificación en los datos de imágenes de TCO dentro de una región de profundidad de exploración predeterminada T. El valor de T se puede usar para definir una región de búsqueda 151. El valor de T se puede introducir por medio de una interfaz gráfica de usuario.
En un modo de realización, T se especifica como aproximadamente 660 |jm y se usa como una compensación de la luz para definir un límite de luz de compensación demarcado por la línea 108. La región de interés/búsqueda de detección de ramas se define, en un modo de realización, por la línea 108, que es el límite de luz 106 desplazado por la distancia T y el límite de luz 106. La tira o cinta curva 151 de ancho T limitada por la línea de puntos (límite de luz 106) y el límite de luz desplazado 108 especifica un subconjunto de datos de imágenes intravasculares para buscar ramas laterales. T puede variar de aproximadamente 500 jm a aproximadamente 800 jm . La FIG. 2B es una imagen en sección transversal 130 del vaso sanguíneo correspondiente a la imagen de línea A 85 de la FIG. 2A. En la FIG. 2B, el límite de luz 106 se muestra en relación con la sonda 7 y la rama lateral 102. Se muestra una parte de la región de búsqueda 151 adyacente a la rama lateral 102. La región 102 es un ejemplo de una región de ramificación detectable usando uno o más procedimientos y sistemas descritos en el presente documento.
Modo de realización de detección de ramas
El procedimiento de ramificación basado en programa informático en primer lugar explora una firma o patrón de ramificación definido por un ruido de fondo 110 (también denominado NF), o una región sin señal, entre un gradiente de respuesta descendente 112 y un gradiente de respuesta ascendente 114. En un modo de realización, el ruido de fondo es la zona o región en la que la intensidad del tejido ha caído al mismo valor que en la luz aclarada. El ruido de fondo 110 puede corresponder a la región de transición entre gradientes de intensidad ascendentes y descendentes en una zona o región de búsqueda. A continuación, cualquier trama de imagen que se ajuste a esta firma o patrón se marca como regiones de ramificación candidatas. A continuación, las regiones de ramificación candidatas se combinan en todas las tramas. A su vez, las regiones de ramificación se analizan opcionalmente en relación con una matriz de ramificación y se estima el diámetro de cada rama lateral. El procedimiento de ramificación basado en programa informático se describe con más detalle en el presente documento.
Inicialmente, después de un retroceso, las imágenes de línea A sin procesar se preprocesan para aplanar las imágenes, haciendo más fácil identificar ramas laterales. La FIG. 3 es una imagen intravascular 125 que es una versión aplanada de la imagen mostrada en la FIG. 2A. Las imágenes de línea A se aplanan usando el límite de luz detectado (106 en la FIG. 2A) como el borde superior de la imagen aplanada. La imagen 127 también se puede filtrar usando suavizado de imagen de mediana y gaussiano como se muestra en la FIG. 4.
La imagen preprocesada 125 de la FIG. 3 se analiza para detectar el ruido de fondo NF. El ruido de fondo NF se puede usar como umbral para identificar píxeles por debajo del ruido de fondo como regiones de ramificación candidatas. El umbral de ruido de fondo se calcula en función de un histograma de imagen o niveles de ruido de TCO conocidos de diferentes muestras. En un modo de realización, se determina que el ruido de fondo es de aproximadamente 1,5 mm a aproximadamente 2,5 mm desde la luz en la dirección de la compensación de T. En un modo de realización, el ruido de fondo es de aproximadamente 2 mm.
En un modo de realización, una parte de la imagen aplanada 125 de la FIG. 3 que contiene una rama lateral candidata se procesa a continuación usando un filtro de detección de bordes 133 o un filtro F1 o F2. Para reducir el procesamiento de datos y mejorar la eficacia, el filtrado se realiza preferentemente sobre los datos correspondientes a la profundidad de exploración predeterminada T. En la FIG. 4, la profundidad de exploración T es de 660 jm desde el límite de luz, pero se puede usar cualquier profundidad compatible con TCO. La imagen 127 se filtra usando el filtro 133 para generar la imagen filtrada 135. Se puede aplicar un filtro de detección de bordes para identificar los bordes izquierdos 126 y los bordes derechos 128 de la rama lateral y la sombra de aguja guía. En un modo de realización, el filtro 133 es un filtro gaussiano. En un modo de realización, el filtro 133 son dos filtros tales como los filtros 133a, 133b, también denominados primer filtro F1 y segundo filtro F2. En un modo de realización, los filtros 133a, 133b son uno o más filtros de hallazgo de bordes separables. En un modo de realización, los filtros de hallazgo de bordes usados en el presente documento son filtros de tipo rectangular.
Además, en un modo de realización, el filtro es un filtro de suavizado. En un modo de realización, el filtro 133 es un filtro de hallazgo de bordes. En un modo de realización, el filtro 133 es un filtro de suavizado y de hallazgo de bordes que pueden ser los filtros F1 y F2.
Como etapa adicional, una imagen filtrada de borde tal como la imagen 135 de la FIG. 4 se analiza a lo largo de diversos valores de r como se muestra en la imagen 147 como se muestra en la FIG. 5A. En la FIG. 5A, las imágenes 147 se analizan a continuación para cada valor dimensional de r para todas o un subconjunto de todas las líneas A para detectar regiones de ramificación candidatas. A su vez, la imagen 147 se filtra para cada valor de r o un subconjunto del mismo filtrándola a lo largo del valor de r =20. De esta forma, la curva de filtro 149 de la FIG. 5B identifica picos mín-máx locales en la imagen filtrada 149 de la FIG. 5B para r=20. Este proceso se repite para todos o un subconjunto de los valores de r en un modo de realización para generar un conjunto de picos mín-máx locales.
Como se muestra en la FIG. 5A, se muestra una región de interés (RDI) 128 en relación con la luz 126. La RDI corresponde a la parte de luz detectada 126 que se desplaza por T. El eje vertical de la FIG. 5A y 5C corresponde a una dimensión r, ilustrándose una línea de puntos en r=20 que pasa a través del par de señales de luz 126 y el par de señales de RDI 128. Entre los índices del par mín-máx, que se muestran por los valores máx y mín en círculo en la curva de imagen filtrada de la FIG. 5B y la curva de intensidad de imagen de entrada preprocesada de la FIG. 5D.
Con respecto a la FIG. 5B, el eje vertical de la curva es la salida de filtro resultante de filtrar la FIG. 5A y las líneas A de eje horizontal. La FIG. 5D es una curva de intensidad de la imagen preprocesada de la FIG. 5C. En la FIG. 5D, el eje vertical es la intensidad de imagen de entrada. En un modo de realización, el sistema busca a lo largo de la dimensión 'r' en la correspondiente imagen de entrada preprocesada para todos o un subconjunto de los valores de r que abarcan las líneas A de la imagen.
El ruido de fondo de la FIG. 3 también se muestra en la curva de intensidad de la FIG. 5D. El ruido de fondo establece un umbral por debajo del que se identifican las ramas laterales candidatas 138. En un modo de realización, el umbral de ruido de fondo se basa en la estimación del ruido de fondo y se establece de modo que las muestras cercanas al ruido de fondo sean menores que este umbral mientras que se garantiza que las muestras de tejido serán mayores que él. El sistema usa uno o más componentes de programa informático para buscar píxeles por debajo del umbral de ruido de fondo que se especifica en la curva 161 de la FIG. 5D en las correspondientes regiones de la imagen aplanada (FIG. 5C). En referencia a la FIG. 5A, se filtra una imagen filtrada de borde 147 para identificar máximos locales y mínimos locales en "r = 20". En un modo de realización, este filtrado y gráfico del resultado filtrado se realiza para todos o un subconjunto de los valores de r. Los valores de r están a lo largo de los ejes verticales en las FIGS. 5A y 5C. En la FIG. 5B, el eje x corresponde al número de línea A y el eje y corresponde a r. En referencia a la FIG. 5B, el procedimiento mín-máx identifica los respectivos pares mín-máx locales 130a, 130b y 132a, 132b como se muestra.
Además, con respecto a la FIG. 5B, el procedimiento busca en la curva 149 dentro del intervalo de valores 134 entre cada par mín-máx un ruido de fondo en la correspondiente imagen aplanada 160 de la FIG. 5C. Los datos intravasculares de la imagen aplanada se trazan como línea A (eje x) frente a intensidad (eje y) para identificar las líneas de exploración que contienen la respuesta de TCO más débil. Las regiones de la imagen aplanada que descienden por debajo de un umbral predeterminado 136 se consideran regiones de ramificación candidatas 138. En un modo de realización, el umbral 136 es el ruido de fondo (NF). Por tanto, un mínimo local 130a, 132a (conjunto inferior de valores en círculo) típicamente se encontrará en un gradiente de respuesta descendente (112 en la FIG. 2A) y un máximo local 130b, 132b (conjunto superior de valores en círculo) típicamente se encontrará en un gradiente de respuesta ascendente (114 en la FIG. 2A).
En un modo de realización, la aparición de un pico y un valle corresponde a un cambio en la intensidad del gradiente que define un espacio de búsqueda. Si existe una señal por debajo del ruido de fondo en el espacio de búsqueda, entonces los correspondientes píxeles corresponden a regiones de ramificación candidatas. Estas regiones candidatas se analizan posteriormente para determinar si son ramas laterales válidas.
En un modo de realización, las regiones candidatas se dividen en bandas o zonas de búsqueda como se muestra en la FIG. 6. De esta forma, la especificación de las bandas/zonas a buscar facilita determinar regiones de ramificación candidatas. En un modo de realización, para cada línea A se divide en banda 1, banda 2 o banda 3. Las bandas son una fracción de T en un modo de realización. Estas bandas identifican qué conjunto de líneas A están potencialmente asociadas con una rama lateral. Cada línea A se revisa a tres o más profundidades diferentes, mostrándose las profundidades como las bandas divididas de la FIG. 6. Aquí existen tres profundidades iguales de 220 um, que corresponden a 1/3 de T cuando T es 660 |jm.
En un modo de realización, como parte de la selección/especificación de regiones a buscar, la región se divide o subdivide en tres bandas (banda 1, banda 2 y banda 3). En un modo de realización, cada banda se procesa por separado. Las bandas también se pueden procesar en paralelo o diferencialmente, comparando rasgos característicos de una banda con rasgos característicos en una o más de las otras bandas. Aunque se muestran tres bandas, se pueden especificar una, dos o más bandas para la búsqueda de ramas candidatas.
En un modo de realización, para cada banda de búsqueda especificada, el procedimiento acumula píxeles marcados a lo largo de cada línea A. Si una línea A particular tiene más de un 10-35 % de píxeles, se marca esa línea A en esa banda como correspondiente a rama. Este enfoque implica que al menos un 10-35 % de los píxeles en la región de búsqueda estaban en o por debajo del ruido de fondo.
En un modo de realización, los módulos de programa informático se usan para analizar una matriz de ramificación para aislar las regiones de ramas candidatas que tienen más probabilidades de ser ramas. Esta etapa se realiza en base a una o más reglas para las tres regiones de ramificación. La aguja guía se retira en algunos modos de realización.
En un modo de realización, se aborda la acumulación sanguínea y otras fuentes de positivos de rama falsos. Los trombos, acumulación de sangre y otros artefactos representan las causas principales de positivos falsos. La sangre atenúa la señal, que puede imitar la región de ramificación. Se calcula un umbral de intensidad que puede identificar los píxeles de acumulación de sangre para cada trama.
Se calcula un índice de bloqueo en base al número de píxeles de acumulación de sangre detectados dentro de la luz para cada rama detectada. Este índice se correlaciona con la acumulación de sangre y trombos dentro de la luz y proporciona una puntuación para cada rama detectada. Este índice es alto cuando existe mucha señal atenuando sangre o trombo dentro de la luz. Las ramas con un índice de bloqueo alto se rechazan como positivos falsos. Aquellas dentro de un intervalo aceptable se conservan como positivos verdaderos. Las ramas con un índice de bloqueo de intervalo medio se pueden marcar para revisión adicional.
La FIG. 7 es una vista de TCO en sección transversal, una vista de TCO longitudinal o en modo L, y una matriz de ramificación con ramas candidatas y una aguja guía. También se muestra una leyenda codificada por colores de diversas profundidades detectadas. En general, la profundidad desde la luz se asocia con un color y/o letra representativa del color para un intervalo de profundidades. Con respecto a la matriz de ramificación analizada de la FIG. 7, el color rojo o R es para el intervalo de aproximadamente 0 a aproximadamente 220 jm . A su vez, el color verde o G es para el intervalo de aproximadamente 220 jm a aproximadamente 440 jm . El color azul o B es para el intervalo de aproximadamente 440 jm a aproximadamente 660 jm . El color amarillo o Y es para el intervalo de aproximadamente 0 a aproximadamente 440 jm . Finalmente, el color cian o C es para el intervalo de aproximadamente 200 jm a aproximadamente 600 jm . El color blanco o W corresponde a las tres bandas (bandas 1, banda 2 y banda 3) y la distancia global T desde la luz tal como, por ejemplo, 0-660 jm . Estas indicaciones codificadas por colores se aplican a las FIG. 7 y 8. Se pueden usar otras indicaciones y símbolos para mostrar la agrupación de bandas que no sean de color en diversos modos de realización.
La matriz de ramificación 250 y 300 (FIGS. 7 y 8, respectivamente) muestra información de candidatos a rama de todas las tramas para todas las líneas A y para las 3 regiones (bandas 1, banda 2 y banda 3). Con respecto a la relación de las diferentes bandas, la siguiente leyenda de agrupaciones de bandas y colores se aplica a las matrices de ramificación 250, 300 de las FIGS. 7 y 8. Los colores también se identifican por conectores de línea y la primera letra del color, pero sin punta de flecha para distinguir el uso de las letras A-E para mostrar ramas laterales candidatas.
Leyenda de matriz de ramificación (distancia desde luz /agrupaciones de banda, por ejemplo, T=660 jm):
• Banda 1 (0 - 220 jm ): Rojo (R)
• Banda 2 (220 jm - 440 jm ): Verde (G)
• Banda 3 (440 jm - 660 jm ): Azul (B)
• Bandas 1,2,3 (0 - 660 jm ): Blanco (W)
• Bandas 1 - 2 (0 - 440 jm): Amarillo
• Bandas 2 - 3 (jm 220 - 660 jm): Cian
La FIG. 8 es una matriz de ramificación 300 y la matriz después de que se opere 305. La matriz 300 se opera para retirar los datos de la aguja guía. Después de la retirada de datos de la aguja guía, la matriz 305 muestra las ramas candidatas A, B, C, D y E con los datos de la aguja guía retirados. Estas ramas se identifican con flechas que tienen puntas de flecha en las imágenes 300, 305. En un modo de realización, se aplican uno o más operadores morfológicos para aislar y potenciar además la matriz 305 de modo que las ramas se definan más claramente como se muestra en la FIG. 305. Los datos de la matriz de ramificación 300 se pueden comparar con otros datos de tramas cruzadas para potenciar la exactitud de detección. En un modo de realización, una matriz de ramificación dada se ensambla en una secuencia trama por trama.
Con respecto a la FIG. 8, la matriz 300 se puede procesar y operar para proporcionar una matriz procesada o filtrada de candidatos a rama 305. Estas etapas pueden incluir una o más de las siguientes etapas de procesamiento o filtrado. El procedimiento de detección de ramificaciones usando una matriz de ramificación puede incluir generar una matriz de ramificación. El procedimiento puede incluir aislar píxeles con píxeles blancos W (las 3 bandas) y amarillos Y (las dos primeras bandas) que son vecinos de píxeles blancos. El procedimiento puede incluir retirar regiones de aguja guía.
El procedimiento también puede incluir eliminar ramas que aparecen solo en 1 trama. En un modo de realización, dado que los ángulos abarcan 360 grados, dependiendo de la orientación y superposición de los extremos de la matriz (se basa en una disposición cilíndrica), las secciones de la matriz se pueden replicar para cubrir los ejes horizontales superior e inferior de la matriz. En un modo de realización, los operadores morfológicos pueden incluir la aplicación de una operación de abertura de imagen 1D (7 píxeles) a lo largo de la dimensión de línea A para eliminar las líneas A con una cantidad insignificante de cobertura de datos. Además, se pueden aplicar filtros para enfatizar las conexiones para realizar un análisis de componentes conectados para identificar un componente individual como una sola rama. Los datos de tramas cruzadas también se pueden usar para conectar manchas en la matriz que son parte de una rama.
En parte, la divulgación se refiere a un procedimiento automatizado de detección de ramas que incluye la etapa de detectar características de ramificación dentro de una región que tiene una profundidad de exploración T. En un modo de realización, T es una distancia medida desde la luz y se puede usar para definir un límite compensado por una distancia T desde el límite de luz. En un modo de realización, T varía de aproximadamente 400 |jm a aproximadamente 700 |jm. En un modo de realización, T es de aproximadamente 660 |jm. En un modo de realización, T es una aproximación de un grosor de pared de vaso o un grosor de profundidad de exploración seleccionado para especificar una zona de búsqueda para hallar ramas laterales. En un modo de realización, las características de ramificación incluyen una o más de las siguientes, un ruido de fondo o una región sin señal entre gradientes descendentes y ascendentes. El uso de segmentos ascendentes y descendentes en relación con un ruido de fondo como firma de detección mejora ventajosamente la exactitud de detección en relación con ramas grandes.
En un modo de realización, el procedimiento automatizado de detección de ramas incluye la etapa de combinar regiones de ramificación candidatas en todas las tramas, sustancialmente todas las tramas o M tramas, en el que M es 2 o más. En un modo de realización, el procedimiento automatizado de detección de ramas incluye la etapa de analizar las regiones de ramificación para identificar ramas candidatas y estimar el diámetro de rama de dichas ramas candidatas. En un modo de realización, se rastrean las ramas laterales que tienen un diámetro D mayor que aproximadamente 1 mm. En un modo de realización, una rama grande es una rama que tiene un diámetro D mayor que o igual a aproximadamente 1 mm.
Las ramas grandes hacen una mayor contribución al flujo y por tanto pueden afectar significativamente a FFR, VFR y otras mediciones basadas en flujo sanguíneo. Como resultado, una vez detectadas, las ramas que tienen diámetros de interés tales como los mayores que iguales a aproximadamente 1 mm, se rastrean y evalúan para verificar su caracterización como rama en oposición a una detección falsa tal como una sombra. Otros diámetros de interés pueden incluir un diámetro de rama D que varía de más de aproximadamente 0,4 mm a menos de aproximadamente 2 mm.
En un modo de realización, el procedimiento automatizado de detección de ramas incluye la etapa de generar una matriz bidimensional representativa de líneas A (también denominadas líneas de exploración) frente a tramas para definir una matriz de ramificación. En un modo de realización, el eje vertical se usa para representar las líneas A con unidades de ángulos tales como grados que varían de 0 a 360 grados y el eje horizontal tiene unidades correspondientes a números de tramas. El intervalo angular se puede mostrar como mayor que 360 grados; sin embargo, la sección de ángulo adicional de la matriz típicamente se superpone con valores angulares anteriores en la matriz.
En consecuencia, en un modo de realización, los números de trama pueden comenzar en 0 o 1 y continuar hasta J, en el que J es el número de tramas en el retroceso. El procedimiento automatizado de detección de ramas incluye la etapa de analizar la matriz de ramificación para aislar candidatos a rama. En un modo de realización, la detección de aguja guía y detección de luz se realizan antes de realizar la detección de ramas. La aguja guía visible en las tramas se retira en algunos modos de realización.
Un sistema de uno o más ordenadores se puede configurar para realizar operaciones o acciones particulares en virtud de tener programa informático, soporte lógico inalterable, soporte físico o una combinación de ellos instalados en el sistema que, en operación, provoca o hace que el sistema realice las acciones. Se pueden configurar uno o más programas informáticos para realizar operaciones o acciones particulares en virtud de incluir instrucciones que, cuando se ejecutan por un aparato de procesamiento de datos, hacen que el aparato, dispositivo informático, realice las acciones.
Un aspecto general incluye un procedimiento de detección automática de una o más ramas laterales que incluye generar una matriz de ramificación que comprende datos de línea de exploración y designadores de tramas. El procedimiento también incluye almacenar, usando un sistema de formación de imágenes intravasculares, uno o más conjuntos de datos de imágenes intravasculares del vaso sanguíneo; incluyendo cada conjunto de datos intravasculares una pluralidad de líneas A. El procedimiento también incluye generar una imagen de línea A con un límite de luz detectado del vaso sanguíneo. También se puede usar una T compensada para desplazar una representación de una luz detectada en una dirección que se aleja de la sonda de formación de imágenes hacia una región de tejido o rama.
En un modo de realización, el procedimiento también incluye incrementar la intensidad de los bordes en la imagen de línea A. El procedimiento también incluye suprimir regiones suaves en la imagen de línea A. El procedimiento también incluye especificar una distancia de búsqueda T compensada en relación con la luz. La T compensada puede definir una región o banda para buscar regiones de ramas laterales candidatas. El procedimiento también incluye identificar pares mín-máx locales en una imagen filtrada. En un modo de realización, el procedimiento también incluye buscar la dimensión radial r en la correspondiente imagen de entrada preprocesada.
En un modo de realización, el procedimiento también incluye marcar píxeles por debajo del umbral de ruido de fondo en la imagen de entrada preprocesada como regiones de ramificación candidatas. Otros modos de realización de este aspecto incluyen los correspondientes sistemas informáticos, aparatos y programas informáticos grabados en uno o más dispositivos de almacenamiento informáticos, cada uno configurado para realizar las acciones de los procedimientos.
Las implementaciones pueden incluir uno o más de los siguientes rasgos característicos. El procedimiento que incluye además: aplanar la imagen de línea A usando un primer operador de procesamiento de imágenes. El procedimiento también puede incluir aplicar suavizado de mediana a la imagen de línea A usando un segundo operador de procesamiento de imagen. El procedimiento también puede incluir aplicar suavizado gaussiano a una imagen de línea A usando un tercer operador de procesamiento de imagen.
En un modo de realización, el procedimiento incluye además dividir las regiones de ramificación candidatas en N bandas, tales como 1, 2, 3 o más bandas y procesar cada banda por separado. En un modo de realización, las bandas tienen el mismo grosor. En un modo de realización, el grosor o ancho de una banda es T/N para N bandas. El procedimiento incluye además acumular píxeles marcados a lo largo de cada línea A. Los píxeles se pueden marcar o rastrear de otro modo usando un programa informático para identificar un píxel dado como correspondiente a una sombra, un píxel de aguja guía, un píxel de rama tal como un píxel de rama lateral, un píxel de luz, un píxel de sangre y otros píxeles correspondientes a objetos intravasculares fotografiados o sombras o reflejos de los mismos.
En un modo de realización, si una línea A particular tiene más de entre aproximadamente un 10 % y aproximadamente un 30 % de píxeles marcados como rama, el procedimiento marca la línea A en esa banda como una rama o una línea A que contiene una rama. El procedimiento incluye además generar una matriz de ramificación durante el procesamiento trama por trama. El procedimiento incluye además aislar píxeles con píxeles blancos (las 3 bandas) y amarillos (las dos primeras bandas) que son vecinos de píxeles blancos. El procedimiento incluye además retirar la región de la aguja guía. El procedimiento incluye además eliminar ramas que aparecen solo en una trama. Por tanto, que no aparezca una rama en múltiples tramas se puede usar para excluir ramas candidatas. El procedimiento incluye además replicar la matriz de ramificación para tener en cuenta la superposición en cero. Las implementaciones de las técnicas descritas pueden incluir soporte físico, un procedimiento o proceso, o programa informático en un medio accesible por ordenador.
Rasgos característicos y modos de realización de programa informático no limitantes y para implementar la detección de ramas
La siguiente descripción pretende proporcionar una visión general del soporte físico del dispositivo y otros componentes operativos adecuados para realizar los procedimientos de la divulgación descritos en el presente documento. Esta descripción no pretende limitar los entornos aplicables o el alcance de la divulgación. De forma similar, el soporte físico y otros componentes operativos pueden ser adecuados como parte de los aparatos descritos anteriormente. La divulgación se puede poner en práctica con otras configuraciones de sistema, incluyendo ordenadores personales, sistemas multiprocesador, dispositivos electrónicos basados en microprocesadores o programables, PC en red, miniordenadores, ordenadores centrales y similares.
Algunas partes de la descripción detallada se presentan en términos de algoritmos y representaciones simbólicas de operaciones sobre bits de datos dentro de una memoria de ordenador. Estas descripciones y representaciones algorítmicas se pueden usar por expertos en campos relacionados con la informática y los programas informáticos. En un modo de realización, un algoritmo se concibe aquí, en general y en el presente documento, como una secuencia de operaciones autoconsecuente que da lugar a un resultado deseado. Las operaciones realizadas como paradas de procedimiento o descritas de otro modo en el presente documento son aquellas que requieren manipulaciones físicas de cantidades físicas. Normalmente, aunque no necesariamente, estas cantidades toman la forma de señales eléctricas o magnéticas que se pueden almacenar, transferir, combinar, transformar, comparar y manipular de otro modo.
A menos que se establezca específicamente de otro modo como es evidente del siguiente análisis, se aprecia que a lo largo de la descripción, los análisis que utilizan términos tales como "procesar" o "calcular" o "orientar" o "seleccionar" o "alternar" o "calcular" o "comparar " o "medir la longitud de arco" o "detectar" o "rastrear" o "enmascarar" o "muestrear" o "operar" o "generar" o "determinar" o "visualizar" o similares, se refieren a la acción y los procesos de un sistema informático, o dispositivo informático electrónico similar, que manipula y transforma datos representados como cantidades físicas (electrónicas) dentro de los registros y memorias del sistema informático en otros datos representados de forma similar como cantidades físicas dentro de las memorias o registros del sistema informático u otro de dichos dispositivos de almacenamiento, transmisión o visualización de información.
La presente divulgación, en algunos modos de realización, también se refiere a un aparato para realizar las operaciones en el presente documento. Este aparato se puede construir especialmente para los propósitos requeridos, o puede comprender un ordenador de propósito general selectivamente activado o reconfigurado por un programa informático almacenado en el ordenador.
Los algoritmos y visualizaciones presentados en el presente documento no se relacionan inherentemente con ningún ordenador u otro aparato particular. Se pueden usar diversos sistemas de propósito general con programas de acuerdo con las enseñanzas en el presente documento, o puede resultar conveniente construir un aparato más especializado para realizar las etapas de procedimiento requeridas. La estructura requerida para una variedad de estos sistemas resultará evidente a partir de la descripción a continuación.
Los modos de realización de la divulgación se pueden implementar de muchas formas diferentes, incluyendo, pero sin limitación alguna, lógica de programas informáticos para su uso con un procesador (por ejemplo, un microprocesador, un microcontrolador, un procesador de señales digitales u ordenador de propósito general), lógica programable para su uso con un dispositivo de lógica programable (por ejemplo, una matriz de puertas de campo programable (FPGA) u otro PLD), componentes discretos, circuitos integrados (por ejemplo, un circuito integrado específico de la aplicación (ASIC)), o cualquier otro medio que incluya cualquier combinación de los mismos. En un modo de realización típico de la presente divulgación, parte o todo el procesamiento de los datos recopilados usando una sonda de TCO, una sonda de FFR, un sistema de angiografía u otros dispositivos de formación de imágenes y seguimiento de sujetos y el sistema basado en procesador se implementa como un conjunto de instrucciones de programa informático que se convierte en una forma ejecutable por ordenador, se almacena como tal en un medio legible por ordenador y se ejecuta por un microprocesador bajo el control de un sistema operativo. Por tanto, las instrucciones de interfaz de usuario y los activadores basados en la finalización de un retroceso o una solicitud de registro conjunto, por ejemplo, se transforman en instrucciones comprensibles para el procesador adecuadas para generar datos de TCO, realizar el procesamiento de imágenes usando diversos y otros rasgos característicos y modos de realización descritos anteriormente.
La lógica de programa informático que implementa la totalidad o parte de la funcionalidad descrita previamente en el presente documento se puede incorporar de diversas formas, incluidas, pero sin limitación alguna, una forma de código fuente, una forma ejecutable por ordenador y diversas formas intermedias (por ejemplo, formas generadas por un ensamblador, compilador, enlazador o localizador). El código fuente puede incluir una serie de instrucciones de programa informático implementadas en cualquiera de los diversos lenguajes de programación (por ejemplo, un código objeto, un lenguaje ensamblador o un lenguaje de alto nivel tal como Fortran, C, C++, JAVA o HTML) para su uso con diversos sistemas operativos o entornos operativos. El código fuente puede definir y usar diversas estructuras de datos y mensajes de comunicación. El código fuente puede estar en una forma ejecutable por ordenador (por ejemplo, por medio de un intérprete), o el código fuente se puede convertir (por ejemplo, por medio de un traductor, ensamblador o compilador) en una forma ejecutable por ordenador.
El programa informático se puede fijar de cualquier forma (por ejemplo, una forma de código fuente, una forma ejecutable por ordenador o una forma intermedia) de forma permanente o bien transitoria en un medio de almacenamiento tangible, tal como un dispositivo de memoria semiconductor (por ejemplo, una RAM, ROM, PROM, EEPROM o RAM flash programable), un dispositivo de memoria magnético (por ejemplo, un disquete o disco fijo), un dispositivo de memoria óptico (por ejemplo, un CD-ROM), una tarjeta de PC (por ejemplo, una tarjeta PCMCIA) u otro dispositivo de memoria. El programa informático se puede fijar de cualquier forma en una señal que se puede transmitir a un ordenador usando cualquiera de diversas tecnologías de comunicación, incluyendo, pero sin limitación alguna, tecnologías analógicas, tecnologías digitales, tecnologías ópticas, tecnologías inalámbricas (por ejemplo, Bluetooth), tecnologías de redes y tecnologías de interconexión. El programa informático se puede distribuir de cualquier forma como medio de almacenamiento extraíble con documentación impresa o electrónica adjunta (por ejemplo, programa informático embalado), precargar con un sistema informático (por ejemplo, en r Om de sistema o disco fijo) o distribuir desde un servidor o tablón de anuncios electrónico a través del sistema de comunicación (por ejemplo, Internet o World Wide Web).
Se puede diseñar lógica de soporte físico (incluyendo lógica programable para su uso con un dispositivo de lógica programable) que implemente la totalidad o parte de la funcionalidad descrita previamente en el presente documento usando procedimientos manuales tradicionales, o se puede diseñar, capturar, simular o documentar electrónicamente usando diversas herramientas, tales como diseño asistido por ordenador (CAD), un lenguaje de descripción de hardware (por ejemplo, VHDL o AHDL) o un lenguaje de programación de PLD (por ejemplo, PALASM, ABEL o CUPL).
La lógica programable se puede fijar de forma permanente o bien transitoria en un medio de almacenamiento tangible, tal como un dispositivo de memoria de semiconductor (por ejemplo, una RAM, ROM, PROM, EEPROM o RAM programable por flash), un dispositivo de memoria magnético (por ejemplo, un disquete o disco fijo), un dispositivo de memoria óptico (por ejemplo, un CD-ROM) u otro dispositivo de memoria. La lógica programable se puede fijar en una señal que se puede transmitir a un ordenador usando cualquiera de diversas tecnologías de comunicación, incluyendo, pero sin limitación alguna, tecnologías analógicas, tecnologías digitales, tecnologías ópticas, tecnologías inalámbricas (por ejemplo, Bluetooth), tecnologías de redes y tecnologías de interconexión. La lógica programable se puede distribuir como medio de almacenamiento extraíble con documentación impresa o electrónica adjunta (por ejemplo, programa informático embalado), precargar con un sistema informático (por ejemplo, en ROM de sistema o un disco fijo) o distribuir desde un servidor o tablón de anuncios electrónico a través del sistema de comunicación (por ejemplo, Internet o World Wide Web).
Diversos ejemplos de módulos de procesamiento adecuados se analizan a continuación con más detalle. Como se usa en el presente documento, un módulo se refiere a programa informático, soporte físico o soporte lógico inalterable adecuado para realizar una tarea específica de procesamiento de datos o de transmisión de datos. En un modo de realización, un módulo se refiere a una rutina de programa informático, programa u otra aplicación residente en memoria adecuada para recibir, transformar, enrutar y procesar instrucciones, o diversos tipos de datos tales como datos de angiografía, datos de TCO, datos de FFR, datos de USIV, datos de registro conjunto, píxeles, matrices de ramificación y orientación y coordenadas, señales de interfaz de usuario y diversos elementos de visualización gráfica y otra información de interés como se describe en el presente documento.
Los ordenadores y sistemas informáticos descritos en el presente documento pueden incluir medios legibles por ordenador operativamente asociados tales como memoria para almacenar aplicaciones de programa informático usadas en la obtención, procesamiento, almacenamiento y/o comunicación de datos. Se puede apreciar que dicha memoria puede ser interna, externa, remota o local con respecto a su ordenador o sistema informático operativamente asociado.
La memoria puede incluir también cualquier medio para almacenar programa informático u otras instrucciones, incluyendo, por ejemplo y sin limitación, un disco duro, un disco óptico, un disco flexible, un DVD (disco versátil digital), un CD (disco compacto), una memoria USB, una memoria flash, ROM (memoria de solo lectura), RAM (memoria de acceso aleatorio), DRAM (memoria de acceso aleatorio dinámica), PROM (ROM programable), EEPROM (PROM ampliable y borrable) y/u otros medios similares legibles por ordenador.
En general, los medios de memoria legibles por ordenador aplicados en asociación con los modos de realización de la divulgación descritos en el presente documento pueden incluir cualquier medio de memoria que puede almacenar instrucciones ejecutadas por un aparato programable. Cuando sea aplicable, las etapas de procedimiento descritas en el presente documento se pueden incorporar o ejecutar como instrucciones almacenadas en un medio de memoria o medios de memoria legibles por ordenador. Estas instrucciones pueden ser programas informáticos incorporados en diversos lenguajes de programación tales como C++, C, Java y/o una variedad de otras clases de lenguajes de programación de programa informático que se pueden aplicar para crear instrucciones de acuerdo con modos de realización de la divulgación.
Los aspectos, modos de realización, rasgos característicos y ejemplos de la divulgación se deben considerar ilustrativos a todos los respectos y no pretenden limitar la divulgación, de la que su alcance se define solo por las reivindicaciones. Otros modos de realización, modificaciones y usos serán evidentes para los expertos en la técnica sin apartarse del alcance de la divulgación reivindicada.
A lo largo de la solicitud, cuando se describen composiciones como composiciones que tienen, incluyen o comprenden componentes específicos, o cuando se describen procesos que tienen, incluyen o comprenden etapas de proceso específicas, se contempla que las composiciones de las presentes enseñanzas también consistan esencialmente en, o consistan en, los componentes citados, y que los procesos de las presentes enseñanzas también consistan esencialmente en, o consistan en, las etapas de proceso citadas.
En la solicitud, cuando se dice que un elemento o componente está incluido en y/o se selecciona de una lista de elementos o componentes citados, se debe entender que el elemento o componente puede ser uno cualquiera de los elementos o componentes citados y que se puede seleccionar de un grupo que consiste en dos o más de los elementos o componentes citados. Además, se debe entender que los elementos y/o rasgos característicos de una composición, un aparato o un procedimiento descrito en el presente documento se pueden combinar de una variedad de formas dentro del alcance de las reivindicaciones adjuntas.
El uso de los términos "incluir", "incluye", "incluyendo", "tener", "tiene" o "que tiene" se debe entender en general como abierto y no limitante, a menos que se establezca específicamente de otro modo.
El uso del singular en el presente documento incluye el plural (y viceversa) a menos que se establezca específicamente de otro modo. Además, las formas en singular "un", "una" y "el/la" incluyen formas en plural a menos que el contexto lo indique claramente de otro modo. Además, cuando el uso del término "aproximadamente" sea antes de un valor cuantitativo, las presentes enseñanzas también incluyen el propio valor cuantitativo específico en sí, a menos que se establezca específicamente de otro modo. Como se usa en el presente documento, el término "aproximadamente" se refiere a una variación de ±10 % del valor nominal.
Se pueden realizar dos etapas o acciones más simultáneamente.
Se debe apreciar que diversos aspectos de la divulgación reivindicada se refieren a subconjuntos y subetapas de las técnicas divulgadas en el presente documento. En consecuencia, lo que se desea asegurar por la patente de invención es la divulgación como se define y diferencia en las siguientes reivindicaciones.
El término "medio legible por máquina" incluye cualquier medio que pueda almacenar, codificar o transportar un conjunto de instrucciones para su ejecución por la máquina y que hagan que la máquina realice una o más de las metodologías de la presente divulgación. Mientras que el medio legible por máquina se muestra en un modo de realización de ejemplo como un solo medio, se debe tomar que el término "medio legible por máquina" incluye un solo medio o múltiples medios (por ejemplo, una base de datos, una o más bases de datos centralizadas o distribuidas y/o cachés y servidores asociados) que almacenan el uno o más conjuntos de instrucciones.
Se puede apreciar que, en determinados aspectos de la divulgación, un único componente se puede reemplazar por múltiples componentes, y múltiples componentes se pueden reemplazar por un único componente, para proporcionar un elemento o estructura o para realizar una función o funciones dadas.
Los ejemplos presentados en el presente documento están destinados a ilustrar implementaciones potenciales y específicas de la divulgación. Se puede apreciar que los ejemplos están destinados principalmente a propósitos de ilustración de la divulgación para los expertos en la técnica.
Además, mientras que los modos de realización particulares de la divulgación se han descrito en el presente documento con el propósito de ilustrar la divulgación y no con el propósito de limitar la misma, se apreciará por los expertos en la técnica que se pueden realizar numerosas variaciones de los detalles, materiales y disposición de elementos, etapas, estructuras y/o partes dentro del alcance de las reivindicaciones.

Claims (15)

REIVINDICACIONES
1. Un procedimiento implementado por ordenador de detección de una o más ramas de un vaso sanguíneo que comprende
almacenar uno o más conjuntos de datos de imágenes intravasculares del vaso sanguíneo, comprendiendo cada conjunto de datos intravasculares una pluralidad de líneas A;
detectar un límite de luz en una primera imagen de línea A generada a partir de un conjunto de líneas A de la pluralidad de líneas A, en el que la primera imagen de línea A tiene una dimensión r y una dimensión de línea A;
especificar una distancia de búsqueda predeterminada T;
definir una región de búsqueda, la región de búsqueda limitada por el límite de luz detectado y un límite compensado del mismo por la distancia predeterminada T;
detectar bordes en la región de búsqueda; e
identificar una región de ramificación candidata en respuesta a los bordes detectados.
2. El procedimiento de la reivindicación 1, que comprende además:
procesar la imagen de línea A usando un primer operador de procesamiento de imágenes, en el que el procesamiento se realiza usando el límite de luz detectado;
aplicar suavizado de mediana a la imagen de línea A usando un segundo operador de procesamiento de imágenes; y
aplicar suavizado a la imagen de línea A usando un tercer operador de procesamiento de imágenes para generar una imagen filtrada.
3. El procedimiento de la reivindicación 2, que comprende además:
identificar un primer par mínimo-máximo en la imagen filtrada, en el que una o más distancias entre el primer par mínimo-máximo define una primera ventana de búsqueda.
4. El procedimiento de la reivindicación 3, que comprende además:
identificar un segundo par mínimo-máximo en la imagen filtrada, en el que una o más distancias entre el segundo par mínimo-máximo define una segunda ventana de búsqueda; o
buscar a lo largo de la dimensión r en la imagen filtrada dentro de la primera ventana de búsqueda.
5. El procedimiento de la reivindicación 4 que comprende además: designar píxeles por debajo de un umbral de ruido de fondo localizados en la primera ventana de búsqueda como correspondientes a la región de ramificación candidata.
6. El procedimiento de la reivindicación 5, en el que el umbral de ruido de fondo es una región dentro de la primera ventana de búsqueda.
7. El procedimiento de la reivindicación 6, que comprende además: dividir la región de ramificación candidata de la imagen filtrada en tres bandas de búsqueda, en el que la suma de los anchos de las tres bandas de búsqueda es igual a T.
8. El procedimiento de la reivindicación 7 que comprende además: para cada banda de búsqueda, acumular píxeles a lo largo de cada línea A que corresponden a la región de ramificación candidata, en el que los píxeles se marcan como píxeles de ramas laterales.
9. El procedimiento de la reivindicación 8, en el que si una línea A particular tiene más de entre aproximadamente un 10 % y aproximadamente un 30 % de píxeles en la primera ventana de búsqueda que se marcan como una rama candidata, se marca esa línea A en esa banda de búsqueda como correspondiente a una rama.
10. El procedimiento de la reivindicación 9, que comprende además la salida de un conjunto de líneas A para cada banda de búsqueda que corresponde a una rama candidata.
11. El procedimiento de la reivindicación 3, que comprende además generar una matriz de ramificación usando tramas de un retroceso, comprendiendo las tramas líneas A y datos angulares, en el que la matriz de ramificación comprende píxeles organizados por tramas a lo largo del retroceso y por líneas A a lo largo de ángulos que varían de 0 a 360 grados o mayor.
12. El procedimiento de la reivindicación 11 que comprende además retirar una región de aguja guía de la matriz de ramificación; y/o que comprende además eliminar las ramas que aparecen solo en una trama.
13. El procedimiento de la reivindicación 11, en el que cuando el intervalo angular de las líneas A es mayor que 360 grados, una primera sección de la matriz de ramificación se superpone con una segunda sección de la matriz de ramificación, comprendiendo el procedimiento además replicar píxeles de la matriz de ramificación para tener en cuenta la superposición.
14. El procedimiento de la reivindicación 7, en el que la primera banda de búsqueda varía de 0 a T/3, y en el que la segunda banda de búsqueda varía de T/3 a 2/3T, y en el que la tercera banda de búsqueda varía de 2/3T a T.
15. El procedimiento de la reivindicación 1 que comprende además validar una o más ramas laterales candidatas usando una matriz de ramificación, usando la matriz de ramificación generada píxeles seleccionados de dos o más bandas de búsqueda de la primera imagen de línea A, en el que la suma de las bandas de búsqueda es T, en el que la matriz de ramificación comprende píxeles organizados por tramas a lo largo del retroceso y por líneas A a lo largo de ángulos que varían de 0 a 360 grados o mayor.
ES17736788T 2016-04-14 2017-04-14 Identificación de ramas de un vaso sanguíneo Active ES2908571T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201662322771P 2016-04-14 2016-04-14
PCT/US2017/027680 WO2017181045A1 (en) 2016-04-14 2017-04-14 Identification of branches of a blood vessel

Publications (1)

Publication Number Publication Date
ES2908571T3 true ES2908571T3 (es) 2022-05-03

Family

ID=59295290

Family Applications (1)

Application Number Title Priority Date Filing Date
ES17736788T Active ES2908571T3 (es) 2016-04-14 2017-04-14 Identificación de ramas de un vaso sanguíneo

Country Status (6)

Country Link
US (2) US10593037B2 (es)
EP (1) EP3443536B1 (es)
JP (2) JP7027331B2 (es)
CN (2) CN116309390A (es)
ES (1) ES2908571T3 (es)
WO (1) WO2017181045A1 (es)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107949311B (zh) 2015-04-16 2021-04-16 Gentuity有限责任公司 用于神经病学的微光探针
JP6857654B2 (ja) * 2015-07-25 2021-04-14 ライトラボ・イメージング・インコーポレーテッド ガイドワイヤ検出システム、方法、及び装置
WO2017040484A1 (en) 2015-08-31 2017-03-09 Gentuity, Llc Imaging system includes imaging probe and delivery devices
WO2018064336A1 (en) 2016-09-28 2018-04-05 Lightlab Imaging, Inc. Stent planning systems and methods using vessel representation
US11684242B2 (en) 2017-11-28 2023-06-27 Gentuity, Llc Imaging system
US11344373B2 (en) 2018-05-29 2022-05-31 Lightlab Imaging, Inc. Stent expansion display, systems, and methods
CN112334056B (zh) * 2018-06-27 2024-05-14 奥林巴斯株式会社 图像显示装置和图像显示方法
CN109009001B (zh) * 2018-07-02 2019-07-09 博动医学影像科技(上海)有限公司 血管压力差修正方法、装置和设备
CN111256819B (zh) * 2020-02-20 2022-09-09 苏州沓来软件科技有限公司 一种光谱仪器的降噪方法
CN111062942B (zh) * 2020-03-16 2020-06-12 南京景三医疗科技有限公司 血管分叉的检测方法、装置及医疗设备
US20230289956A1 (en) * 2020-08-06 2023-09-14 Mie Kunio System and Method for identifying potential false positive and blind spot locations in catheter-based multimodal images
WO2022209692A1 (ja) * 2021-03-30 2022-10-06 テルモ株式会社 情報処理装置、情報処理方法およびプログラム
US11779221B2 (en) * 2021-06-18 2023-10-10 Canon U.S.A., Inc. Apparatus, method and storage medium for lumen curve simplification for editing in one or more images, such as in optical coherence tomography images
CN113349737B (zh) * 2021-06-30 2023-05-26 深圳英美达医疗技术有限公司 一种血管内双模成像系统oct图像的校准方法

Family Cites Families (223)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4548473A (en) 1983-05-12 1985-10-22 Honeywell Inc. Optical filter
US5477858A (en) 1986-07-30 1995-12-26 Siemens Medical Systems, Inc. Ultrasound blood flow/tissue imaging system
JPS63127201A (ja) 1986-11-17 1988-05-31 Matsushita Electric Ind Co Ltd カラ−フイルタ−
US5457728A (en) 1990-11-14 1995-10-10 Cedars-Sinai Medical Center Coronary tracking display
US5662109A (en) 1990-12-14 1997-09-02 Hutson; William H. Method and system for multi-dimensional imaging and analysis for early detection of diseased tissue
US5054492A (en) 1990-12-17 1991-10-08 Cardiovascular Imaging Systems, Inc. Ultrasonic imaging catheter having rotational image correlation
DE69227902T3 (de) 1991-04-29 2010-04-22 Massachusetts Institute Of Technology, Cambridge Vorrichtung für optische abbildung und messung
US6501551B1 (en) 1991-04-29 2002-12-31 Massachusetts Institute Of Technology Fiber optic imaging endoscope interferometer with at least one faraday rotator
US6564087B1 (en) 1991-04-29 2003-05-13 Massachusetts Institute Of Technology Fiber optic needle probes for optical coherence tomography imaging
US5748598A (en) 1995-12-22 1998-05-05 Massachusetts Institute Of Technology Apparatus and methods for reading multilayer storage media using short coherence length sources
US6485413B1 (en) 1991-04-29 2002-11-26 The General Hospital Corporation Methods and apparatus for forward-directed optical scanning instruments
US5956355A (en) 1991-04-29 1999-09-21 Massachusetts Institute Of Technology Method and apparatus for performing optical measurements using a rapidly frequency-tuned laser
US5465147A (en) 1991-04-29 1995-11-07 Massachusetts Institute Of Technology Method and apparatus for acquiring images using a ccd detector array and no transverse scanner
US6111645A (en) 1991-04-29 2000-08-29 Massachusetts Institute Of Technology Grating based phase control optical delay line
US6134003A (en) 1991-04-29 2000-10-17 Massachusetts Institute Of Technology Method and apparatus for performing optical measurements using a fiber optic imaging guidewire, catheter or endoscope
ATE139034T1 (de) 1991-12-21 1996-06-15 Roehm Gmbh Ir-reflektierender körper
US5325449A (en) 1992-05-15 1994-06-28 David Sarnoff Research Center, Inc. Method for fusing images and apparatus therefor
KR100214428B1 (ko) 1993-06-30 1999-08-02 후지무라 마사지카, 아키모토 유미 적외선차단재와 그것에 사용하는 적외선차단분말
US5509093A (en) 1993-10-13 1996-04-16 Micron Optics, Inc. Temperature compensated fiber fabry-perot filters
US5531227A (en) 1994-01-28 1996-07-02 Schneider Medical Technologies, Inc. Imaging device and method
EP0778746B1 (en) 1994-09-02 2006-01-11 Volcano Therapeutics, Inc. Ultra miniature pressure sensor and guidewire using the same
US5908415A (en) 1994-09-09 1999-06-01 Rare Earth Medical, Inc. Phototherapy methods and apparatus
US5947959A (en) 1994-09-09 1999-09-07 Rare Earth Medical, Inc. Phototherapeutic apparatus with diffusive tip assembly
US5643253A (en) 1995-06-06 1997-07-01 Rare Earth Medical, Inc. Phototherapy apparatus with integral stopper device
US5632767A (en) 1994-09-09 1997-05-27 Rare Earth Medical, Inc. Loop diffusers for diffusion of optical radiation
US6270492B1 (en) 1994-09-09 2001-08-07 Cardiofocus, Inc. Phototherapeutic apparatus with diffusive tip assembly
US6572609B1 (en) 1999-07-14 2003-06-03 Cardiofocus, Inc. Phototherapeutic waveguide apparatus
US5797849A (en) 1995-03-28 1998-08-25 Sonometrics Corporation Method for carrying out a medical procedure using a three-dimensional tracking and imaging system
US5619368A (en) 1995-05-16 1997-04-08 Massachusetts Inst. Of Technology Optical frequency shifter
WO1997001167A1 (en) 1995-06-21 1997-01-09 Massachusetts Institute Of Technology Apparatus and method for accessing data on multilayered optical media
US5810007A (en) 1995-07-26 1998-09-22 Associates Of The Joint Center For Radiation Therapy, Inc. Ultrasound localization and image fusion for the treatment of prostate cancer
US6302875B1 (en) 1996-10-11 2001-10-16 Transvascular, Inc. Catheters and related devices for forming passageways between blood vessels or other anatomical structures
US5771895A (en) 1996-02-12 1998-06-30 Slager; Cornelis J. Catheter for obtaining three-dimensional reconstruction of a vascular lumen and wall
US6195445B1 (en) 1997-06-30 2001-02-27 Siemens Corporate Research, Inc. Motion compensation of an image sequence using optimal polyline tracking
US6148095A (en) 1997-09-08 2000-11-14 University Of Iowa Research Foundation Apparatus and method for determining three-dimensional representations of tortuous vessels
US5989189A (en) 1997-10-24 1999-11-23 Mentor Corporation Ophthalmic ultrasound imaging
US20020161351A1 (en) 1998-09-01 2002-10-31 Samson Wilfred J. Method and apparatus for treating acute myocardial infarction with selective hypothermic perfusion
US6973202B2 (en) 1998-10-23 2005-12-06 Varian Medical Systems Technologies, Inc. Single-camera tracking of an object
US6937696B1 (en) 1998-10-23 2005-08-30 Varian Medical Systems Technologies, Inc. Method and system for predictive physiological gating
US6621889B1 (en) 1998-10-23 2003-09-16 Varian Medical Systems, Inc. Method and system for predictive physiological gating of radiation therapy
US6348960B1 (en) 1998-11-06 2002-02-19 Kimotot Co., Ltd. Front scattering film
GB2345543A (en) 1999-01-06 2000-07-12 Intravascular Res Ltd Ultrasonic visualisation system with remote components
US6191862B1 (en) 1999-01-20 2001-02-20 Lightlab Imaging, Llc Methods and apparatus for high speed longitudinal scanning in imaging systems
US6385332B1 (en) 1999-02-19 2002-05-07 The John P. Roberts Research Institute Automated segmentation method for 3-dimensional ultrasound
US6471656B1 (en) 1999-06-25 2002-10-29 Florence Medical Ltd Method and system for pressure based measurements of CFR and additional clinical hemodynamic parameters
US6381350B1 (en) 1999-07-02 2002-04-30 The Cleveland Clinic Foundation Intravascular ultrasonic analysis using active contour method and system
US6445939B1 (en) 1999-08-09 2002-09-03 Lightlab Imaging, Llc Ultra-small optical probes, imaging optics, and methods for using same
WO2001080185A1 (en) * 2000-04-14 2001-10-25 General Electric Company Method and apparatus for three-dimensional reconstruction of angiograms
JP2004513673A (ja) 2000-05-09 2004-05-13 ペイエオン・インコーポレーテツド 動脈の三次元的再構成のシステムと方法
US6565514B2 (en) 2000-08-25 2003-05-20 Radi Medical Systems Ab Method and system for determining physiological variables
WO2002019268A2 (en) 2000-08-31 2002-03-07 Koninklijke Philips Electronics N.V. Extracting a string of points following a threadlike structure in a sequence of images
US6785409B1 (en) 2000-10-24 2004-08-31 Koninklijke Philips Electronics, N.V. Segmentation method and apparatus for medical images using diffusion propagation, pixel classification, and mathematical morphology
US7231243B2 (en) 2000-10-30 2007-06-12 The General Hospital Corporation Optical methods for tissue analysis
US6522806B1 (en) 2001-02-16 2003-02-18 Ethicon Endo-Surgury, Inc. Optical fiber including a diffuser portion and continuous sleeve for the transmission of light
US6760112B2 (en) 2001-02-17 2004-07-06 Lucent Technologies Inc. Grin-fiber lens based optical endoscopes
US20020115931A1 (en) 2001-02-21 2002-08-22 Strauss H. William Localizing intravascular lesions on anatomic images
US6768756B2 (en) 2001-03-12 2004-07-27 Axsun Technologies, Inc. MEMS membrane with integral mirror/lens
US6570659B2 (en) 2001-03-16 2003-05-27 Lightlab Imaging, Llc Broadband light source system and method and light source combiner
US6552796B2 (en) 2001-04-06 2003-04-22 Lightlab Imaging, Llc Apparatus and method for selective data collection and signal to noise ratio enhancement using optical coherence tomography
US6585660B2 (en) 2001-05-18 2003-07-01 Jomed Inc. Signal conditioning device for interfacing intravascular sensors having varying operational characteristics to a physiology monitor
US6697667B1 (en) 2001-05-31 2004-02-24 Advanced Cardiovascular Systems, Inc. Apparatus and method for locating coronary sinus
US7532920B1 (en) 2001-05-31 2009-05-12 Advanced Cardiovascular Systems, Inc. Guidewire with optical fiber
US7329223B1 (en) 2001-05-31 2008-02-12 Abbott Cardiovascular Systems Inc. Catheter with optical fiber sensor
US6706004B2 (en) 2001-05-31 2004-03-16 Infraredx, Inc. Balloon catheter
US6716178B1 (en) 2001-05-31 2004-04-06 Advanced Cardiovascular Systems, Inc. Apparatus and method for performing thermal and laser doppler velocimetry measurements
US6879851B2 (en) 2001-06-07 2005-04-12 Lightlab Imaging, Llc Fiber optic endoscopic gastrointestinal probe
US6731973B2 (en) 2001-06-12 2004-05-04 Ge Medical Systems Information Technologies, Inc. Method and apparatus for processing physiological data
US6947040B2 (en) 2001-10-23 2005-09-20 Siemens Corporate Research, Inc. Vessel detection by mean shift based ray propagation
US6728566B1 (en) 2001-11-21 2004-04-27 Koninklijke Philips Electronics, N.V. Vessel tracking and tree extraction method and apparatus
US6974557B1 (en) 2001-12-18 2005-12-13 Advanced Cardiovasculer Systems, Inc. Methods for forming an optical window for an intracorporeal device and for joining parts
US6868736B2 (en) 2002-02-22 2005-03-22 Sentec Corporation Ultra-miniature optical pressure sensing system
US6932809B2 (en) 2002-05-14 2005-08-23 Cardiofocus, Inc. Safety shut-off device for laser surgical instruments employing blackbody emitters
US7134994B2 (en) 2002-05-20 2006-11-14 Volcano Corporation Multipurpose host system for invasive cardiovascular diagnostic measurement acquisition and display
US7288244B2 (en) 2002-07-02 2007-10-30 Nv Thermocore Medical Systems Sa Determining vulnerable plaque in blood vessels
US6891984B2 (en) 2002-07-25 2005-05-10 Lightlab Imaging, Llc Scanning miniature optical probes with optical distortion correction and rotational control
US7359554B2 (en) 2002-08-26 2008-04-15 Cleveland Clinic Foundation System and method for identifying a vascular border
US7697972B2 (en) 2002-11-19 2010-04-13 Medtronic Navigation, Inc. Navigation system for cardiac therapies
EP1569558B1 (en) 2002-12-04 2017-08-23 Philips Intellectual Property & Standards GmbH Apparatus and method for assisting the navigation of a catheter in a vessel
US8465452B2 (en) 2003-02-21 2013-06-18 3Dt Holdings, Llc Devices, systems, and methods for removing stenotic lesions from vessels
WO2004075756A1 (en) 2003-02-25 2004-09-10 Philips Intellectual Property & Standards Gmbh Intravascular imaging
US20100076320A1 (en) 2003-04-25 2010-03-25 Lightlab Imaging, Llc Flush catheter with flow directing sheath
US7241286B2 (en) 2003-04-25 2007-07-10 Lightlab Imaging, Llc Flush catheter with flow directing sheath
WO2004096049A2 (en) 2003-04-28 2004-11-11 Board Of Regents, The University Of Texas System Catheter imaging probe and method
US7998188B2 (en) 2003-04-28 2011-08-16 Kips Bay Medical, Inc. Compliant blood vessel graft
DE10325298B4 (de) 2003-06-04 2007-07-05 Siemens Ag Verfahren und Vorrichtung zur Erfassung der Rauigkeit von Gefäßen
US7298478B2 (en) 2003-08-14 2007-11-20 Cytonome, Inc. Optical detector for a particle sorting system
CA2535942A1 (en) 2003-08-21 2005-03-10 Ischem Corporation Automated methods and systems for vascular plaque detection and analysis
US8571639B2 (en) 2003-09-05 2013-10-29 Varian Medical Systems, Inc. Systems and methods for gating medical procedures
EP2293031B8 (en) 2003-10-27 2024-03-20 The General Hospital Corporation Method and apparatus for performing optical imaging using frequency-domain interferometry
CA2449080A1 (en) 2003-11-13 2005-05-13 Centre Hospitalier De L'universite De Montreal - Chum Apparatus and method for intravascular ultrasound image segmentation: a fast-marching method
EP1713400B1 (en) 2004-01-16 2012-12-26 Boston Scientific Scimed, Inc. Apparatus for medical imaging
US20050238067A1 (en) 2004-04-26 2005-10-27 Choi Youngmin A Simple fiber optic cavity
US7397935B2 (en) 2004-05-10 2008-07-08 Mediguide Ltd. Method for segmentation of IVUS image sequences
WO2006024015A1 (en) 2004-08-24 2006-03-02 The General Hospital Corporation Method and apparatus for imaging of vessel segments
US20060095065A1 (en) 2004-09-24 2006-05-04 Tetsuaki Tanimura Fluid occluding devices and methods
US7274847B2 (en) 2004-11-16 2007-09-25 Biotex, Inc. Light diffusing tip
US7301644B2 (en) 2004-12-02 2007-11-27 University Of Miami Enhanced optical coherence tomography for anatomical mapping
US8983582B2 (en) 2004-12-20 2015-03-17 Advanced Cardiovascular Systems, Inc. Methods and apparatuses for positioning within an internal channel
EP2712553A3 (en) 2005-01-11 2014-09-17 Volcano Corporation Vascular image co-registration
EP2264841B1 (en) 2005-01-20 2016-01-20 Massachusetts Institute of Technology (MIT) Mode locking methods and apparatus
US8315282B2 (en) 2005-01-20 2012-11-20 Massachusetts Institute Of Technology Fourier domain mode locking: method and apparatus for control and improved performance
WO2006079100A2 (en) 2005-01-24 2006-07-27 Thorlabs, Inc. Compact multimode laser with rapid wavelength scanning
US8054075B2 (en) 2005-02-03 2011-11-08 The Johns Hopkins University Method for magnetic resonance imaging using inversion recovery with on-resonant water suppression including MRI systems and software embodying same
EP1850735A2 (en) 2005-02-10 2007-11-07 Lightlab Imaging, Inc. Optical coherence tomography apparatus and methods
US7415049B2 (en) 2005-03-28 2008-08-19 Axsun Technologies, Inc. Laser with tilted multi spatial mode resonator tuning element
ES2337497T3 (es) 2005-04-28 2010-04-26 The General Hospital Corporation Evaluacion de caracteristicas de la imagen de una estructura anatomica en imagenes de tomografia de coherencia optica.
DE102005021061B4 (de) 2005-05-06 2011-12-15 Siemens Ag Verfahren zur tomographischen Darstellung eines Hohlraumes durch Optische-Kohärenz-Tomographie (OCT) und eine OCT-Vorrichtung zur Durchführung des Verfahrens
US7783337B2 (en) 2005-06-06 2010-08-24 Board Of Regents, The University Of Texas System OCT using spectrally resolved bandwidth
JP2008543511A (ja) 2005-06-24 2008-12-04 ヴォルケイノウ・コーポレーション 脈管の画像作製方法
DE102005030647B3 (de) 2005-06-30 2007-03-22 Siemens Ag Vorrichtung und Verfahren zur intraluminalen Bildgebung für die Rekonstruktion von 3D-Bilddatensätzen
DE102005032961A1 (de) 2005-07-14 2007-01-18 Siemens Ag Verfahren und Vorrichtung zur Erzeugung eines Bildes mittels optischer Kohärenztomographie
US7379062B2 (en) 2005-08-01 2008-05-27 Barco Nv Method for determining a path along a biological object with a lumen
WO2007016397A2 (en) 2005-08-01 2007-02-08 Bioptigen, Inc. Methods, systems and computer programm for 3d-registrati0n of three dimensional data sets obtained by preferably optical coherence tomography based on the alignment of projection images or fundus images, respectively
JP2009507617A (ja) 2005-09-14 2009-02-26 ネオガイド システムズ, インコーポレイテッド 経腔的及び他の操作を行うための方法及び装置
DE102005045373A1 (de) 2005-09-22 2007-04-05 Siemens Ag Kathetervorrichtung
WO2007041382A1 (en) 2005-09-29 2007-04-12 General Hospital Corporation Arrangements and methods for providing multimodality microscopic imaging of one or more biological structures
US7450241B2 (en) 2005-09-30 2008-11-11 Infraredx, Inc. Detecting vulnerable plaque
US7988633B2 (en) 2005-10-12 2011-08-02 Volcano Corporation Apparatus and method for use of RFID catheter intelligence
US20070232933A1 (en) 2005-10-13 2007-10-04 Volcano Corporation Component-based catheter lab intravascular ultrasound system
EP1948021A4 (en) 2005-10-20 2009-12-02 Univ Texas ROTATING OPTICAL CATHETER TIP FOR OPTICAL COHERENCE TOMOGRAPHY
US7918793B2 (en) 2005-10-28 2011-04-05 Biosense Webster, Inc. Synchronization of ultrasound imaging data with electrical mapping
US7729746B2 (en) 2005-11-04 2010-06-01 Siemens Aktiengesellschaft Three-dimensional co-registration between intravascular and angiographic data
US7593559B2 (en) 2005-11-18 2009-09-22 Duke University Method and system of coregistrating optical coherence tomography (OCT) with other clinical tests
US7801343B2 (en) 2005-11-29 2010-09-21 Siemens Medical Solutions Usa, Inc. Method and apparatus for inner wall extraction and stent strut detection using intravascular optical coherence tomography imaging
US7650179B2 (en) 2005-12-09 2010-01-19 Siemens Aktiengesellschaft Computerized workflow method for stent planning and stenting procedure
US20080159604A1 (en) * 2005-12-30 2008-07-03 Allan Wang Method and system for imaging to identify vascularization
JP2007202957A (ja) 2006-02-06 2007-08-16 Toshiba Corp 壁運動測定装置及び医用画像診断装置
US8184367B2 (en) 2006-02-15 2012-05-22 University Of Central Florida Research Foundation Dynamically focused optical instrument
US7792342B2 (en) 2006-02-16 2010-09-07 Siemens Medical Solutions Usa, Inc. System and method for detecting and tracking a guidewire in a fluoroscopic image sequence
JP5044126B2 (ja) 2006-02-23 2012-10-10 オリンパス株式会社 内視鏡観察装置および画像形成を行う内視鏡の作動方法
US7619646B2 (en) 2006-03-09 2009-11-17 Visicon Inspection Technologies Llc System and method to illuminate and image the inside diameter of a stent
WO2007109771A2 (en) 2006-03-22 2007-09-27 Volcano Corporation Automated lesion analysis based upon automatic plaque characterization according to a classification criterion
US7785286B2 (en) 2006-03-30 2010-08-31 Volcano Corporation Method and system for imaging, diagnosing, and/or treating an area of interest in a patient's body
US7831078B2 (en) 2006-07-24 2010-11-09 Siemens Medical Solutions Usa, Inc. System and method for statistical shape model based segmentation of intravascular ultrasound and optical coherence tomography images
US8029447B2 (en) 2006-10-10 2011-10-04 Volcano Corporation Multipurpose host system for invasive cardiovascular diagnostic measurement acquisition including an enhanced dynamically configured graphical display
RU2471239C2 (ru) 2006-10-17 2012-12-27 Конинклейке Филипс Электроникс Н.В. Визуализация трехмерных изображений в комбинации с двумерными проекционными изображениями
US8223143B2 (en) 2006-10-27 2012-07-17 Carl Zeiss Meditec, Inc. User interface for efficiently displaying relevant OCT imaging data
EP2081486B1 (en) 2006-11-08 2014-04-09 Lightlab Imaging, Inc. Opto-acoustic imaging device
CN102973243B (zh) 2007-01-10 2015-11-25 光学实验室成像公司 用于扫频源光学相干断层的方法和装置
US9629571B2 (en) 2007-03-08 2017-04-25 Sync-Rx, Ltd. Co-use of endoluminal data and extraluminal imaging
US9305334B2 (en) 2007-03-08 2016-04-05 Sync-Rx, Ltd. Luminal background cleaning
WO2014002095A2 (en) 2012-06-26 2014-01-03 Sync-Rx, Ltd. Flow-related image processing in luminal organs
EP2358269B1 (en) 2007-03-08 2019-04-10 Sync-RX, Ltd. Image processing and tool actuation for medical procedures
US10716528B2 (en) 2007-03-08 2020-07-21 Sync-Rx, Ltd. Automatic display of previously-acquired endoluminal images
WO2008107905A2 (en) 2007-03-08 2008-09-12 Sync-Rx, Ltd. Imaging and tools for use with moving organs
US8395781B2 (en) 2007-07-12 2013-03-12 Volcano Corporation Automatic calibration systems and methods of use
US9596993B2 (en) 2007-07-12 2017-03-21 Volcano Corporation Automatic calibration systems and methods of use
US8086000B2 (en) 2007-08-27 2011-12-27 Pie Medical Imaging B.V. Method, apparatus and computer program for quantitative bifurcation analysis on angiographic images
US8582934B2 (en) 2007-11-12 2013-11-12 Lightlab Imaging, Inc. Miniature optical elements for fiber-optic beam shaping
US7813609B2 (en) 2007-11-12 2010-10-12 Lightlab Imaging, Inc. Imaging catheter with integrated reference reflector
JP5002429B2 (ja) 2007-11-20 2012-08-15 テルモ株式会社 光干渉断層画像診断装置
US8983580B2 (en) 2008-01-18 2015-03-17 The Board Of Trustees Of The University Of Illinois Low-coherence interferometry and optical coherence tomography for image-guided surgical treatment of solid tumors
US20110190586A1 (en) 2008-03-28 2011-08-04 Volcano Corporation Methods and systems for intravascular imaging and flushing
WO2009140617A2 (en) 2008-05-15 2009-11-19 Axsun Technologies, Inc. Oct combining probes and integrated systems
EP2293714B1 (en) 2008-06-02 2014-08-13 Lightlab Imaging, Inc. Quantitative methods for obtaining tissue characteristics from optical coherence tomography images
EP2303385B1 (en) 2008-06-19 2013-12-11 Sync-RX, Ltd. Stepwise advancement of a medical tool
US8423121B2 (en) 2008-08-11 2013-04-16 Siemens Aktiengesellschaft Method and system for guidewire tracking in fluoroscopic image sequences
DE102008045634A1 (de) 2008-09-03 2010-03-04 Ludwig-Maximilians-Universität München Wellenlängenabstimmbare Lichtquelle
WO2010045386A1 (en) 2008-10-14 2010-04-22 Lightlab Imaging, Inc. Methods for stent strut detection and related measurement and display using optical coherence tomography
US9144394B2 (en) 2008-11-18 2015-09-29 Sync-Rx, Ltd. Apparatus and methods for determining a plurality of local calibration factors for an image
US8855744B2 (en) 2008-11-18 2014-10-07 Sync-Rx, Ltd. Displaying a device within an endoluminal image stack
US9101286B2 (en) 2008-11-18 2015-08-11 Sync-Rx, Ltd. Apparatus and methods for determining a dimension of a portion of a stack of endoluminal data points
US9974509B2 (en) 2008-11-18 2018-05-22 Sync-Rx Ltd. Image super enhancement
US10362962B2 (en) 2008-11-18 2019-07-30 Synx-Rx, Ltd. Accounting for skipped imaging locations during movement of an endoluminal imaging probe
US9095313B2 (en) 2008-11-18 2015-08-04 Sync-Rx, Ltd. Accounting for non-uniform longitudinal motion during movement of an endoluminal imaging probe
US11064903B2 (en) 2008-11-18 2021-07-20 Sync-Rx, Ltd Apparatus and methods for mapping a sequence of images to a roadmap image
EP2348982B1 (en) 2008-12-03 2020-03-25 St. Jude Medical, Atrial Fibrillation Division, Inc. System for determining the positioin of the tip of a medical catheter within the body of a patient
US8457440B1 (en) 2009-01-27 2013-06-04 Axsun Technologies, Inc. Method and system for background subtraction in medical optical coherence tomography system
US8909323B2 (en) 2009-08-06 2014-12-09 Siemens Medical Solutions Usa, Inc. System for processing angiography and ultrasound image data
US20180344174A9 (en) 2009-09-23 2018-12-06 Lightlab Imaging, Inc. Lumen Morphology and Vascular Resistance Measurements Data Collection Systems, Apparatus and Methods
US8412312B2 (en) 2009-09-23 2013-04-02 Lightlab Imaging, Inc. Apparatus, systems, and methods of in-vivo blood clearing in a lumen
EP2480124B1 (en) 2009-09-23 2017-11-22 Lightlab Imaging, Inc. Lumen morphology and vascular resistance measurement data collection systems, apparatus and methods
DE102009043069A1 (de) 2009-09-25 2011-04-07 Siemens Aktiengesellschaft Visualisierungsverfahren und Bildgebungssystem
US8206377B2 (en) 2009-12-22 2012-06-26 Lightlab Imaging, Inc. Torque limiter for an OCT catheter
US8926590B2 (en) 2009-12-22 2015-01-06 Lightlab Imaging, Inc. Torque limiter for an OCT catheter
US8478384B2 (en) 2010-01-19 2013-07-02 Lightlab Imaging, Inc. Intravascular optical coherence tomography system with pressure monitoring interface and accessories
US8206374B2 (en) 2010-03-15 2012-06-26 Medtronic Vascular, Inc. Catheter having improved traceability
JP5666617B2 (ja) 2010-03-17 2015-02-12 ライトラボ・イメージング・インコーポレーテッド 干渉センシングおよび画像取得システムのための強度雑音を低減する方法および装置
US20110257545A1 (en) 2010-04-20 2011-10-20 Suri Jasjit S Imaging based symptomatic classification and cardiovascular stroke risk score estimation
US8565859B2 (en) * 2010-06-29 2013-10-22 Siemens Aktiengesellschaft Method and system for image based device tracking for co-registration of angiography and intravascular ultrasound images
EP2599033B1 (en) 2010-07-29 2021-03-31 Sync-RX, Ltd. Co-use of endoluminal data and extraluminal imaging
US8750615B2 (en) 2010-08-02 2014-06-10 Case Western Reserve University Segmentation and quantification for intravascular optical coherence tomography images
US8582619B2 (en) 2011-03-15 2013-11-12 Lightlab Imaging, Inc. Methods, systems, and devices for timing control in electromagnetic radiation sources
US9164240B2 (en) 2011-03-31 2015-10-20 Lightlab Imaging, Inc. Optical buffering methods, apparatus, and systems for increasing the repetition rate of tunable light sources
CA2837577C (en) 2011-05-27 2018-05-29 Lightlab Imaging, Inc. Optical coherence tomography and pressure based systems and methods
CA2836790C (en) 2011-05-31 2019-04-23 Desmond Adler Multimodal imaging system, apparatus, and methods
WO2013003267A1 (en) 2011-06-30 2013-01-03 Lightlab Imaging, Inc. Catheter with flush valve and related systems and methods
JP5755956B2 (ja) 2011-06-30 2015-07-29 テルモ株式会社 光干渉断層像形成装置
US8582109B1 (en) 2011-08-01 2013-11-12 Lightlab Imaging, Inc. Swept mode-hopping laser system, methods, and devices for frequency-domain optical coherence tomography
US10648918B2 (en) 2011-08-03 2020-05-12 Lightlab Imaging, Inc. Systems, methods and apparatus for determining a fractional flow reserve (FFR) based on the minimum lumen area (MLA) and the constant
US20130051728A1 (en) 2011-08-31 2013-02-28 Lightlab Imaging, Inc. Optical Imaging Probes and Related Methods
CA2776203C (en) * 2011-09-08 2020-08-04 Calgary Scientific Inc. Determining contours of a vessel using an active contouring model
US8953911B1 (en) 2011-10-28 2015-02-10 Lightlab Imaging, Inc. Spectroscopic imaging probes, devices, and methods
US8581643B1 (en) 2011-10-28 2013-11-12 Lightlab Imaging, Inc. Phase-lock loop-based clocking system, methods and apparatus
US8831321B1 (en) * 2011-11-07 2014-09-09 Lightlab Imaging, Inc. Side branch detection methods, systems and devices
CA2855830A1 (en) 2011-11-16 2013-05-23 Volcano Corporation Medical measuring system and method
US10869648B2 (en) 2012-05-11 2020-12-22 Philips Image Guided Therapy Corporation Device, system and method for flow imaging in the body using a swept transducer
CA2874415A1 (en) 2012-05-21 2013-11-28 Sync-Rx, Ltd. Co-use of endoluminal data and extraluminal imaging
US20140024931A1 (en) 2012-07-20 2014-01-23 Lightlab Imaging, Inc. Data Encoders for Medical Devices and Related Methods
US8687201B2 (en) 2012-08-31 2014-04-01 Lightlab Imaging, Inc. Optical coherence tomography control systems and methods
US11272845B2 (en) 2012-10-05 2022-03-15 Philips Image Guided Therapy Corporation System and method for instant and automatic border detection
WO2014077880A1 (en) 2012-11-16 2014-05-22 Lightlab Imaging, Inc. Automated fluid delivery catheter and system
EP2919659B1 (en) 2012-11-19 2021-03-17 Lightlab Imaging, Inc. Multimodal imaging systems
JP6091870B2 (ja) * 2012-12-07 2017-03-08 東芝メディカルシステムズ株式会社 血管解析装置、医用画像診断装置、血管解析方法、及び血管解析プログラム
WO2014092755A1 (en) 2012-12-12 2014-06-19 Lightlab Imaging, Inc. Method and apparatus for automated determination of a lumen contour of a blood vessel
US8913084B2 (en) 2012-12-21 2014-12-16 Volcano Corporation Method and apparatus for performing virtual pullback of an intravascular imaging device
CA2904512C (en) * 2013-03-08 2019-05-07 Lightlab Imaging, Inc. Stent visualization and malapposition detection systems, devices, and methods
US9173591B2 (en) 2013-03-08 2015-11-03 Lightlab Imaging, Inc. Stent visualization and malapposition detection systems, devices, and methods
WO2014163601A1 (en) 2013-03-11 2014-10-09 Lightlab Imaging, Inc. Friction torque limiter for an imaging catheter
US9351698B2 (en) 2013-03-12 2016-05-31 Lightlab Imaging, Inc. Vascular data processing and image registration systems, methods, and apparatuses
WO2014175853A1 (en) * 2013-03-12 2014-10-30 Lightlab Imaging, Inc. Vascular data processing and image registration systems, methods, and apparatuses
US9069396B2 (en) 2013-03-12 2015-06-30 Lightlab Imaging, Inc. Controller and user interface device, systems, and methods
US9301687B2 (en) 2013-03-13 2016-04-05 Volcano Corporation System and method for OCT depth calibration
US9702762B2 (en) 2013-03-15 2017-07-11 Lightlab Imaging, Inc. Calibration and image processing devices, methods, and systems
US9833221B2 (en) 2013-03-15 2017-12-05 Lightlab Imaging, Inc. Apparatus and method of image registration
WO2016014991A1 (en) 2014-07-24 2016-01-28 Lightlab Imaging, Inc. Stent and vessel visualization and diagnostic systems, devices, and methods
WO2016030491A1 (en) 2014-08-27 2016-03-03 St. Jude Medical Systems Ab System and method for evaluating a cardiac system by determining minimum ratio pd/pa (distal pressure / arterial pressure)
US10499813B2 (en) 2014-09-12 2019-12-10 Lightlab Imaging, Inc. Methods, systems and apparatus for temporal calibration of an intravascular imaging system
US9996921B2 (en) 2015-05-17 2018-06-12 LIGHTLAB IMAGING, lNC. Detection of metal stent struts
US10109058B2 (en) 2015-05-17 2018-10-23 Lightlab Imaging, Inc. Intravascular imaging system interfaces and stent detection methods
US10140712B2 (en) * 2015-05-17 2018-11-27 Lightlab Imaging, Inc. Detection of stent struts relative to side branches
JP6857654B2 (ja) * 2015-07-25 2021-04-14 ライトラボ・イメージング・インコーポレーテッド ガイドワイヤ検出システム、方法、及び装置
JP6041954B2 (ja) * 2015-09-17 2016-12-14 富士フイルム株式会社 超音波画像生成方法

Also Published As

Publication number Publication date
US20200167923A1 (en) 2020-05-28
JP7027331B2 (ja) 2022-03-01
US10593037B2 (en) 2020-03-17
EP3443536A1 (en) 2019-02-20
US20170301084A1 (en) 2017-10-19
US11475560B2 (en) 2022-10-18
WO2017181045A1 (en) 2017-10-19
JP2022059020A (ja) 2022-04-12
JP2019513453A (ja) 2019-05-30
CN109643449A (zh) 2019-04-16
EP3443536B1 (en) 2021-12-15
JP7326513B2 (ja) 2023-08-15
CN116309390A (zh) 2023-06-23

Similar Documents

Publication Publication Date Title
ES2908571T3 (es) Identificación de ramas de un vaso sanguíneo
ES2864714T3 (es) Método para detectar y representar visualmente características endovasculares
ES2940439T3 (es) Sistema de obtención de imágenes intravasculares y métodos para determinar el ángulo de visión del plano de corte de la rama lateral
JP7375102B2 (ja) 血管内画像化システムの作動方法
US11532087B2 (en) Stent detection methods and imaging system interfaces
ES2851548T3 (es) Detección y validación de sombras en imágenes intravasculares
ES2744900T3 (es) Visualización de endoprótesis vasculares y vasos sanguíneos y procedimientos de diagnóstico
ES2641487T3 (es) Aparato para la determinación automatizada de un contorno luminal de un vaso sanguíneo
AU2021200485B2 (en) Intravascular imaging system interfaces and stent detection methods
ES2913224T3 (es) Métodos de procesamiento de datos vasculares y registro de imágenes
JP7437294B2 (ja) 光干渉断層撮影画像等の1つ以上の画像における管腔、ステント及び/又はアーチファクトの検出
ES2854729T3 (es) Método y sistema para la detección de endoprótesis autoexpansible, o stent, intravascular absorbible
JP7497390B2 (ja) 血管内機器の検出及び圧着測定のためのシステム及び方法