ES2627108T3 - Método de remapeo de una ROI conservando la topología entre imágenes médicas - Google Patents

Método de remapeo de una ROI conservando la topología entre imágenes médicas Download PDF

Info

Publication number
ES2627108T3
ES2627108T3 ES12305397.7T ES12305397T ES2627108T3 ES 2627108 T3 ES2627108 T3 ES 2627108T3 ES 12305397 T ES12305397 T ES 12305397T ES 2627108 T3 ES2627108 T3 ES 2627108T3
Authority
ES
Spain
Prior art keywords
image
contour
interest
images
polygonal mesh
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES12305397.7T
Other languages
English (en)
Inventor
Marc Moulis
Charles Caderas de Kerleau
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intrasense SA
Original Assignee
Intrasense SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intrasense SA filed Critical Intrasense SA
Application granted granted Critical
Publication of ES2627108T3 publication Critical patent/ES2627108T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B6/469Arrangements for interfacing with the operator or the patient characterised by special input means for selecting a region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Pathology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Optics & Photonics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

Un método para calcular una región de interés (4) en una segunda imagen médica (2) utilizando una región de interés (3) inicial en una primera imagen médica (1), que comprende un paso inicial de calcular una función (5, 24) de transformación espacial que describe la correspondencia espacial entre dichas primera y segunda imágenes utilizando las características anatómicas notables que se pueden encontrar en ambas imágenes, caracterizado por que comprende además los pasos de: - generar una primera malla poligonal que encierra dicha región de interés (3) inicial en la primera imagen (1), - aplicar la función de transformación espacial a la primera malla poligonal para calcular una segunda malla poligonal en la segunda imagen (2) que corresponde a dicha primera malla poligonal deformada por dicha función (5) de transformación espacial, - calcular la región de interés (4) en la segunda imagen (2) identificando los elementos de imagen (11, 12) de dicha segunda imagen (2) que pertenecen al área encerrada por dicha segunda malla poligonal.

Description

5
10
15
20
25
30
35
40
45
50
DESCRIPCION
Metodo de remapeo de una ROI conservando la topologfa entre imagenes medicas Campo de la invencion
La invencion se refiere a un metodo de transposicion conservando la topologfa para transponer una Region de Interes (ROI) desde una imagen de origen a una imagen de destino.
El campo de la invencion es el procesamiento y analisis de imagenes medicas.
Antecedentes de la invencion
Las Regiones de Interes, o ROI, se utilizan para aislar o extraer areas de interes en las imagenes medicas, con el fin de realizar medidas o cualesquiera otras tareas en estas areas.
Las imagenes medicas incluyen, por ejemplo, imagenes emitidas de Tomograffa Computarizada (CT), Formacion de Imagen por Resonancia Magnetica (MRI), Tomograffa por Emision de Positrones (PET), o ecograffa.
Las imagenes medicas se representan normalmente como colecciones de elementos de imagen, tales como pfxeles para las imagenes bidimensionales (2D) o voxeles para las imagenes tridimensionales (3D) o de volumen.
Una ROI puede representarse como una coleccion de elementos de imagen identificados o etiquetados como pertenecientes a, por ejemplo, una estructura anatomica (pulmon, vaso sangumeo, ...) o una estructura patologica (nodulos, ...). La ROI puede crearse manualmente, por un operador que identifica los elementos de imagen correspondientes a una estructura espedfica y los etiqueta. Tambien pueden crearse mediante metodos automatizados o semi-automatizados utilizando herramientas de analisis de imagen y un conocimiento a priori.
Durante los examenes clmicos, a menudo es deseable transferir una ROI desde una imagen o una serie de imagenes a otra, por ejemplo, para un seguimiento longitudinal de un paciente, o para fines de comparacion o medida transversal.
Las imagenes pueden ser adquiridas con la misma modalidad o tecnica de imagen en diferentes momentos, o utilizando diferentes canales de adquisicion.
Tambien pueden ser adquiridas con diferentes modalidades que permiten, por ejemplo, acceder a diferentes tipos de informacion. Por ejemplo, puede utilizarse una tecnica de CT para obtener imagenes con informacion estructural o anatomica, y la tecnica PET puede utilizarse para obtener informacion funcional sobre las mismas estructuras anatomicas.
En general, no es deseable, o incluso no es posible volver a calcular una ROI de forma independiente en cada una de las series de imagenes: sena demasiado largo, y existina un riesgo de que el proceso de segmentacion no conduzca a una ROI que corresponda exactamente a la misma estructura anatomica. Ademas, a veces se puede calcular una ROI en una serie de imagenes (por ejemplo, una estructural), pero la estructura anatomica puede no ser reconocible en otra serie de imagenes (por ejemplo, una funcional) o suficientemente distinta para la segmentacion y portanto la ROI no se puede calcular en la ultima serie de imagenes.
Una solucion es trasponer una ROI calculada en una serie de imagenes a otra serie de imagenes. Pero pueden aparecer varios problemas: el muestreo espacial de las imagenes puede ser diferente, y puede haber deformaciones de las estructuras anatomicas con imagenes entre las series de imagenes. Las deformaciones pueden ser del tipo ngido (traslaciones, rotaciones, escalamiento) y/o del tipo blando (deformaciones de las estructuras anatomicas en las imagenes). Pueden deberse, por ejemplo, a diferencias en las modalidades de imagen, posiciones de imagen, y/o movimientos del paciente o de las propias estructuras anatomicas (respiracion...).
Las deformaciones blandas o ngidas entre las imagenes se tienen en cuenta generalmente durante los examenes radiologicos a traves de un proceso de registro. Se calculan funciones de transferencia correspondientes a deformaciones blandas y/o ngidas entre las imagenes, sobre la base de identificaciones manuales y/o automatizadas de estructuras correspondientes en las imagenes. Pero en particular en el caso del registro blando (es decir, teniendo en cuenta las deformaciones blandas), esta funcion de transferencia no da lugar, en el caso general, a una correspondencia de pixel a pixel entre las imagenes.
Se conoce, por ejemplo, el documento US 7.817.835 que describe un metodo para realizar medidas transversales de referencia entre las imagenes. Las medidas realizadas en una imagen de origen y representadas o materializadas por las localizaciones de marcas tales como segmentos, drculos... dibujados en esa imagen de origen, se transponen a una imagen de destino utilizando la informacion de registro. A continuacion, las mismas medidas se realizan de forma independiente en la imagen de destino y se comparan con las medidas transpuestas.
Sin embargo, el metodo no es aplicable a la transposicion de la ROI porque en el caso general, una transposicion
5
10
15
20
25
30
35
40
45
punto por punto de un area en una imagen de origen no conduce a una representacion coherente de un area correspondiente en una imagen de destino. Y ademas, el metodo del documento US 7.817.835 esta limitado al registro ngido.
US 2011/0178389 ensena la transferencia de regiones de interes limitadas por un modelo de superficie en una imagen de CT o de MRI adquirida previamente a una imagen Transrectal 3-D por Ultrasonidos (TRUS).
Un objeto de la invencion es proporcionar un metodo para transponer una ROI desde una imagen de origen a una imagen de destino utilizando la informacion de registro de imagen blanda y/o ngida.
Un objeto adicional de la invencion es proporcionar un metodo para transponer una ROI desde una imagen de origen a una imagen de destino que permita optimizar los requisitos de calculo.
Un objeto adicional de la invencion es proporcionar un metodo para definir una ROI en una imagen de destino en la que no se puede obtener facilmente, utilizando una ROI obtenida en una imagen de origen.
Un objeto adicional de la invencion es proporcionar un metodo para definir una ROI en una imagen de destino utilizando una imagen de referencia segmentada.
Compendio de la invencion
Tales objetos se logran a traves de un metodo para calcular una region de interes en una segunda imagen utilizando una region de interes inicial en una primera imagen, estando conectadas dichas primera y segunda imagenes mediante una funcion de transformacion espacial, caracterizado porque comprende los pasos de:
- generar una primera malla poligonal que encierra dicha region de interes inicial en la primera imagen,
- calcular una segunda malla poligonal en dicha segunda imagen aplicando dicha funcion de transformacion espacial a dicha primera malla poligonal,
- identificar elementos de imagen dentro de dicha segunda imagen, que pertenecen al area encerrada por dicha segunda malla poligonal.
Segun algunos modos de realizacion, la funcion de transformacion espacial puede comprender deformaciones blandas.
La funcion de transformacion espacial puede comprender, en particular, deformaciones elasticas o plasticas.
La primera y la segunda imagen pueden comprender imagenes bidimensionales (2D) cuyos elementos de imagen son pfxeles.
Segun algunos modos de realizacion preferidos, la primera y la segunda imagen pueden comprender imagenes tridimensionales (3D), cuyos elementos de imagen son voxeles.
El metodo de la invencion puede comprender ademas los pasos de:
- descomponer una segunda imagen 3D como una pila de segundas imagenes 2D,
- calcular regiones de interes 2D en dichas segundas imagenes 2D, y
- combinar dichas regiones de interes 2D para obtener una region de interes 3D.
El metodo de la invencion puede comprender ademas los pasos de:
- calcular las intersecciones de la segunda malla poligonal con una segunda imagen 2D, para generar una imagen de contorno 2D, y
- identificar elementos de imagen de dicha segunda imagen 2D, que pertenecen al area o areas encerradas por los contornos de la imagen de contorno 2D.
El metodo de la invencion puede comprender ademas los pasos de:
- generar un arbol octal que almacena las referencias a las localizaciones de las caras de la segunda malla poligonal, y
- calcular las intersecciones de dicha segunda malla poligonal con dicha segunda imagen 2D utilizando dicho arbol octal, para limitar dicho calculo a las caras relevantes, o a las caras de la segunda malla poligonal localizadas en dicha area de la segunda imagen 2D.
Un arbol octal es una estructura de datos en arbol bien conocida en la que cada nodo interno tiene ocho hijos.
5
10
15
20
25
30
35
40
45
Permite dividir el espacio 3D subdividiendolo de forma recursiva en ocho octantes, para permitir una indexacion espacial muy eficiente y rapida.
El metodo de la invencion puede comprender ademas los pasos de:
- aplicar a la imagen de contorno 2D una deteccion de componentes conectados, para obtener una imagen 2D donde las areas 2D localizadas fuera de cualquier figura cerrada se marcan como “exteriores”,
- crear una imagen de mapa de profundidad en la forma de una memoria temporal que asocia a los pfxeles de dicha imagen 2D uno de los siguientes valores de profundidad: los valores complementarios “interior” o “exterior”, o “indefinido”,
- inicializar en dicho mapa de profundidad los pfxeles previamente identificados como “exteriores” por la deteccion de componentes conectados al valor “exterior”,
- llenar dicho mapa de profundidad identificando iterativamente las areas encerradas por los contornos, desde el contorno mas externo al mas interno, separando cada contorno los pfxeles “exteriores” y los pfxeles “interiores”, definiendo dichos pfxeles “interiores” las regiones de interes 2D.
El metodo de la invencion puede comprender ademas los pasos de inicializar un valor de profundidad actual a “exterior”, y repetir iterativamente, para todos los contornos en la imagen de contorno 2D, los pasos de:
- extraer un casco exterior del contorno mas externo en dicha imagen de contorno 2D utilizando un algoritmo de seguimiento de contorno, siendo elegido dicho contorno mas externo de un criterio relativo a su proximidad con los bordes de la imagen,
- aplicar la deteccion de componentes conectados en dicho casco de contorno para generar las areas distintas correspondientes a, respectivamente: el exterior del contorno, el contorno y el interior del contorno,
- actualizar el mapa de profundidad marcando los pfxeles del contorno del casco con el valor de profundidad actual, y los pfxeles del area interior del casco con el valor complementario de la profundidad actual,
- eliminar dicho contorno extrafdo de dicha imagen de contorno 2D, y
- ajustar el valor de profundidad actual a su valor complementario para la siguiente iteracion.
Segun algunos modos de realizacion, la funcion de transformacion espacial puede comprender unicamente transformaciones corporales ngidas y/o escalamiento.
Las transformaciones corporales ngidas pueden comprender, por ejemplo, traslaciones y rotaciones.
El metodo de la invencion puede comprender ademas los pasos de:
- generar una primera malla poligonal que encierra la region de interes inicial en la primera imagen,
- identificar las parejas de primeros elementos de imagen de dicha primera malla poligonal, que enlazan los segmentos de lmea incluidos en dicha region de interes inicial y orientados a lo largo de, al menos, una direccion de dicha primera imagen,
- calcular una segunda malla poligonal en la segunda imagen aplicando la funcion de transformacion espacial a dichas parejas de primeros elementos de imagen, para calcular las parejas correspondientes de los segundos elementos de imagen,
- calcular los elementos de imagen de dicha segunda imagen, que pertenecen a los segmentos de lmea limitados por dichas parejas correspondientes de los segundos elementos de imagen, utilizando un algoritmo de rasterizacion y teniendo en cuenta un grosor de segmento para evitar cualquier espacio que queda entre los segmentos vecinos.
Segun algunos modos de realizacion,
- los muestreos espaciales para la primera y segunda imagen pueden ser diferentes;
- la primera imagen puede ser una imagen de referencia o una imagen de un atlas anatomico;
- la primera y la segunda imagen pueden ser adquiridas utilizando tecnicas de formacion de imagen medicas distintas, o diferentes modalidades, o diferentes canales de adquisicion;
- la primera y la segunda imagen pueden ser adquiridas utilizando al menos una de las siguientes tecnicas de formacion de imagen medicas: tomograffa computarizada (CT), formacion de imagen por resonancia magnetica (MRI), tomograffa por emision de positrones (PET), formacion de imagenes por ultrasonidos.
5
10
15
20
25
30
35
40
45
50
Segun otro aspecto, se propone un programa informatico que comprende las instrucciones para llevar a cabo los pasos del metodo de la invencion, cuando dicho programa informatico se ejecuta en un sistema informatico.
Segun otro aspecto mas, se propone un sistema de procesamiento de imagenes que comprende los medios adaptados para llevar a cabo los pasos del metodo de la invencion.
Por lo tanto, el metodo de la invencion permite transponer una Region de Interes (ROI) desde una primera imagen o imagen de origen a una segunda imagen o imagen de destino utilizando un proceso de transposicion que preserva la topologfa. Este proceso tiene en cuenta cualquier tipo de procesamiento previo de registro (ngido o blando) que puede haber sido realizado entre las imagenes de origen y de destino.
El metodo de la invencion puede utilizarse, por ejemplo, para transponer una ROI que encierra una patologfa detectada desde una imagen 3D de origen, donde la patologfa es visible, a una imagen 3D de destino donde la patologfa no es visible o tiene un lfmite difuso o indeterminado, para realizar medidas espedficas o adicionales para la caracterizacion de esta patologfa. Por ejemplo, la imagen de origen puede ser una imagen anatomica de CT, y la imagen de destino puede ser una imagen funcional de PET.
La ROI puede ser tambien una estructura anatomica que puede estar segmentada en la primera imagen o imagen de origen, y transpuesta a la imagen de destino donde una segmentacion directa de la misma estructura sena menos eficiente o mas lenta, o incluso imposible.
El metodo de la invencion tambien puede utilizarse para transponer o mapear una ROI derivada de un modelo anatomico teorico o generico a una imagen de un paciente.
Por ejemplo, el metodo de la invencion puede utilizarse para proyectar un atlas de una imagen de CT de “referenda” etiquetada a una imagen anatomica de CT de destino, compensando al mismo tiempo la variabilidad entre las imagenes de referencia y de destino.
La ROI inicial puede derivarse tambien de un primer paciente, y transponerse a una imagen de un segundo paciente.
El metodo de la invencion tambien puede utilizarse para iniciar una nueva segmentacion en la imagen de destino utilizando la ROI transpuesta como una “primera suposicion”, por ejemplo:
- durante un ciclo respiratorio, para segmentar los pulmones en una imagen 3D de destino sobre la base de una primera estimacion procedente de una imagen 3D de origen,
- durante un seguimiento longitudinal, para segmentar un nodulo pulmonar en una serie adquirida en tiempos T1 de una serie previa adquirida en tiempos anteriores T0 donde el nodulo ya estaba segmentado.
El metodo de la invencion tambien puede utilizarse para hacer un remapeo de resolucion de una ROI. El metodo puede entonces permitir el calculo de una version sobre-muestreada de una ROI mediante la transposicion de una ROI desde una imagen con una cuadncula de muestra gruesa a una imagen con una mas fina, para permitir realizar medidas mas precisas en la ROI refinada.
Como ya se ha explicado, la proyeccion de un conjunto de voxeles que definen una figura 3D consistente (o pfxeles para imagenes 2D) de una forma a otra a traves de una funcion matematica induce muchos problemas, siendo el mayor que los voxeles proyectados pueden dispersarse en el espacio de destino induciendo asf la perdida de propiedades topologicas.
Es una ventaja del metodo de la invencion resolver este problema (i) transformando el conjunto discreto de voxeles definidos en el espacio discreto de origen (la imagen 3D de origen) en una representacion basada en lo simple (por ejemplo, triangulos o cuadrangulos, etc.), (ii) proyectando solo algunos vertices definidos de tal representacion en el espacio discreto de destino (la imagen 3D de destino), y luego (iii) volviendo a discretizar la figura proyectada basada en lo simple en este espacio discreto de destino como un conjunto consistente de voxeles.
Tambien es una ventaja del metodo utilizar enfoques tecnicos adaptados espedficamente al contexto de la imagen medica, tales como procesar imagenes 3D como pilas de imagenes 2D, que es la forma en la que varias tecnicas de formacion de imagen medicas, tales como la RMI, adquieren las imagenes.
Es una ventaja adicional del metodo permitir enlazar los conjuntos de voxeles de la ROI de origen y de destino para realizar cualquier analisis y medida de modalidades cruzadas sin simplificacion o perdida de informacion indebida.
Descripcion de los dibujos
Los metodos segun las realizaciones de la presente invencion pueden entenderse mejor con referencia a los dibujos, que se dan para fines meramente ilustrativos y no pretenden ser limitantes. Otros aspectos, objetivos y ventajas de la invencion seran evidentes a partir de las descripciones dadas a continuacion.
- La Figura 1 ilustra el metodo de la invencion aplicado a imagenes 3D,
5
10
15
20
25
30
35
40
45
- La Figura 2 ilustra una imagen 2D en corte, con una ROI 2D,
- La Figura 3 ilustra el metodo de la invencion cuando solamente se considera el registro ngido,
- Las Figuras 4a a 4i ilustran los pasos del metodo cuando se consideran los registros blandos o ngidos. Descripcion detallada de la invencion
Con referencia a la Figura 1, el metodo de la invencion permite calcular una region de interes (ROI) 4 en una segunda imagen o imagen de destino 2 utilizando una region de interes (ROI) 3 inicial en una primera imagen o imagen de origen 1.
Con referencia a la Figura 2, las imagenes de origen y de destino pueden ser imagenes 3D compuestas de elementos de imagen 3D, o voxeles 11. Las imagenes 3D se pueden representar normalmente como pilas de imagenes 2D 10 compuestas de elementos de imagen 2D, o pfxeles 12.
Una region de interes (ROI) 3 de una imagen 3D es un area de la imagen cuyos voxeles 11 han sido etiquetados como pertenecientes a una estructura espedfica, por ejemplo, durante un proceso de segmentacion. En el ejemplo de la Figura 1, solamente se muestra una ROI 3 correspondiente a un cerebro.
Si la imagen 3D se representa como una pila de imagenes 2D o de cortes 2D, la ROI 3D aparece en las imagenes 2D 10 como una coleccion de pfxeles 12 etiquetados formando una ROI 2D 13.
Con el fin de poder comparar y utilizar las imagenes juntas, la imagen de origen 1 y la imagen de destino 2 deben estar enlazadas durante un proceso de registro. Este proceso es comun en imagenes medicas, por lo que no se describe aqu en detalle.
El proceso de registro consiste en calcular una funcion 5 de transformacion espacial que describe las deformaciones espaciales entre una imagen de origen 1 y una imagen de destino 2. Estas deformaciones pueden ser debidas a diferencias en las modalidades o tecnicas de imagen, y/o los movimientos del paciente, por ejemplo.
La funcion 5 de transformacion espacio permite establecer una relacion entre los elementos de imagen de la imagen de origen 1 y de la imagen de destino 2, para poder corregir las deformaciones de una imagen con respecto a la otra y permitir un buen ajuste de las imagenes. Se puede calcular en la forma de una funcion o una tabla de correspondencia entre las imagenes.
Se puede calcular una funcion 5 de transformacion espacial utilizando el siguiente metodo:
- identificar (manualmente y/o automaticamente) las caractensticas anatomicas notables que se puedan encontrar en ambas imagenes;
- seleccionar un modelo de deformacion;
- si se utiliza un modelo de deformacion ngida, que comprende traslaciones, rotaciones y/o escalamiento de toda la imagen, calcular los mejores parametros de ajuste del modelo para poder superponer tanto como sea posible las caractensticas anatomicas notables de ambas imagenes;
- si se utiliza un modelo de deformacion blanda, superponer las localizaciones de las caractensticas anatomicas notables de las imagenes y calcular las deformaciones locales entre estas caractensticas sobre la base de un modelo de deformacion ffsico (por ejemplo, un modelo de deformacion elastica) o un modelo de deformacion matematico (por interpolacion matematica, ...).
Primer modo: registro ngido
Con referencia a la Figura 3, describiremos un primer modo de implementacion del metodo de la invencion, el cual es aplicable solo cuando se utiliza el registro ngido. En ese caso, la funcion 24 de transformacion espacial entre la imagen de origen 1 y la imagen de destino 2 puede comprender unicamente traslaciones, rotaciones y/o escalamiento.
Este modo de implementacion, cuando sea aplicable, permite alcanzar tiempos de calculo mas cortos. Comprende los siguientes pasos:
1) calcular el contorno de la ROI 3 de origen generando una malla poligonal que se aproxima a la superficie de la ROI;
2) en la imagen de origen 1, identificar las parejas de puntos 20 que pertenecen al contorno de la ROI 3 y que estan en el mismo segmento de lmea 21 a lo largo de una direccion de la cuadncula de muestreo (por ejemplo, el eje X);
3) aplicar la funcion 24 de transformacion espacial a estas parejas de puntos 20 para calcular las correspondientes parejas de puntos 22 en la imagen de destino 2;
5
10
15
20
25
30
35
40
45
50
4) utilizar un algoritmo de rasterizacion tal como el algoritmo de Bresehnam, que calcula los voxeles que pertenecen al segmento de lmea 23 entre las parejas de puntos 22 de la imagen de destino 2. Para tener en cuenta las diferencias en el escalamiento y/o el muestreo entre las imagenes de origen y de destino, aplicar un parametro de grosor a los segmentos de lmea 23 de modo que no se deja ningun voxel entre los segmentos de lmea 23 adyacentes.
La ROI 4 de destino o transpuesta se compone entonces de los voxeles que han sido identificados durante el proceso de rasterizacion.
Este metodo es aplicable mientras que la funcion 24 de transformacion espacial sea tal que los segmentos de lmea 23 transpuestos en la imagen de destino 2 permanezcan paralelos entre st
Por supuesto, el mismo proceso puede repetirse a lo largo de las otras direcciones de la cuadncula de muestra de la imagen de origen (por ejemplo, los ejes Y o Z).
Segundo modo: registro ngido y blando
Con referencia a la Figura 4, describiremos un segundo modo de implementacion del metodo de la invencion, el cual es aplicable con cualquiertipo de registro ngido y/o blando.
Comprende los siguientes pasos:
1) calcular el contorno de la ROI 3 de origen en la imagen de origen 1 generando una malla poligonal que se aproxima a la superficie de la ROI;
2) deformar la malla poligonal utilizando la funcion 5 de transformacion espacial, para calcular la correspondiente malla deformada en el espacio de la imagen de destino 2;
3) generar un arbol octal que almacena las referencias a las caras de la malla deformada;
4) procesar la imagen de destino 2 corte a corte. Es importante senalar que las imagenes medicas son ya normalmente almacenadas como pilas de cortes 2D, y que tambien son frecuentemente adquiridas de esa manera (como la MRI, por ejemplo);
5) calcular la interseccion de los cortes del volumen de destino con la malla poligonal deformada utilizando el arbol octal para limitar la operacion a las caras relevantes, y generar una imagen de contorno 2D (Figura 4a) que representa estas intersecciones 30. Cada corte de destino se prueba contra el arbol octal para determinar el subconjunto de triangulos que podnan interceptar el plano del corte. Las imagenes de contorno 2d son entonces el resultado de la interseccion 30 de los triangulos de la malla poligonal deformada con los planos que soportan los cortes del volumen de destino. Para cada triangulo de interseccion, la figura de la interseccion 30 con el plano de soporte se dibuja en 2D en la imagen que representa el corte actual. La interseccion 30 de un triangulo con un plano no grueso es, bien vada, bien un solo pixel, bien un lmea, o bien el propio triangulo si esta contenido en el plano;
6) llenar la imagen de contorno utilizando un proceso de llenado 2D que se describe a continuacion, para identificar los pfxeles del corte pertenecientes al corte 2D de la ROI 4 de destino (Figura 4j);
7) combinar las imagenes de contornos 2D llenadas para construir la ROI 4 de destino.
El proceso de llenado 2D permite un procesamiento relativamente rapido mientras que garantiza resultados correctos en la gran mayona de los casos. La idea basica es “pelar” capas (o grupos) sucesivas de pfxeles del corte de imagen 2D, basandose en su conectividad con los “pfxeles exteriores”, de modo que las capas o grupos se pueden identificar como “interiores” o “exteriores”.
El proceso de llenado 2D comprende los siguientes pasos:
1) tomar una “imagen de contorno” (Figura 4a) como una entrada, y aplicar un algoritmo de deteccion de componentes conectados. La deteccion de componentes conectados, o el reconocimiento de regiones, se refiere a una clase de algoritmos bien conocidos que permite identificar grupos de pfxeles 12 que comparten algunas propiedades con sus vecinos, con el fin de segmentar los pfxeles en grupos basandose en estas propiedades. El resultado aqrn es una imagen 2D (Figura 4b) donde todas las areas 2D 31 localizadas fuera de cualquier figura cerrada se marcan como “exteriores”. Mas precisamente, en el ejemplo de la Figura 4b, la deteccion de componentes conectados resulta en una segmentacion de los pfxeles en los siguientes grupos: area mas externa 31, contornos y posibles inclusiones indeseables 32, y las dos areas 33, 34, siendo esta ultima, en el ejemplo, una lumen central que no pertenece a la ROI;
2) crear un “mapa de profundidad” (Figura 4c) que es una imagen con el mismo tamano que el corte de destino. El “mapa de profundidad” es una memoria temporal de datos de pfxeles que asocia, para cada pixel en el corte de destino, un valor de “profundidad” entero que determina si el pixel es “interior”, “exterior”, o “indefinido”. Inicializar todos los pfxeles 35 previamente identificados como “exteriores” por la deteccion de componentes conectados al
5
10
15
20
25
30
35
valor “fuera” (0). El resto de los pfxeles 36 se establecen al valor “indefinido” (-1). Durante las iteraciones del proceso, los pfxeles del mapa de profundidad seran actualizados para reflejar la localizacion (“dentro” o “fuera”) de los pfxeles en el corte de destino relativo al area mas externa;
3) inicializar un parametro de “profundidad actual” a “exterior”;
4) el “proceso de pelado”: mientras que haya puntos de contorno en la imagen de contorno (Figura 4d), repetir:
(i) encontrar el “siguiente” punto de contorno 37 en la imagen de contorno a rellenar. El “siguiente” punto de contorno se define como el pixel mas a la izquierda y mas alto en la imagen de contorno. Recuperar el valor de profundidad asociado con ese pixel del mapa de profundidad (siendo lefdo este valor de profundidad del mapa de profundidad previamente inicializado);
(ii) extraer el casco exterior 38 del contorno (Figura 4e) utilizando un algoritmo clasico de seguimiento de contorno. Elimina cualquier contorno “interior” que estuviera localizado dentro del casco;
(iii) aplicar una deteccion de componentes conectados en el casco (Figura 4f). Genera 3 areas distintas: el exterior de la figura 39, el contorno de la figura 40, y el interior de la figura 41;
(iv) utilizar la imagen de componentes conectados del paso previo (Figura 4f) para actualizar el mapa de profundidad (Figura 4g) para los pfxeles 42 localizados dentro del casco. Los pfxeles 40 del contorno del casco se marcan con la profundidad actual (“exterior” en la Figura 4g), los pfxeles 42 del interior del casco se marcan como complementarios de la profundidad actual (“interior” en la Figura 4g);
(v) restar los puntos de contorno 40 del casco de la imagen de contornos (Figura 4a), lo que lleva a la Figura 4h que se convierte en la nueva imagen de contornos, reemplazando a la Figura 4d en la siguiente iteracion;
(vi) ajustar la profundidad actual a su propio valor complementario (que es “interior” si era “exterior” y viceversa) para la siguiente iteracion,
(vii) repetir la iteracion en el paso (i).
5) finalmente, restaurar los contornos exteriores de origen que faltan en el mapa de profundidad obtenido despues de las iteraciones utilizando la imagen de componentes conectados (Figura 4b). Se realiza para restaurar los contornos de la figura original, que se perdieron durante el proceso de pelado en el paso 4 (los contornos 40 del casco se ajustan a la profundidad de pixel actual en la Figura 4f, la cual es “exterior” en la primera iteracion). Este paso es por tanto, simplemente ajustar la profundidad del pixel del contorno original a “interior” para que no se pierdan. La Figura 4i y la Figura 4j muestran el mapa de profundidad antes y despues, respectivamente, de restaurar los contornos de la figura original.
Al final del proceso, el mapa de profundidad (Figura 4j) mantiene el estado de “interior” o “exterior” de todos y cada uno de los pfxeles de la imagen original. El mapa de profundidad es por tanto, la imagen de resultado llenada correctamente.
Los pfxeles de la ROI son los pfxeles “interiores” 44. En el ejemplo de la Figura 4, la ROI corresponde a una estructura hueca con una lumen (tal como un vaso sangumeo).
Mientras que la invencion se ha descrito en conjuncion con un numero de realizaciones, es evidente que muchas alternativas, modificaciones y variaciones senan o son evidentes para los expertos en las tecnicas aplicables. En consecuencia, se pretende abarcar todas esas alternativas, modificaciones, equivalentes y variaciones que estan dentro del esprntu y del alcance de esta invencion.

Claims (15)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    45
    REIVINDICACIONES
    1. Un metodo para calcular una region de interes (4) en una segunda imagen medica (2) utilizando una region de interes (3) inicial en una primera imagen medica (1), que comprende un paso inicial de calcular una funcion (5, 24) de transformacion espacial que describe la correspondencia espacial entre dichas primera y segunda imagenes utilizando las caractensticas anatomicas notables que se pueden encontrar en ambas imagenes, caracterizado por que comprende ademas los pasos de:
    - generar una primera malla poligonal que encierra dicha region de interes (3) inicial en la primera imagen (1),
    - aplicar la funcion 5 de transformacion espacial a la primera malla poligonal para calcular una segunda malla poligonal en la segunda imagen (2) que corresponde a dicha primera malla poligonal deformada por dicha funcion (5) de transformacion espacial,
    - calcular la region de interes (4) en la segunda imagen (2) identificando los elementos de imagen (11, 12) de dicha segunda imagen (2) que pertenecen al area encerrada por dicha segunda malla poligonal.
  2. 2. El metodo de la reivindicacion 1, en donde la funcion (5) de transformacion espacial comprende deformaciones blandas.
  3. 3. El metodo de las reivindicaciones 1 o 2, que comprende ademas los pasos de:
    - descomponer una segunda imagen 3D (2) como una pila de segundas imagenes 2D (10),
    - calcular regiones de interes 2D (13) en dichas segundas imagenes 2D (10), y
    - combinar dichas regiones de interes 2D (13) para obtener una region de interes 3D (4).
  4. 4. El metodo de cualquiera de las reivindicaciones precedentes, que comprende ademas los pasos de:
    - calcular las intersecciones de la segunda malla poligonal con una segunda imagen 2D (10), para generar una imagen de contorno 2D, e
    - identificar los elementos de imagen de dicha segunda imagen 2D (10), que pertenecen al area o areas encerradas por los contornos (30) de la imagen de contorno 2D.
  5. 5. El metodo de la reivindicacion 4, que comprende ademas los pasos de:
    - generar un arbol octal que almacena las referencias a las localizaciones de poligonal, y
    - calcular las intersecciones de dicha segunda malla poligonal con dicha segunda arbol octal.
  6. 6. El metodo de la reivindicacion 4 o 5, que comprende ademas los pasos de:
    - aplicar a la imagen de contorno 2D una deteccion de componentes conectados, para obtener una imagen 2D donde las areas 2D localizadas fuera de cualquier figura cerrada (31) se marcan como “exteriores”,
    - crear una imagen de mapa de profundidad en la forma de una memoria temporal que asocia a los pfxeles de dicha imagen 2D uno de los siguientes valores de profundidad: los valores complementarios “interior” o “exterior”, o “indefinido”,
    - inicializar en dicho mapa de profundidad los pfxeles (35) previamente identificados como “exteriores” por la deteccion de componentes conectados al valor “exterior”,
    - llenar dicho mapa de profundidad identificando iterativamente las areas (44) encerradas por los contornos (30), desde el contorno mas externo al mas interno, separando cada contorno los pfxeles “exteriores” y los pfxeles “interiores”, definiendo dichos pfxeles “interiores” las regiones de interes 2D.
  7. 7. El metodo de la reivindicacion 6, que comprende ademas los pasos de inicializar un valor de profundidad actual a “exterior” y repetir iterativamente, paratodos los contornos en la imagen de contorno 2D, los pasos de:
    - extraer un caso exterior (38) del contorno mas externo en dicha imagen de contorno 2D utilizando un algoritmo de seguimiento de contorno, siendo elegido dicho contorno mas externo de un criterio relativo a su proximidad con los bordes de la imagen,
    - aplicar la deteccion de componentes conectados en dicho casco de contorno para generar las distintas areas correspondientes a, respectivamente: el exterior del contorno (39), el contorno (40) y el interior del contorno (41),
    las caras de la segunda malla imagen 2D (10) utilizando dicho
    5
    10
    15
    20
    25
    30
    - actualizar el mapa de profundidad marcando los pfxeles (40) del contorno del casco con el valor de profundidad actual, y los p^xeles (41) del area interior del casco con el valor complementary de la profundidad actual,
    - eliminar dicho contorno extrafdo de dicha imagen de contorno 2D, y
    - ajustar el valor de profundidad actual a su valor complementary para la siguiente iteracion.
  8. 8. El metodo de la reivindicacion 1, en donde la funcion (24) de transformacion espacial comprende unicamente transformaciones corporales ngidas y/o escalamiento.
  9. 9. El metodo de la reivindicacion 8, que comprende ademas los pasos de:
    - generar una primera malla poligonal que encierra la region de interes (3) inicial en la primera imagen (1),
    - identificar las parejas de primeros elementos de imagen (20) de dicha primera malla poligonal, que limitan los segmentos de lmea (21) incluidos en dicha region de interes inicial y orientados a lo largo de, al menos, una direccion de dicha primera imagen,
    - calcular una segunda malla poligonal en la segunda imagen (2) aplicando la funcion (24) de transformacion espacial a dichas parejas de primeros elementos de imagen (20), para calcular las parejas correspondientes de los segundos elementos de imagen,
    - calcular los elementos de imagen de dicha segunda imagen (2), que pertenecen a los segmentos de lmea (23) limitados por dichas parejas correspondientes de los segundos elementos de imagen (22), utilizando un algoritmo de rasterizacion y teniendo en cuenta un grosor de segmento para evitar cualquier espacio que quede entre segmentos vecinos.
  10. 10. El metodo de cualquiera de las reivindicaciones precedentes, en donde los muestreos espaciales para la primera y la segunda imagen (1, 2) son diferentes.
  11. 11. El metodo de cualquiera de las reivindicaciones precedentes, en donde la primera imagen (1) es una imagen de referencia o una imagen de un atlas anatomico.
  12. 12. El metodo de cualquiera de las reivindicaciones precedentes, en donde la primera y la segunda imagen se adquieren utilizando distintas tecnicas de formacion de imagen medica.
  13. 13. El metodo de cualquiera de las reivindicaciones precedentes, en donde la primera y la segunda imagen (1, 2) se adquieren utilizando al menos una de las siguientes tecnicas de formacion de imagen medica: tomografy computarizada (CT), formacion de imagen por resonancia magnetica (MRI), tomograffa por emision de positrones (PET), formacion de imagenes por ultrasonidos.
  14. 14. Un programa informatico que comprende las instrucciones para llevar a cabo los pasos del metodo segun cualquiera de las reivindicaciones precedentes, cuando dicho programa informatico se ejecuta en un sistema informatico.
  15. 15. Un sistema de procesamiento de imagenes que comprende medios adaptados para llevar a cabo los pasos del metodo segun cualquiera de las reivindicaciones 1 a 13.
ES12305397.7T 2012-04-03 2012-04-03 Método de remapeo de una ROI conservando la topología entre imágenes médicas Active ES2627108T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP12305397.7A EP2648160B1 (en) 2012-04-03 2012-04-03 Topology-preserving ROI remapping method between medical images

Publications (1)

Publication Number Publication Date
ES2627108T3 true ES2627108T3 (es) 2017-07-26

Family

ID=48190915

Family Applications (1)

Application Number Title Priority Date Filing Date
ES12305397.7T Active ES2627108T3 (es) 2012-04-03 2012-04-03 Método de remapeo de una ROI conservando la topología entre imágenes médicas

Country Status (6)

Country Link
US (1) US9836834B2 (es)
EP (1) EP2648160B1 (es)
JP (1) JP6153998B2 (es)
CA (1) CA2869799A1 (es)
ES (1) ES2627108T3 (es)
WO (1) WO2013149920A1 (es)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015074158A1 (en) * 2013-11-25 2015-05-28 7D Surgical Inc. System and method for generating partial surface from volumetric data for registration to surface topology image data
US9501830B2 (en) * 2015-03-18 2016-11-22 Intel Corporation Blob detection in noisy images
BR112017019980B1 (pt) * 2015-03-19 2024-03-12 Nobel Biocare Services Ag Segmentação de objetos em dados de imagem utilizando detecção de canal
EP3109824B1 (en) * 2015-06-24 2019-03-20 RaySearch Laboratories AB System and method for handling image data
CN107545584B (zh) * 2017-04-28 2021-05-18 上海联影医疗科技股份有限公司 医学图像中定位感兴趣区域的方法、装置及其系统
WO2018001099A1 (zh) * 2016-06-30 2018-01-04 上海联影医疗科技有限公司 一种血管提取方法与系统
CN109640831B (zh) * 2016-09-01 2022-06-28 皇家飞利浦有限公司 超声诊断装置
FR3066902A1 (fr) * 2017-06-06 2018-12-07 Therenva Procede et systeme d'aide au guidage d'un outil endovasculaire
CN110021025B (zh) * 2019-03-29 2021-07-06 上海联影智能医疗科技有限公司 感兴趣区域的匹配和显示方法、装置、设备及存储介质
CN110148160A (zh) * 2019-05-22 2019-08-20 合肥中科离子医学技术装备有限公司 一种正交x射线影像快速2d-3d医学图像配准方法
CN111476762B (zh) * 2020-03-26 2023-11-03 南方电网科学研究院有限责任公司 一种巡检设备的障碍物检测方法、装置和巡检设备

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05282422A (ja) * 1992-04-03 1993-10-29 Asahi Chem Ind Co Ltd 画像処理装置
JP2002109538A (ja) * 2000-10-03 2002-04-12 Fuji Photo Film Co Ltd 画像の位置合わせ方法および装置
JP2006325629A (ja) * 2005-05-23 2006-12-07 Ge Medical Systems Global Technology Co Llc 3次元関心領域設定方法,画像取得装置およびプログラム
US7689021B2 (en) * 2005-08-30 2010-03-30 University Of Maryland, Baltimore Segmentation of regions in measurements of a body based on a deformable model
JP2007267979A (ja) * 2006-03-31 2007-10-18 Yoko Arimasa 生物の臓器形態解析方法と生物の臓器形態解析システム
US7817835B2 (en) 2006-03-31 2010-10-19 Siemens Medical Solutions Usa, Inc. Cross reference measurement for diagnostic medical imaging
US8284204B2 (en) * 2006-06-30 2012-10-09 Nokia Corporation Apparatus, method and a computer program product for providing a unified graphics pipeline for stereoscopic rendering
CN101490716B (zh) * 2006-07-17 2012-07-04 皇家飞利浦电子股份有限公司 用于医学图像分割的与多边形网格的高效用户交互
WO2009077955A1 (en) * 2007-12-18 2009-06-25 Koninklijke Philips Electronics N.V. Consistency metric based image registration
JP5279291B2 (ja) * 2008-02-19 2013-09-04 株式会社東芝 医用画像表示装置および画像表示方法
US20110178389A1 (en) * 2008-05-02 2011-07-21 Eigen, Inc. Fused image moldalities guidance
US20090326363A1 (en) * 2008-05-02 2009-12-31 Eigen, Llc Fused image modalities guidance
US9521994B2 (en) * 2009-05-11 2016-12-20 Siemens Healthcare Gmbh System and method for image guided prostate cancer needle biopsy
JP2011024763A (ja) * 2009-07-24 2011-02-10 Hitachi Ltd 画像処理方法および画像処理装置
JP5584441B2 (ja) * 2009-08-20 2014-09-03 アズビル株式会社 ボリュームデータ間の対応付け方法
JP5090486B2 (ja) * 2009-09-30 2012-12-05 富士フイルム株式会社 肝臓造影像を用いた医用画像診断装置および画像表示方法、並びにプログラム
JP5745444B2 (ja) * 2012-03-05 2015-07-08 富士フイルム株式会社 医用画像表示装置および医用画像表示方法、並びに、医用画像表示プログラム

Also Published As

Publication number Publication date
EP2648160A1 (en) 2013-10-09
EP2648160B1 (en) 2017-03-08
JP6153998B2 (ja) 2017-06-28
US9836834B2 (en) 2017-12-05
JP2015512312A (ja) 2015-04-27
US20150049932A1 (en) 2015-02-19
CA2869799A1 (en) 2013-10-10
WO2013149920A1 (en) 2013-10-10

Similar Documents

Publication Publication Date Title
ES2627108T3 (es) Método de remapeo de una ROI conservando la topología entre imágenes médicas
Uneri et al. Deformable registration of the inflated and deflated lung in cone‐beam CT‐guided thoracic surgery: Initial investigation of a combined model‐and image‐driven approach
Palágyi et al. Quantitative analysis of pulmonary airway tree structures
US6362821B1 (en) Surface model generation for visualizing three-dimensional objects using multiple elastic surface nets
ES2685977T3 (es) Método y sistema para analizar datos de imágenes
Wan et al. Automatic centerline extraction for virtual colonoscopy
ES2425241T3 (es) Métodos y sistemas de segmentación usando reparametrización de límites
US7813535B2 (en) System and method for fused PET-CT visualization for heart unfolding
US9993304B2 (en) Visualization of catheter of three-dimensional ultrasound
US9495725B2 (en) Method and apparatus for medical image registration
ES2908588T3 (es) Método para controlar una pantalla de presentación visual, programa informático y dispositivo de presentación visual de realidad mixta
KR20080042140A (ko) 화상 처리 방법, 화상 처리 프로그램, 및 화상 처리 장치
JP2017511188A5 (es)
Lee et al. Semi-automatic segmentation for 3D motion analysis of the tongue with dynamic MRI
Zheng et al. Multi-part left atrium modeling and segmentation in C-arm CT volumes for atrial fibrillation ablation
Avila-Montes et al. Segmentation of the thoracic aorta in noncontrast cardiac CT images
Ananth et al. Image Segmentation by Multi-shape GC-OAAM
Aksoy et al. Template‐based CTA to x‐ray angio rigid registration of coronary arteries in frequency domain with automatic x‐ray segmentation
US9585569B2 (en) Virtual endoscopic projection image generating device, method and program
Rasoulian et al. A statistical multi-vertebrae shape+ pose model for segmentation of CT images
Zakariaee et al. Validation of non-rigid point-set registration methods using a porcine bladder pelvic phantom
WO2011110867A1 (en) Apparatus and method for registering medical images containing a tubular organ
Antonsanti et al. How to register a live onto a liver? partial matching in the space of varifolds
BR112017019980B1 (pt) Segmentação de objetos em dados de imagem utilizando detecção de canal
Kronman et al. Anatomical structures segmentation by spherical 3D ray casting and gradient domain editing