ES2738982T3 - Segmentación de objetos en datos de imagen a través del uso de la detección de canal - Google Patents

Segmentación de objetos en datos de imagen a través del uso de la detección de canal Download PDF

Info

Publication number
ES2738982T3
ES2738982T3 ES16713770T ES16713770T ES2738982T3 ES 2738982 T3 ES2738982 T3 ES 2738982T3 ES 16713770 T ES16713770 T ES 16713770T ES 16713770 T ES16713770 T ES 16713770T ES 2738982 T3 ES2738982 T3 ES 2738982T3
Authority
ES
Spain
Prior art keywords
channel
image
objects
image data
voxels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16713770T
Other languages
English (en)
Inventor
Leemput Pieter Van
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nobel Biocare Services AG
Original Assignee
Nobel Biocare Services AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nobel Biocare Services AG filed Critical Nobel Biocare Services AG
Application granted granted Critical
Publication of ES2738982T3 publication Critical patent/ES2738982T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • G06T2207/30012Spine; Backbone

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Generation (AREA)

Abstract

Procedimiento implementado por computadora para identificar, a partir de datos de imágenes que comprenden una pluralidad de píxeles o vóxeles, un "canal", que es una región de imagen entre al menos dos objetos, o entre partes de un objeto, donde dichos objetos o partes de un objeto comprenden conexiones que se cruzan dicho canal, con el procedimiento comprendiendo un ciclo que comprende las etapas de calcular los gradientes de imagen de los píxeles o vóxeles de los datos de la imagen, y analizar la orientación de los gradientes de la imagen, donde, si al menos dos de los gradientes de imagen apuntan en direcciones opuestas entre sí, los píxeles o vóxeles entre los gradientes de imagen opuestos que se encuentran alejados entre sí ubican el canal, el procedimiento comprende además: identificar los píxeles o vóxeles que crean orificios en la región del canal, dichos píxeles o vóxeles hacen que dichos objetos o dichas partes de un objeto en cada lado del canal se conecten, cerrar la región del canal, usar la región del canal cerrado para suprimir las conexiones, desconectando de ese modo dichos objetos, o dichas partes de un objeto, a cada lado del canal y obteniendo objetos separados o partes separadas de un objeto.

Description

DESCRIPCIÓN
Segmentación de objetos en datos de imagen a través del uso de la detección de canal
CAMPO TÉCNICO
La presente invención se refiere en general a un procedimiento para identificar un canal entre al menos dos objetos de los datos de la imagen y su uso para segmentar (es decir, separar) ambos objetos. En particular, este procedimiento fue desarrollado en el contexto de imágenes médicas para objetos de tejido, como el hueso. Además, la invención se refiere a un producto de programa informático que realiza dicho procedimiento, a un medio legible que lleva dicho producto de programa informático y a un aparato configurado para ejecutar dicho producto de programa informático.
ANTECEDENTES
El siguiente texto trata sobre los procedimientos de análisis de imágenes, en particular los procedimientos para la segmentación de (partes de) objetos en una imagen, por ejemplo, una imagen tomográfica computarizada de una articulación dentro del cuerpo humano o animal (como articulaciones de cadera, de hombros, vertebrales, de rodilla, de muñeca, etc.) donde los objetos conectados a través de la articulación pueden segmentarse. Para el procesamiento de imágenes, puede ser necesaria una segmentación (es decir, una separación) de diferentes partes de objetos diferentes o iguales. Las partes pueden tener diferentes propiedades en la imagen, es decir, variaciones en características tales como escala de grises/brillo, color y similares. Estas diferencias resultan de distintas propiedades de los objetos de la imagen. Dependiendo del proceso de obtención de imágenes, se pueden distinguir propiedades como la densidad, la composición del material, el contenido de agua, el contenido de un marcador, la tasa de absorción/reflexión para ondas ultrasónicas o luz y similares. La tarea de segmentación de las representaciones de partes de los objetos reales, que implica la segregación de regiones con las mismas o similares propiedades en la imagen y la construcción de grupos coherentes, se puede realizar automáticamente por medio de algoritmos. Especialmente en lo que respecta a las imágenes médicas, es deseable realizar automáticamente la segmentación de diferentes formas de tejido, como grasa, músculo y hueso, y el reconocimiento de regiones coherentes (por ejemplo, huesos u órganos) en el curso del proceso de imagen o procesamiento de imágenes. Con especial atención a la cirugía maxilofacial y los tratamientos dentales, sería muy útil un algoritmo para separar automáticamente la cabeza del cóndilo de la base del cráneo (más específicamente, la fosa) en la articulación temporomandibular.
En el procesamiento de imágenes médicas, las técnicas de correlación se usan para facilitar una identificación automática de regiones en una imagen que representa ciertas partes o estructuras tales como órganos, huesos, articulaciones o, respectivamente, partes de los mismos. Esas regiones se denominan regiones de interés (ROI). Una técnica de correlación usa plantillas de estructuras que se combinan con los datos de la imagen para localizar las ROI. Para ese propósito, las medidas de similitud se calculan con una correlación cruzada o una correlación cruzada normalizada que representa el grado de correlación (o similitud) entre la plantilla y diferentes regiones en los datos de la imagen. La región con la mejor medida de similitud se selecciona para las etapas posteriores del procesamiento de imágenes. Dichos penetrantes son generalmente conocidos en la materia.
Para poder evaluar la información contenida en una imagen, las diferentes partes y/u objetos mostrados en la imagen deben ser distinguibles sin ambigüedades. En imágenes derivadas de datos de las imágenes, algunas partes de los objetos o los objetos como tales pueden parecer estar conectados de manera integral, aunque en realidad no existe tal conexión. Este tipo de fusión errónea puede surgir durante la captura de datos, la reconstrucción de la imagen y/o las etapas de procesamiento de la imagen. La segmentación de dichos elementos fusionados es difícil de automatizar en los sistemas actuales de procesamiento de imágenes y, por lo tanto, con frecuencia requiere una delineación manual por parte del usuario. La segmentación manual de objetos o partes de ellos puede ser muy difícil cuando estos últimos son pequeños y los espacios intermedios son estrechos. Además, en tres dimensiones, la vista del usuario se encuentra normalmente obstruida por otros objetos o partes. Por lo tanto, un usuario podría elegir líneas y superficies incorrectas. Además, la segmentación manual requiere mucha mano de obra y puede consumir mucho tiempo, lo que conlleva costos elevados.
La mandíbula (es decir, la mandíbula inferior) es una estructura ósea que está conectada a la base del cráneo por dos articulaciones temporomandibulares (ATM), que residen en la parte superior del cóndilo izquierdo y derecho. Estas articulaciones permiten que la mandíbula se mueva, por ejemplo, para masticar. Debido a su baja densidad en las imágenes de tomografía computarizada (TC), definen un canal 3D entre el hueso más denso del cóndilo y la fosa.
Un cirujano maxilofacial que utilice un software de planificación quirúrgica debería ser capaz de reposicionar virtualmente la mandíbula de un paciente para obtener una mejor oclusión o para imitar la articulación realista de la mandíbula. Para este fin, se necesitan objetos de superficie virtual separados: uno que representa la mandíbula y el otro que representa el resto del cráneo. Específicamente, la representación de la superficie del cóndilo en el vértice de la mandíbula debe estar completamente separada de la base del cráneo.
Actualmente, este no suele ser el caso porque los valores de gris en la región de la ATM pueden ser bastante difusos debido a una variedad de razones. Cuando algunos vóxeles de la ATM tienen un valor de gris mayor que el umbral de isovalor, el cual es elegido por el usuario para marcar la superficie visible en una imagen que resulta de los datos de la imagen de DICOM, las superficies se conectan. La precisión limitada del escáner, el ruido, el movimiento del paciente y/o el efecto de volumen parcial (EVP) son las causas más comunes. El EVP se produce cuando el haz del escáner de TC no está linealmente atenuado por dos tipos diferentes de tejido que aparecen juntos en un vóxel. Los artefactos de raya pueden causar una obstrucción del canal virtual al introducir grandes valores de grises falsos dentro del canal.
La anatomía del paciente no estándar o los defectos de la ATM, como la anquilosis parcial o la reabsorción de la articulación, pueden incluso provocar un contacto físico entre la articulación y la fosa. Como tal, el canal de baja densidad definido por la ATM se bloquea de manera parcial y los modelos de superficie virtual se conectarán. Se entiende que esto evita que el cirujano reposicione virtualmente la mandíbula.
A partir del artículo "Detection and matching of curvilinear structures" de Lemaitre y col., se conoce la detección de estructuras curvilíneas usando pares de gradientes en direcciones opuestas.
El artículo "Fully automated segmentation of the pectoralis muscle boundary in breast MR images" de Wang y col. describe la detección de límite (músculo pectoral) mediante el uso de segundas derivadas.
La publicación de la solicitud de patente EP2476363A1 describe la detección de vasos mediante el hallazgo de pares de gradientes en direcciones opuestas.
Sin embargo, ninguno de esos documentos de la técnica anterior describe un "canal" que es una región de imagen entre dos objetos o partes de un objeto. Además, ninguno de esos documentos describe la identificación de orificios en el canal y su llenado a fin de mejorar la separación entre dos objetos o partes de un objeto.
RESUMEN DE LA INVENCIÓN
Para la cirugía maxilofacial y los tratamientos dentales, se detecta una delineación o indicación del canal articular. El canal se usa posteriormente para dividir las superficies de la base del cráneo y mandibular conectadas integralmente entre sí. Esto permite al cirujano mover virtualmente los elementos conectados entre sí a través de la articulación temporomandibular. Como se mencionó anteriormente, separar o delinear manualmente la superficie del cóndilo es un proceso tedioso, laborioso, repetitivo y lleva tiempo. También es difícil visualizar la región de corte/delineación debido a a) las propiedades físicas de una articulación 3D y b) el hecho de que el canal entre el cóndilo y la fosa es estrecho.
La presente invención resuelve los problemas anteriores mediante un procedimiento según la reivindicación 1, un producto de programa informático según la reivindicación 12, un medio legible que lleva el producto de programa informático según la reivindicación 13, un aparato configurado para ejecutar el producto de programa informático según la reivindicación 14 y un sistema médico según la reivindicación 15. Las características ventajosas y preferidas, así como también los desarrollos adicionales de la presente invención están sujetos a las reivindicaciones dependientes.
Según la invención, un procedimiento implementado por computadora para identificar, a partir de datos de la imagen que comprenden una pluralidad de píxeles o vóxeles, un canal entre al menos dos objetos, por ejemplo tejido, en particular hueso, del cuerpo humano o animal, comprende un ciclo, preferentemente varios ciclos, de las siguientes etapas.
Se calculan los gradientes de imagen de los píxeles o vóxeles de los datos de la imagen y se analizan sus orientaciones. Para cada píxel o vóxel, si al menos dos de los gradientes de imagen adyacentes apuntan en direcciones opuestas, se determina que el píxel o vóxel entre los gradientes es parte del canal. Aquí, el canal está definido por los bordes de los objetos que lo rodean. El canal se puede ubicar en el fondo de dicha imagen.
En una realización de la invención, un procedimiento implementado por computadora para identificar, a partir de datos de la imagen que comprenden una pluralidad de píxeles o vóxeles, un "canal", por ejemplo, una región de imagen, entre al menos dos objetos, o entre partes de un objeto, comprende un ciclo, preferentemente varios ciclos, comprendiendo las etapas de:
calcular los gradientes de imagen de los píxeles o vóxeles de los datos de la imagen, y
analizar la orientación de los gradientes de la imagen,
donde, si al menos dos de los gradientes de imagen apuntan en direcciones opuestas entre sí, los píxeles o vóxeles entre los gradientes de imagen opuestos ubican el canal, el procedimiento comprende además:
identificar los píxeles o vóxeles que crean orificios en el volumen del canal, dichos píxeles o vóxeles hacen que dichos objetos o dichas partes de un objeto en cada lado del canal se conecten,
cerrar el volumen del canal,
usar el volumen del canal cerrado para suprimir las conexiones, desconectando así dichos objetos, o dichas partes de un objeto, a cada lado del canal y obteniendo objetos separados o partes separadas de un objeto.
Preferentemente, se elige una parte de los datos de la imagen. La porción contiene datos de la imagen de al menos una parte de al menos dos de los objetos (ROI). Preferentemente, se calculan los gradientes de imagen de los píxeles o vóxeles de la parte elegida de los datos de la imagen y se analizan sus orientaciones. En este caso, para cada píxel o vóxel, si al menos dos de los gradientes de imagen adyacentes apuntan en direcciones opuestas, se determina que la porción elegida de los datos de la imagen contiene bordes de los objetos que definen el canal.
Preferentemente, el canal se usa posteriormente para segmentar los objetos a cada lado del canal, por ejemplo, al comprender además la generación de superficies de los objetos correspondientes que están separados por el canal.
Los inventores han descubierto que, cuando los vectores de gradiente en la imagen son opuestos, indican la existencia de bordes entre (partes de) objetos que pueden usarse para identificar el canal entre los objetos. Convencionalmente, los objetos fueron identificados en lugar del canal. Según la invención, lo que se identifica es el canal, y la segregación/segmentación de los objetos se lleva a cabo sobre la base de este canal.
El procedimiento de la invención permite usar una computadora para la segmentación de partes cercanas, en particular partes de una articulación temporomandibular, en una imagen médica sobre la base de los datos de la imagen obtenidos de, por ejemplo, una tomografía computarizada o una fuente similar. En particular, con respecto a la cirugía maxilofacial, la "segregación", la "segmentación" o la "división" de las superficies óseas conectadas por la articulación pueden automatizarse sobre la base de la presente invención.
De este modo, por un lado, se evita la tarea tediosa y el riesgo de una segmentación imprecisa o incorrecta por parte de un humano en el tratamiento médico. Por otro lado, el análisis de la imagen se completa en menos tiempo y, por lo tanto, los costos para el análisis de la imagen se pueden reducir.
Un "objeto" en este contexto debe entenderse como un objeto en la imagen limitado por una superficie (o de manera equivalente por bordes). Esta superficie puede oponerse a una superficie de un objeto diferente en la imagen, o puede enfrentar un objeto no superficial como el tejido no óseo. Además, un "canal" en este contexto debe entenderse como una pequeña región entre dos objetos que pueden estar "vacíos" u ocupados por algún otro material, como grasa, agua, aire, etc. (en otras palabras, el canal puede ubicarse en el fondo de la imagen mientras que los objetos están en primer plano). Por lo tanto, la expresión "identificación de un canal entre al menos dos objetos de superficie" se usa como sinónimo de segmentación, segregación o distinción de al menos dos partes de uno o más objetos. Un ejemplo particular de un objeto es la superficie del cóndilo, por ejemplo, cuando el canal debe determinarse entre la superficie mandibular y la de la base del cráneo.
Los "datos de la imagen" son datos, generalmente datos digitales, que contienen información que puede, o se pretende que sea interpretada, por ejemplo, por un software de computadora, para formar una imagen de dos o tres dimensiones. Dichos datos de la imagen pueden obtenerse, por ejemplo, de un sistema de tomografía computarizada (TC), imágenes ultrasónicas (US) o imágenes de resonancia magnética (IRM), pero también de rayos X simples o procedimientos similares y no están restringidos a un procedimiento de imagen específico. Preferentemente, sin embargo, los datos de la imagen se obtienen a partir de una TC o una tomografía computarizada de haz cónico (TCHC).
Los "gradientes de imagen" son diferencias de intensidad entre las propiedades de los píxeles o, preferentemente, los vóxeles de una imagen y pueden calcularse para toda la imagen a la vez. Preferentemente, estas propiedades son de escala de grises, valores de brillo y/o valores de color que representan propiedades físicas reales como densidad, contenido de agua, forma, rugosidad de la superficie, etc. de un objeto. Un valor distinto de cero del gradiente en un píxel/vóxel indica un cambio en la intensidad entre el píxel/vóxel y sus vecinos. Un gran valor (es decir, un tamaño de vector de gradiente grande) normalmente se produce en la superficie del objeto (es decir, en los bordes). La orientación de un vector de gradiente de imagen es la dirección en la que aumenta la intensidad de la propiedad respectiva de un píxel o vóxel. En el contexto de la presente invención, se entiende que dos gradientes están orientados en direcciones opuestas cuando los vectores de gradiente de los píxeles/vóxeles apuntan en sentido contrario al otro vóxel respectivo en lugar de dirigirse hacia el otro píxel/vóxel.
Preferentemente, los objetos son objetos de tejido, en particular objetos de hueso, del cuerpo humano o animal. Sin embargo, la presente invención también puede aplicarse generalmente a otros objetos.
Según un procedimiento preferido, se elige una porción de los datos de la imagen de manera tal que contenga datos de la imagen de al menos una parte de los al menos dos objetos. Sin embargo, no es esencial elegir una porción de los datos de la imagen, sino que también es posible aplicar el procedimiento a los datos de toda la imagen proporcionados para el procedimiento. La elección de una porción de los datos de la imagen mejora el procedimiento, ya que es posible una automatización adicional de la identificación del canal entre los al menos dos objetos.
A lo largo de su extensión longitudinal, el ancho del canal entre los objetos de la superficie puede variar. Además, los canales de anchos generalmente diferentes pueden ser de interés. Por lo tanto, es ventajoso adaptar automáticamente el tamaño de la etapa para calcular el canal, usando el llamado enfoque de resolución múltiple. La adaptación puede ser hacia etapas más largas para canales más anchos y hacia etapas más cortas para canales más estrechos. Para la articulación del cóndilo, generalmente se puede asumir un ancho de canal de 3 a 4 mm o menos.
Ventajosamente, los gradientes de imagen se relacionan con las diferencias en las intensidades de los valores de color, en particular las intensidades de los valores en gris, los valores de la escala de Hounsfield o los valores de intensidad de la señal de radiofrecuencia.
Para distinguir diferentes tejidos, como huesos, músculos, piel, cutis o grasa, es necesario distinguir las distintas propiedades que reflejan la información contenida en los datos de la imagen. Esta información está codificada en características distintas de los píxeles o vóxeles individuales como intensidades de valores de color/gris, por ejemplo, para diferentes valores de escala de Hounsfield o valores de intensidad de señal de radiofrecuencia. Las características dependen, en algunos casos, de la tecnología de imagen usada para obtener los datos de la imagen.
En un procedimiento preferido, los al menos dos objetos son parte de una articulación, en particular una articulación temporomandibular, particularmente una mandíbula, en particular una cabeza de cóndilo mandibular, y un cráneo, en particular una fosa de la base del cráneo. Sin embargo, los objetos de superficie de otras articulaciones, como las articulaciones de la cadera, las de los hombros, las vertebrales, las de las rodillas, las de las muñecas, etc. pueden ser objeto adicional o alternativo del procedimiento de segregación descrito anteriormente.
La cabeza del cóndilo y la fosa de las articulaciones temporomandibulares tienden a fusionarse en imágenes reconstruidas a partir de datos de imágenes de las articulaciones temporomandibulares. Como se describió anteriormente, la segmentación de estas estructuras es muy difícil y requiere mucho tiempo. Como se describió anteriormente y se describe a continuación, un procedimiento implementado por computadora proporciona resultados de segmentación confiables y rápidos.
Los datos de la imagen usados en otro desarrollo adicional preferido de la presente invención comprenden datos de la imagen de una tomografía computarizada (TC), una tomografía computarizada de haz cónico (TCHC), imágenes por ultrasonidos (US) O imágenes por resonancia magnética (IRM). Sin embargo, los datos de la imagen pueden obtenerse de forma alternativa o adicional de otra tecnología de imagen.
En un procedimiento preferido adicional, los datos de la imagen se refieren a una imagen tridimensional (3D). Aun así, el procedimiento según la presente invención se puede aplicar a imágenes bidimensionales (2D) y unidimensionales (1D) también para identificar un canal entre al menos dos objetos, cuyo canal puede representarse en 2D como un área o, en 1D, como una sección de una línea delimitada por una o dos áreas o secciones de la línea que representan objetos de superficie en la realidad.
Por ejemplo, las técnicas de imágenes mencionadas anteriormente pueden proporcionar imágenes en 3D que contienen más información acerca de la región examinada e imparten una mejor visión general que las imágenes en 2d o 1D. Esta información y visión general mejoradas son valiosas, pero requieren que las diferentes estructuras estén segregadas correctamente. Esta segregación se puede lograr con el procedimiento y sus características adicionales preferidas como se describió anteriormente.
Según un procedimiento ventajoso, el análisis de uno o más gradientes de imagen comprende proyectar los gradientes de imagen en vectores unitarios, donde los vectores unitarios se definen preferentemente en direcciones cardinales, ordinales y/o diagonales tridimensionales. La proyección de los gradientes de imagen en vectores unitarios facilita una comparación de los gradientes con respecto a las direcciones opuestas. Las direcciones cardinales examinadas son las direcciones principales de un sistema de coordenadas, por ejemplo, Norte, Este, Sur, Oeste, arriba y abajo. Las direcciones ordinales son direcciones secundarias en un ángulo de 45 grados a dos direcciones cardinales. Las direcciones diagonales tridimensionales son direcciones en un ángulo de 45 grados a tres direcciones cardinales. Sin embargo, el procedimiento según la presente invención no está restringido a gradientes proyectados a vectores unitarios en direcciones diagonales cardinales, ordinales y/o tridimensionales, sino que los gradientes pueden proyectarse a diferentes direcciones o pueden compararse directamente entre sí.
En un procedimiento preferido, elegir la porción de los datos de la imagen para comenzar el cálculo algorítmico comprende el uso de una técnica de correlación. Sin embargo, se pueden usar otros procedimientos para elegir una porción de los datos de la imagen, como la delineación manual simple del volumen de interés.
El uso de técnicas de correlación conocidas, como se describió anteriormente, proporciona una selección rápida y confiable de la región de interés (ROI) que minimiza la interacción del usuario, los costos y el riesgo de la selección de la región. En relación con la presente invención, permite una identificación aún más automatizada del canal entre al menos dos objetos. En particular, no es sensible a la inicialización o al punto de partida, como es el caso de muchos enfoques de la técnica anterior para identificar la superficie de un objeto.
En el procedimiento preferido adicional, los datos de la imagen se proporcionan en un formato de datos conforme a un estándar de Digital Imaging and Communications in Medicine (DICOM), aunque el procedimiento según la presente invención se puede usar en base a datos de la imagen de una forma diferente.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
La fig. 1A muestra una imagen de una articulación temporomandibular reconstruida a partir de datos de la imagen de una TCHC. Las superficies de la cabeza del cóndilo y la fosa se fusionan en la imagen debido a la reconstrucción de la superficie a partir de los datos de la imagen.
La fig. 1A' es un dibujo lineal de la figura 1A.
La fig. 1B ilustra un canal entre la cabeza del cóndilo y la fosa en la imagen de la fig. 1A identificada por un procedimiento preferido para identificar el canal.
La fig. 1C muestra una imagen de una articulación temporomandibular reconstruida a partir de datos de la imagen de una TCHC. La cabeza del cóndilo y la fosa no están fusionadas en la imagen debido a la segregación adicional de las dos estructuras óseas con el procedimiento preferido para ubicar el canal.
La fig. 1C' es un dibujo lineal de la figura 1C.
Las fig. 2A, 2B, 2C y 2D ilustran esquemáticamente el funcionamiento del algoritmo para encontrar el canal y segmentar los objetos en ambos lados del canal.
Las fig. 3A, 3B y 3C muestran una imagen de una articulación de la cadera reconstruida a partir de datos de imágenes de TC médicas. La configuración es la misma que en la fig. 1A a 1C.
La fig. 3A' es un dibujo lineal de la figura 3A y la fig. 3C' es un dibujo lineal de la figura 3C.
DESCRIPCIÓN DETALLADA
Las figuras 1A y 1A' muestran una imagen en primer plano de una articulación temporomandibular reconstruida a partir de datos de la imagen de una TCHC. La cabeza del cóndilo 12 y la fosa 14 están fusionadas en la imagen debido a una reconstrucción errónea de los datos de la imagen. La reconstrucción puede, por ejemplo, resultar de un algoritmo conocido de generación de mallas, como cubos de marcha o procedimientos similares. Para los procedimientos de reconstrucción comunes, el usuario elige un umbral de valor de gris, el denominado umbral de isovalor, que marca la superficie visible. En el caso de las fig. 1A y 1A', se puede ver que algunos de los vóxeles entre la cabeza del cóndilo 12 y la fosa 14, es decir, en el canal definido por la articulación temporomandibular, indican una superficie de conexión 16. Por lo tanto, solo tenemos un objeto (marcado con el número 1 en la figura 1A'). Esto puede deberse a varias razones. En general, el valor de gris de estos vóxeles es mayor que el umbral de isovalor, por lo que se asume una superficie 16 y la cabeza del cóndilo 12 y la fosa 14 se fusionan erróneamente.
Para que el cirujano pueda mover virtualmente la mandíbula en relación con el cráneo, se requiere que la mandíbula y el cráneo se identifiquen como objetos separados. Por lo tanto, un procedimiento para identificar un canal 18 entre la mandíbula y el cráneo, en particular entre la cabeza del cóndilo 12 y la fosa 14, sería ventajoso para permitir que un cirujano prepare un procedimiento quirúrgico.
La figura 1B ilustra el canal 18 entre la cabeza del cóndilo 12 y la fosa 14. El procedimiento de identificación del canal da como resultado una ubicación de los vóxeles del canal, de manera tal que la separación de la cabeza del cóndilo 12 y la fosa 14 sea fácilmente posible.
El procedimiento puede llevarse a cabo usando un programa informático, ejecutado en una computadora. El procedimiento generalmente también puede aplicarse a otras imágenes, como representaciones bidimensionales de uniones u otros canales u objetos de superficie.
Preferentemente, los datos de la imagen de una TC o TCHC, que generalmente contienen una cierta cantidad de ruido, pueden procesarse de manera previa, por ejemplo, mediante las siguientes etapas de procesamiento previo: En primer lugar, la imagen 3D se suaviza ligeramente, por ejemplo, usando un filtro gaussiano generalmente conocido. En segundo lugar, los gradientes pueden seleccionarse preferentemente basándose en el tamaño del vector. En particular, los gradientes que son más pequeños que un umbral determinado se atribuyen al ruido y se eliminan. Este tamaño de umbral se puede determinar dinámicamente como la media, la mediana (o una combinación de las mismas) de los tamaños de vector de gradiente presentes en los vóxeles en la región de interés (ROI).
Sin embargo, el procedimiento de la invención también puede llevarse a cabo sobre la base de datos de la imagen no procesados de manera previa.
Como parte del procedimiento preferido, se selecciona una sección de imagen que contiene la articulación temporomandibular (Fig. 1A y 1A') que, en el presente caso, es el ROI. Tal ROI también se representa esquemáticamente en la fig. 2A. Aquí, nuevamente tenemos dos objetos 22 y 24 (o dos partes de un objeto) con un canal entre ellos. Ambos objetos están conectados por un artefacto 26 que parece cruzar el canal y, de ese modo, aparentemente conecta los dos objetos.
En esta sección de imágenes, los gradientes de imagen se calculan para cada vóxel. Los gradientes más grandes aparecen en los bordes, como lo ilustran las flechas en la fig. 2B. Después, los gradientes de vóxeles cercanos se comparan a lo largo de 13 direcciones cardinales, ordinales y diagonales 3D. Los vóxeles vecinos pueden estar a diferentes distancias del vóxel que se está investigando. En el caso del procesamiento de imágenes 2D, se podrían usar 4 direcciones cardinales y ordinales para comparar las direcciones de los gradientes con respecto a un píxel y sus píxeles vecinos.
Para cada posición de vóxel o píxel p, se puede calcular un valor de función F(p) a partir de los gradientes opuestos en diferentes direcciones y con diferentes tamaños de etapa dp. Preferentemente, solo se tienen en cuenta los vectores de gradiente opuestos (que indican la existencia de paredes de canal). Todas las otras contribuciones de gradiente quedan sin atención.
Diferentes anchos de canal W, es decir, donde diferentes canales que difieren entre sí en su ancho general o que varían, a lo largo de su extensión, en sus anchos, pueden abordarse preferentemente mediante un enfoque de resolución múltiple para calcular el F(p) a través del cálculo del valor F(p) máximo sobre los tamaños de etapa variables dp. La resolución se cambia, según el enfoque de resolución múltiple, en la medida en que se cambian los tamaños de etapa dp.
Después del cálculo del máximo de los valores de función F(p) para todos los píxeles/vóxeles en la sección de imagen, los vóxeles o píxeles con un valor de F(p) que no sea cero definen el canal 28, (o 18) entre los dos objetos 22 y 24, o específicamente para la fig. 1, la cabeza del cóndilo 12 y la fosa 14.
Preferentemente, se puede aplicar un procedimiento de procesamiento posterior para mejorar aún más la calidad del canal encontrado en los datos de la imagen de una TC o TCHC. Este procesamiento posterior es particularmente ventajoso en vista del problema de que el hueso de la articulación particularmente condilar puede ser muy esponjoso, es decir, que muestra una gran variación en la densidad. Esto último conduce a gradientes dentro del volumen óseo que después pueden identificarse como vóxeles de canal (aparentes). Para eliminar dichos vóxeles de canales falsos de los datos de la imagen del hueso, se pueden aplicar opcionalmente las siguientes etapas de procesamiento posterior:
En primer lugar, los vóxeles de canal aparentes con un valor de gradiente distinto de cero se eliminan porque los vóxeles de canal verdaderos no tendrían un valor de gradiente distinto de cero. Se entiende que deben usarse los valores de gradiente procesados de manera previa "sin ruido".
En segundo lugar, el tamaño de los valores de función F(p)se puede usar para refinar aún más la selección de canales. Por definición, los valores de función más grandes se producen en el medio del canal verdadero a medida que se calculan a partir de los valores de gradiente más grandes que marcan los bordes del canal (véase la fig. 2B). Preferentemente, solo se mantienen los vóxeles de canal con valores de función por encima de un cierto umbral. Este umbral puede ser el valor de la función media, mediana (o una combinación de los mismos) calculada sobre los valores de la función.
En tercer lugar, se determina el tamaño de un volumen de canal interconectado y solo los vóxeles de canal aparentes que están conectados al mayor volumen de vóxeles de canal interconectados, o un número predeterminado de volúmenes, se mantienen preferentemente como vóxeles de canal. Aquí, el número de volúmenes más grandes de vóxeles de canales interconectados que deben considerarse refleja el número de canales esperados en la imagen.
Todos los parámetros de umbral pueden ajustarse para maximizar la probabilidad de segmentación y tener la menor cantidad de pérdida de la superficie del objeto, como el tejido, en particular el hueso.
Sin embargo, también cada etapa del procesamiento posterior descrito anteriormente es solo opcional para la invención.
Como se mencionó anteriormente, las imágenes de las TC o TCHC pueden exhibir los llamados artefactos de rayas en el canal. Estos artefactos son píxeles o vóxeles que indican la presencia de un objeto de superficie 16, 26, por ejemplo, tejido, en particular hueso, aunque en realidad no existe ningún objeto óseo en la posición de la imagen. Con respecto al volumen calculado del canal 28, estas rayas crean orificios en el volumen (véase la fig. 2B), lo que hace que las superficies 22 y 24 de cada lado se conecten erróneamente.
Para identificar y eliminar tales artefactos, el algoritmo de cierre de orificios de Aktouf y col. como se describe en "Z. Aktouf, G. Bertrand y L. Perroton: A 3D-hole closing algorithm; in Discrete Geometry for Computer Imagery, páginas 36­ 47, 1996" y como se describe en "Z. Aktouf, G. Bertrand y L. Perroton: A three-dimensional hole closing algorithm; in Pattern Recognition Letters, 23:523-531, 2002" se aplica preferentemente. A partir de un casco del volumen del canal identificado, los vóxeles redundantes se eliminan (se tallan) hasta que queda un volumen de canal cerrado. Esto se realiza evaluando la conexión del fondo en la vecindad cúbica de cada vóxel adicional y es, como tal, un procedimiento conocido en la técnica. Efectivamente, los orificios en el volumen del canal 28 están cerrados como lo ilustran los cuadrados negros en la fig. 2C.
Finalmente, el volumen del canal cerrado 28 (véase la fig. 2C) se puede usar para suprimir las conexiones de los artefactos de raya 26 y desconectar los objetos 22 y 24 a cada lado. En los datos de t C o TCHc , esto se puede hacer, por ejemplo, restableciendo los valores de gris de los vóxeles o píxeles en el volumen del canal cerrado a a) el valor de fondo o b) un valor por debajo del umbral de isovalor usado para la reconstrucción de la superficie.
Las figuras 1C y 1C' ilustran una imagen de una articulación temporomandibular reconstruida a partir de datos de la imagen de TCHC, donde las dos estructuras óseas se segregaron por medio del procedimiento preferido descrito anteriormente. Como resultado, la cabeza del cóndilo 12 y la fosa 14 no están fusionadas en la imagen. En particular, la superficie 16 de la fig. 1A ha sido eliminada de modo que la mandíbula y el cráneo estén claramente separados. Como resultado, ahora tenemos dos objetos separados (como lo indican los números 2 y 3 dentro de los dibujos de objetos de la figura 1C'). La fig. 1B muestra los vóxeles que se han reconocido como el canal 18 (con orificios cerrados).
Las fig. 3A y 3A' muestran una imagen de una articulación de la cadera reconstruida a partir de datos de imágenes de TC médicas. Más específicamente, se representan la cabeza femoral 32 y la fosa acetabular 34. Las superficies de la cabeza femoral y la fosa se fusionan en la imagen debido a la reconstrucción de la superficie a partir de los datos de la imagen. Por lo tanto, solo tenemos un objeto (marcado por el número 1 en la figura 3A'). Las conexiones 36 son normalmente artefactos de rayas o reconstrucción.
[0060]La fig. 3B representa el canal 38 (definido por la articulación de la cadera) entre la cabeza femoral 32 y la fosa 34 en la imagen de la fig. 3A, como lo identifica nuestro procedimiento propuesto para ubicar el canal. Cabe señalar que todos los orificios en el volumen del canal estaban cerrados.
Las fig. 3C y 3C' muestran una imagen de una articulación de la cadera reconstruida a partir de datos de imágenes de TC médicas. La cabeza femoral 32 y la fosa 34 ya no están fusionadas en la imagen debido a la segmentación adicional de las dos estructuras óseas con el procedimiento preferido para ubicar el canal. Como resultado, ahora tenemos dos objetos separados (como lo indican los números 2 y 3 dentro de los dibujos de objetos de la figura 3C').

Claims (16)

REIVINDICACIONES
1. Procedimiento implementado por computadora para identificar, a partir de datos de imágenes que comprenden una pluralidad de píxeles o vóxeles, un "canal", que es una región de imagen entre al menos dos objetos, o entre partes de un objeto, donde dichos objetos o partes de un objeto comprenden conexiones que se cruzan dicho canal, con el procedimiento comprendiendo un ciclo que comprende las etapas de calcular los gradientes de imagen de los píxeles o vóxeles de los datos de la imagen, y analizar la orientación de los gradientes de la imagen, donde, si al menos dos de los gradientes de imagen apuntan en direcciones opuestas entre sí, los píxeles o vóxeles entre los gradientes de imagen opuestos que se encuentran alejados entre sí ubican el canal, el procedimiento comprende además:
identificar los píxeles o vóxeles que crean orificios en la región del canal, dichos píxeles o vóxeles hacen que dichos objetos o dichas partes de un objeto en cada lado del canal se conecten,
cerrar la región del canal,
usar la región del canal cerrado para suprimir las conexiones, desconectando de ese modo dichos objetos, o dichas partes de un objeto, a cada lado del canal y obteniendo objetos separados o partes separadas de un objeto.
2. Procedimiento según la reivindicación 1, donde los objetos son objetos de tejido, en particular objetos de hueso, del cuerpo humano o animal.
3. Procedimiento según cualquiera de las reivindicaciones anteriores, donde se elige una porción de los datos de la imagen de manera tal que contenga datos de la imagen de al menos una parte de los al menos dos objetos.
4. Procedimiento según cualquiera de las reivindicaciones anteriores, que comprende además generar superficies desconectadas de los objetos desconectados correspondientes que están separados por el canal.
5. Procedimiento según cualquiera de las reivindicaciones anteriores, donde los gradientes de imagen se refieren a diferencias en las intensidades de los valores de color, en particular las intensidades de los valores de gris, los valores de escala de Hounsfield o los valores de intensidad de la señal de radiofrecuencia.
6. Procedimiento según cualquiera de las reivindicaciones anteriores, donde los al menos dos objetos son partes de una articulación, en particular una articulación temporomandibular, particularmente una mandíbula, en particular una cabeza de cóndilo mandibular, y un cráneo, en particular una fosa de la base del cráneo.
7. Procedimiento según cualquiera de las reivindicaciones anteriores, donde los datos de la imagen comprenden datos de una imagen de rayos X, una tomografía computarizada, una tomografía computarizada de haz cónico, una imagen de resonancia ultrasónica o magnética.
8. Procedimiento según cualquiera de las reivindicaciones anteriores, donde los datos de la imagen se refieren a una imagen tridimensional.
9. Procedimiento según cualquiera de las reivindicaciones anteriores, donde analizar la orientación de los gradientes de imagen comprende proyectar los gradientes de imagen en vectores unitarios, donde los vectores unitarios se definen preferentemente en direcciones diagonales cardinales, ordinales y/o tridimensionales con respecto a la particular píxel o vóxel siendo analizados.
10. Procedimiento según la reivindicación 3 o cualquier reivindicación según la reivindicación 3, donde la elección de la porción de los datos de la imagen comprende el uso de una técnica de correlación.
11. Un procedimiento según una cualquiera de las reivindicaciones precedentes, donde los datos de la imagen se proporcionan en un formato de datos conforme a un estándar de Digital Imaging and Communications in Medicine.
12. Producto de programa informático configurado para ejecutar el procedimiento de una de las reivindicaciones anteriores.
13. Medio legible que lleva el producto de programa informático de la reivindicación 12.
14. Aparato configurado para ejecutar el producto de programa informático de la reivindicación 12.
15. Sistema médico configurado para llevar a cabo el procedimiento de cualquiera de las reivindicaciones 1 a 11.
16. Sistema médico según la reivindicación 15, que comprende un ordenador configurado para ejecutar el producto de programa informático de la reivindicación 12 y un dispositivo de formación de imágenes para obtener datos de imágenes de al menos dos objetos de superficie del hueso.
ES16713770T 2015-03-19 2016-03-17 Segmentación de objetos en datos de imagen a través del uso de la detección de canal Active ES2738982T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP15159963 2015-03-19
PCT/EP2016/055756 WO2016146722A1 (en) 2015-03-19 2016-03-17 Segmentation of objects in image data using channel detection

Publications (1)

Publication Number Publication Date
ES2738982T3 true ES2738982T3 (es) 2020-01-28

Family

ID=52780394

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16713770T Active ES2738982T3 (es) 2015-03-19 2016-03-17 Segmentación de objetos en datos de imagen a través del uso de la detección de canal

Country Status (8)

Country Link
US (1) US10621726B2 (es)
EP (1) EP3271895B1 (es)
JP (1) JP6785237B2 (es)
CN (1) CN107408301B (es)
BR (1) BR112017019980B1 (es)
DK (1) DK3271895T3 (es)
ES (1) ES2738982T3 (es)
WO (1) WO2016146722A1 (es)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2738982T3 (es) 2015-03-19 2020-01-28 Nobel Biocare Services Ag Segmentación de objetos en datos de imagen a través del uso de la detección de canal
US11488357B2 (en) 2018-12-20 2022-11-01 Medicim Nv Automated trimming of a surface mesh

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2665597B1 (fr) * 1990-07-31 1995-11-17 Thomson Trt Defense Procede et dispositif de localisation en temps reel de contours rectilignes dans une image numerisee, notamment pour la reconnaissance de formes dans un traitement d'analyse de scene.
BE1008128A3 (nl) 1994-03-10 1996-01-23 Materialise Nv Werkwijze voor het ondersteunen van een voorwerp vervaardigd door stereolithografie of een andere snelle prototypevervaardigingswerkwijze en voor het vervaardigen van de daarbij gebruikte steunkonstruktie.
US6799066B2 (en) * 2000-09-14 2004-09-28 The Board Of Trustees Of The Leland Stanford Junior University Technique for manipulating medical images
WO2002087444A1 (fr) * 2001-04-26 2002-11-07 Teijin Limited Procede de mesure d'une structure articulaire tridimensionnelle
JP5427778B2 (ja) 2007-05-25 2014-02-26 ノベル バイオケア サーヴィシィズ アーゲー 歯科的プランニングのための方法およびシステム
US8577115B2 (en) * 2008-03-04 2013-11-05 Tomotherapy Incorporated Method and system for improved image segmentation
EP2103276B1 (en) 2008-03-19 2019-06-19 Nobel Biocare Services AG Repositioning of components related to cranial surgical procedures in a patient
EP2254068B1 (en) 2009-05-18 2020-08-19 Nobel Biocare Services AG Method and system providing improved data matching for virtual planning
WO2011001398A2 (en) * 2009-06-30 2011-01-06 Mango Dsp Inc. Method circuit and system for matching an object or person present within two or more images
EP2309450B1 (en) * 2009-09-21 2016-04-06 Orcamp AB Method for characterizing a blood vessel
US8457772B2 (en) 2010-02-10 2013-06-04 Biocad Medical, Inc. Method for planning a dental component
JP4971525B2 (ja) * 2010-07-21 2012-07-11 オリンパスメディカルシステムズ株式会社 画像処理装置及び画像処理装置の制御方法
US8594820B2 (en) 2010-09-17 2013-11-26 Nobel Biocare Services Ag Prosthesis manipulation in dental prosthesis design
CN102043957B (zh) * 2011-01-11 2016-07-20 北京邮电大学 基于图像凹点的车辆分割方法
US9721338B2 (en) * 2011-01-11 2017-08-01 Rutgers, The State University Of New Jersey Method and apparatus for segmentation and registration of longitudinal images
ES2627108T3 (es) * 2012-04-03 2017-07-26 Intrasense Método de remapeo de una ROI conservando la topología entre imágenes médicas
US9077943B2 (en) * 2012-05-31 2015-07-07 Apple Inc. Local image statistics collection
TWI496112B (zh) * 2013-09-13 2015-08-11 Univ Nat Cheng Kung 細胞影像分割方法以及核質比評估方法
CN103942808B (zh) * 2014-05-12 2017-05-10 福州大学 粘连岩石颗粒图像的分割方法
US9218534B1 (en) * 2014-11-17 2015-12-22 Tandent Vision Science, Inc. Method and system for classifying painted road markings in an automotive driver-vehicle-assistance device
ES2738982T3 (es) 2015-03-19 2020-01-28 Nobel Biocare Services Ag Segmentación de objetos en datos de imagen a través del uso de la detección de canal
JP7110120B2 (ja) 2016-06-21 2022-08-01 ノベル バイオケア サーヴィシィズ アーゲー 歯科修復物の形状、位置及び向きの少なくとも1つの推定方法

Also Published As

Publication number Publication date
CN107408301B (zh) 2021-07-06
US20180075606A1 (en) 2018-03-15
BR112017019980A2 (pt) 2018-06-19
JP6785237B2 (ja) 2020-11-18
JP2018512188A (ja) 2018-05-17
EP3271895B1 (en) 2019-05-08
WO2016146722A1 (en) 2016-09-22
CN107408301A (zh) 2017-11-28
DK3271895T3 (da) 2019-08-05
EP3271895A1 (en) 2018-01-24
BR112017019980B1 (pt) 2024-03-12
US10621726B2 (en) 2020-04-14

Similar Documents

Publication Publication Date Title
US10937250B2 (en) Methods of reconstructing skulls
CN108765417B (zh) 一种基于深度学习和数字重建放射影像的股骨x线片生成系统及方法
EP2194505B1 (en) Method and apparatus for segmenting spine and aorta in a medical image according to a skeletal atlas
US7831079B2 (en) Segmentation of anatomic structures using navigation table
ES2706749T3 (es) Método para procesar datos de imagen que representan un volumen tridimensional
EP2486541B1 (en) Image data processing
US20210007806A1 (en) A method for obtaining 3-d deformity correction for bones
JP6656910B2 (ja) 医用画像処理装置、医用画像診断装置及び医用画像処理プログラム
CN102651145B (zh) 股骨三维模型可视化方法
Baka et al. Statistical shape model-based femur kinematics from biplane fluoroscopy
CN101310305A (zh) 用于在3d图像中描绘预定结构的方法
CN109360213A (zh) 一种基于脊柱超声冠状面图像的自动化椎体识别方法
Hosseinian et al. 3D Reconstruction from Multi-View Medical X-ray images–review and evaluation of existing methods
CN112349391A (zh) 一种优化肋骨自动标号方法
CN113870098A (zh) 一种基于脊柱分层重建的Cobb角自动测量方法
Koh et al. Reconstruction of patient-specific femurs using X-ray and sparse CT images
ES2738982T3 (es) Segmentación de objetos en datos de imagen a través del uso de la detección de canal
BR112020014201A2 (pt) sistema e método de segmentação automática de uma imagem médica 3d por uma ou várias redes neurais através de convolução estruturada de acordo com a geometria anatômica da imagem médica 3d
ES2605571T3 (es) Método de clasificación de órganos a partir de una imagen tomográfica
de Luis-Garcia et al. Parametric 3D hip joint segmentation for the diagnosis of developmental dysplasia
Wojciechowski et al. Automated measurement of parameters related to the deformities of lower limbs based on x-rays images
Liu et al. Automatic extraction of 3D anatomical feature curves of hip bone models reconstructed from CT images
Gooßen et al. Automatic joint alignment measurements in pre-and post-operative long leg standing radiographs
Wei et al. Segmentation of lung lobes in volumetric CT images for surgical planning of treating lung cancer
EP3948776A1 (en) Closed surface fitting for segmentation of orthopedic medical image data