ES2919428T3 - Segmentación autónoma de estructuras tridimensionales del sistema nervioso a partir de imágenes médicas - Google Patents

Segmentación autónoma de estructuras tridimensionales del sistema nervioso a partir de imágenes médicas Download PDF

Info

Publication number
ES2919428T3
ES2919428T3 ES18205207T ES18205207T ES2919428T3 ES 2919428 T3 ES2919428 T3 ES 2919428T3 ES 18205207 T ES18205207 T ES 18205207T ES 18205207 T ES18205207 T ES 18205207T ES 2919428 T3 ES2919428 T3 ES 2919428T3
Authority
ES
Spain
Prior art keywords
nervous system
segmentation
images
structures
roi
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18205207T
Other languages
English (en)
Inventor
Kris B Siemionow
Cristian J Luciano
Dominik Gawel
Orozco Edwing Isaac Mejia
Michal Trzmiel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Holo Surgical Inc
Holo Surgical Inc
Original Assignee
Holo Surgical Inc
Holo Surgical Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Holo Surgical Inc, Holo Surgical Inc filed Critical Holo Surgical Inc
Application granted granted Critical
Publication of ES2919428T3 publication Critical patent/ES2919428T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4058Detecting, measuring or recording for evaluating the nervous system for evaluating the central nervous system
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4566Evaluating the spine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • G06T2207/30012Spine; Backbone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/033Recognition of patterns in medical or anatomical images of skeletal patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/034Recognition of patterns in medical or anatomical images of medical instruments

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Neurology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Physiology (AREA)
  • Mathematical Physics (AREA)
  • Rheumatology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Neurosurgery (AREA)
  • Dentistry (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Multimedia (AREA)

Abstract

Un método para la segmentación autónoma de estructuras tridimensionales del sistema nervioso de imágenes médicas en bruto, el método que comprende los siguientes pasos: recibir (301) un volumen de escaneo 3D que comprende un conjunto de imágenes de escaneo médico de una región de la anatomía; Procesamiento de forma autónoma (302) el conjunto de imágenes de escaneo médico para realizar la segmentación de una estructura ósea de la anatomía para obtener datos de segmentación de la estructura ósea; Procesamiento de forma autónoma (304) Una subsección del volumen de escaneo 3D como región de interés 3D (ROI) combinando (303) las imágenes de escaneo médico sin procesar y los datos de segmentación de la estructura ósea, en la que el ROI 3D contiene una subvolumen de la estructura ósea con una porción de los tejidos circundantes, incluida la estructura del sistema nervioso; Procesando de forma autónoma el ROI (306) para determinar la forma 3D, la ubicación y el tamaño de las estructuras del sistema nervioso mediante una red neuronal convolucional previamente entrenada (CNN) (400). (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Segmentación autónoma de estructuras tridimensionales del sistema nervioso a partir de imágenes médicas Campo técnico
La presente divulgación se refiere, en general, a la segmentación autónoma de estructuras tridimensionales del sistema nervioso a partir de imágenes médicas de la anatomía humana, lo que es útil, en particular, para el campo de la cirugía asistida por ordenador, la navegación quirúrgica, la planificación quirúrgica y el diagnóstico médico. Antecedentes
La cirugía asistida por ordenador o guiada por imágenes es un enfoque quirúrgico en el que el cirujano utiliza instrumentos quirúrgicos rastreados junto con imágenes preoperatorias o intraoperatorias para guiar indirectamente la intervención. La cirugía guiada por imágenes puede utilizar imágenes médicas adquiridas tanto antes como durante la intervención, por ejemplo: de escáneres de Tomografía Computarizada (TC) o de resonancia magnética. Se pueden utilizar sistemas informáticos especializados para procesar las imágenes médicas a fin de desarrollar modelos tridimensionales (3D) del fragmento anatómico sometido a la intervención quirúrgica. Con este fin, se están desarrollando diferentes tecnologías de aprendizaje automático, tales como una Red Neuronal Convolucional (RNC) que es una clase de redes neuronales artificiales profundas y de avance. Las RNC utilizan una variación de perceptrones multicapa diseñados para requerir un preprocesamiento mínimo.
Una solicitud de patente PCT WO2016091833 (Arterys) divulga la segmentación autónoma de estructuras anatómicas, tal como del corazón humano. Los sistemas y métodos emplean redes neuronales convolucionales (RNC) para segmentar de forma autónoma diferentes partes de una estructura anatómica representada por datos de imágenes, tales como datos de RMI 3D. La red neuronal convolucional utiliza dos rutas: una ruta de contracción que incluye capas de convolución/agrupación y una ruta de expansión que incluye capas de sobremuestreo/convolución. La función de pérdida utilizada para validar el modelo de RNC puede dar cuenta específicamente de los datos que faltan, lo que permite el uso de un mayor conjunto de capacitación. El modelo de RNC puede utilizar núcleos multidimensionales (p. ej., 2D, 3D, 4D, 6D), y puede incluir diferentes canales que codifiquen datos espaciales, datos de tiempo, datos de flujo, etc. Ese sistema está diseñado específicamente para procesar imágenes de RMI de estructuras de tejidos blandos tales como el corazón humano. Además, no es aplicable a imágenes de estructuras óseas o nerviosas, y en particular, a imágenes de menor calidad que sean difíciles de segmentar.
Una solicitud de patente de EE. UU. US2016328630 (Samsung) divulga un aparato y un método de reconocimiento de objetos que puede determinar un vector de características de imagen de una primera imagen aplicando una red de convolución a la primera imagen. La red de convolución puede extraer características de conjuntos de aprendizaje a través de imágenes que incluyan la primera imagen y un mapa de segmentación de muestra de la primera imagen. El aparato de ejemplo puede determinar un mapa de segmentación de la primera imagen aplicando una red de desconvolución al vector de características de imagen determinado. El aparato de ejemplo puede determinar un peso de la red de convolución y un peso de la red de desconvolución basándose en el mapa de segmentación de muestra y en el primer mapa de segmentación. El aparato de ejemplo puede determinar un segundo mapa de segmentación de una segunda imagen a través de la red de convolución mediante el peso determinado de la red de convolución y a través de la red de desconvolución mediante el peso determinado de la red de desconvolución.
En el campo de la cirugía guiada por imágenes, las imágenes de baja calidad pueden dificultar la identificación adecuada de puntos de referencia anatómicos clave, lo que, a su vez, puede conducir a una menor precisión y eficacia de las herramientas de navegación y de los implantes. Asimismo, los conjuntos de datos de imágenes de baja calidad pueden ser difíciles de utilizar en aplicaciones de aprendizaje automático.
La tomografía computarizada (TC) es un método común para generar un volumen anatómico 3D. La TC funciona como otros exámenes de rayos X. Se hacen pasar cantidades controladas, muy pequeñas, de radiación de rayos X a través del cuerpo, y los diferentes tejidos absorben la radiación a diferentes velocidades. Con la radiología simple, cuando se expone una película especial a los rayos X absorbidos, se captura una imagen del interior del cuerpo. Con la TC, la película se reemplaza por una serie de detectores que miden el perfil de rayos X.
El escáner de la TC contiene un pórtico giratorio que tiene un tubo de rayos X montado sobre un lado y un detector en forma de arco montado sobre el lado opuesto. A medida que el marco giratorio hace girar el tubo de rayos X y el detector alrededor del paciente, se emite un haz de rayos X en forma de abanico. Cada vez que el tubo de rayos X y el detector completan una rotación de 360° y los rayos X atraviesan el cuerpo del paciente, se adquiere la imagen de una sección fina. Durante cada rotación, el detector registra aproximadamente 1.000 imágenes (perfiles) del haz de rayos X expandido. Después, un ordenador especializado reconstruye cada perfil en un volumen 3D de la sección explorada. La velocidad de rotación del pórtico, junto con el espesor del corte, contribuye a la precisión/utilidad de la imagen final.
Los escáneres intraoperatorios de uso común tienen una variedad de configuraciones que permiten el control de la dosis de radiación. En determinados escenarios, se pueden seleccionar configuraciones de dosis altas para garantizar una visualización adecuada de todas las estructuras anatómicas. La desventaja es una mayor exposición del paciente a la radiación. Las dosis eficaces de los procedimientos de TC de diagnóstico normalmente se estiman en el intervalo de 1 a 10 mSv (milisieverts). Este intervalo no es muy inferior a las dosis más bajas de 5 a 20 mSv que se estima que recibieron los supervivientes de las bombas atómicas. Estos supervivientes, que se estima que han experimentado dosis ligeramente mayores que las encontradas en la TC, han demostrado un pequeño, pero mayor exceso de riesgo relativo de mortalidad por cáncer relacionado con la radiación.
El riesgo de desarrollar cáncer como resultado de la exposición a la radiación depende de la parte del cuerpo expuesta, la edad del individuo en el momento de la exposición, la dosis de radiación y el sexo del individuo. A los efectos de la protección radiológica, un enfoque conservador utilizado en general es suponer que el riesgo de efectos adversos para la salud a causa del cáncer es proporcional a la cantidad de dosis de radiación absorbida, y que no hay ninguna cantidad de radiación que esté completamente exenta de riesgo.
Por lo tanto, siempre que sea posible, se deben seleccionar configuraciones de dosis bajas para las tomografías computarizadas a fin de reducir al mínimo la exposición a la radiación y el riesgo de desarrollar cáncer. Sin embargo, los ajustes de dosis bajas pueden tener un impacto en la calidad de la imagen final disponible para el cirujano. Esto, a su vez, puede limitar el valor de la exploración en el diagnóstico y el tratamiento.
El escáner de imágenes por resonancia magnética (IRM) forma un fuerte campo magnético alrededor del área que se va a examinar. En la mayoría de las aplicaciones médicas, los protones (átomos de hidrógeno) de los tejidos que contienen moléculas de agua crean una señal que se procesa para formar una imagen corporal. En primer lugar, se aplica temporalmente la energía de un campo magnético oscilante al paciente a la frecuencia de resonancia apropiada. Los átomos de hidrógeno excitados emiten una señal de radiofrecuencia que se mide con una bobina receptora. Se puede hacer que la señal de radio codifique información sobre la posición variando el campo magnético principal mediante bobinas de gradiente. Como estas bobinas se encienden y se apagan rápidamente, crean el ruido repetitivo característico de una RMI. El contraste entre los diferentes tejidos está determinado por la velocidad a la que los átomos excitados vuelven al estado de equilibrio. Se pueden administrar agentes de contraste exógenos por vía intravenosa, por vía oral o por vía intraarticular.
Los componentes principales de un escáner de RMI son: 1) el imán principal, que polariza la muestra, 2) las bobinas de calce para corregir las faltas de homogeneidad en el campo magnético principal, 3) el sistema de gradiente, que se utiliza para localizar la señal de RM, y 4) el sistema de RF, que excita la muestra y detecta la señal de RMN resultante. Todo el sistema está controlado por uno o más ordenadores.
Las intensidades de RMN más comunes son 0,3 T, 1,5 T y 3 T. La "T" significa Tesla, la unidad de medida de la fuerza del campo magnético. Cuanto mayor sea el número, más potente será el imán. Cuanto más potente sea el imán, mayor será la calidad de la imagen. Por ejemplo, una intensidad del imán de 0,3 T producirá una imagen de menor calidad que una de 1,5 T. Las imágenes de baja calidad pueden plantear problemas de diagnóstico, ya que puede ser difícil identificar estructuras anatómicas clave o un proceso patológico. Las imágenes de baja calidad también dificultan el uso de los datos durante la cirugía asistida por ordenador. Por tanto, es importante tener la capacidad de entregar al médico una imagen de RM de alta calidad.
La publicación "Spine-GAN: Semantic segmentation of multiple spinal structures" de Han Zhongyi et al. (Medical Image Analysis, Oxford University Press, Oxford, GB, vol. 50, 25 de agosto de 2018, páginas 23-35) divulga la segmentación y clasificación automatizadas (es decir, normales y anormales) de los discos intervertebrales, de las vértebras y del agujero intervertebral en las RMI.
Por lo tanto, existe la necesidad de desarrollar un sistema y un método para segmentar eficazmente las estructuras tridimensionales del sistema nervioso a partir de imágenes médicas intraoperatorias y prequirúrgicas de manera autónoma, es decir, sin la intervención humana en el proceso de segmentación.
Sumario
En el presente documento, se divulga un método y un sistema para la segmentación autónoma de estructuras tridimensionales del sistema nervioso a partir de imágenes médicas sin procesar de acuerdo con las reivindicaciones adjuntas.
Breve descripción de los dibujos
La invención se muestra mediante ejemplos de realización en un dibujo, en donde:
la Fig. 1 muestra un procedimiento de capacitación;
las Figs. 2A-2C muestran imágenes de ejemplo utilizadas en el sistema durante las intervenciones;
la Fig. 2D muestra una región de interés de ejemplo definida automáticamente utilizada en el proceso; las Fig. 2E-1 y 2E-2 muestran el redimensionamiento tridimensional de una región de interés de ejemplo;
la Fig. 2F muestra una transformación de ejemplo para el aumento de datos;
la Fig. 3 muestra una visión de conjunto de un procedimiento de segmentación;
la Fig. 4 muestra una arquitectura de RNC general utilizada para la segmentación de la estructura del sistema nervioso;
la Fig. 5 muestra un diagrama de flujo de un proceso de capacitación para las RNC de segmentación de estructuras del sistema nervioso;
la Fig. 6 muestra un diagrama de flujo de un proceso de inferencia para las RNC de segmentación de estructuras del sistema nervioso;
la Fig. 7 muestra el resultado de la segmentación semántica de las partes de la columna vertebral y las estructuras del sistema nervioso;
la Fig. 8 muestra el modelo de las estructuras del sistema nervioso como resultado de las RNC de segmentación; la Fig. 9A muestra la trayectoria de un implante quirúrgico que colisiona con una estructura del sistema nervioso; la Fig. 9B muestra la trayectoria de un instrumento quirúrgico que colisiona con una estructura del sistema nervioso;
la Fig. 10 muestra un sistema implementado por ordenador para implementar el procedimiento de segmentación.
Descripción detallada
La presente invención se refiere al procesamiento de imágenes tridimensionales de estructuras del sistema nervioso próximas a los huesos, tales como nervios de las extremidades (brazos y piernas), cervicales, plexo torácico o lumbar, médula espinal (protegida por la columna vertebral), nervios del sistema nervioso periférico, nervios craneales y otros. La invención se presentará a continuación basándose en un ejemplo de una columna vertebral como hueso próximo a (y que al menos protege parcialmente) las estructuras del sistema nervioso, pero el método y el sistema se pueden utilizar igualmente bien para estructuras del sistema nervioso y otros huesos.
Además, la presente invención puede incluir, antes de la segmentación, el preprocesamiento de imágenes de baja calidad para mejorar su calidad. Esto se puede realizar empleando un método presentado en una solicitud de patente europea EP16195826 por el presente solicitante o cualquier otro método de mejora de la calidad de preprocesamiento. Las imágenes de baja calidad pueden ser, por ejemplo, imágenes de Tomografía Computarizada de Baja Dosis (TCBD) o imágenes de resonancia magnética capturadas con un escáner de potencia relativamente baja.
La descripción anterior presentará ejemplos relacionados con imágenes de tomografía computarizada (TC), pero el experto sabrá cómo adaptar las realizaciones para que sean aplicables a otros tipos de imágenes, tales como imágenes de resonancia magnética.
El método de identificación de estructuras nerviosas que se presenta en el presente documento comprende dos procedimientos principales: 1) capacitación (manual) asistida por seres humanos y 2) segmentación autónoma computarizada.
El procedimiento de capacitación, como se presenta en la Fig. 1, comprende las siguientes etapas. En primer lugar, en la etapa 101, un conjunto de imágenes DICOM (imágenes y comunicaciones digitales en medicina, Digital Imaging and Communications in Medicine) obtenidas con una TC o RMI preoperatoria o intraoperatoria que representan cortes anatómicos consecutivos, con tejidos óseos y blandos visibles (tales como un corte que se muestra en la Fig. 2A).
A continuación, las imágenes recibidas se procesan en la etapa 102 para realizar una segmentación autónoma de tejidos, a fin de determinar áreas separadas correspondientes a diferentes partes de la estructura ósea, tales como el cuerpo vertebral 16, los pedículos 15, la apófisis transversa 14 y/o la apófisis espinosa 11, como se muestra en la Fig. 2B. Por ejemplo, esto se puede realizar empleando un método de segmentación de imágenes divulgado en una solicitud de patente europea EP16195826 del presente solicitante o cualquier otro método de segmentación.
Después, en la etapa 103, la información obtenida tanto de las imágenes DICOM originales como de los resultados de la segmentación se fusiona para obtener una imagen combinada, que comprende información sobre el aspecto del tejido y su clasificación (incluida la asignación de partes de la estructura a clases que corresponden a diferentes partes anatómicas), por ejemplo, en forma de una imagen DICOM codificada por colores, como se muestra en la Fig. 2C. Como alternativa, se pueden procesar imágenes DICOM (Fig. 2A) y de segmentación (Fig. 2B) separadas en lugar de la imagen combinada.
A continuación, en la etapa 104, a partir del conjunto de imágenes de los cortes, se determina una Región De Interés (RDI) 18 3D, que contiene, por ejemplo, un volumen de cada nivel vertebral con una parte de los tejidos circundantes, incluidas las estructuras del sistema nervioso y otras estructuras tales como músculos, vasos, ligamentos, discos intervertebrales, articulaciones, líquido cefalorraquídeo y otras, como se muestra en la Fig. 2D.
Después, en la etapa 105, se realiza el redimensionamiento 3D de la RDI 18 determinada para lograr el mismo tamaño de todas las RDI apiladas en las matrices 3D, conteniendo cada una información sobre la distribución de los vóxeles a lo largo de los ejes X, Y y Z, y los datos de información sobre el aspecto y la clasificación de la estructura ósea, como se muestra en la Fig. 2E. Dicho de otra forma, los vóxeles son pequeños volúmenes cúbicos que se asemejan a puntos que tienen coordenadas 3D, y tanto el valor de radiodensidad original obtenido con el escáner como la clasificación de la estructura ósea asignada obtenida con el algoritmo de segmentación.
A continuación, en la etapa 106, un ser humano prepara una base de datos de capacitación que comprende las RDI determinadas previamente y las correspondientes estructuras del sistema nervioso segmentadas manualmente.
A continuación, en la etapa 107, se aumenta la base de datos de capacitación, por ejemplo, con el uso de una transformación geométrica genérica 3D y del redimensionamiento con deformaciones de cuadrícula 3D densas, como se muestra en la Fig. 2F. El aumento de los datos en las imágenes se realiza para que el conjunto de capacitación sea más diverso. Las transformaciones anteriores están reasignando las posiciones de los vóxeles en una RDI 183D basándose en una cuadrícula artificial deformada aleatoriamente asignada al volumen de la RDI 18. Se calcula un nuevo conjunto de posiciones de los vóxeles deformando artificialmente la forma y el aspecto del tejido 3D. Simultáneamente, la información sobre la clasificación del tejido se deforma para que coincida con la nueva forma del tejido, y se vuelve a calcular la estructura del sistema nervioso determinada manualmente de la misma manera. Durante el proceso, el valor de cada vóxel, que contiene información sobre el aspecto del tejido, se vuelve a calcular con respecto a su nueva posición en la RDI 18 con el uso de un algoritmo de interpolación (por ejemplo, un algoritmo bicúbico, polinómico, spline, de vecino más cercano o cualquier otro algoritmo de interpolación) sobre el entorno de vóxeles 3d .
Después, en la etapa 108, se capacita una red neuronal convolucional (RNC) con imágenes segmentadas manualmente (por un ser humano) para segmentar las estructuras del sistema nervioso. Preferentemente, se puede utilizar una red con una pluralidad de capas, específicamente una combinación de funciones de activación convolucionales con Re-LU o cualquier otra función de activación lineal o no lineal. Por ejemplo, se puede capacitar una red como la mostrada en la Fig. 4 de acuerdo con un proceso tal como el mostrado en la Fig. 5. Además, se pueden utilizar puertas Select-Attend-Transfer (SAT) o Redes Generativas Antagónicas (RGA) para aumentar la calidad final de la segmentación.
El procedimiento de segmentación, como se presenta en la Fig. 3, comprende las siguientes etapas. En primer lugar, en la etapa 301, se recibe un volumen de exploración 3D, que comprende un conjunto de imágenes DICOM de una región de la anatomía vertebral. El volumen de exploración 3D se puede obtener de una TC o una RM preoperatoria o intraoperatoria. Se recibe el conjunto de imágenes DICOM que representan cortes anatómicos consecutivos (tales como un corte que se muestra en la Fig. 2A). A continuación, las imágenes recibidas se procesan en la etapa 302 para realizar una segmentación autónoma de tejidos óseos a fin de obtener datos de segmentación de las estructuras óseas, tal como para determinar áreas separadas correspondientes a diferentes partes de la columna vertebral, por ejemplo: el cuerpo vertebral 16, los pedículos 15, la apófisis transversa 14, la lámina vertebral 13 y/o la apófisis espinosa 11, como se muestra en la Fig. 2B. Esta etapa se puede realizar empleando un método de segmentación de imágenes divulgado en una solicitud de patente europea EP16195826 del presente solicitante o cualquier otro método de segmentación. Después, en la etapa 303, la información obtenida de las imágenes DICOM y los datos de segmentación de la estructura ósea se fusionan para obtener una imagen combinada que comprende información sobre el aspecto del tejido y su clasificación, por ejemplo, en forma de una imagen DICOM codificada por colores, como se muestra en la Fig. 2C. Como alternativa, se pueden procesar imágenes DICOM (Fig. 2A) y de segmentación (Fig. 2B) separadas en lugar de la imagen combinada. A continuación, en la etapa 304, se determina una región de interés (RDI) 183D de forma autónoma que contiene un subvolumen 3D de la estructura ósea con una parte de los tejidos circundantes, incluida la estructura del sistema nervioso y otros componentes anatómicos, tales como músculos, vasos, ligamentos, discos intervertebrales, articulaciones, líquido cefalorraquídeo y otros, como se muestra en la Fig. 2D. Después, en la etapa 305, se realiza el redimensionamiento 3D de la RDI 18 determinada para lograr el mismo tamaño de todas las RDI apiladas en las matrices 3D. Cada matriz 3D contiene información sobre la distribución de los vóxeles a lo largo de los ejes X, Y y Z con datos informativos sobre la densidad ósea y la clasificación para la estructura ósea, como se muestra en la Fig. 2E. Por lo tanto, las etapas 301­ 305 se realizan de manera similar a las etapas 101-105 del procedimiento de capacitación de la Fig. 1.
A continuación, en la etapa 306, las estructuras del sistema nervioso se segmentan de forma autónoma al procesar la RDI redimensionada para determinar el tamaño y la forma 3D de la estructura del sistema nervioso, mediante la RNC 400 de segmentación de estructuras del sistema nervioso previamente capacitada, como se muestra en la Fig. 4, de acuerdo con el proceso de segmentación presentado en la Fig. 6.
En la etapa 307, se recombina la información sobre el sistema de coordenadas global (posición de la RDI en el conjunto de datos DICOM) y el sistema de coordenadas de la RDI local (tamaño, forma y posición de las estructuras del sistema nervioso segmentadas dentro de la RDI).
A continuación, en la etapa 308, se visualizan los resultados, incluidas las estructuras segmentadas del sistema nervioso.
El conocimiento anatómico de la posición, el tamaño y la forma de las estructuras del sistema nervioso permite el cálculo en tiempo real de una posible detección de una colisión con estructuras del sistema nervioso (Fig. 9A y 9B) cuando se colocan dispositivos médicos, por ejemplo, cuando se utiliza un método de navegación quirúrgica presentado en una solicitud de patente europea EP18188557.5 del presente solicitante. Dicha colisión puede dañar la estructura del sistema nervioso, afectando a la salud y la calidad de vida del paciente. La comparación autónoma en tiempo real de la posición, del tamaño y de la forma de las estructuras del sistema nervioso, y la posición posterior de los dispositivos médicos, en cuanto a su tamaño y forma, permite la presentación de advertencias en la interfaz gráfica de usuario, por ejemplo, tal como se presenta en una solicitud de patente europea EP18188557.5 del presente solicitante. Además, el análisis de colisión autónomo permite el cálculo del cambio de la posición preferida del dispositivo médico y se puede incorporar, por ejemplo, en el método presentado en una solicitud de patente europea EP18188557.5 del presente solicitante.
La Fig. 4 muestra una arquitectura de red neuronal convolucional (RNC) 400, denominada de aquí en adelante RNC de segmentación de estructuras del sistema nervioso, que se utiliza en el presente método para la segmentación tanto semántica como binaria. La red realiza la asignación de clase por píxel mediante una arquitectura de codificador-decodificador, con al menos una entrada como información 3D sobre el aspecto (la radiodensidad) y la clasificación de la estructura ósea en una RDI 3D. El lado izquierdo de la red es una ruta de contracción, que incluye capas de convolución 401 y capas de agrupación 402, y el lado derecho es una ruta de expansión, que incluye capas de convolución de sobremuestreo o transposición 403 y capas convolucionales 404 y la capa de salida 405. Se pueden presentar una o más RDI 3D a la capa de entrada de la red para aprender a razonar a partir de los datos. El tipo de capas de convolución 401 puede ser convencional, dilatado o híbridos de los mismos, con ReLU, ReLU con fugas o cualquier otro tipo de función de activación adjunta.
El tipo de capas de sobremuestreo o desconvolución 403 también puede ser convencional, dilatado o híbrido de los mismos, con función de activación de ReLU o ReLU con fugas adjunta.
La capa de salida 405 denota la capa conectada densamente con una o más capas ocultas y una fase SoftMax o sigmoide conectada como resultado.
El flujo de codificación-decodificación se complementa con conexiones de salto adicionales de capas con los tamaños correspondientes (resoluciones), lo que mejora el rendimiento a través de la fusión de la información. Permite el uso de índices de agrupación máxima desde la fase del codificador correspondiente para reducir la muestra o aprender los filtros de desconvolución para aumentar la muestra.
La arquitectura de RNC general se puede adaptar para considerar RDI de diferentes tamaños. La cantidad de capas y la cantidad de filtros de dentro de una capa también están sometidas a cambios según las áreas anatómicas que se vayan a segmentar.
La capa final para la segmentación binaria reconoce dos clases: 1) la estructura del sistema nervioso y 2) el fondo). Además, se pueden utilizar puertas Select-Attend-Transfer (SAT) o Redes Generativas Antagónicas (RGA) para aumentar la calidad final de la segmentación. La introducción de puertas Select-Attend-Transfer en la red neuronal del codificador-decodificador hace que la red se centre en las características más importantes del tejido y su ubicación, reduciendo simultáneamente el consumo de memoria. Además, las redes generativas antagónicas se pueden utilizar para producir nuevos ejemplos de capacitación artificiales.
La segmentación semántica es capaz de reconocer múltiples clases, cada una representando una parte anatómica. Por ejemplo, la estructura del sistema nervioso puede incluir nervios de las extremidades superiores e inferiores, cervicales, plexo torácico o lumbar, la medula espinal, nervios del sistema nervioso periférico (p. ej., nervio ciático, nervio medio, plexo braquial), nervios craneales y otros.
La Fig. 5 muestra un diagrama de flujo de un proceso de capacitación que se puede utilizar para capacitar la RNC 400 de segmentación de estructuras del sistema nervioso. El objetivo de la capacitación de la RNC 400 de segmentación es perfeccionar los parámetros de la RNC 400 de segmentación, para que la red sea capaz de reconocer y segmentar una imagen 3D (RDI). La base de datos de capacitación se puede dividir en un conjunto de capacitación utilizado para capacitar el modelo, un conjunto de validación utilizado para cuantificar la calidad del modelo y un conjunto de prueba.
La capacitación comienza en 501. En 502, se leen lotes de imágenes 3D (RDI) de capacitación del conjunto de capacitación, un lote cada vez. Para la segmentación, las imágenes 3D (RDI) representan la entrada de la RNC y las imágenes 3D (RDI) previamente segmentadas correspondientes, que fueron segmentadas manualmente por un ser humano, representan los resultados deseados.
En 503, las imágenes 3D (RDI) originales pueden aumentarse. El aumento de datos se realiza en estas imágenes 3D (RDI) para hacer que el conjunto de capacitación sea más diverso. El par de entrada y salida de imágenes tridimensionales (RDI) está sujeto a la misma combinación de transformaciones.
En 504, las imágenes 3D (RDI) originales y las imágenes 3D (RDI) aumentadas se pasan después a través de las capas de la RNC en un paso hacia adelante convencional. El paso hacia adelante devuelve los resultados, que después se utilizan para calcular, en 505, el valor de la función de pérdida (es decir, la diferencia entre los resultados deseados y los resultados computarizados por la RNC). La diferencia se puede expresar mediante una métrica de similitud (p. ej., error cuadrático medio, error medio, entropía cruzada categórica u otra métrica).
En 506, los pesos se actualizan según el optimizador especificado y la velocidad de aprendizaje del optimizador. La pérdida se puede calcular mediante una función de pérdida de entropía cruzada por píxel y la regla de actualización de Adam.
La pérdida también se propaga hacia atrás a través de la red, y se computarizan los gradientes. Basándose en los valores de gradiente, se actualizan los pesos de la red. El proceso, que comienza con la lectura por lotes de las imágenes 3D (RDI), se repite continuamente hasta que se llega al final de la sesión de capacitación en 506.
Después, en 508, se calculan las métricas de rendimiento mediante un conjunto de datos de validación, que no se utiliza explícitamente en el conjunto de capacitación. Esto se hace para comprobar en 509 si el modelo no ha mejorado. Si no es el caso, el contador de parada anticipada se aumenta en uno en 514, siempre que su valor no haya alcanzado un número máximo predefinido de épocas en 515. El proceso de capacitación continúa hasta que no se obtiene más mejora en 516. Después, se guarda el modelo en 510 para su uso posterior, y se reinicia el contador de parada anticipada en 511. Como etapa final en una sesión, se puede aplicar la programación de la velocidad de aprendizaje. La sesión en la que se va a cambiar la velocidad está predefinida. Una vez que se alcanza uno de los números de sesión en 512, se establece la velocidad de aprendizaje en una asociada con este número de sesión específico en 513.
Una vez finalizado el proceso de capacitación, la red se puede utilizar para la inferencia (es decir, mediante un modelo capacitado para la segmentación autónoma de nuevas imágenes médicas).
La Fig. 6 muestra un diagrama de flujo de un proceso de inferencia para la RNC 400 de segmentación de estructuras del sistema nervioso.
Después de producirse la inferencia en 601, se carga un conjunto de exploraciones (imágenes tridimensionales) en 602, y la RNC 400 de segmentación y sus pesos se cargan en 603.
En 604, el servidor de inferencia procesa un lote de imágenes tridimensionales (RDI) a la vez.
En 605, las imágenes son preprocesadas (p. ej., normalizadas, recortadas, etc.) mediante los mismos parámetros que se utilizaron durante la capacitación. En al menos algunas implementaciones, se aplican distorsiones del tiempo de inferencia y se toma el resultado de inferencia promedio, por ejemplo, 10 copias distorsionadas de cada imagen 3D (RDI) de entrada. Esta característica crea resultados de inferencia que son resistentes a pequeñas variaciones en el brillo, el contraste, la orientación, etc.
En 606, se computariza un paso hacia adelante a través de la RNC 400 de segmentación.
En 606, el sistema puede realizar un procesamiento posterior tal como el filtrado lineal (p. ej., filtrado gaussiano) o filtrado no lineal (p. ej., filtrado medio y apertura o cierre morfológico).
En 608, si no se han procesado todos los lotes, se añade un nuevo lote a la canalización de procesamiento hasta que se haya realizado la inferencia en todas las imágenes 3D (RDI) de entrada.
Finalmente, en 609, se guardan los resultados de la inferencia y se pueden combinar en un modelo anatómico 3D segmentado. El modelo se puede convertir además en una malla poligonal con fines de visualización. Los parámetros de representación de volumen y/o malla se pueden ajustar en términos de cambio de color, opacidad, cambiando la decimación de la malla en función de las necesidades del operador.
La Fig. 7 muestra un modelo 3D de muestra, obtenido de la segmentación autónoma, convertida en una malla poligonal.
La Fig. 8 muestra un modelo 3D de muestra, obtenido de imágenes segmentadas de forma autónoma que presentan solo una estructura del sistema nervioso.
La Fig. 9 muestra una muestra de la trayectoria de un implante quirúrgico (Fig. 9A) y un instrumento (Fig. 9B) que colisiona con la estructura del sistema nervioso segmentada.
La funcionalidad descrita en el presente documento se puede implementar en un sistema 900 implementado por ordenador, como se muestra en la Fig. 10. El sistema puede incluir al menos un medio de almacenamiento legible por procesador no transitorio que almacene al menos una de las instrucciones o datos ejecutables por el procesador y al menos un procesador acoplado de manera comunicable con al menos un medio de almacenamiento legible por procesador no transitorio. Al menos un procesador se configura para realizar las etapas de los métodos presentados en el presente documento.
El sistema 900 implementado por ordenador, por ejemplo, un sistema de aprendizaje automático, puede incluir al menos un medio de almacenamiento 910 legible por procesador no transitorio que almacene al menos una de las instrucciones 915 ejecutables por procesador o datos; y al menos un procesador 920 acoplado de manera comunicable con el al menos un medio de almacenamiento 910 legible por procesador no transitorio. Al menos un procesador 920 puede configurarse (ejecutando las instrucciones 915) para realizar las etapas del método de la Fig. 3.

Claims (10)

REIVINDICACIONES
1. Un método para la segmentación autónoma de estructuras tridimensionales del sistema nervioso a partir de imágenes médicas sin procesar, comprendiendo el método las siguientes etapas:
- recibir (301) un volumen de exploración 3D que comprende un conjunto de imágenes médicas de exploración de una región anatómica;
- procesar de forma autónoma (302) el conjunto de imágenes médicas de exploración para realizar la segmentación de una estructura anatómica ósea a fin de obtener datos de segmentación de la estructura ósea; caracterizado por que comprende además las etapas de:
- procesar de forma autónoma (304) una subsección del volumen de exploración 3D como una región de interés RDI 3D, combinando (303) las imágenes médicas de exploración sin procesar y los datos de segmentación de la estructura ósea, en donde la RDI 3D contiene un subvolumen de la estructura ósea con una parte de los tejidos circundantes, incluida la estructura del sistema nervioso, en donde la RDI 3D incluye matrices 3D, conteniendo cada matriz 3D información sobre la distribución de los vóxeles a lo largo de los ejes X, Y y Z con la densidad ósea obtenida del volumen de exploración 3D y datos informativos sobre la clasificación para la estructura ósea;
- procesar de forma autónoma la RDI (306) para determinar la forma 3D, la ubicación y el tamaño de las estructuras del sistema nervioso por medio de una red neuronal convolucional, RNC, (400) previamente capacitada.
2. El método de acuerdo con la reivindicación 1, que comprende además el redimensionamiento 3D (305) de la RDI.
3. El método de acuerdo con cualquiera de las reivindicaciones anteriores, que comprende además visualizar (308) los resultados, incluidas las estructuras segmentadas del sistema nervioso.
4. El método de acuerdo con cualquiera de las reivindicaciones anteriores, que comprende además detectar la colisión entre una realización y/o una trayectoria de instrumentos quirúrgicos o implantes y las estructuras segmentadas del sistema nervioso.
5. El método de acuerdo con cualquiera de las reivindicaciones anteriores, en donde la RNC (400) de segmentación de estructuras del sistema nervioso es un modelo de red neuronal completamente convolucional con conexiones de salto de capa.
6. El método de acuerdo con la reivindicación 5, en donde los resultados de la RNC (400) de segmentación de estructuras del sistema nervioso se mejoran mediante puertas Select-Attend-Transfer, SAT.
7. El método de acuerdo con la reivindicación 5, en donde los resultados de la RNC (400) de segmentación de estructuras del sistema nervioso se mejora mediante redes generativas antagónicas, RGA.
8. El método de acuerdo con cualquiera de las reivindicaciones anteriores, en donde las imágenes médicas de exploración recibidas se recogen de un escáner intraoperatorio.
9. El método de acuerdo con cualquiera de las reivindicaciones anteriores, en donde las imágenes médicas de exploración recibidas se recogen de un escáner estacionario prequirúrgico.
10. Un sistema implementado por ordenador, que comprende:
- al menos un medio de almacenamiento (910) legible por procesador no transitorio que almacena al menos una instrucción (915) ejecutable por procesador o datos; y
- al menos un procesador (920) acoplado de manera comunicable con al menos un medio de almacenamiento (910) legible por procesador no transitorio, en donde al menos un procesador (920) se configura para realizar las etapas del método de cualquiera de las reivindicaciones anteriores.
ES18205207T 2018-11-08 2018-11-08 Segmentación autónoma de estructuras tridimensionales del sistema nervioso a partir de imágenes médicas Active ES2919428T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP18205207.6A EP3651116B1 (en) 2018-11-08 2018-11-08 Autonomous segmentation of three-dimensional nervous system structures from medical images

Publications (1)

Publication Number Publication Date
ES2919428T3 true ES2919428T3 (es) 2022-07-26

Family

ID=64267679

Family Applications (1)

Application Number Title Priority Date Filing Date
ES18205207T Active ES2919428T3 (es) 2018-11-08 2018-11-08 Segmentación autónoma de estructuras tridimensionales del sistema nervioso a partir de imágenes médicas

Country Status (3)

Country Link
US (2) US20200151507A1 (es)
EP (2) EP4095797B1 (es)
ES (1) ES2919428T3 (es)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
EP3470006B1 (en) 2017-10-10 2020-06-10 Holo Surgical Inc. Automated segmentation of three dimensional bony structure images
EP3445048A1 (en) 2017-08-15 2019-02-20 Holo Surgical Inc. A graphical user interface for a surgical navigation system for providing an augmented reality image during operation
BR112020014201A2 (pt) * 2018-01-10 2020-12-01 Institut de Recherche sur les Cancers de l'Appareil Digestif - IRCAD sistema e método de segmentação automática de uma imagem médica 3d por uma ou várias redes neurais através de convolução estruturada de acordo com a geometria anatômica da imagem médica 3d
US11980507B2 (en) 2018-05-02 2024-05-14 Augmedics Ltd. Registration of a fiducial marker for an augmented reality system
EP3608870A1 (en) 2018-08-10 2020-02-12 Holo Surgical Inc. Computer assisted identification of appropriate anatomical structure for medical device placement during a surgical procedure
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
KR102243644B1 (ko) * 2018-12-07 2021-04-23 서울대학교 산학협력단 의료 영상 분획 딥러닝 모델 생성 장치 및 방법과, 그에 따라 생성된 의료 영상 분획 딥러닝 모델
US11980506B2 (en) 2019-07-29 2024-05-14 Augmedics Ltd. Fiducial marker
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
US11237627B2 (en) 2020-01-16 2022-02-01 Novarad Corporation Alignment of medical images in augmented reality displays
US11900592B2 (en) * 2020-12-03 2024-02-13 Ping An Technology (Shenzhen) Co., Ltd. Method, device, and storage medium for pancreatic mass segmentation, diagnosis, and quantitative patient management
US12016633B2 (en) 2020-12-30 2024-06-25 Novarad Corporation Alignment of medical images in augmented reality displays
EP4053800A1 (en) * 2021-03-04 2022-09-07 Kardiolytics Inc. Autonomous reconstruction of vessels on computed tomography images
US20240206988A1 (en) 2021-04-30 2024-06-27 Augmedics, Inc. Graphical user interface for a surgical navigation system
EP4338127A1 (en) 2021-05-12 2024-03-20 Augmedics Inc. Systems, devices, and methods for segmentation of anatomical image data
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
WO2023064957A1 (en) 2021-10-15 2023-04-20 Surgalign Spine Technologies, Inc. Systems, devices, and methods for level identification of three-dimensional anatomical images
WO2023164497A1 (en) 2022-02-22 2023-08-31 Holo Surgical Inc. Systems, devices, and methods for spine analysis
CN114723763B (zh) * 2022-05-24 2022-09-02 博志生物科技(深圳)有限公司 一种医学图像分割方法、装置、设备及存储介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110007071A1 (en) * 2009-07-08 2011-01-13 Marcus Pfister Method for Supporting Puncture Planning in a Puncture of an Examination Object
WO2011112843A1 (en) * 2010-03-12 2011-09-15 Inspire Medical Systems, Inc. Method and system for identifying a location for nerve stimulation
US20140081659A1 (en) * 2012-09-17 2014-03-20 Depuy Orthopaedics, Inc. Systems and methods for surgical and interventional planning, support, post-operative follow-up, and functional recovery tracking
NL2012416B1 (en) * 2014-03-12 2015-11-26 Stichting Katholieke Univ Anatomical Image Projection System.
WO2016091833A1 (fr) 2014-12-08 2016-06-16 Continental Structures Bvba Pansement medical destine a l'obtention d'une cicratrice invisible ou moins visible et methode d'utilisation
US9940539B2 (en) 2015-05-08 2018-04-10 Samsung Electronics Co., Ltd. Object recognition apparatus and method
WO2018076023A1 (en) * 2016-10-21 2018-04-26 Nantomics, Llc Digital histopathology and microdissection
JP2020525258A (ja) * 2017-06-30 2020-08-27 プロマトン・ホールディング・ベー・フェー 深層学習法を使用する3d歯顎顔面構造の分類および3dモデリング
EP3462373A1 (en) * 2017-10-02 2019-04-03 Promaton Holding B.V. Automated classification and taxonomy of 3d teeth data using deep learning methods
WO2019089642A1 (en) * 2017-10-30 2019-05-09 Leucadia Therapeutics, LLC Diagnosis and prognosis of medical conditions using cribriform plate morphology
US20200342600A1 (en) * 2018-01-08 2020-10-29 Progenics Pharmaceuticals, Inc. Systems and methods for rapid neural network-based image segmentation and radiopharmaceutical uptake determination
US20210259660A1 (en) * 2018-06-29 2021-08-26 Koninklijke Philips N.V. Biopsy prediction and guidance with ultrasound imaging and associated devices, systems, and methods
WO2020023740A1 (en) * 2018-07-25 2020-01-30 The Trustees Of The University Of Pennsylvania Methods, systems, and computer readable media for generating and providing artificial intelligence assisted surgical guidance

Also Published As

Publication number Publication date
EP3651116A1 (en) 2020-05-13
US20220245400A1 (en) 2022-08-04
EP4095797B1 (en) 2024-01-24
EP4095797A1 (en) 2022-11-30
EP3651116B1 (en) 2022-04-06
US20200151507A1 (en) 2020-05-14

Similar Documents

Publication Publication Date Title
ES2919428T3 (es) Segmentación autónoma de estructuras tridimensionales del sistema nervioso a partir de imágenes médicas
US20240087130A1 (en) Autonomous multidimensional segmentation of anatomical structures on three-dimensional medical imaging
US20210369226A1 (en) Automated segmentation of three dimensional bony structure images
US20220351410A1 (en) Computer assisted identification of appropriate anatomical structure for medical device placement during a surgical procedure
ES2716837T3 (es) Detección automática de implantes a partir de artefactos de imagen
CN110807755B (zh) 使用定位器图像进行平面选择
US8897514B2 (en) Imaging method for motion analysis
Oulbacha et al. MRI to CT synthesis of the lumbar spine from a pseudo-3D cycle GAN
US9142020B2 (en) Osteo-articular structure
ES2712551T3 (es) Método para obtener una reconstrucción tridimensional a partir de una o más vistas proyectivas, y uso de la misma
US20220198784A1 (en) System and methods for augmenting x-ray images for training of deep neural networks
US11995770B2 (en) System and method for isolating anatomical features in computerized tomography data
Huang et al. Cephalogram synthesis and landmark detection in dental cone-beam CT systems
Galvez et al. Error measurement between anatomical porcine spine, CT images, and 3D printing
Uneri et al. Deformable 3D-2D registration for high-precision guidance and verification of neuroelectrode placement
Zheng et al. A unifying MAP-MRF framework for deriving new point similarity measures for intensity-based 2D-3D registration
Nithiananthan et al. Deformable registration for intra-operative cone-beam CT guidance of head and neck surgery
Gill et al. Group-wise registration of ultrasound to CT images of human vertebrae
US20230281842A1 (en) Generation of 3d models of anatomical structures from 2d radiographs
Nithiananthan et al. Demons deformable registration for cone-beam CT guidance: registration of pre-and intra-operative images
Sun A Review of 3D-2D Registration Methods and Applications based on Medical Images
JP2024519777A (ja) 解剖学的画像データのセグメンテーションのためのシステム、デバイス、及び方法
Zhang IMPROVED INTRAOPERATIVE IMAGING, REGISTRATION, AND GUIDANCE FOR NEUROSURGERY
Ketcha Medical Image Registration: Statistical Models of Performance in Relation to the Statistical Characteristics of the Image Data
Zheng et al. A class of novel point similarity measures based on MAP-MRF framework for 2D-3D registration of x-ray fluoroscopy to CT images