ES2914415T3 - Segundo lector - Google Patents

Segundo lector Download PDF

Info

Publication number
ES2914415T3
ES2914415T3 ES19744778T ES19744778T ES2914415T3 ES 2914415 T3 ES2914415 T3 ES 2914415T3 ES 19744778 T ES19744778 T ES 19744778T ES 19744778 T ES19744778 T ES 19744778T ES 2914415 T3 ES2914415 T3 ES 2914415T3
Authority
ES
Spain
Prior art keywords
malignancy
mammograms
mask
output
convolutional neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES19744778T
Other languages
English (en)
Inventor
Tobias Rijken
Michael O'neill
Andreas Heindl
Joseph Elliot Yearsley
Dimitrios Korkinof
Galvin Khara
Peter Kecskemethy
Edith Karpati
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kheiron Medical Technologies Ltd
Original Assignee
Kheiron Medical Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GB1809796.4A external-priority patent/GB2574659A/en
Priority claimed from GB1819329.2A external-priority patent/GB2579244A/en
Application filed by Kheiron Medical Technologies Ltd filed Critical Kheiron Medical Technologies Ltd
Application granted granted Critical
Publication of ES2914415T3 publication Critical patent/ES2914415T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/502Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of breast, i.e. mammography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19147Obtaining sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/025Tomosynthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0825Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the breast, e.g. mammography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30068Mammography; Breast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Artificial Intelligence (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Physiology (AREA)
  • Quality & Reliability (AREA)
  • Probability & Statistics with Applications (AREA)
  • Mathematical Physics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)

Abstract

Un método asistido por ordenador para analizar imágenes mamográficas, el método que comprende las etapas de: recibir una pluralidad de mamografías (10); realizar un primer análisis (30) sobre la pluralidad de mamografías (10) que comprende identificar una clasificación de malignidad para cada una de las mamografías; determinar un valor de salida de malignidad (30Y) para cada una de las mamografías dependientes del primer análisis (30); determinar un valor de salida de malignidad promedio al promediar los valores de salida de malignidad para la pluralidad de mamografías; establecer un umbral del valor de salida de malignidad promedio para generar un valor de malignidad binario de salida (60Y); realizar un segundo análisis (40) sobre la pluralidad de mamografías para determinar una pluralidad de parámetros de datos de localización (40X) para cada mamografía; y generar (70) datos de localización de salida para la pluralidad de mamografías en dependencia del valor binario de malignidad de salida, caracterizado porque el segundo análisis se realiza mediante el uso de una red neuronal convolucional regional de máscara (máscara RCNN) y comprende: generar un conjunto de cuadros delimitadores, en donde generar el conjunto de cuadros delimitadores comprende retirar cualquier cuadro delimitador que no tenga un umbral predeterminado de intersección sobre la unión e interpolar entre las coordenadas del cuadro delimitador; generar puntuaciones de lesiones promediadas, en donde generar las puntuaciones de lesiones promediadas comprende promediar las puntuaciones de lesiones para el conjunto de cuadros delimitadores; y generar una máscara de segmentación promediada, en donde la máscara de segmentación promediada se genera al promediar una pluralidad de máscaras de segmentación sin procesar, antes de establecer el umbral con un umbral predeterminado.

Description

DESCRIPCIÓN
Segundo lector
Campo
La presente invención se refiere a un método y sistema que determina de forma sustancialmente automática la malignidad en mamografías en paralelo con un operador humano. Más particularmente, la presente invención se refiere a proporcionar una determinación de malignidad automatizada confiable en paralelo con un operador humano para reducir la necesidad de dos operadores humanos en un flujo de trabajo de análisis de mamografía.
Antecedentes
La mamografía es una modalidad de imagen médica ampliamente usada para la detección del cáncer de mama. La mamografía hace uso de rayos X "suaves" para producir imágenes detalladas de la estructura interna de la mama humana. Estas imágenes se denominan mamografías y el uso de la mamografía se considera el estándar de oro en la detección temprana de anomalías mamarias (que pueden proporcionar un diagnóstico válido de un cáncer en una fase curable).
Desafortunadamente, el procedimiento de análisis de mamografías suele ser un desafío. La densidad y el tipo de tejido de las mamas son muy variados y a su vez presentan una gran variedad de características visuales debido a la genética de las pacientes. Estos patrones visuales de fondo pueden oscurecer los signos, a menudo diminutos, de malignidades que el ojo humano puede pasar fácilmente por alto. Por lo tanto, los análisis de las mamografías a menudo conducen a resultados de diagnóstico falsos positivos o falsos negativos que pueden provocar la omisión del tratamiento (en el caso de los falsos negativos), así como también consecuencias psicológicas no deseadas y subóptimas posteriores al diagnóstico y el tratamiento (en el caso de falsos positivos).
La mayoría de los países desarrollados mantienen un programa de detección en toda la población, es decir, un sistema integral para llamar a mujeres de un determinado grupo de edad, sin síntomas, para hacerse exámenes de mama regulares. Estos programas de detección requieren protocolos altamente estandarizados que deben seguir médicos especialistas entrenados y experimentados que puedan analizar de manera confiable una gran cantidad de mamografías de forma rutinaria. La mayoría de las pautas profesionales sugieren fuertemente la lectura de cada mamografía por dos radiólogos igualmente expertos (un enfoque conocido como doble lectura). Hoy en día, con el número de radiólogos altamente especializados disponibles que es escaso, y disminuye, el enfoque de doble lectura a menudo es poco práctico o imposible.
La participación de dos radiólogos expertos aumenta significativamente el costo de cada caso y también prolonga el tiempo para que un paciente reciba los resultados de un escaneo. En algunos casos, ambos radiólogos expertos pueden incluso pasar por alto una lesión sospechosa.
Por lo tanto, existe la necesidad de mejorar, si no al menos mantener, la calidad de los resultados de la mamografía mientras se adhiere a las pautas que requieren o sugieren fuertemente un proceso de doble lectura.
El documento de DEZSO RIBLI Y OTROS: "Detecting and classifying lesions in mammograms with Deep Learning", ARXIV.ORG, BIBLIOTECA DE LA UNIVERSIDAD DE CORNELL, 201 BIBLIOTECA OLIN DE LA UNIVERSIDAD DE CORNELL ITHACA, NY 14853, 26 de julio de 2017 (2017-07-26), describe un método de acuerdo con el preámbulo de la reivindicación 1.
Resumen de la invención
Los aspectos y/o modalidades buscan proporcionar un método para evaluar de forma sustancialmente automática los datos de mamografía en paralelo con un operador humano. Los aspectos y/o modalidades también buscan abordar los problemas que se refieren a proporcionar un segundo lector sustancialmente confiable para permitir que un solo operador analice y diagnostique datos de mamografía. De acuerdo con un primer aspecto, se proporciona un método asistido por ordenador para analizar imágenes mamográficas, de acuerdo con la reivindicación 1.
De esta forma, puede eliminarse la necesidad de que un profesional médico altamente especializado adicional realice una segunda lectura de la mamografía y la segunda lectura puede realizarse de forma automática y sustancialmente instantánea. El método también puede reducir el riesgo de error humano.
Al recibir múltiples imágenes de entrada, los radiólogos pueden realizar un análisis por caso para los pacientes y determinar sustancialmente la posibilidad de una lesión maligna después de analizar múltiples vistas mamográficas. Para combatir la generación de múltiples falsos positivos que pueden limitar la eficacia/confiabilidad de los métodos actuales basados en el aprendizaje automático, el método solo puede proporcionar datos de localización de las lesiones si el análisis de la revisión de las mamografías por caso sugiere que existe una lesión maligna. Opcionalmente, puede realizarse la etapa adicional de preprocesamiento de una pluralidad de mamografías para mejorar la clasificación de malignidad para cada una de las mamografías, la etapa de preprocesamiento que comprende además el uso de una o más redes neuronales entrenadas. Principalmente, pueden usarse redes neuronales convolucionales, pero pueden usarse otros tipos, tales como redes de cápsula.
Opcionalmente, la etapa de realizar el primer análisis en la pluralidad de mamografías se lleva a cabo mediante el uso de uno o más clasificadores de redes neuronales convolucionales entrenadas. Como un ejemplo, las redes neuronales convolucionales (o las CNN) pueden ser ConvNets.
Opcionalmente, los pesos del clasificador de red neuronal convolucional entrenada se congelan en dependencia de los datos usados para entrenar el clasificador de red neuronal convolucional.
Opcionalmente, la pluralidad de mamografías comprende: una mamografía caudal craneal del lado izquierdo, L-CC; una mamografía caudal craneal del lado derecho, R-CC; una mamografía medio-lateral-oblicua del lado izquierdo, L-MLO; y una mamografía medio-lateral-oblicua del lado derecho, R-MLO. Opcionalmente, el valor promedio de salida de malignidad comprende cualquier combinación de; un valor promedio para todos los valores de salida de malignidad de L-CC; un valor promedio para todos los valores de salida de malignidad de R-CC; un valor promedio para todos los valores de salida de malignidad de L-MLO; un valor promedio para todos los valores de salida de malignidad de R-MLO; un valor promedio para todos los valores de salida de malignidad de la mamografía del lado izquierdo; y un valor promedio para todos los valores de salida de malignidad de la mamografía del lado derecho. Opcionalmente, se realiza un operador máximo entre el valor promedio de todos los valores de salida de malignidad de la mamografía del lado izquierdo y el valor promedio de todos los valores de salida de malignidad de la mamografía del lado derecho para determinar el valor de salida de malignidad promedio.
La etapa de realizar un segundo análisis sobre la pluralidad de mamografías se lleva a cabo mediante el uso de una o más redes neuronales convolucionales regionales entrenadas, RCNN.
Opcionalmente, la una o más RCNN entrenadas comprenden una pluralidad de redes subdivisionales para determinar la pluralidad de parámetros de datos de localización, las redes subdivisionales proporcionan cualquiera o una combinación de: un modelo de generación de cuadro delimitador; un modelo de segmentación; y un modelo de tipo de clasificación de malignidad.
Opcionalmente, la una o más RCNN se acoplan a una capa convolucional de salida de la una o más redes neuronales convolucionales usadas para realizar el primer análisis. Opcionalmente, la una o más RCNN se entrenan mediante el uso de los pesos de la una o más redes neuronales convolucionales usadas para realizar el primer análisis.
Opcionalmente, la una o más RCNN entrenadas generan una máscara superpuesta que indica una lesión de interés, la máscara comprende además un valor de probabilidad de malignidad.
Opcionalmente, el modelo de generación de cuadro delimitador genera una regresión de cuadro delimitador con supresión no máxima para localizar las lesiones de interés.
Opcionalmente, el modelo de segmentación proporciona contornos de segmentación de regiones anatómicas y/o lesiones, el modelo de segmentación comprende además características de localización. Opcionalmente, el modelo de tipo de clasificación de malignidad identifica un tipo de tejido y una clasificación de categoría de densidad para la mama.
Opcionalmente, las redes subdivisionales comprenden un conjunto de máscaras creadas por las redes de subdivisión. Opcionalmente, la una o más RCNN se ensamblan con supresión no máxima y/o conglomeración de cuadros ponderados.
Opcionalmente, la etapa de establecer el umbral de los valores de salida de malignidad promedio comprende seleccionar múltiples puntos operativos de la mamografía, opcionalmente, seleccionar al menos seis puntos operativos.
De acuerdo con un segundo aspecto, se proporciona un método para entrenar una o más redes neuronales convolucionales para realizar las etapas del método del primer aspecto, $ el método que comprende: recibir una o más mamografías; entrenar una o más redes neuronales convolucionales para analizar completamente la una o más mamografías y determinar un valor de malignidad; congelar los pesos para la una o más redes neuronales convolucionales; agregar las RCNN a la última capa convolucional de la una o más redes neuronales convolucionales; y entrenar a las RCNN mediante el uso de los pesos congelados de la una o más redes neuronales convolucionales.
Las RCNN comprenden cabezas de la máscara-RCNN.
Opcionalmente, la una o más mamografías se restringen a 4000x4000 píxeles.
Opcionalmente, las mamografías se preprocesan mediante el uso de cualquiera o una combinación de: selección de ventanas; remuestreo; y normalización.
De acuerdo con un tercer aspecto, se proporciona un aparato operable para realizar el método de cualquier característica anterior.
De acuerdo con un cuarto aspecto, se proporciona un producto de programa de ordenador operable para realizar el método de cualquier característica anterior.
Breve descripción de los dibujos
Las modalidades se describirán ahora a manera de ejemplo solamente, y con referencia a los dibujos acompañantes que tienen números de referencia similares, en los cuales:
La Figura 1 ilustra un diagrama de flujo que muestra un contorno del método de una modalidad;
la Figura 2 ilustra la porción del diagrama de flujo de la Figura 1 centrada en proporcionar una salida de malignidad en base a la imagen de entrada y la red neuronal de detección de malignidad pre-entrenada, que muestra opcionalmente el preprocesamiento que puede aplicarse a la imagen de entrada;
la Figura 3 ilustra la Máscara-RCNN de la modalidad de la Figura 1 en más detalle;
la Figura 4 ilustra la porción del diagrama de flujo de la Figura 1 que muestra el proceso de las operaciones media y máxima realizadas por la modalidad; y
la Figura 5 ilustra cómo se determina la salida final de la modalidad de la Figura 1.
Descripción específica
La Figura 1 representa una modalidad de ejemplo que ahora se describirá en más detalle más abajo con referencia a las Figuras 2 a 5 según corresponda.
Con referencia primero a la Figura 1, se muestra un método para recibir imágenes de mamografía de entrada 10 y generar una salida de malignidad, por ejemplo, una salida binaria si/no o una salida más detallada que muestra regiones de interés junto con una salida binaria.
En un escaneo médico de un paciente (mamografía), las imágenes escaneadas se recopilan en formato DICOM, que es un formato de archivo comúnmente usado para almacenar imágenes médicas. El método usa datos preprocesados que se almacenan en un Sistema de Comunicación de Archivo de Imágenes (PACS) que usan los departamentos de radiología en los hospitales. La salida de este método también enriquece la base de datos de PACS para mejorar futuras aplicaciones de análisis de imágenes mamográficas.
En algunos casos, las imágenes pueden preprocesarse 20 mediante el uso de una variedad de métodos, que incluyen, entre otros, selección de ventanas, remuestreo y normalización. Las imágenes de entrada también pueden someterse a técnicas de adaptación de dominio y/o transferencia de estilo para mejorar además los resultados.
Las mamografías, preprocesadas o no, luego se alimentan en un clasificador de red neuronal convolucional (CNN) 30 que ha sido entrenada para analizar las imágenes y evaluar si la imagen muestra una lesión maligna. En algunas modalidades, hay uso de más de una CNN entrenada para completar esta tarea. También pueden usarse métodos convencionales de detección de lesiones malignas en una mamografía.
Para que una CNN opere como un modelo de malignidad, primero se debe entrenar a la red. Similar a los métodos de preprocesamiento mencionados anteriormente, las imágenes de entrada con el fin de entrenar la red pueden someterse a selección de ventanas, remuestreo, normalización, etc., antes de que se usen las imágenes. En algunos casos, las imágenes usadas para entrenar la red se proporcionan o tienen un tamaño de hasta 4000 x 4000 píxeles.
A medida que las imágenes se alimentan a través de la CNN, se realizan un número de operaciones matemáticas apiladas. Al hacerlo, la CNN aplica tensores variables a la capa anterior de manera que se produce una puntuación maligna o no como resultado de estas operaciones. Luego actualizamos las variables en base al gradiente de la función de costo (entropía cruzada) haciendo uso de la regla de la cadena para calcular las actualizaciones de gradiente que se aplicarán. De esta forma, pueden entrenarse múltiples CNN para usarlas con los aspectos/modalidades descritas.
Adicionalmente, el entrenamiento de las CNN puede incluir la concatenación de una imagen anterior tomada de la misma vista mamográfica y ejecutarla a través de las redes junto con la imagen actual que se alimenta a la red. Esto permite el ajuste fino de las últimas pocas capas de la CNN de manera que puedan dar cuenta de múltiples imágenes.
Una vez que se entrena(n) el(los) modelo(s) de malignidad, la red y sus pesos se congelan. Luego tomamos una de las salidas de la capa convolucional que luego se alimenta a las cabezas de la máscara desde una Máscara RCNN 40. En la figura 3 se ilustra una Máscara RCNN ilustrativa. Estas cabezas incluyen un predictor de cuadros delimitadores 41, donde los cuadros delimitadores pueden usarse para cortar una parte de la imagen original. Además de, o encima del parche cortado, se colocan un clasificador maligno 42 y unas cabezas de segmentación 43. Al igual que con el modelo de malignidad, con este sistema puede usarse cualquier cuadro delimitador convencional, clasificador de malignidad o modelos de segmentación. En "Máscara r-cnn". Visión por ordenador (ICCV), 2017 Conferencia Internacional IEEE en. IEEE, 2017, He, Kaiming, y otros describe una RCNN tradicional que puede usarse en al menos algunas modalidades.
Hay varios métodos de entrenamiento de las RCNN. En primer lugar, conectar el modelo de malignidad a la máscara RCNN, las cabezas de la máscara RCNN pueden entrenarse al mismo tiempo que el modelo de malignidad de imagen completa. En segundo lugar, también es posible entrenar la Máscara RCNN sin congelar la red del modelo de malignidad. Finalmente, las cabezas de la Máscara RCNN pueden entrenarse con múltiples modelos de malignidad. Por lo tanto, el método de entrenamiento de las cabezas de la Máscara RCNN no se restringe a un determinado tipo, lo que permite adaptar el enfoque para usos específicos.
Una vez que se entrenan las redes neuronales, durante el uso o en el momento de la inferencia, el modelo de malignidad se congela en base a los datos de entrenamiento.
Como un ejemplo, durante el tiempo de ejecución, el sistema de la modalidad recibe cuatro tipos de imágenes de mamografía: vista caudal craneal izquierda (L-CC) 51, vista caudal craneal derecha (R-CC) 53, medio-lateral-oblicua izquierda (L-MLO) 52 y medio-lateral-oblicua derecha (R-MLO) 54. Esta combinación de imágenes se conoce que se denomina como un caso. Al pasar a través del modelo o modelos de malignidad, el sistema de la modalidad produce un caso completo de salidas. Estas salidas luego se promedian para generar una sola salida 60Y.
Como se ve en la Figura 4, 51 representa una puntuación promedio de todas las vistas caudales craneales izquierdas, 52 representa una puntuación promedio de todas las vistas medio-laterales-oblicuas izquierdas (L-MLO), 53 representa una puntuación promedio de todas las vistas caudales craneales derechas (R-CC) y 54 representa una puntuación promedio de todas las vistas medio-laterales-oblicuas derechas (R-MLO). Como se representa por 61a y 62a, el sistema de la modalidad luego calcula una media de las respectivas vistas del lado izquierdo 61 y del lado derecho 62. Esto da como resultado una salida de malignidad para cada lado. Luego se realiza una operación máxima 63 para las salidas de malignidad promedio para cada lado.
Aunque no se representa en las figuras, en la modalidad descrita, el método entonces establece el umbral de este resultado con un umbral predeterminado que proporciona una puntuación binaria de malignidad o no 60Y.
Finalmente, con referencia a la Figura 5, la puntuación 60Y se usa para determinar si mostrar o no las segmentaciones de Máscara RCNN o los cuadros delimitadores 40X. De esta forma, en lugar de mostrar absolutamente todas las lesiones detectadas solo por la Máscara RCNN, lo que conduce a numerosos falsos positivos, las salidas de Máscara R-CNN resultantes solo se muestran si la puntuación binaria maligna es positiva, es decir, indica malignidad. Cuando 60Y no indica que el caso sea maligno, las salidas de Máscara RCNn se ignoran y no se producen datos de localización como una salida del sistema.
Los resultados de Máscara RCNN se ensamblan mediante la interpolación entre las coordenadas del cuadro delimitador (de forma [N, M, x1, x2, y1, y2] donde N representa el número de modelos y M el número máximo de cuadros delimitadores) que tienen una intersección suficiente sobre la unión (IOU), que se predetermina. Cualquier cuadro delimitador que no tenga una IOU suficiente con los demás se elimina de la consideración. Con los cuadros delimitadores resultantes, las máscaras de segmentación sin procesar luego se promedian antes de establecer un umbral con un umbral predeterminado, y también se promedian las puntuaciones de lesión para todos los cuadros delimitadores suficientes.
Estas operaciones dan como resultado un conjunto final de cuadros delimitadores de forma [1, M, x1, x2, y1, y2] junto con una máscara de segmentación de forma [1, H, W] y puntuaciones de lesión de forma [1, M]. Una mejor manera es usar la conglomeración de cuadros ponderados (WBC) que se describe por Paul F. Jaeger y otros en "Retina U-Net: Embarrassingly Simple Exploitation of Segmentation Supervision for Medical Object Detection" (https://arxiv.org/pdf/1811.08661.pdf).
Como se mencionó anteriormente, la doble lectura es el estándar de oro en la detección del cáncer de mama con mamografía. En este escenario, dos radiólogos informarán sobre un caso. El arbitraje ocurrirá cuando los dos lectores no estén de acuerdo acerca de llamar a un paciente para pruebas de detección adicionales.
En la presente modalidad, el sistema descrito puede operar como un segundo lector independiente. En el pasado, los sistemas de diagnóstico asistidos por ordenador no podían actuar como tales debido a una alta tasa de falsos positivos. Similar a un radiólogo humano, el sistema descrito de la modalidad puede tener una baja tasa de falsos positivos, lo que significa que puede usarse en al menos de las dos formas siguientes:
1. Como un segundo lector verdaderamente independiente: un primer radiólogo (humano) mira el caso y el presente sistema evalúa el caso independientemente. Si los dos no están de acuerdo, el sistema de la modalidad muestra los contornos para las lesiones de interés para que las considere el radiólogo humano, y si están de acuerdo, el radiólogo no ve las salidas del sistema; o
2. Como un segundo lector no independiente donde el radiólogo humano y el sistema de la modalidad analizan ambos el caso, en el sentido de que el radiólogo humano se soporta por el sistema de la modalidad. El radiólogo puede hacer clic para ver los resultados generados por el sistema de la modalidad cuando lo desee.
Muchos enfoques que imitan las técnicas usadas por los radiólogos humanos pueden incorporarse en el sistema en algunas modalidades, tal como mediante el uso de una imagen anterior como una referencia para buscar cualquier cambio desde el último escaneo y también un operador medio y luego máximo para imitar la forma en que los radiólogos humanos intercambian si vuelven a llamar un caso.
El aprendizaje automático es el campo de estudio donde un ordenador u ordenadores aprenden a realizar clases de tareas mediante el uso de la retroalimentación generada a partir de la experiencia o los datos recopilados que el proceso de aprendizaje automático adquiere durante la ejecución de esas tareas por parte del ordenador.
Típicamente, el aprendizaje automático puede clasificarse en términos generales como enfoques supervisados y no supervisados, aunque existen enfoques particulares, tales como el aprendizaje de refuerzo y el aprendizaje semisupervisado, que tienen reglas, técnicas y/o enfoques especiales. El aprendizaje automático supervisado se ocupa de que un ordenador aprenda una o más reglas o funciones para mapear entre entradas de ejemplo y salidas deseadas según lo predeterminado por un operador o programador, generalmente donde se etiqueta un conjunto de datos que contiene las entradas.
El aprendizaje no supervisado se ocupa de determinar una estructura para los datos de entrada, por ejemplo, cuando se realiza el reconocimiento de patrones y, típicamente, usa conjuntos de datos no etiquetados. El aprendizaje de refuerzo se ocupa de permitir que un ordenador u ordenadores interactúen con un entorno dinámico, por ejemplo, al jugar un juego o conducir un vehículo.
Son posibles varios híbridos de estas categorías, tal como el aprendizaje automático "semisupervisado", donde un conjunto de datos de entrenamiento solo se ha etiquetado parcialmente. Para el aprendizaje automático no supervisado, existe una gama de aplicaciones posibles, tal como, por ejemplo, la aplicación de técnicas de visión por ordenador al procesamiento de imágenes o la mejora de videos. El aprendizaje automático no supervisado típicamente se aplica para resolver problemas donde una estructura de datos desconocida puede estar presente en los datos. Como los datos no se etiquetan, se requiere que el proceso de aprendizaje automático opere para identificar relaciones implícitas entre los datos, por ejemplo, al derivar una métrica de conglomeración en base a la información derivada internamente. Por ejemplo, puede usarse una técnica de aprendizaje no supervisado para reducir la dimensionalidad de un conjunto de datos e intentar identificar y modelar las relaciones entre los conglomerados en el conjunto de datos y, por ejemplo, puede generar medidas de pertenencia del conglomerado o identificar centros o nodos en o entre los conglomerados (por ejemplo, mediante el uso de una técnica denominada como análisis de red de correlación ponderada, que puede aplicarse a conjuntos de datos de alta dimensión, o mediante el uso de conglomeración de kmedios para conglomerar datos por una medida de la distancia euclidiana entre cada dato).
El aprendizaje semisupervisado típicamente se aplica para resolver problemas donde hay un conjunto de datos parcialmente etiquetado, por ejemplo, donde solo se etiqueta un subconjunto de los datos. El aprendizaje automático semisupervisado hace uso de etiquetas y funciones objetivas proporcionadas externamente, así como también cualquier relación de datos implícita. Cuando se configura inicialmente un sistema de aprendizaje automático, particularmente cuando se usa un enfoque de aprendizaje automático supervisado, el algoritmo de aprendizaje automático puede proporcionarse con algunos datos de entrenamiento o un conjunto de ejemplos de entrenamiento, en los que cada ejemplo es típicamente un par de señales/vectores de entrada y un valor de salida deseado, etiqueta (o clasificación) o señal. El algoritmo de aprendizaje automático analiza los datos de entrenamiento y produce una función generalizada que puede usarse con conjuntos de datos no vistos para producir valores de salida deseados o señales para los vectores/señales de entrada no vistos. El usuario debe decidir qué tipo de datos se usarán como datos de entrenamiento y preparar un conjunto de datos representativo del mundo real. Sin embargo, el usuario debe tener cuidado de asegurarse de que los datos de entrenamiento contengan suficiente información para predecir con precisión los valores de salida deseados sin proporcionar demasiadas características (lo que puede dar como resultado que el proceso de aprendizaje automático considere demasiadas dimensiones durante el entrenamiento, y también podría significar que el proceso de aprendizaje automático no converge a buenas soluciones para todos o los ejemplos específicos). El usuario también debe determinar la estructura deseada de la función aprendida o generalizada, por ejemplo, si usar máquinas de vectores de soporte o árboles de decisión.
El uso de enfoques de aprendizaje automático no supervisados o semisupervisados se usan a veces cuando los datos etiquetados no están fácilmente disponibles, o donde el sistema genera nuevos datos etiquetados a partir de datos desconocidos dadas algunas etiquetas de semilla iniciales.
El aprendizaje automático puede realizarse a través del uso de uno o más de: un algoritmo jerárquico no lineal; red neuronal; red neuronal convolucional; red neuronal recurrente; red de memoria a corto largo plazo; red convolucional multidimensional; una red de memoria; red totalmente convolucional o una red recurrente cerrada permite un enfoque flexible al generar el bloque predicho de datos visuales. El uso de un algoritmo con una unidad de memoria tal como una red de memoria a corto largo plazo (LSTM), una red de memoria o una red recurrente cerrada puede mantener el estado de los bloques predichos de los procesos de compensación de movimiento realizados en el mismo cuadro de entrada original. El uso de estas redes puede mejorar la eficiencia computacional y también mejorar la consistencia temporal en el proceso de compensación de movimiento a través de un número de cuadros, ya que el algoritmo mantiene algún tipo de estado o memoria de los cambios en el movimiento. Esto puede resultar adicionalmente en una reducción de las tasas de error.
Desarrollar un sistema de aprendizaje automático típicamente consta de dos etapas: (1) entrenamiento y (2) producción. Durante el entrenamiento, los parámetros del modelo de aprendizaje automático se cambian iterativamente para optimizar un objetivo de aprendizaje particular, conocido como función objetiva o pérdida. Una vez que se entrena el modelo, puede usarse en producción, donde el modelo toma una entrada y produce una salida mediante el uso de los parámetros entrenados.
Cualquier característica del sistema como se describe en la presente descripción también puede proporcionarse como una característica del método, y viceversa. Como se usa en la presente, las características de los medios más la función pueden expresarse alternativamente en términos de su estructura correspondiente.
Cualquier característica en un aspecto puede aplicarse a otros aspectos, en cualquier combinación apropiada. En particular, los aspectos del método pueden aplicarse a aspectos del sistema, y viceversa. Además, cualquiera, algunas y/o todas las características de un aspecto pueden aplicarse a cualquiera, algunas y/o todas las características de cualquier otro aspecto, en cualquier combinación adecuada.
También debe apreciarse que las combinaciones particulares de las diversas características descritas y definidas en cualquier aspecto pueden implementarse y/o suministrarse y/o usarse independientemente.

Claims (15)

REIVINDICACIONES
1. Un método asistido por ordenador para analizar imágenes mamográficas, el método que comprende las etapas de:
recibir una pluralidad de mamografías (10);
realizar un primer análisis (30) sobre la pluralidad de mamografías (10) que comprende identificar una clasificación de malignidad para cada una de las mamografías;
determinar un valor de salida de malignidad (30Y) para cada una de las mamografías dependientes del primer análisis (30);
determinar un valor de salida de malignidad promedio al promediar los valores de salida de malignidad para la pluralidad de mamografías;
establecer un umbral del valor de salida de malignidad promedio para generar un valor de malignidad binario de salida (60Y);
realizar un segundo análisis (40) sobre la pluralidad de mamografías para determinar una pluralidad de parámetros de datos de localización (40X) para cada mamografía; y
generar (70) datos de localización de salida para la pluralidad de mamografías en dependencia del valor binario de malignidad de salida, caracterizado porque el segundo análisis se realiza mediante el uso de una red neuronal convolucional regional de máscara (máscara RCNN) y comprende:
generar un conjunto de cuadros delimitadores, en donde generar el conjunto de cuadros delimitadores comprende retirar cualquier cuadro delimitador que no tenga un umbral predeterminado de intersección sobre la unión e interpolar entre las coordenadas del cuadro delimitador;
generar puntuaciones de lesiones promediadas, en donde generar las puntuaciones de lesiones promediadas comprende promediar las puntuaciones de lesiones para el conjunto de cuadros delimitadores; y generar una máscara de segmentación promediada, en donde la máscara de segmentación promediada se genera al promediar una pluralidad de máscaras de segmentación sin procesar, antes de establecer el umbral con un umbral predeterminado.
2. El método de la reivindicación 1, que comprende además la etapa de preprocesamiento a una pluralidad de mamografías para mejorar la clasificación de malignidad para cada una de las mamografías, la etapa de preprocesamiento que comprende además el uso de una o más redes neuronales entrenadas.
3. El método de las reivindicaciones 1 o 2, en donde la etapa de realizar el primer análisis en la pluralidad de mamografías se lleva a cabo mediante el uso de uno o más clasificadores de redes neuronales convolucionales entrenadas.
4. El método de la reivindicación 3, en donde los pesos del clasificador de red neuronal convolucional entrenada se congelan en dependencia de los datos usados para entrenar el clasificador de red neuronal convolucional.
5. El método de cualquier reivindicación anterior, en donde la pluralidad de mamografías comprende:
una mamografía caudal craneal del lado izquierdo, L-CC;
una mamografía caudal craneal del lado derecho, R-CC;
una mamografía medio-lateral-oblicua del lado izquierdo, L-MLO; y
una mamografía medio-lateral-oblicua del lado derecho, R-MLO.
6. El método de la reivindicación 5, en donde el valor promedio de salida de malignidad comprende cualquier combinación de:
un valor promedio para todos los valores de salida de malignidad de L-CC;
un valor promedio para todos los valores de salida de malignidad de R-CC;
un valor promedio para todos los valores de salida de malignidad de L-MLO;
un valor promedio para todos los valores de salida de malignidad de R-MLO;
un valor promedio para todos los valores de salida de malignidad de la mamografía del lado izquierdo; y un valor promedio para todos los valores de salida de malignidad de la mamografía del lado derecho,
y opcionalmente se realiza un operador máximo entre el valor promedio para todos los valores de salida de malignidad de la mamografía del lado izquierdo y el valor promedio para todos los valores de salida de malignidad de la mamografía del lado derecho para determinar el valor de salida de malignidad promedio.
7. El método de la reivindicación 1, en donde la máscara RCNN es una RCNN entrenada y comprende una pluralidad de redes subdivisionales para determinar la pluralidad de parámetros de datos de localización, las redes subdivisionales proporcionan cualquiera o una combinación de:
un modelo de generación de cuadro delimitador;
un modelo de segmentación; y
un modelo de tipo de clasificación de malignidad.
8. El método de las reivindicaciones 1 y 7, en donde la máscara RCNN se acopla a una capa
convolucional de salida de la una o más redes neuronales convolucionales usadas para realizar el primer análisis, opcionalmente en donde la máscara RCNN se entrena mediante el uso de los pesos de la una o más
redes neuronales convolucionales usadas para realizar el primer análisis.
9. El método de acuerdo con la reivindicación 7, en donde la máscara RCNN genera una máscara superpuesta que indica una lesión de interés, la máscara comprende además un valor de probabilidad de malignidad, opcionalmente, en donde el modelo de generación de cuadro delimitador genera una regresión de cuadro delimitador con supresión no máxima para localizar lesiones de interés, además opcionalmente en donde el modelo de segmentación proporciona contornos de segmentación de regiones anatómicas y/o lesiones, el modelo de segmentación comprende además características de localización y/u opcionalmente en donde el modelo de tipo de clasificación de malignidad identifica una clasificación de tipo de tejido y categoría de densidad para la mama y/u opcionalmente en donde las redes subdivisionales comprenden un conjunto de máscaras creadas por las redes de subdivisión, opcionalmente en donde la máscara RCNN se combina con supresión no máxima y/o conglomeración de cuadros ponderados.
10. El método de cualquier reivindicación anterior, en donde la etapa de establecer el umbral de los valores promedio de salida de malignidad comprende seleccionar múltiples puntos operativos de la mamografía, opcionalmente, seleccionar al menos seis puntos operativos.
11. Un método de entrenar una o más redes neuronales convolucionales para realizar las etapas de cualquier reivindicación anterior, el método que comprende:
recibir una o más mamografías;
entrenar una o más redes neuronales convolucionales para analizar completamente la una o más mamografías y determinar un valor de malignidad;
congelar los pesos para la una o más redes neuronales convolucionales; agregar las máscaras RCNN a la última capa convolucional de la una o más redes neuronales convolucionales;
y entrenar las máscaras RCNN mediante el uso de los pesos congelados de la una o más redes neuronales convolucionales.
12. El método de acuerdo con la reivindicación 11, en donde la una o más mamografías se restringen a 4000x4000 píxeles.
13. El método de cualquiera de las reivindicaciones 11 a 12, en donde las mamografías se preprocesan mediante el uso de cualquiera o una combinación de: selección de ventanas; remuestreo; y normalización.
14. Un aparato adaptado para realizar el método de cualquier reivindicación anterior.
15. Un producto de programa de ordenador que, cuando se ejecuta en un ordenador, se adapta para realizar el método de cualquiera de las reivindicaciones 1 a 13.
ES19744778T 2018-06-14 2019-06-14 Segundo lector Active ES2914415T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
GB1809796.4A GB2574659A (en) 2018-06-14 2018-06-14 Immediate workup
GB1819329.2A GB2579244A (en) 2018-11-27 2018-11-27 Second reader
GB201900212 2019-01-07
PCT/GB2019/051667 WO2019239154A1 (en) 2018-06-14 2019-06-14 Second reader

Publications (1)

Publication Number Publication Date
ES2914415T3 true ES2914415T3 (es) 2022-06-10

Family

ID=67439247

Family Applications (3)

Application Number Title Priority Date Filing Date
ES19744777T Active ES2914387T3 (es) 2018-06-14 2019-06-14 Estudio inmediato
ES19744778T Active ES2914415T3 (es) 2018-06-14 2019-06-14 Segundo lector
ES19744779T Active ES2914873T3 (es) 2018-06-14 2019-06-14 Sugerencia de segunda lectura

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES19744777T Active ES2914387T3 (es) 2018-06-14 2019-06-14 Estudio inmediato

Family Applications After (1)

Application Number Title Priority Date Filing Date
ES19744779T Active ES2914873T3 (es) 2018-06-14 2019-06-14 Sugerencia de segunda lectura

Country Status (10)

Country Link
US (3) US11455723B2 (es)
EP (3) EP3806744B1 (es)
JP (3) JP2021527472A (es)
AU (3) AU2019285394A1 (es)
CA (3) CA3102173A1 (es)
DK (3) DK3806744T3 (es)
ES (3) ES2914387T3 (es)
HU (2) HUE058687T2 (es)
SI (3) SI3806746T1 (es)
WO (3) WO2019239155A1 (es)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201705911D0 (en) 2017-04-12 2017-05-24 Kheiron Medical Tech Ltd Abstracts
DK3806744T3 (da) 2018-06-14 2022-05-23 Kheiron Medical Tech Ltd Øjeblikkelig undersøgelse
US20220050997A1 (en) * 2018-09-07 2022-02-17 Toyota Motor Europe Method and system for processing an image by determining rotation hypotheses
CN110136829A (zh) * 2019-05-16 2019-08-16 腾讯科技(深圳)有限公司 乳腺钼靶图像的辅助诊断方法、装置、系统及介质
US20200395123A1 (en) * 2019-06-16 2020-12-17 International Business Machines Corporation Systems and methods for predicting likelihood of malignancy in a target tissue
JP7415787B2 (ja) * 2020-05-15 2024-01-17 コニカミノルタ株式会社 医用画像システム
WO2022112731A1 (en) * 2020-11-26 2022-06-02 Kheiron Medical Technologies Ltd Decision for double reader
EP4033497A1 (en) 2021-01-25 2022-07-27 Aigea Medical S.r.l. Training procedure and system for artificial intelligence intended for the analysis of mammographic data for the identification or exclusion of the presence of breast cancer
WO2023069524A1 (en) * 2021-10-19 2023-04-27 PaxeraHealth Corp High-definition labeling system for medical imaging ai algorithms
US20230352172A1 (en) * 2022-04-27 2023-11-02 MX Healthcare GmbH System and method for identifying breast cancer
WO2024123311A1 (en) * 2022-12-06 2024-06-13 Google Llc Mammography device outputs for broad system compatibility

Family Cites Families (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06251038A (ja) * 1993-03-01 1994-09-09 Toshiba Corp 医用診断支援システム
US6075879A (en) 1993-09-29 2000-06-13 R2 Technology, Inc. Method and system for computer-aided lesion detection using information from multiple images
JPH09502918A (ja) 1994-07-14 1997-03-25 フィリップス エレクトロニクス エヌ ベー スポットを弁別するために複数の閾値レベルを用いるデジタルx線画像のマス検出
AU726049B2 (en) 1995-09-19 2000-10-26 Veracel Inc. A neural network assisted multi-spectral segmentation system
US6058322A (en) * 1997-07-25 2000-05-02 Arch Development Corporation Methods for improving the accuracy in differential diagnosis on radiologic examinations
US5999639A (en) * 1997-09-04 1999-12-07 Qualia Computing, Inc. Method and system for automated detection of clustered microcalcifications from digital mammograms
US6901156B2 (en) * 2000-02-04 2005-05-31 Arch Development Corporation Method, system and computer readable medium for an intelligent search workstation for computer assisted interpretation of medical images
US6574304B1 (en) * 2002-09-13 2003-06-03 Ge Medical Systems Global Technology Company, Llc Computer aided acquisition of medical images
EP1554682A1 (en) 2002-09-24 2005-07-20 Eastman Kodak Company Method and system for computer aided detection (cad) cued reading of medical images
US7418119B2 (en) 2002-10-31 2008-08-26 Siemens Computer Aided Diagnosis Ltd. Display for computer-aided evaluation of medical images and for establishing clinical recommendation therefrom
US7203350B2 (en) * 2002-10-31 2007-04-10 Siemens Computer Aided Diagnosis Ltd. Display for computer-aided diagnosis of mammograms
US7490085B2 (en) 2002-12-18 2009-02-10 Ge Medical Systems Global Technology Company, Llc Computer-assisted data processing system and method incorporating automated learning
US20040228509A1 (en) 2003-05-15 2004-11-18 Beth Israel Deaconess Medical Center, Inc. Automatic spacial identification of tissue implanted linear sources using medical imaging
US7640051B2 (en) * 2003-06-25 2009-12-29 Siemens Medical Solutions Usa, Inc. Systems and methods for automated diagnosis and decision support for breast imaging
US7529394B2 (en) * 2003-06-27 2009-05-05 Siemens Medical Solutions Usa, Inc. CAD (computer-aided decision) support for medical imaging using machine learning to adapt CAD process with knowledge collected during routine use of CAD system
US20050113651A1 (en) 2003-11-26 2005-05-26 Confirma, Inc. Apparatus and method for surgical planning and treatment monitoring
DE102004051401A1 (de) 2004-10-21 2006-05-24 Siemens Ag Verfahren zur Befundung in der dreidimensionalen Bildgebung, insbesondere in der Mammographie
US7646902B2 (en) 2005-02-08 2010-01-12 Regents Of The University Of Michigan Computerized detection of breast cancer on digital tomosynthesis mammograms
JP2006325638A (ja) * 2005-05-23 2006-12-07 Konica Minolta Medical & Graphic Inc 異常陰影候補の検出方法及び医用画像処理システム
KR20080021723A (ko) 2005-06-02 2008-03-07 더 메디패턴 코포레이션 컴퓨터­보조 검진을 위한 시스템 및 방법
US7809175B2 (en) 2005-07-01 2010-10-05 Hologic, Inc. Displaying and navigating computer-aided detection results on a review workstation
FR2897182A1 (fr) * 2006-02-09 2007-08-10 Gen Electric Procede de traitement d'images de projection en tomosynthese pour une detection de signes radiologiques
GB0602739D0 (en) * 2006-02-10 2006-03-22 Ccbr As Breast tissue density measure
ITRM20060213A1 (it) * 2006-04-13 2007-10-14 Univ Palermo Metodo di elaborazione di immagini biomediche
US8238637B2 (en) 2006-10-25 2012-08-07 Siemens Computer Aided Diagnosis Ltd. Computer-aided diagnosis of malignancies of suspect regions and false positives in images
US7903861B2 (en) 2006-12-28 2011-03-08 Carestream Health, Inc. Method for classifying breast tissue density using computed image features
US8203338B2 (en) 2007-08-06 2012-06-19 Carestream Health, Inc. Linear structure verification in medical applications
JP2009082182A (ja) * 2007-09-27 2009-04-23 Fujifilm Corp 検査作業支援装置及び方法、並びに検査作業支援システム
JP5264136B2 (ja) 2007-09-27 2013-08-14 キヤノン株式会社 医用診断支援装置及びその制御方法、ならびにコンピュータプログラム及び記憶媒体
JP5100285B2 (ja) 2007-09-28 2012-12-19 キヤノン株式会社 医用診断支援装置およびその制御方法、プログラム、記憶媒体
US7942829B2 (en) 2007-11-06 2011-05-17 Eigen, Inc. Biopsy planning and display apparatus
US20100135562A1 (en) 2008-11-28 2010-06-03 Siemens Computer Aided Diagnosis Ltd. Computer-aided detection with enhanced workflow
US20100158332A1 (en) * 2008-12-22 2010-06-24 Dan Rico Method and system of automated detection of lesions in medical images
US9183355B2 (en) * 2009-11-24 2015-11-10 Penrad Technologies, Inc. Mammography information system
US8064677B2 (en) 2009-11-25 2011-11-22 Fujifilm Corporation Systems and methods for measurement of objects of interest in medical images
US8582858B2 (en) 2009-12-17 2013-11-12 The Regents Of The University Of California Method and apparatus for quantitative analysis of breast density morphology based on MRI
US20120099771A1 (en) 2010-10-20 2012-04-26 Lao Zhiqiang Computer aided detection of architectural distortion in mammography
JP5875285B2 (ja) 2011-08-16 2016-03-02 キヤノン株式会社 医療診断支援装置、情報処理方法及びプログラム
EP2747640A4 (en) 2011-08-22 2015-04-29 Joel Ironstone METHOD AND SYSTEM FOR DISEASE RISK MANAGEMENT
JP5945803B2 (ja) 2012-03-07 2016-07-05 東芝メディカルシステムズ株式会社 医用画像読影システム
US8891841B2 (en) 2012-06-04 2014-11-18 Verizon Patent And Licensing Inc. Mobile dermatology collection and analysis system
TWI483711B (zh) 2012-07-10 2015-05-11 Univ Nat Taiwan Tumor detection system and method of breast ultrasound image
US9047664B2 (en) 2013-05-31 2015-06-02 Kathryn Pearson Peyton Apparatus and method for utilizing mammogram images for verification
US9741116B2 (en) 2013-08-29 2017-08-22 Mayo Foundation For Medical Education And Research System and method for boundary classification and automatic polyp detection
WO2015077076A1 (en) 2013-11-19 2015-05-28 VuComp, Inc Obtaining breast density measurements and classifications
DE102014208411A1 (de) * 2014-05-06 2015-11-12 Siemens Aktiengesellschaft Auswertung eines während einer Mammographie erzeugten Röntgenbildes einer Brust
WO2016057960A1 (en) 2014-10-10 2016-04-14 Radish Medical Solutions, Inc. Apparatus, system and method for cloud based diagnostics and image archiving and retrieval
US9550912B2 (en) 2014-12-19 2017-01-24 Hexion Inc Curing agent for epoxy coatings
US9519966B2 (en) * 2015-04-22 2016-12-13 King Fahd University Of Petroleum And Minerals Method, system and computer program product for breast density classification using parts-based local features
US9922433B2 (en) 2015-05-29 2018-03-20 Moira F. Schieke Method and system for identifying biomarkers using a probability map
US10269114B2 (en) 2015-06-12 2019-04-23 International Business Machines Corporation Methods and systems for automatically scoring diagnoses associated with clinical images
WO2017106645A1 (en) * 2015-12-18 2017-06-22 The Regents Of The University Of California Interpretation and quantification of emergency features on head computed tomography
US10339650B2 (en) 2016-01-07 2019-07-02 Koios Medical, Inc. Method and means of CAD system personalization to reduce intraoperator and interoperator variation
CN106096491B (zh) 2016-02-04 2022-04-12 上海市第一人民医院 一种眼底彩色照相图像中微动脉瘤自动化识别方法
CN105931226A (zh) 2016-04-14 2016-09-07 南京信息工程大学 基于深度学习的自适应椭圆拟合细胞自动检测分割方法
CN106204587B (zh) 2016-05-27 2019-01-08 浙江德尚韵兴图像科技有限公司 基于深度卷积神经网络和区域竞争模型的多器官分割方法
WO2017210690A1 (en) 2016-06-03 2017-12-07 Lu Le Spatial aggregation of holistically-nested convolutional neural networks for automated organ localization and segmentation in 3d medical scans
US9589374B1 (en) 2016-08-01 2017-03-07 12 Sigma Technologies Computer-aided diagnosis system for medical images using deep convolutional neural networks
JP7021215B2 (ja) * 2016-08-11 2022-02-16 コイオス メディカル,インコーポレイテッド Cadシステム推薦に関する確信レベル指標を提供するためのcadシステムパーソナライゼーションの方法及び手段
US10417788B2 (en) * 2016-09-21 2019-09-17 Realize, Inc. Anomaly detection in volumetric medical images using sequential convolutional and recurrent neural networks
JP2018061771A (ja) * 2016-10-14 2018-04-19 株式会社日立製作所 画像処理装置、及び画像処理方法
US20180129900A1 (en) 2016-11-04 2018-05-10 Siemens Healthcare Gmbh Anonymous and Secure Classification Using a Deep Learning Network
US11449985B2 (en) 2016-12-02 2022-09-20 Regents Of The University Of Minnesota Computer vision for cancerous tissue recognition
US10902598B2 (en) 2017-01-27 2021-01-26 Arterys Inc. Automated segmentation utilizing fully convolutional networks
GB201705876D0 (en) 2017-04-11 2017-05-24 Kheiron Medical Tech Ltd Recist
GB201705911D0 (en) 2017-04-12 2017-05-24 Kheiron Medical Tech Ltd Abstracts
US10223610B1 (en) 2017-10-15 2019-03-05 International Business Machines Corporation System and method for detection and classification of findings in images
US10916341B2 (en) * 2017-12-15 2021-02-09 International Business Machines Corporation Automated report generation based on cognitive classification of medical images
JP2021521982A (ja) 2018-04-27 2021-08-30 デルフィヌス メディカル テクノロジーズ, インコーポレイテッド 超音波断層撮影画像上の特徴抽出および分類のためのシステムおよび方法
US10706545B2 (en) * 2018-05-07 2020-07-07 Zebra Medical Vision Ltd. Systems and methods for analysis of anatomical images
EP3791310A4 (en) * 2018-05-07 2022-03-30 Zebra Medical Vision Ltd. SYSTEMS AND METHODS FOR PREPROCESSING ANATOMIC IMAGES FOR INTRODUCTION TO A CLASSIFICATION NEURAL NETWORK
DK3806744T3 (da) 2018-06-14 2022-05-23 Kheiron Medical Tech Ltd Øjeblikkelig undersøgelse
GB2579244A (en) 2018-11-27 2020-06-17 Kheiron Medical Tech Ltd Second reader

Also Published As

Publication number Publication date
EP3806746B1 (en) 2022-03-02
ES2914873T3 (es) 2022-06-17
SI3806744T1 (sl) 2022-07-29
JP2021527478A (ja) 2021-10-14
JP2021527472A (ja) 2021-10-14
CA3102174A1 (en) 2019-12-19
DK3806745T3 (da) 2022-05-23
EP3806745A1 (en) 2021-04-21
DK3806744T3 (da) 2022-05-23
SI3806746T1 (sl) 2022-07-29
HUE058907T2 (hu) 2022-09-28
AU2019285394A1 (en) 2021-01-07
US11455723B2 (en) 2022-09-27
CA3102174C (en) 2022-07-19
JP2021527473A (ja) 2021-10-14
CA3102173A1 (en) 2019-12-19
AU2019285392A1 (en) 2021-01-07
US11410307B2 (en) 2022-08-09
CA3102170A1 (en) 2019-12-19
DK3806746T3 (da) 2022-05-23
AU2019285393B2 (en) 2022-12-08
EP3806745B1 (en) 2022-02-16
AU2019285393A1 (en) 2021-01-07
SI3806745T1 (sl) 2022-07-29
EP3806744A1 (en) 2021-04-21
EP3806744B1 (en) 2022-02-16
WO2019239155A1 (en) 2019-12-19
EP3806746A1 (en) 2021-04-21
US20210248744A1 (en) 2021-08-12
WO2019239153A1 (en) 2019-12-19
HUE058687T2 (hu) 2022-09-28
US20210313043A1 (en) 2021-10-07
ES2914387T3 (es) 2022-06-10
AU2019285393A9 (en) 2023-02-02
WO2019239154A1 (en) 2019-12-19
US20210312618A1 (en) 2021-10-07
US11488306B2 (en) 2022-11-01

Similar Documents

Publication Publication Date Title
ES2914415T3 (es) Segundo lector
US11715207B2 (en) Learning-based spine vertebra localization and segmentation in 3D CT
EP2901419B1 (en) Multi-bone segmentation for 3d computed tomography
Oktay et al. Simultaneous localization of lumbar vertebrae and intervertebral discs with SVM-based MRF
Zhou Medical image recognition, segmentation and parsing: machine learning and multiple object approaches
JP7350582B2 (ja) モデル学習用のシステム、装置、及び学習方法
Li et al. Learning image context for segmentation of the prostate in CT-guided radiotherapy
Navarrete-Welton et al. Current applications of artificial intelligence for intraoperative decision support in surgery
US11701066B2 (en) Device and method for detecting clinically important objects in medical images with distance-based decision stratification
Alam et al. Exploring LRP and Grad-CAM visualization to interpret multi-label-multi-class pathology prediction using chest radiography
Lin et al. High-throughput 3dra segmentation of brain vasculature and aneurysms using deep learning
Tam et al. Holistic multitask regression network for multiapplication shape regression segmentation
GB2579244A (en) Second reader
Iqbal et al. Hybrid Parallel Fuzzy CNN Paradigm: Unmasking Intricacies for Accurate Brain MRI Insights
CN112862786B (zh) Cta影像数据处理方法、装置及存储介质
Zhou et al. Deep neural networks with prior evidence for bladder cancer staging
CN112862785A (zh) Cta影像数据识别方法、装置及存储介质
Chang et al. Multi-task Contexture Learning Network for automated vertebrae segmentation and tumor diagnosis from MRI
Bayazitov et al. The effectiveness of automatic laparoscopic diagnostics of liver pathology using different methods of digital images classification
Mudduluru Developing and Applying Hybrid Deep Learning Models for Computer-Aided Diagnosis of Medical Image Data
Akram et al. A Double-Branch Xception Architecture for Acute Hemorrhage Detection and Subtype Classification.
Hernandez et al. Geodesic active regions using non-parametric statistical regional description and their application to aneurysm segmentation from CTA
Gleed Medical image analysis for simplified ultrasound protocols
Ippoliti Use of apriori information for anatomical segmentation of medical images
Patil et al. Texture Based Feature Extraction on Brain Tumor Classification using Machine Learning