ES2938515T3 - Sistema y método para orientar la captura de imágenes de ultrasonidos - Google Patents

Sistema y método para orientar la captura de imágenes de ultrasonidos Download PDF

Info

Publication number
ES2938515T3
ES2938515T3 ES19803070T ES19803070T ES2938515T3 ES 2938515 T3 ES2938515 T3 ES 2938515T3 ES 19803070 T ES19803070 T ES 19803070T ES 19803070 T ES19803070 T ES 19803070T ES 2938515 T3 ES2938515 T3 ES 2938515T3
Authority
ES
Spain
Prior art keywords
canonical
image
images
neural network
probe
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES19803070T
Other languages
English (en)
Inventor
Itay Kezurer
Yoram Eshel
Achiau Ludomirsky
Yaron Lipman
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yeda Research and Development Co Ltd
New York University NYU
Original Assignee
Yeda Research and Development Co Ltd
New York University NYU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=68533844&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2938515(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Yeda Research and Development Co Ltd, New York University NYU filed Critical Yeda Research and Development Co Ltd
Application granted granted Critical
Publication of ES2938515T3 publication Critical patent/ES2938515T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0883Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4254Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4427Device being portable or laptop-like
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/54Control of the diagnostic device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/58Testing, adjusting or calibrating the diagnostic device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/58Testing, adjusting or calibrating the diagnostic device
    • A61B8/585Automatic set-up of the device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/20Linear translation of whole images or parts thereof, e.g. panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • G09B23/286Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine for scanning or photography techniques, e.g. X-rays, ultrasonics
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Business, Economics & Management (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Computational Mathematics (AREA)
  • Software Systems (AREA)
  • Mathematical Analysis (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Medicinal Chemistry (AREA)
  • Algebra (AREA)

Abstract

Un navegador descargable para una unidad de ultrasonido móvil que tiene una sonda de ultrasonido, implementado en un dispositivo informático portátil. El navegador incluye una red neuronal de orientación entrenada para recibir una imagen no canónica de una parte del cuerpo desde la unidad de ultrasonido móvil y generar una transformación asociada con la imagen no canónica, transformándose la transformación desde una posición y rotación asociada con una imagen canónica. a una posición y rotación asociada con la imagen no canónica; y un convertidor de resultados para convertir la transformación en instrucciones de orientación para un usuario de la sonda y para proporcionar y mostrar las instrucciones de orientación al usuario para cambiar la posición y rotación de la sonda. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Sistema y método para orientar la captura de imágenes de ultrasonidos
CAMPO DE LA INVENCIÓN
La presente invención se refiere a máquinas de ultrasonido portátiles móviles en general y a la orientación para uso correcto en particular.
ANTECEDENTES DE LA INVENCIÓN
Un ultrasonido médico (también conocido como sonografía de diagnóstico o ultrasonografía) es una técnica de formación de imágenes de diagnóstico basada en la aplicación de un ultrasonido. Se utiliza para crear una imagen de las estructuras del cuerpo internas, tales como tendones, músculos, articulaciones, vasos sanguíneos y órganos internos.
La adquisición de imágenes precisas para realizar un examen y diagnóstico eficaz requiere colocar el transductor de ultrasonido en una posición angular en el espacio con el órgano o parte del cuerpo pertinente, como se ilustra en la Fig. 1 a la que ahora se hace referencia. La Fig. 1 muestra una imagen de ultrasonido de un órgano de interés 12 tomada con un transductor 14. Se apreciará que la técnica del transductor 14 de navegación a la posición angular exacta requerida para lograr la imagen óptima o “canónica” del órgano 12 es crucial para el éxito del examen de ultrasonido. El proceso normalmente requiere un sonografista entrenado y capacitado.
Por ejemplo, para realizar un ecocardiograma, el sonografista tiene que tomar imágenes del corazón desde varias direcciones canónicas, tales como vistas de cuatro cámaras y de dos cámaras. El posicionamiento correcto del transductor es crucial para recibir la vista óptima del ventrículo izquierdo y, en consecuencia, para extraer la información funcional del corazón.
Las máquinas o dispositivos de ultrasonido móviles son conocidos en la técnica, tales como el Lumify comercialmente disponible de Philips. Estas máquinas de ultrasonido móviles están disponibles en forma de transductor que se comunica con un programa descargable a cualquier dispositivo de mano portátil, tal como un teléfono inteligente o un ordenador tipo tableta.
La disponibilidad de dichos dispositivos significa que los ultrasonidos se pueden realizar fuera del sitio (lejos de hospitales, etc.), por ejemplo, como una herramienta de clasificación para ambulancias o incluso en el campo de batalla, en centros de atención de urgencias, hogares de ancianos, etc. sin requerir equipos costosos y voluminosos.
El documento US2015310581 A1 se puede considerar para divulgar un navegador descargable para una unidad de ultrasonido móvil que tiene una sonda de ultrasonido, implementada sobre un dispositivo informático portátil, el navegador comprende: medios para recibir una imagen no canónica de una parte del cuerpo desde dicha unidad de ultrasonido móvil y para generar una transformación, dicha transformación se transforma desde una posición y rotación asociada con una imagen canónica hasta una posición y rotación asociada con dicha imagen no canónica; y un convertidor de resultados para convertir dicha transformación en instrucciones de orientación para un usuario de dicha sonda y para proporcionar y mostrar dichas instrucciones de orientación a dicho usuario para cambiar la posición y rotación de dicha sonda.
RESUMEN DE LA PRESENTE INVENCIÓN
Se proporciona, de acuerdo con una realización preferida de la presente invención, un navegador descargable para una unidad de ultrasonido móvil que tiene una sonda de ultrasonido, implementada sobre un dispositivo informático portátil. El navegador incluye una red neuronal de orientación entrenada para recibir una imagen no canónica de una parte del cuerpo de la unidad de ultrasonido móvil y para generar una transformación asociada con la imagen no canónica, la transformación se transforma desde una posición y rotación asociada con una imagen canónica hasta una posición y rotación asociada con la imagen no canónica; y un convertidor de resultados para convertir la transformación en instrucciones de orientación para un usuario de la sonda y para proporcionar y mostrar las instrucciones de orientación al usuario para cambiar la posición y rotación de la sonda.
Más aún, de acuerdo con una realización preferida de la presente invención, el navegador también incluye un entrenador para entrenar la red neuronal de orientación que utiliza la imagen canónica junto con las imágenes no canónicas tomadas alrededor de la imagen canónica y las transformaciones a posiciones y rotaciones en el espacio asociado con las imágenes no canónicas desde la imagen canónica.
Además, de acuerdo con una realización preferida de la presente invención, el entrenador incluye un convertidor de entrenamiento para recibir datos de la IMU (unidad de medición de inercia) durante las sesiones de entrenamiento desde una IMU montada sobre una sonda de entrenamiento, los datos de la IMU proporcionan las posiciones y rotaciones asociadas con las imágenes no canónicas y la imagen canónica, y para convertir las posiciones y rotaciones a las transformaciones desde la posición y rotación asociada con la imagen canónica hasta la posición y rotación asociada con las imágenes no canónicas.
Aún además, de acuerdo con una realización preferida de la presente invención, el entrenador incluye una red neuronal de orientación no entrenada y una función de pérdida para entrenar la red neuronal de orientación no entrenada, la función de pérdida para reducir una distancia entre una transformación calculada producida por la red neuronal de orientación no entrenada y una transformación de verdad fundamental para cada imagen no canónica.
Adicionalmente, de acuerdo con una realización preferida de la presente invención, la función de pérdida incluye adicionalmente una probabilidad para restringir la transformación calculada a una de una pluralidad de diferentes orientaciones canónicas.
Más aún, de acuerdo con una realización preferida de la presente invención, la imagen canónica es una de una pluralidad de imágenes canónicas.
Además, de acuerdo con una realización preferida de la presente invención, el navegador incluye un diagnosticador para realizar un diagnóstico desde una imagen final generada por la sonda al ver la imagen canónica.
Aún además, de acuerdo con una realización preferida de la presente invención, el dispositivo informático portátil es uno de: un teléfono inteligente, un ordenador tipo tableta, un ordenador portátil, un ordenador personal, y un artefacto inteligente.
Adicionalmente, de acuerdo con una realización preferida de la presente invención, el navegador incluye un creador de conjuntos para recibir una multiplicidad de transformaciones desde la red neuronal de orientación entrenada en respuesta a las imágenes desde la sonda y para generar conjuntos de imágenes y sus transformaciones asociadas; un verificador de suficiencia para determinar cuándo se han creado suficientes conjuntos; y una red neuronal de vista canónica cíclica entrenada para generar un conjunto de imágenes canónicas cíclicas de resumen que muestran cambios en la parte del cuerpo durante un ciclo de parte del cuerpo.
Más aún, de acuerdo con una realización preferida de la presente invención, el navegador incluye un entrenador de vista canónica cíclica para entrenar una red neuronal de vista canónica cíclica no entrenada con los conjuntos de imágenes, sus transformaciones asociadas, y sus imágenes canónicas cíclicas de resumen asociadas en cada punto en el ciclo del cuerpo.
Además, de acuerdo con una realización preferida de la presente invención, el ciclo de parte del cuerpo es un ciclo cardíaco.
Aún además, de acuerdo con una realización preferida de la presente invención, cada conjunto tiene un solo elemento en el mismo.
Se proporciona, de acuerdo con una realización preferida de la presente invención, un navegador para una unidad de ultrasonido móvil implementada sobre un dispositivo informático portátil que tiene una sonda de ultrasonido. El navegador incluye una red neuronal de orientación entrenada para proporcionar información de orientación para una multiplicidad de imágenes de ultrasonido capturadas alrededor de una parte del cuerpo, la información de orientación para orientar la imagen con respecto a una vista canónica de la parte del cuerpo; y un reconstructor de volumen para orientar las imágenes de acuerdo con la información de orientación, para generar una representación de volumen de la parte del cuerpo desde las imágenes orientadas utilizando reconstrucción tomográfica y para generar una imagen canónica de la vista canónica desde la representación de volumen.
Más aún, de acuerdo con una realización preferida de la presente invención, el navegador incluye un verificador de suficiencia para recibir orientaciones desde la red neuronal de orientación entrenada en respuesta a las imágenes desde la sonda y para determinar cuándo se han recibido suficientes imágenes; y un convertidor de resultados para solicitar imágenes adicionales para la red neuronal de orientación entrenada en respuesta al verificador de suficiencia.
Además, de acuerdo con una realización preferida de la presente invención, el navegador incluye un diagnosticador para realizar un diagnóstico desde la representación de volumen de la parte del cuerpo.
Se proporciona, de acuerdo con una realización preferida de la presente invención, un navegador para una unidad de ultrasonido móvil que tiene una sonda de ultrasonido, implementada sobre un dispositivo móvil. El navegador incluye una red neuronal de mapeo entrenada para recibir una imagen no canónica de una parte del cuerpo de la sonda, para mapear la imagen no canónica a un punto del mapa no canónico sobre un mapa visualizable y para mapear una multiplicidad de imágenes canónicas asociada con la imagen no canónica a puntos de mapa canónico sobre el mapa visualizable; y un convertidor de resultados para mostrar el mapa marcado con puntos de mapa canónicos y no canónicos.
Más aún, de acuerdo con una realización preferida de la presente invención, la red neuronal de mapeo entrenada incluye una función de pérdida para asegurar que los cambios en el movimiento de la sonda genera pequeños movimientos sobre el mapa visualizable, que las distancias entre imágenes sean similares a la distancia entre las ubicaciones de mapa y que las rutas óptimas entre una imagen canónica y otra sean trayectorias rectas y de velocidad constante.
Además, de acuerdo con una realización preferida de la presente invención, el navegador también incluye un diagnosticador para realizar un diagnóstico desde una imagen final generada por la sonda cuando un usuario mueve la sonda a uno de los puntos del mapa canónicos.
Se proporciona, de acuerdo con una realización preferida de la presente invención, un navegador descargable para una unidad de ultrasonido móvil que tiene una sonda de ultrasonido, implementada sobre un dispositivo móvil. El navegador incluye un creador de conjuntos para recibir imágenes desde la sonda a lo largo del tiempo y para generar conjuntos de imágenes; un verificador de suficiencia para determinar cuándo se han generado suficientes conjuntos; y una red neuronal de vista canónica cíclica para generar un conjunto de imágenes canónicas cíclicas de resumen que muestran cambios en la parte del cuerpo durante un ciclo de parte del cuerpo.
Más aún, de acuerdo con una realización preferida de la presente invención, el navegador también incluye un diagnosticador para realizar un diagnóstico desde una imagen final generada por la red neuronal de vista canónica cíclica.
Se proporciona, de acuerdo con una realización preferida de la presente invención, un método para una unidad de ultrasonido móvil que tiene una sonda de ultrasonido, implementada sobre un dispositivo informático portátil, el método incluye recibir, utilizando una red neuronal de orientación entrenada, una imagen no canónica de una parte del cuerpo de la unidad de ultrasonido móvil y generar una transformación asociada con la imagen no canónica, la transformación se transforma desde una posición y rotación asociada con una imagen canónica hasta una posición y rotación asociada con la imagen no canónica; y convertir la transformación en instrucciones de orientación para un usuario de la sonda y proporcionar y mostrar las instrucciones de orientación al usuario para cambiar la posición y rotación de la sonda.
Más aún, de acuerdo con una realización preferida de la presente invención, el método incluye entrenar la red neuronal de orientación que utiliza la imagen canónica junto con las imágenes no canónicas tomadas alrededor de la imagen canónica y las transformaciones a posiciones y rotaciones en el espacio asociado con las imágenes no canónicas desde la imagen canónica.
Además, de acuerdo con una realización preferida de la presente invención, el entrenamiento incluye recibir datos de la IMU (unidad de medición de inercia) durante las sesiones de entrenamiento desde una IMU montada sobre una sonda de entrenamiento, los datos de la IMU proporcionan las posiciones y rotaciones asociadas con las imágenes no canónicas y la imagen canónica, y convertir las posiciones y rotaciones a las transformaciones desde la posición y rotación asociada con la imagen canónica hasta la posición y rotación asociada con las imágenes no canónicas.
Aún además, de acuerdo con una realización preferida de la presente invención, la red neuronal de mapeo entrenada incluye una función de pérdida para asegurar que los cambios en el movimiento de la sonda genera pequeños movimientos sobre el mapa visualizable, que las distancias entre imágenes sean similares a la distancia entre las ubicaciones de mapa y que las rutas óptimas entre una imagen canónica y otra sean trayectorias rectas y de velocidad constante.
Adicionalmente, de acuerdo con una realización preferida de la presente invención, la función de pérdida incluye adicionalmente una probabilidad para restringir la transformación calculada a una de una pluralidad de diferentes orientaciones canónicas.
Más aún, de acuerdo con una realización preferida de la presente invención, la imagen canónica es una de una pluralidad de imágenes canónicas.
Además, de acuerdo con una realización preferida de la presente invención, el método incluye realizar un diagnóstico desde una imagen final generada por la sonda al ver la imagen canónica.
Aún además, de acuerdo con una realización preferida de la presente invención, el dispositivo informático portátil es uno de: un teléfono inteligente, un ordenador tipo tableta, un ordenador portátil, un ordenador personal, y un artefacto inteligente.
Adicionalmente, de acuerdo con una realización preferida de la presente invención, el método también incluye recibir una multiplicidad de transformaciones desde la red neuronal de orientación entrenada en respuesta a las imágenes desde la sonda y generar conjuntos de imágenes y sus transformaciones asociadas; determinar cuándo se han creado suficientes conjuntos; y generar, utilizando una red neuronal de vista canónica cíclica entrenada, un conjunto de imágenes canónicas cíclicas de resumen que muestran cambios en la parte del cuerpo durante un ciclo de parte del cuerpo.
Más aún, de acuerdo con una realización preferida de la presente invención, el método también incluye entrenar una red neuronal de vista canónica cíclica no entrenada con los conjuntos de imágenes, sus transformaciones asociadas, y sus imágenes canónicas cíclicas de resumen asociadas en cada punto en el ciclo del cuerpo.
Además, de acuerdo con una realización preferida de la presente invención, el ciclo de parte del cuerpo es un ciclo cardíaco.
Aún además, de acuerdo con una realización preferida de la presente invención, cada conjunto tiene un solo elemento en el mismo.
Se proporciona, de acuerdo con una realización preferida de la presente invención, un método para una unidad de ultrasonido móvil implementada sobre un dispositivo informático portátil que tiene una sonda de ultrasonido, el método incluye proporcionar, utilizando una red neuronal de orientación entrenada, información de orientación para una multiplicidad de imágenes de ultrasonido capturadas alrededor de una parte del cuerpo, la información de orientación para orientar la imagen con respecto a una vista canónica de la parte del cuerpo; y las imágenes de acuerdo con la información de orientación, generar una representación de volumen de la parte del cuerpo desde las imágenes orientadas utilizando reconstrucción tomográfica y generar una imagen canónica de la vista canónica desde la representación de volumen.
Más aún, de acuerdo con una realización preferida de la presente invención, el método incluye recibir orientaciones desde la red neuronal de orientación entrenada en respuesta a las imágenes desde la sonda y determinar cuándo se han recibido suficientes imágenes; y solicitar imágenes adicionales para la red neuronal de orientación entrenada en respuesta a las orientaciones de recepción.
Además, de acuerdo con una realización preferida de la presente invención, el método también incluye realizar un diagnóstico desde la representación de volumen de la parte del cuerpo.
Se proporciona, de acuerdo con una realización preferida de la presente invención, un método para una unidad de ultrasonido móvil que tiene una sonda de ultrasonido, implementada sobre un dispositivo móvil. El método incluye recibir utilizando una red neuronal de mapeo entrenada, una imagen no canónica de una parte del cuerpo de la sonda, mapear la imagen no canónica a un punto del mapa no canónico sobre un mapa visualizable y mapear una multiplicidad de imágenes canónicas asociada con la imagen no canónica a puntos de mapa canónico sobre el mapa visualizable; y mostrar el mapa marcado con puntos de mapa canónicos y no canónicos.
Más aún, de acuerdo con una realización preferida de la presente invención, la red neuronal de mapeo entrenada incluye una función de pérdida para asegurar que los cambios en el movimiento de la sonda generen pequeños movimientos sobre el mapa visualizable, que las distancias entre las imágenes sean similares a las trayectorias rectas de velocidad constante.
Además, de acuerdo con una realización preferida de la presente invención, el método también incluye realizar un diagnóstico desde una imagen final generada por la sonda cuando un usuario mueve la sonda a uno de los puntos del mapa canónicos.
Se proporciona, de acuerdo con una realización preferida de la presente invención, un método para una unidad de ultrasonido móvil que tiene una sonda de ultrasonido, implementada sobre un dispositivo móvil. El método incluye recibir imágenes desde la sonda a lo largo del tiempo y generar conjuntos de imágenes; determinar cuándo se han generado suficientes conjuntos; y generar a través de una red neuronal de vista canónica cíclica, un conjunto de imágenes canónicas cíclicas de resumen que muestran cambios en la parte del cuerpo durante un ciclo de parte del cuerpo.
Más aún, de acuerdo con una realización preferida de la presente invención, el método incluye realizar un diagnóstico desde una imagen final generada por la red neuronal de vista canónica cíclica.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
La materia objeto considerada como la invención se señala particularmente y se reivindica claramente en la porción final de especificación. Sin embargo, la invención, tanto en cuanto a la organización como al método de operación, junto con los objetos, imágenes y ventajas de la misma, se puede entender mejor con referencia a la siguiente descripción detallada cuando se lee con los dibujos adjuntos en los que:
La Fig. 1 es una ilustración esquemática de cómo se coloca un transductor de ultrasonido para capturar una imagen de una parte del cuerpo;
La Fig. 2 es una ilustración esquemática de un navegador de ultrasonido; construido y operativo de acuerdo con la presente invención;
Las Fig. 3A y 3B son ilustraciones esquemáticas de cómo el navegador de la Fig. 2 puede ayudar a un no sonografista a orientar la sonda de un transductor para capturar una imagen adecuada de una parte del cuerpo, construida y operativa de acuerdo con la presente invención;
La Fig. 4 es una ilustración esquemática de la transformación entre la orientación de una sonda de entrenamiento para una imagen no canónica de un órgano y su imagen canónica asociada, construida y operativa de acuerdo con la presente invención;
La Fig. 5 es una ilustración esquemática del proceso de entrenamiento para una red neuronal de orientación, construida y operativa de acuerdo con la presente invención;
La Fig. 6 es una ilustración esquemática de los elementos del navegador de la Fig. 2, construido y operativo de acuerdo con la presente invención;
La Fig. 7 es una ilustración esquemática de los elementos de una realización alternativa al navegador de la Fig. 2, construido y operativo de acuerdo con la presente invención;
Las Fig. 8A, 8B y 8C son ilustraciones esquemáticas de los elementos y la función de una realización alternativa al navegador de la Fig. 2, construido y operativo de acuerdo con la presente invención;
Las Fig. 9A y 9B son ilustraciones esquemáticas de los elementos de una realización alternativa al navegador de la Fig. 2 en entrenamiento y en operación, construido y operativo de acuerdo con la presente invención; y
Las Fig. 10A y 10B son ilustraciones esquemáticas de los elementos de una realización alternativa al navegador de las Fig. 9A y 9b en entrenamiento y en operación, construido y operativo de acuerdo con la presente invención.
Se apreciará que por simplicidad y claridad de la ilustración, los elementos que se muestran en las figuras no se han dibujado necesariamente a escala. Por ejemplo, las dimensiones de algunos de los elementos se pueden exagerar en relación con otros elementos para mayor claridad. Además, cuando se considere apropiado, los números de referencia pueden repetirse entre las figuras para indicar elementos correspondientes o análogos.
DESCRIPCIÓN DETALLADA DE LA PRESENTE INVENCIÓN
En la siguiente descripción detallada, se exponen numerosos detalles específicos para proporcionar una comprensión completa de la invención. Sin embargo, los expertos en la técnica entenderán que la presente invención se puede practicar sin estos detalles específicos. En otros casos, los métodos, procedimientos y componentes bien conocidos no se han descrito en detalle para no oscurecer la presente invención.
Los solicitantes se han dado cuenta de que la capacidad de utilizar máquinas de ultrasonido móviles lejos de lugares convencionales tales como hospitales, significa que los sonografistas no capacitados o los no sonografistas podrían utilizar estas máquinas. Sin embargo, los médicos no capacitados, los proveedores de primeros auxilios o incluso los propios pacientes no tienen el entrenamiento o el conocimiento para administrar estos ultrasonidos correctamente. Se apreciará que se requiere un entrenamiento diferente para diferentes órganos y partes del cuerpo.
Los sistemas de la técnica anterior tales como el descrito en la Publicación de Patente de Estados Unidos No. US2018/0153505 titulada “Navegación guiada de una sonda de ultrasonido”, publicada el 7 de junio de 2018, y la Publicación de Patente de Estados Unidos No. US2016/0143627 titulada “Guía de retroalimentación de adquisición de ultrasonido para una vista diana”, publicada el 26 de mayo de 2016, enseña metodologías para determinar las desviaciones entre una imagen suministrada y una imagen canónica preferida de una parte del cuerpo particular para ayudar al no sonografista a guiar su transductor a la orientación óptima para capturar una imagen de mejor ajuste.
Los solicitantes se han dado cuenta de que estos sistemas de la técnica anterior no proporcionan una solución completa frente a los cálculos de rotación. Los solicitantes también se han dado cuenta de que estos sistemas de la técnica anterior no son particularmente útiles, ya que requieren hardware adicional (tal como unidades de medición de inercia, tales como magnetómetros, giroscopios, acelerómetros, etc.) para ayudar a determinar la ubicación de la sonda del no sonografista. Los solicitantes se han dado cuenta de que un sistema que no requiere hardware adicional y al que se puede acceder fácilmente, tal como a través de una descarga para integrarlo o utilizarlo como una superposición con el software de procesamiento de la máquina de ultrasonido móvil pertinente, es mucho más utilizable. Como resultado, la presente invención solo opera con las imágenes digitales generadas por la unidad de ultrasonidos.
Ahora se hace referencia a la Fig. 2 que ilustra un navegador 100 de ultrasonido, de acuerdo con una primera realización de la presente invención, que se puede descargar desde una tienda 10 de aplicaciones móviles, tal como Appstore de Apple o Google Play de Google, en cualquier dispositivo informático portátil, tal como un teléfono inteligente, un ordenado tipo tableta, un ordenador portátil, un ordenador personal, un artefacto inteligente, etc.
Se apreciará que el navegador 100 puede comprender (como parte de la descarga) una red 15 neuronal de orientación entrenada. La red 15 neuronal de orientación se describe en el presente documento con más detalle a continuación. Como se discutió anteriormente, el navegador 100 se puede integrar o utilizar como una superposición con el software de procesamiento de la máquina de ultrasonido móvil pertinente.
Por lo tanto, un usuario 5 puede utilizar un transductor o sonda 7 (asociado con la unidad 8 de ultrasonido móvil) en el paciente 9 para suministrar imágenes de una parte del cuerpo pertinente al navegador 100 y el navegador 100 puede suministrar instrucciones de orientación de acuerdo con lo anterior sobre cómo orientar la sonda 7. Se apreciará que el proceso puede ser iterativo, con un no sonografista o usuario 5 haciendo más de un intento de orientar correctamente la sonda 7 para recibir una imagen adecuada. De acuerdo con una realización preferida de la presente invención, las instrucciones de “orientación” pueden comprender tanto información de posición (ubicación en un espacio bidimensional o tridimensional) como de rotación (rotación en el espacio 3D), incluso aunque el navegador 100 solo recibe imágenes.
Ahora se hace referencia a las Fig. 3A y 3B que ilustran cómo el navegador 100 puede ayudar al no sonografista 5 a orientar la sonda 7 para capturar una buena imagen de una parte del cuerpo particular. La Fig. 3A muestra la sonda 7, marcada como 7A, en la posición incorrecta, es decir, la imagen resultante, marcada como 20A, es no canónica. La Fig. 3A incluye adicionalmente un conjunto de flechas 21 que instruyen al usuario 5 para cambiar la rotación de la sonda 7A. Las flechas 21A indican un tipo de rotación de “cabeceo hacia arriba”. La Fig. 3B muestra la sonda 7B en la orientación US recién cabeceada y la imagen 20B resultante, que es mejor, aunque todavía no proporciona una imagen canónica. Las flechas 21B indican que puede ser útil una nueva rotación de “guiñada”.
Como se discutió en el presente documento anteriormente, el navegador 100 recibe la red 15 neuronal de orientación que se puede entrenar con datos expertos tomados por un sonografista experto para una parte del cuerpo u órgano particular de interés. Los datos de entrenamiento recibidos pueden incluir la imagen canónica de una parte del cuerpo particular, así como imágenes no canónicas asociadas y, para cada una, la orientación (es decir, posición y rotación) de la sonda del sonografista en el espacio. Se apreciará que esta información se puede generar utilizando una sonda a la que se asocia una IMU (una unidad de medición de inercia que puede incluir un magnetómetro, un giroscopio, un acelerómetro, etc.). La IMU puede determinar la orientación de la sonda cuando se captura una imagen.
Ahora se hace referencia a la Fig. 4 que ilustra la transformación entre la orientación de una sonda 4c de entrenamiento utilizada por un sonografista entrenado para capturar la imagen canónica en relación con su orientación al capturar una imagen no canónica para un órgano. La orientación de la sonda 4i de entrenamiento al ver la i-ésima imagen no canónica se puede definir como un “marco de referencia” Fi en el espacio donde el marco de referencia Fi puede tener los seis grados de libertad (6DoF), que corresponden a un sistema de tres ejes (Q) que tiene tres rotaciones alrededor de los ejes y tres traslaciones a lo largo de los ejes, que una IMU puede medir.
Los marcos de referencia Fi se pueden referir al marco de referencia en un origen O, donde, para la presente invención, el origen puede estar en el órgano y su marco de referencia en el espacio se puede definir como Fo . Para cada marco de referencia Fi, puede haber una transformación Ri desde el origen O, donde la transformación Rc puede ser una transformación a la orientación deseada, marcada Fc , para ver la imagen canónica, de la siguiente manera:
Rt = Fe F„'
R, = F¡ Fo*' (1)
donde Fo-1 es la transformada inversa de Fo . Por lo tanto, una transformación T i desde la pose canónica hasta la iésima pose no canónica puede ser RiRc-1:
Ti = R.Rc1 = Fi F#’1(FoFc'l) = FiFc-’1 (2)
Ahora se hace referencia a la Fig. 5 que ilustra el proceso de entrenamiento para la orientación de la red 15 neuronal utilizando un entrenador 30. Un sonografista 2 experto que utiliza la sonda 4 de entrenamiento en un paciente 3 puede proporcionar imágenes tanto canónicas como no canónicas asociadas para una parte del cuerpo particular. Se apreciará que la sonda 4 de entrenamiento se puede asociar con una IMU 6 (una unidad de medición de inercia que puede incluir un magnetómetro, un giroscopio, un acelerómetro, etc.) que puede determinar la orientación Fi de la sonda cuando se captura una imagen.
El convertidor 22 de entrenamiento puede recibir los datos de orientación Fi para cada imagen y puede determinar la transformación T i = RiRc-1 desde la posición canónica asociada, como se discutió en el presente documento anteriormente con respecto a la Fig. 4. Específicamente, el convertidor 22 de entrenamiento puede tomar imágenes X desde la sonda 4 de entrenamiento y puede procesarlas según sea necesario. La base 20 de datos puede almacenar imágenes no canónicas X i junto con sus datos de orientación Fi y sus datos de transformación T i. La base 20 de datos también puede almacenar imágenes canónicas X c y sus datos de orientación asociados Fc . Se apreciará que puede haber múltiples imágenes canónicas para una parte del cuerpo. Por ejemplo, el corazón tiene una imagen canónica de cuatro cámaras, una imagen canónica de dos cámaras, etc., y por lo tanto, el convertidor 22 de entrenamiento puede generar la transformación T i para cada imagen canónica relevante. Se apreciará que la imagen canónica relevante se puede proporcionar manualmente o determinar automáticamente mediante cualquier algoritmo adecuado.
Se apreciará que los datos de entrenamiento entrantes para el entrenador 30 pueden ser una combinación de la imagen X i y su transformación de verdad fundamental asociada T i. Para cada imagen no canónica, el entrenador 30 puede aprender la transformación de posicionamiento para que la sonda 4 se transforme desde ver cada imagen canónica hasta ver cada imagen no canónica. Se apreciará que los datos entrantes pueden comprender datos de muchos pacientes 3 diferentes para que el entrenador 30 pueda aprender los cambios en las imágenes X i, posiblemente debido al sexo, edad, peso, etc., del paciente 3 y cualquier otro factor que pueda influir en la información de transformación entre las imágenes no canónicas y la imagen canónica.
Se apreciará además que el entrenador 30 puede ser cualquier entrenador de red neuronal adecuado, tal como un entrenador de red neuronal convolucional, que puede entrenar la red al actualizar la red para minimizar una “pérdida” de energía según lo determinado por una función de pérdida tal como una distancia entre una transformación calculada S(Xi) producida por la red 15 neuronal de orientación y la transformación de verdad fundamental T i para la imagen X i desde su imagen canónica asociada. Se apreciará que la transformación S(X i) comienza como una red neuronal no entrenada y termina como una red neuronal entrenada.
La función de distancia puede ser cualquier función de distancia adecuada. Si hay más de una imagen canónica asociada, la red 15 neuronal de orientación se puede entrenar con la transformación de verdad fundamental Ti para cada imagen no canónica. Una función de pérdida “Pérdida” se puede calcular como:
Pérdida= pérdida (S(X¡), Ti) (3)
Una vez que se entrena la red 15 neuronal de orientación, puede generar una transformación T para la sonda 7 de usuario en respuesta a cada imagen entrante X i. Esta transformación entonces se puede invertir o convertir para guiar al usuario 5 desde la orientación de la imagen no canónica hasta la orientación de la imagen canónica, como se describe con más detalle a continuación en el presente documento.
Ahora se hace referencia a la Fig. 6 que ilustra los componentes del navegador 100. El navegador 100 puede comprender una red 15 neuronal de orientación entrenada, un convertidor 40 de resultados y un diagnosticador 50.
Como se discutió en el presente documento anteriormente, el usuario 5 puede colocar aleatoriamente la sonda 7 de usuario en relación con la parte del cuerpo deseada. La red 15 neuronal de orientación entrenada puede proporcionar la transformación T de la imagen canónica asociada a la imagen no canónica actual de una parte del cuerpo particular. El convertidor 40 de resultados puede invertir la transformación generada para proporcionar instrucciones de orientación para la sonda 7 desde la posición actual y la rotación para ver una imagen no canónica hasta una posición y rotación para ver la imagen canónica asociada. El convertidor 40 de resultados puede proporcionar y mostrar estas instrucciones de orientación al usuario 5 de varias formas. Se apreciará que este proceso puede ser iterativo hasta que el usuario 5 coloque la sonda 7 correctamente (dentro de un rango de error).
El convertidor 40 de resultados puede convertir los datos de orientación S(X) producidos por la red 15 neuronal de orientación entrenada en una orientación explicable para el usuario 5, para una imagen canónica seleccionada. Se puede utilizar cualquier pantalla adecuada. Se mostró una pantalla de ejemplo anteriormente con referencia a las Fig. 3A y 3B. Se apreciará que el convertidor 40 de resultados puede utilizar cualquier interfaz apropiada y puede (por ejemplo) mostrar marcas de rotación coloreadas. Más aún, el convertidor 40 de resultados puede incluir elementos que permiten al usuario 5 indicar, cuando hay múltiples imágenes canónicas para la parte del cuerpo, qué imagen canónica es actualmente de interés.
El diagnosticador 50 puede recibir la imagen canónica final producida por el usuario 5 y puede detectar cualquier anomalía en la misma. El diagnosticador 50 puede ser cualquier diagnosticador adecuado. Por ejemplo, el diagnóstico 50 puede implementar el método de diagnóstico de la Publicación Internacional PCT WO 2018/136805.
Los solicitantes se han dado cuenta de que el hecho de que hay múltiples imágenes canónicas para una sola parte del cuerpo y el hecho de que hay movimientos estándar conocidos de una imagen canónica a otra se puede utilizar para reducir los errores en la salida de la red 15 neuronal de orientación entrenada.
En esta realización mejorada, la red 15 neuronal de orientación se puede entrenar para las múltiples imágenes canónicas. Por lo tanto, para cada imagen X i, puede haber múltiples transformaciones calculadas. Por ejemplo, para un par de imágenes canónicas c y c', puede haber un par de transformaciones calculadas Sc(X i) y Sc'(X i) para la misma imagen X i que pueden tener transformaciones de verdad fundamental asociadas Tc,i y Tc , i.
Más aún, existe una transformación de movimiento conocida Tk definida como:
T i = RcRc’1 (4)
donde Rc es para la imagen canónica c y Rc' es para la imagen canónica c'. Estos movimientos conocidos son aproximadamente constantes en diferentes sujetos y, por lo tanto, la transformación Tk de una imagen canónica c a otra c' se puede utilizar para restringir las transformaciones calculadas Sc(X i) y Sc'(X i) a una de las orientaciones canónicas. Para hacerlo, se puede utilizar una medida de probabilidad Pk para definir un término de pérdida de máxima probabilidad logPk(Sc(X i)Sc (Xi)-1) para agregar a la pérdida utilizada para entrenar la red 15 neuronal de orientación, como sigue:
Pérdida = pérdida(Si(X,). Tc¿) pérdida(S, (X¡). TV.¡) - 8*logPik(Si(X,)Si (X,) ') (5)
La medida de probabilidad Pk se puede determinar experimentalmente al medir la transformación de verdad fundamental Tk entre la pose canónica c y c' en diferentes sujetos. Más aún, puede haber múltiples medidas de probabilidad por parte del cuerpo, una para cada par de imágenes canónicas de la parte del cuerpo, y cada medida de probabilidad Pk puede definir un término adicional separado para la función de pérdida.
En una realización alternativa, el navegador, en el presente documento marcado como 100', también puede comprender un verificador 60 de suficiencia y un reconstructor 70 de volumen, como se ilustra en la Fig. 7, a la que ahora se hace referencia.
El reconstructor 70 de volumen puede utilizar la salida de la red 15 neuronal de orientación entrenada y puede producir funciones 3D o 4D, y/o volúmenes 3D o volúmenes de espacio-tiempo 3D de las partes del cuerpo de interés a partir de las imágenes Xi producidas por la sonda 7. En esta realización, se pueden considerar las imágenes Xi como secciones transversales de la parte del cuerpo de interés.
El verificador 60 de suficiencia puede verificar que se han recibido suficientes secciones transversales a través de la red 15 neuronal de orientación entrenada para realizar la reconstrucción de volumen 3D/4D y de acuerdo con lo anterior puede guiar al usuario 5 (a través del convertidor 40 de resultados). Por ejemplo, el verificador 60 de suficiencia puede determinar cuándo se ha tomado un número mínimo predefinido de imágenes.
Tras una indicación del verificador 60 de suficiencia, el reconstructor 70 de volumen puede generar el volumen 3D/4D, después de lo cual, el reconstructor 70 puede extraer las vistas canónicas relevantes desde el volumen generado y puede proporcionarlas al diagnosticador 50. Se apreciará que las vistas canónicas en esta realización se producen a partir del volumen generado y pueden o no haber estado entre las imágenes utilizadas para producir el volumen.
El reconstructor 70 de volumen puede utilizar la reconstrucción tomográfica, tal como la que se basa en la transformación de Radon inversa u otros medios, para reconstruir las funciones 3D/4D y/o los volúmenes a partir de las imágenes. Se apreciará que para una reconstrucción tomográfica volumática exitosa, es crucial conocer la posición de la sección transversal en el espacio 3D o en el espacio-tiempo 4D. Los solicitantes se han dado cuenta de que la red 15 neuronal de orientación entrenada puede proporcionar una transformación S(X) sugerida para la sonda 7 para cada imagen tomada y que la transformación S(X) se puede utilizar para rotar los píxeles de la imagen Xi desde un plano de imagen 2D fijo al Orientación 3D Q en el espacio en el que se colocó la sonda 4i cuando produjo la imagen Xi.
El reconstructor 70 de volumen puede recibir la transformación S(Xi) de la red 15 neuronal de orientación entrenada para cada imagen X i y puede aplicar la transformación para mover la imagen desde un plano de formación de imágenes (como salida de la sonda) hasta un plano definido por la transformación de la sonda, produciendo una sección transversal rotada CSi de la parte del cuerpo. El reconstructor 70 de volumen puede entonces utilizar la reconstrucción tomográfica para construir el volumen de la parte del cuerpo de interés a partir de las secciones transversales de las imágenes CS(Xi).
Para aplicar la transformación S(Xi), primero se apreciará que la imagen X i comprende un conjunto de píxeles que tienen una ubicación 2D (xj , yj) dentro del plano de formación de imágenes 2D y una intensidad Ij . El reconstructor 70 de volumen puede aplicar la transformación S(Xi) en una ubicación de píxeles 3D (xj ,yj ,0) en el espacio para generar una aproximación de la orientación 3D Q de la imagen X i, después de lo cual puede aplicar un operador H para centrar o escalar la imagen orientada X i, de la siguiente manera:
Figure imgf000009_0001
El reconstructor 70 de volumen puede proporcionar la imagen canónica generada al diagnosticador 50 que luego puede producir un diagnóstico a partir de esta, como se describió anteriormente en el presente documento.
En todavía otra realización, ilustrada en las Fig. 8A, 8B y 8C a las que ahora se hace referencia, el navegador, en el presente documento marcado como 100”, puede comprender una red 90 neuronal de mapeo de imagen. La red 90 neuronal de mapeo puede mapear cada imagen X i sobre un plano 922D (Fig. 8B). La Fig. 8B muestra tres imágenes de ejemplo Xa , Xb y Xd que se matean a tres ubicaciones diferentes A, B y D sobre el plano 92.
El convertidor de resultados, en el presente documento marcado como 42, puede mostrar el plano 922D al usuario 5, marcando su ubicación actual en un color (por ejemplo, como un puntito gris (mostrado en la Fig. 8C como un puntito sombreado)) y la ubicación de las imágenes canónicas para esta parte del cuerpo como puntitos de otros colores (que se muestran en la Fig. 8C como círculos numerados 1-5). La Fig. 8C también muestra la imagen adquirida X i y su mapa 92. El punto de mapa M(Xi) puede representar una imagen no canónica X i sobre el mapa 92 y los otros círculos numerados pueden ser puntos de mapa canónicos que representan las vistas canónicas requeridas o deseadas c. El usuario 5 puede utilizar movimientos de prueba y error de la sonda 7 para mover el punto de mapa M(Xi) más cerca de los círculos deseados y el mapeador 90 puede regenerar el plano 922D para cada nueva imagen i desde la sonda 7.
Los solicitantes se han dado cuenta de que pequeños cambios en el movimiento de la sonda 7 deberían generar pequeños movimientos sobre el plano 922D y que las distancias entre las imágenes X i deberían ser similares a la distancia entre las ubicaciones del mapa. Los solicitantes se han dado cuenta además de que las rutas óptimas desde una imagen canónica hasta otra deben ser trayectorias rectas de velocidad constante.
Se apreciará que para esta realización, la red 90 neuronal de mapeo se puede entrenar utilizando datos entrantes que pueden incluir cada imagen X i y la imagen Xc de su vista canónica asociada.
La red 90 neuronal de mapeo puede incorporar una función de pérdida para minimizar una distancia entre un punto de mapa calculado M(Xi) actualmente producido por la red 90 neuronal durante el entrenamiento y el punto de mapa asociado M(Xc) para cada vista canónica q :
Pérdida = pérdida (M (X ¡), M (X tj)) (7)
Para incorporar una ruta óptima a las diferentes vistas canónicas, se puede agregar un vector de probabilidad p¡,j que puede definir qué tan cerca está la imagen X i sobre una ruta a la j-ésima imagen canónica deseada c. La función de pérdida entonces se puede actualizar para ser:
Pérdida = pérdida(M(X¡), £p¡jM(Xcj)) (8)
Para preservar las distancias, la función de pérdida se puede actualizar para que sea:
Pérdida = pérdida(M(X¡), £p ¡jM (X < j)) pérdida(dÍSt(Xi,Xj), || M (X i)-M (X j) || 2) (9)
Se apreciará que el plano 92 puede ser un plano 2D o un volumen 3D, según se desee. Las operaciones de mapeo discutidas en el presente documento anteriormente también son operativas para mapear a un volumen 3D.
Los solicitantes se han dado cuenta de que las redes neuronales se pueden entrenar no solo para generar información de transformación sino también para generar imágenes canónicas, dado el tipo correcto de entrenamiento. Esto podría ser particularmente útil si se espera que la entrada de los no sonografistas sea ruidosa (ya que es posible que no tengan manos lo suficientemente firmes) y/o si se desea ver, en la vista canónica, el funcionamiento de la parte del cuerpo. Por ejemplo, los sonografistas de ultrasonido proporcionan regularmente información sobre un ciclo cardíaco completo, desde la sístole hasta la diástole y de regreso a la sístole, para el análisis de la función cardíaca.
En todavía otra realización, mostrada en las Fig. 9A y 9B a las que ahora se hace referencia, el navegador 100 puede comprender una red 110 neuronal de vista canónica cíclica, que puede ser una red neuronal entrenada a partir de la salida de la red 15 neuronal de orientación entrenada. El ciclador 110 de vista canónica puede agregar imágenes repetidas para reducir el ruido y proporcionar un resumen menos ruidoso de (por ejemplo) el ciclo de un órgano, tal como el ciclo cardíaco.
Como se muestra en la Fig. 9A, los elementos necesarios para entrenar la red 110 neuronal de vista canónica cíclica pueden comprender la red 15 neuronal de orientación entrenada, un creador 112 de conjuntos para crear la entrada a la red 110 y un entrenador 115 de vista canónica cíclica.
Para esta realización, el sonografista 2 experto puede proporcionar múltiples imágenes de ultrasonido m tomadas a lo largo del tiempo, así como múltiples imágenes n tomadas a lo largo del tiempo en una pose de vista canónica c. El creador 112 de conjuntos puede recibir la imagen Xm desde la red 15 neuronal de orientación entrenada junto con su información de transformación asociada S(Xm) y los puede combinar con su imagen asociada Xc,n tomada en la vista canónica. El sonografista 2 experto puede proporcionar dichas asociaciones.
El creador 112 de conjuntos puede entonces generar tripletes {[Ym , Zm], Wn} donde [Ym , Zm] se introducen en el entrenador 115 de vista canónica cíclica y W n es la salida asociada. Cada Ym puede consistir en un conjunto de g imágenes donde Ym = {X1, X2 , Xg} y Zm puede consistir en la información de transformación S(X) de las imágenes Ym de tal manera que Zm = {S(X1), S(X2) S(Xg)}. Normalmente, g puede ser de 10 a 100 imágenes.
Cada par [Ym , Zm] puede tener un conjunto Wn de imágenes canónicas asociadas Xc tomadas en la vista canónica c en tiempos entre 0 y n. El tiempo n puede indicar el tiempo dentro del ciclo cardíaco. Como se mencionó anteriormente en el presente documento, el sonografista 2 experto puede indicar la información del ciclo cardíaco y puede proporcionar las imágenes canónicas asociadas Xc que se incluirán en el conjunto W n.
En este escenario, el entrenador 115 de vista canónica cíclica puede recibir como entrada marcos generales Ym, sus transformaciones aproximadas Zm generadas por la red 15 neuronal de orientación y su temporización de ciclo cardíaco asociado n, y se puede entrenar para generar un conjunto de imágenes de resumen W n en una vista canónica en los tiempos deseados n. La optimización es:
Pérdida = pérdida (C C n, W n) (10)
donde CCn es la salida de la red 110 neuronal de vista canónica cíclica a medida que se entrena.
El entrenador 115 de vista canónica cíclica puede generar una red 110 neuronal de vista canónica cíclica entrenada para el navegador 100 utilizando cualquier red neuronal apropiada, tal como una red totalmente convolucional, un tipo de red codificador-decodificador o una red antagónica generativa.
Como se ilustra en la Fig. 9B a la que ahora se hace referencia, el navegador 100'” puede comprender una red 15 neuronal de orientación entrenada, un creador 112' de conjuntos para la operación, un verificador 60' de suficiencia, un convertidor 40' de resultados, canónico cíclico entrenado ver la red 110 neuronal y el diagnosticador 50.
En operación, el no sonografista 5 puede operar la sonda 7 cerca de la parte del cuerpo de interés durante un período de tiempo, al menos el tiempo suficiente para cubrir el ciclo de la parte del cuerpo deseada (tal como el ciclo cardíaco). Las imágenes de la sonda 7 se pueden proporcionar a la red 15 neuronal de orientación entrenada para generar sus transformaciones asociadas S(X) y al creador 112' de conjuntos para generar los conjuntos apropiados Ym y Zm. El verificador 60' de suficiencia puede verificar que los conjuntos Ym y Zm sean lo suficientemente grandes y puede indicar al convertidor 40' de resultados que indique al usuario 5 que oriente la sonda 7 de la manera deseada o que continúe viendo en la orientación actual. Se apreciará que, en esta realización, el no sonografista 5 no tiene que sostener la sonda 7 exactamente en la vista canónica y, por lo tanto, las instrucciones que puede proporcionar el convertidor 40' de resultados pueden ser más toscas. La red 110 neuronal de vista canónica cíclica puede generar las vistas canónicas cíclicas resumidas CCn a partir de la salida del creador 112' de conjuntos.
Se apreciará que esta realización también puede ser útil para partes del cuerpo no cíclicas, particularmente cuando el usuario 5 puede sujetar la sonda 7 de forma inestable. En esta realización, cada conjunto puede tener solo una o dos imágenes.
Los solicitantes se han dado cuenta además de que las redes neuronales también se pueden entrenar sin la información de transformación producida por la red 15 neuronal de orientación entrenada. Esto se muestra en las Fig. 10A y 10B, que ilustran un sistema similar al de las Fig. 9A y 9B, pero sin red 15 neuronal de orientación entrenada. Como resultado, para el entrenamiento (Fig. 10A) un creador 113 de conjuntos puede crear Ym a partir de imágenes X i y puede crear Wn a partir de imágenes canónicas Xc en tiempos n. El entrenador 115 de vista canónica cíclica puede generar una red 110 neuronal de vista canónica cíclica utilizando la ecuación (10).
En el tiempo de ejecución (Fig. 10B), un creador 113' de conjuntos puede crear Ym a partir de imágenes X i y la red 110 neuronal de vista canónica cíclica puede generar las vistas de resumen CCn.
Se apreciará que la presente invención puede proporcionar un navegador para que los no sonografistas operen una máquina de ultrasonido móvil sin entrenamiento y sin ningún hardware adicional diferente a la sonda de ultrasonido. Por lo tanto, el navegador de la presente invención recibe imágenes de ultrasonidos como única entrada. Se apreciará además que esto puede permitir a los no sonografistas realizar exploraciones de ultrasonido en muchos escenarios no convencionales, tales como en ambulancias, en el campo de batalla, en centros de atención de urgencia, residencias de ancianos, etc.
Más aún, la presente invención se puede implementar en escenarios más convencionales, tales como parte de máquinas convencionales utilizadas en entornos hospitalarios o clínicos, que también se pueden implementar en carros.
A menos que se indique específicamente lo contrario, como se desprende de las discusiones anteriores, se aprecia que, a lo largo de la especificación, las discusiones que utilizan términos tales como “procesar”, “computar”, “calcular”, “determinar” o similares, se refieren a la acción y/o procesos de un ordenador de uso general de cualquier tipo, tal como un sistema cliente/servidor, dispositivos informáticos móviles, artefactos inteligentes o dispositivos informáticos electrónicos similares que manipulan y/o transforman datos representados como cantidades físicas, tales como electrónicas dentro de los registros y/o memorias del sistema informático en otros datos representados de manera similar como cantidades físicas dentro de las memorias, registros u otros dispositivos de almacenamiento, transmisión o visualización de información del sistema informático.
Las realizaciones de la presente invención pueden incluir un aparato para realizar las operaciones del presente documento. Este aparato se puede construir especialmente para los propósitos deseados, o puede comprender un ordenador de propósito general o una configuración cliente/servidor activada o reconfigurada selectivamente por un programa informático almacenado en el ordenador. El aparato resultante, cuando se instruye mediante software, puede convertir el ordenador de uso general en elementos inventivos, como se discute en el presente documento. Las instrucciones ejecutables pueden definir el dispositivo inventivo en operación con la plataforma informática para la que se desea. Dicho programa de ordenador se puede almacenar en un medio de almacenamiento accesible por ordenador que puede ser un medio no transitorio, tal como, pero no se limita a, cualquier tipo de disco, que incluye discos ópticos, discos magnéticos-ópticos, memorias de solo lectura (ROM), memorias volátiles y no volátiles, memorias de acceso aleatorio (RAM), memorias de solo lectura programables eléctricamente (EPROM), memorias de solo lectura programables y borrables eléctricamente (EEPROM), tarjetas magnéticas u ópticas, memoria flash, disco en clave o cualquier otro tipo de medio adecuado para almacenar instrucciones electrónicas y susceptible de acoplarse a un bus de sistema informático.
Los procesos y visualizaciones presentados en este documento no están inherentemente relacionados con ningún ordenador u otro aparato en particular. Se pueden utilizar varios sistemas de propósito general con programas de acuerdo con las enseñanzas del presente documento, o puede resultar conveniente construir un aparato más especializado para realizar el método deseado. La estructura deseada para una variedad de estos sistemas aparecerá a partir de la descripción a continuación. Además, las realizaciones de la presente invención no se describen con referencia a ningún lenguaje de programación particular. Se apreciará que se puede utilizar una variedad de lenguajes de programación para implementar las enseñanzas de la invención como se describe en este documento.
Aunque se han ilustrado y descrito en el presente documento ciertas características de la invención, ahora se les ocurrirán muchas modificaciones, sustituciones, cambios y equivalentes a aquellos expertos con conocimientos básicos en la técnica.

Claims (16)

REIVINDICACIONES
1. Un navegador (100) descargable para una unidad (8) de ultrasonido móvil que tiene una sonda (7) de ultrasonido, implementada sobre un dispositivo informático portátil, el navegador comprende:
una red (15) neuronal de orientación entrenada para recibir una imagen no canónica desde una parte del cuerpo de dicha unidad (8) de ultrasonido móvil y para generar una transformación asociada con dicha imagen no canónica, dicha transformación se transforma desde una posición y rotación asociada con una imagen canónica hasta una posición y rotación asociada con dicha imagen no canónica; y
un convertidor (40) de resultados para convertir dicha transformación en instrucciones de orientación para un usuario (5) de dicha sonda (7) y para proporcionar y mostrar dichas instrucciones de orientación a dicho usuario (5) para cambiar la posición y rotación de dicha sonda (7).
2. El navegador de acuerdo con la reivindicación 1 y que comprende un entrenador (30) para entrenar dicha red neuronal de orientación que utiliza dicha imagen canónica junto con las imágenes no canónicas tomadas alrededor de dicha imagen canónica y las transformaciones a posiciones y rotaciones en el espacio asociado con dichas imágenes no canónicas desde dicha imagen canónica.
3. El navegador de acuerdo con la reivindicación 2 y en el que dicho entrenador (30) comprende un convertidor (22) de entrenamiento para recibir una datos de unidad de medición de inercia, IMU, durante las sesiones de entrenamiento desde una IMU (6) montada sobre una sonda (4c) de entrenamiento, dichos datos de la IMU proporcionan dichas posiciones y rotaciones asociadas con dichas imágenes no canónicas y dicha imagen canónica, y para convertir dichas posiciones y rotaciones a las transformaciones desde dicha posición y rotación asociada con dicha imagen canónica hasta dicha posición y rotación asociada con dichas imágenes no canónicas.
4. El navegador de acuerdo con la reivindicación 2 y en el que dicho entrenador (30) comprende una red neuronal de orientación no entrenada y una función de pérdida para entrenar dicha red neuronal de orientación no entrenada, dicha función de pérdida para reducir una distancia entre una transformación calculada producida por dicha red neuronal de orientación no entrenada y una transformación de verdad fundamental para cada imagen no canónica.
5. El navegador de acuerdo con la reivindicación 4 en el que dicha función de pérdida incluye adicionalmente una probabilidad para restringir dicha transformación calculada a una de una pluralidad de diferentes orientaciones canónicas.
6. El navegador de acuerdo con la reivindicación 1 y que también comprende:
un creador (112, 112') de conjuntos para recibir una multiplicidad de transformaciones desde dicha red (15) neuronal de orientación entrenada en respuesta a las imágenes desde dicha sonda (7) y para generar conjuntos de imágenes y sus transformaciones asociadas;
un verificador (60, 60') de suficiencia para determinar cuándo se han creado suficientes conjuntos; y
una red (110) neuronal de vista canónica cíclica entrenada para generar un conjunto de imágenes canónicas cíclicas de resumen que muestran cambios en dicha parte del cuerpo durante un ciclo de parte del cuerpo.
7. El navegador de acuerdo con la reivindicación 6 y que también comprende un entrenador (115) de vista canónica cíclica para entrenar una red neuronal de vista canónica cíclica no entrenada con dichos conjuntos de imágenes, sus transformaciones asociadas, y sus imágenes canónicas cíclicas de resumen asociadas en cada punto en dicho ciclo de parte del cuerpo.
8. El navegador de acuerdo con la reivindicación 6 en el que dicho ciclo de parte del cuerpo es un ciclo cardíaco.
9. El navegador de acuerdo con la reivindicación 6 en el que cada conjunto tiene un solo elemento en el mismo.
10. Un método para una unidad (8) de ultrasonido móvil que tiene una sonda (7) de ultrasonido, implementada sobre un dispositivo informático portátil, el método comprende:
recibir, utilizando una red (15) neuronal de orientación entrenada, una imagen no canónica de una parte del cuerpo de dicha unidad (8) de ultrasonido móvil y generar una transformación asociada con dicha imagen no canónica, dicha transformación se transforma desde una posición y rotación asociada con una imagen canónica hasta una posición y rotación asociada con dicha imagen no canónica; y
convertir dicha transformación en instrucciones de orientación para un usuario (5) de dicha sonda (7) y proporcionar y mostrar dichas instrucciones de orientación a dicho usuario (5) para cambiar la posición y rotación de dicha sonda (7).
11. El método de acuerdo con la reivindicación 10 y que comprende entrenar dicha red neuronal de orientación que utiliza dicha imagen canónica junto con las imágenes no canónicas tomadas alrededor de dicha imagen canónica y las transformaciones a posiciones y rotaciones en el espacio asociado con dichas imágenes no canónicas desde dicha imagen canónica.
12. El método de acuerdo con la reivindicación 11 y en el que dicho entrenamiento comprende recibir la unidad de medición de inercia, IMU, datos durante las sesiones de entrenamiento desde una IMU (6) montada sobre una sonda (4c) de entrenamiento, dichos datos de la IMU proporcionan dichas posiciones y rotaciones asociadas con dichas imágenes no canónicas y dicha imagen canónica, y convertir dichas posiciones y rotaciones a las transformaciones desde dicha posición y rotación asociada con dicha imagen canónica hasta dicha posición y rotación asociada con dichas imágenes no canónicas.
13. El método de acuerdo con la reivindicación 10 y que también comprende:
recibir una multiplicidad de transformaciones desde dicha red (15) neuronal de orientación entrenada en respuesta a las imágenes desde dicha sonda (7) y generar conjuntos de imágenes y sus transformaciones asociadas; determinar cuándo se han creado suficientes conjuntos; y
generar, utilizando una red neuronal de vista canónica cíclica entrenada, un conjunto de imágenes canónicas cíclicas de resumen que muestran cambios en dicha parte del cuerpo durante un ciclo de parte del cuerpo.
14. El método de acuerdo con la reivindicación 13 y que también comprende entrenar una red neuronal de vista canónica cíclica no entrenada con dichos conjuntos de imágenes, sus transformaciones asociadas, y sus imágenes canónicas cíclicas de resumen asociadas en cada punto en dicho ciclo de parte del cuerpo.
15. El método de acuerdo con la reivindicación 13 en el que dicho ciclo de parte del cuerpo es un ciclo cardíaco.
16. El método de acuerdo con la reivindicación 13 en el que cada conjunto tiene un solo elemento en el mismo.
ES19803070T 2018-05-15 2019-05-15 Sistema y método para orientar la captura de imágenes de ultrasonidos Active ES2938515T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201862671692P 2018-05-15 2018-05-15
PCT/US2019/032368 WO2019222317A1 (en) 2018-05-15 2019-05-15 System and method for orientating capture of ultrasound images

Publications (1)

Publication Number Publication Date
ES2938515T3 true ES2938515T3 (es) 2023-04-12

Family

ID=68533844

Family Applications (1)

Application Number Title Priority Date Filing Date
ES19803070T Active ES2938515T3 (es) 2018-05-15 2019-05-15 Sistema y método para orientar la captura de imágenes de ultrasonidos

Country Status (13)

Country Link
US (2) US11593638B2 (es)
EP (2) EP4218596A1 (es)
JP (2) JP7445243B2 (es)
KR (1) KR20210011005A (es)
CN (1) CN112399828A (es)
AU (1) AU2019268319A1 (es)
CA (1) CA3099568A1 (es)
DK (1) DK3793447T3 (es)
ES (1) ES2938515T3 (es)
FI (1) FI3793447T3 (es)
IL (2) IL278468B2 (es)
PL (1) PL3793447T3 (es)
WO (1) WO2019222317A1 (es)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113116386B (zh) * 2019-12-31 2023-08-04 无锡祥生医疗科技股份有限公司 超声成像引导方法、超声设备及存储介质
KR20210099967A (ko) * 2020-02-05 2021-08-13 삼성메디슨 주식회사 초음파 진단 장치 및 그 동작 방법
CN113496442A (zh) * 2020-03-19 2021-10-12 荷盛崧钜智财顾问股份有限公司 图表征产生系统,图表征产生方法与其图表征智能模块
CN111643116B (zh) * 2020-07-03 2023-03-31 吉林大学 一种仿生智能超声检查体位变换装置
CN113274051B (zh) * 2021-04-30 2023-02-21 中国医学科学院北京协和医院 超声辅助扫查方法、装置、电子设备和存储介质
US20230200778A1 (en) * 2021-12-27 2023-06-29 GE Precision Healthcare LLC Medical imaging method
CN116152610B (zh) * 2023-04-04 2023-06-23 北京智源人工智能研究院 智能心脏超声探头位姿预估模型训练方法及位姿预估方法

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9025431D0 (en) 1990-11-22 1991-01-09 Advanced Tech Lab Three dimensional ultrasonic imaging
US7092749B2 (en) 2003-06-11 2006-08-15 Siemens Medical Solutions Usa, Inc. System and method for adapting the behavior of a diagnostic medical ultrasound system based on anatomic features present in ultrasound images
JP4263579B2 (ja) 2003-10-22 2009-05-13 アロカ株式会社 超音波診断装置
US7648460B2 (en) 2005-08-31 2010-01-19 Siemens Medical Solutions Usa, Inc. Medical diagnostic imaging optimization based on anatomy recognition
US7912258B2 (en) * 2005-09-27 2011-03-22 Vanderbilt University Method and apparatus for standardizing ultrasonography training using image to physical space registration of tomographic volumes from tracked ultrasound
DE102006008501B3 (de) 2006-02-23 2007-10-25 Albert-Ludwigs-Universität Freiburg Sonde und Verfahren zur Datenübertragung zwischen einem Gehirn und einer Datenverarbeitungsvorrichtung
EP2038839A2 (en) 2006-06-28 2009-03-25 Koninklijke Philips Electronics N.V. Variable resolution model based image segmentation
US7565262B2 (en) 2006-10-05 2009-07-21 Siemens Corporate Research, Inc. Bayesian sensor estimation for machine condition monitoring
US20120065510A1 (en) 2010-09-09 2012-03-15 General Electric Company Ultrasound system and method for calculating quality-of-fit
US9554812B2 (en) 2011-02-18 2017-01-31 DePuy Synthes Products, Inc. Tool with integrated navigation and guidance system and related apparatus and methods
KR101286222B1 (ko) * 2011-09-19 2013-07-15 삼성메디슨 주식회사 영상을 처리하는 방법, 장치, 초음파 진단장치 및 의료영상시스템
CA2851839C (en) * 2011-10-17 2020-09-15 Butterfly Network, Inc. Transmissive imaging and related apparatus and methods
US11109835B2 (en) * 2011-12-18 2021-09-07 Metritrack Llc Three dimensional mapping display system for diagnostic ultrasound machines
US9208432B2 (en) 2012-06-01 2015-12-08 Brain Corporation Neural network learning and collaboration apparatus and methods
GB2507987A (en) 2012-11-15 2014-05-21 Imp Innovations Ltd Method of automatically processing an ultrasound image
EP2934328B1 (en) 2012-12-21 2018-09-26 Koninklijke Philips N.V. Anatomically intelligent echocardiography for point-of-care
WO2014162232A1 (en) * 2013-04-03 2014-10-09 Koninklijke Philips N.V. 3d ultrasound imaging system
EP3013242B1 (en) 2013-06-28 2018-11-07 Koninklijke Philips N.V. Ultrasound acquisition feedback guidance to a target view
JP6097452B2 (ja) * 2014-01-27 2017-03-15 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 超音波撮像システム及び超音波撮像方法
JP6479039B2 (ja) 2014-03-31 2019-03-06 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 超音波画像取得に対する触覚フィードバック
JP5939601B1 (ja) * 2015-03-12 2016-06-22 学校法人早稲田大学 超音波プローブの位置姿勢提示システム、画像生成装置及びそのプログラム
US10183130B2 (en) 2015-04-29 2019-01-22 Carefusion 303, Inc. Measuring valve health by pressure monitoring
WO2016178198A1 (en) * 2015-05-07 2016-11-10 Koninklijke Philips N.V. System and method for motion compensation in medical procedures
US9773196B2 (en) * 2016-01-25 2017-09-26 Adobe Systems Incorporated Utilizing deep learning for automatic digital image segmentation and stylization
US10964424B2 (en) * 2016-03-09 2021-03-30 EchoNous, Inc. Ultrasound image recognition systems and methods utilizing an artificial intelligence network
JP2017167582A (ja) 2016-03-14 2017-09-21 富士通株式会社 演算処理装置、情報処理装置、及び演算処理装置の制御方法
EP3445249B1 (en) 2016-04-19 2020-04-15 Koninklijke Philips N.V. Ultrasound imaging probe positioning
WO2017206023A1 (zh) * 2016-05-30 2017-12-07 深圳迈瑞生物医疗电子股份有限公司 一种心脏容积识别分析系统和方法
FR3059541B1 (fr) 2016-12-07 2021-05-07 Bay Labs Inc Navigation guidee d'une sonde ultrason
US11478226B2 (en) 2017-01-19 2022-10-25 New York University System and method for ultrasound analysis

Also Published As

Publication number Publication date
IL278468A (es) 2020-12-31
JP2024069213A (ja) 2024-05-21
FI3793447T3 (fi) 2023-03-18
EP3793447B1 (en) 2023-01-18
CN112399828A (zh) 2021-02-23
US20190354856A1 (en) 2019-11-21
JP2021522956A (ja) 2021-09-02
KR20210011005A (ko) 2021-01-29
EP3793447A1 (en) 2021-03-24
CA3099568A1 (en) 2019-11-21
JP7445243B2 (ja) 2024-03-07
IL305425A (en) 2023-10-01
IL278468B1 (en) 2023-09-01
WO2019222317A1 (en) 2019-11-21
DK3793447T3 (da) 2023-02-27
AU2019268319A1 (en) 2020-12-24
EP4218596A8 (en) 2023-09-27
EP4218596A1 (en) 2023-08-02
US11593638B2 (en) 2023-02-28
PL3793447T3 (pl) 2023-06-26
EP3793447A4 (en) 2021-11-10
IL278468B2 (en) 2024-01-01
US20230206065A1 (en) 2023-06-29

Similar Documents

Publication Publication Date Title
ES2938515T3 (es) Sistema y método para orientar la captura de imágenes de ultrasonidos
JP6334821B2 (ja) 医用イメージングのために患者をポジショニングするためのガイドシステム
US11504095B2 (en) Three-dimensional imaging and modeling of ultrasound image data
CN107106241B (zh) 用于对外科器械进行导航的系统
CN106108951B (zh) 一种医用实时三维定位追踪系统及方法
US20150250450A1 (en) Non-Invasive Imager for Medical Applications
ES2292002T3 (es) Metodo y dispositivo para reconstruir imagenes de seccion bidimensionales.
CN1925793A (zh) 用于在患者体内引导医疗器械的系统
US10846860B2 (en) Systems and methods for x-ray tomosynthesis image reconstruction
JP7336984B2 (ja) 画像再構築のためのシステム及び方法
JP2012070880A (ja) 放射線治療装置制御装置および放射線治療装置制御方法
ES2951825T3 (es) Ajuste automático de parámetros de formación de imágenes
CN109313698A (zh) 同步的表面和内部肿瘤检测
CN109496327A (zh) 用于诊断和治疗的系统和方法
US20200069291A1 (en) Methods and apparatuses for collection of ultrasound data
CN105992556B (zh) 具有观察角优化功能的医学观察系统
JP2021508549A (ja) X線撮像システムを較正するための方法及びシステム
ES2955056T3 (es) Simulaciones médicas
CN113853151A (zh) 用于在手术期间定向远程相机的用户界面元件
KR102345827B1 (ko) 의료 영상 촬영 시뮬레이션 방법
CN107802346A (zh) 一种基于惯性制导的超声融合导航系统及方法
TWI441106B (zh) 以影像為基礎之外科手術模擬系統
Kukuk An “optimal” k-needle placement strategy and its application to guiding transbronchial needle aspirations
CN114340539A (zh) 补偿跟踪不准确