ES2968507T3 - Sistema de procesamiento de datos para generar predicciones de resultados cognitivos en pacientes - Google Patents

Sistema de procesamiento de datos para generar predicciones de resultados cognitivos en pacientes Download PDF

Info

Publication number
ES2968507T3
ES2968507T3 ES19890320T ES19890320T ES2968507T3 ES 2968507 T3 ES2968507 T3 ES 2968507T3 ES 19890320 T ES19890320 T ES 19890320T ES 19890320 T ES19890320 T ES 19890320T ES 2968507 T3 ES2968507 T3 ES 2968507T3
Authority
ES
Spain
Prior art keywords
data
patient
brain
region
prediction value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES19890320T
Other languages
English (en)
Inventor
Bradford Mahon
Keith Parkins
Max Sims
Benjamin Chernoff
Hugo Angulo-Orquera
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carnegie Mellon University
Original Assignee
Carnegie Mellon University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carnegie Mellon University filed Critical Carnegie Mellon University
Application granted granted Critical
Publication of ES2968507T3 publication Critical patent/ES2968507T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/02Details
    • A61N1/04Electrodes
    • A61N1/05Electrodes for implantation or insertion into the body, e.g. heart electrode
    • A61N1/0526Head electrodes
    • A61N1/0529Electrodes for brain stimulation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • A61B5/0042Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/372Analysis of electroencephalograms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4058Detecting, measuring or recording for evaluating the nervous system for evaluating the central nervous system
    • A61B5/4064Evaluating the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4848Monitoring or testing the effects of treatment, e.g. of medication
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/18Applying electric currents by contact electrodes
    • A61N1/32Applying electric currents by contact electrodes alternating or intermittent currents
    • A61N1/36Applying electric currents by contact electrodes alternating or intermittent currents for stimulation
    • A61N1/36014External stimulators, e.g. with patch electrodes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/18Applying electric currents by contact electrodes
    • A61N1/32Applying electric currents by contact electrodes alternating or intermittent currents
    • A61N1/36Applying electric currents by contact electrodes alternating or intermittent currents for stimulation
    • A61N1/362Heart stimulators
    • A61N1/37Monitoring; Protecting
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/4806Functional imaging of brain activation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/02Details
    • A61N1/04Electrodes
    • A61N1/05Electrodes for implantation or insertion into the body, e.g. heart electrode
    • A61N1/0526Head electrodes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/18Applying electric currents by contact electrodes
    • A61N1/32Applying electric currents by contact electrodes alternating or intermittent currents
    • A61N1/36Applying electric currents by contact electrodes alternating or intermittent currents for stimulation
    • A61N1/36014External stimulators, e.g. with patch electrodes
    • A61N1/36025External stimulators, e.g. with patch electrodes for treating a mental or cerebral condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N1/00Electrotherapy; Circuits therefor
    • A61N1/18Applying electric currents by contact electrodes
    • A61N1/32Applying electric currents by contact electrodes alternating or intermittent currents
    • A61N1/36Applying electric currents by contact electrodes alternating or intermittent currents for stimulation
    • A61N1/3605Implantable neurostimulators for stimulating central or peripheral nerve system
    • A61N1/3606Implantable neurostimulators for stimulating central or peripheral nerve system adapted for a particular treatment
    • A61N1/36067Movement disorders, e.g. tremor or Parkinson disease
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Neurology (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Psychology (AREA)
  • Neurosurgery (AREA)
  • Physiology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Mathematical Physics (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Psychiatry (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Urology & Nephrology (AREA)
  • Signal Processing (AREA)
  • Cardiology (AREA)
  • Fuzzy Systems (AREA)

Abstract

Un sistema para generar una representación visual de un cerebro de un paciente está configurado para recibir datos de sensores que representan un comportamiento de una región del cerebro del paciente. El sistema recupera datos cartográficos que asignan un valor de predicción a la región. El valor de predicción es indicativo de un efecto sobre el comportamiento del paciente en respuesta a un tratamiento de la región, estando indexados los datos cartográficos con un identificador de paciente. El sistema recibe, en respuesta a una aplicación de estimulación a la región, datos de sensor que representan el comportamiento de la región. El sistema ejecuta un modelo que actualiza, en función de los datos del sensor, el valor de predicción para la región. El sistema actualiza, en respuesta a la ejecución del modelo, los datos cartográficos incluyendo el valor de predicción actualizado en los datos cartográficos. El sistema genera una representación visual de los datos cartográficos actualizados que comprenden el valor de predicción actualizado. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Sistema de procesamiento de datos para generar predicciones de resultados cognitivos en pacientes
REIVINDICACIÓN DE PRIORIDAD
Esta solicitud reivindica prioridad según 35 U.S.C. §119(e) a la Solicitud Provisional de los EE. UU. n.° 62/917,258, presentada el 1 de diciembre de 2018.
CLÁUSULA DE APOYO GUBERNAMENTAL
La invención se ha realizado con el apoyo del gobierno a través de la subvención de la National Science Foundation #BCS-1349042 y las subvenciones del National Institute of Health números NS089069, NS076176 y EY028535. El gobierno tiene ciertos derechos sobre la invención.
SECTOR TÉCNICO
Esta solicitud se refiere a la adquisición, recopilación, procesamiento y análisis de datos para generar una visualización que represente los efectos predichos en un paciente de uno o más tratamientos en el cerebro del paciente. Más específicamente, el sistema está configurado para generar predicciones sobre el resultado del paciente en el futuro y mostrar esas predicciones en el formato de un cerebro tridimensional y otros formatos.
ESTADO DE LA TÉCNICA ANTERIOR
Durante más de 60 años, la estimulación eléctrica intraoperatoria en pacientes despiertos ha sido el procedimiento de referencia para mapear las funciones del cerebro humano. Durante el mapeo con el paciente despierto, el paciente está alerta y cómodamente colocado en la mesa de operaciones. Se utiliza anestesia local para adormecer la zona de la incisión, y el paciente está despierto al menos durante parte del periodo de la intervención en el que su cerebro está expuesto. A continuación, el paciente puede realizar tareas cognitivas, sensoriales o motoras mientras el cirujano estimula el cerebro con un estimulador eléctrico bipolar a baja corriente (normalmente de 1 a 15 miliamperios). Un procedimiento similar se utiliza en pacientes con electrodos implantados que se someten a la localización de tejido epileptógeno: los mismos electrodos utilizados para detectar la aparición de convulsiones pueden utilizarse para estimular el cerebro. Para esta aplicación de mapeo de estimulación eléctrica, el procedimiento se lleva a cabo en la habitación de hospital del paciente, en lugar de en un quirófano. El objetivo del mapeo de estimulación eléctrica, como procedimiento clínico, es identificar dónde la estimulación altera la capacidad del paciente para llevar a cabo una tarea determinada. Por ejemplo, la representación motora primaria de la mano puede localizarse identificando la región que, cuando se estimula, altera la capacidad del paciente para mover los dedos. Las regiones del cerebro críticas para la capacidad lingüística pueden localizarse mediante pruebas para detectar alteraciones (por ejemplo) en la capacidad del paciente para nombrar imágenes, leer palabras o repetir frases. Una vez que los cirujanos han identificado las regiones cerebrales críticas mediante mapeo de estimulación eléctrica intraoperatoria o extraoperatoria combinada con pruebas cognitivas, pueden formular un plan operativo para extirpar el tejido patológico sin resecar las regiones cerebrales críticas para cualquier función cognitiva que deba preservarse. Este planteamiento básico, consistente en utilizar el mapeo de estimulación eléctrica para generar pruebas causales sobre el papel de regiones cerebrales concretas en funciones cognitivas específicas, puede emplearse para tratar diversas enfermedades neurológicas, como la resección de tumores cerebrales, tejido epileptógeno o la corrección de malformaciones arteriovenosas.
Sin embargo, a pesar de los enormes avances en neurocirugía estereotáctica y guiada por imagen de la última década, se necesita una solución integrada de hardware y software que permita realizar pruebas cognitivas flexibles a los pacientes y que interactúe sin problemas con las demás tecnologías habituales en los quirófanos. Casi todos los grandes centros médicos del mundo realizan mapeos con el paciente despierto, y el "estándar de atención" es que alguien, una enfermera, un neuropsicólogo o un técnico, pasa tras la cortina y muestra imágenes o palabras que los pacientes deben nombrar o leer, ya sea de forma escrita o en tableta. Sin embargo, las consecuencias conductuales del mapeo de estimulación eléctrica no se registran, puntúan e integran con otros flujos de datos que existen (o que existirán) sobre el paciente. Una solución a este problema es un sistema configurado para integrar el rendimiento conductual del paciente con imágenes de resonancia magnética (IRM) estructural y funcional, electrocorticograma, tomografía computarizada (TAC) y otras técnicas de imagen.
El documento US2013/211238A1 se refiere al tratamiento del dolor mediante la medición de la actividad de vóxels de un cerebro, la comunicación de instrucciones al paciente para modular la actividad de dicho vóxel; y el entrenamiento del paciente para controlar el vóxel.
El documento US2018/133507A1 se refiere a un sistema para tratar disfunciones cognitivas mediante estimulación neural visual y/o auditiva.
CARACTERÍSTICAS
La invención se define mediante las reivindicaciones adjuntas. El sistema descrito en este documento está configurado para medir datos sobre el cerebro de un paciente y predecir los efectos en el paciente de uno o más tratamientos en el cerebro. Más concretamente, un sistema de visualización de mapeo está configurado para recibir datos (como datos preoperatorios) sobre una o más regiones del cerebro del paciente desde los sensores del sistema.
En general, las intervenciones neuroquirúrgicas para extirpar tumores cerebrales o tejido epileptógeno adyacente a áreas cerebrales que sustentan funciones cognitivas críticas deben equilibrar el objetivo clínico de la cirugía (extirpar la mayor cantidad posible de tumor o tejido epileptógeno) y el daño, este equilibrio se denomina equilibrio oncofuncional. En el lado "onco" de la balanza, los cirujanos quieren extirpar la mayor parte posible del tumor, ya que las tasas de "resección total del tumor" están relacionadas con una mayor supervivencia. En el lado "funcional", la extirpación de tumores puede dañar los sustratos corticales y subcorticales de la cognición; las dificultades postoperatorias pueden afectar al lenguaje, la acción, la visión, la audición, el tacto o el movimiento, dependiendo del sistema o sistemas neuronales afectados. El equilibrio oncofuncional es importante porque el aumento de la morbilidad se asocia con i) una menor calidad de vida, ii) un aumento de las complicaciones postoperatorias que pueden aumentar la mortalidad (por ejemplo, los pacientes que ya no pueden moverse corren un mayor riesgo de sufrir coágulos sanguíneos). La tensión inherente al equilibrio "oncofuncional" en el contexto de la cirugía de tumores cerebrales se traslada también a la cirugía de la epilepsia: allí el equilibrio se encuentra entre el objetivo clínico de extirpar todo el tejido que genera convulsiones y no extirpar el tejido que sustenta funciones críticas. En términos más generales, esto se traduce en cualquier procedimiento neuroquirúrgico invasivo que pueda dañar estructuras elocuentes.
A grandes rasgos, la neuroanatomía funcional está muy estereotipada de un individuo a otro. Sin embargo, puede haber un alto grado de variabilidad individual en la ubicación precisa (es decir, de mm a mm) de las funciones corticales superiores. Además, en general se reconoce que la presencia de patología cortical o subcortical puede estimular la reorganización cortical, aunque los principios que impulsan dicha reorganización no se conocen bien. Las intervenciones neuroquirúrgicas avanzan milímetro a milímetro. El sistema está configurado para mapear el cerebro de cada paciente, de forma detallada y con sensibilidad y precisión, a fin de comprender qué regiones de ese paciente concreto sustentan qué funciones sensoriales, cognitivas y motoras.
Para superar los problemas anteriores, el sistema descrito en esta divulgación está configurado para mapear el cerebro del paciente en detalle a partir de muchos flujos de datos diferentes para ese paciente (y en algunos casos, para clases de pacientes similares). El sistema proporciona una visualización detallada del cerebro del paciente que muestra las regiones en las que existe un alto riesgo de resultados adversos para el paciente, en general, en respuesta a un tratamiento (como la extirpación) de esa región.
El sistema descrito en el presente documento presenta una o varias de las siguientes ventajas técnicas. El sistema es capaz de predecir los efectos de los tratamientos en el cerebro de un paciente y ofrecer una visualización de las consecuencias previstas para el resultado cognitivo de un tratamiento determinado. El sistema puede realizar una simulación de una intervención quirúrgica para permitir al cirujano determinar el resultado cognitivo esperado de un paciente para un plan quirúrgico determinado, antes de la intervención o durante la misma. El sistema puede combinar datos de diferentes flujos de datos en una fuente de datos común, y utilizar los diversos flujos de datos juntos para modelar los resultados.
En un aspecto, el sistema puede incluir una aplicación autónoma de cliente capaz de adquirir datos a través de grabaciones de audio/vídeo e interacciones del usuario. Estos datos son un reflejo de la interacción del paciente con respecto a un conjunto de pruebas predefinidas (en la aplicación autónoma de cliente) que miden diferentes habilidades cognitivas que se consideran pertinentes para identificar la activación de diferentes regiones del cerebro. Una vez recogidos los datos de múltiples fuentes, la aplicación autónoma de cliente envía los datos sin procesar a un almacenamiento (por ejemplo, un consorcio de datos) a través de una red. Un dispositivo informático (como un servidor en segundo plano) transforma los datos sin procesar obtenidos del consorcio de datos en un conjunto de datos consolidados y estructurados que permite el proceso de análisis predictivo. Uno o más modelos (como el aprendizaje automático, el aprendizaje profundo o los modelos estadísticos descritos posteriormente con más detalle) del sistema reciben el conjunto de datos vectorizados (o variables predictoras) y generan (basándose en los registros del paciente y en los registros de otros pacientes con problemas cognitivos similares), para la región del cerebro, un valor de predicción de un efecto de un tratamiento en esa región del cerebro. El servidor en segundo plano genera una representación visual del cerebro del paciente utilizando los valores de predicción de las distintas regiones. El servidor en segundo plano devuelve las predicciones a la aplicación autónoma de cliente a través de la red. Por ejemplo, la visualización puede indicar regiones del cerebro del paciente que potencialmente podrían extirparse durante una operación quirúrgica o cuya extirpación es segura (o relativamente segura) durante una operación quirúrgica. En este ejemplo, dicha determinación puede realizarse cuando un valor de predicción satisface un umbral. En este ejemplo, el valor de predicción puede indicar una probabilidad de que haya efectos adversos en la funcionalidad de un paciente para un comportamiento o combinación de comportamientos (por ejemplo, comportamiento del habla, comportamiento motor, etc.).
En algunas implementaciones, el sistema (por ejemplo, el servidor en segundo plano) entrena el análisis predictivo basándose en los datos recopilados de otros pacientes, como los datos del consorcio de datos. Por ejemplo, el sistema (o instancias del sistema) recoge datos de distintos pacientes. El sistema organiza esos datos (por ejemplo, en el consorcio de datos) y los configura como entradas para los modelos predictivos de forma que se pueda realizar una predicción para el paciente actual. Generalmente, el consorcio de datos es demasiado grande para almacenarlo en la aplicación local del sistema, por lo que parte o todo el procesamiento de análisis predictivo puede descargarse en la nube. El dispositivo local del sistema puede recopilar datos adicionales del paciente, actualizar los cálculos en la nube y mostrar los resultados de esos cálculos no locales al proveedor de servicios médicos y/o al paciente.
Además, el sistema tiene ventajas prácticas. El sistema puede ser móvil y ocupar poco espacio en lo que suele ser un quirófano u habitación de hospital del paciente abarrotados. Es posible acceder a los datos y a la información de los pacientes, así como ejecutar simulaciones mediante una interfaz basada en web que no requiere la instalación de la aplicación local. Además, la aplicación autónoma de cliente también puede mostrar en una pantalla de panel de control el resultado del modelo de visualización que procede del servidor en segundo plano. El sistema puede reposicionarse en el entorno cambiante del quirófano, así como ser compatible en diferentes quirófanos, salas de hospital, etc. La interfaz del sistema con el paciente (monitor, micrófonos, cámara de vídeo, etc.) se adapta en tiempo real a la ergonomía variable del paciente a medida que avanza la operación, incluidos los cambios de posición de la mesa de operaciones a lo largo de la intervención. El sistema puede acomodar a los pacientes en distintas posiciones sobre la mesa (por ejemplo, tumbados de lado, en decúbito supino) y así sucesivamente (por ejemplo, en función de la ubicación de una lesión cerebral).
Además, el software de la aplicación del dispositivo cliente es flexible en su funcionamiento para permitir el ajuste en línea de la velocidad de las pruebas. El sistema permite a un proveedor cambiar entre diferentes paradigmas experimentales sobre la marcha (por ejemplo, durante el tratamiento), y poder ajustar todos los aspectos de la presentación del estímulo (por ejemplo, duración, intensidad), así como retroalimentación de audio y vídeo al proveedor sobre el rendimiento del paciente. El sistema está configurado para realizar una marca de tiempo automáticamente y registrar temporalmente todos los flujos de datos para permitir tanto el análisis cuantitativo fuera de línea después del caso como la integración en tiempo real de los datos generados durante el caso actual (al servicio del análisis predictivo en tiempo real). Esto sirve tanto para proporcionar nueva información que sea clínicamente procesable durante el procedimiento como para apoyar la investigación científica basada en los datos generados durante el mapeo de estimulación eléctrica. El sistema puede enviar estos datos (anonimizados) a un consorcio de datos para almacenar, entrenar y probar modelos en todas las instancias del sistema, mejorando los resultados de los pacientes a medida que se proporcionan más datos para entrenar los modelos.
En un aspecto, el sistema incluye al menos un sensor configurado para generar datos de sensor que representan un comportamiento de al menos una región del cerebro del paciente; un almacenamiento de datos que almacena datos de mapeo que mapea un valor de predicción a la al menos una región del cerebro. El valor de predicción es indicativo de un efecto sobre el comportamiento del paciente en respuesta a un tratamiento de al menos una región del cerebro del paciente, estando los datos de mapeo indexados a un identificador de paciente. El sistema incluye al menos un dispositivo de procesamiento configurado para recibir los datos de sensor desde el al menos un sensor. El al menos un dispositivo de procesamiento está configurado para realizar operaciones que incluyen recuperar los datos de mapeo indexados al identificador del paciente; recibir, en respuesta a una aplicación de una estimulación a la al menos una región del cerebro, datos de sensor que representan el comportamiento de la al menos una región del cerebro. Las operaciones incluyen la ejecución de un modelo que actualiza, basándose en los datos de sensor, el valor de predicción para la al menos una región del cerebro. Las operaciones incluyen la actualización, en respuesta a la ejecución del modelo, de los datos de mapeo mediante la inclusión del valor de predicción actualizado en los datos de mapeo. Las operaciones incluyen la emisión de una representación visual de los datos de mapeo actualizados, incluido el valor de predicción actualizado.
En algunas implementaciones, los datos de mapeo incluyen, para cada región del cerebro que incluye la al menos una región, un vector de características que representa al menos una característica que tiene un valor, siendo el valor de predicción actualizado una función del valor de la al menos una característica. En algunas implementaciones, el vector de características representa una pluralidad de características, cada una con un valor, y el valor de predicción actualizado es una función de cada valor de la pluralidad de características.
En algunas implementaciones, el valor de predicción actualizado es una función de uno o más primeros valores de características respectivas representadas por un primer vector de características de una primera región que incluye la región y uno o más segundos valores de características respectivas representadas por un segundo vector de características de una segunda región vecina a la primera región.
En algunas implementaciones, la al menos una característica representa la actividad de imagen por resonancia magnética funcional (IRMf) del cerebro. En algunas implementaciones, la al menos una característica representa una conectividad funcional de la región del cerebro con un centro de lenguaje central del cerebro. En algunas implementaciones, la al menos una característica representa la conectividad estructural de la región del cerebro con un centro de lenguaje central del cerebro. En algunas implementaciones, la al menos una característica representa un rendimiento conductual del paciente cuando la región del cerebro se estimula con mapeo de estimulación eléctrica directa. En algunas implementaciones, la al menos una característica es común a todas las regiones del cerebro del paciente, y donde la al menos una característica representa uno de las características demográficas del paciente, un tipo de tumor, un nivel preoperatorio de una tarea cognitiva o una combinación de las mismas.
En algunas implementaciones, los datos de sensor comprenden uno o más de los datos de audio, datos de electroencefalograma (EEG), datos de vídeo o una combinación de los mismos. En algunas implementaciones, los datos de audio comprenden datos de voz del paciente, datos de voz de un proveedor de servicios médicos o una combinación de los mismos. En algunas implementaciones, los datos de vídeo comprenden al menos dos flujos de vídeo grabados simultáneamente. En algunas implementaciones, el modelo está configurado para permitir que el al menos un dispositivo de procesamiento ejecute el modelo y actualice los datos de mapeo en tiempo real durante una operación quirúrgica basándose en los datos de sensor recibidos durante la operación quirúrgica. En algunas implementaciones, la al menos una región del cerebro corresponde a un vóxel de una imagen de tomografía de resonancia magnética (IRM).
En algunas implementaciones, la representación visual comprende una imagen tridimensional del cerebro del paciente que incluye una indicación de al menos una región objetivo del cerebro para la extirpación. En algunas implementaciones, las operaciones incluyen recuperar datos preoperatorios asociados con el identificador del paciente, representando los datos preoperatorios un estado del cerebro del paciente para la al menos una región, antes de un tratamiento, donde la ejecución del modelo se basa en los datos preoperatorios. En algunas implementaciones, los datos preoperatorios comprenden un modelo de la vasculatura del cerebro, y la ejecución del modelo comprende la actualización del valor de predicción que responde a la recepción de datos de sensor para actualizar el modelo de la vasculatura del cerebro.
En algunas implementaciones, el efecto sobre el comportamiento del paciente que responde al tratamiento de la al menos una región del cerebro comprende una estimación de un déficit de actividad después del tratamiento para esa región del cerebro.
En algunas implementaciones, la representación visual está configurada para su transmisión a un proveedor de servicios médicos remoto durante una operación quirúrgica.
En algunas implementaciones, el tratamiento comprende la extirpación quirúrgica de al menos una región del cerebro.
En algunas implementaciones, la aplicación de la estimulación a la región del cerebro comprende la administración de un fármaco al paciente, la aplicación de una señal eléctrica al paciente, o una combinación de las mismas.
En un aspecto no reivindicado, un procedimiento para generar predicciones de resultados cognitivos en pacientes incluye recibir datos de sensor que representan un comportamiento de al menos una región del cerebro del paciente; recuperar datos de mapeo que mapean un valor de predicción a la al menos una región del cerebro, siendo el valor de predicción indicativo de un efecto sobre un comportamiento del paciente en respuesta a un tratamiento de la al menos una región del cerebro del paciente, estando indexados los datos de mapeo a un identificador de paciente; y recibir, en respuesta a la aplicación de una estimulación en la al menos una región del cerebro, datos de sensor que representen el comportamiento de al menos una región del cerebro; ejecutar un modelo que actualice, basándose en los datos de sensor, el valor de predicción para la al menos una región del cerebro; actualizar, en respuesta a la ejecución del modelo, los datos de mapeo incluyendo el valor de predicción actualizado en los datos de mapeo; y emitir una representación visual de los datos de mapeo actualizados que incluya el valor de predicción actualizado.
En un aspecto, uno o más medios legibles por ordenador no transitorios almacenan instrucciones que, cuando se ejecutan mediante uno o más dispositivos de procesamiento, están configurados para hacer que el uno o más dispositivos de procesamiento realicen operaciones que incluyen recibir datos de sensor que representan un comportamiento de al menos una región del cerebro del paciente; recuperar datos de mapeo que mapean un valor de predicción a la al menos una región del cerebro, siendo el valor de predicción indicativo de un efecto sobre un comportamiento del paciente en respuesta a un tratamiento de la al menos una región del cerebro del paciente, estando indexados los datos de mapeo a un identificador de paciente; y recibir, en respuesta a la aplicación de una estimulación en la al menos una región del cerebro, datos de sensor que representen el comportamiento de al menos una región del cerebro; ejecutar un modelo que actualice, basándose en los datos de sensor, el valor de predicción para la al menos una región del cerebro; actualizar, en respuesta a la ejecución del modelo, los datos de mapeo incluyendo el valor de predicción actualizado en los datos de mapeo; y emitir una representación visual de los datos de mapeo actualizados que incluya el valor de predicción actualizado.
Los detalles de una o más realizaciones se exponen en los dibujos adjuntos y en la descripción siguiente. Otras características y ventajas serán evidentes a partir de la descripción y los dibujos, así como de las reivindicaciones.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
La figura 1 es un diagrama de bloques de un ejemplo de un entorno informático para una aplicación autónoma cliente, y el servidor en segundo plano configurado para emitir una representación visual del cerebro de un paciente.
La figura 2 es un diagrama de bloques de la aplicación autónoma cliente configurada para emitir una representación visual del cerebro de un paciente basada en el modelo creado en el servidor en segundo plano.
La figura 3 es un diagrama de bloques del servidor en segundo plano configurado para emitir una representación visual del cerebro.
La figura 4 es una representación en bloques del módulo de preprocesamiento de datos que forma parte del servidor en segundo plano.
La figura 5 es un diagrama de bloques que muestra todos los pasos secuenciales seguidos por los diferentes flujos de datos.
La figura 6 es un diagrama de bloques que muestra todos los pasos seguidos por los modelos de entrenamiento.
La figura 7 es un diagrama de bloques que muestra el módulo final del servidor en segundo plano.
La figura 8 es un diagrama de bloques de la caja de hardware externa para controlar y realizar una marca de tiempo del estímulo de un fotodiodo.
La figura 9 es una imagen de ejemplo de una configuración de hardware del entorno informático de la figura 1.
La figura 10 es una interfaz de usuario de ejemplo para el sistema de visualización de mapeo de las figuras 1 y 2.
La figura 11 muestra un diagrama de flujo que incluye un proceso de ejemplo para emitir una representación visual del cerebro de un paciente por el sistema de visualización de mapeo de las figuras 1 y 2.
La figura 12 es un diagrama de un sistema informático de ejemplo.
DESCRIPCIÓN DETALLADA
La figura 1 es un diagrama de bloques de un ejemplo de un entorno informático 100 para un sistema de procesamiento de datos 300 (por ejemplo, un servidor en segundo plano) configurado para generar una representación visual del cerebro de un paciente y el dispositivo cliente anfitrión 110 que aloja una aplicación autónoma 200 para recopilar datos y mostrar esa visualización para su emisión en una interfaz de usuario (como un panel de control del paciente). El dispositivo cliente anfitrión 110 está configurado para interactuar a través de una red de área local 125 y una red de área amplia 120 con otros elementos de hardware del entorno 100 para formar un sistema de procesamiento de datos. El sistema está configurado para medir datos sobre el cerebro de un paciente y predecir los efectos en el paciente de uno o más tratamientos del cerebro, como, por ejemplo, mapeo de estimulación eléctrica, craneotomía, etc. Más concretamente, la aplicación autónoma cliente 200 está configurada para recopilar y recibir datos (como datos preoperatorios) sobre una o más regiones del cerebro del paciente a partir de los sensores del sistema.
Estos diferentes flujos de datos se almacenan en el almacenamiento local 206 de la aplicación autónoma 200 para su posterior procesamiento. Generalmente, antes del preprocesamiento de los datos, la aplicación autónoma de cliente 200 anonimiza los datos limpiando y eliminando parte de los metadatos que corresponden a información personal identificable (PII). Este proceso también afecta a las imágenes de pacientes en las que se puede desvelar la identidad del sujeto. Para cumplir con la Información Sanitaria Protegida definida por la HIPAA, el proceso de anonimización afecta a las siguientes categorías: 1. Nombres; 2. Ubicaciones: Todas las subdivisiones geográficas menores que un estado, incluida la dirección de la calle, la ciudad, el condado, el distrito, el código postal y sus geocódigos equivalentes, excepto los tres dígitos iniciales de un código postal si la región correspondiente contiene más de 20.000 personas; 3. Fechas: (i) Todos los elementos de fechas (excepto el año) para fechas directamente relacionadas con un individuo, incluidas la fecha de nacimiento, la fecha de admisión, la fecha de alta y la fecha de defunción. (ii) Todas las edades superiores a 89 años y todos los elementos de fechas (incluido el año) que indiquen dicha edad; 4. Números de teléfono; 5. Números de fax; 6. Direcciones de correo electrónico; 7. Números de la seguridad social; 8. Números de registros médicos; 9. Número de beneficiarios del plan de salud; 10. Números de cuenta; 11. Números de certificados/matrículas; 12. Identificadores y números de serie de vehículos, incluidos los números de matrícula; 13. Identificadores de dispositivo y números de serie; 14. Localizadores universales de recursos web (URL); 15. Números de dirección de protocolo de internet (IP).
Una vez anonimizados los datos, la aplicación autónoma cliente enviará una señal al módulo de carga para que envíe los datos a través de la red 120 al consorcio de datos 130. A continuación, el servidor en segundo plano 600 recibirá una notificación de que tiene que realizar una consulta al consorcio de datos 130, para que pueda recopilar diferentes flujos de datos anonimizados que se filtrarán en función de diferentes aspectos, como la región de interés del cerebro del paciente y de otros pacientes. Todos estos datos se preprocesarán, para disponer de un conjunto de datos limpio y coherente que, finalmente, se utilizará para generar los modelos con los que realizar las predicciones.
Como parte del módulo de entrenamiento de modelos, el sistema transforma los datos en datos de características aplicando un proceso de vectorización de características. Uno o más modelos (como los modelos de aprendizaje automático que se describen con más detalle posteriormente) del sistema reciben los datos vectorizados de características y generan, para (a) región(es) pertinente(s) del cerebro, un valor de predicción de un efecto de un tratamiento en esa región del cerebro. El servidor en segundo plano 300 genera una representación visual del cerebro del paciente utilizando los valores de predicción de las distintas regiones. Por ejemplo, la visualización puede indicar regiones del cerebro del paciente que deben ser extirpadas durante una operación quirúrgica o que es seguro extirparlas durante una operación quirúrgica. En este ejemplo, dicha determinación puede realizarse cuando un valor de predicción satisface un umbral. El umbral puede definirse, en parte, basándose en datos históricos de diferentes pacientes que se recuperaron con éxito de procedimientos médicos similares. En este ejemplo, el valor de predicción puede indicar una probabilidad de que haya efectos adversos en la funcionalidad de un paciente para un comportamiento o combinación de comportamientos (por ejemplo, comportamiento del habla, comportamiento motor, etc.). Cuando se utiliza en un entorno intraoperatorio, la visualización en 3D se registra y tiene la misma orientación que el cerebro del paciente en la mesa de operaciones.
En un aspecto, la visualización muestra regiones del cerebro con una representación de los valores de predicción. Por ejemplo, la visualización puede incluir una representación tridimensional (3D) del cerebro. Los valores de predicción para una o más regiones del cerebro pueden representarse como un mapa de calor superpuesto a la representación del cerebro, una salida numérica, la identificación de una región u otras representaciones similares. En algunas implementaciones, la visualización puede incluir una lista de regiones candidatas a tratamiento basada en los valores de predicción.
En un aspecto, el sistema recibe datos adicionales relacionados con el tratamiento del paciente y actualiza la visualización. El tratamiento del paciente puede incluir una operación quirúrgica en el cerebro (incluida la extirpación quirúrgica de la región), la administración de un fármaco al paciente, la aplicación de una terapia o algún otro tratamiento de este tipo. Por ejemplo, el servidor en segundo plano puede solicitar un electroencefalograma 170 anonimizado, datos de dispositivos de imagen 180, como una imagen de resonancia magnética (IRM), y datos de entrada de la aplicación autónoma 200, como los datos recibidos a través de una interfaz de usuario (por ejemplo, la interfaz 1000 de la figura 10) de la aplicación autónoma cliente 200. A continuación se describen con más detalle cada uno de estos componentes. Cuando se reciben los datos adicionales, el sistema de procesamiento de datos 300 puede generar valores de predicción actualizados para la una o más regiones del cerebro y posteriormente actualizar la visualización.
La aplicación 200 también recibe datos que indican la ubicación de la estimulación eléctrica para un ensayo determinado. La ubicación se asocia a la consecuencia conductual de esa estimulación. Generalmente, la ubicación de la estimulación se proporciona mediante, en el caso de uso intraoperatorio, conectividad/interacciones con sistemas de navegación craneal ya presentes en todos los quirófanos. Por lo general, la ubicación de la estimulación se proporciona, en el caso de las pruebas en el punto de atención de pacientes epilépticos con electrodos implantados, mediante imágenes previas que han sido procesadas (TAC y/o IRM).
En un aspecto, el sistema de procesamiento de datos 300 está configurado para enviar actualizaciones sobre la visualización durante el tratamiento (por ejemplo, cirugía, mapeo cognitivo en el punto de atención, terapia con fármacos, tratamiento con radiación, ablación con láser, etc.) del paciente a la aplicación autónoma cliente 200. El sistema de procesamiento de datos 300 actualiza los valores de predicción asignados a las regiones del cerebro en respuesta a la recepción de datos adicionales (como datos operativos) sobre una o más regiones del cerebro. Por ejemplo, durante una operación quirúrgica en el cerebro del paciente, la aplicación 200 recibe datos de sensor tales como una o más cámaras 140, uno o más micrófonos 150, uno o más estimuladores eléctricos 160, etcétera. A medida que se reciben los datos de los sensores (tras ser anonimizados y cargados en el consorcio de datos 130), la aplicación de servidor en segundo plano 300 transforma los datos recibidos en datos de características y ejecuta el modelo o modelos en los datos de características. El conjunto de modelos aplicados a los nuevos datos se basa en modelos previamente entrenados que han sido desarrollados, evaluados y probados por un grupo de expertos en neurociencia. Este grupo de expertos incluye investigadores, analistas, neurocirujanos, psicólogos, psicometristas, neurocientíficos y otros expertos en la materia. El sistema de procesamiento de datos 300 actualiza los valores de predicción de los efectos del tratamiento en la región del cerebro del paciente utilizando las salidas de los modelos a partir de los datos de características operativas basados en los datos recibidos de la aplicación 200. Por ejemplo, durante una operación quirúrgica, un cirujano podría estimular regiones del cerebro del paciente utilizando el estimulador 160 y registrar una respuesta del paciente. La respuesta puede indicar una función de esa región. Por ejemplo, la respuesta podría indicar que la región del cerebro del paciente es una región central del lenguaje. Los datos de respuesta recibidos del paciente (por ejemplo, datos del habla) se transforman en datos de características (junto con el correspondiente conjunto de datos de otras fuentes de datos) que se introducen en un modelo para actualizar el valor de predicción de esa región. Para una operación quirúrgica, el valor de predicción puede ser una estimación de un déficit del paciente en respuesta a la extirpación de esa región del cerebro. La forma en que los datos de los sensores son adquiridos por la aplicación cliente 200 se describe con más detalle con respecto a la figura 2. Además, la forma en que los datos son procesados por el servidor en segundo plano 300 se describe con más detalle con respecto a la figura 3.
En algunas implementaciones, el entorno 100 incluye un entorno quirúrgico, como un quirófano. En algunas implementaciones, el entorno 100 incluye un quirófano y una o más ubicaciones diferentes alejadas del quirófano, como diferentes salas de un centro de tratamiento, hospital, laboratorio de investigación, empresa privada, etc. En algunas implementaciones, el entorno es la habitación de hospital de un paciente o un centro de pruebas ambulatorias. En algunas implementaciones, el sistema, incluyendo la aplicación 200 y el dispositivo cliente 110, ocupan poco espacio, lo que es adecuado para un entorno operativo. El sistema también es adecuado para la adaptación en tiempo real a los cambios ergonómicos de un paciente a medida que avanza una operación o cambia la posición del paciente en una cama. Los detalles de la configuración física de los elementos de hardware del sistema se describen en relación con la figura 9.
La aplicación cliente 200 está configurada para comunicarse con un servidor en segundo plano a través de la red WAN 120. Generalmente, el dispositivo cliente 110 comprende un dispositivo informático que está configurado para recibir entradas (por ejemplo, a través de una interfaz de usuario) de un usuario para interactuar con la aplicación 200. En algunas implementaciones, el dispositivo cliente 110 y el sistema de procesamiento de datos 300 son sistemas informáticos separados (por ejemplo, un sistema cliente-servidor o un sistema basado en la nube). En algunas implementaciones, el dispositivo cliente 110, la aplicación cliente 200 y el sistema de procesamiento de datos 300 pueden incorporarse en un único sistema informático.
La aplicación cliente 200 puede funcionar como un dispositivo frontal para acceder a la aplicación servidor en segundo plano 300 en una relación cliente-servidor. Por ejemplo, un proveedor de servicios médicos (u otro usuario) puede acceder a la aplicación en segundo plano 300 a través de la interfaz de usuario de la aplicación cliente 200 durante el tratamiento (por ejemplo, una operación quirúrgica). En algunas implementaciones, la aplicación cliente 200 puede instalarse para su ejecución en el dispositivo cliente 110 que está configurado para interactuar con el sistema de procesamiento de datos 300 y/o el almacenamiento de datos 130. En algunas implementaciones, el dispositivo cliente 110 puede acceder a un portal web que permite al usuario introducir credenciales de inicio de sesión para acceder a la aplicación cliente 200 o al almacenamiento de datos 130. La aplicación cliente 200 está configurada para enviar datos al almacenamiento de datos 130 cuando hay nuevos archivos disponibles, como cuando un módulo de notificación/mensajería indica que hay archivos locales en espera de transmisión al almacenamiento de datos 130, o hay valores predictivos actualizados, materiales de prueba, actualizaciones de software o cambios en el protocolo de las pruebas que deben devolverse a la aplicación cliente 200.
El sistema incluye un almacenamiento de datos 130 que es accesible por los otros dispositivos (como el dispositivo cliente 110 y la aplicación 200) a través de la red WAN 120. El almacenamiento de datos 130 está configurado para almacenar datos que se utilizan para generar la visualización del cerebro del paciente o para entrenar y probar modelos basados en pacientes anteriores estudiados y utilizados para generar la visualización del análisis predictivo. A cada paciente se le asigna un perfil que se guarda en el almacenamiento de datos 130. El perfil puede indexarse a un identificador único de paciente. El perfil puede incluir los datos (por ejemplo, datos de sensor) medidos del paciente. A medida que se miden datos de sensor adicionales para el paciente (por ejemplo, se realizan IRM o pruebas cognitivas adicionales, etc.), los datos del perfil del paciente se actualizan y pueden ampliarse según sea necesario, lo que hace que el sistema de almacenamiento sea lo suficientemente flexible como para adaptarse a diferentes condiciones en función de la disponibilidad de datos del paciente. La aplicación 200 puede entonces actualizar la visualización para el paciente recibiendo los resultados procedentes de los modelos del servidor en segundo plano 300 aplicados a los datos adicionales del sensor. Los modelos pueden entrenarse o actualizarse continuamente mediante datos recibidos del paciente, así como de otros pacientes (en el pasado, o contemporáneamente en otros centros). En algunas implementaciones, los modelos pueden actualizarse utilizando los datos recibidos de otros pacientes. En otras implementaciones, los modelos se basan en conjuntos de datos de un paciente específico. Los modelos se describen con más detalle en las figuras 6 a 8. En algunas implementaciones, el almacenamiento de datos 130 está configurado para almacenar los datos cargados "tal cual", en el formato respectivo. Sin embargo, el almacenamiento de datos 130 puede configurarse para almacenar datos de diferentes maneras dependiendo del formato de los datos. Por ejemplo, los archivos multimedia pueden almacenarse en un sistema de archivos jerárquico, mientras que los datos de IRM se almacenan en un formato de estructura de datos de imágenes cerebrales (BIDS). En algunas implementaciones, el almacenamiento de datos 130 incluye una base de datos no relacional para consultas rápidas y análisis en tiempo real. En algunas implementaciones, el almacenamiento de datos 130 es un almacenamiento de datos basado en la nube.
El almacenamiento de datos 130 está configurado para almacenar datos relacionados con muchos pacientes para proporcionar una biblioteca de datos que es accesible por la aplicación 200 y el dispositivo cliente 110 a través de una aplicación de navegador web. Por ejemplo, el almacenamiento de datos 130 puede almacenar datos preoperatorios de diferentes proveedores de servicios médicos u otras fuentes de datos. En algunas implementaciones, el almacenamiento de datos 130 es un almacenamiento de datos en segundo plano, y forma una relación servidor-cliente con la aplicación 200 y/o el servidor de aplicaciones en segundo plano 300. En algunas implementaciones, el almacenamiento de datos 130 está configurado para interactuar con muchas instancias del sistema, incluida la aplicación cliente 200, y almacenar datos en una ubicación común. Generalmente, un módulo de anonimización anonimiza los datos del paciente almacenados en el almacenamiento de datos 130 si los datos van a ser accesibles por sistemas distintos de los relacionados con el paciente. Por ejemplo, si se utilizan datos de pacientes para entrenar un modelo, primero se anonimizan los datos antes de guardarlos en el almacenamiento de datos 130. La comunicación entre el almacenamiento de datos 130 y otros dispositivos del sistema se realiza mediante protocolos seguros y encriptados. De este modo, el almacenamiento de datos 130 forma un consorcio de datos que es un recurso común para generar visualizaciones para una pluralidad de pacientes por parte de una pluralidad de instancias de la aplicación cliente 200.
El almacenamiento de datos 130 está optimizado para una rápida recuperación de los datos, de modo que la aplicación 200 es capaz de actualizar la visualización del cerebro del paciente en tiempo real durante el tratamiento. En algunas implementaciones, el almacenamiento de datos 130 puede configurarse para entregar todos los datos necesarios para la generación de la visualización para su almacenamiento local por la aplicación 200 antes del tratamiento. En algunas implementaciones, el almacenamiento de datos 130 puede proporcionar continuamente datos a la aplicación en segundo plano 300 a petición durante el tratamiento del paciente.
La figura 2 es un diagrama de bloques de una aplicación 200 de ejemplo configurada para emitir una representación visual del cerebro de un paciente. La aplicación 200 está configurada para recibir datos de varias fuentes de datos (por ejemplo, flujos de datos) antes, durante y/o después del tratamiento del paciente. La aplicación 200 está configurada para recibir y procesar datos de forma continua (o casi continua) a medida que se reciben datos de los diversos flujos de datos durante una prueba del paciente o durante el tratamiento del paciente. Por ejemplo, los datos de audio 212 pueden grabarse continuamente durante una prueba cognitiva del paciente, almacenarse en la memoria intermedia 214 si es necesario, codificarse/decodificarse, marcarse con una marca de tiempo y almacenarse en un almacenamiento de datos 206 o procesarse por un módulo de procesamiento, como un módulo de interpretación semántica 208 para el reconocimiento del habla, un módulo de registro 234 para el registro de IRM cerebral, etcétera. En un aspecto, la aplicación 200, junto con la aplicación en segundo plano 300, recibe los datos de los diversos flujos de datos, asocia los datos a una región del cerebro del paciente (o a todo el cerebro del paciente), integra/registra datos extendidos temporalmente con otros datos extendidos temporalmente (por ejemplo, vídeo con audio, audio con electrocorticograma), procesa los datos utilizando uno o más modelos (como aprendizaje automático, aprendizaje profundo o modelos estadísticos), genera valores de predicción de un efecto del tratamiento en la región asociada y genera una visualización basada en los valores de predicción. Los flujos de datos pueden ser procesados en paralelo por varios módulos como se muestra en la figura 2. En su caso, los procesos de procesamiento de datos pueden canalizarse.
A continuación se describen varios ejemplos de flujos de datos. Esta lista es más ilustrativa que exhaustiva, ya que pueden añadirse otros flujos de datos para aumentar la precisión de los valores de predicción generados por los distintos modelos, y mostrarse e integrarse en la visualización o en otro formato. La aplicación 200 puede incluir una interfaz de programación de aplicaciones (API) configurada para interactuar con los registros médicos electrónicos (EMR) para adquirir notas clínicas y escáneres cerebrales de los sistemas EMR. La aplicación 200 está configurada para proporcionar una integración tridimensional de múltiples flujos de datos, incluyendo: datos de tomografía axial computarizada (TAC); datos de resonancia magnética funcional (IRMf) en reposo; datos de IRM funcional basada en tareas utilizando (por ejemplo) tareas como producción del habla, comprensión del habla, repetición del habla, lectura, denominación de imágenes, tareas motoras (mover los dedos de las manos y de los pies) u otros paradigmas (procesamiento musical, aritmética, procesamiento visual, etc.), respuestas de interfaz de usuario (pulsación de botones, movimientos oculares, perfiles cinemáticos de acciones de alcance, etc.), imágenes de tensor de difusión (DTI); imágenes de espectro de difusión (DSI); datos de localización de tumores/lesiones permanentes (por ejemplo, en el formato de una máscara); puntos de estimulación magnética transcraneal (EMT) y efectos conductuales asociados; angiografía de la vasculatura cerebral; datos de magnetoencefalografía (MEG); datos de electrocorticograma (ECoG); coordenadas de mapeo de estimulación eléctrica transmitidas desde un sistema de navegación craneal y respuestas conductuales asociadas; datos de ubicación de electrodos para cualquier mapeo de estimulación eléctrica (por ejemplo, como en el EEG estereoscópico, rejillas o tiras para el registro y la estimulación del cerebro); forma del cráneo; mapas de grosor cortical; atlas anatómicos en diversos espacios estereotácticos; coordenadas del espacio cerebral del Instituto Neurológico de Montreal (MNI); coordenadas del espacio de Talairach; coordenadas del espacio nativo; todas las matrices de transformación pertinentes entre diferentes espacios, y cualquier combinación de las mismas.
Además de los flujos de datos descritos anteriormente, la aplicación 200 puede interconectarse con otros sensores para medir datos fisiológicos sobre el paciente. La aplicación 200 puede aceptar como entrada datos continuos (como los procedentes de un oculómetro, la monitorización fisiológica de la frecuencia cardíaca/respiración durante una IRM funcional, una intervención quirúrgica o una prueba en el punto de atención o sistemas de captura cinemática del movimiento de la mano/brazo/cuerpo). La aplicación 200 puede incluir un tiempo de respuesta basado en el acelerómetro. En este caso, se fija suavemente un acelerómetro a la superficie del cuello del paciente para detectar los inicios del habla en entornos ruidosos en los que pueden fallar los micrófonos. La aplicación 200 también puede incluir registros electromiográficos del cuello, la garganta, la mano, los dedos (etc.).
La aplicación 200 registra espacialmente los datos recibidos de los diversos flujos de datos descritos anteriormente en las regiones correspondientes del cerebro del paciente, alineando todos los flujos de datos en un espacio y formato comunes. En un aspecto, la aplicación 200 está configurada para exportar características de mapa 3D como escala de grises plana o escalada o color en formato Digital Imaging and Communications in Medicine (DICOM) o formato Neuroimaging Informatics Technology Initiative (NIFTI) para su entrada a sistemas de navegación craneal estándar utilizados durante la cirugía (por ejemplo, BrainLab, Stealth, Medtronic, Stryker, etc.) y para su entrada a sistemas de procesamiento de IRM estándar (por ejemplo, MRICron, FreeSurfer, etc.). En un aspecto, durante una operación, se puede utilizar un estimulador para aplicar una estimulación a una región del cerebro del paciente. Generalmente, la estimulación incluye una estimulación eléctrica (podría incluir un dispositivo de enfriamiento para enfriar, temporalmente, una subregión del cerebro). Se registran los datos de posición del estimulador 202. Los datos de posición pueden incluir datos de neuronavegación. Los datos de posición 202 pueden sincronizarse con la actividad mostrada por el cerebro del paciente que responde a la estimulación (como los datos del electroencefalograma (EEG)), y con las respuestas conductuales y la fenomenología del paciente en función de la estimulación. Un módulo de transformación de datos 204 recibe los datos de posición 202 y almacena los datos para su transformación a un espacio preoperatorio. Los datos transformados se envían al almacenamiento de datos 206. El almacenamiento de datos 206 puede incluirse en el consorcio de datos del almacenamiento de datos 130, descrito anteriormente, y puede mostrarse en tiempo real a través del panel de visualización de datos presente en la aplicación cliente 200.
Puede utilizarse un codificador de EEG 224 para recibir los datos de EEG. Paralelamente, los datos de EEG pueden representarse en un monitor de proveedor 236 (por ejemplo, el monitor de un cirujano). El paciente puede ser estimulado durante una o más pruebas cognitivas (por ejemplo, pruebas neuropsicológicas). La prueba puede presentarse al paciente en un monitor de paciente 238.
Un sensor de electrocorticograma (ECoG) puede proporcionar datos de ECoG 220 durante un tratamiento del paciente. Los datos de ECoG 220 se proporcionan a un módulo de datos de sensor 222 que lee los datos de ECoG y sincroniza al sincronizador de datos 230 para su inclusión con otros flujos de datos (vídeo, audio, comportamiento, parámetros de estimulación, etc.) al almacenamiento de datos 206, como se describe posteriormente.
Durante una prueba cognitiva, un tratamiento, incluida la estimulación eléctrica emparejada con una tarea cognitiva (o una combinación de ambas), el paciente y/o el proveedor de servicios médicos pueden ser monitorizados con las cámaras 140, los micrófonos 150, o ambos. Los datos de vídeo 210 y los datos de audio se graban y, si es necesario, se almacenan en una memoria intermedia de entrada 214. La memoria intermedia 214 puede servir para varios propósitos, tales como sincronizar datos, almacenar datos hasta que un proceso de procesamiento de datos esté listo para recibir los datos, y así sucesivamente. Los datos de vídeo 210 y/o los datos de audio 212 pueden ser procesados por un codificador/decodificador de audio/visual 232 antes de ser sincronizados por un sincronizador de datos 230. Los datos de audio 212 y los datos de vídeo 210 son procesados por un procesador de flujo 228, que está configurado para procesar los datos de audio 212 y los datos de vídeo 210 de forma continua o casi continua. Adicional o alternativamente, los datos de audio 212 y los datos de vídeo 210 pueden ser enviados a uno o más módulos de procesamiento para ser procesados en fragmentos a nivel de ensayo, y utilizados de acuerdo con modelos entrenados. Por ejemplo, un módulo de interpretación semántica 208 está configurado para extraer información semántica de las señales de habla de los datos de audio 212 o de los datos visuales de los datos de vídeo 210. El módulo de interpretación semántica 208 puede incluir un módulo de aprendizaje automático que es un modelo preentrenado (entrenado basándose en datos de pacientes del almacenamiento de datos 130). Para ilustrar, este modelo preentrenado puede ser el producto de uno o más de los modelos de aprendizaje automático/aprendizaje profundo que fueron entrenados por el módulo de aplicación en segundo plano correspondiente. En este caso, el módulo de entrenamiento de modelos 314. En otro ejemplo, los datos de audio 212 y los datos visuales 210 pueden enviarse a un módulo de registro 234 configurado para asociar respuestas en los datos de audio 212 o los datos de vídeo 210 con porciones de una IRM (por ejemplo, con regiones del cerebro del paciente que fueron estimuladas o grabadas coincidiendo con esos puntos temporales de vídeo/audio).
En un aspecto, se adquiere una grabación de audio continua del paciente a lo largo de toda una sesión de pruebas. La sesión de prueba puede tener lugar en un escáner de IRM, en una consulta antes o después de una intervención quirúrgica, en la cama de un hospital antes o después de una intervención quirúrgica, en un quirófano (durante una intervención despierto) o en otro lugar. Del mismo modo, se puede realizar una grabación de vídeo continua con dos o más cámaras. La interfaz de proveedor 236 ofrece al proveedor de servicios médicos la posibilidad de alternar entre audio y vídeo (activar/desactivar audio o vídeo independientemente de los otros flujos), como se describe a continuación. Un fotodiodo está conectado al monitor 238 de visualización del paciente. El fotodiodo transmite datos al módulo de datos de sensor 222 y al sincronizador de datos 230, que es el módulo que realiza las marcas de tiempo de los estímulos de inicio (EEG 224 como ejemplo). Esto proporciona una medida objetiva del momento en que se presentó el estímulo, que se utiliza para definir los tiempos de inicio del ensayo y para la sincronización con cualquier flujo de datos extendido temporalmente (por ejemplo, vídeo, audio, electrocorticograma). Basándose en esos tiempos de inicio del ensayo, los flujos continuos de audio/vídeo se empalman en datos a nivel de ensayo, que pueden indexarse y almacenarse en el almacenamiento de datos 206. Por ejemplo, la aplicación 200 está configurada para integrar los datos de vídeo 210, los datos de audio 212 y los datos de estímulo del monitor del proveedor 238 en un único flujo de datos indexado por ensayo.
La aplicación 200 puede configurarse para controlar cómo se aplica o presenta la estimulación al paciente. Por ejemplo, la estimulación del paciente puede incluir señales eléctricas, como se ha descrito anteriormente. En otro ejemplo, el paciente puede ser estimulado mediante la presentación de datos en un monitor de paciente 236. El monitor del paciente puede incluir una pantalla. En algunas implementaciones, el monitor de paciente puede recibir datos de entrada (por ejemplo, una pantalla sensible al tacto, como en una tableta o monitor sensible al tacto). Del mismo modo, el monitor del proveedor 236 puede ser un dispositivo interactivo, como una ordenador de tableta. El controlador de presentación de estímulos 226 puede utilizarse para sincronizar la presentación de un estímulo al paciente con uno o más flujos de datos.
Una interfaz de usuario 216 está configurada para recibir datos de entrada de uno o más de los pacientes o proveedores de servicios médicos, como un cirujano o administrador de pruebas. En algunas implementaciones, la interfaz de usuario 216 se incluye en el dispositivo cliente 110.
El monitor/interfaz del proveedor 236 proporciona uno o más controles que permiten al proveedor configurar una prueba cognitiva para un paciente, seleccionar o configurar flujos de datos, etcétera. Por ejemplo, el proveedor puede configurar una prueba, y los datos de configuración de la prueba 218 se envían al sincronizador de datos para sincronizar la prueba y los flujos de datos. El monitor/interfaz del proveedor 236 puede ser utilizado por el proveedor para modificar un módulo de puntuación (por ejemplo, una parte de los módulos 208, 234, etc.) basado en la respuesta obtenida a través del módulo de puntuación 242, en el que el proveedor puede seleccionar múltiples categorías dependiendo del tipo de tarea. Para ilustrar, las categorías pueden incluir: correcto, incorrecto, y dentro de incorrecto, error fonológico, error semántico, error gramatical, omisión, y así sucesivamente. El monitor/interfaz del proveedor 236 se describe en mayor detalle con respecto a la figura 10.
La aplicación 200 está configurada para ayudar a un proveedor de servicios médicos a diseñar y llevar a cabo una o más pruebas cognitivas de un paciente antes del tratamiento, durante el tratamiento, después del tratamiento, o cualquier combinación de los mismos. Los dispositivos y módulos de la figura 2 están configurados para recoger datos de varios flujos de datos, procesar los flujos de datos y generar una visualización en tiempo real o casi real. La visualización actualizada puede ayudar al proveedor de servicios médicos con el tratamiento del paciente o influir en cómo se realiza la prueba cognitiva en el paciente.
Al diseñar un nuevo experimento, el usuario puede definir, a través del monitor/interfaz del proveedor 236, el número de factores y los niveles de cada factor para el diseño experimental. El usuario puede seleccionar materiales experimentales de su propia elección para el experimento. Por ejemplo, una interfaz de proveedor puede permitir al proveedor arrastrar y soltar datos que representen estímulos (por ejemplo, imágenes, archivos .wav) en celdas de un diseño experimental. Los parámetros de entrada adicionales especifican los tipos de respuesta del paciente, como respuestas vocales/micrófono, selección de la casilla manual/botón, entrada escrita/terminal Wacom, movimientos oculares/seguimiento ocular, etcétera. El proveedor puede establecer la duración de cada estímulo auditivo o visual, el número de repeticiones de cada estímulo, el tiempo entre estímulos y la duración total del experimento, etc. Como otro ejemplo, el proveedor puede utilizar la aplicación cliente 200 para diseñar un orden de presentación de estimulación pseudoaleatorio o verdaderamente aleatorio para el experimento.
En un aspecto, el almacenamiento de datos 206 puede almacenar una biblioteca de configuraciones de pruebas neuropsicológicas. Un proveedor puede seleccionar una configuración de la prueba, y la aplicación 200 configura la adquisición de datos de los sensores según sea necesario basándose en la prueba neuropsicológica seleccionada. En algunas implementaciones, la biblioteca puede actualizarse con pruebas personalizables que están disponibles de forma privada para un proveedor o de forma global desde el consorcio de datos 130 a través del servidor en segundo plano 300. La aplicación 200 puede actualizar periódicamente la biblioteca de pruebas con las pruebas disponibles del consorcio de datos 130 a través del módulo de mensajería/notificación 250. Los usuarios pueden modificar las pruebas disponibles para adaptarlas a sus necesidades.
La biblioteca de pruebas puede incluir las siguientes pruebas, que representan una lista no exhaustiva. En un ejemplo, los pacientes completan las siguientes pruebas antes de una cirugía y en múltiples puntos temporales después de la cirugía (por ejemplo, 1 mes después de la cirugía, 6 meses después de la cirugía y doce meses después de la cirugía). Las pruebas pueden incluir, por ejemplo, una medida del habla espontánea (por ejemplo, imagen de robo de galletas, cuento de la Cenicienta, etc.); prueba de fluidez de categorías, en la que se producen acciones, categorías semánticas, palabras que empiezan por F, A y S; lectura y repetición de palabras (por ejemplo, sustantivos, verbos, adjetivos, series de letras no reconocidas como palabra, en función de la longitud y la frecuencia); denominación de imágenes; denominación auditiva; completar frases; pruebas visuales de nivel medio y alto, como la Batería de Reconocimiento de Objetos de Birmingham (BORB); discriminación auditiva de pares mínimos (por ejemplo, (por ejemplo, "pa" frente a "da", "ga" frente a "ta", etc.); emparejamiento de frases con imágenes, incluidas las pasivas reversibles; denominación de colores y clasificación de tonos de Farnsworth Munsell; reconocimiento de caras y pruebas de memoria, como la prueba de caras de Cambridge; pruebas de aprendizaje verbal, como la prueba de aprendizaje verbal de California; una prueba de CI, como la prueba de CI de Weshler. Aunque estas pruebas concretas se incluyen a título ilustrativo, son posibles variaciones similares de estas pruebas y diferentes combinaciones de éstas y otras similares.
En un aspecto, se puede desarrollar y guardar un protocolo de prueba de la misma manera que la prueba cognitiva. Un protocolo de prueba incluye una secuencia de pruebas a realizar en un paciente. El protocolo puede estar asociado a un tratamiento, paciente, clase de pacientes, proveedor, centro médico en particular, o ser un protocolo independiente. El protocolo puede especificar qué pruebas deben realizarse (y qué datos de sensor deben recopilarse) antes, durante y después del tratamiento del paciente para proporcionar un mapeo de funciones a regiones pertinentes del cerebro para ese paciente. Por ejemplo, cuando se registra un paciente en el sistema, a partir de la información introducida sobre la ubicación de una lesión cerebral, se sugiere una serie de pruebas neuropsicológicas como protocolo de pruebas. El proveedor puede ajustar el protocolo utilizando una plataforma basada en la web o a través de la aplicación de software local de la aplicación 200. Los cambios en el protocolo pueden realizarse en tiempo real, incluso durante la prueba.
En algunas implementaciones, el orden de los estímulos para un experimento dado se determina antes de iniciar el experimento, basándose en las aportaciones del proveedor. A continuación, la interfaz 23 6 ofrece al proveedor la posibilidad de cambiar el orden de los próximos estímulos u omitir uno de ellos mediante una interfaz sencilla en la que se muestran los próximos ensayos y un sistema de arrastrar y soltar para cambiar el orden sobre la marcha.
La aplicación 200 incluye un módulo de puntuación 242. El proveedor puede puntuar el rendimiento (por ejemplo, el comportamiento) del paciente en tiempo real a nivel de ensayo. El proveedor puede designar una respuesta como correcta, incorrecta, y si es incorrecta, la naturaleza del error como se describió anteriormente. La puntuación humana en tiempo real puede realizarse a través de la misma interfaz 236 que se utiliza para ejecutar la aplicación 200, y/o a través de una tableta. Además, el módulo de puntuación 242 incluye una interfaz que permite a la persona que puntúa revisar un vídeo integrado del paciente durante la prueba, el audio del paciente y el vídeo de lo que el paciente vio en el monitor de estímulos, indexado por número de ensayo, cuando los ensayos se han puntuado previamente (en tiempo real).
En algunas implementaciones, la puntuación se realiza mediante técnicas de colaboración masiva. Por ejemplo, la aplicación 200 puede incluir una plataforma para la puntuación del tiempo de reacción/respuesta y/o la transcripción por parte de usuarios humanos. En un ejemplo, cuando se generan datos de audio 212 que incluyen, por ejemplo, el audio del paciente nombrando una imagen o leyendo una palabra, los datos 212 se envían automáticamente a una plataforma en línea asociada con la aplicación 200. Los usuarios conectados en red pueden puntuar los datos 212 en función de su contenido (por ejemplo, generar una transcripción), medir el tiempo de respuesta y otros aspectos temporales (por ejemplo, la duración de la articulación, etc.), puntuar las respuestas o realizar otras operaciones de puntuación. Aunque algunas de estas operaciones de puntuación pueden realizarse automáticamente, los usuarios conectados en red pueden realizar la validación de los datos puntuados. En algunas implementaciones, el proveedor puede determinar qué usuarios conectados en red pueden ver los datos (por ejemplo, usuarios asociados con el proveedor, etc.), cuántos usuarios conectados en red deben validar los resultados y qué tipo de validación o puntuación se solicita. Los resultados de la puntuación en línea pueden controlarse proporcionando a los usuarios conectados en red datos de control con resultados conocidos. El rendimiento/fiabilidad de un determinado usuario conectado en red puede basarse en las respuestas a los datos de control. En este caso, el usuario conectado en red no sabe qué datos son estándar y cuáles son resultados de pruebas genuinos. Los datos de audio 212 y los datos de monitor del proveedor 326 pueden conectarse a la red 120 para que los usuarios conectados en red realicen una colaboración masiva de este modo.
La aplicación 200 puede mostrar los resultados de la prueba en un panel cognitivo de la interfaz 236. El panel cognitivo incluye una interfaz de usuario que traza (o muestra gráficamente de otro modo) el rendimiento del paciente en varios dominios (por ejemplo, lenguaje, función ejecutiva, función motora, etc.). El valor obtenido para cada dominio puede incluir una estadística de resumen ponderada para múltiples tareas. El panel cognitivo muestra el rendimiento del paciente a lo largo del tiempo y normalizado con respecto a varios grupos de comparación. Los grupos de comparación pueden incluir otros pacientes, sujetos sanos del mismo grupo demográfico (edad, sexo, condición física, etc.), etc.
La aplicación 200 está configurada para la generación automática de informes. Al final de la prueba cognitiva, la aplicación 200 organiza automáticamente los resultados de la prueba. La aplicación 200 puede organizar los resultados de varias maneras. En primer lugar, la aplicación 200 puede organizar los resultados en un gráfico que muestre los niveles de rendimiento. En segundo lugar, la aplicación 200 puede organizar los resultados utilizando una comparación con estándares normativos. La aplicación 200 puede escribir los niveles de rendimiento en un documento de texto que es una plantilla para el informe de un proveedor (por ejemplo, el neuropsicólogo clínico). El informe puede ser generado por un módulo de informes 256.
La aplicación 200 está configurada para la simulación quirúrgica. La aplicación 200 está configurada para generar una representación tridimensional del cerebro del paciente en la que pueden resecarse/extirparse "virtualmente" partes del cerebro. De este modo, la aplicación 200 permite a los médicos simular un plan quirúrgico determinado. La aplicación 200 genera los resultados cognitivos postoperatorios previstos basándose en los modelos creados y ejecutados por la aplicación del servidor en segundo plano 300. Por ejemplo, se genera un panel cognitivo proyectado para un plan quirúrgico. Para generar los resultados simulados, los distintos modelos de la aplicación del servidor en segundo plano 300 generan los valores de predicción para las regiones del cerebro como se ha descrito anteriormente.
La aplicación 200 incluye un módulo de optimización quirúrgica. El módulo de optimización quirúrgica permite a los médicos identificar un plan quirúrgico más óptimo desde el punto de vista de la optimización del panel cognitivo proyectado presente en 236.
La aplicación 200 está configurada para presentar los análisis predictivos obtenidos en el servidor en segundo plano 300. El servidor 300 genera modelos predictivos (por ejemplo, aprendizaje automático, aprendizaje profundo y predicciones basadas en estadísticas) de los resultados cognitivos después del tratamiento (por ejemplo, cirugía). Los flujos de datos recopilados para un paciente (por ejemplo, hasta el punto en el que se realiza la predicción) forman colectivamente las características utilizadas para las pruebas (con el entrenamiento de los algoritmos basado en conjuntos de datos completados previamente de otros pacientes que se han recopilado). Este proceso se describe con más detalle con respecto a las figuras 4 y 5.
La aplicación 200 está configurada para la monitorización remota en tiempo real. Por ejemplo, un individuo que se encuentra a distancia del paciente puede observar al paciente que está siendo evaluado y puede comunicarse con el proveedor durante la evaluación. Por ejemplo, un neuropsicólogo clínico podría monitorizar las pruebas de múltiples pacientes por múltiples psicometristas diferentes de esta manera. La aplicación 200 puede configurarse para permitir un diálogo en directo entre el proveedor y el observador. El observador puede ser invitado a sincronizar su panel con el panel del proveedor (por ejemplo, por un módulo de sincronización de paneles 260 conectado al monitor del proveedor 236) y comunicarse con el proveedor usando una ventana de diálogo en vivo dentro del sistema. La función de diálogo permite tanto la resolución de problemas y la asistencia técnica como la monitorización remota en tiempo real, y puede ser ejecutada por un módulo de diálogo 258 conectado al monitor del proveedor 236. De este modo, varios proveedores que utilicen varias instancias de la aplicación, como la aplicación 200a de la figura 1 en otro dispositivo cliente 110a) pueden participar en el mismo tratamiento o comunicarse durante los tratamientos de diferentes pacientes.
En un aspecto, se pueden administrar encuestas adicionales con tabletas (por ejemplo, en la sala de espera de la clínica) o a través de la interfaz web (para uso doméstico); los resultados se integran automáticamente con el panel cognitivo del paciente y, por lo tanto, se utilizan para simulaciones de tratamiento y para modelar los resultados del paciente. La aplicación 200 también permite introducir hitos quirúrgicos (por ejemplo, notas de la sesión, hora de la incisión, medicación administrada, intensidades de estimulación eléctrica, cambios en la capacidad del paciente a lo largo de la sesión, etc.). El proveedor puede registrar observaciones clínicas pertinentes y almacenarlas junto con los demás datos en el perfil del paciente. En algunas implementaciones, el proveedor puede introducir notas clínicas basadas en electrodos. Por ejemplo, la aplicación 200 puede utilizarse con pacientes con electrodos implantados sometidos a monitorización de convulsiones. El proveedor, utilizando una herramienta de integración de datos, puede seleccionar un electrodo representado en la interfaz de usuario. Aparece un cuadro de entrada de texto que permite al usuario tomar notas específicas para cada electrodo. El proveedor puede documentar, por ejemplo, que cuando se estimula el electrodo respectivo, el paciente informa que siente un sabor metálico, oye una nota musical, ve un destello de luz o hay descargas posteriores.
La aplicación 200 está configurada para conservar los datos introducidos en el sistema y garantizar que los datos de mapeo estén actualizados al modelar los resultados de los pacientes con los datos de mapeo o antes de un tratamiento. Por ejemplo, la aplicación 200 utiliza puntos de control para enviar datos y comprobar el flujo de trabajo. Cada vez que se inicializa la aplicación 200 y el ordenador central (por ejemplo, el dispositivo cliente 110) se conecta a Internet, se realiza una comprobación automática para asegurarse de que todos los datos del perfil del paciente están actualizados. Por ejemplo, se realiza una comprobación en el almacenamiento de datos 130 buscando el perfil del paciente en el consorcio de datos. Además, se incluyen puntos de control específicos. Por ejemplo, la aplicación 200 puede realizar una comprobación a medianoche del día de la cirugía para asegurarse de que los datos de cada hito en la atención de un paciente se cargan en el repositorio central del almacenamiento de datos 130.
La aplicación 200 está configurada para facilitar su uso e interoperabilidad con sistemas y dispositivos de terceros ya existentes. Por ejemplo, si el dispositivo se utiliza para controlar la presentación del estímulo durante la IRM funcional basada en tareas, un usuario puede seleccionar qué paquete de software se utilizará para el análisis (por ejemplo, AFNI, FSL, Brain Voyager, SPM, etc.) y las matrices de diseño de la temporización del experimento se emitirán en el formato adecuado. La aplicación 200 está configurada para aceptar el control con palanca de mandos de una cámara que está en un brazo articulado motorizado.
La aplicación 200 puede calibrarse antes de aceptar flujos de datos. Por ejemplo, el módulo de prueba 218 de la aplicación 200 permite a un proveedor encender un sistema de escucha de entrada para probar, calibrar y ajustar entradas (por ejemplo, ajustes de micrófono, códigos para botones en una caja de botones, etc.).
La aplicación 200 está configurada para recopilar datos sobre un paciente después de que se haya producido el tratamiento. Por ejemplo, si se ha realizado una operación quirúrgica, la aplicación 200 está configurada para integrar los datos que representan la resección en los datos de mapeo 3D del paciente y actualizar la visualización en consecuencia. La aplicación 200 puede generar un informe al final de la cirugía para enviarlo a varios miembros del equipo clínico que predice los déficits cognitivos esperados del paciente (panel cognitivo proyectado). Esto puede compararse con los resultados reales medidos del paciente a lo largo del tiempo. La realimentación obtenida de este proceso puede integrarse en los módulos de prueba/entrenamiento del servidor en segundo plano para reducir futuras discrepancias entre los resultados previstos y los observados.
La aplicación 200 también incluye un módulo de carga 248 y un módulo de mensajería 250. El módulo de mensajería 250 se comunica con el servidor en segundo plano 300. El módulo de carga 248 anonimiza los datos enviados desde el almacenamiento de datos 206 antes de cargarlos (por ejemplo, mediante un módulo de anonimización 262). El módulo de carga 258 carga los datos del paciente al consorcio de datos 130.
La figura 3 es un diagrama de bloques del servidor en segundo plano 300 que está configurado para emitir una representación visual del cerebro para su representación y visualización por el dispositivo anfitrión 110. El servidor en segundo plano 300 recibe datos del consorcio 130 y datos 302 del módulo de mensajería 250 de la aplicación 200 descrita en relación con la figura 2. Un módulo de consulta 304 puede solicitar datos del consorcio 130 según sea necesario para actualizar o generar predicciones para un paciente en tiempo real o casi real. El módulo de consulta 304 también puede solicitar los datos 308 de otros pacientes para su uso en los modelos predictivos del sistema de procesamiento de datos 300. Los datos del paciente 306 y los datos de otros pacientes 308 son preprocesados por un módulo de preprocesamiento 400, como se describe en relación con la figura 4. Los datos preprocesados se envían entonces a un módulo de análisis y transformación de datos 500, descrito en relación con la figura 5. Los datos se utilizan para desarrollar y entrenar modelos, como se describe en relación con la figura 6. Los modelos se comprueban y se validan, como se describe en relación con la figura 7. El sistema de procesamiento de datos 300 genera un módulo de visualización tridimensional (3D) 318. Los datos 320 se envían al módulo de mensajería 250 de la figura 2.
La figura 4 es una representación en bloques del módulo de preprocesamiento de datos 400 que forma parte del servidor en segundo plano 300. El módulo de preprocesamiento 400 incluye submódulos tales como limpieza de datos 404, estandarización de datos 406, 408 y 410, y un módulo de aumento/disminución del muestreo 412 para algunos registros obtenidos de un flujo de datos relacionados con la frecuencia. La normalización de datos puede incluir cualquier función que normalice los datos para su posterior análisis estadístico. Los datos recogidos por la aplicación 200, tales como los datos de EEG 402a, los datos de IRM 402b, los datos de ECoG 402c, los datos de comportamiento 402d, y cualquier otro dato recogido se envían a un módulo de limpieza de datos 404. El módulo de limpieza de datos 404 elimina el ruido de las señales (si es necesario), realiza el filtrado y la subsección, y así sucesivamente, para preparar los datos para la normalización. Los datos de imagen se normalizan en un espacio estereotáctico de imagen 406. Los registros de texto se normalizan en el módulo 408. Los registros de comportamiento se normalizan en el módulo 410. Se aumenta/disminuye el muestreo de los datos basados en la frecuencia en el módulo 412. Estos datos normalizados se envían a una salida 414 para su posterior preprocesamiento en el módulo 500 del servidor 300.
El procedimiento de preprocesamiento para imágenes médicas puede ser extenso, y depende de diferentes variables como el alcance del problema a analizar (ictus, diferentes tipos de tumor, por ejemplo). A modo de ejemplo, en general los pasos de preprocesamiento para la IRM funcional: corrección del tiempo de corte, corrección del movimiento, corrección fisiológica y eliminación de ruidos fisiológicos, corregistro, normalización, filtrado espacial, filtrado temporal, etc. Estos pasos forman parte del proceso de normalización 406.
La figura 5 es un diagrama de bloques que muestra todos los pasos secuenciales seguidos por los diferentes flujos de datos. Cada flujo de datos tiene su propio conjunto de características que se analizan con el bloque de análisis estadístico para realizar modificaciones posteriores. Al final, los datos se dividen en conjuntos de entrenamiento y de prueba. Los datos de la salida 414 se reciben en el módulo 502, y se envían al módulo 504 para su análisis estadístico, como la creación de perfiles de los datos. Los datos se normalizan en el módulo 506, se agregan en el módulo 508, se reducen en el módulo 510, se discretizan en el módulo 512, y se dividen para pruebas y entrenamiento en el módulo 514. La combinación de datos 516 se envía para desarrollar y entrenar los modelos predictivos en el módulo 600.
La figura 6 es un diagrama de bloques que muestra todos los pasos seguidos por los modelos de entrenamiento en un módulo de entrenamiento 600 del sistema de procesamiento de datos 300. La combinación de datos 516 se envía a diferentes módulos dependiendo del tipo de datos. El módulo de entrenamiento 601 es un sistema complejo que puede incluir aprendizaje automático, aprendizaje profundo y modelado estadístico. Por lo tanto, lo que sigue es un ejemplo de las posibles implementaciones que pueden atravesar los datos para generar un modelo que realice las predicciones descritas anteriormente. A modo de ilustración, los datos tabulares 602 se envían a modelos clásicos de aprendizaje automático 608, los datos multimedia 604, incluidos vídeo, audio, etc., se envían a modelos de aprendizaje profundo 610, como redes neuronales recurrentes o a una red neuronal convolucional. Los datos de texto 606 se envían a otros modelos de aprendizaje automático 612, como las redes neuronales convolucionales. Después del entrenamiento diferenciado, el sistema creará un vector a través del módulo de vectorización de características 614. Este módulo puede potencialmente combinar diferentes resultados para crear un conjunto de características por paciente, por región cerebral. A continuación, el sistema será capaz de utilizar diferentes procedimientos Ensemble para aprovechar los diferentes tipos de datos obtenidos de las etapas anteriores. En una implementación, la forma vectorizada de las características puede utilizarse en paralelo con procedimientos de ensemblebagging, boostingystackingpara aumentar la precisión de la predicción y la sensibilidad del sistema. En otra implementación, las salidas obtenidas de los módulos 608, 610, 612 pueden ser usadas en paralelo con los procedimientos de ensamble (o algunas variaciones) enumerados anteriormente.
La figura 7 es un diagrama de bloques que muestra el módulo final del servidor en segundo plano 300. En este caso, toma los datos de prueba para validar el modelo creado durante la fase de entrenamiento. A continuación, crea un conjunto de predicciones basadas en las regiones de interés del cerebro, y su correspondiente visualización que será enviada de vuelta a la aplicación autónoma cliente 200 para ser mostrada. Los registros 702 se reciben y se envían al módulo de entrenamiento 620. Se generan los datos de prueba 706. Los datos de prueba 706 forman una predicción 708, que se utilizan para generar los datos de visualización en el módulo de visualización 710. La figura 4 es un diagrama de bloques que muestra un modelo 400 de ejemplo para generar la representación visual de las figuras 1 a 3. La aplicación 200 está configurada para transformar los flujos de datos recibidos de los sensores y la retroalimentación del paciente de las pruebas, como se describió anteriormente, en datos de características sobre los cuales (por ejemplo) pueden operar modelos de aprendizaje automático. Los modelos de aprendizaje automático pueden entrenarse con datos del consorcio de datos. Los modelos pueden incluir redes neuronales y redes de aprendizaje profundo, máquinas de vectores de soporte, árboles de decisión, modelos estadísticos (por ejemplo, modelos de regresión), modelos basados en instancias o de agrupación, etc.
Las predicciones centrales generadas por los algoritmos de aprendizaje automático se refieren al rendimiento del paciente en las pruebas neuropsicológicas de referencia descritas anteriormente (por ejemplo, producción de frases, denominación de imágenes y comprensión del habla). Las características del análisis de aprendizaje automático pueden ser vóxeles (la unidad más pequeña de resolución espacial en IRM) y valores en cada vóxel para los diferentes flujos de datos que se adquieren para cada paciente y se alojan en la nube. Por ejemplo, un flujo de datos podría transformarse en datos de características, como se ilustra para los datos de IRMf. La actividad IRMf se puede utilizar como valores de características, como ponderaciones beta, valores t ponderados por contraste, etc. para una tarea cognitiva determinada (múltiples dimensiones dentro de este tipo de datos podrían corresponder a los diferentes experimentos de IRMf que realizan los pacientes). El vector de características puede incluir valores de características para la conectividad funcional, de la región en el cerebro representada por un vóxel dado a los centros centrales del lenguaje. El vector de características puede incluir un valor de características correspondiente a la conectividad estructural (materia blanca), de una región del cerebro representada por un vóxel dado a los centros del núcleo del lenguaje. El vector de características puede incluir valores de características correspondientes al rendimiento conductual del paciente durante la cirugía cuando la región del cerebro representada por el vóxel respectivo se estimula con mapeo de estimulación eléctrica directa. Y así sucesivamente para todos los flujos de datos. Es importante destacar que las características también pueden crearse integrando flujos de datos o calculando una relación de valores dentro de un flujo de datos (por ejemplo, índices de lateralidad calculados sobre datos de IRM funcional).
Existen variables globales específicas del paciente que son comunes a todas las regiones del cerebro y, por tanto, a todos los vóxeles, porque se encuentran a nivel global del paciente, incluyendo 1) información demográfica (sexo, educación y lateralidad), 2) tipo de tumor y 3) niveles cognitivos preoperatorios en una serie de tareas (como se ha descrito anteriormente). El objetivo del modelado es generar una predicción de la capacidad cognitiva futura del paciente basada en el vector o vectores de características de ese paciente. La aplicación 200 devuelve al proveedor (por ejemplo, al cirujano), como retroalimentación, la distribución espacial en el cerebro de esa predicción, por ejemplo, como ponderaciones de características asociadas a cada vóxel, representadas como un mapa del cerebro combinado (por ejemplo, superpuesto, mejorado, actualizado, etc.) con datos de predicción. Por ejemplo, al proyectar las ponderaciones de las características sobre el cerebro se crea un mapa sobre la contribución de cada punto del cerebro a la predicción sobre el comportamiento futuro.
En un aspecto, como se describe en relación con las figuras 6 a 8, el sistema de procesamiento de datos 300 está configurado para recibir datos del dispositivo cliente 110 y el almacenamiento de datos 130, que pueden incluir datos de resultados de pruebas. Los datos pueden convertirse a un formato que pueda transformarse en datos de características, como se describe en relación con las figuras 6 y 7. Por ejemplo, los datos del habla pueden transformarse en una cadena, y las características de la cadena pueden relacionarse con el análisis semántico (por ejemplo, si el paciente respondió sí o no a las preguntas, si dio la respuesta correcta, etc.). Se proporciona una imagen del cerebro representada por un conjunto de vóxeles. Se selecciona una región concreta (por ejemplo, un vóxel o un conjunto de vóxeles). La región seleccionada y los datos de los resultados de la prueba se introducen en el módulo 614. El módulo 614 genera un vector de características para la región que representa los datos de los resultados de la prueba para esa región. El vector se introduce en el modelo de entrenamiento 620. El modelo 620 genera valores de predicción 708 para varios resultados de salud. Los valores de predicción se utilizan para generar una visualización en el módulo 710 del cerebro que muestra los resultados previstos del tratamiento. En este ejemplo, la visualización muestra regiones que se pueden eliminar del cerebro y regiones que no es seguro eliminar (seguro desde el punto de vista del rendimiento cognitivo en tareas neuropsicológicas de referencia, niveles de rendimiento de referencia o competencias generales). Aunque se muestra una imagen bidimensional (2D) simplificada con fines ilustrativos, la visualización se proyecta generalmente sobre una representación detallada en 3D del cerebro con resolución milimétrica y que muestra la anatomía giral y subcortical específica del paciente.
La figura 8 es un diagrama de bloques de la caja de hardware externa 800 que utiliza un reloj en tiempo real para realizar marcas de tiempo en todos los inicios-finales del fotodiodo correspondientes a los estímulos visuales presentados al paciente en una pantalla o un visualizador. La caja detectora de inicio/final de estímulos 800 recibe la señal del fotodiodo 802 y utiliza un reloj en tiempo real 804 para generar datos con marca de tiempo 808 utilizando una unidad de procesamiento 806. Los datos con marca de tiempo 808 están asociados con el punto de estimulación y sus correspondientes datos de comportamiento del paciente. Los datos con marca de tiempo 808 se almacenan localmente en un módulo 810 hasta que son solicitados por la aplicación 200 y enviados por el módulo 812; la duración del almacenamiento local antes de ser solicitado por la aplicación puede ser a nivel de ensayo, experimento o sesión.
La figura 9 es una imagen de ejemplo de una configuración de hardware 900 del entorno informático de la figura 1 para un quirófano. En algunas implementaciones, el sistema es móvil y ocupa poco espacio en lo que puede ser un quirófano abarrotado. En algunas implementaciones, el sistema es capaz de ser reposicionado en el entorno cambiante del quirófano, así como compatible en los diferentes quirófanos. Por ejemplo, la interfaz con el paciente (por ejemplo, monitores, pantallas, micrófonos, cámara de vídeo) se adapta en tiempo real a los cambios ergonómicos del paciente a medida que avanza la operación, incluidos los cambios de posición de la mesa de operaciones a lo largo de la cirugía.
La figura 10 es una interfaz de usuario 1000 de ejemplo para el sistema de visualización de mapeo de las figuras 1 y 2. La interfaz 1000 puede presentarse en la interfaz de hardware 216 descrita anteriormente. La interfaz 1000 incluye una imagen 1002 del paciente durante el tratamiento o estimulación. La interfaz 1000 incluye controles audiovisuales 1012 para las cámaras y micrófonos del sistema. La interfaz incluye datos de prueba 1004 y datos de protocolo de prueba 1006. Se pueden utilizar controles adicionales 1008 y 1010 para ajustar la prueba o la estimulación, incluido un control basado en palanca de mando o ratón de un brazo extensible en el que está montada una cámara que tiene una vista del cerebro del paciente y del cirujano (en el quirófano), o de toda la habitación del hospital en el caso del mapeo de estimulación eléctrica (en un entorno de hospitalización), o de todo el paciente y el proveedor sentado en un escritorio (en un entorno ambulatorio). Todos los aspectos de la interfaz pueden ser operados/monitorizados remotamente desde el lugar donde se está realizando la prueba.
La figura 11 muestra un diagrama de flujo 1100 que incluye un proceso de ejemplo para emitir una representación visual del cerebro de un paciente por el sistema de visualización de mapeo de las figuras 1 y 2. El sistema está configurado para recibir (1102) datos de sensor que representan un comportamiento de al menos una región del cerebro del paciente. El sistema está configurado para recuperar (1104) datos de mapeo que mapean un valor de predicción a la al menos una región del cerebro, siendo el valor de predicción indicativo de un efecto sobre un comportamiento del paciente que responde a un tratamiento de la al menos una región del cerebro del paciente, estando los datos de mapeo indexados a un identificador de paciente. El sistema está configurado para recibir (1106), en respuesta a la aplicación de una estimulación a la al menos una región del cerebro, datos de sensor que representan el comportamiento de al menos una región del cerebro. El sistema está configurado para ejecutar (1108) un modelo que actualiza, basándose en los datos de sensor, el valor de predicción para la al menos una región del cerebro. El sistema está configurado para actualizar (1110), en respuesta a la ejecución del modelo, los datos de mapeo incluyendo el valor de predicción actualizado en los datos de mapeo. El sistema está configurado para emitir (1112) una representación visual de los datos de mapeo actualizados que comprenden el valor de predicción actualizado.
Un protocolo de prueba particular y un régimen de tratamiento pueden configurarse como se describe en el presente documento. En la etapa preoperatoria, el proveedor ve al paciente en la clínica y solicita pruebas tales como las pruebas neuropsicológicas descritas anteriormente. Se pueden solicitar datos para mejorar el mapa del cerebro del paciente, como IRM, IRMf, DTI, DSI, TMS y de TAC. A continuación, el proveedor cita al paciente para las pruebas, revisa el protocolo de selección de las pruebas neuropsicológicas y sugiere cambios en el protocolo si procede. A continuación, el proveedor administra las pruebas neuropsicológicas elegidas. El proveedor puede puntuar los resultados de las pruebas, interpretarlos y repetir algunas pruebas si es necesario. Una vez obtenidos todos los datos de las pruebas y las imágenes, el proveedor puede simular el resultado del paciente para un enfoque quirúrgico determinado. El proveedor no tiene por qué ser una sola persona, y puede incluir a uno o más proveedores de servicios médicos para el paciente. Por ejemplo, el proveedor puede incluir un fisioterapeuta, una enfermera, un cirujano, un médico, etcétera.
En un ejemplo, se describe una ruta preoperatoria para la epilepsia. El proveedor desarrolla una hipótesis de inicio de convulsiones utilizando datos de imagen, semiología y neuropsicológicos adquiridos previamente. El proveedor inicia una conferencia clínica n.° 1 para analizar la implantación de electrodos para identificar la zona de inicio epileptógena. El proveedor recoge una IRM anatómica de alta resolución (que también puede utilizarse para la navegación craneal, incluida la colocación de electrodos en primer lugar). En este punto, el proveedor también puede recoger IRM funcional y/u otras modalidades de imagen funcional (PET, MEG). El proveedor puede utilizar dispositivos de estimulación extracraneal para probar hipótesis de ubicación funcional (por ejemplo, EMT). El proveedor implanta los electrodos. El proveedor solicita imágenes de TAC para identificar los puntos de contacto de los electrodos. El proveedor de software anonimiza los datos y elimina las caras. El proveedor fusiona los resultados de las imágenes de TAC e IRM. El proveedor fusiona los resultados de DTI y TAC/IMR. El proveedor fusiona la IRMf con los resultados de las imágenes TAC/IRM/DTI.
A continuación, el proveedor crea una malla 3D utilizando la aplicación 200. El proveedor elimina gradualmente la medicación antiepiléptica del paciente. Cuando el paciente tiene convulsiones y es posible identificar positivamente la zona de inicio de las convulsiones, el paciente puede volver a tomar antiepilépticos. El proveedor puede realizar un mapeo basado en la estimulación eléctrica. El proveedor puede iniciar una conferencia clínica para determinar un plan de resección y determinar si la cirugía debe realizarse despierto o dormido. Si la cirugía se va a realizar despierto, entonces se deben seleccionar las pruebas que se van a utilizar en el quirófano; si la cirugía se va a realizar dormido, entonces el plan de resección completo debe estar listo antes de ir al quirófano.
Para las operaciones quirúrgicas, el proveedor identifica los dicoms que se utilizarán para la planificación de la neuronavegación craneal (por ejemplo, BrainLab). El proveedor fusiona las imágenes DTI e IRM. El proveedor fusiona imágenes IRMf con imágenes IRM/DTI. El proveedor crea una malla 3D a través de la aplicación 200. El proveedor inicia una conferencia clínica para determinar una ruta de resección y determina un caso despierto frente a uno dormido.
En la fase intraoperatoria, el proveedor carga un plan quirúrgico en el sistema de navegación craneal (por ejemplo, BrainLab). Este plan consiste en IRM anatómicas del paciente con varios flujos de datos superpuestos (por ejemplo, DSI, puntos de TMS, IRM funcional, etc.). El proveedor recupera una IRM en BrainLab y utiliza una estrella de registro para calibrar la ubicación del estimulador eléctrico en el campo quirúrgico, a fin de poder transmitir las coordenadas de la estimulación. El proveedor instala el carro en el quirófano, incluido el monitor del paciente, EEG, BrainLab, cámaras, comprobación de audio, registra el estimulador bipolar, registra los electrodos intraoperatorios; durante y después del caso, el proveedor confirma que todos los datos están presentes antes de abandonar el quirófano. El proveedor envía los datos al consorcio. El paciente permanece ingresado y se le realizan pruebas neuropsicológicas en el punto de atención. El proveedor programa una visita postoperatoria antes de que el paciente abandone el hospital.
En la etapa postoperatoria, el proveedor visita al paciente en la clínica de neurocirugía y se asegura de que el paciente repite las pruebas neuropsicológicas en múltiples momentos del postoperatorio. El proveedor inicia una conferencia para analizar cómo ha ido el caso. En algunas implementaciones, se programa una cita clínica permanente cada 6-12 meses. Los datos neuropsicológicos y de imagen recogidos durante estas visitas postoperatorias se envían de vuelta al consorcio de datos y al panel cognitivo del paciente.
A continuación se describe un ejemplo específico de implementación del uso del sistema, incluida la aplicación 200. El proveedor realiza todas las pruebas cognitivas intraoperatorias en el sistema, incluida la aplicación 200. El proveedor instala un sistema de audio de forma que un micrófono direccional orientado hacia la boca del paciente se alimente a través de un divisor. Generalmente, un canal que sale del divisor pasa por un amplificador y directamente a un altavoz. Esto permite a los cirujanos e investigadores escuchar las respuestas del paciente con el ruido de fondo del quirófano sin ningún retraso perceptible (es decir, eliminando los efectos de "eco"). En general, el segundo canal del divisor va al ordenador del carro móvil, donde se realiza la marca de tiempo, se graba y se almacena (estos archivos se utilizan para análisis fuera de línea). El sistema también cuenta con un sistema de audio independiente (autónomo) formado por un segundo micrófono direccional que también se orienta hacia el paciente, un micrófono direccional que se orienta hacia los cirujanos y un micrófono de "ruido" en una esquina del quirófano para tomar muestras del tono de la sala y sustraerlas de los archivos de audio principales. Esos tres canales de audio alimentan un MIDI y un segundo ordenador que graba cada canal por separado. Este segundo sistema de audio proporciona redundancia en caso de que falle el sistema principal; todas las respuestas verbales del paciente estarán disponibles para su análisis fuera de línea.
El proveedor fija un soporte en L de pantalla de éter disponible en el mercado a la mesa del quirófano (OR, operating room) mediante una abrazadera de mesa de quirófano OR. El proveedor fija brazos articulados (por ejemplo, Manfrotto 244 Variable Friction Magic Arms) al soporte en L de la pantalla de éter, y esos brazos articulados sostienen el monitor del paciente, los micrófonos direccionales, la cámara de vídeo orientada hacia la cara del paciente y un monitor auxiliar para permitir que un miembro del equipo de investigación o una enfermera de quirófano vean lo que ve el paciente mientras interactúan con él.
El proveedor tiende todos los cables necesarios para las pantallas, los micrófonos y la cámara a lo largo del brazo. Por lo general, no es necesario esterilizar ninguno de estos equipos, ya que se encuentran (sólo en algunos casos) en el lado no estéril del campo. Esta forma de apoyar la presentación de los estímulos y el equipo de grabación de las respuestas proporciona la máxima flexibilidad para tener en cuenta la diferente ergonomía de las pruebas cognitivas según la posición del paciente, que varía caso por caso, y a la vez proporciona una plataforma fiable y estable en la que fijar el equipo. Dado que todos los monitores, micrófonos y cámaras se fijan a la mesa de quirófano OR mediante un único dispositivo (un soporte en L para la pantalla), los ajustes de la posición de la mesa durante el caso no afectan a la configuración de la prueba. Para la seguridad del paciente, toda la configuración de las pruebas cognitivas puede desmontarse rápidamente durante el caso si se produce una situación de emergencia que exija un acceso total y sin obstáculos al paciente (por ejemplo, a las vías respiratorias del paciente).
El proveedor configura el sistema para i) presentar estímulos (visuales, auditivos) a los pacientes y grabar las respuestas de estos (verbales, respuesta a botones, vídeo), ii) grabar temporalmente todos los eventos y medidas relevantes para el experimento (estímulo encendido, ECoG, contacto con el cerebro de la sonda del estimulador eléctrico directo, respuestas del paciente); y iii) comunicación con los sistemas de navegación craneal para obtener la coordenada tridimensional de cada aplicación de estimulación eléctrica directa. El sistema permite la recalibración en línea de variables experimentales como la duración del estímulo, los intervalos entre estímulos, la aleatorización, el número de repeticiones o bloques de estímulos y el control de los canales de vídeo y audio del paciente. El sistema transmite la cámara de vídeo del paciente, los datos de ECoG en línea y el estímulo que el paciente está viendo/oyendo en ese momento a una pantalla de escritorio, que también se refleja en un monitor grande que está en la línea de visión del cirujano.
El proveedor conecta un fotodiodo al monitor del paciente y lo alimenta a un canal abierto del amplificador de ECoG. Esto proporciona una sincronización temporal entre la presentación de cada estímulo y el ECoG para el análisis fuera de línea.
El proveedor utiliza hardware y software de navegación craneal (por ejemplo, BrainLab Inc., Múnich, Alemania) para la navegación craneal intraoperatoria basada en la IRM preoperatoria. Se trata de un sistema óptico compuesto por un conjunto de cámaras que visualizan el campo operatorio y graban la cabeza del paciente a través de una estrella de registro fija que se fija a la mesa de operaciones. Concretamente, después de colocar al paciente en el soporte para la cabeza, pero antes de cubrirlo, el proveedor utiliza la fisionomía facial del paciente para grabar la cabeza del paciente en la IRM preoperatoria. Esto permite alinear directamente la IRM preoperatoria (funcional y estructural) con el cerebro del paciente en la mesa de operaciones.
El proveedor conecta una segunda estrella de registro (mucho más pequeña) al estimulador bipolar y la utiliza para registrar la longitud y la posición del estimulador en el campo. Esto permite al equipo de investigación adquirir la ubicación precisa de cada punto de estimulación, así como los márgenes de la resección, en relación con la IRM preoperatoria. Como se ha indicado anteriormente, el sistema puede conectarse con el sistema de navegación craneal (por ejemplo, BrainLab, conexión a través del enlace 1GT) para permitir la transmisión en tiempo real (y la realización de marcas de tiempo) de las coordenadas del mapeo de estimulación eléctrica directa.
Algunas implementaciones de la materia objeto y las operaciones descritas en esta memoria descriptiva pueden implementarse en circuitos electrónicos digitales, o en software, firmware o hardware informáticos, incluyendo las estructuras dadas a conocer en esta memoria descriptiva y sus equivalentes estructurales, o en combinaciones de uno o más de ellos. Por ejemplo, en algunas implementaciones, el dispositivo cliente, la aplicación 200, y sus módulos y subdispositivos, pueden implementarse utilizando circuitos electrónicos digitales, o en software, firmware, o hardware informáticos, o en combinaciones de uno o más de ellos. En otro ejemplo, el proceso 1100 puede implementarse utilizando circuitos electrónicos digitales, o en software, firmware o hardware informáticos, o en combinaciones de uno o más de ellos.
Algunas implementaciones descritas en esta memoria descriptiva (por ejemplo, los módulos de 200) pueden implementarse como uno o más grupos o módulos de circuitos electrónicos digitales, software, firmware o hardware informáticos, o en combinaciones de uno o más de ellos. Aunque pueden utilizarse diferentes módulos, no es necesario que cada módulo sea distinto, y pueden implementarse múltiples módulos en el mismo circuito electrónico digital, software, firmware o hardware informáticos, o en una combinación de los mismos.
Algunas implementaciones descritas en esta memoria descriptiva pueden ser implementadas como uno o más programas informáticos, es decir, uno o más módulos de instrucciones de programas informáticos, codificadas en un medio de almacenamiento informático para su ejecución mediante, o para controlar el funcionamiento de, aparatos de procesamiento de datos. Un medio de almacenamiento informático puede ser, o estar incluido en, un dispositivo de almacenamiento legible por ordenador, un sustrato de almacenamiento legible por ordenador, una matriz o dispositivo de memoria de acceso aleatorio o en serie, o una combinación de uno o más de ellos. Además, aunque un medio de almacenamiento informático no es una señal propagada, un medio de almacenamiento informático puede ser una fuente o destino de instrucciones de programa informático codificadas en una señal propagada generada artificialmente. El medio de almacenamiento informático también puede ser, o estar incluido en, uno o más componentes físicos o medios separados (por ejemplo, varios CD, discos u otros dispositivos de almacenamiento).
El término "aparato de procesamiento de datos" abarca todo tipo de aparatos, dispositivos y máquinas para el procesamiento de datos, incluyendo a modo de ejemplo un procesador programable, un ordenador, un sistema en un chip, o múltiples, o combinaciones, de los anteriores. En algunas implementaciones, uno o más de los módulos descritos anteriormente pueden comprender, cada uno, un aparato de procesamiento de datos como se describe en el presente documento. El aparato puede incluir circuitos lógicos de propósito especial, por ejemplo, un FPGA (matriz de puertas programables in situ) o un ASIC (circuito integrado de aplicación específica). El aparato también puede incluir, además de hardware, código que crea un entorno de ejecución para el programa informático en cuestión, por ejemplo, código que constituye el firmware del procesador, una pila de protocolos, un sistema de gestión de bases de datos, un sistema operativo, un entorno de ejecución multiplataforma, una máquina virtual, o una combinación de uno o más de ellos. El aparato y el entorno de ejecución pueden realizar varias infraestructuras de modelos informáticos diferentes, como servicios web, informática distribuida e infraestructuras informáticas de malla.
Un programa informático (también conocido como programa, software, aplicación de software, script o código) puede estar escrito en cualquier tipo de lenguaje de programación, incluyendo lenguajes compilados o interpretados, lenguajes declarativos o procedimentales. Un programa informático puede, aunque no necesariamente, corresponder a un archivo en un sistema de archivos. Un programa puede almacenarse en una porción de un archivo que contenga otros programas o datos (por ejemplo, uno o más scripts almacenados en un documento de lenguaje de marcas), en un único archivo dedicado al programa en cuestión, o en múltiples archivos coordinados (por ejemplo, archivos que almacenen uno o más módulos, subprogramas o porciones de código). Un programa informático puede ser desplegado para su ejecución en un ordenador o en múltiples ordenadores que se encuentran en un sitio o distribuidos a través de múltiples sitios e interconectados por una red de comunicación.
Algunos de los procesos y flujos lógicos descritos en esta memoria descriptiva pueden ser realizados mediante uno o más procesadores programables que ejecutan uno o más programas informáticos para realizar acciones operando sobre datos de entrada y generando una salida. Los procesos y flujos lógicos también pueden ser realizados por, y el aparato puede ser implementado como, circuitos lógicos de propósito especial, por ejemplo, un FPGA (matriz de puertas programables in situ) o un ASIC (circuito integrado de aplicación específica).
Los procesadores adecuados para la ejecución de un programa informático incluyen, a modo de ejemplo, microprocesadores tanto de propósito general como especial, y procesadores de cualquier tipo de ordenador digital. Generalmente, un procesador recibirá instrucciones y datos de una memoria de sólo lectura, de una memoria de acceso aleatorio o de ambas. Un ordenador incluye un procesador para realizar acciones de acuerdo con instrucciones y uno o más dispositivos de memoria para almacenar instrucciones y datos. Un ordenador también puede incluir, o estar acoplado operativamente para recibir datos desde o transferir datos a, o ambos, uno o más dispositivos de almacenamiento masivo para almacenar datos, por ejemplo, discos magnéticos, magneto-ópticos u ópticos. Sin embargo, no es necesario que un ordenador disponga de tales dispositivos. Los dispositivos adecuados para almacenar instrucciones y datos de programas informáticos incluyen todas las formas de memoria no volátil, medios y dispositivos de memoria, incluyendo, a modo de ejemplo, dispositivos de memoria semiconductores (por ejemplo, EPROM, EEPROM, dispositivos de memoria flash y otros), discos magnéticos (por ejemplo, discos duros internos, discos extraíbles y otros), discos magneto-ópticos y discos CD-ROM y DVD-ROM. El procesador y la memoria pueden complementarse con circuitos lógicos especiales o incorporarse a ellos.
Para facilitar la interacción con un usuario, las operaciones pueden implementarse en un ordenador que tenga un dispositivo de visualización (por ejemplo, un monitor u otro tipo de dispositivo de visualización) para mostrar información al usuario y un teclado y un dispositivo señalador (por ejemplo, un ratón, una bola de seguimiento, una tableta, una pantalla sensible al tacto u otro tipo de dispositivo señalador) mediante los cuales el usuario puede proporcionar información al ordenador. También se pueden utilizar otros tipos de dispositivos para interactuar con el usuario; por ejemplo, la realimentación proporcionada al usuario puede ser cualquier forma de realimentación sensorial, por ejemplo, realimentación visual, auditiva o táctil; y la entrada del usuario se puede recibir de cualquier forma, incluyendo entrada acústica, verbal o táctil. Además, un ordenador puede interactuar con un usuario enviando documentos a y recibiendo documentos de un dispositivo utilizado por el usuario; por ejemplo, enviando páginas web a un navegador web en el dispositivo cliente de un usuario en respuesta a solicitudes recibidas del navegador web.
Un sistema informático puede incluir un único dispositivo informático, o múltiples ordenadores que operan en proximidad o generalmente a distancia unos de otros y que habitualmente interactúan a través de una red de comunicación. Ejemplos de redes de comunicación incluyen una red de área local ("LAN") y una red de área amplia ("WAN"), una inter-red (por ejemplo, Internet), una red que comprende un enlace por satélite, y redes entre pares (por ejemplo, redes ad hoc entre pares). Una relación de cliente y servidor puede surgir en virtud de los programas informáticos que se ejecutan en los respectivos ordenadores y que tienen una relación cliente-servidor entre sí.
La FIG. 12 muestra un sistema informático 1200 de ejemplo que incluye un procesador 1210, una memoria 1220, un dispositivo de almacenamiento 1230 y un dispositivo de entrada/salida 1240. Cada uno de los componentes 1210, 1220, 1230 y 1240 puede estar interconectado, por ejemplo, por un bus de sistema 1250. El procesador 1210 es capaz de procesar instrucciones para su ejecución dentro del sistema 1200. En algunas implementaciones, el procesador 1210 es un procesador de un solo hilo, un procesador multihilo u otro tipo de procesador. El procesador 1210 es capaz de procesar instrucciones almacenadas en la memoria 1220 o en el dispositivo de almacenamiento 1230. La memoria 1220 y el dispositivo de almacenamiento 1230 pueden almacenar información dentro del sistema 1200.
El dispositivo de entrada/salida 1240 proporciona operaciones de entrada/salida para el sistema 1200. En algunas implementaciones, el dispositivo de entrada/salida 1240 puede incluir uno o más de un dispositivo de interfaz de red, por ejemplo, una tarjeta Ethernet, un dispositivo de comunicación en serie, por ejemplo, un puerto RS-232, y/o un dispositivo de interfaz inalámbrica, por ejemplo, una tarjeta 802.11, un módem inalámbrico 3G, un módem inalámbrico 4G, un módem inalámbrico 5G, etc. En algunas implementaciones, el dispositivo de entrada/salida puede incluir dispositivos controladores configurados para recibir datos de entrada y enviar datos de salida a otros dispositivos de entrada/salida, por ejemplo, teclado, impresora y dispositivos de visualización 1260. En algunas implementaciones, se pueden utilizar dispositivos informáticos móviles, dispositivos de comunicación móviles y otros dispositivos.
Aunque esta memoria descriptiva contiene muchos detalles, éstos no deben interpretarse como limitaciones en el alcance de lo que puede reivindicarse, sino más bien como descripciones de características específicas de ejemplos particulares. Ciertas características que se describen en esta memoria descriptiva en el contexto de implementaciones separadas también pueden combinarse. A la inversa, varias características que se describen en el contexto de una única implementación también pueden implementarse en múltiples realizaciones por separado o en cualquier subcombinación adecuada.
Se han descrito varias realizaciones. No obstante, se entenderá que pueden realizarse diversas modificaciones sin apartarse del alcance del sistema de procesamiento de datos descrito en el presente documento. En consecuencia, otras realizaciones están dentro del alcance de las siguientes reivindicaciones.

Claims (15)

REIVINDICACIONES
1. Sistema para la emisión de una representación visual del cerebro de un paciente, comprendiendo el sistema: al menos un sensor configurado para generar datos de sensor que representan un comportamiento de al menos una región del cerebro del paciente;
un almacenamiento de datos que almacena datos de mapeo que mapean un valor de predicción a la al menos una región del cerebro, siendo el valor de predicción indicativo de un efecto sobre un comportamiento del paciente que responde a un tratamiento de la al menos una región del cerebro del paciente, estando los datos de mapeo indexados a un identificador de paciente; y
al menos un dispositivo de procesamiento configurado para recibir los datos de sensor desde el al menos un sensor, el al menos un dispositivo de procesamiento configurado para realizar operaciones que comprenden: recuperar (1104) los datos de mapeo indexados al identificador de paciente;
recibir (1106), en respuesta a una aplicación de una estimulación a la al menos una región del cerebro, datos de sensor que representan el comportamiento de la al menos una región del cerebro;
ejecutar (1108) un modelo que actualiza, basándose en los datos de sensor, el valor de predicción para la al menos una región del cerebro;
actualizar (1110), en respuesta a la ejecución del modelo, los datos de mapeo incluyendo el valor de predicción actualizado en los datos de mapeo; y
emitir (1112) una representación visual de los datos de mapeo actualizados que comprenden el valor de predicción actualizado.
2. Sistema, según la reivindicación 1, en el que los datos de mapeo comprenden, para cada región del cerebro que incluye la al menos una región, un vector de características que representa al menos una característica que tiene un valor, siendo el valor de predicción actualizado una función del valor de la al menos una característica.
3. Sistema, según la reivindicación 2, en el que el vector de características representa una pluralidad de características, cada una de las cuales tiene un valor, y en el que el valor de predicción actualizado es una función de cada valor de la pluralidad de características.
4. Sistema, según la reivindicación 2, en el que el valor de predicción actualizado es una función de uno o más primeros valores de las características respectivas representadas por un primer vector de características de una primera región que comprende la región y uno o más segundos valores de las características respectivas representadas por un segundo vector de características de una segunda región vecina de la primera región.
5. Sistema, según la reivindicación 2, en el que la al menos una característica representa una o más de:
a) actividad de imágenes de resonancia magnética funcional, IRMf, del cerebro; o
b) conectividad funcional de la región del cerebro con un centro lingüístico central del cerebro; o
c) conectividad estructural de la región del cerebro con un centro del lenguaje central del cerebro; o
d) rendimiento conductual del paciente cuando la región del cerebro se estimula con mapeo de estimulación eléctrica directa.
6. Sistema, según la reivindicación 2, en el que la al menos una característica es común a todas las regiones del cerebro del paciente, y en el que la al menos una característica representa una de las características demográficas del paciente, un tipo de tumor, un nivel preoperatorio de una tarea cognitiva, o una combinación de las mismas.
7. Sistema, según la reivindicación 1, en el que los datos de sensor comprenden uno o más de datos de audio, datos de electroencefalograma, EEG, datos de vídeo, o una combinación de los mismos, por ejemplo, en el que los datos de audio comprenden datos de voz del paciente, datos de voz de un proveedor de servicios médicos, o una combinación de los mismos, o
por ejemplo, en el que los datos de vídeo comprenden al menos dos secuencias de vídeo grabadas simultáneamente.
8. Sistema, según la reivindicación 1, en el que el modelo está configurado para permitir que el al menos un dispositivo de procesamiento ejecute el modelo y actualice los datos de mapeo en tiempo real durante una operación quirúrgica basándose en los datos de sensor recibidos durante la operación quirúrgica.
9. Sistema, según la reivindicación 1, en el que la al menos una región del cerebro corresponde a un vóxel de una imagen de las imágenes de resonancia magnética, IRM.
10. Sistema, según la reivindicación 1, en el que la representación visual comprende una imagen tridimensional del cerebro del paciente que comprende una indicación de al menos una región objetivo del cerebro que se va a extirpar.
11. Sistema, según la reivindicación 1, que comprende, además, recuperar datos preoperatorios asociados con el identificador del paciente, representando los datos preoperatorios un estado del cerebro del paciente para la al menos una región, antes de un tratamiento, en el que la ejecución del modelo se basa en los datos preoperatorios, y opcionalmente, en el que los datos preoperatorios comprenden un modelo de vasculatura del cerebro, y en el que la ejecución del modelo comprende la actualización del valor de predicción en respuesta a la recepción de datos de sensor para actualizar el modelo de vasculatura del cerebro.
12. Sistema, según la reivindicación 1, en el que el efecto sobre el comportamiento del paciente en respuesta al tratamiento de la al menos una región del cerebro comprende una estimación de un déficit de actividad después del tratamiento para esa región del cerebro.
13. Sistema, según la reivindicación 1, en el que el tratamiento comprende la extirpación quirúrgica de la al menos una región del cerebro.
14. Sistema, según la reivindicación 1, en el que la aplicación de la estimulación a la región del cerebro comprende la administración de un fármaco al paciente, la aplicación de una señal eléctrica al paciente, o una combinación de las mismas.
15. Uno o más medios legibles por ordenador no transitorios que almacenan instrucciones que, cuando son ejecutadas por uno o más dispositivos de procesamiento, están configuradas para hacer que el uno o más dispositivos de procesamiento realicen operaciones que incluyen:
recibir datos de sensor que representan un comportamiento de al menos una región del cerebro de un paciente; recuperar datos de mapeo que mapean un valor de predicción a la al menos una región del cerebro, siendo el valor de predicción indicativo de un efecto sobre un comportamiento del paciente en respuesta a un tratamiento de la al menos una región del cerebro del paciente, estando los datos de mapeo indexados a un identificador de paciente; recibir, en respuesta a la aplicación de una estimulación en la al menos una región del cerebro, datos de sensor que representen el comportamiento de al menos una región del cerebro;
ejecutar un modelo que actualice, basándose en los datos de sensor, el valor de predicción para la al menos una región del cerebro;
actualizar, en respuesta a la ejecución del modelo, los datos de mapeo incluyendo el valor de predicción actualizado en los datos de mapeo; y
emitir una representación visual de los datos de mapeo actualizados que comprenda el valor de predicción actualizado.
ES19890320T 2018-11-30 2019-12-02 Sistema de procesamiento de datos para generar predicciones de resultados cognitivos en pacientes Active ES2968507T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201862917258P 2018-11-30 2018-11-30
PCT/US2019/064015 WO2020113221A1 (en) 2018-11-30 2019-12-02 Data processing system for generating predictions of cognitive outcome in patients

Publications (1)

Publication Number Publication Date
ES2968507T3 true ES2968507T3 (es) 2024-05-10

Family

ID=70853576

Family Applications (1)

Application Number Title Priority Date Filing Date
ES19890320T Active ES2968507T3 (es) 2018-11-30 2019-12-02 Sistema de procesamiento de datos para generar predicciones de resultados cognitivos en pacientes

Country Status (6)

Country Link
US (1) US20210375480A1 (es)
EP (2) EP3886692B1 (es)
AU (1) AU2019389171A1 (es)
CA (1) CA3121207A1 (es)
ES (1) ES2968507T3 (es)
WO (1) WO2020113221A1 (es)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11020035B2 (en) 2016-02-01 2021-06-01 Epitel, Inc. Self-contained EEG recording system
US10916348B2 (en) * 2017-12-12 2021-02-09 University Of South Carolina Machine learning to identify locations of brain injury
US11426318B2 (en) * 2020-05-20 2022-08-30 Augustine Biomedical + Design, LLC Medical module including automated dose-response record system
US20210307684A1 (en) * 2018-12-14 2021-10-07 Brainpatch Limited System and method for implementing a stimulation protocol
US20210307672A1 (en) 2020-04-05 2021-10-07 Epitel, Inc. Eeg recording and analysis
CN111714118B (zh) * 2020-06-08 2023-07-18 北京航天自动控制研究所 一种基于集成学习的脑认知模型融合方法
CN114081470B (zh) * 2021-11-03 2023-03-24 青岛心法传媒科技有限公司 一种脑体素图像的噪音消除方法、设备及介质
US20230178215A1 (en) * 2021-12-07 2023-06-08 Unitedhealth Group Incorporated Audio stimulus prediction machine learning models
CN114900256B (zh) * 2022-05-20 2024-03-01 中国电信股份有限公司 通信场景识别方法和装置
US11857330B1 (en) 2022-10-19 2024-01-02 Epitel, Inc. Systems and methods for electroencephalogram monitoring
CN115399790B (zh) * 2022-10-31 2023-02-03 深圳联友科技有限公司 基于贝叶斯数据融合脑电ers_erd的分析方法
CN117438054B (zh) * 2023-12-15 2024-03-26 之江实验室 一种脑影像数据的bids格式自动转换方法和装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130211238A1 (en) * 2001-01-30 2013-08-15 R. Christopher deCharms Methods for physiological monitoring, training, exercise and regulation
US7346382B2 (en) * 2004-07-07 2008-03-18 The Cleveland Clinic Foundation Brain stimulation models, systems, devices, and methods
EP2750758B1 (en) * 2011-09-01 2020-06-17 Boston Scientific Neuromodulation Corporation System for targeted brain stimulation using electrical parameter maps
WO2015149854A1 (en) * 2014-04-03 2015-10-08 Brainlab Ag Method and system for supporting a medical brain mapping procedure
EP4366469A3 (en) * 2016-11-17 2024-05-22 Cognito Therapeutics, Inc. Methods and systems for neural stimulation via visual stimulation

Also Published As

Publication number Publication date
WO2020113221A1 (en) 2020-06-04
CA3121207A1 (en) 2020-06-04
EP3886692A4 (en) 2022-01-26
US20210375480A1 (en) 2021-12-02
EP3886692B1 (en) 2023-10-25
EP4335489A3 (en) 2024-06-05
EP4335489A2 (en) 2024-03-13
AU2019389171A1 (en) 2021-06-17
EP3886692A1 (en) 2021-10-06

Similar Documents

Publication Publication Date Title
ES2968507T3 (es) Sistema de procesamiento de datos para generar predicciones de resultados cognitivos en pacientes
AU2018250529B2 (en) Mobile Wearable Monitoring System
Caspi et al. Feasibility study of a retinal prosthesis: spatial vision with a 16-electrode implant
Arzy et al. Neural mechanisms of embodiment: Asomatognosia due to premotor cortex damage
Owen et al. Using functional magnetic resonance imaging to detect covert awareness in the vegetative state
Gardner et al. Bilateral acoustic neurofibromas: a clinical study and field survey of a family of five generations with bilateral deafness in thirty-eight members
Tucci et al. Cochlear implantation in patients with cochlear malformations
US20160317077A1 (en) Patient permission-based mobile health-linked information collection and exchange systems and methods
Sehatpour et al. Impaired visual object processing across an occipital-frontal-hippocampal brain network in schizophrenia: an integrated neuroimaging study
Propst et al. Neuroanatomic differences in children with unilateral sensorineural hearing loss detected using functional magnetic resonance imaging
Silver et al. Cine magnetic resonance imaging with simultaneous audio to evaluate pediatric velopharyngeal insufficiency
Ornitz et al. Effect of vestibular and auditory stimulation on the REMs of REM sleep in autistic children
Hodges et al. Electric auditory brain-stem responses in Nucleus multichannel cochlear implant users
Smith et al. Visuospatial attention in children
De Best et al. Role of population receptive field size in complex visual dysfunctions: a posterior cortical atrophy model
Hashimoto et al. Three-dimensional reconstruction of the human semicircular canals and measurement of each membranous canal plane defined by Reid's stereotactic coordinates
Kobylarz et al. Functional imaging of severely brain-injured patients: progress, challenges, and limitations
Melnick et al. Effect of pallidotomy on postural control and motor function in Parkinson disease
Bronstein et al. Head-jolting nystagmus: occlusion of the horizontal semicircular canal induced by vigorous head shaking
US20210076942A1 (en) Infrared thermography for intraoperative functional mapping
Shaikhouni et al. Computers and neurosurgery
Mentler et al. Use cases and usability challenges for head-mounted displays in healthcare
Oluigbo et al. The end justifies the means—a call for nuance in the increasing Nationwide adoption of Stereoelectroencephalography over subdural electrode monitoring in the surgical evaluation of intractable epilepsy
Liu et al. [Retracted] Perioperative Nursing Care of Vascular Decompression for Trigeminal Neuralgia under AR Medical Technology
Kario et al. Does extreme dipping of nocturnal blood pressure in elderly hypertensive patients confer high risk of developing ischemic target organ damage from antihypertensive therapy?