ES2996922T3 - Method and system for characterizing stool patterns of young infants - Google Patents

Method and system for characterizing stool patterns of young infants Download PDF

Info

Publication number
ES2996922T3
ES2996922T3 ES19743020T ES19743020T ES2996922T3 ES 2996922 T3 ES2996922 T3 ES 2996922T3 ES 19743020 T ES19743020 T ES 19743020T ES 19743020 T ES19743020 T ES 19743020T ES 2996922 T3 ES2996922 T3 ES 2996922T3
Authority
ES
Spain
Prior art keywords
image
stool
cnn
portable device
score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES19743020T
Other languages
English (en)
Inventor
Damien Luc Dominique Marie Paineau
Agathe Camille Foussat
Thomas Ludwig
Inès Oukid
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nutricia NV
Original Assignee
Nutricia NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nutricia NV filed Critical Nutricia NV
Application granted granted Critical
Publication of ES2996922T3 publication Critical patent/ES2996922T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • A61B5/0013Medical image data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient; User input means
    • A61B5/742Details of notification to user or communication with user or patient; User input means using visual displays
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Artificial Intelligence (AREA)
  • Primary Health Care (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Epidemiology (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physiology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

La invención proporciona un método para analizar la consistencia de las heces, que incluye los pasos de: proporcionar heces de un bebé, capturar, con un dispositivo portátil que comprende una cámara, una imagen de las heces, proporcionar la imagen capturada a una capa de entrada de una red neuronal convolucional preentrenada, CNN, procesar la imagen capturada utilizando la CNN para obtener, a partir de una capa final de la CNN, un vector de clasificación y obtener información sobre una puntuación prevista a partir del vector de clasificación, en donde al menos la capa final de la CNN se ha personalizado de modo que cada elemento del vector de clasificación corresponde a una puntuación de una escala de análisis de heces, y almacenar información sobre la memoria prevista. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Método y sistema para caracterizar patrones de heces de lactantes
Campo de la invención
[0001] La presente invención se refiere a un método y un sistema para analizar la consistencia de una muestra de heces.
Estado de la técnica
[0002] El cuidado de un hijo es la tarea más importante para un padre. Los avances en la tecnología permiten ayudar a los padres y cuidadores a seguir el desarrollo de los lactantes y detectar rápidamente ciertas anomalías. Cuando se trata de la nutrición del lactante, es importante detectar si hay anomalías en el sistema digestivo, o si el cuerpo del lactante está absorbiendo todos los nutrientes que necesita.
[0003] Para evaluar el funcionamiento del sistema digestivo, se conoce que analizar el patrón de heces proporciona una buena perspectiva. Las escalas para comparar las heces, con un conjunto de puntuaciones de escala de análisis de heces, ayudan a clasificar el tipo de heces y a sacar conclusiones a partir de ahí. Ejemplos de tales escalas son la Escala de Heces de Bristol (BSS) y la Escala de Heces de Ámsterdam. La bSs , que consiste en siete imágenes de diferentes consistencias de heces, permite la evaluación de la consistencia de las heces (escala 1 para bultos duros a escala 7 para heces acuosas), de una manera objetiva en adultos. El BSS también puede usarse para caracterizar las heces de lactantes y niños pequeños.
[0004] Cuando los padres visitan a los profesionales sanitarios (HCP) porque están preocupados por el bienestar de sus hijos, los HCP suelen hacer preguntas acerca de la consistencia de las heces de los lactantes, y estas preguntas son difíciles de responder para la mayoría de los padres. Cuando se pide a los padres que mantengan un registro de la consistencia de las heces de sus hijos, es difícil para ellos identificar la consistencia de las heces y la puntuación de la escala de análisis de heces asociada que se ajusta a las heces de sus hijos.
[0005] Sería deseable tener un sistema en el que los padres y los cuidadores pudieran hacer un seguimiento en tiempo real del patrón de heces, es decir, la consistencia, la frecuencia y el color de las heces, de sus hijos. También sería deseable que, independientemente de qué cuidador (padre, abuelo, niñera o guardería) esté cambiando el pañal, o ayudando al niño a usar un orinal o silla de baño, se hiciera un seguimiento del patrón de heces de una manera objetiva y consistente. También sería deseable disponer de un sistema que, en base a los patrones de heces observados, proporcione una indicación, ya sea de que todo es normal, lo que proporcionaría tranquilidad a los padres y cuidadores, o de que el patrón de heces del lactante no se comporta como se esperaba y que es aconsejable visitar a un HCP.
[0006] Hoy en día, con la costumbre de las personas de llevar consigo continuamente sus teléfonos inteligentes, tabletas u otros dispositivos portátiles, existe un esfuerzo por proporcionar aplicaciones móviles (apps), para ser ejecutadas por estos dispositivos portátiles, que puedan hacer más fáciles las tareas del día a día para los usuarios. Además, el procedimiento de toma de fotos del lactante para ver su desarrollo es una práctica común para los padres, mediante la cual pueden ver aproximadamente cómo está creciendo el lactante.
[0007] Esto también se puede aplicar para mantener el registro de los patrones de heces. Se conocen programas o aplicaciones que permiten introducir o capturar imágenes de heces y seleccionar manualmente una puntuación de una escala de análisis de heces que se adapte mejor a las heces en la imagen, para mantener un registro del funcionamiento del sistema digestivo a lo largo del tiempo. También se conocen programas o aplicaciones que permiten el uso de técnicas de reconocimiento del color para detectar automáticamente el color de las heces.
[0008] Aunque estas aplicaciones pueden ayudar a los padres y cuidadores a analizar algunas características de las heces de los lactantes, a veces es difícil realizar manualmente una clasificación, y es tedioso mantener manualmente un registro y, por lo tanto, existe la necesidad de un método para analizar con mayor precisión las características de las heces de un lactante, de una manera que sea fácil para los padres o cuidadores, y que, sin embargo, proporcione una clasificación precisa y rápida.
[0009] Los documentos CN 105654469 A e YVAN VANDENPLASET AL:"Development of the Brussels Infant and Toddler Stool Scale ('BITSS'): protocol of the study", representan la técnica anterior más próxima. El documento CN 105654469 divulga el uso de algoritmos de bosque aleatorio para clasificar colores en heces y Vandenplaset al.divulga un estudio sobre la escala BITSS.
Sumario de la invención
[0010] La invención proporciona un método y un sistema para analizar la consistencia de las heces según las reivindicaciones adjuntas.
[0011] La invención proporciona además un producto de programa informático para analizar la consistencia de las heces, comprendiendo un medio legible por ordenador que comprende códigos ejecutables por al menos un procesador para ejecutar un método según la invención.
Breve descripción de los dibujos
[0012] La presente invención se describirá con más detalle a continuación, con referencia a los dibujos adjuntos, en los que:
La figura 1 muestra una vista general de una forma de realización de la presente invención.
Las figuras 2a y 2b muestran diferentes disposiciones de un pañal que comprende heces según la presente invención.
La figura 3 muestra un diagrama de flujo que ilustra un método según la presente invención.
La figura 4 ilustra un diagrama del entrenamiento de imágenes según la presente invención.
La figura 5 muestra esquemáticamente un dispositivo portátil según una forma de realización de la presente invención.
La figura 6 muestra esquemáticamente un dispositivo portátil y un servidor según una forma de realización de la presente invención.
Descripción de formas de realización
[0013] La figura 1 representa una vista general de una forma de realización de la presente invención. Aunque las formas de realización de la presente invención comprendan heces colocadas en un pañal, un orinal, una cuña, una silla de baño, un inodoro alemán u otras ubicaciones similares, en la forma de realización de la figura 1, se representa un ejemplo en el que las heces se colocan en un pañal. Un pañal 20 que comprende las heces del lactante 30 se coloca en una posición abierta sobre una superficie 40, y un usuario usa un dispositivo portátil 10, para capturar una imagen del pañal 20 abierto con las heces 30. La imagen capturada puede ser utilizada por una aplicación que se ejecuta en el dispositivo portátil, y la aplicación puede introducir la imagen capturada en un modelo que comprende una CNN que realizará una serie de operaciones para obtener un vector de clasificación con probabilidades de las posibles puntuaciones en una escala de análisis de heces, y para obtener una puntuación prevista en base al vector de clasificación (es decir, la puntuación con la probabilidad más alta). Para obtener los mejores resultados del proceso de clasificación, es deseable que la imagen capturada tenga buenas características y, por lo tanto, que se cumplan ciertas condiciones predeterminadas. Como ejemplo de las condiciones que se van a cumplir, las heces 30 deben ser lo más recientes posible, de modo que sus propiedades (color, consistencia) aún no hayan cambiado debido, por ejemplo, a que una parte de las heces sea absorbida por el pañal. Por lo tanto, la imagen debe capturarse poco después de que se haya depositado las heces, y en la forma de realización de la figura 1, poco después de que el pañal 20 se haya llenado de heces, y un periodo adecuado para capturar la imagen es de hasta diez minutos desde el momento en que se ha llenado el pañal. El color de las heces en la imagen capturada también puede usarse, por la CNN o por un algoritmo diferente, para proporcionar información adicional. La aplicación del dispositivo portátil puede detectar automáticamente el color de las heces de la imagen capturada y analizarlas para proporcionar información. Esto permite proporcionar también información relacionada con si el color es normal o no, que junto con la consistencia, puede permitir una mejor determinación de posibles anomalías.
[0014] Otro ejemplo de una condición que debe cumplirse es que la imagen se capture con suficiente luz para distinguir claramente las características en la imagen, pero no con demasiada luz ya que esto puede modificar el color y apariencia reales de las características de la imagen. Un ejemplo de cómo se puede lograr esto es usando luz natural (luz diurna) o luz de una lámpara de techo. Sin embargo, el uso del flash de la cámara es menos recomendable, ya que podría cambiar el aspecto de la imagen.
[0015] Otro ejemplo de una condición es que el fondo de la imagen sea preferiblemente regular, como siguiendo un patrón, o uniforme. Si las heces se colocan en un orinal, una cuña, una silla de baño o un inodoro alemán, es deseable que el fondo sea uniforme. Si las heces se colocan en un pañal, como se representa en la forma de realización de la figura 1, es preferible que el pañal 20 esté en el primer plano de la imagen. La superficie 40 de una mesa uniforme es un ejemplo de un fondo adecuado.
[0016] Otro ejemplo de una condición que debe cumplirse es que no debe haber ningún otro objeto en la imagen. Si las heces se colocan en un orinal, una cuña, una silla de baño o un inodoro alemán, es deseable que solo las heces y el fondo estén presentes en la imagen, ningún otro objeto o parte de un cuerpo. Si las heces se colocan sobre un pañal, es deseable que no esté presente otro objeto que no sea el pañal 20 que contiene las heces 30. Partes del cuerpo del lactante, u otros objetos, no deberían estar presentes en la imagen. Sin embargo, si la imagen capturada tiene objetos indeseables alrededor de las heces, se podría cortar la imagen capturada para eliminar los objetos indeseables antes de introducir la imagen en la CNN. Se pueden realizar otros pasos de procesamiento previo, tales como modificar la resolución de la imagen capturada, cambiar el formato de la imagen u otros pasos para eliminar el ruido en la imagen.
[0017] Cabe señalar que las formas de realización de la invención pueden usar solo una de las condiciones predeterminadas, o cualquier combinación de las mismas. También debe tenerse en cuenta que pueden usarse otras condiciones predeterminadas, siempre que ayuden al usuario a obtener una imagen que sea adecuada para ser introducida a la CNN. Las condiciones predeterminadas que deben utilizarse pueden determinarse y modificarse en los ajustes de la aplicación, o se pueden predefinir, y un controlador del dispositivo portátil puede controlar qué condiciones predeterminadas se usan, y cómo se determinan.
[0018] Otros ejemplos de condiciones que deben cumplirse pueden verse en las figuras 2a y 2b, que muestran diferentes disposiciones de un pañal que comprende heces según la presente invención. De nuevo, se representa el ejemplo de heces en un pañal, pero el experto entenderá que las características pueden aplicarse de manera similar a otras formas de realización en las que las heces se proporcionan en un orinal, una cuña, una silla de baño, un inodoro alemán o similares. En la figura 2a, se puede ver un pañal abierto 20 que comprende heces 30, con un fondo uniforme 40, que en este caso corresponde a la parte superior de una mesa de superficie uniforme. En la figura 2a, no hay otros objetos que no sean el pañal presentes en la imagen. Una imagen como la de la figura 2a podría considerarse adecuada para el método de la presente invención.
[0019] Según una forma de realización, el dispositivo portátil 10, antes de capturar la imagen, por ejemplo, antes de apuntar la cámara hacia la heces, o cuando el usuario está apuntando la cámara hacia la heces, puede dar indicaciones al usuario para recordarle algunas condiciones que deben cumplirse (la luz debe ser suficiente, y similares). Estas condiciones pueden ser algunas o todas las condiciones predeterminadas descritas anteriormente, o condiciones diferentes. El dispositivo portátil puede, además, guiar al usuario para acercar o alejar el dispositivo portátil 10 de las heces, en la figura 2a, en el pañal 20, para cambiar el ángulo o la fuente de luz en la habitación para lograr una mejor luz en la imagen, etc., y proporcionar una indicación de cuándo la imagen podría ser adecuada. Esto puede permitir al usuario capturar una imagen que tenga buenas características y mejorará la tasa de éxito de la clasificación. Según una forma de realización, el dispositivo portátil 10 puede capturar automáticamente la imagen cuando detecta que el dispositivo portátil 10 está ubicado a una distancia adecuada de las heces, o el pañal 20, las condiciones de luz son adecuadas, o cuando se cumple cualquier otra condición deseable. La condición o condiciones que deben cumplirse para que el dispositivo portátil decida capturar automáticamente la imagen pueden definirse previamente.
[0020] En la figura 2b, el pañal 20 no está en una posición adecuada para capturar la imagen, dado que el pañal no está completamente abierto y, por lo tanto, las heces 30 no pueden identificarse lo suficiente. Según una forma de realización de la invención, al ver la guía mostrada en el dispositivo portátil, el usuario puede ser consciente de que se trata de una posición inadecuada y puede abrir el pañal. Según otra forma de realización, la aplicación proporcionará la guía antes de apuntar la cámara a las heces, y el usuario estará al tanto de que, por ejemplo, el pañal necesita estar abierto, de modo que no se capture una imagen como la representada en la figura 2b.
[0021] La figura 3 muestra un diagrama de flujo que ilustra un método según la presente invención. En el paso 301, se proporcionan las heces 30. Como se ha visto anteriormente, pueden proporcionarse en un pañal, que entonces se abrirá para capturar la imagen, o en un orinal, una cuña, una silla de baño o un inodoro alemán. En el paso 302, se captura una imagen de las heces 30 mediante una cámara comprendida en el dispositivo portátil 10. El paso de captura puede realizarse ejecutando una aplicación en el dispositivo portátil 10, que el usuario puede inicializar.
[0022] En el paso 303, la imagen capturada se proporciona a la capa de entrada de una red neuronal convolucional (CNN). Una CNN es una red neuronal adecuada para clasificar imágenes y, a diferencia de las redes neuronales normales, las capas de una CNN tienen neuronas dispuestas en tres dimensiones: ancho, altura y profundidad. Para los fines de esta divulgación, se entiende que una CNN es una red neuronal, por ejemplo, una red neuronal de alimentación directa, con múltiples capas, comprendiendo capas que transforman un volumen 3D de entrada en un volumen 3D de salida. En una forma de realización, una CNN comprende una capa de entrada y una de salida, con múltiples capas ocultas entre ellas. Cada una de las capas ocultas puede ser una capa convolucional, una capa de agrupación, una capa completamente conectada y una capa de normalización. Tales redes neuronales pueden implementarse, por ejemplo, usando la biblioteca TensorFlow (Abadiet al"TensorFlow: A System for Large-Scale Machine Learning", 12th USENIX Symposium on Operating Systems Design and Implementation, 2016).
[0023] A lo largo de las capas de la CNN, la imagen de entrada completa, color o escala de grises, se reduce a un único vector de puntuaciones de clase, o vector de clasificación. En la presente invención, el paso 304 comprende procesar la imagen capturada para obtener un vector de clasificación y una puntuación prevista según la escala de análisis de heces. La imagen capturada con el dispositivo portátil es la imagen de entrada a la CNN, ya sea en color rojo, verde, azul o como una imagen en escala de grises. El vector único de salida es un vector de clasificación que comprende los valores de probabilidad de cada puntuación posible. La puntuación prevista se puede establecer en la puntuación con la probabilidad más alta entre las puntuaciones en el vector de clasificación.
[0024] Se pueden usar varias escalas de análisis de heces, por ejemplo, la Escala de Heces de Bristol (BSS), la Escala de Heces de Ámsterdam, o cualquier otra escala adecuada, tal como la Escala de Heces de Lactantes y Niños pequeños de Bruselas (BITSS), actualmente en desarrollo (VandenPlaset al.,Development of the Brussels Infant and Toddler Stool Scale ('BITSS"): Protocol of the study', BMJ Open 2017; 7: e014620.).
[0025] Si, por ejemplo, se usa la BSS, el vector es un vector 1x1x7 que comprende probabilidades para cada una de las siete posibles puntuaciones que forman la escala.
[0026] El paso 304 puede ser realizado por un controlador del dispositivo portátil 10, o puede ser realizado por un servidor en comunicación con el dispositivo portátil 10. En el segundo escenario, el controlador del dispositivo portátil ordenará a un transceptor del dispositivo portátil 10 que transmita la imagen capturada a un servidor, y el procesamiento de la imagen capturada, es decir, el cálculo de la CNN para proporcionar un vector de clasificación, y/o una puntuación prevista, es realizado por el servidor. Esto es conveniente cuando el dispositivo portátil carece de suficiente potencia computacional y gráfica para realizar las operaciones requeridas por la CNN. Después de que el vector de clasificación haya sido obtenido por el servidor o el dispositivo portátil 10, el paso 305 consiste en almacenar información sobre el vector de clasificación o sobre la puntuación. Esta información puede almacenarse en el dispositivo portátil 10 o en el servidor, o en ambos. Si se almacena información sobre el vector de clasificación, el dispositivo portátil puede tomar una decisión sobre la puntuación más probable seleccionando la puntuación con el valor de probabilidad más alto entre las puntuaciones en el vector de clasificación. Si se almacena la puntuación, se puede omitir el paso de tomar una decisión. A continuación, el dispositivo portátil 10 que ejecuta la aplicación muestra la puntuación. En otra forma de realización, el servidor también puede realizar la selección de la puntuación en base a los valores de probabilidad de todas las puntuaciones, y enviar la puntuación al dispositivo portátil. La información sobre la puntuación prevista comprende al menos una de las siguientes: la propia puntuación, la imagen capturada, información sobre la fecha y/u hora en la que se capturó la imagen, el vector de clasificación obtenido con la CNN, o alguna información adicional que pueda ser útil para los padres y cuidadores, y para la aplicación.
[0027] La figura 4 ilustra un diagrama del entrenamiento de imágenes según la presente invención. Cuando la aplicación para proporcionar información sobre las heces se está ejecutando en el dispositivo portátil 10, la imagen capturada se introduce en un modelo que comprende una CNN que proporcionará como resultado un vector de clasificación que comprende valores de probabilidad para las posibles puntuaciones dentro de una escala de análisis de heces, o una puntuación prevista a partir de dicho vector de clasificación. Para proporcionar el vector de clasificación, la CNN necesita estar previamente pre-entrenada, es decir, necesita estar provista de suficiente información para poder clasificar una imagen de entrada. Esto puede realizarse con un conjunto de imágenes etiquetadas (etiquetadas con una puntuación de una escala de análisis de heces), de modo que a partir del conjunto de imágenes etiquetadas, la CNN puede aprender a predecir automáticamente una etiqueta específica. El aprendizaje por transferencia también se puede usar para responder a una tarea de reconocimiento de imágenes específica (como predecir una puntuación de un BSS o BITSS a partir de la imagen de las heces). Esta metodología permite construir un modelo que responderá a una pregunta específica sin recopilar miles de imágenes y entrenar un modelo desde cero. En este enfoque, se puede usar un modelo pre entrenado y solo las últimas capas se personalizan para predecir la puntuación. La CNN que se va a usar puede basarse en CNNs conocidas (por ejemplo, basadas en bibliotecas Tensorflow), pero al menos la última capa se personaliza, de modo que la salida de la CNN proporcione un vector de clasificación que contenga cada una de las puntuaciones de una escala de análisis de heces. El entrenamiento de al menos la última capa de la CNN se realiza de la siguiente manera. En el paso 401, se proporciona un conjunto inicial de imágenes. Ejemplos de un tamaño de conjunto adecuado son al menos 200 imágenes por puntuación, al menos 1000 imágenes en total (que comprenden las imágenes para todas las puntuaciones de la escala), más preferiblemente al menos 1500, y más preferiblemente al menos 1600 imágenes. Estas imágenes se etiquetan manualmente con una puntuación de la escala de análisis de heces que se va a usar, como el BSS. Entre el conjunto inicial de imágenes, se selecciona un subconjunto en el paso 402 como imágenes de prueba, y se selecciona un subconjunto en el paso 403 como imágenes de entrenamiento. Con el subconjunto de imágenes de entrenamiento, en el paso 404 se implementa el modelo de entreno, y durante el modelo de entreno, los valores dados a ciertos elementos en las operaciones que se están realizando se actualizan comparando los resultados de la operación con las etiquetas que tienen inicialmente las imágenes. De esa manera, la CNN "aprende" a predecir mejor la puntuación correcta para una imagen. Después de eso, el subconjunto de imágenes de prueba se usa para evaluar el modelo en el paso 405. Una vez que se ha realizado esta iteración, el paso 406 puede realizarse opcionalmente, donde el tamaño del conjunto de entrenamiento puede aumentarse (y, por tanto, el tamaño del conjunto de prueba disminuye) y el proceso de iteración se repite desde el paso 401. Este paso 406 de puesta a punto puede aumentar la precisión del modelo. Una vez entrenada la CNN, se conocen los valores que usa para los elementos en las diferentes operaciones, y con ellos la CNN puede predecir la clasificación de una imagen de entrada, como una imagen de las heces en un pañal capturada por un dispositivo portátil. El modelo entrenado que comprende la CNN puede entonces ejecutarse en el dispositivo portátil, o en el servidor, para proporcionar una puntuación para una imagen capturada, como ya se ha ilustrado anteriormente. De acuerdo con las formas de realización de la invención, además del paso 406 de puesta a punto, la aplicación puede permitir recopilar imágenes adicionales que se utilizarán para volver a entrenar el modelo, si el conjunto de datos inicial no es lo suficientemente adecuado para alcanzar una precisión aceptable.
[0028] Durante el paso de entrenamiento, y con el fin de mejorar la precisión y fiabilidad de la clasificación, puede realizarse un paso en el que, para el etiquetado manual de las imágenes, la evaluación es dada por al menos uno, preferiblemente dos, padres o cuidadores (por ejemplo madres), donde estos padres o cuidadores preferiblemente no tienen relación con los lactantes de los que se obtuvo el conjunto inicial de imágenes. En una forma de realización preferida, cuando se usa la evaluación de dos padres o cuidadores (o una combinación), el desacuerdo en su evaluación se resuelve mediante la evaluación de un profesional sanitario para obtener la puntuación final, es decir, la etiqueta.
[0029] En un ejemplo según una forma de realización de la presente invención, se usa un total de 2731 imágenes como conjunto inicial de imágenes. Entre estas imágenes, se selecciona un subconjunto de 2478 imágenes como imágenes de entrenamiento, y se selecciona un subconjunto de 209 imágenes como imágenes de prueba. La tabla 1, a continuación, muestra un ejemplo de una evaluación realizada con las 209 imágenes de prueba:
Tabla 1
[0030] Como se ve en la tabla 1, a partir de las 209 imágenes de prueba, se identificaron 16 imágenes como pertenecientes a la puntuación 1 mediante una clasificación de aprendizaje humano y automático. De manera similar, se identificaron 10 imágenes como pertenecientes a la puntuación 2 tanto por la clasificación de aprendizaje humano como automático, y similares, como se ve en las celdas de la diagonal de la tabla 1. Esto representa un grado de concordancia del 63,6 %. Este nivel de concordancia es incluso mayor si se considera un error de puntuación ± 1, como se muestra en las celdas adyacentes a los elementos diagonales en la tabla 1, donde se puede ver que la concordancia alcanza un 93,8 %.
[0031] Según formas de realización de la presente invención, la clasificación de la consistencia de las heces que proporciona la aplicación que se ejecuta en el dispositivo portátil o en un servidor sigue las siete puntuaciones posibles del BSS.
[0032] En una forma de realización según la invención, el sistema operativo del dispositivo portátil es iOS y/o Android. La aplicación que se ejecuta en el dispositivo portátil 10 que proporciona la clasificación de las heces puede ser como sigue:
En primer lugar, puede haber un proceso de registro. Cuando se abre la aplicación, el usuario tiene la opción de iniciar sesión o registrarse. Si hace clic en registrarse, puede mostrarse una nueva pantalla solicitando un código (como un código de contraseña de un solo uso (OTP)). Una vez introducido y validado por el sistema como disponible, puede mostrarse una nueva pantalla solicitando credenciales de inicio de sesión, como un correo electrónico y una contraseña. Después, la información sobre el lactante puede introducirse en la pantalla siguiente (nombre, fecha de nacimiento, sexo).
En segundo lugar, una vez completado el registro, o una vez que el usuario ha iniciado sesión, puede aparecer una pantalla de "inicio", con diferentes tipos de información y opciones, incluyendo información sobre un "módulo de heces". Dentro del módulo de heces, el usuario puede crear una nueva entrada, lo que le permite capturar una imagen, como se ha explicado anteriormente, o que introduzca una imagen almacenada que pueda haber sido capturada antes, o recibida por el dispositivo portátil. Según una forma de realización de la invención, el dispositivo portátil puede capturar automáticamente la imagen cuando se cumplen ciertas condiciones. Según otra forma de realización, la aplicación puede mostrar algún tipo de guía de modo que el usuario pueda tomar una fotografía con características suficientemente buenas. Esta guía puede ser un mensaje del tipo "Para obtener una imagen de mejor calidad, sitúese en una habitación con suficiente luz, e intente capturar solo las heces (y el pañal)". Sin embargo, el experto entiende que esto es meramente un ejemplo, y pueden mostrarse otros mensajes de orientación. A continuación, la aplicación mostrará, usando el método descrito anteriormente, una puntuación en una escala de análisis de heces (como acuosa, blanda, formada y dura basándose en, por ejemplo, la correspondencia con la BSS), y la información relacionada con la puntuación puede almacenarse en el dispositivo portátil. Además, la imagen capturada puede almacenarse en el dispositivo portátil. Con una pluralidad de entradas almacenadas, se pueden crear gráficos de desarrollo para permitir el seguimiento de los cambios en la consistencia de las heces, y también para determinar la frecuencia en la que se proporcionan las heces, que puede proporcionar información adicional relacionada con, por ejemplo, la diarrea o el estreñimiento.
[0033] Las entradas pueden modificarse y eliminarse. Las entradas también pueden compartirse con una base de datos de salud (servidor) compartida con el profesional sanitario (HCP) del lactante de modo que si hay una indicación dada para la necesidad de atención especial, el dispositivo portátil puede avisar al usuario para que contacte con el HCP, que tendrá entonces acceso rápido a la información relevante para permitir una toma de decisiones más rápida sobre los siguientes pasos.
[0034] Puede ser posible que el HCP compare la puntuación prevista con la imagen real y modifique la puntuación si es necesario. En una forma de realización, tal muestra corregida se introduce automáticamente en un conjunto de datos de entrenamiento adicionales, de modo que el modelo se pueda volver a entrenar para mejorar la precisión.
[0035] Todas las imágenes capturadas con la aplicación pueden almacenarse en el dispositivo portátil y/o en un servidor remoto con el que el dispositivo móvil puede comunicarse, lo que permitirá que el HCP tenga acceso a los datos y evalúe los datos de sus pacientes si se conceden derechos de acceso.
[0036] La figura 5 muestra esquemáticamente un dispositivo portátil 10 según una forma de realización de la presente invención. El dispositivo portátil 10 tiene una unidad de visualización 501, que puede ser una pantalla táctil adecuada para mostrar información y manejar la entrada del usuario. El dispositivo 10 tiene además una cámara 502 para grabar imágenes y clips de vídeo, un procesador 503 para procesar imágenes grabadas, una memoria 504 para almacenar imágenes, datos de programa, la CNN y similares, y una unidad de comunicación 505 para la comunicación con otros dispositivos a través de conexiones por cable o inalámbricas. En una forma de realización, el procesador 503 está programado para procesar imágenes grabadas usando la CNN y para implementar generalmente los procesos como se describe en esta solicitud.
[0037] La figura 6 muestra esquemáticamente un dispositivo portátil 10 y un servidor 100 según una forma de realización de la presente invención. El dispositivo portátil 10 y el servidor 100 pueden comunicarse a través de un enlace por cable o inalámbrico. En una forma de realización, el dispositivo portátil 10 envía imágenes grabadas al servidor. El servidor tiene un procesador, una memoria y una unidad de comunicación. El servidor 100 puede programarse para procesar imágenes recibidas usando la CNN y para devolver los resultados al dispositivo portátil 10. Además, el servidor puede almacenar los resultados obtenidos y/o las imágenes recibidas, y/o cualquier resultado de cálculo intermedio. El servidor puede estar dispuesto además para implementar el método de entrenamiento descrito con referencia a la figura 4.
[0038] En la descripción anterior de las figuras, la invención se ha descrito con referencia a formas de realización específicas de la misma. Sin embargo, será evidente que se pueden realizar diversas modificaciones y cambios en la misma sin apartarse del alcance de la invención, tal como se resume en las reivindicaciones adjuntas.
[0039] En este documento y en sus reivindicaciones, el verbo "comprender" y sus conjugaciones se usan en su sentido no limitativo para significar que se incluyen los elementos que siguen a la palabra, sin excluir los elementos no mencionados específicamente. Además, la referencia a un elemento por el artículo indefinido "un" o "una" no excluye la posibilidad de que más de uno de los elementos esté presente, a menos que el contexto requiera claramente que haya uno y solo uno de los elementos. El artículo indefinido "un" o "una" significa, por lo tanto, normalmente "al menos uno".

Claims (12)

REIVINDICACIONES
1. Método implementado por ordenador para analizar la consistencia de las heces, que comprende los pasos de: - proporcionar heces de un lactante,
- capturar, con un dispositivo portátil que comprende una cámara, una imagen de las heces,
- proporcionar la imagen capturada a una capa de entrada de una red neuronal convolucional preentrenada, CNN;
- procesar, mediante el dispositivo portátil, la imagen capturada usando la CNN para obtener, a partir de una capa final de la CNN, un vector de clasificación y obtener información sobre una puntuación prevista a partir del vector de clasificación;
donde la CNN se ha obtenido mediante aprendizaje por transferencia, personalizando al menos la capa final de la CNN de modo que cada elemento del vector de clasificación corresponda a una puntuación respectiva de una escala de análisis de consistencia de las heces, y
- almacenar información sobre la puntuación prevista,
donde la imagen es una imagen en color, y donde el método comprende además detectar automáticamente, mediante el dispositivo portátil, el color de las heces y analizar el color para proporcionar información adicional.
2. Método según la reivindicación 1, donde las heces se proporcionan en un pañal abierto, un orinal, una cuña, una silla de baño o un inodoro alemán.
3. Método según cualquiera de las reivindicaciones anteriores, que comprende además mostrar, mediante el dispositivo portátil, información de guía para cumplir condiciones predeterminadas antes de capturar la imagen.
4. Método según cualquiera de las reivindicaciones anteriores, donde capturar la imagen comprende capturar automáticamente la imagen mediante el dispositivo portátil cuando se cumplen unas condiciones predeterminadas.
5. Método según las reivindicaciones 3 o 4 cuando depende de la reivindicación 2, donde las condiciones predeterminadas comprenden al menos una condición en la que las heces o el pañal se colocan sobre una superficie con un fondo regular, o una condición en la que las heces o el pañal sean el único objeto presente en la imagen.
6. Método según cualquiera de las reivindicaciones anteriores, donde la información sobre la puntuación prevista comprende al menos una puntuación prevista, la imagen capturada de las heces y la fecha y/o la hora en la que se capturó la imagen.
7. Método según cualquiera de las reivindicaciones anteriores, donde la información sobre la puntuación prevista se almacena al menos en el dispositivo portátil o en un servidor que se comunica con el dispositivo portátil.
8. Método según la reivindicación 1, que comprende además analizar una frecuencia en la que se producen las heces, basándose en información almacenada sobre el tiempo relacionada con las puntuaciones previstas para una pluralidad de imágenes capturadas.
9. Sistema de análisis de la consistencia de las heces, que comprende:
- un dispositivo portátil que comprende:
una cámara configurada para capturar una imagen de las heces de un lactante,
un controlador configurado para proporcionar la imagen capturada a una capa de entrada de una red neuronal convolucional preentrenada, CNN,
procesar la imagen capturada usando la CNN para obtener, a partir de una capa final de la CNN, un vector de clasificación; donde la CNN se ha obtenido mediante aprendizaje de transferencia, personalizando al menos la capa final de la CNN de modo que cada elemento del vector de clasificación corresponda a una puntuación respectiva de una escala de análisis de consistencia de las heces, y obtener información sobre una puntuación prevista a partir del vector de clasificación, y
una memoria para almacenar la información sobre la puntuación prevista,
donde la imagen es una imagen en color, y donde el controlador está configurado para detectar automáticamente el color de las heces y analizar el color para proporcionar información adicional.
10. Sistema según la reivindicación 9, configurado para funcionar según cualquiera de las reivindicaciones 2 a 8.
11. Sistema según cualquiera de las reivindicaciones 9 o 10, que comprende además un servidor para comunicarse con el dispositivo portátil, donde el servidor está configurado para almacenar la información sobre la puntuación prevista.
12. Producto de programa informático para analizar la consistencia de las heces, que comprende:
un medio legible por ordenador que comprende códigos ejecutables por al menos un procesador para ejecutar un método según cualquiera de las reivindicaciones 1 a 8.
ES19743020T 2018-06-21 2019-05-28 Method and system for characterizing stool patterns of young infants Active ES2996922T3 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
PCT/NL2018/050401 WO2019245359A1 (en) 2018-06-21 2018-06-21 Method and system for characterizing stool patterns of young infants
PCT/NL2019/050310 WO2019245360A1 (en) 2018-06-21 2019-05-28 Method and system for characterizing stool patterns of young infants

Publications (1)

Publication Number Publication Date
ES2996922T3 true ES2996922T3 (en) 2025-02-13

Family

ID=63143335

Family Applications (1)

Application Number Title Priority Date Filing Date
ES19743020T Active ES2996922T3 (en) 2018-06-21 2019-05-28 Method and system for characterizing stool patterns of young infants

Country Status (5)

Country Link
US (2) US12073944B2 (es)
EP (1) EP3811376B1 (es)
CN (2) CN119943343A (es)
ES (1) ES2996922T3 (es)
WO (2) WO2019245359A1 (es)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11532396B2 (en) * 2019-06-12 2022-12-20 Mind Medicine, Inc. System and method for patient monitoring of gastrointestinal function using automated stool classifications
KR20220142497A (ko) * 2020-03-18 2022-10-21 고쿠리츠다이가쿠호우진 도쿄다이가쿠 자동배설처리장치、관리시스템、판정방법 및 프로그램
CN112183674B (zh) * 2020-11-06 2022-06-10 南昌航空大学 一种粪便宏观图像颜色和性状多任务识别方法及系统
TWI894390B (zh) * 2020-12-07 2025-08-21 日商三得利控股股份有限公司 資訊處理裝置、資訊處理方法、及程式
JP7454766B2 (ja) * 2021-04-26 2024-03-25 パナソニックIpマネジメント株式会社 便状態表示システム
WO2022271572A1 (en) * 2021-06-20 2022-12-29 Dieta Inc. System and method for determining a stool condition
CN114073504B (zh) * 2021-11-26 2024-06-25 四川护理职业学院 一种婴幼儿生命体征监测系统及监测方法
KR20240008606A (ko) * 2022-07-12 2024-01-19 경북대학교 산학협력단 대변이미지 분석 시스템 및 방법

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3642336B2 (ja) * 2003-07-01 2005-04-27 松下電器産業株式会社 目画像撮像装置
US7817914B2 (en) * 2007-05-30 2010-10-19 Eastman Kodak Company Camera configurable for autonomous operation
US20130052624A1 (en) * 2011-08-25 2013-02-28 Miguel Saps Tridimensional stool assessment instrument, methods, and uses thereof
US20150046184A1 (en) * 2013-08-12 2015-02-12 Dental Imaging Technologies Corporation Managing dental photographs acquired by portable computing devices
JP5861977B2 (ja) * 2014-06-18 2016-02-16 関根 弘一 大便色検知装置
US20170046613A1 (en) 2015-08-10 2017-02-16 Facebook, Inc. Systems and methods for content classification and detection using convolutional neural networks
CN105654469B (zh) * 2015-12-22 2018-11-16 深圳贝申医疗技术有限公司 一种婴儿大便颜色的自动分析方法及系统
US10402697B2 (en) * 2016-08-01 2019-09-03 Nvidia Corporation Fusing multilayer and multimodal deep neural networks for video classification
CA3077830C (en) * 2016-12-05 2023-03-07 Avigilon Coporation System and method for appearance search
CN107492099B (zh) * 2017-08-28 2021-08-20 京东方科技集团股份有限公司 医学图像分析方法、医学图像分析系统以及存储介质
CN108009567B (zh) * 2017-11-10 2021-11-02 电子科技大学 一种结合图像颜色及hog和svm的粪便性状的自动辨别方法
US20200357516A1 (en) * 2017-11-21 2020-11-12 Beth Israel Deaconess Medical Center, Inc. Systems and methods for automatically interpreting images of microbiological samples
US10719932B2 (en) * 2018-03-01 2020-07-21 Carl Zeiss Meditec, Inc. Identifying suspicious areas in ophthalmic data

Also Published As

Publication number Publication date
WO2019245360A1 (en) 2019-12-26
CN119943343A (zh) 2025-05-06
US12073944B2 (en) 2024-08-27
WO2019245359A1 (en) 2019-12-26
US20240412872A1 (en) 2024-12-12
CN112334989B (zh) 2025-01-03
EP3811376B1 (en) 2024-09-25
CN112334989A (zh) 2021-02-05
EP3811376A1 (en) 2021-04-28
US20210265059A1 (en) 2021-08-26
EP3811376C0 (en) 2024-09-25

Similar Documents

Publication Publication Date Title
ES2996922T3 (en) Method and system for characterizing stool patterns of young infants
Slone et al. Self‐generated variability in object images predicts vocabulary growth
US11862339B2 (en) Model optimization and data analysis using machine learning techniques
US12033316B2 (en) Systems and methods of measuring the body based on image analysis
US20190083003A1 (en) Healthcare caregiver behavior coaching system and method
James et al. Young children's self-generated object views and object recognition
Bhatt et al. How does learning impact development in infancy? The case of perceptual organization
US20180190382A1 (en) Subject assessment using localization, activity recognition and a smart questionnaire
Thurman et al. Physical and biological constraints govern perceived animacy of scrambled human forms
Vallila-Rohter et al. An examination of strategy implementation during abstract nonlinguistic category learning in aphasia
Macchi Cassia et al. Searching for faces of different ages: Evidence for an experienced-based own-age detection advantage in adults.
KR102165833B1 (ko) 이상반응을 검출하는 단말기, 서버 또는 방법
KR102424120B1 (ko) 성장캡슐을 이용한 유아정보제공장치 및 그 장치의 구동방법
Prinsen et al. Automatic eye localization for hospitalized infants and children using convolutional neural networks
Reilly et al. The role of machine learning in autism spectrum disorder assessment and management
US12272054B2 (en) Systems and methods for developmental monitoring of children
HK40125799A (zh) 用於表徵婴幼儿粪便模式的方法和系统
Wood Spontaneous preference for slowly moving objects in visually naïve animals
Akter et al. A Machine Learning Driven Analysis to Determine the Correlation Between Parenting Style and Offspring’s Behavior
WO2024037676A1 (es) Sistema implementado en una red neuronal para la detección de vasos sanguíneos a través de segmentación de píxeles
Bejan et al. Deep Learning-based software application for assisting people with Alzheimer's disease
US12350048B2 (en) Management of psychiatric or mental conditions using digital reality with cognitive behavioral technique
Yulzari Kinematic Signatures of Children With ASD
JP2021125201A (ja) 情報処理システム、情報処理方法、情報処理プログラム、及び、監視データのデータ構造
Prokasky et al. Sleep, Temperament, and Behavior Problems