ES2966999T3 - Procedimiento y dispositivo para entrenar una rutina de aprendizaje automático para el control de un sistema técnico - Google Patents

Procedimiento y dispositivo para entrenar una rutina de aprendizaje automático para el control de un sistema técnico Download PDF

Info

Publication number
ES2966999T3
ES2966999T3 ES18187335T ES18187335T ES2966999T3 ES 2966999 T3 ES2966999 T3 ES 2966999T3 ES 18187335 T ES18187335 T ES 18187335T ES 18187335 T ES18187335 T ES 18187335T ES 2966999 T3 ES2966999 T3 ES 2966999T3
Authority
ES
Spain
Prior art keywords
training
training data
data
distribution
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18187335T
Other languages
English (en)
Inventor
Stefan Depeweg
Markus Michael Geipel
Gaby Marquardt
Daniela Seidel
Christoph Tietz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthcare Diagnostics Inc
Original Assignee
Siemens Healthcare Diagnostics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Healthcare Diagnostics Inc filed Critical Siemens Healthcare Diagnostics Inc
Application granted granted Critical
Publication of ES2966999T3 publication Critical patent/ES2966999T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Abstract

Para entrenar una rutina de aprendizaje automático (BNN), la rutina de aprendizaje automático (BNN) lee una secuencia de primeros datos de entrenamiento (PIC). La rutina de aprendizaje automático (BNN) se entrena utilizando los primeros datos de entrenamiento (PIC), y el entrenamiento establece una gran cantidad de parámetros de aprendizaje (LP) de la rutina de aprendizaje automático (BNN). Además, se determina una distribución de valores (VLP) de los parámetros de aprendizaje (LP) que se produce durante el entrenamiento y, dependiendo de la distribución de valores determinada (VLP) de los parámetros de aprendizaje (LP), se genera un mensaje de continuación (CN). Dependiendo del mensaje de continuación (CN), el entrenamiento continúa con una secuencia adicional de los primeros datos de entrenamiento (PIC) o se solicitan otros datos de entrenamiento (PIC2) para el entrenamiento. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Procedimiento y dispositivo para entrenar una rutina de aprendizaje automático para el control de un sistema técnico En el control de sistemas técnicos complejos, como equipos de diagnóstico médico, equipos de análisis de imágenes, robots, sistemas autónomos, turbinas eólicas, turbinas de gas o plantas de fabricación, se utilizan cada vez con más frecuencia procedimientos de aprendizaje automático para optimizar las capacidades del sistema técnico con respecto a criterios especificados. En particular, una evaluación de los datos de los sensores del sistema técnico se puede controlar mediante una rutina de aprendizaje automático entrenada.
Para el entrenamiento de rutinas de aprendizaje automático se encuentra disponible una variedad de procedimientos de aprendizaje bien conocidos, como por ejemplo, los procedimientos de aprendizaje supervisado. Como datos de entrenamiento se pueden utilizar, en particular, datos de funcionamiento históricos o inmediatos o datos de sensores del sistema técnico a controlar o de sistemas técnicos similares.
La solicitud US 2015/052093 A1 revela un procedimiento para entrenar una red neuronal modulando un parámetro de entrenamiento durante el entrenamiento.
Así, por ejemplo, en un dispositivo de diagnóstico médico, se puede entrenar una rutina de aprendizaje automático para reconocer y clasificar específicamente tipos de células o tejidos en imágenes microscópicas o tumores en imágenes tomográficas. Para este tipo de entrenamiento se suele utilizar una gran variedad de imágenes médicas preclasificadas, que se introducen en la rutina de aprendizaje automático como datos de entrenamiento. De este modo, se puede entrenar la rutina de aprendizaje automático para que reproduzca la clasificación dada lo mejor posible o para que reconozca los tipos de células, tipos de tejidos o tumores con la menor desviación posible de la clasificación dada. De manera análoga, se puede entrenar una rutina de aprendizaje automático para una turbina de gas, una planta de fabricación u otro sistema técnico para que reconozca o clasifique estados operativos específicos en base a datos de sensores u otros datos de funcionamiento y/o para controlar el sistema técnico de manera optimizada.
Sin embargo, en la práctica sucede con frecuencia que algunas de las clases a reconocer aparecen con mucha menos frecuencia que otras clases de reconocimiento. Por lo tanto, para clases de reconocimiento muy raras, por lo general hay muchos menos datos de entrenamiento disponibles que para otras clases de reconocimiento.
Sin embargo, especialmente en el campo médico, resulta importante reconocer correctamente patrones o cambios patológicos raros. En tales casos, puede pasar mucho tiempo hasta que se hayan evaluado suficientes datos de entrenamiento de clases raras para reconocer estas clases con suficiente confiabilidad.
Independientemente de esto, algunas clases de reconocimiento pueden ser más difíciles de distinguir entre sí en base a los datos de entrenamiento proporcionados que otras clases de reconocimiento. En tales casos sucede frecuentemente que la fiabilidad de la detección ya no se puede mejorar significativamente ni siquiera con un entrenamiento continuo.
Según el estado del arte las circunstancias anteriores se consideran generalmente aumentando sucesivamente la cantidad de datos de entrenamiento y observando así una tasa de éxito de la rutina de aprendizaje automático. Tan pronto como la tasa de éxito ya no mejora significativamente, especialmente en clases de reconocimiento poco frecuentes, se puede dar fin al entrenamiento. Cuando la tasa de éxito sigue siendo sistemáticamente baja, esto aún puede verse como una indicación de que los datos del sensor utilizados para el entrenamiento no son adecuados para una detección fiable. En tal caso, el entrenamiento suele continúa o se repite con otros datos de sensor.
El procedimiento anterior puede aumentar significativamente el esfuerzo de entrenamiento necesario, especialmente cuando existen clases de reconocimiento poco frecuentes.
El objeto de la presente invención consiste en especificar un procedimiento y un dispositivo para entrenar una rutina de aprendizaje automático para controlar un sistema técnico que permiten un entrenamiento más eficiente.
Este objeto se resuelve mediante un procedimiento con las características de la reivindicación 1, mediante un dispositivo con las características de la reivindicación 13, mediante un producto de programa informático con las características de la reivindicación 14 y mediante un medio de almacenamiento legible por ordenador con las características de reivindicación de patente 15.
Resulta que una distribución de los valores de los parámetros de aprendizaje que se producen durante el entrenamiento, y especialmente la amplitud de su distribución, es por lo general un indicador temprano de si el éxito de un entrenamiento se puede mejorar añadiendo más datos iniciales de entrenamiento o no. En este último caso, se pueden solicitar datos de entrenamiento cualitativamente diferentes en una fase temprana y utilizarlos para un entrenamiento posterior. De esta manera, con frecuencia se puede evitar que se proporcionen más primeros datos de entrenamiento que ya no mejoren significativamente el éxito del entrenamiento.
Mediante la presente invención se puede controlar de manera ventajosa el entrenamiento y, en particular, el suministro de datos de entrenamiento adecuados y, en muchos casos, el entrenamiento se puede mejorar o acortar significativamente.
En función de esto, el sistema técnico se puede controlar de manera optimizada.
El procedimiento conforme a la invención, el dispositivo conforme a la invención y el producto de programa informático conforme a la invención se pueden realizar o implementar, por ejemplo, mediante uno o más procesadores, circuitos integrados de aplicación específica (ASIC), procesadores de señal digitales (DSP) y/o los así denominados como "Field Programmable Gate Arrays" (FPGA) (matrices de puertas programables en campo). Los perfeccionamiento ventajosos de la presente invención están indicados en las reivindicaciones relacionadas. Según formas de ejecución ventajosas de la invención, los otros datos de entrenamiento pueden presentar además un tipo diferente que los primeros datos de entrenamiento, adquirirse de manera diferente que los primeros datos de entrenamiento, incluir datos de sensor diferentes a los primeros datos de sensor y/o proceder de una fuente diferente a los primeros datos de entrenamiento.
Además, en función del mensaje de continuación, se puede controlar adicionalmente un sensor o un sistema de sensores de tal manera que se modifique un parámetro de sensor de un sensor para registrar datos de entrenamiento, que permita que un sensor del sistema de sensores registre datos de entrenamiento y /o que se puedan seleccionar datos específicos del sensor del sistema de sensores como datos de entrenamiento.
De acuerdo con una forma ventajosa de ejecución de la presente invención es posible determinar un ancho de distribución y/o un valor de entropía de la distribución de valores de los parámetros de aprendizaje. A medida que aumenta el ancho de distribución y/o el valor de entropía, el entrenamiento puede continuar preferentemente con la secuencia adicional de los primeros datos de entrenamiento. Esto resulta ventajoso porque un ancho de distribución mayor o un valor de entropía mayor de la distribución de valores de los parámetros de aprendizaje se pueden considerar en muchos casos como un indicador de que aún no se ha encontrado un ajuste óptimo de los parámetros de aprendizaje. En tales casos, generalmente se puede esperar que el éxito del entrenamiento se pueda mejorar mediante más entrenamiento con los primeros datos de entrenamiento. Un respectivo ancho de distribución se puede determinar, en particular, a partir de distribuciones de valores de parámetros de aprendizaje individuales, de distribuciones de valores de grupos de parámetros de aprendizaje o de una distribución de valores de todos los parámetros de aprendizaje.
Según otra forma de ejecución ventajosa de la invención, se puede determinar una distribución de valores de los datos de salida de la rutina de aprendizaje y, en función de la distribución de valores de los datos de salida, se puede generar el mensaje de continuación.
En particular, es posible determinar un ancho de distribución y/o un valor de entropía de la distribución de valores de los datos de salida. Con un ancho de distribución creciente y/o un valor de entropía creciente, se pueden solicitar preferentemente los otros datos de entrenamiento. Esto resulta ventajoso en el sentido de que un mayor ancho de distribución o un mayor valor de entropía de la distribución de valores de los datos de salida se pueden valorar en muchos casos como un indicador de que la rutina de aprendizaje entrenada sólo puede ofrecer resultados inciertos. En tales casos, el éxito del entrenamiento generalmente se puede mejorar cambiando a datos de entrenamiento cualitativamente diferentes.
En particular, como ancho de distribución respectivo se puede determinar una dispersión, varianza o desviación estándar de la distribución de valores de los parámetros de aprendizaje o de la distribución de valores de los datos de salida.
Ventajosamente, una respectiva distribución de valores se puede representar, mostrar o modelar mediante un ancho de distribución y/o un valor medio, preferentemente una distribución gaussiana estadística o una distribución categórica entre clases de reconocimiento. De esta manera se pueden almacenar las distribuciones de valores economizando espacio y procesarlas de forma eficiente.
Según un perfeccionamiento ventajoso de la invención, cada uno de los conjuntos de datos de entrenamiento de los primeros datos de entrenamiento se puede asignar a una determinada clase de reconocimiento. De manera preferente, la asignación a una clase de reconocimiento se puede realizar informando la clase almacenada en el respectivo conjunto de datos de entrenamiento. Una información de clase de este tipo puede asignar, por ejemplo, una imagen microscópica de una célula biológica a un tipo de célula concreto como clase de reconocimiento. Para cada clase de reconocimiento, se puede determinar una distribución de valores específica de la clase de los parámetros de aprendizaje en base a los primeros conjuntos de datos de entrenamiento asignados a esta clase de reconocimiento, dependiendo de la distribución de valores específica de la clase de los parámetros de aprendizaje, se puede generar un mensaje de continuación específico de la clase, y dependiendo del mensaje de continuación específico de la clase, se puede continuar el entrenamiento con los primeros datos de entrenamiento asignados a esta clase de reconocimiento o se pueden solicitar otros datos de entrenamiento asignados a esta clase de reconocimiento. De este modo, se puede controlar de manera específica para cada clase el suministro de datos de entrenamiento que favorece el entrenamiento. En particular, para una respectiva clase de reconocimiento se puede determinar individualmente si resulta más ventajoso entrenar con otros primeros datos de entrenamiento o cambiar a otros datos de entrenamiento. Por consiguiente, los datos de entrenamiento que se utilizarán posteriormente para una respectiva clase de reconocimiento se pueden seleccionar de forma específica para la clase.
Según una forma de ejecución particularmente ventajosa de la invención, la distribución de valores de los parámetros de aprendizaje se puede determinar mediante la rutina de aprendizaje automático mediante una red neuronal bayesiana, en donde los parámetros de aprendizaje se implementan mediante pesos neuronales de la red neuronal bayesiana. La distribución de valores se puede determinar, por ejemplo, mediante métodos de Monte Carlo de cadena de Markov, aproximaciones de Laplace y/o métodos de inferencia, en particular, mediante ajuste de parámetros. Estas redes neuronales bayesianas son particularmente adecuadas para modelar distribuciones estadísticas, en particular, de parámetros de aprendizaje.
Según otra forma de ejecución de la presente invención, la rutina de aprendizaje automático se puede utilizar para ejecutar un conjunto de rutinas de subaprendizaje automático, cada una de las cuales establece un conjunto de parámetros de aprendizaje. La distribución de valores de los parámetros de aprendizaje puede derivarse entonces de una distribución de los parámetros de aprendizaje sobre los conjuntos de parámetros de aprendizaje.
Según otra forma de ejecución de la invención, la rutina de aprendizaje automático puede implementar una red neuronal, en donde los parámetros de aprendizaje son pesos neuronales de la red neuronal. En este caso, se puede variar múltiples veces una estructura neuronal de la red neuronal, en donde para cada variación se determina un conjunto de datos de salida de la red neuronal. La distribución de valores de los parámetros de aprendizaje puede derivarse entonces de una distribución de los datos de salida sobre los conjuntos de datos de salida. Para variar la estructura neuronal, las neuronas de la red neuronal se pueden desconectar de diferentes maneras, preferentemente de forma aleatoria. Dichas desconexiones se denominan generalmente Dropout. Cada una de las diferentes desconexiones requiere una variación en los datos de salida. A partir de la distribución de los distintos datos de salida, así como del patrón de desconexión, se puede deducir una distribución de valores de los parámetros de aprendizaje.
A continuación se explica en detalle un ejemplo de ejecución de la presente invención de acuerdo con el dibujo. En una representación esquemática se muestran respectivamente:
Figura 1: dispositivo de diagnóstico médico con un dispositivo de evaluación entrenado.
Figura 2: un dispositivo conforme a la invención para entrenar un dispositivo de evaluación.
La figura 1 muestra una representación esquemática de un ejemplo de un dispositivo de diagnóstico médico como sistema técnico TS con al menos un sensor S y un dispositivo de evaluación AW entrenado mediante un procedimiento de aprendizaje automático. Este último sirve para evaluar datos del sensor S. El dispositivo de evaluación AW se puede implementar como parte del dispositivo de diagnóstico TS o total o parcialmente externo al dispositivo de diagnóstico Ts . El dispositivo de evaluación AW está acoplado al sensor S y a un dispositivo de control CTL del dispositivo de diagnóstico TS. Para controlar el dispositivo de diagnóstico TS se utiliza el procesador o el dispositivo de control controlado por ordenador CTL.
En el presente ejemplo de ejecución se considera como ejemplo un dispositivo de diagnóstico TS, que está destinado a reconocer automáticamente un tipo o un estado del tejido o de las células y/o una respectiva clase patológica en base a registros de imágenes microscópicas PIC del tejido biológico o las células biológicas. Dependiendo del reconocimiento, el dispositivo de diagnóstico TS o su dispositivo de control CTL pueden iniciar otras medidas, por ejemplo, un tratamiento específico o un examen del tejido biológico registrado o de las células biológicas, una emisión de instrucciones de diagnóstico o terapéuticas o medidas de tratamiento automáticas, tal como una administración y/o dosificación de un medicamento.
Por consiguiente, el sensor S está diseñado como un microscopio, que registra imágenes microscópicas PIC del tejido biológico o de las células biológicas y las transmite al dispositivo de evaluación AW. Además, también puede estar previsto otro sensor de imágenes, por ejemplo, una cámara o un procedimiento de diagnóstico por imágenes, por ejemplo, un método tomográfico o ecográfico, para crear registros de imágenes bidimensionales y/o tridimensionales.
El dispositivo de evaluación entrenado AW clasifica los tejidos o células mostrados en las imágenes PIC según clases de reconocimiento CL predeterminadas, es decir, por ejemplo, según su tipo, estado o según su clase patológica. Una clase CL de un tejido o de una célula reconocida en una imagen PIC es transmitida por el dispositivo de evaluación AW al dispositivo de control CTL en forma de un identificador de clase. A partir de las clases de reconocimiento CL transmitidas se controla el comportamiento adicional del dispositivo de diagnóstico TS, como ya se ha mencionado anteriormente, mediante el dispositivo de control CTL.
Según formas de ejecución no reivindicadas, como sistema técnico TS también se puede controlar un robot, un sistema autónomo, una turbina eólica, una turbina de gas o una instalación de fabricación mediante un dispositivo de evaluación AW especialmente preparado. El dispositivo de evaluación AW se puede entrenar para reconocer o clasificar determinados estados operativos del sistema técnico TS en base a datos de sensores u otros datos operativos del sistema técnico TS y/o para controlar el sistema técnico TS de forma optimizada mediante el dispositivo de control CTL.
En este contexto, también se entiende por control de un sistema técnico la emisión y utilización de datos y señales de control relevantes para el control, es decir, datos y señales de control que contribuyen a controlar el sistema técnico. Estos datos relevantes para el control pueden comprender, en particular, datos de clasificación, datos de análisis, datos de previsión y/o datos de seguimiento, que pueden utilizarse en particular para el seguimiento del sistema técnico y/o para detectar un desgaste y/o daños.
La figura 2 muestra en una representación esquemática un dispositivo TA conforme a la invención para entrenar un dispositivo de evaluación AW. El dispositivo de evaluación AW presenta uno o más ordenadores o procesadores PROC para ejecutar todos los pasos del procedimiento del dispositivo de evaluación AW y una o más memorias MEM acopladas al procesador PROC para almacenar los datos a procesar por el dispositivo de evaluación AW. El dispositivo de evaluación AW se entrena con una pluralidad de conjuntos de datos de entrenamiento clasificados, que en el presente ejemplo de ejecución son leídos entre otras cosas, de una base de datos DB acoplada al dispositivo de evaluación AW.
Los registros de imágenes microscópicas PIC, a cada uno de los cuales se les asigna una clase de reconocimiento CL, se leen de la base de datos d B como primeros datos de entrenamiento clasificados PIC(CL). Una respectiva clase de reconocimiento CL indica, por ejemplo, un tipo, una condición y/o una clase patológica de células o tejidos mostrados en el respectivo registro de imágenes PIC. La asignación de una respectiva clase de reconocimiento CL se puede realizar con antelación, por ejemplo, por expertos. Una respectiva clase de reconocimiento CL se almacena preferentemente en forma de un identificador de clase que identifica la clase de reconocimiento CL relevante junto con los datos de imagen PIC en el correspondiente registro de imágenes clasificado PIC(CL). Los registros de imágenes PIC pueden provenir, por ejemplo, como primeros datos de sensor de un microscopio como sensor de imágenes.
Además, el dispositivo de evaluación AW se puede acoplar a otra fuente SRC de datos de entrenamiento clasificados PIC2(CL). Los datos de entrenamiento PIC2(CL) disponibles allí contienen datos de sensor PIC2 diferentes a los primeros datos de entrenamiento PIC(CL). En los otros datos de entrenamiento clasificados PIC2(CL), los datos de otros sensores también se asignan respectivamente a una clase de reconocimiento CL. Los otros datos de sensor PIC2 pueden diferenciarse de los primeros datos de sensor PIC particularmente en su tipo, su calidad, su modo de reconocimiento y/o en referencia al sensor de reconocimiento y/o sus ajustes de sensor. De acuerdo con la presente invención, los otros datos del sensor PIC2 contienen registros de imágenes médicas que se registraron con una mayor resolución de imagen, otro aumento y/o en otro rango espectral, en donde los otros datos de entrenamiento fueron registrados por el microscopio con otro microscopio y /o una cámara diferente. Además, los otros datos de sensor PIC2 también pueden comprender y cuantificar otras variables físicas o químicas. En general, los otros datos de sensor PIC2 deberían referirse o incluir preferentemente otras características de reconocimiento u otros aspectos de reconocimiento de las clases de reconocimiento CL que los primeros datos de sensor PIC.
Los otros datos de entrenamiento PIC2(CL) pueden ser solicitados por el dispositivo de evaluación AW desde la fuente de datos de entrenamiento SRC, en particular, de forma específica para la clase de reconocimiento. La fuente de datos de entrenamiento SRC puede comprender otra base de datos, otros sensores y/o una red de sensores. Para entrenar el dispositivo de evaluación AW, primero se leen los registros de imágenes clasificados PIC(CL) como secuencia de primeros datos de entrenamiento mediante un módulo de selección SEL del dispositivo de evaluación AW. El módulo de selección SEL transmite los registros de imágenes PIC a una rutina de aprendizaje automático basada en datos del dispositivo de evaluación AW.
En el presente ejemplo de ejecución, la rutina de aprendizaje automático se implementa mediante una red neuronal bayesiana BNN acoplada al módulo de selección SEL. La red neuronal bayesiana BNN está diseñada como una red neuronal convolucional. Como es sabido, una red neuronal convolucional de este tipo se puede utilizar ventajosamente para el procesamiento de imágenes y el reconocimiento de patrones de imágenes. La red neuronal BNN o la rutina de aprendizaje automático implementada por ella se puede entrenar en base a datos y presenta una estructura de entrenamiento que se conforma durante el entrenamiento. La red neuronal BNN o su estructura de entrenamiento se parametriza mediante los parámetros de aprendizaje LP, que se establecen durante el entrenamiento.
En este contexto, el entrenamiento se entiende en general como la optimización de un mapeo de parámetros de entrada de un modelo de sistema parametrizado, por ejemplo, una red neuronal, a uno o más parámetros de salida, en este caso las clases CL que deben reconocerse. Este mapeo se optimiza según criterios predeterminados, aprendidos y/o por aprender durante una fase de entrenamiento. Como criterios se pueden utilizar, en particular, en los modelos de clasificación, un error de clasificación, un error de análisis y/o un error de predicción. Además se pueden prever otros criterios relacionados con el control del sistema técnico TS. Una estructura de entrenamiento puede comprender, por ejemplo, una estructura de red de neuronas de una red neuronal y/o pesos de conexiones entre las neuronas, que se entrenan mediante el entrenamiento de tal manera que los criterios indicados se cumplan lo mejor posible.
Los parámetros de aprendizaje LP son los parámetros del modelo que deben optimizarse mediante el entrenamiento del modelo del sistema en el que se basa la rutina de aprendizaje automático. En el presente ejemplo de ejecución los parámetros de aprendizaje LP se implementan mediante los pesos de las conexiones neuronales de la red neuronal BNN.
El objetivo del entrenamiento consiste en que la red neuronal BNN clasifique los registros de imágenes PIC suministrados con la clase de reconocimiento correcta CL con la mayor frecuencia posible. Para ello, se ajustan los parámetros de aprendizaje LP mediante entrenamiento de tal manera que una clase de reconocimiento OCL emitida por la red neuronal BNN para un registro de imágenes PIC suministrado reproduzca lo mejor posible la clase de reconocimiento CL predeterminada de este registro de imágenes PIC. Esto se puede conseguir, por ejemplo, comparando las clases de reconocimiento OCL emitidas como datos de salida por una capa de salida de la red neuronal BNN con las clases de reconocimiento predeterminadas CL, que son proporcionadas por el dispositivo de selección SEL. En el marco de esta comparación se establece una distancia D entre los datos de salida OCL y las correspondientes clases de reconocimiento predeterminadas CL. La distancia D representa un error de clasificación de la red neuronal BNN. La distancia D se devuelve a la red neuronal BNN, tal como lo indica una flecha discontinua en la figura 2. En base a la distancia devuelta D, la red neuronal BNN se entrena para minimizar esta distancia D, es decir, para reproducir las clases de reconocimiento dadas CL lo mejor posible mediante las clases de reconocimiento de salida OCL. Para ello, los parámetros de aprendizaje LP pueden se variar utilizando procedimientos de optimización estándar hasta minimizar la distancia D. Para la minimización se puede utilizar, por ejemplo, un método de descenso de gradiente.
La red neuronal BNN determina además una distribución de valores VLP de los parámetros de aprendizaje LP que se producen durante el entrenamiento. Al determinar la distribución de valores v Lp , se supone ventajosamente que los parámetros de aprendizaje LP se distribuyen según una distribución estadística posiblemente multidimensional de Gauss y que las distribuciones de los parámetros de aprendizaje individuales son independientes entre sí. La distribución de valores VLP se representa entonces mediante un ancho de distribución, en este caso, una varianza o una desviación estándar de esta distribución de Gauss. Dichas distribuciones de valores de los parámetros de aprendizaje internos de la red LP se pueden modelar y determinar de manera eficiente mediante una red neuronal bayesiana, aquí BNN, utilizando procedimientos estándar. Alternativa o adicionalmente al ancho de distribución de la distribución de valores VLP, se puede determinar un valor de entropía de la distribución de valores VLP.
Resulta que un ancho de distribución inferior de los parámetros de aprendizaje LP se puede valorar como un indicador de que los parámetros de aprendizaje LP ya están ajustados con relativa precisión, es decir, que la red neuronal BNN ya se ha optimizado en gran medida en base a los primeros datos de entrenamiento PIC(CL). En este caso sólo se puede esperar una ligera mejora en el entrenamiento posterior con los primeros datos de entrenamiento PIC(CL). Por el contrario, un rango de distribución más amplio de los parámetros de aprendizaje LP se puede valorar como un indicador de que aún no se ha encontrado un óptimo y que la precisión de la clasificación se puede mejorar mediante un entrenamiento adicional con datos de entrenamiento del mismo tipo, aquí PIC(CL). La incertidumbre de clasificación que se puede reducir mediante un entrenamiento adicional con más datos de entrenamiento del mismo tipo se suele denominar incertidumbre epistémica.
Mediante la red neurona! BNN, se determina además una distribución de valores VOCL de los datos de salida OCL de la red neuronal BNN. En la determinación de la distribución de valores VOCL se supone ventajosamente que los datos de salida OCL se distribuyen en las clases de reconocimiento según una distribución estadística posiblemente multidimensional de Gauss o una distribución categórica y que las distribuciones de los datos de salida individuales son independientes entre sí. La distribución de valores VOCL se representa entonces mediante un ancho de distribución, en este caso, una varianza o una desviación estándar de la distribución de Gauss o de la distribución categórica. Alternativa o adicionalmente al ancho de distribución también se puede determinar un valor de entropía de la distribución de valores VOCL.
Resulta que un ancho de distribución mayor de los datos de salida OCL se puede valorar como un indicador de que la red neuronal entrenada BNN sólo puede realizar una clasificación incierta. Cuando en simultaneo la distribución de valores VLP de los parámetros de aprendizaje LP es relativamente pequeña, lo que habla de una red neuronal BNN ampliamente entrenada, difícilmente se puede esperar que la calidad de la clasificación mejore significativamente mediante un entrenamiento adicional con datos de entrenamiento del mismo tipo, aquí PIC(CL). En tales casos, sin embargo, la calidad de la clasificación frecuentemente se puede mejorar significativamente cuando se continúa el entrenamiento con otros datos de entrenamiento, aquí PIC2(CL).
Esta incertidumbre en la clasificación, que no mejora significativamente con un entrenamiento adicional con datos de entrenamiento del mismo tipo, suele denominarse como incertidumbre aleatoria. La incertidumbre aleatoria se produce, por ejemplo, en un intento de predicción de un lanzamiento de moneda aleatorio o en un intento de clasificación basado en datos de sensores irrelevantes o en datos de sensores que no se correlacionan con la clasificación. Esta clasificación no se puede mejorar aumentando la cantidad de datos de entrenamiento (irrelevantes).
Las distribuciones de valores VLP y VOCL se transmiten desde la red neuronal BNN a un módulo de evaluación EVAL del dispositivo de evaluación A<w>. El módulo de evaluación EVAL está acoplado a la red neuronal BNN y sirve para evaluar el progreso del entrenamiento. El módulo de evaluación EVAL cuantifica la incertidumbre aleatoria y la incertidumbre epistémica en base a la distribución de valores VOCL de los datos de salida OCL y la distribución de valores VLP de los parámetros de aprendizaje LP. En función de esto, el módulo de evaluación EVAL conforma una indicación de mejora cuantificada sobre una mejora esperada de la clasificación mediante un entrenamiento adicional con los primeros datos de entrenamiento disponibles, aquí PIC(CL). La información de mejora se puede conformar, por ejemplo, a partir de una suma ponderada de los anchos de distribución VLP y VOCL. Como ya se mencionó anteriormente, la información de mejora se conforma preferentemente de tal manera que disminuye a medida que disminuye el ancho de distribución VLP y aumenta el ancho de distribución VOCL.
En función de la información de mejora también se genera un mensaje de continuación CN y se transmite desde el módulo de evaluación EVAL al módulo de selección SEL. El mensaje de continuación CN puede contener en particular las distribuciones de valores VLP y VOCL así como la información de mejora.
Dependiendo del mensaje de continuación CN recibido y de la información de mejora contenida en el mismo, el módulo de selección SEL selecciona otros primeros datos de entrenamiento PIC(CL) de la base de datos DB para continuar el entrenamiento o solicita otros datos de entrenamiento PIC2(CL) a la fuente de datos de entrenamiento SRC. En este caso, se puede especificar un valor umbral para la información de mejora de tal manera que, por encima del valor umbral, el entrenamiento continúe con los primeros datos de entrenamiento PIC(CL) y, por debajo del valor umbral, se soliciten los otros datos de entrenamiento PIC2(CL) y se utilicen para el entrenamiento posterior.
Alternativa o adicionalmente, el mensaje de continuación CN también se puede transmitir a la fuente de datos de entrenamiento SRC para, por ejemplo, permitir que un sensor de una red de sensores registre datos de entrenamiento, modificar un ajuste de un sensor y/o seleccionar específicamente datos de sensor.
Preferentemente, la selección descrita anteriormente de los datos de entrenamiento a utilizar para un entrenamiento adicional se realiza de manera específica para la clase de reconocimiento, es decir, individualmente para una respectiva clase de reconocimiento CL de los datos de entrenamiento. En este caso, se determinan las distribuciones de valores VLP y VOCL específicas de la clase de reconocimiento para una respectiva clase de reconocimiento CL, se genera un mensaje de continuación específico de la clase de reconocimiento CN y, en función del mensaje de continuación específico de la clase de reconocimiento CN, el módulo de selección SEL selecciona otros primeros datos de entrenamiento PIC(CL) de la respectiva clase de reconocimiento CL de la base de datos DB para un entrenamiento adicional o se solicitan otros datos de entrenamiento PIC2(CL) de la respectiva clase de reconocimiento CL de la fuente de datos de entrenamiento SRC.
Con el procedimiento conforme a la invención se puede controlar de forma eficaz el entrenamiento de la red neuronal BNN o del dispositivo de evaluación AW. En lugar tras un largo periodo de tiempo de reconocer que la calidad de la clasificación para una clase de reconocimiento específica no ha mejorado significativamente, se pueden solicitar datos de entrenamiento cualitativamente diferentes en una fase temprana y utilizarlos para el entrenamiento posterior. En general, esto puede evitar el suministro de datos de entrenamiento adicionales que no mejoran significativamente el éxito de la clasificación, especialmente, en clases de reconocimiento individuales y poco frecuentes. En general, esto puede acortar significativamente la duración del entrenamiento y/o mejorar significativamente el éxito del aprendizaje.

Claims (15)

REIVINDICACIONES
1. Procedimiento implementado por ordenador para entrenar una rutina de aprendizaje automático (BNN) para controlar un sistema técnico (TS), en donde el sistema técnico (TS) consiste en un dispositivo de diagnóstico médico con al menos un sensor S y un dispositivo de evaluación AW entrenado usando un procedimiento de aprendizaje automático para evaluar datos de sensor del sensor S, en donde el, al menos un, sensor S está configurado como un microscopio, que registra imágenes microscópicas PIC de tejido biológico o de células biológicas y las transmite al dispositivo de evaluación (AW), en donde durante la evaluación se reconoce un tipo o una condición del tejido o de las células y/o una respectiva clase patológica, en donde
a) una secuencia de primeros datos de entrenamiento (PIC) se lee con primeros datos de sensor del dispositivo de diagnóstico médico a través de la rutina de aprendizaje automático (BNN) del dispositivo de evaluación;
b) la rutina de aprendizaje automático (BNN) se entrena utilizando los primeros datos de entrenamiento (PIC), en donde a través del entrenamiento se establece una gran cantidad de parámetros de aprendizaje (LP) de la rutina de aprendizaje automático (BNN);
c) se determina una distribución de valores (VLP) de los parámetros de aprendizaje (LP) que se presentan durante el entrenamiento;
d) en función de la distribución de valores determinada (VLP) de los parámetros de aprendizaje (LP) se genera un mensaje de continuación (CN); y
e) en función del mensaje de continuación (CN), el entrenamiento continúa con otra secuencia de los primeros datos de entrenamiento (PIC) o se solicitan otros datos de entrenamiento (PIC2) para el entrenamiento;
en donde, dependiendo del mensaje de continuación (CN), el, al menos un, sensor se controla de tal manera que un parámetro de sensor del sensor se modifica para registrar los otros datos de entrenamiento (PIC2), o se utiliza un sensor diferente para registrar los otros datos de entrenamiento (PIC2); en donde los otros datos de entrenamiento (PIC2) se registran mediante el microscopio, con otro microscopio diferente y/o una cámara diferente; en donde los otros datos de entrenamiento (PIC2) se registran con mayor resolución de imagen, diferente ampliación y/o en un rango espectral diferente al de los primeros datos de entrenamiento (PIC).
2. Procedimiento según la reivindicación 1, caracterizado porque adicionalmente los otros datos de entrenamiento (PIC2):
- presentan un tipo diferente que los primeros datos de entrenamiento (PIC);
- se registran de una manera diferente que los primeros datos de entrenamiento (PIC);
- comprenden otros datos del sensor distintos de los primeros datos de sensor; y/o
- provienen de una fuente diferente que los primeros datos de entrenamiento (PIC).
3. Procedimiento según una de las reivindicaciones precedentes, caracterizado porque dependiendo del mensaje de continuación (CN), se controla adicionalmente un sistema de sensores de tal manera que
- se permite que un sensor del sistema de sensores registre datos de entrenamiento; y/o
- se seleccionan datos de sensores del sistema de sensores como datos de entrenamiento.
4. Procedimiento según una de las reivindicaciones precedentes, caracterizado porque
se determina un ancho de distribución y/o un valor de entropía de la distribución de valores (VLP) de los parámetros de aprendizaje (LP); y
porque con ancho de distribución creciente y/o valor de entropía creciente, el entrenamiento se continúa preferentemente con la otra secuencia de los primeros datos de entrenamiento (PIC).
5. Procedimiento según una de las reivindicaciones precedentes, caracterizado porque
se determina una distribución de valores (VOCL) de los datos de salida (OCL) de la rutina de aprendizaje (BNN); y
porque el mensaje de continuación (CN) se conforma en función de la distribución de valores (VOCL) de los datos de salida (OCL).
6. Procedimiento según la reivindicación 5, caracterizado porque
se determina un ancho de distribución y/o un valor de entropía de la distribución de valores (VOCL) de los datos de salida (OCL); y
porque con ancho de distribución creciente y/o valor de entropía creciente, se solicitan preferentemente los otros datos de entrenamiento (PIC2).
7. Procedimiento según una de las reivindicaciones precedentes, caracterizado porque
una respectiva distribución de valores (VLP, VOCL) se representa mediante un ancho de distribución.
8. Procedimiento según una de las reivindicaciones precedentes, caracterizado porque
los conjuntos de datos de entrenamiento (PIC(CL)) de los primeros datos de entrenamiento se asignan respectivamente a una clase de reconocimiento (CL) específica; y
porque para una respectiva clase de reconocimiento (CL) basada en los primeros conjuntos de datos de entrenamiento (PIC(CL)) asignados a esta clase de reconocimiento (CL):
- se determina una distribución de valores específica de la clase de los parámetros de aprendizaje; - en función de la distribución de valores específica de la clase de los parámetros de aprendizaje, se genera un mensaje de continuación específico de la clase; y
- dependiendo del mensaje de continuación específico de la clase, el entrenamiento continúa con los primeros datos de entrenamiento (PIC(CL)) asignados a esta clase de reconocimiento o se solicitan otros datos de entrenamiento (PIC2(CL)) asignados a esta clase de reconocimiento (CL).
9. Procedimiento según una de las reivindicaciones precedentes,
caracterizado porque
la rutina de aprendizaje automático implementa una red neuronal artificial, una red neuronal recurrente, una red neuronal convolucional, una red neuronal bayesiana (BNN), un codificador automático, una arquitectura de aprendizaje profundo, una máquina de vectores de soporte, un modelo de regresión entrenable basado en datos, un clasificador k-vecinos más cercanos, un modelo físico y/o un árbol de decisión.
10. Procedimiento según una de las reivindicaciones precedentes,
caracterizado porque
la distribución de valores (VLP) de los parámetros de entrenamiento (LP) se determina a través de la rutina de entrenamiento automáticamente utilizando una red neuronal bayesiana (BNN), en donde los parámetros de aprendizaje (LP) son pesos neuronales de la red neuronal bayesiana (BNN).
11. Procedimiento según una de las reivindicaciones precedentes,
caracterizado porque
la rutina de aprendizaje automático ejecuta un conjunto de rutinas de subaprendizaje automático, cada una de las cuales establece un conjunto de parámetros de aprendizaje, y
porque la distribución de valores (VLP) de los parámetros de aprendizaje (LP) se deriva de una distribución de los parámetros de aprendizaje (LP) sobre los conjuntos de parámetros de aprendizaje.
12. Procedimiento según una de las reivindicaciones precedentes, caracterizado porque
la rutina de aprendizaje automático implementa una red neuronal, en donde los parámetros de aprendizaje (LP) son pesos neuronales de la red neuronal;
porque una estructura neuronal de la red neuronal se varía múltiples veces y para cada variación se determina un conjunto de datos de salida de la red neuronal; y
porque la distribución de valores (VLP) de los parámetros de aprendizaje (LP) se deriva de una distribución de los datos de salida (OCL) sobre los conjuntos de datos de salida.
13. Dispositivo (TA) para entrenar una rutina de aprendizaje automático (BNN) para controlar un dispositivo de diagnóstico médico (TS), configurado para ejecutar un procedimiento según una de las reivindicaciones precedentes, comprendiendo el dispositivo (TA) un ordenador y al menos un microscopio.
14. Producto de programa informático que comprende comandos que, al ejecutar el procedimiento mediante un dispositivo según la reivindicación 13, permiten que el ordenador ejecute el procedimiento según una de las reivindicaciones 1 a 12.
15. Medio de almacenamiento legible por ordenador con un producto de programa informático según la reivindicación 14.
ES18187335T 2018-08-03 2018-08-03 Procedimiento y dispositivo para entrenar una rutina de aprendizaje automático para el control de un sistema técnico Active ES2966999T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP18187335.7A EP3605404B1 (de) 2018-08-03 2018-08-03 Verfahren und vorrichtung zum trainieren einer maschinellen lernroutine zum steuern eines technischen systems

Publications (1)

Publication Number Publication Date
ES2966999T3 true ES2966999T3 (es) 2024-04-25

Family

ID=63144922

Family Applications (1)

Application Number Title Priority Date Filing Date
ES18187335T Active ES2966999T3 (es) 2018-08-03 2018-08-03 Procedimiento y dispositivo para entrenar una rutina de aprendizaje automático para el control de un sistema técnico

Country Status (6)

Country Link
US (1) US20210201151A1 (es)
EP (1) EP3605404B1 (es)
JP (1) JP7438187B2 (es)
CN (1) CN112534447B (es)
ES (1) ES2966999T3 (es)
WO (1) WO2020026107A1 (es)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021113547A1 (de) * 2021-05-26 2022-12-01 Rwe Renewables Gmbh Verfahren zum Trainieren eines Machine-Learning-Modells verwendbar zum Bestimmen einer Restnutzungsdauer einer Windkraftanlage
WO2023166574A1 (ja) * 2022-03-01 2023-09-07 日本電気株式会社 学習装置、制御装置、学習方法及び記憶媒体

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1388812A1 (en) * 2002-07-04 2004-02-11 Ronald E. Dr. Kates Method for training a learning-capable system
WO2010030794A1 (en) * 2008-09-10 2010-03-18 Digital Infuzion, Inc. Machine learning methods and systems for identifying patterns in data
JP5335536B2 (ja) * 2009-04-23 2013-11-06 キヤノン株式会社 情報処理装置及び情報処理方法
US9542644B2 (en) * 2013-08-13 2017-01-10 Qualcomm Incorporated Methods and apparatus for modulating the training of a neural device
US20150324689A1 (en) * 2014-05-12 2015-11-12 Qualcomm Incorporated Customized classifier over common features
US10515304B2 (en) * 2015-04-28 2019-12-24 Qualcomm Incorporated Filter specificity as training criterion for neural networks
US10282588B2 (en) * 2016-06-09 2019-05-07 Siemens Healthcare Gmbh Image-based tumor phenotyping with machine learning from synthetic data
US20180107926A1 (en) * 2016-10-19 2018-04-19 Samsung Electronics Co., Ltd. Method and apparatus for neural network quantization
US10127659B2 (en) * 2016-11-23 2018-11-13 General Electric Company Deep learning medical systems and methods for image acquisition
JP6704341B2 (ja) * 2016-12-27 2020-06-03 株式会社デンソーアイティーラボラトリ 情報推定装置及び情報推定方法
CN106980822B (zh) * 2017-03-14 2019-04-05 北京航空航天大学 一种基于选择性集成学习的旋转机械故障诊断方法

Also Published As

Publication number Publication date
WO2020026107A1 (de) 2020-02-06
US20210201151A1 (en) 2021-07-01
JP7438187B2 (ja) 2024-02-26
CN112534447B (zh) 2024-05-24
JP2021533478A (ja) 2021-12-02
EP3605404A1 (de) 2020-02-05
EP3605404B1 (de) 2023-10-04
CN112534447A (zh) 2021-03-19
EP3605404C0 (de) 2023-10-04

Similar Documents

Publication Publication Date Title
US9424514B2 (en) Synapse maintenance in the developmental networks
ES2966999T3 (es) Procedimiento y dispositivo para entrenar una rutina de aprendizaje automático para el control de un sistema técnico
CN110458904B (zh) 胶囊式内窥镜图像的生成方法、装置及计算机存储介质
Ebitz et al. Rules warp feature encoding in decision-making circuits
Fuhs et al. Context learning in the rodent hippocampus
Jumat et al. Smart farm prototype for plant disease detection, diagnosis & treatment using IoT device in a greenhouse
US11494653B2 (en) Neural network and method of neural network training
JP2020534622A (ja) 対象者クラスタリング方法及び装置
RU2018143985A (ru) Способ и устройство для диагностики патологий лап четвероногих животных
Ororbia Continual competitive memory: A neural system for online task-free lifelong learning
Dayan et al. ACh, uncertainty, and cortical inference
US20220145401A1 (en) Method and system for predicting responsiveness to therapy for cancer patient
Sharma et al. Robust and Uncertainty-Aware VAE (RU-VAE) for One-Class Classification
JP7452879B2 (ja) 予測システム、予測方法、および予測プログラム
Pillai et al. Classification of Plant Diseases using DenseNet 121 Transfer Learning Model
Iparraguirre-Villanueva et al. Disease identification in crop plants based on convolutional neural networks
Asabuki et al. Neural circuit mechanisms of hierarchical sequence learning tested on large-scale recording data
Sharma et al. Analysis of eye disease classification by fundus images using different machine/deep/transfer learning techniques
Fidan et al. Classification of dermatological data with self organizing maps and support vector machine
Mahilraj et al. Detection of Tomato leaf diseases using Attention Embedded Hyper-parameter Learning Optimization in CNN
KR102607895B1 (ko) 스마트 축우 관리 시스템
Ruíz Alvarado et al. Disease identification in crop plants based on convolutional neural networks
Udayananda et al. An ensemble methods based machine learning approach for rice plant disease diagnosing
CN116798630B (zh) 基于机器学习的近视理疗依从性预测方法、设备及介质
Asabuki et al. Neural mechanisms of context-dependent segmentation tested on large-scale recording data