ES2948438A1 - Computer-implemented method to obtain the fertility status of a woman (Machine-translation by Google Translate, not legally binding) - Google Patents

Computer-implemented method to obtain the fertility status of a woman (Machine-translation by Google Translate, not legally binding) Download PDF

Info

Publication number
ES2948438A1
ES2948438A1 ES202230124A ES202230124A ES2948438A1 ES 2948438 A1 ES2948438 A1 ES 2948438A1 ES 202230124 A ES202230124 A ES 202230124A ES 202230124 A ES202230124 A ES 202230124A ES 2948438 A1 ES2948438 A1 ES 2948438A1
Authority
ES
Spain
Prior art keywords
feature map
map
neural network
image
woman
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
ES202230124A
Other languages
Spanish (es)
Inventor
Cantor Clelia Morales
Laurence Fontinoy
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Woom Fertility S L
Original Assignee
Woom Fertility S L
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Woom Fertility S L filed Critical Woom Fertility S L
Priority to ES202230124A priority Critical patent/ES2948438A1/en
Publication of ES2948438A1 publication Critical patent/ES2948438A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N11/00Investigating flow properties of materials, e.g. viscosity, plasticity; Analysing materials by determining flow properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computing Systems (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Optics & Photonics (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Telephonic Communication Services (AREA)
  • Eye Examination Apparatus (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Computer-implemented method to obtain the fertility status of a woman that comprises: obtaining an image (1) of the cervical mucus of the woman in stretching; extract pixel values (2) from the image; processing the pixel values in a module (A) to obtain a feature map (3) in several channels (d); apply to the feature map at least a first two-dimensional convolution operation (B), obtaining a gradient map (4); apply to the gradient map at least a second two-dimensional convolution operation (C) to restore the same number of features as in the feature map, obtaining an attention map (5); for each channel (d) of the feature map perform a weighted average (D) of the feature map, to obtain a weighted feature map (6); and process the weighted feature map to obtain a candidate probability (7) of fertility status. (Machine-translation by Google Translate, not legally binding)

Description

DESCRIPCIÓNDESCRIPTION

Método implementado por computador para obtener el estado de fertilidad de una mujerComputer-implemented method to obtain the fertility status of a woman

Sector técnico de la invenciónTechnical sector of invention

El método implementado por computador de la presente invención permite obtener de manera fiable el estado de fertilidad de una mujer. De esta manera, se consigue determinar si esta se encuentra en un estado fértil o no fértil de su ciclo de fertilidad.The computer-implemented method of the present invention allows the fertility status of a woman to be reliably obtained. In this way, it is possible to determine if it is in a fertile or non-fertile state of its fertility cycle.

Antecedentes de la invenciónBackground of the invention

Son conocidos métodos para intentar predecir el estado de fertilidad de una mujer a partir del estudio de su moco cervical, que analizan características físicas del moco cervical para intentar predecir el estado de fertilidad.There are known methods to try to predict the fertility status of a woman from the study of her cervical mucus, which analyze physical characteristics of the cervical mucus to try to predict the fertility status.

El documento de patente US2011118996 presenta un método y aparato que, a partir de la viscoelasticidad del moco cervical, permite predecir el estado de fertilidad. El aparato está provisto de un motor para extruir el moco cervical, y una cámara para obtener fotografías del moco cervical en extrusión, prediciendo el estado de fertilidad a partir de las características de expansión obtenidas del análisis de las fotografías del moco cervical. No obstante, en este caso se precisa un aparato complejo y voluminoso para predecir el estado de fertilidad, que a su vez tiene que estar en contacto con el moco cervical.The patent document US2011118996 presents a method and apparatus that, based on the viscoelasticity of cervical mucus, allows predicting the state of fertility. The device is provided with a motor to extrude the cervical mucus, and a camera to obtain photographs of the extruded cervical mucus, predicting the state of fertility from the expansion characteristics obtained from the analysis of the photographs of the cervical mucus. However, in this case a complex and bulky device is required to predict fertility status, which in turn has to be in contact with cervical mucus.

El documento de patente WO2015/143259 A1 presenta un sistema y método que mediante un dispositivo dedicado en contacto con el moco cervical determina sus características físicas para compararlas con unas características patrón mediante redes neuronales y así determinar el estado de fertilidad. No obstante, es necesario el contacto del dispositivo o sus sensores con el moco cervical, lo que implica que deba limpiarse periódicamente por razones higiénicas y para evitar contaminar muestras posteriores, lo que podría dar resultados erróneos.Patent document WO2015/143259 A1 presents a system and method that, by means of a dedicated device in contact with cervical mucus, determines its physical characteristics to compare them with standard characteristics through neural networks and thus determine the state of fertility. However, contact of the device or its sensors with cervical mucus is necessary, which means that it must be cleaned periodically for hygienic reasons and to avoid contaminating subsequent samples, which could give erroneous results.

Se conocen también métodos para obtener el estado de fertilidad a partir del análisis automatizado de una fotografía del moco cervical cristalizado, mediante prueba de helecho. Por ejemplo, el documento de patente WO2020/092901 A1 presenta un sistema y método que mediante un sistema óptico de soporte de una muestra de moco cervical permite obtener, por parte de un dispositivo móvil, una fotografía ampliada de una muestra de moco cervical seco y analizarla mediante redes neuronales para determinar el estado de fertilidad. En este caso también es necesaria la limpieza inmediata del sistema óptico de soporte de la muestra tras su uso por razones higiénicas y para evitar contaminar muestras que se quieran analizar con posterioridad, lo que podría dar resultados erróneos.Methods are also known to obtain fertility status from the automated analysis of a photograph of crystallized cervical mucus, using a fern test. For example, patent document WO2020/092901 A1 presents a system and method that, by means of an optical support system for a sample of cervical mucus, allows obtaining, by a mobile device, an enlarged photograph of a sample of dry cervical mucus and analyze it using neural networks to determine the fertility status. In this case It is also necessary to immediately clean the optical sample support system after use for hygienic reasons and to avoid contaminating samples that are to be analyzed later, which could give erroneous results.

Es por tanto un objeto de la presente invención dar a conocer un método que consiga de manera muy rápida, higiénica y fiable determinar el estado de fertilidad sin necesitar aparatos dedicados, de modo que se pueda determinar de manera fiable y segura el estado de fertilidad por parte de un usuario que aporte una muestra de moco cervical sin conocimientos especializados.It is therefore an object of the present invention to provide a method that is able to determine the fertility status in a very rapid, hygienic and reliable manner without requiring dedicated devices, so that the fertility status can be determined reliably and safely by part of a user who provides a sample of cervical mucus without specialized knowledge.

Explicación de la invenciónExplanation of the invention

El método implementado por computador de la presente invención permite obtener el estado de fertilidad de una mujer mediante dispositivos comunes, tal como un teléfono móvil provisto de cámara.The computer-implemented method of the present invention allows obtaining the fertility status of a woman using common devices, such as a mobile phone equipped with a camera.

En esencia, este método, que puede programarse para ser ejecutado en dispositivos electrónicos tales como computadores, comprende las etapas de obtener una imagen del moco cervical de la mujer estirado, tal como estirado entre dos dedos de una mano, por ejemplo, entre el dedo pulgar e índice. El método comprende además extraer valores de píxel de la imagen y procesar los valores de píxel en un módulo de procesado para obtener un mapa de características con características bidimensionales distribuidas en varios canales; aplicar al mapa de características al menos una primera operación de convolución bidimensional para reducir el número de canales, obteniendo un mapa de gradiente, y aplicar al mapa de gradiente al menos una segunda operación de convolución bidimensional para aumentar el número de canales y restablecer el mismo número de características que en el mapa de características anterior, obteniendo así un mapa de atención; para cada canal del mapa de características realizar una media ponderada de las características bidimensionales del mapa de características, tomando como pesos las respectivas características bidimensionales del mapa de atención del mismo canal, para obtener un mapa de características ponderado; y procesar el mapa de características ponderado mediante una primera red neuronal para obtener una probabilidad candidata de estado de fertilidad.In essence, this method, which can be programmed to be executed on electronic devices such as computers, comprises the steps of obtaining an image of the woman's cervical mucus stretched, such as stretched between two fingers of a hand, for example, between the finger thumb and index finger. The method further comprises extracting pixel values from the image and processing the pixel values in a processing module to obtain a feature map with two-dimensional features distributed over several channels; apply to the feature map at least a first two-dimensional convolution operation to reduce the number of channels, obtaining a gradient map, and apply to the gradient map at least a second two-dimensional convolution operation to increase the number of channels and restore the same number of features than in the previous feature map, thus obtaining an attention map; for each channel of the feature map, perform a weighted average of the two-dimensional features of the feature map, taking as weights the respective two-dimensional features of the attention map of the same channel, to obtain a weighted feature map; and processing the weighted feature map by a first neural network to obtain a candidate fertility state probability.

Ventajosamente, mediante este método se consigue obtener el estado de fertilidad de una manera fiable y sencilla para el usuario, evitando que los dispositivos de computación tengan que entrar en contacto con el moco cervical. Advantageously, through this method it is possible to obtain the fertility status in a reliable and simple way for the user, avoiding that the computing devices have to come into contact with the cervical mucus.

En una variante de realización, el método comprende además las etapas de obtener un conjunto de características adicionales basado en características de la mujer; y procesar la probabilidad candidata y el conjunto de características adicionales mediante una segunda red neuronal para obtener una probabilidad candidata refinada.In a variant embodiment, the method further comprises the steps of obtaining a set of additional characteristics based on characteristics of the woman; and processing the candidate probability and the set of additional features through a second neural network to obtain a refined candidate probability.

Así, se consigue confirmar la probabilidad candidata previamente calculada combinándola con otras características. Esta etapa es especialmente útil cuando la probabilidad candidata está alrededor de 0.5, lo que permite acabar de determinar la probabilidad de estado de fertilidad, obteniendo así una probabilidad candidata refinada.Thus, it is possible to confirm the previously calculated candidate probability by combining it with other characteristics. This stage is especially useful when the candidate probability is around 0.5, which allows us to finish determining the probability of fertility status, thus obtaining a refined candidate probability.

En una variante de realización, el módulo de procesado comprende una red neuronal basada en Inception v3, de modo que se utilice una red previamente entrenada para obtener el mapa de características de la imagen.In a variant embodiment, the processing module comprises a neural network based on Inception v3, so that a previously trained network is used to obtain the image feature map.

En una variante de realización, la primera red neuronal comprende una red neuronal totalmente conectada, permitiendo así entrenar esta primera red neuronal.In a variant embodiment, the first neural network comprises a fully connected neural network, thus allowing this first neural network to be trained.

En una variante de realización, el conjunto de características adicionales comprende datos de características de la mujer categorizados según categorías de características anteriormente determinadas.In a variant embodiment, the set of additional characteristics comprises characteristic data of the woman categorized according to previously determined characteristic categories.

En una variante de realización, el método comprende además obtener una imagen de mapa de calor a partir del mapa de características para informar visualmente de las partes de la imagen más relevantes, correspondientes al moco cervical, permitiendo volver a realizar el método, con una nueva imagen si la parte relevante de la imagen no se corresponde con el moco cervical, evitando así resultados erróneos debidos a una mala captura de la imagen, por ejemplo si esta es demasiado oscura o sin contraste.In a variant embodiment, the method further comprises obtaining a heat map image from the feature map to visually report the most relevant parts of the image, corresponding to the cervical mucus, allowing the method to be performed again, with a new image if the relevant part of the image does not correspond to the cervical mucus, thus avoiding erroneous results due to poor image capture, for example if it is too dark or without contrast.

En una variante de realización, la función de activación de la primera red neuronal es una función de tipo TanhSoft según se desriben en el artículo "TanhSoft - a family of activation functions combining Tanh and Softplus” ( https://arxiv.org/abs/2009.03863) .In a variant embodiment, the activation function of the first neural network is a TanhSoft type function as described in the article "TanhSoft - a family of activation functions combining Tanh and Softplus" (https://arxiv.org/abs /2009.03863).

Se presenta también un aparato de procesado de datos que comprende medios para realizar el método para obtener el estado de fertilidad de una mujer según se ha descrito anteriormente.Also presented is a data processing apparatus comprising means for carrying out the method for obtaining the fertility status of a woman as described above.

En una realización, el aparato comprende un componente cliente y un componente servidor. In one embodiment, the apparatus comprises a client component and a server component.

Preferentemente el componente cliente es un dispositivo portátil que comprende una cámara fotográfica para obtener la imagen del moco cervical, tal como un teléfono móvil, que incorpore una aplicación para ejecutar parte o todo el método implementado por computador descrito.Preferably the client component is a portable device that comprises a photographic camera to obtain the image of the cervical mucus, such as a mobile phone, which incorporates an application to execute part or all of the computer-implemented method described.

Se presenta también un programa de ordenador que comprende código software adaptado para realizar el método para obtener el estado de fertilidad de una mujer cuando se ejecuta en un aparato de los anteriormente descritos.A computer program is also presented that comprises software code adapted to carry out the method for obtaining the fertility status of a woman when executed on a device of those described above.

Además, se da a conocer un medio de almacenamiento legible por ordenador que comprende el programa de ordenador anteriormente presentado.Furthermore, a computer-readable storage medium is disclosed that comprises the computer program presented above.

Breve descripción de los dibujosBrief description of the drawings

Para complementar la descripción que se está realizando y con objeto de facilitar la comprensión de las características de la invención, se acompaña a la presente memoria descriptiva un juego de dibujos en los que, con carácter ilustrativo y no limitativo, se ha representado lo siguiente:To complement the description that is being made and in order to facilitate the understanding of the characteristics of the invention, this descriptive report is accompanied by a set of drawings in which, for illustrative and non-limiting purposes, the following has been represented:

La Fig. 1 presenta una imagen de un moco cervical en una disposición de estiramiento para su uso en el método de la presente invención;Fig. 1 presents an image of a cervical mucus in a stretching arrangement for use in the method of the present invention;

la Fig. 2 presenta unas primeras etapas del método según la presente invención;Fig. 2 presents first stages of the method according to the present invention;

la Fig. 3 presenta unas segundas etapas del método según la presente invención;Fig. 3 presents second stages of the method according to the present invention;

la Fig. 4 presenta un mapa de gradiente y una imagen de mapa de calor de la imagen de la Fig. 1.Fig. 4 presents a gradient map and heat map image of the image in Fig. 1.

La Fig. 5 presenta unas terceras etapas del método según la presente invención;Fig. 5 presents third steps of the method according to the present invention;

la Fig. 6 presenta una fórmula para la realización de la media ponderada de la etapa del método de la Fig. 5;Fig. 6 presents a formula for carrying out the weighted average of the method step of Fig. 5;

la Fig. 7 presenta unas cuartas etapas del método según la presente invención;Fig. 7 presents fourth steps of the method according to the present invention;

la Fig. 8 presenta unas quintas etapas adicionales del método del procedimiento;Fig. 8 presents additional fifth steps of the method of the procedure;

la Fig. 9 presenta un esquema general de un método según la presente invención; y la Fig. 10 presenta un aparato para ejecutar el método de la presente invención.Fig. 9 presents a general scheme of a method according to the present invention; and Fig. 10 presents an apparatus for executing the method of the present invention.

Descripción detallada de los dibujosDetailed description of the drawings

La Fig. 1 presenta una imagen 1 tomada a distancia de un moco cervical en estiramiento para su uso en el método de la presente invención. Concretamente en este caso la disposición en estiramiento que tiene que adoptar el moco cervical es un estiramiento entre los dedos índice y pulgar de la mano, haciendo pinza. De esta manera se consigue que una usuaria pueda disponer estirada una muestra de su moco cervical con una mano, mientras con la otra mano pueda sujetar un dispositivo, tal como un teléfono móvil para capturar la imagen 1 del moco cervical. Así, la misma usuaria pueda realizar fácilmente y sin ayuda adicional la captura de la imagen para obtener su estado de fertilidad por sí misma. En otras realizaciones, se prevé también que el moco cervical pueda disponerse en estiramiento mediante dispositivos accesorios, tales como unas pinzas. Se prevé que se informe mediante un conjunto de instrucciones la disposición que debe adoptar el moco cervical para la captura de la imagen 1 para su uso en el método, en cada caso.Fig. 1 presents a remotely taken image 1 of a stretching cervical mucus for use in the method of the present invention. Specifically in this case, the stretching disposition that the cervical mucus has to adopt is a stretch between the index fingers and thumb of the hand, making a clamp. In this way it is achieved that a user can Hold a sample of your cervical mucus outstretched with one hand, while with the other hand you can hold a device, such as a mobile phone, to capture image 1 of the cervical mucus. Thus, the same user can easily and without additional help capture the image to obtain her fertility status on her own. In other embodiments, it is also provided that the cervical mucus can be stretched using accessory devices, such as forceps. It is expected that a set of instructions will inform the disposition that the cervical mucus must adopt for the capture of image 1 for use in the method, in each case.

La Fig. 2 presenta unas primeras etapas del método implementado por computador de la presente invención para obtener el estado de fertilidad, en el que, a partir de la imagen 1 tomada a distancia anterior, que puede considerarse una imagen de tipo RGB, se extraen valores de píxel 2 en cada uno de sus tres diferentes canales d, realizando si fuera necesario operaciones de escalado y adaptación para su correcto procesado en un módulo de procesado A para obtener un mapa de características 3 con características bidimensionales w, h distribuidas en varios canales d. Naturalmente, la distribución de los valores de píxel 2, así como del mapa de características 3 deberá ser la adecuada para su uso en el módulo de procesado A.Fig. 2 presents some first stages of the computer-implemented method of the present invention to obtain the fertility state, in which, from the previous image 1 taken at a distance, which can be considered an RGB type image, pixel values 2 in each of its three different channels d, performing, if necessary, scaling and adaptation operations for their correct processing in a processing module A to obtain a feature map 3 with two-dimensional features w, h distributed in several channels d. Naturally, the distribution of pixel values 2, as well as feature map 3, must be appropriate for use in processing module A.

Este módulo de procesado A comprende una red neuronal,, concretamente una red neuronal Inception v3 previamente entrenada para así obtener el mapa de características 3 de los valores de píxel 2. Aunque usualmente la red neuronal Inception v3 incluye una capa final de tipo completamente conectado para categorizar las imágenes 1 de las que se han extraído los valores de píxel 2, en esta realización esta capa final de tipo completamente conectado ha sido eliminada, obteniendo así el mapa de características 3 con características bidimensionales w, h distribuidas en varios canales d. Naturalmente, otros tipos de redes neuronales podrían utilizarse. La ventaja de utilizar una red neuronal previamente entrenada es que su estructura y pesos puede congelarse durante las fases de entrenamiento del resto de redes neuronales del conjunto, esta ventaja es conocida en el estado de la técnica de redes neuronales previamente entrenadas. Naturalmente, en otras realizaciones se podría utilizar otras redes neuronales preentrenadas, por ejemplo otras también basadas en la versión 3 de la red Inception creada y entrenada por Google sobre la base de imágenes ImageNet, o basadas en otras arquitecturas, tal como EfficientNet.This processing module A comprises a neural network, specifically an Inception v3 neural network previously trained to obtain the feature map 3 of the pixel values 2. Although usually the Inception v3 neural network includes a final layer of fully connected type to categorize the images 1 from which the pixel values 2 have been extracted, in this embodiment this final layer of fully connected type has been removed, thus obtaining the feature map 3 with two-dimensional features w, h distributed in several channels d. Naturally, other types of neural networks could be used. The advantage of using a pre-trained neural network is that its structure and weights can be frozen during the training phases of the rest of the neural networks in the set. This advantage is known in the state of the art of pre-trained neural networks. Naturally, in other embodiments other pre-trained neural networks could be used, for example others also based on version 3 of the Inception network created and trained by Google based on ImageNet images, or based on other architectures, such as EfficientNet.

La Fig. 3 presenta unas segundas etapas del método en las que se observa que se aplicar al mapa de características 3 al menos una primera operación de convolución bidimensional B para reducir el número de canales d, obteniendo un mapa de gradiente 4. Seguidamente, según se muestra en la misma Fig. 2, se aplica al mapa de gradiente 4 al menos una segunda operación de convolución bidimensional C para aumentar el número de canales d y restablecer el mismo número de características que en el mapa de características 3, obteniendo un mapa de atención 5.Fig. 3 presents second stages of the method in which it is observed that at least a first two-dimensional convolution operation B will be applied to the feature map 3. to reduce the number of channels d, obtaining a gradient map 4. Next, as shown in the same Fig. 2, at least a second two-dimensional convolution operation C is applied to the gradient map 4 to increase the number of channels d and reset the same number of features as in feature map 3, obtaining an attention map 5.

La Fig. 4 presenta una visualización del mapa de gradiente 4 en forma de imagen en escala de grises, en el que cada valor del mapa de gradiente 4 correspondería a un nivel de gris de píxel en la posición de las características bidimensionales w, h, naturalmente el mapa de gradiente 4 se escalaría oportunamente al mismo tamaño que la imagen 1. Aplicando este mapa de gradiente 4 , por ejemplo a uno o más canales d RGB de la imagen 1 se obtiene una imagen de mapa de calor 10 identificativa de los puntos más relevantes de la imagen 1. De esta manera, se puede presentar al usuario esta imagen de mapa de calor 10 durante la realización del método.Fig. 4 presents a visualization of the gradient map 4 in the form of a grayscale image, in which each value of the gradient map 4 would correspond to a pixel gray level at the position of the two-dimensional features w, h, naturally the gradient map 4 would be appropriately scaled to the same size as image 1. By applying this gradient map 4, for example to one or more d RGB channels of image 1, a heat map image 10 identifying the points is obtained. most relevant images of image 1. In this way, this heat map image 10 can be presented to the user during carrying out the method.

Según se presenta en la Fig. 5, para cada canal d del mapa de características 3 realizar una media ponderada D de las características bidimensionales w, h del mapa de características 3, tomando como pesos las respectivas características bidimensionales w, h del mapa de atención 5 del mismo canal d, para obtener un mapa de características ponderado 6, de la manera presentada en detalle en la fórmula de la Fig. 6. Mediante esta media ponderada D se consigue reforzar las características del mapa de características 3 clave, en el mapa de características ponderado 6, que permitirán más adelante poder determinar con fiabilidad el estado de fertilidad de la mujer.As presented in Fig. 5, for each channel d of the feature map 3, perform a weighted average D of the two-dimensional features w, h of the feature map 3, taking as weights the respective two-dimensional features w, h of the attention map 5 of the same channel d, to obtain a weighted feature map 6, in the manner presented in detail in the formula of Fig. 6. Through this weighted average D, it is possible to reinforce the characteristics of the key feature map 3, in the map of characteristics weighted 6, which will later allow us to reliably determine the woman's fertility status.

La Fig. 7 presenta una cuarta etapa del método, en el que se procesa el mapa de características ponderado 6 anteriormente obtenido mediante una primera red neuronal E, que puede ser o comprender redes neuronales completamente conectadas, para obtener así una probabilidad candidata 7 de estado de fertilidad. Preferentemente, la función de activación de la primera red neuronal E será de tipo TanhSoft ya que tiene la capacidad de mejorar el rendimiento de las más comunes, evitando problemas relacionados con el desvanecimiento de gradiente y siendo, además, parametrizable, de manera que se pueda ajustar. Las funciones de activación de tipo TanhSoft se describen en el artículo "TanhSoft -a family of activation functions combining Tanh and Softplus” (https://arxiv.org/abs/2009.03863).Fig. 7 presents a fourth stage of the method, in which the weighted feature map 6 previously obtained is processed by a first neural network E, which may be or comprise fully connected neural networks, to thus obtain a candidate probability 7 of state of fertility. Preferably, the activation function of the first neural network E will be of the TanhSoft type since it has the ability to improve the performance of the most common ones, avoiding problems related to gradient fading and also being parameterizable, so that it can be adjust. TanhSoft type activation functions are described in the article "TanhSoft -a family of activation functions combining Tanh and Softplus” (https://arxiv.org/abs/2009.03863).

La Fig. 8 presenta una quinta etapa adicional del método del procedimiento en el que se procesa la probabilidad candidata 7 y un conjunto de características adicionales 8 mediante una segunda red neuronal F, que puede ser o comprender redes neuronales completamente conectadas, para obtener una probabilidad candidata refinada 9. Preferentemente, la función de activación de esta segunda red neuronal F será también de tipo TanhSoft.Fig. 8 presents an additional fifth step of the method of the procedure in which processes the candidate probability 7 and a set of additional features 8 by a second neural network F, which may be or comprise fully connected neural networks, to obtain a refined candidate probability 9. Preferably, the activation function of this second neural network F will be also TanhSoft type.

Esta segunda red neuronal F recibe como entradas la probabilidad candidata 7 y el conjunto de características adicionales 8 que puede estar basado en características de la mujer, categorizados según categorías de características predeterminadas. Así por ejemplo el conjunto de características adicionales 8 pueden obtenerse a partir de la edad, altura, peso, hábitos de comida/tabaco/alcohol, duración de sus ciclos de fertilidad, historial médico y menstrual, categorizadas mediante técnicas tales como distancias entre puntos, clustering/segmentación o embeddings.This second neural network F receives as inputs the candidate probability 7 and the additional feature set 8 that may be based on characteristics of the woman, categorized according to predetermined feature categories. Thus, for example, the set of additional characteristics 8 can be obtained from age, height, weight, eating/smoking/alcohol habits, duration of their fertility cycles, medical and menstrual history, categorized using techniques such as distances between points, clustering/segmentation or embeddings.

La Fig. 9 presenta un esquema general del método según la presente invención formado a partir de cadenas de bloques estándar, en el que se puede observar en primer lugar el módulo de procesado A que a partir de unos valores de píxel 2 genera un mapa de características 3 mediante una red neuronal basada en Inception v3, para su incorporación en una primera operación de convolución bidimensional B, para obtener un mapa de gradiente 4, que posteriormente se procesa en una segunda operación de convolución bidimensional C para obtener un mapa de atención 5. Este mapa de atención 5 junto con el mapa de características 3 se procesa en un módulo de media ponderada D para así obtener el mapa de características ponderado 6.Fig. 9 presents a general scheme of the method according to the present invention formed from standard blockchains, in which the processing module A can first be observed, which, based on pixel values 2, generates a map of features 3 using a neural network based on Inception v3, for incorporation into a first two-dimensional convolution operation B, to obtain a gradient map 4, which is subsequently processed in a second two-dimensional convolution operation C to obtain an attention map 5 This attention map 5 together with the feature map 3 is processed in a weighted average module D to obtain the weighted feature map 6.

Finalmente, este mapa de características ponderado 6 se procesa en una primera red neuronal E que comprende una red neuronal totalmente conectada para obtener una probabilidad candidata 7, que podría ser posteriormente refinada en una segunda red neuronal F junto con un conjunto de características adicionales 8 para así obtener una probabilidad candidata refinada 9.Finally, this weighted feature map 6 is processed in a first neural network E comprising a fully connected neural network to obtain a candidate probability 7, which could be subsequently refined into a second neural network F along with a set of additional features 8 to thus obtain a refined candidate probability 9.

De modo conocido en las redes neuronales, para poder entrenar la red en su conjunto, se proporcionan un conjunto de datos de entrenamiento, en este caso un conjunto de imágenes del moco cervical en estiramiento, etiquetadas según si corresponden a una mujer en estado fértil, cuya probabilidad candidata 7 y/o probabilidad candidata refinada 9 de fertilidad sería de ‘1’, o a una mujer en estado no fértil, cuya probabilidad candidata 7 y/o probabilidad candidata refinada 9 de fertilidad sería de ‘0’. De modo conocido, parte del conjunto de datos de entrenamiento podrían formar un conjunto de datos de validación, que se utilizarían para validar el entrenamiento realizado, eliminándolos del conjunto de datos de entrenamiento.In a known manner in neural networks, in order to train the network as a whole, a set of training data is provided, in this case a set of images of stretching cervical mucus, labeled according to whether they correspond to a woman in a fertile state, whose candidate probability 7 and/or refined candidate probability 9 of fertility would be '1', or to a woman in a non-fertile state, whose candidate probability 7 and/or refined candidate probability 9 of fertility would be '0'. In a known manner, part of the training data set could form a validation data set, which would be used to validate the training performed, removing them from the training data set.

Así, durante una etapa previa de entrenamiento se realizaría un proceso de propagación hacia atrás, según las técnicas conocidas en el entrenamiento de redes neuronales, donde se congelarían los pesos del módulo de procesado A, si es una red previamente entrenada, iniciándose el resto de los pesos de las redes neuronales de manera aleatoria.Thus, during a previous training stage, a backward propagation process would be carried out, according to known techniques in the training of neural networks, where the weights of processing module A would be frozen, if it is a previously trained network, starting the rest of the weights of the neural networks randomly.

De esta manera, partiendo de una respectiva imagen del conjunto de datos de entrenamiento se calcularía su probabilidad candidata 7 y se realizaría una propagación hacia atrás para ajustar la probabilidad candidata 7 calculada para que se acercara a la probabilidad del conjunto de datos de entrenamiento correspondientes a la imagen del conjunto de datos de entrenamiento, mediante técnicas conocidas, tales como descenso de gradientes. Así, se entrenaría, mediante propagación hacia atrás cada uno de los bloques estándar encadenados mostrados en la Fig. 9. De esta manera, de modo conocido mediante propagación hacia atrás se ajustarían los pesos de la primera red neuronal E, los núcleos (“kernels”) de la segunda operación de convolución bidimensional C y los núcleos (“kernels”) de la primera operación de convolución bidimensional B.In this way, starting from a respective image of the training data set, its candidate probability 7 would be calculated and a back propagation would be performed to adjust the calculated candidate probability 7 so that it was close to the probability of the training data set corresponding to the image of the training data set, using known techniques, such as gradient descent. Thus, each of the chained standard blocks shown in Fig. 9 would be trained by means of backward propagation. In this way, in a known way by means of backward propagation, the weights of the first neural network E, the kernels, would be adjusted. ") of the second two-dimensional convolution operation C and the kernels ("kernels") of the first two-dimensional convolution operation B.

Complementariamente, si se dispone además de datos de la mujer para calcular el conjunto de características adicionales 8, partiendo de una respectiva imagen 1 se calcularía su probabilidad candidata refinada 9 y se realizaría una propagación hacia atrás para ajustar la probabilidad candidata refinada 9 calculada para que se acercara a la probabilidad del conjunto de datos de entrenamiento correspondientes a la imagen 1, mediante técnicas conocidas, tales como descenso de gradientes. Así, en primer lugar se entrenaría mediante propagación hacia atrás la segunda red neuronal F, ajustando sus pesos, y se proseguiría hacía atrás entrenando la primera red neuronal E, segunda operación de convolución bidimensional C y primera operación de convolución bidimensional B del modo anteriormente descrito.Additionally, if the woman's data is also available to calculate the set of additional characteristics 8, starting from a respective image 1, its refined candidate probability 9 would be calculated and a backward propagation would be carried out to adjust the refined candidate probability 9 calculated so that will approach the probability of the training data set corresponding to image 1, using known techniques, such as gradient descent. Thus, first the second neural network F would be trained by backward propagation, adjusting its weights, and it would continue backwards by training the first neural network E, the second two-dimensional convolution operation C and the first two-dimensional convolution operation B in the manner previously described. .

Naturalmente el mismo método adaptado convenientemente podría utilizarse para obtener el estado de fertilidad de hembras otra especie de mamífero, y podría utilizarse, por ejemplo, en el campo de la ganadería para obtener el estado de fertilidad de otras especies. En este caso se prevé que el conjunto de datos de entrenamiento correspondan a imágenes del moco cervical en estiramiento de hembras de la especie de interés, etiquetadas según si corresponden a un estado fértil, cuya probabilidad candidata 7 y/o probabilidad candidata refinada 9 de fertilidad sería de ‘1’, o a una estado no fértil, cuya probabilidad candidata 7 y/o probabilidad candidata refinada 9 de fertilidad sería de ‘0’.Naturally the same conveniently adapted method could be used to obtain the fertility status of females of another species of mammal, and could be used, for example, in the field of livestock farming to obtain the fertility status of other species. In this case, the training data set is expected to correspond to images of the stretched cervical mucus of females of the species of interest, labeled according to whether they correspond to a fertile state, whose candidate probability 7 and/or refined candidate probability 9 of fertility would be '1', or to a non-fertile state, whose candidate probability 7 and/or refined candidate probability 9 of fertility would be '0'.

La Fig. 10 presenta un aparato 100 de procesado de datos que comprende medios para realizar el método anteriormente presentado. Este aparato 100 comprende un componente cliente 110, tal como un dispositivo portátil, por ejemplo un teléfono móvil, y un componente servidor 120, tal como un servidor remoto conectado por internet 112 con el componente cliente 110, por ejemplo para realizar una computación distribuida del método de la presente invención. Como se observa, el componente cliente 110 comprende una cámara 111 fotográfica para obtener la imagen 1 del moco cervical, estando el componente cliente 110 adaptado para enviar la imagen 1 al componente servidor 120 a través de internet 112, de modo que el servidor 120 realice las etapas del método para así devolver al cliente 110 bien la probabilidad candidata 7 o la probabilidad candidata refinada 9. Naturalmente también se prevé que sea el mismo cliente el que realice la totalidad del método. Fig. 10 presents a data processing apparatus 100 comprising means for carrying out the method presented above. This apparatus 100 comprises a client component 110, such as a portable device, for example a mobile phone, and a server component 120, such as a remote server connected via the Internet 112 to the client component 110, for example to perform distributed computing of the method of the present invention. As can be seen, the client component 110 comprises a photographic camera 111 to obtain image 1 of the cervical mucus, the client component 110 being adapted to send the image 1 to the server component 120 through Internet 112, so that the server 120 performs the stages of the method in order to return to the client 110 either the candidate probability 7 or the refined candidate probability 9. Naturally, it is also expected that the client himself will carry out the entire method.

Claims (11)

REIVINDICACIONES 1. Método implementado por computador para obtener el estado de fertilidad de una mujer que comprende las etapas de:1. Computer-implemented method to obtain the fertility status of a woman that includes the stages of: - obtener una imagen (1) del moco cervical de la mujer en estiramiento; - extraer valores de píxel (2) de la imagen;- obtain an image (1) of the woman's cervical mucus in stretch; - extract pixel values (2) from the image; - procesar los valores de píxel (2) en un módulo de procesado (A) para obtener un mapa de características (3) con características bidimensionales (w, h) distribuidas en varios canales (d);- process the pixel values (2) in a processing module (A) to obtain a feature map (3) with two-dimensional features (w, h) distributed in several channels (d); - aplicar al mapa de características (3) al menos una primera operación de convolución bidimensional (B) para reducir el número de canales (d), obteniendo un mapa de gradiente (4),- apply to the feature map (3) at least a first two-dimensional convolution operation (B) to reduce the number of channels (d), obtaining a gradient map (4), - aplicar al mapa de gradiente (4) al menos una segunda operación de convolución bidimensional (C) para aumentar el número de canales (d) y restablecer el mismo número de características que en el mapa de características (3), obteniendo un mapa de atención (5);- apply to the gradient map (4) at least a second two-dimensional convolution operation (C) to increase the number of channels (d) and restore the same number of features as in the feature map (3), obtaining a map of attention (5); - para cada canal (d) del mapa de características (3) realizar una media ponderada (D) de las características bidimensionales (w, h) del mapa de características (3), tomando como pesos las respectivas características bidimensionales (w, h) del mapa de atención (5) del mismo canal (d), para obtener un mapa de características ponderado (6); y- for each channel (d) of the feature map (3), perform a weighted average (D) of the two-dimensional features (w, h) of the feature map (3), taking the respective two-dimensional features (w, h) as weights. from the attention map (5) of the same channel (d), to obtain a weighted feature map (6); and - procesar el mapa de características ponderado (6) mediante una primera red neuronal (E) para obtener una probabilidad candidata (7) de estado de fertilidad.- process the weighted feature map (6) using a first neural network (E) to obtain a candidate probability (7) of fertility state. 2. Método según la reivindicación anterior, caracterizado por que comprende, además, las etapas de2. Method according to the previous claim, characterized in that it also comprises the steps of - obtener un conjunto de características adicionales (8) basado en características de la mujer categorizados según categorías de características predeterminadas; - procesar la probabilidad candidata (7) y el conjunto de características adicionales (8) mediante una segunda red neuronal (F) para obtener una probabilidad candidata refinada (9).- obtain a set of additional characteristics (8) based on characteristics of the woman categorized according to predetermined characteristic categories; - process the candidate probability (7) and the set of additional features (8) using a second neural network (F) to obtain a refined candidate probability (9). 3. Método según la reivindicación anterior, caracterizado por que el módulo de procesado (A) comprende una red neuronal basada en Inception v3.3. Method according to the previous claim, characterized in that the processing module (A) comprises a neural network based on Inception v3. 4. Método según una cualquiera de las reivindicaciones anteriores, caracterizado por que la primera red neuronal (E) comprende una red neuronal totalmente conectada.4. Method according to any one of the preceding claims, characterized in that the first neural network (E) comprises a fully connected neural network. 5. Método según una cualquiera de las reivindicaciones anteriores, caracterizado por que comprende además obtener una imagen de mapa de calor (10) a partir del mapa de características (3).5. Method according to any one of the preceding claims, characterized in that it further comprises obtaining a heat map image (10) from the feature map (3). 6. Método según una cualquiera de las reivindicaciones anteriores, caracterizado por que la función de activación de la primera red neuronal (E) es una función de tipo TanhSoft.6. Method according to any one of the preceding claims, characterized in that the activation function of the first neural network (E) is a TanhSoft type function. 7. Aparato (100) de procesado de datos que comprende medios para realizar el método según una cualquiera de las reivindicaciones 1 a 6.7. Data processing apparatus (100) comprising means for carrying out the method according to any one of claims 1 to 6. 8. Aparato (100) según la reivindicación anterior, caracterizado por que comprende un componente cliente (110) y un componente servidor (120).8. Device (100) according to the preceding claim, characterized in that it comprises a client component (110) and a server component (120). 9. Aparato (100) según la reivindicación anterior, caracterizado por que el componente cliente (110) es un dispositivo portátil que comprende una cámara (111) fotográfica para obtener la imagen (1) del moco cervical.9. Device (100) according to the preceding claim, characterized in that the client component (110) is a portable device that comprises a photographic camera (111) to obtain the image (1) of the cervical mucus. 10. Un programa de ordenador que comprende código software adaptado para realizar el método según una cualquiera de las reivindicaciones 1 a 6.10. A computer program comprising software code adapted to perform the method according to any one of claims 1 to 6. 11. Un medio de almacenamiento legible por ordenador que comprende el programa de ordenador de la reivindicación anterior. 11. A computer readable storage medium comprising the computer program of the preceding claim.
ES202230124A 2022-02-16 2022-02-16 Computer-implemented method to obtain the fertility status of a woman (Machine-translation by Google Translate, not legally binding) Withdrawn ES2948438A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
ES202230124A ES2948438A1 (en) 2022-02-16 2022-02-16 Computer-implemented method to obtain the fertility status of a woman (Machine-translation by Google Translate, not legally binding)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ES202230124A ES2948438A1 (en) 2022-02-16 2022-02-16 Computer-implemented method to obtain the fertility status of a woman (Machine-translation by Google Translate, not legally binding)

Publications (1)

Publication Number Publication Date
ES2948438A1 true ES2948438A1 (en) 2023-09-12

Family

ID=87930344

Family Applications (1)

Application Number Title Priority Date Filing Date
ES202230124A Withdrawn ES2948438A1 (en) 2022-02-16 2022-02-16 Computer-implemented method to obtain the fertility status of a woman (Machine-translation by Google Translate, not legally binding)

Country Status (1)

Country Link
ES (1) ES2948438A1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2346718A1 (en) * 1976-03-31 1977-10-28 Anvar Automatic fibre stretch meter for cervical mucus - determines elongation at constant rate and detects rupture
ES2031038A6 (en) * 1991-02-01 1992-11-16 Manero Guardiola Carlos Instrument for measuring the stretch of uterine cervical mucus
CN2553735Y (en) * 2001-04-23 2003-06-04 薛大德 Detector for ovulatory period of woman of childbearing age
US20110118996A1 (en) * 2006-07-17 2011-05-19 Mckenna Gregory B Die Swell Fertility Apparatus for Humans and Other Mammals: Apparatus and Method
WO2017201540A1 (en) * 2016-05-20 2017-11-23 Techcyte, Inc. Machine learning classification of particles or substances in digital microscopy images
WO2018178753A1 (en) * 2017-03-31 2018-10-04 Jose Maria Murcia Lora Biosensor for biophysical measurement of cervical secretion
US20180322327A1 (en) * 2017-05-02 2018-11-08 Techcyte, Inc. Machine learning classification and training for digital microscopy cytology images
WO2020123724A1 (en) * 2018-12-14 2020-06-18 Spectral Md, Inc. Machine learning systems and methods for assessment, healing prediction, and treatment of wounds

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2346718A1 (en) * 1976-03-31 1977-10-28 Anvar Automatic fibre stretch meter for cervical mucus - determines elongation at constant rate and detects rupture
ES2031038A6 (en) * 1991-02-01 1992-11-16 Manero Guardiola Carlos Instrument for measuring the stretch of uterine cervical mucus
CN2553735Y (en) * 2001-04-23 2003-06-04 薛大德 Detector for ovulatory period of woman of childbearing age
US20110118996A1 (en) * 2006-07-17 2011-05-19 Mckenna Gregory B Die Swell Fertility Apparatus for Humans and Other Mammals: Apparatus and Method
WO2017201540A1 (en) * 2016-05-20 2017-11-23 Techcyte, Inc. Machine learning classification of particles or substances in digital microscopy images
WO2018178753A1 (en) * 2017-03-31 2018-10-04 Jose Maria Murcia Lora Biosensor for biophysical measurement of cervical secretion
US20180322327A1 (en) * 2017-05-02 2018-11-08 Techcyte, Inc. Machine learning classification and training for digital microscopy cytology images
WO2020123724A1 (en) * 2018-12-14 2020-06-18 Spectral Md, Inc. Machine learning systems and methods for assessment, healing prediction, and treatment of wounds

Similar Documents

Publication Publication Date Title
Yani et al. Application of transfer learning using convolutional neural network method for early detection of terry’s nail
US10810735B2 (en) Method and apparatus for analyzing medical image
CN107944020B (en) Face image searching method and device, computer device and storage medium
WO2019136806A1 (en) Medical model training method and apparatus, medical identification method and apparatus, device, and medium
Padilla et al. Differentiating atopic dermatitis and psoriasis chronic plaque using convolutional neural network MobileNet architecture
CN111091562B (en) Method and system for measuring size of digestive tract lesion
CN108280058A (en) Relation extraction method and apparatus based on intensified learning
CN111008576B (en) Pedestrian detection and model training method, device and readable storage medium
CN110148145A (en) A kind of image object area extracting method and application merging boundary information
WO2019076109A1 (en) Method and device for pooling image information, storage medium and processor
CN114241505B (en) Method and device for extracting chemical structure image, storage medium and electronic equipment
CN115424053B (en) Small sample image recognition method, device, equipment and storage medium
CN114972255A (en) Image detection method and device for cerebral microhemorrhage, computer equipment and storage medium
CN112991280A (en) Visual detection method and system and electronic equipment
CN113749618B (en) Sports injury assessment method, system, medium and terminal
Omodior et al. Using convolutional neural networks for tick image recognition–a preliminary exploration
Pholberdee et al. Study of chronic wound image segmentation: Impact of tissue type and color data augmentation
ES2948438A1 (en) Computer-implemented method to obtain the fertility status of a woman (Machine-translation by Google Translate, not legally binding)
CN117456283A (en) Nail disease image intelligent diagnosis method based on deep learning
US10037481B2 (en) System and method for an otitis media database constructing and an image analyzing
CN111967383A (en) Age estimation method, and training method and device of age estimation model
CN116737977A (en) Image retrieval method, device, equipment and medium
CN113344911B (en) Method and device for measuring size of calculus
Oz et al. Efficacy of biophysiological measurements at FTFPs for facial expression classification: A validation
CN115311490A (en) Hepatic cystic echinococcosis classification model and computer medium

Legal Events

Date Code Title Description
BA2A Patent application published

Ref document number: 2948438

Country of ref document: ES

Kind code of ref document: A1

Effective date: 20230912

FA2A Application withdrawn

Effective date: 20231227