ES2948438A1 - Computer-implemented method to obtain the fertility status of a woman (Machine-translation by Google Translate, not legally binding) - Google Patents
Computer-implemented method to obtain the fertility status of a woman (Machine-translation by Google Translate, not legally binding) Download PDFInfo
- Publication number
- ES2948438A1 ES2948438A1 ES202230124A ES202230124A ES2948438A1 ES 2948438 A1 ES2948438 A1 ES 2948438A1 ES 202230124 A ES202230124 A ES 202230124A ES 202230124 A ES202230124 A ES 202230124A ES 2948438 A1 ES2948438 A1 ES 2948438A1
- Authority
- ES
- Spain
- Prior art keywords
- feature map
- map
- neural network
- image
- woman
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 230000035558 fertility Effects 0.000 title claims abstract description 35
- 210000003756 cervix mucus Anatomy 0.000 claims abstract description 32
- 238000012545 processing Methods 0.000 claims abstract description 17
- 238000013528 artificial neural network Methods 0.000 claims description 40
- 230000004913 activation Effects 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 4
- 238000012549 training Methods 0.000 description 13
- 210000003811 finger Anatomy 0.000 description 3
- 241000894007 species Species 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 description 1
- 241000124008 Mammalia Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005562 fading Methods 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 230000002175 menstrual effect Effects 0.000 description 1
- 238000009304 pastoral farming Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000000391 smoking effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/145—Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
- A61B5/1455—Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N11/00—Investigating flow properties of materials, e.g. viscosity, plasticity; Analysing materials by determining flow properties
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Quality & Reliability (AREA)
- Pathology (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Computing Systems (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Optics & Photonics (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Telephonic Communication Services (AREA)
- Eye Examination Apparatus (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
DESCRIPCIÓNDESCRIPTION
Método implementado por computador para obtener el estado de fertilidad de una mujerComputer-implemented method to obtain the fertility status of a woman
Sector técnico de la invenciónTechnical sector of invention
El método implementado por computador de la presente invención permite obtener de manera fiable el estado de fertilidad de una mujer. De esta manera, se consigue determinar si esta se encuentra en un estado fértil o no fértil de su ciclo de fertilidad.The computer-implemented method of the present invention allows the fertility status of a woman to be reliably obtained. In this way, it is possible to determine if it is in a fertile or non-fertile state of its fertility cycle.
Antecedentes de la invenciónBackground of the invention
Son conocidos métodos para intentar predecir el estado de fertilidad de una mujer a partir del estudio de su moco cervical, que analizan características físicas del moco cervical para intentar predecir el estado de fertilidad.There are known methods to try to predict the fertility status of a woman from the study of her cervical mucus, which analyze physical characteristics of the cervical mucus to try to predict the fertility status.
El documento de patente US2011118996 presenta un método y aparato que, a partir de la viscoelasticidad del moco cervical, permite predecir el estado de fertilidad. El aparato está provisto de un motor para extruir el moco cervical, y una cámara para obtener fotografías del moco cervical en extrusión, prediciendo el estado de fertilidad a partir de las características de expansión obtenidas del análisis de las fotografías del moco cervical. No obstante, en este caso se precisa un aparato complejo y voluminoso para predecir el estado de fertilidad, que a su vez tiene que estar en contacto con el moco cervical.The patent document US2011118996 presents a method and apparatus that, based on the viscoelasticity of cervical mucus, allows predicting the state of fertility. The device is provided with a motor to extrude the cervical mucus, and a camera to obtain photographs of the extruded cervical mucus, predicting the state of fertility from the expansion characteristics obtained from the analysis of the photographs of the cervical mucus. However, in this case a complex and bulky device is required to predict fertility status, which in turn has to be in contact with cervical mucus.
El documento de patente WO2015/143259 A1 presenta un sistema y método que mediante un dispositivo dedicado en contacto con el moco cervical determina sus características físicas para compararlas con unas características patrón mediante redes neuronales y así determinar el estado de fertilidad. No obstante, es necesario el contacto del dispositivo o sus sensores con el moco cervical, lo que implica que deba limpiarse periódicamente por razones higiénicas y para evitar contaminar muestras posteriores, lo que podría dar resultados erróneos.Patent document WO2015/143259 A1 presents a system and method that, by means of a dedicated device in contact with cervical mucus, determines its physical characteristics to compare them with standard characteristics through neural networks and thus determine the state of fertility. However, contact of the device or its sensors with cervical mucus is necessary, which means that it must be cleaned periodically for hygienic reasons and to avoid contaminating subsequent samples, which could give erroneous results.
Se conocen también métodos para obtener el estado de fertilidad a partir del análisis automatizado de una fotografía del moco cervical cristalizado, mediante prueba de helecho. Por ejemplo, el documento de patente WO2020/092901 A1 presenta un sistema y método que mediante un sistema óptico de soporte de una muestra de moco cervical permite obtener, por parte de un dispositivo móvil, una fotografía ampliada de una muestra de moco cervical seco y analizarla mediante redes neuronales para determinar el estado de fertilidad. En este caso también es necesaria la limpieza inmediata del sistema óptico de soporte de la muestra tras su uso por razones higiénicas y para evitar contaminar muestras que se quieran analizar con posterioridad, lo que podría dar resultados erróneos.Methods are also known to obtain fertility status from the automated analysis of a photograph of crystallized cervical mucus, using a fern test. For example, patent document WO2020/092901 A1 presents a system and method that, by means of an optical support system for a sample of cervical mucus, allows obtaining, by a mobile device, an enlarged photograph of a sample of dry cervical mucus and analyze it using neural networks to determine the fertility status. In this case It is also necessary to immediately clean the optical sample support system after use for hygienic reasons and to avoid contaminating samples that are to be analyzed later, which could give erroneous results.
Es por tanto un objeto de la presente invención dar a conocer un método que consiga de manera muy rápida, higiénica y fiable determinar el estado de fertilidad sin necesitar aparatos dedicados, de modo que se pueda determinar de manera fiable y segura el estado de fertilidad por parte de un usuario que aporte una muestra de moco cervical sin conocimientos especializados.It is therefore an object of the present invention to provide a method that is able to determine the fertility status in a very rapid, hygienic and reliable manner without requiring dedicated devices, so that the fertility status can be determined reliably and safely by part of a user who provides a sample of cervical mucus without specialized knowledge.
Explicación de la invenciónExplanation of the invention
El método implementado por computador de la presente invención permite obtener el estado de fertilidad de una mujer mediante dispositivos comunes, tal como un teléfono móvil provisto de cámara.The computer-implemented method of the present invention allows obtaining the fertility status of a woman using common devices, such as a mobile phone equipped with a camera.
En esencia, este método, que puede programarse para ser ejecutado en dispositivos electrónicos tales como computadores, comprende las etapas de obtener una imagen del moco cervical de la mujer estirado, tal como estirado entre dos dedos de una mano, por ejemplo, entre el dedo pulgar e índice. El método comprende además extraer valores de píxel de la imagen y procesar los valores de píxel en un módulo de procesado para obtener un mapa de características con características bidimensionales distribuidas en varios canales; aplicar al mapa de características al menos una primera operación de convolución bidimensional para reducir el número de canales, obteniendo un mapa de gradiente, y aplicar al mapa de gradiente al menos una segunda operación de convolución bidimensional para aumentar el número de canales y restablecer el mismo número de características que en el mapa de características anterior, obteniendo así un mapa de atención; para cada canal del mapa de características realizar una media ponderada de las características bidimensionales del mapa de características, tomando como pesos las respectivas características bidimensionales del mapa de atención del mismo canal, para obtener un mapa de características ponderado; y procesar el mapa de características ponderado mediante una primera red neuronal para obtener una probabilidad candidata de estado de fertilidad.In essence, this method, which can be programmed to be executed on electronic devices such as computers, comprises the steps of obtaining an image of the woman's cervical mucus stretched, such as stretched between two fingers of a hand, for example, between the finger thumb and index finger. The method further comprises extracting pixel values from the image and processing the pixel values in a processing module to obtain a feature map with two-dimensional features distributed over several channels; apply to the feature map at least a first two-dimensional convolution operation to reduce the number of channels, obtaining a gradient map, and apply to the gradient map at least a second two-dimensional convolution operation to increase the number of channels and restore the same number of features than in the previous feature map, thus obtaining an attention map; for each channel of the feature map, perform a weighted average of the two-dimensional features of the feature map, taking as weights the respective two-dimensional features of the attention map of the same channel, to obtain a weighted feature map; and processing the weighted feature map by a first neural network to obtain a candidate fertility state probability.
Ventajosamente, mediante este método se consigue obtener el estado de fertilidad de una manera fiable y sencilla para el usuario, evitando que los dispositivos de computación tengan que entrar en contacto con el moco cervical. Advantageously, through this method it is possible to obtain the fertility status in a reliable and simple way for the user, avoiding that the computing devices have to come into contact with the cervical mucus.
En una variante de realización, el método comprende además las etapas de obtener un conjunto de características adicionales basado en características de la mujer; y procesar la probabilidad candidata y el conjunto de características adicionales mediante una segunda red neuronal para obtener una probabilidad candidata refinada.In a variant embodiment, the method further comprises the steps of obtaining a set of additional characteristics based on characteristics of the woman; and processing the candidate probability and the set of additional features through a second neural network to obtain a refined candidate probability.
Así, se consigue confirmar la probabilidad candidata previamente calculada combinándola con otras características. Esta etapa es especialmente útil cuando la probabilidad candidata está alrededor de 0.5, lo que permite acabar de determinar la probabilidad de estado de fertilidad, obteniendo así una probabilidad candidata refinada.Thus, it is possible to confirm the previously calculated candidate probability by combining it with other characteristics. This stage is especially useful when the candidate probability is around 0.5, which allows us to finish determining the probability of fertility status, thus obtaining a refined candidate probability.
En una variante de realización, el módulo de procesado comprende una red neuronal basada en Inception v3, de modo que se utilice una red previamente entrenada para obtener el mapa de características de la imagen.In a variant embodiment, the processing module comprises a neural network based on Inception v3, so that a previously trained network is used to obtain the image feature map.
En una variante de realización, la primera red neuronal comprende una red neuronal totalmente conectada, permitiendo así entrenar esta primera red neuronal.In a variant embodiment, the first neural network comprises a fully connected neural network, thus allowing this first neural network to be trained.
En una variante de realización, el conjunto de características adicionales comprende datos de características de la mujer categorizados según categorías de características anteriormente determinadas.In a variant embodiment, the set of additional characteristics comprises characteristic data of the woman categorized according to previously determined characteristic categories.
En una variante de realización, el método comprende además obtener una imagen de mapa de calor a partir del mapa de características para informar visualmente de las partes de la imagen más relevantes, correspondientes al moco cervical, permitiendo volver a realizar el método, con una nueva imagen si la parte relevante de la imagen no se corresponde con el moco cervical, evitando así resultados erróneos debidos a una mala captura de la imagen, por ejemplo si esta es demasiado oscura o sin contraste.In a variant embodiment, the method further comprises obtaining a heat map image from the feature map to visually report the most relevant parts of the image, corresponding to the cervical mucus, allowing the method to be performed again, with a new image if the relevant part of the image does not correspond to the cervical mucus, thus avoiding erroneous results due to poor image capture, for example if it is too dark or without contrast.
En una variante de realización, la función de activación de la primera red neuronal es una función de tipo TanhSoft según se desriben en el artículo "TanhSoft - a family of activation functions combining Tanh and Softplus” ( https://arxiv.org/abs/2009.03863) .In a variant embodiment, the activation function of the first neural network is a TanhSoft type function as described in the article "TanhSoft - a family of activation functions combining Tanh and Softplus" (https://arxiv.org/abs /2009.03863).
Se presenta también un aparato de procesado de datos que comprende medios para realizar el método para obtener el estado de fertilidad de una mujer según se ha descrito anteriormente.Also presented is a data processing apparatus comprising means for carrying out the method for obtaining the fertility status of a woman as described above.
En una realización, el aparato comprende un componente cliente y un componente servidor. In one embodiment, the apparatus comprises a client component and a server component.
Preferentemente el componente cliente es un dispositivo portátil que comprende una cámara fotográfica para obtener la imagen del moco cervical, tal como un teléfono móvil, que incorpore una aplicación para ejecutar parte o todo el método implementado por computador descrito.Preferably the client component is a portable device that comprises a photographic camera to obtain the image of the cervical mucus, such as a mobile phone, which incorporates an application to execute part or all of the computer-implemented method described.
Se presenta también un programa de ordenador que comprende código software adaptado para realizar el método para obtener el estado de fertilidad de una mujer cuando se ejecuta en un aparato de los anteriormente descritos.A computer program is also presented that comprises software code adapted to carry out the method for obtaining the fertility status of a woman when executed on a device of those described above.
Además, se da a conocer un medio de almacenamiento legible por ordenador que comprende el programa de ordenador anteriormente presentado.Furthermore, a computer-readable storage medium is disclosed that comprises the computer program presented above.
Breve descripción de los dibujosBrief description of the drawings
Para complementar la descripción que se está realizando y con objeto de facilitar la comprensión de las características de la invención, se acompaña a la presente memoria descriptiva un juego de dibujos en los que, con carácter ilustrativo y no limitativo, se ha representado lo siguiente:To complement the description that is being made and in order to facilitate the understanding of the characteristics of the invention, this descriptive report is accompanied by a set of drawings in which, for illustrative and non-limiting purposes, the following has been represented:
La Fig. 1 presenta una imagen de un moco cervical en una disposición de estiramiento para su uso en el método de la presente invención;Fig. 1 presents an image of a cervical mucus in a stretching arrangement for use in the method of the present invention;
la Fig. 2 presenta unas primeras etapas del método según la presente invención;Fig. 2 presents first stages of the method according to the present invention;
la Fig. 3 presenta unas segundas etapas del método según la presente invención;Fig. 3 presents second stages of the method according to the present invention;
la Fig. 4 presenta un mapa de gradiente y una imagen de mapa de calor de la imagen de la Fig. 1.Fig. 4 presents a gradient map and heat map image of the image in Fig. 1.
La Fig. 5 presenta unas terceras etapas del método según la presente invención;Fig. 5 presents third steps of the method according to the present invention;
la Fig. 6 presenta una fórmula para la realización de la media ponderada de la etapa del método de la Fig. 5;Fig. 6 presents a formula for carrying out the weighted average of the method step of Fig. 5;
la Fig. 7 presenta unas cuartas etapas del método según la presente invención;Fig. 7 presents fourth steps of the method according to the present invention;
la Fig. 8 presenta unas quintas etapas adicionales del método del procedimiento;Fig. 8 presents additional fifth steps of the method of the procedure;
la Fig. 9 presenta un esquema general de un método según la presente invención; y la Fig. 10 presenta un aparato para ejecutar el método de la presente invención.Fig. 9 presents a general scheme of a method according to the present invention; and Fig. 10 presents an apparatus for executing the method of the present invention.
Descripción detallada de los dibujosDetailed description of the drawings
La Fig. 1 presenta una imagen 1 tomada a distancia de un moco cervical en estiramiento para su uso en el método de la presente invención. Concretamente en este caso la disposición en estiramiento que tiene que adoptar el moco cervical es un estiramiento entre los dedos índice y pulgar de la mano, haciendo pinza. De esta manera se consigue que una usuaria pueda disponer estirada una muestra de su moco cervical con una mano, mientras con la otra mano pueda sujetar un dispositivo, tal como un teléfono móvil para capturar la imagen 1 del moco cervical. Así, la misma usuaria pueda realizar fácilmente y sin ayuda adicional la captura de la imagen para obtener su estado de fertilidad por sí misma. En otras realizaciones, se prevé también que el moco cervical pueda disponerse en estiramiento mediante dispositivos accesorios, tales como unas pinzas. Se prevé que se informe mediante un conjunto de instrucciones la disposición que debe adoptar el moco cervical para la captura de la imagen 1 para su uso en el método, en cada caso.Fig. 1 presents a remotely taken image 1 of a stretching cervical mucus for use in the method of the present invention. Specifically in this case, the stretching disposition that the cervical mucus has to adopt is a stretch between the index fingers and thumb of the hand, making a clamp. In this way it is achieved that a user can Hold a sample of your cervical mucus outstretched with one hand, while with the other hand you can hold a device, such as a mobile phone, to capture image 1 of the cervical mucus. Thus, the same user can easily and without additional help capture the image to obtain her fertility status on her own. In other embodiments, it is also provided that the cervical mucus can be stretched using accessory devices, such as forceps. It is expected that a set of instructions will inform the disposition that the cervical mucus must adopt for the capture of image 1 for use in the method, in each case.
La Fig. 2 presenta unas primeras etapas del método implementado por computador de la presente invención para obtener el estado de fertilidad, en el que, a partir de la imagen 1 tomada a distancia anterior, que puede considerarse una imagen de tipo RGB, se extraen valores de píxel 2 en cada uno de sus tres diferentes canales d, realizando si fuera necesario operaciones de escalado y adaptación para su correcto procesado en un módulo de procesado A para obtener un mapa de características 3 con características bidimensionales w, h distribuidas en varios canales d. Naturalmente, la distribución de los valores de píxel 2, así como del mapa de características 3 deberá ser la adecuada para su uso en el módulo de procesado A.Fig. 2 presents some first stages of the computer-implemented method of the present invention to obtain the fertility state, in which, from the previous image 1 taken at a distance, which can be considered an RGB type image, pixel values 2 in each of its three different channels d, performing, if necessary, scaling and adaptation operations for their correct processing in a processing module A to obtain a feature map 3 with two-dimensional features w, h distributed in several channels d. Naturally, the distribution of pixel values 2, as well as feature map 3, must be appropriate for use in processing module A.
Este módulo de procesado A comprende una red neuronal,, concretamente una red neuronal Inception v3 previamente entrenada para así obtener el mapa de características 3 de los valores de píxel 2. Aunque usualmente la red neuronal Inception v3 incluye una capa final de tipo completamente conectado para categorizar las imágenes 1 de las que se han extraído los valores de píxel 2, en esta realización esta capa final de tipo completamente conectado ha sido eliminada, obteniendo así el mapa de características 3 con características bidimensionales w, h distribuidas en varios canales d. Naturalmente, otros tipos de redes neuronales podrían utilizarse. La ventaja de utilizar una red neuronal previamente entrenada es que su estructura y pesos puede congelarse durante las fases de entrenamiento del resto de redes neuronales del conjunto, esta ventaja es conocida en el estado de la técnica de redes neuronales previamente entrenadas. Naturalmente, en otras realizaciones se podría utilizar otras redes neuronales preentrenadas, por ejemplo otras también basadas en la versión 3 de la red Inception creada y entrenada por Google sobre la base de imágenes ImageNet, o basadas en otras arquitecturas, tal como EfficientNet.This processing module A comprises a neural network, specifically an Inception v3 neural network previously trained to obtain the feature map 3 of the pixel values 2. Although usually the Inception v3 neural network includes a final layer of fully connected type to categorize the images 1 from which the pixel values 2 have been extracted, in this embodiment this final layer of fully connected type has been removed, thus obtaining the feature map 3 with two-dimensional features w, h distributed in several channels d. Naturally, other types of neural networks could be used. The advantage of using a pre-trained neural network is that its structure and weights can be frozen during the training phases of the rest of the neural networks in the set. This advantage is known in the state of the art of pre-trained neural networks. Naturally, in other embodiments other pre-trained neural networks could be used, for example others also based on version 3 of the Inception network created and trained by Google based on ImageNet images, or based on other architectures, such as EfficientNet.
La Fig. 3 presenta unas segundas etapas del método en las que se observa que se aplicar al mapa de características 3 al menos una primera operación de convolución bidimensional B para reducir el número de canales d, obteniendo un mapa de gradiente 4. Seguidamente, según se muestra en la misma Fig. 2, se aplica al mapa de gradiente 4 al menos una segunda operación de convolución bidimensional C para aumentar el número de canales d y restablecer el mismo número de características que en el mapa de características 3, obteniendo un mapa de atención 5.Fig. 3 presents second stages of the method in which it is observed that at least a first two-dimensional convolution operation B will be applied to the feature map 3. to reduce the number of channels d, obtaining a gradient map 4. Next, as shown in the same Fig. 2, at least a second two-dimensional convolution operation C is applied to the gradient map 4 to increase the number of channels d and reset the same number of features as in feature map 3, obtaining an attention map 5.
La Fig. 4 presenta una visualización del mapa de gradiente 4 en forma de imagen en escala de grises, en el que cada valor del mapa de gradiente 4 correspondería a un nivel de gris de píxel en la posición de las características bidimensionales w, h, naturalmente el mapa de gradiente 4 se escalaría oportunamente al mismo tamaño que la imagen 1. Aplicando este mapa de gradiente 4 , por ejemplo a uno o más canales d RGB de la imagen 1 se obtiene una imagen de mapa de calor 10 identificativa de los puntos más relevantes de la imagen 1. De esta manera, se puede presentar al usuario esta imagen de mapa de calor 10 durante la realización del método.Fig. 4 presents a visualization of the gradient map 4 in the form of a grayscale image, in which each value of the gradient map 4 would correspond to a pixel gray level at the position of the two-dimensional features w, h, naturally the gradient map 4 would be appropriately scaled to the same size as image 1. By applying this gradient map 4, for example to one or more d RGB channels of image 1, a heat map image 10 identifying the points is obtained. most relevant images of image 1. In this way, this heat map image 10 can be presented to the user during carrying out the method.
Según se presenta en la Fig. 5, para cada canal d del mapa de características 3 realizar una media ponderada D de las características bidimensionales w, h del mapa de características 3, tomando como pesos las respectivas características bidimensionales w, h del mapa de atención 5 del mismo canal d, para obtener un mapa de características ponderado 6, de la manera presentada en detalle en la fórmula de la Fig. 6. Mediante esta media ponderada D se consigue reforzar las características del mapa de características 3 clave, en el mapa de características ponderado 6, que permitirán más adelante poder determinar con fiabilidad el estado de fertilidad de la mujer.As presented in Fig. 5, for each channel d of the feature map 3, perform a weighted average D of the two-dimensional features w, h of the feature map 3, taking as weights the respective two-dimensional features w, h of the attention map 5 of the same channel d, to obtain a weighted feature map 6, in the manner presented in detail in the formula of Fig. 6. Through this weighted average D, it is possible to reinforce the characteristics of the key feature map 3, in the map of characteristics weighted 6, which will later allow us to reliably determine the woman's fertility status.
La Fig. 7 presenta una cuarta etapa del método, en el que se procesa el mapa de características ponderado 6 anteriormente obtenido mediante una primera red neuronal E, que puede ser o comprender redes neuronales completamente conectadas, para obtener así una probabilidad candidata 7 de estado de fertilidad. Preferentemente, la función de activación de la primera red neuronal E será de tipo TanhSoft ya que tiene la capacidad de mejorar el rendimiento de las más comunes, evitando problemas relacionados con el desvanecimiento de gradiente y siendo, además, parametrizable, de manera que se pueda ajustar. Las funciones de activación de tipo TanhSoft se describen en el artículo "TanhSoft -a family of activation functions combining Tanh and Softplus” (https://arxiv.org/abs/2009.03863).Fig. 7 presents a fourth stage of the method, in which the weighted feature map 6 previously obtained is processed by a first neural network E, which may be or comprise fully connected neural networks, to thus obtain a candidate probability 7 of state of fertility. Preferably, the activation function of the first neural network E will be of the TanhSoft type since it has the ability to improve the performance of the most common ones, avoiding problems related to gradient fading and also being parameterizable, so that it can be adjust. TanhSoft type activation functions are described in the article "TanhSoft -a family of activation functions combining Tanh and Softplus” (https://arxiv.org/abs/2009.03863).
La Fig. 8 presenta una quinta etapa adicional del método del procedimiento en el que se procesa la probabilidad candidata 7 y un conjunto de características adicionales 8 mediante una segunda red neuronal F, que puede ser o comprender redes neuronales completamente conectadas, para obtener una probabilidad candidata refinada 9. Preferentemente, la función de activación de esta segunda red neuronal F será también de tipo TanhSoft.Fig. 8 presents an additional fifth step of the method of the procedure in which processes the candidate probability 7 and a set of additional features 8 by a second neural network F, which may be or comprise fully connected neural networks, to obtain a refined candidate probability 9. Preferably, the activation function of this second neural network F will be also TanhSoft type.
Esta segunda red neuronal F recibe como entradas la probabilidad candidata 7 y el conjunto de características adicionales 8 que puede estar basado en características de la mujer, categorizados según categorías de características predeterminadas. Así por ejemplo el conjunto de características adicionales 8 pueden obtenerse a partir de la edad, altura, peso, hábitos de comida/tabaco/alcohol, duración de sus ciclos de fertilidad, historial médico y menstrual, categorizadas mediante técnicas tales como distancias entre puntos, clustering/segmentación o embeddings.This second neural network F receives as inputs the candidate probability 7 and the additional feature set 8 that may be based on characteristics of the woman, categorized according to predetermined feature categories. Thus, for example, the set of additional characteristics 8 can be obtained from age, height, weight, eating/smoking/alcohol habits, duration of their fertility cycles, medical and menstrual history, categorized using techniques such as distances between points, clustering/segmentation or embeddings.
La Fig. 9 presenta un esquema general del método según la presente invención formado a partir de cadenas de bloques estándar, en el que se puede observar en primer lugar el módulo de procesado A que a partir de unos valores de píxel 2 genera un mapa de características 3 mediante una red neuronal basada en Inception v3, para su incorporación en una primera operación de convolución bidimensional B, para obtener un mapa de gradiente 4, que posteriormente se procesa en una segunda operación de convolución bidimensional C para obtener un mapa de atención 5. Este mapa de atención 5 junto con el mapa de características 3 se procesa en un módulo de media ponderada D para así obtener el mapa de características ponderado 6.Fig. 9 presents a general scheme of the method according to the present invention formed from standard blockchains, in which the processing module A can first be observed, which, based on pixel values 2, generates a map of features 3 using a neural network based on Inception v3, for incorporation into a first two-dimensional convolution operation B, to obtain a gradient map 4, which is subsequently processed in a second two-dimensional convolution operation C to obtain an attention map 5 This attention map 5 together with the feature map 3 is processed in a weighted average module D to obtain the weighted feature map 6.
Finalmente, este mapa de características ponderado 6 se procesa en una primera red neuronal E que comprende una red neuronal totalmente conectada para obtener una probabilidad candidata 7, que podría ser posteriormente refinada en una segunda red neuronal F junto con un conjunto de características adicionales 8 para así obtener una probabilidad candidata refinada 9.Finally, this weighted feature map 6 is processed in a first neural network E comprising a fully connected neural network to obtain a candidate probability 7, which could be subsequently refined into a second neural network F along with a set of additional features 8 to thus obtain a refined candidate probability 9.
De modo conocido en las redes neuronales, para poder entrenar la red en su conjunto, se proporcionan un conjunto de datos de entrenamiento, en este caso un conjunto de imágenes del moco cervical en estiramiento, etiquetadas según si corresponden a una mujer en estado fértil, cuya probabilidad candidata 7 y/o probabilidad candidata refinada 9 de fertilidad sería de ‘1’, o a una mujer en estado no fértil, cuya probabilidad candidata 7 y/o probabilidad candidata refinada 9 de fertilidad sería de ‘0’. De modo conocido, parte del conjunto de datos de entrenamiento podrían formar un conjunto de datos de validación, que se utilizarían para validar el entrenamiento realizado, eliminándolos del conjunto de datos de entrenamiento.In a known manner in neural networks, in order to train the network as a whole, a set of training data is provided, in this case a set of images of stretching cervical mucus, labeled according to whether they correspond to a woman in a fertile state, whose candidate probability 7 and/or refined candidate probability 9 of fertility would be '1', or to a woman in a non-fertile state, whose candidate probability 7 and/or refined candidate probability 9 of fertility would be '0'. In a known manner, part of the training data set could form a validation data set, which would be used to validate the training performed, removing them from the training data set.
Así, durante una etapa previa de entrenamiento se realizaría un proceso de propagación hacia atrás, según las técnicas conocidas en el entrenamiento de redes neuronales, donde se congelarían los pesos del módulo de procesado A, si es una red previamente entrenada, iniciándose el resto de los pesos de las redes neuronales de manera aleatoria.Thus, during a previous training stage, a backward propagation process would be carried out, according to known techniques in the training of neural networks, where the weights of processing module A would be frozen, if it is a previously trained network, starting the rest of the weights of the neural networks randomly.
De esta manera, partiendo de una respectiva imagen del conjunto de datos de entrenamiento se calcularía su probabilidad candidata 7 y se realizaría una propagación hacia atrás para ajustar la probabilidad candidata 7 calculada para que se acercara a la probabilidad del conjunto de datos de entrenamiento correspondientes a la imagen del conjunto de datos de entrenamiento, mediante técnicas conocidas, tales como descenso de gradientes. Así, se entrenaría, mediante propagación hacia atrás cada uno de los bloques estándar encadenados mostrados en la Fig. 9. De esta manera, de modo conocido mediante propagación hacia atrás se ajustarían los pesos de la primera red neuronal E, los núcleos (“kernels”) de la segunda operación de convolución bidimensional C y los núcleos (“kernels”) de la primera operación de convolución bidimensional B.In this way, starting from a respective image of the training data set, its candidate probability 7 would be calculated and a back propagation would be performed to adjust the calculated candidate probability 7 so that it was close to the probability of the training data set corresponding to the image of the training data set, using known techniques, such as gradient descent. Thus, each of the chained standard blocks shown in Fig. 9 would be trained by means of backward propagation. In this way, in a known way by means of backward propagation, the weights of the first neural network E, the kernels, would be adjusted. ") of the second two-dimensional convolution operation C and the kernels ("kernels") of the first two-dimensional convolution operation B.
Complementariamente, si se dispone además de datos de la mujer para calcular el conjunto de características adicionales 8, partiendo de una respectiva imagen 1 se calcularía su probabilidad candidata refinada 9 y se realizaría una propagación hacia atrás para ajustar la probabilidad candidata refinada 9 calculada para que se acercara a la probabilidad del conjunto de datos de entrenamiento correspondientes a la imagen 1, mediante técnicas conocidas, tales como descenso de gradientes. Así, en primer lugar se entrenaría mediante propagación hacia atrás la segunda red neuronal F, ajustando sus pesos, y se proseguiría hacía atrás entrenando la primera red neuronal E, segunda operación de convolución bidimensional C y primera operación de convolución bidimensional B del modo anteriormente descrito.Additionally, if the woman's data is also available to calculate the set of additional characteristics 8, starting from a respective image 1, its refined candidate probability 9 would be calculated and a backward propagation would be carried out to adjust the refined candidate probability 9 calculated so that will approach the probability of the training data set corresponding to image 1, using known techniques, such as gradient descent. Thus, first the second neural network F would be trained by backward propagation, adjusting its weights, and it would continue backwards by training the first neural network E, the second two-dimensional convolution operation C and the first two-dimensional convolution operation B in the manner previously described. .
Naturalmente el mismo método adaptado convenientemente podría utilizarse para obtener el estado de fertilidad de hembras otra especie de mamífero, y podría utilizarse, por ejemplo, en el campo de la ganadería para obtener el estado de fertilidad de otras especies. En este caso se prevé que el conjunto de datos de entrenamiento correspondan a imágenes del moco cervical en estiramiento de hembras de la especie de interés, etiquetadas según si corresponden a un estado fértil, cuya probabilidad candidata 7 y/o probabilidad candidata refinada 9 de fertilidad sería de ‘1’, o a una estado no fértil, cuya probabilidad candidata 7 y/o probabilidad candidata refinada 9 de fertilidad sería de ‘0’.Naturally the same conveniently adapted method could be used to obtain the fertility status of females of another species of mammal, and could be used, for example, in the field of livestock farming to obtain the fertility status of other species. In this case, the training data set is expected to correspond to images of the stretched cervical mucus of females of the species of interest, labeled according to whether they correspond to a fertile state, whose candidate probability 7 and/or refined candidate probability 9 of fertility would be '1', or to a non-fertile state, whose candidate probability 7 and/or refined candidate probability 9 of fertility would be '0'.
La Fig. 10 presenta un aparato 100 de procesado de datos que comprende medios para realizar el método anteriormente presentado. Este aparato 100 comprende un componente cliente 110, tal como un dispositivo portátil, por ejemplo un teléfono móvil, y un componente servidor 120, tal como un servidor remoto conectado por internet 112 con el componente cliente 110, por ejemplo para realizar una computación distribuida del método de la presente invención. Como se observa, el componente cliente 110 comprende una cámara 111 fotográfica para obtener la imagen 1 del moco cervical, estando el componente cliente 110 adaptado para enviar la imagen 1 al componente servidor 120 a través de internet 112, de modo que el servidor 120 realice las etapas del método para así devolver al cliente 110 bien la probabilidad candidata 7 o la probabilidad candidata refinada 9. Naturalmente también se prevé que sea el mismo cliente el que realice la totalidad del método. Fig. 10 presents a data processing apparatus 100 comprising means for carrying out the method presented above. This apparatus 100 comprises a client component 110, such as a portable device, for example a mobile phone, and a server component 120, such as a remote server connected via the Internet 112 to the client component 110, for example to perform distributed computing of the method of the present invention. As can be seen, the client component 110 comprises a photographic camera 111 to obtain image 1 of the cervical mucus, the client component 110 being adapted to send the image 1 to the server component 120 through Internet 112, so that the server 120 performs the stages of the method in order to return to the client 110 either the candidate probability 7 or the refined candidate probability 9. Naturally, it is also expected that the client himself will carry out the entire method.
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES202230124A ES2948438A1 (en) | 2022-02-16 | 2022-02-16 | Computer-implemented method to obtain the fertility status of a woman (Machine-translation by Google Translate, not legally binding) |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES202230124A ES2948438A1 (en) | 2022-02-16 | 2022-02-16 | Computer-implemented method to obtain the fertility status of a woman (Machine-translation by Google Translate, not legally binding) |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2948438A1 true ES2948438A1 (en) | 2023-09-12 |
Family
ID=87930344
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES202230124A Withdrawn ES2948438A1 (en) | 2022-02-16 | 2022-02-16 | Computer-implemented method to obtain the fertility status of a woman (Machine-translation by Google Translate, not legally binding) |
Country Status (1)
Country | Link |
---|---|
ES (1) | ES2948438A1 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2346718A1 (en) * | 1976-03-31 | 1977-10-28 | Anvar | Automatic fibre stretch meter for cervical mucus - determines elongation at constant rate and detects rupture |
ES2031038A6 (en) * | 1991-02-01 | 1992-11-16 | Manero Guardiola Carlos | Instrument for measuring the stretch of uterine cervical mucus |
CN2553735Y (en) * | 2001-04-23 | 2003-06-04 | 薛大德 | Detector for ovulatory period of woman of childbearing age |
US20110118996A1 (en) * | 2006-07-17 | 2011-05-19 | Mckenna Gregory B | Die Swell Fertility Apparatus for Humans and Other Mammals: Apparatus and Method |
WO2017201540A1 (en) * | 2016-05-20 | 2017-11-23 | Techcyte, Inc. | Machine learning classification of particles or substances in digital microscopy images |
WO2018178753A1 (en) * | 2017-03-31 | 2018-10-04 | Jose Maria Murcia Lora | Biosensor for biophysical measurement of cervical secretion |
US20180322327A1 (en) * | 2017-05-02 | 2018-11-08 | Techcyte, Inc. | Machine learning classification and training for digital microscopy cytology images |
WO2020123724A1 (en) * | 2018-12-14 | 2020-06-18 | Spectral Md, Inc. | Machine learning systems and methods for assessment, healing prediction, and treatment of wounds |
-
2022
- 2022-02-16 ES ES202230124A patent/ES2948438A1/en not_active Withdrawn
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2346718A1 (en) * | 1976-03-31 | 1977-10-28 | Anvar | Automatic fibre stretch meter for cervical mucus - determines elongation at constant rate and detects rupture |
ES2031038A6 (en) * | 1991-02-01 | 1992-11-16 | Manero Guardiola Carlos | Instrument for measuring the stretch of uterine cervical mucus |
CN2553735Y (en) * | 2001-04-23 | 2003-06-04 | 薛大德 | Detector for ovulatory period of woman of childbearing age |
US20110118996A1 (en) * | 2006-07-17 | 2011-05-19 | Mckenna Gregory B | Die Swell Fertility Apparatus for Humans and Other Mammals: Apparatus and Method |
WO2017201540A1 (en) * | 2016-05-20 | 2017-11-23 | Techcyte, Inc. | Machine learning classification of particles or substances in digital microscopy images |
WO2018178753A1 (en) * | 2017-03-31 | 2018-10-04 | Jose Maria Murcia Lora | Biosensor for biophysical measurement of cervical secretion |
US20180322327A1 (en) * | 2017-05-02 | 2018-11-08 | Techcyte, Inc. | Machine learning classification and training for digital microscopy cytology images |
WO2020123724A1 (en) * | 2018-12-14 | 2020-06-18 | Spectral Md, Inc. | Machine learning systems and methods for assessment, healing prediction, and treatment of wounds |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yani et al. | Application of transfer learning using convolutional neural network method for early detection of terry’s nail | |
US10810735B2 (en) | Method and apparatus for analyzing medical image | |
CN107944020B (en) | Face image searching method and device, computer device and storage medium | |
WO2019136806A1 (en) | Medical model training method and apparatus, medical identification method and apparatus, device, and medium | |
Padilla et al. | Differentiating atopic dermatitis and psoriasis chronic plaque using convolutional neural network MobileNet architecture | |
CN111091562B (en) | Method and system for measuring size of digestive tract lesion | |
CN108280058A (en) | Relation extraction method and apparatus based on intensified learning | |
CN111008576B (en) | Pedestrian detection and model training method, device and readable storage medium | |
CN110148145A (en) | A kind of image object area extracting method and application merging boundary information | |
WO2019076109A1 (en) | Method and device for pooling image information, storage medium and processor | |
CN114241505B (en) | Method and device for extracting chemical structure image, storage medium and electronic equipment | |
CN115424053B (en) | Small sample image recognition method, device, equipment and storage medium | |
CN114972255A (en) | Image detection method and device for cerebral microhemorrhage, computer equipment and storage medium | |
CN112991280A (en) | Visual detection method and system and electronic equipment | |
CN113749618B (en) | Sports injury assessment method, system, medium and terminal | |
Omodior et al. | Using convolutional neural networks for tick image recognition–a preliminary exploration | |
Pholberdee et al. | Study of chronic wound image segmentation: Impact of tissue type and color data augmentation | |
ES2948438A1 (en) | Computer-implemented method to obtain the fertility status of a woman (Machine-translation by Google Translate, not legally binding) | |
CN117456283A (en) | Nail disease image intelligent diagnosis method based on deep learning | |
US10037481B2 (en) | System and method for an otitis media database constructing and an image analyzing | |
CN111967383A (en) | Age estimation method, and training method and device of age estimation model | |
CN116737977A (en) | Image retrieval method, device, equipment and medium | |
CN113344911B (en) | Method and device for measuring size of calculus | |
Oz et al. | Efficacy of biophysiological measurements at FTFPs for facial expression classification: A validation | |
CN115311490A (en) | Hepatic cystic echinococcosis classification model and computer medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
BA2A | Patent application published |
Ref document number: 2948438 Country of ref document: ES Kind code of ref document: A1 Effective date: 20230912 |
|
FA2A | Application withdrawn |
Effective date: 20231227 |