ES2924934A1 - Smart dermatoscope and procedure for classification of dermatological lesions (Machine-translation by Google Translate, not legally binding) - Google Patents

Smart dermatoscope and procedure for classification of dermatological lesions (Machine-translation by Google Translate, not legally binding) Download PDF

Info

Publication number
ES2924934A1
ES2924934A1 ES202230592A ES202230592A ES2924934A1 ES 2924934 A1 ES2924934 A1 ES 2924934A1 ES 202230592 A ES202230592 A ES 202230592A ES 202230592 A ES202230592 A ES 202230592A ES 2924934 A1 ES2924934 A1 ES 2924934A1
Authority
ES
Spain
Prior art keywords
dermatoscope
classification
images
procedure
intelligent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
ES202230592A
Other languages
Spanish (es)
Inventor
Marcos Victor Cerón
De Sotomayor Marcos Teresa Alvarez
Merino Alberto Ezpondaburu
Romero Pablo Ortiz
Tamariz Virginia Velasco
Roger Borja Hoyos
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Skin Ai Sl
Original Assignee
Skin Ai Sl
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Skin Ai Sl filed Critical Skin Ai Sl
Priority to ES202230592A priority Critical patent/ES2924934A1/en
Publication of ES2924934A1 publication Critical patent/ES2924934A1/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Dermatology (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

Intelligent dermatoscope and procedure for the classification of dermatological lesions. The dermatoscope is made up of a portable device, in which a casing with an ergonomic manual grip control (4) participates, a casing that integrates a high-resolution digital camera (7), with optical and digital zoom, an auxiliary light adjustable, a microprocessor, a touch screen (8), a rechargeable battery (9), an on and off button, and a Wi-Fi, 4G and Bluetooth wireless communications module for remote management of the images taken, management in which a procedure is used in which lesions are first segmented, then the descriptors are extracted, the data is increased and implemented in a convolutional neural network model, to finally add a "bootstrap" machine learning meta-algorithm. bagging". (Machine-translation by Google Translate, not legally binding)

Description

DESCRIPCIÓNDESCRIPTION

Dermatoscopio inteligente y procedimiento para la clasificación de lesiones dermatológicasSmart dermatoscope and procedure for classification of dermatological lesions

SECTOR DE LA TÉCNICATECHNICAL SECTOR

La presente invención se refiere a un dermatoscopio inteligente, especialmente concebido para permitir analizar in situ la piel de un paciente mediante la toma de imágenes a través del propio dispositivo y permitir discriminar entre lesiones cancerígenas, no cancerígenas, enfermedades malignas y enfermedades benignas en base al procesamiento de las imágenes tomadas y a partir de un procedimiento que es igualmente objeto de la invención.The present invention refers to an intelligent dermatoscope, specially designed to allow a patient's skin to be analyzed in situ by taking images through the device itself and to discriminate between cancerous and non-cancerous lesions, malignant diseases and benign diseases based on the processing of the images taken and from a procedure that is also the object of the invention.

La invención se sitúa pues en el ámbito de los instrumentos médicos de diagnosis, y más concretamente en el ámbito de la dermatología.The invention is therefore situated in the field of medical diagnostic instruments, and more specifically in the field of dermatology.

ANTECEDENTES DE LA INVENCIÓNBACKGROUND OF THE INVENTION

Hasta el año 2012 el uso de redes neuronales convolucionales pre-entrenadas para la clasificación de imágenes, era bastante limitado, dado que la tasa de error de los mejores algoritmos clásicos estaba en torno al 26%.Until 2012, the use of pre-trained convolutional neural networks for image classification was quite limited, given that the error rate of the best classical algorithms was around 26%.

En ese mismo año una red neuronal convolucional denominada Alexnet consiguió batir todos los records y redujo la tasa de error al 16%. Como comentó el periódico The Economist sobre las redes neuronales, "De repente, la gente empezó a prestar atención, no sólo dentro de la comunidad de la IA, sino en toda la industria tecnológica".In that same year, a convolutional neural network called Alexnet managed to break all records and reduced the error rate to 16%. As The Economist newspaper commented on neural networks, "All of a sudden, people started paying attention, not just within the AI community, but across the tech industry."

Ya en el año 2015 se superó el rendimiento de los humanos (entorno al 5% de tasa de error) y con las redes usadas para este proyecto, la tasa de error es ya inferior al 1%.Already in 2015 the performance of humans was exceeded (around 5% error rate) and with the networks used for this project, the error rate is already less than 1%.

Otro de los avances que han permitido conseguir los resultados obtenidos es la técnica de transferencia de aprendizaje “transfer learning”. Esta técnica permite utilizar el conocimiento adquirido en una tarea en otra tarea relacionada pero diferente. Gracias a la transferencia de aprendizaje, tareas para las que no tenemos muchos datos por el coste de recopilarlos se pueden mejorar ampliamente reutilizando el conocimiento adquirido en otras tareas para las que tenemos muchos más datos (en nuestro caso otros problemas de clasificación de imágenes que no están relacionados con lesiones cutáneas).Another advance that has made it possible to achieve the results obtained is the transfer learning technique . This technique allows the knowledge acquired in one task to be used in another related but different task. Thanks to transfer learning, tasks for which we do not have much data due to the cost of collecting it are they can be greatly improved by reusing the knowledge gained in other tasks for which we have much more data (in our case other image classification problems that are not related to skin lesions).

La realidad es que estos métodos no se habían aplicado hasta la fecha para el análisis y diagnóstico de posibles lesiones cutáneas, tales como lesiones cancerígenas, no cancerígenas, enfermedades malignas y enfermedades benignas.The reality is that these methods had not been applied to date for the analysis and diagnosis of possible skin lesions, such as cancerous and non-cancerous lesions, malignant diseases and benign diseases.

EXPLICACIÓN DE LA INVENCIÓNEXPLANATION OF THE INVENTION

El dermatoscopio inteligente que la invención propone viene a llenar el vacío técnico anteriormente descrito.The intelligent dermatoscope proposed by the invention fills the previously described technical gap.

Para ello, y de forma más concreta, el dermatoscopio de la invención se constituye a partir de un dispositivo portátil, en el que participa una carcasa con un mando ergonómico de agarre manual, carcasa que define un armazón resistente para los componentes electrónicos que participan en el dispositivo, que integra una cámara digital de alta resolución, con zoom óptico y digital, así como una luz auxiliar regulable.For this, and more specifically, the dermatoscope of the invention is constituted from a portable device, in which a casing with an ergonomic manual grip control participates, casing that defines a resistant frame for the electronic components that participate in the device, which integrates a high-resolution digital camera, with optical and digital zoom, as well as an adjustable auxiliary light.

La cámara incorporará medios de protección intercambiables que la protejan de posibles golpes y ralladuras.The camera will incorporate interchangeable protection means that protect it from possible bumps and scratches.

La cámara estará asociada un microprocesador, que a su vez se conecta a una pantalla táctil, contando con una batería de gran capacidad, un botón de encendido y apagado, y un módulo de comunicaciones inalámbricas para la gestión remota de las imágenes tomadas.The camera will be associated with a microprocessor, which in turn is connected to a touch screen, with a high-capacity battery, an on/off button, and a wireless communications module for remote management of the images taken.

En cuanto al procedimiento que se lleva a cabo mediante el dispositivo de la invención, en el mismo se definen cinco etapas:Regarding the procedure that is carried out by means of the device of the invention, five stages are defined in it:

1. Segmentación de las lesiones.1. Segmentation of lesions.

2. Extracción de descriptores.2. Extraction of descriptors.

3. Aumento de los datos.3. Data augmentation.

4. Modelo de redes neuronales convolucionales. 4. Model of convolutional neural networks.

5. Agregación de “bootstrap/bagging” o empaquetado (meta-algoritmo de aprendizaje automático.5. Bootstrap/bagging aggregation or packaging (machine learning meta-algorithm.

En cuanto al proceso de segmentación, para separar la lesión del resto de la piel se usa un algoritmo de agrupamiento tipo (“clustering”) k-means.Regarding the segmentation process, a k-means clustering algorithm is used to separate the lesion from the rest of the skin.

Esta etapa es importante porque permite extraer descriptores esenciales para mejorar los resultados de la clasificación.This stage is important because it allows extracting essential descriptors to improve the classification results.

En una segunda etapa y una vez separada la lesión del resto de la piel se extraen descriptores de la lesión basados en :In a second stage and once the lesion is separated from the rest of the skin, lesion descriptors are extracted based on:

• Asimetrías (cuando las mitades de la lesión son diferentes)• Asymmetries (when the halves of the lesion are different)

• Irregularidades de los bordes.• Edge irregularities.

• Color (uniformidad de la pigmentación, diferentes colores)• Color (uniformity of pigmentation, different colors)

Estos descriptores numéricos se integran con la red neuronal convolucional.These numerical descriptors are integrated with the convolutional neural network.

En una tercera etapa se procede al aumento de datos; se trata de una técnica destinada a aumentar la diversidad del conjunto de datos de entrenamiento (en nuestro caso imágenes) mediante la aplicación de transformaciones aleatorias realistas. Estas técnicas son necesarias ya que una misma lesión se puede fotografiar desde diferentes ángulos, con diferente intensidad de la luz, diferentes colores de piel... Se intentará multiplicar cada imagen de manera aleatoria simulando las diferentes condiciones en las que una misma lesión se puede hallar.In a third stage, the data is increased; it is a technique aimed at increasing the diversity of the training data set (in our case images) by applying realistic random transformations. These techniques are necessary since the same lesion can be photographed from different angles, with different light intensity, different skin colors... An attempt will be made to multiply each image randomly, simulating the different conditions in which the same lesion can be photographed. find.

La siguiente fase consiste en integrar los datos obtenidos en una red neuronal convolucional.The next phase consists of integrating the data obtained in a convolutional neural network.

Con los modelos pre-entrenados, usamos la técnica del fine-tuning, que consiste en “transferir” el aprendizaje de una red de un dominio (la clasificación de las imágenes de Imagenet) a otro (la clasificación de lesiones de la piel).With the pre-trained models, we use the fine-tuning technique, which consists of “transferring” the learning of a network from one domain (Imagenet image classification) to another (skin lesion classification).

Finalmente, se agrega un “bootstrap”, es decir un meta-algoritmo de aprendizaje automático diseñado para mejorar la estabilidad, la precisión y reducir la varianza de los algoritmos de aprendizaje automático.Finally, a "bootstrap" is added, that is, a machine learning meta-algorithm designed to improve the stability, accuracy, and reduce variance of machine learning algorithms.

El método así descrito permite discriminar entre lesiones cancerígenas, no cancerígenas, enfermedades malignas y enfermedades benignas en función del modo de configuración.The method thus described allows to discriminate between cancerous, non-cancerous lesions, malignant diseases and benign diseases depending on the configuration mode.

DESCRIPCIÓN DE LOS DIBUJOSDESCRIPTION OF THE DRAWINGS

Para complementar la descripción que seguidamente se va a realizar y con objeto de ayudar a una mejor comprensión de las características del invento, de acuerdo con un ejemplo preferente de realización práctica del mismo, se acompaña como parte integrante de dicha descripción, un juego de planos en donde con carácter ilustrativo y no limitativo, se ha representado lo siguiente:To complement the description that is going to be made below and in order to help a better understanding of the characteristics of the invention, according to a preferred example of its practical embodiment, a set of plans is attached as an integral part of said description. where, by way of illustration and not limitation, the following has been represented:

La figura 1.- Muestra una vista en perspectiva anterior de un dermatoscopio inteligente realizado de acuerdo con el objeto de la presente invención.Figure 1.- Shows a front perspective view of an intelligent dermatoscope made according to the object of the present invention.

La figura 2.- Muestra una vista en perspectiva posterior del dispositivo de la figura anterior.Figure 2.- Shows a rear perspective view of the device of the previous figure.

La figura 3.- Muestra una vista en perspectiva y en explosión del dispositivo de las figuras 1 y 2.Figure 3.- Shows a perspective and exploded view of the device of figures 1 and 2.

La figura 4.- Muestra una vista en perspectiva del conjunto de la figura 3 parcialmente montado.Figure 4.- Shows a perspective view of the assembly of figure 3 partially assembled.

La figura 5.- Muestra, finalmente una vista en perspectiva opuesta del conjunto de la figura 4.Figure 5.- Shows, finally, an opposite perspective view of the assembly of figure 4.

REALIZACIÓN PREFERENTE DE LA INVENCIÓNPREFERRED EMBODIMENT OF THE INVENTION

A la vista de las figuras reseñadas, puede observarse como el dermatoscopio de la invención está constituido a partir de un dispositivo portátil (1), en el que participa un chasis central (3) al que son acoplables dos semi-carcasas (2-2’) extremas, todos ellos obtenidos en nylon con fibra de carbono, ligero y muy resistente, que garantiza un perfecto funcionamiento a lo largo de todo su ciclo de vida útil.In view of the figures outlined, it can be seen how the dermatoscope of the invention is constituted from a portable device (1), in which a chassis participates central (3) to which two extreme half-shells (2-2') can be attached, all of them made of nylon with carbon fiber, light and very resistant, which guarantees perfect operation throughout its entire useful life cycle .

El conjunto forma un armazón o carcasa en el que se define un mango (4) ergonómico y antideslizante, para facilitar el uso con una sola mano, rematado en un lazo (5) ajustable a la muñeca para minimizar el riesgo de caídas accidentales.The assembly forms a frame or casing in which an ergonomic and non-slip handle (4) is defined, to facilitate use with one hand, finished off with a loop (5) adjustable to the wrist to minimize the risk of accidental falls.

El armazón se complementa con refuerzos (6) en las esquinas TPe Shore 70A, para proteger la integridad de la carcasa en caso de impacto.The frame is complemented by TPe Shore 70A corner reinforcements (6), to protect the integrity of the shell in the event of an impact.

El dispositivo incluye una cámara digital (7) de alta resolución, preferentemente de 108 MP, con zoom Opticoy digital, equipada con ISO nativo dual, lo que le da un mayor rango dinámico, detalles más vívidos y control de ruido profesional.The device includes a digital camera (7) of high resolution, preferably 108 MP, with optical and digital zoom, equipped with dual native ISO, which gives it greater dynamic range, more vivid details and professional noise control.

La cámara se complementa con una luz auxiliar regulable en 5 niveles de brillo, con opción de elegir entre luz polarizada y no polarizada, y función de auto apagado, incluyendo protectores fácilmente intercambiables.The camera is complemented by an auxiliary light adjustable in 5 brightness levels, with the option to choose between polarized and non-polarized light, and an auto-off function, including easily interchangeable protectors.

Dicha cámara digital (7) estará asociada un microprocesador, que a su vez se conecta a una pantalla táctil (8), AMOLED y procesador Qualcomm® Snapdragon™ 732G con la tecnología de procesamiento de 8 nm con una arquitectura avanzada de CPU y GPU, computación de datos mejorada y capacidad de procesamiento de imágenes, estando estos componentes electrónicos alimentados por una batería (9) de 10400 mAh, con LEDs indicadores del estado de carga y puerto de carga rápida USB C.Said digital camera (7) will be associated with a microprocessor, which in turn is connected to a touch screen (8), AMOLED and Qualcomm® Snapdragon™ 732G processor with 8nm processing technology with advanced CPU and GPU architecture, Enhanced data computing and image processing capabilities, these electronic components being powered by a 10400 mAh battery (9), with charging status indicator LEDs and USB C fast charging port.

El dispositivo se activará y desactivará a través del correspondiente botón de encendido y apagado, contando un módulo de comunicaciones inalámbricas Wifi, 4G y Bluetooth.The device will be activated and deactivated through the corresponding on and off button, having a Wi-Fi, 4G and Bluetooth wireless communications module.

A partir de esta estructuración, el dispositivo permitirá tomar imágenes de gran calidad y nitidez de distintas zonas de la piel a analizar, imágenes que serán gestionadas de acuerdo al siguiente procedimiento: Based on this structuring, the device will allow high quality and sharp images to be taken of different areas of the skin to be analyzed, images that will be managed according to the following procedure:

En una primera fase se llevará a cabo un proceso de segmentación de las imágenes, en orden a separar la lesión del resto de la piel. Para ello se usa un algoritmo de agrupamiento tipo (“clustering”) k-means.In a first phase, a process of image segmentation will be carried out, in order to separate the lesion from the rest of the skin. For this, a k-means clustering algorithm is used.

Esta etapa es importante porque permite extraer descriptores esenciales para mejorar los resultados de la clasificación.This stage is important because it allows extracting essential descriptors to improve the classification results.

En una segunda etapa y una vez separada la lesión del resto de la piel se extraen descriptores de la lesión basados en:In a second stage and once the lesion is separated from the rest of the skin, lesion descriptors are extracted based on:

• Asimetrías (cuando las mitades de la lesión son diferentes)• Asymmetries (when the halves of the lesion are different)

• Irregularidades de los bordes.• Edge irregularities.

• Color (uniformidad de la pigmentación, diferentes colores)• Color (uniformity of pigmentation, different colors)

Estos descriptores numéricos se integran con la red neuronal convolucional.These numerical descriptors are integrated with the convolutional neural network.

En una tercera etapa se procede al aumento de datos. Consiste en una técnica destinada a aumentar la diversidad del conjunto de datos de entrenamiento (en nuestro caso imágenes) mediante la aplicación de transformaciones aleatorias realistas. Estas técnicas son necesarias ya que una misma lesión se puede fotografiar desde diferentes ángulos, con diferente intensidad de la luz, diferentes colores de piel, etc. Se intentará multiplicar cada imagen de manera aleatoria simulando las diferentes condiciones en las que una misma lesión se puede hallar con las siguientes transformaciones aleatorias:In a third stage, the data is increased. It consists of a technique aimed at increasing the diversity of the training data set (in our case images) by applying realistic random transformations. These techniques are necessary since the same lesion can be photographed from different angles, with different light intensity, different skin colors, etc. An attempt will be made to multiply each image randomly, simulating the different conditions in which the same lesion can be found with the following random transformations:

• Rotaciones.• Rotations.

• Ajustes de brillo y contraste.• Brightness and contrast settings.

• Diferentes zooms.• Different zooms.

• Distorsiones ópticas.• Optical distortions.

• Variación de la nitidez.• Variation of sharpness.

• Variación en la calidad de compresión de las imágenes.• Variation in the compression quality of the images.

• Inyección de diferentes tipos de ruido.• Injection of different types of noise.

Gracias al aumento de datos, a partir de cada imagen de entrenamiento se podrán crear miles de variaciones sintéticas sirviendo tanto como una técnica de regularización como una manera de dar estabilidad a nuestro algoritmo.Thanks to the increase in data, thousands of synthetic variations can be created from each training image, serving both as a regularization technique and as a way to give stability to our algorithm.

En una cuarta fase, las imágenes tratadas se integran en una red neuronal convolucional.In a fourth phase, the processed images are integrated into a convolutional neural network.

Las redes neuronales convolucionales se distinguen de otras redes neuronales por su rendimiento muy superior con imágenes, voz o audio. Usaremos modelos pre-entrenados con el dataset de imágenes Imagenet. Este dataset consta de en torno a 15 millones de imágenes con 1000 clases diferentes y es ampliamente usado en la investigación en algoritmos de visión artificial.Convolutional neural networks are distinguished from other neural networks by their vastly superior performance with images, speech, or audio. We will use pre-trained models with the Imagenet image dataset. This dataset consists of around 15 million images with 1000 different classes and is widely used in research on machine vision algorithms.

Con los modelos pre-entrenados, usamos la técnica del fine-tuning, que consiste en “transferir” el aprendizaje de una red de un dominio (la clasificación de las imágenes de Imagenet) a otro (la clasificación de lesiones de la piel). Para ello se usará la red pre­ entrenada como punto de partida que se re-entrenará con nuestro dataset de imágenes de lesiones de la piel (con una modificación de la parte final del modelo adaptándola a nuestro objetivo y añadiéndoles los descriptores extraídos).With the pre-trained models, we use the fine-tuning technique, which consists of “transferring” the learning of a network from one domain (Imagenet image classification) to another (skin lesion classification). For this, the pre-trained network will be used as a starting point that will be re-trained with our dataset of skin lesion images (with a modification of the final part of the model adapting it to our objective and adding the extracted descriptors).

Para los modelos pre-entrenados, utilizamos las redes neuronales convolucionales denominadas “EfficientNetV2”. Estas redes se caracterizan por su eficiencia tanto en la velocidad de entrenamiento, de inferencia y de tamaño. La red tiene 20.331.360 parámetros entrenables a los que hay que unirle los parámetros destinados a los descriptores extraídos.For the pre-trained models, we use the convolutional neural networks called “EfficientNetV2”. These networks are characterized by their efficiency in terms of speed of training, inference and size. The network has 20,331,360 trainable parameters to which must be added the parameters intended for the extracted descriptors.

Para el entrenamiento y la manipulación de estas redes, usaremos la librería de redes neuronales de Google Tensorflow y su repositorio de modelos pre-entrenados Tensorflow-Hub.For the training and manipulation of these networks, we will use Google's Tensorflow neural network library and its repository of pre-trained models Tensorflow-Hub.

El proceso de entrenamiento se modifica de diferentes maneras para adaptarse a las cualidades muy particulares de nuestros datos.The training process is modified in different ways to suit the very particular qualities of our data.

• Hay que ser conscientes de que las imágenes son etiquetadas por seres humanos, por lo tanto se tiene en cuenta que una parte de ellas puede tener etiquetas erróneas. Para hacer el modelo más robusto y que no afecte al rendimiento el hecho de que existan algunas imágenes erróneas, se aplican dos técnicas: • We must be aware that the images are tagged by human beings, therefore it is taken into account that some of them may have erroneous labels. To make the model more robust and that the performance is not affected by the fact that there are some erroneous images, two techniques are applied:

o “Label smoothing”: Es una técnica de regularización destinada a añadir incertidumbre a las etiquetas para evitar el sobreajuste. o “Label smoothing”: It is a regularization technique intended to add uncertainty to the labels to avoid overfitting.

o Etiquetas ruidosas (“noisy labels"). Es un conjunto de técnicas destinadas a estimar la cantidad de etiquetas “erróneas’ y a adaptarse a ellas. o Noisy labels ( "noisy labels"). It is a set of techniques aimed at estimating the number of "erroneous" labels and adapting to them.

Hay ciertos tipos de lesión (especialmente algunos melanomas) que son mucho más difíciles de distinguir. Para lidiar con ello, aplicamos un “boosting” relajado, en el que por medio de validación cruzada asignamos más peso a los datos en los que funciona peor un modelo simplificado. There are certain types of lesion (especially some melanomas) that are much more difficult to distinguish. To deal with this, we apply a relaxed “boosting”, in which through cross-validation we assign more weight to the data in which a simplified model performs worse.

El “learning rate” del algoritmo de aprendizaje, se modifica con un decaimiento exponencial y se adapta a la cantidad nueva de datos. The "learning rate" of the learning algorithm is modified with an exponential decay and adapts to the new amount of data.

Por la naturaleza de la aplicación, tenemos una gran cantidad de imágenes no etiquetadas. De ahí escogemos de manera aleatoria entre las imágenes en las que más confianza da el modelo y las introducimos durante el aprendizaje (nunca en más de una época) y añadiendo incertidumbre a la etiqueta. Este apartado es realmente importante, puesto que etiquetar imágenes es muy costoso, se necesita tiempo de personal muy cualificado. Gracias a esto podemos utilizar imágenes sin etiquetar en lugar de desecharlas. Due to the nature of the app, we have a large number of untagged images. From there we choose randomly among the images in which the model gives the most confidence and we introduce them during learning (never in more than one epoch) and adding uncertainty to the label. This section is really important, since tagging images is very expensive, it takes the time of highly qualified personnel. Thanks to this we can use untagged images instead of discarding them.

Finalmente, el procedimiento de la invención prevé la agregación de un meta-algoritmo de aprendizaje automático o “bootstrap”, diseñado para mejorar la estabilidad, la precisión y reducir la varianza de los algoritmos de aprendizaje automático.Finally, the method of the invention provides for the addition of an automatic learning meta-algorithm or "bootstrap", designed to improve the stability, accuracy and reduce the variance of automatic learning algorithms.

Usamos esta técnica gracias a la eficiencia de las redes “EfficientNetV2’. Entrenamos 5 redes con subconjuntos de imágenes de entrenamiento elegidos de forma aleatoria y promediamos sus resultados (ensamblamos las 5 redes). Esta técnica nos permite mejorar la estabilidad y el rendimiento del algoritmo ampliamente.We use this technique thanks to the efficiency of 'EfficientNetV2' networks. We train 5 networks with randomly chosen subsets of training images and average their results (we assemble the 5 networks). This technique allows us to improve the stability and performance of the algorithm extensively.

Resultados:Results:

Finalmente, para medir el rendimiento del algoritmo se ha separado el conjunto de imágenes (41.200) en un set de entrenamiento y en uno de test. Los resultados han sido los siguientes:Finally, to measure the performance of the algorithm, the set of images (41,200) has been separated into a training set and a test set. The results have been following:

Modelo enfermedades malignas/benignas. Model malignant/benign diseases.

Para entrenar el modelo se han usado 35.637 imágenes de entrenamiento y 6.289 imágenes de testeo con los siguientes resultados:To train the model, 35,637 training images and 6,289 test images have been used with the following results:

• De un total de 1580 imágenes con lesión maligna se han acertado 1454.• Of a total of 1,580 images with malignant lesions, 1,454 were correct.

• De un total de 4709 imágenes con lesión benigna se han acertado 4550.• Of a total of 4,709 images with benign lesions, 4,550 were correct.

• Precisión: 90,1%,• Accuracy: 90.1%,

• Exhaustividad (“recall”): 92%• Completeness (“recall”): 92%

En resumen, el porcentaje total de imágenes correctamente clasificadas es del 95,5%In short, the total percentage of correctly classified images is 95.5%.

• Modelo enfermedades malignas.• Model malignant diseases.

Para entrenar el modelo se han usado 8.199 imágenes de entrenamiento y 1.447 imágenes de testeo. A continuación, se muestran los resultados estimados al usar todas las imágenes (incluyendo las de testeo):To train the model, 8,199 training images and 1,447 test images have been used. Below are the estimated results when using all the images (including the test ones):

• Clase 0: Melanoma (840 imágenes):• Class 0: Melanoma (840 images):

o Precisión: 98,4% o Accuracy: 98.4%

o Exhaustividad (“recall”): 98,2% o Completeness (“recall”): 98.2%

• Clase 1: Carcinoma Basocelular (509 imágenes):• Class 1: Basal Cell Carcinoma (509 images):

o Precisión: 96,5% o Accuracy: 96.5%

o Exhaustividad ("recall”): 97,6% o Completeness ("recall"): 97.6%

• Clase 2: Carcinoma de Células Escamosas (98 imágenes):• Class 2: Squamous Cell Carcinoma (98 images):

o Precisión: 94,7% o Accuracy: 94.7%

o Exhaustividad ("recall”): 90,8% o Completeness ("recall"): 90.8%

El resultado es que el porcentaje total de imágenes correctamente clasificadas es del 97,5%.The result is that the total percentage of correctly classified images is 97.5%.

• Modelo enfermedades benignas.• Model benign diseases.

Para entrenar el modelo se han usado 26775 imágenes de entrenamiento y 4710 imágenes de testeo con los siguientes resultados:To train the model, 26775 training images and 4710 test images have been used with the following results:

• Clase 0: Nevus (4182 imágenes):• Class 0: Nevus (4182 images):

o Precisión: 99,2% o Accuracy: 99.2%

o Exhaustividad ("recall”): 98,7% o Completeness ("recall"): 98.7%

• Clase 1: Queratosis Seborreica/Lentigo (451 imágenes):• Class 1: Seborrheic Keratosis/Lentigo (451 images):

o Precisión: 89,3,5% o Accuracy: 89.3.5%

o Exhaustividad (“recaí!”): 92,5% o Completeness (“I relapsed!”): 92.5%

Clase 2: Otras (77 imágenes):Class 2: Others (77 images):

o Precisión: 94,7% o Accuracy: 94.7%

o Exhaustividad (“recall”): 90,8% o Completeness (“recall”): 90.8%

El porcentaje total de imágenes correctamente clasificadas es del 98%. The total percentage of correctly classified images is 98%.

Claims (12)

REIVINDICACIONES 1a.- Dermatoscopio inteligente, caracterizado por que está constituido a partir de un dispositivo portátil, en el que participa una carcasa con un mando (4) ergonómico de agarre manual, carcasa que integra una cámara digital (7) de alta resolución, con zoom óptico y digital, una luz auxiliar regulable, un microprocesador, una pantalla táctil (8), una batería (9) recargable, un botón de encendido y apagado, y un módulo de comunicaciones inalámbricas Wifi, 4G y Bluetooth para la gestión remota de las imágenes tomadas.1a.- Intelligent dermatoscope, characterized in that it is constituted from a portable device, in which a casing with an ergonomic manual grip control (4) participates, casing that integrates a high resolution digital camera (7), with zoom optical and digital, an adjustable auxiliary light, a microprocessor, a touch screen (8), a rechargeable battery (9), an on/off button, and a Wi-Fi, 4G and Bluetooth wireless communications module for remote management of the pictures taken. 2a.- Dermatoscopio inteligente, según reivindicación 1a, caracterizado por que la carcasa se constituye a partir de un chasis central (3) al que son acoplables dos semi-carcasas (2-2’) extremas, elementos obtenidos en nylon con fibra de carbono.2a.- Intelligent dermatoscope, according to claim 1a, characterized in that the casing is constituted from a central chassis (3) to which two end semi-casings (2-2') are attachable, elements obtained in nylon with carbon fiber . 3a.- Dermatoscopio inteligente, según reivindicación 1a, caracterizado por que la carcasa incluye refuerzos (6) de protección anti-impactos.3a.- Intelligent dermatoscope, according to claim 1a, characterized in that the casing includes reinforcements (6) for anti-impact protection. 4a.- Dermatoscopio inteligente, según reivindicación 1a, caracterizado por que la cámara digital (7) de alta resolución es de 108 MP, con zoom óptico digital y equipada con ISO nativo dual.4a.- Intelligent dermatoscope, according to claim 1a, characterized in that the high resolution digital camera (7) is 108 MP, with digital optical zoom and equipped with dual native ISO. 5a.- Dermatoscopio inteligente, según reivindicación 1a, caracterizado por que la luz auxiliar de la cámara incluye 5 niveles de regulación brillo, medios de selección entre luz polarizada y no polarizada, y función de auto apagado.5a.- Intelligent dermatoscope, according to claim 1a, characterized in that the auxiliary light of the camera includes 5 levels of brightness regulation, selection means between polarized and non-polarized light, and an auto-off function. 6a.- Dermatoscopio inteligente, según reivindicación 1a, caracterizado por que la pantalla pantalla táctil (8) es de tipo AMOLED y procesador Qualcomm® Snapdragon™ 732G con tecnología de procesamiento de 8 nm y arquitectura avanzada de CPU y GPU, computación de datos mejorada y capacidad de procesamiento de imágenes.6a.- Intelligent dermatoscope, according to claim 1a, characterized in that the touch screen (8) is of the AMOLED type and Qualcomm® Snapdragon™ 732G processor with 8nm processing technology and advanced CPU and GPU architecture, improved data computing and image processing capabilities. 7a.- Dermatoscopio inteligente, según reivindicación 1a, caracterizado por que la batería (9) es de 10400 mAh, con LEDs indicadores del estado de carga y puerto de carga rápida USB C.7a.- Intelligent dermatoscope, according to claim 1a, characterized in that the battery (9) is 10400 mAh, with charge status indicator LEDs and USB C fast charging port. 8a.- Procedimiento para la clasificación de lesiones dermatológicas, que partiendo de las imágenes dermatológicas obtenidas a partir del dispositivo de las reivindicaciones 1 a 7, comprende las siguientes fases operativas:8a.- Procedure for the classification of dermatological lesions, which starting from the dermatological images obtained from the device of claims 1 to 7, comprising the following operating phases: a) Segmentación de las imágenes, separando la lesión del resto de la piel mediante un algoritmo de agrupamiento tipo (“clustering”) k-means.a) Image segmentation, separating the lesion from the rest of the skin using a k-means clustering algorithm. b) Extracción de descriptores de la lesión basados en:b) Extraction of injury descriptors based on: o Asimetrías (cuando las mitades de la lesión son diferentes) o Asymmetries (when the halves of the lesion are different) o Irregularidades de los bordes. o Edge irregularities. o Color (uniformidad de la pigmentación, diferentes colores) o Color (uniformity of pigmentation, different colors) c) Aumento de datos mediante la aplicación de transformaciones aleatorias realistas tales como:c) Data augmentation by applying realistic random transformations such as: o Rotaciones. or Rotations. o Ajustes de brillo y contraste. o Brightness and contrast adjustments. o Diferentes zooms. o Different zooms. o Distorsiones ópticas. or optical distortions. o Variación de la nitidez. o Sharpness variation. o Variación en la calidad de compresión de las imágenes. o Variation in the compression quality of the images. o Inyección de diferentes tipos de ruido. o Injection of different types of noise. d) Integración de las imágenes tratadas en una red neuronal convolucional usando modelos pre-entrenados.d) Integration of the processed images in a convolutional neural network using pre-trained models. e) Agregación de un meta-algoritmo de aprendizaje automático o “bootstrap”, diseñado para mejorar la estabilidad, la precisión y reducir la varianza de los algoritmos de aprendizaje automático.e) Addition of a machine learning meta-algorithm or "bootstrap", designed to improve the stability, accuracy and reduce the variance of machine learning algorithms. 9a.- Procedimiento para la clasificación de lesiones dermatológicas, según reivindicación 8a, caracterizado por que, en la fase d) se aplica la técnica del fine-tuning con los modelos pre­ entrenados, transfiriendo el aprendizaje de una red de un dominio (la clasificación de las imágenes) a otro (la clasificación de lesiones de la piel), añadiéndoles los descriptores extraídos.9a.- Procedure for the classification of dermatological lesions, according to claim 8a, characterized in that, in phase d) the fine-tuning technique is applied with the pre-trained models, transferring the learning of a domain network (the classification of the images) to another (the classification of skin lesions), adding the descriptors extracted. 10a.- Procedimiento para la clasificación de lesiones dermatológicas, según reivindicaciones 8a y 9a, caracterizado por que, en la fase d) para los modelos pre-entrenados, se utilizan redes neuronales convolucionales denominadas “EfficientNetVZ. 10a.- Procedure for the classification of dermatological lesions, according to claims 8a and 9a, characterized in that, in phase d) for the pre-trained models, convolutional neural networks called "EfficientNetVZ" are used. 11a.- Procedimiento para la clasificación de lesiones dermatológicas, según reivindicaciones 8a a 10a, caracterizado por que, en la fase d) se emplean técnicas de regularización destinadas a añadir incertidumbre a las etiquetas para evitar el sobreajuste, técnicas destinadas a estimar la cantidad de etiquetas “erróneas” y a adaptarse a ellas y técnicas de validación cruzada en las que se asigna más peso a los datos en los que funciona peor un modelo simplificado.11a.- Procedure for the classification of dermatological lesions, according to claims 8a to 10a, characterized in that, in phase d) regularization techniques are used to add uncertainty to the labels to avoid overfitting, techniques aimed at estimating the amount of “wrong” labels and to adapt to them and cross-validation techniques in which more weight is assigned to the data in which a simplified model performs worse. 12a.- Procedimiento para la clasificación de lesiones dermatológicas, según reivindicación 8a, caracterizado por que, en la fase e) se entrenan cinco redes con subconjuntos de imágenes de entrenamiento elegidos de forma aleatoria y se promedian sus resultados ensamblamos las cinco redes. 12a.- Procedure for the classification of dermatological lesions, according to claim 8a, characterized in that, in phase e) five networks are trained with randomly chosen subsets of training images and their results are averaged, we assemble the five networks.
ES202230592A 2022-06-30 2022-06-30 Smart dermatoscope and procedure for classification of dermatological lesions (Machine-translation by Google Translate, not legally binding) Pending ES2924934A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
ES202230592A ES2924934A1 (en) 2022-06-30 2022-06-30 Smart dermatoscope and procedure for classification of dermatological lesions (Machine-translation by Google Translate, not legally binding)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ES202230592A ES2924934A1 (en) 2022-06-30 2022-06-30 Smart dermatoscope and procedure for classification of dermatological lesions (Machine-translation by Google Translate, not legally binding)

Publications (1)

Publication Number Publication Date
ES2924934A1 true ES2924934A1 (en) 2022-10-11

Family

ID=83507641

Family Applications (1)

Application Number Title Priority Date Filing Date
ES202230592A Pending ES2924934A1 (en) 2022-06-30 2022-06-30 Smart dermatoscope and procedure for classification of dermatological lesions (Machine-translation by Google Translate, not legally binding)

Country Status (1)

Country Link
ES (1) ES2924934A1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130053701A1 (en) * 2009-09-24 2013-02-28 W.O.M. World Of Medicine Ag Dermatoscope and elevation measuring tool
WO2016186711A1 (en) * 2015-05-20 2016-11-24 Comprehensive Telemedicine Multipurpose diagnostic examination apparatus and system
WO2016199134A1 (en) * 2015-06-10 2016-12-15 Tyto Care Ltd. Apparatus and method for inspecting skin lesions
US20180146912A1 (en) * 2016-11-29 2018-05-31 Stmicroelectronics S.R.L. Method and system for analyzing skin lesions
CN108309249A (en) * 2018-03-15 2018-07-24 苏州国科盈睿医疗科技有限公司 Intelligent dermoscopy system
CN207768364U (en) * 2017-04-12 2018-08-28 广州创弘医疗科技有限公司 A kind of electronic skin lens device
EP3818926A1 (en) * 2019-11-11 2021-05-12 3Gen, Inc. Medical illuminator with variable polarization

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130053701A1 (en) * 2009-09-24 2013-02-28 W.O.M. World Of Medicine Ag Dermatoscope and elevation measuring tool
WO2016186711A1 (en) * 2015-05-20 2016-11-24 Comprehensive Telemedicine Multipurpose diagnostic examination apparatus and system
WO2016199134A1 (en) * 2015-06-10 2016-12-15 Tyto Care Ltd. Apparatus and method for inspecting skin lesions
US20180146912A1 (en) * 2016-11-29 2018-05-31 Stmicroelectronics S.R.L. Method and system for analyzing skin lesions
CN207768364U (en) * 2017-04-12 2018-08-28 广州创弘医疗科技有限公司 A kind of electronic skin lens device
CN108309249A (en) * 2018-03-15 2018-07-24 苏州国科盈睿医疗科技有限公司 Intelligent dermoscopy system
EP3818926A1 (en) * 2019-11-11 2021-05-12 3Gen, Inc. Medical illuminator with variable polarization

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
AL-MASNI M A ET AL. Multiple skin lesions diagnostics via integrated deep convolutional networks for segmentation and classification. Computer Methods and Programs in Biomedicine, 07/2020, Vol. 190, Páginas 228 - 239 *
ANJUM MUHAMMAD ALMAS ET AL. Deep Semantic Segmentation and Multi-Class Skin Lesion Classification Based on Convolutional Neural Network. IEEE Access, 14/07/2020, Vol. 8, Páginas 129668 - 129678 *
KAVERI V V ET AL. Classification of Malignant Melanoma using Convolutional Neural Networks. Journal of Physics: Conference Series, 2016, Páginas 012070 (8 pp.) *
KAWAHARA J ET AL. Fully Convolutional Networks to Detect Clinical Dermoscopic Features [arXiv]. arXiv, 13/03/2017, Páginas 4 pp *
KHAN MUHAMMAD ATTIQUE. Multi-Class Skin Lesion Detection and Classification via Teledermatology.. IEEE journal of biomedical and health informatics, 12/2021, Vol. 25, Páginas 4267 - 4275 *
SINGH VATSALA; NWOGU IFEOMA. Analyzing Skin Lesions in Dermoscopy Images Using Convolutional Neural Networks. 2018 IEEE International Conference on Systems, Man, and Cybernetics (SMC), 07/10/2018, Páginas 4035-4040 páginas 1 - 5; *

Similar Documents

Publication Publication Date Title
US10813559B2 (en) Detecting respiratory tract infection based on changes in coughing sounds
Kumar et al. Face recognition of cattle: can it be done?
US20190313915A1 (en) Posture-adjusted calculation of physiological signals
Yuan et al. Saliency based ulcer detection for wireless capsule endoscopy diagnosis
Chen et al. An imaging system for monitoring the in-and-out activity of honey bees
US20210007607A1 (en) Monitoring blood sugar level with a comfortable head-mounted device
Ravì et al. Real-time food intake classification and energy expenditure estimation on a mobile device
Venkatesan et al. Classification of diabetic retinopathy images using multi-class multiple-instance learning based on color correlogram features
Rahmani et al. Discriminative human action classification using locality-constrained linear coding
CN105930710B (en) Biopsy method and device
Guo et al. Classification of normal and pathological gait in young children based on foot pressure data
Karczmarek et al. A study in facial regions saliency: a fuzzy measure approach
CN109101870A (en) Intelligent mirror and its control method, computer readable storage medium
ES2924934A1 (en) Smart dermatoscope and procedure for classification of dermatological lesions (Machine-translation by Google Translate, not legally binding)
CN108564067A (en) The Threshold and system of face alignment
ES1306029U (en) Smart Dermatoscope
KR102470148B1 (en) System, computing device and method for analyzing sleep-related behavior patterns using multi-modal sensor data
Wloka et al. Spatially binned roc: A comprehensive saliency metric
Jagannathan et al. Multivariate classification of multichannel long-term electrophysiology data identifies different sleep stages in fruit flies
Gururaj Proficient algorithm for features mining in fundus images through content based image retrieval
KR102495889B1 (en) Method for detecting facial wrinkles using deep learning-based wrinkle detection model trained according to semi-automatic labeling and apparatus for the same
Zhi et al. Infants' pain recognition based on facial expression: dynamic hybrid descriptions
Florea et al. Recognition of the gaze direction: Anchoring with the eyebrows
Badejo et al. A robust preprocessing algorithm for iris segmentation from low contrast eye images
Cheng et al. Automatic localization of retinal landmarks

Legal Events

Date Code Title Description
BA2A Patent application published

Ref document number: 2924934

Country of ref document: ES

Kind code of ref document: A1

Effective date: 20221011

PA2A Conversion into utility model

Effective date: 20221221