DE202022106317U1 - A system for classifying melanoma images - Google Patents

A system for classifying melanoma images Download PDF

Info

Publication number
DE202022106317U1
DE202022106317U1 DE202022106317.6U DE202022106317U DE202022106317U1 DE 202022106317 U1 DE202022106317 U1 DE 202022106317U1 DE 202022106317 U DE202022106317 U DE 202022106317U DE 202022106317 U1 DE202022106317 U1 DE 202022106317U1
Authority
DE
Germany
Prior art keywords
images
layer
layers
network
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202022106317.6U
Other languages
German (de)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nitte Meenakshi Institute Of Tech
Nitte Meenakshi Institute of Technology
Original Assignee
Nitte Meenakshi Institute Of Tech
Nitte Meenakshi Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nitte Meenakshi Institute Of Tech, Nitte Meenakshi Institute of Technology filed Critical Nitte Meenakshi Institute Of Tech
Priority to DE202022106317.6U priority Critical patent/DE202022106317U1/en
Publication of DE202022106317U1 publication Critical patent/DE202022106317U1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Evolutionary Computation (AREA)
  • Primary Health Care (AREA)
  • Artificial Intelligence (AREA)
  • Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

Ein System (100) zur Klassifizierung von Melanombildern, wobei das System (100) Folgendes umfasst:ein Datensatzsammelmodul (102) zum Sammeln einer Vielzahl von Bildern zum Trainieren und Testen, wobei die Vielzahl der Bilder zum Trainieren vergleichsweise höher ist als die der Vielzahl der Bilder zum Testen; undein Klassifizierungsmodul (104), das mit dem Datensatzsammelmodul (102) verbunden ist, zum Klassifizieren der Vielzahl von Bildern, um ein Melanom zu erkennen, wobei das Klassifizierungsmodul (104) durch Erzeugen und Stapeln einer Vielzahl von trainierten Netzwerken (106) gebildet wird, wobei Gewichte für jedes der Vielzahl von trainierten Netzwerken (106) geladen werden, Einfrieren ihrer Schichten, um eine Änderung der Gewichte während der Anpassung eines Ensemble-Moduls an das trainierte Netzwerk (106) zu vermeiden, Verketten der eingefrorenen Schichten und schließlich Hinzufügen einer dichten Schicht mit einem einzigen Ausgang und einer Sigmoid-Aktivierungsfunktion zur binären Klassifizierung der Melanom-Bilder in bösartig und gutartig.A system (100) for classifying melanoma images, the system (100) comprising:a dataset collection module (102) for collecting a plurality of images for training and testing, the plurality of images for training being comparatively greater than that of the plurality of images for testing; anda classification module (104) coupled to the data set collection module (102) for classifying the plurality of images to detect melanoma, the classification module (104) being formed by generating and stacking a plurality of trained networks (106), loading weights for each of the plurality of trained networks (106), freezing their layers to avoid changing the weights during adaptation of an ensemble module to the trained network (106), concatenating the frozen layers, and finally adding a dense one Single-output layer with a sigmoid activation function for binary classification of the melanoma images into malignant and benign.

Description

BEREICH DER ERFINDUNGFIELD OF THE INVENTION

Die vorliegende Erfindung bezieht sich auf das Gebiet der neuronalen Faltungsnetzwerke. Insbesondere bezieht sich die vorliegende Erfindung auf ein System zur Klassifizierung von Melanom-Bildern für diagnostische Beurteilungen durch Faltungsneuronale Netze.The present invention relates to the field of convolutional neural networks. In particular, the present invention relates to a system for classifying melanoma images for diagnostic assessments by convolutional neural networks.

HINTERGRUND DER ERFINDUNGBACKGROUND OF THE INVENTION

Eine der häufigsten Krankheiten beim Menschen ist Hautkrebs. Die Zahl der Hautkrebsfälle hat in den letzten Jahrzehnten enorm zugenommen. Er ist die häufigste Todesursache bei Männern und Frauen. Er entsteht, wenn die für die Pigmentproduktion zuständigen Hautzellen, die so genannten Melanozyten, die für das Melanin verantwortlich sind, außer Kontrolle geraten. Der Grund für die Mutation in den Melanozyten, die zu Hautkrebs führt, ist unbekannt.One of the most common human diseases is skin cancer. The number of skin cancer cases has increased enormously in the last decades. It is the leading cause of death in both men and women. It occurs when the skin cells responsible for pigment production, called melanocytes, which are responsible for melanin, get out of control. The reason for the mutation in the melanocytes that leads to skin cancer is unknown.

Es ist wichtig zu wissen, wie man ein Melanom erkennt, denn Melanome im Frühstadium sind gut behandelbar. Um die Warnzeichen zu erkennen, die darauf hinweisen, dass es sich bei einem Fleck auf der Haut um ein Melanom handeln könnte, hat die American Academy of Dermatology eine „ABCDE“-Speichereinrichtung oder -Regel vorgeschlagen. Medizinische bildgestützte Diagnosesysteme für Hautläsionen können als geeignetes Instrument zur Unterstützung von Dermatologen bei der Klassifizierung von Hautkrebs eingesetzt werden. Diese Studie befasst sich speziell mit binären Klassifizierungsproblemen im Zusammenhang mit Melanomen und gutartigen Hautkrebsen. Deep-Learning-Methoden wie CNN sind in der Lage, eine leistungsstarke Klassifizierung und Erkennung durchzuführen. Deep Learning-Klassifizierungsverfahren bieten eine hocheffektive Möglichkeit, komplexe Probleme zu bewältigen und verschiedene Krankheiten zu erkennen.Knowing how to recognize melanoma is important because early-stage melanoma is highly treatable. To recognize the warning signs that a spot on the skin could be melanoma, the American Academy of Dermatology has proposed an "ABCDE" memory facility or rule. Medical image-guided diagnostic systems for skin lesions can be used as a suitable tool to support dermatologists in classifying skin cancer. This study specifically addresses binary classification issues associated with melanoma and benign skin cancers. Deep learning methods like CNN are capable of powerful classification and detection. Deep learning classification techniques provide a highly effective way to tackle complex problems and detect various diseases.

Verschiedene vortrainierte Modelle wie ResNet50, InceptionV3, MobileNetV2 können eine Genauigkeit von bis zu 90-95 % erreichen. Da es sich um die Erkennung von Melanomen handelt, ist es wichtig, ein Modell zu haben, das hochpräzise ist.Various pre-trained models like ResNet50, InceptionV3, MobileNetV2 can achieve up to 90-95% accuracy. Since it is about melanoma detection, it is important to have a model that is highly accurate.

Die automatische Erkennung von Melanomen ist zu einem wichtigen Thema der öffentlichen Gesundheit geworden, da die Menschen nur wenig über bestimmte Krankheiten wissen. In letzter Zeit werden tiefe neuronale Netze in großem Umfang zur Segmentierung, Klassifizierung, Objekterkennung usw. eingesetzt.Automatic detection of melanoma has become an important public health issue due to the poor knowledge people have about certain diseases. Recently, deep neural networks are widely used for segmentation, classification, object recognition, etc.

Einem Forscher zufolge werden Deep-Learning-Methoden mit Augmentation angewandt, um komplexe Vorverarbeitungsschritte zu vermeiden, und er untersucht die Leistung verschiedener neuronaler Netzwerkarchitekturen wie ResNet50, Xception, VGG16 und InceptionV3 mit einer Genauigkeit von 0.94, 0.95, 0.93 und 0.94 sowie für Läsionen BCDU-Net, SegNet und U-Net. Die Deep-Learning-Methoden schnitten ohne komplexe Vorverarbeitungstechniken gut ab, mit Ausnahme der Normalisierung und Augmentation.According to a researcher, deep learning methods are applied with augmentation to avoid complex pre-processing steps and he examines the performance of different neural network architectures like ResNet50, Xception, VGG16 and InceptionV3 with accuracy of 0.94, 0.95, 0.93 and 0.94 and for lesions BCDU -Net, SegNet and U-Net. The deep learning methods performed well with no complex preprocessing techniques except for normalization and augmentation.

Nach einer anderen Forschung, einem Keras Image Data Generator, wurden Bilder von Hautläsionen vorverarbeitet. Das MobileNet-Modell erbrachte genaue und stabile Leistungen mit einer zusätzlich schnelleren und leichtgewichtigen Architektur. Die Gesamtgenauigkeit des verwendeten Modells betrug 83 %.According to another research, a Keras Image Data Generator, images of skin lesions were pre-processed. The MobileNet model provided accurate and stable performance with an additional faster and lightweight architecture. The overall accuracy of the model used was 83%.

In einer anderen Untersuchung wird eine domänenspezifische KI für die Hautbildanalyse diskutiert. Die ABCD-Regel zum Verständnis von Melanomen mit lokal interpretierbaren modellagnostischen Erklärungen (LIME) wurde implementiert, und die Ergebnisse werden für die Klassifizierung von Hautbildern mit Deep Neural Networks (DNN) vorgestellt.Another study discusses a domain-specific AI for skin image analysis. The ABCD rule for understanding melanoma using locally interpretable model-agnostic explanations (LIME) has been implemented and the results are presented for classification of skin images using deep neural networks (DNN).

US8543519B2 beschreibt ein System und ein Verfahren zur Ferndiagnose von Melanomen, um Krankheiten oder Zustände anhand von digitalen Bildern zu diagnostizieren, die von einem entfernten Benutzer aufgenommen und an einen Bildanalyseserver übertragen werden, der mit einem verteilten Netzwerk verbunden ist. Der Bildanalyseserver enthält eine trainierte Lernmaschine zur Klassifizierung der Bilder. Das Klassifizierungsergebnis wird nachbearbeitet, um eine Risikobewertung zu erstellen, die an den entfernten Benutzer übermittelt wird. Eine mit dem Server verbundene Datenbank kann Überweisungsinformationen für die geografische Zuordnung des Fernanwenders zu einem lokalen Arzt enthalten. Ein optionaler Vorgang umfasst die Erfassung von Finanzinformationen, um die Bezahlung der Analysedienste sicherzustellen. US8543519B2 describes a remote melanoma diagnosis system and method for diagnosing a disease or condition from digital images captured by a remote user and transmitted to an image analysis server connected to a distributed network. The image analysis server contains a trained learning engine for classifying the images. The classification result is post-processed to create a risk score that is sent to the remote user. A database connected to the server may contain referral information for geographic mapping of the remote user to a local doctor. An optional process involves the collection of financial information to ensure payment for analytics services.

US10176574B2 offenbart ein strukturerhaltendes zusammengesetztes Modell für die Segmentierung von Hautläsionen, das die Partitionierung eines dermatoskopischen Bildes in Superpixel in einem ersten Maßstab umfasst. Jedes Superpixel ist ein Scheitelpunkt auf einem Graphen, der durch Farbkoordinaten und Raumkoordinaten definiert ist, und repräsentiert eine Anzahl von Pixeln des dermatoskopischen Bildes gemäß dem ersten Maßstab. Ferner wird eine Vielzahl von k Hintergrundvorlagen durch k-means Clustering ausgewählter Superpixel in Raum und Farbe erstellt. Zusätzlich Erzeugen von spärlichen Darstellungen der Vielzahl von Superpixeln basierend auf der Vielzahl von Hintergrundschablonen. Außerdem Berechnung eines Rekonstruktionsfehlers für jedes Superpixel durch Vergleich seiner spärlichen Darstellung mit seinen ursprünglichen Farb- und Raumkoordinaten. Außerdem Ausgabe einer Vertrauenskarte, die jedes Pixel des dermatoskopischen Bildes als zu einer Hautläsion gehörend oder nicht gehörend identifiziert, basierend auf den Rekonstruktionsfehlern der repräsentativen Superpixel. US10176574B2 discloses a structure-preserving composite model for skin lesion segmentation that includes partitioning a dermoscopic image into superpixels at a first scale. Each super pixel is a vertex on a graph defined by color coordinates and space coordinates and represents a number of pixels of the dermoscopic image according to the first scale. Furthermore, a multiplicity of k background templates are created by k-means clustering of selected super-pixels in space and color. In addition, generating sparse representations of the multitude of super pixel based on the variety of background templates. Also, calculate a reconstruction error for each superpixel by comparing its sparse representation with its original color and space coordinates. Also output a confidence map identifying each pixel of the dermoscopic image as belonging or not belonging to a skin lesion based on the reconstruction errors of the representative superpixels.

Die meisten der vorgestellten Arbeiten basieren auf der ABCD-Regel, d. h. auf der Grundlage von Asymmetrie, Rändern, Farben und Durchmesser, die von Dermatologen zur Bestimmung von Melanomen durch visuelle Inspektion verwendet wird. Auch eine unregelmäßige Dicke kann ein Zeichen für ein Melanom sein. Die bestehenden Melanom-Klassifizierungsmodelle erkennen solche Unterschiede in der Hautdicke nicht. Der für diese Studien verwendete Datensatz bestand hauptsächlich aus hellhäutigen Personen. Bei Personen mit stark pigmentierter oder dunkler Haut ist es schwierig, die Grenzen des Leberflecks zu unterscheiden, so dass der Klassifikator in solchen Fällen keine Anomalien in der Hautläsion oder dem Leberfleck erkennen kann.Most of the work presented is based on the ABCD rule, i. H. based on asymmetry, borders, colors and diameter, used by dermatologists to determine melanoma by visual inspection. An irregular thickness can also be a sign of melanoma. Existing melanoma classification models do not recognize such differences in skin thickness. The dataset used for these studies consisted primarily of Caucasian subjects. In individuals with highly pigmented or dark skin, it is difficult to distinguish the boundaries of the mole, so in such cases the classifier cannot detect abnormalities in the skin lesion or mole.

Daher besteht die Notwendigkeit, ein automatisches System zur Klassifizierung von Bildern von Hautläsionen zu entwickeln, das genauer ist und eine zuverlässige Erkennung des Melanoms ermöglicht, das Problem der Überanpassung löst und im Vergleich zu bestehenden maschinellen Lerntechniken wie neuronalen Netzen und Support-Vektor-Maschinen weniger komplex in Bezug auf den Rechenaufwand ist.Therefore, there is a need to develop an automatic system for classifying images of skin lesions that is more accurate and allows reliable detection of the melanoma, solves the problem of overfitting and less compared to existing machine learning techniques such as neural networks and support vector machines is complex in terms of computational effort.

Der technische Fortschritt, der durch die vorliegende Erfindung offenbart wird, überwindet die Einschränkungen und Nachteile bestehender und konventioneller Systeme und Methoden.The technical advance disclosed by the present invention overcomes the limitations and disadvantages of existing and conventional systems and methods.

ZUSAMMENFASSUNG DER ERFINDUNGSUMMARY OF THE INVENTION

Die vorliegende Erfindung bezieht sich allgemein auf ein System zur Klassifizierung von Melanombildern für diagnostische Beurteilungen.The present invention relates generally to a system for classifying melanoma images for diagnostic evaluation.

Ziel der vorliegenden Erfindung ist es, ein System zur Erkennung und Klassifizierung von Melanombildern zu entwickeln.The aim of the present invention is to develop a system for the detection and classification of melanoma images.

Ein weiteres Ziel der vorliegenden Erfindung ist es, die Modelle MobileNetV2, InceptionV3 und ResNet50 zu trainieren und einzeln zu speichern;Another object of the present invention is to train and store the MobileNetV2, InceptionV3 and ResNet50 models individually;

Ein weiteres Ziel der vorliegenden Erfindung ist die Erstellung eines Ensemblemodells unter Verwendung von MobileNetV2, InceptionV3 und ResNet50 zur Klassifizierung von Melanombildern in gutartig und bösartig unter Verwendung von CNN; undAnother object of the present invention is to build an ensemble model using MobileNetV2, InceptionV3 and ResNet50 to classify melanoma images into benign and malignant using CNN; and

Ein weiteres Ziel der vorliegenden Erfindung ist es, LIME zu implementieren, um die Entscheidung zu verstehen, die hinter den diagnostischen Urteilen des Klassifikators steht.Another aim of the present invention is to implement LIME to understand the decision behind the diagnostic judgments of the classifier.

In einer Ausführungsform ein System zur Klassifizierung von Melanombildern, wobei das System Folgendes umfasst:

  • ein Datensatzsammelmodul zum Sammeln einer Vielzahl von Bildern zum Trainieren und Testen, wobei die Vielzahl von Bildern zum Trainieren vergleichsweise höher ist als die der Vielzahl von Bildern zum Testen; und
  • ein Klassifizierungsmodul, das mit dem Datensatzsammelmodul verbunden ist, um die Vielzahl von Bildern zu klassifizieren, um ein Melanom zu erkennen, wobei das Klassifizierungsmodul gebildet wird, indem eine Vielzahl von trainierten Netzwerken erzeugt und gestapelt wird, wobei Gewichte für jedes der Vielzahl von trainierten Netzwerken geladen werden, ihre Schichten eingefroren werden, um eine Änderung der Gewichte während der Anpassung eines Ensemblemoduls an das trainierte Netzwerk zu vermeiden, die eingefrorenen Schichten verkettet werden und schließlich mit einer dichten Schicht mit einem einzelnen Ausgang und einer Sigmoid-Aktivierungsfunktion zur binären Klassifizierung der Melanombilder in bösartig und gutartig hinzugefügt werden.
In one embodiment, a system for classifying melanoma images, the system comprising:
  • a dataset collection module for collecting a plurality of images for training and testing, wherein the plurality of images for training is comparatively higher than that of the plurality of images for testing; and
  • a classification module coupled to the dataset collection module to classify the plurality of images to detect melanoma, the classification module formed by generating and stacking a plurality of trained networks, weights for each of the plurality of trained networks loaded, their slices frozen to avoid changing the weights during fitting of an ensemble module to the trained network, the frozen slices concatenated, and finally with a single-output dense slice and a sigmoid activation function for binary classification of the melanoma images be added into malignant and benign.

In einer Ausführungsform wird die Vielzahl von Bildern gelesen und in einem NumPy-Array mit den Dimensionen (Anzahl der Bilder × Bildform × Kanäle) gespeichert, wobei die entsprechenden Bezeichnungen der Vielzahl von Bildern ebenfalls in dem 1-D-NumPy-Array gespeichert werden.In one embodiment, the plurality of images are read and stored in a NumPy array of dimensions (number of images × image shape × channels), where the corresponding designations of the plurality of images are also stored in the 1-D NumPy array.

In einer Ausführungsform wurde der Datensatz in einen Trainings- und einen Testsatz unterteilt, die jeweils 80 % und 20 % des Hautkrebsbildes enthalten.In one embodiment, the data set was divided into a training and a test set containing 80% and 20% of the skin cancer image, respectively.

In einer Ausführungsform wird die Mehrzahl der trainierten Netze mit ResNet, Inception und Mobile Net erstellt.In one embodiment, the majority of the trained networks are built using ResNet, Inception, and Mobile Net.

In einer Ausführungsform hat das ResNet eine Vielzahl von Faltungsschichten, eine Average-Pool- und eine Max-Pool-Schicht und eine Gleitkommaoperation von 3.8x109, wobei das ResNet eine Vielzahl von verschiedenen Kerneln mit Strides der Größe 2 hat, jeder mit einer Kernelgröße von 7x7, wobei eine Schicht einen Max-Pool mit einem Stride der Größe 2 hat.In one embodiment, the ResNet has a plurality of convolution layers, an average pool and a max pool layer, and a floating point operation of 3.8x109, where the ResNet has a plurality of different kernels with size 2 strides, each with a kernel size of 7x7, with one tier having a max pool with a stride of size 2.

In einer Ausführungsform ist das Konzept ein Bilderkennungsmodell, das aus einer Vielzahl von Schichten besteht und geringere Fehlerraten aufweist, um den Rechenaufwand zu verringern, wenn die Anzahl der Parameter in einem Netzwerk reduziert wird.In one embodiment, the concept is an image recognition model that consists of multiple layers and has lower error rates to reduce computational effort when the number of parameters in a network is reduced.

In einer Ausführungsform hat die Inception verschiedene Größen von Faltungskernen, die es ihr ermöglichen, ein rezeptives Feld mit verschiedenen räumlichen Frequenzen zu besitzen, bevor sie sich schließlich verbindet, um den Entwurfsraum des Netzwerks zu verdichten, was die Integration von Merkmalen auf verschiedenen Skalen ermöglicht, wobei die Inception eine Stapelnormalisierungsschicht als Regularisierer zwischen einem Hilfsklassifikator und den voll verbundenen Schichten einfügt.In one embodiment, the inception has different sizes of convolution kernels, allowing it to possess a receptive field of different spatial frequencies, before finally combining to condense the design space of the network, allowing for the integration of features at different scales, where the inception inserts a stack normalization layer as a regularizer between an auxiliary classifier and the fully connected layers.

In einer Ausführungsform wird die Gittergröße der Inception reduziert, um die Aktivierungsdimension der Netzfilter durch Verkettung der Pooling-Schicht und zweier paralleler Faltungsblöcke zu erhöhen.In one embodiment, the grid size of the inception is reduced to increase the activation dimension of the line filters by concatenating the pooling layer and two parallel convolution blocks.

In einer Ausführungsform ist das Mobile Net ein neuronales Faltungsnetzwerk zur Merkmalsextraktion, Objekterkennung und Segmentierung mit einer Vielzahl von tiefen Schichten für verschiedene visuelle Erkennungsaufgaben mit zwei verschiedenen Arten von Blöcken, einem Verkleinerungsblock der Größe stride 2 und einem Restblock von strides1, wobei das Mobile Net mehrere Schichten für beide Arten von Blöcken aufweist.In one embodiment, the Mobile Net is a convolutional neural network for feature extraction, object detection and segmentation with a variety of deep layers for different visual recognition tasks with two different types of blocks, a reduction block of size stride 2 and a remainder block of strides1, where the Mobile Net has several has layers for both types of blocks.

In einer Ausführungsform hat das Faltungsnetzwerk eine erste Schicht mit einer gleichgerichteten linearen Aktivierungsfunktion (ReLU) in 1x1-Faltung, eine zweite Schicht mit einer tiefenmäßigen Faltung und eine dritte Schicht mit einer 1x1-Faltung ohne die Nichtlinearität.In one embodiment, the convolutional network has a first layer with a rectified linear activation function (ReLU) in 1x1 convolution, a second layer with a depthwise convolution, and a third layer with a 1x1 convolution without the non-linearity.

Um die Vorteile und Merkmale der vorliegenden Erfindung weiter zu verdeutlichen, wird eine genauere Beschreibung der Erfindung durch Bezugnahme auf spezifische Ausführungsformen davon, die in den beigefügten Figuren dargestellt ist, gemacht werden. Es wird davon ausgegangen, dass diese Figuren nur typische Ausführungsformen der Erfindung zeigen und daher nicht als Einschränkung ihres Umfangs zu betrachten sind. Die Erfindung wird mit zusätzlicher Spezifität und Detail mit den beigefügten Figuren beschrieben und erläutert werden.In order to further clarify the advantages and features of the present invention, a more detailed description of the invention will be made by reference to specific embodiments thereof illustrated in the accompanying figures. It is understood that these figures show only typical embodiments of the invention and therefore should not be considered as limiting its scope. The invention will be described and illustrated with additional specificity and detail with the accompanying figures.

Figurenlistecharacter list

Diese und andere Merkmale, Aspekte und Vorteile der vorliegenden Erfindung werden besser verstanden, wenn die folgende detaillierte Beschreibung mit Bezug auf die beigefügten Figuren gelesen wird, in denen gleiche Zeichen gleiche Teile in den Figuren darstellen, wobei:

  • 1 ein Blockdiagramm eines Systems zur Klassifizierung von Melanombildern zeigt,
  • 2 eine architektonische Darstellung des Klassifizierungsmoduls zeigt, und
  • 3 ein Blockdiagramm der Kalkauswertung des Klassifizierungsmoduls zeigt.
These and other features, aspects and advantages of the present invention will be better understood when the following detailed description is read with reference to the accompanying figures, in which like characters represent like parts throughout the figures, wherein:
  • 1 shows a block diagram of a system for classifying melanoma images,
  • 2 shows an architectural representation of the classification module, and
  • 3 shows a block diagram of the lime evaluation of the classification module.

Der Fachmann wird verstehen, dass die Elemente in den Figuren der Einfachheit halber dargestellt sind und nicht unbedingt maßstabsgetreu gezeichnet wurden. Die Flussdiagramme veranschaulichen beispielsweise das Verfahren in Form der wichtigsten Schritte, die zum besseren Verständnis der Aspekte der vorliegenden Offenbarung beitragen. Darüber hinaus kann es sein, dass eine oder mehrere Komponenten der Vorrichtung in den Figuren durch herkömmliche Symbole dargestellt sind, und dass die Figuren nur die spezifischen Details zeigen, die für das Verständnis der Ausführungsformen der vorliegenden Offenbarung relevant sind, um die Figuren nicht mit Details zu überfrachten, die für Fachleute, die mit der vorliegenden Beschreibung vertraut sind, leicht erkennbar sind.Those skilled in the art will understand that the elements in the figures are presented for simplicity and are not necessarily drawn to scale. For example, the flowcharts illustrate the method in terms of key steps that may aid in understanding aspects of the present disclosure. In addition, one or more components of the device may be represented in the figures by conventional symbols, and the figures only show the specific details relevant to understanding the embodiments of the present disclosure, not to encircle the figures with details to overload, which are easily recognizable to those skilled in the art familiar with the present description.

AUSFÜHRLICHE BESCHREIBUNGDETAILED DESCRIPTION

Um das Verständnis der Erfindung zu fördern, wird nun auf die in den Figuren dargestellte Ausführungsform Bezug genommen und diese mit bestimmten Worten beschrieben. Es versteht sich jedoch von selbst, dass damit keine Einschränkung des Umfangs der Erfindung beabsichtigt ist, wobei solche Änderungen und weitere Modifikationen des dargestellten Systems und solche weiteren Anwendungen der darin dargestellten Grundsätze der Erfindung in Betracht gezogen werden, wie sie einem Fachmann auf dem Gebiet der Erfindung normalerweise einfallen würden.For the purposes of promoting an understanding of the invention, reference will now be made to the embodiment illustrated in the figures and specific language will be used to describe the same. It should be understood, however, that no limitation on the scope of the invention is intended, and such alterations and further modifications to the illustrated system and such further applications of the principles of the invention set forth therein are contemplated as would occur to those skilled in the art invention would normally come to mind.

Es versteht sich für den Fachmann von selbst, dass die vorstehende allgemeine Beschreibung und die folgende detaillierte Beschreibung beispielhaft und erläuternd für die Erfindung sind und diese nicht einschränken sollen.It will be understood by those skilled in the art that the foregoing general description and the following detailed description are exemplary and explanatory of the invention and are not intended to be limiting.

Wenn in dieser Beschreibung von „einem Aspekt“, „einem anderen Aspekt“ oder ähnlichem die Rede ist, bedeutet dies, dass ein bestimmtes Merkmal, eine bestimmte Struktur oder eine bestimmte Eigenschaft, die im Zusammenhang mit der Ausführungsform beschrieben wird, in mindestens einer Ausführungsform der vorliegenden Erfindung enthalten ist. Daher können sich die Ausdrücke „in einer Ausführungsform“, „in einer anderen Ausführungsform“ und ähnliche Ausdrücke in dieser Beschreibung alle auf dieselbe Ausführungsform beziehen, müssen es aber nicht.When this specification refers to "an aspect,""anotheraspect," or the like, it means that a particular feature, structure, or characteristic described in connection with the embodiment is present in at least one embodiment of the present invention. As such, the phrases "in one embodiment,""in another embodiment," and similar phrases may be used in this description all refer to the same embodiment, but do not have to.

Die Ausdrücke „umfasst“, „enthaltend“ oder andere Variationen davon sollen eine nicht ausschließliche Einbeziehung abdecken, so dass ein Verfahren oder eine Methode, die eine Liste von Schritten umfasst, nicht nur diese Schritte umfasst, sondern auch andere Schritte enthalten kann, die nicht ausdrücklich aufgeführt sind oder zu einem solchen Verfahren oder einer solchen Methode gehören. Ebenso schließen eine oder mehrere Vorrichtungen oder Teilsysteme oder Elemente oder Strukturen oder Komponenten, die mit „umfasst...a“ eingeleitet werden, nicht ohne weitere Einschränkungen die Existenz anderer Vorrichtungen oder anderer Teilsysteme oder anderer Elemente oder anderer Strukturen oder anderer Komponenten oder zusätzlicher Vorrichtungen oder zusätzlicher Teilsysteme oder zusätzlicher Elemente oder zusätzlicher Strukturen oder zusätzlicher Komponenten aus.The terms "comprises," "including," or other variations thereof are intended to cover non-exclusive inclusion such that a method or method that includes a list of steps includes not only those steps, but may also include other steps that are not expressly stated or pertaining to any such process or method. Likewise, any device or subsystem or element or structure or component preceded by "comprises...a" does not, without further limitation, exclude the existence of other devices or other subsystem or other element or other structure or other component or additional device or additional subsystems or additional elements or additional structures or additional components.

Sofern nicht anders definiert, haben alle hierin verwendeten technischen und wissenschaftlichen Begriffe die gleiche Bedeutung, wie sie von einem Fachmann auf dem Gebiet, zu dem diese Erfindung gehört, allgemein verstanden wird. Das System, die Methoden und die Beispiele, die hier angegeben werden, dienen nur der Veranschaulichung und sind nicht als Einschränkung gedacht.Unless otherwise defined, all technical and scientific terms used herein have the same meaning as commonly understood by one skilled in the art to which this invention pertains. The system, methods, and examples provided herein are for purposes of illustration only and are not intended to be limiting.

Ausführungsformen der vorliegenden Erfindung werden im Folgenden unter Bezugnahme auf die beigefügten Figuren im Detail beschrieben.Embodiments of the present invention are described in detail below with reference to the attached figures.

1 zeigt ein Blockdiagramm eines Systems (100) zur Klassifizierung von Melanombildern, wobei das System (100) Folgendes umfasst: ein Datensatzsammelmodul (102), ein Klassifizierungsmodul (104), eine Vielzahl von trainierten Netzwerken (106), ResNet (106a), Inception (106b) und Mobile Net (106c). 1 shows a block diagram of a system (100) for classification of melanoma images, the system (100) comprising: a dataset collection module (102), a classification module (104), a plurality of trained networks (106), ResNet (106a), Inception ( 106b) and Mobile Net (106c).

Das Datensatzsammelmodul (102) sammelt eine Vielzahl von Bildern zum Trainieren und Testen, wobei die Anzahl der Bilder zum Trainieren vergleichsweise höher ist als die Anzahl der Bilder zum Testen. Die Vielzahl der Bilder wird gelesen und in einem NumPy-Array mit den Dimensionen (Anzahl der Bilder × Bildform × Kanäle) gespeichert, wobei die entsprechenden Beschriftungen der Vielzahl der Bilder ebenfalls in dem 1-D-NumPy-Array gespeichert werden.The data set collection module (102) collects a plurality of images for training and testing, the number of images for training being comparatively higher than the number of images for testing. The plurality of images are read and stored in a NumPy array of dimensions (number of images × image shape × channels), and the corresponding labels of the plurality of images are also stored in the 1-D NumPy array.

Das Klassifizierungsmodul (104) ist mit dem Datensatzsammelmodul (102) verbunden, um die Vielzahl von Bildern zu klassifizieren, um Melanome zu erkennen, wobei das Klassifizierungsmodul (104) durch Erzeugen und Stapeln einer Vielzahl von trainierten Netzwerken (106) gebildet wird, wobei Gewichte für jedes der Vielzahl von trainierten Netzwerken (106) geladen werden, Einfrieren ihrer Schichten, um eine Änderung der Gewichte während der Anpassung eines Ensemble-Moduls an das trainierte Netzwerk (106) zu vermeiden, Verketten der eingefrorenen Schichten und schließlich Hinzufügen einer dichten Schicht mit einem einzigen Ausgang und einer Sigmoid-Aktivierungsfunktion zur binären Klassifizierung der Melanom-Bilder in bösartig und gutartig.The classification module (104) is connected to the data set collection module (102) to classify the plurality of images to detect melanoma, the classification module (104) being formed by generating and stacking a plurality of trained networks (106) wherein weights are loaded for each of the plurality of trained networks (106), freezing their layers to avoid changing the weights during the fitting of an ensemble module to the trained network (106), concatenating the frozen layers and finally adding a dense layer with a single output and a sigmoid activation function for binary classification of the melanoma images into malignant and benign.

Die Mehrzahl der trainierten Netze (106) wird mit ResNet (106a), Inception (106b) und Mobile Net (106c) erstellt. Das ResNet (106a) verfügt über eine Vielzahl von Faltungsschichten, eine Average-Pool- und eine Max-Pool-Schicht und hat eine Fließkommaoperation von 3.8x109, wobei ResNet (106a) eine Vielzahl von unterschiedlichen Kerneln mit Strides der Größe 2 hat, jeder mit einer Kernelgröße von 7x7, wobei eine Schicht einen Max-Pool mit einem Stride der Größe 2 hat. Inception (106b) ist ein Bilderkennungsmodul, das aus einer Vielzahl von Schichten besteht und niedrigere Fehlerraten aufweist, um die Rechenleistung zu verringern, wenn die Anzahl der Parameter in einem Netzwerk reduziert wird. Inception (106b) verfügt über Faltungskerne unterschiedlicher Größe, die es ihm ermöglichen, ein rezeptives Feld mit verschiedenen räumlichen Frequenzen zu besitzen, bevor es sich schließlich verbindet, um den Entwurfsraum des Netzwerks zu verdichten, was die Integration von Merkmalen in verschiedenen Maßstäben ermöglicht, wobei Inception (106b) eine Stapelnormalisierungsschicht als Regularisierungsschicht zwischen einem Hilfsklassifikator und den vollständig verbundenen Schichten einfügt. Die Gittergröße der Inception wird reduziert, um die Aktivierungsdimension der Netzfilter durch die Verkettung einer Pooling-Schicht und zweier paralleler Faltungsblöcke zu erhöhen. Das Mobile Net (106c) ist ein neuronales Faltungsnetz zur Merkmalsextraktion, Objekterkennung und Segmentierung mit mehreren tiefen Schichten für verschiedene visuelle Erkennungsaufgaben mit zwei verschiedenen Arten von Blöcken, einem Verkleinerungsblock der Größe stride 2 und einem Restblock von strides1, wobei das Mobile Net mehrere Schichten für beide Arten von Blöcken aufweist. Das Faltungsnetzwerk hat eine erste Schicht mit einer gleichgerichteten linearen Aktivierungsfunktion (ReLU) in 1x1-Faltung, eine zweite Schicht mit einer tiefenmäßigen Faltung und eine dritte Schicht mit einer 1x1-Faltung ohne die Nichtlinearität.The majority of the trained networks (106) are created with ResNet (106a), Inception (106b) and Mobile Net (106c). The ResNet (106a) has a variety of convolution layers, an average pool and a max pool layer, and has a floating point operation of 3.8x109, where ResNet (106a) has a variety of different kernels with size 2 strides, each with a kernel size of 7x7, with one tier having a max pool with a stride of size 2. Inception (106b) is an image recognition engine that consists of multiple layers and has lower error rates to reduce computational power when the number of parameters in a network is reduced. Inception (106b) has convolution kernels of different sizes, allowing it to possess a receptive field of different spatial frequencies, before finally combining to condense the design space of the network, allowing for the integration of features at different scales, where Inception (106b) inserts a stack normalization layer as a regularization layer between an auxiliary classifier and the fully connected layers. The grid size of the Inception is reduced to increase the activation dimension of the line filters by concatenating a pooling layer and two parallel convolution blocks. The Mobile Net (106c) is a convolutional neural network for feature extraction, object detection and segmentation with multiple deep layers for various visual recognition tasks with two different types of blocks, a stride 2 size minification block and a strides1 residual block, where the Mobile Net has multiple layers for has both types of blocks. The convolutional network has a first layer with a rectified linear activation function (ReLU) in 1x1 convolution, a second layer with a depthwise convolution and a third layer with a 1x1 convolution without the non-linearity.

2 zeigt eine architektonische Darstellung des Klassifizierungsmoduls. 2 shows an architectural representation of the classification module.

Das Klassifizierungsmodul wird durch integrierte gestapelte Ensemble-Modelle erstellt, die aus Netzwerken wie ResNet50, InceptionV3 und MobileNetV2 bestehen. Diese Modelle werden zunächst einzeln trainiert und gespeichert, dann werden ihre Ausgaben zusammen mit einer zusätzlichen dichten Schicht verkettet. Dabei werden die Module in Form einer Liste geladen, und für jedes der geladenen Modelle wird ein eigener Eingabekopf verwendet, um Daten in das größere gestapelte Ensemblemodell einzuspeisen. Die Eingabeschicht eines jeden Teilmodells dient als eigener Eingabekopf für das Modell. Dies bedeutet, dass das Modell k Kopien der Eingabedaten erhält, wobei k die Anzahl der Eingabemodelle angibt, in diesem Fall 3.The classification engine is created by built-in stacked ensemble models composed of networks such as ResNet50, InceptionV3, and MobileNetV2. These models will initially individually trained and stored, then their outputs are concatenated together with an additional dense layer. It does this by loading the modules in list form and using a separate input header for each of the loaded models to feed data into the larger stacked ensemble model. The input layer of each partial model serves as its own input header for the model. This means that the model receives k copies of the input data, where k is the number of input models, in this case 3.

Das tiefe neuronale Netz ResNet-50 verfügt über 48 Faltungsschichten und 1 Average Pool- und 1 Max Pool-Schicht und hat eine Gleitkommaoperation von 3.8x109. In diesem Modell wurden die Probleme des verschwindenden/explodierenden Gradienten gelöst, indem ein flacheres und tieferes Modell verwendet und eine Identitätsschicht eingebaut wurde. Sie verwenden eine Sprungverbindung oder eine Abkürzung zwischen jeweils zwei Schichten. Dadurch kann die Aktivierung von einer Schicht in eine andere Schicht übertragen werden, so dass die Parameter eines Netzes in tieferen Schichten erhalten bleiben. ResNet50 hat 64 verschiedene Kernel mit Strides der Größe 2, jeder mit einer Kernelgröße von 7x7, was eine Schicht ergibt. Es hat einen maximalen Pool mit einer Schrittweite von 2. Die Identitätszuordnung durch Überspringen einer Verbindung ist gegeben durch: Y = F ( X ,W i ) + W s X

Figure DE202022106317U1_0001
The ResNet-50 deep neural network has 48 convolution layers and 1 average pool and 1 max pool layer and has a floating point operation of 3.8x109. In this model, the vanishing/exploding gradient problems were solved by using a shallower and deeper model and incorporating an identity layer. They use a jump connection or shortcut between every two shifts. In this way, activation can be transferred from one layer to another layer, so that the parameters of a network are preserved in lower layers. ResNet50 has 64 different kernels with size 2 strides, each with a kernel size of 7x7, making one tier. It has a maximum pool with an increment of 2. Identity mapping by skipping a connection is given by: Y = f ( X ,W i ) + W s X
Figure DE202022106317U1_0001

Die Eingangs- und Ausgangsvektoren der Schichten werden hier als X und Y dargestellt und F (X, Wi) bezeichnet die Residualabbildung.The input and output vectors of the layers are represented here as X and Y and F(X,Wi) denotes the residual map.

Das Modell ResNet-50 besteht aus fünf Stufen mit je einem Identitäts- und einem Faltungsblock. Jeder Faltungsblock enthält drei Faltungsschichten und jeder Identitätsblock hat drei Faltungsschichten. Das ResNet50 hat über 23 Millionen trainierbare Parameter.The ResNet-50 model consists of five stages, each with an identity block and a convolution block. Each convolution block contains three layers of convolution and each identity block has three layers of convolution. The ResNet50 has over 23 million trainable parameters.

Inception V3 besteht aus zweiundvierzig Schichten und hat niedrigere Fehlerraten als seine früheren Versionen. Inception V3 verfügt über faktorisierte Faltungen, die zur Verringerung des Rechenaufwands beitragen, da sie die Anzahl der Parameter innerhalb eines Netzwerks reduzieren. Die großen Faltungen innerhalb eines Modells wurden in kleinere Faltungen faktorisiert. Die BN-Formeln werden wie folgt ausgedrückt: B = { X1 m } , α

Figure DE202022106317U1_0002
{ Y = BN α ( Xi ) }
Figure DE202022106317U1_0003
Inception V3 consists of forty-two layers and has lower error rates than its previous versions. Inception V3 features factored convolutions that help reduce computational overhead by reducing the number of parameters within a network. The large folds within a model have been factored into smaller folds. The BN formulas are expressed as follows: B = { X1 ... m } , a
Figure DE202022106317U1_0002
{ Y = B.N a ( Xi ) }
Figure DE202022106317U1_0003

Dabei bezeichnet x den minimalen Aktivierungswert der Charge B, m die Anzahl der Aktivierungswerte und die lernbaren Parameter sind durch α und β gegeben. μ = 1/m i = 1 m X i

Figure DE202022106317U1_0004
σ 2 B = 1/m i = 1 2 ( X i μ b ) 2
Figure DE202022106317U1_0005
Here, x designates the minimum activation value of batch B, m the number of activation values and the learnable parameters are given by α and β. µ = 1/m i = 1 m X i
Figure DE202022106317U1_0004
σ 2 B = 1/m i = 1 2 ( X i µ b ) 2
Figure DE202022106317U1_0005

Der Durchschnittswert in einer Dimension ist durch µ gegeben, die Standardabweichung in jeder Dimension der Merkmalskarte ist durch σ2 gegeben, und ∈ ist eine Konstante. Y i = X i + β= BN . β ( Xi )

Figure DE202022106317U1_0006
The mean value in one dimension is given by µ, the standard deviation in each dimension of the feature map is given by σ 2 and ∈ is a constant. Y i = X i + β= B.N . β ( Xi )
Figure DE202022106317U1_0006

Das Modell Inception V1 hat eine 5x5-Faltungsschicht und ist sehr rechenintensiv. Um die Rechenkosten zu reduzieren, wurde die Faltungsschicht durch eine 3x3-Faltungsschicht ersetzt. Die 5x5-Faltungsschicht des ursprünglichen Inception-Moduls wurde durch ein 3x3-Faltungsmodul ersetzt, wodurch sich die Anzahl der Parameter und die Rechenkosten ebenfalls reduzierten.The Inception V1 model has a 5x5 convolution layer and is very computationally intensive. To reduce computational costs, the convolution layer was replaced with a 3x3 convolution layer. The 5x5 convolution layer of the original Inception module was replaced with a 3x3 convolution module, which also reduced the number of parameters and the computational cost.

Asymmetrische Faltung kann das Modell noch effizienter machen, daher wurde die 3x3-Faltung durch eine 1x3-Faltung ersetzt, gefolgt von einer 3x1-Faltung. Inception verwendet auch Hilfsklassifikatoren, um die Konvergenz des tiefen Netzwerks zu verbessern. Um die Gittergrößen in Inception V3 zu reduzieren, wird die Aktivierungsdimension der Netzwerkfilter erhöht. Dies geschieht durch die Verkettung einer Pooling-Schicht und zweier paralleler Faltungsblöcke.Asymmetric folding can make the model even more efficient, so the 3x3 fold was replaced with a 1x3 fold, followed by a 3x1 fold. Inception also uses auxiliary classifiers to improve deep network convergence. In order to reduce the grid sizes in Inception V3, the activation dimension of the network filters is increased. This is done by concatenating a pooling layer and two parallel convolution blocks.

MobileNetV2 hat 53 tiefe Schichten für verschiedene visuelle Erkennungsaufgaben. In Mobile Net gibt es zwei verschiedene Arten von Blöcken, einen Downsizing-Block der Größe stride 2 und einen Restblock von strides1. Es hat drei Schichten für beide Arten von Blöcken. ReLU6 wird in der 1x1-Faltung als erste Schicht verwendet. Die zweite Schicht besteht aus einer tiefenwirksamen Faltung. Die tiefenweise trennbare Faltung wurde in die MobileNetV2-Schicht integriert. Zwei Operationen, d. h. die tiefenweise Faltung und die punktweise Faltung, werden kombiniert, um eine tiefenweise separierbare Faltung zu erzeugen.MobileNetV2 has 53 deep layers for various visual recognition tasks. There are two different types of blocks in Mobile Net, a downsizing block of size stride 2 and a remainder block of strides1. It has three layers for both types of blocks. ReLU6 is used as the first layer in the 1x1 convolution. The second layer consists of a deep-acting fold. The depth-wise separable convolution has been integrated into the MobileNetV2 layer. Two operations, i. H. the depth-wise convolution and the point-wise convolution are combined to produce a depth-wise separable convolution.

Die Verkettungsschicht nimmt die Eingaben und verkettet sie entlang bestimmter spezifischer Dimensionen. In der Verkettungsschicht werden die Ergebnisse der einzelnen Modelle zusammengeführt. Hier wird eine einfache Verkettung verwendet, bei der jedes der drei Modelle zwei Klassenwahrscheinlichkeiten zu einem einzigen Vektor mit sechs Elementen zusammenfasst.The concatenation layer takes the inputs and concatenates them along certain specific dimensions. The results of the individual models are combined in the concatenation layer. Simple concatenation is used here, with each of the three models combining two class probabilities into a single six-element vector.

Die dichte Schicht ist im Grunde eine Schicht, die eng mit der vorangehenden Schicht verbunden ist. Die Neuronen dieser Schicht sind mit allen Neuronen der vorangegangenen Schichten verbunden. Die Ausgaben aller Modelle werden als Eingabe in die Verkettungsschicht gegeben, die die Eingaben zusammenführt. Dann wird eine dichte Schicht mit einigen Einheiten hinzugefügt, gefolgt von einer dichten Schicht mit einer singulären Ausgabe und einer Aktivierungsfunktion von Sigmoid, da die Aufgabe eine binäre Klassifizierung ist.The dense layer is basically a layer closely connected to the previous layer is. The neurons of this layer are connected to all neurons of the previous layers. The outputs of all models are given as input to the concatenation layer, which merges the inputs. Then a dense layer with some units is added, followed by a dense layer with a singular output and an activation function of Sigmoid since the task is a binary classification.

3 zeigt ein Blockdiagramm der Kalkauswertung des Klassifizierungsmoduls. 3 shows a block diagram of the lime evaluation of the classification module.

LIME ist im Wesentlichen modellunabhängig und dient als Entscheidungshilfe für die Diagnose von Melanomen. Das vorgeschlagene Klassifizierungsmodul wird anhand von Daten trainiert, und das trainierte Modell wird dann zusammen mit den Daten an den LIME-Erklärer gesendet, um Einblicke in bestimmte vom Klassifizierungsmodul getroffene Vorhersagen zu geben. Der LIME nimmt die Daten und Vorhersagewerte des Klassifizierungsmoduls als Eingabe und erstellt auf der Grundlage der Eingaben eine Erklärung. Der LIME liefert eine Erklärung für die Klassifizierung von Hautkrebs, indem er grüne und rote Superpixel auf dem Bild bereitstellt. Die grünen Superpixel werden dem Bereich zugeordnet, in dem sich eine Hautläsion oder ein Muttermal befindet. Auf der Grundlage des Zuordnungsmusters sagt das Klassifizierungsmodell ein Bild als gutartig oder bösartig voraus. Das Mapping auf dem gutartigen Bild ist in der Regel gleichmäßig verteilt, während das grüne Superpixel-Mapping auf den bösartigen Bildern in der Regel verstreut und ungleichmäßig verteilt ist.LIME is essentially model-independent and serves as a decision-making aid for the diagnosis of melanoma. The proposed classification engine is trained on data, and the trained model is then sent along with the data to the LIME explainer to provide insights into specific predictions made by the classification engine. The LIME takes the data and prediction values from the classification engine as input and creates an explanation based on the inputs. The LIME provides an explanation for skin cancer classification by providing green and red super pixels on the image. The green super pixels are mapped to the area where there is a skin lesion or mole. Based on the association pattern, the classification model predicts an image as benign or malignant. The mapping on the benign image is typically evenly distributed, while the green superpixel mapping on the malicious images is typically scattered and unevenly distributed.

Durch die Entwicklung eines lokalisierten erklärbaren Modells von g ∈ G, wobei G eine Kategorie von verständlichen Modellen darstellt, die Entscheidungsbäume und lineare Klassifikatoren umfasst, kann LIME die Ergebnisse eines beliebigen Modell-Klassifikators f nachvollziehen. Es wird die Komplexität gemessen, die als Ω(g) des Modells dargestellt wird und die Bedeutung eines Faktors angibt, wie leicht Erklärungen regeneriert werden. Zusätzlich wird ein Fehler von g bei der Approximation von f mit Hilfe einer Distanz- oder Verlustfunktion berechnet, die als L(f, g) dargestellt wird, wobei die endgültige Erklärung ξ(g) lautet: ξ ( g ) = argmin ( f ,g ) + Ω ( g )

Figure DE202022106317U1_0007
By developing a localized explainable model of g ∈ G, where G represents a category of understandable models that includes decision trees and linear classifiers, LIME can understand the results of any model classifier f. It measures the complexity, represented as Ω(g) of the model, which indicates the importance of a factor in how easily explanations are regenerated. Additionally, an error of g in approximating f is computed using a distance or loss function represented as L(f,g), where the final explanation ξ(g) is: ξ ( G ) = argmin ( f ,G ) + Ω ( G )
Figure DE202022106317U1_0007

LIME führt die unten aufgeführten Aktionen durch, um ein Blackbox-Modell zu verstehen oder zu interpretieren.LIME performs the actions listed below to understand or interpret a black box model.

Störung der Eingabedaten: Handelt es sich bei den Eingabedaten um ein Bild, erstellt LIME mehrere Samples, indem es einige der Superpixel des Bildes, die dem Eingabebild entsprechen, ein- und ausschaltet.Input data perturbation: When the input data is an image, LIME creates multiple samples by turning on and off some of the image's super-pixels corresponding to the input image.

Vorhersage der Klasse eines künstlichen Datenpunktes: LIME bestimmt die Klasse jedes künstlichen Datenpunktes, der durch ein trainiertes Modell erzeugt wird. Im Falle von Bilddaten wird in dieser Phase die Vorhersage für jedes veränderte oder gestörte Bild erstellt.Predicting the class of an artificial data point: LIME determines the class of each artificial data point generated by a trained model. In the case of image data, the prediction for each changed or disturbed image is created in this phase.

Berechnung der Gewichtung der künstlichen Datenpunkte: Die Gewichte für jeden künstlichen Datenpunkt werden dann berechnet; die Kosinus-Distanz-Metrik wird verwendet, um zu bestimmen, wie weit jeder generierte Datenpunkt von den tatsächlichen Eingabedaten entfernt ist. Der Abstand wird dann auf einen Wert zwischen 0 und 1 abgebildet, und in der folgenden Phase wird eine Kernel-Funktion angewendet. Ist der Abstandsunterschied zwischen dem künstlichen Datenpunkt und den ursprünglichen Datenpunkten geringer, so werden die Gewichte größer. Größere Gewichte bedeuten, dass ein künstlicher Datenpunkt wichtiger ist. Im Falle der eingegebenen Bilddaten wird für jedes gestörte Bild der Kosinusabstand zum Originalbild berechnet und verglichen. Das Gewicht und die Bedeutung eines gestörten Bildes nehmen zu, wenn eine größere Ähnlichkeit zwischen ihm und dem Originalbild besteht.Calculating the Weight of the Artificial Data Points: The weights for each artificial data point are then calculated; the cosine distance metric is used to determine how far each generated data point is from the actual input data. The distance is then mapped to a value between 0 and 1, and in the following phase a kernel function is applied. If the difference in distance between the artificial data point and the original data points is smaller, the weights become larger. Larger weights mean that an artificial data point is more important. In the case of the entered image data, the cosine distance to the original image is calculated and compared for each disturbed image. The weight and importance of a disturbed image increases when there is a greater resemblance between it and the original image.

Anpassung eines linearen Regressionsmodells: Die Anpassung eines linearen Regressionsmodells anhand gewichteter künstlicher Datenpunkte ist der letzte Schritt in diesem Prozess. Danach wird der angepasste Koeffizient für jedes Merkmal bestimmt, ähnlich wie bei der üblichen linearen Regressionsanalyse. Die Koeffizienten werden dann sortiert, und die Merkmale mit den höchsten Koeffizienten spielen eine wichtige Rolle bei der Bestimmung der Vorhersagen des Klassifizierungsmodells.Fitting a linear regression model: Fitting a linear regression model using weighted artificial data points is the last step in this process. After that, the fitted coefficient for each feature is determined, similar to the usual linear regression analysis. The coefficients are then sorted, and the features with the highest coefficients play an important role in determining the classification model's predictions.

Die Figuren und die vorangehende Beschreibung geben Beispiele für Ausführungsformen. Der Fachmann wird verstehen, dass eines oder mehrere der beschriebenen Elemente durchaus zu einem einzigen Funktionselement kombiniert werden können. Alternativ dazu können bestimmte Elemente in mehrere Funktionselemente aufgeteilt werden. Elemente aus einer Ausführungsform können einer anderen Ausführungsform hinzugefügt werden. So kann beispielsweise die Reihenfolge der hier beschriebenen Prozesse geändert werden und ist nicht auf die hier beschriebene Weise beschränkt. Darüber hinaus müssen die Aktionen eines Flussdiagramms nicht in der gezeigten Reihenfolge ausgeführt werden; auch müssen nicht unbedingt alle Aktionen durchgeführt werden. Auch können die Handlungen, die nicht von anderen Handlungen abhängig sind, parallel zu den anderen Handlungen ausgeführt werden. Der Umfang der Ausführungsformen ist durch diese spezifischen Beispiele keineswegs begrenzt. Zahlreiche Variationen sind möglich, unabhängig davon, ob sie in der Beschreibung explizit aufgeführt sind oder nicht, wie z. B. Unterschiede in der Struktur, den Abmessungen und der Verwendung von Materialien. Der Umfang der Ausführungsformen ist mindestens so groß wie in den folgenden Ansprüchen angegeben.The figures and the preceding description give examples of embodiments. Those skilled in the art will understand that one or more of the elements described may well be combined into a single functional element. Alternatively, certain elements can be broken down into multiple functional elements. Elements from one embodiment may be added to another embodiment. For example, the order of the processes described herein may be changed and is not limited to the manner described herein. Additionally, the actions of a flowchart need not be performed in the order shown; Also, not all actions have to be carried out. Also, the actions that are not dependent on other actions can be performed in parallel with the other actions. The scope of the embodiments is limited by this spe in no way limited to specific examples. Numerous variations are possible, regardless of whether they are explicitly mentioned in the description or not, e.g. B. Differences in structure, dimensions and use of materials. The scope of the embodiments is at least as broad as indicated in the following claims.

Vorteile, andere Vorzüge und Problemlösungen wurden oben im Hinblick auf bestimmte Ausführungsformen beschrieben. Die Vorteile, Vorzüge, Problemlösungen und Komponenten, die dazu führen können, dass ein Vorteil, ein Nutzen oder eine Lösung auftritt oder ausgeprägter wird, sind jedoch nicht als kritisches, erforderliches oder wesentliches Merkmal oder Komponente eines oder aller Ansprüche zu verstehen.Advantages, other benefits, and solutions to problems have been described above with respect to particular embodiments. However, the benefits, advantages, problem solutions, and components that can cause an advantage, benefit, or solution to occur or become more pronounced are not to be construed as a critical, required, or essential feature or component of any or all claims.

Bezugszeichenlistereference list

100100
Ein System (100) zur Klassifizierung von Melanombildern.A system (100) for classifying melanoma images.
102102
Modul zur Sammlung von DatensätzenRecord collection module
104104
Klassifizierungsmodulclassification module
106106
Trainiertes Netzwerktrained network
106a106a
Residuales Netzwerkresidual network
106b106b
AnfangBeginning
106c106c
Mobiles NetzMobile network
202202
Eingangsschicht für Resnet50Entry layer for Resnet50
204204
Resnet50 ArchitekturResnet50 architecture
206206
Ausgabeschicht für Resnet50Output layer for Resnet50
208208
Eingabeschicht für InceptionV3Input layer for InceptionV3
210210
Inception V3-ArchitekturInception V3 architecture
212212
Ausgabeschicht für InceptionV3Output layer for InceptionV3
214214
Eingabeschicht für Mobile NetV2Input layer for Mobile NetV2
216216
Mobile NetV2-ArchitekturMobile NetV2 architecture
218218
Ausgabeschicht für MobileNetV2Output layer for MobileNetV2
220220
Verkettungsschichtconcatenation layer
222222
Dichte Schicht (Ausgabe des Ensemble-Modells)Dense layer (ensemble model output)
302302
DatenData
304304
Klassifizierungsmodulclassification module
306306
Vorhersageforecast
308308
Erläuterungexplanation
310310
LIMELIME

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent Literature Cited

  • US 8543519 B2 [0009]US8543519B2 [0009]
  • US 10176574 B2 [0010]US 10176574 B2 [0010]

Claims (10)

Ein System (100) zur Klassifizierung von Melanombildern, wobei das System (100) Folgendes umfasst: ein Datensatzsammelmodul (102) zum Sammeln einer Vielzahl von Bildern zum Trainieren und Testen, wobei die Vielzahl der Bilder zum Trainieren vergleichsweise höher ist als die der Vielzahl der Bilder zum Testen; und ein Klassifizierungsmodul (104), das mit dem Datensatzsammelmodul (102) verbunden ist, zum Klassifizieren der Vielzahl von Bildern, um ein Melanom zu erkennen, wobei das Klassifizierungsmodul (104) durch Erzeugen und Stapeln einer Vielzahl von trainierten Netzwerken (106) gebildet wird, wobei Gewichte für jedes der Vielzahl von trainierten Netzwerken (106) geladen werden, Einfrieren ihrer Schichten, um eine Änderung der Gewichte während der Anpassung eines Ensemble-Moduls an das trainierte Netzwerk (106) zu vermeiden, Verketten der eingefrorenen Schichten und schließlich Hinzufügen einer dichten Schicht mit einem einzigen Ausgang und einer Sigmoid-Aktivierungsfunktion zur binären Klassifizierung der Melanom-Bilder in bösartig und gutartig.A system (100) for classifying melanoma images, the system (100) comprising: a data set collection module (102) for collecting a plurality of images for training and testing, the plurality of images for training being comparatively higher than that of the plurality of images for testing; and a classification module (104) coupled to the dataset collection module (102) for classifying the plurality of images to detect melanoma, the classification module (104) being formed by generating and stacking a plurality of trained networks (106), loading weights for each of the plurality of trained networks (106), freezing their layers to avoid changing the weights during adaptation of an ensemble module to the trained network (106), concatenating the frozen layers, and finally adding a dense one Single-output layer with a sigmoid activation function for binary classification of the melanoma images into malignant and benign. System nach Anspruch 1, wobei die Vielzahl von Bildern gelesen und in einem NumPy-Array mit den Abmessungen (Anzahl der Bilder x Bildform x Kanäle) gespeichert wird, wobei die entsprechenden Beschriftungen der Vielzahl von Bildern ebenfalls in dem 1-D-NumPy-Array gespeichert werden.system after claim 1 , the plurality of images being read and stored in a NumPy array of dimensions (number of images x image shape x channels), the corresponding labels of the plurality of images also being stored in the 1-D NumPy array. System nach Anspruch 1, wobei der Datensatz in einen Trainingssatz und einen Testsatz unterteilt ist, die jeweils 80% und 20% des Hautkrebsbildes enthalten.system after claim 1 , where the dataset is divided into a training set and a test set, containing 80% and 20% of the skin cancer image, respectively. System nach Anspruch 1, wobei die Vielzahl von trainierten Netzwerken (106) mit Restnetzwerken (ResNet) (106a), Inception (106b) und Mobile Net (106c) erstellt wird.system after claim 1 , the plurality of trained networks (106) being created with residual networks (ResNet) (106a), inception (106b) and mobile net (106c). System nach Anspruch 4, wobei das ResNet (106a) eine Vielzahl von Faltungsschichten, eine Average-Pool- und eine Max-Pool-Schicht aufweist und eine Gleitkommaoperation von 3,8x109 hat, wobei das ResNet (106a) eine Vielzahl von verschiedenen Kerneln mit Strides der Größe 2 hat, jeder mit einer Kernelgröße von 7x7, wobei eine Schicht einen Max-Pool mit einem Stride der Größe 2 hat.system after claim 4 , where the ResNet (106a) has a variety of convolutional layers, an average pool and a max pool layer, and has a floating point operation of 3.8x109, where the ResNet (106a) has a variety of different kernels with strides of size 2 each with a kernel size of 7x7, with one tier having a max pool with a stride of size 2. System nach Anspruch 4, wobei die Inception (106b) ein Bilderkennungsmodul ist, das aus einer Vielzahl von Schichten besteht und niedrigere Fehlerraten aufweist, um die Rechenleistung zu verringern, wenn die Anzahl der Parameter in einem Netzwerk reduziert wird.system after claim 4 , where the inception (106b) is an image recognition engine composed of multiple layers and has lower error rates to reduce computational power when the number of parameters in a network is reduced. System nach Anspruch 6, wobei die Inception (106b) verschiedene Größen von Faltungskernen hat, die es ihr ermöglichen, ein rezeptives Feld mit verschiedenen räumlichen Frequenzen zu besitzen, bevor sie sich schließlich verbindet, um den Entwurfsraum des Netzwerks zu verdichten, was die Integration von Merkmalen auf verschiedenen Skalen ermöglicht, wobei die Inception (106b) eine Stapel-Normalisierungsschicht als Regularisierer zwischen einem Hilfsklassifikator und den voll verbundenen Schichten einfügt.system after claim 6 , where the Inception (106b) has different sizes of convolution kernels that allow it to possess a receptive field of different spatial frequencies, before finally combining to condense the design space of the network, allowing the integration of features at different scales where the inception (106b) inserts a stack normalization layer as a regularizer between an auxiliary classifier and the fully connected layers. System nach Anspruch 6, wobei die Gittergröße der Inception reduziert wird, um die Aktivierungsdimension der Netzwerkfilter durch Verkettung der Pooling-Schicht und zweier paralleler Faltungsblöcke zu erhöhen.system after claim 6 , where the grid size of the inception is reduced to increase the activation dimension of the network filters by concatenating the pooling layer and two parallel convolution blocks. System nach Anspruch 4, wobei das Mobile Netz (106c) ein neuronales Faltungsnetz zur Merkmalsextraktion, Objekterkennung und Segmentierung ist, das mehrere tiefe Schichten für verschiedene visuelle Erkennungsaufgaben mit zwei verschiedenen Arten von Blöcken, einem Verkleinerungsblock der Größe stride 2 und einem Restblock von strides1, aufweist, wobei das Mobile Netz mehrere Schichten für beide Arten von Blöcken aufweist.system after claim 4 , wherein the Mobile Network (106c) is a convolutional neural network for feature extraction, object recognition and segmentation, having several deep layers for different visual recognition tasks with two different types of blocks, a reduction block of size stride 2 and a remainder block of strides1, where the Mobile network has multiple layers for both types of blocks. System nach Anspruch 9, wobei das Faltungsnetzwerk eine erste Schicht einer gleichgerichteten linearen Aktivierungsfunktion (ReLU) in 1x1-Faltung, eine zweite Schicht einer tiefenweisen Faltung und eine dritte Schicht einer 1×1-Faltung ohne die Nichtlinearität aufweist.system after claim 9 , wherein the convolutional network comprises a first layer of a rectified linear activation function (ReLU) in 1x1 convolution, a second layer of depth-wise convolution, and a third layer of 1x1 convolution without the non-linearity.
DE202022106317.6U 2022-11-10 2022-11-10 A system for classifying melanoma images Active DE202022106317U1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE202022106317.6U DE202022106317U1 (en) 2022-11-10 2022-11-10 A system for classifying melanoma images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE202022106317.6U DE202022106317U1 (en) 2022-11-10 2022-11-10 A system for classifying melanoma images

Publications (1)

Publication Number Publication Date
DE202022106317U1 true DE202022106317U1 (en) 2022-12-01

Family

ID=84534262

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202022106317.6U Active DE202022106317U1 (en) 2022-11-10 2022-11-10 A system for classifying melanoma images

Country Status (1)

Country Link
DE (1) DE202022106317U1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8543519B2 (en) 2000-08-07 2013-09-24 Health Discovery Corporation System and method for remote melanoma screening
US10176574B2 (en) 2016-02-19 2019-01-08 International Business Machines Corporation Structure-preserving composite model for skin lesion segmentation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8543519B2 (en) 2000-08-07 2013-09-24 Health Discovery Corporation System and method for remote melanoma screening
US10176574B2 (en) 2016-02-19 2019-01-08 International Business Machines Corporation Structure-preserving composite model for skin lesion segmentation

Similar Documents

Publication Publication Date Title
US11170502B2 (en) Method based on deep neural network to extract appearance and geometry features for pulmonary textures classification
DE60130742T2 (en) Pattern recognition with hierarchical networks
Ahmmed et al. Classification of tumors and it stages in brain MRI using support vector machine and artificial neural network
Ilhan et al. A fully automated hybrid human sperm detection and classification system based on mobile-net and the performance comparison with conventional methods
Huang et al. Time-efficient sparse analysis of histopathological whole slide images
DE112018000349T5 (en) Visual analysis system for convolutional neural network based classifiers
US20170249739A1 (en) Computer analysis of mammograms
CN109886273A (en) A kind of CMR classification of image segmentation system
DE102018129424A1 (en) SYSTEM AND METHOD FOR LEARNING THE STRUCTURE OF DEEP NEURONAL NETWORKS
DE102006010607A1 (en) Object localization method, involves calculating probability values for limitation boxes in input image based on probability that object is arranged in these locations, and selecting box with highest probability as location of object
CN106023065A (en) Tensor hyperspectral image spectrum-space dimensionality reduction method based on deep convolutional neural network
DE112017005651T5 (en) Device for classifying data
Abed et al. A modern deep learning framework in robot vision for automated bean leaves diseases detection
DE102021116436A1 (en) Method and device for data-free post-training network quantization and generation of synthetic data based on a pre-trained machine learning model
DE202022101590U1 (en) A system for classifying remotely sensed imagery using fused convolution features with machine learning
Pal et al. Enhanced bag of features using alexnet and improved biogeography-based optimization for histopathological image analysis
Chala et al. An automatic retinal vessel segmentation approach based on Convolutional Neural Networks
Xiang et al. A novel weight pruning strategy for light weight neural networks with application to the diagnosis of skin disease
Gheisari et al. Convolutional deep belief network with feature encoding for classification of neuroblastoma histological images
DE202022103523U1 (en) A classification system for diabetic foot ulcers
CN114049935A (en) HER2 image classification system based on multi-convolution neural network
Pattanaik et al. ILCAN: a new vision attention-based late blight disease localization and classification
DE202022106317U1 (en) A system for classifying melanoma images
DE202022105962U1 (en) A blade damage detection system based on shape
DE202022107266U1 (en) A face recognition system to distinguish between similar faces

Legal Events

Date Code Title Description
R207 Utility model specification
R082 Change of representative

Representative=s name: LIPPERT STACHOW PATENTANWAELTE RECHTSANWAELTE , DE