DE202022106114U1 - System based on deep learning to detect Alzheimer's disease - Google Patents
System based on deep learning to detect Alzheimer's disease Download PDFInfo
- Publication number
- DE202022106114U1 DE202022106114U1 DE202022106114.9U DE202022106114U DE202022106114U1 DE 202022106114 U1 DE202022106114 U1 DE 202022106114U1 DE 202022106114 U DE202022106114 U DE 202022106114U DE 202022106114 U1 DE202022106114 U1 DE 202022106114U1
- Authority
- DE
- Germany
- Prior art keywords
- data
- disease
- alzheimer
- brain
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 208000024827 Alzheimer disease Diseases 0.000 title claims abstract description 63
- 238000013135 deep learning Methods 0.000 title claims abstract description 27
- 238000002595 magnetic resonance imaging Methods 0.000 claims abstract description 50
- 210000004556 brain Anatomy 0.000 claims abstract description 36
- 238000000605 extraction Methods 0.000 claims abstract description 12
- 238000012552 review Methods 0.000 claims abstract description 5
- 238000001514 detection method Methods 0.000 claims description 9
- 238000011176 pooling Methods 0.000 claims description 7
- 230000007935 neutral effect Effects 0.000 claims description 3
- 238000000034 method Methods 0.000 description 39
- 239000010410 layer Substances 0.000 description 34
- 238000013527 convolutional neural network Methods 0.000 description 13
- 201000010099 disease Diseases 0.000 description 11
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 11
- 238000012549 training Methods 0.000 description 10
- 230000008901 benefit Effects 0.000 description 9
- 238000003745 diagnosis Methods 0.000 description 8
- 230000009471 action Effects 0.000 description 7
- 238000012706 support-vector machine Methods 0.000 description 7
- 238000013459 approach Methods 0.000 description 6
- 238000013434 data augmentation Methods 0.000 description 6
- 238000013136 deep learning model Methods 0.000 description 6
- 238000013526 transfer learning Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 208000014644 Brain disease Diseases 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 230000035945 sensitivity Effects 0.000 description 4
- 210000005013 brain tissue Anatomy 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000002059 diagnostic imaging Methods 0.000 description 3
- 238000002599 functional magnetic resonance imaging Methods 0.000 description 3
- 210000001320 hippocampus Anatomy 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000002610 neuroimaging Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000000638 solvent extraction Methods 0.000 description 3
- 230000005856 abnormality Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 239000000090 biomarker Substances 0.000 description 2
- 210000004958 brain cell Anatomy 0.000 description 2
- 201000004559 cerebral degeneration Diseases 0.000 description 2
- 230000006378 damage Effects 0.000 description 2
- 230000003412 degenerative effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000002598 diffusion tensor imaging Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000004884 grey matter Anatomy 0.000 description 2
- 230000012010 growth Effects 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 230000000971 hippocampal effect Effects 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 208000015122 neurodegenerative disease Diseases 0.000 description 2
- 230000000926 neurological effect Effects 0.000 description 2
- 230000007170 pathology Effects 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000002603 single-photon emission computed tomography Methods 0.000 description 2
- 238000010561 standard procedure Methods 0.000 description 2
- 210000000225 synapse Anatomy 0.000 description 2
- 238000002560 therapeutic procedure Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 208000000044 Amnesia Diseases 0.000 description 1
- 206010012289 Dementia Diseases 0.000 description 1
- 208000031124 Dementia Alzheimer type Diseases 0.000 description 1
- 208000026139 Memory disease Diseases 0.000 description 1
- 208000012902 Nervous system disease Diseases 0.000 description 1
- 238000012356 Product development Methods 0.000 description 1
- 206010038743 Restlessness Diseases 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000001594 aberrant effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 210000000481 breast Anatomy 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 210000003710 cerebral cortex Anatomy 0.000 description 1
- 210000001175 cerebrospinal fluid Anatomy 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000001054 cortical effect Effects 0.000 description 1
- 230000007850 degeneration Effects 0.000 description 1
- 230000005786 degenerative changes Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000002405 diagnostic procedure Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000013399 early diagnosis Methods 0.000 description 1
- 210000001353 entorhinal cortex Anatomy 0.000 description 1
- 230000001073 episodic memory Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000008014 freezing Effects 0.000 description 1
- 238000007710 freezing Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 210000002216 heart Anatomy 0.000 description 1
- 230000004217 heart function Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 238000009607 mammography Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000006984 memory degeneration Effects 0.000 description 1
- 208000023060 memory loss Diseases 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000013425 morphometry Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 230000006886 spatial memory Effects 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 210000004885 white matter Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01R—MEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
- G01R33/00—Arrangements or instruments for measuring magnetic variables
- G01R33/20—Arrangements or instruments for measuring magnetic variables involving magnetic resonance
- G01R33/44—Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
- G01R33/48—NMR imaging systems
- G01R33/54—Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
- G01R33/56—Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
- G01R33/5608—Data processing and visualization specially adapted for MR, e.g. for feature analysis and pattern recognition on the basis of measured MR data, segmentation of measured MR data, edge contour detection on the basis of measured MR data, for enhancing measured MR data in terms of signal-to-noise ratio by means of noise filtering or apodization, for enhancing measured MR data in terms of resolution by means for deblurring, windowing, zero filling, or generation of gray-scaled images, colour-coded images or images displaying vectors instead of pixels
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/40—Detecting, measuring or recording for evaluating the nervous system
- A61B5/4076—Diagnosing or monitoring particular conditions of the nervous system
- A61B5/4088—Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Theoretical Computer Science (AREA)
- Animal Behavior & Ethology (AREA)
- Heart & Thoracic Surgery (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Veterinary Medicine (AREA)
- Epidemiology (AREA)
- Surgery (AREA)
- Neurology (AREA)
- Primary Health Care (AREA)
- Radiology & Medical Imaging (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- Psychiatry (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- High Energy & Nuclear Physics (AREA)
- Physiology (AREA)
- Psychology (AREA)
- Image Analysis (AREA)
- Neurosurgery (AREA)
- Developmental Disabilities (AREA)
Abstract
Ein auf tiefem Lernen basierendes System zur Erkennung der Alzheimer-Krankheit, wobei das System umfasst:
eine Aufnahmeeinheit, die so konfiguriert ist, dass sie Bilder der Magnetresonanztomographie (MRI) des Gehirns eines Patienten aufnimmt;
eine Merkmalsextraktionseinheit, die mit der Erfassungseinheit verbunden ist, um Merkmale aus den erfassten MRI-Bildern des Gehirns zu extrahieren;
eine Klassifizierungseinheit, die so konfiguriert ist, dass sie die aus den MRI-Bildern des Gehirns des Patienten extrahierten Merkmale mit den Merkmalen von MRI-Bildern einer normalen Person vergleicht und klassifiziert;
eine Datenbankeinheit, die mit der Klassifizierungseinheit verbunden ist, um Daten der Alzheimer-Krankheit zu speichern, die von der Klassifizierungseinheit klassifiziert wurden, wobei es einem Benutzer erlaubt ist, erfasste Daten, die sich auf die Alzheimer-Krankheit beziehen, zu überprüfen, herunterzuladen und zu aktualisieren; und
eine Datenerweiterungseinheit, die so konfiguriert ist, dass sie die Größe und Menge der in der Datenbankeinheit gespeicherten Daten erhöht, indem sie die Datenpunkte aus den vorhandenen Daten erzeugt, wobei die Datenpunkte aus den vorhandenen Daten erzeugt werden, indem geringfügige Änderungen vorgenommen werden.
A deep learning-based system for detecting Alzheimer's disease, the system comprising:
an acquisition unit configured to acquire magnetic resonance imaging (MRI) images of a patient's brain;
a feature extraction unit connected to the acquisition unit to extract features from the acquired MRI images of the brain;
a classification unit configured to compare and classify the features extracted from the MRI images of the patient's brain with the features of MRI images of a normal person;
a database unit connected to the classification unit for storing Alzheimer's disease data classified by the classification unit, allowing a user to review, download and collect data related to Alzheimer's disease to update; and
a data extension unit configured to increase the size and amount of data stored in the database unit by creating the data points from the existing data, wherein the data points are created from the existing data by making minor changes.
Description
BEREICH DER ERFINDUNGFIELD OF THE INVENTION
Die vorliegende Erfindung bezieht sich allgemein auf das Gebiet eines auf Deep Learning basierenden Systems zur Erkennung der Alzheimer-Krankheit.The present invention relates generally to the field of a deep learning based system for detecting Alzheimer's disease.
HINTERGRUND DER ERFINDUNGBACKGROUND OF THE INVENTION
Die Alzheimer-Krankheit (AD) ist eine neurologische, degenerative Hirnerkrankung, die tödlich verläuft. Eine frühzeitige Erkennung der Alzheimer-Krankheit kann eine wirksame Therapie ermöglichen und die Degeneration des Gehirns aufhalten. Unzählige statistische und Deep-Learning-Ansätze wurden von Forschern ausprobiert, um die Alzheimer-Krankheit zu untersuchen. Die Auswertung von Magnetresonanztomographien (MRT) ist ein Standardverfahren in der klinischen Forschung zur Diagnose der Alzheimer-Krankheit. Die Charakterisierung der Alzheimer-Krankheit wird durch die Konvergenz zwischen MRT-Daten von Veteranen, die an der Krankheit leiden, und MRT-Daten von Erwachsenen mittleren Alters bei normaler Gesundheit immer schwieriger. Verbesserte Deep-Learning-Algorithmen, die das menschliche Niveau postulieren, kommen in verschiedenen Bereichen zum Einsatz, darunter auch in der medizinischen Bildverarbeitung.Alzheimer's disease (AD) is a neurological, degenerative brain disease that is fatal. Early detection of Alzheimer's disease can provide effective therapy and halt brain degeneration. Countless statistical and deep learning approaches have been tried by researchers to study Alzheimer's disease. The evaluation of magnetic resonance imaging (MRI) is a standard procedure in clinical research to diagnose Alzheimer's disease. Characterizing Alzheimer's disease has become increasingly difficult due to the convergence between MRI data from veterans who have the disease and MRI data from middle-aged adults in normal health. Enhanced human-level deep learning algorithms are being used in a variety of fields, including medical imaging.
Die Alzheimer-Krankheit ist eine neurologische, degenerative Hirnerkrankung, die tödlich verläuft. Eine frühzeitige Erkennung der Alzheimer-Krankheit kann eine wirksame Therapie ermöglichen und die Degeneration des Gehirns aufhalten. Unzählige statistische und Deep-Learning-Ansätze wurden von Forschern ausprobiert, um die Alzheimer-Krankheit zu untersuchen. Die Auswertung der Magnetresonanztomographie (MRT) ist ein Standardverfahren in der klinischen Forschung zur Diagnose der Alzheimer-Krankheit. Die Charakterisierung der Alzheimer-Krankheit wird durch die Konvergenz zwischen MRT-Daten von Veteranen, die an der Krankheit leiden, und MRT-Daten von Erwachsenen mittleren Alters bei normaler Gesundheit immer schwieriger. Verbesserte Deep-Learning-Algorithmen, die das menschliche Niveau postulieren, kommen in verschiedenen Bereichen zum Einsatz, darunter auch in der medizinischen Bildverarbeitung.Alzheimer's disease is a neurological, degenerative brain disease that is fatal. Early detection of Alzheimer's disease can provide effective therapy and halt brain degeneration. Countless statistical and deep learning approaches have been tried by researchers to study Alzheimer's disease. The evaluation of magnetic resonance imaging (MRI) is a standard procedure in clinical research to diagnose Alzheimer's disease. Characterizing Alzheimer's disease has become increasingly difficult due to the convergence between MRI data from veterans who have the disease and MRI data from middle-aged adults in normal health. Enhanced human-level deep learning algorithms are being used in a variety of fields, including medical imaging.
Die Alzheimer-Krankheit ist die am weitesten verbreitete Form der Demenz (AD). In den Industrieländern liegt die Wahrscheinlichkeit, an Alzheimer zu erkranken, bei alarmierenden 30 Prozent nach dem 85. Lebensjahr und bei etwa 5 Prozent nach dem 65. Für das Jahr 2050 wird vorausgesagt, dass 0.64 Milliarden Menschen auf der Welt an Alzheimer erkranken werden. Patienten, die an Alzheimer erkrankt sind, verlieren ihr Gedächtnis, ihre Sinneswahrnehmungen und ihre Fähigkeit, alltägliche Aktivitäten auszuführen, da die Krankheit zum Abbau von Gehirnzellen führt. Die erste Region des Gehirns, die von der Alzheimer-Krankheit betroffen ist, ist diejenige, die für Sprache und Gedächtnis zuständig ist. Das Ergebnis ist, dass Menschen mit Alzheimer Gedächtnisverlust, Orientierungslosigkeit und Schwierigkeiten beim Sprechen, Lesen und Schreiben erleben. Meistens sind sie desorientiert und können sogar ihre Familie und Freunde nicht mehr erkennen. Einfache Handlungen, wie das Reinigen der Zähne oder der Haare, fallen ihnen schwer. Alzheimer-Patienten werden unruhig, aggressiv und laufen aufgrund all dieser Faktoren eher von zu Hause weg. Letztendlich schädigt die Alzheimer-Krankheit den Teil des Gehirns, der die Atmung und die Herzfunktion steuert, was zum Tod führt.Alzheimer's disease is the most common form of dementia (AD). In developed countries, the probability of developing Alzheimer's is an alarming 30 percent after age 85 and about 5 percent after age 65. By 2050, it is predicted that 0.64 billion people in the world will develop Alzheimer's. Patients with Alzheimer's disease lose their memory, their senses and their ability to carry out everyday activities because the disease leads to the breakdown of brain cells. The first region of the brain to be affected by Alzheimer's disease is that responsible for language and memory. The result is that people with Alzheimer's experience memory loss, disorientation, and difficulty speaking, reading, and writing. Most of the time they are disoriented and even unable to recognize their family and friends. They find it difficult to do simple things like cleaning their teeth or hair. Alzheimer's patients become restless, aggressive, and more likely to run away from home because of all of these factors. Ultimately, Alzheimer's disease damages the part of the brain that controls breathing and heart function, leading to death.
Die Phasen der Alzheimer-Krankheit sind sehr leicht, leicht und schwer. Solange ein Patient noch nicht das mittlere Stadium der Krankheit erreicht hat, ist die Diagnose der Alzheimer-Krankheit (AD) noch nicht eindeutig. Für eine vollständige medizinische Beurteilung der Alzheimer-Krankheit muss sich der Patient einer körperlichen und neuro-radiologischen Diagnostik unterziehen, die Mini-Mental State Examination (MMSE) absolvieren und eine detaillierte Anamnese erheben. Die Kernspintomographie des Gehirns ist ein relativ neues Instrument, das Ärzte zur Erkennung der Alzheimer-Krankheit einsetzen. Die Ventrikel des Gehirns dehnen sich aus, während sich die Großhirnrinde und der Hippocampus zurückbilden. Der Teil des Gehirns, der für das episodische und räumliche Gedächtnis zuständig ist, heißt Hippocampus. Er fungiert auch als Bindeglied zwischen unserem Körper und unserem Verstand. Eine Verschlechterung des Hippocampus führt zum Verlust von Zellen und zur Schädigung von Synapsen über Synapsen. Infolgedessen sind Regionen des Gehirns, die mit dem Erinnern (Kurzzeitgedächtnis), dem Denken und der Planung zu tun haben, beeinträchtigt worden.The stages of Alzheimer's disease are very mild, mild and severe. Until a patient has reached the middle stage of the disease, the diagnosis of Alzheimer's disease (AD) is not definitive. For a complete medical assessment of Alzheimer's disease, the patient must undergo physical and neuro-radiological evaluation, complete the Mini-Mental State Examination (MMSE) and take a detailed medical history. Magnetic resonance imaging of the brain is a relatively new tool that doctors are using to detect Alzheimer's disease. The ventricles of the brain expand while the cerebral cortex and hippocampus shrink. The part of the brain responsible for episodic and spatial memory is called the hippocampus. It also acts as a link between our body and our mind. Deterioration of the hippocampus leads to the loss of cells and damage to synapses across synapses. As a result, regions of the brain related to remembering (short-term memory), thinking, and planning have become impaired.
Forscher haben eine Vielzahl computergestützter Diagnoseverfahren entwickelt, um die genaue Diagnose von Krankheiten zu unterstützen. Zwischen den 1970er und den 1990er Jahren wurden regelbasierte Expertensysteme und überwachte Modelle entwickelt. Medizinische Bilddaten werden verwendet, um Merkmalsvektoren für das Training überwachter Algorithmen zu extrahieren. Um einige Eigenschaften zu extrahieren, ist menschliches Wissen erforderlich, was viel Zeit, Geld und Mühe kosten kann. Seit der Entwicklung von Deep-Learning-Modellen können wir nun direkt Merkmale aus Fotos extrahieren, ohne die Hilfe von menschlichen Spezialisten. Wissenschaftler konzentrieren ihre Bemühungen auf die Entwicklung von Deep-Learning-Modellen für eine genaue Krankheitsdiagnose. MRT, Mikroskop, CT, Ultraschall, Röntgen und Mammographie sind nur einige der medizinischen Bildanalyseanwendungen, bei denen Deep Learning große Fortschritte gemacht hat. Der Einsatz von Deep-Learning-Modellen für die Segmentierung von Organen und Unterstrukturen, die Erkennung von Krankheiten und die Klassifizierung führte zu bemerkenswerten Entdeckungen in den Bereichen Pathologie, Gehirn, Lunge, Bauch, Herz, Brust, Knochen und Netzhaut.Researchers have developed a variety of computer-aided diagnostic methods to aid in the accurate diagnosis of diseases. Rule-based expert systems and supervised models were developed between the 1970s and 1990s. Medical image data is used to extract feature vectors for training supervised algorithms. Extracting some properties requires human knowledge, which can take a lot of time, money, and effort. Since the development of deep learning models, we can now directly extract features from photos without the help of human specialists. Scientists are focusing their efforts on developing deep learning models for accurate disease diagnosis. MRI, microscope, CT, ultrasound, X-ray and Mam mography are just some of the medical image analysis applications where deep learning has made great strides. The use of deep learning models for organ and substructure segmentation, disease detection and classification led to remarkable discoveries in the fields of pathology, brain, lung, abdomen, heart, breast, bone and retina.
In einer Lösung wird beschrieben, dass die Bedeutung physischer Veränderungen im Gehirn für die Frühdiagnose der Alzheimer-Krankheit zunimmt und zur Unterstützung klinischer Bewertungen genutzt werden kann. Die degenerativen Veränderungen im Gehirn, die mit der Alzheimer-Krankheit in Verbindung stehen, wurden von Forschern mit bildgebenden Verfahren gemessen. Anhand von Bildgebungsdaten und klinischen Beurteilungen wurden mit Hilfe von maschinellen Lernverfahren Klassifikatoren für die Alzheimer-Diagnose erstellt. In diesen Studien wurden große strukturelle Unterschiede zwischen den Gehirnen von Alzheimer-Patienten und Gesunden festgestellt, insbesondere im entorhinalen Kortex und in den Hippocampus-Regionen. Veränderungen im Hirngewebe könnten die Ursache für das unterschiedliche Verhalten von Alzheimer-Patienten sein. Darüber hinaus gibt es einen Zusammenhang zwischen dem Verhalten von Alzheimer-Patienten und Veränderungen in der Konnektivität des Hirngewebes. Bilder verschiedener bildgebender Verfahren wie Diffusions-Tensor-Imaging (DTI), Positions-Emissions-Tomographie (PET), Einzelphotonen-Emissions-Computertomographie (SPECT) sowie strukturelle und funktionelle Magnetresonanztomographie (sMRI, fMRI) zeigen die Veränderungen auf, die durch die ADbedingte Degeneration der Gehirnzellen entstehen. Neuroimaging-Methoden wurden in mehreren Untersuchungen zur Identifizierung der Alzheimer-Krankheit eingesetzt. So wurden beispielsweise zur Diagnose und Prognose der Alzheimer-Krankheit sMRI, fMRI, PET, SPECT und DTI eingesetzt. Um die Genauigkeit der Diagnose zu erhöhen, wurden auch Daten aus anderen Modalitäten kombiniert.One solution describes how physical changes in the brain are becoming increasingly important for early diagnosis of Alzheimer's disease and can be used to support clinical assessments. The degenerative changes in the brain associated with Alzheimer's disease have been measured by researchers using imaging techniques. Using imaging data and clinical assessments, machine learning techniques were used to create classifiers for the Alzheimer's diagnosis. These studies found major structural differences between the brains of Alzheimer's patients and healthy individuals, particularly in the entorhinal cortex and hippocampal regions. Changes in brain tissue could be the reason for the different behavior of Alzheimer's patients. In addition, there is a link between the behavior of Alzheimer's patients and changes in the connectivity of brain tissue. Images from various imaging methods such as diffusion tensor imaging (DTI), position emission tomography (PET), single photon emission computed tomography (SPECT) and structural and functional magnetic resonance imaging (sMRI, fMRI) show the changes caused by AD brain cell degeneration. Neuroimaging methods have been used in several studies to identify Alzheimer's disease. For example, sMRI, fMRI, PET, SPECT and DTI have been used to diagnose and prognosticate Alzheimer's disease. To increase the accuracy of the diagnosis, data from other modalities were also combined.
In einer anderen Lösung wird ein herkömmliches automatisiertes MRT-basiertes AD-Diagnosesystem vorgestellt, das hauptsächlich aus zwei Komponenten besteht: der Extraktion von Merkmalen/Biomarkern aus MRT-Daten und einem auf diesen Merkmalen/Biomarkern basierenden Klassifikator. Es gibt drei Hauptkategorien von Merkmalsextraktionstechniken: Voxel-basierte Verfahren, Region-of-Interest (ROI)-basierte Verfahren und Patch-basierte Verfahren. Voxelbasierte Verfahren sind unabhängig von einer strukturellen Hypothese des Gehirns. Die voxelbasierte Morphometrie bewertet beispielsweise die Dichte des lokalen Hirngewebes (z. B. weiße Substanz, graue Substanz und Liquor cerebrospinalis). Die Voxel-Intensitäten werden bei voxelbasierten Verfahren als Klassifizierungsmerkmal verwendet. Bei voxelbasierten Darstellungen ist die Interpretation der Daten einfach und intuitiv, aber sie leiden unter dem Problem der Überanpassung, da es nur wenige (Dutzende oder Hunderte) Teilnehmer mit sehr hochdimensionalen (Millionen) Merkmalen gibt, was ein großes Hindernis für die Alzheimer-Diagnose auf der Grundlage von Neuroimaging darstellt. Eine Dimensionalitätsreduktion ist erforderlich, um kompaktere und funktionelle Merkmale zu erhalten. Darüber hinaus leiden voxelbasierte Techniken unter einem Mangel an geografischem Wissen.In another solution, a conventional automated MRI-based AD diagnostic system is presented, which mainly consists of two components: the extraction of features/biomarkers from MRI data and a classifier based on these features/biomarkers. There are three main categories of feature extraction techniques: voxel-based methods, region-of-interest (ROI)-based methods, and patch-based methods. Voxel-based methods are independent of a structural hypothesis of the brain. For example, voxel-based morphometry assesses the density of local brain tissue (eg, white matter, gray matter, and cerebrospinal fluid). The voxel intensities are used as a classification feature in voxel-based methods. With voxel-based representations, the interpretation of the data is easy and intuitive, but they suffer from the problem of overfitting, as there are few (dozens or hundreds) participants with very high-dimensional (millions) features, posing a major obstacle to Alzheimer's diagnosis the basis of neuroimaging. Dimensionality reduction is required to obtain more compact and functional features. In addition, voxel-based techniques suffer from a lack of geographic knowledge.
In einer anderen Lösung wird eine auf der Region of Interest (ROI) basierende Technik vorgestellt, die repräsentative Merkmale aus jedem der physikalisch oder funktionell definierten Hirnbereiche extrahiert. Diese Arbeiten beruhen auf spezifischen Hypothesen über gestörte Hirnbereiche. So wurden beispielsweise das Volumen der grauen Substanz, das Volumen des Hippocampus und die Dicke der Kortikalis in mehreren Untersuchungen verwendet. Aufgrund der geringen Merkmalsdimensionalität und der Abdeckung des gesamten Gehirns werden häufig ROI-basierte Verfahren verwendet. Die abgeleiteten Merkmale in ROI-basierten Techniken sind jedoch grob, da sie keine winzigen oder subtilen Veränderungen im Zusammenhang mit Hirnerkrankungen erfassen können. Die strukturellen oder funktionellen Veränderungen des Gehirns, die aufgrund einer neurologischen Erkrankung auftreten, betreffen in der Regel viele Bereiche des Gehirns. Da abweichende Bereiche in einem einzigen ROI enthalten sein können oder sich über zahlreiche ROIs erstrecken, können voxelbasierte oder ROI-basierte Techniken krankheitsbedingte Pathologien nicht effektiv erfassen. Darüber hinaus erfordert die Bestimmung einer Region von Interesse (ROI) spezielle menschliche Fachkenntnisse. Patch-basierte Methoden unterteilen das gesamte Gehirnbild in kleine Patches und extrahieren daraus Merkmalsvektoren. Bei der Patch-Extraktion ist keine ROI-Identifizierung erforderlich; daher sind weniger Eingaben von menschlichen Experten nötig als bei ROI-basierten Verfahren. Patch-basierte Methoden können kleine Hirnveränderungen mit wesentlich geringerer Dimensionalität erfassen als voxelbasierte Ansätze. Patch-basierte Methoden lernen vom gesamten Gehirn und erfassen krankheitsbedingte Anomalien besser, was zu einer genaueren Diagnose führt. Die Auswahl aussagekräftiger Flecken aus MRT-Bildern und die Generierung von Unterscheidungsmerkmalen aus diesen Flecken bleibt jedoch eine Herausforderung.In another solution, a region of interest (ROI) based technique is presented that extracts representative features from each of the physically or functionally defined brain areas. This work is based on specific hypotheses about disturbed brain areas. For example, gray matter volume, hippocampal volume, and cortical thickness have been used in several studies. Due to the low feature dimensionality and the coverage of the whole brain, ROI-based methods are often used. However, the derived features in ROI-based techniques are crude as they cannot capture minute or subtle changes associated with brain diseases. The structural or functional changes in the brain that occur as a result of a neurological disorder usually affect many areas of the brain. Because aberrant regions can be contained within a single ROI or span multiple ROIs, voxel-based or ROI-based techniques cannot effectively capture disease-related pathologies. In addition, determining a region of interest (ROI) requires specific human expertise. Patch-based methods subdivide the entire brain image into small patches and extract feature vectors from them. Patch extraction does not require ROI identification; therefore, fewer inputs from human experts are required than with ROI-based methods. Patch-based methods can capture small brain changes with much lower dimensionality than voxel-based approaches. Patch-based methods learn from the whole brain and better capture disease-related abnormalities, leading to more accurate diagnosis. However, selecting meaningful spots from MRI images and generating distinguishing features from these spots remains a challenge.
Eine andere Lösung konzentriert sich auf die Entwicklung fortgeschrittener Modelle des maschinellen Lernens zur Diagnose der Alzheimer-Krankheit anhand von MRT-Daten. Zu den weit verbreiteten Ansätzen gehören Support Vector Ma- chin (SVM), logistische Regressoren (z. B. Lasso und Elastic Net), sparse representation-based classification (SRC), random forest classifier usw. Kloppel et al. setzten beispielsweise lineare SVM ein, um Alzheimer-Patienten anhand von T1-gewichteten MRT-Scans zu erkennen. Aversen analysierte strukturelle MRI-Daten mit Hilfe von Dimensionalitätsreduktion und Variationsansätzen. Zur Erkennung von Alzheimer aus MRT-Scans verwendeten sie sowohl einen binären SVM-Klassifikator als auch einen Mehrklassen-Klassifikator. Zur Unterscheidung zwischen Alzheimer und gesunden Personen verwendeten Vemuri et al. SVM, um drei verschiedene Klassifikatoren auf der Grundlage von MRI-, demografischen und genetischen Daten zu erstellen. Gray erstellte ein multimodales Klassifizierungsmodell für die Alzheimer-Diagnose anhand von MRT- und PET-Daten unter Verwendung eines Random-Forest-Klassifikators. Für die AD-Klassifizierung verwendeten Er et al. den Ansatz der Graustufen-Ko-Occurrence-Matrix (GLCM). Morra et al. verglichen die Leistung von hierarchischem AdaBoost, SVM mit manuellen Merkmalen und SVM mit automatischen Merkmalen für die AD-Erkennung. MRT-Daten werden häufig zur Extraktion vorgegebener Merkmale für die Entwicklung dieser Klassifikatoren verwendet. Aufgrund der Heterogenität von Klassifikator und Merkmalen kann das Training eines Klassifikators unabhängig von der Merkmalsextraktion jedoch zu einer schlechteren Leistung führen.Another solution focuses on developing advanced machine learning models to diagnose Alzheimer's disease using MRI data. Among the widespread Approaches include Support Vector Machine (SVM), logistic regressors (e.g. Lasso and Elastic Net), sparse representation-based classification (SRC), random forest classifier, etc. Kloppel et al. For example, they used linear SVM to identify Alzheimer's patients from T1-weighted MRI scans. Aversen analyzed structural MRI data using dimensionality reduction and variational approaches. To detect Alzheimer's from MRI scans, they used both a binary SVM classifier and a multiclass classifier. To distinguish between Alzheimer's and healthy individuals, Vemuri et al. SVM to create three different classifiers based on MRI, demographic and genetic data. Gray created a multimodal classification model for Alzheimer's diagnosis from MRI and PET data using a random forest classifier. For the AD classification, Er et al. the grayscale co-occurrence matrix (GLCM) approach. Morra et al. compared the performance of hierarchical AdaBoost, SVM with manual features, and SVM with automatic features for AD detection. MRI data is often used to extract predetermined features for the development of these classifiers. However, due to the heterogeneity of classifier and features, training a classifier independently of feature extraction can result in poorer performance.
In einer anderen Lösung wird ein Deep-Learning-Modell offengelegt, das in letzter Zeit für seine Fähigkeit bekannt geworden ist, Merkmalsdarstellungen aus Eingabedaten zu extrahieren. Deep-Learning-Netze erfassen schrittweise abstrakte Merkmalsrepräsentationen aus Eingabedaten unter Verwendung einer geschichteten, hierarchischen Struktur. Deep-Learning-Architekturen lernen einfache, niedrigstufige Merkmale aus Daten und erzeugen dann komplizierte hochstufige Merkmale in einer Hierarchie. Die Identifizierung visueller Objekte, die Erkennung menschlicher Handlungen, die Verarbeitung natürlicher Sprache, die Verfolgung von Objekten, die Wiederherstellung von Bildern, Diagnosen, Segmentierungsaufgaben, die Klassifizierung von Audiodaten und die Interaktion zwischen Gehirn und Computer sind nur einige der Bereiche, in denen Deep-Learning-Methoden revolutionäre Leistungen erbracht haben. Deep-Learning-Modelle, insbesondere Faltungsneuronale Netze (CNNs), haben in den letzten Jahren im Bereich der medizinischen Bildgebung große Leistungen gezeigt, insbesondere in den Bereichen Segmentierung, Erkennung, Registrierung und Klassifizierung. Deep-Learning-Methoden können die latente oder versteckte Darstellung in Neuroimaging-Daten aufdecken und krankheitsbezogene Anomalien effizient erfassen. Daher haben Forscher in letzter Zeit damit begonnen, Deep-Learning-Modelle für die Diagnose von Alzheimer und anderen Hirnerkrankungen einzusetzen.Another solution discloses a deep learning model that has recently gained notoriety for its ability to extract feature representations from input data. Deep learning networks progressively capture abstract feature representations from input data using a layered, hierarchical structure. Deep learning architectures learn simple, low-level features from data and then generate complicated high-level features in a hierarchy. Visual object identification, human action recognition, natural language processing, object tracking, image recovery, diagnostics, segmentation tasks, audio data classification, and brain-computer interaction are just a few of the areas where deep- Learning methods have achieved revolutionary achievements. Deep learning models, especially convolutional neural networks (CNNs), have shown great achievements in the field of medical imaging in recent years, especially in the areas of segmentation, detection, registration, and classification. Deep learning methods can reveal the latent or hidden representation in neuroimaging data and efficiently capture disease-related abnormalities. As a result, researchers have recently started using deep learning models to diagnose Alzheimer's and other brain diseases.
Eine andere Lösung ist eine auf Transferlernen basierende Methode zur Alzheimer-Diagnose anhand von MRT-Bildern. Die Hypothese lautet, dass die Übernahme einer robusten und bewährten Architektur für natürliche Bilder und die Anwendung von Transferlernen mit intelligenter Auswahl von Trainingsdaten nicht nur die Genauigkeit eines Modells verbessern, sondern auch die Abhängigkeit von einer großen Trainingsmenge verringern kann. Die Hypothese wurde mit detaillierten Experimenten am ADNI-Benchmark-Datensatz validiert, bei dem MRT-Scans von 50 Probanden aus jeder Kategorie von AD, MCI und NC (insgesamt 150 Probanden) verwendet wurden, um Genauigkeitsdaten zu erhalten. Sie haben auch untersucht, ob schichtweises Transferlernen ihre Anwendung beeinflusst, indem sie schrittweise Gruppen von Schichten in der Architektur einfrieren, und präsentieren detaillierte Ergebnisse des schichtweisen Transferlernens und dessen Beziehung zur Größe der Trainingsdaten. Schließlich präsentieren sie vergleichende Ergebnisse mit sechs anderen State-of-the-Art-Methoden, bei denen die von ihnen vorgeschlagene Methode die anderen deutlich übertrifft und eine um 4 Prozent bzw. 7 Prozent höhere Genauigkeit gegenüber dem Stand der Technik für AD vs. MCI und MCI vs. NC-Klassifizierungsprobleme liefert. Sie berichten auch über 3-Wege-Klassifikationsergebnisse, die den Stand der Technik erreichen und die Robustheit der vorgeschlagenen Methode beweisen.Another solution is a method based on transfer learning to diagnose Alzheimer's using MRI images. The hypothesis is that adopting a robust and proven natural imagery architecture and applying transfer learning with intelligent selection of training data can not only improve the accuracy of a model, but also reduce dependence on a large training set. The hypothesis was validated with detailed experiments on the ADNI benchmark dataset, which used MRI scans from 50 subjects from each category of AD, MCI, and NC (150 subjects total) to obtain accuracy data. They have also investigated whether layer-by-layer transfer learning affects their application by stepwise freezing groups of layers in the architecture, and present detailed results of layer-by-layer transfer learning and its relation to training data size. Finally, they present comparative results with six other state-of-the-art methods, where the method they propose significantly outperforms the others and has a 4 percent and 7 percent higher accuracy over the prior art for AD vs. MCI, respectively and provides MCI vs. NC classification problems. They also report 3-way classification results that reach the state of the art and prove the robustness of the proposed method.
In einer anderen Lösung wurde eine Deep-Learning-Methode mit einem 8-schichtigen 3D-Faltungsnetzwerk (3D Con- vNet) für das automatische Lernen von Merkmalen und die Klassifizierung der Alzheimer-Krankheit getestet. Die Ergebnisse haben gezeigt, dass das vorgeschlagene Verfahren einfach und effektiv für den ADNI-Datensatz ist, der 1198 MRT-Gehirnscans von 199 AD-Patienten und 141 NC-Probanden enthält. Unter Verwendung der Strategie der zufälligen Datenpartitionierung hat das vorgeschlagene Schema eine Genauigkeit von 98.74% im Testdatensatz erreicht, mit 100% für die AD-Erkennung bei einem Fehlalarm von 2.4%. Die Ergebnisse der empirischen Studie haben auch gezeigt, dass die Auswahl der Hyperparameter, die Vorverarbeitung, die Partitionierung der Daten nach Probanden und die Größe des Datensatzes einen Einfluss auf die endgültige Leistung des Deep-Learning-Klassifikators haben können. Schließlich haben Vergleiche mit 7 State-of-the-Art-Methoden die Robustheit des vorgeschlagenen 3D-ConvNet-Schemas und der Architektur weiter unterstützt. Weitere Studien werden an großen Datensätzen mit subjektgetrennten Datenpartitionierungstests durchgeführt.In another solution, a deep learning method using an 8-
Die bestehenden Technologien bieten keine Lösung für das Problem der Erkennung der Alzheimer-Krankheit in ihrem Frühstadium. Daher besteht ein dringender Bedarf, dieses Problem durch die Entwicklung eines auf Deep Learning basierenden Systems zur Erkennung von Alzheimer zu lösen.Existing technologies do not offer a solution to the problem of detecting Alzheimer's disease in its early stages. Therefore, there is an urgent need to solve this problem by developing a deep learning-based Alzheimer's detection system.
ZUSAMMENFASSUNG DER ERFINDUNGSUMMARY OF THE INVENTION
Die vorliegende Erfindung offenbart ein auf tiefem Lernen basierendes System zur Erkennung der Alzheimer-Krankheit. Das auf tiefem Lernen basierende System umfasst: eine Erfassungseinheit, die so konfiguriert ist, dass sie Magnetresonanztomographie-Bilder (MRI) des Gehirns eines Patienten erfasst; eine Merkmalsextraktionseinheit, die mit der Erfassungseinheit verbunden ist, um Merkmale aus den erfassten MRI-Bildern des Gehirns zu extrahieren; eine Klassifizierungseinheit, die so konfiguriert ist, dass sie die aus den MRI-Bildern des Gehirns des Patienten extrahierten Merkmale mit den Merkmalen von MRI-Bildern einer normalen Person vergleicht und klassifiziert; eine Datenbankeinheit, die mit der Klassifizierungseinheit verbunden ist, um Daten der Alzheimer-Krankheit, die von der Klassifizierungseinheit klassifiziert wurden, zu speichern, wobei es einem Benutzer erlaubt ist, erfasste Daten, die sich auf die Alzheimer-Krankheit beziehen, zu überprüfen, herunterzuladen und zu aktualisieren; und eine Datenvergrößerungseinheit, die so konfiguriert ist, dass sie die Größe und Menge der in der Datenbankeinheit gespeicherten Daten vergrößert, indem sie die Datenpunkte aus den vorhandenen Daten erzeugt, wobei die Datenpunkte aus den vorhandenen Daten erzeugt werden, indem geringfügige Änderungen vorgenommen werden.The present invention discloses a deep learning based system for detecting Alzheimer's disease. The deep learning based system includes: an acquisition unit configured to acquire magnetic resonance imaging (MRI) images of a patient's brain; a feature extraction unit connected to the acquisition unit to extract features from the acquired MRI images of the brain; a classification unit configured to compare and classify the features extracted from the MRI images of the patient's brain with the features of MRI images of a normal person; a database unit connected to the classification unit to store data of Alzheimer's disease classified by the classification unit, allowing a user to review collected data related to Alzheimer's disease, download and update; and a data augmentation unit configured to augment the size and amount of data stored in the database unit by creating the data points from the existing data, wherein the data points are created from the existing data by making minor changes.
Ein Ziel der vorliegenden Erfindung ist es, ein auf Deep Learning basierendes System zur Erkennung der Alzheimer-Krankheit zu entwickeln.An aim of the present invention is to develop a system for detecting Alzheimer's disease based on deep learning.
Ein weiteres Ziel der vorliegenden Erfindung ist die Entwicklung eines kostengünstigen, auf Deep Learning basierenden Systems zur Erkennung der Alzheimer-Krankheit.Another object of the present invention is to develop a low-cost, deep learning-based system for detecting Alzheimer's disease.
Um die Vorteile und Merkmale der vorliegenden Erfindung weiter zu verdeutlichen, wird eine genauere Beschreibung der Erfindung durch Bezugnahme auf bestimmte Ausführungsformen davon, die in den beigefügten Figuren dargestellt sind, gegeben. Es wird davon ausgegangen, dass diese Figuren nur typische Ausführungsformen der Erfindung darstellen und daher nicht als Einschränkung ihres Umfangs zu betrachten sind. Die Erfindung wird mit zusätzlicher Spezifität und Detail mit den beigefügten Figuren beschrieben und erläutert werden.In order to further clarify the advantages and features of the present invention, a more detailed description of the invention will be given by reference to specific embodiments thereof illustrated in the accompanying figures. It is understood that these figures represent only typical embodiments of the invention and therefore should not be considered as limiting its scope. The invention will be described and illustrated with additional specificity and detail with the accompanying figures.
Figurenlistecharacter list
Diese und andere Merkmale, Aspekte und Vorteile der vorliegenden Erfindung werden besser verstanden, wenn die folgende detaillierte Beschreibung mit Bezug auf die beigefügten Figuren gelesen wird, in denen gleiche Zeichen gleiche Teile in den Figuren darstellen, wobei:
-
1 ein Blockdiagramm eines auf Deep Learning basierenden Systems zur Erkennung der Alzheimer-Krankheit zeigt; und -
2 eine tabellarische Darstellung zeigt, in der die in einer CNN-Einheit (Convolutional Neutral Network) verwendeten Parameter definiert sind.
-
1 Figure 12 shows a block diagram of a deep learning based system for detecting Alzheimer's disease; and -
2 Figure 12 shows a tabular representation defining the parameters used in a CNN (Convolutional Neutral Network) entity.
Der Fachmann wird verstehen, dass die Elemente in den Figuren der Einfachheit halber dargestellt sind und nicht unbedingt maßstabsgetreu gezeichnet wurden. Die Flussdiagramme veranschaulichen beispielsweise das Verfahren in Form der wichtigsten Schritte, die zum besseren Verständnis der Aspekte der vorliegenden Erfindung beitragen. Darüber hinaus kann es sein, dass eine oder mehrere Komponenten der Vorrichtung in den Figuren durch herkömmliche Symbole dargestellt sind, und dass die Figuren nur die spezifischen Details zeigen, die für das Verständnis der Ausführungsformen der vorliegenden Erfindung relevant sind, um die Figuren nicht mit Details zu überfrachten, die für Fachleute, die mit der vorliegenden Beschreibung vertraut sind, ohne weiteres erkennbar sind.Those skilled in the art will understand that the elements in the figures are presented for simplicity and are not necessarily drawn to scale. For example, the flow charts illustrate the method in terms of the most important steps that help to better understand aspects of the present invention. Furthermore, one or more components of the device may be represented in the figures by conventional symbols, and the figures only show the specific details relevant to an understanding of the embodiments of the present invention, omitting the figures with details overload, which will be readily apparent to those skilled in the art familiar with the present specification.
AUSFÜHRLICHE BESCHREIBUNGDETAILED DESCRIPTION
Um das Verständnis der Erfindung zu fördern, wird nun auf die in den Figuren dargestellte Ausführungsform Bezug genommen und diese mit bestimmten Worten beschrieben. Es versteht sich jedoch von selbst, dass damit keine Einschränkung des Umfangs der Erfindung beabsichtigt ist, wobei solche Änderungen und weitere Modifikationen des dargestellten Systems und solche weiteren Anwendungen der darin dargestellten Grundsätze der Erfindung in Betracht gezogen werden, wie sie einem Fachmann auf dem Gebiet der Erfindung normalerweise einfallen würden.For the purposes of promoting an understanding of the invention, reference will now be made to the embodiment illustrated in the figures and specific language will be used to describe the same. It should be understood, however, that no limitation on the scope of the invention is intended, and such alterations and further modifications to the illustrated system and such further applications of the principles of the invention set forth therein are contemplated as would occur to those skilled in the art invention would normally come to mind.
Der Fachmann wird verstehen, dass die vorstehende allgemeine Beschreibung und die folgende detaillierte Beschreibung beispielhaft und erläuternd für die Erfindung sind und nicht als einschränkend angesehen werden.Those skilled in the art will understand that the foregoing general description and the following detailed description are exemplary and explanatory of the invention and are not to be taken as limiting.
Wenn in dieser Beschreibung von „einem Aspekt“, „einem anderen Aspekt“ oder ähnlichem die Rede ist, bedeutet dies, dass ein bestimmtes Merkmal, eine bestimmte Struktur oder eine bestimmte Eigenschaft, die im Zusammenhang mit der Ausführungsform beschrieben wird, in mindestens einer Ausführungsform der vorliegenden Erfindung enthalten ist. Daher können sich die Ausdrücke „in einer Ausführungsform“, „in einer anderen Ausführungsform“ und ähnliche Ausdrücke in dieser Beschreibung alle auf dieselbe Ausführungsform beziehen, müssen es aber nicht.When this specification refers to "an aspect,""anotheraspect," or the like, it means that a particular feature, structure, or characteristic described in connection with the embodiment is at least at least one embodiment of the present invention. Therefore, the phrases "in one embodiment,""in another embodiment," and similar phrases throughout this specification may or may not all refer to the same embodiment.
Die Ausdrücke „umfasst“, „enthaltend“ oder andere Variationen davon sollen eine nicht ausschließliche Einbeziehung abdecken, so dass ein Verfahren oder eine Methode, die eine Liste von Schritten umfasst, nicht nur diese Schritte einschließt, sondern auch andere Schritte enthalten kann, die nicht ausdrücklich aufgeführt sind oder zu einem solchen Verfahren oder einer solchen Methode gehören. Ebenso schließen eine oder mehrere Vorrichtungen oder Teilsysteme oder Elemente oder Strukturen oder Komponenten, die mit „umfasst...a“ eingeleitet werden, nicht ohne weitere Einschränkungen die Existenz anderer Vorrichtungen oder anderer Teilsysteme oder anderer Elemente oder anderer Strukturen oder anderer Komponenten oder zusätzlicher Vorrichtungen oder zusätzlicher Teilsysteme oder zusätzlicher Elemente oder zusätzlicher Strukturen oder zusätzlicher Komponenten aus.The terms "comprises," "including," or other variations thereof are intended to cover non-exclusive inclusion, such that a method or method that includes a list of steps includes not only those steps, but may also include other steps that are not expressly stated or pertaining to any such process or method. Likewise, any device or subsystem or element or structure or component preceded by "comprises...a" does not, without further limitation, exclude the existence of other devices or other subsystem or other element or other structure or other component or additional device or additional subsystems or additional elements or additional structures or additional components.
Sofern nicht anders definiert, haben alle hierin verwendeten technischen und wissenschaftlichen Begriffe die gleiche Bedeutung, wie sie von einem Fachmann auf dem Gebiet, zu dem diese Erfindung gehört, allgemein verstanden wird. Das System und die Beispiele hierin sind nur illustrativ und nicht als einschränkend gedacht.Unless otherwise defined, all technical and scientific terms used herein have the same meaning as commonly understood by one skilled in the art to which this invention pertains. The system and examples herein are intended to be illustrative only and not limiting.
Ausführungsformen der vorliegenden Erfindung werden im Folgenden unter Bezugnahme auf die beigefügten Figuren im Detail beschrieben.Embodiments of the present invention are described in detail below with reference to the attached figures.
In einer anderen Ausführungsform dienen die von der Erfassungseinheit (102) aufgenommenen MRT-Bilder des Gehirns als Eingabe zur Erkennung der Alzheimer-Krankheit.In another embodiment, the MRI images of the brain acquired by the acquisition unit (102) serve as input for the detection of Alzheimer's disease.
In einer anderen Ausführungsform ist die Merkmalsextraktionseinheit (104) so konfiguriert, dass sie Merkmale aus den MRI-Bildern unter Verwendung einer CNN-Einheit (112) extrahiert.In another embodiment, the feature extraction unit (104) is configured to extract features from the MRI images using a CNN unit (112).
In einer anderen Ausführungsform umfasst die CNN-Einheit (112) eine Faltungsschicht, eine Pooling-Schicht, eine vollständig verbundene Schicht und einen Klassifikator, wobei die Faltungsschicht so konfiguriert ist, dass sie Merkmale aus den erfassten Bildern extrahiert.In another embodiment, the CNN entity (112) comprises a convolution layer, a pooling layer, a fully connected layer, and a classifier, where the convolution layer is configured to extract features from the captured images.
In einer anderen Ausführungsform ist die Pooling-Schicht so konfiguriert, dass sie die Anzahl der Merkmale in der Faltungsschicht reduziert.In another embodiment, the pooling layer is configured to reduce the number of features in the convolution layer.
In einer anderen Ausführungsform ist die vollständig verknüpfte Schicht so konfiguriert, dass sie die extrahierten Merkmale reduziert und die extrahierten Merkmale in eine Spaltenmerkmalskarte umwandelt, die den Parameter auf einen idealen Wert verdichtet.In another embodiment, the fully linked layer is configured to reduce the extracted features and convert the extracted features into a column feature map that condenses the parameter to an ideal value.
In einer anderen Ausführungsform ist der Klassifikator der CNN-Einheit so konfiguriert, dass er die Alzheimer-Krankheit erkennt.In another embodiment, the classifier of the CNN unit is configured to detect Alzheimer's disease.
In einer anderen Ausführungsform ist die typischste Technik zur Beschreibung des Produktdesigns, der Architektur, der Module, der Schnittstellen und der Informationen für ein Schema zur Erfüllung bestimmter Anforderungen das Schema-Design. Der Einsatz von Schemata sollte offensichtlich sein, da die Anwendung von Schemata eine Hypothese für die Produktentwicklung ist. Wir speichern die krankheitsbezogenen Informationen in der Cloud. Die Informationsgrenzen, die die Alzheimer-Krankheit beeinflussen, werden verwendet, um herauszufinden, ob die Person Alzheimer hat. Das Erwartungsmodell wird dann in die Cloud übertragen, so dass Spezialisten auf der ganzen Welt auf die Vorhersagen zugreifen können. Dies ist in
In einer anderen Ausführungsform bilden zwei tiefe neuronale Faltungsnetze mit leicht unterschiedlichen Einstellungen das von uns vorgeschlagene Netz. Wir haben die von uns gewählte Architektur und das Design des vorgeschlagenen Systems sorgfältig geprüft. Alle Modelle folgen demselben architektonischen Rahmen, der aus vier primären Operationen besteht, darunter Faltung, Pooling, gleichgerichtete lineare Einheit und Stapelnormalisierung.In another embodiment, two deep convolutional neural networks with slightly different settings form the network we propose. We carefully considered the architecture we chose and the design of the proposed system. All models follow the same architectural framework consisting of four primary operations including convolution, pooling, rectified linear unit, and stack normalization.
In einer anderen Ausführungsform wurde in dieser Studie der Alzheimer-MRT-Bilddatensatz aus dem OASIS-Repository verwendet. Das Repository bietet Zugang zu diesem Datensatz. Die Sammlung umfasst MRT-Gehirnscans, die von gesunden Menschen und Menschen mit Alzheimer-Krankheit aufgenommen wurden. In diesem Bericht werden nur MRT-Bilder für die Klassifizierung verwendet. Es besteht keine Notwendigkeit, den Datensatz manuell zu trennen, da er bereits das Train Set und das Test Set enthält. Der OASIS-Datensatz für diese Studie wurde von Dr. Randy Buckner vom Howard Hughes Medical Institute (HHMI) der Harvard University, der Neuroinformatic Research Group (NRG) der Washington University School of Medicine und dem Biomedical Informatics Research Network (BIRN) erstellt. Es handelt sich um 416 Patienten im Alter von 18 bis 96 Jahren, von denen jeder drei oder vier T1-gewichtete sMRI-Bilder hat. Der Datensatz enthält Hunderte von Menschen mit leichter bis schwerer Alzheimer-Krankheit, die alle über 60 Jahre alt sind.In another embodiment, the Alzheimer's MRI image data set from the OASIS repository was used in this study. The repository provides access to this dataset. The collection includes MRI brain scans taken from healthy people and people with Alzheimer's disease. Only MRI images are used for classification in this report. There is no need to manually separate the data set as it already contains the train set and the test set. The OASIS dataset for this study was created by Dr. Randy Buckner of Harvard University's Howard Hughes Medical Institute (HHMI), the Washington University School of Medicine's Neuroinformatic Research Group (NRG), and the Biomedical Informatics Research Network (BIRN). There are 416 patients aged 18 to 96 years, each with three or four T1-weighted sMRI images. The dataset includes hundreds of people with mild to severe Alzheimer's disease, all over the age of 60.
In einer anderen Ausführungsform wird eine Datenvergrößerungseinheit verwendet, die in der Lage ist, die Datenmenge künstlich zu vergrößern, indem sie neue Datenpunkte aus vorhandenen Daten erzeugt. Zur Vergrößerung des Datensatzes können geringfügige Änderungen an den Daten vorgenommen oder maschinelle Lernmodelle verwendet werden, um neue Datenpunkte im latenten Raum der ursprünglichen Daten zu erzeugen. Nachfolgend sind die Schritte eines allgemeinen Datenvergrößerungsprozesses aufgeführt: Die Datenvergrößerungspipeline empfängt die Eingabedaten; die Datenvergrößerungspipeline ist durch die Reihenfolge gekennzeichnet, in der die verschiedenen Vergrößerungen durchgeführt werden; das Bild wird in die Pipeline eingespeist und in jeder Phase mit einer bestimmten Wahrscheinlichkeit verarbeitet; nach der Verarbeitung des Bildes prüft ein menschlicher Experte die vergrößerten Ergebnisse nach dem Zufallsprinzip und gibt Eingaben ein; die vergrößerten Daten können nach der menschlichen Überprüfung für den Trainingsprozess verwendet werden. Um die Überanpassung beim Training neuronaler Netze zu minimieren, wird der Datensatz durch klassenerhaltende Störungen einzelner Daten künstlich vergrößert. Die reproduzierbaren Störungen ermöglichen die Entwicklung zusätzlicher Muster, ohne die semantische Bedeutung des Bildes zu beeinträchtigen. Da es im medizinischen Bereich aufgrund der begrenzten Verfügbarkeit von Expertenwissen schwierig ist, manuell weitere getaggte Fotos zu finden, ist die Datenerweiterung eine zuverlässige Methode zur Vergrößerung des Datensatzes. Für unser Projekt haben wir eine auf Beschneidung basierende Erweiterungsstrategie für jedes Bild entwickelt. Die Dimension des Ausschnitts wird so festgelegt, dass sie der Dimension des vorgeschlagenen Deep CNN-Klassifikators entspricht.In another embodiment, a data augmentation unit capable of artificially increasing the amount of data by creating new data points from existing data is used. Minor changes can be made to the data to increase the data set, or machine learning models can be used to create new data points in the latent space of the original data. Below are the steps of a general data augmentation process: The data augmentation pipeline receives the input data; the data growth pipeline is characterized by the order in which the various growths are performed; the image is fed into the pipeline and processed at each stage with a certain probability; after processing the image, a human expert randomly examines the magnified results and provides input; the augmented data can be used for the training process after human verification. To minimize overfitting when training neural networks, the data set is artificially enlarged by class-preserving perturbations of individual data. The reproducible perturbations allow the development of additional patterns without affecting the semantic meaning of the image. Since it is difficult to manually find more tagged photos in the medical field due to the limited availability of expert knowledge, data augmentation is a reliable method to increase the size of the dataset. For our project, we developed a cropping-based enhancement strategy for each image. The dimension of the slice is set to match the dimension of the proposed Deep CNN classifier.
In einer anderen Ausführungsform werden die Unterschiede zwischen 2D- und 3D-CNNs konstruiert. Bei der Klassifizierung von MRT-Scans durch 2D- und 3D-CNNs (für 3D-CNNs) werden Scheiben oder volumetrische Abschnitte mit 2D- bzw. 3D-Faltungskernen klassifiziert. Bei 2D-CNNs erzielen die Faltungskerne die für die Klassifizierung erforderlichen Messungen der Schichthöhe und -breite, indem sie ein ganzes Volumen von MRT-Prognosen Schicht für Schicht erfassen. Andererseits sind 2D-CNNs darauf beschränkt, einzelne Schichten als Eingaben zu verwenden, und sind nicht in der Lage, Kontext aus verbundenen Schichten zu liefern. Dies bedeutet, dass Voxeldaten aus verknüpften Schichten verwendet werden können, um die Ergebnisse von MRT-Scans vorherzusagen. 3D-CNNs lösen dieses Problem, indem sie volumetrische Patches von Scans mit 3D-Faltungskernen klassifizieren. Obwohl die Verwendung von Informationen zwischen den Schichten die Leistung steigern kann, ist sie mit höheren Rechenkosten verbunden, da diese CNNs viele Parameter verwenden.In another embodiment, the differences between 2D and 3D CNNs are constructed. When classifying MRI scans by 2D and 3D CNNs (for 3D CNNs), slices or volumetric sections are classified using 2D and 3D convolution kernels, respectively. In 2D CNNs, the convolution kernels achieve the slice height and width measurements required for classification by acquiring a whole volume of MRI predictions slice by slice. On the other hand, 2D CNNs are limited to using single layers as inputs and are unable to extract context from connected layers to deliver. This means that voxel data from linked slices can be used to predict the results of MRI scans. 3D CNNs solve this problem by classifying volumetric patches from scans with 3D convolution kernels. Although using information between layers can increase performance, it comes with higher computational costs because these CNNs use many parameters.
In einer anderen Ausführungsform sind die vier grundlegenden Aktionen in
In einer anderen Ausführungsform wird das Transferlernen offengelegt, eine Technik des tiefen Lernens, bei der ein zuvor trainiertes Modell wiederverwendet wird. Die Abbildung zeigt das grundlegende Konzept des Transferlernens. Der Trick besteht darin, die gelernten Informationen auf eine relativ einfache Aufgabe (in diesem Fall die Kategorisierung von MS aus HC) mit einer geringen Datenmenge zu „übertragen“, indem man ein ziemlich schwieriges und erfolgreich vortrainiertes Modell, wie ImageNet, verwendet, das aus vielen Quelldaten trainiert wurde. „Für eine erfolgreiche Übertragung sind diese drei Eigenschaften unerlässlich: Das Zielmodell muss möglicherweise nur die letzten Schichten des vortrainierten Modells neu trainieren, da wir davon ausgehen, dass die letzten Schichten die komplexen Identifizierungsaufgaben übernehmen. Die ersten Schichten des vortrainierten Modells können als Merkmalsextraktoren betrachtet werden, die dabei helfen, Low-Level-Merkmale wie Kanten, Farbtöne, Flecken, Schattierungen und Texturen zu extrahieren. Die letzten Schichten des vortrainierten Modells können die komplexen Identifizierungsaufgaben übernehmen.In another embodiment, transfer learning is disclosed, a deep learning technique that reuses a previously trained model. The figure shows the basic concept of transfer learning. The trick is to "transfer" the learned information to a relatively simple task (in this case categorizing MS from HC) with a small amount of data, using a fairly difficult and successfully pre-trained model, like ImageNet, which consists of many source data was trained. “These three properties are essential for a successful transfer: The target model may only need to retrain the last layers of the pre-trained model, since we assume that the last layers handle the complex identification tasks. The first layers of the pre-trained model can be viewed as feature extractors that help extract low-level features such as edges, tints, spots, shading, and textures. The last layers of the pre-trained model can take over the complex identification tasks.
In einer anderen Ausführungsform wurden zwei Arten von CNN-Modellen für 10 Epochen trainiert. Die Leistung dieser Modelle wurde dann anhand der Validierungsgruppe bewertet. Die Unterschiede zwischen den 2D-CNN wurden anhand von Spezifität, Sensitivität, Genauigkeit, Receiver Operating Characteristic Curves (ROCs) und Area under Curves (AUCs) dargestellt, um zu ermitteln, welche Methode die zuverlässigsten und effizientesten Ergebnisse liefert. Der beste Arbeitspunkt der ROC-Kurve wird verwendet, um alle Ergebnisse der Genauigkeit, Sensitivität und Spezifität für die binäre Klassifizierung anzugeben. Genauigkeit, positiver prädiktiver Wert (PPV) oder Präzision, Sensitivität oder Recall und das harmonische Mittel von Präzision und Sensitivität sind die vier Metriken, die für die quantitative Bewertung und den Vergleich verwendet werden (f1-Score). Als True Positive, True Negative, False Positive bzw. False Negative bezeichnen wir TP, TN, FP und FN. Im vorgeschlagenen System ist die CNN-Einheit in der Lage, beim Training für den MRT-Datensatz eine gute Genauigkeit zu liefern. Daher wird zum Testen weiterhin ein CNN verwendet.In another embodiment, two types of CNN models were trained for 10 epochs. The performance of these models was then evaluated against the validation group. The differences between the 2D-CNN were presented using specificity, sensitivity, accuracy, receiver operating characteristic curves (ROCs) and area under curves (AUCs) to determine which method provides the most reliable and efficient results. The best working point of the ROC curve is used to report all accuracy, sensitivity and specificity results for the binary classification. Accuracy, positive predictive value (PPV) or precision, sensitivity or recall, and the harmonic mean of precision and sensitivity are the four metrics used for quantitative assessment and comparison (f1 score). We refer to TP, TN, FP and FN as true positive, true negative, false positive and false negative. In the proposed system, the CNN unit is able to provide good accuracy when training on the MRI data set. Therefore, a CNN is still used for testing.
Die Figuren und die vorangehende Beschreibung geben Beispiele für Ausführungsformen. Der Fachmann wird verstehen, dass eines oder mehrere der beschriebenen Elemente durchaus zu einem einzigen Funktionselement kombiniert werden können. Alternativ dazu können bestimmte Elemente in mehrere Funktionselemente aufgeteilt werden. Elemente aus einer Ausführungsform können einer anderen Ausführungsform hinzugefügt werden. Die Reihenfolge der hier beschriebenen Prozesse kann beispielsweise geändert werden und ist nicht auf die hier beschriebene Weise beschränkt. Darüber hinaus müssen die Aktionen eines Flussdiagramms nicht in der gezeigten Reihenfolge ausgeführt werden; auch müssen nicht unbedingt alle Aktionen durchgeführt werden. Auch können die Handlungen, die nicht von anderen Handlungen abhängig sind, parallel zu den anderen Handlungen ausgeführt werden. Der Umfang der Ausführungsformen ist durch diese spezifischen Beispiele keineswegs begrenzt. Zahlreiche Variationen sind möglich, unabhängig davon, ob sie in der Beschreibung explizit aufgeführt sind oder nicht, wie z. B. Unterschiede in der Struktur, den Abmessungen und der Verwendung von Materialien. Der Umfang der Ausführungsformen ist mindestens so groß wie in den folgenden Ansprüchen angegeben.The figures and the preceding description give examples of embodiments. Those skilled in the art will understand that one or more of the elements described may well be combined into a single functional element. Alternatively, certain elements can be broken down into multiple functional elements. Elements from one embodiment may be added to another embodiment. For example, the order of the processes described herein may be changed and is not limited to the manner described herein. Additionally, the actions of a flowchart need not be performed in the order shown; Also, not all actions have to be carried out. Also, the actions that are not dependent on other actions can be performed in parallel with the other actions. The scope of the embodiments is in no way limited by these specific examples. Numerous variations are possible, regardless of whether they are explicitly mentioned in the description or not, e.g. B. Differences in structure, dimensions and use of materials. The scope of the embodiments is at least as broad as indicated in the following claims.
Vorteile, andere Vorzüge und Problemlösungen wurden oben im Hinblick auf bestimmte Ausführungsformen beschrieben. Die Vorteile, Vorzüge, Problemlösungen und Komponenten, die dazu führen können, dass ein Vorteil, ein Nutzen oder eine Lösung auftritt oder ausgeprägter wird, sind jedoch nicht als kritisches, erforderliches oder wesentliches Merkmal oder Komponente eines oder aller Ansprüche zu verstehen.Advantages, other benefits, and solutions to problems have been described above with respect to particular embodiments. However, the advantages, benefits, problem solutions and components that can cause an advantage, benefit or solution to occur or become more pronounced are not to be considered critical, necessary or essential To understand feature or component of any or all claims.
BezugszeichenlisteReference List
- 100100
- Ein auf tiefem Lernen basierendes System (100) zur Erkennung der Alzheimer-KrankheitA deep learning-based system (100) for detecting Alzheimer's disease
- 102102
- Erfassungseinheitregistration unit
- 104104
- Einheit zur MerkmalsextraktionFeature extraction unit
- 106106
- Klassifizierungseinheitclassification unit
- 108108
- Datenbank-Einheitdatabase unit
- 110110
- Einheit zur DatenerweiterungData expansion unit
Claims (7)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE202022106114.9U DE202022106114U1 (en) | 2022-10-31 | 2022-10-31 | System based on deep learning to detect Alzheimer's disease |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE202022106114.9U DE202022106114U1 (en) | 2022-10-31 | 2022-10-31 | System based on deep learning to detect Alzheimer's disease |
Publications (1)
Publication Number | Publication Date |
---|---|
DE202022106114U1 true DE202022106114U1 (en) | 2022-11-11 |
Family
ID=84283261
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE202022106114.9U Active DE202022106114U1 (en) | 2022-10-31 | 2022-10-31 | System based on deep learning to detect Alzheimer's disease |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE202022106114U1 (en) |
-
2022
- 2022-10-31 DE DE202022106114.9U patent/DE202022106114U1/en active Active
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109376751B (en) | Human brain function network classification method based on convolutional neural network | |
DE102015212953B4 (en) | Artificial neural networks for the classification of medical image data sets | |
DE102015217429A1 (en) | Diagnostic system and diagnostic procedure | |
DE202018006897U1 (en) | Dynamic, self-learning system for medical images | |
EP3545468A1 (en) | Method and a system for creating a medical image database by means of a convolutional neural network | |
DE102006010607A1 (en) | Object localization method, involves calculating probability values for limitation boxes in input image based on probability that object is arranged in these locations, and selecting box with highest probability as location of object | |
DE102008002882A1 (en) | System and method for data acquisition, processing and display influenced by electronic medical records | |
DE102004057026A1 (en) | Acquisition of temporal image changes and presentation method and apparatus | |
DE102018108072A1 (en) | Device, method and program for classifying medical images | |
WO2019091509A1 (en) | Method for analyzing the skin appearance of a human being in the context of skin cancer screening and apparatus for carrying out same | |
DE112021004926T5 (en) | PICTURE CODING DEVICE, PICTURE CODING METHOD, PICTURE CODING PROGRAM, PICTURE DECODING DEVICE, PICTURE DECODING METHOD, PICTURE DECODING PROGRAM, PICTURE PROCESSING DEVICE, LEARNING DEVICE, LEARNING METHOD, TEACHING PROGRAM, SIMILAR PICTURE SEARCH DEVICE, SIMILAR PICTURE SEARCH METHOD, AND SIMILAR PICTURE SEARCH PROGRAM LIGHT PICTURES | |
DE112019005902T5 (en) | SIMILARITY DETERMINATION DEVICE, SIMILARITY DETERMINATION METHOD, AND SIMILARITY DETERMINATION PROGRAM | |
DE202022103523U1 (en) | A classification system for diabetic foot ulcers | |
DE202024101629U1 (en) | System for a robust and hybrid deep ensemble framework enabling accurate prediction of attention deficit hyperactivity disorder with uncertainty quantification | |
Janghel | Deep-learning-based classification and diagnosis of Alzheimer's disease | |
Bansal et al. | An improved hybrid classification of brain tumor MRI images based on conglomeration feature extraction techniques | |
Ramanathan et al. | Alzheimer’s disease shape detection model in brain magnetic resonance images via whale optimization with kernel support vector machine | |
EP4016543A1 (en) | Method and device for the provision of medical information | |
DE102014201321A1 (en) | Determination of lesions in image data of an examination object | |
Yeung et al. | Pipeline comparisons of convolutional neural networks for structural connectomes: predicting sex across 3,152 participants | |
DE202023103114U1 (en) | An IoT-enabled brain tumor detection system utilizing a capsule network and an attention mechanism | |
DE69606999T2 (en) | METHOD AND DEVICE FOR IMAGE GENERATION | |
Salehi et al. | Deep convolutional neural networks for automated diagnosis of disc herniation on axial MRI | |
DE202023101413U1 (en) | A system for diagnosing hypertrophic cardiomyopathy using deep learning techniques | |
DE202022106114U1 (en) | System based on deep learning to detect Alzheimer's disease |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R207 | Utility model specification | ||
R082 | Change of representative |
Representative=s name: LIPPERT STACHOW PATENTANWAELTE RECHTSANWAELTE , DE |