DE102018205561A1 - Device for classifying signals - Google Patents
Device for classifying signals Download PDFInfo
- Publication number
- DE102018205561A1 DE102018205561A1 DE102018205561.0A DE102018205561A DE102018205561A1 DE 102018205561 A1 DE102018205561 A1 DE 102018205561A1 DE 102018205561 A DE102018205561 A DE 102018205561A DE 102018205561 A1 DE102018205561 A1 DE 102018205561A1
- Authority
- DE
- Germany
- Prior art keywords
- layer
- aggregation
- weights
- input
- classifier
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000001537 neural Effects 0.000 claims abstract description 27
- 230000004913 activation Effects 0.000 claims abstract description 20
- 210000001519 tissues Anatomy 0.000 claims abstract description 7
- 238000004590 computer program Methods 0.000 claims abstract description 4
- 230000002776 aggregation Effects 0.000 claims description 54
- 238000004220 aggregation Methods 0.000 claims description 54
- 230000015572 biosynthetic process Effects 0.000 claims description 9
- 230000000694 effects Effects 0.000 claims description 9
- 238000005755 formation reaction Methods 0.000 claims description 9
- 238000001514 detection method Methods 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 claims description 6
- 210000001525 Retina Anatomy 0.000 claims description 3
- 238000000034 method Methods 0.000 claims description 2
- 230000002950 deficient Effects 0.000 description 4
- 210000003284 Horns Anatomy 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2R,3R,4S,5R)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 206010012689 Diabetic retinopathy Diseases 0.000 description 1
- 241000269346 Siren Species 0.000 description 1
- 241000269400 Sirenidae Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000000875 corresponding Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000001000 micrograph Methods 0.000 description 1
- 229910052754 neon Inorganic materials 0.000 description 1
- GKAOGPIIYCISHV-UHFFFAOYSA-N neon(0) Chemical compound [Ne] GKAOGPIIYCISHV-UHFFFAOYSA-N 0.000 description 1
- 230000003287 optical Effects 0.000 description 1
- 230000036285 pathological change Effects 0.000 description 1
- 231100000915 pathological change Toxicity 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000001131 transforming Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G06F2218/12—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G06N3/045—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Computing arrangements based on biological models using neural network models
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Abstract
Vorrichtung (1) zur Klassifizierung eines Gewebes, umfassend ein künstliches neuronales Netzwerk (3) mit mindestens einer Faltungsschicht (31a-31e), wobei die Faltungsschicht (31a-31e) eine Mehrzahl von trainierbaren Faltungskernen (32a-32c) enthält und zu jedem Faltungskern (32a-32c) eine Aktivierungskarte (33a-33c) liefert, und der mindestens einen Faltungsschicht (31a-31e) mindestens eine Klassifikatorschicht (35a-35b) nachgeschaltet ist. Ferner betrifft die Erfindung eine Vorrichtung, ein Verfahren (100) zum Trainieren und Verfahren (200) zum Betreiben der Vorrichtung und ein zugehöriges Computerprogramm. A tissue classification apparatus (1) comprising an artificial neural network (3) having at least one folding layer (31a-31e), said folding layer (31a-31e) containing a plurality of trainable folding cores (32a-32c) and to each convolutional core (32a-32c) provides an activation card (33a-33c), and the at least one folding layer (31a-31e) at least one classifier layer (35a-35b) is connected downstream. Furthermore, the invention relates to a device, a method (100) for training and method (200) for operating the device and an associated computer program.
Description
Die vorliegende Erfindung betrifft eine Vorrichtung zur Klassifizierung von Signalen, welches beispielsweise auf Bilddaten oder auf Audiodaten anwendbar ist, ein Verfahren zum Trainieren und ein Verfahren zum Betreiben.The present invention relates to an apparatus for classifying signals applicable to, for example, image data or audio data, a method of training, and a method of operation.
Stand der TechnikState of the art
Bei der Auswertung beispielsweise von Bilddaten oder Audiodaten stellt sich immer wieder die Aufgabe, bestimmte Objekte oder andere Features in den Daten zu erkennen. Eine derartige Aufgabe ist für einen Computer anspruchsvoll, da die Bilddaten bzw. Audiodaten dem Computer zunächst nur als Zahlenwerte ohne tiefere Bedeutung vorliegen und einen Problemraum von hoher Dimensionalität aufspannen. Beispielsweise gibt es in der Größenordnung 1012 verschiedene Bilder in VGA-Auflösung (640x480 Pixel) mit 24 Bit Farbtiefe. Diese große Anzahl Bilder gilt es anhand des Gehalts an Objekten oder Features in größenordnungsmäßig 10-100 Klassen zu klassifizieren.When evaluating, for example, image data or audio data, it is always the task to recognize certain objects or other features in the data. Such a task is demanding for a computer, since the image data or audio data initially present to the computer only as numerical values without any deeper meaning and span a problem space of high dimensionality. For example, there are 10 12 different VGA resolution (640x480 pixels) images with 24 bit color depth. This large number of images should be classified based on the content of objects or features on the order of 10-100 classes.
Zur Bewältigung dieser Komplexität werden künstliche neuronale Netze eingesetzt. Derartige neuronale Netze können beispielsweise aus mehreren hintereinandergeschalteten Schichten bestehen, in denen die Dimensionalität der Aufgabe durch die Anwendung von Faltungskernen und durch Downsampling deutlich reduziert wird. Derartige neuronale Netze zeichnen sich weiterhin dadurch aus, dass die Daten massiv parallel verarbeitet werden. Die
Offenbarung der ErfindungDisclosure of the invention
Im Rahmen der Erfindung wurde eine Vorrichtung zur Klassifizierung eines Eingangssignals entwickelt. Diese Vorrichtung umfasst ein künstliches neuronales Netz mit mindestens einer Faltungsschicht. Die mindestens eine Faltungsschicht enthält eine Mehrzahl von trainierbaren Faltungskernen. Durch sukzessive Anwendung des jeweiligen Faltungskerns an allen möglichen Positionen in dem Eingangssignal entsteht zu jedem Faltungskern eine Aktivierungskarte, die diskreten Positionen in der Eingabe der mindestens einen Faltungsschicht jeweils einen Ausgabewert zuordnet. Dieser Ausgabewert ist ein Maß für die lokale Übereinstimmung der Eingabe mit dem jeweiligen Faltungskern.Within the scope of the invention, an apparatus for classifying an input signal has been developed. This device comprises an artificial neural network with at least one folding layer. The at least one folding layer contains a plurality of trainable folding cores. By successive application of the respective convolution kernel at all possible positions in the input signal, an activation card results for each convolution kernel, which in each case assigns an output value to discrete positions in the input of the at least one convolution layer. This output value is a measure of the local match of the input with the respective convolution kernel.
Dabei können durchaus mehrere Faltungsschichten in Reihe geschaltet sein. Beispielsweise kann eine erste Faltungsschicht, die Bilddaten als Eingangssignal erhält, eine Mehrzahl von Faltungskernen enthalten, die einfache geometrische Grundelemente von Objekten, wie beispielsweise Linien und Bögen, erkennen. Weitere Faltungsschichten können dann beispielsweise dazu ausgebildet sein, aus diesen Grundelementen zusammengesetzte einfache Objekte zu erkennen (etwa ein Haus, ein Verkehrszeichen oder ein Auto). Diese Information wiederum kann in weiteren Faltungsschichten genutzt werden, um beispielsweise komplexe Situationen zu erkennen, etwa eine aus mehreren Verkehrsteilnehmern, Verkehrszeichen und Gebäuden zusammengesetzte Verkehrssituation, in der beim zumindest teilautomatisierten Fahren die Vorfahrtlage zu ermitteln ist.It is quite possible that several folding layers are connected in series. For example, a first convolution layer that receives input image data may include a plurality of convolution kernels that recognize simple geometric primitives of objects, such as lines and arcs. Further folding layers can then be designed, for example, to recognize simple objects composed of these basic elements (for example a house, a traffic sign or a car). This information, in turn, can be used in further convolutional layers to detect, for example, complex situations, such as a traffic situation composed of several road users, traffic signs and buildings, in which the right-of-way position is to be determined during at least partially automated driving.
Wenn mehrere Faltungsschichten vorhanden sind, muss die Ausgabe einer Faltungsschicht nicht zwangsläufig nur an eine benachbarte Faltungsschicht weitergegeben werden, sondern kann auch direkt an nicht benachbarte Faltungsschichten weitergegeben werden.If multiple convolutional layers are present, the output of a convolutional layer need not necessarily be passed only to an adjacent convolutional layer, but may also be passed directly to non-adjacent convolutional layers.
Diese Verarbeitungskette ist nicht auf Bilddaten beschränkt, sondern kann genauso gut beispielsweise auch mit Audiodaten durchgeführt werden. Auch hier kann beispielsweise eine erste Faltungsschicht Faltungskerne zur Erkennung von Fahrgeräuschen anderer Verkehrsteilnehmer, Hupen und Martinshörnern beinhalten, und in einer späteren Faltungsschicht kann hieraus auf die Verkehrssituation als Ganzes geschlossen werden.This processing chain is not limited to image data, but can be performed just as well, for example, with audio data. Here too, for example, a first folding layer may include folding cores for detecting driving noises of other road users, horns and sirens, and in a later folding layer the traffic situation as a whole can be deduced therefrom.
Der mindestens einen Faltungsschicht, beispielsweise der letzten Faltungsschicht, ist mindestens eine Klassifikatorschicht nachgeschaltet, die ihre Eingabe mittels trainierbarer Gewichte auf einen Satz Wahrscheinlichkeiten dafür abbildet, dass die Eingabe zu einer von mehreren Klassen zugehörig ist. Beispielsweise kann eine Verkehrssituation als Ganzes dahingehend klassifiziert werden, ob das eigene Fahrzeug weiterfahren darf oder wartepflichtig ist. Ein Bild von Gewebe kann in der Zusammenschau aller mit der letzten Faltungsschicht erkannten komplexen Merkmale dahingehend bewertet werden, ob das Gewebe gesund oder krankhaft verändert ist. Ebenso kann ein Bild eines Bauteils dahingehend bewertet werden, ob es beschädigt ist oder nicht.The at least one convolution layer, for example the last convolution layer, is followed by at least one classifier layer, which maps its input by means of trainable weights to a set of probabilities for the input to belong to one of several classes. For example, a traffic situation as a whole can be classified as to whether the own vehicle may continue driving or is wartepflichtig. An image of tissue can be evaluated in the synopsis of all the complex features recognized by the last convolutional layer to determine if the tissue is healthy or diseased. Likewise, an image of a component can be evaluated as to whether it is damaged or not.
Die Ausgabe der mindestens einen Faltungsschicht ist zusätzlich in mindestens eine Aggregationsschicht geführt, welche dazu ausgebildet ist, jeder von der mindestens einen Faltungsschicht erhaltenen Aktivierungskarte mindestens einen Aggregationswert zuzuordnen.The output of the at least one folding layer is additionally guided into at least one aggregation layer, which is designed to assign at least one aggregation value to each activation card obtained from the at least one folding layer.
Wenn mehrere Faltungsschichten hintereinandergeschaltet sind, kann vorzugsweise die Ausgabe der letzten Faltungsschicht in die Aggregationsschicht geführt sein. Die Aggregationsschicht bewertet dann die gleiche Sachlage wie die Klassifikatorschicht, d.h., die Aktivierungskarten geben besonders genau an, welche Teilbereiche in dem Eingangssignal zu den von der Klassifikatorschicht ermittelten Wahrscheinlichkeiten beigetragen haben. Alternativ oder in Kombination kann jedoch auch die Ausgabe einer anderen Faltungsschicht in die Aggregationsschicht geführt sein.If several folding layers are connected in series, preferably the output of the last folding layer can be guided into the aggregation layer. The aggregation layer then assesses the same situation as the Classifier layer, ie, the activation cards indicate very precisely which partial areas in the input signal contributed to the probabilities determined by the classifier layer. Alternatively or in combination, however, the output of another folding layer can also be guided into the aggregation layer.
Es wurde erkannt, dass die Aggregationswerte eine Aussage darüber enthalten, welche Teilbereiche in dem Eingangssignal für die Klassifizierung des Eingangssignals durch die Klassifikatorschicht relevant gewesen sind. Auf diese Weise kann beispielsweise die Klassifizierung plausibilisiert werden. Weiterhin können beispielsweise bei einer Klassifizierung eines Bauteils als schadhaft oder bei einer Klassifizierung eines Gewebes als krankhaft verändert diejenigen Schadstellen, die für diese Beurteilung maßgeblich gewesen sind, identifiziert werden. Bei der Beurteilung einer Fahrsituation dahingehend, dass das eigene Fahrzeug wartepflichtig ist, kann dasjenige Fahrzeug identifiziert werden, auf das gewartet werden muss.It has been found that the aggregation values contain a statement as to which subregions in the input signal were relevant for the classification of the input signal by the classifier layer. In this way, for example, the classification can be made plausible. Furthermore, for example, in the case of a classification of a component as defective or in the case of a classification of a tissue as pathologically altered, those damaged areas which have been decisive for this assessment can be identified. When assessing a driving situation to the effect that the own vehicle is waiting, the vehicle to be maintained can be identified.
Die Aggregation bewirkt eine deutliche Verdichtung der von der Faltungsschicht gelieferten Information. Dies hat jedoch keine Auswirkungen auf die Genauigkeit der Klassifizierung durch die Klassifikatorschicht, da die Klassifikatorschicht nach wie vor die volle Information erhält.The aggregation causes a significant compression of the information provided by the folding layer. However, this does not affect the accuracy of the classifier class classification because the classifier layer still receives the full information.
Die Aussagekraft der Aggregationswerte in Bezug auf die von der Klassifikatorschicht vorgenommene Klassifizierung ist am größten, wenn die Klassifikatorschicht ihre Eingabe von der gleichen Faltungsschicht bezieht wie die Aggregationsschicht. Dies ist jedoch nicht zwingend. Beispielsweise kann es gewünscht sein, die Relevanz von Teilen des Eingangssignals auf einer feineren Abstraktionsebene zu analysieren als der Abstraktionsebene, die der Klassifikatorschicht zugeführt wird.The significance of the aggregation values with respect to the classification made by the classifier layer is greatest when the classifier layer gets its input from the same convolution layer as the aggregation layer. However, this is not mandatory. For example, it may be desirable to analyze the relevance of portions of the input signal at a finer level of abstraction than the level of abstraction applied to the classifier layer.
In einer besonders vorteilhaften Ausgestaltung der Erfindung ist eine Auswerteeinheit vorgesehen, die dazu ausgebildet ist, durch gewichtete Summation der von der mindestens einen Faltungsschicht erhaltenen Aktivierungskarten mit in der Aggregationsschicht hinterlegten Gewichten eine Relevanzkarte der Ausgabe der mindestens einen Faltungsschicht zu ermitteln. Diese Relevanzkarte ist genau auf der von der mindestens einen Faltungsschicht zuletzt untersuchten Ebene abstrahiert. Die Auswerteeinheit kann beispielsweise in die Aggregationsschicht integriert sein oder zusammen mit der Aggregationsschicht eine Baugruppe bilden.In a particularly advantageous embodiment of the invention, an evaluation unit is provided, which is designed to determine a relevance map of the output of the at least one folding layer by weighted summation of the activation cards obtained from the at least one folding layer with weights stored in the aggregation layer. This relevance map is abstracted exactly on the plane last examined by the at least one convolution layer. The evaluation unit can for example be integrated in the aggregation layer or form an assembly together with the aggregation layer.
Die Relevanzkarte ist insbesondere dann besonders einsichtig, wenn es sich bei dem zu klassifizierenden Eingangssignal um Bilddaten handelt. Sie ist jedoch nicht auf diesen Anwendungsfall beschränkt. Beispielsweise lässt sich eine visuell einsichtige Relevanzkarte auch für Audiodaten als Eingangssignal erzeugen, indem die Audiodaten in eine für den jeweiligen Anwendungsfall visuell einsichtige Darstellung transformiert werden. So lässt sich etwa das Signal einer Hupe bzw. eines Martinshorns in einer bildlichen Darstellung des Audiosignals im Frequenzraum leicht ausmachen.The relevance map is especially obvious when the input signal to be classified is image data. However, it is not limited to this use case. For example, a visually insightful relevance map can also be generated as an input signal for audio data by transforming the audio data into a visually intelligible representation for the respective application. Thus, for example, the signal of a horn or a siren in a visual representation of the audio signal in the frequency domain can be easily identified.
Da jede Faltungsschicht die Dimensionalität des Eingangssignals reduziert, wird die Relevanzkarte in der Regel von deutlich geringerer Dimensionalität sein als das Eingangssignal. Im Falle eines Bildes als Eingangssignal bedeutet dies beispielsweise, dass die Relevanzkarte von deutlich geringerer Pixelauflösung ist als das Originalbild. Die Relevanzkarte kann beispielsweise entsprechend hochskaliert werden, damit sie sich in einer für den Betrachter aussagekräftigen Weise über das Eingangssignal, also beispielsweise über das Originalbild, legen lässt. Das Hochskalieren kann beispielsweise durch bilineare Interpolation erfolgen.Because each convolution layer reduces the dimensionality of the input signal, the relevance map will typically be of significantly smaller dimensionality than the input signal. In the case of an image as an input signal, this means, for example, that the relevance map is of significantly lower pixel resolution than the original image. The relevance map, for example, can be scaled up accordingly, so that it can be laid out in a meaningful manner for the viewer on the input signal, so for example on the original image. The scaling can be done, for example, by bilinear interpolation.
In einer weiteren besonders vorteilhaften Ausgestaltung der Erfindung erhält die Auswerteeinheit mindestens eine von der Klassifikatorschicht ermittelte Wahrscheinlichkeit als Eingabe und berücksichtigt abhängig von dieser Wahrscheinlichkeit unterschiedliche in der Aggregationsschicht hinterlegte Gewichte. Auf diese Weise kann in der Relevanzkarte die aus den Aggregationswerten und Aktivierungskarten erhaltene Information mit der von der Klassifikatorschicht erhaltenen Klassifizierung dahingehend zusammengeführt werden, dass die für die Entscheidung relevanten Teile des Eingangssignals noch genauer umrissen werden.In a further particularly advantageous embodiment of the invention, the evaluation unit receives at least one probability determined by the classifier layer as input and, depending on this probability, considers different weights stored in the aggregation layer. In this way, in the relevance map, the information obtained from the aggregation values and activation maps can be merged with the classification obtained from the classifier layer so that the parts of the input signal that are relevant for the decision are more precisely outlined.
In einer weiteren besonders vorteilhaften Ausgestaltung der Erfindung ist die Aggregationsschicht auch als eine Klassifikatorschicht ausgebildet, die die Wahrscheinlichkeiten für die Zugehörigkeiten zu Klassen durch Gewichtung der Aggregationswerte mit trainierbaren Gewichten ermittelt. Auf diese Weise ist es zum einen möglich, diese Gewichte separat von der Klassifizierung durch die primär vorgesehene Klassifikatorschicht zu trainieren, damit sie anschließend für die Ermittlung der Relevanzkarte genutzt werden können. Die Erkennung relevanter Bereiche in dem Eingangssignal kann dann also von den gleichen Lerndaten profitieren, die auch beim Training der primär vorgesehenen Klassifikatorschicht zum Einsatz kommen. Zum anderen ist die Zusatzfunktion der Aggregationsschicht als Klassifikatorschicht nicht auf die Lernphase begrenzt. Vielmehr kann die auf diese Weise von der Aggregationsschicht erhaltene Klassifizierung genutzt werden, um die von der primär vorgesehenen Klassifikatorschicht erhaltene Klassifizierung zu plausibilisieren und eventuelle Fehlfunktionen zu erkennen. Dies ist beispielsweise wichtig in sicherheitskritischen Anwendungen, wie etwa der zumindest teilweise automatisierten Steuerung von Fahrzeugen im Straßenverkehr.In a further particularly advantageous embodiment of the invention, the aggregation layer is also designed as a classifier layer, which determines the probabilities for the affiliations to classes by weighting the aggregation values with trainable weights. In this way, it is possible, on the one hand, to train these weights separately from the classification by the classifier layer provided primarily so that they can subsequently be used to determine the relevance map. The recognition of relevant areas in the input signal can then benefit from the same learning data that is also used when training the classifier layer provided primarily. On the other hand, the additional function of the aggregation layer as a classifier layer is not limited to the learning phase. Rather, the classification obtained in this way by the aggregation layer can be used to make the classification obtained from the primary classifier layer plausible and to recognize possible malfunctions. This is important, for example, in safety-critical Applications, such as the at least partially automated control of vehicles in traffic.
Im Vergleich mit Lösungen, bei denen die Aggregationsschicht als einziger Klassifikator genutzt wird, liegt ein wichtiger Unterschied darin, dass die primär vorgesehene Klassifikatorschicht nach wie vor auf die volle von der Faltungsschicht gelieferte Information zurückgreift. Ist hingegen die Aggregationsschicht der einzige Klassifikator, so kann die Klassifikation nur noch mit der durch die Aggregation drastisch reduzierten Datenmenge arbeiten und wird deutlich weniger genau.In comparison with solutions that use the aggregation layer as the only classifier, one important difference is that the classifier layer primarily provided still relies on the full information provided by the convolution layer. If, on the other hand, the aggregation layer is the only classifier, the classification can only work with the amount of data drastically reduced by the aggregation and becomes significantly less accurate.
Die Aggregationsschicht kann beispielsweise dazu ausgebildet sein, mindestens einen Aggregationswert durch Summation und/oder durch Mittelwertbildung und/oder Maximalwertbildung und/oder Minimalwertbildung und/oder Varianzbildung und/oder Medianbildung und/oder Perzentilbildung über die in der Aktivierungskarte enthaltenen Werte zu ermitteln. Beispielsweise kann „global average pooling“, GAP, zum Einsatz kommen. Handelt es sich bei dem Eingangssignal beispielsweise um Bilddaten und ist der Faltungskern der Faltungsschicht zur Erkennung eines bestimmten Objekts ausgebildet, so ist das Ergebnis der Summation bzw. Mittelwertbildung unter anderem ein Maß dafür, wie viele Objekte dieser Art im Bildbereich insgesamt enthalten sind. Wird beispielsweise die Klassifizierung, dass ein Bild ein oder mehrere Objekte einer bestimmten Art enthält, nur auf ein einziges Vorkommen eines solchen Objekts gestützt, so ist diese Aussage weniger belastbar als wenn viele derartige Vorkommen zu dieser Entscheidung beigetragen haben. Dass viele Erkennungen allesamt fehlerhaft sind, ist unwahrscheinlicher als dass eine einzelne Erkennung fehlerhaft ist.The aggregation layer can be designed, for example, to determine at least one aggregation value by summation and / or by averaging and / or maximum value formation and / or minimum value formation and / or variance formation and / or median formation and / or percentile formation over the values contained in the activation card. For example, "global average pooling", GAP, can be used. If the input signal is, for example, image data and the convolution kernel of the convolution layer is designed to detect a particular object, the result of the summation or averaging is, among other things, a measure of how many objects of this kind are contained in the image area as a whole. For example, if the classification that an image contains one or more objects of a particular type is based on only a single occurrence of such an object, then that statement is less robust than if many such occurrences contributed to that decision. That many detections are all flawed is less likely than that a single detection is flawed.
Die Klassifikatorschicht kann beispielsweise mindestens eine vollvernetzte Schicht des künstlichen neuronalen Netzes umfassen. Eine solche vollvernetzte Schicht bestimmt mit Hilfe lernfähiger Gewichte, welche von der Faltungsschicht erkannten Merkmale besonders gut mit den bestimmten Klassen korrelieren. So kann beispielweise ein Vorfahrtsschild relevant zur Beurteilung der Frage sein, ob das eigene Fahrzeug in einer Verkehrssituation weiterfahren darf oder wartepflichtig ist, während eine Leuchtreklame hierfür irrelevant ist. Die Gewichte einer oder mehrerer vollvernetzter Schichten lassen sich in besonders einsichtiger Weise mit Lern-Daten trainieren.The classifier layer may comprise, for example, at least one fully crosslinked layer of the artificial neural network. Such a fully crosslinked layer determines, with the aid of learning weights, which features recognized by the folding layer correlate particularly well with the particular classes. Thus, for example, a right-of-way sign can be relevant for assessing whether the own vehicle may continue in a traffic situation or is in waiting, while a neon sign is irrelevant for this purpose. The weights of one or more fully networked layers can be trained in a particularly clear way with learning data.
In einer weiteren besonders vorteilhaften Ausgestaltung der Erfindung ist mindestens eine Anzeigeeinrichtung vorgesehen, die mindestens eine von der Klassifikatorschicht ermittelte Wahrscheinlichkeit, und/oder mindestens eine Relevanzkarte, als Eingabe erhält und an einen Benutzer der Vorrichtung ausgibt. Auf diese Weise kann beispielsweise studiert werden, wie sich eine Vorverarbeitung des Eingangssignals, eine Änderung der Beleuchtungsverhältnisse oder eine Änderung sonstiger Aufnahmebedingungen auswirken.In a further particularly advantageous embodiment of the invention, at least one display device is provided which receives at least one probability determined by the classifier layer and / or at least one relevance map as input and outputs it to a user of the device. In this way, for example, it is possible to study how preprocessing of the input signal, a change in the lighting conditions or a change in other recording conditions have an effect.
In einer weiteren besonders vorteilhaften Ausgestaltung der Erfindung weist mindestens eine Einrichtung zur physikalischen Erfassung des Eingangssignals mindestens einen Parameter auf, der sich auf den Prozess der Erfassung auswirkt. Es ist eine Feedback-Einrichtung vorgesehen, die dazu ausgebildet ist, aus der Relevanzkarte mindestens eine Stellgröße für den Parameter zu ermitteln.In a further particularly advantageous embodiment of the invention, at least one device for the physical detection of the input signal has at least one parameter which has an effect on the process of the detection. A feedback device is provided, which is designed to determine at least one manipulated variable for the parameter from the relevance card.
Ist das Eingangssignal beispielsweise ein Bildsignal, das über eine Kamera physikalisch erfasst wird, so hat beispielsweise die Belichtungseinstellung der Kamera einen Einfluss darauf, welche Merkmale des untersuchten Objekts in den Dynamikbereich des erhaltenen Bildsignals fallen. Über die Feedback-Einrichtung kann diese Belichtungseinstellung, oder auch ein beliebiger anderer Parameter der physikalischen Erfassung, dahingehend optimiert werden, dass von vornherein ein Hinblick auf die jeweilige Anwendung aussagekräftiges Eingangssignal aufgenommen wird. Beispielsweise kann ein Bild eines Bauteils mit einer Belichtungseinstellung aufgenommen werden, die den größten Teil des Bildes in die Sättigung zieht und dafür den Bereich einer vermuteten Schadstelle besonders kontrastreich herausarbeitet.For example, if the input signal is an image signal that is physically detected by a camera, the exposure setting of the camera has an influence on which features of the examined object fall within the dynamic range of the received image signal. Via the feedback device, this exposure setting, or also any other parameter of the physical detection, can be optimized in such a way that from the outset a meaningful input signal is recorded for the respective application. For example, an image of a component can be taken with an exposure setting that saturates the largest part of the image and, for this purpose, works out the area of a suspected damaged area in a particularly high-contrast manner.
Die Erfindung bezieht sich auch auf ein Verfahren zum Trainieren der Vorrichtung. Bei diesem Verfahren wird zunächst eine Mehrzahl von Lern-Eingangssignalen in das künstliche neuronale Netzwerk eingegeben. Die zu jedem Lern-Eingangssignal von der Klassifikatorschicht ermittelten Wahrscheinlichkeiten werden mit der bekannten Zugehörigkeit der Lern-Eingangssignale zu den Klassen verglichen. Mindestens ein trainierbarer Faltungskern in mindestens einer Faltungsschicht wird dahingehend angepasst, dass eine in dem Vergleich ermittelte Abweichung vermindert wird.The invention also relates to a method for training the device. In this method, a plurality of learning input signals are first input to the artificial neural network. The probabilities determined for each learning input signal from the classifier layer are compared with the known affiliation of the learning input signals to the classes. At least one trainable convolution kernel in at least one convolution layer is adapted to reduce a deviation determined in the comparison.
Weiterhin wird ein Satz Gewichte in der Aggregationsschicht hinterlegt, und es wird die Wirkung der Aggregationsschicht mit diesen Gewichten auf jedes Lern-Eingangssignal mit einem Gütemaß bewertet. Anschließend wird mindestens ein Gewicht in der Aggregationsschicht dahingehend angepasst, dass der Wert des Güßemaßes verbessert wird.Furthermore, a set of weights is stored in the aggregation layer and the effect of the aggregation layer with these weights is evaluated on each learning input signal with a quality measure. Subsequently, at least one weight in the aggregation layer is adjusted to improve the value of the gauge.
Das Gütemaß kann insbesondere darauf ausgerichtet sein, dass die gewichtete Summation der Aktivierungskarten aus der Faltungsschicht mit den Gewichten der Aggregationsschicht zu einer Relevanzkarte möglichst aussagekräftig wird. Ist beispielsweise die Aggregationsschicht auch als Klassifikatorschicht ausgebildet, so kann das Gütemaß etwa die Genauigkeit beinhalten, mit der unter Nutzung der Gewichte in der Aggregationsschicht das Lern-Eingangssignal korrekt klassifiziert wird. Es kann also beispielsweise analog zu der Klassifizierung mit der primär vorgesehenen Klassifikatorschicht eine Abweichung von der bekannten Zugehörigkeit der Lern-Eingangssignale zu den Klassen minimiert werden.In particular, the quality measure may be oriented toward making the weighted summation of the activation cards from the convolutional layer with the weights of the aggregation layer into a relevance map as meaningful as possible. For example, if the aggregation layer is also called Classifier layer formed, the quality measure may include about the accuracy with which the learning input signal is correctly classified using the weights in the aggregation layer. Thus, for example, analogously to the classification with the classifier layer provided primarily, a deviation from the known affiliation of the learning input signals to the classes can be minimized.
Es wurde erkannt, dass auf diese Weise die Klassifizierung in der Klassifikatorschicht einerseits und die Erzeugung einer Relevanzkarte mit der Aggregationsschicht andererseits mit den gleichen Lerndaten, jedoch voneinander unabhängig, trainiert werden können.It has been found that in this way the classification in the classifier layer on the one hand and the generation of a relevance map with the aggregation layer on the other hand can be trained with the same learning data, but independently of each other.
Insbesondere können in der Aggregationsschicht unterschiedliche Sätze von Gewichten für Lern-Eingangssignale, die zu unterschiedlichen Klassen gehören, trainiert werden.In particular, different sets of weights may be trained in the aggregation layer for learning input signals belonging to different classes.
Die Erfindung bezieht sich auch auf ein Verfahren zum Betreiben der Vorrichtung. Bei diesem Verfahren wird ein Eingangssignal in das künstliche neuronale Netzwerk eingegeben, das zuvor insbesondere mit dem von der Erfindung bereitgestellten Verfahren trainiert worden sein kann. Die Klasse, zu der die Klassifikatoreinheit die größte Wahrscheinlichkeit ermittelt, wird als die Ergebnisklasse gewertet, zu der das Eingangssignal gehört.The invention also relates to a method for operating the device. In this method, an input signal is input to the artificial neural network, which may have previously been trained in particular by the method provided by the invention. The class to which the classifier unit determines the greatest likelihood is considered the result class to which the input signal belongs.
Es können nun anhand der Ergebnisklasse Gewichte aus der Aggregationsschicht abgerufen werden, oder es können alternativ feste Gewichte verwendet werden. Aus den Gewichten und den Aktivierungskarten der Faltungsschicht wird die Relevanzkarte ermittelt.It is now possible to retrieve weights from the aggregation layer based on the result class, or alternatively fixed weights can be used. The relevance map is determined from the weights and the activation maps of the folding layer.
Die Gewichte, die aus der Aggregationsschicht abgerufen werden, enthalten bereits die von der Klassifikatorschicht gelieferte Information über die Ergebnisklasse. Hierin liegt ein wichtiger Unterschied zu Verfahren, bei denen die Aggregationsschicht als einziger Klassifikator genutzt wird. Ist die Aggregationsschicht der einzige Klassifikator, ist die Klassifikation ungenauer.The weights retrieved from the aggregation layer already contain the information about the result class provided by the classifier layer. This is an important difference to methods in which the aggregation layer is used as the only classifier. If the aggregation layer is the only classifier, the classification is less accurate.
Das neuronale Netz kann in beliebiger Weise und in beliebigem Mischungsverhältnis zwischen Hardware und Software implementiert werden. Mit speziell für den Betrieb künstlicher neuronaler Netze ausgelegter Hardware oder aber hierfür besonders geeigneter Hardware, wie etwa Grafikprozessoren (GPUs), lässt sich die Verarbeitungsgeschwindigkeit steigern. Das neuronale Netz kann jedoch auch als reine Softwarelösung auf einer herkömmlichen CPU implementiert werden. Weiterhin kann insbesondere auch das Training der Vorrichtung oder auch ihre Ansteuerung im laufenden Betrieb ganz oder teilweise in Software implementiert sein. Eine derartige Software ist ein eigenständig verkaufbares Produkt, das auch als Add-On oder Update zu bestehenden Vorrichtungen vertrieben werden kann. Daher bezieht sich die Erfindung auch auf ein Computerprogramm mit maschinenlesbaren Anweisungen, die, wenn sie auf einem Computer ausgeführt werden, den Computer zu einer von der Erfindung bereitgestellten Vorrichtung aufwerten, und/oder dazu veranlassen, ein von der Erfindung bereitgestelltes Verfahren auszuführen. Ebenso bezieht sich die Erfindung auch auf einen maschinenlesbaren Datenträger oder ein Downloadprodukt mit dem Computerprogramm.The neural network can be implemented in any desired manner and in any desired mixing ratio between hardware and software. With specially designed hardware for the operation of artificial neural networks or particularly suitable hardware, such as graphics processors (GPUs), the processing speed can be increased. However, the neural network can also be implemented as a pure software solution on a conventional CPU. Furthermore, in particular, the training of the device or its control during operation can be completely or partially implemented in software. Such software is a standalone salable product that may also be distributed as an add-on or update to existing devices. Therefore, the invention also relates to a computer program having machine readable instructions which, when executed on a computer, upgrade the computer to a device provided by the invention and / or cause it to perform a method provided by the invention. Likewise, the invention also relates to a machine-readable data carrier or a download product with the computer program.
Weitere, die Erfindung verbessernde Maßnahmen werden nachstehend gemeinsam mit der Beschreibung der bevorzugten Ausführungsbeispiele der Erfindung anhand von Figuren näher dargestellt.Further measures improving the invention will be described in more detail below together with the description of the preferred embodiments of the invention with reference to figures.
Figurenlistelist of figures
Es zeigt:
-
1 Ausführungsbeispiel der Vorrichtung1 ; -
2 Ausführungsbeispiel des Verfahrens100 zum Trainieren; -
3 Ausführungsbeispiel des Verfahrens200 zum Betreiben; -
4 Wirkung der Vorrichtung1 bei der Analyse medizinischer Bilder.
-
1 Embodiment of the device1 ; -
2 Embodiment of the method100 to exercise; -
3 Embodiment of the method200 to operate; -
4 Effect of the device1 in the analysis of medical images.
Das Eingabesignal
Die Wirkungsweise der Erfindung ist jedoch nicht darauf beschränkt, dass genau zwei Wahrscheinlichkeiten berechnet werden, d.h., dass eine Zugehörigkeit zu genau zwei Klassen untersucht wird. Beispielsweise können beliebige Zwischenstufen zwischen den Zuständen „völlig ordnungsgemäß“ und „völlig schadhaft“ weitere Klassen definieren.However, the operation of the invention is not limited to calculating exactly two probabilities, that is to say belonging to exactly two classes is examined. For example, any intermediate stages between the states "completely correct" and "completely defective" can define other classes.
Intern besteht das neuronale Netz
Es ist rein zufällig, dass in dem in
Die Aggregatorschicht
Die Gewichte
Die Wahrscheinlichkeiten
In Schritt
In Schritt
In Schritt
Parallel werden die Aktivierungskarten
In Schritt
In Schritt
Die auf diese Weise gewonnenen Gewichte
In Schritt
Teilbild b ist eine Überlagerung
Sowohl Teilbild a als auch Teilbild c zeigen jeweils eine krankhaft veränderte Netzhaut, was durch einen Arzt festgestellt wurde. Dies wurde auch vom neuronalen Netzwerk
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- GB 2454857 B [0003]GB 2454857 B [0003]
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810941723.XA CN109409188A (en) | 2017-08-18 | 2018-08-17 | Equipment for Modulation recognition |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017214424 | 2017-08-18 | ||
DE102017214424.6 | 2017-08-18 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102018205561A1 true DE102018205561A1 (en) | 2019-02-21 |
Family
ID=65235293
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102018205561.0A Pending DE102018205561A1 (en) | 2017-08-18 | 2018-04-12 | Device for classifying signals |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN109409188A (en) |
DE (1) | DE102018205561A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020025244A1 (en) | 2018-08-03 | 2020-02-06 | Robert Bosch Gmbh | Method and device for determining an explanation map |
WO2020025245A1 (en) | 2018-08-03 | 2020-02-06 | Robert Bosch Gmbh | Method and device for establishing an explanation map |
DE102020211995A1 (en) | 2020-09-24 | 2022-03-24 | Robert Bosch Gesellschaft mit beschränkter Haftung | Determination of the image parts in the latent space of the image classifier that are relevant for the decision of an image classifier |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2454857B (en) | 2006-09-18 | 2010-06-09 | Bosch Gmbh Robert | Method for processing a microscope intensity image |
-
2018
- 2018-04-12 DE DE102018205561.0A patent/DE102018205561A1/en active Pending
- 2018-08-17 CN CN201810941723.XA patent/CN109409188A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2454857B (en) | 2006-09-18 | 2010-06-09 | Bosch Gmbh Robert | Method for processing a microscope intensity image |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020025244A1 (en) | 2018-08-03 | 2020-02-06 | Robert Bosch Gmbh | Method and device for determining an explanation map |
WO2020025245A1 (en) | 2018-08-03 | 2020-02-06 | Robert Bosch Gmbh | Method and device for establishing an explanation map |
DE102020211995A1 (en) | 2020-09-24 | 2022-03-24 | Robert Bosch Gesellschaft mit beschränkter Haftung | Determination of the image parts in the latent space of the image classifier that are relevant for the decision of an image classifier |
Also Published As
Publication number | Publication date |
---|---|
CN109409188A (en) | 2019-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102018205561A1 (en) | Device for classifying signals | |
EP2028605A1 (en) | Detection method for symmetric patterns | |
EP2034461A2 (en) | Method for detecting and/or tracking moved objects in a monitoring zone with stoppers, device and computer program | |
WO2018219551A1 (en) | Method and device for automatic gesture recognition | |
WO2013037357A1 (en) | Automatic learning method for the automatic learning of forms of appearance of objects in images | |
EP3948688A1 (en) | Training for artificial neural networks with better utilization of learning data records | |
EP3393875B1 (en) | Method for the improved detection of objects by a driver assistance system | |
WO2013152929A1 (en) | Learning method for automated recognition of traffic signs, method for determining an updated parameter set for the classification of a traffic sign and traffic sign recognition system | |
DE102021204040A1 (en) | Method, device and computer program for creating training data in the vehicle | |
EP3973458A1 (en) | Method for operating a deep neural network | |
WO2020233961A1 (en) | Method for assessing a function-specific robustness of a neural network | |
DE102019211672A1 (en) | Training method for an artificial neural network | |
DE102019114049A1 (en) | Method for validating a driver assistance system using further generated test input data sets | |
DE102013224382A1 (en) | Accelerated object recognition in an image | |
EP2887264B1 (en) | Circle segment and form detection | |
DE102020208474B4 (en) | Measuring the sensitivity of classifiers based on interacting disturbances | |
EP2507765A1 (en) | Method and device for adapting image information of an optical system | |
DE102019204602B4 (en) | Method and device for masking objects contained in an image | |
WO2021047816A1 (en) | Robust artificial neural network with improved trainability | |
DE102021204343A1 (en) | Controller for generating training data for training a machine learning algorithm | |
DE102021201833A1 (en) | Device for processing at least one input data set using a neural network and method | |
AT511399B1 (en) | METHOD FOR THE AUTOMATED CLASSIFICATION OF INCLUSIONS | |
EP4121950A1 (en) | Method for analyzing a component, method for training a system, device, computer program and computer-readable storage medium | |
DE102021205447A1 (en) | Data enrichment for training image classifiers | |
DE102021200877A1 (en) | Quantitative assessment of relevance rating functions for the output of an image classifier |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed |