DE102018205561A1 - Device for classifying signals - Google Patents

Device for classifying signals Download PDF

Info

Publication number
DE102018205561A1
DE102018205561A1 DE102018205561.0A DE102018205561A DE102018205561A1 DE 102018205561 A1 DE102018205561 A1 DE 102018205561A1 DE 102018205561 A DE102018205561 A DE 102018205561A DE 102018205561 A1 DE102018205561 A1 DE 102018205561A1
Authority
DE
Germany
Prior art keywords
layer
aggregation
weights
input signal
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018205561.0A
Other languages
English (en)
Inventor
Muhammad Gondal
Jan Mathias Koehler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to DE102017214424 priority Critical
Priority to DE102017214424.6 priority
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of DE102018205561A1 publication Critical patent/DE102018205561A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/00496Recognising patterns in signals and combinations thereof
    • G06K9/00536Classification; Matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/36Image preprocessing, i.e. processing the image information without deciding about the identity of the image
    • G06K9/46Extraction of features or characteristics of the image
    • G06K9/4604Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes, intersections
    • G06K9/4609Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes, intersections by matching or filtering
    • G06K9/4619Biologically-inspired filters, e.g. receptive fields
    • G06K9/4623Biologically-inspired filters, e.g. receptive fields with interaction between the responses of different filters
    • G06K9/4628Integrating the filters into a hierarchical structure
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06NCOMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computer systems based on biological models
    • G06N3/02Computer systems based on biological models using neural network models
    • G06N3/04Architectures, e.g. interconnection topology
    • G06N3/0454Architectures, e.g. interconnection topology using a combination of multiple neural nets
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06NCOMPUTER SYSTEMS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computer systems based on biological models
    • G06N3/02Computer systems based on biological models using neural network models
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K2209/00Indexing scheme relating to methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K2209/05Recognition of patterns in medical or anatomical images

Abstract

Vorrichtung (1) zur Klassifizierung eines Gewebes, umfassend ein künstliches neuronales Netzwerk (3) mit mindestens einer Faltungsschicht (31a-31e), wobei die Faltungsschicht (31a-31e) eine Mehrzahl von trainierbaren Faltungskernen (32a-32c) enthält und zu jedem Faltungskern (32a-32c) eine Aktivierungskarte (33a-33c) liefert, und der mindestens einen Faltungsschicht (31a-31e) mindestens eine Klassifikatorschicht (35a-35b) nachgeschaltet ist. Ferner betrifft die Erfindung eine Vorrichtung, ein Verfahren (100) zum Trainieren und Verfahren (200) zum Betreiben der Vorrichtung und ein zugehöriges Computerprogramm.
Figure DE102018205561A1_0000
A tissue classification apparatus (1) comprising an artificial neural network (3) having at least one folding layer (31a-31e), said folding layer (31a-31e) containing a plurality of trainable folding cores (32a-32c) and to each convolutional core (32a-32c) provides an activation card (33a-33c), and the at least one folding layer (31a-31e) at least one classifier layer (35a-35b) is connected downstream. Furthermore, the invention relates to a device, a method (100) for training and method (200) for operating the device and an associated computer program.

Description

  • Die vorliegende Erfindung betrifft eine Vorrichtung zur Klassifizierung von Signalen, welches beispielsweise auf Bilddaten oder auf Audiodaten anwendbar ist, ein Verfahren zum Trainieren und ein Verfahren zum Betreiben.The present invention relates to an apparatus for classifying signals applicable to, for example, image data or audio data, a method of training, and a method of operation.
  • Stand der TechnikState of the art
  • Bei der Auswertung beispielsweise von Bilddaten oder Audiodaten stellt sich immer wieder die Aufgabe, bestimmte Objekte oder andere Features in den Daten zu erkennen. Eine derartige Aufgabe ist für einen Computer anspruchsvoll, da die Bilddaten bzw. Audiodaten dem Computer zunächst nur als Zahlenwerte ohne tiefere Bedeutung vorliegen und einen Problemraum von hoher Dimensionalität aufspannen. Beispielsweise gibt es in der Größenordnung 1012 verschiedene Bilder in VGA-Auflösung (640x480 Pixel) mit 24 Bit Farbtiefe. Diese große Anzahl Bilder gilt es anhand des Gehalts an Objekten oder Features in größenordnungsmäßig 10-100 Klassen zu klassifizieren.When evaluating, for example, image data or audio data, it is always the task to recognize certain objects or other features in the data. Such a task is demanding for a computer, since the image data or audio data initially present to the computer only as numerical values without any deeper meaning and span a problem space of high dimensionality. For example, there are 10 12 different VGA resolution (640x480 pixels) images with 24 bit color depth. This large number of images should be classified based on the content of objects or features on the order of 10-100 classes.
  • Zur Bewältigung dieser Komplexität werden künstliche neuronale Netze eingesetzt. Derartige neuronale Netze können beispielsweise aus mehreren hintereinandergeschalteten Schichten bestehen, in denen die Dimensionalität der Aufgabe durch die Anwendung von Faltungskernen und durch Downsampling deutlich reduziert wird. Derartige neuronale Netze zeichnen sich weiterhin dadurch aus, dass die Daten massiv parallel verarbeitet werden. Die GB 2 454 857 B gibt ein Beispiel für ein Verfahren, bei dem ein Mikroskopbild mit Hilfe eines selbstlernenden neuronalen Netzes dahingehend klassifiziert wird, welche Objekte es enthält.To overcome this complexity, artificial neural networks are used. Such neural networks may, for example, consist of several successive layers in which the dimensionality of the task is significantly reduced by the use of convolution kernels and by downsampling. Such neural networks are further characterized by the fact that the data are massively processed in parallel. The GB 2 454 857 B gives an example of a method in which a microscope image is classified by means of a self-learning neural network as to which objects it contains.
  • Offenbarung der ErfindungDisclosure of the invention
  • Im Rahmen der Erfindung wurde eine Vorrichtung zur Klassifizierung eines Eingangssignals entwickelt. Diese Vorrichtung umfasst ein künstliches neuronales Netz mit mindestens einer Faltungsschicht. Die mindestens eine Faltungsschicht enthält eine Mehrzahl von trainierbaren Faltungskernen. Durch sukzessive Anwendung des jeweiligen Faltungskerns an allen möglichen Positionen in dem Eingangssignal entsteht zu jedem Faltungskern eine Aktivierungskarte, die diskreten Positionen in der Eingabe der mindestens einen Faltungsschicht jeweils einen Ausgabewert zuordnet. Dieser Ausgabewert ist ein Maß für die lokale Übereinstimmung der Eingabe mit dem jeweiligen Faltungskern.Within the scope of the invention, an apparatus for classifying an input signal has been developed. This device comprises an artificial neural network with at least one folding layer. The at least one folding layer contains a plurality of trainable folding cores. By successive application of the respective convolution kernel at all possible positions in the input signal, an activation card results for each convolution kernel, which in each case assigns an output value to discrete positions in the input of the at least one convolution layer. This output value is a measure of the local match of the input with the respective convolution kernel.
  • Dabei können durchaus mehrere Faltungsschichten in Reihe geschaltet sein. Beispielsweise kann eine erste Faltungsschicht, die Bilddaten als Eingangssignal erhält, eine Mehrzahl von Faltungskernen enthalten, die einfache geometrische Grundelemente von Objekten, wie beispielsweise Linien und Bögen, erkennen. Weitere Faltungsschichten können dann beispielsweise dazu ausgebildet sein, aus diesen Grundelementen zusammengesetzte einfache Objekte zu erkennen (etwa ein Haus, ein Verkehrszeichen oder ein Auto). Diese Information wiederum kann in weiteren Faltungsschichten genutzt werden, um beispielsweise komplexe Situationen zu erkennen, etwa eine aus mehreren Verkehrsteilnehmern, Verkehrszeichen und Gebäuden zusammengesetzte Verkehrssituation, in der beim zumindest teilautomatisierten Fahren die Vorfahrtlage zu ermitteln ist.It is quite possible that several folding layers are connected in series. For example, a first convolution layer that receives input image data may include a plurality of convolution kernels that recognize simple geometric primitives of objects, such as lines and arcs. Further folding layers can then be designed, for example, to recognize simple objects composed of these basic elements (for example a house, a traffic sign or a car). This information, in turn, can be used in further convolutional layers to detect, for example, complex situations, such as a traffic situation composed of several road users, traffic signs and buildings, in which the right-of-way position is to be determined during at least partially automated driving.
  • Wenn mehrere Faltungsschichten vorhanden sind, muss die Ausgabe einer Faltungsschicht nicht zwangsläufig nur an eine benachbarte Faltungsschicht weitergegeben werden, sondern kann auch direkt an nicht benachbarte Faltungsschichten weitergegeben werden.If multiple convolutional layers are present, the output of a convolutional layer need not necessarily be passed only to an adjacent convolutional layer, but may also be passed directly to non-adjacent convolutional layers.
  • Diese Verarbeitungskette ist nicht auf Bilddaten beschränkt, sondern kann genauso gut beispielsweise auch mit Audiodaten durchgeführt werden. Auch hier kann beispielsweise eine erste Faltungsschicht Faltungskerne zur Erkennung von Fahrgeräuschen anderer Verkehrsteilnehmer, Hupen und Martinshörnern beinhalten, und in einer späteren Faltungsschicht kann hieraus auf die Verkehrssituation als Ganzes geschlossen werden.This processing chain is not limited to image data, but can be performed just as well, for example, with audio data. Here too, for example, a first folding layer may include folding cores for detecting driving noises of other road users, horns and sirens, and in a later folding layer the traffic situation as a whole can be deduced therefrom.
  • Der mindestens einen Faltungsschicht, beispielsweise der letzten Faltungsschicht, ist mindestens eine Klassifikatorschicht nachgeschaltet, die ihre Eingabe mittels trainierbarer Gewichte auf einen Satz Wahrscheinlichkeiten dafür abbildet, dass die Eingabe zu einer von mehreren Klassen zugehörig ist. Beispielsweise kann eine Verkehrssituation als Ganzes dahingehend klassifiziert werden, ob das eigene Fahrzeug weiterfahren darf oder wartepflichtig ist. Ein Bild von Gewebe kann in der Zusammenschau aller mit der letzten Faltungsschicht erkannten komplexen Merkmale dahingehend bewertet werden, ob das Gewebe gesund oder krankhaft verändert ist. Ebenso kann ein Bild eines Bauteils dahingehend bewertet werden, ob es beschädigt ist oder nicht.The at least one convolution layer, for example the last convolution layer, is followed by at least one classifier layer, which maps its input by means of trainable weights to a set of probabilities for the input to belong to one of several classes. For example, a traffic situation as a whole can be classified as to whether the own vehicle may continue driving or is wartepflichtig. An image of tissue can be evaluated in the synopsis of all the complex features recognized by the last convolutional layer to determine if the tissue is healthy or diseased. Likewise, an image of a component can be evaluated as to whether it is damaged or not.
  • Die Ausgabe der mindestens einen Faltungsschicht ist zusätzlich in mindestens eine Aggregationsschicht geführt, welche dazu ausgebildet ist, jeder von der mindestens einen Faltungsschicht erhaltenen Aktivierungskarte mindestens einen Aggregationswert zuzuordnen.The output of the at least one folding layer is additionally guided into at least one aggregation layer, which is designed to assign at least one aggregation value to each activation card obtained from the at least one folding layer.
  • Wenn mehrere Faltungsschichten hintereinandergeschaltet sind, kann vorzugsweise die Ausgabe der letzten Faltungsschicht in die Aggregationsschicht geführt sein. Die Aggregationsschicht bewertet dann die gleiche Sachlage wie die Klassifikatorschicht, d.h., die Aktivierungskarten geben besonders genau an, welche Teilbereiche in dem Eingangssignal zu den von der Klassifikatorschicht ermittelten Wahrscheinlichkeiten beigetragen haben. Alternativ oder in Kombination kann jedoch auch die Ausgabe einer anderen Faltungsschicht in die Aggregationsschicht geführt sein.If several folding layers are connected in series, preferably the output of the last folding layer can be guided into the aggregation layer. The aggregation layer then assesses the same situation as the Classifier layer, ie, the activation cards indicate very precisely which partial areas in the input signal contributed to the probabilities determined by the classifier layer. Alternatively or in combination, however, the output of another folding layer can also be guided into the aggregation layer.
  • Es wurde erkannt, dass die Aggregationswerte eine Aussage darüber enthalten, welche Teilbereiche in dem Eingangssignal für die Klassifizierung des Eingangssignals durch die Klassifikatorschicht relevant gewesen sind. Auf diese Weise kann beispielsweise die Klassifizierung plausibilisiert werden. Weiterhin können beispielsweise bei einer Klassifizierung eines Bauteils als schadhaft oder bei einer Klassifizierung eines Gewebes als krankhaft verändert diejenigen Schadstellen, die für diese Beurteilung maßgeblich gewesen sind, identifiziert werden. Bei der Beurteilung einer Fahrsituation dahingehend, dass das eigene Fahrzeug wartepflichtig ist, kann dasjenige Fahrzeug identifiziert werden, auf das gewartet werden muss.It has been found that the aggregation values contain a statement as to which subregions in the input signal were relevant for the classification of the input signal by the classifier layer. In this way, for example, the classification can be made plausible. Furthermore, for example, in the case of a classification of a component as defective or in the case of a classification of a tissue as pathologically altered, those damaged areas which have been decisive for this assessment can be identified. When assessing a driving situation to the effect that the own vehicle is waiting, the vehicle to be maintained can be identified.
  • Die Aggregation bewirkt eine deutliche Verdichtung der von der Faltungsschicht gelieferten Information. Dies hat jedoch keine Auswirkungen auf die Genauigkeit der Klassifizierung durch die Klassifikatorschicht, da die Klassifikatorschicht nach wie vor die volle Information erhält.The aggregation causes a significant compression of the information provided by the folding layer. However, this does not affect the accuracy of the classifier class classification because the classifier layer still receives the full information.
  • Die Aussagekraft der Aggregationswerte in Bezug auf die von der Klassifikatorschicht vorgenommene Klassifizierung ist am größten, wenn die Klassifikatorschicht ihre Eingabe von der gleichen Faltungsschicht bezieht wie die Aggregationsschicht. Dies ist jedoch nicht zwingend. Beispielsweise kann es gewünscht sein, die Relevanz von Teilen des Eingangssignals auf einer feineren Abstraktionsebene zu analysieren als der Abstraktionsebene, die der Klassifikatorschicht zugeführt wird.The significance of the aggregation values with respect to the classification made by the classifier layer is greatest when the classifier layer gets its input from the same convolution layer as the aggregation layer. However, this is not mandatory. For example, it may be desirable to analyze the relevance of portions of the input signal at a finer level of abstraction than the level of abstraction applied to the classifier layer.
  • In einer besonders vorteilhaften Ausgestaltung der Erfindung ist eine Auswerteeinheit vorgesehen, die dazu ausgebildet ist, durch gewichtete Summation der von der mindestens einen Faltungsschicht erhaltenen Aktivierungskarten mit in der Aggregationsschicht hinterlegten Gewichten eine Relevanzkarte der Ausgabe der mindestens einen Faltungsschicht zu ermitteln. Diese Relevanzkarte ist genau auf der von der mindestens einen Faltungsschicht zuletzt untersuchten Ebene abstrahiert. Die Auswerteeinheit kann beispielsweise in die Aggregationsschicht integriert sein oder zusammen mit der Aggregationsschicht eine Baugruppe bilden.In a particularly advantageous embodiment of the invention, an evaluation unit is provided, which is designed to determine a relevance map of the output of the at least one folding layer by weighted summation of the activation cards obtained from the at least one folding layer with weights stored in the aggregation layer. This relevance map is abstracted exactly on the plane last examined by the at least one convolution layer. The evaluation unit can for example be integrated in the aggregation layer or form an assembly together with the aggregation layer.
  • Die Relevanzkarte ist insbesondere dann besonders einsichtig, wenn es sich bei dem zu klassifizierenden Eingangssignal um Bilddaten handelt. Sie ist jedoch nicht auf diesen Anwendungsfall beschränkt. Beispielsweise lässt sich eine visuell einsichtige Relevanzkarte auch für Audiodaten als Eingangssignal erzeugen, indem die Audiodaten in eine für den jeweiligen Anwendungsfall visuell einsichtige Darstellung transformiert werden. So lässt sich etwa das Signal einer Hupe bzw. eines Martinshorns in einer bildlichen Darstellung des Audiosignals im Frequenzraum leicht ausmachen.The relevance map is especially obvious when the input signal to be classified is image data. However, it is not limited to this use case. For example, a visually insightful relevance map can also be generated as an input signal for audio data by transforming the audio data into a visually intelligible representation for the respective application. Thus, for example, the signal of a horn or a siren in a visual representation of the audio signal in the frequency domain can be easily identified.
  • Da jede Faltungsschicht die Dimensionalität des Eingangssignals reduziert, wird die Relevanzkarte in der Regel von deutlich geringerer Dimensionalität sein als das Eingangssignal. Im Falle eines Bildes als Eingangssignal bedeutet dies beispielsweise, dass die Relevanzkarte von deutlich geringerer Pixelauflösung ist als das Originalbild. Die Relevanzkarte kann beispielsweise entsprechend hochskaliert werden, damit sie sich in einer für den Betrachter aussagekräftigen Weise über das Eingangssignal, also beispielsweise über das Originalbild, legen lässt. Das Hochskalieren kann beispielsweise durch bilineare Interpolation erfolgen.Because each convolution layer reduces the dimensionality of the input signal, the relevance map will typically be of significantly smaller dimensionality than the input signal. In the case of an image as an input signal, this means, for example, that the relevance map is of significantly lower pixel resolution than the original image. The relevance map, for example, can be scaled up accordingly, so that it can be laid out in a meaningful manner for the viewer on the input signal, so for example on the original image. The scaling can be done, for example, by bilinear interpolation.
  • In einer weiteren besonders vorteilhaften Ausgestaltung der Erfindung erhält die Auswerteeinheit mindestens eine von der Klassifikatorschicht ermittelte Wahrscheinlichkeit als Eingabe und berücksichtigt abhängig von dieser Wahrscheinlichkeit unterschiedliche in der Aggregationsschicht hinterlegte Gewichte. Auf diese Weise kann in der Relevanzkarte die aus den Aggregationswerten und Aktivierungskarten erhaltene Information mit der von der Klassifikatorschicht erhaltenen Klassifizierung dahingehend zusammengeführt werden, dass die für die Entscheidung relevanten Teile des Eingangssignals noch genauer umrissen werden.In a further particularly advantageous embodiment of the invention, the evaluation unit receives at least one probability determined by the classifier layer as input and, depending on this probability, considers different weights stored in the aggregation layer. In this way, in the relevance map, the information obtained from the aggregation values and activation maps can be merged with the classification obtained from the classifier layer so that the parts of the input signal that are relevant for the decision are more precisely outlined.
  • In einer weiteren besonders vorteilhaften Ausgestaltung der Erfindung ist die Aggregationsschicht auch als eine Klassifikatorschicht ausgebildet, die die Wahrscheinlichkeiten für die Zugehörigkeiten zu Klassen durch Gewichtung der Aggregationswerte mit trainierbaren Gewichten ermittelt. Auf diese Weise ist es zum einen möglich, diese Gewichte separat von der Klassifizierung durch die primär vorgesehene Klassifikatorschicht zu trainieren, damit sie anschließend für die Ermittlung der Relevanzkarte genutzt werden können. Die Erkennung relevanter Bereiche in dem Eingangssignal kann dann also von den gleichen Lerndaten profitieren, die auch beim Training der primär vorgesehenen Klassifikatorschicht zum Einsatz kommen. Zum anderen ist die Zusatzfunktion der Aggregationsschicht als Klassifikatorschicht nicht auf die Lernphase begrenzt. Vielmehr kann die auf diese Weise von der Aggregationsschicht erhaltene Klassifizierung genutzt werden, um die von der primär vorgesehenen Klassifikatorschicht erhaltene Klassifizierung zu plausibilisieren und eventuelle Fehlfunktionen zu erkennen. Dies ist beispielsweise wichtig in sicherheitskritischen Anwendungen, wie etwa der zumindest teilweise automatisierten Steuerung von Fahrzeugen im Straßenverkehr.In a further particularly advantageous embodiment of the invention, the aggregation layer is also designed as a classifier layer, which determines the probabilities for the affiliations to classes by weighting the aggregation values with trainable weights. In this way, it is possible, on the one hand, to train these weights separately from the classification by the classifier layer provided primarily so that they can subsequently be used to determine the relevance map. The recognition of relevant areas in the input signal can then benefit from the same learning data that is also used when training the classifier layer provided primarily. On the other hand, the additional function of the aggregation layer as a classifier layer is not limited to the learning phase. Rather, the classification obtained in this way by the aggregation layer can be used to make the classification obtained from the primary classifier layer plausible and to recognize possible malfunctions. This is important, for example, in safety-critical Applications, such as the at least partially automated control of vehicles in traffic.
  • Im Vergleich mit Lösungen, bei denen die Aggregationsschicht als einziger Klassifikator genutzt wird, liegt ein wichtiger Unterschied darin, dass die primär vorgesehene Klassifikatorschicht nach wie vor auf die volle von der Faltungsschicht gelieferte Information zurückgreift. Ist hingegen die Aggregationsschicht der einzige Klassifikator, so kann die Klassifikation nur noch mit der durch die Aggregation drastisch reduzierten Datenmenge arbeiten und wird deutlich weniger genau.In comparison with solutions that use the aggregation layer as the only classifier, one important difference is that the classifier layer primarily provided still relies on the full information provided by the convolution layer. If, on the other hand, the aggregation layer is the only classifier, the classification can only work with the amount of data drastically reduced by the aggregation and becomes significantly less accurate.
  • Die Aggregationsschicht kann beispielsweise dazu ausgebildet sein, mindestens einen Aggregationswert durch Summation und/oder durch Mittelwertbildung und/oder Maximalwertbildung und/oder Minimalwertbildung und/oder Varianzbildung und/oder Medianbildung und/oder Perzentilbildung über die in der Aktivierungskarte enthaltenen Werte zu ermitteln. Beispielsweise kann „global average pooling“, GAP, zum Einsatz kommen. Handelt es sich bei dem Eingangssignal beispielsweise um Bilddaten und ist der Faltungskern der Faltungsschicht zur Erkennung eines bestimmten Objekts ausgebildet, so ist das Ergebnis der Summation bzw. Mittelwertbildung unter anderem ein Maß dafür, wie viele Objekte dieser Art im Bildbereich insgesamt enthalten sind. Wird beispielsweise die Klassifizierung, dass ein Bild ein oder mehrere Objekte einer bestimmten Art enthält, nur auf ein einziges Vorkommen eines solchen Objekts gestützt, so ist diese Aussage weniger belastbar als wenn viele derartige Vorkommen zu dieser Entscheidung beigetragen haben. Dass viele Erkennungen allesamt fehlerhaft sind, ist unwahrscheinlicher als dass eine einzelne Erkennung fehlerhaft ist.The aggregation layer can be designed, for example, to determine at least one aggregation value by summation and / or by averaging and / or maximum value formation and / or minimum value formation and / or variance formation and / or median formation and / or percentile formation over the values contained in the activation card. For example, "global average pooling", GAP, can be used. If the input signal is, for example, image data and the convolution kernel of the convolution layer is designed to detect a particular object, the result of the summation or averaging is, among other things, a measure of how many objects of this kind are contained in the image area as a whole. For example, if the classification that an image contains one or more objects of a particular type is based on only a single occurrence of such an object, then that statement is less robust than if many such occurrences contributed to that decision. That many detections are all flawed is less likely than that a single detection is flawed.
  • Die Klassifikatorschicht kann beispielsweise mindestens eine vollvernetzte Schicht des künstlichen neuronalen Netzes umfassen. Eine solche vollvernetzte Schicht bestimmt mit Hilfe lernfähiger Gewichte, welche von der Faltungsschicht erkannten Merkmale besonders gut mit den bestimmten Klassen korrelieren. So kann beispielweise ein Vorfahrtsschild relevant zur Beurteilung der Frage sein, ob das eigene Fahrzeug in einer Verkehrssituation weiterfahren darf oder wartepflichtig ist, während eine Leuchtreklame hierfür irrelevant ist. Die Gewichte einer oder mehrerer vollvernetzter Schichten lassen sich in besonders einsichtiger Weise mit Lern-Daten trainieren.The classifier layer may comprise, for example, at least one fully crosslinked layer of the artificial neural network. Such a fully crosslinked layer determines, with the aid of learning weights, which features recognized by the folding layer correlate particularly well with the particular classes. Thus, for example, a right-of-way sign can be relevant for assessing whether the own vehicle may continue in a traffic situation or is in waiting, while a neon sign is irrelevant for this purpose. The weights of one or more fully networked layers can be trained in a particularly clear way with learning data.
  • In einer weiteren besonders vorteilhaften Ausgestaltung der Erfindung ist mindestens eine Anzeigeeinrichtung vorgesehen, die mindestens eine von der Klassifikatorschicht ermittelte Wahrscheinlichkeit, und/oder mindestens eine Relevanzkarte, als Eingabe erhält und an einen Benutzer der Vorrichtung ausgibt. Auf diese Weise kann beispielsweise studiert werden, wie sich eine Vorverarbeitung des Eingangssignals, eine Änderung der Beleuchtungsverhältnisse oder eine Änderung sonstiger Aufnahmebedingungen auswirken.In a further particularly advantageous embodiment of the invention, at least one display device is provided which receives at least one probability determined by the classifier layer and / or at least one relevance map as input and outputs it to a user of the device. In this way, for example, it is possible to study how preprocessing of the input signal, a change in the lighting conditions or a change in other recording conditions have an effect.
  • In einer weiteren besonders vorteilhaften Ausgestaltung der Erfindung weist mindestens eine Einrichtung zur physikalischen Erfassung des Eingangssignals mindestens einen Parameter auf, der sich auf den Prozess der Erfassung auswirkt. Es ist eine Feedback-Einrichtung vorgesehen, die dazu ausgebildet ist, aus der Relevanzkarte mindestens eine Stellgröße für den Parameter zu ermitteln.In a further particularly advantageous embodiment of the invention, at least one device for the physical detection of the input signal has at least one parameter which has an effect on the process of the detection. A feedback device is provided, which is designed to determine at least one manipulated variable for the parameter from the relevance card.
  • Ist das Eingangssignal beispielsweise ein Bildsignal, das über eine Kamera physikalisch erfasst wird, so hat beispielsweise die Belichtungseinstellung der Kamera einen Einfluss darauf, welche Merkmale des untersuchten Objekts in den Dynamikbereich des erhaltenen Bildsignals fallen. Über die Feedback-Einrichtung kann diese Belichtungseinstellung, oder auch ein beliebiger anderer Parameter der physikalischen Erfassung, dahingehend optimiert werden, dass von vornherein ein Hinblick auf die jeweilige Anwendung aussagekräftiges Eingangssignal aufgenommen wird. Beispielsweise kann ein Bild eines Bauteils mit einer Belichtungseinstellung aufgenommen werden, die den größten Teil des Bildes in die Sättigung zieht und dafür den Bereich einer vermuteten Schadstelle besonders kontrastreich herausarbeitet.For example, if the input signal is an image signal that is physically detected by a camera, the exposure setting of the camera has an influence on which features of the examined object fall within the dynamic range of the received image signal. Via the feedback device, this exposure setting, or also any other parameter of the physical detection, can be optimized in such a way that from the outset a meaningful input signal is recorded for the respective application. For example, an image of a component can be taken with an exposure setting that saturates the largest part of the image and, for this purpose, works out the area of a suspected damaged area in a particularly high-contrast manner.
  • Die Erfindung bezieht sich auch auf ein Verfahren zum Trainieren der Vorrichtung. Bei diesem Verfahren wird zunächst eine Mehrzahl von Lern-Eingangssignalen in das künstliche neuronale Netzwerk eingegeben. Die zu jedem Lern-Eingangssignal von der Klassifikatorschicht ermittelten Wahrscheinlichkeiten werden mit der bekannten Zugehörigkeit der Lern-Eingangssignale zu den Klassen verglichen. Mindestens ein trainierbarer Faltungskern in mindestens einer Faltungsschicht wird dahingehend angepasst, dass eine in dem Vergleich ermittelte Abweichung vermindert wird.The invention also relates to a method for training the device. In this method, a plurality of learning input signals are first input to the artificial neural network. The probabilities determined for each learning input signal from the classifier layer are compared with the known affiliation of the learning input signals to the classes. At least one trainable convolution kernel in at least one convolution layer is adapted to reduce a deviation determined in the comparison.
  • Weiterhin wird ein Satz Gewichte in der Aggregationsschicht hinterlegt, und es wird die Wirkung der Aggregationsschicht mit diesen Gewichten auf jedes Lern-Eingangssignal mit einem Gütemaß bewertet. Anschließend wird mindestens ein Gewicht in der Aggregationsschicht dahingehend angepasst, dass der Wert des Güßemaßes verbessert wird.Furthermore, a set of weights is stored in the aggregation layer and the effect of the aggregation layer with these weights is evaluated on each learning input signal with a quality measure. Subsequently, at least one weight in the aggregation layer is adjusted to improve the value of the gauge.
  • Das Gütemaß kann insbesondere darauf ausgerichtet sein, dass die gewichtete Summation der Aktivierungskarten aus der Faltungsschicht mit den Gewichten der Aggregationsschicht zu einer Relevanzkarte möglichst aussagekräftig wird. Ist beispielsweise die Aggregationsschicht auch als Klassifikatorschicht ausgebildet, so kann das Gütemaß etwa die Genauigkeit beinhalten, mit der unter Nutzung der Gewichte in der Aggregationsschicht das Lern-Eingangssignal korrekt klassifiziert wird. Es kann also beispielsweise analog zu der Klassifizierung mit der primär vorgesehenen Klassifikatorschicht eine Abweichung von der bekannten Zugehörigkeit der Lern-Eingangssignale zu den Klassen minimiert werden.In particular, the quality measure may be oriented toward making the weighted summation of the activation cards from the convolutional layer with the weights of the aggregation layer into a relevance map as meaningful as possible. For example, if the aggregation layer is also called Classifier layer formed, the quality measure may include about the accuracy with which the learning input signal is correctly classified using the weights in the aggregation layer. Thus, for example, analogously to the classification with the classifier layer provided primarily, a deviation from the known affiliation of the learning input signals to the classes can be minimized.
  • Es wurde erkannt, dass auf diese Weise die Klassifizierung in der Klassifikatorschicht einerseits und die Erzeugung einer Relevanzkarte mit der Aggregationsschicht andererseits mit den gleichen Lerndaten, jedoch voneinander unabhängig, trainiert werden können.It has been found that in this way the classification in the classifier layer on the one hand and the generation of a relevance map with the aggregation layer on the other hand can be trained with the same learning data, but independently of each other.
  • Insbesondere können in der Aggregationsschicht unterschiedliche Sätze von Gewichten für Lern-Eingangssignale, die zu unterschiedlichen Klassen gehören, trainiert werden.In particular, different sets of weights may be trained in the aggregation layer for learning input signals belonging to different classes.
  • Die Erfindung bezieht sich auch auf ein Verfahren zum Betreiben der Vorrichtung. Bei diesem Verfahren wird ein Eingangssignal in das künstliche neuronale Netzwerk eingegeben, das zuvor insbesondere mit dem von der Erfindung bereitgestellten Verfahren trainiert worden sein kann. Die Klasse, zu der die Klassifikatoreinheit die größte Wahrscheinlichkeit ermittelt, wird als die Ergebnisklasse gewertet, zu der das Eingangssignal gehört.The invention also relates to a method for operating the device. In this method, an input signal is input to the artificial neural network, which may have previously been trained in particular by the method provided by the invention. The class to which the classifier unit determines the greatest likelihood is considered the result class to which the input signal belongs.
  • Es können nun anhand der Ergebnisklasse Gewichte aus der Aggregationsschicht abgerufen werden, oder es können alternativ feste Gewichte verwendet werden. Aus den Gewichten und den Aktivierungskarten der Faltungsschicht wird die Relevanzkarte ermittelt.It is now possible to retrieve weights from the aggregation layer based on the result class, or alternatively fixed weights can be used. The relevance map is determined from the weights and the activation maps of the folding layer.
  • Die Gewichte, die aus der Aggregationsschicht abgerufen werden, enthalten bereits die von der Klassifikatorschicht gelieferte Information über die Ergebnisklasse. Hierin liegt ein wichtiger Unterschied zu Verfahren, bei denen die Aggregationsschicht als einziger Klassifikator genutzt wird. Ist die Aggregationsschicht der einzige Klassifikator, ist die Klassifikation ungenauer.The weights retrieved from the aggregation layer already contain the information about the result class provided by the classifier layer. This is an important difference to methods in which the aggregation layer is used as the only classifier. If the aggregation layer is the only classifier, the classification is less accurate.
  • Das neuronale Netz kann in beliebiger Weise und in beliebigem Mischungsverhältnis zwischen Hardware und Software implementiert werden. Mit speziell für den Betrieb künstlicher neuronaler Netze ausgelegter Hardware oder aber hierfür besonders geeigneter Hardware, wie etwa Grafikprozessoren (GPUs), lässt sich die Verarbeitungsgeschwindigkeit steigern. Das neuronale Netz kann jedoch auch als reine Softwarelösung auf einer herkömmlichen CPU implementiert werden. Weiterhin kann insbesondere auch das Training der Vorrichtung oder auch ihre Ansteuerung im laufenden Betrieb ganz oder teilweise in Software implementiert sein. Eine derartige Software ist ein eigenständig verkaufbares Produkt, das auch als Add-On oder Update zu bestehenden Vorrichtungen vertrieben werden kann. Daher bezieht sich die Erfindung auch auf ein Computerprogramm mit maschinenlesbaren Anweisungen, die, wenn sie auf einem Computer ausgeführt werden, den Computer zu einer von der Erfindung bereitgestellten Vorrichtung aufwerten, und/oder dazu veranlassen, ein von der Erfindung bereitgestelltes Verfahren auszuführen. Ebenso bezieht sich die Erfindung auch auf einen maschinenlesbaren Datenträger oder ein Downloadprodukt mit dem Computerprogramm.The neural network can be implemented in any desired manner and in any desired mixing ratio between hardware and software. With specially designed hardware for the operation of artificial neural networks or particularly suitable hardware, such as graphics processors (GPUs), the processing speed can be increased. However, the neural network can also be implemented as a pure software solution on a conventional CPU. Furthermore, in particular, the training of the device or its control during operation can be completely or partially implemented in software. Such software is a standalone salable product that may also be distributed as an add-on or update to existing devices. Therefore, the invention also relates to a computer program having machine readable instructions which, when executed on a computer, upgrade the computer to a device provided by the invention and / or cause it to perform a method provided by the invention. Likewise, the invention also relates to a machine-readable data carrier or a download product with the computer program.
  • Weitere, die Erfindung verbessernde Maßnahmen werden nachstehend gemeinsam mit der Beschreibung der bevorzugten Ausführungsbeispiele der Erfindung anhand von Figuren näher dargestellt.Further measures improving the invention will be described in more detail below together with the description of the preferred embodiments of the invention with reference to figures.
  • Figurenlistelist of figures
  • Es zeigt:
    • 1 Ausführungsbeispiel der Vorrichtung 1;
    • 2 Ausführungsbeispiel des Verfahrens 100 zum Trainieren;
    • 3 Ausführungsbeispiel des Verfahrens 200 zum Betreiben;
    • 4 Wirkung der Vorrichtung 1 bei der Analyse medizinischer Bilder.
    It shows:
    • 1 Embodiment of the device 1 ;
    • 2 Embodiment of the method 100 to exercise;
    • 3 Embodiment of the method 200 to operate;
    • 4 Effect of the device 1 in the analysis of medical images.
  • 1 zeigt ein Ausführungsbeispiel der Vorrichtung 1. Eine Kamera 6 nimmt Bilder eines Bauteils 8 mit einem Riss 8a als Eingabesignal 2 auf, wobei die Belichtungseinstellung über den Parameter 61 gesteuert wird. Selbstverständlich können auch andere Einstellungen, etwa der Blickwinkel, die Verwendung von Filtern (wie optische Filter, Infrarot- oder UV-Sperrfilter) oder die Art der Aufnahme (wie Farbe, Rotfrei, Autofluoreszenz oder Blau) über den Parameter 61 gesteuert werden. 1 shows an embodiment of the device 1 , A camera 6 takes pictures of a component 8th with a crack 8a as input signal 2 on, with the exposure setting via the parameter 61 is controlled. Of course, other settings, such as the viewing angle, the use of filters (such as optical filters, infrared or UV cut filter) or the type of recording (such as color, red-free, autofluorescence or blue) on the parameter 61 to be controlled.
  • Das Eingabesignal 2 wird dem künstlichen neuronalen Netz 3 zugeführt. Das künstliche neuronale Netz 3 liefert als Endergebnis eine erste Wahrscheinlichkeit 36a dafür, dass das Eingabesignal 2 ein ordnungsgemäßes Bauteil 8 zeigt, sowie eine Wahrscheinlichkeit 36b dafür, dass das Eingabesignal 2 ein schadhaftes Bauteil 8 zeigt.The input signal 2 becomes the artificial neural network 3 fed. The artificial neural network 3 returns a first probability as the final result 36a for being the input signal 2 a proper component 8th shows, as well as a probability 36b for being the input signal 2 a defective component 8th shows.
  • Die Wirkungsweise der Erfindung ist jedoch nicht darauf beschränkt, dass genau zwei Wahrscheinlichkeiten berechnet werden, d.h., dass eine Zugehörigkeit zu genau zwei Klassen untersucht wird. Beispielsweise können beliebige Zwischenstufen zwischen den Zuständen „völlig ordnungsgemäß“ und „völlig schadhaft“ weitere Klassen definieren.However, the operation of the invention is not limited to calculating exactly two probabilities, that is to say belonging to exactly two classes is examined. For example, any intermediate stages between the states "completely correct" and "completely defective" can define other classes.
  • Intern besteht das neuronale Netz 3 aus fünf Faltungsschichten 31a-31e, zwei optionalen Pooling-Schichten 34a und 34b zur Reduzierung der Dimensionalität sowie Klassifikatorschichten 35a und 35b. Von den in den Faltungsschichten 31a-31e jeweils enthaltenen Faltungskernen sind in 1 der Übersichtlichkeit halber nur drei in der letzten Faltungsschicht 31e eingezeichnet und mit den Bezugszeichen 32a-32c bezeichnet. Die Faltungsschicht 31e ermittelt zu jedem Faltungskern 32a-32c die zugehörige Aktivierungskarte 33a-33c. Die Klassifikatorschichten 35a und 35b sind vollvernetzte Schichten (fully connected layers) in dem neuronalen Netzwerk 3. Internally, the neural network exists 3 from five folding layers 31a - 31e , two optional pooling layers 34a and 34b for reducing the dimensionality and classifier layers 35a and 35b , Of those in the folding layers 31a - 31e each contained folding cores are in 1 for clarity, only three in the last convolutional layer 31e marked and with the reference numerals 32a - 32c designated. The folding layer 31e detected to every convolution kernel 32a - 32c the associated activation card 33a - 33c , The classifier layers 35a and 35b are fully connected layers in the neural network 3 ,
  • Es ist rein zufällig, dass in dem in 1 gezeigten Beispiel genauso viele (zwei) Klassifikatorschichten 35a und 35b vorhanden sind wie Wahrscheinlichkeiten 36a und 36b berechnet werden. Es kann auch beispielsweise eine einzelne Klassifikatorschicht 35a oder 35b über die Zugehörigkeit zu sehr viel mehr, beispielsweise hunderten, Klassen urteilen. Beispielsweise definiert bei der automatischen Erkennung von Objekten, wie etwa Verkehrszeichen, jedes zu erkennende Objekt seine eigene Klasse.It is purely coincidental that in the in 1 As shown in the example just as many (two) classifier layers 35a and 35b are available as probabilities 36a and 36b be calculated. It can also be, for example, a single classifier layer 35a or 35b about belonging to much more, for example, hundreds of classes. For example, in the automatic recognition of objects such as traffic signs, each object to be recognized defines its own class.
  • Die Aggregatorschicht 37 ermittelt zu jeder Aktivierungskarte 33a-33c einen Aggregationswert 37a-37c und verrechnet die Aggregationswerte 37a-37c zusätzlich mit trainierbaren Gewichten 38a-38c zu einer Wahrscheinlichkeit 39a dafür, dass das Eingabesignal 2 ein ordnungsgemäßes Bauteil 8 zeigt, sowie zu einer Wahrscheinlichkeit 39b dafür, dass das Eingabesignal 2 ein schadhaftes Bauteil 8 zeigt. Die Ermittlung der Wahrscheinlichkeiten 39a und 39b kann beispielsweise für das Training der Gewichte 38a-38c genutzt werden, aber auch zur Plausibilisierung der von den Klassifikatorschichten 35a und 35b ermittelten Wahrscheinlichkeiten 36a und 36b.The aggregator layer 37 determined to each activation card 33a - 33c an aggregation value 37a - 37c and settle the aggregation values 37a - 37c additionally with trainable weights 38a - 38c to a probability 39a for being the input signal 2 a proper component 8th shows, as well as to a probability 39b for being the input signal 2 a defective component 8th shows. The determination of the probabilities 39a and 39b For example, for the training of weights 38a - 38c be used, but also for the plausibility of the classifier layers 35a and 35b determined probabilities 36a and 36b ,
  • Die Gewichte 38a-38c werden von der Auswerteeinheit 4 in Kombination mit den Aktivierungskarten 33a-33c genutzt, um die Relevanzkarte 41 zu ermitteln. Dabei entscheiden die Wahrscheinlichkeiten 36a und 36b darüber, welcher Satz von Gewichten 38a-38c verwendet wird. Die Relevanzkarte 41 gibt an, inwieweit Bereiche des Eingabesignals 2 für die Entscheidung des neuronalen Netzes 3 bezüglich der Wahrscheinlichkeiten 36a und 36b relevant gewesen sind.The weights 38a - 38c be from the evaluation unit 4 in combination with the activation cards 33a - 33c used the relevance map 41 to investigate. The probabilities decide 36a and 36b about what set of weights 38a - 38c is used. The relevance card 41 indicates to what extent ranges of the input signal 2 for the decision of the neural network 3 in terms of probabilities 36a and 36b have been relevant.
  • Die Wahrscheinlichkeiten 36a und 36b werden gemeinsam mit der Relevanzkarte 41 über die Ausgabeeinrichtung 5 ausgegeben. Zusätzlich wird die Relevanzkarte 41 einer Feedback-Einrichtung 7 zugeführt, die eine Stellgröße 42 für den Belichtungsparameter 61 der Kamera 6 ermittelt. Auf diese Weise wird sichergestellt, dass die Kamera 6 stets in einem optimalen Arbeitsbereich betrieben wird, um mögliche Risse 8a in dem untersuchten Bauteil 8 zu erkennen.The probabilities 36a and 36b be together with the relevance card 41 via the output device 5 output. In addition, the relevance card 41 a feedback facility 7 fed, which is a manipulated variable 42 for the exposure parameter 61 the camera 6 determined. This will ensure that the camera 6 always operated in an optimal working area to possible cracks 8a in the examined component 8th to recognize.
  • 2 zeigt ein Ausführungsbeispiel des Verfahrens 100 zum Trainieren der in 1 gezeigten Vorrichtung 1. Zum Training werden Lern-Eingangssignale 2 verwendet, deren Zugehörigkeiten 21 zu den Klassen, auf die die Wahrscheinlichkeiten 36a, 36b, 39a und 39b sich beziehen, vorab bekannt sind. 2 shows an embodiment of the method 100 to train in 1 shown device 1 , Training becomes learning input signals 2 used, their affiliations 21 to the classes to which the probabilities 36a . 36b . 39a and 39b relate to, are known in advance.
  • In Schritt 110 werden die Lern-Eingangssignale in das neuronale Netzwerk 3 eingegeben, das unter anderem Faltungsschichten 31a-31e enthält. Als Endergebnis liefert das neuronale Netzwerk die Wahrscheinlichkeiten 36a und 36b für die Zugehörigkeit zu Klassen.In step 110 be the learning input signals in the neural network 3 entered, including folding layers 31a-31e contains. As a result, the neural network provides the probabilities 36a and 36b for belonging to classes.
  • In Schritt 120 werden die Wahrscheinlichkeiten 36a und 36b mit der bekannten Zugehörigkeit 21 der Lern-Eingangssignale 2 zu den Klassen verglichen. Der Vergleich liefert eine Abweichung D.In step 120 become the probabilities 36a and 36b with the familiar affiliation 21 the learning input signals 2 compared to the classes. The comparison provides a deviation D.
  • In Schritt 130 wird mindestens ein trainierbarer Faltungskern 32a-32c in mindestens einer Faltungsschicht 31a-31e dahingehend angepasst, dass nach einem erneuten Durchlaufen von Schritt 120 die Abweichung D vermindert wird.In step 130 will be at least one trainable convolution kernel 32a-32c in at least one folding layer 31a-31e adapted such that after repeating step 120 the deviation D is reduced.
  • Parallel werden die Aktivierungskarten 33a-33c von der Faltungsschicht 31a-31e der Aggregationsschicht 37 zugeführt und dort zu Aggregationswerten 37a-37c verarbeitet. In Verbindung mit trainierbaren Gewichten 38a-38c werden von der Aggregationsschicht 37 Wahrscheinlichkeiten 39a und 39b für die Zugehörigkeit der Lern-Eingangssignale 2 zu Klassen ermittelt. Die Wahrscheinlichkeiten 39a und 39b stellen also in diesem Ausführungsbeispiel die Wirkung W der Gewichte 38a-38c dar.Parallel the activation cards 33a - 33c from the folding layer 31a-31e the aggregation layer 37 fed and there to aggregation values 37a-37c processed. In conjunction with trainable weights 38a-38c are from the aggregation layer 37 probabilities 39a and 39b for the affiliation of the learning input signals 2 determined to classes. The probabilities 39a and 39b So put in this embodiment, the effect W of the weights 38a-38c represents.
  • In Schritt 140 wird diese Wirkung W in Verbindung mit der bekannten Zugehörigkeit 21 der Lern-Eingangssignale 2 zu Klassen bewertet und ein entsprechendes Gütemaß M ausgegeben. Je besser die wahre Zugehörigkeit 21 im Einklang mit den Wahrscheinlichkeiten 39a und 39b steht, desto besser ist das Gütemaß M.In step 140 this effect W is associated with the known affiliation 21 the learning input signals 2 evaluated to classes and issued a corresponding quality measure M. The better the true affiliation 21 consistent with the probabilities 39a and 39b stands, the better is the quality measure M.
  • In Schritt 150 werden die Gewichte in der Aggregationsschicht 37 dahingehend angepasst, dass bei einem erneuten Durchlauf von Schritt 140 das Gütemaß M verbessert wird.In step 150 become the weights in the aggregation layer 37 adapted so that in a repeat of step 140 the quality measure M is improved.
  • Die auf diese Weise gewonnenen Gewichte 38a-38c können gemäß 1 zur Erstellung von Relevanzkarten 41 genutzt werden.The weights gained in this way 38a - 38c can according to 1 for creating relevance maps 41 be used.
  • 3 zeigt ein Ausführungsbeispiel des Verfahrens 200 zum Betreiben der Vorrichtung 1. In Schritt 210 wird ein Eingangssignal 2 in das künstliche neuronale Netzwerk 3 eingegeben. Diejenige Klasse, zu der die Klassifikatorschicht 35a-35b, und damit das neuronale Netzwerk 3 als Ganzes, die größte Wahrscheinlichkeit 36a bzw. 36b ermittelt, wird in Schritt 220 als die Ergebnisklasse 22 gewertet, zu der das Eingangssignal 2 gehört. 3 shows an embodiment of the method 200 for operating the device 1 , In step 210 becomes an input signal 2 into the artificial neural network 3 entered. the one Class to which the classifier layer 35a - 35b , and thus the neural network 3 as a whole, the greatest probability 36a respectively. 36b determined in step 220 as the result class 22 evaluated, to which the input signal 2 belongs.
  • In Schritt 230 werden anhand der Ergebnisklasse 22 Gewichte 38a-38c aus der Aggregationsschicht 37 abgerufen. Diese Gewichte werden in Schritt 240 zusammen mit den Aktivierungskarten 33a-33c der Faltungsschicht 31a-31e des neuronalen Netzwerks 3 zur Relevanzkarte 41 verarbeitet.In step 230 are determined by the result class 22 weights 38a-38c from the aggregation layer 37 accessed. These weights will be in step 240 along with the activation cards 33a-33c the folding layer 31a-31e of the neural network 3 to the relevance map 41 processed.
  • 4 zeigt ein Anwendungsbeispiel der Vorrichtung 1 im medizinischen Bereich. Teilbilder a und c zeigen jeweils Kamerabilder 2 einer Netzhaut. Die Aufgabe ist, die Bilder dahingehend zu klassifizieren, ob eine krankhafte Veränderung (hier: diabetische Retinopathie) vorliegt. 4 shows an application example of the device 1 in health care. Partial images a and c each show camera images 2 a retina. The task is to classify the images as to whether a pathological change (here: diabetic retinopathy) is present.
  • Teilbild b ist eine Überlagerung 2+41 des Kamerabildes 2 aus Teilbild a mit der hieraus gewonnenen Relevanzkarte 41. Ebenso ist Teilbild d eine Überlagerung 2+41 des Kamerabildes 2 aus Teilbild c mit der hieraus gewonnenen Relevanzkarte 41.Field b is an overlay 2 + 41 of the camera image 2 from partial image a with the relevance map derived from it 41 , Similarly, field d is an overlay 2 + 41 of the camera image 2 from part c with the relevance map obtained from it 41 ,
  • Sowohl Teilbild a als auch Teilbild c zeigen jeweils eine krankhaft veränderte Netzhaut, was durch einen Arzt festgestellt wurde. Dies wurde auch vom neuronalen Netzwerk 3 so erkannt. Der Arzt hat in den Teilbildern b und d jeweils diejenigen Bereiche, auf die er seine Diagnose gestützt hat und von denen jeweils zwei mit dem Bezugszeichen 9 bezeichnet sind, markiert. Der Vergleich mit der Relevanzkarte 41 zeigt, dass in vielen dieser Bereiche 9 auch Gebiete 41a liegen, die gemäß der Relevanzkarte 41 besonders wichtig sind.Both partial image a and partial image c each show a pathologically altered retina, which was determined by a physician. This was also done by the neural network 3 so recognized. In the partial images b and d, the physician has in each case those areas on which he has based his diagnosis and of which two each have the reference number 9 are marked marked. The comparison with the relevance card 41 shows that in many of these areas 9 also areas 41a lie according to the relevance map 41 are particularly important.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
  • Zitierte PatentliteraturCited patent literature
    • GB 2454857 B [0003]GB 2454857 B [0003]

Claims (10)

  1. Vorrichtung (1) zur Klassifizierung eines Gewebes, insbesondere einer Netzhaut, umfassend ein künstliches neuronales Netzwerk (3) mit mindestens einer Faltungsschicht (31a-31e), wobei die Faltungsschicht (31a-31e) eine Mehrzahl von trainierbaren Faltungskernen (32a-32c) enthält und zu jedem Faltungskern (32a-32c) eine Aktivierungskarte (33a-33c) liefert, die diskreten Positionen in der Eingabe der mindestens einen Faltungsschicht (31a-31e) jeweils einen Ausgabewert zuordnet, welcher ein Maß für die lokale Übereinstimmung der Eingabe mit dem jeweiligen Faltungskern (32a-32c) ist, wobei der mindestens einen Faltungsschicht (31a-31e) mindestens eine Klassifikatorschicht (35a-35b) nachgeschaltet ist, die ihre Eingabe mittels trainierbarer Gewichte auf einen Satz Wahrscheinlichkeiten (36a-36b) dafür abbildet, dass diese Eingabe zu einer von mehreren vorgegebenen Klassen, insbesondere ob das Gewebe gesund oder krankhaft verändert ist, zugehörig ist, wobei eine Auswerteeinheit (4) vorgesehen ist, welche dazu ausgebildet ist, durch gewichtete Summation der von der mindestens einen Faltungsschicht (31a-31e) erhaltenen Aktivierungskarten (33a-33c) mit in einer Aggregationsschicht (37) hinterlegten Gewichten (38a-38c) eine Relevanzkarte (41) der Ausgabe (33a-33c) der mindestens einen Faltungsschicht (31a-31e) zu ermitteln, wobei die Relevanzkarte (41) diejenigen Stellen des Gewebes, die für die Beurteilung maßgeblich gewesen sind, aufzeigt.Device (1) for classifying a tissue, in particular a retina, comprising an artificial neural network (3) with at least one folding layer (31a-31e), wherein the convolution layer (31a-31e) contains a plurality of trainable convolution cores (32a-32c) and provides to each convolution kernel (32a-32c) an activation map (33a-33c) representing discrete positions in the input of the at least one convolution layer (31a-32c). 31e) each assigns an output value which is a measure of the local match of the input with the respective convolution kernel (32a-32c), wherein the at least one convolution layer (31a-31e) is followed by at least one classifier layer (35a-35b) which maps its input by trainable weights to a set of probabilities (36a-36b) for making that input one of a plurality of predetermined classes, in particular whether the tissue is healthy or abnormally altered, is associated, wherein an evaluation unit (4) is provided which is designed by weighted summation of the activation cards (33a-33c) obtained from the at least one folding layer (31a-31e) with weights (38a-38c) deposited in an aggregation layer (37) Relevance map (41) of the output (33a-33c) to determine the at least one folding layer (31a-31e), wherein the relevance map (41) shows those parts of the tissue that have been relevant for the assessment.
  2. Vorrichtung (1) nach Anspruch 1, wobei die Auswerteeinheit (4) mindestens eine von der Klassifikatorschicht (35a-35b) ermittelte Wahrscheinlichkeit (36a-36b) als Eingabe erhält und abhängig von dieser Wahrscheinlichkeit (36a-36b) unterschiedliche in der Aggregationsschicht (37) hinterlegte Gewichte (38a-38c) berücksichtigt.Device (1) according to Claim 1 wherein the evaluation unit (4) receives as input at least one probability (36a-36b) determined by the classifier layer (35a-35b) and, depending on this probability (36a-36b), different weights (38a-38c) stored in the aggregation layer (37) ) considered.
  3. Vorrichtung (1) nach einem der Ansprüche 1 oder 2, wobei die Aktivierungskarte (33a-33c) der mindestens einen Faltungsschicht (31a-31e) zusätzlich der Aggregationsschicht (37) geführt ist, welche des Weiteren dazu ausgebildet ist, jeder von der mindestens einen Faltungsschicht (31a-31e) erhaltenen Aktivierungskarte (33a-33c) mindestens einen Aggregationswert (37a-37c) zuzuordnen, wobei die Aggregationsschicht (37) auch als eine Klassifikatorschicht ausgebildet ist, die die Wahrscheinlichkeiten (39a-39b) für die Zugehörigkeiten zu Klassen durch Gewichtung der Aggregationswerte (37a-37c) mit trainierbaren Gewichten (38a-38c) ermittelt.Device (1) according to one of Claims 1 or 2 in that the activation card (33a-33c) of the at least one folding layer (31a-31e) is additionally guided by the aggregation layer (37), which is further adapted to receive each activation card (33a) obtained from the at least one folding layer (31a-31e). 33c) assigns at least one aggregation value (37a-37c), the aggregation layer (37) also being designed as a classifier layer containing the probabilities (39a-39b) for the classifications by weighting the aggregation values (37a-37c) with trainable weights (38a-38c).
  4. Vorrichtung (1) nach Anspruch 3, wobei die Aggregationsschicht (37) dazu ausgebildet ist, mindestens einen Aggregationswert (37a-37c) durch Summation und/oder durch Mittelwertbildung und/oder Maximalwertbildung und/oder Minimalwertbildung und/oder Varianzbildung und/oder Medianbildung und/oder Perzentilbildung über die in der Aktivierungskarte (33a-33c) enthaltenen Werte zu ermitteln.Device (1) according to Claim 3 wherein the aggregation layer (37) is adapted to at least one aggregation value (37a-37c) by summation and / or by averaging and / or maximum value formation and / or minimum value formation and / or variance formation and / or median formation and / or percentile education on in the Activation card (33a-33c) to determine the values contained.
  5. Vorrichtung (1) nach einem der vorherigen Ansprüche, wobei die Klassifikatorschicht (35a-35b) mindestens eine vollvernetzte Schicht des künstlichen neuronalen Netzwerks (3) umfasst.Device (1) according to one of the preceding claims, wherein the classifier layer (35a-35b) comprises at least one fully crosslinked layer of the artificial neural network (3).
  6. Vorrichtung (1) nach einem der vorherigen Ansprüche, wobei mindestens eine Anzeigeeinrichtung (5) vorgesehen ist, die mindestens eine von der Klassifikatorschicht (35a-35b) ermittelte Wahrscheinlichkeit (36a-36b), und/oder mindestens eine Relevanzkarte (41), als Eingabe erhält und an einen Benutzer der Vorrichtung (1) ausgibt.Device (1) according to one of the preceding claims, wherein at least one display device (5) is provided, the at least one of the classifier layer (35a-35b) determined probability (36a-36b), and / or at least one relevance card (41), as Input receives and outputs to a user of the device (1).
  7. Vorrichtung (1) nach einem der vorherigen Ansprüche, wobei mindestens eine Einrichtung (6) zur physikalischen Erfassung des Eingangssignals (2) mindestens einen Parameter (61) aufweist, der sich auf den Prozess der Erfassung auswirkt, und dass eine Feedback-Einrichtung (7) vorgesehen ist, die dazu ausgebildet ist, aus der Relevanzkarte (41) mindestens eine Stellgröße (42) für den Parameter (61) zu ermitteln.Device (1) according to one of the preceding claims, wherein at least one device (6) for the physical detection of the input signal (2) has at least one parameter (61) which has an effect on the process of detection, and in that a feedback device (7 ) is provided, which is adapted to determine from the relevance card (41) at least one manipulated variable (42) for the parameter (61).
  8. Verfahren (100) zum Trainieren einer Vorrichtung (1) nach einem der vorherigen Ansprüche mit den Schritten: • eine Mehrzahl von Lern-Eingangssignalen (2) wird in das künstliche neuronale Netzwerk (3) eingegeben (110); • die zu jedem Lern-Eingangssignal (2) von der Klassifikatorschicht (35a-35b) ermittelten Wahrscheinlichkeiten (36a-36b) werden mit der bekannten Zugehörigkeit (21) der Lern-Eingangssignale (2) zu den Klassen verglichen (120); • mindestens ein trainierbarer Faltungskern (32a-32c) in mindestens einer Faltungsschicht (31a-31e) wird dahingehend angepasst (130), dass eine in dem Vergleich (120) ermittelte Abweichung (D) vermindert wird; • in der Aggregationsschicht (37) wird ein Satz Gewichte (38a-38c) hinterlegt, und die Wirkung (W) der Aggregationsschicht (37) mit diesen Gewichten (38a-38c) auf jedes Lern-Eingangssignal (2) wird mit einem Gütemaß (M) bewertet (140); • mindestens ein Gewicht (38a-38c) in der Aggregationsschicht (37) wird dahingehend angepasst (150), dass der Wert des Güßemaßes verbessert wird.Method (100) for training a device (1) according to one of the preceding claims with the steps: A plurality of learning input signals (2) are input to the artificial neural network (3) (110); The probabilities (36a-36b) determined for each learning input signal (2) from the classifier layer (35a-35b) are compared (120) with the known affiliation (21) of the learning input signals (2); • at least one trainable convolution kernel (32a-32c) in at least one convolution layer (31a-31e) is adapted (130) to reduce a deviation (D) determined in the comparison (120); In the aggregation layer (37) a set of weights (38a-38c) is deposited, and the effect (W) of the aggregation layer (37) with these weights (38a-38c) on each learning input signal (2) is given a quality measure ( M) (140); • at least one weight (38a-38c) in the aggregation layer (37) is adapted (150) to improve the value of the gauge.
  9. Verfahren (200) zum Betreiben einer Vorrichtung (1) nach einem der vorherigen Ansprüche mit den Schritten: • ein Eingangssignal (2) wird in das künstliche neuronale Netzwerk (3) eingegeben (210); • die Klasse, zu der die Klassifikatorschicht (35a-35b) die größte Wahrscheinlichkeit (36a-36b) ermittelt, wird als die Ergebnisklasse (22) gewertet (220), zu der das Eingangssignal (2) gehört; • anhand der Ergebnisklasse (22) werden Gewichte (38a-38c) aus der Aggregationsschicht (37) abgerufen (230), oder es werden feste Gewichte (38a-38c) verwendet; • aus den Gewichten (38a-38c) und den Aktivierungskarten (33a-33c) der Faltungsschicht (31a-31e) wird die Relevanzkarte (41) ermittelt (240).Method (200) for operating a device (1) according to one of the preceding claims with the steps: • an input signal (2) is input to the artificial neural network (3) (210); The class to which the classifier layer (35a-35b) has the highest probability (36a-36b) is determined to be the result class (22) to which the input signal (2) belongs; Using the result class (22), weights (38a-38c) are retrieved from the aggregation layer (37) (230), or fixed weights (38a-38c) are used; From the weights (38a-38c) and the activation cards (33a-33c) of the convolution layer (31a-31e), the relevance map (41) is determined (240).
  10. Computerprogramm, enthaltend maschinenlesbare Anweisungen, die, wenn sie auf einem Computer ausgeführt werden, den Computer zu einer Vorrichtung (1) nach einem der Ansprüche 1 bis 7 aufwerten, und/oder dazu veranlassen, ein Verfahren (100, 200) nach einem der Ansprüche 8 oder 9 auszuführen.A computer program containing machine readable instructions which, when executed on a computer, move the computer to a device (1) according to any one of Claims 1 to 7 upgrade, and / or cause, a method (100, 200) according to one of Claims 8 or 9 perform.
DE102018205561.0A 2017-08-18 2018-04-12 Device for classifying signals Pending DE102018205561A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102017214424 2017-08-18
DE102017214424.6 2017-08-18

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810941723.XA CN109409188A (zh) 2017-08-18 2018-08-17 用于信号分类的设备

Publications (1)

Publication Number Publication Date
DE102018205561A1 true DE102018205561A1 (de) 2019-02-21

Family

ID=65235293

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018205561.0A Pending DE102018205561A1 (de) 2017-08-18 2018-04-12 Device for classifying signals

Country Status (2)

Country Link
CN (1) CN109409188A (de)
DE (1) DE102018205561A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020025244A1 (de) 2018-08-03 2020-02-06 Robert Bosch Gmbh Verfahren und vorrichtung zum ermitteln einer erklärungskarte
WO2020025245A1 (de) 2018-08-03 2020-02-06 Robert Bosch Gmbh Verfahren und vorrichtung zum ermitteln einer erklärungskarte

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2454857B (en) 2006-09-18 2010-06-09 Bosch Gmbh Robert Method for processing a microscope intensity image

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2454857B (en) 2006-09-18 2010-06-09 Bosch Gmbh Robert Method for processing a microscope intensity image

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020025244A1 (de) 2018-08-03 2020-02-06 Robert Bosch Gmbh Verfahren und vorrichtung zum ermitteln einer erklärungskarte
WO2020025245A1 (de) 2018-08-03 2020-02-06 Robert Bosch Gmbh Verfahren und vorrichtung zum ermitteln einer erklärungskarte

Also Published As

Publication number Publication date
CN109409188A (zh) 2019-03-01

Similar Documents

Publication Publication Date Title
EP2467828B1 (de) Verfahren und system zur automatischen objekterkennung und anschliessenden objektverfolgung nach massgabe der objektform
DE60020795T2 (de) Real-time modeling of the behavior of human vision systems
DE60034668T2 (de) METHOD FOR TEXTURE ANALYSIS OF DIGITAL IMAGES
DE10312018B4 (de) System and method for ultrasound image processing
DE10157958B4 (de) Image processing method and apparatus
DE112012001851T5 (de) Determine Fluid Leakage Volumes in Pipelines
EP2284795A2 (de) Quantitative Analyse, Visualisierung und Bewegungskorrektur in dynamischen Prozessen
DE112017001311T5 (de) System and method for training an object classifier by machine learning
EP1088211B1 (de) Akustisches diagnosesystem und -verfahren
EP2828794B1 (de) Verfahren und vorrichtung zum auswerten von ergebnissen einer blickerfassung
DE19521346A1 (de) Image examination / recognition method, method used therein for generating reference data and devices therefor
DE102010016630A1 (de) Method and device for characterizing skin irregularities and method for evaluating the anti-aging effect of a cosmetic product
DE19614975A1 (de) Facial image processing system
DE102004032118A1 (de) Object recognition method for vehicles
DE102011106072A1 (de) SHADOW REMOVAL IN A PICTURE BASED ON A VEHICLE-BASED CAMERA USING AN OPTIMIZED LINEAR AXIS
DE102012220698A1 (de) Recommendation based on a social network
DE102011117585A1 (de) Systems and methods for tracking objects
EP1827202B1 (de) Verfahren zur durchführung eines kontrastsehtests
EP1439396A2 (de) Verfahren zur Analyse und Überwachung des Teilentladungsverhaltens eines elektrischen Betriebsmittels
WO2005048195A2 (de) Verfahren zur korrespondenzanalyse in bilddatensätzen
DE112010002232T5 (de) Semantic scene segmentation using random multinominal logit (RML)
DE69530566T2 (de) Hough transform with fuzzy gradient and choice
WO2004102291A1 (de) Auslegung von werkzeugen und prozessen für die umformtechnik
DE102008017846A1 (de) Method and user interface for the graphical representation of medical data
DE102006021036A1 (de) Apparatus and method for computer aided analysis of mammograms

Legal Events

Date Code Title Description
R012 Request for examination validly filed