DE102020209651A1 - METHOD OF IMAGE PROCESSING BY A NEURAL NETWORK - Google Patents
METHOD OF IMAGE PROCESSING BY A NEURAL NETWORK Download PDFInfo
- Publication number
- DE102020209651A1 DE102020209651A1 DE102020209651.1A DE102020209651A DE102020209651A1 DE 102020209651 A1 DE102020209651 A1 DE 102020209651A1 DE 102020209651 A DE102020209651 A DE 102020209651A DE 102020209651 A1 DE102020209651 A1 DE 102020209651A1
- Authority
- DE
- Germany
- Prior art keywords
- feature map
- kernel
- ann
- generated
- filter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/698—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Abstract
Die vorliegende Erfindung betrifft ein computerimplementiertes Verfahren in einem künstlichen neuronalen Netzwerk, KNN, wobei das KNN mindestens einen Convolutional Layer mit mindestens einem Filterkernel umfasst, mit den Schritten Drehen jedes Filterkernels um mindestens einen Winkel aus 90, 180 und 270 Grad, wodurch für jeden Filterkernel für jeden für ein Drehen verwendeten Winkel jeweils ein gedrehter Filterkernel erzeugt wird, wobei die erzeugten gedrehten Filterkernel zusammen mit dem jeweiligen Filterkernel eine Kernelgruppe bilden, Filtern eines Bildes durch jeden Filterkernel einer Kernelgruppe, wodurch für jeden Filterkernel einer Kernelgruppe jeweils eine Merkmalskarte erzeugt wird, und Zusammenfassen aller erzeugten Merkmalskarten zu einer Gesamtmerkmalskarte. Weiterhin wird eine entsprechende Vorrichtung, sowie ein computerlesbares Medium vorgeschlagen.The present invention relates to a computer-implemented method in an artificial neural network, ANN, the ANN comprising at least one convolutional layer with at least one filter kernel, with the steps of rotating each filter kernel by at least one angle from 90, 180 and 270 degrees, whereby for each filter kernel a rotated filter kernel is generated for each angle used for rotating, the rotated filter kernels generated together with the respective filter kernel forming a kernel group, filtering an image through each filter kernel of a kernel group, whereby a respective feature map is generated for each filter kernel of a kernel group, and Combining all generated feature maps into an overall feature map. Furthermore, a corresponding device and a computer-readable medium are proposed.
Description
Die vorliegende Erfindung betrifft ein computerimplementiertes Verfahren zur Verarbeitung eines Bildes in einem Convolutional Neural Network (CNN) (dt. etwa „faltendes neuronales Netzwerk“), das ein sogenanntes künstliches neuronales Netzwerk (KNN) ist. Die Begriffe CNN, KNN und NN werden in diesem Dokument gleichwertig verwendet.The present invention relates to a computer-implemented method for processing an image in a convolutional neural network (CNN), which is a so-called artificial neural network (ANN). The terms CNN, KNN and NN are used interchangeably in this document.
Convolutional Neural Networks (CNN) sind bekannt, z.B. aus „Object Recognition with Gradient-Based Learning“ von Yann LeCun et al. Hierbei werden durch das CNN automatisch Merkmale (engl. features) aus den Bildern extrahiert. Innerhalb einer Faltungsschicht (engl. Convolutional Layer, auch bezeichnet mit CL oder Conv Layer) wird der Input auf die gleiche Weise durch mindestens einen Filterkernel verarbeitet. Dies wird auch Parameter-Sharing genannt und trägt zur Translationsäquivarianz der Faltungsschichten bei. Durch die automatisierte Merkmals-Extraktion (engl. Feature-Extraction) wird die Effizienz eines CNNs, bei beispielsweise einer Klassifikation (engl. Classification) von Bildern, wesentlich erhöht. Aufgrund dessen eignen sich CNNs zudem speziell für die Verarbeitung von zweidimensionalen Bildern.Convolutional Neural Networks (CNN) are known, e.g. from "Object Recognition with Gradient-Based Learning" by Yann LeCun et al. CNN automatically extracts features from the images. Within a convolutional layer (also known as CL or Conv Layer), the input is processed in the same way by at least one filter kernel. This is also called parameter sharing and contributes to the translational equivariance of the convolutional layers. The automated feature extraction significantly increases the efficiency of a CNN, for example when classifying images. Because of this, CNNs are also particularly suitable for processing two-dimensional images.
Sogenannte künstliche Intelligenz (KI; engl. artificial intelligence: AI) und insbesondere Machine Learning (ML) und Deep Learning (DL) wird aufgrund des Technologiefortschrittes in immer komplexeren und nichtlinearen Problemstellungen in unterschiedlichsten Bereichen von Wissenschaft und Technik eingesetzt.So-called artificial intelligence (AI) and in particular machine learning (ML) and deep learning (DL) is used due to technological advances in increasingly complex and non-linear problems in various areas of science and technology.
Beispielsweise in der Ophthalmologie, Dermatologie und Mikroskopie, also in der diagnostischen 2D-Bildgebung, oder medizinischen Diagnostik sowie Genetik nimmt deshalb der Einsatz von Deep Learning Algorithmen zur Automatisierung manueller Bildverarbeitungsaufgaben wie Klassifikation, Lokalisation und Segmentierung rapide zu. Eine wichtige Anwendung ist beispielsweise die Zellklassifikation. Die Erfindung beschränkt sich allerdings nicht hierauf, sondern kann auf Bilddaten jeder Art angewendet werden.For example, in ophthalmology, dermatology and microscopy, i.e. in diagnostic 2D imaging, or medical diagnostics and genetics, the use of deep learning algorithms to automate manual image processing tasks such as classification, localization and segmentation is increasing rapidly. An important application, for example, is cell classification. However, the invention is not limited to this, but can be applied to image data of any type.
Hierbei umfasst die Lösung einer Bildverarbeitungsaufgabe mit einer künstlichen Intelligenz in der Regel eine Datenakquisition, ein Training und eine Evaluation des Modells. Hierbei wird der Begriff der Datenakquisition allgemein dafür verwendet, die notwendigen Daten für ein Training zu beschaffen. Dazu kann die Datenakquisition auch Vorgänge beinhalten, die diese Daten für das Training vorbereiten oder optimieren. Ein Beispiel solcher Vorgänge ist zum Beispiel Data Augmentation, welches eingesetzt wird, um die Datenbasis zu vergrößern.The solution to an image processing task with artificial intelligence usually includes data acquisition, training and an evaluation of the model. The term data acquisition is generally used here to obtain the necessary data for training. In addition, data acquisition can also include processes that prepare or optimize this data for training. An example of such processes is data augmentation, which is used to enlarge the database.
Allgemein können Motive, also auf Bildern abgebildete Gegenstände, Lebewesen, Symbole, wie Schriftzeichen oder Zahlen, oder andere Abbildungen in verschiedenen Transformationen, die keine entscheidenden Merkmale zur Klassifikation des Motives darstellen, vorliegen. Insbesondere können diese Transformationen Verschiebungen oder Drehungen, d.h. Translation und Rotation, sein.In general, motifs, ie objects, living beings, symbols such as characters or numbers, or other images depicted in images can be present in various transformations that do not represent any decisive characteristics for the classification of the motif. In particular, these transformations can be translations or rotations, i.e. translation and rotation.
Solche Transformationsvariationen können durch Standardarchitekturen 200, wie in
Insbesondere wird in Standardarchitekturen das Eingangsbild 210 durch die Filterkernel eines CL 220a gefiltert, wobei durch die Filterkernel eine Merkmalskarte 230a erzeugt wird.
Die Merkmalskarte 230a bzw. 230b ist hierbei eine 3D-Merkmalskarte, die aus den drei bzw. fünf 2D-Merkmalskarten besteht, die durch die drei bzw. fünf Filterkernel erzeugt werden.The
Zur Reduktion der Daten ist ebenfalls bekannt einen MaxPool Layer 235a, 235b, wie in
In
In
Die reduzierten Merkmalskarten 240a und 240b sind entsprechend ebenfalls 3D-Merkmalskarten.Accordingly, the reduced
Zur weiteren Verarbeitung wird dann die Merkmalskarte, die einen mehrdimensionalen Output darstellt, in einen eindimensionalen Vektor überführt. Diesen Vorgang nennt man „Flattening“, und das Ergebnis davon ist als Vektor 255 zu sehen.The feature map, which represents a multidimensional output, is then converted into a one-dimensional vector for further processing. This process is called "flattening" and the result can be seen as
Eine verbesserte Klassifikation hinsichtlich geometrischer Transformationen der Objekte durch das NN kann erreicht werden, wenn das NN auf solche verschobenen oder gedrehten Motive trainiert wird.An improved classification with regard to geometric transformations of the objects by the NN can be achieved if the NN is trained on such shifted or rotated motifs.
Ein Lösungsansatz hierzu ist die künstliche Generierung solcher Trainingsdaten, beispielsweise durch geometrische Data Augmentation Verfahren, d.h. die vorhandenen Trainingsdaten werden durch Translation und Rotation verändert und dadurch neue, zusätzliche Trainingsdaten erzeugt.One solution to this is the artificial generation of such training data, for example using geometric data augmentation methods, i.e. the existing training data is changed by translation and rotation, thereby generating new, additional training data.
Da Standardarchitekturen, wie oben definiert, aber nicht invariant gegenüber Rotationen und Translationen sind, müssen diese Variationen der Daten, wenn die Anwendung es erfordert, durch die Trainingsdaten abgedeckt werden. Dies führt, aufgrund einer größeren Trainingsdatenmenge, zu einem erhöhten Bedarf an Rechenintensität, einer längeren Trainingszeit des Netzwerkes sowie zu einer größeren benötigten Netzwerkkapazität. Das Netzwerk muss beispielsweise alle Varianten einer Drehung eines Objektes durch die Feature-Extraktion abbilden.However, since standard architectures, as defined above, are not invariant to rotations and translations, these variations in the data must be covered by the training data if the application requires it. Due to a larger amount of training data, this leads to an increased need for computing intensity, a longer training time for the network and a larger required network capacity. For example, the network must map all variants of a rotation of an object through feature extraction.
Zusätzlich bietet das geometrische Data Augmentation Verfahren nur begrenzte Möglichkeiten, die Trainingsdaten hinsichtlich verschiedener Transformationen zu variieren. Da es sich um eine synthetische Generierung von neuen Daten handelt, spiegeln diese unter Umständen, beispielsweise aufgrund von verlustbehafteten Rotationen, die Realität nicht exakt wieder.In addition, the geometric data augmentation method offers only limited possibilities to vary the training data with regard to different transformations. Since this is a synthetic generation of new data, it may not reflect reality exactly, for example due to lossy rotations.
Ist zusätzlich nicht bekannt, welche Transformationsvariationen im Ausgangsdatensatz vorliegen, kann durch ein Data Augmentation Verfahren ein Ungleichgewicht bezüglich verschiedener Ausprägungen einer Klasse erzeugt werden.If it is also not known which transformation variations are present in the original data set, an imbalance with regard to different characteristics of a class can be created using a data augmentation method.
Nachteilig an Data Augmentation Verfahren ist also, dass diese nur begrenzte Möglichkeiten bieten, die Trainingsdaten hinsichtlich verschiedener Transformationen zu variieren und dass es zusätzlich den Gesamtaufwand des Lösungsprozesses erhöht. Insbesondere wird der Bedarf hinsichtlich Speicher und Rechenintensität erhöht.A disadvantage of data augmentation methods is that they offer only limited options for varying the training data with regard to different transformations and that it also increases the overall effort of the solution process. In particular, the need for memory and computational intensity is increased.
Es ist daher Aufgabe der Erfindung, die Nachteile des Standes der Technik zu überwinden, und ein ressourcensparendes Verfahren bereitzustellen.It is therefore the object of the invention to overcome the disadvantages of the prior art and to provide a resource-saving method.
Die Aufgabe wird durch den Gegenstand des unabhängigen Anspruch 1 gelöst.The object is solved by the subject matter of
Demnach umfasst ein computerimplementiertes Verfahren in einem KNN, wobei das KNN mindestens einen Convolutional Layer 320 mit mindestens einem Filterkernel umfasst, folgende Schritte: Drehen 110 jedes Filterkernels um mindestens einen Winkel aus 90, 180 und 270 Grad, wodurch für jeden Filterkernel für jeden für ein Drehen verwendeten Winkel jeweils ein gedrehter Filterkernel erzeugt wird, wobei die erzeugten gedrehten Filterkernel zusammen mit dem jeweiligen Filterkernel eine Kernelgruppe bilden. Filtern 120 eines Bildes durch jeden Filter jeder Kernelgruppe, wodurch für jeden Filter jeder Kernelgruppe jeweils eine Merkmalskarte erzeugt wird. Und Zusammenfassen 130 aller erzeugten Merkmalskarten einer Kernelgruppe zu einer Gesamtmerkmalskarte.Accordingly, a computer-implemented method in an ANN, the ANN comprising at least one convolutional layer 320 with at least one filter kernel, comprises the following steps: Rotating 110 each filter kernel by at least one of 90, 180 and 270 degrees, whereby for each filter kernel for each one Rotate used angle in each case a rotated filter kernel is generated, wherein the generated rotated filter kernels together with the respective filter kernel form a kernel group. Filtering 120 an image through each filter of each kernel group, thereby generating a feature map for each filter of each kernel group. And combining 130 all generated feature maps of a kernel group into an overall feature map.
Hierbei sind die durch den jeweiligen Filterkernel erzeugten Merkmalskarten zweidimensional. Die Gesamtmerkmalskarten sind ebenfalls zweidimensional. Die Gesamtheit aller Gesamtmerkmalskarten kann aber beim Vorliegen von mehr als einem Ausgangsfilterkernel und somit bei mehr als einer Kernelgruppe dreidimensional sein.In this case, the feature maps generated by the respective filter kernel are two-dimensional. The overall feature maps are also two-dimensional. However, the entirety of all feature maps can be three-dimensional if there is more than one output filter kernel and thus if there is more than one kernel group.
Zusammen ergeben somit die 2D-Gesamtmerkmalskarten eine 3D-Gesamtmerkmalskarte, zumindest für mehr als eine Kernelgruppe.Together, the 2D overall feature maps thus result in a 3D overall feature map, at least for more than one kernel group.
Dadurch können alle Varianten, d.h. Drehungen und Verschiebungen, durch ein und dieselbe Feature-Extraktion abgebildet werden.This allows all variants, i.e. rotations and translations, to be mapped by one and the same feature extraction.
Weiterhin wird eine entsprechende Vorrichtung, sowie ein computerlesbares Medium vorgeschlagen.Furthermore, a corresponding device and a computer-readable medium are proposed.
Bevorzugte Ausführungen der Erfindung sind in den Unteransprüchen angegeben. Weitere Vorteile, Merkmale und Eigenschaften der Erfindung werden durch die folgende Beschreibung bevorzugter Ausführungen der beiliegenden Zeichnungen erläutert, in denen zeigt:
-
1 ein Verfahren entsprechend einem Ausführungsbeispiel, -
2 ein NN entsprechend dem Stand der Technik, -
3 ein NN entsprechend einem Ausführungsbeispiel, -
4 Beispieldaten des MNIST Datensatzes, -
5 Beispieldaten von Zellabbildungen, -
6 Filterkernel entsprechend einem Ausführungsbeispiel, -
7 Zusammenfassen der Merkmalskarten entsprechend einem Ausführungsbeispiel, -
8 ein Beispiel für einen MaxPool Layer entsprechend dem Stand der Technik, -
9 einen MaxBlurPool Layer, und -
10 Module gemäß einem Ausführungsbeispiel für ein NN.
-
1 a method according to an embodiment, -
2 a state-of-the-art NN, -
3 a NN according to an embodiment, -
4 sample data from the MNIST data set, -
5 example data of cell images, -
6 filter kernel according to an embodiment, -
7 Summarizing the feature maps according to an embodiment, -
8th an example of a MaxPool Layer according to the state of the art, -
9 a MaxBlurPool Layer, and -
10 Modules according to an embodiment for a NN.
Für dieselben oder ähnliche Komponenten oder Schritte werden nachfolgend dieselben oder ähnliche Bezugszeichen verwendet.The same or similar reference symbols are used below for the same or similar components or steps.
Mikroskopiedaten, wie etwa in
Die zuvor genannten Variationen von Transformationen werden durch übliche Netzwerkarchitekturen nicht abgedeckt.The previously mentioned variations of transformations are not covered by usual network architectures.
Auch ist es schwierig und zeitintensiv, alle möglichen Rotationen und Verschiebungen bei der Aufnahme eines Datensatzes abzubilden. Aus diesen Gründen wird die Abbildung der Transformationsvariationen beispielsweise durch Data Augmentation nötig.It is also difficult and time-consuming to map all possible rotations and displacements when recording a data set. For these reasons, the mapping of the transformation variations, for example through data augmentation, becomes necessary.
Die generelle Data Augmentation wird als Verfahren zum Lernen robusterer Modelle eingesetzt. Es dient als Lösung für das Training mit unzureichenden Datensätzen. Ein möglicher Data Augmentation Ansatz bezieht sich auf die geometrischen Transformationen. Dies sorgt für die künstliche Dilatation des Trainingsdatensatzes, um so viele verschiedene Ausprägungen einer Klasse wie möglich durch unterschiedliche Transformationen abzudecken. Dadurch erhöht sich jedoch der Aufwand der Datenakquisition und somit des ganzen KI-getriebenen Lösungsprozesses.General data augmentation is used as a method for learning more robust models. It serves as a solution for training with insufficient data sets. A possible data augmentation approach refers to the geometric transformations. This takes care of the artificial dilation of the training data set in order to cover as many different instances of a class as possible through different transformations. However, this increases the effort involved in data acquisition and thus in the entire AI-driven solution process.
Die vorliegende Erfindung löst daher das Problem so, dass Transformationsvariationen nicht mehr durch den Datensatz abgebildet werden müssen, sondern die Netzwerkarchitektur derart ausgestaltet ist, ohne zusätzliche Transformationsvariationen in den Daten auszukommen.The present invention therefore solves the problem in such a way that transformation variations no longer have to be mapped by the data set, but the network architecture is designed in such a way that it does not require additional transformation variations in the data.
Dazu soll die Architektur in ihrer Gesamtheit Rotations- und Translationsinvarianz als Eigenschaft aufweisen. Dies bedeutet, dass das Netzwerk gegenüber einer Verschiebung oder Drehung des abgebildeten Motivs invariant ist, d.h. dass die Klassifikation des Bildes unabhängig von der Verschiebung oder Drehung erfolgen kann.For this purpose, the architecture as a whole should have rotation and translation invariance as a property. This means that the network is invariant to a translation or rotation of the imaged subject, i.e. the classification of the image can be done independently of the translation or rotation.
Invarianz bezeichnet hier allgemein, dass die genaue Lokalisierung oder Orientierung eines erkannten Merkmales eine geringere Rolle spielt, d.h. die genaue Stelle oder Orientierung eines Merkmales oder Objektes in einer Abbildung führt zu keiner anderen Klassifikation. In anderen Worten, ob ein Hund rechts oder links in einem Bild sitzt, ändert nichts an der Klassifikation „Hund.“ Oder entsprechend, ob das Motiv des Hundes innerhalb des Bildes gedreht wird, ändert ebenfalls nichts an der Klassifikation.Invariance here generally means that the exact localization or orientation of a recognized feature plays a minor role, i.e. the exact location or orientation of a feature or object in an image does not lead to any other classification. In other words, whether a dog sits on the right or left of an image does not change the classification "dog." Or similarly, whether the subject of the dog is rotated within the image does not change the classification either.
Äquivarianz ermöglicht es dem Netzwerk, die Erkennung von Kanten, Texturen und Formen an verschiedenen Orten und bei verschiedenen Orientierungen zu verallgemeinern. Mit anderen Worten, die Kanten eines Objektes in einer Abbildung an verschiedenen Orten oder Orientierungen zu erkennen, kann durch ähnliche Berechnung durchgeführt werden.Equivariance allows the network to generalize the detection of edges, textures, and shapes in different locations and at different orientations. In other words, detecting the edges of an object in an image at different locations or orientations can be done by similar computation.
Das erfindungsgemäße Prinzip wird beispielsweise verwirklicht durch ein computerimplementiertes Verfahren 100 in einem KNN. Dieses KNN umfasst hierbei mindestens einen Convolutional Layer, CL. Innerhalb des CL befindet sich jeweils mindestens ein Filterkernel.The principle according to the invention is implemented, for example, by a computer-implemented
Das Verfahren 100 in
In Schritt 110 wird jeder Filterkernel 610, 710 des CL um mindestens einen Winkel aus 90, 180 und 270 Grad gedreht. Es ist möglich, dass je nach Einsatzzweck einer oder zwei der Winkel die Anwendungsanforderungen decken. Es können auch alle drei Winkel angewendet werden. Durch das Anwenden jedes Winkels auf den Ausgangskernel wird jeweils ein gedrehter Filterkernel 620, 630, 640, 720, 730, 740 erzeugt. Wird beispielsweise nur der 90 Grad-Winkel angewendet, so wird nur ein gedrehter Filterkernel erzeugt. Werden sowohl der 90, der 180 als auch der 270 Grad-Winkel angewendet, werden für den Ausgangskernel drei gedrehte Filterkernel erzeugt. Die erzeugten gedrehten Filterkernel bilden zusammen mit dem jeweiligen Ausgangsfilterkernel 610, 710 eine Kernelgruppe.In
In Schritt 120 wird ein Bild, das beispielsweise klassifiziert werden soll, durch jede Kernelgruppe gefiltert. Hierdurch wird für das Bild durch jeden Filter einer Kernelgruppe eine Merkmalskarte erzeugt. Man kann auch sagen, dass für jeden Filter einer Kernelgruppe hinsichtlich des Bildes, das gefiltert wird, eine Merkmalskarte erzeugt bzw. generiert wird.In
In Schritt 130 werden die erzeugten Merkmalskarten einer Kernelgruppe zu einer Gesamtmerkmalskarte zusammengefasst.In
Das Zusammenfassen der erzeugten Merkmalskarten kann durch verschiedene Operationen bewirkt werden.The merging of the generated feature maps can be effected by various operations.
Beispielsweise können die Merkmalskarten addiert werden. Hierzu werden die erzeugten Merkmalskarten zu einer Gesamtmerkmalskarte pixelweise addiert.For example, the feature maps can be added. For this purpose, the generated feature maps are added pixel by pixel to form an overall feature map.
Alternativ oder zusätzlich kann eine Maximum-Funktion verwendet werden. Hierbei wird das Maximum der Pixelwerte der Merkmalskarten des Bildes in Abhängigkeit der Channel-Dimension, d.h. an jeder Stelle (x,y) gleichzeitig in allen Merkmalskarten bestimmt. Das Maximum bildet dann den neuen Pixelwert an der Stelle (x,y) der Gesamtmerkmalskarte.Alternatively or additionally, a maximum function can be used. Here, the maximum of the pixel values of the feature maps of the image is determined as a function of the channel dimension, i.e. at each point (x,y) simultaneously in all feature maps. The maximum then forms the new pixel value at location (x,y) on the overall feature map.
Es können stattdessen oder zusätzlich auch eine Minimum-Funktion und/oder eine Durchschnitts-Funktion verwendet werden. Diese sind analog definiert.A minimum function and/or an average function can also be used instead or in addition. These are defined analogously.
Schließlich kann auch eine gewichtete Summenfunktion der Pixelwerte verwendet werden. Hierbei werden die Pixelwerte jeder Merkmalskarte aufsummiert, wobei jedem Summanden eine Gewichtung in Form eines Faktors gegeben wird. Diese Gewichtungen können vorher definiert, oder durch einen beliebigen Lernansatz trainiert werden.Finally, a weighted sum function of the pixel values can also be used. Here, the pixel values of each feature map are summed up, with each summand being given a weighting in the form of a factor. These weights can be predefined, or trained by any learning approach.
Welche der oben aufgeführten Funktionen zur Zusammenfassung der Merkmalskarten zum Einsatz kommt, kann dem KNN als Parameter eingegeben werden. Eine entsprechende externe Information der Auswahl kann beispielsweise durch einen Anwender vorgegeben oder durch ein weiteres KNN erzeugt werden.Which of the functions listed above is used to summarize the feature maps can be entered as a parameter in the ANN. Corresponding external information about the selection can, for example, be specified by a user or generated by another ANN.
Optional kann anschließend ein Schritt 140 erfolgen, bei dem die Datenmenge der Gesamtmerkmalskarte durch Anwenden eines Pooling Layers 335 auf die Gesamtmerkmalskarte reduziert wird. Dadurch wird eine reduzierte Gesamtmerkmalskarte 340 erzeugt.Optionally, a
Die Schritte 110, 120 und 130 können zusammen auch als Faltung, bezeichnet werden, und der Schritt 140 kann als Pooling bezeichnet werden.
Als weitere Ausführungsform können Faltung und Pooling in beliebiger Kombination, und auch mehrfach, ausgeführt werden.As a further embodiment, convolution and pooling can be carried out in any combination, and also multiple times.
Optional kann weiterhin eine erste Fouriertransformation, FFT, auf die Gesamtmerkmalskarte oder die reduzierte Gesamtmerkmalskarte angewendet werden, wodurch eine erste modifizierte Gesamtmerkmalskarte erzeugt wird.Optionally, a first Fourier transform, FFT, may further be applied to the full feature map or the reduced full feature map, thereby generating a first modified full feature map.
Außerdem können optional die Achsen der ersten modifizierten Gesamtmerkmalskarte in Polarkoordinatendarstellung konvertiert werden, wodurch eine konvertierte Gesamtmerkmalskarte erzeugt wird.Additionally, optionally, the axes of the first modified global feature map may be converted to polar coordinate representation, thereby creating a converted global feature map.
Darüber hinaus kann auch eine weitere Fouriertransformation auf die erste modifizierte Gesamtmerkmalskarte oder die konvertierte Gesamtmerkmalskarte angewendet werden, wodurch eine zweite modifizierte Gesamtmerkmalskarte erzeugt wird.In addition, a further Fourier transform can also be applied to the first modified full feature map or the converted full feature map, thereby producing a second modified full feature map.
Das Pooling kann im Verfahren auch durch einen MaxBlurPool Layer erfolgen.The pooling can also be done in the method by a MaxBlurPool layer.
Analog wird auch eine Vorrichtung vorgestellt, wobei die Merkmale der Verfahren einzeln oder in Kombination auch für die Vorrichtungen implementiert werden können.Analogously, a device is also presented, in which case the features of the methods can also be implemented individually or in combination for the devices.
Insbesondere wird in
Insbesondere ist in
Aus den entstehenden maximal zwölf Merkmalskarten, werden dann jeweils die durch eine Kernelgruppe erzeugten Merkmalskarten zusammengefasst, so dass sich für jede der Kernelgruppen eine Gesamtmerkmalskarte 330a ergibt.The feature cards generated by a kernel group are then combined from the resulting maximum of twelve feature cards, so that an
Hierbei sind wiederum die durch den jeweiligen Filterkernel erzeugten Merkmalskarten zweidimensional. Die Gesamtmerkmalskarten 330a, die durch Zusammenfassung für jede der Kernelgruppen erzeugt werden, sind ebenfalls zweidimensional. Die Gesamtheit aller Gesamtmerkmalskarten kann aber beim Vorliegen von mehr als einem Ausgangsfilterkernel und somit bei mehr als einer Kernelgruppe dreidimensional sein.Here again, the feature maps generated by the respective filter kernel are two-dimensional. The
Zusammen ergeben somit die 2D-Gesamtmerkmalskarten eine 3D-Gesamtmerkmalskarte, zumindest für mehr als eine Kernelgruppe.Together, the 2D overall feature maps thus result in a 3D overall feature map, at least for more than one kernel group.
Die Filterung und Zusammenfassung ist in
Insbesondere wird in
Im Anschluss daran ist eine analog durchgeführte zweite Faltung durch einen weiteren CL 320b abgebildet, welche denselben Grundsätzen der Erfindung folgt. CL 320b hat fünf Filterkernel, wodurch fünf 2D-Gesamtmerkmalskarten 330b erzeugt werden, die zusammen die 3D-Gesamtmerkmalskarte bilden, die wiederum durch einen Pooling Layer 335b, beispielsweise einen MaxBlurPool Layer, zu fünf reduzierten 2D-Gesamtmerkmalskarten 340b reduziert werden, die zusammen eine 3D-Gesamtmerkmalskarte bilden.Following this, a second convolution performed in an analogous manner is depicted by a
Im Folgenden wird die Erfindung anhand eines Ausgangsfilterkernels 610, 710 in einem CL 320 (320a oder 320b) beschrieben. Wie aber oben erwähnt, kann ein CL mehrere Ausgangsfilterkernel aufweisen, und ein KNN kann auch mehrere CL-Schichten (320a und 320b) haben.The invention is described below using an
Insbesondere können Faltung 325a, 325b und Pooling 335a, 335b in beliebiger Kombination eingesetzt werden.In particular, folding 325a, 325b and pooling 335a, 335b can be used in any combination.
Das KNN ist dazu eingerichtet, jeden Filterkernel 610, 710 um mindestens einen Winkel aus 90, 180 und 270 Grad zu drehen. Es ist je nach Anforderungen durch die spezifische Anwendung möglich, dass je nach Einsatzzweck einer oder zwei der Winkel die Anforderungen decken. Es können auch alle drei Winkel angewendet werden. Durch das Anwenden jedes Winkels auf den Ausgangskernel wird jeweils ein gedrehter Filterkernel 620, 630, 640, 720, 730, 740 erzeugt. Wird beispielsweise nur der 90 Grad-Winkel angewendet, so wird nur ein gedrehter Kernel 620, 720 erzeugt. Werden sowohl der 90, der 180 als auch der 270 Grad-Winkel angewendet, werden für den Ausgangskernel drei gedrehte Filterkernel 620, 630, 640, 720, 730, 740 erzeugt. Die erzeugten gedrehten Filterkernel 620, 630, 640, 720, 730, 740 bilden zusammen mit dem jeweiligen Ausgangsfilterkernel 610, 710 eine Kernelgruppe.The ANN is configured to rotate each
Das KNN ist weiterhin dazu eingerichtet, ein Bild 701, das beispielsweise klassifiziert werden soll, durch jeden Kernel einer Kernelgruppe 710, 720, 730, 740 zu filtern. Dies ist in
Das KNN ist weiterhin dazu eingerichtet die erzeugten Merkmalskarten 711, 721, 731, 741 einer Kernelgruppe zu einer Gesamtmerkmalskarte 771 zusammenzufassen.The ANN is also set up to combine the generated
Für die Zusammenfassung 770 der Merkmalskarten einer Kernelgruppe stehen dem KNN die zuvor für das Verfahren beschriebenen Funktionen zur Verfügung, Addition aller erzeugten Merkmalskarten, Auswahl des Maximums aller erzeugten Merkmalskarten, Auswahl des Minimums aller erzeugten Merkmalskarten, Berechnung des Durchschnittwertes aller erzeugten Merkmalskarten, und/oder Bildung einer gewichteten Summe aller erzeugten Merkmalskarten.For the
Die Beschreibung der Funktionen wie oben bei der Beschreibung der Verfahren ausgeführt, gilt analog für die Vorrichtung.The description of the functions as stated above in the description of the methods applies analogously to the device.
Das KNN kann dazu eingerichtet sein, die Auswahl aus den Funktionen von einem Anwender oder einem weiteren KNN, zu empfangen. Das weitere KNN kann Bestandteil der Vorrichtung sein, oder eine weitere Vorrichtung darstellen oder Teil dieser sein.The ANN can be set up to receive the selection from the functions from a user or another ANN. The further ANN can be part of the device, or represent a further device or be part of it.
Weiterhin kann das KNN einen Pooling Layer 335a, 335b aufweisen, und das KNN kann dazu eingerichtet sein, den Pooling Layer auf die Gesamtmerkmalskarte anzuwenden, so dass deren Datenmenge reduziert wird. Dadurch wird eine reduzierte Gesamtmerkmalskarte erzeugt.Furthermore, the ANN can have a
Das KNN kann weiterhin dazu eingerichtet sein, Fouriertransformationen und/oder Achsenkonvertierungen in Polarkoordinatendarstellung auf Gesamtmerkmalskarten anzuwenden. Dies kann beispielsweise in einem Transformationsmodul 350 geschehen.The ANN can also be set up to apply Fourier transformations and/or axis conversions in polar coordinate representation to overall feature maps. This can be done in a
Der Pooling Layer 335a, 335b, kann auch als MaxBlurPool Layer ausgestaltet sein.The
In Standardarchitekturen ist der Convolutional Layer translationsäquivariant, da die Operation der Faltung als solche die Translationsäquivarianz als Eigenschaft aufweist. Durch die Natur der Operationen in einem KNN ist aber der Fully Connected Layer, FCL, nicht geeignet, weder die Translationsäquivarianz noch die Translationsinvarianz zu halten.In standard architectures, the convolutional layer is translation equivariant since the operation of convolution as such has translation equivariance as a property. However, due to the nature of the operations in an ANN, the Fully Connected Layer, FCL, is not suitable for maintaining either translation equivariance or translation invariance.
Um dies zu ermöglichen, und damit das gesamte Netzwerk um die Eigenschaft der Translationsinvarianz zu erweitern, kann ein Transformationsmodul 350, welches vor dem FC Layer 360 eingesetzt wird, verwendet werden, welches zur Aufgabe hat, translationsäquivariante Merkmale in einen translationsinvarianten Raum zu überführen, auf welchem der Fully Connected Layer, FCL, 360 agieren kann.In order to make this possible, and thus to expand the entire network with the property of translation invariance, a
Dieses Transformationsmodul 350 kann entsprechend eine FFT ausführen, welche aus der klassischen Bild- und Signalverarbeitung bekannt ist und sich aus Amplitude und Phase zusammensetzt. Eine Translation im Ortsbereich bildet sich als Phasenverschiebung im Fourierraum ab, sodass die Amplituden für zwei zueinander verschobene Objekte im Fourierraum gleich sind.This
Mit Hinzunahme des Transformationsmoduls 350 kann eine translationsinvariante Netzwerkarchitektur bereitgestellt werden.With the addition of the
Die Faltung in einem CNN ist nicht rotationsäquivariant, sondern wie oben beschrieben nur äquivariant gegenüber der Translation.The folding in a CNN is not rotationally equivariant, but only equivariant to translation, as described above.
Um ein KNN bereitzustellen, das genauso unabhängig von der Rotation wie von der Translation arbeiten kann, um beispielsweise eine Klassifikation vorzunehmen, wird nachfolgend eine rotationsinvariante Netzwerkarchitektur vorgestellt. Aus diesem Grund wird wie folgt ein rotationsäquivarianter Convolutional Layer eingeführt.In order to provide an ANN that can work just as independently of the rotation as of the translation, for example to carry out a classification, a rotation-invariant network architecture is presented below. For this reason, a rotationally equivariant convolutional layer is introduced as follows.
Hierbei wird eine rotationsäquivariante Convolution 320 durch mehrere abhängige Filter bewirkt, sogenannte Filterkernel, um mögliche Drehungen eines Objektes abzudecken. Der rotationsäquivariante Convolution Layer kann auch als EquiConv Layer bezeichnet werden.Here, a rotation-equivariant convolution 320 is brought about by a plurality of dependent filters, so-called filter kernels, in order to cover possible rotations of an object. The rotationally equivariant convolution layer can also be referred to as the EquiConv layer.
Zur weiteren Verarbeitung werden dann die 2D-Gesamtmerkmalskarten, die zusammen eine 3D-Gesamtmerkmalskarte bilden, in einen eindimensionalen Vektor überführt.The 2D overall feature maps, which together form a 3D overall feature map, are then converted into a one-dimensional vector for further processing.
Diesen Vorgang nennt man „Flattening“, und das Ergebnis davon ist als Vektor 355 zu sehen.This process is called "flattening" and the result can be seen as
Diese Filtergewichte werden während des Trainings nicht optimiert. Vielmehr werden diese fortlaufend aus dem trainierten Ausgangsfilter erzeugt, sodass unabhängig von der Rotation des Objektes dieselben Merkmale durch die gleiche Zusammensetzung der Filterungen extrahiert werden.These filter weights are not optimized during training. Rather, these are generated continuously from the trained output filter, so that the same features are extracted by the same composition of the filters, regardless of the rotation of the object.
Das Filterergebnis, d.h. die Gesamtmerkmalskarte 771, setzt sich dementsprechend aus der Summe der Filterung, d.h. der Merkmalskarten 711, 721, 731, 741, der Inputbilder mit allen Filtern zusammen, siehe
Insbesondere die Drehungen um 90, 180, und 270 Grad können verlustfrei ausgeführt werden, sodass das Nyquist-Theorem in jedem Fall eingehalten werden kann. Werden separierbare Filter gelernt, kann die äquivariante Faltung auf zwei Filterkernel, 0° und 90°, reduziert werden, da die Filterkernel für die Rotation um 180° und 270° dieselben sind.In particular, the rotations of 90, 180, and 270 degrees can be performed without loss, so that the Nyquist theorem is always observed can be. If separable filters are learned, the equivariant convolution can be reduced to two filter kernels, 0° and 90°, since the filter kernels for the 180° and 270° rotation are the same.
Kann die Separierbarkeit der Filter während des Trainings nicht vorausgesetzt werden und die Anwendung es erfordert, wird für den rotationsäquivarianten Convolution Layer die Kombination aller drei Rotationen des Filters und dem Ausgangsfilter F0° angewendet. So kann im Rahmen dieser Kombination der verlustfreien Drehungen der Filterkernel, d.h. durch Zusammenfassen der einzelnen Merkmalskarten einer Kernelgruppe zu einer Gesamtmerkmalskarte, eine rotationsäquivariante Filterung erzeugt werden.If the separability of the filters cannot be assumed during the training and the application requires it, the combination of all three rotations of the filter and the output filter F0° is used for the rotation-equivariant convolution layer. Within the framework of this combination of the lossless rotations of the filter kernels, i.e. by combining the individual feature maps of a kernel group into an overall feature map, a rotation-equivariant filtering can be generated.
Durch Verwendung des beschriebenen Verfahrens entsteht durch Hinzufügen der zusätzlichen Richtungsinformation der 90°, 180° und 270° Rotation der Filter ein translations- und rotationsäquivariantes Verhalten des Convolutional Layers 320a, 320b.By using the method described, adding the additional directional information of the 90°, 180° and 270° rotation of the filters results in a translational and rotationally equivariant behavior of the
Der Fully Connected Layer 260 in herkömmlichen KNNs ist ebenfalls nicht rotationsinvariant. Es wird vorgeschlagen, das für die Translationsinvarianz eingesetzte Transformationsmodul 350 um eine Polarkoordinatendarstellung zu erweitern und eine zweite Fouriertransformation durchzuführen.The fully connected
Wie bereits für die Eigenschaft der Translationsinvarianz vorangegangen beschrieben, kann auch für die Rotationsinvarianz ein Transformationsmodul 350 vor dem FC Layer 360 eingesetzt werden, oder falls bereits ein Transformationsmodul 350 eingesetzt wurde, kann dieses auch um folgende Funktionen erweitert werden. Zur Transformation rotationsäquivarianter Merkmale in einen rotationsinvarianten Raum kann ebenfalls die Fouriertransformation ausgenutzt werden.As already described above for the translation invariance property, a
Durch Konvertierung der Achsen einer Fouriertransformation in Polarkoordinatendarstellung, kann die Rotation zweier Objekte in eine Translation umgeformt werden. Zur Auflösung der Translation kann eine weitere Fouriertransformation herangezogen werden. Um Translations- und Rotationsäquivarianz in einen gemeinsamen invarianten Raum zu überführen, wird dem bereits existierenden Fouriertransformationsmodul 350 eine Transformation der Daten in Polarkoordinaten angefügt.By converting the axes of a Fourier transformation into polar coordinate representation, the rotation of two objects can be transformed into a translation. A further Fourier transformation can be used to resolve the translation. In order to convert translational and rotational equivariance into a common invariant space, a transformation of the data into polar coordinates is added to the already existing
Da für diese Operation ein zentraler Pixel benötigt wird, kann die Amplitude der ersten Fouriertransformation durch geeignetes Zurechtschneiden auf eine ungerade Pixelseitenanzahl, so dass ein einzelner Pixel in der Mitte jeder Achse existiert, durchgeführt werden. Anschließend können die Achsen konvertiert werden, um die Polarkoordinatendarstellung zu erhalten.Since a central pixel is required for this operation, the amplitude of the first Fourier transform can be performed by appropriate cropping to an odd number of pixel sides so that a single pixel exists at the center of each axis. Then the axes can be converted to get the polar coordinate representation.
Diese Operation ist nur notwendig, wenn eine Polarkoordinatendarstellung erzeugt werden soll, um Rotationsinvarianz herzustellen.This operation is only necessary if a polar coordinate representation is to be generated in order to establish rotational invariance.
Es kann eine weitere Fouriertransformation folgen, von welcher lediglich die Amplitude als neuer Input für den FCL 360 dient. Hiermit ergibt sich ein translations- und rotationsinvariantes NN-Design.Another Fourier transformation can follow, of which only the amplitude serves as a new input for the
Eine weitere Möglichkeit besteht darin, optional als vorteilhafte Ausführung, die Daten der Ausgabe weiter zu reduzieren. Hierfür kann im Anschluss ein Pooling Layer, insbesondere ein MaxBlurPool Layer, eingesetzt werden. Dies ist in
Es soll dadurch erreicht werden, dass das gesamte NN invariant gegenüber Rotation und Translation wird.It is to be achieved that the entire NN becomes invariant with respect to rotation and translation.
Der erste Trainingsteil 1040 dient dem Lernen des Feature-Extraction Moduls, welcher translations- und rotationsäquivariante Merkmale im Ortsbereich generieren soll. Anschließend kann ein Feature-Extraction Modul 1050, z.B. ein FFT-Transformationsmodul 1021, mit einer FFT-Amplituden-Berechnung sowie einem Classifier Modul 1030 kombiniert werden, was als FFT-Modell bezeichnet werden kann. Dies ist für Problemstellungen sinnvoll, die lediglich Translationsinvarianz fordern und keine Rotationsinvarianz benötigen.The
Sind sowohl Translations- als auch Rotationsinvarianz gefordert, ist auch eine weitere Kombination, möglich, die in
Um das FFT-Modell 1050, bzw. Polar-FFT Model 1060 zu trainieren, werden die Parameter des zuvor trainierten Featureextraction-Moduls 1010 des Modells mit rotationsäquivariantem Convolution Layer 1040 eingefroren, sodass beispielsweise das Verfahren des Stochastic Gradient Descent lediglich über die Gewichte des Classifier-Models backpropagiert. Die FFT-Amplituden-Berechnung sowie das Polar-FFT-Modul sind lediglich Bildtransformationen und halten keine zu lernenden Parameter.In order to train the
Andere Verfahren zum Training sind aber ebenfalls denkbar, insbesondere ist für alle Module aus
Zusammengefasst wird ein Konzept vorgestellt, welches durch eine einfache Anpassung der Standardoperation der Convolution und Hinzufügen eines Transformationsmodules eine Netzwerkarchitektur konstruiert, welche der Anforderung nach Rotations- und Translationsinvarianz genügt.In summary, a concept is presented which, by simply adapting the standard operation of convolution and adding a transformation module, constructs a network architecture which satisfies the requirement for rotation and translation invariance.
Es wird außerdem ein computerlesbares Medium vorgeschlagen, welches Befehle umfasst, die bei der Ausführung durch einen Prozessor diesen veranlassen, die Schritte des Verfahrens wie zuvor beschrieben auszuführen.A computer-readable medium is also proposed, which comprises instructions which, when executed by a processor, cause it to carry out the steps of the method as described above.
Claims (16)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020209651.1A DE102020209651A1 (en) | 2020-07-30 | 2020-07-30 | METHOD OF IMAGE PROCESSING BY A NEURAL NETWORK |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020209651.1A DE102020209651A1 (en) | 2020-07-30 | 2020-07-30 | METHOD OF IMAGE PROCESSING BY A NEURAL NETWORK |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102020209651A1 true DE102020209651A1 (en) | 2022-02-03 |
Family
ID=79300489
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102020209651.1A Withdrawn DE102020209651A1 (en) | 2020-07-30 | 2020-07-30 | METHOD OF IMAGE PROCESSING BY A NEURAL NETWORK |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102020209651A1 (en) |
-
2020
- 2020-07-30 DE DE102020209651.1A patent/DE102020209651A1/en not_active Withdrawn
Non-Patent Citations (2)
Title |
---|
Marcos, D.; Volpi, M.; Tuia, D.: Learning rotation invariant convolutional filters for texture classification. In: 2016 23rd International Conference on Pattern Recognition (ICPR), 2016, S. 2012-2017. |
Zhou, Y. [et al.]: Oriented response networks. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017, S. 519-528 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE60130742T2 (en) | Pattern recognition with hierarchical networks | |
DE602004002756T2 (en) | PICTURE PROCESSING METHOD FOR AUTOMATICALLY ADAPTING A DEFORMABLE 3D MODEL TO AN ESSENTIALLY TUBULAR SURFACE OF A 3D OBJECT | |
DE69530566T2 (en) | Hough transform with fuzzy gradient and choice | |
EP0780002B1 (en) | Process and apparatus for reconstructing raster-shaped line structures | |
DE2909153C2 (en) | Device for the digital analysis of image or drawing patterns | |
DE102017220307A1 (en) | Device and method for recognizing traffic signs | |
DE102018128531A1 (en) | System and method for analyzing a three-dimensional environment represented by a point cloud through deep learning | |
WO2019001649A1 (en) | Knowledge transfer between different deep learning architectures | |
DE102017216821A1 (en) | Method for detecting an object instance and / or orientation of an object | |
DE102019214402A1 (en) | METHOD AND DEVICE FOR PROCESSING DATA BY MEANS OF A NEURONAL CONVOLUTIONAL NETWORK | |
EP0844590A1 (en) | Method for fractal image coding and device for carrying out the method | |
DE19531392C1 (en) | Handwritten character graphical representation system | |
DE102019115875A1 (en) | METHOD AND DEVICE FOR A NEURAL NETWORK | |
DE102021207613A1 (en) | Process for quality assurance of a system | |
EP2622540A1 (en) | Method for classifying patterns in image data records | |
DE102020209651A1 (en) | METHOD OF IMAGE PROCESSING BY A NEURAL NETWORK | |
WO2005073911A1 (en) | Image processing system | |
DE102022213442A1 (en) | PROCEDURE FOR OMNIDIRECTIONAL DENSE-REGRESSION FOR MACHINE PERCEPTION TASKS USING DISTORTION-FREE CNN AND SPHERICAL SELF-ATTENTION | |
DE102018207923A1 (en) | Improved training of a classifier | |
EP1281157A1 (en) | Method and device for determining an object in an image | |
DE102017121052A1 (en) | Processing a point cloud generated by an environment detection device of a motor vehicle to a Poincaré-invariant symmetrical input vector for a neural network | |
DE102020208765A1 (en) | Image classifier with variable receptive fields in convolutional layers | |
DE102020116774A1 (en) | Automatic visual perception using an artificial neural network | |
DE102018129871A1 (en) | Train a deep convolutional neural network to process sensor data for use in a driving support system | |
DE102018009345A1 (en) | METHOD AND DEVICE FOR TRAINING A NEURONAL NETWORK FOR SPECIFYING LANDMARKS ON 2D AND 3D IMAGES |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |