DE102020007646A1 - Method for anonymizing street scenes for fleet learning - Google Patents
Method for anonymizing street scenes for fleet learning Download PDFInfo
- Publication number
- DE102020007646A1 DE102020007646A1 DE102020007646.7A DE102020007646A DE102020007646A1 DE 102020007646 A1 DE102020007646 A1 DE 102020007646A1 DE 102020007646 A DE102020007646 A DE 102020007646A DE 102020007646 A1 DE102020007646 A1 DE 102020007646A1
- Authority
- DE
- Germany
- Prior art keywords
- cnn
- street
- layer
- network layer
- identifying
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Anonymisierung einer Straßenszene (1) mit mindestens einer identifizierenden Region (2.1, 3.1). Ein Convolutional Neural Network (CNN) (10) wird trainiert, indem eine Mehrzahl von Straßenszenen (1) mit je mindestens einer identifizierenden Region (2.1, 3.1) präsentiert werden. Eine verdeckte Netzwerkschicht (L2 bis L5) wird derart ausgewählt, dass die Aktivierungen ihres mindestens einen Neurons über der Mehrzahl der zum Training präsentierten Straßenszenen (1) verglichen mit den übrigen verdeckten Netzwerkschichten (L2 bis L5) minimal variieren. In der Straßenszene (1) wird jede identifizierende Region (2.1, 3.1) mittels des trainierten CNN (10) erkannt. Mindestens eine der erkannten identifizierenden Regionen (2.1, 3.1) wird derart verändert, dass die Aktivierung der Neuronen der ausgewählten verdeckten Netzwerkschicht (L2 bis L5) dabei nicht oder nur höchstens um ein vorbestimmtes Maß variiert.Ferner betrifft die Erfindung ein Flottenlernen, wobei von einer Mehrzahl von Fahrzeugen einer Fahrzeugflotte jeweils mindestens eine Straßenszene (1) bereitgestellt mit einem solchen Verfahren anonymisiert wird.The invention relates to a method for anonymizing a street scene (1) with at least one identifying region (2.1, 3.1). A convolutional neural network (CNN) (10) is trained by presenting a plurality of street scenes (1) each with at least one identifying region (2.1, 3.1). A hidden network layer (L2 to L5) is selected in such a way that the activations of its at least one neuron vary minimally over the majority of the street scenes (1) presented for training compared to the other hidden network layers (L2 to L5). In the street scene (1), each identifying region (2.1, 3.1) is recognized by means of the trained CNN (10). At least one of the identified identifying regions (2.1, 3.1) is changed in such a way that the activation of the neurons of the selected hidden network layer (L2 to L5) does not vary or only varies by a predetermined amount A plurality of vehicles in a vehicle fleet are each provided with at least one street scene (1) anonymized using such a method.
Description
Die Erfindung betrifft ein Verfahren zur Anonymisierung einer Straßenszene, welche mindestens eine identifizierende Region umfasst, anhand der eine Person oder ein Fahrzeug identifiziert werden kann. Ferner betrifft die Erfindung ein Verfahren zum Flottenlernen, bei dem von einer Mehrzahl von Fahrzeugen einer Fahrzeugflotte jeweils mindestens eine Straßenszene bereitgestellt wird und bei dem ein Klassifikator mit der Mehrzahl der bereitgestellten Straßenszenen trainiert wird.The invention relates to a method for anonymizing a street scene which comprises at least one identifying region by means of which a person or a vehicle can be identified. The invention also relates to a method for fleet learning in which at least one street scene is provided by a plurality of vehicles in a vehicle fleet and in which a classifier is trained with the plurality of street scenes provided.
Das Dokument
Der Erfindung liegt die Aufgabe zu Grunde, ein verbessertes Verfahren zum Anonymisieren einer Straßenszene sowie ein verbessertes Verfahren zum Flottenlernen anzugeben.The invention is based on the object of specifying an improved method for anonymizing a street scene and an improved method for fleet learning.
Die Aufgabe wird hinsichtlich des Verfahrens zum Anonymisieren einer Straßenszene erfindungsgemäß durch ein Verfahren mit den Merkmalen des Anspruchs 1 gelöst. Die Aufgabe wird hinsichtlich des Verfahrens zum Flottenlernen erfindungsgemäß durch ein Verfahren mit den Merkmalen des Anspruchs 5 gelöst.With regard to the method for anonymizing a street scene, the object is achieved according to the invention by a method having the features of
Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.Advantageous refinements of the invention are the subject matter of the subclaims.
Eine Straßenszene kann beispielsweise mit einer Umfeldkamera eines Fahrzeugs als Farbbild oder als Grauwertbild erfasst werden. Eine derartige Straßenszene kann bildhaft Informationen darstellen, beispielsweise eine porträthafte Gesichtsaufnahme oder ein lesbar aufgenommenes Kennzeichen eines Kraftfahrzeugs, die zur Identifizierung von Personen oder Fahrzeugen geeignet sind. Ein Bereich einer Straßenszene, der derartige Informationen darstellt, wird als identifizierbare Region bezeichnet.A street scene can be recorded as a color image or as a gray-scale image, for example, with a camera surrounding a vehicle. Such a street scene can graphically represent information, for example a portrait-like image of the face or a legibly recorded license plate of a motor vehicle, which is suitable for identifying persons or vehicles. An area of a street scene that represents such information is called an identifiable region.
Die Erfindung betrifft ein Verfahren zur Anonymisierung einer Straßenszene, mit dem Informationen in identifizierenden Regionen derart unkenntlich gemacht oder verändert werden, dass eine Identifizierung nicht mehr möglich ist.The invention relates to a method for anonymizing a street scene, with which information in identifying regions is made unrecognizable or changed in such a way that identification is no longer possible.
Erfindungsgemäß wird ein Convolutional Neural Network (CNN), welches eine Mehrzahl von stapelartig angeordneten Netzwerkschichten umfasst, zur Erkennung von identifizierenden Regionen trainiert, indem eine Mehrzahl von Straßenszenen mit jeweils mindestens einer identifizierenden Region in bekannter Lage und Größe präsentiert wird.According to the invention, a convolutional neural network (CNN), which comprises a plurality of stacked network layers, is trained to recognize identifying regions by presenting a plurality of street scenes each with at least one identifying region in a known position and size.
Die Netzwerkschichten weisen jeweils mindestens ein Neuron auf. Die eingangsseitig erste Netzwerkschicht wird als Eingabeschicht bezeichnet und mit den Pixelwerten des die Straßenszene kodierenden Bildes belegt. Die ausgangsseitig letzte Netzwerkschicht wird als Ausgabeschicht bezeichnet und umfasst mindestens ein Ausgabeneuron. Zwischen der Eingabeschicht und der Ausgabeschicht ist mindestens eine verdeckte Netzwerkschicht angeordnet. Neuronen angrenzender Netzwerkschichten sind über Verbindungen miteinander verbunden.The network layers each have at least one neuron. The first network layer on the input side is referred to as the input layer and is assigned the pixel values of the image encoding the street scene. The last network layer on the output side is referred to as the output layer and comprises at least one output neuron. At least one hidden network layer is arranged between the input layer and the output layer. Neurons of adjacent network layers are connected to one another via connections.
CNNs und Trainingsverfahren hierfür sind aus dem Stand der Technik bekannt, beispielsweise aus der Veröffentlichung Alex Krizhevsky, Ilya Sutskever und Geoffrey E. Hinton. 2017. ImageNet classification with deep convolutional neural networks. Commun. ACM 60, 6 (June 2017), 84-90. DOI:https://doi.org/10.1145/3065386 und den darin zitierten Veröffentlichungen. Insbesondere sind als Backpropagation bezeichnete Gradientenabstiegsverfahren bekannt, bei denen eine Zielfunktion, beispielsweise der euklidische Abstand zwischen dem Vektor der von den Ausgabeneuronen des CNN erzeugten Ausgabewerte und einem vorgegebenem Vektor von Soll-Ausgabewerten, minimiert wird, wobei die Berechnung des Gradienten nach Gewichtswerten, welche jeweils einer der Verbindungen zwischen Netzwerkschichten zugeordnet sind, beginnend bei der Ausgabeschicht iterativ von Netzwerkschicht zu Netzwerkschicht bis zur Eingabeschicht voranschreitend berechnet werden.CNNs and training methods for this are known from the prior art, for example from the publication Alex Krizhevsky, Ilya Sutskever and Geoffrey E. Hinton. 2017. ImageNet classification with deep convolutional neural networks. Commun. ACM 60, 6 (June 2017), 84-90. DOI: https: //doi.org/10.1145/3065386 and the publications cited therein. In particular, gradient descent methods known as backpropagation are known in which a target function, for example the Euclidean distance between the vector of the output values generated by the output neurons of the CNN and a specified vector of target output values, is minimized, with the calculation of the gradient according to weight values, which in each case one of the connections between network layers are assigned, starting with the output layer and proceeding iteratively from network layer to network layer up to the input layer.
Erfindungsgemäß wird eine verdeckte Netzwerkschicht derart ausgewählt, dass die Aktivierungen des mindestens einen Neurons der ausgewählten verdeckten Netzwerkschicht über der Mehrzahl der zum Training präsentierten Straßenszenen nur geringfügig variieren. Beispielsweise kann unter einer Mehrzahl von verdeckten Netzwerkschichten diejenige ausgewählt werden, bei der die über alle Neuronen und über alle zum Training präsentierten Straßenszenen ermittelte Varianz von Neuronenausgaben kleiner ist als bei allen anderen verdeckten Netzwerkschichten.According to the invention, a hidden network layer is selected such that the Activations of the at least one neuron of the selected hidden network layer vary only slightly over the majority of the street scenes presented for training. For example, from a plurality of concealed network layers, that one can be selected in which the variance of neuron outputs determined over all neurons and over all street scenes presented for training is smaller than in all other concealed network layers.
Jede der in der zu anonymisierenden Straßenszene enthaltene identifizierende Region, beispielsweise jede porträthafte Gesichtsdarstellung und jedes lesbare Kennzeichen eines Kraftfahrzeugs, werden mittels des trainierten CNN erkannt.Each of the identifying regions contained in the street scene to be anonymized, for example each portrait-like facial representation and each legible license number of a motor vehicle, are recognized by means of the trained CNN.
Mindestens eine der erkannten identifizierenden Regionen wird derart verändert, dass die Aktivierung der Neuronen der ausgewählten verdeckten Netzwerkschicht nicht oder nur höchstens um ein vorbestimmtes Maß variiert. Mit anderen Worten: die derart veränderten Regionen wirken bezüglich der Aktivierung der Neuronen der ausgewählten verdeckten Netzwerkschicht, und somit auch für die Aktivierung der Neuronen aller nachgeordneter Netzwerkschichten einschließlich der Ausgabeschicht, gleich oder näherungsweise gleich den ursprünglichen, identifizierenden Merkmalen umfassenden identifizierenden Regionen.At least one of the identified identifying regions is changed in such a way that the activation of the neurons of the selected hidden network layer does not vary or only varies by a predetermined amount at most. In other words: the regions changed in this way act with regard to the activation of the neurons of the selected hidden network layer, and thus also for the activation of the neurons of all subordinate network layers including the output layer, identically or approximately identically to the original identifying regions comprising identifying features.
Ein Vorteil des erfindungsgemäßen Verfahrens besteht darin, dass durch Veränderung der identifizierenden Regionen zur Identifizierung geeignete Merkmale entfernt werden. Beispielsweise werden Gesichtszüge einer porträthaften Gesichtsdarstellung verfremdet oder Zeichen eine Kennzeichens verwischt (verunschärft). Dadurch ist es möglich, beliebige Straßenszenen so zu anonymisieren, dass sie nicht in den Geltungsbereich regulatorischer und/oder gesetzlicher Vorgaben zur Übertragung, Speicherung und Verarbeitung personenbezogener Daten fallen. Dadurch kann der technische und organisatorische Aufwand bei der Übertragung, Speicherung und Verarbeitung solcher anonymisierter Straßenszenen erheblich verringert oder eine Übertragung, Speicherung und Verarbeitung überhaupt erst ermöglicht werden.One advantage of the method according to the invention is that, by changing the identifying regions, features suitable for identification are removed. For example, facial features of a portrait-like representation of a face are alienated or characters of a license plate are blurred (blurred). This makes it possible to anonymize any street scenes in such a way that they do not fall within the scope of regulatory and / or legal requirements for the transmission, storage and processing of personal data. As a result, the technical and organizational effort involved in the transmission, storage and processing of such anonymized street scenes can be reduced considerably or transmission, storage and processing can be made possible in the first place.
Im Gegensatz zu Anonymisierungsverfahren aus dem Stand der Technik beeinträchtigen diese Veränderungen, da sie die Aktivierung von Neuronen der ausgewählten verdeckten Netzwerkschicht nicht oder nur wenig verändern, die Ausgabe des CNN nicht oder nur wenig. Sie können daher in gleicher Weise zum Training von CNNs eingesetzt werden wie Straßenszenen mit identifizierenden Regionen. Insbesondere kann ein mit derart anonymisierten Straßenszenen trainierter Klassifikator, bevorzugt ein CNN, ohne Beeinträchtigung der Klassifikationsleistung auf Bilder angewendet werden, welche in Echtzeit und in nicht-anonymisierter Form (das heißt: potenziell identifizierende Regionen umfassend) erfasst werden.In contrast to anonymization methods from the prior art, these changes, since they do not or only slightly change the activation of neurons of the selected hidden network layer, do not or only slightly affect the output of the CNN. They can therefore be used for training CNNs in the same way as street scenes with identifying regions. In particular, a classifier trained with such anonymized street scenes, preferably a CNN, can be applied to images that are recorded in real time and in non-anonymized form (that is, including potentially identifying regions) without impairing the classification performance.
Das Verfahren eignet sich daher in besonderer Weise dazu, ein CNN auch für die korrekte Klassifikation von statistisch sehr selten auftretenden Erkennungssituationen zu trainieren, indem durch eine Flotte von Fahrzeugen eine Vielzahl von Straßenszenen erfasst und wie vorgeschlagen anonymisiert wird. Dadurch kann die Erkennungsleistung derart trainierter CNNs gegenüber dem Stand der Technik verbessert werden.The method is therefore particularly suitable for training a CNN also for the correct classification of statistically very rarely occurring recognition situations by capturing a large number of street scenes by a fleet of vehicles and anonymizing them as suggested. As a result, the recognition performance of CNNs trained in this way can be improved compared to the prior art.
In einer Ausführungsform werden in einer durch das CNN erkannten identifizierenden Region die Pixelwerte (das heißt: die der Eingabeschicht des CNN präsentierten Bildwerte der Straßenszene) entlang einer Richtung verändert, die senkrecht zum Gradienten der Zielfunktion des CNN nach diesen Pixelwerten verläuft, wobei dieser Gradient mittels des Backpropagation-Verfahrens iterativ (das heißt: von der Ausgabeschicht zur Eingabeschicht voranschreitend) bestimmt wird.In one embodiment, in an identifying region recognized by the CNN, the pixel values (i.e. the image values of the street scene presented to the input layer of the CNN) are changed along a direction that runs perpendicular to the gradient of the objective function of the CNN according to these pixel values, this gradient using of the backpropagation method is determined iteratively (that is to say: proceeding from the output layer to the input layer).
Ein Vorteil dieser Ausführungsform besteht darin, dass eine besonders starke Veränderung des Bildinhalts der identifizierenden Region bei besonders geringer Veränderung der Ausgabe des CNN und somit eine besonders hohe Anonymisierungswirkung erzielt werden kann. Ein weiterer Vorteil besteht darin, dass die Berechnung des Gradienten der Zielfunktion nach den Pixelwerten mittels des Backpropagation-Verfahrens besonders effizient und einfach möglich ist.One advantage of this embodiment is that a particularly strong change in the image content of the identifying region with a particularly small change in the output of the CNN and thus a particularly high anonymization effect can be achieved. Another advantage is that the calculation of the gradient of the target function according to the pixel values by means of the backpropagation method is possible in a particularly efficient and simple manner.
Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.Embodiments of the invention are explained in more detail below with reference to drawings.
Dabei zeigen:
-
1 schematisch eine Straßenszene mit identifizierenden Merkmalen, -
2 schematisch ein Convolutional Neural Network (CNN), -
3 schematisch eine Visualisierung von Aktivierungen in Netzwerkschichten eines CNN und -
4 schematisch die Bildung eines Ausgabewertes an einem Neuron.
-
1 schematically a street scene with identifying features, -
2 schematically a convolutional neural network (CNN), -
3 schematically a visualization of activations in network layers of a CNN and -
4th schematically the formation of an output value on a neuron.
Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.Corresponding parts are provided with the same reference symbols in all figures.
Zur Entwicklung von robusten Klassifikatoren zur Lösung von statistisch sehr selten auftretenden Erkennungsaufgaben ist es erforderlich, eine sehr große Anzahl von Straßenszenen
Unvermeidbar werden dabei in einer Vielzahl von Straßenszenen
Die Übertragung und insbesondere die zentrale Speicherung von derartigen identifizierbaren Merkmalen in Straßenszenen
Verfahren nach dem Stand der Technik entfernen identifizierbare Merkmale aus Straßenszenen
Es besteht daher ein Bedarf an einem Verfahren, mit dem Straßenszenen
Die erste Netzwerkschicht
Die letzte Netzwerkschicht
Die zweite bis fünfte Netzwerkschicht
Die Verbindungen
Beispielsweise ist jeweils ein quadratischer Bereich der Eingabeschicht
Ein rezeptives Feld
Die fünfte Netzwerkschicht
Von der zweiten zur fünften Netzwerkschicht
Zugleich erhöht sich die Anzahl der parallel angeordneten, gleich großen Merkmalskarten
Durch diese Topologie des CNN
- 1. gebogene Liniensegmente erkannt
- 2. diese gebogenen Liniensegmente zu Kreissegmenten zugeordnet und
- 3. diese Kreissegmente zu einem Kreis zusammengefügt,
- 1. Detected curved line segments
- 2. These curved line segments are assigned to circle segments and
- 3. put these circle segments together to form a circle,
Die Ausgabeschicht
Auf einem Gradientenabstieg basierende Trainingsverfahren für ein CNN
Mittels derartiger, beispielsweise aus der Veröffentlichung
Die Erfindung beruht auf der Erkenntnis, dass ausgehend von einer derart ausgewählten verdeckten Netzwerkschicht
Der Ausgabewert
Bei der Präsentation eines modifizierten Bildes
Die Erfindung schlägt vor, zur Lösung dieses Problems die in einem Gradientenabstiegsverfahren (beispielsweise Backpropagation) erfasste Gradienteninformation bezüglich einer Fehlerfunktion zu nutzen. Der betragsmäßig minimale Gradient in Bezug auf die Eingangswerte
Durch iterative, von Netzwerkschicht
In einer Ausführungsform des Verfahrens können Unterabtastverbindungen
BezugszeichenlisteList of reference symbols
- 11
- Straßenszene, BildStreet scene, picture
- 1'1'
- modifizierte Straßenszene, modifiziertes Bildmodified street scene, modified image
- 22
- FremdfahrzeugForeign vehicle
- 2.12.1
- Kennzeichen, identifizierende RegionLicense plate, identifying region
- 33
- Personperson
- 3.13.1
- Gesicht, identifizierende RegionFace, identifying region
- 1010
- Convolutional Neural Network (CNN), KlassifikatorConvolutional Neural Network (CNN), classifier
- CC.
- FaltungsverbindungConvolution connection
- FF.
- rezeptives Feldreceptive field
- L1L1
- Eingabesschicht, NetzwerkschichtInput layer, network layer
- L2 bis L5L2 to L5
- verdeckte Netzwerkschichthidden network layer
- L6L6
- Ausgabeschicht, NetzwerkschichtOutput layer, network layer
- MM.
- MerkmalskarteFeature map
- VV
- Verbindungconnection
- OO
- AusgabeneuronExpenditure neuron
- SS.
- UnterabtastverbindungSubsampling connection
- x1, x1, x2, xnx1, x1, x2, xn
-
Eingangswert
- wi, w1, w2, wnwi, w1, w2, wn
- WichtungswertWeighting value
- y, y'y, y '
- Ausgabewert, modifizierterAusgabewertOutput value, modified output value
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- DE 102015217492 A1 [0002]DE 102015217492 A1 [0002]
Zitierte Nicht-PatentliteraturNon-patent literature cited
- Ren, Shaoqing; He, Kaiming; Girshick, Ross; Sun, Jian (2017): Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks. In: IEEE transactions on pattern analysis and machine intelligence 39 (6), S. 1137-1149. DOI: 10.1109/TPAMI.2016.2577031 [0039]Ren, Shaoqing; Hey, Kaiming; Girshick, Ross; Sun, Jian (2017): Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks. In: IEEE transactions on pattern analysis and machine intelligence 39 (6), pp. 1137-1149. DOI: 10.1109 / TPAMI.2016.2577031 [0039]
- Zeiler M.D., Fergus R. (2014) Visualizing and Understanding Convolutional Networks. In: Fleet D., Pajdla T., Schiele B., Tuytelaars T. (eds) Computer Vision - ECCV 2014. ECCV 2014. Lecture Notes in Computer Science, vol 8689. Springer, Cham. https://doi.org/10.1007/978-3-319-10590-1_53 [0042]Zeiler M.D., Fergus R. (2014) Visualizing and Understanding Convolutional Networks. In: Fleet D., Pajdla T., Schiele B., Tuytelaars T. (eds) Computer Vision - ECCV 2014. ECCV 2014. Lecture Notes in Computer Science, vol 8689. Springer, Cham. https://doi.org/10.1007/978-3-319-10590-1_53 [0042]
Claims (6)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020007646.7A DE102020007646A1 (en) | 2020-12-14 | 2020-12-14 | Method for anonymizing street scenes for fleet learning |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020007646.7A DE102020007646A1 (en) | 2020-12-14 | 2020-12-14 | Method for anonymizing street scenes for fleet learning |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102020007646A1 true DE102020007646A1 (en) | 2021-04-29 |
Family
ID=75378999
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102020007646.7A Withdrawn DE102020007646A1 (en) | 2020-12-14 | 2020-12-14 | Method for anonymizing street scenes for fleet learning |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102020007646A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021117481A1 (en) | 2021-07-07 | 2023-01-12 | Valeo Schalter Und Sensoren Gmbh | Anonymization of a structured datum and training of a convolutional neural network starting from an anonymized structured datum |
-
2020
- 2020-12-14 DE DE102020007646.7A patent/DE102020007646A1/en not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021117481A1 (en) | 2021-07-07 | 2023-01-12 | Valeo Schalter Und Sensoren Gmbh | Anonymization of a structured datum and training of a convolutional neural network starting from an anonymized structured datum |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE60130742T2 (en) | Pattern recognition with hierarchical networks | |
DE69333664T2 (en) | Method and device for setting a neuron | |
DE112016005062T5 (en) | CASCADED NEURONAL NETWORK WITH SIZE DEPENDENT POOL FOR OBJECT DETECTION | |
DE102017203276A1 (en) | Method and device for determining a trajectory in off-road scenarios | |
DE102019209560A1 (en) | Apparatus and method for training a neural network | |
DE69333247T2 (en) | Training method and device for generating a new neuron | |
EP3850544A2 (en) | Computer-implemented method for assessing the integrity of neural networks | |
DE102020007646A1 (en) | Method for anonymizing street scenes for fleet learning | |
DE102021207613A1 (en) | Process for quality assurance of a system | |
EP0749613B1 (en) | Knowledge-based fuzzy selection for recognition system having several recognition units | |
DE102018100315A1 (en) | Generating input data for a convolutional neural network | |
EP2622540A1 (en) | Method for classifying patterns in image data records | |
DE102005017541A1 (en) | Circular object detecting method for e.g. truck, involves increasing accumulator field initialized to zero to given value, and identifying circular object if number of markings in image field exceed given threshold | |
DE102019204602B4 (en) | Method and device for masking objects contained in an image | |
DE102019129029A1 (en) | OBJECT DETECTION SYSTEM AND METHOD | |
DE102018129871A1 (en) | Train a deep convolutional neural network to process sensor data for use in a driving support system | |
DE102018114912A1 (en) | Method for classifying a color of a road marking by means of a statistical road marking determination model, electronic computing device and driver assistance system | |
DE102019127622B4 (en) | Defense generator, method for preventing an attack on an AI unit and computer-readable storage medium | |
DE102019215912A1 (en) | METHOD AND DEVICE FOR COMPUTER-IMPLEMENTED OPERATION OF A NEURONAL NETWORK | |
EP3876157A1 (en) | Computer-implemented method and system for generating synthetic sensor data and training method | |
DE102018112718A1 (en) | A method of enhancing the performance of a vehicle system having a neural network for controlling a vehicle component | |
DE102017127170A1 (en) | Method for vehicle detection for a motor vehicle with a driving assistance system | |
WO2022069182A1 (en) | Quality assurance method for an example-based system | |
DE102017201603A1 (en) | Method and control unit for determining the position of a point of view | |
EP1835442A2 (en) | Evaluation device, method and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R083 | Amendment of/additions to inventor(s) | ||
R230 | Request for early publication | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009800000 Ipc: G06V0030200000 |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |