DE102022207266A1 - Apparatus and method for augmenting an image for self-supervised learning - Google Patents
Apparatus and method for augmenting an image for self-supervised learning Download PDFInfo
- Publication number
- DE102022207266A1 DE102022207266A1 DE102022207266.9A DE102022207266A DE102022207266A1 DE 102022207266 A1 DE102022207266 A1 DE 102022207266A1 DE 102022207266 A DE102022207266 A DE 102022207266A DE 102022207266 A1 DE102022207266 A1 DE 102022207266A1
- Authority
- DE
- Germany
- Prior art keywords
- hyperparameter
- augmentation
- image
- actuator
- classifier
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 230000003190 augmentative effect Effects 0.000 title claims description 6
- 230000003416 augmentation Effects 0.000 claims abstract description 48
- 238000005070 sampling Methods 0.000 claims abstract description 14
- 238000004519 manufacturing process Methods 0.000 claims description 11
- 238000005457 optimization Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 4
- 238000003860 storage Methods 0.000 claims description 4
- 230000009466 transformation Effects 0.000 description 9
- 238000000844 transformation Methods 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 7
- 238000013434 data augmentation Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000005406 washing Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 2
- 238000013398 bayesian method Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 230000002547 anomalous effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000009189 diving Effects 0.000 description 1
- 229920001746 electroactive polymer Polymers 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000009187 flying Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000004080 punching Methods 0.000 description 1
- 239000007921 spray Substances 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 230000009182 swimming Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 238000012285 ultrasound imaging Methods 0.000 description 1
- 230000009184 walking Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0895—Weakly supervised learning, e.g. semi-supervised or self-supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0985—Hyperparameter optimisation; Meta-learning; Learning-to-learn
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/84—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
Ein computerimplementiertes Verfahren zur Bildaugmentation für selbstüberwachtes Lernen, das die folgenden Schritte umfasst: Empfangen (S21) zumindest eines Bildes (I), einer Mehrzahl von Augmentationsgruppen ({gi}) und mehrerer Hyperparameter ({Pgi}), die die Gruppen charakterisieren. Initialisieren (S22) einer leeren Liste von Augmentationssequenzen (A). Wiederholen (S23) der Schritte des Samplens einer Gruppe g gemäß dem ersten Hyperparameter ({Pgi}) und des Samplens, gemäß dem zweiten Hyperparameter (Ng), von Augmentationen von der Gruppe (g) und des Anhängens der Augmentationen an die Liste (A). Dann werden die gesampleten Augmentationssequenzen gemäß der Liste für das Bild (I) auf das Bild angewendet.A computer-implemented image augmentation method for self-supervised learning, comprising the following steps: receiving (S21) at least one image (I), a plurality of augmentation groups ({gi}), and a plurality of hyperparameters ({Pgi}) that characterize the groups. Initialize (S22) an empty list of augmentation sequences (A). Repeating (S23) the steps of sampling a group g according to the first hyperparameter ({Pgi}) and sampling, according to the second hyperparameter (Ng), augmentations from the group (g) and appending the augmentations to the list (A ). Then the sampled augmentation sequences are applied to the image according to the list for image (I).
Description
Stand der TechnikState of the art
Selbstüberwachtes Lernen (Self-Supervised Learning, SSL) ist ein Verfahren des maschinellen Lernens. Es lernt aus ungelabelten Beispieldaten. Es kann als eine Zwischenform zwischen überwachtem und unüberwachtem Lernen angesehen werden. Es basiert auf einem künstlichen neuronalen Netzwerk. Das neuronale Netzwerk lernt in zwei Schritten. Zuerst wird die Aufgabe basierend auf Pseudolabeln gelöst, was dabei hilft, die Netzwerkgewichte zu initialisieren. Zweitens wird die tatsächliche Aufgabe mit überwachtem oder unüberwachtem Lernen durchgeführt.Self-supervised learning (SSL) is a machine learning technique. It learns from unlabeled sample data. It can be viewed as an intermediate form between supervised and unsupervised learning. It is based on an artificial neural network. The neural network learns in two steps. First, the task is solved based on pseudolabels, which helps initialize the network weights. Second, the actual task is performed using supervised or unsupervised learning.
SSL hat in den letzten Jahren ein explosionsartiges Interesse erfahren, mit großem Fortschritt unter Verwendung von SSL als ein Vortrainingsverfahren für die Klassifizierung. Eine große Vielfalt von SSL-Verfahren wurden entwickelt, beispielsweise das Verwenden verschiedener Zielfunktionen und Optimierungsstrategien, mit kontinuierlich verbesserter Leistung an Benchmarks wie Imagenet.SSL has experienced an explosion of interest in recent years, with great progress using SSL as a pre-training method for classification. A wide variety of SSL techniques have been developed, such as using different objective functions and optimization strategies, with continually improving performance on benchmarks such as Imagenet.
Die Datenaugmentationsverfahren bei selbstüberwachtem Lernen (SSL) wurden überwiegend manuell gesetzt. Für überwachtes Lernen gibt es viele Verfahren zum Lernen der richtigen Datenaugmentationen, aber nicht für SSL.The data augmentation procedures in self-supervised learning (SSL) were predominantly set manually. For supervised learning, there are many methods for learning the right data augmentations, but not for SSL.
Daher wird vorgeschlagen, die Datenaugmentationshyperparameter von SSL-Algorithmen zu optimieren.Therefore, it is proposed to optimize the data augmentation hyperparameters of SSL algorithms.
Vorteile der ErfindungAdvantages of the invention
Die Erfindung schlägt vor, z. B. Bayessche Optimierung für neuronale Pipeline-Suche (Neural Pipeline Search, NEPS) zu verwenden, um nach optimalen Konfigurationen zu suchen. Dadurch wird eine verbesserte angepasste SSLspezifische Augmentationsrichtlinie präsentiert. Die gelernten Konfigurationen verbessern die lineare Klassifizierungsleistung in allen von uns evaluierten Einstellungen. Mit anderen Worten, eine bestimmte Parametrisierung des Augmentationsraums mit starker Leistung. Dies führt zu einer besseren Leistung und weniger manueller Labeling-Arbeit.The invention proposes, for. B. Use Bayesian Neural Pipeline Search (NEPS) optimization to search for optimal configurations. This presents an improved customized SSL-specific augmentation policy. The learned configurations improve linear classification performance in all settings we evaluated. In other words, a specific parameterization of the augmentation space with strong performance. This results in better performance and less manual labeling work.
Offenbarung der ErfindungDisclosure of the invention
In einem ersten Aspekt betrifft die Erfindung ein Verfahren zur Bildaugmentation für selbstüberwachtes Lernen nach Anspruch 1. Die Motivation hinter selbstüberwachtem Lernen besteht darin, zunächst allgemeine Merkmalsrepräsentationen unter Verwendung ungelabelter Daten zu lernen und dann diese Repräsentationen an Downstream-Aufgaben unter Verwendung einiger weniger Labels fein abzustimmen. Es stellt sich die Frage, wie man diese nützlichen Repräsentationen lernt, ohne die Labels zu kennen.In a first aspect, the invention relates to a method for image augmentation for self-supervised learning according to claim 1. The motivation behind self-supervised learning is to first learn general feature representations using unlabeled data and then to fine-tune these representations on downstream tasks using a few labels . The question arises as to how to learn these useful representations without knowing the labels.
Selbstüberwachtes Lernen (SSL) ist ein Paradigma des maschinellen Lernens, bei dem ein Modell, wenn in es unstrukturierte Daten als Eingabe eingespeist werden, Datenlabels automatisch erzeugt, die in anschließenden Iterationen als Ground Truths weiter verwendet werden können. Optional verwendet das Modell die Datenlabel mit hoher Konfidenz unter den erzeugten, um das Modell in den nächsten Iterationen wie jedes andere überwachte Lernmodell mittels Rückpropagation zu trainieren. Der einzige Unterschied liegt darin, dass die Datenlabels, die als Ground Truths verwendet werden, in jeder Iteration geändert werden.Self-supervised learning (SSL) is a machine learning paradigm in which a model, when fed unstructured data as input, automatically generates data labels that can be further used as ground truths in subsequent iterations. Optionally, the model uses the high confidence data labels among those generated to train the model using backpropagation in the next iterations like any other supervised learning model. The only difference is that the data labels used as ground truths are changed in each iteration.
Es wird vorgeschlagen, dass die Hyperparameter mit einer Bayesschen Optimierung optimiert werden. Die Bayessche Optimierung optimiert die Parametrisierung der Hyperparameter z. B. durch deren Sampling gemäß einer Erfassungsfunktion und Testen, wie gut die ausgewählten Hyperparameter bei einer Lernaufgabe abschneiden. Diese Schritte werden mehrere Male wiederholt, bis eine optimale Parametrisierung gefunden wird.It is proposed that the hyperparameters be optimized using Bayesian optimization. Bayesian optimization optimizes the parameterization of the hyperparameters e.g. B. by sampling them according to a detection function and testing how well the selected hyperparameters perform in a learning task. These steps are repeated several times until an optimal parameterization is found.
Ferner wird vorgeschlagen, dass ein Bildklassifizierer mit dem augmentierten Bild des ersten Aspekts der Erfindung trainiert wird.It is further proposed that an image classifier be trained with the augmented image of the first aspect of the invention.
In weiteren Aspekten der Erfindung wird sich vorgestellt, den mit den obigen Verfahren trainierten Klassifizierer bei einem Verfahren zu verwenden, das die folgenden Schritte umfasst:
- - Empfangen eines Sensorsignals, das Daten von einem Sensor umfasst,
- - Bestimmen eines Eingangssignals, das von dem Sensorsignal abhängt, und
- - Einspeisen des Eingangssignals in den Klassifizierer, um ein Ausgangssignal zu erhalten, das eine Klassifizierung des Eingangssignals charakterisiert.
- - receiving a sensor signal that includes data from a sensor,
- - Determining an input signal that depends on the sensor signal, and
- - Feeding the input signal into the classifier to obtain an output signal that characterizes a classification of the input signal.
Die Erfindung kann zum Analysieren von Daten, die von einem Sensor erhalten werden, verwendet werden. Der Sensor kann Messungen der Umgebung in Form von Sensorsignalen bestimmen, die z. B. durch digitale Bilder, z. B. Video-, Radar-, LiDAR-, Ultraschall-, Bewegungs-, Wärmebilder, gegeben sein können.The invention can be used to analyze data obtained from a sensor. The sensor can determine measurements of the environment in the form of sensor signals, e.g. B. through digital images, e.g. B. video, radar, LiDAR, ultrasound, motion, thermal images can be given.
Der Klassifizierer, z. B. ein neuronales Netzwerk, kann mit einer derartigen Struktur ausgestattet sein, die dahingehend trainierbar ist, z. B. Fußgänger und/oder Fahrzeuge und/oder Straßenschilder und/oder Ampeln und/oder Straßenoberflächen und/oder menschliche Gesichter und/oder medizinische Anomalien in Bildern eines Bildgebungssensors zu identifizieren und zu unterscheiden. Alternativ kann der Klassifizierer, z. B. ein neuronales Netzwerk, mit einer derartigen Struktur ausgestattet sein, die dahingehend trainierbar ist, gesprochene Befehle in Signalen eines Audiosensors zu identifizieren.The classifier, e.g. B. a neural network can be equipped with such a structure that can be trained, e.g. B. identify and distinguish pedestrians and/or vehicles and/or street signs and/or traffic lights and/or road surfaces and/or human faces and/or medical anomalies in images from an imaging sensor. Alternatively, the classifier, e.g. B. a neural network, be equipped with such a structure that can be trained to identify spoken commands in signals from an audio sensor.
Solche Klassifizierer können dann verwendet werden, um ein Aktorsteuersignal zum Steuern eines Aktors bereitzustellen, umfassend alle der Schritte des obigen Verfahrens und ferner umfassend den folgenden Schritt:
- - Bestimmen des Aktorsteuersignals in Abhängigkeit vom Ausgangssignal Vorzugsweise steuert der Aktor einen zumindest teilweise autonomen Roboter und/oder eine Herstellungsmaschine und/oder ein Zugangskontrollsystem.
- - Determining the actuator control signal as a function of the output signal Preferably, the actuator controls an at least partially autonomous robot and/or a manufacturing machine and/or an access control system.
In einem weiteren Aspekt der Erfindung wird ein computer-implementiertes Verfahren zur Verwendung des Klassifizierers zum Klassifizieren von Sensorsignalen vorgeschlagen. Der Klassifizierer wird mit dem Verfahren gemäß einem beliebigen der vorstehenden Aspekte der Erfindungen adoptiert, umfassend die folgenden Schritte: Empfangen eines Sensorsignals, das Daten vom Bildgebungssensor umfasst, Bestimmen eines Eingangssignals, das von dem Sensorsignal abhängt, und Einspeisen des Eingangssignals in den Klassifizierer, um ein Ausgangssignal zu erhalten, das eine Klassifizierung des Eingangssignals charakterisiert.In a further aspect of the invention, a computer-implemented method for using the classifier to classify sensor signals is proposed. The classifier is adopted with the method according to any of the above aspects of the inventions, comprising the following steps: receiving a sensor signal comprising data from the imaging sensor, determining an input signal dependent on the sensor signal, and feeding the input signal to the classifier to obtain an output signal that characterizes a classification of the input signal.
In einem weiteren Aspekt der Erfindung, ein computer-implementiertes Verfahren zur Verwendung des Klassifizierers, der mit dem Verfahren nach einem der vorstehenden Aspekte trainiert ist, zum Bereitstellen eines Aktorsteuersignals zum Steuern eines Aktors. Bestimmen eines Aktorsteuersignals in Abhängigkeit von einem Ausgangssignal des Klassifikators, das wie durch den vorherigen Abschnitt beschrieben bestimmt werden kann. Es wird vorgeschlagen, dass der Aktor einen zumindest teilweise autonomen Roboter und/oder eine Herstellungsmaschine und/oder ein Zugangskontrollsystem steuert.In a further aspect of the invention, a computer-implemented method for using the classifier trained with the method according to any of the preceding aspects to provide an actuator control signal for controlling an actuator. Determining an actuator control signal depending on an output signal of the classifier, which may be determined as described by the previous section. It is proposed that the actuator controls an at least partially autonomous robot and/or a manufacturing machine and/or an access control system.
In einem weiteren Aspekt der Erfindung wird ein Steuersystem zum Betreiben des Aktors vorgeschlagen. Das Steuersystem umfasst den Klassifizierer, der nach einem der vorstehenden Aspekte der Erfindung adoptiert wird, und ist dazu ausgelegt, den Aktor gemäß einer Ausgabe des Klassifizierers zu betreiben.In a further aspect of the invention, a control system for operating the actuator is proposed. The control system includes the classifier adopted according to any of the foregoing aspects of the invention and is configured to operate the actuator according to an output of the classifier.
Ausführungsformen der Erfindung werden mit Bezug auf die folgenden Figuren ausführlicher besprochen. Die Figuren zeigen:
-
1 ein schematisches Flussdiagramm einer Ausführungsform der Erfindung; -
2 ein Steuersystem, das einen zumindest teilweise autonomen Roboter steuert; -
3 ein Steuersystem, das eine Herstellungsmaschine steuert; -
4 ein Steuersystem, das einen Zugangskontrollsystem steuert; -
5 ein Steuersystem, das ein Überwachungssystem steuert; -
6 ein Steuersystem, das einen automatisierten persönlichen Assistenten steuert; -
7 ein Steuersystem, das ein Bildgebungssystem steuert; -
8 ein Trainingssystem zum Steuern des Klassifizierers.
-
1 a schematic flow diagram of an embodiment of the invention; -
2 a control system that controls an at least partially autonomous robot; -
3 a control system that controls a manufacturing machine; -
4 a control system that controls an access control system; -
5 a control system that controls a monitoring system; -
6 a control system that controls an automated personal assistant; -
7 a control system that controls an imaging system; -
8th a training system to control the classifier.
Beschreibung der AusführungsformenDescription of the embodiments
Bei überwachtem Lernen übertreffen Datenaugmentationsalgorithmen gewöhnlicherweise Strategien mit manuell ausgewählter Augmentation. Drei Algorithmen, die auf das zufällige Samplen von Augmentationen aus einem festen Satz von Augmentationen angewiesen sind, sind als TrivialAugment und SmartSamplingAugment bekannt. Andere Algorithmen, wie etwa AutoAugment, RandAugment und SmartAugment, führen eine gradientenfreie Suche im Raum von Augmentationsrichtlininen durch. Es ist auch möglich, gradientenbasierte Optimierung zum Meta-Lernen von Vortrainingshyperparametern für EKG-Daten anzuwenden. Bei Self-Augment stützen sich die Autoren auf die Korrelation zwischen überwachter und selbstüberwachter Evaluierungsleistung, um eine Rotationsaufgabe zum effizienten Erzeugen von Augmentationsrichtlinien zu integrieren. SelfAugment unterscheidet sich qualitativ von den vorherigen Ansätzen in dem Sinne, dass es nicht für allgemeine Downstream-Leistung, sondern für Rotationsaufgabenleistung, optimiert. Zusätzlich wird es wahrscheinlich keine Rotationen in die ausgewählte Augmentationsrichtlinie einschließen.In supervised learning, data augmentation algorithms typically outperform strategies with manually selected augmentation. Three algorithms that rely on randomly sampling augmentations from a fixed set of augmentations are known as TrivialAugment and SmartSamplingAugment. Other algorithms, such as AutoAugment, RandAugment, and SmartAugment, perform gradient-free search in the space of augmentation policies. It is also possible to apply gradient-based optimization to meta-learn pre-training hyperparameters for ECG data. In Self-Augment, the authors rely on the correlation between supervised and self-supervised evaluation performance to incorporate a rotation task to efficiently generate augmentation policies. SelfAugment is qualitatively different from previous approaches in the sense that it does not optimize for general downstream performance, but rather for rotational task performance. Additionally, it will likely not include rotations in the selected augmentation policy.
Im Gegensatz zu diesen deckt unserer Ansatz GroupAugment einen vielfältigeren Raum von Augmentationsstrategien als bestehende Verfahren ab und kann z. B. Augmentationsstrategien gestalten, die manuell gestalteten SSL-Augmentationsstrategien ähneln. Er generalisiert bestehende Ansätze durch Optimieren gruppenspezifischer Sampling-Wahrscheinlichkeiten, der Anzahl gruppenspezifischer Augmentationen und der Gesamtanzahl von angewendeten Augmentationen, während dem Satz von Augmentationen wie etwa SelfAugment keine Beschränkungen auferlegt werden.In contrast to these, our GroupAugment approach covers a more diverse space of augmentation strategies than existing methods and can e.g. B. Design augmentation strategies that are similar to manually designed SSL augmentation strategies. It generalizes existing approaches by optimizing group-specific sampling probabilities, the number of group-specific augmentations, and the total number of applied augmentations, while imposing no restrictions on the set of augmentations such as SelfAugment.
Um über die oben aufgelisteten Suchräume zu optimieren, wird Bayessche Optimierung (BO) (
In diesem Abschnitt wird GroupAugment eingeführt, ein automatisierter Datenaugmentationsalgorithmus, der an Gruppen von Augmentationen (wie etwa Farb- oder Qualitätstransformationen) arbeitet und Sampling-Strategien über diese Gruppen gestaltet. Ferner wird eine empirische Studie präsentiert, in der vorgefunden wird, dass, im Gegensatz zu den Datenaugmentationsalgorithmen, die für überwachtes Lernen gestaltet sind, GroupAugment robust die Basislinie in allen analysierten Einstellungen übertrifft.This section introduces GroupAugment, an automated data augmentation algorithm that works on groups of augmentations (such as color or quality transformations) and designs sampling strategies across these groups. Furthermore, an empirical study is presented in which it is found that, unlike the data augmentation algorithms designed for supervised learning, GroupAugment robustly outperforms the baseline in all settings analyzed.
In Anbetracht einiger Gruppen von Datenaugmentationen (gi) verwendet GroupAugment einen globalen Hyperparameter und zwei Sätze von gruppenspezifischen Hyperparametern, um eine Liste von Augmentationssequenzen zu erzeugen, die nacheinander an einem Bild angewendet werden. Der globale Hyperparameter 7 bestimmt die Anzahl von Augmentationssequenzen in dieser Liste. Der gruppenspezifische Hyperparameter Pgi bestimmt die Wahrscheinlichkeit, dass die Augmentationsgruppe gi gewählt wird, um die folgende Augmentationssequenz zu erzeugen. Ngi bestimmt die Anzahl von Augmentationen, um einheitlich ersatzlos zu samplen, um eine Augmentationssequenz für die Augmentationsgruppe gi zu bilden. Es wird Pseudocode für eine GroupAugment-Richtlinie in Algorithmus 1 bereitgestellt: Given some groups of data augmentations (g i ), GroupAugment uses a global hyperparameter and two sets of group-specific hyperparameters to generate a list of augmentation sequences that are sequentially applied to an image. The global hyperparameter 7 determines the number of augmentation sequences in this list. The group-specific hyperparameter P gi determines the probability that the augmentation group gi is chosen to produce the following augmentation sequence. N gi determines the number of augmentations to sample uniformly without replacement to form an augmentation sequence for the augmentation group gi . Pseudocode for a GroupAugment policy is provided in Algorithm 1:
Anwenden gesampleter Augmentationssequenzen A an IApplying sampled augmentation sequences A to I
GroupAugment generalisiert diese Idee auf einen beliebigen Satz von Augmentationsgruppen und sucht über allgemeinere Räume von Sampling-Strategien. In einer Ausführungsform wird GroupAugment mit fünf Gruppen instanziiert: Farbe, geometrisch, unstarr, Qualität und exotisch. Siehe Tabelle für ein Beispiel spezifischer Augmentationen und ihre Gruppierung, die verwendet wurden:
Siehe die folgende Tabelle für eine beispielhafte Beschreibung des Suchraums von GroupAugment:
Um über den resultierenden Suchraum zu optimieren, wird der gleiche Ansatz mit Bayesscher Optimierung (BO) mit fachkundigen Vorkenntnissen wie oben verwendet. Ferner werden die gesampleten Wahrscheinlichkeiten normiert, da BO jede Gruppenwahrscheinlichkeit individuell samplet, und daher addieren sie sich nicht unbedingt zu 1.To optimize over the resulting search space, the same expert Bayesian optimization (BO) approach is used as above. Furthermore, since BO samples each group probability individually, the sampled probabilities are normalized, and therefore they do not necessarily add up to 1.
Das Verfahren startet mit Empfangen (S21) zumindest eines Bildes (I), einer Mehrzahl von Augmentationsgruppen ({gi}), eines ersten Hyperparameters ({Pgi}), der gruppenspezifische Sampling-Wahrscheinlichkeiten charakterisiert, eines zweiten Hyperparameters ({Ngi}), der eine Anzahl von gruppenspezifischen Augmentationen charakterisiert, und eines dritten Hyperparameters (7), der eine Anzahl von Gesamtgruppensamples charakterisiert.The method starts with receiving (S21) at least one image (I), a plurality of augmentation groups ({g i }), a first hyperparameter ({P gi }), which characterizes group-specific sampling probabilities, a second hyperparameter ({N gi }), which characterizes a number of group-specific augmentations, and a third hyperparameter (7), which characterizes a number of total group samples.
Ein Schritt des Initialisierens (S22) einer leeren Liste mit Augmentationssequenzen (A) wird dann ausgeführt.A step of initializing (S22) an empty list of augmentation sequences (A) is then carried out.
Dann wird eine Schleife (S23) ausgeführt, in der ein Zähler schrittweise erhöht wird, bis der Wert des dritten Hyperparameters (T) erreicht wird. Die Schleife umfasst einen Schritt des Samplens einer Gruppe g gemäß dem ersten Hyperparameter ({Pgi}) und des Samplens, gemäß dem zweiten Hyperparameter (Ng), von Augmentationen aus der gesampleten Gruppe (g). Die gesamplete Augmentation wird zu der Liste (A) hinzugefügt.A loop (S23) is then executed in which a counter is increased step by step until the value of the third hyperparameter (T) is reached. The loop includes a step of sampling a group g according to the first hyperparameter ({P gi }) and sampling, according to the second hyperparameter (N g ), augmentations from the sampled group (g). The sampled augmentation is added to list (A).
Nachdem mehrere Augmentationen gesamplet wurden und die Schleife beendet ist, werden die gesampleten Augmentationen an einem Bild gemäß der definierten Sequenz der Liste angewendet (S25).After multiple augmentations have been sampled and the loop is completed, the sampled augmentations are applied to an image according to the defined sequence of the list (S25).
Optional wird ein Bildklassifizierer, vorzugsweise ein neuronales Netzwerk, gemäß selbstüberwachtem Lernen mit dem augmentierten Bild von Schritt S25 trainiert.Optionally, an image classifier, preferably a neural network, is trained according to self-supervised learning with the augmented image from step S25.
In
Dadurch empfängt das Steuersystem 40 einen Strom von Sensorsignalen S. Es berechnet dann eine Reihe von Aktorsteuerbefehlen A in Abhängigkeit von dem Strom von Sensorsignalen S, die dann zu einer Aktoreinheit 10 übertragen werden, die die Steuerbefehle A in mechanische Bewegungen oder Änderungen physikalischer Größen umwandelt. Beispielsweise kann die Aktoreinheit 10 den Steuerbefehl A in eine elektrische, hydraulische, pneumatische, thermische, magnetische und/oder mechanische Bewegung oder Änderung umwandeln. Spezifische, jedoch nicht beschränkende Beispiele beinhalten elektrische Motoren, elektroaktive Polymere, hydraulische Zylinder, piezoelektrische Aktoren, pneumatische Aktoren, Servomechanismen, Solenoide, Schrittmotoren usw. Thereby, the
Das Steuersystem 40 empfängt den Strom von Sensorsignalen S des Sensors 30 in einer optionalen Empfangseinheit 50. Die Empfangseinheit 50 transformiert die Sensorsignale S in Eingangssignale x. Alternativ, in einem Fall ohne Empfangseinheit 50, kann jedes Sensorsignal S direkt als ein Eingangssignal x angenommen werden. Das Eingangssignal x kann zum Beispiel als ein Auszug aus dem Sensorsignal S gegeben werden. Alternativ kann das Sensorsignal S verarbeitet werden, um das Eingangssignal x zu erbringen. Das Eingangssignal x umfasst Bilddaten, die einem durch den Sensor 30 aufgezeichneten Bild entsprechen. Mit anderen Worten wird das Eingangssignal x gemäß dem Sensorsignal S bereitgestellt.The
Das Eingangssignal x wird dann an den Bildklassifizierer 60 weitergeleitet, der zum Beispiel durch ein künstliches neuronales Netzwerk gegeben sein kann und mit augmentierten Bildern, die durch das Verfahren von
Der Klassifizierer 60 wird durch Parameter ϕ parametrisiert, die in der Parameterspeicherung St1 gespeichert sind und durch diese bereitgestellt werden.The
Der Klassifizierer 60 bestimmt Ausgangssignale y aus den Eingangssignalen x. Das Ausgangssignal y umfasst Informationen, die dem Eingangssignal x ein oder mehrere Labels zuweisen. Die Ausgangssignale y werden zu einer optionalen Umwandlungseinheit 80 übertragen, die die Ausgangssignale y in die Steuerbefehle A umwandelt. Die Aktorsteuerbefehle A werden dann zu der Aktoreinheit 10 übertragen, um die Aktoreinheit 10 entsprechend zu steuern. Alternativ können die Ausgangssignale y direkt als die Steuerbefehle A angenommen werden.The
Die Aktoreinheit 10 empfängt die Aktorsteuerbefehle A, wird entsprechend gesteuert und führt eine Handlung entsprechend den Aktorsteuerbefehlen A aus. Die Aktoreinheit 10 kann eine Steuerlogik umfassen, die den Aktorsteuerbefehl A in einen weiteren Steuerbefehl transformiert, der dann zum Steuern des Aktors 10 verwendet wird.The
In weiteren Ausführungsformen kann das Steuersystem 40 den Sensor 30 umfassen. In noch weiteren Ausführungsformen kann das Steuersystem 40 alternativ oder zusätzlich den Aktor 10 umfassen.In further embodiments, the
In einer Ausführungsform kann der Klassifizierer 60 dazu ausgebildet sein, Spuren auf einer vorausliegenden Straße zu identifizieren, z. B. durch Klassifizieren einer Straßenoberfläche und von Markierungen auf der Straße und Identifizieren von Spuren als Flächen der Straßenoberfläche zwischen den Markierungen. Basierend auf einer Ausgabe eines Navigationssystems kann dann eine geeignete Spur zum Verfolgen eines gewählten Pfades ausgewählt werden, und in Abhängigkeit von einer gegenwärtigen Spur und der Zielspur kann dann entschieden werden, ob das Fahrzeug 60 die Spur wechseln oder in der gegenwärtigen Spur bleiben soll. Der Steuerbefehl A kann dann berechnet werden, z. B. durch Abrufen eines vordefinierten Bewegungsmusters aus einer Datenbank entsprechend der identifizierten Handlung.In one embodiment, the
Gleichermaßen können dann, nach dem Identifizieren von Straßenschildern oder Ampeln, in Abhängigkeit von einem identifizierten Typ des Straßenschilds oder einem identifizierten Zustand der Ampeln, entsprechende Beschränkungen an möglichen Bewegungsmustern des Fahrzeugs 60 z. B. aus einer Datenbank abgerufen werden, ein zukünftiger Pfad des Fahrzeugs 60 kann entsprechend den Beschränkungen berechnet werden und der Aktorsteuerbefehl A kann berechnet werden, um das Fahrzeug so zu lenken, dass die Trajektorie ausgeführt wird.Likewise, after identifying street signs or traffic lights, depending on an identified type of street sign or an identified state of the traffic lights, corresponding restrictions can then be placed on possible movement patterns of the
Gleichermaßen kann, nach dem Identifizieren von Fußgängern und/oder Fahrzeugen, ein projiziertes zukünftiges Verhalten der Fußgänger und/oder Fahrzeuge geschätzt werden, und basierend auf dem geschätzten zukünftigen Verhalten kann dann eine Trajektorie ausgewählt werden, um eine Kollision mit dem Fußgänger und/oder dem Fahrzeug zu vermeiden, und der Aktorsteuerbefehl A kann berechnet werden, um das Fahrzeug so zu lenken, dass die Trajektorie ausgeführt wird.Likewise, after identifying pedestrians and/or vehicles, projected future behavior of the pedestrians and/or vehicles may be estimated, and based on the estimated future behavior, a trajectory may then be selected to avoid a collision with the pedestrian and/or vehicle Vehicle to avoid, and the actuator control command A can be calculated to steer the vehicle to execute the trajectory.
In noch weiteren Ausführungsformen kann sich vorgestellt werden, dass das Steuersystem 40 eine Anzeige 10a eines Aktors 10 steuert, wobei die Anzeige 10a den Steuerbefehl oder dergleichen anzeigen kann.
In anderen Ausführungsformen kann die Anzeige 10a eine Ausgabeschnittstelle zu einer Wiedergabevorrichtung sein, wie etwa eine Anzeige, eine Lichtquelle, ein Lautsprecher, ein Vibrationsmotor usw., die verwendet werden kann, um ein sensorisch wahrnehmbares Ausgangssignal zu erzeugen, das basierend auf der Merkmalsrepräsentation erzeugt werden kann, die durch den Videomerkmalsextraktor extrahiert wird. Das sensorisch wahrnehmbare Ausgangssignal kann die extrahierten Merkmale direkt angeben, kann aber auch ein abgeleitetes sensorisch wahrnehmbares Ausgangssignal repräsentieren, z. B. zur Verwendung bei der Führung, Navigation oder einem anderen Typ von Steuerung eines computergesteuerten Systems.In still further embodiments, it can be imagined that the
In other embodiments, the
Ferner kann das Steuersystem 40 einen Prozessor 45 (oder eine Mehrzahl von Prozessoren) und mindestens ein maschinenlesbares Speicherungsmedium 46 umfassen, auf dem Anweisungen gespeichert sind, die bei ihrer Ausführung bewirken, dass das Steuersystem 40 ein Verfahren gemäß einem Aspekt der Erfindung ausführt.Further, the
In einer bevorzugten Ausführungsform von
Der Sensor 30 kann einen oder mehrere Videosensoren und/oder einen oder mehrere Radar-Sensoren und/oder einen oder mehrere Ultraschallsensoren und/oder einen oder mehrere LiDAR-Sensoren und/oder einen oder mehrere Positionssensoren (wie z. B. GPS) umfassen. Einige oder alle dieser Sensoren sind vorzugsweise, aber nicht notwendigerweise, im Fahrzeug 100 integriert. Alternativ oder zusätzlich kann der Sensor 30 ein Informationssystem zum Bestimmen eines Zustands des Aktorsystems umfassen. Ein Beispiel für solch ein Informationssystem ist ein Wetterinformationssystem, das einen gegenwärtigen oder zukünftigen Zustand des Wetters in der Umgebung 20 bestimmt.The
Beispielsweise kann der Klassifizierer 60 unter Verwendung des Eingangssignals x zum Beispiel Objekte in der Nähe des zumindest teilweise autonomen Roboters detektieren. Das Ausgangssignal y kann eine Information umfassen, die charakterisiert, wo sich Objekte in der Nähe des zumindest teilweise autonomen Roboters befinden. Der Steuerbefehl A kann dann gemäß dieser Information bestimmt werden, beispielsweise um Kollisionen mit den detektierten Objekten zu vermeiden.For example, the
Die Aktoreinheit 10, die vorzugsweise im Fahrzeug 100 integriert ist, kann durch eine Bremse, ein Antriebssystem, einen Motor, einen Antriebsstrang oder eine Lenkung des Fahrzeugs 100 gegeben sein. Die Aktorsteuerbefehle A können so bestimmt werden, dass die Aktor(oder Aktoren)-Einheit 10 so gesteuert wird, dass das Fahrzeug 100 Kollisionen mit den detektierten Objekten vermeidet. Die detektierten Objekte können auch danach klassifiziert werden, was der Klassifizierer 60 für am wahrscheinlichsten hält, z. B. Fußgänger oder Bäume, und die Aktorsteuerbefehle A können in Abhängigkeit von der Klassifizierung bestimmt werden.The
In weiteren Ausführungsformen kann der zumindest teilweise autonome Roboter durch einen anderen mobilen Roboter (nicht gezeigt) gegeben sein, der sich zum Beispiel durch Fliegen, Schwimmen, Tauchen oder Schreiten bewegen kann. Der mobile Roboter kann unter anderem ein zumindest teilweise autonomer Rasenmäher oder ein zumindest teilweise autonomer Reinigungsroboter sein. In allen der obigen Ausführungsformen kann der Aktorsteuerbefehl A so bestimmt werden, dass eine Antriebseinheit und/oder eine Lenkung und/oder eine Bremse des mobilen Roboters so gesteuert werden, dass der mobile Roboter Kollisionen mit den identifizierten Objekten vermeiden kann.In further embodiments, the at least partially autonomous robot may be another mobile robot (not shown) that can move, for example, by flying, swimming, diving or walking. The mobile robot can be, among other things, an at least partially autonomous lawn mower or an at least partially autonomous cleaning robot. In all of the above embodiments, the actuator control command A may be determined so that a drive unit and/or a steering and/or a brake of the mobile robot are controlled so that the mobile robot can avoid collisions with the identified objects.
In einer weiteren Ausführungsform kann der zumindest teilweise autonome Roboter durch einen Gartenroboter (nicht gezeigt) gegeben sein, der den Sensor 30, vorzugsweise einen optischen Sensor, verwendet, um einen Zustand von Pflanzen in der Umgebung 20 zu bestimmen. Die Aktoreinheit 10 kann eine Düse zum Sprühen von Chemikalien sein. In Abhängigkeit von einer identifizierten Art und/oder einem identifizierten Zustand der Pflanzen kann ein Aktorsteuerbefehl A bestimmt werden, um zu bewirken, dass die Aktoreinheit 10 die Pflanzen mit einer geeigneten Menge geeigneter Chemikalien besprüht.In a further embodiment, the at least partially autonomous robot may be a garden robot (not shown) that uses the
In noch weiteren Ausführungsformen kann der zumindest teilweise autonome Roboter durch ein Haushaltsgerät (nicht gezeigt) gegeben sein, wie z. B. eine Waschmaschine, einen Herd, einen Ofen, eine Mikrowelle oder eine Spülmaschine. Der Sensor 30, z. B. ein optischer Sensor, kann einen Zustand eines Objekts detektieren, das einer Bearbeitung durch das Haushaltsgerät unterzogen werden soll. Beispielsweise in dem Fall, dass das Haushaltsgerät eine Waschmaschine ist, kann der Sensor 30 einen Zustand der Wäsche in der Waschmaschine detektieren. Das Aktorsteuersignal A kann dann in Abhängigkeit von einem detektierten Material der Wäsche bestimmt werden.In still further embodiments, the at least partially autonomous robot may be provided by a household appliance (not shown), such as. B. a washing machine, a stove, an oven, a microwave or a dishwasher. The
In
Das Steuersystem 40 steuert eine Aktoreinheit 10, die im Gegenzug die Herstellungsmaschine 11 steuert.The
Der Sensor 30 kann durch einen optischen Sensor gegeben sein, der Eigenschaften z. B. eines hergestellten Produkts 12 erfasst. Der Klassifizierer 60 kann einen Zustand des hergestellten Produkts 12 aus diesen erfassten Eigenschaften bestimmen. Die Aktoreinheit 10, die die Herstellungsmaschine 11 steuert, kann dann in Abhängigkeit von dem bestimmten Zustand des hergestellten Produkts 12 für einen anschließenden Herstellungsschritt des hergestellten Produkts 12 gesteuert werden. Oder es kann sich vorgestellt werden, dass die Aktoreinheit 10 während der Herstellung eines anschließenden hergestellten Produkts 12 in Abhängigkeit von dem bestimmten Zustand des hergestellten Produkts 12 gesteuert wird.The
In
In
In
Das Steuersystem 40 bestimmt dann die Aktorsteuerbefehle A zum Steuern des automatisierten persönlichen Assistenten 250. Die Aktorsteuerbefehle A werden gemäß dem Sensorsignal S des Sensors 30 bestimmt. Das Sensorsignal S wird zu dem Steuersystem 40 übertragen. Beispielsweise kann der Klassifizierer 60 dazu ausgelegt sein, z. B. einen Gestenerkennungsalgorithmus auszuführen, um eine durch den Benutzer 249 vorgenommene Geste zu identifizieren. Das Steuersystem 40 kann dann einen Aktorsteuerbefehl A zur Übertragung zu dem automatisierten persönlichen Assistenten 250 bestimmen. Es überträgt dann den Aktorsteuerbefehl A zu dem automatisierten persönlichen Assistenten 250.The
Beispielsweise kann der Aktorsteuerbefehl A gemäß der identifizierten Benutzergeste, die durch den Klassifizierer 60 erkannt wird, bestimmt werden. Er kann dann Informationen umfassen, die bewirken, dass der automatisierte persönliche Assistent 250 Informationen aus einer Datenbank abruft und diese abgerufenen Informationen in einer für den Empfang durch den Benutzer 249 geeigneten Form ausgibt.For example, the actuator control command A may be determined according to the identified user gesture recognized by the
In weiteren Ausführungsformen kann sich vorgestellt werden, dass anstelle des automatisierten persönlichen Assistenten 250 das Steuersystem 40 ein Haushaltsgerät (nicht gezeigt) steuert, das gemäß der identifizierten Benutzergeste gesteuert wird. Das Haushaltsgerät kann eine Waschmaschine, ein Herd, ein Ofen, eine Mikrowelle oder eine Spülmaschine sein.In further embodiments, it can be imagined that instead of the automated
In
In
Die durch die Trainingsvorrichtung 500 ausgeführten Prozeduren können als ein Computerprogramm implementiert werden, das auf einem maschinenlesbaren Speicherungsmedium 54 gespeichert ist und durch einen Prozessor 55 ausgeführt wird.The procedures performed by the
Der Begriff „Computer“ deckt eine jegliche Vorrichtung für die Verarbeitung vordefinierter Berechnungsanweisungen ab. Diese Berechnungsanweisungen kann in Form von Software oder in Form von Hardware oder auch in einer gemischten Form aus Software und Hardware vorliegen.The term “computer” covers any device for processing predefined calculation instructions. These calculation instructions can be in the form of software or in the form of hardware or even in a mixed form of software and hardware.
Es versteht sich ferner, dass die Prozeduren nicht nur vollständig in Software implementiert werden können, wie beschrieben. Sie können auch in Hardware oder in einer gemischten Form aus Software und Hardware implementiert werden.It is further understood that the procedures cannot only be implemented entirely in software, as described. They can also be implemented in hardware or in a mixed form of software and hardware.
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte Nicht-PatentliteraturNon-patent literature cited
- Mockus, J., Tiesis, V. und Zilinskas, A. „The application of Bayesian methods for seeking the extremum. Towards Global Optimization“, 2(117-129) [0020]Mockus, J., Tiesis, V. and Zilinskas, A. “The application of Bayesian methods for seeking the extremum. Towards Global Optimization”, 2(117-129) [0020]
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022207266.9A DE102022207266A1 (en) | 2022-07-15 | 2022-07-15 | Apparatus and method for augmenting an image for self-supervised learning |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022207266.9A DE102022207266A1 (en) | 2022-07-15 | 2022-07-15 | Apparatus and method for augmenting an image for self-supervised learning |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102022207266A1 true DE102022207266A1 (en) | 2024-01-18 |
Family
ID=89387363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102022207266.9A Pending DE102022207266A1 (en) | 2022-07-15 | 2022-07-15 | Apparatus and method for augmenting an image for self-supervised learning |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102022207266A1 (en) |
-
2022
- 2022-07-15 DE DE102022207266.9A patent/DE102022207266A1/en active Pending
Non-Patent Citations (1)
Title |
---|
Mockus, J., Tiesis, V. und Zilinskas, A. „The application of Bayesian methods for seeking the extremum. Towards Global Optimization", 2(117-129) |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112017001311T5 (en) | System and method for training an object classifier by machine learning | |
DE112009000485T5 (en) | Object comparison for tracking, indexing and searching | |
DE102017127592A1 (en) | A method of classifying image scenes in a driving support system | |
DE112017005651T5 (en) | Device for classifying data | |
DE202019105282U1 (en) | Device for optimizing a machine learning system | |
DE102020210352A1 (en) | Method and device for transfer learning between modified tasks | |
DE102021205722A1 (en) | SYSTEM AND PROCEDURE FOR MULTI-SCALE MODELS WITH DEEP BALANCE | |
DE102023102316A1 (en) | SYSTEM AND METHOD FOR ROBUST GENERATION OF PSEUDO-LABELS FOR SEMI-SUPERVISED OBJECT DETECTION | |
DE102021201124A1 (en) | TRAINING IMAGE CLASSIFIER NETWORKS | |
Bargoti et al. | Image classification with orchard metadata | |
EP1180258B1 (en) | Pattern recognition by means of an examination of supplementary features after a partial processing | |
DE102022210129A1 (en) | IMAGE PROCESSING VIA ISOTONIC CONVOLUTIONAL NEURONAL NETWORKS | |
DE102021213118A1 (en) | METHOD AND SYSTEM FOR BLACK-BOX UNIVERSAL LOW-QUERY ATTACKS | |
DE102023109072A1 (en) | DATA AUGMENTATION FOR DOMAIN GENERALIZATION | |
CN110111358B (en) | Target tracking method based on multilayer time sequence filtering | |
DE102020200503A1 (en) | Method for generating labeled data, in particular for training a neural network, by improving initial labels | |
DE102020201939A1 (en) | Method and device for evaluating an image classifier | |
DE102023203691A1 (en) | Method and system for detecting graph level anomalies | |
DE102022207266A1 (en) | Apparatus and method for augmenting an image for self-supervised learning | |
DE102022206060A1 (en) | DEFENSE MULTIMODAL FUSION MODELS AGAINST SINGLE-SOURCE ATTACKERS | |
DE102021210721A1 (en) | METHOD AND SYSTEM FOR ADVERSARY TRAINING USING METAGELEARNED INITIALIZATION | |
US20210287093A1 (en) | Device and method for training a neuronal network | |
DE202022101997U1 (en) | Device for jointly determining an optimal architecture of a neural network and optimal hyperparameters for training the neural network | |
DE102021210417A1 (en) | Systems and methods with robust classifiers to defend against patch attacks | |
DE102020216188A1 (en) | Apparatus and method for training a classifier |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified |