DE102020215942A1 - System und verfahren für unüberwachte domänenanpassung mit mischungstraining - Google Patents

System und verfahren für unüberwachte domänenanpassung mit mischungstraining Download PDF

Info

Publication number
DE102020215942A1
DE102020215942A1 DE102020215942.4A DE102020215942A DE102020215942A1 DE 102020215942 A1 DE102020215942 A1 DE 102020215942A1 DE 102020215942 A DE102020215942 A DE 102020215942A DE 102020215942 A1 DE102020215942 A1 DE 102020215942A1
Authority
DE
Germany
Prior art keywords
data
domain
label
generating
sensor data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020215942.4A
Other languages
English (en)
Inventor
Liu Ren
Huan Song
Lincan Zou
Shen YAN
Nanxiang LI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of DE102020215942A1 publication Critical patent/DE102020215942A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Machine Translation (AREA)
  • Testing And Monitoring For Control Systems (AREA)

Abstract

Ein System und ein Verfahren zur Domänenanpassung involvieren eine erste Domäne und eine zweite Domäne. Ein Maschinenlernsystem wird mit ersten Sensordaten und ersten Labeldaten der ersten Domäne trainiert. Es werden zweite Sensordaten einer zweiten Domäne erhalten. Es werden zweite Labeldaten über das Maschinenlernsystem basierend auf den zweiten Sensordaten generiert. Es werden Interdomänensensordaten durch Interpolieren der ersten Sensordaten der ersten Domäne mit Bezug auf die zweiten Sensordaten der zweiten Domäne generiert. Es werden Interdomänenlabeldaten durch Interpolieren erster Labeldaten der ersten Domäne mit Bezug auf zweite Labeldaten der zweiten Domäne generiert. Das Maschinenlernsystem ist so betreibbar, dass es Interdomänenausgabedaten als Reaktion auf die Interdomänensensordaten generiert. Es werden Interdomänenverlustdaten basierend auf den Interdomänenausgabedaten mit Bezug auf die Interdomänenlabeldaten generiert. Nach dem Optimieren von Endverlustdaten, die mindestens die Interdomänenverlustdaten enthalten, werden Parameter des Maschinenlernsystems aktualisiert. Das Maschinenlernsystem, das in der ersten Domäne betreibbar ist, ist angepasst, um nach einer Domänenanpassung aktuelle Labeldaten, die aktuelle Sensordaten der zweiten Domäne identifizieren, zu generieren.

Description

  • GEBIET DER TECHNIK
  • Diese Offenbarung betrifft allgemein Maschinenlernsysteme.
  • ALLGEMEINER STAND DER TECHNIK
  • Deep-Learning-Systeme sind typischerweise auf sehr viele Daten und umfassende, von Menschen vorgenommene Labelungen angewiesen. Beim Einsatz in Szenarien in der Praxis treten bei ihnen daher oft kritische Komplikationen auf, wenn Domänenwechsel erfolgen und die Labels in neuen Verteilungen nur in geringer Anzahl vorhanden oder nicht verfügbar sind. Diese Komplikationen betreffen die unüberwachte Domänenanpassung (UDA), die das Nutzen einer relevanten Quelldomäne mit sehr vielen Labels zum Erstellen einer prädiktiven Modellierung für eine unannotierte Zieldomäne involviert. Bei der Auseinandersetzung mit diesen Komplikationen wurde bei einigen Arbeiten auf den Ansatz des gegnerischen Lernens zum Lernen domäneninvarianter Merkmale abgestellt. Es ist jedoch festgestellt worden, dass diese Arbeiten unzureichend dafür sind, um eine gewünschte Zieldomänenperformanz zu erreichen. Darüber hinaus erfolgten weitere Arbeiten, aufgrund derer zusätzliche Trainingsbegrenzungen wie Clusterannahmen eingeführt wurden. Diese anderen Ansätze geben jedoch Begrenzungen für eine gewählte Domäne einzeln und unabhängig vor und gehen mit etlichen Performanznachteilen einher, da sie das wichtige Zusammenspiel der Quelldomäne und der Zieldomäne ignorieren.
  • KURZE DARSTELLUNG DER ERFINDUNG
  • Im Folgenden werden einige Ausführungsformen, die unten ausführlich beschrieben werden, kurz dargestellt. Die beschriebenen Aspekte werden lediglich angeführt, um dem Leser eine kurze Darstellung dieser Ausführungsformen an die Hand zu geben, und die Beschreibung dieser Aspekte soll den Schutzbereich dieser Offenbarung nicht begrenzen. Denn diese Offenbarung kann auch diverse, unten möglicherweise nicht ausdrücklich dargelegte Aspekte einschließen.
  • Gemäß mindestens einem Aspekt involviert ein computerimplementiertes Verfahren zur unüberwachten Domänenanpassung eine erste Domäne und eine zweite Domäne. Das Verfahren enthält das Erhalten eines Maschinenlernsystems, das mit ersten Sensordaten und ersten Labeldaten der ersten Domäne trainiert wird. Das Verfahren enthält das Erhalten zweiter Sensordaten der zweiten Domäne. Das Verfahren enthält das Generieren zweiter Labeldaten über das Maschinenlernsystem basierend auf den zweiten Sensordaten. Das Verfahren enthält das Generieren von Interdomänensensordaten durch Interpolieren erster Sensordaten der ersten Domäne mit Bezug auf zweite Sensordaten der zweiten Domäne. Das Verfahren enthält das Generieren von Interdomänenlabeldaten durch Interpolieren erster Labeldaten der ersten Domäne mit Bezug auf zweite Labeldaten der zweiten Domäne. Das Verfahren enthält das Generieren von Interdomänenausgabedaten über das Maschinenlernsystem basierend auf den Interdomänensensordaten und den Interdomänenlabeldaten. Das Verfahren enthält das Generieren von Interdomänenverlustdaten basierend auf den Interdomänenausgabedaten mit Bezug auf die Interdomänenlabeldaten. Das Verfahren enthält das Aktualisieren von Parametern des Maschinenlernsystems nach dem Optimieren von Endverlustdaten. Die Endverlustdaten enthalten die Interdomänenverlustdaten.
  • Gemäß mindestens einem Aspekt enthält ein System mindestens ein Speichersystem und ein Verarbeitungssystem. Das Speichersystem enthält mindestens ein nichtflüchtiges, computerlesbares Medium. Das Speichersystem enthält eine Domänenanpassungsanwendung und ein Maschinenlernsystem. Das Verarbeitungssystem ist betriebsfähig mit dem Speichersystem verbunden. Das Verarbeitungssystem enthält mindestens einen Prozessor, der konfiguriert ist, um die Domänenanpassungsanwendung auszuführen, um ein Verfahren, das das Generieren von Interdomänensensordaten durch Interpolieren erster Sensordaten der ersten Domäne mit Bezug auf zweite Sensordaten der zweiten Domäne enthält, zu implementieren. Das Verfahren enthält das Generieren von Interdomänenlabeldaten durch Interpolieren erster Labeldaten der ersten Domäne mit Bezug auf zweite Labeldaten der zweiten Domäne. Das Verfahren enthält das Generieren von Interdomänenausgabedaten über das Maschinenlernsystem basierend auf den Interdomänensensordaten und den Interdomänenlabeldaten. Das Verfahren enthält das Generieren von Interdomänenverlustdaten basierend auf den Interdomänenausgabedaten mit Bezug auf die Interdomänenlabeldaten. Das Verfahren enthält das Aktualisieren von Parametern des Maschinenlernsystems nach dem Minimieren von Endverlustdaten, die mindestens die Interdomänenverlustdaten enthalten. Das Verfahren enthält das Bereitstellen des Maschinenlernsystems für den Einsatz. Das Maschinenlernsystem ist angepasst, um aktuelle Labeldaten, die aktuelle Sensordaten der zweiten Domäne klassifizieren, zu generieren.
  • Gemäß mindestens einem Aspekt enthält ein nichtflüchtiges, computerlesbares Medium computerlesbare Daten einer Domänenanpassungsanwendung, die, wenn sie durch ein Verarbeitungssystem mit mindestens einem Prozessor ausgeführt wird, konfiguriert ist, um zu bewirken, dass das Verarbeitungssystem ein Verfahren, das das Generieren von Interdomänensensordaten durch Interpolieren erster Sensordaten der ersten Domäne mit Bezug auf zweite Sensordaten der zweiten Domäne enthält, implementiert. Das Verfahren enthält das Generieren von Interdomänenlabeldaten durch Interpolieren erster Labeldaten der ersten Domäne mit Bezug auf zweite Labeldaten der zweiten Domäne. Das Verfahren enthält das Generieren von Interdomänenausgabedaten über das Maschinenlernsystem basierend auf den Interdomänensensordaten und den Interdomänenlabeldaten. Das Verfahren enthält das Generieren von Interdomänenverlustdaten basierend auf den Interdomänenausgabedaten mit Bezug auf die Interdomänenlabeldaten. Das Verfahren enthält das Aktualisieren von Parametern des Maschinenlernsystems nach dem Minimieren von Endverlustdaten, die mindestens die Interdomänenverlustdaten enthalten. Das Verfahren enthält das Bereitstellen des Maschinenlernsystems für den Einsatz oder die Verwendung. Das Maschinenlernsystem ist angepasst, um aktuelle Labeldaten, die aktuelle Sensordaten der zweiten Domäne klassifizieren, zu generieren.
  • Diese und weitere Merkmale, Aspekte und Vorteile der vorliegenden Erfindung werden in der folgenden ausführlichen Beschreibung gemäß den beiliegenden Zeichnungen erörtert, wobei jeweils dieselben Bezugszeichen ähnliche oder dieselben Teile darstellen.
  • Figurenliste
    • 1 ist ein Schema eines beispielhaften Systems zum Trainieren eines Maschinenlernsystems gemäß einem Ausführungsbeispiel dieser Offenbarung.
    • 2 ist eine Prinzipskizze eines Frameworks für eine unüberwachte Domänenanpassung mit einem Mischungstraining gemäß einem Ausführungsbeispiel dieser Offenbarung.
    • 3 ist ein Schema eines Verfahrens zur unüberwachten Domänenanpassung mit einem Mischungstraining gemäß einem Ausführungsbeispiel dieser Offenbarung.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die hierin beschriebenen Ausführungsformen, die beispielhaft gezeigt und beschrieben worden sind, und viele ihrer Vorteile gehen aus der obigen Beschreibung hervor, und es ist ersichtlich, dass verschiedene Änderungen an der Ausbildung, am Aufbau und an der Anordnung der Komponenten vorgenommen werden können, ohne vom offenbarten Gegenstand abzuweichen oder ohne dass dadurch einer oder mehrere ihrer Vorteile eingebüßt werden. Die beschriebenen Ausbildungen dieser Ausführungsformen dienen nämlich lediglich zur Erläuterung. Diese Ausführungsformen können unterschiedlich modifiziert werden und alternativ ausgebildet sein, und die folgenden Ansprüche sollen derartige Änderungen einschließen und enthalten und sind nicht auf die konkreten offenbarten Ausbildungen begrenzt, sondern sollen jegliche Modifikationen, Äquivalente und Alternativen, die mit dem Gedanken dieser Offenbarung vereinbar sind und in ihren Schutzbereich fallen, abdecken.
  • Im Allgemeinen erkennt diese Offenbarung, dass allein das Lernen domäneninvarianter Repräsentationen die Performanzlücke zwischen den zwei Domänen nicht schließen kann. Im Gegensatz zu anderen Ansätzen mit dem Ziel, die UDA-Aufgabe durch eine unabhängige Adressierung einer Domäne zu lösen, stellen die hierin offenbarten Ausführungsformen ein beide Domänen in die Ausgestaltung einer Begrenzung einbeziehendes Framework bereit. Dadurch, dass mindestens eine domänenübergreifende Begrenzung erzwungen wird, adressieren die hierin offenbarten Ausführungsformen direkt die Zieldomänenperformanz. In diesem Zusammenhang demonstrieren die Ausführungsformen durch die Linse eines einfachen und dennoch effektiven Mischungstrainings, dass eine Einführung domänenübergreifender Trainingsbegrenzungen die Modellanpassungsperformanz erheblich verbessern kann.
  • 1 veranschaulicht ein beispielhaftes System 100 zum Bereitstellen einer unüberwachten Domänenanpassung gemäß einem Ausführungsbeispiel. Das System 100 enthält mindestens ein Verarbeitungssystem 110. Das Verarbeitungssystem 110 enthält mindestens einen elektronischen Prozessor, einen Hauptprozessor (CPU), einen Grafikprozessor (GPU), einen Mikroprozessor, ein Field-Programmable Gate Array (FPGA), eine anwendungsspezifische integrierte Schaltung (ASIC), beliebige geeignete Verarbeitungstechniken oder eine beliebige Anzahl und Kombination daraus. Das Verarbeitungssystem 110 ist so betreibbar, dass es die hierin beschriebene Funktionalität bereitstellt.
  • Das System 100 enthält mindestens ein Speichersystem 120, das betriebsfähig mit dem Verarbeitungssystem 110 verbunden ist. In einem Ausführungsbeispiel enthält das Speichersystem 120 mindestens ein nichtflüchtiges, computerlesbares Medium, das konfiguriert ist, um verschiedene Daten zu speichern und einen Zugriff auf diese verschiedenen Daten zu ermöglichen, damit mindestens das Verarbeitungssystem 110 die Operationen und die Funktionalität, die hierin offenbart werden, durchführen kann. In einem Ausführungsbeispiel umfasst das Speichersystem 120 nur ein Element oder eine Vielzahl von Elementen. Das Speichersystem 120 kann eine elektrische, elektronische, magnetische, optische, Halbleiter-, elektromagnetische oder beliebige andere geeignete, mit dem System 100 kompatible Speichertechnik enthalten. In einem Ausführungsbeispiel enthält das Speichersystem 120 beispielsweise einen Arbeitsspeicher (RAM), einen Festwertspeicher (ROM), einen Flashspeicher, ein Plattenlaufwerk, eine Speicherkarte, einen optischen Datenspeicher, einen magnetischen Datenspeicher, ein Speichermodul, ein Speicherelement von einem beliebigen geeigneten Typ oder eine beliebige Kombination daraus. Das Speichersystem 120 ist mit Bezug auf das Verarbeitungssystem 110 und/oder andere Komponenten des Systems 100 lokal, entfernt oder eine Kombination daraus (z. B. teilweise lokal und teilweise entfernt). Das Speichersystem 120 kann zum Beispiel mindestens ein cloudbasiertes Speichersystem (z. B. ein cloudbasiertes Datenbanksystem), das vom Verarbeitungssystem 110 und/oder von anderen Komponenten des Systems 100 entfernt ist, enthalten.
  • Das Speichersystem 120 enthält mindestens eine Domänenanpassungsanwendung 130, ein Maschinenlernsystem 140, Trainingsdaten 150 und weitere relevante Daten 160, die darin gespeichert sind. Die Domänenanpassungsanwendung 130 enthält computerlesbare Daten, die, wenn sie durch das Verarbeitungssystem 110 ausgeführt werden, konfiguriert sind, um das Maschinenlernsystem 140 effektiv für eine Anpassung von einer ersten Domäne an eine zweite Domäne zu trainieren. Die computerlesbaren Daten können Anweisungen, Code, Routinen, verschiedene zugehörige Daten, beliebige Softwaretechniken oder eine beliebige Anzahl und Kombination daraus enthalten. Eine beispielhafte Implementierung der Domänenanpassungsanwendung 114 wird mit Bezug auf das Framework 200 in 2 und das Verfahren 300 in 3 näher erörtert. Darüber hinaus enthält das Maschinenlernsystem 140 ein Convolutional Neural Network (CNN), ein Long Short-Term Memory (LSTM) Network, ein Recurrent Neural Network (RNN), ein beliebiges sonstiges geeignetes künstliches neuronales Netz oder eine beliebige Anzahl und Kombination daraus. Zudem enthalten die Trainingsdaten 150 eine ausreichende Menge von Sensordaten einer ersten Domäne, Labeldaten der ersten Domäne, Sensordaten einer zweiten Domäne, Labeldaten der zweiten Domäne, verschiedene Mischungsformulierungen (z. B. Interdomänensensordaten, Interdomänenlabeldaten, Intradomänensensordaten, Intradomänenlabeldaten oder Konsistenzregularisiererdaten), verschiedene Verlustdaten, verschiedene Gewichtsdaten und verschiedene Parameterdaten sowie eventuelle zugehörige Maschinenlerndaten, die ermöglichen, dass das System 100 das unüberwachte Domänenanpassungstraining, wie hierin beschrieben, bereitstellt. Indessen stellen die weiteren relevanten Daten 160 verschiedene Daten (z. B. Betriebssystem) bereit, die ermöglichen, dass das System 100 die hierin erörterten Funktionen bereitstellt.
  • In einem Ausführungsbeispiel ist das System 100 so konfiguriert, dass es mindestens ein Sensorsystem 170 enthält. Das Sensorsystem 170 enthält einen oder mehrere Sensoren. Das Sensorsystem 170 enthält zum Beispiel einen Bildsensor, eine Kamera, einen Radarsensor, einen LIDAR-Sensor (LIDAR = Light Detection and Ranging), einen thermischen Sensor, einen Ultraschallsensor, einen Infrarotsensor, einen Bewegungssensor, einen Audiosensor, eine Inertialmesseinheit (IMU), beliebige sonstige geeignete Sensoren oder eine beliebige Kombination daraus. Das Sensorsystem 110 ist so betreibbar, dass es mit einer oder mehreren anderen Komponenten (z. B. dem Verarbeitungssystem 110 und dem Speichersystem 120) des Systems 100 kommuniziert. Genauer ist das Verarbeitungssystem 110 zum Beispiel konfiguriert, um die Sensordaten direkt oder indirekt von einem oder mehreren Sensoren des Sensorsystems 170 zu erhalten. Das Verarbeitungssystem 110 ist konfiguriert, um nach dem Empfangen der Sensordaten diese Sensordaten in Verbindung mit der Domänenanpassungsanwendung 130 und dem Maschinenlernsystem 140 zu verarbeiten.
  • Das System 100 enthält darüber hinaus weitere Komponenten, die am Training des Maschinenlernsystems 140 beteiligt sind. Das Speichersystem 120 ist zum Beispiel, wie in 1 gezeigt, auch konfiguriert, um weitere relevante Daten 160, die den Betrieb des Systems 100 in Beziehung zu einer oder mehreren Komponenten (z. B. dem Sensorsystem 170, E/A-Geräten 180 und weiteren Funktionsmodulen 190) betreffen, zu speichern. Darüber hinaus ist das System 100 so konfiguriert, dass es ein oder mehrere zum System 100 gehörende E/A-Geräte 180 (z. B. ein Anzeigegerät, ein Tastaturgerät oder ein Lautsprechergerät) enthält. Zudem enthält das System 100 weitere Funktionsmodule 190 wie entsprechende Hardware, Software oder Kombinationen daraus, die die Tätigkeit des Systems 100 unterstützen oder an ihr beteiligt sind. Die weiteren Funktionsmodule 190 enthalten zum Beispiel eine Kommunikationstechnik, die ermöglicht, dass Komponenten des Systems 100 miteinander kommunizieren, wie hierin beschrieben. Das System 100 ist mit mindestens der im Beispiel von 1 erörterten Konfiguration so betreibbar, dass es das Maschinenlernsystem 140, das in einer ersten Domäne („Quelldomäne“) entwickelt wird, für die Anpassung an eine zweite Domäne („Zieldomäne“) trainiert.
  • 2 veranschaulicht eine Prinzipskizze von Aspekten der Domänenanpassungsanwendung 130, des Maschinenlernsystems 140 (z. B. eines Klassifikationsmodells 220 und eines Diskriminators 250) und der Trainingsdaten 150. Genauer veranschaulicht 2 ein IIMT-Framework (IIMT = Inter- and Intra-domain Mixup Training) 200 zur unüberwachten Domänenanpassung gemäß einem Ausführungsbeispiel. In diesem Beispiel wird die gelabelte Quelldomäne als die Menge { ( x i s , y i s ) } i = 1 m s S
    Figure DE102020215942A1_0001
    und die ungelabelte Zieldomäne als die Menge { x i t } i = 1 m t T
    Figure DE102020215942A1_0002
    bezeichnet. Zudem werden in diesem Beispiel One-Hot-Labels durch yi bezeichnet. Darüber hinaus wird das gesamte Klassifikationsmodell 220 als hθ mit einer Parametrisierung durch θ bezeichnet. Genauer ist das Klassifikationsmodell 220 in 2 eine Zusammensetzung aus einem Einbettungscodierer 230, der als fθ bezeichnet wird, und einem Einbettungsklassifikator 240, der als gθ: h = f · g bezeichnet wird. In einem Ausführungsbeispiel, wie in 2 gezeigt, wird der Codierer 230 von zwei Domänen (nämlich von der Quell- und der Zieldomäne) gemeinsam genutzt. Dieses IIMT-Framework 200 enthält zudem, wie in 2 gezeigt, eine Mischung 210, bei der es sich um eine Kernkomponente handelt und die domänenübergreifend (z. B. zwischen Domänen) sowie innerhalb jeder Domäne (z. B. innerhalb der Domäne für die Quelldomäne und innerhalb der Domäne für die Zieldomäne) vorgegeben wird. Das IIMT-Framework 200 enthält zudem einen Konsistenzregularisierer, damit sich eine Interdomänenmischung bei einer relativ großen Domänendiskrepanz besser umsetzen lässt. Zudem ist das IIMT-Framework 200 so konfiguriert, dass es ein Ende-zu-Ende-Training für seine Verlustdaten, etwa alle Mischungstrainingsverluste (z. B. Ls, Lq, Lt und Lz) und den gegnerischen Domänenverlust (z. B. Ld), bereitstellt.
  • 3 veranschaulicht ein beispielhaftes Verfahren 300 zum Bereitstellen einer unüberwachten Domänenanpassung gemäß einem Ausführungsbeispiel. In diesem Fall wird das Verfahren 300 über das Domänenanwendungsprogramm 130 bei einer Ausführung durch das Verarbeitungssystem 110 durchgeführt. Das System 100 ist jedoch nicht darauf begrenzt, dass es nur dieses Verfahren 300 implementiert, sondern es kann auch andere Verfahren (z. B. andere Schritte oder Schritte in einer anderen Reihenfolge) implementieren, vorausgesetzt, die anderen Verfahren erfüllen ebenfalls die Funktionen und Zwecke des IIMT-Frameworks 200 aus 2. Zum Beispiel muss die Mischungsformulierung auf der Intradomänenebene für die Quelldomäne nicht unbedingt so wie angezeigt bei Schritt 306 erfolgen, sondern sie kann auch vor Schritt 304, zur selben Zeit wie Schritt 304 oder immer dann erfolgen, wenn die Sensordaten und die Labeldaten für die Quelldomäne für Mischungsoperationen verfügbar sind. Daneben können am Verfahren 300, das unten erörtert wird, noch weitere Modifikationen vorgenommen werden, ohne vom Gedanken und vom Schutzbereich des IIMT-Frameworks 200 abzuweichen.
  • Bei Schritt 302 erhält das Verarbeitungssystem 110 Trainingsdaten. Die Trainingsdaten enthalten in einem Ausführungsbeispiel annotierte Sensordaten einer Quelldomäne. In diesem Fall, wie in 2 gezeigt, repräsentieren die Labeldaten (ys) wahre und/oder verifizierte Klassifikationen der Sensordaten (xs) der Quelldomäne. Darüber hinaus erhält das Verarbeitungssystem 110, wie in 2 gezeigt, Sensordaten (xt) einer Zieldomäne. In diesem Fall ist die Zieldomäne auf die Quelldomäne bezogen. Die Sensordaten der Zieldomäne können unannotiert oder überwiegend unannotiert sein.
  • Das Verarbeitungssystem 110 ist konfiguriert, um bei Schritt 304 Labeldaten für die Sensordaten der Zieldomäne zu generieren. Falls das Verarbeitungssystem zum Beispiel unannotierte Sensordaten der Zieldomäne erhält, ist das Verarbeitungssystem 110 konfiguriert, um abgeleitete Labels (qt) als relativ schwache Überwachung für die Zieldomäne zu generieren und zu nutzen. Das Verarbeitungssystem 110 ist konfiguriert, um beim Generieren dieser abgeleiteten Labels (qt) eine Datenaugmentation und eine Entropiereduktion in den Prozess der Generierung virtueller Labels (abgeleiteter Labels) zu integrieren. Genauer ist das Verarbeitungssystem 110 konfiguriert, um „K‟ aufgabenabhängige stochastische Augmentationen (z. B. eine zufällige Zuschneidung und Umdrehung für Bilder und eine zufällige Skalierung für eine Zeitreihe) an jeder Datenprobe durchzuführen, um transformierte Proben { x ^ i , k } k = 1 K
    Figure DE102020215942A1_0003
    zu erhalten, wobei K einen Integer-Wert repräsentiert.
  • Das Verarbeitungssystem 110 ist konfiguriert, um danach die virtuellen Zieldomänenlabels, qi, durch Durchführen der Berechnungen von Gleichung (1) und Gleichung (2) zu generieren. q ¯ i = 1 K k = 1 K h θ ( x ^ i , k )
    Figure DE102020215942A1_0004
    q i = q i 1 T c q i , c 1 T
    Figure DE102020215942A1_0005
  • In der Gleichung oben bezeichnet T die Softmax-Temperatur, und c ist der Klassenindex. Das heißt, das Verarbeitungssystem 110 mittelt die Klassenvorhersagen (z. B. virtuelle Labels) über die K augmentierten Eingaben, sodass sie q i darstellen, und führt danach ferner eine Verschärfung durch, um die virtuellen Labels q i zu bilden. Wird ein kleinerer Wert verwendet, z. B. T < 1, führt dies zu schärferen vorhergesagten Verteilungen und trägt dazu bei, dass die bedingte Entropie reduziert wird, wenn q i bei einem Training verwendet wird. Das Verarbeitungssystem 110 ist nun dazu in der Lage, diese virtuellen Labels (qt) als Annotationen für die Sensordaten (xt) der Zieldomäne zu verwenden.
  • Das Verarbeitungssystem 110 ist konfiguriert, um bei Schritt 306 Mischungsoperationen auf einer Intradomänenebene für die Quelldomäne, einer Interdomänenebene sowohl für die Quelldomäne als auch für die Zieldomäne und einer Intradomänenebene für die Zieldomäne durchzuführen. Diese Mischungsoperationen können in einer beliebigen geeigneten Reihenfolge, gleichzeitig oder durch eine Kombination daraus generiert werden. Das Verarbeitungssystem 110 ist konfiguriert, um Mischungsoperationen, wie unten erörtert, durchzuführen. Des Weiteren führt das Verarbeitungssystem 110, wie in 2 gezeigt, auch mindestens eine Mischungsoperation für den Konsistenzregularisierer durch, jedoch enthält diese Mischungsoperation codierte Repräsentationen vom Codierer 230 und wird mithin bei Schritt 310 erörtert. Mit der Aufnahme dieser Mischungsoperationen begünstigt das Verarbeitungssystem 110 ein lineares Verhalten des Maschinenlernsystems 140, da eine lineare Interpolation in den Rohdaten zu einer linearen Interpolation von Vorhersagen führt.
  • Intradomänenmischungsoperationen für die Quelldomäne
  • Für die Intradomänenmischung ist das Verarbeitungssystem 110 konfiguriert, um ein Paar Proben, z. B. ( x i s , y i s )  und  ( x j s , y j s )
    Figure DE102020215942A1_0006
    aus der Quelldomäne auszuwählen. Das Verarbeitungssystem 110 ist konfiguriert, um eine Mischung zum Erzwingen einer Linearitätskonsistenz innerhalb der Quelldomäne durch Generieren der folgenden Mischungsformulierungen basierend auf dem ausgewählten Paar Quellproben durchzuführen, wie durch die folgenden Gleichungen angegeben, wobei λ ∈ [0,1] gilt. x i s ' = λ ' x i s + ( 1 λ ' ) x j s
    Figure DE102020215942A1_0007
    y i s ' = λ ' y i s + ( 1 λ ' ) y j s
    Figure DE102020215942A1_0008
  • Das Verarbeitungssystem 110 ist konfiguriert, um nach dem Durchführen dieser Mischung für die Quelldomäne die Mischungsformulierung (xs', ys') als Trainingsdaten für das Maschinenlernsystem 140 bereitzustellen. In diesem Fall repräsentiert xs'' Zwischensensordaten der Quelldomäne, und ys' repräsentiert Zwischenlabeldaten der Quelldomäne. In diesem Zusammenhang dient diese Intradomänenmischungsformulierung als Datenaugmentationsstrategie und ist zudem besonders nützlich für die UDA, um eine Vorhersageglattheit im Fall plötzlicher Vorhersageänderungen in der Nähe von Datenproben zu erzielen. Darüber hinaus gibt die Intradomänenmischung eine starke Linearität vor, um eine separate lokale Lipschitz-Stetigkeit für diese Quelldomäne zu erzwingen.
  • Das Verarbeitungssystem 110 ist konfiguriert, um nach dem Erhalten der interpolierten Ergebnisse (z. B. der Mischungsformulierungen) Labeldaten, die die interpolierten Ergebnisse (xs', ys') klassifizieren, über das Maschinenlernsystem 140 zu generieren. Da Proben derselben Domäne der ähnlichen Verteilung folgen, ist es nicht nötig, eine Linearität auf der Merkmalsebene anzuwenden. Das Verarbeitungssystem 110 verwendet daher diese Mischungsoperationen auf der Labelebene für die Quelldomäne und bestimmt die mit ihnen korrespondierenden Verlustdaten LS über die folgende Gleichung. L s = 1 B i H ( y i s ' , h θ ( x i s ' ) )
    Figure DE102020215942A1_0009
  • Interdomänenmischungsoperationen für die Quell- und die Zieldomäne
  • Für die Interdomänenmischung ist das Verarbeitungssystem 110 konfiguriert, um ein Paar Proben, z. B. ( x i s , x i t )
    Figure DE102020215942A1_0010
    und ( y i s , q i t )
    Figure DE102020215942A1_0011
    aus den mit ihnen korrespondierenden Batches auszuwählen. Das Verarbeitungssystem 110 ist konfiguriert, um eine Mischung zum Erzwingen der quell- und zieldomänenübergreifenden Linearitätskonsistenz durch Generieren der folgenden Mischungsformulierungen basierend auf dem ausgewählten Paar Quell- und Zielproben durchzuführen, wie durch die folgenden Gleichungen angegeben, wobei λ ∈ [0,1] gilt. x i s t = λ ' x i s + ( 1 λ ' ) x i t
    Figure DE102020215942A1_0012
    q i s t = λ ' y i s + ( 1 λ ' ) q i t
    Figure DE102020215942A1_0013
  • Das Verarbeitungssystem 110 ist konfiguriert, um nach dem Durchführen dieser Mischung für beide Domänen die Mischungsformulierung (xst, qst) als Trainingsdaten für das Maschinenlernsystem 140 bereitzustellen. In diesem Fall repräsentiert xst Interdomänensensordaten, die aus dem Durchführen einer Interpolation für beide Domänen resultieren, und qst repräsentiert virtuelle Interdomänenlabeldaten, die aus dem Durchführen einer Interpolation für beide Domänen resultieren, wodurch dem wichtigen Zusammenspiel zwischen der Quell- und der Zieldomäne Rechnung getragen wird.
  • Das Interdomänenmischungstraining dient als Schlüsselkomponente im IIMT-Framework 200. Beim Training des Klassifikationsmodells 220 stellt die Interdomänenmischung interpolierte Labels zum Erzwingen eines linearen, domänenübergreifenden Vorhersageverhaltens des Klassifikators bereit. Im Vergleich zu einem Training nur mit Quellenlabels ergibt sich bei diesem Mischungstraining mit interpolierten Labels ein vereinfachender induktiver Bias, der die Verallgemeinerungsfähigkeit des Klassifikators 240 für die Zieldomäne direkt verbessern kann. Das Verarbeitungssystem 110 ist konfiguriert, um nach dem Generieren von Labeldaten, die die Interdomänenmischungsformulierungen, z. B. (xst, qst), über das Maschinenlernsystem 140 klassifizieren, Verlustdaten (Lq) über die folgende Gleichung zu generieren. L q = 1 B i H ( q i s t , h θ ( x i s t ) )
    Figure DE102020215942A1_0014
  • In der Gleichung (8) bezeichnet B die Batchgröße, und H bezeichnet den Kreuzentropieverlust. Zudem wird in den Gleichungen (6) und (7) der Mischungsgewichtungsparameter basierend auf den folgenden Gleichungen ausgewählt. λ B e t a ( α , α )
    Figure DE102020215942A1_0015
    λ ' m a x ( λ ,1 λ )
    Figure DE102020215942A1_0016
  • In der Gleichung (9) bezieht sich Beta auf die Betaverteilung mit dem gemeinsamen Formparameter α. Wird für α ein näher bei 1 liegender Wert gewählt, ist die Wahrscheinlichkeit größer, dass ein mittlerer Wert von λ aus dem Bereich [0; 1] gewählt wird, was zu einem höheren Grad der Interpolation zwischen den zwei Domänen führt. Zudem liegt λ' aufgrund der Gleichung (10) immer über 0,5, um sicherzustellen, dass die Quelldomäne dominant ist. Ähnlich lässt sich die von der Zieldomäne dominierte Mischung durch das Austauschen von xs und xt in der Gleichung (6) generieren, wodurch (xts, qts) gebildet wird. Mit (xts, qts) ist das Verarbeitungssystem 110 konfiguriert, um den MSE-Verlust (MSE = Mean Square Error, mittlerer quadratischer Fehler) zu verwenden, da dieser toleranter gegenüber falschen virtuellen Labels in der Zieldomäne ist.
  • Intradomänenmischungsoperationen für die Zieldomäne
  • Für die Intradomänenmischung ist das Verarbeitungssystem 110 konfiguriert, um ein Paar Proben, z. B. ( x i t , q i t )  
    Figure DE102020215942A1_0017
    und ( x j t , q j t )
    Figure DE102020215942A1_0018
    aus der Zieldomäne auszuwählen. Wie oben erwähnt, handelt es sich bei den Labels (z. B. q i t
    Figure DE102020215942A1_0019
    und q j t
    Figure DE102020215942A1_0020
    ) mit Bezug auf die Zieldomäne um abgeleitete Labels, die durch das Maschinenlernsystem 140 basierend auf den Sensordaten der Zieldomäne generiert werden und mithin vorhergesagte Labels (also keine Grundwahrheit-Labels) sind. Das Verarbeitungssystem 110 ist konfiguriert, um eine Mischung zum Erzwingen einer Linearitätskonsistenz innerhalb der Zieldomäne durch Generieren der folgenden Mischungsformulierungen basierend auf dem ausgewählten Paar Zielproben durchzuführen, wie durch die folgenden Gleichungen angegeben, wobei λ ∈ [0,1] gilt. x i t ' = λ ' x i t + ( 1 λ ' ) x j t
    Figure DE102020215942A1_0021
    q i t ' = λ ' q i t + ( 1 λ ' ) q j t
    Figure DE102020215942A1_0022
  • Das Verarbeitungssystem 110 ist konfiguriert, um nach dem Durchführen dieser Mischung für die Zieldomäne die Mischungsformulierung (xt', yt') als Trainingsdaten für das Maschinenlernsystem 140 bereitzustellen. In diesem Fall repräsentiert xt' Zwischensensordaten der Zieldomäne, und yt' repräsentiert virtuelle Zwischenlabeldaten der Zieldomäne. In diesem Zusammenhang dient diese Intradomänenmischungsformulierung als Datenaugmentationsstrategie und ist zudem besonders nützlich für die UDA, um eine Vorhersageglattheit im Fall plötzlicher Vorhersageänderungen in der Nähe von Datenproben zu erzielen. Darüber hinaus gibt die Intradomänenmischung eine starke Linearität vor, um eine separate lokale Lipschitz-Stetigkeit für diese Zieldomäne zu erzwingen.
  • Das Verarbeitungssystem 110 ist konfiguriert, um nach dem Erhalten der interpolierten Ergebnisse (z. B. der Mischungsformulierungen) Labeldaten, die die interpolierten Ergebnisse (xt', yt') klassifizieren, über das Maschinenlernsystem 140 zu generieren. Da Proben derselben Domäne der ähnlichen Verteilung folgen, ist es nicht nötig, eine Linearität auf der Merkmalsebene anzuwenden. Das Verarbeitungssystem 110 verwendet daher diese Mischungsoperationen auf der Labelebene für die Zieldomäne und bestimmt die mit ihnen korrespondierenden Verlustdaten Lt über die folgende Gleichung. L t = 1 B i q i t ' , h θ ( x i t ' ) 2 2
    Figure DE102020215942A1_0023
  • Das Verarbeitungssystem 110 ist konfiguriert, um bei Schritt 308 ein gegnerisches Standarddomänentraining zum Reduzieren der Domänendiskrepanz zu verwenden. In einem Ausführungsbeispiel beschränkt sich die Implementierung auf das DANN-Framework (DANN = Domain Adversarial Neural Network) zur Fokussierung auf die Evaluierung der Mischungslinearitätsbegrenzungen. Noch weitere Ausführungsformen können weitere und/oder noch komplexere Formulierungen als das DANN-Framework enthalten. Genauer werden der gemeinsame Einbettungscodierer 230 (z. B. ein Generator) und der Diskriminator 250, wie in 2 gezeigt, entsprechend dem gegnerischen Zweck so trainiert, dass der Codierer 230 lernt, domäneninvariante Merkmale zu generieren. In diesem Zusammenhang wird der Diskriminator 250 durch D: Z → (0,1) bezeichnet, wobei 0/1 das binäre Domänenlabel annotiert. Mit dem DANN bestimmt das Verarbeitungssystem 110 den gegnerischen Domänenverlust (Ld) über die folgende Gleichung: L d = 1 B i l n   D ( h θ ( x i s t ) + l n ( 1 D ( f θ ( x i s t ) ) ) )
    Figure DE102020215942A1_0024
  • Wie in 2 gezeigt und wie in der Gleichung (14) angegeben, führt das Verarbeitungssystem 110 das Diskriminatortraining basierend auf den codierten Repräsentationen der Mischungsformulierungen zwischen den Quell- und Zielproben und nicht direkt an den ursprünglichen Proben selbst durch.
  • Das Verarbeitungssystem 110 ist konfiguriert, um bei Schritt 310 einen Konsistenzregularisierer für die latenten Merkmale vorzugeben, damit sich das Interdomänenmischungstraining besser umsetzen lässt. Der Konsistenzregularisierer ist besonders bei einer relativ großen Domänendiskrepanz effektiv, denn die durch die Interdomänenmischung vorgegebene Linearitätsbegrenzung kann weniger effektiv sein. Namentlich wenn die heterogenen Roheingaben in der Gleichung (6) interpoliert werden, tritt möglicherweise eine Schwierigkeit dabei auf, wenn das Klassifikationsmodell 220 zum Erzeugen korrespondierender interpolierter Vorhersagen gezwungen wird. Gleichzeitig kann das gemeinsame Training mit dem gegnerischen Domänenverlust (Schritt 308) für eine Domänenkonfusion auf der Merkmalsebene diese Trainingsschwierigkeit noch verstärken. Das Verarbeitungssystem 110 gibt mithin den Konsistenzregularisierer vor, um diesen Komplikationen entgegenzuwirken. Genauer generiert das Verarbeitungssystem 110, wie in 2 gezeigt, Mischungsformulierungen für den Konsistenzregularisierer und trainiert dann das Maschinenlernsystem 140 basierend auf diesen Mischungsformulierungen, wie unten erörtert.
  • Für den Konsistenzregularisierer ist das Verarbeitungssystem 110 konfiguriert, um ein Paar Proben, z. B. ( x i s , z i s )  
    Figure DE102020215942A1_0025
    und ( x j s , z j s ) ,
    Figure DE102020215942A1_0026
    aus den mit ihnen korrespondierenden Batches und aus korrespondierenden Ausgabedaten (z. B. codierten Repräsentationen) des Codierers 230 auszuwählen. Das Verarbeitungssystem 110 ist konfiguriert, um eine Mischung zum Erzwingen der Linearitätskonsistenz für die Interdomänenmischung durch Generieren der folgenden Mischungsformulierungen basierend auf dem ausgewählten Paar Proben durchzuführen, wie durch die folgenden Gleichungen angegeben, wobei λ ∈ [0,1] gilt. x i s t = λ ' x i s + ( 1 λ ' ) x i t
    Figure DE102020215942A1_0027
    z i s t = λ ' f θ ( x i s ) + ( 1 λ ' ) f θ ( x i t )
    Figure DE102020215942A1_0028
  • Das Verarbeitungssystem 110 bezeichnet Z in der Gleichung (16) als den Einbettungsraum, der sich durch f und z ∈ Z beim Definieren des Regularisiererterms z i s t
    Figure DE102020215942A1_0029
    ergibt. Die Gleichung (15) sieht genauso wie die Gleichung (6) aus, denn durch beide werden Interdomänensensordaten (xst), also Sensordaten, die basierend auf Sensordaten aus der Quelldomäne und Sensordaten aus der Zieldomäne interpoliert werden, generiert. Das Verarbeitungssystem 110 ist konfiguriert, um in diesem Zusammenhang x i s t
    Figure DE102020215942A1_0030
    aus der bei Schritt 306 durchgeführten Mischung zu verwenden. Das Verarbeitungssystem 110 ist konfiguriert, um nach dem Durchführen dieser Mischungen jede Mischungsformulierung ( x i s t , z i s t )
    Figure DE102020215942A1_0031
    als Trainingsdaten für das Maschinenlernsystem 140 bereitzustellen.
  • Wie in 2 gezeigt, trainiert das Verarbeitungssystem 110 mindestens den Codierer 230 mit allen Mischungsformulierungen ( x i s t , z i s t )
    Figure DE102020215942A1_0032
    und berechnet die Verlustfunktion basierend auf diesem Training. In diesem Beispiel generiert das Verarbeitungssystem 110 die Verlustdaten für den Konsistenzregularisierer, der in der folgenden Gleichung durch Lz repräsentiert wird. L z = 1 B i z i s t , f θ ( x i t ' ) 2 2
    Figure DE102020215942A1_0033
  • Wie in der Gleichung (17) angegeben, rückt der Konsistenzregularisierer das gemischte Merkmal durch den MSE-Verlust zwischen den zwei Vektoren näher zum Merkmal der gemischten Eingabe hin. Dadurch gibt das Verarbeitungssystem 110 die Linearitätsbegrenzung vor, die auch auf der Merkmalsebene zu erzwingen ist. Die Wirksamkeit dieses Konsistenzregularisierers besteht darin, dass, wenn die Gleichung (17) erzwungen wird und die Trainingsdaten ( z i s t , f θ ( x i t ' ) )
    Figure DE102020215942A1_0034
    durch den groben Klassifikator 240 geleitet werden, dies der Linearität bei der Modellvorhersage eher gerecht wird. Wenn das Verarbeitungssystem 110 die domänenübergreifende Linearitätsglattheit von Merkmalen vorgibt, kann diese Aktion des Weiteren den Domänenkonfusionsverlust unterstützen. Des Weiteren können ähnlich wie bei der Behandlung der Gleichung (6) z i s  und  z i t
    Figure DE102020215942A1_0035
    in der Gleichung (16) ebenfalls ausgetauscht werden, um z i t s
    Figure DE102020215942A1_0036
    als eine Modifikation zu bilden, sodass das Maschinenlernsystem 140 ( x i t s , z i t s )
    Figure DE102020215942A1_0037
    als Trainingsdaten erhält.
  • Das Verarbeitungssystem 110 ist konfiguriert, um bei Schritt 312 Endverlustdaten zu bestimmen. Genauer ist das Verarbeitungssystem 110 konfiguriert, um basierend auf den oben erwähnten Komponenten Endverlustdaten, die durch (L) repräsentiert und durch die folgende Gleichung ausgedrückt werden, zu bestimmen. L = w q L q + w d L d + w z L z + w s L s + w t L t
    Figure DE102020215942A1_0038
  • Da Lt nur virtuelle Labels involviert, könnte sich die Unsicherheit in der Zieldomäne leicht auf Lt auswirken. Das Verarbeitungssystem 110 ist konfiguriert, um in diesem Zusammenhang ein lineares Scheduling für wt beim Training, von 0 bis zu einem vordefinierten Höchstwert, festzusetzen. Bei ersten Experimenten hat sich dieser Algorithmus zum Bestimmen und/oder Optimieren der Endverlustdaten als robust gegenüber anderen Gewichtungsparametern erwiesen. Genauer ist das Verarbeitungssystem 110 gemäß diesem Algorithmus konfiguriert, um nur nach wt zu suchen, während es alle anderen Gewichtungen einfach auf 1 festlegt.
  • Das Verarbeitungssystem 110 ist konfiguriert, um bei Schritt 314 die Endverlustdaten, wie bei Schritt 312 bestimmt, zu minimieren. Das Verarbeitungssystem 110 ist konfiguriert, um nach dem Minimieren der Endverlustdaten die Parameter des Maschinenlernsystems 140 zu aktualisieren. Das Verarbeitungssystem 110 ist konfiguriert, um nach dem Aktualisieren der Parameter und/oder einem Training mit den aktualisierten Parametern zu bestimmen, ob das Maschinenlernsystem 140 vorher bestimmte Mindestkriterien erfüllt, und das Maschinenlernsystem 140 für den Schritt 316 verfügbar zu machen, wenn das Maschinenlernsystem 140 die vorher bestimmten Mindestkriterien erfüllt.
  • Wenn das Maschinenlernsystem 140, das zuvor so trainiert worden ist, dass es in der ersten Domäne betreibbar ist, die vorher bestimmten Mindestkriterien erfüllt, wird es nun über das Framework 200 und das Verfahren 300 so angepasst, dass es auch in der zweiten Domäne betreibbar ist. Das Maschinenlernsystem 140 ist konfiguriert, um in diesem Zusammenhang Labeldaten, die Sensordaten der ersten Domäne klassifizieren, nachdem es diese Sensordaten als Eingabedaten empfangen hat, generiert und auch Labeldaten, die Sensordaten der zweiten Domäne klassifizieren, nachdem es diese Sensordaten als Eingabedaten empfangen hat, generiert. Das heißt, das IIMT-Framework 200 und/oder das Verfahren 300 sind effektiv dabei, wenn ein bestehendes Maschinenlernsystem 140, das mit sehr vielen annotierten Trainingsdaten einer ersten Domäne trainiert worden ist, so weiterentwickelt wird, dass es auf eine zweite Domäne erweitert und in ihr betrieben wird, selbst wenn Annotationen für Trainingsdaten der zweiten Domäne nur in geringer Anzahl vorhanden oder nicht verfügbar sind, wodurch eine robustere und kostengünstigere technische Lösung für die Behandlung von Domänenwechseln bereitgestellt wird.
  • Das Verarbeitungssystem 110 ist konfiguriert, um bei Schritt 316 dieses Maschinenlernsystem 140 für den Einsatz und/oder die Verwendung in einem beliebigen geeigneten Anwendungssystem bereitzustellen. Das trainierte Maschinenlernsystem 140 kann zum Beispiel durch das System 100 in 1 verwendet werden, das möglicherweise ferner ein Anwendungssystem enthält, das ferner die aktuellen Labeldaten, die gerade durch das trainierte Maschinenlernsystem 140 als Reaktion auf aktuelle Sensordaten generiert werden, nutzt oder anwendet. Alternativ ist das trainierte Maschinenlernsystem 140 in einem anderen System (nicht gezeigt) einsetzbar, das mindestens einige so ähnliche Komponenten (z. B. ein Sensorsystem oder ein Verarbeitungssystem) wie das System 100 nebst einem Anwendungssystem enthält, das die aktuellen Labeldaten, die gerade durch das trainierte Maschinenlernsystem 140 als Reaktion auf aktuelle Sensordaten generiert werden, anwendet.
  • Das Anwendungssystem kann eine Softwaretechnik, eine Hardwaretechnik oder eine beliebige Kombination daraus enthalten. In einem nicht ausschließlichen Beispiel betrifft das Anwendungssystem möglicherweise eine Gestenhandschuhtechnik, die Sensoren, die Sensordaten bereitstellen, um zu ermöglichen, dass das Maschinenlernsystem 140 die verschiedenen Gesten klassifiziert, enthält. In diesem Beispiel kann das Maschinenlernsystem 140 so trainiert werden, dass es die Gesten, wie von mindestens einem Menschen durchgeführt, klassifiziert, und ferner über das IIMT-Framework 200 und das Verfahren 300 angepasst werden, um dieselben Gesten zu klassifizieren, wenn diese jeweils etwas anders von mindestens einem anderen Menschen durchgeführt werden. In noch weiteren Beispielen betrifft das Anwendungssystem möglicherweise computergesteuerte Maschinen, Roboter, elektronische Heimgeräte, elektronische Werkzeuge, die Gesundheits-/Medizintechnik, die Technik des autonomen Fahrens oder eine Fahrerassistenztechnik, eine Sicherheitstechnik oder sonstige geeignete Techniken, die die Verwendung von Maschinenlernsystemen 140 enthalten.
  • Im Allgemeinen kann es sich für verschiedene Gebiete und Anwendungen als förderlich erweisen, wenn die Fähigkeit eines Maschinenlernsystems, das in einer ersten Domäne betreibbar ist, so erweitert wird, dass es auch in einer zweiten Domäne, die auf die erste Domäne bezogen ist, betreibbar ist. Wenn beispielsweise eine Änderung in einem Sensor zu einem anderen Sensor vom selben Typ erfolgt (z. B. Upgrade eines Bildsensors zu einem anderen Bildsensor für verbesserte Bilder), wobei es sich um ein nicht ausschließliches Beispiel handelt, kommt es basierend auf der Änderung der Sensoren möglicherweise zu Wechseln/Variationen in den Sensordaten, die in das Maschinenlernsystem 140 eingegeben werden. Die oben erwähnten Ausführungsformen wirken diesen Domänenwechseln/-variationen vorteilhaft entgegen und stellen sicher, dass das Maschinenlernsystem 140 in jeder der Domänen sowie in beiden Domänen präzise arbeitet.
  • Wie hierin erörtert, enthalten die Ausführungsformen etliche vorteilhafte Merkmale sowie Vorzüge. Zum Beispiel sind die Ausführungsformen vorteilhaft so konfiguriert, dass sie domänenübergreifende Trainingsbegrenzungen zur Domänenanpassung durch die Linse einer Mischungslinearität vorgeben. Zudem enthalten die Ausführungsformen, um eine eventuell sehr große Domänendiskrepanz anzugehen, einen Konsistenzregularisierer auf der Merkmalsebene, um die Interdomänenbegrenzung zu erleichtern. Des Weiteren realisiert das Verarbeitungssystem 110 über abgeleitete Labels (oder virtuelle Labels) der Zieldomäne ein domänenübergreifendes Mischungstraining. Daneben leitet das Klassifikationsmodell 220, wenn sowohl das Mischungstraining als auch das gegnerische Domänentraining ablaufen, virtuelle Labels mit einer höheren Genauigkeit ab. Diese Prozedur kann kritisch für eine direkte Verbesserung der Verallgemeinerung des Klassifikators 240 sein, wenn dieser auf die Zieldomäne angewendet wird.
  • Des Weiteren sind die Ausführungsformen vorteilhaft bei der Bereitstellung eines IIMT-Frameworks 200 für eine UDA mit allen Trainingsbegrenzungen, die gemäß den Mischungsformulierungen vereinheitlicht werden. Daneben schließen die Ausführungsformen mit dem IIMT-Framework 200 sowohl ein Inter- als auch ein Intradomänenmischungstraining ein und übertreffen mithin hinsichtlich der Performanz die Verfahren aus dem Stand der Technik in diversen Anwendungsbereichen (z. B. bei der Bildklassifikation oder der Erkennung von Handlungen von Menschen). In diesem Zusammenhang gehen die hierin offenbarten Ausführungsformen Probleme bezüglich Disparitäten zwischen den Domänen für die UDA-Aufgabe an. Zudem lassen sich die Ausführungsformen basierend auf der Gemeinsamkeit und der Beziehung zwischen der Interdomänenmischungslinearität und dem Domänendiskriminator modifizieren oder noch erweitern. Ferner lassen sich die hierin offenbarten Lehren auf Weiterentwicklungen allgemeiner Zeitreihenanalysen übertragen und anwenden.
  • Die obige Beschreibung ist also als beispielhaft und nicht als einschränkend anzusehen, und sie wird im Zusammenhang mit einer konkreten Anwendung und deren Voraussetzungen bereitgestellt. Der Fachmann kann jedoch der obigen Beschreibung entnehmen, dass die vorliegende Erfindung in vielfältigen Ausbildungen implementiert werden kann und dass die verschiedenen Ausführungsformen entweder einzeln oder in einer Kombination implementiert werden können. Die Ausführungsformen der vorliegenden Erfindung sind zwar in Verbindung mit konkreten Beispielen beschrieben worden, jedoch sind die allgemeinen Prinzipien, die hierin definiert werden, auch auf andere Ausführungsformen und Anwendungen anwendbar, ohne vom Gedanken und vom Schutzbereich der beschriebenen Ausführungsformen abzuweichen, und der Schutzbereich der Ausführungsformen und/oder der Verfahren gemäß der vorliegenden Erfindung ist nicht auf die gezeigten und beschriebenen Ausführungsformen begrenzt, weil sich für den Fachmann aus den Zeichnungen, der Beschreibung und den folgenden Ansprüchen verschiedene Modifikationen ergeben. Zum Beispiel können Komponenten und Funktionen auch getrennt oder anders als in den verschiedenen beschriebenen Ausführungsformen kombiniert werden und lassen sich auch anhand anderer Termini beschreiben. Diese und weitere Variationen, Modifikationen, Hinzufügungen und Verbesserungen können in den Schutzbereich der Offenbarung, wie in den folgenden Ansprüchen definiert, fallen.

Claims (20)

  1. Computerimplementiertes Verfahren zur unüberwachten Domänenanpassung, die eine erste Domäne und eine zweite Domäne involviert, wobei das Verfahren Folgendes umfasst: Erhalten eines Maschinenlernsystems, das mit ersten Sensordaten und ersten Labeldaten der ersten Domäne trainiert wird; Erhalten zweiter Sensordaten der zweiten Domäne; Generieren zweiter Labeldaten über das Maschinenlernsystem basierend auf den zweiten Sensordaten; Generieren von Interdomänensensordaten durch Interpolieren erster Sensordaten der ersten Domäne mit Bezug auf zweite Sensordaten der zweiten Domäne; Generieren von Interdomänenlabeldaten durch Interpolieren erster Labeldaten der ersten Domäne mit Bezug auf zweite Labeldaten der zweiten Domäne; Generieren von Interdomänenausgabedaten basierend auf den Interdomänensensordaten und den Interdomänenlabeldaten; Generieren von Interdomänenverlustdaten basierend auf den Interdomänenausgabedaten mit Bezug auf die Interdomänenlabeldaten; und Aktualisieren von Parametern des Maschinenlernsystems nach dem Optimieren von Endverlustdaten, wobei die Endverlustdaten die Interdomänenverlustdaten enthalten.
  2. Computerimplementiertes Verfahren nach Anspruch 1, ferner umfassend: Erhalten einer ersten codierten Repräsentation der ersten Sensordaten und einer zweiten codierten Repräsentation der zweiten Sensordaten; Generieren von Zwischendaten codierter Repräsentationen durch Interpolieren der ersten codierten Repräsentation mit Bezug auf die zweite codierte Repräsentation; Codieren der Zwischendaten codierter Repräsentationen, um eine dritte codierte Repräsentation zu generieren; und Generieren von Regularisiererverlustdaten basierend auf der dritten codierten Repräsentation mit Bezug auf die Interdomänensensordaten, wobei die Endverlustdaten die Regularisiererverlustdaten enthalten.
  3. Computerimplementiertes Verfahren nach Anspruch 1, wobei die zweiten Labeldaten vorhergesagte, durch das Maschinenlernsystem als Reaktion auf die zweiten Sensordaten generierte Labeldaten sind.
  4. Computerimplementiertes Verfahren nach Anspruch 1, ferner umfassend: Trainieren eines Diskriminators basierend auf einer codierten Repräsentation der Interdomänensensordaten und einer codierten Repräsentation der Interdomänenlabeldaten; und Generieren von Daten eines gegnerischen Domänenverlusts basierend auf Ausgabedaten aus dem Diskriminator, wobei die Endverlustdaten die Daten eines gegnerischen Domänenverlusts enthalten.
  5. Computerimplementiertes Verfahren nach Anspruch 1, ferner umfassend: Generieren von Zwischensensordaten durch Interpolieren von Paaren erster Sensordaten der ersten Domäne; Generieren von Zwischenlabeldaten durch Interpolieren von Paaren erster Labeldaten der ersten Domäne; Generieren erster Labelvorhersagen über das Maschinenlernsystem basierend auf den Zwischensensordaten; und Generieren erster Domänenverlustdaten basierend auf den Zwischenlabeldaten mit Bezug auf die ersten Labelvorhersagen, wobei die Endverlustdaten die ersten Domänenverlustdaten enthalten.
  6. Computerimplementiertes Verfahren nach Anspruch 1, ferner umfassend: Generieren von Zwischensensordaten durch Interpolieren von Paaren zweiter Sensordaten der zweiten Domäne; Generieren von Zwischenlabeldaten durch Interpolieren von Paaren zweiter Labeldaten der ersten Domäne; Generieren zweiter Labelvorhersagen über das Maschinenlernsystem basierend auf den Zwischensensordaten; und Generieren zweiter Domänenverlustdaten basierend auf den Zwischenlabeldaten mit Bezug auf die zweiten Labelvorhersagen, wobei die Endverlustdaten die zweiten Domänenverlustdaten enthalten.
  7. Computerimplementiertes Verfahren nach Anspruch 1, wobei das Maschinenlernsystem ein Convolutional Neural Network (CNN) oder ein Long Short-Term Memory (LSTM) Network ist.
  8. System zur Domänenanpassung, wobei das System Folgendes umfasst: ein Speichersystem, das mindestens ein nichtflüchtiges, computerlesbares Medium enthält, wobei das Speichersystem eine Domänenanpassungsanwendung und ein Maschinenlernsystem speichert; ein Verarbeitungssystem, das betriebsfähig mit dem Speichersystem verbunden ist, wobei das Verarbeitungssystem mindestens einen Prozessor enthält, der konfiguriert ist, um die Domänenanpassungsanwendung auszuführen, um ein Verfahren zu implementieren, das Folgendes enthält: Generieren von Interdomänensensordaten durch Interpolieren erster Sensordaten einer ersten Domäne mit Bezug auf zweite Sensordaten einer zweiten Domäne; Generieren von Interdomänenlabeldaten durch Interpolieren erster Labeldaten der ersten Domäne mit Bezug auf zweite Labeldaten der zweiten Domäne; Generieren von Interdomänenausgabedaten über das Maschinenlernsystem basierend auf den Interdomänensensordaten und den Interdomänenlabeldaten; Generieren von Interdomänenverlustdaten basierend auf den Interdomänenausgabedaten mit Bezug auf die Interdomänenlabeldaten; Aktualisieren von Parametern des Maschinenlernsystems nach dem Minimieren von Endverlustdaten, wobei die Endverlustdaten mindestens die Interdomänenverlustdaten enthalten; und Bereitstellen des Maschinenlernsystems für den Einsatz, wobei das Maschinenlernsystem angepasst ist, um aktuelle Labeldaten, die aktuelle Sensordaten der zweiten Domäne klassifizieren, zu generieren.
  9. System nach Anspruch 8, wobei das Verarbeitungssystem beim Ausführen der Domänenanpassungsanwendung das Verfahren implementiert, das Folgendes enthält: Erhalten einer ersten codierten Repräsentation der ersten Sensordaten und einer zweiten codierten Repräsentation der zweiten Sensordaten; Generieren von Zwischendaten codierter Repräsentationen durch Interpolieren der ersten codierten Repräsentation mit Bezug auf die zweite codierte Repräsentation; Codieren der Zwischendaten codierter Repräsentationen, um eine dritte codierte Repräsentation zu generieren; und Generieren von Regularisiererverlustdaten basierend auf der dritten codierten Repräsentation mit Bezug auf die Interdomänensensordaten, wobei die Endverlustdaten die Regularisiererverlustdaten enthalten.
  10. System nach Anspruch 8, wobei: das Maschinenlernsystem so trainiert wird, dass es in der ersten Domäne betreibbar ist; und die zweiten Labeldaten vorhergesagte, durch das Maschinenlernsystem als Reaktion auf die zweiten Sensordaten generierte Labeldaten sind.
  11. System nach Anspruch 8, wobei das Verarbeitungssystem beim Ausführen der Domänenanpassungsanwendung das Verfahren implementiert, das Folgendes enthält: Trainieren eines Diskriminators basierend auf einer codierten Repräsentation der Interdomänensensordaten und einer codierten Repräsentation der Interdomänenlabeldaten; und Generieren von Daten eines gegnerischen Domänenverlusts basierend auf Ausgabedaten aus dem Diskriminator, wobei der endgültige Verlust die Daten eines gegnerischen Domänenverlusts enthält.
  12. System nach Anspruch 8, wobei das Verarbeitungssystem beim Ausführen der Domänenanpassungsanwendung das Verfahren implementiert, das Folgendes enthält: Generieren von Zwischensensordaten durch Interpolieren von Paaren erster Sensordaten der ersten Domäne; Generieren von Zwischenlabeldaten durch Interpolieren von Paaren erster Labeldaten der ersten Domäne; Generieren erster Labelvorhersagen über das Maschinenlernsystem basierend auf den Zwischensensordaten; und Generieren erster Domänenverlustdaten basierend auf den Zwischenlabeldaten mit Bezug auf die ersten Labelvorhersagen, wobei die Endverlustdaten die ersten Domänenverlustdaten enthalten.
  13. System nach Anspruch 8, wobei das Verarbeitungssystem beim Ausführen der Domänenanpassungsanwendung das Verfahren implementiert, das Folgendes enthält: Generieren von Zwischensensordaten durch Interpolieren von Paaren zweiter Sensordaten der zweiten Domäne; Generieren von Zwischenlabeldaten durch Interpolieren von Paaren zweiter Labeldaten der ersten Domäne; Generieren zweiter Labelvorhersagen über das Maschinenlernsystem basierend auf den Zwischensensordaten; und Generieren zweiter Domänenverlustdaten basierend auf den Zwischenlabeldaten mit Bezug auf die zweiten Labelvorhersagen, wobei die Endverlustdaten die zweiten Domänenverlustdaten enthalten.
  14. Nichtflüchtiges, computerlesbares Medium, das computerlesbare Daten einer Domänenanpassungsanwendung umfasst, die, wenn sie durch ein Verarbeitungssystem mit mindestens einem Prozessor ausgeführt wird, konfiguriert ist, um zu bewirken, dass das Verarbeitungssystem ein Verfahren implementiert, das Folgendes umfasst: Generieren von Interdomänensensordaten durch Interpolieren erster Sensordaten einer ersten Domäne mit Bezug auf zweite Sensordaten einer zweiten Domäne; Generieren von Interdomänenlabeldaten durch Interpolieren erster Labeldaten der ersten Domäne mit Bezug auf zweite Labeldaten der zweiten Domäne; Generieren von Interdomänenausgabedaten über ein Maschinenlernsystem basierend auf den Interdomänensensordaten und den Interdomänenlabeldaten; Generieren von Interdomänenverlustdaten basierend auf den Interdomänenausgabedaten mit Bezug auf die Interdomänenlabeldaten; Aktualisieren von Parametern des Maschinenlernsystems nach dem Minimieren von Endverlustdaten, wobei die Endverlustdaten mindestens die Interdomänenverlustdaten enthalten; und Bereitstellen des Maschinenlernsystems für den Einsatz, wobei das Maschinenlernsystem angepasst ist, um aktuelle Labeldaten, die aktuelle Sensordaten der zweiten Domäne klassifizieren, zu generieren.
  15. Nichtflüchtiges, computerlesbares Medium nach Anspruch 14, wobei das Verfahren ferner Folgendes umfasst: Erhalten einer ersten codierten Repräsentation der ersten Sensordaten und einer zweiten codierten Repräsentation der zweiten Sensordaten; Generieren von Zwischendaten codierter Repräsentationen durch Interpolieren der ersten codierten Repräsentation mit Bezug auf die zweite codierte Repräsentation; Codieren der Zwischendaten codierter Repräsentationen, um eine dritte codierte Repräsentation zu generieren; und Generieren von Regularisiererverlustdaten basierend auf der dritten codierten Repräsentation mit Bezug auf die Interdomänensensordaten; wobei die Endverlustdaten die Regularisiererverlustdaten enthalten.
  16. Nichtflüchtiges, computerlesbares Medium nach Anspruch 14, wobei: das Maschinenlernsystem so trainiert wird, dass es in der ersten Domäne betreibbar ist; und die zweiten Labeldaten vorhergesagte, durch das Maschinenlernsystem als Reaktion auf die zweiten Sensordaten generierte Labeldaten sind.
  17. Nichtflüchtiges, computerlesbares Medium nach Anspruch 14, wobei das Verfahren ferner Folgendes umfasst: Trainieren eines Diskriminators basierend auf einer codierten Repräsentation der Interdomänensensordaten und einer codierten Repräsentation der Interdomänenlabeldaten; und Generieren von Daten eines gegnerischen Domänenverlusts basierend auf Ausgabedaten aus dem Diskriminator, wobei die Endverlustdaten die Daten eines gegnerischen Domänenverlusts enthalten.
  18. Nichtflüchtiges, computerlesbares Medium nach Anspruch 14, wobei das Verfahren ferner Folgendes umfasst: Generieren von Zwischensensordaten durch Interpolieren von Paaren erster Sensordaten der ersten Domäne; Generieren von Zwischenlabeldaten durch Interpolieren von Paaren erster Labeldaten der ersten Domäne; Generieren erster Labelvorhersagen über das Maschinenlernsystem basierend auf den Zwischensensordaten; und Generieren erster Domänenverlustdaten basierend auf den Zwischenlabeldaten mit Bezug auf die ersten Labelvorhersagen, wobei die Endverlustdaten die ersten Domänenverlustdaten enthalten.
  19. Nichtflüchtiges, computerlesbares Medium nach Anspruch 14, wobei das Verfahren ferner Folgendes umfasst: Generieren von Zwischensensordaten durch Interpolieren von Paaren zweiter Sensordaten der zweiten Domäne; Generieren von Zwischenlabeldaten durch Interpolieren von Paaren zweiter Labeldaten der ersten Domäne; Generieren zweiter Labelvorhersagen über das Maschinenlernsystem basierend auf den Zwischensensordaten; und Generieren zweiter Domänenverlustdaten basierend auf den Zwischenlabeldaten mit Bezug auf die zweiten Labelvorhersagen, wobei der endgültige Verlust die zweiten Domänenverlustdaten enthält.
  20. Nichtflüchtiges, computerlesbares Medium nach Anspruch 14, wobei das Maschinenlernsystem ein Convolutional Neural Network (CNN) oder ein Long Short-Term Memory (LSTM) Network ist.
DE102020215942.4A 2019-12-31 2020-12-15 System und verfahren für unüberwachte domänenanpassung mit mischungstraining Pending DE102020215942A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/731,209 2019-12-31
US16/731,209 US11537901B2 (en) 2019-12-31 2019-12-31 System and method for unsupervised domain adaptation with mixup training

Publications (1)

Publication Number Publication Date
DE102020215942A1 true DE102020215942A1 (de) 2021-07-01

Family

ID=76310456

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020215942.4A Pending DE102020215942A1 (de) 2019-12-31 2020-12-15 System und verfahren für unüberwachte domänenanpassung mit mischungstraining

Country Status (3)

Country Link
US (1) US11537901B2 (de)
CN (1) CN113128704A (de)
DE (1) DE102020215942A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11257255B2 (en) * 2019-12-03 2022-02-22 Leica Microsystems Cms Gmbh Domain matching methods for transportable imaging applications

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11922314B1 (en) * 2018-11-30 2024-03-05 Ansys, Inc. Systems and methods for building dynamic reduced order physical models
US11580334B2 (en) * 2019-08-08 2023-02-14 Nec Corporation Construction zone segmentation
US11610420B2 (en) * 2019-08-08 2023-03-21 Nec Corporation Human detection in scenes
US11594041B2 (en) * 2019-08-08 2023-02-28 Nec Corporation Obstacle detection in road scenes
US11604945B2 (en) * 2019-08-08 2023-03-14 Nec Corporation Segmentation to determine lane markings and road signs
CN115605887A (zh) 2020-01-03 2023-01-13 易识有限公司(Gb) 确定受损车辆的修理操作的方法
CN111341341B (zh) * 2020-02-11 2021-08-17 腾讯科技(深圳)有限公司 音频分离网络的训练方法、音频分离方法、装置及介质
JP7463996B2 (ja) * 2021-03-26 2024-04-09 横河電機株式会社 装置、方法およびプログラム
CN117574258B (zh) * 2024-01-15 2024-04-26 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) 一种基于文本噪声标签和协同训练策略的文本分类方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180024968A1 (en) * 2016-07-22 2018-01-25 Xerox Corporation System and method for domain adaptation using marginalized stacked denoising autoencoders with domain prediction regularization
US10885383B2 (en) * 2018-05-16 2021-01-05 Nec Corporation Unsupervised cross-domain distance metric adaptation with feature transfer network
CN109902798A (zh) * 2018-05-31 2019-06-18 华为技术有限公司 深度神经网络的训练方法和装置
KR20210038903A (ko) * 2018-07-30 2021-04-08 하이퍼파인 리서치, 인크. 자기 공명 이미지 재구성을 위한 딥 러닝 기술
US11222210B2 (en) * 2018-11-13 2022-01-11 Nec Corporation Attention and warping based domain adaptation for videos
US10983971B2 (en) * 2018-11-28 2021-04-20 Intuit Inc. Detecting duplicated questions using reverse gradient adversarial domain adaptation
KR20210051343A (ko) * 2019-10-30 2021-05-10 삼성에스디에스 주식회사 비지도 도메인 적응 장치 및 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11257255B2 (en) * 2019-12-03 2022-02-22 Leica Microsystems Cms Gmbh Domain matching methods for transportable imaging applications

Also Published As

Publication number Publication date
US20210201159A1 (en) 2021-07-01
US11537901B2 (en) 2022-12-27
CN113128704A (zh) 2021-07-16

Similar Documents

Publication Publication Date Title
DE102020215942A1 (de) System und verfahren für unüberwachte domänenanpassung mit mischungstraining
DE102019005423A1 (de) Raum-Zeit-Speicher- bzw. Ablagenetzwerk zum Lokalisieren eines Zielobjektes in Videocontent
DE102018111905A1 (de) Domänenspezifische Sprache zur Erzeugung rekurrenter neuronaler Netzarchitekturen
DE102018121808A1 (de) Verfeinern von synthetischen daten mit einem generative adversarial network unter verwendung von hilfseingaben
DE112016001796T5 (de) Feinkörnige bildklassifizierung durch erforschen von etiketten von einem bipartiten graphen
DE202020101701U1 (de) Trainieren neuronaler Netze unter Verwendung von Datenvermehrungsstrategien
DE202017007512U1 (de) Bewegungsschätzung durch maschinelles Lernen
DE112017000669T5 (de) Semantische Segmentierung auf der Grundlage einer globalen Optimierung
DE112020004471T5 (de) Folgerungsvorrichtung, Trainingsvorrichtung, Folgerungsverfahren und Trainingsverfahren
DE202017007520U1 (de) Bewegungskompensation durch maschinelles Lernen
DE102021004591A1 (de) Für Graphen vorgesehene neuronale Netzwerke für Datensätze mit Heterophilie
DE102017102952A1 (de) Eine Vorrichtung zum Erzeugen eines dreidimensionalen Farbbildes und ein Verfahren zum Produzieren eines dreidimensionalen Farbbildes
DE112019000972T5 (de) Verfahren und Systeme für vereinfachte grafische Abbildungen von bipartiten Graphen
DE102021004562A1 (de) Abwandlung von Szenengraphen auf Grundlage von Befehlen in natürlicher Sprache
DE102012100392A1 (de) Effiziente Quelle zur Bestimmung einer Unausführbarkeit in Timed Automata-Spuren
DE112007000051T5 (de) Dreiteiliges-Modell-basiertes Verfahren zur Informationsgewinnung und -verarbeitung
DE102023124222A1 (de) Einbettung eines eingabebilds in ein diffusionsmodell
DE112016007411T5 (de) Fuzzy-eingabe für autoencoder
DE102023124207A1 (de) Einzelbild-Konzept-Kodierer zur Personalisierung unter Verwendung eines vortrainierten Diffusionsmodells
DE102012025349B4 (de) Bestimmung eines Ähnlichkeitsmaßes und Verarbeitung von Dokumenten
DE102020122979A1 (de) Verfahren zum Bereitstellen eines komprimierten, robusten neuronalen Netzes und Assistenzeinrichtung
DE102022212770A1 (de) System und Verfahren zur Augmentierung von Vision Transformern
DE102021129864A1 (de) Verfahren und System zur Annotation von Sensordaten
EP3685352B1 (de) Verfahren und vorrichtung zum bewerten von bildern, betriebsassistenzverfahren und betriebsvorrichtung
DE102019217952A1 (de) Verfahren und Vorrichtung zum Bereitstellen eines Trainingsdatensatzes zum Trainieren einer KI-Funktion auf eine unbekannte Datendomäne

Legal Events

Date Code Title Description
R012 Request for examination validly filed