DE102018126664A1 - DOMAIN ADAPTATION THROUGH CLASS-EXISTED SELF-TRAINING WITH SPATIAL PRIOR - Google Patents
DOMAIN ADAPTATION THROUGH CLASS-EXISTED SELF-TRAINING WITH SPATIAL PRIOR Download PDFInfo
- Publication number
- DE102018126664A1 DE102018126664A1 DE102018126664.2A DE102018126664A DE102018126664A1 DE 102018126664 A1 DE102018126664 A1 DE 102018126664A1 DE 102018126664 A DE102018126664 A DE 102018126664A DE 102018126664 A1 DE102018126664 A1 DE 102018126664A1
- Authority
- DE
- Germany
- Prior art keywords
- target
- segmentation
- domain
- neural network
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000012549 training Methods 0.000 title claims abstract description 57
- 230000006978 adaptation Effects 0.000 title claims description 10
- 230000011218 segmentation Effects 0.000 claims abstract description 113
- 238000013528 artificial neural network Methods 0.000 claims abstract description 77
- 238000000034 method Methods 0.000 claims abstract description 37
- 238000012544 monitoring process Methods 0.000 claims abstract description 19
- 238000009826 distribution Methods 0.000 claims description 18
- 238000002372 labelling Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 19
- 238000004891 communication Methods 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 7
- 238000013500 data storage Methods 0.000 description 5
- 238000009499 grossing Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 230000003042 antagnostic effect Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000001172 regenerating effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000014616 translation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0088—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Abstract
Ein Fahrzeug, System und Verfahren zum Navigieren eines Fahrzeugs. Das Fahrzeug und das System beinhalten eine Digitalkamera zum Erfassen eines Zielbildes einer Zieldomäne des Fahrzeugs und einen Prozessor. Der Prozessor ist für das Folgende konfiguriert: Bestimmen eines Zielsegmentierungsverlustes zum Trainieren des neuronalen Netzwerks, um eine semantische Segmentierung eines Zielbildes in einer Zieldomäne durchzuführen, Bestimmen eines Wertes einer Pseudobeschriftung des Zielbildes durch Reduzieren des Zielsegmentierungsverlustes unter gleichzeitiger Überwachung des Trainings über die Zieldomäne, Durchführen einer semantischen Segmentierung des Zielbildes unter Verwendung des trainierten neuronalen Netzwerks zum Segmentieren des Zielbildes und Klassifizieren eines Objekts im Zielbild, und Navigieren des Fahrzeugs basierend auf dem klassifizierten Objekt im Zielbild. A vehicle, system and method for navigating a vehicle. The vehicle and the system include a digital camera for capturing a target image of a target domain of the vehicle and a processor. The processor is configured to: determine a target segmentation loss to train the neural network to perform a semantic segmentation of a target image in a target domain, determine a value of a pseudo-caption of the target image by reducing the target segmentation loss while monitoring the training over the target domain, performing a semantically segmenting the target image using the trained neural network to segment the target image and classify an object in the target image, and navigating the vehicle based on the classified object in the target image.
Description
EINLEITUNGINTRODUCTION
Die vorliegende Offenbarung betrifft ein System und Verfahren zum Anpassen neuronaler Netzwerke zum Durchführen einer semantischen Segmentierung von Bildern, die aus einer Vielzahl von Domänen aufgenommen wurden, für autonomes Fahren und fortgeschrittene Fahrerassistenzsysteme (ADAS).The present disclosure relates to a system and method for adjusting neural networks for performing semantic segmentation of images taken from a plurality of domains for autonomous driving and advanced driver assistance systems (ADAS).
Bei autonomen Fahrzeugen und ADAS besteht ein Ziel darin, die umliegende Umgebung so zu verstehen, dass entweder dem Fahrer oder dem Fahrzeug selbst Informationen bereitgestellt werden können, um entsprechende Entscheidungen zu treffen. Eine Möglichkeit, dieses Ziel zu erreichen, besteht darin, digitale Bilder der Umgebung unter Verwendung einer fahrzeugeigenen Digitalkamera aufzunehmen und dann Objekte und fahrbare Bereiche im digitalen Bild mithilfe von Computer-Vision-Algorithmen zu identifizieren. Solche Identifikationsaufgaben können durch semantische Segmentierung erreicht werden, bei der Pixel im digitalen Bild gruppiert und dicht mit Labels versehen werden, die einem vordefinierten Satz von semantischen Klassen (wie Auto, Fußgänger, Straße, Gebäude usw.) entsprechen. Ein neuronales Netzwerk kann für die semantische Segmentierung unter Verwendung von Trainingsbildern mit human annotierten Labels trainiert werden. Aufgrund der Annotationsmitteln auferlegten Einschränkungen decken die Trainingsbilder möglicherweise nur einen kleinen Teil der Orte auf der ganzen Welt ab, enthalten Bilder möglicherweise bei bestimmten Wetterbedingungen und bestimmten Tageszeiten und werden möglicherweise von bestimmten Kameratypen gesammelt. Diese der Quelle der Trainingsbilder auferlegten Einschränkungen gelten insbesondere für die Domäne der Trainingsbilder. Es ist jedoch durchaus üblich, dass ein Fahrzeug in einer anderen Domäne betrieben wird. Da verschiedene Domänen unterschiedliche Beleuchtungen, Straßenstile, unsichtbare Objekte usw. aufweisen können, funktioniert ein in einer Domäne trainiertes neuronales Netzwerk nicht immer gut in einer anderen Domäne. Dementsprechend ist es wünschenswert, ein Verfahren zum Anpassen eines für semantische Segmentierung trainierten neuronalen Netzwerks in einer Domäne bereitzustellen, um das neuronale Netzwerk in einer anderen Domäne effektiv zu betreiben.In autonomous vehicles and ADAS, one goal is to understand the surrounding environment so that either the driver or the vehicle itself can be provided with information to make appropriate decisions. One way to achieve this goal is to capture digital images of the environment using an onboard digital camera and then identify objects and drivable areas in the digital image using computer vision algorithms. Such identification tasks can be accomplished by semantic segmentation in which pixels in the digital image are grouped and tightly labeled with labels that correspond to a predefined set of semantic classes (such as car, pedestrian, street, building, etc.). A neural network can be trained for semantic segmentation using training images with human annotated labels. Due to restrictions imposed by the annotation means, the training images may only cover a small part of the locations around the world, may contain images under certain weather conditions and times of day, and may be collected by certain camera types. These restrictions imposed on the source of the training images apply in particular to the domain of the training images. However, it is quite common for a vehicle to operate in a different domain. Since different domains may have different lights, street styles, invisible objects, etc., one domain-trained neural network does not always work well in another domain. Accordingly, it is desirable to provide a method of adapting a semantic segmentation-trained neural network in one domain to effectively operate the neural network in another domain.
KURZDARSTELLUNGSUMMARY
In einer exemplarischen Ausführungsform wird ein Verfahren zum Navigieren eines Fahrzeugs offenbart. Das Verfahren beinhaltet Bestimmen eines Zielsegmentierungsverlustes zum Trainieren eines neuronalen Netzwerks, um eine semantische Segmentierung an einem Zieldomänenbild durchzuführen, Bestimmen eines Wertes eines Pseudo-Labels des Zielbildes durch Reduzieren des Zielsegmentierungsverlustes, während eine Überwachung des Trainings über die Zieldomäne bereitgestellt wird, Durchführen einer semantischen Segmentierung des Zielbildes unter Verwendung des trainierten neuronalen Netzwerks, um das Zielbild zu segmentieren und ein Objekt in dem Zielbild zu klassifizieren, und Navigieren des Fahrzeugs basierend auf den klassifizierten Objekten im Zielbild.In an exemplary embodiment, a method for navigating a vehicle is disclosed. The method includes determining a target segmentation loss to train a neural network to perform a semantic segmentation on a target domain image, determining a value of a pseudo-label of the target image by reducing the target segmentation loss while providing training monitoring over the target domain, performing semantic segmentation of the target image using the trained neural network to segment the target image and classify an object in the target image, and navigate the vehicle based on the classified objects in the target image.
Das Verfahren beinhaltet ferner Bestimmen eines Quellsegmentierungsverlustes zum Trainieren des neuronalen Netzwerks, um eine semantische Segmentierung an einem Quelldomänenbild durchzuführen, und Reduzieren einer Summierung des Quellsegmentierungsverlustes und des Zielsegmentierungsverlustes, während die Überwachung des Trainings über der Zieldomäne bereitgestellt wird. Das Verfahren kann ferner Reduzieren der Summierung durch Anpassen der Parameter des neuronalen Netzwerks und des Wertes der Pseudobeschriftung beinhalten.The method further includes determining a source segmentation loss to train the neural network to perform a semantic segmentation on a source domain image and reducing a summation of the source segmentation loss and the target segmentation loss while providing the monitoring of the training over the target domain. The method may further include reducing the summation by adjusting the parameters of the neural network and the value of the pseudo-label.
In verschiedenen Ausführungsformen beinhaltet das Bestimmen des Wertes der Pseudobeschriftung des Zielbildes Reduzieren des Zielsegmentierungsverlustes über einer Vielzahl von Segmentierungsklassen bei gleichzeitiger Bereitstellung der Überwachung jeder der Vielzahl von Segmentierungsklasse. Bestimmen des Zielsegmentierungsverlustes beinhaltet ferner Multiplizieren der Verteilung räumlicher Prioren für die Segmentierungsklasse mit einer Klassenwahrscheinlichkeit, dass sich ein Pixel in der Segmentierungsklasse befindet. Das neuronale Netzwerk kann durch ein gegnerisches Domänenanpassungstraining und/oder ein selbstlernendes Domänenanpassungs-Training trainiert werden. Die Überwachung des Trainings kann Durchführen eines Klassenausgleichs für den Zielsegmentierungsverlust beinhalten. Beim semantischen Segmentieren des Zielbildes kann ein Glättungsalgorithmus angewendet werden.In various embodiments, determining the value of the pseudo-caption of the target image includes reducing the target segmentation loss over a plurality of segmentation classes while providing the monitoring of each of the plurality of segmentation classes. Determining the target segmentation loss further includes multiplying the distribution of spatial priors for the segmentation class with a class probability that a pixel is in the segmentation class. The neural network can be trained by antagonistic domain adaptation training and / or self-learning domain adaptation training. The monitoring of the training may include performing a class compensation for the target segmentation loss. When semantically segmenting the target image, a smoothing algorithm can be applied.
In einer weiteren exemplarischen Ausführungsform wird ein Navigationssystem für ein Fahrzeug offenbart. Das System beinhaltet eine Digitalkamera zum Erfassen eines Zielbildes einer Zieldomäne des Fahrzeugs und einen Prozessor. Der Prozessor ist konfiguriert zum: Bestimmen eines Zielsegmentierungsverlustes zum Trainieren des neuronalen Netzwerks, um ein semantisches Segmentieren des Zielbildes in der Zieldomäne durchzuführen, Bestimmen eines Wertes einer Pseudobeschriftung des Zielbildes durch Reduzieren des Zielsegmentierungsverlustes bei gleichzeitigem Überwachen des Trainings über die Zieldomäne, Durchführen einer semantischen Segmentierung des Zielbildes unter Verwendung des trainierten neuronalen Netzwerks zum Segmentieren des Zielbildes und Klassifizieren von Objekten im Zielbild und Navigieren des Fahrzeugs basierend auf dem klassifizierten Objekt im Zielbild.In another exemplary embodiment, a navigation system for a vehicle is disclosed. The system includes a digital camera for capturing a target image of a target domain of the vehicle and a processor. The processor is configured to: determine a target segmentation loss to train the neural network to semantically segment the target image in the Perform target domain, determining a value of a pseudo-labeling of the target image by reducing the Zielsegmentierungsverlustes while monitoring the training on the target domain, performing a semantic segmentation of the target image using the trained neural network for segmenting the target image and classifying objects in the target image and navigating the vehicle based on the classified object in the target image.
Der Prozessor ist ferner konfiguriert, um einen Quellsegmentierungsverlust zu bestimmen, um das neuronale Netzwerk zu trainieren, um eine semantische Segmentierung an einem Quelldomänenbild durchzuführen, und um eine Summierung des Quellsegmentierungsverlustes und des Zielsegmentierungsverlustes zu reduzieren, bei gleichzeitigem Bereitgestellen einer Überwachung des Trainings über der Zieldomäne. In einer Ausführungsform ist der Prozessor ferner konfiguriert, um die Summierung durch Anpassen eines Parameters des neuronalen Netzwerks und des Wertes der Pseudobeschriftung zu reduzieren. Der Prozessor ist ferner konfiguriert, um den Wert der Pseudobeschriftung des Zielbildes zu bestimmen, indem er den Verlust der Zielsegmentierung über eine Vielzahl von Segmentierungsklassen reduziert und gleichzeitig die Überwachung für jede der Vielzahl von Segmentierungsklassen bereitstellt. Der Prozessor ist ferner konfiguriert, eine Verteilung räumlicher Prioren für die Segmentierungsklasse mit einer Klassenwahrscheinlichkeit für ein Pixel in der Segmentierungsklasse zu multiplizieren.The processor is further configured to determine a source segmentation loss to train the neural network to perform semantic segmentation on a source domain image and to reduce summation of the source segmentation loss and the target segmentation loss while providing training over the target domain monitoring , In one embodiment, the processor is further configured to reduce the summation by adjusting a parameter of the neural network and the value of the pseudo-label. The processor is further configured to determine the value of the pseudo-caption of the target image by reducing the loss of the target segmentation over a plurality of segmentation classes while providing the monitoring for each of the plurality of segmentation classes. The processor is further configured to multiply a distribution of spatial priors for the segmentation class by a class probability for a pixel in the segmentation class.
In noch einer anderen exemplarischen Ausführungsform wird ein Fahrzeug offenbart. Das Fahrzeug beinhaltet eine Digitalkamera zum Erfassen eines Zielbildes einer Zieldomäne des Fahrzeugs und einen Prozessor. Der Prozessor ist konfiguriert, um einen Zielsegmentierungsverlust für das Training des neuronalen Netzwerks zu bestimmen, um eine semantische Segmentierung des Zielbildes in der Zieldomäne durchzuführen, um einen Wert einer Pseudobeschriftung des Zielbildes zu bestimmen, indem der Zielsegmentierungsverlust reduziert wird, während eine Überwachung des Trainings über die Zieldomäne bereitgestellt wird, um eine semantische Segmentierung des Zielbildes unter Verwendung des trainierten neuronalen Netzwerks und der Pseudobeschriftung durchzuführen, um das Zielbild zu segmentieren und ein Objekt im Zielbild zu klassifizieren, und um das Fahrzeug basierend auf dem klassifizierten Objekt im Zielbild zu steuern.In yet another exemplary embodiment, a vehicle is disclosed. The vehicle includes a digital camera for capturing a target image of a target domain of the vehicle and a processor. The processor is configured to determine a target segmentation loss for training the neural network to perform a semantic segmentation of the target image in the target domain to determine a value of a pseudo-caption of the target image by reducing the target segmentation loss while monitoring the training over the target domain is provided to perform semantic segmentation of the target image using the trained neural network and the pseudo-label to segment the target image and classify an object in the target image and to control the vehicle based on the classified object in the target image.
Der Prozessor ist ferner konfiguriert, um einen Quellsegmentierungsverlust zu bestimmen, um das neuronale Netzwerk zu trainieren, um eine semantische Segmentierung an einem Quelldomänenbild durchzuführen, und um eine Summierung des Quellsegmentierungsverlustes und des Zielsegmentierungsverlustes zu reduzieren, bei gleichzeitigem Bereitstellen der Überwachung des Trainings über die Zieldomäne.The processor is further configured to determine a source segmentation loss to train the neural network to perform semantic segmentation on a source domain image and to reduce summation of the source segmentation loss and the target segmentation loss while providing monitoring of the training over the target domain ,
In einer Ausführungsform ist der Prozessor ferner konfiguriert, um die Summierung durch Anpassen eines Parameters des neuronalen Netzwerks und des Wertes der Pseudobeschriftung zu reduzieren. Der Prozessor ist ferner konfiguriert, um den Wert der Pseudobeschriftung des Zielbildes zu bestimmen, indem er den Verlust der Zielsegmentierung über eine Vielzahl von Segmentierungsklassen reduziert und gleichzeitig die Überwachung für jede der Vielzahl von Segmentierungsklassen bereitstellt. Der Prozessor ist ferner konfiguriert, eine Verteilung räumlicher Prioren für eine Segmentierungsklasse mit einer Klassenwahrscheinlichkeit eines Pixels in der Segmentierungsklasse zu multiplizieren, um den Zielsegmentierungsverlust zu bestimmen. Der Prozessor ist ferner konfiguriert, einen Glättungsalgorithmus auf die semantische Segmentierung des Zielbildes anzuwenden.In one embodiment, the processor is further configured to reduce the summation by adjusting a parameter of the neural network and the value of the pseudo-label. The processor is further configured to determine the value of the pseudo-caption of the target image by reducing the loss of the target segmentation over a plurality of segmentation classes while providing the monitoring for each of the plurality of segmentation classes. The processor is further configured to multiply a distribution of spatial priors for a segmentation class by a class probability of a pixel in the segmentation class to determine the target segmentation loss. The processor is further configured to apply a smoothing algorithm to the semantic segmentation of the target image.
Die oben genannten Eigenschaften und Vorteile sowie anderen Eigenschaften und Funktionen der vorliegenden Offenbarung gehen aus der folgenden ausführlichen Beschreibung in Verbindung mit den zugehörigen Zeichnungen ohne Weiteres hervor.The above features and advantages as well as other features and functions of the present disclosure will become more readily apparent from the following detailed description when taken in conjunction with the accompanying drawings.
Figurenlistelist of figures
Andere Merkmale, Vorteile und Details erscheinen nur exemplarisch in der folgenden ausführlichen Beschreibung der Ausführungsformen, wobei sich die ausführliche Beschreibung auf die Zeichnungen bezieht, wobei gilt:
-
1 zeigt ein veranschaulichendes Trajektorienplanungssystem, das einem Fahrzeug gemäß verschiedenen Ausführungsformen zugeordnet ist; -
2 zeigt ein veranschaulichendes digitales Bild, das von einer fahrzeugeigenen Digitalkamera des Fahrzeugs erhalten wurde, sowie ein semantisch segmentiertes Bild, das dem digitalen Bild entspricht; -
3 veranschaulicht auf schematische Weise Verfahren zum Trainieren und Betreiben eines neuronalen Netzwerks; -
4A und4B zeigen verschiedene räumliche Prioren, die während des Trainings des neuronalen Netzwerks in der Quelldomäne erhalten werden; -
5 zeigt ein veranschaulichendes digitales Bild, das in einer Zieldomäne für semantische Segmentierung erhalten wurde; -
6 zeigt ein ungestütztes semantisches Segmentierungsbild des digitalen Bildes; und -
7 zeigt ein semantisches Segmentierungsbild nach erfolgter Anpassung des neuronalen Netzwerks.
-
1 FIG. 10 illustrates an illustrative trajectory planning system associated with a vehicle according to various embodiments; FIG. -
2 Fig. 11 shows an illustrative digital image obtained from an onboard digital camera of the vehicle and a semantically segmented image corresponding to the digital image; -
3 schematically illustrates methods for training and operating a neural network; -
4A and4B show different spatial priors obtained during training of the neural network in the source domain; -
5 shows an illustrative digital image obtained in a semantic segmentation destination domain; -
6 shows an unsupported semantic segmentation image of the digital image; and -
7 shows a semantic segmentation image after adaptation of the neural network.
AUSFÜHRLICHE BESCHREIBUNGDETAILED DESCRIPTION
Die folgende Beschreibung ist lediglich exemplarischer Natur und nicht dazu gedacht, die vorliegende Offenbarung in ihren An- oder Verwendungen zu beschränken. Es sollte verstanden werden, dass in den Zeichnungen entsprechende Bezugszeichen gleiche oder entsprechende Teile und Merkmale bezeichnen.The following description is merely exemplary in nature and is not intended to limit the present disclosure in its applications or uses. It should be understood that in the drawings, like reference characters designate like or corresponding parts and features.
Gemäß einer exemplarischen Ausführungsform zeigt
In verschiedenen Ausführungsformen ist das Fahrzeug
Wie dargestellt, beinhaltet das autonome Fahrzeug
Das Sensorsystem
Die Datenspeichervorrichtung
Die Steuerung
Die Anweisungen können ein oder mehrere separate Programme beinhalten, von denen jede eine geordnete Auflistung von ausführbaren Anweisungen zum Implementieren von logischen Funktionen umfasst. Die Anweisungen empfangen und verarbeiten, wenn diese vom Prozessor
In verschiedenen Ausführungsvarianten werden eine oder mehrere Anweisungen der Steuerung
Das Kommunikationssystem
Das neuronale Netzwerk
Das Netzwerk wird dann durch gegnerisches Training sowohl auf den Quellbildern
pn(wF, θ, Is/t) die Wahrscheinlichkeit für das nte Pixel in einem Bild Is/t ist, das aus der Quelldomäne prognostiziert ist. Is/t gibt an, dass das Bild aus der Quell-/Zieldomäne stammt. Der Index t ∈ {1,2,...,T}, n ∈ {1,2,...,N} sind die Parameter für das domänendiskriminierende Netzwerk, das auf dem neuronalen Netzwerkparameter wF aufgebaut ist, der dem Merkmalserzeugungsnetzwerk entspricht. Der Parameter ws ist der Parameter des neuronalen Netzwerks, der dem Segmentierungsnetz entspricht. Die Parameter wF und ws bilden das Segmentierungsnetzwerk.p n (w F , θ, I s / t ) is the probability for the n th pixel in an image I s / t predicted from the source domain. I s / t indicates that the image originates from the source / destination domain. The index t ∈ {1,2, ..., T}, n ∈ {1,2, ..., N} are the parameters for the domain-discriminating network, which is based on the neural network parameter w F , the feature generation network equivalent. The parameter ws is the parameter of the neural network corresponding to the segmentation network. The parameters w F and ws form the segmentation network.
Die vorhergehenden Gleichungen (2)-(4) können durch das folgende iterative Verfahren gelöst werden: 1) Trainieren eines Domänendiskriminators, um Merkmale der Quelldomäne von Merkmalen der Zieldomäne durch Lösen des inneren Minimierungsproblems von Gl. (3) über ein Verfahren zum stochastischen Gradientenabstieg zu unterscheiden; und 2) Trainieren des Merkmalsextraktionsnetzwerks wF und ws durch Lösen der äußeren Maximierung von Gl. (3) kombiniert mit Gl. (4).The foregoing equations (2) - (4) can be solved by the following iterative method: 1) training a domain discriminator to obtain features of the source domain of features of the target domain by solving the inner minimization problem of eq. (3) to distinguish a stochastic gradient descent method; and 2) training the feature extraction network w F and ws by solving the outer maximization of Eq. (3) combined with Eq. (4).
Sobald der neuronale Netzwerkparameter w durch ein gegnerisches Domänentraining bestimmt worden ist, wird die Domänenanpassung auf Selbsttrainingsbasis weiterverwendet, um das Netzwerk besser an die Zieldomäne anzupassen. Das Verfahren wird verwendet, um eine semantische Segmentierung von Zielbildern aus der Zieldomäne durchzuführen. Domänenanpassungsverfahren werden verwendet, um das neuronale Netzwerk an die Zieldomäne anzupassen und so die Effektivität des neuronalen Netzwerks in der Zieldomäne zu verbessern. Ähnlich wie das gegnerische Domänentraining trägt auch die Domänenanpassung auf Selbsttrainingsbasis dazu bei, die Effektivität des neuronalen Netzwerks in der Zieldomäne zu verbessern, indem Zielbilder in mehreren Runden oder Iterationen des Netzwerktrainings integriert werden, ohne dass von Menschen annotierte Ground Truths erforderlich sind. Im Gegensatz zum gegnerischen Domänentraining übernimmt die Domänenanpassung auf Selbsttrainingsbasis jedoch einen Rahmen für die Minimierung oder Reduzierung von Verlustfunktionen, der dem traditionellen Netzwerktraining in Gl. (1) ohne den gegnerischen Schritt im gegnerischen Domänentraining ähnelt. Da die Ground Truths der Zieldomäne nicht verfügbar sind, generiert die Domänenanpassung auf Selbsttrainingsbasis Netzwerkprognosen auf Zielbildern und integriert die sichersten Vorhersagen im Netzwerktraining als approximierte Ziel-Ground-Truths (hierin als Pseudobeschriftungen bezeichnet). Sobald die Netzwerkparameter aktualisiert sind, generiert das aktualisierte Netzwerk die Pseudobeschriftungen auf den Zielbildern neu und integriert sie für eine weitere Runde des Netzwerktrainings. Dieser Prozess wird iterativ für mehrere Runden wiederholt. Mathematisch gesehen kann jede Runde der Pseudobeschriftungsgenerierung und des Netzwerktrainings so formuliert werden, dass die Verlustfunktion, die in Gl. (2) gezeigt wird, minimiert wird.Once the neural network parameter w has been determined by enemy domain training, self-training domain customization continues to be used to better adapt the network to the target domain. The method is used to perform semantic segmentation of target images from the target domain. Domain matching techniques are used to tailor the neural network to the target domain to improve the effectiveness of the neural network in the target domain. Similar to adversary domain training, self-training domain customization also helps to improve the effectiveness of the neural network in the target domain by integrating target images into multiple rounds or iterations of network training without the need for human-annotated ground truths. However, unlike hostile domain training, self-training domain customization provides a framework for minimizing or reducing loss functions that is inherent in traditional network training in Eq. (1) without resembling the opponent's step in opposing domain training. Because the ground truths of the target domain are not available, self-training domain customization generates network predictions on target images and integrates the safest predictions in network training as approximate target ground truths (referred to herein as pseudo-labels). Once the network parameters are updated, the updated network regenerates the pseudo-captions on the target images and integrates them for another round of network training. This process is repeated iteratively for several rounds. Mathematically, every round can be pseudo-label generation and network training are formulated so that the loss function described in Eq. (2) is minimized.
Sobald der neuronale Netzwerkparameter w bestimmt wurde, wird er zur semantischen Segmentierung von Zielbildern aus der Zieldomäne verwendet. Domänenadaptionsverfahren werden verwendet, um das neuronale Netzwerk an die Zieldomäne anzupassen, wodurch eine Effektivität des neuronalen Netzwerks in der Zieldomäne verbessert wird. Um die Domänenanpassung in der Zieldomäne durchzuführen, wird eine Zweitverlustfunktion minimiert, die eine Summe aus einem Segmentierungsverlust in der Quelldomäne und einem Segmentierungsverlust in der Zieldomäne beschreibt. Eine repräsentative Verlustfunktion für das Verfahren der Domänenanpassung wird in Gl. (5) gezeigt:
Der dritte Begriff
In einem weiteren Aspekt verwenden die hierin offenbarten Verfahren Verteilungen räumlicher Prioren, um die Summe aus Segmentierungsverlust in der Zieldomäne und Segmentierungsverlust in der Quelldomäne zu reduzieren. Trotz der Unterschiede zwischen Quelldomänen und Zieldomänen treten in der Regel verschiedene Merkmale oder Objekte an gleichen oder ähnlichen Stellen in digitalen Bildern unabhängig von der Domäne auf. So nimmt beispielsweise der Himmel oft den oberen Teil des Bildes ein, während die Straße und der Gehweg oft im unteren Teil bleiben. Die Wahrscheinlichkeitsverteilung dieser Merkmale in einem Bild kann in einem skalaren Feld bereitgestellt werden, das hierin als eine Verteilung räumlicher Prioren bezeichnet wird. Verteilungen räumlicher Prioren werden im Allgemeinen aus Bildern in der Quelldomäne beim Training des neuronalen Netzwerks bestimmt und dann auf dem Speichermedium zur Verwendung in der Zieldomäne gespeichert. Wenn das neuronale Netzwerk das Zielbild segmentiert, kann die Verteilung räumlicher Prioren zusammen mit dem Zielbild verwendet werden, um die Klassenwahrscheinlichkeiten in der Zieldomäne zu verbessern. In another aspect, the methods disclosed herein use spatial priors distributions to reduce the sum of segmentation loss in the target domain and segmentation loss in the source domain. Despite the differences between source domains and target domains, typically, different features or objects occur at the same or similar locations in digital images, regardless of the domain. For example, the sky often occupies the upper part of the image, while the road and walkway often remain in the lower part. The probability distribution of these features in an image may be provided in a scalar field, referred to herein as a distribution of spatial priors. Distributions of spatial priors are generally determined from images in the source domain during training of the neural network and then stored on the storage medium for use in the destination domain. When the neural network segments the target image, the distribution of spatial priors along with the target image may be used to improve the class probabilities in the target domain.
Als Beispiel geben das räumliche Prior für einen Bürgersteig
In einer Ausführungsform können die Verteilungen räumlicher Prioren in die Kostenfunktion eingegeben werden, um einen weiteren Begriff bereitzustellen, der den semantischen Segmentierungsprozess in der Zieldomäne verfeinert. In verschiedenen Ausführungsformen wird die Verteilung räumlicher Prioren mit der vorhergesagten Klassenwahrscheinlichkeit pn multipliziert und aus diesem Produkt der Zielsegmentierungsverlust bestimmt. Eine exemplarische Verlustfunktion, die Verteilungen räumlicher Prioren beinhaltet, wird in Gl. (8) gezeigt:
In einem weiteren Aspekt kann die Glätte, die in einer Segmentierung gefunden wird, die in der Quelldomäne auftritt, verwendet werden, um eine Glättung in Segmentierungsbildern in der Zieldomäne zu erreichen. Pixel, die ähnliche Merkmale aufweisen und in derselben Klasse in der Quelldomäne gruppiert sind, sollten in der Zieldomäne zusammengefasst werden.In another aspect, the smoothness found in a segmentation that occurs in the source domain may be used to achieve smoothing in segmentation images in the target domain. Pixels that have similar characteristics and are grouped in the same class in the source domain should be grouped together in the destination domain.
Während die obige Offenbarung mit Bezug auf exemplarische Ausführungsformen beschrieben wurde, werden Fachleute verstehen, dass unterschiedliche Änderungen vorgenommen und die einzelnen Teile durch entsprechende andere Teile ausgetauscht werden können, ohne vom Umfang der Offenbarung abzuweichen. Darüber hinaus können viele Modifikationen vorgenommen werden, um eine bestimmte Materialsituation an die Lehren der Offenbarung anzupassen, ohne von deren wesentlichem Umfang abzuweichen. Daher ist vorgesehen, dass die Erfindung nicht auf die offenbarten speziellen Ausführungsformen eingeschränkt sein soll, sondern dass sie auch alle Ausführungsformen beinhaltet, die innerhalb des Umfangs der Anmeldung fallen.While the above disclosure has been described with reference to exemplary embodiments, it will be understood by those skilled in the art that various changes may be made and the individual parts may be substituted with corresponding other parts without departing from the scope of the disclosure. In addition, many modifications may be made to adapt a particular material situation to the teachings of the disclosure without departing from the essential scope thereof. Thus, it is intended that the invention not be limited to the particular embodiments disclosed, but that it also encompass all embodiments falling within the scope of the application.
Claims (10)
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762578005P | 2017-10-27 | 2017-10-27 | |
US62/578,005 | 2017-10-27 | ||
US15/949,519 US20190130220A1 (en) | 2017-10-27 | 2018-04-10 | Domain adaptation via class-balanced self-training with spatial priors |
US15/949,519 | 2018-04-10 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102018126664A1 true DE102018126664A1 (en) | 2019-05-02 |
Family
ID=66137882
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102018126664.2A Withdrawn DE102018126664A1 (en) | 2017-10-27 | 2018-10-25 | DOMAIN ADAPTATION THROUGH CLASS-EXISTED SELF-TRAINING WITH SPATIAL PRIOR |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102018126664A1 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111727457A (en) * | 2020-05-14 | 2020-09-29 | 安徽中科智能感知产业技术研究院有限责任公司 | Cotton crop row detection method and device based on computer vision and storage medium |
CN112101083A (en) * | 2019-06-17 | 2020-12-18 | 辉达公司 | Object detection with weak supervision using one or more neural networks |
WO2021004738A1 (en) * | 2019-07-09 | 2021-01-14 | Robert Bosch Gmbh | Device and method for training a neural network |
CN112417940A (en) * | 2019-08-20 | 2021-02-26 | 通用汽车环球科技运作有限责任公司 | Domain adaptation for image analysis |
CN112733864A (en) * | 2019-09-16 | 2021-04-30 | 北京迈格威科技有限公司 | Model training method, target detection method, device, equipment and storage medium |
CN113807420A (en) * | 2021-09-06 | 2021-12-17 | 湖南大学 | Domain self-adaptive target detection method and system considering category semantic matching |
CN114863224A (en) * | 2022-07-05 | 2022-08-05 | 深圳比特微电子科技有限公司 | Training method, image quality detection method, device and medium |
CN115830597A (en) * | 2023-01-05 | 2023-03-21 | 安徽大学 | Domain self-adaptive remote sensing image semantic segmentation method from local to global based on pseudo label generation |
US11820403B2 (en) | 2020-03-30 | 2023-11-21 | Wipro Limited | Method and system of determining trajectory for an autonomous vehicle |
-
2018
- 2018-10-25 DE DE102018126664.2A patent/DE102018126664A1/en not_active Withdrawn
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112101083A (en) * | 2019-06-17 | 2020-12-18 | 辉达公司 | Object detection with weak supervision using one or more neural networks |
WO2021004738A1 (en) * | 2019-07-09 | 2021-01-14 | Robert Bosch Gmbh | Device and method for training a neural network |
CN112417940B (en) * | 2019-08-20 | 2024-02-23 | 通用汽车环球科技运作有限责任公司 | Domain adaptation for image analysis |
CN112417940A (en) * | 2019-08-20 | 2021-02-26 | 通用汽车环球科技运作有限责任公司 | Domain adaptation for image analysis |
CN112733864B (en) * | 2019-09-16 | 2023-10-31 | 北京迈格威科技有限公司 | Model training method, target detection method, device, equipment and storage medium |
CN112733864A (en) * | 2019-09-16 | 2021-04-30 | 北京迈格威科技有限公司 | Model training method, target detection method, device, equipment and storage medium |
US11820403B2 (en) | 2020-03-30 | 2023-11-21 | Wipro Limited | Method and system of determining trajectory for an autonomous vehicle |
CN111727457A (en) * | 2020-05-14 | 2020-09-29 | 安徽中科智能感知产业技术研究院有限责任公司 | Cotton crop row detection method and device based on computer vision and storage medium |
CN111727457B (en) * | 2020-05-14 | 2024-01-26 | 安徽中科智能感知科技股份有限公司 | Cotton crop row detection method and device based on computer vision and storage medium |
CN113807420A (en) * | 2021-09-06 | 2021-12-17 | 湖南大学 | Domain self-adaptive target detection method and system considering category semantic matching |
CN113807420B (en) * | 2021-09-06 | 2024-03-19 | 湖南大学 | Domain self-adaptive target detection method and system considering category semantic matching |
CN114863224A (en) * | 2022-07-05 | 2022-08-05 | 深圳比特微电子科技有限公司 | Training method, image quality detection method, device and medium |
CN114863224B (en) * | 2022-07-05 | 2022-10-11 | 深圳比特微电子科技有限公司 | Training method, image quality detection method, device and medium |
CN115830597A (en) * | 2023-01-05 | 2023-03-21 | 安徽大学 | Domain self-adaptive remote sensing image semantic segmentation method from local to global based on pseudo label generation |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102018126664A1 (en) | DOMAIN ADAPTATION THROUGH CLASS-EXISTED SELF-TRAINING WITH SPATIAL PRIOR | |
DE102018129048B4 (en) | PROCEDURE FOR PERFORMING AUTONOMOUS VEHICLE OPERATION ANALYSIS | |
DE102018129066B4 (en) | SYSTEMS AND PROCEDURES FOR UNPROTECTED LEFT TURNS IN HEAVY TRAFFIC SITUATIONS IN AUTONOMOUS VEHICLES | |
DE102019110184A1 (en) | AUTONOMOUS SYSTEMS AND METHODS USING DRIVER LEARNING BASED ON NEURAL NETWORKS ON TOKENIZED SENSOR INPUTS | |
DE102018129295A1 (en) | Systems and methods for mapping lane delays in autonomous vehicles | |
DE102019101938A1 (en) | Creation of cognitive maps for vehicles | |
DE102019104217A1 (en) | Providing Information-Rich Map Semantics to Navigation Metrics Maps | |
DE102018105693A1 (en) | Road construction detection systems and methods | |
DE102019100569A1 (en) | SYSTEMS AND METHOD FOR MINORIZING UNPROTECTED MANEUVERS IN AUTONOMOUS VEHICLES | |
DE102020129456A1 (en) | TRAJECTORY PREDICTION FROM A PRECALCULATED OR DYNAMICALLY GENERATED BANK OF TRAJECTORIES | |
DE102018129074A1 (en) | SYSTEMS AND METHOD FOR MOVING OBSTACLES IN AUTONOMOUS VEHICLES | |
CN109724608A (en) | It is adapted to by the region of the classification balance self-training with spatial prior | |
DE102018115263A1 (en) | SYSTEMS AND METHOD FOR PREDICTING TRAFFIC PATTERNS IN AN AUTONOMOUS VEHICLE | |
DE102018129077A1 (en) | SYSTEMS AND METHOD FOR INFLUENCING THE TRAFFIC FLOW OF AUTONOMOUS VEHICLES | |
DE102019115038A1 (en) | SYSTEMS AND METHODS FOR PREDICTING SENSOR INFORMATION | |
DE102019103341A1 (en) | SYSTEMS, METHODS AND DEVICES FOR IMPROVED SURVEY STATE DETECTION BASED ON IMAGE SCENES AND ENVIRONMENTAL LIGHT ANALYSIS ARE PROVIDED | |
DE102018129101A1 (en) | ACTIVE TRANSPORT PARTICIPANTS | |
EP3627386A1 (en) | Method and device for providing an image of the vicinity of a mobile device and motor vehicle comprising such a device | |
DE102018123464A1 (en) | METHOD AND SYSTEMS FOR RADAR LOCALIZATION IN AUTONOMOUS VEHICLES | |
DE102018123467A1 (en) | METHOD AND SYSTEMS FOR RADAR LOCALIZATION IN AUTONOMOUS VEHICLES | |
DE102018116036A1 (en) | Training a deep convolutional neural network for individual routes | |
DE112017007600T5 (en) | Vehicle control device and method for controlling an automated vehicle | |
DE102020102823A1 (en) | VEHICLE CAPSULE NETWORKS | |
DE102021109395A1 (en) | METHODS, SYSTEMS AND DEVICES FOR USER UNDERSTANDABLE EXPLAINABLE LEARNING MODELS | |
DE102020107339A1 (en) | OBJECT TRACKING FOR VEHICLES |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R082 | Change of representative |
Representative=s name: LKGLOBAL ] LORENZ & KOPF PARTG MBB PATENTANWAE, DE |
|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G01C0021260000 Ipc: G06N0003080000 |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |