DE102019209282A1 - Method for obtaining an infrared representation of an image situation and computing unit, system and computer program for its implementation - Google Patents

Method for obtaining an infrared representation of an image situation and computing unit, system and computer program for its implementation Download PDF

Info

Publication number
DE102019209282A1
DE102019209282A1 DE102019209282.9A DE102019209282A DE102019209282A1 DE 102019209282 A1 DE102019209282 A1 DE 102019209282A1 DE 102019209282 A DE102019209282 A DE 102019209282A DE 102019209282 A1 DE102019209282 A1 DE 102019209282A1
Authority
DE
Germany
Prior art keywords
training
image
rgb
representation
mapping function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019209282.9A
Other languages
German (de)
Inventor
Jan Rexilius
Gregor Blott
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102019209282.9A priority Critical patent/DE102019209282A1/en
Publication of DE102019209282A1 publication Critical patent/DE102019209282A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • G06T5/60
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

Die Erfindung betrifft ein Verfahren zum Erhalten einer IR-Darstellung (20) einer Bildsituation aus einer RGB-Darstellung (10) der Bildsituation, wobei eine Abbildungsfunktion, die ein RGB-Bild in ein entsprechendes IR-Bild abbildet, auf die RGB-Darstellung (10) angewandt wird, wobei die Abbildungsfunktion einen anhand von RGB-Bildern und zugehörigen IR-Bildern trainierten Algorithmus umfasst. Weiterhin betrifft die Erfindung eine Recheneinheit (3), ein System, ein Computerprogramm sowie ein Speichermedium.The invention relates to a method for obtaining an IR representation (20) of an image situation from an RGB representation (10) of the image situation, with a mapping function that maps an RGB image into a corresponding IR image on the RGB representation ( 10) is applied, the mapping function comprising an algorithm trained on the basis of RGB images and associated IR images. The invention also relates to a computing unit (3), a system, a computer program and a storage medium.

Description

Die vorliegende Erfindung betrifft ein Verfahren zum Erhalten einer Infrarotdarstellung einer Bildsituation aus einer RGB-Darstellung sowie eine Recheneinheit, ein System und ein Computerprogramm zu dessen Durchführung.The present invention relates to a method for obtaining an infrared representation of an image situation from an RGB representation as well as a computing unit, a system and a computer program for its implementation.

Stand der TechnikState of the art

Die Simulation bzw. allgemein rechnergestützte Erzeugung von bildlichen Darstellungen spielt eine immer größer werdende Rolle, da nicht sämtliche Bildsituationen von Menschen im Vorfeld aufgenommen werden können. Beispielhaft ist hier eine Straße zu nennen, die einmal mit Regen, einmal mit Schnee und einmal im trockenen Zustand dargestellt werden soll, wobei die Bewegung der Fahrzeuge und Menschen jedoch in allen Situationen gleich bleiben soll.The simulation or, in general, computer-aided generation of pictorial representations plays an increasingly important role, since not all image situations of people can be recorded in advance. One example is a road that should be shown once with rain, once with snow and once in a dry state, whereby the movement of vehicles and people should remain the same in all situations.

DE 100 01 252 B4 offenbart ein Überwachungssystem, das Signale von Kameras in Objekte zerlegt und dann einer RGB-Anzeige die Objekte zur Darstellung einer Überwachungsszene übergibt, künstliche Objekte hinzufügt und andere Objekte löscht und bei Ausfall der Kameras die Überwachungsszene durch Sensorwerte simuliert. DE 100 01 252 B4 discloses a surveillance system that breaks down signals from cameras into objects and then transfers the objects to an RGB display to display a surveillance scene, adds artificial objects and deletes other objects and, if the cameras fail, simulates the surveillance scene using sensor values.

Da solche Verfahren aus dem Stand der Technik hauptsächlich zur Erzeugung von RGB-Bildern eingesetzt worden sind, existiert eine Reihe von programmierten Computertools, um RGB-Bilder zu simulieren und diese mit realen Kameraaufnahmen zu vergleichen oder anzuzeigen. Prinzipiell lassen sich die bekannten Verfahren auch auf andere Frequenzbereiche wie den Infrarotbereich übertragen. Bei Nahinfrarotaufnahmen (NIR) werden Bereiche des Wellenlängenspektrums verwendet, die der Mensch nicht sehen kann. Jedoch funktionieren die bereits existierenden programmierten Computertools nicht ohne weiteres für Simulationen im Infrarotbereich, da sie in der Regel für den RGB-Bereich vorgesehen sind. Um sie auf den Infrarotbereich zu übertragen, müssen Materialeigenschaften mitsimuliert werden, was äußerst aufwendig ist.Since such methods from the prior art have mainly been used to generate RGB images, there are a number of programmed computer tools to simulate RGB images and to compare or display them with real camera recordings. In principle, the known methods can also be transferred to other frequency ranges such as the infrared range. Near-infrared (NIR) recordings use areas of the wavelength spectrum that humans cannot see. However, the already existing programmed computer tools do not work easily for simulations in the infrared range, since they are usually intended for the RGB range. In order to transfer them to the infrared range, material properties must also be simulated, which is extremely complex.

Offenbarung der ErfindungDisclosure of the invention

Erfindungsgemäß werden ein Verfahren zum Erhalten einer Infrarot- bzw. IR-Darstellung einer Bildsituation aus einer RGB-Darstellung sowie eine Recheneinheit, ein System und ein Computerprogramm zu dessen Durchführung mit den Merkmalen der unabhängigen Patentansprüche vorgeschlagen. Vorteilhafte Ausgestaltungen sind Gegenstand der Unteransprüche sowie der nachfolgenden Beschreibung.According to the invention, a method for obtaining an infrared or IR representation of an image situation from an RGB representation as well as a computing unit, a system and a computer program for its implementation with the features of the independent patent claims are proposed. Advantageous configurations are the subject of the subclaims and the description below.

Die Erfindung bedient sich der Maßnahme, eine RGB-Darstellung, welche beispielsweise durch eine Simulation bzw. computergestützte Erzeugung oder durch Aufnahme einer Bildsituation erhalten ist, unter Verwendung einer Abbildungsfunktion in eine IR-Darstellung der Bildsituation abzubilden bzw. zu überführen, wobei die Abbildungsfunktion einen anhand von Trainings-RGB-Bildern und zugehörigen Trainings-IR-Bildern trainierten Algorithmus umfasst.The invention makes use of the measure of mapping or converting an RGB representation, which is obtained, for example, by a simulation or computer-aided generation or by recording an image situation, into an IR representation of the image situation using a mapping function, the mapping function being one comprises an algorithm trained on the basis of training RGB images and associated training IR images.

Auf diese Weise können IR-Darstellungen unter Einsatz herkömmlicher RGB-Werkzeuge erzeugt werden. Das Erhalten von IR-Darstellungen von Bildsituationen wird insbesondere auch ohne Einsatz von entsprechenden Kameras möglich. Die Erfindung erlaubt, eine Vielzahl von IR-Bildern (z.B. aus vorhandenen/simulierten RGB-Bildern) zu erzeugen und die IR-Bilder dann weiterzuverarbeiten, insbesondere wiederum als Trainingsdaten für Systeme zu verwenden, die später im Betrieb IR-Bilder verarbeiten sollen.In this way, IR representations can be generated using conventional RGB tools. Obtaining IR representations of image situations is possible in particular without the use of appropriate cameras. The invention makes it possible to generate a large number of IR images (e.g. from existing / simulated RGB images) and then to process the IR images further, in particular to use them again as training data for systems that are to process IR images later during operation.

Ein wichtiger Baustein hierbei ist die Ausnutzung maschinellen Lernens zum Erhalten des trainierten Algorithmus.An important component here is the use of machine learning to maintain the trained algorithm.

Maschinelles Lernen ist ein Oberbegriff für die „künstliche“ Generierung von Wissen aus Erfahrung: Ein künstliches System lernt aus Beispielen und kann diese nach Beendigung der Lernphase verallgemeinern. Das heißt, es werden nicht einfach die Beispiele auswendig gelernt, sondern es „erkennt“ Muster und Gesetzmäßigkeiten in den Lerndaten. So kann das System auch unbekannte Daten beurteilen (Lerntransfer).Machine learning is a generic term for the "artificial" generation of knowledge from experience: an artificial system learns from examples and can generalize them after the learning phase has ended. This means that the examples are not simply learned by heart, but rather it "recognizes" patterns and regularities in the learning data. In this way, the system can also assess unknown data (learning transfer).

Deep Learning, auf Deutsch etwa tiefgehendes Lernen, bezeichnet eine Klasse von Optimierungsmethoden künstlicher neuronaler bzw. neuraler Netze, die zahlreiche Zwischenlagen (englisch hidden layers) zwischen Eingabeschicht und Ausgabeschicht haben und dadurch eine umfangreiche innere Struktur aufweisen. In Erweiterungen der Lernalgorithmen für Netzstrukturen mit sehr wenigen oder keinen Zwischenlagen, wie beim einlagigen Perzeptron, ermöglichen die Methoden des Deep Learnings auch bei zahlreichen Zwischenlagen einen stabilen Lernerfolg.Deep learning describes a class of optimization methods of artificial neural or neural networks that have numerous intermediate layers (English hidden layers) between the input layer and the output layer and thus have an extensive internal structure. In extensions of the learning algorithms for network structures with very few or no intermediate layers, such as with the single-layer perceptron, the methods of deep learning enable stable learning success even with numerous intermediate layers.

Vorteilhafterweise wird der Algorithmus trainiert durch Aufnehmen wenigstens einer Bildsituation mittels einer RGB-Kamera zum Erhalten eines Trainings-RGB-Bildes und mittels einer IR-Kamera zum Erhalten eines Trainings-IR-Bildes. Vorzugsweise erfolgt das Aufnehmen mittels eines Kameraaufbaus, der eine vorgegebene Anordnung und Ausrichtung der Kameras vorgibt. Es kann sich dabei insbesondere um einen Stereokameraaufbau handeln, bei dem die Bildsituation gleichzeitig von beiden Kameras aufgenommen wird, was die weitere Bearbeitung erleichtert. In einer vorteilhaften Ausführungsform weist die RGB-Kamera einen IR-Sperrfilter auf. So wird sichergestellt, dass von der RGB-Kamera kein IR-Licht detektiert wird.The algorithm is advantageously trained by recording at least one image situation by means of an RGB camera for obtaining a training RGB image and by means of an IR camera for obtaining a training IR image. The recording is preferably carried out by means of a camera structure which specifies a predetermined arrangement and alignment of the cameras. This can in particular be a stereo camera structure in which the image situation is recorded by both cameras at the same time, which the other Editing made easier. In an advantageous embodiment, the RGB camera has an IR cut filter. This ensures that no IR light is detected by the RGB camera.

Anschließend werden gemäß einer bevorzugten Ausführungsform das Trainings-RGB-Bild und das Trainings-IR-Bild der wenigstens einen Bildsituation rektifiziert, d.h. geometrische Verzerrungen werden eliminiert und eine Epipolarrektifizierung wird vorgenommen, um so das spätere Zuordnen der rektifizierten Trainings-Bilder bzw. deren Bildpunkten (Pixel) zu erleichtern. Nach einem Dense-Stereo-Matching ist somit für jeden Bildpunkt des Trainings-RGB-Bildes der zugehörige Bildpunkt im Trainings-IR-Bild bekannt und die rektifizierten Trainings-Bilder können zum Trainieren des Algorithmus verwendet werden.Then, according to a preferred embodiment, the training RGB image and the training IR image of the at least one image situation are rectified, i. E. Geometric distortions are eliminated and an epipolar rectification is carried out in order to facilitate the subsequent assignment of the rectified training images or their image points (pixels). After a dense stereo matching, the associated pixel in the training IR image is known for each pixel of the training RGB image and the rectified training images can be used to train the algorithm.

Alternativ ist auch ein Trainieren mit den verzeichnungsbehafteten Trainings-Bildern möglich, wenn eines der Trainings-Bilder- ggf. nach einer Rektifizierung - in ein verzeichnungsbehaftetes Trainings-Bild in der anderen Domäne umgerechnet wird.Alternatively, training with the training images subject to distortion is also possible if one of the training images - possibly after rectification - is converted into a training image subject to distortion in the other domain.

Insbesondere umfasst das Trainieren des Algorithmus das Anwenden der Abbildungsfunktion auf das Trainings-RGB-Bild zum Erhalten einer Trainings-IR-Darstellung des RGB-Bildes und Vergleichen der Trainings-IR-Darstellung mit dem Trainings-IR-Bild. Anhand von Abweichungen zwischen Trainings-IR-Darstellung und Trainings-IR-Bild kann dann die Abbildungsfunktion verändert bzw. verbessert werden. Beispielsweise lassen sich so künstliche neuronale Netze im Wege des sog. „überwachten Lernens“ trainieren. Beispielsweise umfasst dies das Minimieren einer Verlust-Funktion, welche eine Differenz zwischen Bildpunktwerten der Trainings-IR-Darstellung und des Trainings-IR-Bildes beschreibt.In particular, training the algorithm includes applying the mapping function to the training RGB image to obtain a training IR representation of the RGB image and comparing the training IR representation with the training IR image. The imaging function can then be changed or improved on the basis of deviations between the training IR display and the training IR image. For example, artificial neural networks can be trained using what is known as “supervised learning”. For example, this includes minimizing a loss function, which describes a difference between pixel values of the training IR representation and the training IR image.

Ein RGB-Bildpunktwert besteht üblicherweise aus drei Zahlenwerten für jede Farbe, wobei jeder Zahlenwert beispielsweise bei einer Bittiefe von 8 Bit 256 Werte annehmen kann. Ein Pixelwert für eine IR-Darstellung weist bevorzugt einen gleich großen Wertebereich auf wie der RGB-Pixelwert, beispielsweise 3x8=24 Bit. Die Abbildung ist hochgradig nichtlinear und variiert mit einer gerade betrachteten Objektklasse, den Materialeigenschaften und der Ausleuchtung der aufgenommenen Bildsituation mit IR-Licht.An RGB pixel value usually consists of three numerical values for each color, each numerical value being able to assume 256 values, for example with a bit depth of 8 bits. A pixel value for an IR display preferably has the same range of values as the RGB pixel value, for example 3x8 = 24 bits. The image is highly non-linear and varies with the object class currently being viewed, the material properties and the illumination of the recorded image situation with IR light.

Der Algorithmus umfasst vorzugsweise ein künstliches neuronales Netz oder ein Generative Adversial Network (GAN), das aus zwei künstlichen neuronalen Netzen besteht. Eines dieser Netze fungiert als Generator und generiert aus einem Trainings-RGB-Bild eine Trainings-IR-Darstellung, zunächst nach dem Trial-and-Error-Prinzip. Das zweite dieser künstlichen neuronalen Netze fungiert als Diskriminator und vergleicht die generierte Trainings-IR-Darstellung mit dem tatsächlich aufgenommenen Trainings-IR-Bild. Aus den Unterschieden werden Strukturen ermittelt, um die zukünftige weitere Generierung von IR-Darstellungen zu verbessern. Nun wird das erste neuronale Netz auf ein nächstes Trainings-RGB-Bild angewandt und eine weitere Trainings-IR-Darstellung generiert, die wiederum mit dem zugehörigen aufgenommenen Trainings-IR-Bild verglichen wird. Mit jeder weiteren generierten Darstellung lernt das GAN Stück für Stück die Zusammenhänge zwischen Trainings-RGB-Bild und entsprechendem Trainings-IR-Bild. Dies führt dazu, dass die generierten Trainings-IR-Darstellungen immer besser den tatsächlich aufgenommenen Trainings-IR-Bildern entsprechen.The algorithm preferably comprises an artificial neural network or a Generative Adversial Network (GAN), which consists of two artificial neural networks. One of these networks acts as a generator and generates a training IR display from a training RGB image, initially based on the trial and error principle. The second of these artificial neural networks acts as a discriminator and compares the generated training IR representation with the actually recorded training IR image. Structures are determined from the differences in order to improve the future generation of IR representations. The first neural network is now applied to a next training RGB image and a further training IR display is generated, which in turn is compared with the associated recorded training IR image. With each additional representation generated, the GAN learns bit by bit the relationships between the training RGB image and the corresponding training IR image. As a result, the generated training IR representations correspond better and better to the actually recorded training IR images.

In einer vorteilhaften Ausführungsform werden während des Trainierens Objekte in den Trainings-Bildern anhand von zusätzlich annotierten Trainingsdaten klassifiziert. Durch die Klassifikation kann vorteilhaft die Abbildungsfunktion verbessert werden, da die Reflektivität für IR-Licht stark vom Material abhängt und daher für Kleidung, Haut usw. stark unterschiedlich ist. Insbesondere kann die Abbildungsfunktion auf diese Weise klassenspezifische Anteile erhalten. Ein auf diese Weise trainierter Algorithmus kann dann auch in der RGB-Darstellung Objekte klassifizieren und so die Abbildungsfunktion klassenspezifisch anwenden.In an advantageous embodiment, objects in the training images are classified using additionally annotated training data during training. The mapping function can advantageously be improved by the classification, since the reflectivity for IR light depends strongly on the material and is therefore very different for clothing, skin, etc. In particular, the mapping function can receive class-specific components in this way. An algorithm trained in this way can then also classify objects in the RGB representation and thus apply the mapping function in a class-specific manner.

Die Klassifizierung kann verbessert werden, wenn die RGB-Darstellung Tiefeninformationen aufweist, z. B., weil sie computergestützt erzeugt wurde. Aus der Tiefe kann eine 3D-Welt rekonstruiert werden, so dass besser erkennbar wird, welche Teile in der RGB-Darstellung z.B. Personen, Inventar, Natur, Autos, usw. sein können.The classification can be improved if the RGB representation has depth information, e.g. B. because it was generated by computer. A 3D world can be reconstructed from the depth, so that it is easier to see which parts in the RGB representation e.g. People, inventory, nature, cars, etc. can be.

Bevorzugt umfassen mögliche Klassifikationen die Kategorie Kleidungsstück, Gesicht, Vegetation, Körperteil, insbesondere Hand, Kopf oder Finger. Diese Klassifikationen sind besonders im Umfeld des autonomen Fahrens oder bei Innenraumsensorik in einem Kfz von Relevanz. Aber auch andere Klassifikationen sind denkbar.Possible classifications preferably include the category of clothing, face, vegetation, part of the body, in particular hand, head or fingers. These classifications are particularly relevant in the context of autonomous driving or for interior sensors in a motor vehicle. But other classifications are also conceivable.

Eine erfindungsgemäße Recheneinheit ist, insbesondere programmtechnisch, dazu eingerichtet, ein erfindungsgemäßes Verfahren durchzuführen.A computing unit according to the invention is set up, in particular in terms of programming, to carry out a method according to the invention.

Gemäß einem weiteren Aspekt der Erfindung wird ein System zur Durchführung eines Verfahrens nach dem ersten Aspekt der Erfindung vorgeschlagen, das eine RGB-Kamera und eine IR-Kamera sowie eine erfindungsgemäße Recheneinheit aufweist.According to a further aspect of the invention, a system for carrying out a method according to the first aspect of the invention is proposed, which has an RGB camera and an IR camera as well as a computing unit according to the invention.

Zweckmäßigerweise sind die RGB-Kamera und die IR-Kamera zueinander kalibriert und ihre Orientierung ist bekannt, so dass jedem Bildpunkt eines RGB-Bilds ein Bildpunkt eines IR-Bilds zugeordnet werden kann, wenn ein Dense-Matching durchgeführt wurde.The RGB camera and the IR camera are expediently calibrated to one another and theirs Orientation is known, so that each pixel of an RGB image can be assigned a pixel of an IR image if dense matching has been carried out.

Auch die Implementierung eines erfindungsgemäßen Verfahrens in Form eines Computerprogramms oder Computerprogrammprodukts mit Programmcode zur Durchführung aller Verfahrensschritte ist vorteilhaft, da dies besonders geringe Kosten verursacht, insbesondere wenn ein ausführendes Steuergerät noch für weitere Aufgaben genutzt wird und daher ohnehin vorhanden ist. Geeignete Datenträger zur Bereitstellung des Computerprogramms sind insbesondere magnetische, optische und elektrische Speicher, wie z.B. Festplatten, Flash-Speicher, EEPROMs, DVDs u.a.m. Auch ein Download eines Programms über Computernetze (Internet, Intranet usw.) ist möglich.The implementation of a method according to the invention in the form of a computer program or computer program product with program code for performing all method steps is advantageous, since this causes particularly low costs, in particular if an executing control device is also used for other tasks and is therefore available anyway. Suitable data carriers for providing the computer program are, in particular, magnetic, optical and electrical memories, e.g. Hard disks, flash memories, EEPROMs, DVDs, etc. A program can also be downloaded via computer networks (Internet, intranet, etc.).

Weitere Vorteile und Ausgestaltungen der Erfindung ergeben sich aus der Beschreibung und der beiliegenden Zeichnung.Further advantages and configurations of the invention emerge from the description and the accompanying drawing.

Die Erfindung ist anhand eines Ausführungsbeispiels in der Zeichnung schematisch dargestellt und wird im Folgenden unter Bezugnahme auf die Zeichnung beschrieben.The invention is shown schematically in the drawing using an exemplary embodiment and is described below with reference to the drawing.

FigurenlisteFigure list

  • 1 zeigt eine Ausführungsform eines erfindungsgemäßen Systems in einer schematischen Zeichnung. 1 shows an embodiment of a system according to the invention in a schematic drawing.
  • 2 zeigt eine Ausführungsform einer erfindungsgemäßen Recheneinheit in einer schematischen Zeichnung. 2 shows an embodiment of a computing unit according to the invention in a schematic drawing.

Ausführungsform der ErfindungEmbodiment of the invention

Eine Ausführungsform eines erfindungsgemäßen Systems ist in 1 in einer schematischen Ansicht dargestellt und mit 1 bezeichnet.One embodiment of a system according to the invention is shown in 1 shown in a schematic view and denoted by 1.

Das System 1 eignet sich zur Durchführung einer Ausführungsform eines erfindungsgemäßen Verfahrens gemäß einer bevorzugten Ausführungsform der Erfindung. Es weist im gezeigten Fall einen Stereokameraaufbau auf mit einer RGB-Kamera 5 und eine IR-Kamera 4. Die RGB-Kamera 5 und die IR-Kamera 4 sind hier zueinander kalibriert und ihre Orientierung ist bekannt. Auf diese Weise kann jedem Bildpunkt bzw. Pixel eines RGB-Bilds ein Bildpunkt eines IR-Bilds zugeordnet werden, nachdem ein Dense-Matching durchgeführt wurde.The system 1 is suitable for carrying out an embodiment of a method according to the invention according to a preferred embodiment of the invention. In the case shown, it has a stereo camera structure with an RGB camera 5 and an IR camera 4th . The RGB camera 5 and the IR camera 4th are here calibrated to each other and their orientation is known. In this way, a pixel of an IR image can be assigned to each image point or pixel of an RGB image after dense matching has been carried out.

Die RGB-Kamera 5 weist vorteilhaft einen IR-Sperrfilter 6 auf, so dass kein IR-Licht von der RGB-Kamera detektiert wird und ein möglichst reines RGB-Bild erzeugt wird. Der IR-Sperrfilter muss aber nicht zwangsläufig verbaut sein.The RGB camera 5 advantageously has an IR cut filter 6th so that no IR light is detected by the RGB camera and an RGB image that is as pure as possible is generated. The IR cut filter does not necessarily have to be installed.

Das System 1 weist weiterhin eine Recheneinheit 3 auf, die dazu eingerichtet ist, einen Algorithmus als Teil einer Abbildungsfunktion zum Erhalten einer IR-Darstellung einer Bildsituation aus einer RGB-Darstellung der Bildsituation zu trainieren. Gemäß 2 wird dann diese Abbildungsfunktion, welche in einer Recheneinheit 3' implementiert ist, verwendet, um eine RGB-Darstellung 10 in eine IR-Darstellung 20 der Bildsituation abzubilden bzw. zu überführen.The system 1 furthermore has a computing unit 3 which is set up to train an algorithm as part of a mapping function for obtaining an IR representation of an image situation from an RGB representation of the image situation. According to 2 then this mapping function, which in a computing unit 3 ' is implemented, used to represent an RGB representation 10 in an IR representation 20th to depict or transfer the image situation.

Der Algorithmus wird in der gezeigten Ausführungsform durch Aufnehmen wenigstens einer Bildsituation mittels der RGB-Kamera 5 zum Erhalten eines Trainings-RGB-Bildes und mittels der IR-Kamera 4 zum Erhalten eines Trainings-IR-Bildes trainiert. Anschließend werden das Trainings-RGB-Bild und das Trainings-IR-Bild der wenigstens einen Bildsituation rektifiziert. Es ist somit für jeden Bildpunkt des Trainings-RGB-Bildes ein zugehöriger Bildpunkt des Trainings-IR-Bildes bekannt, nachdem das Matching durchgeführt wurde.In the embodiment shown, the algorithm is implemented by recording at least one image situation by means of the RGB camera 5 for obtaining a training RGB image and using the IR camera 4th trained to obtain a training IR image. The training RGB image and the training IR image of the at least one image situation are then rectified. An associated pixel of the training IR image is therefore known for each pixel of the training RGB image after the matching has been carried out.

Die Recheneinheit 3 weist im vorliegenden Fall beispielsweise ein GAN auf, das aus zwei künstlichen neuronalen Netzen 31, 32 besteht. Eines dieser Netze fungiert als Generator 31 und generiert aus dem Trainings-RGB-Bild eine Trainings-IR-Darstellung. Das zweite dieser Netze fungiert als Diskriminator 32 und vergleicht die generierte Trainings-IR-Darstellung mit dem tatsächlichen aufgenommenen Trainings-IR-Bild. Aus den Unterschieden „lernt“ das GAN und modifiziert die Abbildungsfunktion. Je mehr Trainingsdaten zur Verfügung stehen, desto genauer wird die Abbildungsfunktion.The arithmetic unit 3 has in the present case, for example, a GAN that consists of two artificial neural networks 31 , 32 consists. One of these networks acts as a generator 31 and generates a training IR representation from the training RGB image. The second of these networks acts as a discriminator 32 and compares the generated training IR representation with the actual recorded training IR image. The GAN “learns” from the differences and modifies the mapping function. The more training data are available, the more precise the mapping function becomes.

Ein mögliches Anwendungsgebiet der Erfindung ist die Erzeugung einer Vielzahl von IR-Bildern aus vorhandenen oder simulierten RGB-Bildern. Insbesondere können die RGB-Bilder mittels etablierter Verfahren und Werkzeuge erzeugt werden, welche für die Erzeugung von IR-Bildern nicht zur Verfügung stehen. Diese RGB-Bilder werden dann in IR-Bilder transformiert und können weiterverarbeitet werden. Insbesondere können die so erzeugten IR-Bilder als Trainingsdaten für Systeme fungieren, die später im Betrieb IR-Bilder verarbeiten müssen, z.B. im Rahmen der Innernraumsensorik in einem Fahrzeug oder Umgebungssensorik (z.B. für autonomes Fahren).A possible field of application of the invention is the generation of a large number of IR images from existing or simulated RGB images. In particular, the RGB images can be generated using established methods and tools that are not available for generating IR images. These RGB images are then transformed into IR images and can be further processed. In particular, the IR images generated in this way can function as training data for systems that later have to process IR images during operation, e.g. in the context of interior sensors in a vehicle or environmental sensors (e.g. for autonomous driving).

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • DE 10001252 B4 [0003]DE 10001252 B4 [0003]

Claims (15)

Verfahren zum Erhalten einer IR-Darstellung (20) einer Bildsituation aus einer RGB-Darstellung (10) der Bildsituation, umfassend: - Anwenden einer Abbildungsfunktion, die ein RGB-Bild in ein entsprechendes IR-Bild abbildet, auf die RGB-Darstellung (10), wobei die Abbildungsfunktion einen anhand von RGB-Bildern und zugehörigen IR-Bildern trainierten Algorithmus umfasst.A method for obtaining an IR representation (20) of an image situation from an RGB representation (10) of the image situation, comprising: - Applying a mapping function that maps an RGB image into a corresponding IR image to the RGB representation (10), the mapping function comprising an algorithm trained on the basis of RGB images and associated IR images. Verfahren nach Anspruch 1, wobei der Algorithmus trainiert wird, durch: - Aufnehmen, wenigstens einer Bildsituation mittels einer RGB-Kamera (5) zum Erhalten eines Trainings-RGB-Bildes und mittels einer IR-Kamera (4) zum Erhalten eines Trainings-IR-Bildes; - Trainieren des Algorithmus mittels der Trainings-Bilder.Procedure according to Claim 1 , wherein the algorithm is trained by: - recording at least one image situation by means of an RGB camera (5) for obtaining a training RGB image and by means of an IR camera (4) for obtaining a training IR image; - Training the algorithm using the training images. Verfahren nach Anspruch 2, wobei das Trainings-IR-Bild und/oder das Trainings-RGB-Bild vor dem Trainieren so rektifiziert werden, dass für jeden Bildpunkt des Trainings-RGB-Bildes der zugehörige Bildpunkt des Trainings-IR-Bildes bekannt ist.Procedure according to Claim 2 , the training IR image and / or the training RGB image being rectified prior to the training so that the associated pixel of the training IR image is known for each pixel of the training RGB image. Verfahren nach Anspruch 2 oder 3, wobei der Algorithmus trainiert wird, durch: - Anwenden der Abbildungsfunktion auf das Trainings-RGB-Bild zum Erhalten einer Trainings-IR-Darstellung des Trainings-RGB-Bildes; - Vergleichen der Trainings-IR-Darstellung (20) mit dem Trainings-IR-Bild und Verändern der Abbildungsfunktion zum Reduzieren festgestellter Abweichungen.Procedure according to Claim 2 or 3 , wherein the algorithm is trained by: - applying the mapping function to the training RGB image to obtain a training IR representation of the training RGB image; - Comparing the training IR representation (20) with the training IR image and changing the mapping function to reduce detected deviations. Verfahren nach Anspruch 4, wobei das Vergleichen der Trainings-IR-Darstellung mit dem Trainings-IR-Bild und Verändern der Abbildungsfunktion zum Reduzieren festgestellter Abweichungen umfasst, eine Verlust-Funktion, welche eine Differenz zwischen Bildpunktwerten der Trainings-IR-Darstellung und des Trainings-IR-Bildes beschreibt, zu minimieren.Procedure according to Claim 4 wherein comparing the training IR representation with the training IR image and changing the mapping function to reduce detected deviations comprises a loss function, which is a difference between pixel values of the training IR representation and the training IR image describes how to minimize. Verfahren nach einem der vorstehenden Ansprüche, wobei während des Trainierens Objekte in den Trainings-Bildern anhand von zusätzlich annotierten Trainingsdaten klassifiziert werden, um klassenspezifische Anteile der Abbildungsfunktion zu erhalten.Method according to one of the preceding claims, wherein during the training objects in the training images are classified using additionally annotated training data in order to obtain class-specific components of the mapping function. Verfahren nach Anspruch 6, wobei Objekte in der RGB-Darstellung (10) klassifiziert werden und die Abbildungsfunktion klassenspezifisch angewandt wird.Procedure according to Claim 6 , whereby objects are classified in the RGB representation (10) and the mapping function is applied class-specifically. Verfahren nach Anspruch 7, wobei für die Klassifizierung Tiefeninformationen der RGB-Darstellung verwendet werden.Procedure according to Claim 7 , whereby depth information of the RGB representation is used for the classification. Verfahren nach einem der vorstehenden Ansprüche, wobei die RGB-Darstellung (10) durch eine Simulation bzw. computergestützte Erzeugung oder durch Aufnahme einer Bildsituation erhalten wird.Method according to one of the preceding claims, wherein the RGB representation (10) is obtained by a simulation or computer-aided generation or by recording an image situation. Verfahren nach einem der vorstehenden Ansprüche, wobei der Algorithmus wenigstens ein künstliches neuronales Netz oder wenigstens ein Generative-Adversarial-Networks-System umfasst.Method according to one of the preceding claims, wherein the algorithm comprises at least one artificial neural network or at least one Generative Adversarial Networks system. Verfahren nach einem der vorstehenden Ansprüche, wobei die die RGB-Kamera (5) einen IR-Sperrfilter (6) aufweist.Method according to one of the preceding claims, wherein the RGB camera (5) has an IR cut filter (6). Recheneinheit (3, 3'), die dazu eingerichtet ist, alle Verfahrensschritte eines Verfahrens nach einem der vorstehenden Ansprüche durchzuführen.Computing unit (3, 3 ') which is set up to carry out all method steps of a method according to one of the preceding claims. System (1) zur Durchführung eines Verfahrens nach einem der Ansprüche 1 bis 11, das eine RGB-Kamera (5) und eine IR-Kamera (4) sowie eine Recheneinheit (3') nach Anspruch 12 aufweist.System (1) for carrying out a method according to one of the Claims 1 to 11 , an RGB camera (5) and an IR camera (4) as well as a computing unit (3 ') Claim 12 having. Computerprogramm, das eine Recheneinheit (3, 3') dazu veranlasst, alle Verfahrensschritte eines Verfahrens nach einem der Ansprüche 1 bis 11 durchzuführen, wenn es auf der Recheneinheit (3, 3') ausgeführt wird.Computer program that causes a computing unit (3, 3 ') to perform all process steps of a process according to one of the Claims 1 to 11 to be carried out when it is executed on the computing unit (3, 3 '). Maschinenlesbares Speichermedium mit einem darauf gespeicherten Computerprogramm nach Anspruch 14.Machine-readable storage medium with a computer program stored thereon Claim 14 .
DE102019209282.9A 2019-06-26 2019-06-26 Method for obtaining an infrared representation of an image situation and computing unit, system and computer program for its implementation Pending DE102019209282A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019209282.9A DE102019209282A1 (en) 2019-06-26 2019-06-26 Method for obtaining an infrared representation of an image situation and computing unit, system and computer program for its implementation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019209282.9A DE102019209282A1 (en) 2019-06-26 2019-06-26 Method for obtaining an infrared representation of an image situation and computing unit, system and computer program for its implementation

Publications (1)

Publication Number Publication Date
DE102019209282A1 true DE102019209282A1 (en) 2020-12-31

Family

ID=73747333

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019209282.9A Pending DE102019209282A1 (en) 2019-06-26 2019-06-26 Method for obtaining an infrared representation of an image situation and computing unit, system and computer program for its implementation

Country Status (1)

Country Link
DE (1) DE102019209282A1 (en)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69517401T2 (en) * 1994-12-30 2001-01-25 Matsushita Electric Ind Co Ltd Non-linear color correction device and suitable method
DE10001252B4 (en) * 2000-01-14 2007-06-14 Robert Bosch Gmbh monitoring system
US20070154084A1 (en) * 2006-01-04 2007-07-05 Samsung Electronics Co., Ltd. Apparatus and method for editing optimized color preference
US20080204832A1 (en) * 2007-02-27 2008-08-28 Canon Kabushiki Kaisha Constructing a color transform using a neural network for colors outside the spectrum locus
DE102010015693A1 (en) * 2010-04-21 2011-10-27 Testo Ag Thermal imaging camera i.e. handset unit, has neural network comprising input ends and output end, where input ends are connected with infrared sensor array and sensor element, respectively, and output end is connected with output device
DE102010047675A1 (en) * 2010-10-06 2012-04-12 Testo Ag Method for processing infrared images of scene recorded by thermal image camera, involves applying inverse frequency analysis method to combined data field and providing analysis method results as color channels of processed infrared image
US20130342557A1 (en) * 2012-06-22 2013-12-26 Apple Inc. Color Correction of Images
DE102011113243B4 (en) * 2011-09-13 2016-05-25 Testo Ag Method for generating a radiometric image and thermal imaging camera set
US20170359487A1 (en) * 2014-12-25 2017-12-14 Andersen Colour Research Three dimensional, hue-plane preserving and differentiable quasi-linear transformation method for color correction
US20190045163A1 (en) * 2018-10-02 2019-02-07 Intel Corporation Method and system of deep learning-based automatic white balancing
US20190108618A1 (en) * 2017-10-11 2019-04-11 Qualcomm Incorporated Image signal processor for processing images
DE102018125801A1 (en) * 2017-10-19 2019-04-25 Ford Global Technologies, Llc video calibration
US20190130217A1 (en) * 2018-11-15 2019-05-02 Chyuan-Tyng Wu Trainable vision scaler

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69517401T2 (en) * 1994-12-30 2001-01-25 Matsushita Electric Ind Co Ltd Non-linear color correction device and suitable method
DE10001252B4 (en) * 2000-01-14 2007-06-14 Robert Bosch Gmbh monitoring system
US20070154084A1 (en) * 2006-01-04 2007-07-05 Samsung Electronics Co., Ltd. Apparatus and method for editing optimized color preference
US20080204832A1 (en) * 2007-02-27 2008-08-28 Canon Kabushiki Kaisha Constructing a color transform using a neural network for colors outside the spectrum locus
DE102010015693A1 (en) * 2010-04-21 2011-10-27 Testo Ag Thermal imaging camera i.e. handset unit, has neural network comprising input ends and output end, where input ends are connected with infrared sensor array and sensor element, respectively, and output end is connected with output device
DE102010047675A1 (en) * 2010-10-06 2012-04-12 Testo Ag Method for processing infrared images of scene recorded by thermal image camera, involves applying inverse frequency analysis method to combined data field and providing analysis method results as color channels of processed infrared image
DE102011113243B4 (en) * 2011-09-13 2016-05-25 Testo Ag Method for generating a radiometric image and thermal imaging camera set
US20130342557A1 (en) * 2012-06-22 2013-12-26 Apple Inc. Color Correction of Images
US20170359487A1 (en) * 2014-12-25 2017-12-14 Andersen Colour Research Three dimensional, hue-plane preserving and differentiable quasi-linear transformation method for color correction
US20190108618A1 (en) * 2017-10-11 2019-04-11 Qualcomm Incorporated Image signal processor for processing images
DE102018125801A1 (en) * 2017-10-19 2019-04-25 Ford Global Technologies, Llc video calibration
US20190045163A1 (en) * 2018-10-02 2019-02-07 Intel Corporation Method and system of deep learning-based automatic white balancing
US20190130217A1 (en) * 2018-11-15 2019-05-02 Chyuan-Tyng Wu Trainable vision scaler

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
RESEARCHGATE: How do you convert a RGB image to an IR image? Is it possible using MATLAB? Internet-Post-Frage von Vimala Pugazhendhi, 4th Apr, 2013 mit Antworten. *

Similar Documents

Publication Publication Date Title
DE202017102238U1 (en) Aktorsteuerungssystem
DE202017102235U1 (en) training system
DE102017107264A1 (en) VISIBLE RAIN RECOGNITION USING DEEP LEARNING
EP3847578A1 (en) Method and device for classifying objects
DE102019218613B4 (en) Object classification method, object classification circuit, motor vehicle
EP3291172A1 (en) Method for calculating final image data
WO2020069964A1 (en) Method, artificial neural network, device, computer program, and machine-readable storage medium for semantically segmenting image data
DE102019215903A1 (en) Method and device for generating training data for a recognition model for recognizing objects in sensor data of a sensor, in particular of a vehicle, method for training and method for actuation
DE102018119467B4 (en) METHOD OF PERFORMING AUTONOMOUS OPERATION OF A VEHICLE THROUGH DEEP SPATIAL-TEMPORAL LEARNING
DE102020214596A1 (en) Method for generating training data for a recognition model for recognizing objects in sensor data of an environment sensor system of a vehicle, method for generating such a recognition model and method for controlling an actuator system of a vehicle
EP3782081B1 (en) Method for generating a test data set, method for testing, method for operating a system, device, control system, computer program product, computer readable medium, generation and use
DE102020200499A1 (en) Method for generating labeled data, in particular for training a neural network, using unlabeled, partitioned samples
DE102019208735B4 (en) Method for operating a driver assistance system for a vehicle and a driver assistance system for a vehicle
EP3882856A1 (en) Method and device for determining a pose
DE102019209282A1 (en) Method for obtaining an infrared representation of an image situation and computing unit, system and computer program for its implementation
DE102019213009A1 (en) Processing of radar signals with suppression of motion artifacts
DE102018218611A1 (en) Method and computing device for generating a three-dimensional CAD model
WO2021245151A1 (en) Unmonitored learning of a common presentation of data from sensors of different modality
DE102018201909A1 (en) Method and device for object recognition
DE102020126690A1 (en) Method for determining a movement model of an object in an area surrounding a motor vehicle, computer program product, computer-readable storage medium and assistance system
DE102020212366A1 (en) Transform measurement data between different configurations of measurement systems
DE102021104110A1 (en) Process for parameterizing an image synthesis from a 3D model
EP3754544A1 (en) Detection system, work method and training method
DE102020208765A1 (en) Image classifier with variable receptive fields in convolutional layers
DE102021104077B3 (en) Method, system and computer program product for the automated generation of traffic data

Legal Events

Date Code Title Description
R163 Identified publications notified