DE102021123275B3 - Method and processor circuit for providing color image data, by means of which at least one object in a predetermined environment is represented in color, and motor vehicle with the processor circuit - Google Patents

Method and processor circuit for providing color image data, by means of which at least one object in a predetermined environment is represented in color, and motor vehicle with the processor circuit Download PDF

Info

Publication number
DE102021123275B3
DE102021123275B3 DE102021123275.9A DE102021123275A DE102021123275B3 DE 102021123275 B3 DE102021123275 B3 DE 102021123275B3 DE 102021123275 A DE102021123275 A DE 102021123275A DE 102021123275 B3 DE102021123275 B3 DE 102021123275B3
Authority
DE
Germany
Prior art keywords
image data
color
supporting
processor circuit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102021123275.9A
Other languages
German (de)
Inventor
Fabian Leinen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cariad SE
Original Assignee
Cariad SE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cariad SE filed Critical Cariad SE
Priority to DE102021123275.9A priority Critical patent/DE102021123275B3/en
Application granted granted Critical
Publication of DE102021123275B3 publication Critical patent/DE102021123275B3/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/465Conversion of monochrome to colour

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Bereitstellen von Farbbilddaten (24), durch welche zumindest ein Objekt (18) in einer vorbestimmten Umgebung farbig dargestellt ist. Die Erfindung sieht vor, dass durch eine Prozessorschaltung (22) aus einer Bilddatenquelle (13) Monochrombilddaten (16) aus einem vorbestimmten ultravioletten und/oder dem infraroten Frequenzspektrum empfangen werden und mittels eines vorbestimmten Kolorierungsalgorithmus (23) die Farbbilddaten (24) aus den Monochrombilddaten (16) erzeugt werden und die erzeugten Farbbilddaten (24) bereitgestellt werden.The invention relates to a method for providing color image data (24) by means of which at least one object (18) is displayed in color in a predetermined environment. The invention provides that a processor circuit (22) receives monochrome image data (16) from an image data source (13) from a predetermined ultraviolet and/or infrared frequency spectrum and uses a predetermined coloring algorithm (23) to receive the color image data (24) from the monochrome image data (16) are generated and the generated color image data (24) are provided.

Description

Die Erfindung betrifft ein Verfahren zum Bereitstellen eines Farbbildes oder eines farbigen Videos (Bildsequenz) aus Farbbilddaten, durch welche zumindest ein Objekt in einer vorbestimmten Umgebung farbig dargestellt ist. Die Umgebung ist hierbei insbesondere ein Fahrzeuginnenraum oder Fahrgastraum eines Kraftfahrzeugs. Insbesondere wird als Objekt eine Person abgebildet. Die Erfindung betrifft auch eine Prozessorschaltung zum Durchführen des Verfahrens und ein Kraftfahrzeug mit einer solchen Prozessorschaltung.The invention relates to a method for providing a color image or a color video (image sequence) from color image data, by means of which at least one object in a predetermined environment is represented in color. The environment here is in particular a vehicle interior or passenger compartment of a motor vehicle. In particular, a person is depicted as an object. The invention also relates to a processor circuit for carrying out the method and a motor vehicle with such a processor circuit.

In einem Kraftfahrzeug kann eine RGB-Farbkamera (RGB - Rot Grün Blau) zur Nutzung für zum Beispiel Social-Media oder Videotelefonie eingebaut sein. Häufig sind diese Kameras am Rückspiegel angebracht und erfassen den gesamte Fahrzeuginnenraum, wobei auch andere Kamerapositionen denkbar sind.An RGB color camera (RGB—Red Green Blue) can be installed in a motor vehicle for use, for example, in social media or video telephony. These cameras are often attached to the rear-view mirror and capture the entire interior of the vehicle, although other camera positions are also conceivable.

RGB-Farbbildkameras erfassen in überwiegendem Maße Wellenlängen des Lichts, die auch für das menschliche Auge sichtbar sind. Dadurch ergeben sich im Wesentlichen zwei Nachteile: die Kameras liefern bei Dunkelheit kein oder nur ein sehr schwaches Signal und bei stark wechselnden Lichtverhältnissen, zum Beispiel bei der Fahrt durch eine Allee oder eine Kurve, entstehen unangenehme Lichteffekte.RGB color cameras predominantly capture wavelengths of light that are also visible to the human eye. This essentially results in two disadvantages: the cameras deliver no or only a very weak signal in the dark and unpleasant lighting effects occur in strongly changing light conditions, for example when driving through an avenue or a curve.

Aus der US 2016 065903 A1 ist bekannt, dass in einem Kraftfahrzeug eine Verkehrsszene in einem Fahrzeugumfeld mittels einer Kamera auch im nicht-sichtbaren Frequenzspektrum des Lichts erfasst werden kann, um Objekteigenschaften erkennen zu können.From the U.S. 2016 065903 A1 It is known that in a motor vehicle, a traffic scene in a vehicle environment can also be captured by a camera in the non-visible frequency spectrum of the light in order to be able to recognize object properties.

Aus der DE 10 2019 112 449 A1 ist bekannt, Objekte in einem Fahrzeuginnenraum im nicht-sichtbaren elektromagnetischen Spektrum, insbesondere im Infrarotbereich, zu erfassen.From the DE 10 2019 112 449 A1 It is known to detect objects in a vehicle interior in the non-visible electromagnetic spectrum, in particular in the infrared range.

Aus der DE 10 046 309 C1 ist ein Bildsensor bekannt, der sowohl Sensorelemente für sichtbares Lichts als auch Sensorelemente für Infrarotlicht aufweist. Mittels einer Infrarot-Lichtquelle kann eine Szenerie aktiv ausgeleuchtet werden.From the DE 10 046 309 C1 an image sensor is known which has both sensor elements for visible light and sensor elements for infrared light. A scene can be actively illuminated using an infrared light source.

Aus einer wissenschaftlichen Veröffentlichung von Zhang et al. (Richard Zhang, Phillip Isola, Alexei A. Efros: „Colorful Image Colorization“, 2016; http://arxiv.org/abs/1603.08511) ist ein Kolorierungsalgorithmus zum Nachkolorieren von Schwarz-Weiß-Aufnahmen bekannt.From a scientific publication by Zhang et al. (Richard Zhang, Phillip Isola, Alexei A. Efros: "Colorful Image Colorization", 2016; http://arxiv.org/abs/1603.08511) a colorization algorithm for post-colorization of black and white images is known.

Die aus dem Stand der Technik bekannte Nutzung des nicht-sichtbaren Frequenzbereichs des Lichts, also beispielsweise die Nutzung von Infrarotlicht, führt nicht dazu, dass eine Qualität von Farbbildern verbessert werden kann, wie es beispielsweise für Social Media oder Videotelefonie notwendig wäre.The use of the non-visible frequency range of light known from the prior art, for example the use of infrared light, does not lead to the quality of color images being able to be improved, as would be necessary for social media or video telephony, for example.

Aus der DE 11 2017 007 579 T5 ist bekannt, in einem Kraftfahrzeug monochrome Bilddaten, beispielsweise Bilddaten einer Nachtsichtkamera, nachträglich zu kolorieren und hierbei auf Farbinformationen aus Farbbildern zurückzugreifen, die bei Tag oder bei entsprechender Beleuchtung aufgenommen wurden.From the DE 11 2017 007 579 T5 It is known to subsequently color monochrome image data, for example image data from a night vision camera, in a motor vehicle and to use color information from color images that were recorded during the day or with appropriate lighting.

Aus einer wissenschaftlichen Veröffentlichung von Limmer et al. (Matthias Limmer, Hendrik P.A. Lensch, „Infrared Colorization Using Deep Convolutional Neural Networks“, 15th IEEE International Conference on Machine Learning and Applications, DOI 10.1109/ICMLA.2016.0019, 2016) ist bekannt, dass monochrome Bilddaten einer Umfeldkamera eines Kraftfahrzeugs koloriert werden können, um hierdurch auch bei einer Nachtfahrt ein Videobild bereitzustellen, das die Umgebung wie bei einer Tagansicht darstellt.From a scientific publication by Limmer et al. (Matthias Limmer, Hendrik P.A. Lensch, "Infrared Colorization Using Deep Convolutional Neural Networks", 15th IEEE International Conference on Machine Learning and Applications, DOI 10.1109/ICMLA.2016.0019, 2016) it is known that monochrome image data from an area camera of a motor vehicle can be colored , to thereby provide a video image that shows the surroundings as in a day view even when driving at night.

Der Erfindung liegt die Aufgabe zugrunde, zumindest ein Objekt mittels Farbbilddaten darzustellen, insbesondere zumindest ein Objekts in einem Fahrzeuginnenraum eines Kraftfahrzeugs.The invention is based on the object of representing at least one object by means of color image data, in particular at least one object in a vehicle interior of a motor vehicle.

Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Weiterbildungen der Erfindung ergeben sich durch die abhängigen Patentansprüche, die folgende Beschreibung sowie die Figur.The object is solved by the subject matter of the independent patent claims. Advantageous developments of the invention result from the dependent patent claims, the following description and the figure.

Als eine Lösung dieser Aufgabe umfasst die Erfindung ein Verfahren zum Bereitstellen von Farbbilddaten, durch welche zumindest ein Objekt in einer vorbestimmten Umgebung farbig dargestellt ist. Bei der Umgebung kann es sich insbesondere um einen Fahrzeuginnenraum oder Fahrgastraum eines Kraftfahrzeugs handeln. Entsprechend handelt es sich bei dem zumindest einen Objekt jeweils beispielsweise um eine Person oder einen Fahrzeuginsassen. Mittels der Farbbilddaten kann beispielsweise eine Videotelefonie oder eine Fotografie zum Beispiel für einen Beitrag in einem sozialen Medium (Social Media) bereitgestellt werden.As a solution to this problem, the invention includes a method for providing color image data, by means of which at least one object in a predetermined environment is represented in color. The environment can in particular be a vehicle interior or passenger compartment of a motor vehicle. Accordingly, the at least one object is a person or a vehicle occupant, for example. The color image data can be used, for example, to provide video telephony or a photograph, for example for a post in a social medium (social media).

Um die Farbbilddaten zu erzeugen, umfasst das Verfahren, dass durch eine Prozessorschaltung aus einer Bilddatenquelle Monochrombilddaten aus einem vorbestimmten ultravioletten und/oder dem infraroten Frequenzspektrum empfangen werden und mittels eines vorbestimmten Farbgebungsalgorithmus oder Kolorierungsalgorithmus die Farbbilddaten aus den Monochrombilddaten erzeugt werden und die erzeugten Farbbilddaten bereitgestellt werden, d.h. die monochromen Bilder werden koloriert. Mit anderen Worten zeigen die Monochrombilddaten das zumindest eine Objekt in einem vorbestimmten ultravioletten und/oder dem infraroten Frequenzspektrum. Dies kann eine Darstellung in monochromen Graustufenwerten ergeben. Das Verfahren basiert also auf einem Kolorierungsalgorithmus, wie er beispielsweise aus der eingangs genannten wissenschaftlichen Veröffentlichung entnommen werden kann. Mit anderen Worten werden die Monochrombilddaten aus dem nicht-sichtbaren Frequenzspektrum als Schwarz-Weiß-Bilddaten oder Schwarz-Weiß-Aufnahme interpretiert. Es hat sich herausgestellt, dass auch auf solchen Monochrombilddaten ein Kolorierungsalgorithmus erfolgreich angewendet werden kann. Das besagte ultraviolette Frequenzspektrum ist hierbei insbesondere in einem Frequenzbereich entnommen, der (gemessen in Luft bei 1000 hPa) im elektromagnetischen Wellenbereich kleiner als 400 Nanometer liegt. Das Frequenzspektrum des Infrarotlichts liegt insbesondere in einem Frequenzbereich, der (gemessen in Luft bei 1000 hPa) einem elektromagnetischen Wellenbereich größer als 750 Nanometer, insbesondere größer als 800 Nanometer entspricht. Die bereitgestellten Farbbilddaten können beispielsweise auf einem Bildschirm angezeigt werden und/oder die Farbbilddaten können zum Beispiel als Videostrom oder Farbfoto versendet werden, also insbesondere von aus dem Kraftfahrzeug heraus versendet werden. Die Farbbilddaten enthalten pro Pixel (picture element) insbesondere Informationen zu mehreren Farbkanälen, zum Beispiel RGB oder YUV. Die Farbbilddaten beschreiben insbesondere Farben in einem Frequenzbereich, der (gemessen in Luft bei 1000 hPa) einem elektromagnetischen Wellenbereich in einem Bereich zwischen 400 und 750 Nanometer liegt. Insbesondere sind nicht-graue Farben durch die Farbbilddaten, also insbesondere die Farben Rot, Grün, Blau, dargestellt, also Farben, die verschieden von Schwarz, Weiß und Graus sind. Als Kolorierungsalgorithmus kann eine Software oder eine Programmcode verwendet werden, der unterschiedlichen vorbestimmten farbunabhängigen Bildmerkmalen, wie zum Beispiel vorbestimmten, in den Monochrombilddaten detektierten Texturen, Formen, Flächen, Bildbereichen (z.B. ein Streifen am oberen Bildrand), ein Graustufenwert, ein Bildkontext, eine jeweils vorbestimmte Farbe zuordnet, die in den Monochrombilddaten jeweils nur als ein Graustufenwert signalisiert ist, also zum Beispiel ein Braunton, ein Rotton oder allgemein eine Farbe mit unterschiedlichen Intensitätswerten für RGB.In order to generate the color image data, the method comprises that a processor circuit from an image data source receives monochrome image data from a predetermined ultraviolet and/or the infrared frequency spectrum and uses a predetermined coloring algorithm or coloring algorithm to generate the color image data from the monochrome image data and to provide the generated color image data , ie the monochrome images are colored. In other words, the monochrome image data shows the at least one object in a predetermined ultraviolet and/or the infrared frequency spectrum. This can result in a representation in monochromatic grayscale values. The method is therefore based on a coloring algorithm, such as can be found in the scientific publication mentioned at the outset, for example. In other words, the monochrome image data from the non-visible frequency spectrum is interpreted as black-and-white image data or a black-and-white recording. It has been found that a coloring algorithm can also be successfully applied to such monochrome image data. The said ultraviolet frequency spectrum is taken in particular from a frequency range which (measured in air at 1000 hPa) is less than 400 nanometers in the electromagnetic wave range. The frequency spectrum of the infrared light lies in particular in a frequency range which (measured in air at 1000 hPa) corresponds to an electromagnetic wave range greater than 750 nanometers, in particular greater than 800 nanometers. The color image data provided can be displayed on a screen, for example, and/or the color image data can be sent, for example, as a video stream or color photo, ie in particular sent from the motor vehicle. The color image data contains, in particular, information on a plurality of color channels, for example RGB or YUV, per pixel (picture element). In particular, the color image data describes colors in a frequency range which (measured in air at 1000 hPa) lies in an electromagnetic wave range in a range between 400 and 750 nanometers. In particular, non-gray colors are represented by the color image data, ie in particular the colors red, green, blue, ie colors which are different from black, white and grey. Software or program code can be used as the coloring algorithm, the different predetermined color-independent image features, such as predetermined textures, shapes, areas, image areas detected in the monochrome image data (e.g. a strip at the upper edge of the image), a gray level value, an image context, one respectively assigns a predetermined color which is only signaled as a gray scale value in the monochrome image data, for example a brown tone, a red tone or generally a color with different intensity values for RGB.

Durch die Erfindung ergibt sich der Vorteil, dass farbige Bildinformationen und/oder Objektinformationen für das sichtbare Frequenzspektrum (entsprechend der Wellen in dem Wellenlängenbereich von 400 Nanometer bis 750 Nanometer) ermittelt werden können und somit aus Monochrombilddaten eine farbige Abbildung des zumindest einen Objekts bereitgestellt werden kann.The invention has the advantage that colored image information and/or object information for the visible frequency spectrum (corresponding to the waves in the wavelength range from 400 nanometers to 750 nanometers) can be determined and thus a colored image of the at least one object can be provided from monochrome image data .

Die Erfindung umfasst, dass zumindest einige der Stützbilddaten zeitgleich mit den Monochrombilddaten erfasst werden, aber eine Beleuchtungsmessung einer Beleuchtung des Objekts in zumindest einem Teil des visuellen Frequenzspektrums unter einem vorbestimmten Schwellenwert liegt. Durch die gleichzeitige Erzeugung von Stützbilddaten und Monochrombilddaten ergibt sich der Vorteil, dass sich eine Form und/oder Textur deckungsgleich in den Stützbilddaten und Monochrombilddaten erfassen lassen. Auf die Monochrombilddaten wird dabei dann zugegriffen, wenn die (farbigen) Stützbilddaten keine ausreichende Beleuchtung aufweisen, also die Beleuchtung unterhalb des Schwellenwerts liegt. Ist also die Umgebung, insbesondere der Fahrzeuginnenraum, unzureichend ausgeleuchtet, sodass die Beleuchtung kleiner als der Schwellenwert ist, so kann auf die Monochrombilddaten und deren Nachkolorierung mittels des Kolorierungsalgorithmus zurück gegriffen werden. Hierbei können Farbinformationen aus den Stützbilddaten entnommen werden, die zwar ein unterbelichtetes Abbild des Objekts, aber weiterhin Farbinformationen enthalten können. Hierdurch wird verhindert, dass allein durch die Stützbilddaten und eine nachgeschaltete Belichtungsverstärkung verrauschte Farbbilddaten erzeugt werden. Stattdessen können die im Vergleich zu den Stützbilddaten geringer verrauschten Monochrombilddaten verwendet werden und anhand der Stützbilddaten die Nachkolorierung mittels des Kolorierungsalgorithmus konfiguriert oder gesteuert werden.The invention includes that at least some of the supporting image data is acquired at the same time as the monochrome image data, but an illumination measurement of an illumination of the object is below a predetermined threshold value in at least part of the visual frequency spectrum. The simultaneous generation of supporting image data and monochrome image data results in the advantage that a shape and/or texture can be recorded congruently in the supporting image data and monochrome image data. The monochrome image data is then accessed when the (colored) supporting image data does not have sufficient illumination, ie the illumination is below the threshold value. If the surroundings, in particular the vehicle interior, are insufficiently illuminated so that the illumination is less than the threshold value, the monochrome image data and their subsequent coloring can be accessed using the coloring algorithm. In this case, color information can be taken from the supporting image data, which may contain an underexposed image of the object, but can still contain color information. This prevents noisy color image data from being generated solely by the supporting image data and subsequent exposure amplification. Instead, the monochrome image data, which is less noisy than the supporting image data, can be used and the post-coloring can be configured or controlled using the coloring algorithm on the basis of the supporting image data.

Die Erfindung umfasst auch Weiterbildungen, durch die sich zusätzliche Vorteile ergeben.The invention also includes developments that result in additional advantages.

Als Bilddatenquelle kann beispielsweise eine Infrarotkamera und/oder eine UV-sensitive Kamera sein, die in dem Kraftfahrzeug bereitgestellt sein kann. Die Zusatzbilddatenquelle kann beispielsweise eine Farbbildkamera sein, deren Erfassungsbereich in die Umgebung, insbesondere in den Fahrzeuginnenraum, ausgerichtet ist.An infrared camera and/or a UV-sensitive camera, for example, which can be provided in the motor vehicle, can be used as the image data source. The additional image data source can be a color camera, for example, whose detection range is oriented towards the environment, in particular towards the vehicle interior.

Der eingangs beschriebene Kolorierungsalgorithmus basiert auf dem Training eines Modells des maschinellen Lernens, um aus Trainingsdaten, zum Beispiel einer Bilddatenbank, ausreichend Vorwissen (a-priori Wissen) über zu verwendende Farben für einzelne Komponenten oder Elemente eines Objekts, beispielsweise eine Gesichtsfarbe, bereitzustellen. Weiterbildungen der Erfindung bieten die Möglichkeit, auch ohne solches allgemeines Vorwissen Farbinformationen oder eine Konfiguration für eine Farbvergabe zu ermitteln und hierzu das zumindest eine Objekt selbst zu nutzen.The coloring algorithm described at the beginning is based on the training of a machine learning model in order to provide sufficient prior knowledge (a-priori knowledge) about colors to be used for individual components or elements of an object, for example a face color, from training data, for example an image database. Developments of the invention offer the possibility of determining color information or a configuration for assigning a color even without such general prior knowledge and of using the at least one object itself for this purpose.

Eine Weiterbildung umfasst, dass aus einer Zusatzbilddatenquelle, welche Stützbilddaten des jeweiligen Objekts aus einem visuellen Frequenzspektrum bereitstellt, Stützbilddaten empfangen werden und der Kolorierungsalgorithmus mittels der Stützbilddaten in Bezug auf eine Farbwahl einer jeweils zu wählenden Farbe zumindest eines Bestandteils des Objekts konfiguriert wird. Das visuelle Spektrum umfasst in der besagten Weise bevorzugt Frequenzen des sichtbaren Lichts, die einem Wellenlängenbereich (in Luft bei 1000 hPa) von 400 Nanometer bis 700 Nanometer entsprechen und dabei Farben, insbesondere Rot, Grün, Blau, beschreiben (also nicht-weiß, nicht-grau, nichtschwarz). Durch die Zusatzbilddatenquelle werden also Farbinformationen des jeweiligen Objekts ermittelt und dem Kolorierungsalgorithmus für eine Farbwahl oder eine für zumindest eine Element des Objekts zu wählende Farbe bereitgestellt. Mit anderen Worten werden solche Situationen oder Zeitintervalle und/oder Beleuchtungsverhältnisse genutzt, in denen auch Stützbilddaten mit Farbinformationen aus dem visuellen Spektrum über das zumindest eine Objekt erfasst werden können.A further development includes that supporting image data is received from an additional image data source, which provides supporting image data of the respective object from a visual frequency spectrum, and the coloring algorithm is configured using the supporting image data in relation to a color selection of a color to be selected in each case of at least one component of the object. In this way, the visual spectrum preferably includes frequencies of visible light that correspond to a wavelength range (in air at 1000 hPa) from 400 nanometers to 700 nanometers and describe colors, in particular red, green, blue (i.e. non-white, not -grey, not black). Color information of the respective object is thus determined by the additional image data source and provided to the coloring algorithm for a color selection or a color to be selected for at least one element of the object. In other words, such situations or time intervals and/or lighting conditions are used in which supporting image data with color information from the visual spectrum about the at least one object can also be recorded.

Eine Weiterbildung umfasst hierbei, dass zumindest einige der Stützbilddaten zumindest eine historische gespeicherte Bildaufnahme des jeweiligen Objekts zu einem Zeitpunkt umfassen, als eine ausreichende Beleuchtung vorhanden war, als nämlich eine Beleuchtungsmessung einer Beleuchtung des Objekts, insbesondere in der Umgebung, in zumindest einem Teil des visuellen Frequenzspektrums oberhalb einem vorbestimmten Schwellenwert lag. Die Beleuchtungsmessung kann beispielsweise Bestandteil der Zusatzbilddatenquelle sein, also beispielsweise ein Belichtungsmesser einer Belichtungsautomatik oder Blendenautomatik. Die Stützbilddaten werden also nicht gleichzeitig mit den zugehörigen oder zu kolorierenden Monochrombilddaten erfasst, sondern in einem Verhältnis dazu vorangegangenen Zeitraum oder einem vorangegangenen Zeitpunkt. Es wird also eine solche Situation oder ein solcher Moment anhand der Beleuchtungsmessung ermittelt, zu welchem im visuellen Frequenzspektrum oder zumindest einem Teil davon die Beleuchtung ein vorbestimmtes Mindesthelligkeitskriterium erfüllt, nämlich oberhalb des vorbestimmten Schwellenwerts liegt, sodass durch eine Erzeugung der Stützbilddaten ein farbiges Abbild des jeweiligen Objekts durch die Zusatzbilddatenquelle erzeugt werden kann. So kann beispielsweise ausgenutzt werden, dass in einem Kraftfahrzeug beim Zusteigen eines Fahrzeuginsassen, wenn eine Fahrzeugtür geöffnet ist, die Innenraumbeleuchtung aktiv ist. Dies kann durch die Beleuchtungsmessung detektiert werden. Beispielsweise können entsprechende sogenannten intrinsische Parameter einer Kamera ausgewertet werden, die angeben, welche Beleuchtungsstärke aktuell in der Umgebung vorliegt. Mittels der Stützbilddaten kann ein Modell des maschinellen Lernens dahingehend trainiert werden, dass eine Zuordnung von beispielsweise einer Form eines Elements des Objekts, beispielsweise eines Gesichts einer Person, und/oder einer Textur, beispielsweise einer Haartextur, eine in den Stützbilddaten beschriebene oder signalisierte Farbe zugeordnet wird. Wird dann in den Monochrombilddaten die Form und/oder Textur detektiert, so kann die Zuordnung der aus den Stützbilddaten entnommenen Farbe durch das Modell im Kolorierungsalgorithmus erfolgen. Die Beleuchtung kann zum Beispiel als Lichtfluss oder Luminanz gemessen werden. Es kann auf eine Beleuchtungsmessung aus dem Stand der Technik zurückgegriffen werden.A development here includes that at least some of the supporting image data include at least one historically stored image recording of the respective object at a time when sufficient lighting was available, namely as a lighting measurement of a lighting of the object, in particular in the surroundings, in at least a part of the visual Frequency spectrum was above a predetermined threshold. The illumination measurement can, for example, be a component of the additional image data source, ie, for example, an exposure meter of an automatic exposure system or an automatic shutter system. The support image data are thus not captured simultaneously with the associated monochrome image data or those to be colored, but rather in relation to a previous period of time or a previous point in time. The lighting measurement is used to determine a situation or a moment in which the lighting in the visual frequency spectrum or at least part of it meets a predetermined minimum brightness criterion, namely above the predetermined threshold value, so that the support image data is generated to produce a colored image of the respective Object can be generated by the additional image data source. For example, the fact that the interior lighting is active in a motor vehicle when a vehicle occupant gets in and a vehicle door is open can be used. This can be detected by the illumination measurement. For example, corresponding so-called intrinsic parameters of a camera can be evaluated, which indicate what level of illumination is currently present in the environment. Using the supporting image data, a machine learning model can be trained such that an assignment of, for example, a shape of an element of the object, for example a face of a person, and/or a texture, for example a hair texture, is assigned a color that is described or signaled in the supporting image data will. If the shape and/or texture is then detected in the monochrome image data, the color taken from the supporting image data can be assigned by the model in the coloring algorithm. Illumination can be measured in terms of luminous flux or luminance, for example. A lighting measurement from the prior art can be used.

Eine Weiterbildung umfasst, dass der Kolorierungsalgorithmus durch ein Modell des maschinellen Lernens implementiert ist und das Modell für die Monochrombilddaten und die Stützbilddaten jeweils unabhängige voneinander betriebene Merkmalsextraktoren oder Merkmalsencoder aufweist, durch welche Merkmalsdaten erzeugt werden. Den Merkmalsencodern ist eine Verknüpfungseinheit zum Konkatenieren oder Zusammenfügen der Merkmalsdaten nachgeschaltet und anhand der konkatenierten Merkmalsdaten werden die Farbbilddaten durch das Modell erzeugt. Merkmalsencoder sind an sich aus dem Stand der Technik im Zusammenhang mit Modellen des maschinellen Lernens bekannt. Das Modell des maschinellen Lernens kann beispielsweise auf der Grundlage eines künstlichen neuronalen Netzwerks bereitgestellt sein. Ein Merkmalsencoder des Modells umfasst dann mehrere Schichten (Layer) des künstlichen neuronalen Netzwerks, wobei es sich um innere Schichten handelt, also insbesondere nicht die Ausgabeschicht. Als Ausgabe eines Merkmalsencoders ergibt sich eine Repräsentation der Eingangsdaten (also der Monochrombilddaten beziehungsweise der Stützbilddaten), die in den jeweiligen Bilddaten enthaltene Merkmale, beispielsweise Konturen und/oder Texturen und/oder Grundformen (zum Beispiel Kreise oder Ovale) und/oder Kanten signalisieren oder beschreiben, die in den Bilddaten erkannt oder detektiert wurden. In den Stützbilddaten gibt der Merkmalsencoder dabei insbesondere auch Farbinformationen oder Farbwerte an, die in den Stützbilddaten erkannt wurden. Die Merkmalsdaten können beispielsweise als Merkmalsvektor bereitgestellt sein. Durch die Verknüpfungseinheit können die Merkmalsdaten aus beiden Merkmalsencodern (also die Merkmalsdaten aus dem Merkmalsencoder für die Stützbilddaten und die Merkmalsdaten aus dem Merkmalsencoder für die Monochrombilddaten) kombiniert oder zusammengefasst werden. Das Modell des maschinellen Lernens kann dann die konkatenierten Merkmalsdaten dahingehend weiterverarbeiten oder verknüpfen, dass korrespondierende Bildbereiche aus dem Monochrombild (Monochrombilddaten) und dem Stützbild (Stützbilddaten) anhand korrespondierender Merkmale erkannt werden und dann die Farbinformationen aus den Stützbilddaten den Merkmalen aus den Monochrombilddaten, also beispielsweise Flächen und/oder Texturen und/oder Formen, zugeordnet werden, wodurch sich die Kolorierung für die Farbbilddaten ergibt. Mit anderen Worten kann der eingangs beschriebene Kolorierungsalgorithmus zum Nachkolorieren von Schwarz-Weiß-Aufnahmen dahingehend erweitert werden, dass anstelle eines einzelnen Merkmalsencoders für die Monochrombilddaten zwei Merkmalsencoder (einer für die Monochrombilddaten und einer für die Stützbilddaten) betrieben oder bereitgestellt werden und diese über die Verknüpfungseinheit zum Konkatenieren der Ausgabedaten oder Merkmalsdaten der beiden Merkmalsencoder kombiniert werden. Hierdurch ergibt sich eine neue Verwendung eines Kolorierungsalgorithmus, der auf einem Modell des maschinellen Lernens basiert.A development includes that the coloring algorithm is implemented by a machine learning model and the model for the monochrome image data and the supporting image data has feature extractors or feature encoders that are operated independently of one another and by which feature data are generated. A linking unit for concatenating or combining the feature data is connected downstream of the feature encoders, and the color image data are generated by the model on the basis of the concatenated feature data. Feature encoders are known per se from the prior art in connection with machine learning models. The machine learning model may be provided based on an artificial neural network, for example. A feature encoder of the model then comprises a number of layers (layers) of the artificial neural network, these being inner layers, ie in particular not the output layer. The output of a feature encoder is a representation of the input data (i.e. the monochrome image data or the supporting image data), which signal features contained in the respective image data, for example contours and/or textures and/or basic shapes (e.g. circles or ovals) and/or edges or describe that were recognized or detected in the image data. In the supporting image data, the feature encoder also indicates in particular color information or color values that were recognized in the supporting image data. The feature data can be provided as a feature vector, for example. The feature data from both feature encoders (ie the feature data from the feature encoder for the supporting image data and the feature data from the feature encoder for the monochrome image data) can be combined or summarized by the linking unit. The machine learning model can then further process or link the concatenated feature data in such a way that corresponding image areas from the monochrome image (monochrome image data) and the Supporting image (supporting image data) are recognized based on corresponding features and then the color information from the supporting image data is assigned to the features from the monochrome image data, e.g. areas and/or textures and/or shapes, resulting in the coloring for the color image data. In other words, the coloring algorithm described at the outset for post-coloring black-and-white recordings can be expanded in such a way that instead of a single feature encoder for the monochrome image data, two feature encoders (one for the monochrome image data and one for the supporting image data) are operated or provided and these are operated via the linking unit be combined to concatenate the output data or feature data of the two feature encoders. This introduces a new use of a coloring algorithm based on a machine learning model.

Eine Weiterbildung umfasst, dass aus einer Objektbeobachtung Objektdaten einer aktuellen Pose und/oder Haltung des Objekts empfangen werden. Eine Weiterbildung umfasst, dass der Kolorierungsalgorithmus mittels der Objektdaten in Bezug auf eine Farbwahl einer jeweils zu wählenden Farbe zumindest eines Bestandteils des Objekts konfiguriert wird, indem ein jeweiliger Objekttyp des Bestandteils erkannt und eine jeweilige für den Objekttyp vorgegebene Farbe gewählt wird. Eine Objektbeobachtung kann in einem Kraftfahrzeug beispielsweise durch die an sich bekannte Insassenbeobachtung bereitgestellt sein, wie sie in dem eingangs beschriebenen Stand der Technik beschrieben ist. Ein Bestandteil des Objekts kann eine Komponente oder eine Gliedmaße des Objekts sein, beispielsweise ein Arm oder ein Gesicht. Durch die Insassenbeobachtung kann beispielsweise signalisiert sein, wo sich ein Arm oder ein Gesicht oder Haare des Objekts befinden. Sodann kann zu dem in dieser Weise signalisierten Objekttyp (Hand, Gesicht, Haar) anhand beispielsweise einer Look-up-Tabelle oder anhand von einer Zuordnungsfunktion dem Objekttyp eine gewünschte oder vorgegebene Farbe zugeordnet werden, somit werden Farbinformationen für die Monochrombilddaten bereitgestellt, um die Farbbilddaten zu erzeugen.A development includes that object data of a current pose and/or posture of the object are received from an object observation. A development includes the coloring algorithm being configured using the object data in relation to a color selection of a respective color to be selected of at least one component of the object by recognizing a respective object type of the component and selecting a respective color specified for the object type. An object observation can be provided in a motor vehicle, for example, by the occupant observation known per se, as described in the prior art described at the outset. A part of the object can be a component or an appendage of the object, such as an arm or a face. For example, the occupant observation can indicate where an arm or a face or hair of the object is located. A desired or specified color can then be assigned to the object type signaled in this way (hand, face, hair) using, for example, a look-up table or using an assignment function to create.

In Zusammenhang mit Monochrombilddaten basierend auf Infrarotlicht hat sich ergeben, dass eine Kontur oder Kante eines Bestandteils eines Objekts, beispielsweise einer Komponente oder eine Gliedmaße, unscharf oder überhaupt nicht abgebildet sein kann. Beispielsweise kann es vorkommen, dass eine auf einem Kleidungsstück abgelegte Hand nicht von dem umgebenden Textil, auf welchem die Hand aufliegt, in den Monochrombilddaten unterschieden oder erkannt werden. Eine Weiterbildung umfasst, dass eine in den Monochrombilddaten fehlende Kontur und/oder zumindest eine Kante des jeweiligen Bestandteils anhand der Objektdaten ermittelt und deren Verlauf signalisiert wird. Anhand einer Insassenbeobachtung können Objektdaten bereitgestellt sein, welche einen Verlauf einer Kontur und/oder einer Kante signalisieren, sodass dann der Bestandteil gemäß beispielsweise einem Objekttyp koloriert werden kann, also beispielsweise die auf dem Textil liegende Hand in Hautfarbe in den Farbbilddaten wiedergegeben ist, während beispielsweise das Textil, auf welchem die Hand aufliegt, in der Farbe des Textils koloriert in den Farbbilddaten wiedergegeben sein kann. Die Objektbeobachtung kann zum Beispiel auf einer 3D-Objekterfassung beruhen, zum Beispiel einer Stereokamera und/oder einem LiDAR und/oder einem Mikroradar.In the context of monochrome image data based on infrared light, it has been found that a contour or edge of a part of an object, such as a component or a limb, may be blurred or not imaged at all. For example, it can happen that a hand placed on a piece of clothing cannot be distinguished or recognized in the monochrome image data from the surrounding textile on which the hand is lying. A development includes that a contour missing in the monochrome image data and/or at least one edge of the respective component is determined on the basis of the object data and its course is signaled. Based on an occupant observation, object data can be provided which signal the course of a contour and/or an edge, so that the component can then be colored according to an object type, for example, i.e. the hand lying on the textile is reproduced in skin color in the color image data, while for example the textile on which the hand rests can be reproduced in the color of the textile in the color image data. The object observation can be based, for example, on a 3D object detection, for example a stereo camera and/or a LiDAR and/or a microradar.

Eine Weiterbildung umfasst, dass die Monochrombilddaten und die Stützbilddaten aus demselben Bildsensor empfangen werden. Der Bildsensor kann hierfür in der eingangs beschriebenen Weise ausgestaltet sein. Durch Kombinieren von Bildpixeln oder Sensorelementen auf einem Bildsensor, die sowohl Monochrombilddaten als auch Stützbilddaten erzeugen, ergibt sich der Vorteil, dass durch ein verschränktes Pixelmuster für die Monochrombilddaten und die Stützbilddaten die Perspektive, aus welcher das zumindest eine Objekt in den Monochrombilddaten und den Stützbilddaten dargestellt ist, identisch ist. Eine Weiterbildung umfasst, dass die Monochrombilddaten und die Stützbilddaten aus unterschiedlichen Bildsensoren empfangen werden. Hierdurch ergibt sich der Vorteil, dass mit technisch geringem Aufwand zwei geeignete Bildsensoren unabhängig voneinander bereitgestellt werden können.A development includes the monochrome image data and the supporting image data being received from the same image sensor. For this purpose, the image sensor can be designed in the manner described at the outset. Combining image pixels or sensor elements on an image sensor that generate both monochrome image data and supporting image data results in the advantage that an interlaced pixel pattern for the monochrome image data and the supporting image data allows the perspective from which the at least one object is represented in the monochrome image data and the supporting image data is, is identical. A development includes the monochrome image data and the supporting image data being received from different image sensors. This results in the advantage that two suitable image sensors can be provided independently of one another with little technical effort.

Eine Weiterbildung umfasst, dass zum Angleichen der Stützbilddaten an die Monochrombilddaten deren Bildauflösungen mittels einer Auflösungsskalierung und/oder deren Bildperspektiven mittels einer perspektivischen Verzerrung angeglichen werden. Das Angleichen einer Auflösungsskalierung, also das Angleichen der Bildauflösung (Pixel in x und Pixel in y) erfolgt bevorzugt hin zur größeren Auflösungszahl. Ein entsprechender Skalierungsalgorithmus kann aus dem Stand der Technik nicht entnommen werden. Das Angleichen der Auflösung weist den Vorteil auf, dass der Kolorierungsalgorithmus Bildbereiche oder Pixelbereiche aus den Monochrombilddaten und den Stützbilddaten zuverlässig einander zuordnen kann. Eine Korrektur einer perspektivischen Verzerrung, also eine Angleichung, kann beispielsweise dahingehend im Voraus konfiguriert werden, dass die Einbaupositionen der Bilddatenquelle und der Stützbilddatenquelle im Voraus erkannt sein können oder ermittelt werden können und die perspektivische Verzerrung entsprechend den Positionen konfiguriert werden kann. Eine perspektivische Verzerrung kann beispielsweise auf der Grundlage eines Algorithmus für eine Scherung und/oder ein so genanntes Bild-Warping zugrunde liegen.A development includes that, in order to match the supporting image data to the monochrome image data, their image resolutions are matched by means of resolution scaling and/or their image perspectives are matched by means of perspective distortion. The adjustment of a resolution scaling, i.e. the adjustment of the image resolution (pixel in x and pixel in y) is preferably carried out towards the larger resolution number. A corresponding scaling algorithm cannot be found in the prior art. Adjusting the resolution has the advantage that the coloring algorithm can reliably assign image areas or pixel areas from the monochrome image data and the supporting image data to one another. Correction of a perspective distortion, that is, an adjustment, can be configured in advance, for example, such that the installation positions of the image data source and the supporting image data source can be recognized or determined in advance and the perspective distortion can be configured according to the positions. A perspective distortion can occur, for example based on an algorithm for shearing and/or so-called image warping.

Eine Weiterbildung umfasst, dass das Objekt mittels einer eigenleuchtenden Lichtquelle des ultravioletten und/oder dem infraroten Frequenzspektrum angeleuchtet wird. Durch das aktive Ausleuchten kann sichergestellt werden, dass Licht in dem die Monochrombilddaten oder die Erzeugung der Monochrombilddaten erforderlichen Frequenzspektrum vorhanden ist. Dennoch wird eine Person nicht geblendet, weil die Lichtquelle kein sichtbares Licht ausstrahlen muss.A development includes that the object is illuminated by means of a self-illuminating light source of the ultraviolet and/or the infrared frequency spectrum. The active illumination can ensure that light is present in the frequency spectrum required for the monochrome image data or for generating the monochrome image data. Nevertheless, a person is not dazzled because the light source does not have to emit visible light.

Eine Weiterbildung umfasst, dass die Farbbilddaten als Videostrom ausgegeben werden. Mit anderen Worten wird als Bilddatenquelle bevorzugt eine Videokamera verwendet. Hierdurch kann in der Umgebung, insbesondere in einem Fahrzeuginnenraum, beispielsweise Videotelefonie implementiert werden. Die Farbbilddaten können zusätzlich oder alternativ ein Standbild enthalten.A development includes the color image data being output as a video stream. In other words, a video camera is preferably used as the image data source. As a result, video telephony, for example, can be implemented in the environment, in particular in a vehicle interior. The color image data may additionally or alternatively include a still image.

Als eine weitere Lösung umfasst die Erfindung eine Prozessorschaltung zum Bereitstellen von Farbbilddaten, wobei die Prozessorschaltung dazu eingerichtet ist, eine Weiterbildung des erfindungsgemäßen Verfahrens durchzuführen. Die Prozessorschaltung kann eine Datenverarbeitungsvorrichtung oder eine Prozessoreinrichtung aufweisen, die dazu eingerichtet ist, die Weiterbildung des erfindungsgemäßen Verfahrens durchzuführen. Die Prozessorschaltung kann hierzu zumindest einen Mikroprozessor und/oder zumindest einen Mikrocontroller und/oder zumindest einen FPGA (Field Programmable Gate Array) und/oder zumindest einen DSP (Digital Signal Processor) aufweisen. Des Weiteren kann die Prozessorschaltung Programmcode aufweisen, der dazu eingerichtet ist, bei Ausführen durch die Prozessorschaltung die Weiterbildung des erfindungsgemäßen Verfahrens durchzuführen. Der Programmcode kann in einem Datenspeicher der Prozessorschaltung gespeichert sein. Die Prozessorschaltung kann beispielsweise mittels eines Steuergeräts oder eines Verbundes aus mehreren Steuergeräten bereitgestellt sein. Die Prozessorschaltung ist hierbei für den Betrieb in einem Kraftfahrzeug vorgesehen.As a further solution, the invention includes a processor circuit for providing color image data, the processor circuit being set up to carry out a further development of the method according to the invention. The processor circuit can have a data processing device or a processor device that is set up to carry out the development of the method according to the invention. For this purpose, the processor circuit can have at least one microprocessor and/or at least one microcontroller and/or at least one FPGA (Field Programmable Gate Array) and/or at least one DSP (Digital Signal Processor). Furthermore, the processor circuit can have program code which is set up to carry out the further development of the method according to the invention when executed by the processor circuit. The program code can be stored in a data memory of the processor circuit. The processor circuit can be provided, for example, by means of a control device or a combination of a number of control devices. The processor circuit is intended for operation in a motor vehicle.

Als eine weitere Lösung umfasst die Erfindung ein Kraftfahrzeug mit zumindest einer Kamera als Bilddatenquellen und mit einer Weiterbildung der erfindungsgemäßen Prozessorschaltung, die mit der zumindest einen Kamera gekoppelt ist. Das erfindungsgemäße Kraftfahrzeug ist bevorzugt als Kraftwagen, insbesondere als Personenkraftwagen oder Lastkraftwagen, oder als Personenbus oder Motorrad ausgestaltet. In dem Kraftfahrzeug kann als Bilddatenquelle und als Stützbilddatenquelle beispielsweise zumindest ein Bildsensor in der beschriebenen Weise vorgesehen sein. Der jeweilige Bildsensor kann beispielsweise mittels einer Kamera oder mehrerer Kameras bereitgestellt sein.As a further solution, the invention includes a motor vehicle with at least one camera as the image data source and with a development of the processor circuit according to the invention, which is coupled to the at least one camera. The motor vehicle according to the invention is preferably designed as a motor vehicle, in particular as a passenger car or truck, or as a passenger bus or motorcycle. In the motor vehicle, for example, at least one image sensor can be provided in the manner described as an image data source and as a supporting image data source. The respective image sensor can be provided, for example, by means of a camera or multiple cameras.

Die Erfindung umfasst auch die Kombinationen der Merkmale der beschriebenen Weiterbildungen. Die Erfindung umfasst also auch Realisierungen, die jeweils eine Kombination der Merkmale mehrerer der beschriebenen Weiterbildungen aufweisen, sofern die Weiterbildungen nicht als sich gegenseitig ausschließend beschrieben wurden.The invention also includes combinations of the features of the developments described. The invention also includes implementations that each have a combination of the features of several of the developments described, provided that the developments were not described as mutually exclusive.

Im Folgenden sind Ausführungsbeispiele der Erfindung beschrieben. Hierzu zeigt die einzige Figur:

  • Fig. eine schematische Darstellung einer Ausführungsform des erfindungsgemäßen Kraftfahrzeugs mit einer erfindungsgemäßen Prozessorschaltung die eine Ausführungsform des erfindungsgemäßen Verfahrens durchführen kann.
Exemplary embodiments of the invention are described below. The only figure shows this:
  • 2 shows a schematic representation of an embodiment of the motor vehicle according to the invention with a processor circuit according to the invention which can carry out an embodiment of the method according to the invention.

Bei den im Folgenden erläuterten Ausführungsbeispielen handelt es sich um bevorzugte Weiterbildungen der Erfindung. Bei den Ausführungsbeispielen stellen die beschriebenen Komponenten der Weiterbildungen jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden. Daher soll die Offenbarung auch andere als die dargestellten Kombinationen der Merkmale der Weiterbildungen umfassen. Des Weiteren sind die beschriebenen Weiterbildungen auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.The exemplary embodiments explained below are preferred developments of the invention. In the exemplary embodiments, the described components of the developments each represent individual features of the invention which are to be considered independently of one another and which also develop the invention independently of one another. The disclosure should therefore also include combinations of the features of the developments other than those shown. Furthermore, the developments described can also be supplemented by further features of the invention that have already been described.

In den Figuren bezeichnen gleiche Bezugszeichen jeweils funktionsgleiche Elemente.In the figures, the same reference symbols designate elements with the same function.

Die einzige Fig. zeigt ein Kraftfahrzeug 10, bei dem es sich um einen Kraftwagen, insbesondere um einen Personenkraftwagen oder Lastkraftwagen handeln kann. In dem Kraftfahrzeug 10 kann sich eine Person 11 beispielsweise als Fahrer aufhalten. Dies ist in der Fig. durch ein Lenkrad 12 symbolisiert, das von der Person 11 geführt wird. In dem Kraftfahrzeug 10 kann eine Bilddatenquelle 13 und zusätzlich eine Stützbilddatenquelle 14 bereitgestellt sein. Die Bilddatenquelle 13 kann beispielsweise eine Infrarotkamera sein, wie sie beispielsweise Bestandteil einer Insassenbeobachtung oder Fahrer-Aufmerksamkeitsbeobachtung in an sich bekannter Weise sein kann. Die Infrarotkamera 15, also allgemein die Bilddatenquelle 13 kann Monochrombilddaten 16 erzeugen, die beispielsweise in einem Wellenlängenbereich des Lichts größer als 750 Nanometer, insbesondere größer als 800 Nanometer, liegen können. Mittels der Bilddatenquelle 13 kann durch Ausrichten ihres Erfassungsbereichs 17 als Objekt 18 beispielsweise die Person 11 erfasst werden. Für eine Ausleuchtung oder Beleuchtung des Objekts 18 kann eine Lichtquelle 19 für das Licht im Farbspektrum, das für den Bildsensor der Bilddatenquelle 13 vorgesehen ist, erzeugen oder abstrahlen. Zusätzlich können durch die Stützbilddatenquelle 14 Stützbilddaten 20 erzeugt werden. Die Stützbilddatenquelle 14 kann einen Erfassungsbereich 21 haben, der ebenfalls auf das Objekt 18, also beispielsweise die Person 11, ausgerichtet sein kann. die Stützbilddatenquelle 14 kann beispielsweise eine Videokamera sein. Es handelt sich insbesondere um eine Farbbildkamera.The only figure shows a motor vehicle 10, which can be a motor vehicle, in particular a passenger car or truck. A person 11 can be in the motor vehicle 10 as a driver, for example. This is symbolized in the figure by a steering wheel 12 that is guided by person 11 . An image data source 13 and additionally a supporting image data source 14 can be provided in the motor vehicle 10 . The image data source 13 can be an infrared camera, for example, such as can be part of an occupant observation or driver attention observation in a manner known per se. The infrared camera 15, that is to say the image data source 13 in general, can generate monochrome image data 16 which, for example, can lie in a light wavelength range greater than 750 nanometers, in particular greater than 800 nanometers. Using the image data source 13, by aligning its detection area 17 as an object 18 For example, the person 11 can be detected. For illuminating or illuminating the object 18, a light source 19 can generate or radiate the light in the color spectrum that is provided for the image sensor of the image data source 13. In addition, the supporting image data source 14 can generate supporting image data 20 . The supporting image data source 14 can have a detection area 21 which can likewise be aligned with the object 18, ie the person 11, for example. the supporting image data source 14 can be a video camera, for example. It is in particular a color image camera.

Die Monochrombilddaten 16 und die Stützbilddaten 20 können durch eine Prozessorschaltung 22 empfangen werden, die beispielsweise durch ein Steuergerät des Kraftfahrzeugs 10 realisiert sein kann. In der Prozessorschaltung 22 kann ein Kolorierungsalgorithmus 23 betrieben werden, der anhand der Monochrombilddaten 16 Farbbilddaten 24 erzeugt. Hierzu kann beispielsweise ein Modell 25 des maschinellen Lernens durch den Kolorierungsalgorithmus 23 vorgesehen sein. Die Farbbilddaten 24 können beispielsweise mittels einer Kommunikationseinheit 26, beispielsweise einem Mobilfunkmodul und/oder einem WiFi-Funkmodul über eine Funkverbindung 27 als Videostrom 28 versendet werden, sodass die Person 11 beispielsweise eine Videokonferenz oder ein Video-Gespräch führen kann. Dies ist aber nur eine beispielhafte Anwendung für den Kolorierungsalgorithmus 23. Die Monochrombilddaten 16 können das Objekt 18, also beispielsweise die Person 11, durch unterschiedliche oder verschiedene Graustufen abbilden, wie es an sich für Infrarotbilder bekannt ist. Durch den Kolorierungsalgorithmus 23 können Komponenten oder Bestandteile des Objekts 18 nachkoloriert werden. Das Modell des maschinellen Lernens kann hierzu einen Merkmalsextraktor oder Merkmalsencoder 30 für die Monochrombilddaten 16, also für Einzelbilder, die durch die Monochrombilddaten 16 beschrieben sind, aufweisen. Es kann ein Merkmalsextraktor oder Merkmalsencoder 31 für die Stützbilddaten 20 bereitgestellt werden. Es können also Merkmale aus einzelnen Bildern, die durch die Stützbilddaten 20 repräsentiert sind, extrahiert werden. Die extrahierten Merkmale können durch eine Verknüpfungseinheit 32 verknüpft werden, das heißt Merkmalsdaten 34 aus dem Merkmalsextraktor 30 und Merkmalsdaten 34 aus dem Merkmalsextraktor 31 können verkettet oder zusammenhängend angeordnet oder zu einem Merkmalsvektor zusammengefasst sein. In den Stützbilddaten 20 und damit auch in den Merkmalsdaten 34 können Farbinformationen 35 enthalten sein. Hierzu können die Stützbilddaten 20 beispielsweise bei ausreichender Beleuchtung erfasst werden, also historische Stützbilddaten darstellen und/oder es können bei unzureichender Beleuchtung unterhalb eines Schwellenwerts gleichzeitig mit den Monochrombilddaten 16 Farbinformationen beispielsweise durch Verstärken des Bildsensorsignals der Stützbilddaten ermittelt werden. Die verknüpften Merkmalsdaten 33, 34 können durch eine Nachkolorierung 36 des Modells 25 verknüpft werden, sodass Konturen und/oder Formen und/oder Texturen, wie sie durch die Monochrombilddaten 16 in den Merkmalen gemäß den Merkmalsdaten 34 repräsentiert sind, mit den Farbinformationen 35 aus den Merkmalsdaten 34 des Stützbilddaten 20 koloriert oder gefärbt oder mit Farbinformationen ergänzt werden. Die hierdurch entstehenden Farbbilddaten 24 können dann in der beschriebenen Weise bereitgestellt oder versendet werden.The monochrome image data 16 and the supporting image data 20 can be received by a processor circuit 22, which can be implemented by a control unit of the motor vehicle 10, for example. A coloring algorithm 23 can be operated in the processor circuit 22, which uses the monochrome image data 16 to generate color image data 24. For this purpose, for example, a machine learning model 25 can be provided by the coloring algorithm 23 . The color image data 24 can be sent as a video stream 28, for example by means of a communication unit 26, for example a mobile radio module and/or a WiFi radio module, via a radio connection 27, so that the person 11 can conduct a video conference or a video conversation, for example. However, this is only an exemplary application for the coloring algorithm 23. The monochrome image data 16 can depict the object 18, for example the person 11, using different gray levels, as is known per se for infrared images. Components or parts of the object 18 can be post-colored by the coloring algorithm 23 . For this purpose, the machine learning model can have a feature extractor or feature encoder 30 for the monochrome image data 16 , ie for individual images which are described by the monochrome image data 16 . A feature extractor or feature encoder 31 for the supporting image data 20 may be provided. Features can therefore be extracted from individual images, which are represented by the supporting image data 20 . The extracted features can be linked by a linking unit 32, ie feature data 34 from feature extractor 30 and feature data 34 from feature extractor 31 can be chained or arranged contiguously or combined to form a feature vector. Color information 35 can be contained in supporting image data 20 and thus also in feature data 34 . For this purpose, the supporting image data 20 can be recorded, for example, when there is sufficient lighting, i.e. represent historical supporting image data, and/or color information can be determined simultaneously with the monochrome image data 16, for example by amplifying the image sensor signal of the supporting image data, in the event of insufficient lighting below a threshold value. The linked feature data 33, 34 can be linked by post-coloring 36 of the model 25, so that contours and/or shapes and/or textures, as represented by the monochrome image data 16 in the features according to the feature data 34, with the color information 35 from the Feature data 34 of the supporting image data 20 are colored or colored or supplemented with color information. The resulting color image data 24 can then be provided or sent in the manner described.

Neben verbreiteten Ansätzen zur Kolorierung von Bildern, die während des Trainings des Kolorierungsalgorithmus ausschließlich allgemeines Vorwissen verwenden, wird hier zusätzlich während der Inferenz durch den Kolorierungsalgorithmus Wissen über die aktuelle Szene der Umgebung und/oder das zumindest Objekt hinzugefügt. Abweichend von dem Ansatz von Zhang et al. (Richard Zhang, Phillip Isola, Alexei A. Efros: „Colorful Image Colorization“, 2016; http://arxiv.org/abs/1603.08511) werden zwei Encoder desselben Schemas verwendet, wobei einer ein monochromes Bild der Monochrombilddaten und einer ein mehrkanaliges Bild der Stützbilddaten verarbeitet. Die extrahierten Eigenschaften können in einem Latent-Space konkateniert werden. Dadurch erhält das Model je nach Trainingsdaten die Möglichkeit Farbinformationen, entweder aus der Vergangenheit oder aktuelle Farbinformationen bei beispielsweise schlechter Beleuchtung, zu verwenden. In addition to common approaches for coloring images, which only use prior general knowledge during the training of the coloring algorithm, knowledge about the current scene of the environment and/or at least the object is also added here during the inference by the coloring algorithm. Deviating from the approach of Zhang et al. (Richard Zhang, Phillip Isola, Alexei A. Efros: "Colorful Image Colorization", 2016; http://arxiv.org/abs/1603.08511) two encoders of the same scheme are used, one a monochrome image of the monochrome image data and one a multi-channel Image of the support image data processed. The extracted properties can be concatenated in a latent space. Depending on the training data, this gives the model the opportunity to use color information, either from the past or current color information, for example when the lighting is poor.

Neben der für den Menschen sichtbaren Wellen können weitere Wellenlängen erfasst und daraus Rückschluss auf die Szenerie und ihr Aussehen im sichtbaren Lichtbereich geschlossen werden.In addition to the waves visible to humans, other wavelengths can be recorded and conclusions can be drawn about the scenery and its appearance in the visible light range.

Auch bei schlechten oder wechselnden Lichtverhältnissen wird ein gutes Bild- oder Videosignal im sichtbaren Frequenzbereich erzeugt.A good image or video signal is generated in the visible frequency range even in poor or changing light conditions.

Es können entweder nur Signale aus dem nicht sichtbaren Frequenzbereich oder eine Kombination aus sichtbaren und nicht sichtbaren Frequenzbereichen verwendet werden. Bei der Aufzeichnung gibt es folgende Unterscheidungen:

  • • Es kann entweder derselbe Bildsensor verwendet werden um alle Wellenbereiche zu erfassen oder es können mehrere unterschiedliche Sensoren verwendet werden.
  • • Werden mehrere separate Bilder erfasst, können beide Bilder dieselbe oder unterschiedliche Auflösungen haben.
  • • Optional kann eine aktive Beleuchtung für bestimmte oder alle Wellenlängen verwendet werden.
Either only signals from the non-visible frequency range or a combination of visible and non-visible frequency ranges can be used. There are the following differences in recording:
  • • Either the same image sensor can be used to capture all wavebands or several different sensors can be used.
  • • When capturing multiple separate images, both images may have the same or different resolutions.
  • • Optionally, active illumination can be used for specific or all wavelengths.

Ein Kolorierungsalgorithmus verwendet die Daten aus dem nicht sichtbaren Frequenzbereich oder kombiniert die Daten aus allen Frequenzbereichen um daraus ein optimiertes Bild im sichtbaren Frequenzbereich zu erzeugen. Dieser Kolorierungsalgorithmus können neben den aktuellen Daten auch Wissen aus der Vergangenheit verwenden.A coloring algorithm uses the data from the non-visible frequency range or combines the data from all frequency ranges to generate an optimized image in the visible frequency range. This coloring algorithm can use knowledge from the past in addition to the current data.

Insgesamt zeigen die Beispiele, wie in einem Kraftfahrzeug die Videoqualität durch Nutzung nicht-sichtbarer Frequenzbereich verbessert werden kann.Overall, the examples show how the video quality can be improved in a motor vehicle by using non-visible frequency ranges.

Claims (10)

Verfahren zum Bereitstellen von Farbbilddaten (24), durch welche zumindest ein Objekt (18) in einer vorbestimmten Umgebung farbig dargestellt ist, wobei durch eine Prozessorschaltung (22) aus einer Bilddatenquelle (13) Monochrombilddaten (16), welche das zumindest eine Objekt in einem vorbestimmten ultravioletten und/oder dem infraroten Frequenzspektrum zeigen, empfangen werden und mittels eines vorbestimmten Kolorierungsalgorithmus (23) die Farbbilddaten (24) aus den Monochrombilddaten (16) erzeugt werden und die erzeugten Farbbilddaten (24) bereitgestellt werden, wobei aus einer Zusatzbilddatenquelle (14), welche Stützbilddaten (20) des jeweiligen Objekts (18) aus einem visuellen Frequenzspektrum bereitstellt, Stützbilddaten (20) empfangen werden und der Kolorierungsalgorithmus (23) mittels der Stützbilddaten (20) in Bezug auf eine Farbwahl einer jeweils zu wählenden Farbe zumindest eines Bestandteils des Objekts (18) konfiguriert wird, wobei zumindest einige der Stützbilddaten (20) zeitgleich mit den Monochrombilddaten (16) erfasst werden, wobei aber eine Beleuchtungsmessung einer Beleuchtung des Objekts (18) in zumindest einem Teil des visuellen Frequenzspektrums unter einem vorbestimmten Schwellenwert liegt, der signalisiert, dass die farbigen Stützbilddaten keine ausreichende Beleuchtung aufweisen, und wobei Farbinformationen aus den Stützbilddaten entnommen werden, die zwar ein unterbelichtetes Abbild des Objekts, aber weiterhin Farbinformationen enthalten, wobei die Farbinformationen durch Verstärken des Bildsensorsignals der Stützbilddaten ermittelt werden.Method for providing color image data (24), through which at least one object (18) is displayed in color in a predetermined environment, wherein monochrome image data (16) showing the at least one object in a predetermined ultraviolet and/or the infrared frequency spectrum are received by a processor circuit (22) from an image data source (13) and the color image data (24) are output by means of a predetermined coloring algorithm (23). the monochrome image data (16) are generated and the generated color image data (24) are provided, in which from an additional image data source (14), which provides supporting image data (20) of the respective object (18) from a visual frequency spectrum, supporting image data (20) are received and the coloring algorithm (23) uses the supporting image data (20) in relation to a color selection of a respective to selected color of at least one component of the object (18), at least some of the supporting image data (20) being recorded at the same time as the monochrome image data (16), but with an illumination measurement of an illumination of the object (18) in at least part of the visual frequency spectrum lies at a predetermined threshold value, which signals that the colored supporting image data does not have sufficient illumination, and color information is taken from the supporting image data, which although an underexposed image of the object still contains color information, the color information being determined by amplifying the image sensor signal of the supporting image data to be mediated. Verfahren nach Anspruch 1, wobei zumindest einige der Stützbilddaten (20) zumindest eine historische, gespeicherte Bildaufnahme des Objekts (18) zu einem Zeitpunkt umfassen, als eine Beleuchtungsmessung einer Beleuchtung des Objekts (18), insbesondere in der Umgebung, in zumindest einem Teil des visuellen Frequenzspektrums oberhalb eines vorbestimmten Schwellenwerts lag.procedure after claim 1 , wherein at least some of the supporting image data (20) comprise at least one historical, stored image recording of the object (18) at a point in time when an illumination measurement of an illumination of the object (18), in particular in the environment, in at least part of the visual frequency spectrum above a predetermined threshold was. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Kolorierungsalgorithmus (23) durch ein Modell (25) des maschinellen Lernens implementiert ist und das Modell (25) für die Monochrombilddaten (16) und die Stützbilddaten (20) jeweils unabhängige voneinander betriebene Merkmalsencoder (30) aufweist, durch welche Merkmalsdaten (33, 34) des zumindest einen Objekts erzeugt werden, und den Merkmalsencodern (30) eine Verknüpfungseinheit (32) zum Konkatenieren der Merkmalsdaten (33, 34) nachgeschaltet ist und anhand der konkatenierten Merkmalsdaten (33, 34) die Farbbilddaten (24) durch das Modell (25) erzeugt werden.Method according to one of the preceding claims, wherein the coloring algorithm (23) is implemented by a machine learning model (25) and the model (25) for the monochrome image data (16) and the supporting image data (20) each have independently operated feature encoders (30) has, through which feature data (33, 34) of the at least one object is generated, and the feature encoders (30) are followed by a linking unit (32) for concatenating the feature data (33, 34) and using the concatenated feature data (33, 34) the Color image data (24) are generated by the model (25). Verfahren nach einem der vorhergehenden Ansprüche, wobei die Monochrombilddaten (16) einerseits und die Stützbilddaten (20) andererseits aus demselben Bildsensor oder aus unterschiedlichen Bildsensoren empfangen werden.Method according to one of the preceding claims, in which the monochrome image data (16) on the one hand and the supporting image data (20) on the other hand are received from the same image sensor or from different image sensors. Verfahren nach einem der vorhergehenden Ansprüche, wobei zum Angleichen der Stützbilddaten (20) an die Monochrombilddaten (16) deren Bildauflösungen mittels einer Auflösungsskalierung und/oder deren Bildperspektiven mittels einer perspektivischen Verzerrung angeglichen werden.Method according to one of the preceding claims, in which, in order to match the supporting image data (20) to the monochrome image data (16), their image resolutions are matched by means of resolution scaling and/or their image perspectives are matched by means of perspective distortion. Verfahren nach einem der vorhergehenden Ansprüche, wobei aus einer Objektbeobachtung Objektdaten einer aktuellen Pose und/oder Haltung des Objekts (18) empfangen werden und a) der Kolorierungsalgorithmus (23) mittels der Objektdaten in Bezug auf eine Farbwahl einer jeweils zu wählenden Farbe zumindest eines Bestandteils des Objekts (18) konfiguriert wird, wobei der jeweilige Bestandteil des Objekts eine Komponente oder eine Gliedmaße des Objekts ist, insbesondere ein Arm oder ein Gesicht, und die Farbe gewählt wird, indem ein jeweiliger Objekttyp des Bestandteils erkannt und eine jeweilige für den Objekttyp vorgegebene Farbe gewählt wird, indem zu dem signalisierten Objekttyp (Hand, Gesicht, Haar) anhand einer Look-up-Tabelle oder anhand von einer Zuordnungsfunktion dem Objekttyp eine vorgegebene Farbe zugeordnet wird, und somit Farbinformationen für die Monochrombilddaten bereitgestellt werden, um die Farbbilddaten zu erzeugen, und/oder b) eine in den Monochrombilddaten (16) fehlende Kontur und/oder zumindest eine Kante des jeweiligen Bestandteils anhand der Objektdaten ermittelt und deren Verlauf signalisiert wird.Method according to one of the preceding claims, object data on a current pose and/or attitude of the object (18) being received from an object observation and a) the coloring algorithm (23) is configured using the object data in relation to a color selection of a color to be selected in each case of at least one component of the object (18), the respective component of the object being a component or a limb of the object, in particular an arm or a face, and the color is selected by recognizing a respective object type of the component and selecting a respective color predetermined for the object type by looking up the signaled object type (hand, face, hair) using a look-up table or using a Assignment function the object type is assigned a predetermined color, and thus color information for the monochrome image data is provided in order to generate the color image data, and/or b) a contour missing in the monochrome image data (16) and/or at least one edge of the respective component is determined on the basis of the object data and its course is signaled. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Objekt (18) mittels einer eigenleuchtenden Lichtquelle (19) des ultravioletten und/oder dem infraroten Frequenzspektrum angeleuchtet wird.Method according to one of the preceding claims, in which the object (18) is illuminated by means of a self-illuminating light source (19) of the ultraviolet and/or the infrared frequency spectrum. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Farbbilddaten (24) als Videostrom (28) ausgegeben werden.A method as claimed in any preceding claim, wherein the color image data (24) is output as a video stream (28). Prozessorschaltung (22) zum Bereitstellen von Farbbilddaten (24), wobei die Prozessorschaltung (22) dazu eingerichtet ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen.Processor circuit (22) for providing color image data (24), the processor circuit (22) being set up to carry out a method according to one of the preceding claims. Kraftfahrzeug (10) mit zumindest einer Kamera als Bilddatenquellen (13) und mit einer Prozessorschaltung (22), die mit der zumindest einen Kamera gekoppelt und die nach Anspruch 9 ausgebildet ist.Motor vehicle (10) with at least one camera as an image data source (13) and with a processor circuit (22) which is coupled to the at least one camera and which, according to claim 9 is trained.
DE102021123275.9A 2021-09-08 2021-09-08 Method and processor circuit for providing color image data, by means of which at least one object in a predetermined environment is represented in color, and motor vehicle with the processor circuit Active DE102021123275B3 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021123275.9A DE102021123275B3 (en) 2021-09-08 2021-09-08 Method and processor circuit for providing color image data, by means of which at least one object in a predetermined environment is represented in color, and motor vehicle with the processor circuit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021123275.9A DE102021123275B3 (en) 2021-09-08 2021-09-08 Method and processor circuit for providing color image data, by means of which at least one object in a predetermined environment is represented in color, and motor vehicle with the processor circuit

Publications (1)

Publication Number Publication Date
DE102021123275B3 true DE102021123275B3 (en) 2023-01-26

Family

ID=84784244

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021123275.9A Active DE102021123275B3 (en) 2021-09-08 2021-09-08 Method and processor circuit for providing color image data, by means of which at least one object in a predetermined environment is represented in color, and motor vehicle with the processor circuit

Country Status (1)

Country Link
DE (1) DE102021123275B3 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10046309C1 (en) 2000-09-19 2001-10-31 Siemens Ag Image recognition sensor device has 2 sets of sensor elements using visible and IR light, e.g. for providing video telephone image and user identification image
US20160065903A1 (en) 2014-08-27 2016-03-03 Metaio Gmbh Method and system for providing at least one image captured by a scene camera of a vehicle
DE112017007579T5 (en) 2017-05-24 2020-03-12 HELLA GmbH & Co. KGaA Process and system for automatic coloring of night vision images
DE102019112449A1 (en) 2019-05-13 2020-11-19 Bayerische Motoren Werke Aktiengesellschaft Motor vehicle with an optical arrangement for detecting vehicle interior objects in the invisible spectral range

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10046309C1 (en) 2000-09-19 2001-10-31 Siemens Ag Image recognition sensor device has 2 sets of sensor elements using visible and IR light, e.g. for providing video telephone image and user identification image
US20160065903A1 (en) 2014-08-27 2016-03-03 Metaio Gmbh Method and system for providing at least one image captured by a scene camera of a vehicle
DE112017007579T5 (en) 2017-05-24 2020-03-12 HELLA GmbH & Co. KGaA Process and system for automatic coloring of night vision images
DE102019112449A1 (en) 2019-05-13 2020-11-19 Bayerische Motoren Werke Aktiengesellschaft Motor vehicle with an optical arrangement for detecting vehicle interior objects in the invisible spectral range

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
LIMMER, Matthias; LENSCH, Hendrik P. A.: Infrared Colorization Using Deep Convolutional Neural Networks. 15th IEEE International Conference on Machine Learning and Applications, ICMLA 2016, Anaheim, CA, USA, 18-20 December 2016. IEEE Computer Society 2016: Conference Proceedings, ISBN 978-1-5090-6167-9, pp. 61 - 68.
ZHANG, Richard ; ISOLA, Phillip ; EFROS, Alexei A.: Colorful Image Colorization. 05-10-2016. arXiv:1603.08511v5. S. 1-29. URL: https://arxiv.org/pdf/1603.08511.pdf [abgerufen am 2019-06-07]
ZHANG, Richard; ISOLA, Phillip; EFROS, Alexei A.: Split-Brain Autoencoders: Unsupervised Learning by Cross-Channel Prediction. IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2017, Honolulu, HI, USA, 21-26 July 2017. IEEE Computer Society 2017: Conference Proceedings, pp. 645 - 654.

Similar Documents

Publication Publication Date Title
EP2619975B1 (en) Method for differentiating background and foreground of a setting and method for replacing a background in images of a setting
DE112017007579T5 (en) Process and system for automatic coloring of night vision images
DE102006047777A1 (en) Virtual spotlight for marking objects of interest in image data
DE102019114533A1 (en) DETECTION OF VISIBLE LIGHT COMMUNICATION SOURCES OVER A HIGH DYNAMIC RANGE
EP1372111B1 (en) Infrared night vision device and display for automobile
EP3089106B1 (en) Method for reflection adjustment of images and related apparatus
DE102013114996A1 (en) Method for applying super-resolution to images detected by camera device of vehicle e.g. motor car, involves applying spatial super-resolution to area-of-interest within frame to increase the image sharpness within area-of-interest
DE102015207902A1 (en) Method and device for confirming the relevant inner white circle in the recognition of the environment of a circular traffic sign
DE102016121755A1 (en) Method for determining a composite image of a surrounding area of a motor vehicle with adaptation of brightness and / or color, camera system and power vehicle
CN110349114A (en) Applied to the image enchancing method of AOI equipment, device and road video monitoring equipment
DE102016216795A1 (en) Method for determining result image data
DE102020115779A1 (en) Imaging control device
DE102004010908B4 (en) Image pickup device and image recording method
DE102015014263A1 (en) Method and device for driving situation-dependent parameter variation in a vehicle-mounted camera-monitor system
DE102021123275B3 (en) Method and processor circuit for providing color image data, by means of which at least one object in a predetermined environment is represented in color, and motor vehicle with the processor circuit
DE102014118314A1 (en) Method for adjusting a brightness of a high-contrast image, camera system and motor vehicle
EP1109398B1 (en) Image reading system to obtain a dark image and light image
DE102021103026A1 (en) ADVANCED IMAGING SYSTEM FOR A MOTOR VEHICLE
EP1447985A1 (en) Device and method to improve vision in vehicles
DE102023106944A1 (en) ADAPTIVE COLOR SELECTION FOR VEHICLE PUDDLE LIGHTS
EP1567982B1 (en) Method and device for compensating for shadows in digital images
DE102013011844A1 (en) Method for adjusting a gamma curve of a camera system of a motor vehicle, camera system and motor vehicle
EP1206123B1 (en) Method for false color representation of image data
DE102008031593A1 (en) Camera system for use in motor vehicle to assist driver during e.g. reversing vehicle, has filter system formed from red, green, blue and weight color filters, and evaluation arrangement with compensating unit to compensate infrared parts
DE102022002637B3 (en) Camera system and method for its operation

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: CARIAD SE, DE

Free format text: FORMER OWNER: AUDI AKTIENGESELLSCHAFT, 85057 INGOLSTADT, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final